JP6554422B2 - INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM - Google Patents

INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6554422B2
JP6554422B2 JP2016001925A JP2016001925A JP6554422B2 JP 6554422 B2 JP6554422 B2 JP 6554422B2 JP 2016001925 A JP2016001925 A JP 2016001925A JP 2016001925 A JP2016001925 A JP 2016001925A JP 6554422 B2 JP6554422 B2 JP 6554422B2
Authority
JP
Japan
Prior art keywords
heart rate
start point
unit
emotion
rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016001925A
Other languages
Japanese (ja)
Other versions
JP2017121373A (en
Inventor
啓介 角田
啓介 角田
佳那 江口
佳那 江口
吉田 和広
和広 吉田
水野 理
理 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016001925A priority Critical patent/JP6554422B2/en
Publication of JP2017121373A publication Critical patent/JP2017121373A/en
Application granted granted Critical
Publication of JP6554422B2 publication Critical patent/JP6554422B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明の実施形態は、ユーザの情動を推定する情報処理装置、情報処理方法、及び、プログラムに関する。   Embodiments described herein relate generally to an information processing apparatus, an information processing method, and a program for estimating a user's emotion.

従来、コンテンツの鑑賞又はデスクワークなどの種々の行為によって生じるユーザの情動(たとえば、笑いなど)を推定する技術がある。そのような技術には、カメラでユーザの顔を撮影し、ユーザの表情(たとえば、笑顔又は不安顔)の継続時間を測定するものがある。また、そのような技術には、マイクでユーザの声を計測し、ユーザの音声から所定の声(たとえば、笑い声又は叫び声)を抽出し、所定の声の継続時間を測定するものがある。   2. Description of the Related Art Conventionally, there is a technique for estimating a user's emotion (e.g., laughter, etc.) caused by various actions such as content appreciation or desk work. Such techniques include taking a user's face with a camera and measuring the duration of the user's facial expression (eg, a smile or anxiety face). In addition, in such a technique, there is a technique in which a user's voice is measured with a microphone, a predetermined voice (for example, laughter or cry) is extracted from the user's voice, and a duration of the predetermined voice is measured.

小西嘉典、外3名、「リアルタイム笑顔度推定」、情報処理学会インタラクション2008予稿集、2008.Yoshinori Konishi, 3 others, “Real-time smile estimation”, IPSJ Interaction 2008 Proceedings, 2008. 入江豪、日高浩太、宮下直也、佐藤隆、谷口行信、「個人撮影映像を対象とした映像速覧のための“笑い”シーン検出法」、映像情報メディア学会誌Vol. 62 (2008)、No. 2、pp.227-233、2008.Go Irie, Kota Hidaka, Naoya Miyashita, Takashi Sato, Yukinobu Taniguchi, "Laughter" Scene Detection Method for Quick Viewing of Personal Video Images, Journal of the Institute of Image Information and Television Engineers Vol. 62 (2008) No. 2, pp. 227-233, 2008.

しかしながら、ユーザの顔を撮影して情動を推定する技術は、ユーザが頭を動かした場合、又は、ユーザ周辺の照明が暗い場合などに、正しく表情を認識できない恐れがある。また、上記の技術は、ユーザの「作り笑い」などを誤認識する恐れもある。   However, the technique for estimating the emotion by photographing the user's face may not be able to correctly recognize the facial expression when the user moves his head or when the illumination around the user is dark. In addition, the above-mentioned technology may misrecognize the user's "come-laughing" and the like.

また、マイクでユーザの声を計測して情動を推定する技術は、笑い声を出さない笑い又は泣き声を我慢した悲しみなどを正しく認識できない恐れがある。   Moreover, there is a possibility that the technology for estimating the emotion by measuring the voice of the user with the microphone cannot correctly recognize the grief that does not make a laughter or the sadness with which the cry was put up.

上記の課題を解決するために、効果的にユーザの情動を推定することができる情報処理装置、情報処理方法、及び、プログラムを提供する。   In order to solve the above-mentioned subject, an information processor, an information processing method, and a program which can estimate a user's emotion effectively are provided.

実施形態によれば、ユーザの情動を推定する情報処理装置は、取得部と、開始点検出部と、終了点検出部と、情動推定部と、を備える。取得部は、前記ユーザの心拍数及び呼吸数を取得する。開始点検出部は、前記心拍数及び呼吸数に基づいて、前記ユーザの情動の開始点を検出する。終了点検出部は、前記心拍数及び呼吸数に基づいて、前記ユーザの情動の終了点を検出する。情動推定部は、前記開始点と前記終了点との間に生じた情動を推定する。前記開始点検出部は、前記心拍数及び前記呼吸数の変化量がそれぞれ心拍数閾値及び呼吸数閾値を超えた時点を前記開始点として検出し、前記開始点より前の心拍数を基準心拍数として出力し、前記開始点より前の呼吸数を基準呼吸数として出力する。前記終了点検出部は、心拍数が前記基準心拍数に戻り、呼吸数が前記基準呼吸数に戻った時点を前記終了点として検出する。 According to the embodiment, an information processing apparatus that estimates a user's emotion includes an acquisition unit, a start point detection unit, an end point detection unit, and an emotion estimation unit. The acquisition unit acquires a heart rate and a respiration rate of the user. The start point detection unit detects the start point of the user's emotion based on the heart rate and the respiration rate. The end point detection unit detects the end point of the user's emotion based on the heart rate and the respiration rate. The emotion estimation unit estimates an emotion generated between the start point and the end point. The start point detection unit detects, as the start point, a time point when the heart rate and the change amount of the respiration rate exceed a heart rate threshold and a respiration rate threshold, respectively, and a heart rate before the start point is a reference heart rate And the respiration rate before the start point is output as the reference respiration rate. The end point detection unit detects, as the end point, a time point at which the heart rate returns to the reference heart rate and the respiration rate returns to the reference respiration rate.

実施形態によれば、情報処理装置は、心拍数及び呼吸数の変化に基づいて、行為によって生じるユーザの情動の開始点及び終了点を推定することができる。情報処理装置は、開始点及び終了点の間の心拍及び呼吸に基づいて情動を推定する。従って、情報処理装置は、ユーザの表情が認識することができない場合又はユーザの情動が声に表れない場合であっても、ユーザの情動を推定することができる。したがって、情報処理装置は、効果的にユーザの情動を推定することができる。   According to the embodiment, the information processing apparatus can estimate the start point and end point of the user's emotion caused by the action based on changes in the heart rate and the respiratory rate. The information processing device estimates emotion based on the heartbeat and respiration between the start point and the end point. Therefore, the information processing apparatus can estimate the user's emotion even when the user's facial expression cannot be recognized or when the user's emotion does not appear in the voice. Therefore, the information processing apparatus can effectively estimate the user's emotions.

図1は、第1実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of the information processing apparatus according to the first embodiment. 図2は、第1実施形態に係る変化開始点検出部の動作例を説明するためのフローチャートである。FIG. 2 is a flowchart for explaining an operation example of the change start point detection unit according to the first embodiment. 図3は、第1実施形態に係る変化終了点検出部の動作例を説明するためのフローチャートである。FIG. 3 is a flowchart for explaining an operation example of the change end point detection unit according to the first embodiment. 図4は、第1実施形態に係る情動変化量算出部の動作例を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining an operation example of the emotional change amount calculation unit according to the first embodiment. 図5は、第2実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 5 is a block diagram showing an exemplary configuration of the information processing apparatus according to the second embodiment. 図6は、第3実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 6 is a block diagram showing an exemplary configuration of an information processing apparatus according to the third embodiment. 図7は、第4実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 7 is a block diagram showing an exemplary configuration of an information processing apparatus according to the fourth embodiment.

以下、実施形態について、図面を参照して説明する。
(第1実施形態)
実施形態に係る情報処理装置は、ユーザの心拍数及び呼吸数に基づいてユーザの情動を推定する。情報処理装置は、ユーザの所定の部位に取り付けられたセンサなどを用いてユーザの心拍数及び呼吸数を所定の期間継続して計測する。情報処理装置は、継続して測定された複数個の心拍数及び呼吸数に基づいてユーザの情動を推定する。たとえば、情報処理装置は、ユーザが所定の行為を行っている間の情動を推定する。たとえば、所定の行為は、所定のコンテンツの鑑賞又はデスクワークなどである。なお、情報処理装置が情動を推定するユーザの行為は、特定の行為に限定されるものではない。
Hereinafter, embodiments will be described with reference to the drawings.
First Embodiment
The information processing apparatus according to the embodiment estimates the user's emotion based on the user's heart rate and breathing rate. The information processing apparatus continuously measures a user's heart rate and respiration rate for a predetermined period using a sensor or the like attached to a predetermined part of the user. The information processing apparatus estimates the user's emotion based on the plurality of continuously measured heart rates and breathing rates. For example, the information processing apparatus estimates emotion while the user is performing a predetermined action. For example, the predetermined action is watching or desk work of predetermined content. Note that the action of the user whose information processing apparatus estimates the emotion is not limited to a specific action.

また、情動は、身体的表出を伴う感情の動きである。たとえば、情動は、笑い、怒り、恐れ、喜び又は悲しみなどである。   Emotion is also the movement of emotion accompanied by physical expression. For example, emotions include laughter, anger, fear, joy or sadness.

図1は、第1実施形態に係る情報処理装置100の構成例を示すブロック図である。
図1が示すように、情報処理装置100は、データ入力部101、処理部102、設定入力部103及び結果出力部104などを備える。
FIG. 1 is a block diagram illustrating a configuration example of the information processing apparatus 100 according to the first embodiment.
As shown in FIG. 1, the information processing apparatus 100 includes a data input unit 101, a processing unit 102, a setting input unit 103, a result output unit 104, and the like.

データ入力部101(取得部)は、ユーザの心拍数及び呼吸数を取得する。たとえば、データ入力部101は、ユーザの心拍数及び呼吸数を測定するセンサに接続し、センサからユーザの心拍数及び呼吸数を取得する。データ入力部101は、時系列で心拍数及び呼吸数を取得する。たとえば、データ入力部101は、所定の間隔で心拍数及び呼吸数を取得する。   The data input unit 101 (acquisition unit) acquires the user's heart rate and respiration rate. For example, the data input unit 101 is connected to a sensor that measures the user's heart rate and respiration rate, and acquires the user's heart rate and respiration rate from the sensor. The data input unit 101 acquires heart rate and respiration rate in time series. For example, the data input unit 101 acquires a heart rate and a respiration rate at predetermined intervals.

また、データ入力部101は、心拍数及び呼吸数を測定した時刻を示すタイムスタンプを取得する。たとえば、データ入力部101は、心拍数及び呼吸数を測定する度に、タイムスタンプとして時刻を取得する。   In addition, the data input unit 101 acquires a time stamp indicating a time when the heart rate and the respiration rate are measured. For example, the data input unit 101 acquires a time as a time stamp each time the heart rate and the respiration rate are measured.

データ入力部101は、時系列での複数の心拍数(心拍数ベクトルHr)、時系列での複数の呼吸数(呼吸数ベクトルRs)及び、各心拍数及び呼吸数のタイムスタンプ(タイムスタンプベクトルTs)を処理部102に出力する。   The data input unit 101 includes a plurality of heart rates in a time series (heart rate vector Hr), a plurality of respiration rates in a time series (respiratory rate vector Rs), and a time stamp of each heart rate and respiratory rate (time stamp vector Ts) is output to the processing unit 102.

なお、データ入力部101は、ユーザの心拍数及び呼吸数を測定するセンサを含む構成であってもよい。また、データ入力部101は、不揮発性メモリなどから心拍数及び呼吸数を取得してもよい。   The data input unit 101 may be configured to include a sensor that measures the heart rate and breathing rate of the user. Further, the data input unit 101 may acquire a heart rate and a respiration rate from a nonvolatile memory or the like.

設定入力部103は、処理部102が情動を推定するために必要なパラメータを取得する。たとえば、設定入力部103は、オペレータが手動で入力するパラメータを取得する。たとえば、設定入力部103は、操作を入力する操作部と接続し、操作部からパラメータの入力を受け付けてもよい。また、設定入力部103は、操作部を備える構成であってもよい。また、設定入力部103は、スマートフォンのアプリケーションなどであってもよい。また、設定入力部103は、PCなどであってもよい。   The setting input unit 103 acquires parameters necessary for the processing unit 102 to estimate an emotion. For example, the setting input unit 103 acquires parameters manually input by the operator. For example, the setting input unit 103 may be connected to an operation unit that inputs an operation, and may receive an input of a parameter from the operation unit. The setting input unit 103 may include an operation unit. The setting input unit 103 may be an application of a smartphone. The setting input unit 103 may be a PC or the like.

設定入力部103は、の変化開始点検出部111、変化終了点検出部112及び情動変化量算出部113など、処理部202の各部にパラメータを供給する。   The setting input unit 103 supplies parameters to each unit of the processing unit 202, such as the change start point detection unit 111, the change end point detection unit 112, and the emotion change amount calculation unit 113.

処理部102は、データ入力部101からの心拍数ベクトルHr、呼吸数ベクトルRs及びタイムスタンプベクトルTsに基づいてユーザの情動を推定する。   The processing unit 102 estimates the user's emotion based on the heart rate vector Hr, the respiration rate vector Rs and the time stamp vector Ts from the data input unit 101.

たとえば、処理部102は、CPU、ROM、RAM、NVM及びインターフェースなどから構成される。   For example, the processing unit 102 includes a CPU, ROM, RAM, NVM, an interface, and the like.

たとえば、処理部102が実現する機能は、CPUがプログラムを実行することで実現される。即ち、プログラムは、情報処理装置100の少なくとも一部分として動作するコンピュータに用いられる。   For example, the functions realized by the processing unit 102 are realized by the CPU executing a program. That is, the program is used for a computer that operates as at least a part of the information processing apparatus 100.

処理部102は、変化開始点検出部111、変化終了点検出部112及び情動変化量算出部113などを備える。
変化開始点検出部111は、心拍数ベクトルHr及び呼吸数ベクトルRsなどに基づいて情動が開始する時点(変化開始点Tsc)を検出する。
The processing unit 102 includes a change start point detection unit 111, a change end point detection unit 112, an emotion change amount calculation unit 113, and the like.
The change start point detection unit 111 detects a point in time when the emotion starts (change start point Tsc) based on the heart rate vector Hr, the respiration rate vector Rs, and the like.

たとえば、変化開始点検出部111は、以下のように開始点を検出する。
まず、変化開始点検出部111は、設定入力部103から窓幅w、心拍数閾値dHr及び呼吸数閾値dRsを取得する。
For example, the change start point detector 111 detects the start point as follows.
First, the change start point detection unit 111 acquires the window width w, the heart rate threshold dHr, and the respiratory rate threshold dRs from the setting input unit 103.

変化開始点検出部111は、心拍数及び呼吸数の変化量がそれぞれ心拍数閾値dHr及び呼吸数閾値dRsを超えた場合に、変化開始点Tscを検出する。即ち、変化開始点検出部111は、所定の時点での心拍数(心拍数ベクトルHr[i])と窓幅w前の心拍数(心拍数ベクトルHr[i−w])との差(心拍変化量ΔHr)が心拍数閾値dHrを超え、かつ、所定の時点での呼吸数(呼吸数ベクトルRs[i])と窓幅w前の呼吸数(呼吸数ベクトルRs[i−w])との差(呼吸変化量ΔRs)が呼吸数閾値dRsを超えた場合に、iを変化開始点Tscとする。   The change start point detection unit 111 detects a change start point Tsc when the amount of change in the heart rate and the respiration rate exceeds the heart rate threshold dHr and the respiration rate threshold dRs, respectively. That is, the change start point detection unit 111 (difference between the heart rate at the predetermined time (heart rate vector Hr [i]) and the heart rate before the window width w (heart rate vector Hr [i-w]). The amount of change ΔHr) exceeds the heart rate threshold dHr, and the respiration rate (respiratory rate vector Rs [i]) at a predetermined time point and the respiration rate before the window width w (respiratory rate vector Rs [i-w]) When the difference of (respiratory change ΔRs) exceeds the respiratory rate threshold dRs, i is set as the change start point Tsc.

また、変化開始点検出部111は、変化開始点の直前の心拍数及び呼吸数をそれぞれ基準心拍数Hrc及び基準呼吸数Rscとして取得する。即ち、変化開始点検出部111は、心拍数ベクトルHr[Tsc−1]を基準心拍数Hrcとし、呼吸数ベクトルRs[Tsc−1]を基準呼吸数Rscとする。   Further, the change start point detection unit 111 acquires the heart rate and the respiration rate immediately before the change start point as the reference heart rate Hrc and the reference respiration rate Rsc, respectively. That is, the change start point detection unit 111 sets the heart rate vector Hr [Tsc-1] as the reference heart rate Hrc, and sets the respiration rate vector Rs [Tsc-1] as the reference respiration rate Rsc.

変化開始点検出部111は、変化開始点Tsc、基準心拍数Hrc及び基準呼吸数Rscを出力する。   The change start point detector 111 outputs a change start point Tsc, a reference heart rate Hrc, and a reference respiration rate Rsc.

なお、変化開始点検出部111は、検出開始点sから変化開始点Tscを検出する。検出開始点sは、タイムスタンプベクトルTsにおいて、検出を開始する時刻に対応する引数である。たとえば、検出開始点sは、直前で推定された情動が終了する時点の直後の時点であってもよい。また、変化開始点検出部111は、設定入力部103から検出開始点sを取得してもよい。また、変化開始点検出部111は、最初の推定を行う場合には、検出開始点sを「1」としてもよい。   Note that the change start point detection unit 111 detects the change start point Tsc from the detection start point s. The detection start point s is an argument corresponding to the time to start detection in the time stamp vector Ts. For example, the detection start point s may be a time point immediately after the time point when the emotion estimated immediately before ends. Further, the change start point detection unit 111 may obtain the detection start point s from the setting input unit 103. In addition, the change start point detection unit 111 may set the detection start point s to “1” when performing the first estimation.

変化終了点検出部112は、心拍数ベクトルHr、呼吸数ベクトルRs、変化開始点Tsc、基準心拍数Hrc、基準呼吸数Rsc、心拍数閾値係数αHr及び呼吸数閾値係数αRsなどに基づいて情動が終了する時点(変化終了点Tsg)を検出する。   The change end point detection unit 112 detects emotion based on the heart rate vector Hr, the respiration rate vector Rs, the change start point Tsc, the reference heart rate Hrc, the reference respiration rate Rsc, the heart rate threshold coefficient αHr, the respiration rate threshold coefficient αRs, and the like. The end point (change end point Tsg) is detected.

変化終了点検出部112は、呼吸数が基準呼吸数Rscに戻り、心拍数が基準心拍数Hrcに戻る時点を変化終了点Tsgと検出する。たとえば、変化終了点検出部112は、
呼吸数と基準呼吸数Rscとの差が所定の閾値を下回った場合に呼吸数が戻ったと判定する。同様に、変化終了点検出部112は、心拍数と基準心拍数Hrcとの差が所定の閾値を下回った場合に心拍数が戻ったと判定する。
The change end point detection unit 112 detects the time point when the respiration rate returns to the reference respiration rate Rsc and the heart rate returns to the reference heart rate Hrc as the change end point Tsg. For example, the change end point detection unit 112
When the difference between the respiration rate and the reference respiration rate Rsc falls below a predetermined threshold, it is determined that the respiration rate has returned. Similarly, the change end point detection unit 112 determines that the heart rate has returned when the difference between the heart rate and the reference heart rate Hrc falls below a predetermined threshold.

変化終了点検出部112は、たとえば、以下のように変化終了点Tsgを検出する。ここでは、情動が生じてから終了するまでの間に、心拍数は、上昇してから下降し、呼吸数は、低下してから上昇するものとする。   The change end point detection unit 112 detects, for example, a change end point Tsg as follows. Here, it is assumed that the heart rate rises and then falls and the respiratory rate rises after decreasing after the emotion is generated until the end.

まず、変化終了点検出部112は、設定入力部103から心拍数閾値係数αHr及び呼吸数閾値係数αRsを取得する。心拍数閾値係数αHr及び呼吸数閾値係数αRsは、それぞれ心拍数及び呼吸数が戻ったと判定するための係数である。   First, the change end point detection unit 112 acquires the heart rate threshold coefficient αHr and the respiration rate threshold coefficient αRs from the setting input unit 103. The heart rate threshold coefficient αHr and the respiration rate threshold coefficient αRs are coefficients for determining that the heart rate and the respiration rate have returned, respectively.

たとえば、心拍数閾値係数αHrが1.1であり基準心拍数Hrcが60である場合、変化終了点検出部112は、心拍数が基準心拍数Hrcと心拍数閾値係数αHrとの積(66(60×1.1))を下回れば、心拍数が基準心拍数Hrcに戻ったと判定する。同様に、呼吸数閾値係数αRsが0.9であり基準呼吸数Rscが20である場合、変化終了点検出部112は、呼吸数が基準呼吸数Rscと呼吸数閾値係数αRsとの積(18(10×0.9))を上回れば、呼吸数が基準呼吸数Rscに戻ったと判定する。   For example, when the heart rate threshold coefficient αHr is 1.1 and the reference heart rate Hrc is 60, the change end point detection unit 112 determines that the heart rate is the product of the reference heart rate Hrc and the heart rate threshold coefficient αHr (66 ( If it falls below 60 × 1.1)), it is determined that the heart rate has returned to the reference heart rate Hrc. Similarly, when the respiration rate threshold coefficient αRs is 0.9 and the reference respiration rate Rsc is 20, the change end point detection unit 112 determines that the respiration rate is the product of the reference respiration rate Rsc and the respiration rate threshold coefficient αRs (18 If it exceeds (10 × 0.9)), it is determined that the respiration rate has returned to the reference respiration rate Rsc.

変化終了点検出部112は、所定の時点での呼吸数(呼吸数ベクトルRs[i])と、基準呼吸数Rscと呼吸数閾値係数αRsとの積(終了判定呼吸数Rse)とを比較する。   The change end point detection unit 112 compares the respiration rate (respiratory rate vector Rs [i]) at a predetermined time point with the product of the reference respiration rate Rsc and the respiration rate threshold coefficient αRs (end determination respiration rate Rse). .

呼吸数が終了判定呼吸数Rseを上回る時点以降において、変化終了点検出部112は、所定の時点での心拍数(心拍数ベクトルHr[i])と、基準心拍数Hrcと心拍数閾値係数αHrとの積(終了判定心拍数Hre)とを比較する。   After the time when the respiration rate exceeds the end determination respiration rate Rse, the change end point detection unit 112, the heart rate at a predetermined time (heart rate vector Hr [i]), the reference heart rate Hrc, and the heart rate threshold coefficient αHr. And the product (end determination heart rate Hre) of

変化終了点検出部112は、心拍数ベクトルHr[i]が終了判定心拍数Hreを下回る時点を変化終了点Tsgと検出する。即ち、変化終了点検出部112は、心拍数ベクトルHr[i]が終了判定心拍数Hreを下回った場合に、iを変化終了点Tsgとする。   The change end point detection unit 112 detects a point at which the heart rate vector Hr [i] falls below the end determination heart rate Hre as a change end point Tsg. That is, the change end point detection unit 112 sets i as the change end point Tsg when the heart rate vector Hr [i] falls below the end determination heart rate Hre.

また、変化終了点検出部112は、心拍数ベクトルHrから変化開始点Tscから変化終了点Tsgまでの要素(心拍数ベクトルHr’)を抽出する。即ち、変化終了点検出部112は、心拍数ベクトルHr[Tsc]から心拍数ベクトルHr[Tsg]まで抽出する。同様に、変化終了点検出部112は、呼吸数ベクトルRrから変化開始点Tscから変化終了点Tsgまでの要素(呼吸数ベクトルRr’)を抽出する。即ち、変化終了点検出部112は、呼吸数ベクトルRr[Tsc]から呼吸数ベクトルRr[Tsg]まで抽出する。   Further, the change end point detection unit 112 extracts an element (heart rate vector Hr ′) from the heart rate vector Hr to the change start point Tsc to the change end point Tsg. That is, the change end point detection unit 112 extracts the heart rate vector Hr [Tsc] from the heart rate vector Hr [Tsc]. Similarly, the change end point detection unit 112 extracts elements (respiration rate vector Rr ′) from the respiration rate vector Rr to the change start point Tsc to the change end point Tsg. That is, the change end point detection unit 112 extracts the respiratory rate vector Rr [Tsc] to the respiratory rate vector Rr [Tsg].

変化終了点検出部112は、心拍数ベクトルHr’、呼吸数ベクトルRs’、変化開始点Tsc、変化終了点Tsg、基準心拍数Hrc及び次回の検出開始点s(変化終了点Tsg+1)を出力する。   The change end point detection unit 112 outputs a heart rate vector Hr ′, a respiration rate vector Rs ′, a change start point Tsc, a change end point Tsg, a reference heart rate Hrc, and a next detection start point s (change end point Tsg + 1). .

情動変化量算出部113(情動推定部)は、心拍数ベクトルHr’及び基準心拍数Hrcなどに基づいて、ユーザの情動(推定量difHr)を推定する。
たとえば、情動変化量算出部113は、以下のように、推定量difHrを推定する。
The emotion change amount calculation unit 113 (emotion estimation unit) estimates the user's emotion (estimated amount difHr) based on the heart rate vector Hr ′, the reference heart rate Hrc, and the like.
For example, the emotion change amount calculation unit 113 estimates the estimated amount difHr as follows.

まず、情動変化量算出部113は、心拍数ベクトルHr’の各要素について基準心拍数Hrcとの差分を算出する。情動変化量算出部113は、算出された各差分の総和を算出して、推定量difHrを取得する。   First, the emotion change amount calculation unit 113 calculates the difference between the elements of the heart rate vector Hr 'and the reference heart rate Hrc. The emotion change amount calculation unit 113 calculates the sum of the calculated differences, and acquires the estimated amount difHr.

情動変化量算出部113は、変化開始点Tsc、変化終了点Tsg及び推定量difHrを結果出力部104に出力する。   The emotion change amount calculation unit 113 outputs the change start point Tsc, the change end point Tsg, and the estimated amount difHr to the result output unit 104.

なお、情動変化量算出部113は、同様に、呼吸数ベクトルRs’を用いて推定量difRsを算出してもよい。たとえば、情動変化量算出部113は、呼吸数ベクトルRr’の各要素について基準呼吸数Rscとの差分を算出する。情動変化量算出部113は、算出された各差分の総和を算出して、推定量difRsを取得する。情動変化量算出部113は、情動として推定量difRsを出力してもよい。   The emotion change amount calculation unit 113 may also calculate the estimated amount difRs using the respiratory rate vector Rs'. For example, the emotion change amount calculation unit 113 calculates the difference between each element of the respiratory rate vector Rr 'and the reference respiratory rate Rsc. The emotion change amount calculation unit 113 calculates the sum of the calculated differences, and acquires the estimated amount difRs. The emotion change amount calculation unit 113 may output the estimated amount difRs as emotion.

結果出力部104は、処理部102の推定結果(たとえば、変化開始点Tsc、変化終了点Tsg及び推定量difHr)を出力する。たとえば、結果出力部104は、表示部などと接続し、表示部に推定結果を表示させる。また、結果出力部104は、不揮発性メモリなどと接続し、不揮発性メモリに推定結果を格納する。なお、結果出力部104は、表示部又は不揮発性メモリを備える構成であってもよい。   The result output unit 104 outputs the estimation result of the processing unit 102 (for example, the change start point Tsc, the change end point Tsg, and the estimated amount difHr). For example, the result output unit 104 is connected to a display unit or the like, and displays the estimation result on the display unit. The result output unit 104 is connected to a nonvolatile memory or the like, and stores the estimation result in the nonvolatile memory. The result output unit 104 may include a display unit or a nonvolatile memory.

次に、処理部102の動作例について説明する。
まず、処理部102の変化開始点検出部111の動作例について説明する。
Next, an operation example of the processing unit 102 will be described.
First, an operation example of the change start point detection unit 111 of the processing unit 102 will be described.

図2は、変化開始点検出部111の動作例について説明するためのフローチャートである。   FIG. 2 is a flowchart for explaining an operation example of the change start point detection unit 111.

まず、変化開始点検出部111は、データ入力部101から心拍数ベクトルHr及び呼吸数ベクトルRsを取得し、設定入力部103から窓幅w、心拍数閾値dHr及び呼吸数閾値dRsを取得し、設定入力部103又は変化終了点検出部112から検出開始点sを取得する(S11)
心拍数ベクトルHr、呼吸数ベクトルRs、窓幅w、心拍数閾値dHr及び呼吸数閾値dRs及び検出開始点sを取得すると、変化開始点検出部111は、カウンタiに検出開始点sを代入する(S12)。
First, the change start point detection unit 111 acquires the heart rate vector Hr and the respiration rate vector Rs from the data input unit 101, acquires the window width w, the heart rate threshold dHr, and the respiration rate threshold dRs from the setting input unit 103, The detection start point s is acquired from the setting input unit 103 or the change end point detection unit 112 (S11)
When the heart rate vector Hr, the respiratory rate vector Rs, the window width w, the heart rate threshold value dHr, the respiratory rate threshold value dRs, and the detection start point s are acquired, the change start point detection unit 111 substitutes the detection start point s for the counter i. (S12).

カウンタiに検出開始点sを代入すると、変化開始点検出部111は、カウンタiが長さL以下であるか判定する(S13)。ここで、長さLは、心拍数ベクトルHr又は呼吸数ベクトルRsの要素の個数である。   When the detection start point s is substituted for the counter i, the change start point detection unit 111 determines whether the counter i is equal to or less than the length L (S13). Here, the length L is the number of elements of the heart rate vector Hr or the respiratory rate vector Rs.

カウンタiが長さL以下であると判定すると(S13、YES)、変化開始点検出部111は、心拍変化量ΔHr及び呼吸変化量ΔRsを算出する(S14)。心拍変化量ΔHr及び呼吸変化量ΔRsを算出すると、変化開始点検出部111は、心拍変化量ΔHr>心拍数閾値dHrであり、かつ、呼吸変化量ΔRs>呼吸数閾値dRsであるか判定する(S15)。   If it is determined that the counter i is equal to or less than the length L (S13, YES), the change start point detection unit 111 calculates a heart rate change amount ΔHr and a respiration change amount ΔRs (S14). When the heart rate change amount ΔHr and the respiratory change amount ΔRs are calculated, the change start point detection unit 111 determines whether the heart rate change amount ΔHr> the heart rate threshold value dHr and the respiratory change amount ΔRs> the respiratory rate threshold value dRs ( S15).

心拍変化量ΔHr>心拍数閾値dHrであり、かつ、呼吸変化量ΔRs>呼吸数閾値dRsでないと判定すると(S15、NO)、変化開始点検出部111は、カウンタiに1を加算する(S16)。カウンタiに1を加算すると、変化開始点検出部111は、S14に戻る。   If it is determined that the heart rate change amount ΔHr> the heart rate threshold value dHr and not the respiratory change amount ΔRs> the respiratory rate threshold value dRs (S15, NO), the change start point detection unit 111 adds 1 to the counter i (S16). ). When 1 is added to the counter i, the change start point detection unit 111 returns to S14.

心拍変化量ΔHr>心拍数閾値dHrであり、かつ、呼吸変化量ΔRs>呼吸数閾値dRsであると判定すると(S15、YES)、変化開始点検出部111は、変化開始点Tsc=i、基準心拍数Hrc=心拍数ベクトルHr[i−1]及び基準呼吸数Rsc=呼吸数ベクトルRs[i−1]とする(S17)。   If it is determined that heart rate change amount ΔHr> heart rate threshold value dHr and respiration change amount ΔRs> respiration rate threshold value dRs (S15, YES), the change start point detection unit 111 determines the change start point Tsc = i, the reference Heart rate Hrc = heart rate vector Hr [i−1] and reference respiratory rate Rsc = respiration rate vector Rs [i−1] (S17).

カウンタiが長さL以下でないと判定すると(S13、NO)、変化開始点検出部111は、変化開始点Tsc=0、基準心拍数Hrc=0及び基準呼吸数Rsc=0とする(S18)
S17又はS18の後に、変化開始点検出部111は、変化開始点Tsc、基準心拍数Hrc及び基準呼吸数Rsを出力する(S19)。変化開始点Tsc、基準心拍数Hrc及び基準呼吸数Rsを出力すると、変化開始点検出部111は、動作を終了する。
If it is determined that the counter i is not less than or equal to the length L (S13, NO), the change start point detection unit 111 sets the change start point Tsc = 0, the reference heart rate Hrc = 0, and the reference respiration rate Rsc = 0 (S18).
After S17 or S18, the change start point detector 111 outputs the change start point Tsc, the reference heart rate Hrc, and the reference respiration rate Rs (S19). When the change start point Tsc, the reference heart rate Hrc, and the reference respiration rate Rs are output, the change start point detection unit 111 ends the operation.

次に、処理部102の変化終了点検出部112の動作例について説明する。   Next, an operation example of the change end point detection unit 112 of the processing unit 102 will be described.

図3は、変化終了点検出部112の動作例について説明するためのフローチャートである。ここでは、変化終了点検出部112は、初期状態として、算出開始点s’=0とする。算出開始点s’は、心拍数が戻ったかの判定を開始する時点である。   FIG. 3 is a flowchart for explaining an operation example of the change end point detection unit 112. Here, the change end point detection unit 112 sets the calculation start point s ′ = 0 as an initial state. The calculation start point s' is a point in time when the determination of whether the heart rate has returned is started.

まず、変化終了点検出部112は、データ入力部101から心拍数ベクトルHr及び呼吸数ベクトルRsを取得し、設定入力部103から心拍数閾値係数αHr及び呼吸数閾値係数αRsを取得し、変化開始点検出部111から変化開始点Tsc、基準心拍数Hrc、及び、基準呼吸数Rscを取得する(S21)。   First, the change end point detection unit 112 acquires the heart rate vector Hr and the respiration rate vector Rs from the data input unit 101, acquires the heart rate threshold coefficient αHr and the respiration rate threshold coefficient αRs from the setting input unit 103, and starts the change. The change start point Tsc, the reference heart rate Hrc, and the reference respiration rate Rsc are acquired from the point detection unit 111 (S21).

心拍数ベクトルHr、呼吸数ベクトルRs、心拍数閾値係数αHr、呼吸数閾値係数αRs、変化開始点Tsc、基準心拍数Hrc、及び、基準呼吸数Rscを取得すると、変化終了点検出部112は、カウンタiに変化開始点Tsc+1を代入する(S22)。   When the heart rate vector Hr, the respiratory rate vector Rs, the heart rate threshold coefficient αHr, the respiratory rate threshold coefficient αRs, the change start point Tsc, the reference heart rate Hrc, and the reference respiratory rate Rsc are acquired, the change end point detection unit 112 The change start point Tsc + 1 is substituted into the counter i (S22).

カウンタiに変化開始点Tsc+1を代入すると、変化終了点検出部112は、算出開始点s’=0であるか判定する(S23)。算出開始点s’=0であると判定すると(S23、YES)、変化終了点検出部112は、呼吸数ベクトルRs[i]>呼吸数閾値係数αRs×基準呼吸数Rscであるか判定する(S24)。   When the change start point Tsc + 1 is substituted into the counter i, the change end point detection unit 112 determines whether the calculation start point s ′ = 0 (S23). If it is determined that the calculation start point s ′ = 0 (S23, YES), the change end point detection unit 112 determines whether respiration rate vector Rs [i]> respiration rate threshold coefficient αRs × reference respiration rate Rsc ( S24).

呼吸数ベクトルRs[i]>呼吸数閾値係数αRs×基準呼吸数Rscであると判定すると(S24、YES)、変化終了点検出部112は、算出開始点s’にカウンタiを代入する(S25)。   If it is determined that respiratory rate vector Rs [i]> respiratory rate threshold coefficient αRs × reference respiratory rate Rsc (S24, YES), the change end point detection unit 112 substitutes the counter i for the calculation start point s ′ (S25) ).

算出開始点s’にカウンタiを代入すると、変化終了点検出部112は、カウンタiが長さL以下であるか判定する(S26)。カウンタiが長さL以下であると判定すると(S26、YES)、変化終了点検出部112は、カウンタiに1を加算する(S27)。カウンタiに1を加算すると、変化開始点検出部111は、S23に戻る。
カウンタiが長さL以下でないと判定すると(S26、NO)、変化終了点検出部112は、変化終了点Tsg=0及び次の検出開始点s=Lとする(S28)。
When the counter i is substituted for the calculation start point s ′, the change end point detection unit 112 determines whether the counter i is equal to or less than the length L (S26). If it is determined that the counter i is equal to or less than the length L (S26, YES), the change end point detection unit 112 adds 1 to the counter i (S27). When 1 is added to the counter i, the change start point detection unit 111 returns to S23.
If it is determined that the counter i is not less than or equal to the length L (S26, NO), the change end point detection unit 112 sets the change end point Tsg = 0 and the next detection start point s = L (S28).

呼吸数ベクトルRs[i]>呼吸数閾値係数αRs×基準呼吸数Rscでないと判定すると(S24、NO)、変化終了点検出部112は、S27に進む。   If it is determined that the respiratory rate vector Rs [i]> respiratory rate threshold coefficient αRs × reference respiratory rate Rsc is not satisfied (S24, NO), the change end point detection unit 112 proceeds to S27.

算出開始点s’=0でないと判定すると(S23、NO)、変化終了点検出部112は、心拍数ベクトルHr[i]>心拍数閾値係数αHr×基準心拍数Hrcであるか判定する(S29)。   If it is determined that the calculation start point s ′ is not 0 (S23, NO), the change end point detection unit 112 determines whether the heart rate vector Hr [i]> heart rate threshold coefficient αHr × reference heart rate Hrc (S29) ).

心拍数ベクトルHr[i]>心拍数閾値係数αHr×基準心拍数Hrcであると判定すると(S29、YES)、変化終了点検出部112は、変化終了点Tsg=i及び次の検出開始点s=i+1とする(S30)。   When it is determined that the heart rate vector Hr [i]> heart rate threshold coefficient αHr × reference heart rate Hrc (S29, YES), the change end point detection unit 112 determines that the change end point Tsg = i and the next detection start point s = I + 1 (S30).

心拍数ベクトルHr[i]>心拍数閾値係数αHr×基準心拍数Hrcでないと判定すると(S29、NO)、変化終了点検出部112は、S27に戻る。   If it is determined that the heart rate vector Hr [i]> heart rate threshold coefficient αHr × reference heart rate Hrc is not satisfied (S29, NO), the change end point detection unit 112 returns to S27.

変化終了点Tsg=0及び次の検出開始点s=Lとした場合(S28)、又は、変化終了点Tsg=i及び次の検出開始点s=i+1とした場合(S30)、変化終了点検出部112は、心拍数ベクトルHr’及び呼吸数ベクトルRs’を抽出する(S31)。   When the change end point Tsg = 0 and the next detection start point s = L (S28) or when the change end point Tsg = i and the next detection start point s = i + 1 (S30), the change end point detection The unit 112 extracts the heart rate vector Hr ′ and the respiratory rate vector Rs ′ (S31).

心拍数ベクトルHr’及び呼吸数ベクトルRs’を抽出すると、変化終了点検出部112は、変化終了点Tsg、心拍数ベクトルHr’、呼吸数ベクトルRs’及び次の検出開始点sを出力する(S32)。   After extracting the heart rate vector Hr ′ and the respiration rate vector Rs ′, the change end point detection unit 112 outputs the change end point Tsg, the heart rate vector Hr ′, the respiration rate vector Rs ′ and the next detection start point s ( S32).

変化終了点Tsg、心拍数ベクトルHr’、呼吸数ベクトルRs’及び次の検出開始点sを出力すると、変化終了点検出部112は、動作を終了する。   When the change end point Tsg, the heart rate vector Hr ′, the respiration rate vector Rs ′, and the next detection start point s are output, the change end point detection unit 112 ends the operation.

次に、処理部102の情動変化量算出部113の動作例について説明する。   Next, an operation example of the emotion change amount calculation unit 113 of the processing unit 102 will be described.

図4は、情動変化量算出部113の動作例について説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining an operation example of the emotion change amount calculation unit 113.

まず、情動変化量算出部113は、変化終了点検出部112から心拍数ベクトルHr’及び基準心拍数Hrcを取得する(S41)。心拍数ベクトルHr’及び基準心拍数Hrcを取得すると、情動変化量算出部113は、心拍数ベクトルHr’及び基準心拍数Hrcに基づいて推定量difHrを算出する(S42)。   First, the emotion change amount calculation unit 113 acquires a heart rate vector Hr 'and a reference heart rate Hrc from the change end point detection unit 112 (S41). After acquiring the heart rate vector Hr 'and the reference heart rate Hrc, the emotion change amount calculation unit 113 calculates an estimated amount difHr based on the heart rate vector Hr' and the reference heart rate Hrc (S42).

推定量difHrを算出すると、情動変化量算出部113は、推定量difHrを出力する(S43)。推定量difHrを出力すると、情動変化量算出部113は、動作を終了する。   When the estimated amount difHr is calculated, the emotion change amount calculating unit 113 outputs the estimated amount difHr (S43). After outputting the estimated amount difHr, the emotion change amount calculation unit 113 ends the operation.

結果出力部104は、処理部102から変化開始点Tsc、変化終了点Tsg及び推定量difHrを取得する。結果出力部104は、変化開始点Tsc、変化終了点Tsg及び推定量difHrを表示部などに表示又は不揮発性メモリなどに格納する。   The result output unit 104 acquires the change start point Tsc, the change end point Tsg, and the estimated amount difHr from the processing unit 102. The result output unit 104 displays the change start point Tsc, the change end point Tsg, and the estimated amount difHr on a display unit or the like or stores them in a nonvolatile memory or the like.

なお、処理部102は、情動の推定の終了後に、検出開始点s<Lであれば、再度、上記の推定動作を行ってもよい。また、処理部102は、検出開始点s=Lであれば、最後のデータまで情動の推定を完了したものとして、動作を終了してもよい。   If the detection start point s <L after the end of emotion estimation, the processing unit 102 may perform the above estimation operation again. Further, if the detection start point s = L, the processing unit 102 may end the operation assuming that the estimation of the emotion has been completed up to the last data.

以上のように構成された情報処理装置は、ユーザの心拍数及び呼吸数に基づいて情動の変化開始点及び変化終了点を特定することができる。また、情報処理装置は、変化開始点と変化終了点との間の心拍数又は呼吸数からユーザの情動を推定することができる。従って、情報処理装置は、ユーザの表情又は声を用いることなく、ユーザの情動を推定することができる。
(第2実施形態)
次に、第2実施形態について説明する。
第2実施形態に係る情報処理装置は、情動として笑い量Laを推定する点で第1実施形態に係る情報処理装置と異なる。従って、その他の構成については、同一の符号を付して詳細な説明を省略する。
The information processing apparatus configured as described above can specify the change start point and the change end point of emotion based on the heart rate and the respiration rate of the user. Also, the information processing apparatus can estimate the user's emotion from the heart rate or the respiration rate between the change start point and the change end point. Therefore, the information processing apparatus can estimate the user's emotion without using the user's expression or voice.
Second Embodiment
Next, a second embodiment will be described.
The information processing apparatus according to the second embodiment differs from the information processing apparatus according to the first embodiment in that the laughing amount La is estimated as emotion. Therefore, about the other structure, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

第2実施形態に係る情報処理装置は、ユーザの笑い量Laを推定する。たとえば、情報処理装置は、劇場などにおいてコメディーショーなどを鑑賞するユーザの心拍数及び呼吸数を取得し、当該ユーザの笑い量Laを推定する。また、情報処理装置は、ユーザごとにIDを付与し、ユーザごとの笑い量Laを推定してもよい。   The information processing apparatus according to the second embodiment estimates the amount of laugh La of the user. For example, the information processing apparatus acquires a heart rate and a respiration rate of a user who appreciates a comedy show or the like in a theater or the like, and estimates the laughter amount La of the user. The information processing apparatus may assign an ID to each user and estimate the laughter amount La for each user.

図5は、第2実施形態に係る情報処理装置200の構成例を示すブロック図である。
図5が示すように、情報処理装置200は、データ入力部101、処理部202、設定入力部103、推定結果保存部204及び推定結果出力部205などを備える。
FIG. 5 is a block diagram showing a configuration example of the information processing apparatus 200 according to the second embodiment.
As illustrated in FIG. 5, the information processing apparatus 200 includes a data input unit 101, a processing unit 202, a setting input unit 103, an estimation result storage unit 204, an estimation result output unit 205, and the like.

処理部202は、変化開始点検出部111、変化終了点検出部112及び情動変化量算出部213を備える。情動変化量算出部213は、笑い量算出部214などを備える。
データ入力部101、設定入力部103、変化開始点検出部111及び変化終了点検出部112は、第1実施形態のそれらと同様であるので説明を省略する。
The processing unit 202 includes a change start point detection unit 111, a change end point detection unit 112, and an emotion change amount calculation unit 213. The emotion change amount calculation unit 213 includes a laugh amount calculation unit 214 and the like.
Since the data input unit 101, the setting input unit 103, the change start point detection unit 111, and the change end point detection unit 112 are the same as those in the first embodiment, description thereof is omitted.

オペレータは、ユーザの年齢層などを考慮して、窓幅w、心拍数閾値dHr及び呼吸数閾値dRsを設定入力部103に入力する。たとえば、若いユーザほど心拍数などの変化が早いため、ユーザに20代が多ければ、オペレータは、窓幅w=1、心拍数閾値dHr=1.0及び呼吸数閾値dRs=1.0を入力する。   The operator inputs the window width w, heart rate threshold value dHr, and respiration rate threshold value dRs to the setting input unit 103 in consideration of the user's age group and the like. For example, since the younger user has more rapid changes in heart rate and the like, if the user has more in their twenties, the operator inputs the window width w = 1, the heart rate threshold dHr = 1.0, and the respiratory rate threshold dRs = 1.0. Do.

笑い量算出部214は、ユーザの情動として、変化開始点Tscと変化終了点Tsgとの間に生じた笑い量Laを推定する。たとえば、笑い量算出部214は、情動変化量算出部113と同様に推定量difHrを算出し、算出された推定量difHrを笑い量Laとする。   The laughing amount calculation unit 214 estimates a laughing amount La generated between the change start point Tsc and the change end point Tsg as the user's emotion. For example, the laughing amount calculation unit 214 calculates the estimated amount difHr in the same manner as the emotion change amount calculating unit 113, and sets the calculated estimated amount difHr as the laughing amount La.

また、笑い量算出部214は、推定量difRsを笑い量Laとしてもよい。また、笑い量算出部214は、心拍数ベクトルHr’及び呼吸数ベクトルRs’に基づいて笑い量Laを推定してもよい。笑い量算出部214が笑い量Laを推定する方法は、特定の方法に限定されるものではない。   Also, the laughter amount calculation unit 214 may use the estimated amount difRs as the laughter amount La. In addition, the laughing amount calculation unit 214 may estimate the laughing amount La based on the heart rate vector Hr 'and the respiratory rate vector Rs'. The method by which the laughter amount calculation unit 214 estimates the laughter amount La is not limited to a specific method.

笑い量算出部214は、推定された笑い量Laを出力する。   The laughing amount calculation unit 214 outputs the estimated laughing amount La.

推定結果保存部204は、笑い量算出部214が推定した笑い量Laを取得する。推定結果保存部204は、取得された笑い量Laを不揮発性メモリなどに格納する。また、推定結果保存部204は、各ユーザのIDと笑い量Laとを対応付けて不揮発性メモリなどに格納してもよい。
なお、推定結果保存部204は、不揮発性メモリを備える構成であってもよい。
The estimation result storage unit 204 obtains the laughing amount La estimated by the laughing amount calculation unit 214. The estimation result storage unit 204 stores the acquired amount of laugh La in a non-volatile memory or the like. Further, the estimation result storage unit 204 may store the ID of each user and the amount of laugh La in association with each other in a non-volatile memory or the like.
The estimation result storage unit 204 may be configured to include a non-volatile memory.

推定結果出力部205は、笑い量算出部214が推定した笑い量Laを取得する。推定結果出力部205は、取得された笑い量Laを表示部などに表示する。   The estimation result output unit 205 acquires the laughter amount La estimated by the laughter amount calculation unit 214. The estimation result output unit 205 displays the acquired laughing amount La on a display unit or the like.

以上のように構成された情報処理装置は、変化開始点と変化終了点との間の心拍数又は呼吸数からユーザの情動として笑い量を推定することができる。
(第3実施形態)
次に、第3実施形態について説明する。
第3実施形態に係る情報処理装置は、笑い量Laをユーザの表情及び声で補正する点で第2実施形態に係る情報処理装置と異なる。従って、その他の構成については、同一の符号を付して詳細な説明を省略する。
The information processing apparatus configured as described above can estimate the amount of laughter as the user's emotion from the heart rate or respiratory rate between the change start point and the change end point.
Third Embodiment
Next, a third embodiment will be described.
The information processing apparatus according to the third embodiment differs from the information processing apparatus according to the second embodiment in that the laughing amount La is corrected with the user's expression and voice. Therefore, about the other structure, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

図6は、第3実施形態に係る情報処理装置300の構成例を示すブロック図である。
図6が示すように、情報処理装置300は、データ入力部101、処理部302、設定入力部103、推定結果保存部204、推定結果出力部205、カメラ306、笑顔度推定部307、マイク308及び笑い声推定部309などを備える。
FIG. 6 is a block diagram showing a configuration example of the information processing apparatus 300 according to the third embodiment.
As illustrated in FIG. 6, the information processing apparatus 300 includes a data input unit 101, a processing unit 302, a setting input unit 103, an estimation result storage unit 204, an estimation result output unit 205, a camera 306, a smile level estimation unit 307, and a microphone 308. And a laughing voice estimation unit 309 and the like.

処理部302は、変化開始点検出部111、変化終了点検出部112及び情動変化量算出部3などを備える。情動変化量算出部313は、笑い量算出部214及び笑い量補正部315などを備える。
データ入力部101、設定入力部103、変化開始点検出部111、変化終了点検出部112、推定結果保存部204、推定結果出力部205及び笑い量算出部214は、第2実施形態のそれらと同様であるので説明を省略する。
The processing unit 302 includes a change start point detection unit 111, a change end point detection unit 112, an emotion change amount calculation unit 3, and the like. The emotion change amount calculating unit 313 includes a laughing amount calculating unit 214, a laughing amount correcting unit 315, and the like.
The data input unit 101, the setting input unit 103, the change start point detection unit 111, the change end point detection unit 112, the estimation result storage unit 204, the estimation result output unit 205, and the laughing amount calculation unit 214 are the same as those of the second embodiment. The description is omitted because it is similar.

カメラ306は、ユーザの表情を撮影する。たとえば、カメラ306は、ユーザの正面又は斜め上方など、ユーザの顔を撮影することができる位置に設置される。たとえば、カメラ306は、CCDカメラなどである。カメラ306は、撮影された画像を笑顔度推定部307に出力する。カメラ306は、随時ユーザの表情を撮影し、撮影された画像を笑顔度推定部307に出力する。   The camera 306 photographs the user's facial expression. For example, the camera 306 is installed at a position where the user's face can be photographed, such as in front of the user or obliquely above. For example, the camera 306 is a CCD camera or the like. The camera 306 outputs the photographed image to the smile degree estimation unit 307. The camera 306 captures the user's facial expression as needed, and outputs the captured image to the smile degree estimation unit 307.

笑顔度推定部307は、カメラ306が撮影した画像に基づいてユーザの笑顔度laughを推定する。笑顔度推定部307は、種々の手法を用いて画像からユーザの笑顔度laughを推定する。笑顔度推定部307が笑顔度laughを推定する方法は、特定の方法に限定されるものではない。   The smile level estimation unit 307 estimates the smile level of the user based on the image captured by the camera 306. The smile level estimation unit 307 estimates the smile level laugh of the user from the image using various methods. The method by which the smile level estimation unit 307 estimates the smile level “laugh” is not limited to a specific method.

笑顔度推定部307は、0−100%の値で笑顔度laughを推定する。
笑顔度推定部307は、推定された笑顔度laughを笑い量補正部315に出力する。
The smile level estimation unit 307 estimates the smile level laugh with a value of 0 to 100%.
The smile degree estimation unit 307 outputs the estimated smile degree laugh to the laugh amount correction unit 315.

マイク308は、ユーザの声を計測する。たとえば、マイク308は、ユーザの胸元又は正面など、ユーザの声を計測することができる位置に設置される。マイク308は、計測された声を笑い声推定部309に出力する。マイク308は、随時ユーザの声を測定し、測定された声を笑い声推定部309に出力する。   The microphone 308 measures the user's voice. For example, the microphone 308 is placed at a position where the user's voice can be measured, such as the chest or front of the user. The microphone 308 outputs the measured voice to the laughing voice estimation unit 309. The microphone 308 measures the user's voice at any time, and outputs the measured voice to the laughter estimation unit 309.

笑い声推定部309は、マイク308が計測した声に基づいて、ユーザの笑い声の大きさvoiceを推定する。
たとえば、笑い声推定部309は、マイク308が計測した声から笑い声を抽出する。笑い声推定部309は、抽出された笑い声の大きさを推定する。
The laughter estimation unit 309 estimates the size voice of the user's laughter based on the voice measured by the microphone 308.
For example, the laughter estimation unit 309 extracts the laughter from the voice measured by the microphone 308. The laughter estimation unit 309 estimates the size of the extracted laughter.

笑い声推定部309は、推定された笑い声の大きさvoiceを笑い量補正部315に出力する。   The laughing voice estimation unit 309 outputs the estimated voice size of the laughing voice to the laughing amount correction unit 315.

笑い量補正部315は、笑顔度推定部307が推定した笑顔度laugh及び笑い声推定部が推定した笑い声の大きさvoiceに基づいて、笑い量Laを補正する。
たとえば、笑い量補正部315は、以下のように笑い量Laを補正する。
まず、笑い量補正部315は、変化開始点Tscと変化終了点Tsgとの間に生じた笑顔度laugh及び笑い声の大きさvoiceを抽出する。笑い量補正部315は、以下の式に従って抽出した笑顔度laugh及び笑い声の大きさvoiceから補正された笑い量La’(補正笑い量La’)を算出する。
The laughing amount correction unit 315 corrects the laughing amount La based on the smile level “laugh” estimated by the smile level estimation unit 307 and the laughter level “voice” estimated by the laughter voice estimation unit.
For example, the laughing amount correction unit 315 corrects the laughing amount La as follows.
First, the laughing amount correcting unit 315 extracts a smile level “rough” and a laughing voice level “voice” generated between the change start point Tsc and the change end point Tsg. The laughing amount correcting unit 315 calculates a corrected laughing amount La ′ (corrected laughing amount La ′) from the smile level “laugh” extracted according to the following equation and the loudness level of the laughing voice.

La’=laugh×La+voice
ここで、笑顔度laughは、0から100%を0から1の値に変換したものとする。
La '= laugh × La + voice
Here, it is assumed that smile degree laugh converts 0 to 100% into a value of 0 to 1.

なお、笑い量補正部315は、変化開始点Tscと変化終了点Tsgとの間に生じた笑顔度laugh及び笑い声の大きさvoiceの平均値を用いて笑い量Laを補正してもよい。また、笑い量補正部315は、変化開始点Tscと変化終了点Tsgとの間に生じた笑顔度laugh及び笑い声の大きさvoiceの最大値を用いて笑い量Laを補正してもよい。   Note that the laughing amount correction unit 315 may correct the laughing amount La using the average value of the smile level “rough” and the level of the laughter voice generated between the change start point Tsc and the change end point Tsg. In addition, the laughing amount correction unit 315 may correct the laughing amount La using the smile level “laugh” and the maximum value of the laughing voice “voice” generated between the change start point Tsc and the change end point Tsg.

笑い量補正部315が笑い量Laを補正する方法は、特定の方法に限定されるものではない。   The method by which the laughter amount correction unit 315 corrects the laughter amount La is not limited to a specific method.

笑い量補正部315は、補正笑い量La’を推定結果保存部204に出力する。   The laughing amount correction unit 315 outputs the corrected laughing amount La ′ to the estimation result storage unit 204.

以上のように構成された情報処理装置は、笑顔度及び笑い声の大きさに基づいて笑い量を補正することができる。その結果、情報処理装置は、より精度の高い笑い量の推定を実現することができる。   The information processing apparatus configured as described above can correct the amount of laughter based on the degree of smile and the size of laughter. As a result, the information processing apparatus can realize more accurate estimation of the amount of laugh.

また、情報処理装置は、笑い量に笑顔度を積算して笑い量を補正する。その結果、情報処理装置は、ユーザが笑っていないが笑い量を大きく推定した場合に、笑い量を小さく補正し誤検出を軽減することができる。   Further, the information processing apparatus corrects the laughing amount by adding the smile level to the laughing amount. As a result, when the user is not laughing but the laughing amount is estimated to be large, the information processing apparatus can correct the laughing amount to be small and reduce erroneous detection.

また、情報処理装置は、笑い量に笑い声の大きさを加算して笑い量を補正する。その結果、情報処理装置は、声に出た笑いを笑い量に反映させることができる。
(第4実施形態)
次に、第4実施形態について説明する。
第4実施形態に係る情報処理装置は、笑い量Laに応じて舞台演出制御装置を動作させる点で第2実施形態に係る情報処理装置と異なる。従って、その他の構成については、同一の符号を付して詳細な説明を省略する。
Further, the information processing apparatus corrects the amount of laughter by adding the size of the laughter to the amount of laughter. As a result, the information processing apparatus can reflect the laughing voice in the amount of laughing.
Fourth Embodiment
Next, a fourth embodiment will be described.
The information processing apparatus according to the fourth embodiment differs from the information processing apparatus according to the second embodiment in that the stage effect control apparatus is operated according to the amount of laughter La. Therefore, about the other structure, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

図7は、第4実施形態に係る情報処理装置400の構成例を示すブロック図である。
図7が示すように、情報処理装置400は、データ入力部101、処理部202、設定入力部103及び舞台演出制御装置410などを備える。
FIG. 7 is a block diagram showing an exemplary configuration of an information processing apparatus 400 according to the fourth embodiment.
As FIG. 7 shows, the information processing apparatus 400 includes a data input unit 101, a processing unit 202, a setting input unit 103, a stage effect control device 410, and the like.

処理部202は、変化開始点検出部111、変化終了点検出部112及び情動変化量算出部213などを備える。情動変化量算出部213は、笑い量算出部214などを備える。
データ入力部101、設定入力部103、変化開始点検出部111、変化終了点検出部112及び笑い量算出部214は、第2実施形態のそれらと同様であるので説明を省略する。
The processing unit 202 includes a change start point detection unit 111, a change end point detection unit 112, an emotion change amount calculation unit 213, and the like. The emotion change amount calculation unit 213 includes a laugh amount calculation unit 214 and the like.
Since the data input unit 101, the setting input unit 103, the change start point detection unit 111, the change end point detection unit 112, and the laughter amount calculation unit 214 are the same as those in the second embodiment, description thereof is omitted.

舞台演出制御装置410(舞台演出制御部)は、笑い量算出部214が推定した笑い量Laに基づいて舞台装置を制御する。
ここでは、笑い量算出部214は、舞台を観覧する複数のユーザの笑い量Laを推定するものとする。
The stage effect control device 410 (stage effect control unit) controls the stage device based on the laughter amount La estimated by the laughter amount calculation unit 214.
Here, the laughing amount calculation unit 214 estimates the laughing amount La of a plurality of users who view the stage.

たとえば、舞台演出制御装置410は、舞台の照明を制御する。
舞台演出制御装置410は、笑い量Laに基づいて舞台の照明を制御する。たとえば、舞台演出制御装置410は、直近1分間に笑ったユーザの割合に応じて照明を制御する。たとえば、舞台演出制御装置410は、所定の閾値を超える笑い量Laのユーザを笑ったユーザと判定してもよい。
For example, the stage effect control device 410 controls lighting of the stage.
The stage effect control device 410 controls the illumination of the stage based on the amount of laugh La. For example, the stage effect control device 410 controls the lighting in accordance with the proportion of the user who laughed in the last minute. For example, the stage effect control device 410 may determine that the user who laughs more than the predetermined threshold is a laughing user.

たとえば、舞台演出制御装置410は、笑ったユーザの割合が25%未満であれば照明を消し、25〜50%未満であれば200Lxで照明を点灯させ、50〜80%未満であれば500Lxで照明を点灯させ、80%以上であれば1000Lxで照明を点灯させる。   For example, the stage effect control device 410 turns off the light if the proportion of the laughing user is less than 25%, turns on the light at 200 Lx if it is less than 25 to 50%, and 500 Lx if it is less than 50 to 80%. The illumination is turned on, and if it is 80% or more, the illumination is turned on at 1000 Lx.

たとえば、舞台演出制御装置410は、1分ごとに笑ったユーザの割合を算出し、照明を制御する。   For example, the stage effect control device 410 calculates the percentage of users who laugh every minute and controls the lighting.

なお、舞台演出制御装置410は、音響、照明の色、又は、座席の振動などを制御してもよい。舞台演出制御装置410が制御する装置は、特定の構成に限定されるものではない。   The stage effect control device 410 may control sound, lighting color, seat vibration, and the like. The device controlled by the stage effect control device 410 is not limited to a specific configuration.

以上のように構成された情報処理装置は、推定された笑い量に基づいて舞台演出制御装置を動作させる。その結果、情報処理装置は、笑い量に基づいて舞台演出を制御することができる。   The information processing apparatus configured as described above operates the stage effect control apparatus based on the estimated amount of laugh. As a result, the information processing apparatus can control the stage effect based on the amount of laughter.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, components in different embodiments may be combined as appropriate.

また、各実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラム(ソフトウエア手段)として、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウエア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウエア手段を構築し、このソフトウエア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。   In addition, the method described in each embodiment is, for example, a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, etc.) as a program (software means) that can be executed by a computer (computer). It can be stored in a recording medium such as a DVD, MO, etc., semiconductor memory (ROM, RAM, flash memory, etc.), or transmitted and distributed by a communication medium. The program stored on the medium side includes a setting program that configures software means (including not only the execution program but also a table and data structure) in the computer. A computer that implements this apparatus reads a program recorded on a recording medium, constructs software means by a setting program as the case may be, and executes the above-described processing by controlling the operation by this software means. The recording medium referred to in this specification is not limited to distribution, but includes a storage medium such as a magnetic disk or a semiconductor memory provided in a computer or a device connected via a network.

100、200、300及び400…情報処理装置、101…データ入力部、102、202及び302…処理部、103…設定入力部、104…結果出力部、111…変化開始点検出部、112…変化終了点検出部、113、213及び313…情動変化量算出部、204…推定結果保存部、205…推定結果出力部、214…笑い量算出部、306…カメラ、307…笑顔度推定部、308…マイク、309…笑い声推定部、315…笑い量補正部。   100, 200, 300 and 400 ... information processing apparatus, 101 ... data input unit, 102, 202 and 302 ... processing unit, 103 ... setting input unit, 104 ... result output unit, 111 ... change start point detection unit, 112 ... change End point detection unit 113, 213 and 313: emotion change amount calculation unit 204: estimation result storage unit 205: estimation result output unit 214: laughing amount calculation unit 306: camera 307: smile degree estimation unit 308 ... Microphone, 309 ... Laughter estimation unit, 315 ... Laughter amount correction unit.

Claims (7)

ユーザの情動を推定する情報処理装置であって、
前記ユーザの心拍数及び呼吸数を取得する取得部と、
前記心拍数及び呼吸数に基づいて、前記ユーザの情動の開始点を検出する開始点検出部と、
前記心拍数及び呼吸数に基づいて、前記ユーザの情動の終了点を検出する終了点検出部と、
前記開始点と前記終了点との間に生じた情動を推定する情動推定部と、
を備え
前記開始点検出部は、前記心拍数及び前記呼吸数の変化量がそれぞれ心拍数閾値及び呼吸数閾値を超えた時点を前記開始点として検出し、前記開始点より前の心拍数を基準心拍数として出力し、前記開始点より前の呼吸数を基準呼吸数として出力し、
前記終了点検出部は、心拍数が前記基準心拍数に戻り、呼吸数が前記基準呼吸数に戻った時点を前記終了点として検出する、
情報処理装置。
An information processing apparatus for estimating a user's emotions, comprising:
An acquisition unit for acquiring the heart rate and the respiration rate of the user;
A start point detection unit that detects a start point of the user's emotion based on the heart rate and the respiration rate;
An end point detection unit that detects an end point of the user's emotion based on the heart rate and the respiration rate;
An emotion estimation unit for estimating an emotion generated between the start point and the end point;
Equipped with a,
The start point detection unit detects, as the start point, a time point when the heart rate and the change amount of the respiration rate exceed a heart rate threshold and a respiration rate threshold, respectively, and a heart rate before the start point is a reference heart rate Output the respiration rate before the start point as a reference respiration rate,
The end point detection unit detects a time point when the heart rate returns to the reference heart rate and the respiration rate returns to the reference respiration rate as the end point.
Information processing device.
前記情動推定部は、前記開始点と前記終了点との間における、基準心拍数と心拍数との差の総和又は基準呼吸数と呼吸数との差の総和に基づいて情動を推定する、
前記請求項に記載の情報処理装置。
The emotion estimation unit estimates emotion based on the sum of the difference between the reference heart rate and the heart rate or the sum of the difference between the reference respiration rate and the respiration rate between the start point and the end point.
The information processing apparatus according to claim 1 .
前記情動推定部は、情動として笑い量を推定する、
前記請求項1又は2に記載の情報処理装置。
The emotion estimation unit estimates the amount of laughter as an emotion.
The information processing apparatus according to claim 1 .
前記ユーザの笑顔度を推定する笑顔度推定部と、
前記ユーザの笑い声の大きさを推定する笑い声推定部と、
を備え、
前記情動推定部は、前記笑顔度及び前記笑い声の大きさに基づいて前記笑い量を補正する、
前記請求項に記載の情報処理装置。
A smile level estimation unit that estimates the smile level of the user;
A laughter estimation unit for estimating the size of the user's laughter;
Equipped with
The emotion estimation unit corrects the amount of laugh based on the degree of smile and the size of the laugh.
The information processing apparatus according to claim 3 .
前記情動に基づいて舞台演出を制御する舞台演出制御部を備える、
前記請求項1乃至の何れか1項に記載の情報処理装置。
A stage effect control unit configured to control a stage effect based on the emotion;
The information processing apparatus according to any one of claims 1 to 4 .
ユーザの情動を推定する情報処理方法であって、
前記ユーザの心拍数及び呼吸数を取得し、
前記心拍数及び呼吸数に基づいて、前記ユーザの情動の開始点を検出し、
前記心拍数及び呼吸数に基づいて、前記ユーザの情動の終了点を検出し、
前記開始点と前記終了点との間に生じた情動を推定し、
前記開始点を検出することは、前記心拍数及び前記呼吸数の変化量がそれぞれ心拍数閾値及び呼吸数閾値を超えた時点を前記開始点として検出し、前記開始点より前の心拍数を基準心拍数として出力し、前記開始点より前の呼吸数を基準呼吸数として出力し、
前記終了点を検出することは、心拍数が前記基準心拍数に戻り、呼吸数が前記基準呼吸数に戻った時点を前記終了点として検出する、
情報処理方法。
An information processing method for estimating a user's emotion, comprising:
Get the user's heart rate and breathing rate,
Detecting a start point of the user's emotion based on the heart rate and the respiration rate;
Detecting an end point of the user's emotion based on the heart rate and the respiration rate ;
Estimating the emotion that has occurred between the start point and the end point,
Detecting the start point is to detect a time point when the amount of change in the heart rate and the respiration rate exceeds a heart rate threshold value and a respiration rate threshold value as the start point, and use the heart rate before the start point as a reference Output as heart rate, and output respiration rate before the start point as reference respiration rate,
Detecting the end point detects a time point when the heart rate returns to the reference heart rate and the respiration rate returns to the reference respiration rate as the end point.
Information processing method.
請求項1乃至の何れか1項に記載の情報処理装置の一部分として動作するコンピュータに用いられるプログラムであって、
前記コンピュータを、
取得部と、開始点検出部と、終了点検出部と、情動推定部と、
として機能させるためのプログラム。
It is a program used for the computer which operate | moves as a part of information processing apparatus in any one of Claims 1 thru | or 5 , Comprising:
The computer,
An acquisition unit, a start point detection unit, an end point detection unit, and an emotion estimation unit;
Program to function as.
JP2016001925A 2016-01-07 2016-01-07 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM Active JP6554422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016001925A JP6554422B2 (en) 2016-01-07 2016-01-07 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016001925A JP6554422B2 (en) 2016-01-07 2016-01-07 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2017121373A JP2017121373A (en) 2017-07-13
JP6554422B2 true JP6554422B2 (en) 2019-07-31

Family

ID=59305236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016001925A Active JP6554422B2 (en) 2016-01-07 2016-01-07 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6554422B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101842701B1 (en) * 2017-09-11 2018-03-27 씨제이이앤엠 주식회사 Broadcasting system of Broadcasting system using heart rate measurement technology
JP7127571B2 (en) * 2019-02-18 2022-08-30 オムロンヘルスケア株式会社 Blood pressure level change detection device, blood pressure level change detection method, and program
CN111859025A (en) * 2020-07-03 2020-10-30 广州华多网络科技有限公司 Expression instruction generation method, device, equipment and storage medium
CN112568887B (en) * 2020-12-03 2023-06-02 深圳数联天下智能科技有限公司 Method and related device for determining user state

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO616697A0 (en) * 1997-04-11 1997-05-08 Heartlink Pty Ltd Method for diagnosing psychiatric disorders
JP4481682B2 (en) * 2004-02-25 2010-06-16 キヤノン株式会社 Information processing apparatus and control method thereof
JP2006006355A (en) * 2004-06-22 2006-01-12 Sony Corp Processor for biological information and video and sound reproducing device
JP5843090B2 (en) * 2011-06-03 2016-01-13 公立大学法人首都大学東京 Non-contact stress evaluation system, non-contact stress evaluation method and program thereof
JP5257525B2 (en) * 2012-01-12 2013-08-07 ソニー株式会社 Information processing apparatus, imaging control method, and program
JP2013258555A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method

Also Published As

Publication number Publication date
JP2017121373A (en) 2017-07-13

Similar Documents

Publication Publication Date Title
JP6554422B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6138920B2 (en) Device and method for extracting information from remotely detected characteristic signals
US9408562B2 (en) Pet medical checkup device, pet medical checkup method, and non-transitory computer readable recording medium storing program
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP2020008929A (en) Height calculation system, information processing apparatus, and program
JP5087037B2 (en) Image processing apparatus, method, and program
JP2013074461A (en) Image processor, image processing method and program
JP2009210992A (en) Photographing device
KR101796871B1 (en) Apparatus for diagnosing sleep apnea using video and respiration sound
KR101636171B1 (en) Skeleton tracking method and keleton tracking system using the method
US11397874B2 (en) Image capturing apparatus, generating apparatus, control method, and storage medium
US20130328767A1 (en) Information processing apparatus, conference system, and information processing method
JP6922821B2 (en) Image analyzers, methods and programs
KR102126370B1 (en) Apparatus and method for analyzing motion
JP6198530B2 (en) Image processing device
EP3699865B1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
JP6485238B2 (en) Tagging device, tagging system, tagging method and program
JP2018036734A (en) Expression change detector and program
JP6554421B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2018160791A (en) Image analysis apparatus, image analysis system, image analysis method, and program
JP6469779B2 (en) Laughter promotion program and laughter promotion device
JP2009129389A (en) Information processing apparatus and method, and program
JP2020092370A (en) Imaging control device, imaging system, and imaging control method
US20230206691A1 (en) Emotion determination device and emotion determination method
JP2020113155A (en) Image processor, method for processing information, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190708

R150 Certificate of patent or registration of utility model

Ref document number: 6554422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150