JP2022179438A - Non-contact type state detection device and non-contact type state detection program - Google Patents

Non-contact type state detection device and non-contact type state detection program Download PDF

Info

Publication number
JP2022179438A
JP2022179438A JP2022082273A JP2022082273A JP2022179438A JP 2022179438 A JP2022179438 A JP 2022179438A JP 2022082273 A JP2022082273 A JP 2022082273A JP 2022082273 A JP2022082273 A JP 2022082273A JP 2022179438 A JP2022179438 A JP 2022179438A
Authority
JP
Japan
Prior art keywords
information
subject
state
detection device
state detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022082273A
Other languages
Japanese (ja)
Inventor
英路 川瀬
Eiji Kawase
亜希 佐川
Aki Sagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kamiens Technology Inc
Zero To Infinity
Zero To Infinity Inc
Original Assignee
Kamiens Technology Inc
Zero To Infinity
Zero To Infinity Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kamiens Technology Inc, Zero To Infinity, Zero To Infinity Inc filed Critical Kamiens Technology Inc
Publication of JP2022179438A publication Critical patent/JP2022179438A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

To provide a non-contact type state detection device capable of grasping a health state and a psychological state of an object person in a remote place over a screen by acquiring biological information on the object person from moving image information captured in a non-contact manner, and estimating a state of the object person, and capable of managing the health state and the psychological state easily.SOLUTION: A non-contact type state detection device includes: a measurement area extraction unit 32 for specifying a measurement area for measuring biological information from moving image information in which an object person 11 is imaged; a detection unit 34 for detecting a pulse wave of the object person 11 on the basis of a change in a luminance value between the frames of the moving image information in a skin area of the measurement area; and a state estimation unit 35 for estimating the state of the object person 11 on the basis of a result of the detection by the detection unit 34. As needed, respiration of the object person 11 is detected on the basis of a change in a vertical position of a shoulder area detected between the frames of the moving image information, and a change in a facial expression of the object person 11 is detected on the basis of a change in a predetermined feature point detected between the frames of the moving image information in a face area.SELECTED DRAWING: Figure 2

Description

本発明は、非接触で生体情報を検出する非接触型状態検出装置に関し、特に取得した生体情報から対象者の状態を推定する非接触型状態検出装置に関する。 TECHNICAL FIELD The present invention relates to a non-contact state detection device for detecting biometric information without contact, and more particularly to a non-contact state detection device for estimating the state of a subject from acquired biometric information.

対象者から取得される生体情報等に基づいて当該対象者のストレスや感情などの状態を推定する技術が知られている。特許文献1に示す技術は、被測定人が健常な状態であるときに、ストレスを印加する前とストレスを印加した状態で被測定人をカメラで撮影し、撮影された被測定人の身体の画像データから特徴点を抽出し、これらの特徴点の座標を標準データベースに格納し、標準データベースに格納された被測定人の健常な状態であるときの特徴点の座標と測定時の特徴点の座標の差をベクトルで表し、このベクトルから被測定人が被測定時に受けているストレスを評価するものである。 A technique is known for estimating the state of a subject, such as stress and emotion, based on biological information or the like acquired from the subject. The technique disclosed in Patent Literature 1 captures images of a person to be measured with a camera before and after stress is applied when the person to be measured is in a healthy state, and captures the body of the person to be measured. Feature points are extracted from the image data, the coordinates of these feature points are stored in a standard database, and the coordinates of the feature points when the person to be measured is in a healthy state stored in the standard database and the coordinates of the feature points at the time of measurement are stored in the standard database. The coordinate difference is represented by a vector, and the stress that the subject receives during the measurement is evaluated from this vector.

また、特許文献2に示す技術は、入力インターフェースは、対象者の脈拍に対応する第一生体信号と当該対象者の脳波に対応する第二生体信号を受け付け、プロセッサは、第一生体信号に対応する第一の値と第二生体信号に対応する第二の値を含む第一データセットを、ラッセルの円環モデル上に配置された複数種の状態の量に対応する複数の状態値を含む第二データセットに変換し、ストレージは、当該複数の状態の各々に対応付けられた色を記憶し、表示装置は、第一生体信号に対応する第一座標軸と第二生体信号に対応する第二座標軸により形成される座標平面を表示し、プロセッサは、第一データセットにより定まる座標平面上の位置に標識を表示させるとともに、前記複数の状態値のうち最大値を有する一つに対応付けられた色を表示装置に表示させるものである。 Further, in the technology disclosed in Patent Document 2, the input interface receives a first biomedical signal corresponding to the pulse of the subject and a second biomedical signal corresponding to the electroencephalogram of the subject, and the processor responds to the first biomedical signal. a first data set including a first value corresponding to the second biosignal and a second data set including a plurality of state values corresponding to a plurality of state quantities arranged on the Russell's torus model a second data set, the storage storing colors associated with each of the plurality of states, and the display device displaying a first coordinate axis corresponding to the first biomedical signal and a second data set corresponding to the second biomedical signal; A coordinate plane formed by two coordinate axes is displayed, and the processor causes the indicator to be displayed at a position on the coordinate plane defined by the first data set and associated with one of the plurality of state values having the maximum value. The color is displayed on the display device.

一方、人間の視覚では捉えられないような微細は変化を動画データを使って拡張し、視覚化する技術が知られている。これらの技術では、血流変化による僅かな肌の色変化を拡張することで脈拍を視覚化したり、クレーンの微細な振動を拡張することでクレーンの振動状態を視覚化することが可能となっている(非特許文献1を参照)。 On the other hand, there is known a technology that expands and visualizes minute changes that cannot be perceived by human vision using video data. With these technologies, it is possible to visualize the pulse by magnifying slight skin color changes due to changes in blood flow, and to visualize the vibration state of the crane by magnifying the minute vibrations of the crane. (See Non-Patent Document 1).

特開2017-176762号公報JP 2017-176762 A 特開2020-185138号公報Japanese Unexamined Patent Application Publication No. 2020-185138

マサチューセッツ工科大学、“Video Magnification”、[online]、2015年6月最終更新、[2021年2月12日検索]、インターネット<URL: http://people.csail.mit.edu/mrub/vidmag/>Massachusetts Institute of Technology, “Video Magnification”, [online], last updated June 2015, [searched February 12, 2021], Internet <URL: http://people.csail.mit.edu/mrub/vidmag/ >

特許文献1に示す技術は、ストレスを印加する前と印加した状態で所定の特徴点を抽出し、その座標ベクトルからストレスを評価するものであるが、ストレス印加の前後のデータを予め大量に収集しなければならず、手間が掛かってしまうという問題がある。 The technique disclosed in Patent Document 1 extracts predetermined feature points before and after stress is applied, and evaluates the stress from the coordinate vectors. There is a problem that it has to be done and it takes time and effort.

また、指や心臓近くの胸から心拍を取得することが記載されているが、その場合心拍を取得するのに接触型のセンサが必要になってしまう。例えば、精神的な障碍を持つ対象者の中には体にセンサが接触するのを極端に嫌がる人などがおり、接触型のセンサを使用せずに生体情報を取得することが望まれる状況において、特許文献1に示す技術を利用するのが難しくなってしまうという課題を有する。 Also, it is described that a heartbeat is obtained from a finger or a chest near the heart, but in that case a contact-type sensor is required to obtain the heartbeat. For example, some subjects with mental disabilities are extremely reluctant to have sensors come into contact with their bodies. , there is a problem that it becomes difficult to use the technique shown in Patent Document 1.

特許文献2に示す技術は、脈拍と脳波から状態を推定する技術であるが、脈拍や脳波を取得するのにセンサを体に付ける必要があり、上記と同様の理由で適用が難しい場合があり得るという課題を有する。 The technique disclosed in Patent Document 2 is a technique for estimating a state from a pulse and an electroencephalogram, but it may be difficult to apply it for the same reason as above because it is necessary to attach a sensor to the body in order to obtain the pulse and an electroencephalogram. have the problem of obtaining

非特許文献1に示す技術は、非接触状態でカメラ撮影することで脈拍の視覚化などを実現しているものの、その対象者の感情やストレスなどの状態について判定できるようなものではない。 Although the technique shown in Non-Patent Document 1 realizes visualization of the pulse and the like by photographing with a camera in a non-contact state, it cannot determine the state of the subject's emotions, stress, and the like.

本発明は、対象者の生体情報を非接触で撮像した動画情報から取得し、当該対象者の状態を推定することで、遠隔地に居るの対象者の健康状態や心理状態を画面越しに把握して容易に管理することが可能となる非接触型状態検出装置を提供する。 The present invention acquires the biological information of a subject from video information captured without contact and estimates the state of the subject, thereby grasping the health and psychological state of the subject at a remote location through the screen. Provided is a non-contact state detection device that can be easily managed by

本発明に係る非接触型状態検出装置は、対象者が撮像された動画情報から生体情報を測定するための測定領域を特定する測定領域特定手段と、前記測定領域の肌領域において、前記動画情報のフレーム間の輝度値の変化に基づいて前記対象者の脈波を検出する検出手段と、前記検出手段の検出結果に基づいて前記対象者の状態を推定する状態推定手段とを備えるものである。 A non-contact state detection device according to the present invention includes measurement area specifying means for specifying a measurement area for measuring biological information from moving image information of a subject, and moving image information in the skin area of the measurement area. detecting means for detecting the subject's pulse wave based on the change in luminance value between frames; and state estimating means for estimating the state of the subject based on the detection result of the detecting means. .

このように、本発明に係る非接触型状態検出装置においては、対象者が撮像された動画情報から生体情報を測定するための測定領域を特定し、当該測定領域の肌領域において、動画情報のフレーム間の輝度値の変化に基づいて対象者の脈波を検出し、検出結果に基づいて対象者の状態を推定するため、非接触でカメラ越しに撮像した動画情報を取得するだけで簡単に対象者の状態を推定することが可能となり、対象者の健康状態や心理状態を把握することができるという効果を奏する。 As described above, in the non-contact state detection device according to the present invention, a measurement area for measuring biological information from moving image information of a subject is specified, and in the skin area of the measurement area, the moving image information The pulse wave of the subject is detected based on the change in luminance value between frames, and the state of the subject is estimated based on the detection results. It is possible to estimate the subject's condition, and it is possible to grasp the subject's health condition and psychological condition.

本発明に係る非接触型状態検出装置は、前記検出手段が、前記測定領域の肩部領域において、前記動画情報のフレーム間で検出される前記肩部領域の上下位置の変化に基づいて前記対象者の呼吸を検出するものである。 In the non-contact state detection device according to the present invention, the detection means detects the object on the basis of the change in the vertical position of the shoulder region detected between the frames of the moving image information in the shoulder region of the measurement region. It detects a person's breathing.

このように、本発明に係る非接触型状態検出装置においては、測定領域の肩部領域において、動画情報のフレーム間で検出される肩部領域の上下位置の変化に基づいて対象者の呼吸を検出するため、脈波と呼吸の情報から対象者の状態をより正確に推定することが可能になるという効果を奏する。 As described above, in the non-contact state detection device according to the present invention, in the shoulder region of the measurement region, respiration of the subject is detected based on the change in the vertical position of the shoulder region detected between the frames of the moving image information. Since the detection is performed, it is possible to more accurately estimate the subject's condition from the pulse wave and respiration information.

また、状態の変化に対する脈波の変化と状態の変化に対する呼吸の変化には相関性があることから、仮に脈波の情報を取得できない状態が生じた場合であっても呼吸で補完することができるという効果を奏する。 In addition, since there is a correlation between the change in the pulse wave due to the change in the condition and the change in the respiration due to the change in the condition, even if the pulse wave information cannot be obtained, it can be supplemented with respiration. It has the effect of being able to

本発明に係る非接触型状態検出装置は、前記検出手段が、前記測定領域の顔領域において、前記動画情報のフレーム間で検出される所定の特徴点の変化に基づいて前記対象者の表情の変化を検出するものである。 In the non-contact state detection device according to the present invention, the detection means changes the facial expression of the subject based on changes in predetermined feature points detected between frames of the moving image information in the face area of the measurement area. It detects changes.

このように、本発明に係る非接触型状態検出装置においては、測定領域の顔領域において、前記動画情報のフレーム間で検出される所定の特徴点の変化に基づいて前記対象者の表情の変化を検出するため、脈波と表情の変化の情報から対象者の状態をより正確に推定することが可能になるという効果を奏する。 As described above, in the non-contact state detection device according to the present invention, in the face area of the measurement area, the facial expression of the subject changes based on the change in the predetermined feature points detected between the frames of the moving image information. is detected, there is an effect that it becomes possible to more accurately estimate the subject's condition from the information on the pulse wave and changes in facial expression.

本発明に係る非接触型状態検出装置は、前記検出手段がフレーム間における微細な変化をベクトル増幅により拡張して前記変化を検出するものである。 In the non-contact state detection device according to the present invention, the detection means expands minute changes between frames by vector amplification to detect the changes.

このように、本発明に係る非接触型状態検出装置においては、前記検出手段がフレーム間における微細な変化をベクトル増幅により拡張して前記変化を検出するため、血流による肌領域の微細な変化、呼吸による肩領域の微細な上下振動、表情の微細な変化等を拡張して明確な変化として捉えることができるという効果を奏する。 As described above, in the non-contact state detection device according to the present invention, since the detection means expands minute changes between frames by vector amplification to detect the changes, minute changes in the skin area due to blood flow are detected. , fine up-and-down vibrations of the shoulder region due to respiration, fine changes in facial expressions, etc. can be expanded and perceived as clear changes.

本発明に係る非接触型状態検出装置は、状態に応じた適正な動作の情報を記憶する動作情報記憶手段と、前記状態推定手段が推定した状態に応じた適正な動作情報を前記動作情報記憶手段から抽出する動作情報抽出手段と、抽出した前記動作情報をディスプレイに表示する表示制御手段とを備えるものである。 A non-contact type state detection device according to the present invention comprises: a motion information storage unit for storing information on a proper motion according to a state; and a display control means for displaying the extracted action information on a display.

このように、本発明に係る非接触型状態検出装置においては、状態に応じた適正な動作の情報を記憶する動作情報記憶手段と、状態推定手段が推定した状態に応じた適正な動作情報を前記動作情報記憶手段から抽出する動作情報抽出手段と、抽出した前記動作情報をディスプレイに表示する表示制御手段とを備えるため、推定された対象者の状態に応じたバイオフィードバックが可能になり、対象者の精神状態を安定することができるという効果を奏する。 As described above, in the non-contact state detection device according to the present invention, the motion information storage means for storing the information of the proper motion according to the state and the proper motion information according to the state estimated by the state estimation means are stored. Since the motion information extraction means for extracting from the motion information storage means and the display control means for displaying the extracted motion information on a display are provided, biofeedback according to the estimated state of the subject is possible, and the subject It has the effect of stabilizing the mental state of the person.

本発明に係る非接触型状態検出装置は、前記動作情報記憶手段に記憶された前記動作の情報が、前記対象者の副交感神経を優位にするための副交感神経優位動作情報と、前記対象者の交感神経を優位にするための交感神経優位動作情報とに区分されているものである。 In the non-contact state detection device according to the present invention, the motion information stored in the motion information storage means includes parasympathetic nerve dominant motion information for making the subject's parasympathetic nerves dominant, and It is divided into sympathetic nerve dominant action information for making the sympathetic nerve dominant.

このように、本発明に係る非接触型状態検出装置においては、前記動作情報記憶手段に記憶された前記動作の情報が、前記対象者の副交感神経を優位にするための副交感神経優位動作情報と、前記対象者の交感神経を優位にするための交感神経優位動作情報とに区分されているため、例えば現在の状態から少し気持ちを興奮状態(交感神経優位の状態)に移行したい場合や気持ちを落ち着けたい場合(副交感神経優位の状態)などに、それぞれに適した動作情報が提示されることで、様々な局面に適応できるように対象者の気持ちを制御することが可能になるという効果を奏する。 Thus, in the non-contact state detection device according to the present invention, the motion information stored in the motion information storage means is the parasympathetic nerve dominant motion information for making the subject's parasympathetic nerves dominant. , and sympathetic nerve dominant action information for making the subject's sympathetic nerves dominant. By presenting motion information suitable for each situation, such as when the subject wants to calm down (state of parasympathetic nerve dominance), it is possible to control the subject's feelings so that he/she can adapt to various situations. .

本発明に係る非接触型状態検出装置は、前記動作情報記憶手段に記憶された前記動作の情報が、長期的な状態に対して適正な動作である長期動作情報と、短期的な状態に対して適正な動作である短期動作情報とに区分されているものである。 In the non-contact state detection device according to the present invention, the motion information stored in the motion information storage means includes long-term motion information indicating proper motion for a long-term state, and long-term motion information for a short-term state. and short-term operation information, which is appropriate operation.

このように、本実施形態に係る非接触型状態検出装置においては、動作情報記憶手段に記憶された前記動作の情報が、長期的な状態に対して適正な動作である長期動作情報と、短期的な状態に対して適正な動作である短期動作情報とに区分されているため、例えば心身症のような長期的な対処が必要な状態に対する適した動作と、短期的に受けるような過度のストレスに対して適した対処動作とを区分して対応することで、より適正な対処が可能になるという効果を奏する。 As described above, in the non-contact state detection device according to the present embodiment, the motion information stored in the motion information storage means includes long-term motion information, which is appropriate motion for a long-term state, and short-term motion information. Since it is divided into short-term action information, which is appropriate action for a serious condition, for example, suitable action for a condition that requires long-term treatment such as psychosomatic disease and excessive short-term action information By classifying and coping with the coping action suitable for stress, there is an effect that more appropriate coping becomes possible.

本発明に係る非接触型状態検出装置は、サーマルセンサで撮像された前記対象者の温度情報を取得する温度情報取得手段と、前記温度情報に基づいて前記対象者の顔領域を抽出する顔抽出手段とを備え、前記測定領域特定手段が、前記顔抽出手段で抽出された顔領域を前記動画情報に重ねて前記測定領域を特定するものである。 A non-contact state detection device according to the present invention includes temperature information acquiring means for acquiring temperature information of the subject imaged by a thermal sensor, and face extraction for extracting the facial region of the subject based on the temperature information. wherein the measurement area specifying means specifies the measurement area by superimposing the face area extracted by the face extraction means on the moving image information.

このように、本実施形態に係る非接触型状態検出装置においては、サーマルセンサで撮像された前記対象者の温度情報を取得する温度情報取得手段と、前記温度情報に基づいて前記対象者の顔領域を抽出する顔抽出手段とを備え、前記測定領域特定手段が、前記顔抽出手段で抽出された顔領域を前記動画情報に重ねて前記測定領域を特定するため、対象者の顔領域を(例えばAIを用いたような)画像認識等の複雑な処理を行うことなく、温度分布から容易に抽出して処理を軽くすることができるという効果を奏する。 As described above, in the non-contact state detection device according to the present embodiment, the temperature information acquisition means acquires the temperature information of the subject imaged by the thermal sensor, and the face of the subject is detected based on the temperature information. face extraction means for extracting an area, and the measurement area specifying means specifies the measurement area by superimposing the face area extracted by the face extraction means on the moving image information. For example, there is an effect that it is possible to easily extract from the temperature distribution and lighten the processing without performing complicated processing such as image recognition using AI.

第1の実施形態に係る非接触型状態検出装置を用いた非接触型状態検出システムのシステム構成図である。1 is a system configuration diagram of a non-contact state detection system using the non-contact state detection device according to the first embodiment; FIG. 第1の実施形態に係る状態検出装置の構成を示す機能ブロック図である。1 is a functional block diagram showing the configuration of a state detection device according to a first embodiment; FIG. 第1の実施形態に係る状態検出装置において脈波を検出する場合の処理を示すイメージ図である。FIG. 4 is an image diagram showing processing when a pulse wave is detected by the state detection device according to the first embodiment; 第1の実施形態に係る状態検出装置において呼吸情報を検出する場合の処理を示すイメージ図である。FIG. 4 is an image diagram showing processing in the case of detecting respiratory information in the state detection device according to the first embodiment; 第1の実施形態に係る状態検出装置においてベクトル拡張した場合の動画像の一例を示す第1の図である。FIG. 11 is a first diagram showing an example of a moving image when vector expansion is performed in the state detection device according to the first embodiment; 第1の実施形態に係る状態検出装置においてベクトル拡張した場合の動画像の一例を示す第2の図である。FIG. 7 is a second diagram showing an example of a moving image when vector extension is performed by the state detection device according to the first embodiment; 第1の実施形態に係る状態検出装置においてベクトル拡張した場合の動画像の一例を示す第3の図である。FIG. 11 is a third diagram showing an example of a moving image when vector expansion is performed in the state detection device according to the first embodiment; 第1の実施形態に係る状態検出装置の推定処理におけるローレンツプロットの一例を示す図である。It is a figure which shows an example of the Lorenz plot in the estimation process of the state detection apparatus which concerns on 1st Embodiment. 第1の実施形態に係る状態検出装置の処理を示すフローチャートである。4 is a flowchart showing processing of the state detection device according to the first embodiment; 第2の実施形態に係る状態検出装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the state detection apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る状態検出装置の処理を示すフローチャートである。9 is a flowchart showing processing of the state detection device according to the second embodiment; 第3の実施形態に係る状態検出装置におけるセンサ部の構成を示す図である。It is a figure which shows the structure of the sensor part in the state detection apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る状態検出装置においてサーマルセンサを用いて測定領域を特定する処理を示す図である。FIG. 11 is a diagram showing processing for identifying a measurement region using a thermal sensor in the state detection device according to the third embodiment; 第4の実施形態に係る状態検出装置を職場において使用した場合の処理概要を示す図である。It is a figure which shows the process outline at the time of using the state detection apparatus which concerns on 4th Embodiment in a workplace. 第4の実施形態に係る状態検出装置を教育現場において使用した場合の処理概要を示す図である。It is a figure which shows the process outline at the time of using the state detection apparatus which concerns on 4th Embodiment in the educational site. 図14又は図15で処理を行った場合に管理者端末に表示される画面の一例を示す図である。FIG. 16 is a diagram showing an example of a screen displayed on the administrator terminal when processing is performed in FIG. 14 or FIG. 15;

(本発明の第1の実施形態)
本実施形態に係る非接触型状態検出装置について図1ないし図9を用いて説明する。本実施形態に係る非接触型状態検出装置は、対象者の生体情報を非接触で検出し、検出された生体情報から対象者の状態を推定して管理するものである。
(First embodiment of the present invention)
A non-contact state detection device according to this embodiment will be described with reference to FIGS. 1 to 9. FIG. The non-contact state detection device according to the present embodiment detects the biological information of a subject in a non-contact manner, and estimates and manages the state of the subject from the detected biological information.

図1は、本実施形態に係る非接触型状態検出装置を用いた非接触型状態検出システムのシステム構成図である。非接触型状態検出システム1は、対象者11を撮像するカメラ12と、対象者11がインターネットなどの電気通信回線を通じて対話している相手、又はカメラ12で撮像された対象者11自身の撮像情報を表示するディスプレイ13とを少なくとも有する対象者端末10を備える。 FIG. 1 is a system configuration diagram of a non-contact state detection system using a non-contact state detection device according to this embodiment. The non-contact state detection system 1 includes a camera 12 that captures an image of a subject 11, and image information of the subject 11 with whom the subject 11 is having a conversation through an electric communication line such as the Internet, or the subject 11 himself/herself imaged by the camera 12. and a subject terminal 10 having at least a display 13 for displaying.

また、非接触型状態検出システム1は、システム全体を管理する管理者21を撮像するカメラ22と、インターネットなどの電気通信回線を通じて対話している対象者11の撮像情報を表示するディスプレイ23とを少なくとも有する管理者端末20を備える。 In addition, the non-contact state detection system 1 includes a camera 22 that captures an image of an administrator 21 who manages the entire system, and a display 23 that displays image information of a target person 11 who is interacting through an electric communication line such as the Internet. An administrator terminal 20 having at least.

さらに、非接触型状態検出システム1は、対象者端末10のカメラ12で撮像された対象者11の撮像情報を受信し、受信した撮像情報を用いて対象者11の状態推定処理を行ったり、その処理結果等を含む様々な情報を各対象者端末10や管理者端末20に送信する処理等を行う非接触型状態検出装置30(以下、省略して状態検出装置30という)を備える。 Further, the non-contact state detection system 1 receives imaging information of the subject 11 captured by the camera 12 of the subject terminal 10, and performs state estimation processing of the subject 11 using the received imaging information. A non-contact state detection device 30 (hereinafter abbreviated as state detection device 30) is provided for transmitting various information including the processing results to each subject terminal 10 and administrator terminal 20. FIG.

なお、図1における管理者端末20は必須の構成ではなく、対象者11は必ずしも管理者21とディスプレイ13越しに対話を行う必要はないが、ここでは一例として、管理者21との対話をしながら対象者11の生体情報を取得したり、状態を推定する場合を前提として説明する。 Note that the administrator terminal 20 in FIG. 1 is not an essential component, and the target person 11 does not necessarily have to interact with the administrator 21 through the display 13. However, the description will be made on the assumption that the biological information of the subject 11 is obtained or the state is estimated.

対象者11と管理者21とが1対1で対話しながら、対象者端末10のカメラ12が対象者11の動画像を撮像し、撮像された動画像の情報が状態検出装置30に送信される。状態検出装置30では、対象者端末10から送信された動画像の情報から対象者11の生体情報が検出される。動画像情報から生体情報を検出する処理については、詳細を後述する。 The camera 12 of the target person terminal 10 captures a moving image of the target person 11 while the target person 11 and the administrator 21 are having a one-to-one conversation, and information about the captured moving image is transmitted to the state detection device 30. be. The state detection device 30 detects the biological information of the subject 11 from the information of the moving image transmitted from the subject terminal 10 . The details of the process of detecting biometric information from moving image information will be described later.

状態検出装置30は、検出された生体情報から対象者11の状態を推定する。対象者11の状態とは、例えばストレス過多の状態、リラックス状態、不安な状態、興奮状態等のような精神的な要素を含む状態である。これらの状態は、対象者11の健康状態として日々管理され、健康管理に利用される。 The state detection device 30 estimates the state of the subject 11 from the detected biological information. The state of the subject 11 is, for example, a state of excessive stress, a relaxed state, an uneasy state, an excited state, or the like, which includes mental elements. These states are managed daily as the health condition of the subject 11 and used for health management.

管理者21と対象者11とが対話可能である場合は、管理者端末20に対話相手となっている対象者11の生体情報や状態に関する情報が状態検出装置30から送信され、それらの情報がディスプレイ23に表示可能となっている。管理者21は、ディスプレイ23に表示されている対象者11の生体情報や精神的な状態等を参照しながら対象者11と対話を行うことが可能となっている。 When the manager 21 and the target person 11 are able to interact with each other, the state detection device 30 transmits the biometric information and the state information of the target person 11 who is the conversation partner to the manager terminal 20, and the information is sent to the manager terminal 20. It can be displayed on the display 23 . The administrator 21 can interact with the subject 11 while referring to the subject's 11 biological information, mental state, etc. displayed on the display 23 .

なお、管理者21と対象者11の関係は、例えば上司と部下、先生と生徒、使用者と労働者、主催者と参加者等が該当し、部下、生徒、労働者、参加者等の健康管理(特に精神的な部分の健康管理)を面談しながら日々管理することが可能となっている。特に、テレワークなどの電気通信回線を利用した遠隔でのコミュニケーションが拡大しており、対象者11をカメラで撮像する機会が増えることで、本実施形態に係る非接触型状態検出装置の利用頻度も高まり、対象者11の健康管理を容易に行うことが可能となる。 The relationship between the administrator 21 and the target person 11 corresponds to, for example, a boss and a subordinate, a teacher and a student, an employer and a worker, and an organizer and a participant. It is possible to manage daily management (especially mental health management) while interviewing. In particular, remote communication using electric communication lines such as telework is expanding, and the frequency of use of the non-contact state detection device according to this embodiment is increasing as the opportunity to image the target person 11 with a camera increases. As a result, it becomes possible to easily manage the health of the subject 11 .

また、上記以外にも例えば、電気通信回線を通じて行う就職のための面接、お見合いなどでも適用することができ、相手の気持ちが感情を図りながら対応することが可能となる。 In addition to the above, for example, it can also be applied to job interviews and arranged marriages conducted through electric communication lines, and it is possible to respond while considering the feelings of the other party.

図2は、本実施形態に係る状態検出装置30の構成を示す機能ブロック図である。状態検出装置30は、対象者端末10のカメラ12で撮像された対象者11の動画像情報を受信する入力部31と、対象者11の生体情報を測定するために必要な領域に関する情報、生体情報の検出に必要な情報、及び/又は推定演算に必要なパラメータなどの基本情報が記憶されている基本情報記憶部33の情報に基づいて、入力された対象者11の動画像情報から生体情報を測定するのに必要な測定領域を抽出する測定領域抽出部32と、抽出された測定領域の動画像情報のフレーム間の変化から対象者11の生体情報を検出する検出部34と、検出された生体情報に基づいて対象者11の状態を推定する状態推定部35と、推定された対象者11の状態や生体情報を記憶する状態情報記憶部36と、対象者11の状態や生体情報を対象者端末10や管理者端末20に出力する出力制御部37とを備える。 FIG. 2 is a functional block diagram showing the configuration of the state detection device 30 according to this embodiment. The state detection device 30 includes an input unit 31 that receives moving image information of the subject 11 captured by the camera 12 of the subject terminal 10, and information about the area necessary for measuring the biological information of the subject 11, the biometric information, and so on. Based on the information in the basic information storage unit 33 that stores basic information such as information necessary for information detection and/or parameters necessary for estimation calculation, biometric information is extracted from the input moving image information of the subject 11. a measurement region extraction unit 32 for extracting a measurement region necessary for measuring the measurement region, a detection unit 34 for detecting the biological information of the subject 11 from changes between frames of the moving image information of the extracted measurement region, and the detected a state estimating unit 35 for estimating the state of the subject 11 based on the biological information obtained; a state information storage unit 36 for storing the estimated state and biological information of the subject 11; An output control unit 37 for outputting to the subject terminal 10 and the administrator terminal 20 is provided.

本実施形態においては非接触で検出可能な生体情報として、例えば脈波、呼吸数、表情、体温等があり、これらの少なくとも1つ以上の情報が動画像情報から検出される。検出する生体情報に応じて動画像情報から抽出する測定領域が設定されており、それらの情報は基本情報記憶部33に記憶されている。測定領域抽出部32は、検出する生体情報の種別に応じて、抽出対象となる測定領域を基本情報記憶部33の情報に基づいて抽出する。 In this embodiment, non-contact detectable biological information includes, for example, pulse wave, respiration rate, facial expression, body temperature, etc. At least one or more of these information is detected from moving image information. A measurement area to be extracted from the moving image information is set according to the biometric information to be detected, and the information is stored in the basic information storage unit 33 . The measurement region extraction unit 32 extracts a measurement region to be extracted based on the information in the basic information storage unit 33 according to the type of biological information to be detected.

具体的には、例えば脈波の情報を検出する場合は、血流により生じる皮膚表面の微小な輝度値の変化を捉える必要があるため、少なくとも肌領域を測定領域として抽出する必要があり、一般的にはカメラ12で撮像した場合に、肌が露出している可能性が高い対象者11の顔領域が抽出される。なお、顔の中でも特に肌を抽出しやすいのが頬やおでこの領域であるが、頬の場合はマスクなどをしていると肌領域の抽出が難しかったり、おでこの場合は前髪などで肌領域の抽出が難しい場合があるため、両方の領域を抽出しておいていずれかの箇所又は双方の箇所で肌領域を抽出するのが望ましい。 Specifically, for example, when detecting pulse wave information, it is necessary to capture minute changes in the luminance value of the skin surface caused by blood flow, so at least the skin region must be extracted as the measurement region. Specifically, when the image is captured by the camera 12, the face area of the subject 11 that is highly likely to have exposed skin is extracted. The areas of the face that are particularly easy to extract are the cheeks and forehead. Since it may be difficult to extract the skin area, it is desirable to extract both areas and then extract the skin area at either or both locations.

また、呼吸数を検出する場合は、肩の上下微振動を捉える必要があるため、対象者11の肩領域が測定領域として抽出される。表情を検出する場合は、顔領域が測定領域として抽出される。体温を検出する場合は、肌領域が測定領域として抽出される。なお、体温については、通常のカメラではなく体表面の温度が測定可能なサーマルセンサを用いる必要がある。 In addition, when detecting the respiration rate, it is necessary to capture vertical microvibrations of the shoulder, so the shoulder region of the subject 11 is extracted as the measurement region. When detecting facial expressions, the face area is extracted as the measurement area. When detecting body temperature, the skin area is extracted as the measurement area. As for body temperature, it is necessary to use a thermal sensor capable of measuring body surface temperature instead of a normal camera.

上記のことから、脈波、呼吸数、表情、体温等を検出するための測定領域としては、肩から上の領域が抽出できれば十分であり、対象者11の全身や背面などを撮像する必要がなく、カメラ12すなわち対象者端末10の前に座っておくだけで上記生体情報を検出することが可能となる。 From the above, it is sufficient to extract the region above the shoulder as the measurement region for detecting the pulse wave, respiration rate, facial expression, body temperature, etc., and it is not necessary to image the whole body or the back of the subject 11. Instead, the biometric information can be detected simply by sitting in front of the camera 12 , that is, the subject terminal 10 .

検出部34は、測定領域抽出部32が抽出した測定領域における動画像のフレーム間の変化から上記生体情報を抽出する。図3は、脈波を検出する場合の処理を示すイメージ図である。ここでは、図3(A)に示すような動画像情報における各フレームから図3(B)に示すような測定領域(ここでは、肌領域における頬の部分)を抽出して輝度値を取得し、図3(C)に示すように輝度値の変化から脈波の波形を検出するまでの処理を示している。図3に示すように、輝度値の変化を捉えることで単に脈拍数を検出するだけではなく、図3(C)に示すような波形として脈波の情報(ピーク間隔、脈の強弱等)を検出することが可能となる。このような脈波情報は、次段の状態推定部35で利用されると共に、状態情報記憶部36に記憶されて健康管理する際の情報として活用される。 The detection unit 34 extracts the biological information from the change between frames of the moving image in the measurement area extracted by the measurement area extraction unit 32 . FIG. 3 is an image diagram showing processing when detecting a pulse wave. Here, a luminance value is obtained by extracting a measurement region (here, the cheek portion in the skin region) as shown in FIG. 3B from each frame in the moving image information as shown in FIG. , as shown in FIG. 3(C), shows the processing from the change in luminance value to the detection of the waveform of the pulse wave. As shown in FIG. 3, it not only detects the pulse rate by capturing changes in luminance value, but also obtains pulse wave information (peak interval, pulse intensity, etc.) as a waveform as shown in FIG. 3(C). detection becomes possible. Such pulse wave information is used by the state estimating section 35 at the next stage, and is also stored in the state information storage section 36 to be used as information for health management.

また、検出部34は、必要に応じて呼吸数を検出する。図4は、呼吸情報を検出する場合の処理を示すイメージ図である。呼吸数については上述したように、対象者11の呼吸に応じて上下に微振動する肩領域の動きの変化を捉えて検出する。図4(A)が動画像情報を示し、図4(B)が測定領域である肩領域の上下移動の変化を検出している処理を示し、図4(C)が肩領域の上下移動の変化から呼吸の波形を検出する処理を示している。ここでも単に呼吸数だけでなく、図4に示すような呼吸の間隔(普通の呼吸/深呼吸/荒い呼吸等)や強弱を波形として検出することが可能である。このような呼吸情報は、次段の状態推定部35で利用することが可能であると共に、状態情報記憶部36に記憶されて健康管理する際の情報として活用するようにしてもよい。 Moreover, the detection unit 34 detects the respiration rate as necessary. FIG. 4 is an image diagram showing processing when detecting respiration information. As described above, the respiration rate is detected by capturing changes in the movement of the shoulder region that slightly vibrates up and down according to the respiration of the subject 11 . 4A shows moving image information, FIG. 4B shows processing for detecting changes in vertical movement of the shoulder region, which is the measurement region, and FIG. 4C shows the vertical movement of the shoulder region. It shows the process of detecting a respiratory waveform from changes. In this case as well, it is possible to detect not only the respiration rate but also the respiration interval (normal respiration/deep respiration/rough respiration, etc.) and intensity as a waveform as shown in FIG. Such respiration information can be used by the state estimation unit 35 at the next stage, and may be stored in the state information storage unit 36 and used as information for health management.

さらに、検出部34は、必要に応じて表情を検出する。表情の検出については、例えば目じりの上下変化や口元の上下左右の変化などに応じて検出することが可能であり、一般的に知られている表情検出の技術を使うことができる。体温についても、一般的に知られている赤外線を用いたサーマルセンサで対象者11を撮像することで検出することが可能である。このような表情や体温の情報は、次段の状態推定部35で利用することができると共に、状態情報記憶部36に記憶されて健康管理する際の情報として活用するようにしてもよい。 Further, the detection unit 34 detects facial expressions as necessary. Facial expressions can be detected according to, for example, changes in the corners of the eyes up and down and changes in the corners of the mouth up, down, left, and right, and generally known facial expression detection techniques can be used. The body temperature can also be detected by capturing an image of the subject 11 with a generally known infrared thermal sensor. Such facial expression and body temperature information can be used by the state estimation unit 35 at the next stage, and may be stored in the state information storage unit 36 and used as information for health management.

なお、検出部34は、ベクトル拡張の技術を用いて生体情報をより確実に検出できるようにしてもよい。図5ないし図7は、ベクトル拡張した場合の動画像の一例を示す図である。図5は肌領域の輝度値の変化を拡張したもの、図6は肩領域の上下移動の変化を拡張したもの、図7は表情の変化を拡張したものの一例であり、各図の(A)はベクトル増幅しない場合の動画像、(B)はベクトル増幅した場合の動画像を示している。 Note that the detection unit 34 may use a technique of vector extension to more reliably detect biometric information. 5 to 7 are diagrams showing an example of a moving image in the case of vector extension. FIG. 5 shows an expanded change in the brightness value of the skin area, FIG. 6 shows an expanded change in the vertical movement of the shoulder area, and FIG. 7 shows an expanded change in facial expression. indicates a moving image without vector amplification, and (B) indicates a moving image with vector amplification.

図5の場合は、動画像情報におけるフレーム間の輝度値の変化を拡張して色の変化の度合いを大きくすることで、ベクトル増幅しない場合は認識不可能な脈拍による皮膚表面の微細な色変化を認識可能な状態で表示することができる。図6の場合は、動画像情報におけるフレーム間の肩領域の上下移動の変化を拡張して大きくすることで、ベクトル増幅しない場合はほぼ認識不可能な呼吸による肩領域の上下振動を認識可能な状態で表示することができる。図7の場合は、動画像情報におけるフレーム間の表情の変化を拡張することで、僅かな表情の変化であっても誇張した表情変化にすることができる。なお、図5ないし図7では、対象者11における実際の変化に対してベクトル増幅をしない場合とベクトル増幅をした場合とを比較してどのように誇張されるかのイメージを一例として示したものであり、ベクトル増幅による誇張のさせ方は適宜設定できるものとする。 In the case of FIG. 5, by expanding the change in luminance value between frames in the moving image information to increase the degree of color change, minute color changes on the skin surface due to the pulse that cannot be recognized without vector amplification can be recognizably displayed. In the case of FIG. 6, by expanding and increasing the change in the vertical movement of the shoulder region between frames in the moving image information, it is possible to recognize the vertical vibration of the shoulder region due to respiration, which is almost unrecognizable without vector amplification. status can be displayed. In the case of FIG. 7, by expanding the change in facial expression between frames in the moving image information, even a slight change in facial expression can be exaggerated. 5 to 7 show, as an example, an image of how the actual change in the subject 11 is exaggerated by comparing the case where vector amplification is not performed and the case where vector amplification is performed. , and the method of exaggeration by vector amplification can be appropriately set.

図7の表情の変化については、特に知的障碍者などに見られる感情に応じて表情がほとんど変化しないような対象者11に対しては、変化が誇張されることで感情を推定しやすくなる。さらに、動画像における変化が誇張されることで、図5ないし図7に示すように視認により容易に生体情報の変化を確認することが可能となる。 Regarding the change in facial expression in FIG. 7, for the target person 11 whose facial expression hardly changes in response to emotions, especially those seen in mentally handicapped persons, exaggerated changes make it easier to estimate the emotion. . Furthermore, by exaggerating the change in the moving image, it becomes possible to easily confirm the change in the biometric information visually as shown in FIGS. 5 to 7 .

状態推定部35は、検出部34が検出した生体情報から対象者11の状態を推定する。例えば、検出された脈波の情報からローレンツプロットにより自律神経系の分析を行う。より具体的には、例えば図8に示すように、ローレンツプロットからL(長軸長)/T(短軸長)の値を算出し、このL/Tに応じた感情を判定する。なお、図8(B)に示すL/Tと対象者11の状態との関係を示す表は、管理者21等が任意に設定可能であり、基本情報記憶部33に格納されている。ここでは、苛立ち状態、緊張状態、安心状態、リラックス状態を判定するように設定されている。これ以外にも、例えば交感神経優位/副交感神経優位の判定、集中状態/注意散漫状態の判定等を行うことができる。推定された対象者11の状態に関する情報は、状態情報記憶部36に記憶され、健康管理する際の情報として活用することができる。 The state estimation unit 35 estimates the state of the subject 11 from the biological information detected by the detection unit 34 . For example, the autonomic nervous system is analyzed by Lorenz plot from the detected pulse wave information. More specifically, for example, as shown in FIG. 8, the value of L (long axis length)/T (short axis length) is calculated from the Lorenz plot, and the emotion is determined according to this L/T. Note that the table showing the relationship between the L/T and the state of the subject 11 shown in FIG. Here, it is set to determine an irritated state, a tense state, a calm state, and a relaxed state. In addition to this, for example, determination of sympathetic nerve dominance/parasympathetic nerve dominance, determination of concentration state/distraction state, and the like can be performed. Information about the estimated condition of the subject 11 is stored in the condition information storage unit 36 and can be used as information for health management.

呼吸に関する情報が検出されている場合は、呼吸情報を用いたローレンツプロットを作成して対象者11の状態を推定してもよいし、脈波が検出できないような場合に呼吸情報を使ってローレンツプロットを作成するようにしてもよい。また、脈波の情報も呼吸の情報も双方とも検出できている場合は、予め設定された優先順位に従って一方の情報のみを使用してもよいし、図8(B)に示したような表をL/T(脈波)+L/T(呼吸)について作成しておき、L/T(脈波)+L/T(呼吸)と状態との関係を求めるようにしてもよい。 If information about breathing is detected, a Lorentzian plot using the breathing information may be created to estimate the state of the subject 11, or if the pulse wave cannot be detected, the Lorentzian plot using the breathing information A plot may be created. Further, when both pulse wave information and respiration information can be detected, only one of the information may be used according to a preset priority, or a table as shown in FIG. 8B may be used. may be prepared for L/T (pulse wave)+L/T (respiration), and the relationship between L/T (pulse wave)+L/T (respiration) and the state may be obtained.

さらに、表情に関する情報が検出されている場合は、その表情に応じた数値化を行うことで状態の推定を行うようにしてもよい。例えば、目尻の上げ下げ具合や口元の広がり具合に応じて笑顔や怒り顔の強さを数値化(例えば、怒った状態から喜び状態を-10~10で数値化)し、それを正規化して上記L/Tに反映することで、より正確に対象者11の状態を推定することができる。体温についても同様に、高温であれば緊張状態、低温であればリラックス状態として数値化し、最終的には正規化して上記L/Tに反映することで、より正確に対象者11の状態を推定することができる。 Furthermore, if information related to facial expressions is detected, the state may be estimated by quantifying the facial expressions. For example, the strength of a smile or an angry face is quantified according to the degree of raising and lowering the corners of the eyes and the degree of the spread of the mouth (for example, from an angry state to a happy state is digitized by -10 to 10), and normalized to the above. By reflecting on L/T, the state of the subject 11 can be estimated more accurately. Similarly, if the body temperature is high, it is in a tense state, and if it is low, it is quantified as a relaxed state. can do.

なお、上記においては脈波、呼吸、表情及び体温等の情報を正規化して一つのパラメータとする場合について説明したが、それぞれの生体情報ごとに異なる指標に基づいた状態を推定するようにしてもよい。例えば、脈波と呼吸からは「緊張状態」~「リラックス状態」を推定し、表情からは「喜怒哀楽」を推定し、体温からは「興奮状態」~「通常状態」を推定することで、複数の指標で状態を推定してもよい。 In the above description, information such as pulse wave, respiration, facial expression, and body temperature is normalized into one parameter. good. For example, by estimating "tensed state" to "relaxed state" from pulse wave and breathing, estimating "emotions" from facial expressions, and estimating "excited state" to "normal state" from body temperature. , the state may be estimated by multiple indices.

出力制御部37は、検出部34が検出した生体情報や状態推定部35が推定した対象者11の状態を対象者端末10や管理者端末20に送信する。対象者端末10や管理者端末20に送信された生体情報や状態情報は、それぞれの端末のディスプレイに表示されて対象者11や管理者21に参照される。 The output control unit 37 transmits the biological information detected by the detection unit 34 and the state of the subject 11 estimated by the state estimation unit 35 to the subject terminal 10 and the administrator terminal 20 . The biological information and state information transmitted to the subject terminal 10 and the administrator terminal 20 are displayed on the displays of the respective terminals and referred to by the subject 11 and the administrator 21 .

管理者21は、対象者11とディスプレイ越しに遠隔で対話する際に対象者の生体情報や状態をリアルタイムに確認しながら対話を行うことができるため、そのときの対象者11の状態に適した対応を行うことが可能となる。例えば、対象者11が興奮状態にあると判断される場合には、できるだけゆっくり話し掛けながらリラックス状態に移行できるような対応が可能となる。また、対象者11は、自身の生体情報や状態を確認することで、自分の状態を把握することができ、精神状態が安定するように意識した行動を取ることが可能になる。 When the administrator 21 remotely interacts with the target person 11 through the display, the administrator 21 can interact while confirming the target person's biological information and state in real time. It is possible to respond. For example, when it is determined that the target person 11 is in an excited state, it is possible to take measures such that the target person 11 can transition to a relaxed state while speaking as slowly as possible. In addition, the subject 11 can grasp his/her own condition by confirming his/her biological information and condition, and can take conscious actions so as to stabilize his/her mental condition.

また、管理者20は状態情報記憶部36に記憶されている対象者11の生体情報や状態情報を定期的(例えば、半年ごと、1年ごと)に確認することで、対象者11の健康管理を行うことが可能となる。 In addition, the administrator 20 periodically (for example, every six months or every year) confirms the biological information and the state information of the subject 11 stored in the state information storage unit 36, thereby managing the health of the subject 11. It is possible to do

次に、状態検出装置の動作について説明する。図9は、本実施形態に係る状態検出装置の動作を示すフローチャートである。まず、対象者端末10から送信される対象者11を撮像した動画像情報を入力部31が入力して取得する(S1)。測定領域抽出部32が、取得した動画像情報から測定領域となる顔領域(特に肌領域)や肩領域を抽出する(S2)。検出部34が、抽出した測定領域における動画像情報のフレーム間の変化やサーマルセンサから、脈波、呼吸、表情及び/又は体温等の生体情報を検出する(S3)。状態推定部35が、検出された生体情報から対象者11の状態を推定する(S4)。検出された生体情報や対象者11の状態情報を管理者端末20や対象者端末10に出力(送信)して(S5)処理を終了する。 Next, operation of the state detection device will be described. FIG. 9 is a flow chart showing the operation of the state detection device according to this embodiment. First, the input unit 31 inputs and acquires moving image information of the target person 11 transmitted from the target person terminal 10 (S1). The measurement area extracting unit 32 extracts a face area (especially a skin area) and a shoulder area as measurement areas from the acquired moving image information (S2). The detection unit 34 detects biological information such as pulse wave, respiration, facial expression, and/or body temperature from the frame-to-frame changes in the moving image information in the extracted measurement area and from the thermal sensor (S3). The state estimation unit 35 estimates the state of the subject 11 from the detected biological information (S4). The detected biological information and the status information of the subject 11 are output (transmitted) to the administrator terminal 20 and the subject terminal 10 (S5), and the process ends.

このように、本実施形態に係る状態検出装置においては、対象者11が撮像された動画像情報から生体情報を測定するための測定領域を特定し、当該測定領域の肌領域において、動画像情報のフレーム間の輝度値の変化に基づいて対象者11の脈波を検出し、検出結果に基づいて対象者の状態を推定するため、非接触でカメラ越しに撮像した動画像情報を取得するだけで簡単に対象者11の状態を推定することが可能となり、対象者11の健康状態や心理状態を把握することができる。 As described above, in the condition detection device according to the present embodiment, a measurement area for measuring biological information is specified from the moving image information of the subject 11, and the moving image information is detected in the skin area of the measurement area. The pulse wave of the target person 11 is detected based on the change in luminance value between frames, and the condition of the target person is estimated based on the detection results. , the condition of the subject 11 can be easily estimated, and the health condition and psychological state of the subject 11 can be grasped.

また、測定領域の肩部領域において、動画像情報のフレーム間で検出される肩部領域の上下位置の変化に基づいて対象者11の呼吸を検出するため、脈波と呼吸の情報から対象者の状態をより正確に推定することが可能になる。さらに、対象者11の状態の変化に対する脈波の変化と状態の変化に対する呼吸の変化にはある程度の相関性があることから、仮に脈波の情報を取得できない状態が生じた場合であっても呼吸で補完することができる。 In addition, in the shoulder region of the measurement region, since the respiration of the subject 11 is detected based on the change in the vertical position of the shoulder region detected between the frames of the moving image information, the subject's 11 pulse wave and respiration information state can be estimated more accurately. Furthermore, since there is a certain degree of correlation between the change in pulse wave with respect to the change in the state of the subject 11 and the change in respiration with respect to the change in state, even if a state occurs in which pulse wave information cannot be obtained, It can be complemented by breathing.

さらにまた、測定領域の顔領域において、前記動画像情報のフレーム間で検出される所定の特徴点の変化に基づいて前記対象者の表情の変化を検出するため、脈波と表情の変化の情報から対象者11の状態をより正確に推定することが可能になる。 Furthermore, in the face area of the measurement area, information on changes in pulse wave and facial expression is detected based on changes in predetermined feature points detected between frames of the moving image information. It becomes possible to more accurately estimate the state of the subject 11 from the above.

さらにまた、検出部34がフレーム間における微細な変化をベクトル増幅により拡張して前記変化を検出するため、血流による肌領域の微細な変化、呼吸による肩領域の微細な上下振動、表情の微細な変化等を誇張して明確な変化として捉えることができる。 Furthermore, since the detection unit 34 expands minute changes between frames by vector amplification to detect the changes, minute changes in the skin area due to blood flow, minute vertical vibrations in the shoulder area due to respiration, and minute facial expressions are detected. changes can be exaggerated and captured as clear changes.

なお、脈波、呼吸、表情及び体温以外にも、例えば瞳孔の開き具合で自律神経の状態を検出することが可能である。この場合は、瞳の画像を抽出し、瞳孔の大きさを検出することで交感神経優位/副交感神経優位といった状態を推定することが可能となる。そして、上記と同様に、瞳孔の大きさ(日常における通常状態からの変化)に応じた数値化を行い、正規化して上記L/Tに反映するようにしてもよい。 In addition to the pulse wave, respiration, facial expression, and body temperature, it is possible to detect the state of the autonomic nervous system by, for example, the degree of pupil dilation. In this case, by extracting the image of the pupil and detecting the size of the pupil, it is possible to estimate the state of sympathetic nerve dominance/parasympathetic nerve dominance. Then, similarly to the above, quantification according to the size of the pupil (change from the normal state in daily life) may be performed, normalized, and reflected in the L/T.

(本発明の第2の実施形態)
本実施形態に係る非接触型状態検出装置について図10及び図11を用いて説明する。本実施形態に係る非接触型状態検出装置は、生体情報に基づいて推定された対象者11の状態に応じて、適正な対処法を抽出して対象者11に提示するものである。なお、本実施形態において前記第1の実施形態と重複する説明は省略する。
(Second embodiment of the present invention)
A non-contact state detection device according to this embodiment will be described with reference to FIGS. 10 and 11. FIG. The non-contact state detection device according to the present embodiment extracts appropriate countermeasures and presents them to the subject 11 according to the state of the subject 11 estimated based on the biological information. In this embodiment, explanations that duplicate those of the first embodiment will be omitted.

対象者11には、例えば健常者、障碍者、子供、高齢者、病気の症状がある人、健康体の人、精神的な疾患を抱えた人、やる気がある人、やる気がない人、緊張しやすい人、落ち着いた人など様々な特徴の人がなり得る。この中でも、比較的状態が安定している人は、すぐに対処の必要はないが、状態が不安定な人は、できるだけ状態が安定するような感情や自律神経に移行できることが望ましい。また、現時点では特に精神的にも肉体的にも何ら症状がなくても、日頃から精神状態や自律神経を安定させることで、長く健康を維持することができる。本実施形態においては、精神状態や自律神経の状態を安定化させるための対処法を対象者11に具体的に提示することで、精神状態や自律神経の状態の安定化を図るものである。 The subject 11 includes, for example, a healthy person, a disabled person, a child, an elderly person, a person with symptoms of a disease, a healthy person, a person with a mental illness, a motivated person, a unmotivated person, and a nervous person. It is possible to become a person with various characteristics, such as an easy-going person or a calm person. Among these, people in a relatively stable state do not need to take immediate action, but it is desirable for people in an unstable state to be able to shift to emotions and autonomic nerves that stabilize the state as much as possible. In addition, even if there are no symptoms, especially mentally or physically, at the present time, it is possible to maintain good health for a long time by stabilizing the mental state and autonomic nerves on a daily basis. In this embodiment, by specifically presenting a coping method for stabilizing the mental state and the autonomic nerve state to the subject 11, the mental state and the autonomic nerve state are stabilized.

図10は、本実施形態に係る状態検出装置30の構成を示す機能ブロック図である。第1の実施形態における図2の場合と異なるのは、対象者11の状態に応じた対処方法に関する情報を記憶する対処情報記憶部81と、状態推定部35が推定した状態に応じて適正な対処法を対処情報記憶部81から抽出する対処情報抽出部82とを備えることである。 FIG. 10 is a functional block diagram showing the configuration of the state detection device 30 according to this embodiment. What is different from the case of FIG. 2 in the first embodiment is that a coping information storage unit 81 that stores information about a coping method according to the state of the subject 11 and an appropriate and a coping information extracting unit 82 for extracting coping methods from the coping information storage unit 81 .

対処情報記憶部81に記憶されている対処情報には、対象者11の状態に応じて交感神経を優位に移行するための動作を当該対象者11に実行させるための交感神経優位動作情報と、副交感神経を優位に移行するための動作を当該対象者に実行させるための副交感神経優位動作情報とを有しており、対象者11の状態に応じて適正な対処情報が抽出される。例えば、状態推定部35が対象者11が極めて興奮状態にありリラックスさせる必要がある場合(例えば、働き過ぎて緊張度が高まっている場合や人間関係でストレスを抱えているような場合)は、副交感神経優位動作情報が抽出され、逆に極めてリラックス状態にあり早急に緊張度を上げる必要がある場合(例えば、部屋に引きこもってリラックスし過ぎている場合)は、交感神経優位動作情報が抽出される。 The coping information stored in the coping information storage unit 81 includes sympathetic nerve dominant action information for causing the subject 11 to perform an action for making the sympathetic nerve dominant according to the state of the subject 11; It has parasympathetic nerve dominant action information for causing the subject to perform the action for shifting the parasympathetic nerve to the dominant state, and appropriate coping information is extracted according to the state of the subject 11 . For example, when the state estimating unit 35 needs to relax the subject 11 because the subject 11 is in an extremely excited state (for example, when the subject 11 is overworked and has a high degree of tension or is under stress in human relationships), Parasympathetic nerve dominant motion information is extracted, and conversely, when the subject is in an extremely relaxed state and the degree of tension needs to be increased immediately (for example, when the subject is too relaxed in a room), the sympathetic nerve dominant motion information is extracted. be done.

交感神経優位に移行するための動作としては、例えば呼吸数が必然的に早まる動作や発汗作用が高まる動作などがあり、具体的には、手、腕、足、胴体などに力を入れる(指をグーにする)、体操を行う、興奮しやすい映像を見る等が考えられる。一方、副交感神経優位に移行するための動作としては、例えば呼吸数を遅くしたりリラックス状態になる動作があり、具体的には、全身の力を抜く、指を開く(指をパーにする)、マッサージをする、読書をする、クラシックを聴く、深呼吸・腹式呼吸をする、ガムを噛む等が挙げられる。 Movements to shift to sympathetic nerve dominance include, for example, movements that inevitably increase the breathing rate and movements that increase perspiration. Goo), do gymnastics, watch exciting videos, etc. On the other hand, as an action to shift to parasympathetic nerve dominance, for example, there is an action to slow down the breathing rate and relax. , massage, reading, listening to classical music, deep breathing/abdominal breathing, chewing gum, etc.

なお、一般的にはリラックス状態となる副交感神経優位に移行することが好ましいとされることが多いが、交感神経と副交感神経はどちらが優位になり過ぎても体調不良等を引き起こしてしまうため、バランス良く保たれることが望ましい。例えば、緊急事態宣言などが発令されたことにより外出が規制され、一日中家に滞在せざるを得ない状況が続いた場合には、気持ちは十分にリラックスしているものの体調不良を起こすことがある。つまり、上記のように交感神経優位動作情報と副交感神経優位動作情報と区分した上で、それぞれに適した対処情報が提示されることで、自律神経のバランスを保つことが可能となる。 In general, it is often said that it is preferable to shift to a parasympathetic nervous system that is in a relaxed state, but if either of the sympathetic nervous system or the parasympathetic nervous system becomes too dominant, it will cause poor physical condition, etc. It should be well kept. For example, if going out is restricted due to the issuance of a state of emergency, etc., and people are forced to stay at home all day long, they may feel relaxed enough but still feel unwell. . In other words, after distinguishing between sympathetic nerve-dominant motion information and parasympathetic nerve-dominant motion information as described above, by presenting coping information suitable for each, it is possible to maintain the balance of the autonomic nerves.

また、対処情報記憶部81に記憶されている対処情報には、対象者11の状態に応じて長期的に対処するための動作を当該対象者11に実行させるための長期動作情報と、短期的に対処するための動作を当該対象者11に実行させるための短期動作情報とを有しており、対象者11の状態に応じて適正な対処情報が抽出される。例えば、状態推定部35が対象者11が長期的に対処する必要がある状態(例えば、ストレスなどの蓄積により心身症(鬱状態、頭痛、アトピー性皮膚炎、過敏性腸症候群等)が発症している状態等)だと推定した場合は、長期動作情報が抽出され、逆に短期的に対処する必要がある状態(例えば、上司に叱責されて頭に血が上っている、クレーム対応により極度に緊張している状態等)だと推定した場合は、短期動作情報が抽出される。 Further, the coping information stored in the coping information storage unit 81 includes long-term action information for causing the subject 11 to perform an action for long-term coping according to the state of the subject 11, and short-term action information. and short-term action information for causing the target person 11 to perform an action for coping with the problem, and appropriate coping information is extracted according to the condition of the target person 11 . For example, if the state estimating unit 35 develops a state that the subject 11 needs to deal with in the long term (for example, psychosomatic disease (depressive state, headache, atopic dermatitis, irritable bowel syndrome, etc.) due to accumulation of stress, etc.) If it is estimated that the driver is in a state where the driver is in a state where the worker is in a state where the worker is in a state of being overwhelmed, long-term operation information is extracted, and conversely, a state that needs to be dealt with in the short term. When it is estimated that the person is in an extremely tense state, etc., short-term motion information is extracted.

長期動作としては、例えば日常生活において習慣的に行っている動作の中で、特に体調を整えるのに役に立つ動作があり、具体的には、体内時計に合わせた生活を送る(起床時間、就寝時間を固定する)、普段から水を飲む、姿勢を正す、笑顔で過ごす、就寝3時間前に夕食を摂る、適温でゆっくり湯舟に浸かる、部屋の片づけをする等が挙げられる。一方、短期的動作としては、例えばその場ですぐに実行することができ、場所や時間を多く取らない動作があり、上述した交感神経優位に移行するための動作及び副交感神経優位に移行するための動作以外にも、難解な問題を短時間で解く、簡単な問題をストレスなく解く、空を見上げる、興奮/リラックスする色を見る等が挙げられる。 Examples of long-term movements include those that are habitually performed in daily life and that are particularly useful for improving one's physical condition. ), drinking water on a regular basis, correcting your posture, spending time with a smile, eating dinner 3 hours before bedtime, taking a slow bath at a suitable temperature, and tidying up your room. On the other hand, short-term motions include, for example, motions that can be executed immediately on the spot and do not take much space or time. In addition to the actions of , other actions include solving difficult problems in a short time, solving simple problems without stress, looking up at the sky, and seeing exciting/relaxing colors.

なお、長期動作及び短期動作のそれぞれを更に細分化して、交感神経を優位にする長期動作、副交感神経を優位にする長期動作、交感神経を優位にする短期動作、及び副交感神経を優位にする短期動作に区分してもよい。このように区分することで、対象者11の状態により適合した対処情報を提示することが可能となる。 Furthermore, long-term movements and short-term movements are further subdivided into long-term movements in which the sympathetic nerve is dominant, long-term movements in which the parasympathetic nerve is dominant, short-term movements in which the sympathetic nerve is dominant, and short-term movements in which the parasympathetic nerve is dominant. It may be divided into actions. By dividing in this way, it is possible to present coping information more suitable for the condition of the target person 11 .

対処情報記憶部81には、上記のような交感神経を優位にする動作、副交感神経を優位にする動作、長期的に対処するための動作、短期的に対処するための動作を対象者11に実行させるための情報が記憶されている。すなわち、例えば、力を入れたり抜いたりする動作を実行させたい場合は、文字又は音声でその旨をアナウンスすると共に、推奨される実行時間を提示する。また、興奮/リラックスする映像/音楽、グー/パーの映像や音声、笑顔を作るための動画や音声、適正な呼吸数に応じたカウンターの映像や音声、その他上述したような各動作に伴った映像や音声が記憶され、これらに基づいて上記動作に適した実行方法(真似る、視聴する、指示通りに動く/動かす等)が抽出される。 In the coping information storage unit 81, the above-described motions that make the sympathetic nerves dominant, motions that make the parasympathetic nerves dominant, motions for long-term coping, and motions for short-term coping are stored for the subject 11. Information for execution is stored. That is, for example, when it is desired to perform an action of exerting force or releasing force, an announcement to that effect is made by text or voice, and a recommended execution time is presented. In addition, images/music that excites/relaxes, goo/pah images and sounds, animations and sounds that make people smile, counter images and sounds that correspond to the appropriate breathing rate, and other actions that accompany each of the above-mentioned actions. Images and sounds are stored, and based on these, a suitable execution method (imitation, viewing, moving/move as instructed, etc.) is extracted.

対処情報抽出部82で抽出された上記各対処情報は、出力制御部37により対象者端末10に送信され、ディスプレイ13に表示される。対象者11はディスプレイ13に表示されている対処情報を参考にしながら、その動作を実際に実行する。例えば、「所定のリズムで深呼吸を行う」という対処情報が抽出された場合は、所定のリズムに合わせた表示や音が対象者端末10のディスプレイ13(音の場合はスピーカー)に出力される。対象者11は、その音や表示に合わせて深呼吸を行うことで、副交感神経を優位にしてリラックス状態に移行することが可能となる。 Each of the countermeasure information extracted by the countermeasure information extraction unit 82 is transmitted to the target person terminal 10 by the output control unit 37 and displayed on the display 13 . The target person 11 actually performs the action while referring to the countermeasure information displayed on the display 13 . For example, when coping information "take a deep breath with a predetermined rhythm" is extracted, display and sound matching the predetermined rhythm are output to the display 13 (speaker in the case of sound) of the target user terminal 10. The subject 11 takes a deep breath according to the sound and the display, thereby making the parasympathetic nerve dominant and shifting to a relaxed state.

なお、必要に応じて、対象者11が行った対処動作(特に、その場で確認可能な短期動作)を評価する評価手段を備えるようにしてもよい。例えば、笑顔を作る対処動作が提示された場合に、対象者11が実際に作った笑顔をAIで判定し、十分な笑顔であるかどうかを評価する(点数を付ける)ようにしてもよい。また、指示通りのタイミングで呼吸がなされたかどうか(肩の動きをベクトル増幅で確認)や、映像をきちんと視聴したかどうか(目線が画面に向いているかどうか)について評価することも可能である。対象者11は、それらの評価結果を受けて、より適正な対処動作を行うことが可能となる。 If necessary, evaluation means may be provided for evaluating coping actions performed by the subject 11 (in particular, short-term actions that can be confirmed on the spot). For example, when a coping action to make a smile is presented, the smile actually made by the subject 11 may be determined by AI, and whether the smile is sufficient may be evaluated (scored). In addition, it is also possible to evaluate whether or not the subject breathed at the timing as instructed (check the shoulder movement by vector amplification) and whether or not the image was properly viewed (whether the eyes are facing the screen). The target person 11 can receive these evaluation results and perform more appropriate coping operations.

次に、本実施形態に係る状態検出装置の動作について説明する。図11は、本実施形態に係る状態検出装置の動作を示すフローチャートである。S1からS4までの処理は、前記第1の実施形態における図9と同じであるため説明は省略する。S4で対象者11の状態が推定されると、対処情報抽出部82が、対象者11の状態に対する適正な対処情報を対処情報記憶部81から抽出する(S5)。出力制御部37が、抽出された対処情報を状態情報と共に対象者端末10に出力(送信)して(S6)、処理を終了する。 Next, the operation of the state detection device according to this embodiment will be described. FIG. 11 is a flow chart showing the operation of the state detection device according to this embodiment. Since the processing from S1 to S4 is the same as that of FIG. 9 in the first embodiment, description thereof is omitted. When the condition of the target person 11 is estimated in S4, the coping information extraction unit 82 extracts appropriate coping information for the condition of the target person 11 from the coping information storage unit 81 (S5). The output control unit 37 outputs (transmits) the extracted coping information together with the status information to the subject terminal 10 (S6), and ends the process.

このように、本実施形態に係る状態検出装置においては、推定された対象者11の状態に応じたバイオフィードバックが可能になり、対象者11の精神状態を安定することができる。すなわち、呼吸数や表情などの意図的にコントロールできる生体情報を、提示された指示に従って実行することで心拍数、体温、自律神経等の意図的なコントロールが難しい生体情報を安定化させることが可能になる。また、無自覚な対象者11に対して、ストレス度合いや影響を自覚させて将来的に起こり得る様々な心身症などを出来るだけ防止することができる。 As described above, in the state detection device according to the present embodiment, biofeedback corresponding to the estimated state of the subject 11 is possible, and the mental state of the subject 11 can be stabilized. In other words, it is possible to stabilize biological information that is difficult to control intentionally, such as heart rate, body temperature, autonomic nerves, etc. become. In addition, it is possible to prevent various psychosomatic disorders that may occur in the future as much as possible by making the unconscious subject 11 aware of the degree of stress and influence.

さらに、例えば現在の状態から少し気持ちを興奮状態(交感神経優位の状態)に移行したい場合や気持ちを落ち着けたい場合(副交感神経優位の状態)などに、それぞれに適した動作情報が提示されることで、様々な局面に適応できるように対象者の気持ちを制御することが可能になる。 In addition, for example, when the user wants to move from the current state to a slightly excited state (state of sympathetic nerve dominance) or when he or she wants to calm down (state of parasympathetic nerve dominance), motion information suitable for each case should be presented. , it becomes possible to control the subject's feelings so that they can adapt to various situations.

さらにまた、例えば心身症のような長期的な対処が必要な状態に対する適した動作と、短期的に受けるような過度のストレスに対して適した対処動作とを区分して対応することで、より適正な対処が可能になる。 Furthermore, by distinguishing between actions suitable for conditions that require long-term coping, such as psychosomatic disorders, and coping actions suitable for excessive stress received in the short term, Appropriate handling becomes possible.

なお、対象者端末10のディスプレイ13に対処情報を提示する際に、上記第1の実施形態において説明したベクトル増幅の技術を活用してもよい。具体的には、例えば顔の表情をリラックスさせるために笑顔を作ることが対処情報として抽出された場合に、ディスプレイ13にベクトル増幅した参考となる笑顔の動画を表示することで、提示内容を強調させることが可能となる。また、参考となる笑顔の動画と共に、対象者11自身を撮像した動画像をディスプレイ13に対処情報として表示させることで、自身の表情をベクトル増幅させて誇張した表示が可能となり、自身の強調された表情変化を意識した対処情報を実行することができる。 It should be noted that when presenting the countermeasure information on the display 13 of the subject terminal 10, the technique of vector amplification described in the first embodiment may be utilized. Specifically, for example, when making a smile to relax the facial expression is extracted as coping information, the display 13 displays a vector-amplified moving image of a smiling face to serve as a reference, thereby emphasizing the presented content. It is possible to In addition, by displaying a moving image of the target person 11 himself/herself as coping information on the display 13 together with a moving image of a smiling face to be used as a reference, it is possible to display an exaggerated expression by vector-amplifying the facial expression of the subject 11, thereby emphasizing the subject 11. It is possible to execute coping information that is conscious of facial expression changes.

(本発明の第3の実施形態)
本実施形態に係る状態検出装置について図12及び図13を用いて説明する。本実施形態に係る状態検出装置は、測定領域抽出部32が対象者の温度情報から測定領域を抽出することで、処理の負荷を軽減するものである。なお、本実施形態において前記各実施形態と重複する説明は省略する。
(Third embodiment of the present invention)
A state detection device according to this embodiment will be described with reference to FIGS. 12 and 13. FIG. The condition detection device according to this embodiment reduces the processing load by extracting the measurement region from the subject's temperature information by the measurement region extraction unit 32 . In this embodiment, explanations overlapping those of the above-described embodiments are omitted.

図12は、対象者端末10のセンサ部の構成を示す図である。第1の実施形態においては、対象者端末10にカメラ12が備え付けられる構成を説明したが、本実施形態においては、対象者端末10(カメラ12の有無は問わない)と図12に示すセンサ部とが一体として対象者端末10を構成している。図12において、センサ部40は、対象者を可視光で撮像するカメラ41(少なくともカメラ12と同等の機能を有する)と、温度(遠赤外線)を検知するためのサーマルセンサ42と、近赤外線撮像用の光を照射する近赤外LED43と、各センサの動作を制御する制御部44と、外部機器との入出力を行うための入出力インターフェース45と、外部機器と有線又は無線で通信を行うための通信インターフェース46とを備える。 FIG. 12 is a diagram showing the configuration of the sensor unit of the subject terminal 10. As shown in FIG. In the first embodiment, the configuration in which the camera 12 is provided in the target person terminal 10 was described. constitutes the subject terminal 10 as an integral unit. In FIG. 12, the sensor unit 40 includes a camera 41 (having at least the same function as the camera 12) for imaging the subject with visible light, a thermal sensor 42 for detecting temperature (far infrared rays), and a near-infrared imaging device. A near-infrared LED 43 that irradiates light for use, a control unit 44 that controls the operation of each sensor, an input/output interface 45 for inputting and outputting with an external device, and a wired or wireless communication with the external device. and a communication interface 46 for

なお、対象者端末10をセンサ部40のみで構成するようにしてもよい。すなわち、対象者端末10はディスプレイやキーボードなどの入出力デバイスがなく、センサ部40のみで一つの装置として構成されてもよい。この場合、外部の他の装置との入出力や通信は入出力インターフェース45や通信インターフェース46を介して直接行われるようにしてもよい。 Note that the subject terminal 10 may be configured only with the sensor section 40 . That is, the subject terminal 10 may be configured as a single device with only the sensor section 40 without input/output devices such as a display and a keyboard. In this case, input/output and communication with other external devices may be performed directly via the input/output interface 45 and the communication interface 46 .

カメラ41は、対象者とその周囲の領域を撮像する画像センサであり、太陽光や蛍光灯などの可視光を光源とする撮像や、近赤外LED43を光源とする近赤外線撮像を行う。可視光を光源とする撮像を行う場合は近赤外光をカットするフィルタを通しており、夜間などに暗視撮像を行う場合は近赤外LED43を光源として近赤外光をカットするフィルタを外すことで撮像を行う。 The camera 41 is an image sensor that captures an image of a subject and its surrounding area, and performs imaging using visible light such as sunlight or fluorescent light as a light source, or near-infrared imaging using a near-infrared LED 43 as a light source. When performing imaging using visible light as a light source, a filter that cuts near-infrared light is passed through, and when performing night vision imaging at night, the near-infrared LED 43 is used as a light source and the filter that cuts near-infrared light is removed. Take an image with

サーマルセンサ42は、遠赤外線を検知してその強さに応じて温度を検知するものである。一般的には遠赤外線が強いほど温度が高くて赤く表示され、遠赤外線が弱いほど温度が低くて青く表示される。第1の実施形態においては対象者の体温測定のためにサーマルセンサ42を備える構成について述べているが、本実施形態においては、体温情報の収集に加えて、測定された温度情報を用いた測定領域の特定が行われる。 The thermal sensor 42 detects far-infrared rays and detects temperature according to the intensity thereof. In general, the stronger the far-infrared rays, the higher the temperature, which is displayed in red, and the weaker the far-infrared rays, the lower the temperature, which is displayed in blue. In the first embodiment, the configuration including the thermal sensor 42 for measuring the body temperature of the subject is described, but in this embodiment, in addition to collecting body temperature information, measurement using the measured temperature information Area identification is performed.

図13は、本実施形態に係る状態検出装置において、サーマルセンサを用いて測定領域を特定する処理を示す図である。図13(A)に示すように、サーマルセンサ42で対象者を撮像することで、対象者におけるある程度決まった範囲にある体温(35℃~37℃程度、必要に応じて洋服部分による温度低下を含めた25℃~)の領域、つまり対象者の体温領域を検出することができる。また一方で、図13(B)に示すように、カメラ41により対象者が撮像される。サーマルセンサ42で撮像された図13(A)の体温領域とカメラ41で撮像された図13(B)とを重ね合わせることで、図13(C)に示すように、カメラ41の撮像画像における対象者の測定領域を特定することが可能となる。このような方法に因らなければ、例えばAIなどで対象者(ヒトの顔)を認識し、その上で測定領域を抽出する必要があるが、本実施形態においてはサーマルセンサ42の所定の温度領域を検出するだけで済むため、処理を格段に軽くすることができる。 13A and 13B are diagrams showing a process of specifying a measurement region using a thermal sensor in the state detection device according to this embodiment. As shown in FIG. 13A, by imaging the subject with the thermal sensor 42, the body temperature of the subject within a certain range (approximately 35° C. to 37° C., and if necessary, the temperature drop due to the clothes) It is possible to detect the range of 25° C.~), that is, the body temperature range of the subject. On the other hand, as shown in FIG. 13B, the subject is imaged by the camera 41 . By superimposing the body temperature region of FIG. 13A captured by the thermal sensor 42 and FIG. 13B captured by the camera 41, as shown in FIG. It becomes possible to specify the measurement area of the subject. Without such a method, it would be necessary to recognize the target person (human face) by AI, for example, and then extract the measurement area. Since it is enough to just detect the area, the processing can be significantly lightened.

また、本実施形態においては、上記第1の実施形態及び第2の実施形態において説明した脈波、呼吸数、表情、体温、自律神経の状態(交感神経/副交感神経)以外にも、複数の生体情報を検出又は求めることが可能となっている。 Further, in the present embodiment, in addition to the pulse wave, respiratory rate, facial expression, body temperature, and autonomic nerve state (sympathetic/parasympathetic) described in the first and second embodiments, a plurality of It is possible to detect or obtain biometric information.

具体的には、例えば近赤外LED43を照射した対象者をカメラ41で暗視モード(近赤外光をカットするフィルタを外した状態のモード)で撮像することにより、対象者の血糖値を測定することが可能である。すなわち、カメラ41で撮像された近赤外画像から対象者の肌の部分の吸光度を測定した場合に、糖(グルコース)が多い部分で近赤外光が多く吸収されて黒が強くなる。そのため、糖が検出される部分と糖が検出されない部分との濃淡の差で血糖値を求めることが可能となる。血糖値の測定は、従来では実際に血液を採取する必要があるが、本実施形態のように非破壊で検討値を求めることで、対象者の肉体的な負担を格段に低減することが可能となる。なお、血糖値の測定ではできるだけ体表面に近い血管が撮像されることが望ましいため、例えば対象者に対して腕の内側領域などの血管が見えやすい領域をカメラ41に向けるように音声や文字で提示してもよい。 Specifically, for example, the target person irradiated with the near-infrared LED 43 is imaged with the camera 41 in a night-vision mode (a mode in which a filter that cuts off near-infrared light is removed), thereby measuring the blood sugar level of the target person. It is possible to measure That is, when the absorbance of the subject's skin portion is measured from the near-infrared image captured by the camera 41, the near-infrared light is absorbed more in the portion with more sugar (glucose), and the black becomes stronger. Therefore, the blood sugar level can be obtained from the difference in gradation between the portion where sugar is detected and the portion where sugar is not detected. Conventionally, it is necessary to actually collect blood to measure the blood sugar level, but by obtaining the investigation value in a non-destructive manner as in this embodiment, it is possible to significantly reduce the physical burden on the subject. becomes. In the measurement of the blood sugar level, it is desirable to image the blood vessels as close to the body surface as possible. may be presented.

また、例えば取得した脈波の情報から対象者の血圧を算出することが可能である。脈波から血圧を算出する手法はいくつか知られているが、例えば以下のようにして求めることができる。血管弾性率Eは Further, for example, the blood pressure of the subject can be calculated from the acquired pulse wave information. Some methods of calculating blood pressure from pulse waves are known, and it can be obtained, for example, as follows. Vascular elastic modulus E is

Figure 2022179438000002
Figure 2022179438000002

ここで、Eは無圧力時の血管弾性率、aは補正係数、Pは血圧である。この式より血圧Pは、 Here, E 0 is the vascular elastic modulus at no pressure, a is the correction factor, and P is the blood pressure. From this formula, the blood pressure P is

Figure 2022179438000003
Figure 2022179438000003

で求めることができる。血管弾性率については統計的に得られる既知の値を利用してもよいし、脈波を1次微分して得られる速度脈波や2次微分して得られる加速度脈波によって求めるようにしてもよい。 can be found at As for the vascular modulus, a known value obtained statistically may be used, or it may be obtained from the velocity pulse wave obtained by first-order differentiation of the pulse wave or the acceleration pulse wave obtained by second-order differentiation. good too.

さらに、例えば対象者の血中酸素濃度を求めることも可能である。近赤外LED43で照射される近赤外光は生体組織を透過しつつ血中のヘモグロビンに吸収される性質を有する。すなわち、血中のヘモグロビンの濃度を測定することで血中酸素濃度を求めることが可能となる。なお、酸素化ヘモグロビンと脱酸素化ヘモグロビンの相対的な濃度を測定するために、異なる波長帯の近赤外光が照射されるようにしてもよい。このとき、異なる波長の複数の近赤外LED43を用いるようにしてもよいし、波長を可変することができる近赤外LED43を用いて交互に異なる波長帯の近赤外光を照射してもよい。 Furthermore, it is also possible to determine, for example, the blood oxygen level of the subject. The near-infrared light emitted from the near-infrared LED 43 has the property of being absorbed by hemoglobin in blood while passing through living tissue. That is, by measuring the concentration of hemoglobin in blood, it is possible to determine the blood oxygen concentration. In order to measure the relative concentrations of oxygenated hemoglobin and deoxygenated hemoglobin, near-infrared light in different wavelength bands may be irradiated. At this time, a plurality of near-infrared LEDs 43 with different wavelengths may be used, or near-infrared light in different wavelength bands may be alternately irradiated using the near-infrared LEDs 43 whose wavelengths are variable. good.

さらにまた、例えば対象者の集中度合いを推定することも可能である。RRI(R波の間隔)と集中力との相関が知られており、RRIが上昇する場合には集中力が下がっており、RRIが安定している場合は集中力が維持されている。すなわち、脈波をモニタリングすることで集中力の有無を推定することが可能である。 Furthermore, it is also possible, for example, to estimate the degree of concentration of the subject. A correlation between RRI (R-wave interval) and concentration is known, where concentration decreases when RRI rises and concentration remains when RRI is stable. That is, it is possible to estimate the presence or absence of concentration by monitoring the pulse wave.

センサ部40における上記各生体情報の収集や送信は制御部44により制御される。例えば、対象者を認識したり体温を取得する場合にはサーマルセンサ42を動作させてセンシングを行い、血糖値や血中酸素濃度を測定する場合や夜間の時間の撮像を行う場合には、近赤外LED43を動作させて光源としながらカメラ41により暗視モードでの撮像を行う。 Collection and transmission of each biometric information in the sensor section 40 are controlled by the control section 44 . For example, when recognizing a target person or acquiring body temperature, the thermal sensor 42 is operated and sensing is performed, and when measuring a blood sugar level or a blood oxygen concentration, or when capturing an image at night time, a nearby sensor is used. While the infrared LED 43 is operated as a light source, the camera 41 takes an image in the night vision mode.

センサ部40で取得された情報は通信インターフェース46を介して状態検出装置30に送信され、対象者の状態が推定される。前記第1の実施形態においては、取得した生体情報を用いて状態推定部35がローレンツプロットにより対象者の状態を推定する方法を一例として説明したが、本実施形態においては、主に人工知能(AI)により対象者の情報を推定する。本実施形態においては、前記各実施形態における各生体情報に加えて上記のような複数種類の生体情報を取得又は演算することが可能となっている。そこで、これらの多数の生体情報を入力とする人工知能(AI)により対象者の状態を推定する。なお、各生体情報ごとに特有のローレンツプロットを作成し、それらを総合的に判断することで対象者の状態を推定するようにしてもよい。 Information acquired by the sensor unit 40 is transmitted to the condition detection device 30 via the communication interface 46, and the condition of the subject is estimated. In the first embodiment, the state estimating unit 35 uses the obtained biological information to estimate the state of the subject by Lorentz plot. In the present embodiment, artificial intelligence ( AI) estimates the information of the subject. In this embodiment, it is possible to acquire or calculate a plurality of types of biometric information as described above in addition to each biometric information in each of the above embodiments. Therefore, the subject's condition is estimated by artificial intelligence (AI) that receives such a large amount of biological information as input. Note that the condition of the subject may be estimated by creating a Lorenz plot unique to each piece of biological information and comprehensively judging them.

例えば、児童施設や障碍者施設などで働いてサービスを提供している職員は、各サービス対象者を一目見ただけで今日の機嫌や感情などを判断できることがある。これはベテラン職員の経験に基づいて、サービス対象者が発する雰囲気(例えば外観、声、表情、動き、服装等)を総合的に瞬時に判断することで推定されているものと思われるが、論理付けて説明したり数値化することが非常に難しい。そのため、上記のような様々な生体情報に基づいて対象者の状態を学習したAIを用いることで、このようなベテラン職員と同様の推定を行うことが可能となる。なお、上記AIはサービス対象者全体に対して推定を行うものであってもよいし、サービス対象者の個人ごとに個別に推定を行うものであってもよい。 For example, a staff member who works at a children's facility, a facility for the disabled, or the like to provide services may be able to determine today's mood and feelings at a glance at each service recipient. Based on the experience of veteran staff, it seems that this is estimated by comprehensively instantaneously judging the atmosphere (for example, appearance, voice, expression, movement, clothing, etc.) emitted by the service recipient. It is very difficult to attach and explain or quantify. Therefore, by using AI that has learned the subject's condition based on various biological information as described above, it is possible to make an estimation similar to that of such a veteran employee. Note that the AI may perform estimation for the entire service target person, or may perform estimation individually for each service target person.

状態推定部35のAI機能で推定される対象者の状態として、第1の実施形態において説明したような感情の状態に加えて、例えば上記各生体情報から判断される健康状態(肉体的な健康状態+精神的な健康状態)、癇癪が起こる前兆、躁鬱状態、疲労の度合い、機嫌等を推定することが可能となる。 As the state of the subject estimated by the AI function of the state estimating unit 35, in addition to the emotional state described in the first embodiment, for example, the state of health (physical health) determined from each of the above biological information. condition + mental health condition), signs of tantrum, manic-depressive state, degree of fatigue, mood, etc. can be estimated.

(本発明の第4の実施形態)
ここでは、本発明に係る非接触型状態検出装置の使用形態について、いくつか具体例を挙げて説明する。なお、本実施形態において前記各実施形態と重複する説明は省略する。
(Fourth embodiment of the present invention)
Here, some specific examples will be given to explain how the non-contact state detection device according to the present invention is used. In this embodiment, explanations overlapping those of the above-described embodiments are omitted.

まずは一例として、職場において非接触型状態検出システム1を使用した場合について説明する。職場で非接触型状態検出システム1を採用することで、後述するような職場環境の改善や生産性向上に役立てることができる。図14は、職場において非接触型状態検出システム1を使用した場合の処理概要を示す図である。図14において、工場やオフィスで作業する作業者に関して、作業内容や作業場所などを予め設定する(図14(A))。対象者端末10のカメラ12で作業者の作業の様子を撮像する(図14(B))。顔認証で作業者を認識して特定し、モニタリングする(図14(C))。作業者の状態を上記各実施形態において説明した処理により監視しながら情報を蓄積する。また併せて、作業者の集中力が低下した場合にアラートを出力する(図14(D))。 First, as an example, a case where the non-contact state detection system 1 is used in a workplace will be described. By adopting the non-contact state detection system 1 in the workplace, it can be used to improve the workplace environment and productivity as described later. FIG. 14 is a diagram showing an outline of processing when the non-contact state detection system 1 is used in the workplace. In FIG. 14, for workers working in a factory or office, work contents, work places, etc. are set in advance (FIG. 14(A)). The camera 12 of the subject terminal 10 captures an image of the worker's work (FIG. 14(B)). The operator is recognized, identified, and monitored by face recognition (FIG. 14(C)). Information is accumulated while monitoring the state of the worker by the processing described in each of the above embodiments. At the same time, an alert is output when the concentration of the worker is lowered (Fig. 14(D)).

このように、作業者の集中力が下がっていると推定される場合にアラートが出力されることで、危険な作業を行っている場合などのリスク管理として事故防止や安全対策を講じることが可能となる。また、蓄積された情報を解析することで、対象となる作業者がどのような作業を行っているときに状態が安定して且つ集中力が維持されているかがわかるため、適正な作業内容や作業量の配分に役立てることができる。さらに、どのような作業環境の場合に作業者の状態が安定し且つ集中力が持続されているかがわかるため、職場環境の改善に役立てることが可能となる。 In this way, by outputting an alert when it is estimated that the concentration of the worker has decreased, it is possible to prevent accidents and take safety measures as risk management when performing dangerous work. becomes. In addition, by analyzing the accumulated information, it is possible to find out what kind of work the target worker is doing when the state is stable and concentration is maintained, so it is possible to determine the appropriate work content and It can be useful for allocating workload. Furthermore, since it is known in what kind of work environment the worker's condition is stable and concentration is maintained, it is possible to make use of the improvement of the work environment.

他の例として、教育現場において非接触型状態検出システム1を使用した場合について説明する。教育現場で非接触型状態検出システム1を採用することで、後述するような教室の環境改善や学習力向上に役立てることができる。図15は、教育現場において非接触型状態検出システム1を使用した場合の処理概要を示す図である。なお、図15では学校などの教室で使用する場合について説明するが、オンラインによる個別授業の場合やeラーニングなどにも応用可能である。図15において、学校の教室で授業を受ける生徒に関して、学習内容や教室の場所などを予め設定する(図15(A))。対象者端末10のカメラ12で生徒の授業の様子を撮像する(図15(B))。顔認証で生徒個人を認識して特定し、モニタリングする(図15(C))。生徒の状態を上記各実施形態において説明した処理により監視しながら情報を蓄積する。また併せて、生徒の集中力が低下した場合に先生が使用する管理者端末20にアラートを出力する(図15(D))。 As another example, a case where the non-contact state detection system 1 is used in an educational setting will be described. By adopting the non-contact state detection system 1 in an educational setting, it can be used to improve the classroom environment and improve learning ability, as will be described later. FIG. 15 is a diagram showing an overview of processing when the non-contact state detection system 1 is used in an educational setting. Note that FIG. 15 describes the case of using in a classroom at a school or the like, but it can also be applied to online individual lessons or e-learning. In FIG. 15, learning contents, the location of the classroom, etc. are set in advance for students who take classes in a school classroom (FIG. 15(A)). The camera 12 of the subject terminal 10 takes an image of the student's lesson (FIG. 15(B)). Individual students are recognized, specified, and monitored by face recognition (FIG. 15(C)). Information is accumulated while the student's status is monitored by the processing described in each of the above embodiments. At the same time, an alert is output to the administrator terminal 20 used by the teacher when the student's concentration drops (FIG. 15(D)).

このように、生徒の集中力が下がっていると推定される場合に、どの生徒がどれくらいの集中力で授業を受けているかを管理者である先生が把握できるため、授業の進め方を臨機応変に変更しながら効果的な授業を実現することが可能となる。また、蓄積された情報を解析することで、対象となる生徒がどのような授業をどのような先生から受けているときに、生体情報や自律神経がどのように変化しているかが詳細にわかるため、学習の進め方や授業内容、得意科目、不得意科目等に応じたきめ細かなサポートが可能になる。 In this way, when it is estimated that a student's concentration is declining, the teacher, who is the administrator, can grasp how much concentration each student has in class. It is possible to realize effective lessons while changing. In addition, by analyzing the accumulated information, it is possible to understand in detail how the biological information and autonomic nerves are changing when the target student is receiving what kind of class from what kind of teacher. Therefore, it is possible to provide detailed support according to how to proceed with learning, class content, good subjects, weak subjects, etc.

また、学校としては、生徒の状態変化を細かく察知して体や心の健康状態の変化に素早く対応することが可能となる。生徒の状態が把握されることで成績アップにつなげる工夫を施すことも可能となる。さらに、本人も気づいていないような潜在的な興味や関心を引き出すことが可能となり、生徒の新たな可能性を見い出したり受講する授業や進路選択などを提案することができる。さらにまた、各生徒がどのような教室の環境でどのような時間帯に状態が安定し且つ集中力が持続しているかがわかるため、教室環境の改善に役立てることが可能となる。 In addition, schools can detect changes in the state of students in detail and quickly respond to changes in physical and mental health conditions. By grasping the student's condition, it is possible to implement measures that lead to improvement in grades. In addition, it is possible to draw out latent interests and concerns that the student himself is not aware of, so that he can discover new possibilities for the student and propose classes to take and course selection. Furthermore, since it is possible to know in what kind of classroom environment and at what time period each student is in a stable state and has sustained concentration, it is possible to make use of the improvement of the classroom environment.

さらに、生徒にとってはきめ細かいサポートが受けられることで、自分では気づいていない可能性を見い出してもらったり、成績アップにつなげることができる。 Furthermore, by receiving detailed support for students, it is possible to discover possibilities that they themselves are not aware of, and to improve their grades.

図16は、図14や図15で処理を行った場合に管理者端末20に表示される画面の一例を示す図である。図16(A)は職場や教室などの監視対象区域全体における監視対象者ごとの状態変化のヒートマップを示しており、図16(B)は監視対象者ごとに時間に対する状態変化のヒートマップを示している。 FIG. 16 is a diagram showing an example of a screen displayed on the administrator terminal 20 when the processes in FIGS. 14 and 15 are performed. FIG. 16(A) shows a heat map of state changes for each monitored person in the entire monitored area such as workplaces and classrooms, and FIG. 16(B) shows a heat map of state changes over time for each monitored person. showing.

図16(A)のヒートマップでは、監視対象区域(職場や教室など)の中で、どの領域にいる監視対象者(作業者や生徒など)は状態が安定しており、どの領域にいる監視対象者は状態が不安定であるかが一目でわかる。つまり、配置(例えば、人の行き来が多い、窓際、エアコンに近い、前方の席、後方の席、所定の人物が近くにいる、上司や先生が近くにいる、仲が良い人が近くにいる等)による状態変化が現れている場合であれば、順次配置転換を行うことで監視対象者の状態をできるだけ安定化させることができる。 In the heat map of FIG. 16(A), which area of the monitoring target area (workplace, classroom, etc.) is in a stable state, and which area is being monitored. The subject can see at a glance whether the state is unstable. In other words, placement (for example, many people come and go, by the window, near the air conditioner, in the front seat, in the back seat, with certain people nearby, with bosses and teachers nearby, with close friends nearby) etc.), the status of the person to be monitored can be stabilized as much as possible by performing sequential reassignment.

図16(B)のヒートマップでは、各監視対象者ごとの経時的な状態変化をリアルタイムに確認することが可能となるため、監視対象者ごとに適した対応を取ることができる。例えば、集中力が下がっている場合は休憩を促す、蓄積されている情報から苦手な作業を行っていることで状態が不安定であると判断される場合は得意な作業に変更する、学校の授業であればリラックスできる話をするといった対応を行うことで、監視対象者の状態を安定させる。 In the heat map of FIG. 16B, it is possible to check the change in state over time for each monitored person in real time, so that appropriate measures can be taken for each monitored person. For example, if concentration is declining, it is recommended to take a break, if it is judged that the accumulated information is unstable due to the work you are not good at, you can change it to the work you are good at. If it is a class, the situation of the person being monitored is stabilized by taking measures such as talking in a relaxed manner.

このように、本実施形態に係る非接触型状態検出装置を用いることで、具体的には職場や学校などの環境改善に役立てたり、作業者や生徒に対して安全性を確保した効率的な作業や授業が実現できるようきめ細かな監視が可能になる。 In this way, by using the non-contact state detection device according to the present embodiment, it can be used to improve the environment of workplaces, schools, etc., or to provide an efficient environment that ensures the safety of workers and students. Detailed monitoring is possible so that work and lessons can be realized.

(その他の実施形態)
上記各実施形態において、並列処理を行うことで限りなくリアルタイムに近い状態で画面越しに相手の生体情報を確認しながらコミュニケーションを図ることができる。例えば、対象者端末10から取得した動画像情報のフレームを分割し、色の抽出をCPUのコアごとに並列処理することで、脈波の検出をほぼリアルタイムで行うことが可能である。実際に発明者らが開発したシステムにおいては、0.5秒~1.5秒のタイムラグの範囲で脈波を検出することができた。
(Other embodiments)
In each of the above-described embodiments, by performing parallel processing, it is possible to communicate while confirming the other person's biological information through the screen in a state as close to real time as possible. For example, it is possible to detect a pulse wave almost in real time by dividing a frame of moving image information acquired from the subject terminal 10 and performing parallel processing of color extraction for each CPU core. In the system actually developed by the inventors, the pulse wave could be detected within a time lag range of 0.5 seconds to 1.5 seconds.

このように、動画像情報のフレームを適宜分割して色や動きの情報抽出をCPUコアごとに並列処理されることで、リアルタイムに生体情報を検出して画面で確認することが可能になる。 In this manner, by appropriately dividing frames of moving image information and extracting color and motion information for each CPU core and performing parallel processing, biometric information can be detected in real time and confirmed on the screen.

1 非接触型状態検出システム
10 対象者端末
11 対象者
12 カメラ
13 ディスプレイ
20 管理者端末
21 管理者
22 カメラ
23 ディスプレイ
30 非接触型状態検出装置(状態検出装置)
31 入力部
32 測定領域抽出部
33 基本情報記憶部
34 検出部
35 状態推定部
36 状態情報記憶部
37 出力制御部
40 センサ部
41 カメラ
42 サーマルセンサ
43 近赤外LED
44 制御部
45 入出力インターフェース
46 通信インターフェース
81 対処情報記憶部
82 対処情報抽出部
1 non-contact state detection system 10 subject terminal 11 subject 12 camera 13 display 20 administrator terminal 21 administrator 22 camera 23 display 30 non-contact state detection device (state detection device)
31 input unit 32 measurement region extraction unit 33 basic information storage unit 34 detection unit 35 state estimation unit 36 state information storage unit 37 output control unit 40 sensor unit 41 camera 42 thermal sensor 43 near-infrared LED
44 control unit 45 input/output interface 46 communication interface 81 countermeasure information storage unit 82 countermeasure information extraction unit

Claims (9)

対象者が撮像された動画情報から生体情報を測定するための測定領域を特定する測定領域特定手段と、
前記測定領域の肌領域において、前記動画情報のフレーム間の輝度値の変化に基づいて前記対象者の脈波を検出する検出手段と、
前記検出手段の検出結果に基づいて前記対象者の状態を推定する状態推定手段とを備えることを特徴とする非接触型状態検出装置。
measurement area identifying means for identifying a measurement area for measuring biometric information from moving image information of a subject;
detection means for detecting the subject's pulse wave based on a change in luminance value between frames of the moving image information in the skin region of the measurement region;
and a state estimating means for estimating the state of the subject based on the detection result of the detecting means.
請求項1に記載の非接触型状態検出装置において、
前記検出手段が、前記測定領域の肩部領域において、前記動画情報のフレーム間で検出される前記肩部領域の上下位置の変化に基づいて前記対象者の呼吸を検出する非接触型状態検出装置。
In the non-contact state detection device according to claim 1,
A non-contact state detection device in which the detection means detects breathing of the subject based on changes in the vertical position of the shoulder region detected between frames of the moving image information in the shoulder region of the measurement region. .
請求項1又は2に記載の非接触型状態検出装置において、
前記検出手段が、前記測定領域の顔領域において、前記動画情報のフレーム間で検出される所定の特徴点の変化に基づいて前記対象者の表情の変化を検出する非接触型状態検出装置。
In the non-contact state detection device according to claim 1 or 2,
The non-contact state detection device, wherein the detection means detects a change in facial expression of the subject based on a change in a predetermined feature point detected between frames of the moving image information in the face area of the measurement area.
請求項1又は2に記載の非接触型状態検出装置において、
前記検出手段がフレーム間における微細な変化をベクトル増幅により拡張して前記変化を検出する非接触型状態検出装置。
In the non-contact state detection device according to claim 1 or 2,
A non-contact state detection device in which the detecting means expands minute changes between frames by vector amplification to detect the changes.
請求項1又は2に記載の非接触型状態検出装置において、
状態に応じた適正な動作の情報を記憶する動作情報記憶手段と、
前記状態推定手段が推定した状態に応じた適正な動作情報を前記動作情報記憶手段から抽出する動作情報抽出手段と、
抽出した前記動作情報をディスプレイに表示する表示制御手段とを備える非接触型状態検出装置。
In the non-contact state detection device according to claim 1 or 2,
an operation information storage means for storing information on appropriate operation according to the state;
motion information extraction means for extracting appropriate motion information corresponding to the state estimated by the state estimation means from the motion information storage means;
and display control means for displaying the extracted operation information on a display.
請求項5に記載の非接触型状態検出装置において、
前記動作情報記憶手段に記憶された前記動作の情報が、前記対象者の副交感神経を優位にするための副交感神経優位動作情報と、前記対象者の交感神経を優位にするための交感神経優位動作情報とに区分されている非接触型状態検出装置。
In the non-contact state detection device according to claim 5,
The motion information stored in the motion information storage means includes parasympathetic nerve-dominant motion information for making the subject's parasympathetic nerves dominant and sympathetic nerve-dominant motion information for making the subject's sympathetic nerves dominant. A non-contact state detection device that is divided into information and
請求項5に記載の非接触型状態検出装置において、
前記動作情報記憶手段に記憶された前記動作の情報が、長期的な状態に対して適正な動作である長期動作情報と、短期的な状態に対して適正な動作である短期動作情報とに区分されている非接触型状態検出装置。
In the non-contact state detection device according to claim 5,
The motion information stored in the motion information storage means is divided into long-term motion information indicating proper motion for a long-term state and short-term motion information indicating proper motion for a short-term state. A non-contact state detection device.
請求項1又は2に記載の非接触型状態検出装置において、
サーマルセンサで撮像された前記対象者の温度情報を取得する温度情報取得手段と、
前記温度情報に基づいて前記対象者の体温領域を抽出する体温領域抽出手段とを備え、
前記測定領域特定手段が、前記体温領域抽出手段で抽出された体温領域を前記動画情報に重ねて前記測定領域を特定することを特徴とする非接触型状態検出装置。
In the non-contact state detection device according to claim 1 or 2,
temperature information acquiring means for acquiring temperature information of the subject imaged by a thermal sensor;
a body temperature region extracting means for extracting a body temperature region of the subject based on the temperature information;
The non-contact state detection device, wherein the measurement region specifying means specifies the measurement region by superimposing the body temperature region extracted by the body temperature region extraction means on the moving image information.
対象者が撮像された動画情報から生体情報を測定するための測定領域を特定する測定領域特定手段、
前記測定領域の肌領域において、前記動画情報のフレーム間の輝度値の変化に基づいて前記対象者の脈波を検出する検出手段、
前記検出手段の検出結果に基づいて前記対象者の状態を推定する状態推定手段としてコンピュータを機能させることを特徴とする非接触型状態検出プログラム。
measurement area identifying means for identifying a measurement area for measuring biometric information from video information captured by a subject;
detection means for detecting a pulse wave of the subject based on a change in luminance value between frames of the moving image information in the skin area of the measurement area;
A non-contact state detection program that causes a computer to function as state estimation means for estimating the subject's state based on the detection result of the detection means.
JP2022082273A 2021-05-19 2022-05-19 Non-contact type state detection device and non-contact type state detection program Pending JP2022179438A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021084812 2021-05-19
JP2021084812 2021-05-19

Publications (1)

Publication Number Publication Date
JP2022179438A true JP2022179438A (en) 2022-12-02

Family

ID=84238806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022082273A Pending JP2022179438A (en) 2021-05-19 2022-05-19 Non-contact type state detection device and non-contact type state detection program

Country Status (1)

Country Link
JP (1) JP2022179438A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024204628A1 (en) * 2023-03-30 2024-10-03 シチズン時計株式会社 Determination device, video distribution system, determination method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024204628A1 (en) * 2023-03-30 2024-10-03 シチズン時計株式会社 Determination device, video distribution system, determination method, and program

Similar Documents

Publication Publication Date Title
US11452475B2 (en) Systems and methods for assessing and improving sustained attention
JP6268193B2 (en) Pulse wave measuring device, portable device, medical device system, and biological information communication system
Samad et al. A feasibility study of autism behavioral markers in spontaneous facial, visual, and hand movement response data
JP6371366B2 (en) Mental illness determination device
CN107809951B (en) Psychophysiological detection (lie detection) method and apparatus for distortion using video-based detection of physiological signals
JP6755356B2 (en) Detection device
Kuriakose et al. Understanding the psycho-physiological implications of interaction with a virtual reality-based system in adolescents with autism: A feasibility study
CN108135491B (en) Physiological state determination device and physiological state determination method
WO2004091371A9 (en) Determining a psychological state of a subject
JP2013505811A (en) System and method for obtaining applied kinesiology feedback
RU2711976C1 (en) Method for remote recognition and correction using a virtual reality of a psychoemotional state of a human
KR20160095464A (en) Contents Recommend Apparatus For Digital Signage Using Facial Emotion Recognition Method And Method Threof
US20200060598A1 (en) Deception Detection System and Method
WO2020175759A1 (en) System and method for analyzing stress of user and managing individual mental health, using hmd device having biosignal sensors mounted therein
CN113647950A (en) Psychological emotion detection method and system
JP2022179438A (en) Non-contact type state detection device and non-contact type state detection program
EP4226906A1 (en) Sightline-position determination device, sightline-position determination method, and training method
CN108451494A (en) The method and system of time domain cardiac parameters are detected using pupillary reaction
Müller et al. From stress awareness to coping strategies of medical staff: Supporting reflection on physiological data
Hogervorst et al. Physiological correlates of stress in individuals about to undergo eye laser surgery
WO2022065446A1 (en) Feeling determination device, feeling determination method, and feeling determination program
KR101691720B1 (en) System diagnosing adhd using touchscreen
Coppini et al. User acceptance of self-monitoring technology to prevent cardio-metabolic diseases: The Wize Mirror
JP2018094031A (en) Psychogenic disease determination apparatus
Vartak et al. Cognitive state estimation for adaptive learning systems using wearable physiological sensors

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220520