JP2024007407A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2024007407A
JP2024007407A JP2023103675A JP2023103675A JP2024007407A JP 2024007407 A JP2024007407 A JP 2024007407A JP 2023103675 A JP2023103675 A JP 2023103675A JP 2023103675 A JP2023103675 A JP 2023103675A JP 2024007407 A JP2024007407 A JP 2024007407A
Authority
JP
Japan
Prior art keywords
user
information
health
information processing
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023103675A
Other languages
Japanese (ja)
Inventor
雄一郎 山本
Yuichiro Yamamoto
清貴 田中
Seiki Tanaka
寛 大塚
Hiroshi Otsuka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tribawl
Tribawl Co Ltd
Original Assignee
Tribawl
Tribawl Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tribawl, Tribawl Co Ltd filed Critical Tribawl
Publication of JP2024007407A publication Critical patent/JP2024007407A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

PROBLEM TO BE SOLVED: To estimate a health condition of a user with high accuracy.
SOLUTION: An information processing device includes: first acquisition means that obtains voice information about a voice of a user; second acquisition means that obtains face information of the user; first storage means that stores the voice information and the face information; first extraction means that extracts a voice feature amount, based on the voice information; second extraction means that extracts a face feature amount, based on the face information; and health condition estimation means that estimates a health condition of the user, based on the voice feature amount and the face feature amount at a plurality of time points.
SELECTED DRAWING: Figure 4
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、情報処理装置に関する。 The present invention relates to an information processing device.

従来、声帯情報に基づく音響パラメータを用いて疾患を推定する技術が知られている(例えば、特許文献1)。 Conventionally, a technique for estimating a disease using acoustic parameters based on vocal cord information is known (for example, Patent Document 1).

国際公開第2020/013296号International Publication No. 2020/013296

しかしながら、上述の特許文献に挙げられた技術では、ユーザの声帯情報のみに基づいて疾患を推定するため、ユーザの健康状態を正確に推定することができなかった。 However, with the techniques mentioned in the above-mentioned patent documents, the disease is estimated based only on the user's vocal cord information, and therefore the user's health condition cannot be accurately estimated.

本発明は、このような状況を鑑みてなされたものであり、ユーザの健康状態を高精度に推定することを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to estimate a user's health condition with high accuracy.

上記目的を達成するため、本発明の一態様の情報処理装置は、
ユーザの声に関する声情報を取得する第一取得手段と、
前記ユーザの顔情報を取得する第二取得手段と、
前記声情報および前記顔情報を記憶する第一記憶手段と、
前記声情報に基づいて、音声特徴量を抽出する第一抽出手段と、
前記顔情報に基づいて、顔特徴量を抽出する第二抽出手段と、
複数の時点における前記音声特徴量および前記顔特徴量に基づいて、前記ユーザの健康状態を推定する健康状態推定手段と、
を備える。
To achieve the above object, an information processing device according to one embodiment of the present invention includes:
a first acquisition means for acquiring voice information regarding the user's voice;
a second acquisition means for acquiring facial information of the user;
a first storage means for storing the voice information and the face information;
a first extraction means for extracting voice features based on the voice information;
a second extraction means for extracting facial features based on the facial information;
Health state estimating means for estimating the health state of the user based on the voice feature amount and the facial feature amount at a plurality of points in time;
Equipped with

本発明によれば、ユーザの健康状態を高精度に推定することができる。 According to the present invention, a user's health condition can be estimated with high accuracy.

本発明の一実施形態に係る情報処理システムにより提供されるサービスの概要を示す図である。FIG. 1 is a diagram showing an overview of services provided by an information processing system according to an embodiment of the present invention. 本発明の一実施形態に係る情報処理システムに関するシステム構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a system configuration regarding an information processing system according to an embodiment of the present invention. 図2の情報処理システムのうち、サーバのハードウェア構成の一例を示すブロック図である。3 is a block diagram showing an example of the hardware configuration of a server in the information processing system of FIG. 2. FIG. 図2の情報処理システムのうち、サーバの機能的構成の一例を示す機能ブロック図である。3 is a functional block diagram showing an example of a functional configuration of a server in the information processing system of FIG. 2. FIG. 図2の情報処理システムのうち、サーバが実行する処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of a process executed by a server in the information processing system of FIG. 2. FIG. 健康状態の推定における表示の一例を示す第1の図である。FIG. 2 is a first diagram showing an example of a display in estimating a health condition. 健康状態の推定における表示の一例を示す第2の図である。FIG. 7 is a second diagram showing an example of a display in estimating a health condition. 健康状態の推定における表示の一例を示す第3の図である。FIG. 7 is a third diagram showing an example of a display in estimating a health condition. 健康状態の推定における表示の一例を示す第4の図である。FIG. 4 is a fourth diagram showing an example of a display in estimating a health condition. 健康状態の推定における表示の一例を示す第5の図であり、(a)は組織に属する複数のユーザの健康状態を示す図、(b)は当該複数のユーザが属する組織の健康状態を示す図である。It is a fifth diagram showing an example of a display in estimating a health state, in which (a) is a diagram showing the health states of a plurality of users belonging to an organization, and (b) is a diagram showing the health state of an organization to which the plurality of users belong. It is a diagram.

(実施形態)
<概要>
以下、本発明の実施形態について、図面を用いて説明する。
図1は、本発明の一実施形態に係る情報処理システムにより提供されるサービス(以下、「本サービス」と呼ぶ)の概要を示す図である。
(Embodiment)
<Summary>
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram showing an overview of a service (hereinafter referred to as "this service") provided by an information processing system according to an embodiment of the present invention.

本サービスは、ユーザUの心や体の状態、すなわち健康状態を高精度に推定することを目的としている。健康状態をよりよく推定することができれば、その推定結果を有効に活用することが可能である。
例えば、会社において、本情報処理システムを構成する情報処理装置(後述するサーバ1)によって推定された、ユーザU(従業員)の健康状態が悪い場合(例えばうつ状態である場合)、会社はユーザUが離職しないように防止策をとることができる。また、ユーザUが、うつ病を自覚していない可能性があるため、会社側からのはたらきかけによって、ユーザU(従業員)は自己の健康状態の改善を図ることができる。
The purpose of this service is to estimate the state of mind and body of user U, that is, the state of health, with high accuracy. If health conditions can be estimated better, the estimation results can be used effectively.
For example, in a company, if user U (employee) is in poor health condition (for example, depressed), as estimated by the information processing device (server 1 described later) that constitutes this information processing system, the company Preventive measures can be taken to prevent U from leaving the company. Further, since the user U may not be aware of depression, the user U (employee) can improve his or her health condition through efforts from the company.

また、本サービスは、推定した健康状態を可視化することを目的とする。可視化とは、例えば、健康状態を示すスコアや健康状態そのものを出力して、当該スコアや健康状態を前述の会社乃至ユーザUに示すことをいう。可視化することで、例えば、会社はユーザU(従業員)の自己報告に頼ることなく、従業員の健康状態を把握することが可能となる。また、客観的なデータが示されるため、ユーザU自身でうつ病の可能性があることを自覚することが可能となる。 Additionally, the purpose of this service is to visualize the estimated health status. Visualization refers to, for example, outputting a score indicating a health state or the health state itself, and showing the score or health state to the above-mentioned company or user U. By visualizing, for example, the company can grasp the health status of its employees without relying on the self-reports of users U (employees). Moreover, since objective data is shown, it becomes possible for the user U to be aware of the possibility that he/she may be suffering from depression.

図1に示す本サービスにおいて、前述のユーザUは、例えば従業員である。情報処理端末2は、例えば会社の執務室の出入り口のドアに設置されている端末であって、カメラやマイク、ディスプレイを備えている。図中の符号Gは、情報処理端末2の表示部2dに表示される画面の一例である。画面には例えば、表示されている文章を読み上げる旨の指示が表示される。 In this service shown in FIG. 1, the above-mentioned user U is, for example, an employee. The information processing terminal 2 is a terminal installed, for example, at the entrance/exit door of an office in a company, and is equipped with a camera, a microphone, and a display. Reference numeral G in the figure is an example of a screen displayed on the display unit 2d of the information processing terminal 2. For example, an instruction to read out the displayed text is displayed on the screen.

まず、ユーザUは、出勤時に、情報処理端末2のカメラに顔が映るように情報処理端末2の前に立つ。ユーザUは続けて、情報処理端末2の画面に表示された文章(例えば「おはようございます」)を読み上げる。 First, when the user U goes to work, he stands in front of the information processing terminal 2 so that his face is reflected in the camera of the information processing terminal 2. User U then reads out a sentence (for example, "Good morning") displayed on the screen of information processing terminal 2.

ユーザUが情報処理端末2に表示された文章を読み上げた音(音声)と、情報処理端末2に映った顔とから、ユーザUの健康状態が推定される。 The health condition of the user U is estimated from the sound (voice) of the user U reading out the text displayed on the information processing terminal 2 and the face reflected on the information processing terminal 2.

本情報処理システムを構成するサーバ1(図2参照。情報処理装置)は、前述の目的を達成するために、ユーザUの顔および声の情報を用いてユーザUの健康状態を推定し、その推定結果を可視化する。具体的には、サーバ1は、情報処理端末2を介してユーザUの声に関する声情報およびユーザUの顔情報を取得すると共に、取得した声情報に基づいて音声特徴量を抽出し、且つ、取得した顔情報に基づいて顔特徴量を抽出する処理を実行する。そして、複数の時点における音声特徴量および顔特徴量に基づいて、ユーザUの健康状態HSを推定し、その推定結果を例えば表示する処理を実行する。 In order to achieve the above-mentioned purpose, the server 1 (see FIG. 2; information processing device) constituting this information processing system estimates the health condition of the user U using information about the user's face and voice, and Visualize the estimation results. Specifically, the server 1 acquires voice information regarding the voice of the user U and face information of the user U via the information processing terminal 2, and extracts voice features based on the acquired voice information, and Execute processing to extract facial features based on the acquired facial information. Then, the health state HS of the user U is estimated based on the voice feature amount and the facial feature amount at a plurality of points in time, and the estimation result is displayed, for example.

<システム構成>
図2は、本発明の一実施形態に係る情報処理システムに関するシステム構成の一例を示すブロック図である。
本実施形態に係る情報処理システムを構成する情報処理装置は、サーバ1によって実現されている。当該サーバ1は、インターネット等の所定のネットワークNを介して、情報処理端末2と、ユーザ端末3とが相互に接続されている。
情報処理端末2は、例えば、パーソナルコンピュータ(PC)、タブレット等の情報処理端末である。ユーザ端末3は、例えば、パーソナルコンピュータ(PC)、タブレット、スマートフォン等の情報処理端末である。なお、各端末は、ここでは1台であるものとして説明するが、当該サーバ1にそれぞれ接続されるよう複数台であってもよい。また、本実施形態では、サーバ1は1台であるものとして説明するが、サーバ1は複数台あってもよい。
<System configuration>
FIG. 2 is a block diagram showing an example of a system configuration regarding an information processing system according to an embodiment of the present invention.
An information processing device constituting the information processing system according to this embodiment is realized by a server 1. In the server 1, an information processing terminal 2 and a user terminal 3 are mutually connected via a predetermined network N such as the Internet.
The information processing terminal 2 is, for example, an information processing terminal such as a personal computer (PC) or a tablet. The user terminal 3 is, for example, an information processing terminal such as a personal computer (PC), a tablet, or a smartphone. Note that, although each terminal will be described here as one, there may be a plurality of terminals each connected to the server 1. Further, in this embodiment, the explanation will be made assuming that there is one server 1, but there may be a plurality of servers 1.

<サーバ1のハードウェア構成について>
図3は、実施形態に係るサーバ1のハードウェア構成の一例を示すブロック図である。
サーバ1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。
<About the hardware configuration of server 1>
FIG. 3 is a block diagram showing an example of the hardware configuration of the server 1 according to the embodiment.
The server 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input/output interface 15, an output section 16, and an input section 17. , a storage section 18, a communication section 19, and a drive 20.

CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。 The CPU 11 executes various processes according to programs recorded in the ROM 12 or programs loaded into the RAM 13 from the storage section 18 . The RAM 13 also appropriately stores data necessary for the CPU 11 to execute various processes. The CPU 11, ROM 12, and RAM 13 are interconnected via a bus 14. An input/output interface 15 is also connected to this bus 14 .

入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19、ドライブ20が接続されている。出力部16は、ディスプレイやスピーカ等で構成され、各種情報を画像や音声として出力する。入力部17は、キーボードやマウス等で構成され、各種情報を入力する。記憶部18は、ハードディスクやDRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。通信部19は、近距離無線通信や、インターネットを含むネットワークNを介して他の対象(例えば図2のユーザ端末3)との間で通信を行う。 An output section 16 , an input section 17 , a storage section 18 , a communication section 19 , and a drive 20 are connected to the input/output interface 15 . The output unit 16 is composed of a display, a speaker, etc., and outputs various information as images and sounds. The input unit 17 includes a keyboard, a mouse, etc., and inputs various information. The storage unit 18 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), etc., and stores various data. The communication unit 19 communicates with other targets (for example, the user terminal 3 in FIG. 2) via short-range wireless communication or a network N including the Internet.

ドライブ20は、必要に応じて設けられる。ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア21が適宜装着される。ドライブ20によってリムーバブルメディア21から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。また、リムーバブルメディア21は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。 The drive 20 is provided as necessary. A removable medium 21 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately installed in the drive 20. The program read from the removable medium 21 by the drive 20 is installed in the storage unit 18 as necessary. Further, the removable medium 21 can also store various data stored in the storage section 18 in the same manner as the storage section 18.

<情報処理端末2のハードウェア構成について>
情報処理端末2のハードウェア構成は、ここでは特に図示しないが、上述のサーバ1のハードウェア構成と基本的に同様である。即ち、CPUと、ROMと、RAMと、バスと、入出力インターフェースと、出力部と、入力部と、記憶部と、通信部と、ドライブとを備える。情報処理端末2は、ここでは音声取得部2aと検知部2bと撮像部2cと表示部2dも備える。音声取得部2aは所謂マイクであって、ユーザUの音声を取得するために備えられる。検知部2bは、例えばユーザUの声帯の振動そのものを検知するために備えられる。撮像部2cは、所謂カメラであって、ユーザUの顔を撮像するために備えられる。表示部2dは、例えば、ユーザUの音声を取得するためにユーザUに読ませる文章を表示するために備えられる。
<About the hardware configuration of the information processing terminal 2>
Although not particularly illustrated here, the hardware configuration of the information processing terminal 2 is basically the same as the hardware configuration of the server 1 described above. That is, it includes a CPU, a ROM, a RAM, a bus, an input/output interface, an output section, an input section, a storage section, a communication section, and a drive. The information processing terminal 2 here also includes an audio acquisition section 2a, a detection section 2b, an imaging section 2c, and a display section 2d. The voice acquisition unit 2a is a so-called microphone, and is provided to acquire the user's U voice. The detection unit 2b is provided, for example, to detect the vibration itself of the vocal cords of the user U. The imaging unit 2c is a so-called camera, and is provided to capture an image of the user's U face. The display unit 2d is provided, for example, to display a sentence to be read by the user U in order to obtain the user's U voice.

<ユーザ端末3のハードウェア構成について>
ユーザ端末3のハードウェア構成は、ここでは特に図示しないが、上述のサーバ1のハードウェア構成と基本的に同様である。即ち、CPUと、ROMと、RAMと、バスと、入出力インターフェースと、出力部と、入力部と、記憶部と、通信部と、ドライブとを備える。ユーザ端末3は、ここでは表示部3aを備える。表示部3aは、前述のスコア(例えば、健康状態を示すスコア)を表示するために備えられる。
<About the hardware configuration of user terminal 3>
Although not particularly illustrated here, the hardware configuration of the user terminal 3 is basically the same as the hardware configuration of the server 1 described above. That is, it includes a CPU, a ROM, a RAM, a bus, an input/output interface, an output section, an input section, a storage section, a communication section, and a drive. The user terminal 3 here includes a display section 3a. The display unit 3a is provided to display the above-mentioned score (for example, a score indicating a health condition).

以上のようなサーバ1と、情報処理端末2と、ユーザ端末3とに関し、これらの各種ハードウェアと各種ソフトウェアとの協働により、後述する各種処理が実現されるようになる。 With regard to the server 1, information processing terminal 2, and user terminal 3 as described above, various types of processing described below can be realized through cooperation between these various types of hardware and various types of software.

<サーバ1の機能構成>
図4は、図2の情報処理システムのうち、サーバ1の機能的構成の一例を示す機能ブロック図である。
<Functional configuration of server 1>
FIG. 4 is a functional block diagram showing an example of the functional configuration of the server 1 in the information processing system of FIG. 2. As shown in FIG.

サーバ1は、前述したように、CPU11と、記憶部18と、通信部19等とを備える。サーバ1には、通信部19を介して情報処理端末2と、ユーザ端末3が夫々接続される。 As described above, the server 1 includes the CPU 11, the storage section 18, the communication section 19, and the like. An information processing terminal 2 and a user terminal 3 are connected to the server 1 via a communication unit 19, respectively.

サーバ1のCPU11においては、第一取得部111と、第二取得部112と、第一抽出部113と、第二抽出部114と、スコア算出部115と、健康状態推定部116と、表示制御部117と、疾患有無推定部118と、解析部119と、判定部120と、第一警告部121と、スコア判断部122と、第二警告部123と、血液情報取得部124と、勤怠情報取得部125と、病歴情報取得部126と、が機能する。 The CPU 11 of the server 1 includes a first acquisition section 111, a second acquisition section 112, a first extraction section 113, a second extraction section 114, a score calculation section 115, a health state estimation section 116, and a display control section. unit 117, disease presence/absence estimation unit 118, analysis unit 119, determination unit 120, first warning unit 121, score determination unit 122, second warning unit 123, blood information acquisition unit 124, and attendance information. The acquisition unit 125 and the medical history information acquisition unit 126 function.

サーバ1の記憶部18においては、この一領域に、声DB(データベース)181と、顔DB182と、特徴量DB183と、スコアDB184と、基準DB185と、算出モデルDB186と、解析・判定結果DB187と、ユーザ情報DB188と、組織情報DB189と、が構築されている。 In the storage unit 18 of the server 1, this one area includes a voice DB (database) 181, a face DB 182, a feature amount DB 183, a score DB 184, a reference DB 185, a calculation model DB 186, and an analysis/judgment result DB 187. , a user information DB 188, and an organization information DB 189 are constructed.

第一取得部111は、ユーザUの声に関する情報(以下、声情報という。)を取得する。ここで、声情報には、ユーザUの声(音声)を発した時に生ずる事象全てが含まれる。言い換えると、声情報には、ユーザUの声に関する音情報と、ユーザUに備わる声帯の振動に関する情報とが含まれる。
第一取得部111は、ユーザUが情報処理端末2に表示された文章を読み上げた声に関する音情報とユーザUの声帯の振動に関する情報を、情報処理端末2の音声取得部2aと検知部2bを介して取得する。
第一取得部111は、取得した声情報を声DB181に格納する。
The first acquisition unit 111 acquires information regarding the voice of the user U (hereinafter referred to as voice information). Here, the voice information includes all events that occur when the user U's voice (voice) is uttered. In other words, the voice information includes sound information regarding the voice of the user U and information regarding vibrations of the vocal cords of the user U.
The first acquisition unit 111 transmits sound information regarding the voice of the user U reading out the text displayed on the information processing terminal 2 and information regarding the vibration of the vocal cords of the user U to the voice acquisition unit 2a and the detection unit 2b of the information processing terminal 2. Get it through.
The first acquisition unit 111 stores the acquired voice information in the voice DB 181.

第二取得部112は、情報処理端末2の撮像部2cが撮像したユーザUの顔情報を取得する。ここで、顔情報には、例えば、ユーザUの目および口等の位置に関する情報や、目等の状態に関する情報、表情または顔色に関する情報等、顔画像より取得される脈波に関する情報が含まれるものとする。
目の状態に関する情報には、例えば、ユーザUの網膜に関する情報が含まれる。また、目の位置に関する情報には、例えば、ユーザUの眉間に関する情報が含まれる。
脈波に関する情報には、脈波から算出される脈拍数、呼吸数、交感神経及び副交感神経に係る数値、HF/LF(高周波成分/低周波成分)値を含む。
顔画像から、脈波を測定する技術については公知の技術を使用できる。例えばカメラやスマートフォンに搭載されるRGBイメージセンサや近赤外イメージセンサを用いた画像データにより脈波を測定する技術などが挙げられるが、これに限定されるものではない。
第二取得部112は、取得した顔情報を顔DB182に格納する。
The second acquisition unit 112 acquires the face information of the user U captured by the imaging unit 2c of the information processing terminal 2. Here, the facial information includes, for example, information regarding the positions of the user U's eyes, mouth, etc., information regarding the condition of the eyes, etc., information regarding facial expressions or complexion, and information regarding the pulse wave obtained from the facial image. shall be taken as a thing.
The information regarding the eye condition includes, for example, information regarding the user U's retina. Further, the information regarding the position of the eyes includes, for example, information regarding the glabella of the user U.
The information regarding pulse waves includes pulse rate, respiratory rate, numerical values related to sympathetic and parasympathetic nerves, and HF/LF (high frequency component/low frequency component) values calculated from the pulse wave.
Known techniques can be used to measure pulse waves from facial images. Examples include, but are not limited to, techniques for measuring pulse waves using image data using an RGB image sensor or a near-infrared image sensor installed in a camera or a smartphone.
The second acquisition unit 112 stores the acquired face information in the face DB 182.

なお、声情報と顔情報は、所定期間における所定のタイミングで、複数の時点において取得されるものとする。
例えば、声情報と顔情報は、毎日1回、平日のみ1日1回、所定の曜日のみ1日1回、取得されるとよい。これにより、例えば、ユーザUにおける過去の声情報と顔情報も考慮して健康状態を推定することができる。よって、一時点における声情報と顔情報からユーザUの健康状態を推定するよりも、ユーザUの健康状態を高精度に推定することができる。
Note that the voice information and face information are acquired at predetermined timings in a predetermined period at multiple points in time.
For example, voice information and face information may be acquired once every day, once a day only on weekdays, and once a day only on predetermined days of the week. Thereby, for example, the health condition of the user U can be estimated by also considering past voice information and face information. Therefore, the user U's health condition can be estimated with higher accuracy than estimating the user U's health condition from voice information and face information at one point in time.

第一抽出部113は、音声特徴量を抽出する。具体的には、第一抽出部113は、前述の第一取得部111が取得したユーザUの声情報に基づいて、所定の音響パラメータである音声特徴量を抽出する。第一抽出部113は、例えば周波数解析等を用いて音声特徴量を抽出する。音声特徴量には、例えば、声帯の変動パターンに基づく特徴量が含まれる。
第一抽出部113は、抽出した音声特徴量を特徴量DB183に格納する。
The first extraction unit 113 extracts audio features. Specifically, the first extraction unit 113 extracts a voice feature amount, which is a predetermined acoustic parameter, based on the voice information of the user U acquired by the first acquisition unit 111 described above. The first extraction unit 113 extracts audio features using, for example, frequency analysis. The voice feature amount includes, for example, a feature amount based on a variation pattern of vocal cords.
The first extraction unit 113 stores the extracted voice feature amount in the feature amount DB 183.

第二抽出部114は、顔特徴量を抽出する。具体的には、第二抽出部114は、前述の第二取得部112が取得したユーザUの顔情報に基づいて、顔特徴量を抽出する。第二抽出部114は、例えばSIFT(Scale-Invariant Feature Transform)やSURF(Speeded up robust features)、ORB(Oriented FAST and Rotated Brief)等の公知の抽出技術を用いて顔特徴量を抽出する。
第二抽出部114は、抽出した顔特徴量を、特徴量DB183に格納する。
The second extraction unit 114 extracts facial features. Specifically, the second extraction unit 114 extracts facial features based on the facial information of the user U acquired by the second acquisition unit 112 described above. The second extraction unit 114 uses known methods such as SIFT (Scale-Invariant Feature Transform), SURF (Speed up robust features), and ORB (Oriented FAST and Rotated Brief). Extract facial features using extraction technology.
The second extraction unit 114 stores the extracted facial feature amount in the feature amount DB 183.

スコア算出部115は、ユーザUの健康状態を示すスコアを算出する。ここで、スコアとは、ユーザUの健康状態を推定するために用いられる数値であって、例えば、0から100の百分率で表される。
スコア算出部115は、第一抽出部113が抽出した音声特徴量、および、第二抽出部114が抽出した顔特徴量に基づいて、ユーザUの健康状態を示すスコアを算出する。スコア算出部115は、組織の健康状態を示すスコアを算出してもよい。なお、組織の健康状態とは、組織の健全度をいうものとする。
スコアの算出方法について詳細は後述する。
スコア算出部115は、算出したユーザUの健康状態を示すスコアをスコアDB184に格納する。
The score calculation unit 115 calculates a score indicating user U's health condition. Here, the score is a numerical value used to estimate the health condition of the user U, and is expressed as a percentage from 0 to 100, for example.
The score calculation unit 115 calculates a score indicating the health condition of the user U based on the voice feature extracted by the first extraction unit 113 and the facial feature extracted by the second extraction unit 114. The score calculation unit 115 may calculate a score indicating the health state of the tissue. Note that the health state of the organization refers to the degree of health of the organization.
Details of the score calculation method will be described later.
The score calculation unit 115 stores the calculated score indicating the health condition of the user U in the score DB 184.

健康状態推定部116は、ユーザUの健康状態を推定する。
健康状態推定部116は、記憶部18に格納された各種データを参照して、ユーザUの健康状態を推定する。詳細は後述する。
Health state estimating unit 116 estimates user U's health state.
The health state estimation unit 116 estimates the health state of the user U by referring to various data stored in the storage unit 18. Details will be described later.

表示制御部117は、ユーザUの健康状態を表示するよう制御する。表示制御部117は、ユーザUのユーザ端末3に対して、健康状態を表示するように制御してもよく、例えば、ユーザUの雇用主端末(図示せず)に対して、ユーザUの健康状態が表示されるように制御してもよい。
また、表示制御部117は、例えば、一日分のスコアを表示してもよく、所定期間のスコア(例えば平均値)を表示するように制御してもよい。
また、表示制御部117は、複数のユーザUの健康状態を表示するように制御してもよい。
また、表示制御部117は、後述する第一警告部121および第二警告部123が警告する場合において、警告の表示(例えば、警告を示すマークや文言等)が表示されるように制御してもよい。
表示制御部117により表示されるユーザUの健康状態の表示態様は、上記に限定されない。例えば、スコア算出部115が算出したユーザUの健康状態を示すスコアを数字で表示するよう制御してもよく、スコアをグラフ上に複数プロットすることで、スコアのばらつきが分かるような表示になるよう制御してもよい。
The display control unit 117 controls to display the health condition of the user U. The display control unit 117 may control the user terminal 3 of the user U to display the health status. For example, the display control unit 117 may display the health status of the user U on the user U's employer terminal (not shown). It may also be controlled so that the status is displayed.
Further, the display control unit 117 may display, for example, scores for one day, or may control to display scores for a predetermined period (for example, an average value).
Furthermore, the display control unit 117 may control the health states of a plurality of users U to be displayed.
In addition, the display control unit 117 controls the display of a warning (for example, a mark or wording indicating a warning) when a first warning unit 121 and a second warning unit 123, which will be described later, issue a warning. Good too.
The display mode of user U's health condition displayed by display control unit 117 is not limited to the above. For example, the score indicating the health condition of the user U calculated by the score calculation unit 115 may be controlled to be displayed numerically, and by plotting multiple scores on a graph, the display can be made so that the dispersion of the scores can be seen. It may be controlled as follows.

疾患有無推定部118は、ユーザUにおける疾患(第一の疾患)の有無を推定する。具体的には、疾患有無推定部118は、スコア算出部115が算出したユーザUの健康状態を示すスコアから、ユーザUにおける疾患の有無を推定する。より具体的には、疾患有無推定部118は、後述する基準DB185に格納された基準を参照して、スコア算出部115によって算出されたスコアから、ユーザUにおける疾患の有無を推定する。 The disease presence/absence estimation unit 118 estimates the presence/absence of a disease (first disease) in the user U. Specifically, the disease presence/absence estimation unit 118 estimates the presence/absence of a disease in the user U based on the score indicating the user U's health condition calculated by the score calculation unit 115. More specifically, the disease presence/absence estimation unit 118 estimates the presence/absence of the disease in the user U from the score calculated by the score calculation unit 115 with reference to standards stored in the standard DB 185 described below.

解析部119は、第二取得部112が取得した顔情報に基づいて、ユーザUの表情または顔色を解析する。この解析は、例えば、機械学習により生成した分類器を用いてもよい。
解析部119は、解析した結果を、解析・判定結果DB187に格納する。
The analysis unit 119 analyzes the facial expression or complexion of the user U based on the facial information acquired by the second acquisition unit 112. This analysis may use, for example, a classifier generated by machine learning.
The analysis unit 119 stores the analyzed results in the analysis/judgment result DB 187.

判定部120は、ユーザUにおける疾患(第二の疾患)の種類を判定する。ここで、判定部120は、例えば、ユーザUが緑内障または糖尿病という疾患を罹患しているか否かを判定するものとする。
判定部120は、第二取得部112によって取得された顔情報のうち、網膜の情報に基づいて、ユーザUにおける疾患の種類を判定する。具体的には、判定部120は、後述するスコアDB184と基準DB185とを参照して、ユーザUが緑内障または糖尿病を罹患しているか否かを判定する。例えば、スコアと、基準DB185に格納された閾値Th4との差が、所定の値未満である場合に、緑内障であると判定する。
判定部120は、判定の結果を、解析・判定結果DB187に格納する。
The determination unit 120 determines the type of disease (second disease) in the user U. Here, it is assumed that the determining unit 120 determines, for example, whether the user U is suffering from a disease called glaucoma or diabetes.
The determining unit 120 determines the type of disease in the user U based on the retinal information among the face information acquired by the second acquiring unit 112. Specifically, the determination unit 120 determines whether the user U has glaucoma or diabetes with reference to a score DB 184 and a reference DB 185, which will be described later. For example, if the difference between the score and the threshold Th4 stored in the reference DB 185 is less than a predetermined value, it is determined that the patient has glaucoma.
The determination unit 120 stores the determination result in the analysis/determination result DB 187.

判定部120は、第二取得部112によって取得された顔情報のうち、脈波に関する情報に基づいて、ユーザUにおける疾患の種類を判定する。具体的には、判定部120は、後述するスコアDB184と基準DB185とを参照してストレス等による自律神経失調症を罹患しているか否かを判定する。例えば、スコアと、基準DB185に格納された閾値Th4’との差が、所定の値未満である場合に、自律神経失調症であると判定する。
判定部120は、判定の結果を、解析・判定結果DB187に格納する。
The determining unit 120 determines the type of disease of the user U based on the information regarding the pulse wave among the facial information acquired by the second acquiring unit 112. Specifically, the determining unit 120 refers to a score DB 184 and a reference DB 185, which will be described later, to determine whether or not the person is suffering from autonomic nervous disorder due to stress or the like. For example, when the difference between the score and the threshold Th4' stored in the reference DB 185 is less than a predetermined value, it is determined that the patient has autonomic nervous disorder.
The determination unit 120 stores the determination result in the analysis/determination result DB 187.

第一警告部121は、疾患有無推定部118によってユーザUに疾患があると推定された場合に、前述の雇用主端末またはユーザ端末3に対して、警告をする。警告の方法は特に限られず、警告マークの表示や警告音をもって、警告してもよい。 The first warning unit 121 issues a warning to the aforementioned employer terminal or user terminal 3 when the disease presence/absence estimation unit 118 estimates that the user U has a disease. The warning method is not particularly limited, and the warning may be given by displaying a warning mark or by making a warning sound.

スコア判断部122は、変動量を判断する。具体的には、スコア判断部122は、スコアDB184と基準DB185とを参照して、所定期間におけるユーザUの健康状態を示す複数のスコアの変動量が、所定の値以上および所定の値以下のいずれかになったか否かを判断する。 The score determining unit 122 determines the amount of variation. Specifically, the score judgment unit 122 refers to the score DB 184 and the reference DB 185 and determines whether the amount of change in a plurality of scores indicating the health condition of the user U during a predetermined period is greater than or equal to a predetermined value and less than or equal to a predetermined value. Determine whether one of these has occurred.

第二警告部123は、ユーザUの所定期間におけるスコアの変動量に基づいて、前述の雇用主端末またはユーザ端末3に対して、警告をする。より具体的には、第二警告部123は、スコアの変動量が所定の値以上および所定の値以下のいずれかになったとスコア判断部122が判断したときに、警告をする。警告の方法は特に限られず、警告マークを前述の雇用主端末またはユーザ端末3に対して表示してもよく、警告音を出力するように制御してもよい。 The second warning unit 123 issues a warning to the aforementioned employer terminal or user terminal 3 based on the amount of change in the score of the user U over a predetermined period. More specifically, the second warning unit 123 issues a warning when the score determining unit 122 determines that the amount of change in the score is either greater than or equal to a predetermined value or less than or equal to a predetermined value. The warning method is not particularly limited, and a warning mark may be displayed on the above-mentioned employer terminal or user terminal 3, or a warning sound may be output.

血液情報取得部124(第三取得部)は、ユーザUの血液検査の結果を取得する。血液情報取得部124は、取得したユーザUの血液検査の結果をユーザ情報DB188に格納する。 The blood information acquisition unit 124 (third acquisition unit) acquires the result of user U's blood test. The blood information acquisition unit 124 stores the acquired blood test results of the user U in the user information DB 188.

勤怠情報取得部125(第四取得部)は、ユーザUの勤怠情報を取得する。ユーザUの勤怠情報には、例えば、出社退社時刻に基づく勤務時間数、残業時間数、有給取得日等が含まれる。勤怠情報取得部125は、取得したユーザUの勤怠情報を、ユーザ情報DB188に格納する。
なお勤怠情報は、第二取得部112が取得したユーザUの顔情報に基づき生成されるものでもよい。すなわち、情報処理端末2が、会社の執務室の出入り口のドアに設置されたカメラ付き端末である場合、ユーザUは、出退勤時に情報処理端末2のカメラに顔が映るように情報処理端末2の前に立ち、顔画像を取得させる。それにより、その出退勤時刻(顔画像を取得させた時刻)と関連する顔画像データを出退勤時の勤怠情報として、ユーザ情報DB188に格納するものであってよい。
The attendance information acquisition unit 125 (fourth acquisition unit) acquires user U's attendance information. The attendance information of the user U includes, for example, the number of working hours based on the time of arrival and departure from work, the number of overtime hours, the date of paid leave, and the like. The attendance information acquisition unit 125 stores the acquired attendance information of the user U in the user information DB 188.
Note that the attendance information may be generated based on the face information of the user U acquired by the second acquisition unit 112. In other words, if the information processing terminal 2 is a camera-equipped terminal installed at the entrance/exit door of a company's office, the user U should operate the information processing terminal 2 so that his/her face is reflected in the camera of the information processing terminal 2 when arriving and leaving work. Stand in front of it and have it capture a facial image. Thereby, face image data associated with the time of arrival and departure (time when the face image was acquired) may be stored in the user information DB 188 as attendance information at the time of arrival and departure.

病歴情報取得部126(第五取得部)は、ユーザUの病歴を取得する。なお、ユーザUによる病歴の自己申告があった場合には、病歴情報取得部126は、当該ユーザUの病歴を、ユーザ端末3から取得してもよい。病歴情報取得部126は、取得したユーザUの病歴をユーザ情報DB188に格納する。 The medical history information acquisition unit 126 (fifth acquisition unit) acquires the medical history of the user U. Note that if the user U self-reports the medical history, the medical history information acquisition unit 126 may acquire the medical history of the user U from the user terminal 3. The medical history information acquisition unit 126 stores the acquired medical history of the user U in the user information DB 188.

声DB181には、声情報が格納される。具体的には、第一取得部111が取得した、ユーザUの声に関する音情報とユーザUの声帯の振動に関する情報が格納される。 Voice information is stored in the voice DB 181. Specifically, the sound information regarding the voice of the user U and the information regarding the vibration of the vocal cords of the user U, acquired by the first acquisition unit 111, are stored.

顔DB182には、顔情報が格納される。具体的には、第二取得部112が取得した、情報処理端末2の撮像部2cが撮像したユーザUの顔情報が格納される。 Face information is stored in the face DB 182. Specifically, the face information of the user U, which was acquired by the second acquisition unit 112 and captured by the imaging unit 2c of the information processing terminal 2, is stored.

特徴量DB183には、第一抽出部113が抽出した音声特徴量と、第二抽出部114が抽出した顔特徴量とが格納される。 The feature amount DB 183 stores the voice feature amount extracted by the first extraction section 113 and the facial feature amount extracted by the second extraction section 114.

スコアDB184には、スコア算出部115によって算出されたユーザUの健康状態に関するスコアが格納される。スコアは、例えば、ユーザ毎または組織毎(例えば、所定のチーム毎)に、日付と対応付けて、格納されるものとする。 The score DB 184 stores the score related to user U's health condition calculated by the score calculation unit 115. The scores are stored, for example, for each user or organization (for example, for each predetermined team) in association with dates.

基準DB185には、ユーザUの健康状態を推定するための基準が格納される。
具体例を挙げて説明する。
健康状態推定部116が、ユーザUの健康状態を推定する基準として、例えば、所定の閾値Th1および閾値Th2が挙げられる。例えば、スコアが所定の閾値Th1以上(例えばスコア60以上)の場合には、健康状態推定部116は、ユーザUの健康状態が良好であると推定する。また、例えばスコアが所定の閾値Th2未満(例えばスコア50未満)の場合には、健康状態推定部116は、ユーザUの健康状態が不良であると推定する。
なお、例えば、スコアが所定の閾値Th2以上(例えばスコア50以上)閾値Th1未満(例えばスコア60未満)である場合には、ユーザUの健康状態が良好または不良の判別がつきにくい状態(所謂グレー状態)のため、サーバ1側からユーザUに向けて所定のアラートを出してもよい。
なお、ここでは、スコアが1種類の例を説明しているが、スコアは複数種類でもよい(以下同様とする)。
疾患有無推定部118がユーザUにおける疾患の有無を推定する場合に用いられる基準として、例えば、所定の閾値Th3が挙げられる。疾患有無推定部118は、スコアが所定の閾値Th3未満(例えばスコア30未満)であれば、ユーザUにおける疾患があると推定する。なお、疾患毎に所定の閾値Th3が格納されてもよい。
判定部120が判定を行う場合に用いられる基準として、所定の閾値Th4および所定の閾値Th5が挙げられる。判定部120は、例えば、スコアと、所定の閾値Th4との差が、所定の値(例えば5)未満である場合に、緑内障であると判定する。また例えば、スコアと、所定の閾値Th5との差が、所定の値(例えば5)未満である場合に、判定部120は、ユーザUが糖尿病であると判定する。
スコア判断部122が所定期間におけるユーザUの健康状態を示す複数のスコアの変動量が所定の値以上および所定の値以下のいずれかになったか否かを判断する場合に用いられる基準として、所定の閾値Th6(例えば40)以上および所定の閾値Th7(例えば20)以下が挙げられる。
その他、血液検査の項目における適正値(または適正範囲)や、健康状態が良好でないとされる勤怠情報(例えば、欠勤日が10日以上)といった基準が格納される。
なお、ユーザU個人の健康状態を推定する上での基準を説明したが、当該基準DB185には、組織の健康状態を推定するための基準が格納されてよい。例えば、所定の組織(チーム)における複数のユーザのスコアの平均値あるいは合計値に対応する所定の値が、組織の健康状態を図る基準として格納されてもよい。
The criteria DB 185 stores criteria for estimating user U's health condition.
This will be explained using a specific example.
Examples of the criteria by which the health state estimation unit 116 estimates the health state of the user U include a predetermined threshold Th1 and a threshold Th2. For example, if the score is greater than or equal to the predetermined threshold Th1 (for example, score 60 or greater), the health condition estimating unit 116 estimates that the user U is in good health. Further, for example, when the score is less than the predetermined threshold Th2 (for example, the score is less than 50), the health state estimating unit 116 estimates that the health state of the user U is poor.
For example, if the score is greater than or equal to a predetermined threshold Th2 (for example, a score of 50 or greater) and less than a threshold Th1 (for example, a score of less than 60), the user U is in a state in which it is difficult to determine whether the health condition is good or poor (so-called gray state). state), the server 1 may issue a predetermined alert to the user U.
Note that although an example in which there is one type of score is described here, there may be multiple types of scores (the same applies hereinafter).
As a standard used when the disease presence/absence estimation unit 118 estimates the presence/absence of a disease in the user U, for example, a predetermined threshold Th3 can be cited. The disease presence/absence estimation unit 118 estimates that the user U has a disease if the score is less than the predetermined threshold Th3 (for example, the score is less than 30). Note that a predetermined threshold Th3 may be stored for each disease.
Criteria used when the determination unit 120 makes a determination include a predetermined threshold Th4 and a predetermined threshold Th5. The determining unit 120 determines that the patient has glaucoma, for example, when the difference between the score and a predetermined threshold Th4 is less than a predetermined value (for example, 5). For example, if the difference between the score and the predetermined threshold Th5 is less than a predetermined value (for example, 5), the determination unit 120 determines that the user U has diabetes.
A predetermined standard is used when the score determination unit 122 determines whether the amount of change in a plurality of scores indicating the health condition of the user U during a predetermined period is either greater than or equal to a predetermined value or less than or equal to a predetermined value. Examples include a threshold value Th6 (for example, 40) or more and a predetermined threshold value Th7 (for example, 20) or less.
In addition, criteria such as appropriate values (or appropriate ranges) for blood test items and attendance information indicating that the health condition is not good (for example, absence of 10 days or more) are stored.
Although the criteria for estimating the health status of the individual user U have been described, the criteria DB 185 may store criteria for estimating the health status of an organization. For example, a predetermined value corresponding to the average or total score of a plurality of users in a predetermined organization (team) may be stored as a standard for measuring the health state of the organization.

算出モデルDB186には、スコア算出部115がユーザUの健康状態を推定するためのスコアを算出する際に用いられるモデルが格納される。例えば、算出モデルは、機械学習により学習されたモデルであってもよい。
機械学習により学習されたモデルは、予め設定された教師データにより予めニューラルネットクーク等の学習アルゴリズムを用いて機械学習されている。機械学習により学習可能なモデルであれば、どのようなモデルであってもよい。例えば、学習用の特徴量群と、その特徴量群が得られた声情報および顔情報を発したユーザUが有している疾患又は症状を表す正解ラベルとが対応付けられたデータを教師データとして、予め機械学習されたモデルでもよい。なお、算出モデルは、ルールベースのモデルでもよい。
The calculation model DB 186 stores a model used when the score calculation unit 115 calculates a score for estimating the health condition of the user U. For example, the calculation model may be a model learned by machine learning.
A model learned by machine learning is machine learned in advance using preset teacher data using a learning algorithm such as neural network cooking. Any model may be used as long as it can be learned by machine learning. For example, data in which a group of features for learning is associated with a correct label representing a disease or symptom possessed by the user U who uttered the voice information and face information from which the feature group was obtained is used as training data. It may be a model that has been machine learned in advance. Note that the calculation model may be a rule-based model.

解析・判定結果DB187には、解析部119が解析した結果と、判定部120が判定した結果とが格納される。 The analysis/judgment result DB 187 stores the results analyzed by the analysis section 119 and the results determined by the determination section 120.

ユーザ情報DB188には、ユーザUに関する情報が格納される。ユーザUに関する情報としては、例えば、ユーザUの顔画像、出勤状況、所属部署、血液検査を受けている場合には当該血液検査の結果(例えば3か月に一回の定期血液検査の結果等)、病歴、健康診断の結果、その他氏名住所等の情報が挙げられる。 The user information DB 188 stores information regarding the user U. Information regarding user U includes, for example, user U's facial image, work status, department, and if he/she has undergone a blood test, the results of the blood test (for example, the results of a regular blood test once every three months, etc.) ), medical history, medical examination results, and other information such as name and address.

組織情報DB189には、ユーザUが勤務する組織に関する情報が格納される。ユーザUが勤務する組織に関する情報としては、例えば、組織に属する従業員、組織の売り上げ、組織に対する顧客満足度等が挙げられる。
なお、図4には図示されていないが、サーバ1のCPU11に、ユーザUの顔認証を行う機能部が設けられていてもよい。
The organization information DB 189 stores information regarding the organization where the user U works. Information regarding the organization where user U works includes, for example, employees belonging to the organization, sales of the organization, customer satisfaction with the organization, and the like.
Although not shown in FIG. 4, the CPU 11 of the server 1 may be provided with a functional unit that performs face authentication of the user U.

<処理内容:健康状態推定処理>
図5は、サーバ1が実行する健康状態推定処理の一例を示すフローチャートである。
ステップS1において、第一取得部111は、ユーザUの声に関する声情報を取得する。ユーザUの声に関する声情報には、ユーザUが情報処理端末2に表示された文章を読み上げたときの声に関する音情報とユーザUの声帯の振動に関する情報とが含まれる。
ステップS2において、第二取得部112は、ユーザUの顔情報を取得する。ユーザUの顔情報には、顔を撮像した時に得られる顔画像情報の他、例えば、ユーザUの網膜の情報、眉間に関する情報、ユーザUの表情や顔色に関する情報、顔画像より取得される脈波に関する情報も含まれる。
なお、ステップS1およびステップS2において取得される声情報および顔情報は、前述の複数の時点において取得されるものとする。
ステップS3において、第一抽出部113は、第一取得部111が取得したユーザUの声に関する声情報に基づいて、音声特徴量を抽出する。なお、音声特徴量は、例えば、音声の変動パターンに基づく特徴量である。
ステップS4において、第二抽出部114は、第二取得部112が取得したユーザUの顔情報に基づいて、顔特徴量を抽出する。なお、顔特徴量については後述する。
ステップS5において、健康状態推定部116は、前述の複数の時点における音声特徴量および顔特徴量に基づいて、ユーザUの健康状態を推定する。
ステップS6において、表示制御部117は、ユーザUの健康状態を、例えば、ユーザ端末3に表示する。
<Processing details: Health status estimation processing>
FIG. 5 is a flowchart illustrating an example of a health state estimation process executed by the server 1.
In step S1, the first acquisition unit 111 acquires voice information regarding the user's U voice. The voice information regarding user U's voice includes sound information regarding user U's voice when reading a sentence displayed on information processing terminal 2 and information regarding vibration of user U's vocal cords.
In step S2, the second acquisition unit 112 acquires user U's face information. In addition to the facial image information obtained when the face is imaged, the facial information of the user U includes, for example, information about the retina of the user U, information about the space between the eyebrows, information about the facial expression and complexion of the user U, and pulse information obtained from the facial image. Information about waves is also included.
Note that it is assumed that the voice information and face information acquired in step S1 and step S2 are acquired at the plurality of time points described above.
In step S3, the first extraction unit 113 extracts a voice feature amount based on the voice information regarding the voice of the user U acquired by the first acquisition unit 111. Note that the audio feature amount is, for example, a feature amount based on a variation pattern of audio.
In step S4, the second extraction unit 114 extracts facial features based on the facial information of the user U acquired by the second acquisition unit 112. Note that the facial feature amount will be described later.
In step S5, the health state estimating unit 116 estimates the health state of the user U based on the voice feature amount and the facial feature amount at the plurality of time points described above.
In step S6, the display control unit 117 displays the health condition of the user U on the user terminal 3, for example.

<健康状態の推定における表示例>
図6は、健康状態の推定における表示の一例を示す第1の図である。なお、必要に応じて図4等を参照するものとする。
図6では、ユーザUが出勤時に情報処理端末2(図1参照)の前に立った状態をイメージしている。
ユーザUが情報処理端末2の画面に表示された文章(例えば「おはようございます」)を読み上げると、この読み上げの音声Sを、情報処理端末2の音声取得部2aが取得する。情報処理端末2は、取得した音声Sをサーバ1に送信する。情報処理端末2は、検知部2bを介してユーザUの声帯振動も取得し、これをサーバ1に送信する。
情報処理端末2の撮像部2cは、情報処理端末2のカメラに顔が写るように立ったユーザUの顔を撮像し、情報処理端末2は、これを少なくともユーザUの顔の情報として、サーバ1に送信する。
サーバ1は、通信部19を介して情報処理端末2からの情報を取得する。即ち、第一取得部111は、前述のようなユーザUの声に関する声情報を取得する。また、第二取得部112は、ユーザUの顔情報を取得する。
なお、前述のユーザUの声に関する声情報とユーザUの顔情報は、複数の時点(例えば毎日(毎朝))において取得されるものとする。
ユーザUの声に関する声情報には、情報処理端末2の画面に表示された文章を読み上げたユーザUの声に関する音情報とユーザUの声帯の振動に関する情報が含まれる。このような声情報から音声特徴量が抽出される。音声特徴量としては、例えば、ユーザUの音声の変動パターンが挙げられる。
ユーザUの顔情報には、ユーザUの顔を撮像した時に得られる顔画像情報の他、ユーザUの眉間に関する情報、ユーザUの網膜に関する情報、ユーザUの表情や顔色の情報、顔画像情報から取得される脈波に関する情報が含まれる。なお、網膜に関する情報には、眼底画像が含まれるものとする。このような顔情報から顔特徴量が抽出される。
顔特徴量としては、例えば、顔のパーツの位置、またはサイズ等が挙げられる。具体的には、眉毛の位置、眉間の幅等が特徴量として挙げられる。また、眼底画像における血管の位置またはサイズ等が顔特徴量として挙げられる。また、口の位置、皺の位置、瞳孔のサイズ等が顔特徴量として挙げられる。さらに顔画像から取得される脈波から算出される情報としての脈拍数、呼吸数、交感神経及び副交感神経及びHF/LF値を含む情報も、顔特徴量として挙げられる。
なお、各特徴量は、特徴量DB183に格納されている。
以上のような特徴量が夫々抽出されることにより、これら抽出量から健康状態HSが推定される。
<Display example for estimating health status>
FIG. 6 is a first diagram showing an example of a display in estimating a health condition. In addition, FIG. 4 etc. shall be referred to as necessary.
In FIG. 6, the user U stands in front of the information processing terminal 2 (see FIG. 1) when going to work.
When the user U reads aloud a sentence (for example, "Good morning") displayed on the screen of the information processing terminal 2, the voice acquisition unit 2a of the information processing terminal 2 acquires the voice S of this reading. The information processing terminal 2 transmits the acquired voice S to the server 1. The information processing terminal 2 also acquires the vocal cord vibration of the user U via the detection unit 2b and transmits this to the server 1.
The imaging unit 2c of the information processing terminal 2 captures an image of the face of the user U who is standing so that the face can be seen in the camera of the information processing terminal 2, and the information processing terminal 2 uses this as at least the face information of the user U and sends the image to the server. Send to 1.
The server 1 acquires information from the information processing terminal 2 via the communication unit 19. That is, the first acquisition unit 111 acquires voice information regarding the voice of the user U as described above. The second acquisition unit 112 also acquires user U's face information.
It is assumed that the voice information regarding the voice of the user U and the face information of the user U described above are acquired at a plurality of times (for example, every day (every morning)).
The voice information regarding the user U's voice includes sound information regarding the user U's voice reading out the text displayed on the screen of the information processing terminal 2 and information regarding the vibration of the user U's vocal cords. Voice features are extracted from such voice information. As the voice feature amount, for example, a variation pattern of user U's voice can be mentioned.
User U's facial information includes, in addition to facial image information obtained when capturing an image of user U's face, information about user U's glabella, information about user U's retina, information about user U's expression and complexion, and facial image information. Contains information regarding the pulse wave obtained from. Note that the information regarding the retina includes a fundus image. Facial feature amounts are extracted from such facial information.
Examples of facial feature amounts include the positions and sizes of facial parts. Specifically, the position of the eyebrows, the width between the eyebrows, etc. can be cited as the feature amounts. Further, the position or size of a blood vessel in a fundus image can be cited as a facial feature amount. Furthermore, the position of the mouth, the position of wrinkles, the size of pupils, and the like can be cited as facial feature amounts. Further, information including pulse rate, respiratory rate, sympathetic nerves, parasympathetic nerves, and HF/LF values, which are information calculated from pulse waves obtained from a face image, can also be cited as facial feature amounts.
Note that each feature amount is stored in the feature amount DB 183.
By extracting the above-mentioned feature quantities, the health state HS is estimated from these extracted quantities.

前述の特徴量の夫々に基づいて、健康状態推定部116が、ユーザUの健康状態を推定する例を説明する。 An example in which the health state estimation unit 116 estimates the health state of the user U based on each of the above-mentioned feature amounts will be described.

(1)眉間に関する情報に基づく推定
図6に示す符号F1は、ユーザUの眉間に関する情報である。
健康状態推定部116は、ユーザUの眉間に関する情報から抽出された顔特徴量(例えば、眉毛の位置)に基づいて、ユーザUの健康状態を推定する。具体的には、まず当該顔特徴量と、前述の音声特徴量(例えば前述の音声の変動パターンに基づく特徴量)とが前述の算出モデルへ入力されて、スコア算出部115によりスコアが算出される。そして、健康状態推定部116は、基準DB185に格納された基準を参照して、当該スコアから、ユーザUの健康状態HSを推定する。
例えば、スコア算出部115により算出されたスコアが48である場合、基準DB185に格納された基準が「スコアが50未満、すなわち健康状態が不良(所定の閾値Th2未満)」であることから、健康状態推定部116は、ユーザUの健康状態HSが不良であると推定する。
一方、例えば、スコア算出部115により算出されたスコアが60である場合、基準DB185に格納された基準が「スコアが60以上、すなわち健康状態が良好」(所定の閾値Th1以上)であることから、健康状態推定部116は、ユーザUの健康状態HSが良好であると推定する。
(1) Estimation based on information related to the glabella The reference numeral F1 shown in FIG. 6 is information related to the user U's glabella.
The health state estimating unit 116 estimates the health state of the user U based on the facial feature amount (for example, the position of the eyebrows) extracted from the information regarding the user's U glabella. Specifically, first, the facial feature amount and the aforementioned audio feature amount (for example, the feature amount based on the aforementioned audio variation pattern) are input to the aforementioned calculation model, and the score calculation unit 115 calculates the score. Ru. Then, the health state estimating unit 116 refers to the standards stored in the standard DB 185 and estimates the health state HS of the user U from the score.
For example, when the score calculated by the score calculation unit 115 is 48, the standard stored in the standard DB 185 is "score is less than 50, that is, the health condition is poor (less than the predetermined threshold Th2)", so it is assumed that the score is 48. The state estimation unit 116 estimates that the health state HS of the user U is poor.
On the other hand, for example, when the score calculated by the score calculation unit 115 is 60, the standard stored in the standard DB 185 is "score is 60 or more, that is, the health condition is good" (predetermined threshold Th1 or more). , the health state estimation unit 116 estimates that the health state HS of the user U is good.

(2)網膜に関する情報に基づく推定
図6に示す符号F2は、ユーザUの網膜に関する情報である。
健康状態推定部116は、ユーザUの網膜に関する情報から抽出された顔特徴量(例えば、眼底画像における血管の位置またはサイズ)に基づいて、ユーザUの健康状態を推定する。具体的には、当該顔特徴量が算出モデルへ入力されて、スコア算出部115によりスコアが算出される。そして、健康状態推定部116は、基準DB185に格納された基準を参照して、当該スコアから、ユーザUの健康状態HSを推定する。
例えば、スコア算出部115により算出されたスコアが40である場合、基準DB185に格納された基準が「スコアが50未満、すなわち健康状態が不良(所定の閾値Th2未満)」であることから、健康状態推定部116は、ユーザUの健康状態HSが不良であると推定する。なお、この場合において、所定の方法で、ユーザUに警告がなされてもよい。例えば、第一警告部121によって警告がなされてもよい。
一方、例えば、スコア算出部115により算出されたスコアが61である場合、基準DB185に格納された基準が「スコアが60以上、すなわち健康状態が良好」(所定の閾値Th1以上)であることから、健康状態推定部116は、ユーザUの健康状態HSが良好であると推定する。
なお、前述の顔特徴量(眼底画像における血管の位置またはサイズ)に基づいて、判定部120は、ユーザUが糖尿病または緑内障に罹患しているか否かについて判定する。健康状態推定部116は、この判定部120の判定の結果に基づいて、ユーザUの健康状態を推定してもよい。例えば、判定部120によって緑内障であると判定されたユーザUについて、健康状態推定部116は、当該ユーザUの健康状態が不良であると推定してもよい。
(2) Estimation based on information regarding the retina The reference numeral F2 shown in FIG. 6 is information regarding the user U's retina.
The health condition estimating unit 116 estimates the health condition of the user U based on the facial feature amount (for example, the position or size of a blood vessel in the fundus image) extracted from the information regarding the user U's retina. Specifically, the facial feature amount is input to the calculation model, and the score calculation unit 115 calculates the score. Then, the health state estimating unit 116 refers to the standards stored in the standard DB 185 and estimates the health state HS of the user U from the score.
For example, when the score calculated by the score calculation unit 115 is 40, the standard stored in the standard DB 185 is "score is less than 50, that is, the health condition is poor (less than the predetermined threshold Th2)", so the health The state estimation unit 116 estimates that the health state HS of the user U is poor. Note that in this case, a warning may be given to the user U using a predetermined method. For example, the first warning unit 121 may issue a warning.
On the other hand, for example, if the score calculated by the score calculation unit 115 is 61, this is because the standard stored in the standard DB 185 is "score is 60 or more, that is, the health condition is good" (predetermined threshold Th1 or more). , the health state estimation unit 116 estimates that the health state HS of the user U is good.
Note that the determination unit 120 determines whether the user U is suffering from diabetes or glaucoma based on the above-mentioned facial feature amount (the position or size of the blood vessel in the fundus image). The health state estimating unit 116 may estimate the health state of the user U based on the result of the determination by the determining unit 120. For example, regarding the user U who has been determined to have glaucoma by the determination unit 120, the health condition estimating unit 116 may estimate that the health condition of the user U is poor.

(3)表情や顔色の情報に基づく推定
図6に示すF3は、ユーザUの表情や顔色に関する情報である。
健康状態推定部116は、ユーザUの表情や顔色に関する情報から抽出された顔特徴量(例えば、口の位置)に基づいて、ユーザUの健康状態を推定する。具体的には、まず当該顔特徴量と、前述の音声特徴量(例えば前述の音声の変動パターンに基づく特徴量)とが前述の算出モデルへ入力されて、スコア算出部115によりスコアが算出される。そして、健康状態推定部116は、基準DB185に格納された基準を参照して、当該スコアから、ユーザUの健康状態HSを推定する。
例えば、スコア算出部115により算出されたスコアが45である場合、基準DB185に格納された基準が「スコアが50未満、すなわち健康状態が不良(所定の閾値Th2未満)」であることから、健康状態推定部116は、ユーザUの健康状態HSが不良であると推定する。
一方、例えば、スコア算出部115により算出されたスコアが65である場合、基準DB185に格納された基準が「スコアが60以上、すなわち健康状態が良好」(所定の閾値Th1以上)であることから、健康状態推定部116は、ユーザUの健康状態HSが良好であると推定する。
なお、ユーザUの表情や顔色は、解析部119によって解析される。解析部119は、表情と顔色のどちらかのみを解析してもよい。健康状態推定部116は、この解析部119の解析結果に基づいて、ユーザUの健康状態を推定してもよい。例えば、解析部119が「笑顔である」と表情を解析したユーザUについて、健康状態推定部116は、当該ユーザUの健康状態が良好であると推定してもよい。
(3) Estimation based on information on facial expression and facial color F3 shown in FIG. 6 is information regarding the facial expression and facial color of the user U.
The health state estimating unit 116 estimates the health state of the user U based on facial features (for example, the position of the mouth) extracted from information regarding the user's U expression and complexion. Specifically, first, the facial feature amount and the aforementioned audio feature amount (for example, the feature amount based on the aforementioned audio variation pattern) are input to the aforementioned calculation model, and the score calculation unit 115 calculates the score. Ru. Then, the health state estimating unit 116 refers to the standards stored in the standard DB 185 and estimates the health state HS of the user U from the score.
For example, when the score calculated by the score calculation unit 115 is 45, the standard stored in the standard DB 185 is "score is less than 50, that is, the health condition is poor (less than the predetermined threshold Th2)", so the The state estimation unit 116 estimates that the health state HS of the user U is poor.
On the other hand, for example, if the score calculated by the score calculation unit 115 is 65, this is because the standard stored in the standard DB 185 is "score is 60 or more, that is, the health condition is good" (predetermined threshold Th1 or more). , the health state estimation unit 116 estimates that the health state HS of the user U is good.
Note that the facial expression and complexion of the user U are analyzed by the analysis unit 119. The analysis unit 119 may analyze only either the facial expression or the complexion. The health state estimation unit 116 may estimate the health state of the user U based on the analysis result of the analysis unit 119. For example, for a user U whose facial expression has been analyzed by the analysis unit 119 as “smiling,” the health status estimation unit 116 may estimate that the health status of the user U is good.

(4)脈波から算出される情報に基づく推定
図6に示すF4は、ユーザUの顔画像から取得される脈波に関する情報である。
健康状態推定部116は、ユーザUの顔画像から取得される脈波に関する情報から抽出された顔特徴量(例えば、呼吸数、心拍数およびLF/HF値)に基づいて、ユーザUの健康状態を推定する。具体的には、まず当該顔特徴量と、前述の音声特徴量(例えば前述の音声の変動パターンに基づく特徴量)とが前述の算出モデルへ入力されて、スコア算出部115によりスコアが算出される。そして、健康状態推定部116は、基準DB185に格納された基準を参照して、当該スコアから、ユーザUの健康状態HSを推定する。
例えば、スコア算出部115により算出されたスコアが40である場合、基準DB185に格納された基準が「スコアが50未満、すなわち健康状態が不良(所定の閾値Th2未満)」であることから、健康状態推定部116は、ユーザUの健康状態HSが不良であると推定する。
一方、例えば、スコア算出部115により算出されたスコアが60である場合、基準DB185に格納された基準が「スコアが60以上、すなわち健康状態が良好」(所定の閾値Th1以上)であることから、健康状態推定部116は、ユーザUの健康状態HSが良好であると推定する。
なお、前述の顔特徴量(呼吸数、心拍数およびLF/HF値)に基づいて、判定部120は、ユーザUが自律神経失調症に罹患しているか否かについて判定する。健康状態推定部116は、この判定部120の判定の結果に基づいて、ユーザUの健康状態を推定してもよい。例えば、判定部120によって自律神経失調症であると判定されたユーザUについて、健康状態推定部116は、当該ユーザUの健康状態が不良であると推定してもよい。
(4) Estimation based on information calculated from pulse wave F4 shown in FIG. 6 is information regarding the pulse wave acquired from the face image of user U.
The health state estimating unit 116 estimates the health state of the user U based on facial feature amounts (for example, respiration rate, heart rate, and LF/HF value) extracted from information regarding the pulse wave obtained from the face image of the user U. Estimate. Specifically, first, the facial feature amount and the aforementioned audio feature amount (for example, the feature amount based on the aforementioned audio variation pattern) are input to the aforementioned calculation model, and the score calculation unit 115 calculates the score. Ru. Then, the health state estimating unit 116 refers to the standards stored in the standard DB 185 and estimates the health state HS of the user U from the score.
For example, when the score calculated by the score calculation unit 115 is 40, the standard stored in the standard DB 185 is "score is less than 50, that is, the health condition is poor (less than the predetermined threshold Th2)", so the health The state estimation unit 116 estimates that the health state HS of the user U is poor.
On the other hand, for example, when the score calculated by the score calculation unit 115 is 60, the standard stored in the standard DB 185 is "score is 60 or more, that is, the health condition is good" (predetermined threshold Th1 or more). , the health state estimation unit 116 estimates that the health state HS of the user U is good.
Note that the determination unit 120 determines whether or not the user U suffers from autonomic nervous disorder based on the above-mentioned facial feature amounts (breathing rate, heart rate, and LF/HF value). The health state estimating unit 116 may estimate the health state of the user U based on the result of the determination by the determining unit 120. For example, regarding the user U who has been determined by the determination unit 120 to have autonomic nervous disorder, the health status estimation unit 116 may estimate that the health status of the user U is poor.

なお、前述の眉間、網膜、表情や顔色、脈波といったユーザUの顔情報が第二取得部112により取得される際に同時に顔認証が行われてもよい。これにより、各顔特徴量を有しているユーザUを特定できる。当該ユーザUの健康状態の推定結果(「健康状態が不良である」)は、ユーザ情報DB188に格納される。 Note that face authentication may be performed simultaneously when the second acquisition unit 112 acquires the facial information of the user U, such as the above-mentioned glabella, retina, facial expression, complexion, and pulse wave. Thereby, users U having each facial feature amount can be identified. The estimation result of the health condition of the user U (“the health condition is poor”) is stored in the user information DB 188.

(5)音声特徴量(例えば音声パターン)に基づく推定
図中のSは、ユーザUの音声である。当該音声Sの情報から抽出された音声特徴量は、ここでは声の変動パターンであり、例えば、大うつ病の変動パターンと略同一のものであるとする。
なお、声の変動パターンに関し補足すると、大うつ病やパーキンソン病、認知症といった各疾患には特有の変動パターンがあり、そして、その変動パターンは、健常(健康)の声の変動パターンとは明らかに異なる。このため、ここでは声の変動パターンを採用しており、健常(健康)の声の変動パターンに類似しているか、前述の各疾患いずれかの声の変動パターンに類似しているか、等から推定を行っている。
健康状態推定部116は、当該音声特徴量からユーザUの健康状態HSを推定する。具体的には、当該音声特徴量と、顔特徴量に基づいて、ユーザUの健康状態HSを推定する。
健康状態推定部116は、ユーザUの声の変動パターンが大うつ病の変動パターンと略同一であるため、ユーザUの健康状態HSが不良であると推定する。
(5) Estimation based on voice features (for example, voice pattern) S in the figure is user U's voice. Here, the voice feature extracted from the information of the voice S is a voice variation pattern, and for example, it is assumed that it is substantially the same as a variation pattern of major depression.
As a supplementary note regarding voice fluctuation patterns, each disease such as major depression, Parkinson's disease, and dementia has its own unique fluctuation patterns, and these fluctuation patterns are clearly different from those of a normal (healthy) voice. different. For this reason, the voice fluctuation pattern is adopted here, and it is estimated based on whether it is similar to the voice fluctuation pattern of a healthy person, or whether it is similar to the voice fluctuation pattern of any of the above-mentioned diseases. It is carried out.
The health state estimation unit 116 estimates the health state HS of the user U from the voice feature amount. Specifically, the health state HS of the user U is estimated based on the voice feature amount and the facial feature amount.
The health state estimating unit 116 estimates that the user U's health state HS is poor because the fluctuation pattern of the user U's voice is substantially the same as the fluctuation pattern of major depression.

なお、前述の推定を実行するにあたり、音声特徴量と、顔特徴量とに、差異がある場合(例えば、音声特徴から推定する健康状態が良好であり、顔特徴量から推定する健康状態が不良である場合)、健康状態推定部116は、音声特徴量を優先して、音声特徴量に基づいた推定を、ユーザUの健康状態として採用してもよい。また、健康状態推定部116は、後述するスコアに基づいた健康状態の推定をする場合において、音声特徴量のスコアの係数を高くして(重みづけをして)スコアを算出してもよい。 Note that when performing the above estimation, if there is a difference between the voice features and the facial features (for example, if the health condition estimated from the voice features is good and the health condition estimated from the facial features is poor) ), the health state estimating unit 116 may give priority to the voice feature amount and adopt estimation based on the voice feature amount as the health state of the user U. Furthermore, when estimating a health state based on a score, which will be described later, the health state estimating unit 116 may calculate the score by increasing (weighting) the coefficient of the voice feature amount score.

図7は、健康状態の推定における表示の一例を示す第2の図である。
図7(a)は複数のユーザUnの健康状態(を示すスコア)を示すグラフである。図7(b)は、図7(a)におけるユーザU(例えばユーザU8_M8)の健康状態HSを示す図である。ここでは、ユーザUの健康状態HSが、後述する警告されるような状態であることを示している。
図7(a)のグラフの縦軸は、スコアを示す。このスコアの高低はユーザUの健康状態の高低を示す。グラフの横軸は、M1からM20まで目盛りが振られている。M1からM20の目盛り一つ一つは、複数のユーザ(ユーザU_M1~ユーザU_M20)を示す。図7(a)では20人分が表示されている。
グラフには、複数の丸型のアイテムCがプロットされている。アイテムCは、グラフの縦軸と並行するように垂直方向にプロットされている。アイテムCは垂直方向に間隔をあけて広がってプロットされたり、部分的にまとまってプロットされたりして、様々である。ここで、アイテムCが垂直方向に広がっている場合を「ばらつきが大きい」とし、逆にまとまっている場合を「ばらつきが小さい」と定義する。図7(a)では比較的ばらついた形で表示されている。アイテムCは、ユーザUの健康状態を示すスコアである。図7(a)ではスコアを、数値そのものでなく、アイテムCで表している。
ユーザUの健康状態を示すスコア(アイテムC)は、ユーザU一人につき(目盛り一つにつき)、複数プロットされている。例えば、目盛りM1上には、縦に6つのアイテムCが表示されている(一部重なっている)。これは、ユーザUの6日分のスコアを示している。ここでは、一つのアイテムCを、一日単位の健康状態のスコアとする。
FIG. 7 is a second diagram showing an example of a display in estimating a health condition.
FIG. 7A is a graph showing (scores indicating) the health conditions of a plurality of users Un. FIG. 7(b) is a diagram showing the health state HS of the user U (for example, user U8_M8) in FIG. 7(a). Here, the health state HS of the user U is such that a warning will be issued, which will be described later.
The vertical axis of the graph in FIG. 7(a) indicates the score. The level of this score indicates the level of user U's health condition. The horizontal axis of the graph is scaled from M1 to M20. Each scale from M1 to M20 indicates a plurality of users (user U_M1 to user U_M20). In FIG. 7(a), 20 people are displayed.
A plurality of round items C are plotted on the graph. Item C is plotted vertically parallel to the vertical axis of the graph. Items C may be plotted spread out in the vertical direction, or may be plotted in sections. Here, the case where the items C are spread out in the vertical direction is defined as "large variation", and the case where the items C are grouped together is defined as "small variation". In FIG. 7(a), the images are displayed in a relatively uneven manner. Item C is a score indicating user U's health condition. In FIG. 7(a), the score is expressed not as a numerical value but as an item C.
A plurality of scores (item C) indicating the user U's health condition are plotted for each user U (for each scale). For example, on the scale M1, six items C are vertically displayed (partially overlapping). This shows user U's score for 6 days. Here, one item C is a daily health condition score.

ここで、前述のスコア、および、スコアに基づいて、ユーザUの健康状態が推定される例を説明する。 Here, an example will be described in which the above-mentioned score and the health condition of user U are estimated based on the score.

スコアを説明する。スコアはスコア算出部115によって、前述した算出モデルを用いて算出される。具体的には、第一抽出部113が抽出した音声特徴量と、第二抽出部114が抽出した顔特徴量とが、前述の算出モデルへ入力され、ユーザUの健康状態を示すスコアが出力される。 Explain the score. The score is calculated by the score calculation unit 115 using the calculation model described above. Specifically, the voice feature extracted by the first extraction unit 113 and the facial feature extracted by the second extraction unit 114 are input to the above-mentioned calculation model, and a score indicating the health condition of the user U is output. be done.

スコアに基づいて、ユーザUの健康状態が推定される例を説明する。
(1)健康状態推定部116による推定
健康状態推定部116は、スコア算出部115によって算出されたスコアと、基準DB185に格納されたデータを参照して、スコア算出部115によって算出されたスコアから、ユーザUの健康状態を推定する。
例えば、スコア算出部115により算出されたスコアが70である場合、基準DB185に格納された基準が「スコアが60以上、すなわち健康状態が良好(所定の閾値Th1以上)」であることから、健康状態推定部116は、ユーザUの健康状態HSが良好であると推定する。スコア算出部115により算出されたスコアが40である場合、基準DB185に格納された基準が「スコアが50未満、すなわち健康状態が不良(所定の閾値Th2未満)」であることから、健康状態推定部116は、ユーザUの健康状態HSが不良であると推定する。
なお、健康状態推定部116は、後述の疾患有無推定部118の推定に基づいて、ユーザUの健康状態を推定してもよい。例えば、疾患有無推定部118によって疾患有りと推定されたユーザUについて、健康状態推定部116は、当該ユーザUの健康状態が不良であると推定してもよい。
(2)疾患有無推定部118による推定
疾患有無推定部118は、スコア算出部115が算出したユーザUの健康状態を示すスコアから、ユーザUにおける疾患の有無を推定する。より具体的には、疾患有無推定部118は、基準DB185に格納されたデータを参照して、スコア算出部115によって算出されたスコアから、ユーザUにおける疾患の有無を推定する。
例えば、スコア算出部115が算出したスコアが例えば50である場合、基準DB185に格納された基準が「疾患有、即ちスコア30未満」であることから、疾患有無推定部118は、ユーザUにおける疾患がないと推定する。スコア算出部115が算出したスコアが例えば20であるときは、「疾患有、即ちスコア30未満」であることから、疾患有無推定部118は、ユーザUにおける疾患があると推定する。
なお、疾患有無推定部118は、前述の健康状態推定部116の推定に基づいて、ユーザUの健康状態を推定してもよい。例えば、健康状態推定部116によって健康状態不良と推定されたユーザUについて、当該ユーザUのスコアが、疾患有とされる各基準スコアと同値未満だった場合に、疾患有無推定部118は、ユーザUにおける疾患有りと推定してもよい。
An example in which user U's health condition is estimated based on the score will be described.
(1) Estimation by the health state estimation unit 116 The health state estimation unit 116 refers to the score calculated by the score calculation unit 115 and the data stored in the reference DB 185, and calculates the score from the score calculated by the score calculation unit 115. , estimate user U's health status.
For example, when the score calculated by the score calculation unit 115 is 70, the standard stored in the standard DB 185 is "score is 60 or more, that is, the health condition is good (predetermined threshold Th1 or more)" The state estimation unit 116 estimates that the health state HS of the user U is good. When the score calculated by the score calculation unit 115 is 40, the standard stored in the standard DB 185 is "score is less than 50, that is, the health condition is poor (less than the predetermined threshold Th2)", so the health condition is estimated. The unit 116 estimates that the health state HS of the user U is poor.
Note that the health state estimating unit 116 may estimate the health state of the user U based on estimation by the disease presence/absence estimating unit 118, which will be described later. For example, regarding the user U who is estimated to have a disease by the disease presence estimation unit 118, the health state estimation unit 116 may estimate that the health state of the user U is poor.
(2) Estimation by disease presence/absence estimation unit 118 The disease presence/absence estimation unit 118 estimates the presence/absence of a disease in user U from the score indicating user U's health condition calculated by score calculation unit 115. More specifically, the disease presence/absence estimation unit 118 estimates the presence/absence of the disease in the user U from the score calculated by the score calculation unit 115 with reference to the data stored in the reference DB 185.
For example, when the score calculated by the score calculation unit 115 is 50, the criterion stored in the standard DB 185 is “disease present, that is, the score is less than 30”, so the disease presence estimation unit 118 determines that the user U has a disease. It is assumed that there is no. For example, when the score calculated by the score calculation unit 115 is 20, it means that the user has a disease, that is, the score is less than 30, and the disease presence/absence estimation unit 118 estimates that the user U has a disease.
Note that the disease presence/absence estimation unit 118 may estimate the health status of the user U based on the estimation by the health status estimation unit 116 described above. For example, for a user U who is estimated to be in poor health by the health status estimating unit 116, if the score of the user U is less than the same value as each standard score that indicates the presence of a disease, the disease presence/absence estimation unit 118 determines whether the user It may be assumed that U has the disease.

図7(a)の説明に戻る。図7(a)を具体的に説明する。
図7(a)に表示されているM1からM20(すなわち、ユーザU1からユーザU20)のスコアは、ばらつきが小さく、全体的にスコアが低い。
図7(a)は、具体的には、うつ病を罹患している可能性が高いユーザU(ユーザU1からユーザU8)のスコアと、脳疾患を罹患している可能性が高いユーザU(ユーザU9からユーザU20)のスコアとが表示されている。すなわち、疾患があると推定されるユーザU群が表示されている。なお、図7(a)では、うつ病や脳疾患を罹患している可能性が高いユーザUをスコアのばらつき具合に応じて判別しているが、うつ病や脳疾患を罹患している可能性が高いユーザUをスコアの平均値に応じて判別してもよい。
図7中(a)のアイテムCは、うつ病を罹患している可能性が高いユーザUのスコアを示す。図7中の網掛けされたアイテムCは、脳疾患を罹患している可能性が高いユーザUのスコアを示す。
うつ病または脳疾患を罹患している可能性が高いとされたユーザU(例えばユーザU8_M8)には、警告がなされる。具体的には、第一警告部121によって、警告がなされる。第一警告部121は、例えば、「うつ病の可能性が高いです」というテキストと警告マークWをユーザ端末3に送信して、ユーザUに警告する。
なお、図7(a)に示されるユーザU(例えばユーザU8_M8)が実際にうつ病を罹患していた場合には、雇用主は、当該ユーザUの罹患の事実を、当該ユーザUの病歴として、ユーザ情報DB188に記録してもよい。ユーザUが通院し、血液検査がなされた場合には、病歴とともに血液検査の結果を、ユーザ情報DB188に記録してもよい。
当該ユーザUの健康状態が再び推定される際に、健康状態推定部116は、当該病歴(うつ病の病歴)に基づいて、前述の基準スコア(例えば、スコアが60以上、すなわち健康状態が良好)を低く設定してユーザUの健康状態を推定する。
また、健康状態推定部116はその際、ユーザ情報DB188に格納されたユーザUの血液検査の結果を考慮してユーザUの健康状態を推定してもよい。例えば、うつ病では特定の物質の血中濃度が低くなるとされている。ユーザUの血液検査の結果(3か月に一回の定期血液検査の結果)と、うつ病罹患時の血液検査の結果を比べて、例えば当該物質の濃度が低くなっている場合には、健康状態推定部116は、うつ病罹患時と比べユーザの健康状態が良好または良好に近づいていると推定してもよい。なお、健康状態推定部116は、血液検査の結果だけでなく、健康診断の結果も考慮して推定してもよく、当該再推定時とうつ病罹患時のスコアを比較して推定してもよい。健康状態推定部116は、「健康状態が良好(または不良)」という推定結果に替えて、「健康状態の改善の有無」を推定結果としてユーザUに表示してもよい。これにより、ユーザUは健康状態が改善されていることを認識できる。
図7では、うつ病を罹患している可能性が高い(疾患があると推定される)ユーザU群と、脳疾患を罹患している可能性が高い(疾患があると推定される)ユーザU群のスコアを示しているが、例えば、図示しない健常(健康)群の場合では、スコアが高い方にも丸が多くプロットされ、スコアのばらつきが大きな状態で示される。
Returning to the explanation of FIG. 7(a). FIG. 7(a) will be specifically explained.
The scores of M1 to M20 (that is, users U1 to U20) displayed in FIG. 7(a) have small variations, and the scores are low overall.
Specifically, FIG. 7(a) shows the scores of users U (users U1 to U8) who are likely to suffer from depression, and the scores of users U (users U1 to U8) who are likely to suffer from brain disease. The scores of users U9 to U20 are displayed. That is, a group of users U who are estimated to have a disease are displayed. Note that in FIG. 7(a), users U who are likely to suffer from depression or a brain disease are identified according to the degree of dispersion of scores; The user U who has a high level of gender may be determined according to the average value of the scores.
Item C in (a) in FIG. 7 indicates the score of user U who is likely to be suffering from depression. The shaded item C in FIG. 7 indicates the score of the user U who is highly likely to suffer from a brain disease.
A warning is given to the user U (for example, user U8_M8) who is considered to have a high possibility of suffering from depression or a brain disease. Specifically, the first warning unit 121 issues a warning. The first warning unit 121 warns the user U by transmitting, for example, the text "There is a high possibility of depression" and a warning mark W to the user terminal 3.
Note that if the user U (for example, user U8_M8) shown in FIG. , may be recorded in the user information DB 188. When user U visits a hospital and has a blood test performed, the results of the blood test may be recorded in the user information DB 188 along with the medical history.
When the health state of the user U is estimated again, the health state estimating unit 116 calculates the above-mentioned standard score (for example, the score is 60 or more, that is, the health state is good) based on the medical history (history of depression). ) is set low to estimate user U's health condition.
In addition, at this time, the health state estimating unit 116 may estimate the health state of the user U by considering the results of the blood test of the user U stored in the user information DB 188. For example, it is said that in depression, the blood concentration of certain substances decreases. Comparing the blood test results of user U (regular blood test results once every three months) with the blood test results at the time of depression, for example, if the concentration of the substance in question is low, The health condition estimating unit 116 may estimate that the user's health condition is good or approaching good compared to when the user was suffering from depression. Note that the health condition estimating unit 116 may estimate by taking into account not only the results of blood tests but also the results of medical examinations, or may estimate by comparing the scores at the time of re-estimation and at the time of depression. good. The health state estimating unit 116 may display to the user U "presence or absence of improvement in the health state" as the estimation result instead of the estimation result "the health state is good (or poor)". Thereby, user U can recognize that his health condition has improved.
In Figure 7, there is a group of users U who are likely to suffer from depression (estimated to have a disease) and users who are likely to suffer from a brain disease (estimated to have a disease). Although the scores of the U group are shown, for example, in the case of a healthy group (not shown), many circles are plotted even for those with higher scores, indicating a large dispersion of scores.

図8は、健康状態の推定における表示の一例を示す第3の図である。
図8(a)は所定期間のユーザUの健康状態(を示すスコア)を示すグラフである。図8(b)は、図8(a)におけるユーザUの健康状態HSを示す図である。ここでは、ユーザUの健康状態HSが、後述する警告されるような状態であることを示している。
図8を具体的に説明する。
グラフの縦軸は、スコアを示す。グラフの縦軸には、スコアの高低を示すような90、70、30という3つの数値が示される(数値は一例である)。スコアはユーザUの健康状態HSを示す。グラフの横軸は、所定期間を示す。所定期間は、図8(a)の例では1週間としている。
スコアは右肩下がりに下降している。具体的には、1週間で90から30へとスコアが急降下している。
スコア判断部122は、スコアの変動量(図8の例では60(90-30))が、基準DB185に格納されている所定の値(例えば、40)を上回っているか否かを判断する。
この場合、ユーザUの健康状態HSが短期間で著しく悪くなっているといえることから、ユーザUには、警告がなされる。具体的には、第二警告部123によって、警告がなされる。第二警告部123は、例えば、「うつ病の可能性が極めて高いです」という音声データと、警告マークWをユーザ端末3に送信して、ユーザUに警告する。
なお、第二警告部123は、ユーザUの雇用主に警告をしてもよい。前述のような場合には、ユーザUが離職する可能性が高いため、第二警告部123は、「離職アラート」のような警告マークWを雇用主端末(図示せず)に送信して警告してもよい。
FIG. 8 is a third diagram showing an example of a display in estimating a health condition.
FIG. 8(a) is a graph showing (a score indicating) the health condition of user U for a predetermined period. FIG. 8(b) is a diagram showing the health state HS of the user U in FIG. 8(a). Here, the health state HS of the user U is such that a warning will be issued, which will be described later.
FIG. 8 will be explained in detail.
The vertical axis of the graph shows the score. On the vertical axis of the graph, three numerical values, 90, 70, and 30, indicating high and low scores are shown (the numerical values are just an example). The score indicates user U's health state HS. The horizontal axis of the graph indicates a predetermined period. The predetermined period is one week in the example of FIG. 8(a).
Scores are steadily declining. Specifically, his score suddenly dropped from 90 to 30 in one week.
The score determining unit 122 determines whether the amount of change in the score (60 (90-30) in the example of FIG. 8) exceeds a predetermined value (for example, 40) stored in the reference DB 185.
In this case, since it can be said that user U's health condition HS has deteriorated significantly in a short period of time, a warning is issued to user U. Specifically, the second warning unit 123 issues a warning. The second warning unit 123 warns the user U by transmitting, for example, audio data such as "The possibility of depression is extremely high" and a warning mark W to the user terminal 3.
Note that the second warning unit 123 may warn the user U's employer. In the above-mentioned case, since there is a high possibility that the user U will leave the company, the second warning unit 123 sends a warning mark W such as "Separation Alert" to the employer terminal (not shown) to issue a warning. You may.

図9は、健康状態の推定における表示の一例を示す第4の図である。
図9(a)は複数のユーザUnの健康状態(を示すスコア)を示すグラフである。具体的には、あるユーザUの健康状態を、他の複数のユーザUnの健康状態と比較したグラフである。図9(b)は、図9(a)におけるユーザU4(符号L4。ユーザU4と符号L4との関係は後述する)の健康状態HSを示す図である。ここでは、ユーザU4の健康状態HSが、後述する警告され得る状態であることを示している。
図9を具体的に説明する。
グラフの縦軸は、スコアを示す(スコアの高低を示すような具体的な数値は省略する)。スコアはユーザUの健康状態を示す。グラフの横軸は、所定期間を示す。図9(a)に示す符号L1から符号L4は、4人のユーザUの健康状態を示す。ここでは、符号L1はユーザU1の健康状態、符号L2はユーザU2の健康状態、符号L3はユーザU3の健康状態、符号L4はユーザU4の健康状態を示し、ユーザU1からユーザU4の4人は、同一組織(例えばチーム)に属するものとする。
図9(a)に示す符号L1から符号L3は、比較的似た形状を描いている。一方、図9(a)に示す符号L4は、時間の経過とともに、符号L1、符号L2、符号L3から下方に大きく離れるような形状で描かれている。
健康状態推定部116は、ユーザU1からユーザU3の健康状態に基づいて、ユーザU4の健康状態HSを推定する。すなわち、ユーザU1からユーザU3の健康状態と比較して、ユーザU4の健康状態を推定する。例えば、ユーザU4のスコアが、ユーザU1からユーザU3のスコアの平均値と所定の値以上乖離した期間が、所定期間続く場合、健康状態推定部116は、ユーザU4の健康状態が不良であると推定する。ユーザU4は、組織の中で孤立し、何かしらの苦痛、不快さ、ストレス等を感じていると考えられるためである。なお、この場合に、第一警告部121は、ユーザU4に警告をしてもよい。
FIG. 9 is a fourth diagram showing an example of a display in estimating a health condition.
FIG. 9A is a graph showing (scores indicating) the health conditions of a plurality of users Un. Specifically, it is a graph comparing the health status of a certain user U with the health status of a plurality of other users Un. FIG. 9(b) is a diagram showing the health state HS of the user U4 (symbol L4; the relationship between the user U4 and the symbol L4 will be described later) in FIG. 9(a). Here, the health state HS of the user U4 indicates that a warning, which will be described later, can be given.
FIG. 9 will be specifically explained.
The vertical axis of the graph indicates the score (specific numerical values indicating high and low scores are omitted). The score indicates user U's health condition. The horizontal axis of the graph indicates a predetermined period. Symbols L1 to L4 shown in FIG. 9A indicate the health states of the four users U. Here, the code L1 indicates the health state of the user U1, the code L2 indicates the health state of the user U2, the code L3 indicates the health state of the user U3, and the code L4 indicates the health state of the user U4. , belong to the same organization (for example, a team).
Symbols L1 to L3 shown in FIG. 9A depict relatively similar shapes. On the other hand, the symbol L4 shown in FIG. 9A is drawn in such a shape that it becomes significantly separated downward from the symbols L1, L2, and L3 as time passes.
The health state estimating unit 116 estimates the health state HS of the user U4 based on the health states of the users U1 to U3. That is, the health status of user U4 is estimated by comparing the health status of users U1 to U3. For example, if the score of user U4 deviates from the average score of users U1 to U3 by a predetermined value or more for a predetermined period of time, the health condition estimating unit 116 determines that the health condition of user U4 is poor. presume. This is because it is thought that the user U4 is isolated within the organization and is feeling some kind of pain, discomfort, stress, etc. Note that in this case, the first warning unit 121 may warn the user U4.

ここで、チームに溶け込めないために、ユーザU4の出勤状況が変わってくる可能性があると考えられる。「出勤状況が変わってくる」には、例えば、欠勤日が増えたり、転職活動に伴って週の半ばに休むことが続くこと等が挙げられる。
この場合、健康状態推定部116は、ユーザU4の出勤状況(勤怠情報)に基づいて健康状態HSを推定する。例えば、健康状態推定部116は、ユーザUの1か月の欠勤日が10日以上である場合に、ユーザUの健康状態が不良であると推定する。例えば、他のユーザUと協働できないために残業時間が増大し、健康を害した可能性があるためである。また例えば、健康状態推定部116は、ユーザ情報DB188を参照した結果、ユーザUの有給取得パターンが変わったと判断して、ユーザUの健康状態が不良であると推定する。転職活動をするために、ユーザUが週の半ばに有給取得した可能性があるためである。なお、これらの場合にも、第一警告部121は、ユーザU4に警告をしてもよい。
Here, it is considered that user U4's attendance status may change due to his inability to integrate into the team. Examples of ``changes in work attendance'' include an increase in the number of days absent from work or a continued absence in the middle of the week due to job changes.
In this case, the health state estimating unit 116 estimates the health state HS based on the attendance status (attendance information) of the user U4. For example, the health condition estimating unit 116 estimates that the health condition of the user U is poor when the user U is absent from work for 10 days or more in one month. For example, this is because overtime hours may have increased due to the inability to collaborate with other users U, which may have harmed health. For example, as a result of referring to the user information DB 188, the health state estimating unit 116 determines that the paid acquisition pattern of the user U has changed, and estimates that the health state of the user U is poor. This is because user U may have taken paid leave in the middle of the week in order to change jobs. Note that in these cases as well, the first warning unit 121 may warn the user U4.

図10は、健康状態の推定に関連した一例を示す第5の図である。具体的には、図10(a)は、複数のユーザUnの健康状態を示し、図10(b)は、複数のユーザUnが属する組織の健康状態を示している。すなわち、複数のユーザUnが属する組織の健康状態を、複数のユーザUnの健康状態と比較することによって示している。
図10を具体的に説明する。
図10(a)に示す符号L1、符号L2、および符号L3は、3人のユーザU1~U3の健康状態を示す。ここでは、符号L1はユーザU1の、符号L2はユーザU2の、符号L3はユーザU3の健康状態を示すものとする。
グラフの縦軸は、スコアを示す(スコアの高低を示すような具体的な数値は省略する)。スコアはユーザUの健康状態を示す。グラフの横軸は、所定期間を示す。
図10(b)は、複数のユーザUが属する組織そのものの健康状態を示す。図10(b)に示す符号L5は、ユーザU1、ユーザU2およびユーザU3が属する組織そのものの健康状態を示す。組織の健康状態とは、言い換えると、組織の健全度である。組織の健全度には、例えば、従業員が生き生き働いているか、顧客満足度が高いか等、が挙げられる。
グラフの縦軸は、スコアを示す(スコアの高低を示すような具体的な数値は省略する)。スコアは複数のユーザUnが属する組織そのものの健康状態を示す。グラフの横軸は、所定期間を示す。
図10(a)と図10(b)を比較すると、符号L1から符号L3は緩やかではあるが、時間の経過とともに上昇しており、符号L5は、符号L1から符号L3と比較的似た形状を描いている。ここでは、符号L5は、符号L1から符号L3のスコアの平均値を描くものとする。
FIG. 10 is a fifth diagram showing an example related to estimation of health status. Specifically, FIG. 10(a) shows the health states of a plurality of users Un, and FIG. 10(b) shows the health states of organizations to which the plurality of users Un belong. That is, the health status of the organization to which multiple users Un belong is shown by comparing it with the health status of multiple users Un.
FIG. 10 will be specifically explained.
Symbols L1, L2, and L3 shown in FIG. 10(a) indicate the health states of the three users U1 to U3. Here, the symbol L1 indicates the health state of the user U1, the symbol L2 indicates the health state of the user U2, and the symbol L3 indicates the health state of the user U3.
The vertical axis of the graph indicates the score (specific numerical values indicating high and low scores are omitted). The score indicates user U's health condition. The horizontal axis of the graph indicates a predetermined period.
FIG. 10(b) shows the health status of the organization itself to which multiple users U belong. Reference numeral L5 shown in FIG. 10(b) indicates the health state of the organization itself to which the user U1, user U2, and user U3 belong. In other words, the health state of the organization is the degree of health of the organization. Examples of the health level of an organization include whether employees are working with enthusiasm and whether customer satisfaction is high.
The vertical axis of the graph indicates the score (specific numerical values indicating high and low scores are omitted). The score indicates the health state of the organization itself to which the plurality of users Un belong. The horizontal axis of the graph indicates a predetermined period.
Comparing FIG. 10(a) and FIG. 10(b), it is found that the shape from L1 to L3 increases gradually but over time, and L5 has a shape relatively similar to L1 to L3. is drawing. Here, the code L5 represents the average value of the scores from code L1 to code L3.

ここで、従業員の満足度と顧客満足度には正の相関関係があるとされている。従業員の満足度が上がると顧客へのサービスが向上し、顧客満足度の向上に繋がるとされている。例えば、コールセンターにおいては、オペレータ次第で、顧客満足度が変わる。オペレータは精神的な疾患を患うものが少なくないとされているが、心の健康状態が改善されれば、会話内容や顧客への対応が変わり、当該オペレータへの顧客満足度が高まり、その結果、組織への顧客満足度も高まる。
前述の従業員の満足度の中には、例えば、良好な健康状態を維持できることが挙げられる。換言すると、従業員(ユーザU)が健康な状態であれば、組織の状態も健全であるといえる可能性が高まる。
健康状態推定部116は、ユーザU1からユーザU3の健康状態に基づいて、ユーザU1からユーザU3が属する組織そのものの健康状態を推定する。すなわち、ユーザU1からユーザU3の健康状態と比較して、ユーザU1からユーザU3が属する組織そのものの健康状態を推定する。L5は、L1からL3と比較的似た形状を描いており、正の相関関係があると考えられるため、健康状態推定部116は、ユーザU1からユーザU3が属する組織そのものの健康状態が良好であると推定する。
It is said that there is a positive correlation between employee satisfaction and customer satisfaction. It is believed that when employee satisfaction increases, customer service improves, leading to increased customer satisfaction. For example, in a call center, customer satisfaction varies depending on the operator. It is said that many operators suffer from mental illnesses, but if their mental health improves, the content of conversations and how they respond to customers will change, customer satisfaction with the operator will increase, and as a result, , customer satisfaction with the organization also increases.
Among the above-mentioned employee satisfaction levels, for example, being able to maintain a good health condition is mentioned. In other words, if the employee (User U) is in a healthy state, there is a high possibility that the state of the organization can also be said to be healthy.
The health state estimating unit 116 estimates the health state of the organization itself to which the users U1 to U3 belong based on the health states of the users U1 to U3. That is, the health status of the organization itself to which the users U1 to U3 belong is estimated by comparing the health status of the users U1 to U3. Since L5 has a relatively similar shape to L1 to L3 and is considered to have a positive correlation, the health state estimating unit 116 determines whether the health state of the organization itself to which users U1 to U3 belong is good. We estimate that there is.

<変形例>
前述の情報処理装置は、医療分野にも適用することができる。例えば、遠隔診療等において、医師が行う問診時に本サービスが利用される。複数の時点における患者(ユーザU)の声に関する声情報と、顔の表情や顔色、眉間や網膜等の情報が含まれる顔情報とが解析され、患者の健康状態が推定される。当該ユーザUの症状は、医師の電子カルデに表示される。つまり、本診に入る前に、医師は、患者の一次症状を認識することができる。
本サービスを利用することで、医師にとっては効率的に診断を行うことができるというメリットがある。また、患者にとっても、自分の症状をうまく伝えられない患者(例えば高齢者)や、自分の症状を自覚していない患者がいるところ、本サービスを利用することで、症状を医師に正確かつ的確に伝えることができるというメリットがある。
<Modified example>
The above-described information processing device can also be applied to the medical field. For example, this service is used during a medical interview conducted by a doctor during remote medical treatment. Voice information regarding the patient's (user U) voice at a plurality of points in time and facial information including information on facial expressions, complexion, glabella, retina, etc. are analyzed, and the patient's health condition is estimated. The symptoms of the user U are displayed on the doctor's electronic medical card. In other words, the doctor can recognize the patient's primary symptoms before starting the actual diagnosis.
By using this service, doctors have the advantage of being able to perform diagnosis efficiently. In addition, for patients, there are patients who cannot communicate their symptoms well (for example, elderly people) and patients who are not aware of their symptoms, so by using this service, they can accurately and precisely report their symptoms to doctors. It has the advantage of being able to convey information to

<まとめ>
以上、本発明の情報処理装置の実施形態について説明したが、本発明は上述した本実施形態に限定されない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果の列挙に過ぎず、本発明による効果は、本実施形態に記載されたものに限定されない。
<Summary>
Although the embodiment of the information processing apparatus of the present invention has been described above, the present invention is not limited to the above-described embodiment. Further, the effects described in this embodiment are merely a list of the most suitable effects resulting from the present invention, and the effects according to the present invention are not limited to those described in this embodiment.

本実施形態において、図3に示すハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。換言すると、図4に示す機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理装置に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4の例に限定されない。 In this embodiment, the hardware configuration shown in FIG. 3 is merely an example for achieving the purpose of the present invention, and is not particularly limited. In other words, the functional configuration shown in FIG. 4 is merely an example and is not particularly limited. That is, it is sufficient that the information processing device has a function that can execute the above-described series of processes as a whole, and what kind of functional blocks are used to realize this function is not particularly limited to the example shown in FIG. 4.

また、機能ブロックの存在場所も、図4に特に限定されず、任意でよい。例えば、サーバ1の機能ブロックを複数のサーバに分散させてもよい。また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。 Further, the location of the functional blocks is not particularly limited to that shown in FIG. 4, and may be arbitrary. For example, the functional blocks of the server 1 may be distributed to multiple servers. Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof.

また、例えば、一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。また、コンピュータは、専用のハードウェアに組み込まれるコンピュータであってもよい。 Further, for example, when a series of processes is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium. The computer may also be a computer built into dedicated hardware.

コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他、汎用のスマートフォンやパーソナルコンピュータであってもよい。 The computer may be a computer that can execute various functions by installing various programs, such as a server, a general-purpose smartphone, or a personal computer.

また、例えば、このようなプログラムを含む記録媒体は、利用者にプログラムを提供するために、装置本体とは別に配布される図示しないリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態で利用者に提供される記録媒体等で構成されるものであってもよい。 Furthermore, for example, a recording medium containing such a program may not only be composed of a removable medium (not shown) that is distributed separately from the main body of the device in order to provide the program to the user, but also a recording medium that is pre-installed in the main body of the device. It may also consist of a recording medium or the like that is provided to the user in a state in which the

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理は勿論、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含む。また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味する。 Note that in this specification, the step of writing a program to be recorded on a recording medium is not only a process that is performed chronologically in accordance with the order, but also a process that is not necessarily performed chronologically but in parallel or individually. It also includes the processing to be performed. Further, in this specification, the term "system" means an overall apparatus composed of a plurality of devices, a plurality of means, and the like.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図3のリムーバブルメディア21により構成されるだけでなく、装置本体に予め組み込まれた状態で利用者に提供される記録媒体等で構成される。
リムーバブルメディア21は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。
装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図3のROM12や、図3の記憶部18に含まれるハードディスク等で構成される。
A recording medium containing such a program is not only constituted by the removable medium 21 shown in FIG. 3, which is distributed separately from the main body of the device in order to provide the program to the user, but also can be used by being pre-installed in the main body of the device. It consists of recording media, etc. provided to individuals.
The removable medium 21 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. Optical disks include, for example, CD-ROMs (Compact Disk-Read Only Memory), DVDs (Digital Versatile Disks), and the like. The magneto-optical disk is composed of an MD (Mini-Disk) or the like.
The recording medium provided to the user in a pre-installed state in the main body of the apparatus includes, for example, the ROM 12 in FIG. 3 in which a program is recorded, the hard disk included in the storage section 18 in FIG. 3, and the like.

以上まとめると、本発明が適用される情報処理装置は、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される情報処理装置(例えば、図2のサーバ1)は、ユーザの声に関する声情報を取得する第一取得手段(例えば、図4の第一取得部111)と、前記ユーザの顔情報を取得する第二取得手段(例えば、図4の第二取得部112)と、前記声情報および前記顔情報を記憶する第一記憶手段(例えば、図4の記憶部18)と、前記声情報に基づいて、音声特徴量を抽出する第一抽出手段(例えば、図4の第一抽出部113)と、前記顔情報に基づいて、顔特徴量を抽出する第二抽出手段(例えば、図4の第二抽出部114)と、複数の時点における前記音声特徴量および前記顔特徴量に基づいて、前記ユーザの健康状態を推定する健康状態推定手段(例えば、図4の健康状態推定部116)と、を備える。
本発明によれば、ユーザの健康状態を高精度に推定することができる。すなわち、本発明によれば、複数の時点における音声特徴量および顔特徴量に基づくことにより、推定精度を向上させることができる。
In summary, the information processing apparatus to which the present invention is applied only needs to have the following configuration, and can take various embodiments.
That is, an information processing apparatus to which the present invention is applied (for example, the server 1 in FIG. 2) includes a first acquisition unit (for example, the first acquisition unit 111 in FIG. 4) that acquires voice information regarding the user's voice; a second acquisition unit (for example, the second acquisition unit 112 in FIG. 4) that acquires the user's face information; a first storage unit (for example, the storage unit 18 in FIG. 4) that stores the voice information and the face information; , a first extraction unit (for example, the first extraction unit 113 in FIG. 4) that extracts a voice feature based on the voice information, and a second extraction unit (for example, the first extraction unit 113 in FIG. 4) that extracts a facial feature based on the face information. For example, the second extracting unit 114 in FIG. 4) and the health state estimating means (for example, the health state in FIG. estimating unit 116).
According to the present invention, a user's health condition can be estimated with high accuracy. That is, according to the present invention, estimation accuracy can be improved by being based on voice feature amounts and facial feature amounts at a plurality of points in time.

また、少なくとも前記健康状態推定手段によって推定された前記ユーザの健康状態を表示する表示制御手段(例えば、図4の表示制御部117)をさらに備えてもよい。
本発明によれば、表示制御手段があることで、ユーザの健康状態を可視化することができる。
Moreover, it may further include display control means (for example, display control section 117 in FIG. 4) that displays at least the health state of the user estimated by the health state estimation means.
According to the present invention, the presence of the display control means allows the user's health condition to be visualized.

また、前記ユーザの健康状態を示すスコアおよび前記スコアに関する閾値に基づいて、前記ユーザにおける第一の疾患の有無を推定する疾患有無推定手段(例えば、図4の疾患有無推定部118)をさらに備えてもよい。
本発明によれば、疾患の有無をユーザの健康状態の推定に活用することができるため、健康状態を高精度に推定することができる。
The device further includes a disease presence/absence estimation unit (for example, the disease presence/absence estimation unit 118 in FIG. 4) that estimates the presence/absence of a first disease in the user based on a score indicating the user's health condition and a threshold related to the score. You can.
According to the present invention, the presence or absence of a disease can be used to estimate the user's health condition, so the health condition can be estimated with high accuracy.

また、前記顔情報に基づいて、前記ユーザの表情または顔色を解析する解析手段(例えば、図4の解析部119)をさらに備え、前記健康状態推定手段は、前記解析手段によって解析された結果を用いて前記ユーザの健康状態を推定してもよい。
本発明によれば、ユーザの表情または顔色は、ユーザが自覚しない疾患の症状を示す可能性があるため、ユーザの表情または顔色の解析結果を用いることで、健康状態を高精度に推定することができる。
The device further includes an analysis unit (for example, the analysis unit 119 in FIG. 4) that analyzes the facial expression or complexion of the user based on the facial information, and the health condition estimation unit analyzes the results analyzed by the analysis unit. The health condition of the user may be estimated using the health condition of the user.
According to the present invention, since a user's facial expression or complexion may indicate symptoms of a disease that the user is not aware of, it is possible to estimate the health condition with high accuracy by using the analysis results of the user's facial expression or complexion. I can do it.

また、前記顔情報は、網膜の状態に関する情報を含み、前記網膜の状態に関する情報に基づいて、前記ユーザにおける第二の疾患の有無を判定する判定手段(例えば、図4の判定部120)をさらに備えてもよい。
本発明によれば、ユーザは、自覚していない疾患を認識することができる。
Further, the face information includes information regarding the state of the retina, and a determining means (for example, the determining unit 120 in FIG. 4) that determines whether or not the user has the second disease based on the information regarding the state of the retina. Further provision may be made.
According to the present invention, a user can recognize a disease of which he or she is not aware.

また、前記顔情報は、顔画像から取得される脈波に関する情報を含み、脈波に関する情報に基づいて、前記ユーザにおける第三の疾患の有無を判定する判定手段(例えば、図4の判定部120)をさらに備えていてもよい。 本発明によれば、ユーザは、自覚していない疾患を認識することができる。 Further, the face information includes information regarding a pulse wave acquired from a face image, and the determination unit (for example, the determination unit in FIG. 4 120). According to the present invention, a user can recognize a disease of which he or she is not aware.

また、前記疾患有無推定手段によって前記ユーザに前記第一の疾患が有ると推定された場合に、所定の警告をする第一警告手段(例えば、図4の第一警告部121)をさらに備えてもよい。
本発明によれば、警告をされることで、ユーザは、自覚していない疾患を認識することができる。
The device further includes a first warning unit (for example, the first warning unit 121 in FIG. 4) that issues a predetermined warning when the disease presence/absence estimation unit estimates that the user has the first disease. Good too.
According to the present invention, by receiving a warning, the user can recognize a disease of which he or she is not aware.

また、所定期間における前記ユーザの健康状態に関する複数のスコアから、当該複数のスコアの変動量が所定の値以上および所定の値以下のうち少なくとも一つを判断する判断手段(例えば、図4のスコア判断部122)と、前記判断手段の前記判断に基づいて所定の警告をする第二警告手段(例えば、図4の第二警告部123)をさらに備えてもよい。
本発明によれば、複数のデータが用いられることでユーザの健康状態の傾向が明確になるとともに、傾向がマイナスな要素を含む場合に警告がなされるため、ユーザは、健康状態を改善させるきっかけを得ることができる。
Further, from a plurality of scores related to the user's health condition in a predetermined period, a determination means (for example, the score of FIG. 4 The apparatus may further include a judgment section 122) and a second warning section (for example, the second warning section 123 in FIG. 4) that issues a predetermined warning based on the judgment of the judgment section.
According to the present invention, trends in the user's health condition are clarified by using a plurality of pieces of data, and a warning is issued if the trend includes negative elements, so the user can receive an opportunity to improve his or her health condition. can be obtained.

また、前記表示制御手段は、前記ユーザの健康状態を示すスコアのばらつきに基づき、前記ユーザの健康状態を表示してもよい。
本発明によれば、ユーザの健康状態を示すスコアを表示し、表示されたスコアのばらつき具合をみることで、ユーザの健康状態が可視化できる。
Further, the display control means may display the user's health condition based on the dispersion of scores indicating the user's health condition.
According to the present invention, the user's health condition can be visualized by displaying a score indicating the user's health condition and looking at the degree of variation in the displayed score.

また、前記音声特徴量は、音声の変動パターンに基づく特徴量であってもよい。
本発明によれば、音声の変動パターンは疾患毎に特有であるため、音声の変動パターンを特徴量に用いることにより、健康状態の推定(疾患の推定)を高精度に行うことができる。
Further, the audio feature amount may be a feature amount based on a variation pattern of audio.
According to the present invention, since the voice variation pattern is unique for each disease, by using the voice variation pattern as a feature quantity, it is possible to estimate the health condition (disease estimation) with high accuracy.

また、前記顔情報は、眉間に関する情報を含んでもよい。
本発明によれば、眉間の情報をも健康状態の推定に用いるため、健康状態を高精度に推定することができる。
Further, the face information may include information regarding the glabella.
According to the present invention, since the information between the eyebrows is also used for estimating the health condition, the health condition can be estimated with high accuracy.

また、前記ユーザの血液検査の結果を取得する第三取得手段(例えば、図4の血液情報取得部124)をさらに備え、前記健康状態推定手段は、さらに、前記第三取得手段が取得した前記ユーザの血液検査の結果に基づいて、前記ユーザの健康状態を推定してもよい。
本発明によれば、ユーザの声情報と顔情報に加えて、血液の情報が健康状態の推定に加わるため、健康状態を高精度に推定することができる。
Further, the device further includes a third acquisition unit (for example, the blood information acquisition unit 124 in FIG. 4) that acquires the results of the blood test of the user, and the health condition estimation unit further includes the information acquired by the third acquisition unit. The user's health condition may be estimated based on the user's blood test results.
According to the present invention, in addition to the user's voice information and face information, blood information is added to the health condition estimation, so that the health condition can be estimated with high accuracy.

また、前記健康状態推定手段は、前記音声特徴量と前記顔特徴量のうち、前記音声特徴量の方を推定の優先としてもよい。
本発明によれば、顔の情報と声の情報とでは、声の情報の方が正確な症状を示す場合が多いため、健康状態を高精度に推定することができる。
Furthermore, the health state estimating means may give priority to the voice feature amount in estimation between the voice feature amount and the face feature amount.
According to the present invention, since voice information often indicates more accurate symptoms than face information and voice information, it is possible to estimate the health condition with high accuracy.

また、前記ユーザの勤怠情報を取得する第四取得手段(例えば、図4の勤怠情報取得部125)をさらに備え、前記健康状態推定手段は、さらに、前記第四取得手段が取得した前記ユーザの勤怠情報に基づいて、前記ユーザの健康状態を推定してもよい。
本発明によれば、ユーザの勤怠情報を利用することで、声と顔の情報からは分からない、長時間労働や休暇取得日数が多いといったユーザの健康状態の問題点を把握することができる。
Further, the system further includes a fourth acquisition means (for example, the attendance information acquisition unit 125 in FIG. 4) that acquires the attendance information of the user, and the health condition estimation means further comprises The user's health condition may be estimated based on attendance information.
According to the present invention, by using the user's attendance information, it is possible to grasp problems in the user's health condition, such as long working hours or taking too many vacation days, which cannot be seen from voice and facial information.

前記ユーザの勤怠情報は、前記第二取得手段よりユーザの出退勤時に取得された顔情報を含むものであることができる。
本発明によれば、健康状態把握のために設置した情報処理装置を、勤怠管理にも利用することができる。
The user's attendance information may include face information acquired by the second acquisition means when the user comes to and leaves work.
According to the present invention, an information processing device installed for grasping health conditions can also be used for attendance management.

また、前記ユーザの顔認証を行う認証手段(例えば、図4のサーバ1)と、前記認証手段が行った前記顔認証に基づいて特定された前記ユーザの情報に紐づけて、前記ユーザの健康状態を記憶する第二記憶手段(例えば、図4のユーザ情報DB188)をさらに備えてもよい。
本発明によれば、ユーザの識別情報とユーザの健康状態を紐づけて管理できるため、管理者(雇用主)がユーザの健康状態を管理し易い。
Further, an authentication means (for example, the server 1 in FIG. 4) that performs face authentication of the user and information on the user identified based on the face authentication performed by the authentication means are linked to the user's health information. It may further include a second storage means (for example, the user information DB 188 in FIG. 4) that stores the state.
According to the present invention, since the user's identification information and the user's health condition can be managed in association with each other, the manager (employer) can easily manage the user's health condition.

また、前記健康状態推定手段は、さらに、複数のユーザが属する組織において、前記複数のユーザの健康状態に基づいて、前記ユーザの健康状態と前記組織の健康状態の少なくとも一つを推定してもよい。
本発明によれば、ある一ユーザの健康状態を、他の複数のユーザの健康状態に照らして推定するため、組織が、ユーザの健康状態の傾向を認識し易くなる。
Further, the health state estimation means may further estimate at least one of the health state of the user and the health state of the organization based on the health states of the plurality of users in an organization to which the plurality of users belong. good.
According to the present invention, the health status of one user is estimated in light of the health status of a plurality of other users, making it easier for an organization to recognize trends in the user's health status.

また、前記ユーザの病歴を取得する第五取得手段(例えば、図4の病歴情報取得部126)をさらに備え、前記健康状態推定手段は、さらに、前記第五取得手段が取得した前記ユーザの病歴に基づいて、前記ユーザの健康状態を推定してもよい。
本発明によれば、ユーザの過去の病歴をも健康状態の推定に用いるため、健康状態を高精度に推定することができる。
The medical history information acquisition unit 126 of FIG. 4 further includes a fifth acquisition unit (for example, the medical history information acquisition unit 126 in FIG. 4) that acquires the user's medical history, and the health condition estimation unit further includes the user's medical history acquired by the fifth acquisition unit. The health condition of the user may be estimated based on.
According to the present invention, since the user's past medical history is also used to estimate the health condition, the health condition can be estimated with high accuracy.

1・・・サーバ、2・・・情報処理端末、3・・・ユーザ端末、111・・・第一取得部、112・・・第二取得部、113・・・第一抽出部、114・・・第二抽出部、115・・・スコア算出部、116・・・健康状態推定部、117・・・表示制御部、118・・・疾患有無推定部、119・・・解析部、120・・・判定部、121・・・第一警告部、122・・・スコア判断部、123・・・第二警告部、124・・・血液情報取得部、125・・・勤怠情報取得部、126・・・病歴情報取得部、181・・・声DB、182・・・顔DB、183・・・特徴量DB、184・・・スコアDB、185・・・基準DB、186・・・算出モデルDB、187・・・解析・判定結果DB、188・・・ユーザ情報DB、189・・・組織情報DB DESCRIPTION OF SYMBOLS 1... Server, 2... Information processing terminal, 3... User terminal, 111... First acquisition part, 112... Second acquisition part, 113... First extraction part, 114. . . . second extraction unit, 115 . ... Judgment section, 121... First warning section, 122... Score judgment section, 123... Second warning section, 124... Blood information acquisition section, 125... Attendance information acquisition section, 126 ...Medical history information acquisition unit, 181...Voice DB, 182...Face DB, 183...Feature amount DB, 184...Score DB, 185...Reference DB, 186...Calculation model DB, 187...Analysis/judgment result DB, 188...User information DB, 189...Organization information DB

Claims (18)

ユーザの声に関する声情報を取得する第一取得手段と、
前記ユーザの顔情報を取得する第二取得手段と、
前記声情報および前記顔情報を記憶する第一記憶手段と、
前記声情報に基づいて、音声特徴量を抽出する第一抽出手段と、
前記顔情報に基づいて、顔特徴量を抽出する第二抽出手段と、
複数の時点における前記音声特徴量および前記顔特徴量に基づいて、前記ユーザの健康状態を推定する健康状態推定手段と、
を備える情報処理装置。
a first acquisition means for acquiring voice information regarding the user's voice;
a second acquisition means for acquiring facial information of the user;
a first storage means for storing the voice information and the face information;
a first extraction means for extracting voice features based on the voice information;
a second extraction means for extracting facial features based on the facial information;
Health state estimating means for estimating the health state of the user based on the voice feature amount and the facial feature amount at a plurality of points in time;
An information processing device comprising:
少なくとも前記健康状態推定手段によって推定された前記ユーザの健康状態を表示する表示制御手段をさらに備える、
請求項1に記載の情報処理装置。
further comprising display control means for displaying at least the health state of the user estimated by the health state estimating means;
The information processing device according to claim 1.
前記ユーザの健康状態を示すスコアおよび前記スコアに関する閾値に基づいて、前記ユーザにおける第一の疾患の有無を推定する疾患有無推定手段をさらに備える、
請求項1または2に記載の情報処理装置。
Further comprising a disease presence/absence estimation means for estimating the presence/absence of a first disease in the user based on a score indicating the user's health condition and a threshold related to the score.
The information processing device according to claim 1 or 2.
前記顔情報に基づいて、前記ユーザの表情または顔色を解析する解析手段をさらに備え、
前記健康状態推定手段は、前記解析手段によって解析された結果を用いて前記ユーザの健康状態を推定する、
請求項1または2に記載の情報処理装置。
further comprising analysis means for analyzing the user's facial expression or complexion based on the facial information,
The health state estimation means estimates the health state of the user using the results analyzed by the analysis means.
The information processing device according to claim 1 or 2.
前記顔情報は、網膜の状態に関する情報を含み、前記網膜の状態に関する情報に基づいて、前記ユーザにおける第二の疾患の有無を判定する判定手段をさらに備える、
請求項1または2に記載の情報処理装置。
The facial information includes information regarding the state of the retina, and further comprises a determining means for determining whether or not the user has a second disease based on the information regarding the state of the retina.
The information processing device according to claim 1 or 2.
前記顔情報は、顔画像から取得される脈波に関する情報を含み、前記脈波に関する情報に基づいて、前記ユーザにおける第三の疾患の有無を判定する、請求項1または2に記載の情報処理装置。 The information processing according to claim 1 or 2, wherein the face information includes information regarding a pulse wave obtained from a face image, and the presence or absence of a third disease in the user is determined based on the information regarding the pulse wave. Device. 前記疾患有無推定手段によって前記ユーザに前記第一の疾患が有ると推定された場合に、所定の警告をする第一警告手段をさらに備える、
請求項3に記載の情報処理装置。
further comprising a first warning means for issuing a predetermined warning when the disease presence/absence estimation means estimates that the user has the first disease;
The information processing device according to claim 3.
所定期間における前記ユーザの健康状態に関する複数のスコアから、当該複数のスコアの変動量が所定の値以上および所定の値以下のうち少なくとも一つを判断する判断手段と、
前記判断手段の前記判断に基づいて所定の警告をする第二警告手段をさらに備える、
請求項1または2に記載の情報処理装置。
a determination means for determining, from a plurality of scores regarding the user's health condition in a predetermined period, whether the amount of variation in the plurality of scores is at least one of a predetermined value or more and a predetermined value or less;
further comprising second warning means for issuing a predetermined warning based on the judgment of the judgment means;
The information processing device according to claim 1 or 2.
前記表示制御手段は、前記ユーザの健康状態を示すスコアのばらつきに基づき、前記ユーザの健康状態を表示する、
請求項2に記載の情報処理装置。
The display control means displays the user's health condition based on the dispersion of the score indicating the user's health condition.
The information processing device according to claim 2.
前記音声特徴量は、音声の変動パターンに基づく特徴量である、
請求項1または2に記載の情報処理装置。
The audio feature amount is a feature amount based on a variation pattern of the audio,
The information processing device according to claim 1 or 2.
前記顔情報は、眉間に関する情報を含む、
請求項1または2に記載の情報処理装置。
The facial information includes information regarding the area between the eyebrows.
The information processing device according to claim 1 or 2.
前記ユーザの血液検査の結果を取得する第三取得手段をさらに備え、
前記健康状態推定手段は、さらに、前記第三取得手段が取得した前記ユーザの血液検査の結果に基づいて、前記ユーザの健康状態を推定する、
請求項1または2に記載の情報処理装置。
further comprising third acquisition means for acquiring the user's blood test results,
The health state estimation means further estimates the health state of the user based on the result of the user's blood test acquired by the third acquisition means.
The information processing device according to claim 1 or 2.
前記健康状態推定手段は、前記音声特徴量と前記顔特徴量のうち、前記音声特徴量を優先して、前記ユーザの健康状態を推定する、
請求項1または2に記載の情報処理装置。
The health state estimating means estimates the health state of the user by giving priority to the voice feature amount among the voice feature amount and the facial feature amount.
The information processing device according to claim 1 or 2.
前記ユーザの勤怠情報を取得する第四取得手段をさらに備え、
前記健康状態推定手段は、さらに、前記第四取得手段が取得した前記ユーザの勤怠情報に基づいて、前記ユーザの健康状態を推定する、
請求項1または2に記載の情報処理装置。
further comprising a fourth acquisition means for acquiring attendance information of the user,
The health state estimation means further estimates the health state of the user based on the attendance information of the user acquired by the fourth acquisition means.
The information processing device according to claim 1 or 2.
前記ユーザの勤怠情報は、前記第二取得手段よりユーザの出退勤時に取得された顔情報を含むものである、請求項14に記載の情報処理装置。 15. The information processing apparatus according to claim 14, wherein the user's attendance information includes face information acquired by the second acquisition means when the user comes to work. 前記ユーザの顔認証を行う認証手段と、
前記認証手段が行った前記顔認証に基づいて特定された前記ユーザの情報に紐づけて、前記ユーザの健康状態を記憶する第二記憶手段をさらに備える、
請求項1または2に記載の情報処理装置。
an authentication means for performing face authentication of the user;
further comprising a second storage means for storing the health condition of the user in association with the information of the user identified based on the face authentication performed by the authentication means;
The information processing device according to claim 1 or 2.
前記健康状態推定手段は、さらに、複数のユーザが属する組織において、前記複数のユーザの健康状態に基づいて、前記ユーザの健康状態と前記組織の健康状態の少なくとも一つを推定する、
請求項1または2に記載の情報処理装置。
The health condition estimation means further estimates at least one of the health condition of the user and the health condition of the organization in an organization to which the plurality of users belong, based on the health conditions of the plurality of users.
The information processing device according to claim 1 or 2.
前記ユーザの病歴を取得する第五取得手段をさらに備え、
前記健康状態推定手段は、さらに、前記第五取得手段が取得した前記ユーザの病歴に基づいて、前記ユーザの健康状態を推定する、
請求項1または2に記載の情報処理装置。
Further comprising a fifth acquisition means for acquiring the user's medical history,
The health state estimation means further estimates the health state of the user based on the user's medical history acquired by the fifth acquisition means.
The information processing device according to claim 1 or 2.
JP2023103675A 2022-07-04 2023-06-23 Information processing device Pending JP2024007407A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022107868 2022-07-04
JP2022107868 2022-07-04

Publications (1)

Publication Number Publication Date
JP2024007407A true JP2024007407A (en) 2024-01-18

Family

ID=89543552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023103675A Pending JP2024007407A (en) 2022-07-04 2023-06-23 Information processing device

Country Status (1)

Country Link
JP (1) JP2024007407A (en)

Similar Documents

Publication Publication Date Title
CN109983505B (en) Character movement recording device, character movement recording method, and storage medium
CN110036402A (en) The data processing method of prediction for media content performance
JP4401079B2 (en) Subject behavior analysis
CN107809951B (en) Psychophysiological detection (lie detection) method and apparatus for distortion using video-based detection of physiological signals
WO2016129193A1 (en) Health management assist device and health management assist method
CN108778097A (en) Device and method for assessing heart failure
Kuru et al. Biomedical visual data analysis to build an intelligent diagnostic decision support system in medical genetics
WO2017139895A1 (en) System and method for detecting physiological state
WO2004091371A2 (en) Determining a psychological state of a subject
JP6679017B1 (en) Dementia risk presentation system and method
WO2014150684A1 (en) Artifact as a feature in neuro diagnostics
US20190357792A1 (en) Sensibility evaluation apparatus, sensibility evaluation method and method for configuring multi-axis sensibility model
Pampouchidou et al. Designing a framework for assisting depression severity assessment from facial image analysis
US20230052100A1 (en) Systems And Methods For Optical Evaluation Of Pupillary Psychosensory Responses
Daros et al. Identifying mental disorder from the faces of women with borderline personality disorder
US20210343389A1 (en) Systems and methods of pain treatment
WO2020139970A1 (en) Assessment of risk for major depressive disorder from human electroencephalography using machine learned model
KR20140041382A (en) Method for obtaining information about the psychophysiological state of a living being
WO2020190648A1 (en) Method and system for measuring pupillary light reflex with a mobile phone
Hasan et al. Pain level detection from facial image captured by smartphone
Minkin Vibraimage, Cybernetics and Emotions
JP6453060B2 (en) Health information management system and health information management method
JP2024007407A (en) Information processing device
JP7385514B2 (en) Biometric information management device, biometric information management method, biometric information management program, and storage medium
Mantri et al. Real time multimodal depression analysis