JP6821364B2 - Health management system and its programs - Google Patents
Health management system and its programs Download PDFInfo
- Publication number
- JP6821364B2 JP6821364B2 JP2016180742A JP2016180742A JP6821364B2 JP 6821364 B2 JP6821364 B2 JP 6821364B2 JP 2016180742 A JP2016180742 A JP 2016180742A JP 2016180742 A JP2016180742 A JP 2016180742A JP 6821364 B2 JP6821364 B2 JP 6821364B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- health
- image
- display
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000036541 health Effects 0.000 title claims description 188
- 201000010099 disease Diseases 0.000 claims description 43
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 43
- 230000006870 function Effects 0.000 claims description 22
- 238000003745 diagnosis Methods 0.000 claims description 19
- 238000009795 derivation Methods 0.000 claims description 15
- 238000010801 machine learning Methods 0.000 claims description 15
- 230000036772 blood pressure Effects 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 claims description 12
- 230000003190 augmentative effect Effects 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 6
- 238000002562 urinalysis Methods 0.000 claims description 6
- 210000005252 bulbus oculi Anatomy 0.000 claims description 5
- 238000007639 printing Methods 0.000 claims description 4
- 238000007726 management method Methods 0.000 description 32
- 238000012545 processing Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 210000002700 urine Anatomy 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- LEHOTFFKMJEONL-UHFFFAOYSA-N Uric Acid Chemical compound N1C(=O)NC(=O)C2=C1NC(=O)N2 LEHOTFFKMJEONL-UHFFFAOYSA-N 0.000 description 4
- TVWHNULVHGKJHS-UHFFFAOYSA-N Uric acid Natural products N1C(=O)NC(=O)C2NC(=O)NC21 TVWHNULVHGKJHS-UHFFFAOYSA-N 0.000 description 4
- 238000009535 clinical urine test Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 229940116269 uric acid Drugs 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000037396 body weight Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- BPYKTIZUTYGOLE-IFADSCNNSA-N Bilirubin Chemical compound N1C(=O)C(C)=C(C=C)\C1=C\C1=C(C)C(CCC(O)=O)=C(CC2=C(C(C)=C(\C=C/3C(=C(C=C)C(=O)N\3)C)N2)CCC(O)=O)N1 BPYKTIZUTYGOLE-IFADSCNNSA-N 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 230000008961 swelling Effects 0.000 description 2
- OBHRVMZSZIDDEK-UHFFFAOYSA-N urobilinogen Chemical compound CCC1=C(C)C(=O)NC1CC1=C(C)C(CCC(O)=O)=C(CC2=C(C(C)=C(CC3C(=C(CC)C(=O)N3)C)N2)CCC(O)=O)N1 OBHRVMZSZIDDEK-UHFFFAOYSA-N 0.000 description 2
- 210000003462 vein Anatomy 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 210000000577 adipose tissue Anatomy 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000001596 intra-abdominal fat Anatomy 0.000 description 1
- 150000002576 ketones Chemical class 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000013049 sediment Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000004622 sleep time Effects 0.000 description 1
Images
Description
この発明は、健康管理システム及びそのプログラムに関するものである。 The present invention relates to a health care system and its program.
従来、在宅での健康管理を日常の行動時に行うことを目的としたシステムが特許文献1に示されている。この特許文献1のシステムは、洗面化粧台にコンピュータと表示装置を備え、ユーザの健康状態を反映する身体部位の特性を洗面化粧台の空間やトイレ、浴室更に寝室などにおいて計測し、計測データを分析して上記表示装置に表示するようにしたものである。
Conventionally,
また、特許文献2には、トイレに尿検査装置や血流検査装置などを設けて計測を行い、医療機関において分析を行うシステムであって、特別に検査のための時間を要することなく生体情報管理を行うシステムが開示されている。
Further,
更に、特許文献3には、カメラと画像表示装置とを具備した携帯端末により、顔や舌の撮像を行って医師によることなく的確な健康状態の検査を行う装置が開示されている。
Further,
上記特許文献1〜3のいずれにおいても、住居において通常の生活している最中に自分を写し出した鏡内に健康病気情報が写し出されるものではなく、表示装置を別に備えるものであり、また、病気などのために自分の顔が将来どのようになるかについてイメージできず、必ずしも使い勝手が良いものではなかった。
In any of the above-mentioned
本発明は上記のような従来の健康管理システムが備える問題点に鑑みなされたもので、その目的は、住居において通常の生活している最中に自分を写し出した鏡内に医師の診断による健康病気情報が写し出され、自身の鏡像を見るときに自然に健康病気情報を得ることが可能な健康管理システムを提供することである。また、病気などのために自分の顔が将来どのようになるかについてイメージすることができ、使い勝手が良い健康管理システムを提供することである。 The present invention has been made in view of the problems provided by the conventional health management system as described above, and an object thereof is health based on a doctor's diagnosis in a mirror in which oneself is projected during a normal life in a residence. It is to provide a health management system in which illness information is projected and health illness information can be obtained naturally when looking at one's own mirror image. It is also to provide an easy-to-use health management system that allows you to imagine what your face will look like in the future due to illness.
本発明に係る健康管理システムは、顔を含む生体を外部から撮像して画像情報を取得するカメラと、前記生体から生体情報を得る生体情報センサと、前記生体の健康状態と病気とに関係するバイオメトリックス情報を取得可能に、前記画像情報と生体情報を表示及び/またはプリントアウトにより出力する出力手段と、前記出力手段により出力された前記画像情報と生体情報のバイオメトリックス情報に基づく医師の診断結果である健康病気情報を入力するための入力手段と、撮像された顔画像と入力された前記健康病気情報に基づき、前記健康病気情報に対応する拡張現実の予測顔画像を作成する顔画像作成手段と、
鏡面に画像を表示するための表示手段と、前記予測顔画像を表示する位置を指示する表示位置制御手段と前記鏡面に写し出される顔の鏡像と共に前記予測顔画像を前記表示位置制御手段の指示に基づき前記表示手段に表示する表示制御手段とを具備するを具備することを特徴とする。
The health management system according to the present invention is related to a camera that acquires image information by photographing a living body including a face from the outside, a biological information sensor that obtains biological information from the living body, and the health state and illness of the living body. An output means for displaying and / or printing out the image information and the biometric information so that the biometrics information can be acquired, and a doctor's diagnosis based on the biometric information of the image information and the biometric information output by the output means. Based on the input means for inputting the resulting health and illness information, the captured face image, and the input health and illness information, the face image creation that creates an augmented reality predicted face image corresponding to the health and illness information. Means and
A display means for displaying an image on a mirror surface, a display position control means for instructing a position for displaying the predicted face image, and a mirror image of the face projected on the mirror surface, and the predicted face image as an instruction of the display position control means. Based on the above, the display means is provided with a display control means for displaying.
本発明に係る健康管理システムでは、前記表示位置制御手段は、入力された前記健康病気情報を表示する位置を指示するものであり、前記表示制御手段は、診断結果の前記健康病気情報を前記表示位置制御手段の指示に基づき前記表示手段に表示することを特徴とする。 In the health management system according to the present invention, the display position control means indicates a position to display the input health / disease information, and the display control means displays the health / disease information of the diagnosis result. It is characterized in that it is displayed on the display means based on the instruction of the position control means.
本発明に係る健康管理システムでは、前記鏡面に写し出される顔の鏡像位置を検出する顔位置検出手段を備え、前記表示位置制御手段は、前記顔の鏡像位置との関係において前記予測顔画像及び/または前記健康病気情報を表示する位置を指示するものであり、前記表示制御手段は、前記表示位置制御手段の指示に基づき、前記予測顔画像を顔の鏡像位置に対応付けて表示することを特徴とする。 The health management system according to the present invention includes a face position detecting means for detecting a mirror image position of a face projected on the mirror surface, and the display position controlling means has the predicted face image and / / in relation to the mirror image position of the face. Alternatively, the position for displaying the health and illness information is instructed, and the display control means displays the predicted face image in association with the mirror image position of the face based on the instruction of the display position control means. And.
本発明に係る健康管理システムでは、前記表示位置制御手段は、前記予測顔画像を顔の鏡像位置に重ねて表示する制御を行うことを特徴とする。 The health management system according to the present invention is characterized in that the display position control means controls to superimpose and display the predicted face image on the mirror image position of the face.
本発明に係る健康管理システムでは、生体情報センサは、尿検査装置、血圧心拍センサ、体重体組織計の少なくとも1つであることを特徴とする。 In the health management system according to the present invention, the biometric information sensor is at least one of a urinalysis device, a blood pressure heart rate sensor, and a body composition analyzer.
本発明に係る健康管理システムでは、前記カメラにより撮像された画像情報を用いて健康状態と病気とに関係するバイオメトリックス情報を取得するバイオメトリックス情報取得手段と、取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出する健康病気情報導出手段と、を更に具備し、前記健康病気情報導出手段により導出された健康病気情報を前記出力手段から出力することを特徴とする。 In the health management system according to the present invention, a biometrics information acquisition means for acquiring biometrics information related to a health condition and a disease using image information captured by the camera, and machine learning based on the acquired biometrics information. It is further provided with a health disease information derivation means for deriving health disease information by using a technique, and is characterized in that the health disease information derived by the health disease information derivation means is output from the output means.
本発明に係る健康管理システムでは、前記バイオメトリックス情報取得手段は、皮膚色、皮膚状態、唇色、眼球色の少なくとも1つを取得することを特徴とする。 In the health management system according to the present invention, the biometrics information acquisition means acquires at least one of skin color, skin condition, lip color, and eyeball color.
本発明に係る健康管理システムのプログラムは、顔を含む生体を外部から撮像して画像情報を取得するカメラと、前記生体から生体情報を得る生体情報センサと、前記生体の健康状態と病気とに関係するバイオメトリックス情報を取得可能に、前記画像情報と生体情報を表示及び/またはプリントアウトにより出力する出力手段と、前記出力手段により出力された前記画像情報と生体情報のバイオメトリックス情報に基づく医師の診断結果である健康病気情報を入力するための入力手段と、鏡面を有し、この鏡面に画像を表示するための表示手段を有し、この表示手段に対し、健康管理に関する表示を行う健康管理システムのコンピュータを、撮像された顔画像と入力された前記健康病気情報に基づき、前記健康病気情報に対応する拡張現実の予測顔画像を作成する顔画像作成手段、前記予測顔画像を表示する位置を指示する表示位置制御手段、前記鏡面に写し出される顔の鏡像と共に前記予測顔画像を前記表示位置制御手段の指示に基づき前記表示手段に表示する表示制御手段として機能させることを特徴とする。 The program of the health management system according to the present invention includes a camera that captures an image of a living body including a face from the outside and acquires image information, a biological information sensor that obtains biological information from the living body, and the health condition and illness of the living body. An output means for displaying and / or printing out the image information and the biometric information so that the related biometrics information can be acquired, and a doctor based on the biometrics information of the image information and the biometric information output by the output means. It has an input means for inputting health and illness information which is the diagnosis result of the above, and a display means for displaying an image on the mirror surface, and the display means for displaying health management is performed. The computer of the management system displays the predicted face image, which is a face image creating means for creating an augmented reality predicted face image corresponding to the health and illness information based on the captured face image and the input health and illness information. It is characterized in that it functions as a display position control means for instructing a position and a display control means for displaying the predicted face image on the display means based on an instruction of the display position control means together with a mirror image of a face projected on the mirror surface.
本発明に係る健康管理システムのプログラムでは、前記表示位置制御手段を更に、入力された前記健康病気情報を表示する位置を指示するように機能させ、前記表示制御手段を更に、診断結果の前記健康病気情報を前記表示位置制御手段の指示に基づき前記表示手段に表示するように機能させることを特徴とする。 In the program of the health management system according to the present invention, the display position control means is further made to function to indicate the position where the input health / illness information is displayed, and the display control means is further made to indicate the health of the diagnosis result. It is characterized in that the disease information is made to function to be displayed on the display means based on the instruction of the display position control means.
本発明に係る健康管理システムのプログラムでは、コンピュータを更に、前記鏡面に写し出される顔の鏡像位置を検出する顔位置検出手段として機能させ、前記表示位置制御手段を更に、前記顔の鏡像位置との関係において前記予測顔画像及び/または前記健康病気情報を表示する位置を指示するように機能させ、前記表示制御手段を更に、前記表示位置制御手段の指示に基づき、前記予測顔画像を顔の鏡像位置に対応付けて表示するように機能させることを特徴とする。 In the program of the health management system according to the present invention, the computer is further functioned as a face position detecting means for detecting the mirror image position of the face projected on the mirror surface, and the display position controlling means is further referred to as the mirror image position of the face. In relation to this, the predicted face image and / or the position for displaying the health / illness information is made to be instructed, and the display control means is further subjected to a mirror image of the predicted face image based on the instruction of the display position control means. It is characterized in that it functions to be displayed in association with a position.
本発明に係る健康管理システムのプログラムでは、前記表示位置制御手段を更に、前記予測顔画像を顔の鏡像位置に重ねて表示するように機能させることを特徴とする。 The program of the health management system according to the present invention is characterized in that the display position control means is further made to function so as to superimpose the predicted face image on the mirror image position of the face.
本発明に係る健康管理システムのプログラムでは、前記生体情報センサは、尿検査装置、血圧心拍センサ、体重体組織計の少なくとも1つであることを特徴とする。 In the program of the health management system according to the present invention, the biometric information sensor is at least one of a urinalysis device, a blood pressure heart rate sensor, and a body composition analyzer.
本発明に係る健康管理システムのプログラムでは、前記コンピュータを更に、前記カメラにより撮像された画像情報を用いて健康状態と病気とに関係するバイオメトリックス情報を取得するバイオメトリックス情報取得手段、取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出する健康病気情報導出手段、として機能させ、前記健康病気情報導出手段により導出された健康病気情報を前記出力手段から出力することを特徴とする。 In the program of the health management system according to the present invention, the computer is further subjected to a biometrics information acquisition means for acquiring biometrics information related to a health condition and a disease by using image information captured by the camera, and the acquired biotechnology. It is characterized by functioning as a health disease information derivation means for deriving health disease information using machine learning technology based on metrics information, and outputting the health disease information derived by the health disease information derivation means from the output means. To do.
本発明に係る健康管理システムのプログラムでは、前記バイオメトリックス情報取得手段を更に、皮膚色、皮膚状態、唇色、眼球色の少なくとも1つを取得するように機能させることを特徴とする。 The program of the health management system according to the present invention is characterized in that the biometrics information acquisition means is further made to function to acquire at least one of skin color, skin condition, lip color, and eyeball color.
本発明では、住居において通常の生活している最中に自分を写し出した鏡内に健康病気情報が写し出され、自身の鏡像を見るときに自然に健康病気情報を得ることができ、便利である。 In the present invention, health and illness information is projected in a mirror that reflects oneself during a normal life in a house, and health and illness information can be naturally obtained when looking at one's own mirror image, which is convenient. ..
本発明では、であり、病気などのために自分の顔が将来どのようになるかについてイメージすることができ、使い勝手良く、直観的に健康状態を知ることができる。 In the present invention, it is possible to imagine what one's face will look like in the future due to illness or the like, and it is easy to use and intuitively knows the health condition.
以下添付図面を参照して、本発明に係る健康管理システム及びそのプログラムの実施形態を説明する。各図において、同一の構成要素には同一の符号を付して重複する説明を省略する。図1に、本発明に係る健康管理システムにおける第1の実施形態のブロック図を示す。この実施形態においては、利用者宅100にローカルコンピュータ10が備えられ、センタ500にセンタサーバ50が備えられ、病院や医院などの医療機関700に医師用のコンピュータ70が備えられている。ローカルコンピュータ10はローカル通信装置40に接続され、センタサーバ50はセンタ通信装置60に接続され、医師用のコンピュータ70は通信装置90に接続されている。ローカル通信装置40とセンタ通信装置60及び通信装置90はネットワーク600を介して接続されている。これにより、ローカルコンピュータ10とセンタサーバ50は、相互に情報の送受信が可能に構成され、医師用のコンピュータ70とセンタサーバ50は、相互に情報の送受信が可能に構成されている。なお、本実施形態では、利用者宅100と医療機関700をそれぞれ1つ示しているが、利用者宅100は通常は複数であり、医療機関700も複数であっても良く、複数のローカルコンピュータ10や医師用のコンピュータ70が1つ以上のセンタサーバ50に接続される構成である。
Hereinafter, embodiments of the health management system and its program according to the present invention will be described with reference to the accompanying drawings. In each figure, the same components are designated by the same reference numerals and duplicate description will be omitted. FIG. 1 shows a block diagram of a first embodiment in the health management system according to the present invention. In this embodiment, the user's
ローカルコンピュータ10には、表示制御部21が接続されている。表示制御部21は、鏡面22を有する表示装置23に対し、ローカルコンピュータ10から送られる画像信号に基づき画像を表示する表示手段として機能する。表示装置23は、鏡面22の表面から目視したときに表示装置23の画面に映しだされた画像を見ることができる。また、鏡面22は、その前方側から入射した光を反射して鏡像を結ぶ鏡として機能するので、この鏡像を利用者Aが見ることができ、従って、鏡面22を利用者Aが見ることによって表示制御部21によって表示装置23の画面に表示された画像及び鏡面22によって反射されて結像した利用者Aの鏡像を見ることができる。
A
鏡面22の例えば上部中央には、カメラ24が設けられており、鏡面22の前方を撮像することができれる。カメラ24は、例えば、人感センサを備えており、前方に人が到来すると人感センサにより電源がオンとされ自動的に撮像を開始し、撮像により得られた画像信号はローカルコンピュータ10へ送られる。
A
鏡面22の表面にはタッチパネル25が設けられており、タッチパネル25を操作したときに座標情報がローカルコンピュータ10の座標検出手段15によって検出される。ローカルコンピュータ10には、更に、メニュー表示対応処理手段16が備えられ、所要の場合にメニュー画像を表示制御部21へ送ってメニューを表示させる。また、タッチパネル25を操作してメニューが選択されると、メニュー表示対応処理手段16は、選択されたメニューの処理を実行する。例えば、メニュー表示対応処理手段16は、後述する健康病気情報の表示切換などを行う。
A touch panel 25 is provided on the surface of the
本実施形態では、利用者宅100には、必要に応じて生体情報センサ30が設けられる。生体情報センサ30は、例えば人感センサにより人を検出すると電源オンとなって自動的に測定を行い、測定により得られた生体情報は、ローカルコンピュータ10へ送られる。生体情報センサ30としては、尿検査装置31、血圧心拍センサ32、体重体組織計33が設けられていても良い。尿検査装置31は、トイレに設けられ、自動的に検査を行い、結果をローカルコンピュータ10へ送る。尿検査装置31の検査項目としては、尿タンパク、尿糖、尿ウロビリノーゲン、尿ビリルビン、尿pH、尿潜血反応、尿中ケトン体、尿沈渣のいずれか1以上を採用することができる。
In the present embodiment, the user's
血圧心拍センサ32は、鏡面22と表示装置23の前方に設置しておくことができる。血圧心拍センサ32の検査項目は、血圧と脈拍数とすることができるが、これ以外にも、心電図を計測可能なセンサとしても良い。体重体組織計33についても、鏡面22と表示装置23の前方に設置しておくことができる。体重体組織計33の検査項目(パラメータ)は、体重、体脂肪率、内臓脂肪レベル、ボディマス指数(BMI)などとすることができる。
The blood pressure
生体情報センサ30としては、上記のセンサ以外に、体温を測定する電子体温計、歩数、消費カロリー及び睡眠時間を計測する活動量計などを採用しても良い。電子体温計や活動量計は、利用者の身体に付着させて、得られた情報は無線通信によりローカルコンピュータ10へ送る構成とすることができる。
As the
上記のカメラ24により得られた画像情報や生体情報センサ30により得られた生体情報は、ローカル通信装置40、ネットワーク600、センタ通信装置60を介してセンタザーバ50へ送られる。
The image information obtained by the
利用者宅100において、複数の利用者が本システムを利用する場合には、カメラ24、尿検査装置31、血圧心拍センサ32、体重体組織計33からの信号や情報については、例えば、ローカルコンピュータ10に、手のひらの静脈認証や顔認証などバイオメトリックス認証プログラムを備え、上記各センサに対応して静脈認証や顔認証に必要なカメラなどのセンサを備えるように構成することができる。また、電子体温計や活動量計は、ローカルコンピュータ10に信号などを送る場合に、個人の識別情報を付加して送るように構成することができる。
When a plurality of users use this system in the user's
センタサーバ50には、コンピュータ部51と大容量の記憶部52とが備えられている。コンピュータ部51は、プログラムに基づき所要の処理を行うコンピュータの構成であり、データ蓄積送信制御手段71、顔画像作成手段74を備える。
The
データ蓄積送信制御手段71は、ローカルコンピュータ10から送られたカメラ24により得られた画像情報や生体情報センサ30により得られた生体情報を利用者毎に分けて記憶部52へ記憶する。また、データ蓄積制御手段71は、記憶部52へ記憶した画像情報や生体情報を利用者に対応する医療機関700のコンピュータ70へ送信する。
The data storage / transmission control means 71 stores the image information obtained by the
コンピュータ70は、CPU81と、CPU81に接続されたLEDなどのディスプレイ装置及び/またはプリンタなどにより構成される出力手段82と、CPU81に接続されたキーボードやマウスなどの情報入力が可能な入力手段83とを備えている。
The
CPU81は、上述のようにセンタサーバ50から送られた画像情報や生体情報を受け取り、出力手段82へ送り出力する。医師は、出力手段82によって出力された画像情報や生体情報を目視し、健康状態と病気とに関係するバイオメトリックス情報による診断を行い、健康病気情報を導き出す。
The
健康病気情報は、「○○病(症)の予兆」が「極めて僅かにあり」、「あり」、「高い」などとすることができる。また、「このままの生活ですと、○○病(症)となる可能性がある」などの警告情報であっても良い。これらの情報は医師が入力手段83によって入力することができる。また、血圧や尿酸値やBM1などのパラメータが正常値に比べて単に高いことを示す情報であっても良く、この情報は医師がコンピュータ70の該当プログラムを起動して情報を作成することができる。更に、健康病気情報は、生体情報センサ30により得られた幾つかの生体情報を経時的に並べて作成したグラフとすることもでき、このグラフも医師がコンピュータ70の該当プログラムを起動して作成するようにしても良い。医師によって入力或いは得られた健康病気情報は、該当のセンタサーバ50へ送られる。
As for health disease information, "predictive signs of XX disease (disease)" can be "extremely slight", "presence", "high", and the like. In addition, it may be warning information such as "If you live as it is, you may get XX disease (disease)". This information can be input by the doctor by the input means 83. Further, it may be information indicating that parameters such as blood pressure, uric acid level, and BM1 are simply higher than normal values, and this information can be created by a doctor by activating the corresponding program of the
前述の通り、センタサーバ50のコンピュータ部51には、顔画像作成手段74が備えられている。この顔画像作成手段74は、撮像された顔画像と上記医師が入力した健康病気情報に基づき、上記健康病気情報に対応する拡張現実の予測顔画像を作成するものである。顔画像作成手段74による予測顔画像を作成のために、記憶部52には、予測顔画像作成用パラメータ530が備えられている。
As described above, the computer unit 51 of the
予測顔画像作成用パラメータ530は、例えば、病名のレベルに対応して顔色が対応付けられているテーブルである。病名のレベルとは、「○○病(症)の予兆」が「極めて僅かにあり」、「あり」、「高い」などの場合、「極めて僅かにあり」をレベル1、「あり」をレベル2、「高い」をレベル3とし、それぞれに色が対応付けられる。この色は、色相、明度、彩度により例えばLCh表色系により数値化されたもので、この数値に基づき例えばRGBの画像信号に変換することができるものである。また、予測顔画像作成用パラメータ530は、顔を図2に示すように、上部、中部、下部に分けて、腫れ具合を当初(健常状態)からの肉厚で表したものとすることができる。このように構成された予測顔画像作成用パラメータ530のテーブルの一例を図3に示す。勿論、レベルの段階を多くし、顔の部位の区分数を多くすることにより、より細緻なシミュレーション画像を作成するようにしても良い。
The prediction face
予測顔画像作成用パラメータ530を用いて顔画像作成手段74によって作成された予測顔画像及び上記健康病気情報は、該当のローカルコンピュータ10へ送られる。上記においては、顔全体の色をレベルによって変更することを示したが、顔を図2の如く領域分けして、各領域の色を変更しても良い。
The predicted face image and the health / illness information created by the face image creating means 74 using the predicted face
ローカルコンピュータ10には、センタサーバ50から健康病気情報が送られた場合に、これを受け取り、更に、表示制御部21に送出する。表示制御部21は健康病気情報を表示装置23に表示する。
When health and illness information is sent from the
ローカルコンピュータ10には、上記予測顔画像を表示する位置を指示する表示位置制御手段11と、顔位置検出手段12が備えられている。顔位置検出手段12は、鏡面22に写し出される顔の鏡像位置を検出するものである。具体的には、カメラ24により鏡面22の前方を撮像しており、利用者Aの顔が撮像されて顔の画像を得ることができるので、この顔の画像を用いる。例えば、カメラ24により撮像した画像の画面と鏡面22の大きさを一致させて、顔の画像の中心を顔位置の座標とする。表示位置制御手段11は、予測顔画像を表示する位置を指示し、更に、導出された前記健康病気情報を表示する位置を指示する。表示位置制御手段11は、前記顔の鏡像位置との関係において前記予測顔画像及び/または前記健康病気情報を表示する位置を指示するものである。
The
上記のようにして得られた顔位置の座標から、表示位置制御手段11の制御により、例えば、右真横に健康病気情報及び/または予測顔画像を表示することができる。顔位置の座標から右真横方向における画像装置23の画面の縁までの距離が健康病気情報及び/または予測顔画像が入らない距離となると、左側に、更に必要であれば、上下のいずれかに予測顔画像を移動させて表示するように制御する。顔位置の座標と予測顔画像の中心とを一致させて、予測顔画像を顔の鏡像位置に重ねて表示するようにしても良い。
From the coordinates of the face position obtained as described above, the health / illness information and / or the predicted face image can be displayed right beside, for example, by the control of the display position control means 11. When the distance from the coordinates of the face position to the edge of the screen of the
また、表示位置制御手段11の制御により、健康病気情報を画像装置23の画面の所定位置に表示しても良く、上記予測顔画像の位置の近傍に健康病気情報を表示しても良いし、上記予測顔画像の位置と左右対称の位置など、所定の関係の位置に健康病気情報を表示しても良い。
Further, under the control of the display position control means 11, the health / illness information may be displayed at a predetermined position on the screen of the
以上の通りに構成されたシステムは、図4に示すフローチャートのように動作を行う。電源が投入され、生体情報センサ30は、自動的に生体情報の測定を行い、測定により得られた生体情報を、ローカルコンピュータ10へ送る(S11)。また、電源が投入され、カメラ24が自動的に撮像を開始し、撮像により得た画像信号をローカルコンピュータ10へ送る(S12)。
The system configured as described above operates as shown in the flowchart shown in FIG. When the power is turned on, the
上記ステップS11、S12においてローカルコンピュータ10が受け取った生体情報と画像情報は、ローカルコンピュータ10からセンタサーバ50へ送信される(S13)。この場合に、生体情報と画像情報を暗号化して送信するようにして良い。
The biological information and image information received by the
センタサーバ50は送信されてきた生体情報と画像情報を受け取り、暗号化されているときには復号し、生体情報と画像情報を記憶部52へ記憶する(S14)。複数の利用者が本システムを利用する場合には、送受信の単位及び記憶の単位は利用者毎に行われることは言うまでもない。
The
上記のようにして到来し記憶した生体情報と画像情報(顔を含む生体を外部から撮像した画像情報)を医師用のコンピュータ70へ送り、コンピュータ70の出力手段82から出力する(S15)。出力された生体情報と画像情報に基づき医師が診断を行って健康病気情報を得て、この健康病気情報を入力手段82を用いて入力することにより、センタサーバ50へ送信する(S16)。
The biological information and image information (image information obtained by photographing the living body including the face from the outside) that arrived and are stored as described above are sent to the
撮像された顔画像と上記ステップS16において送られた医師の診断結果である健康病気情報に基づき、上記健康病気情報に対応する拡張現実の予測顔画像を作成し、ローカルコンピュータ10へ送信する(S17)。 Based on the captured face image and the health and illness information that is the diagnosis result of the doctor sent in step S16, an augmented reality predicted face image corresponding to the health and illness information is created and transmitted to the local computer 10 (S17). ).
ローカルコンピュータ10では、到来する予測顔画像と健康病気情報を表示する位置、つまり、表示装置23の画面上の予測顔画像と健康病気情報を表示すべき表示位置情報(座標)を作成している(S18)。表示位置は、予め備えたものであっても良い。予測顔画像と健康病気情報が到来すると、ローカルコンピュータ10は、上記予測顔画像と健康病気情報を表示位置情報と共に表示制御部21へ送出し、予測顔画像と健康病気情報を表示装置23の画面上に表示する(S19)。
The
図5に、上記のようにして表示装置23の画面上に表示された予測顔画像と健康病気情報の一例を示す。101は、鏡面22によって映し出された利用者Aの顔の鏡像である。この鏡像101から所定位置には、予測顔画像102が表示される。
FIG. 5 shows an example of the predicted face image and health / illness information displayed on the screen of the
また、健康病気情報として、幾つかの生体情報を経時的に並べて作成したグラフ103が画面の左側に表示されている。このグラフ103は、体重(Kg)、BMI、尿酸値(mg/dL)の経時変化をグラフ化したものである。
Further, as health and illness information, a
また、予測顔画像102の右側には、「糖尿病の兆候有り」という健康病気情報104と、パラメータであるBM1と尿酸値が正常値に比べて単に高いことを示す健康病気情報105、106が表示されている。
Further, on the right side of the predicted
本実施形態では、顔位置検出手段12を備え、表示位置制御手段11が、顔の鏡像位置との関係において予測顔画像及び/または健康病気情報を表示する位置を指示する。従って、利用者Aが図5に示す顔の鏡像101の位置から移動し、顔の鏡像101が図6に示す位置に表示されたものとする。
In the present embodiment, the face position detecting means 12 is provided, and the display position controlling means 11 indicates a position for displaying the predicted face image and / or health / disease information in relation to the mirror image position of the face. Therefore, it is assumed that the user A moves from the position of the
すると、顔位置検出手段12が検出する顔の位置(座標)が変更され、顔の位置(座標)が変更を受けて、表示位置制御手段11は、顔の鏡像位置(図6の101)との関係において予測顔画像102及び/または健康病気情報(グラフ103)を表示する位置を指示する。
Then, the position (coordinates) of the face detected by the face position detecting means 12 is changed, the position (coordinates) of the face is changed, and the display position controlling means 11 is set to the mirror image position (101 in FIG. 6) of the face. In this relationship, the position where the predicted
即ち、表示位置制御手段11は、カメラ24により得た画像により、現在(図6の表示路)の顔の位置と大きさを検出でき、図5に示した大きさの予測顔画像102を顔の鏡像101に追従させたときに、重なる健康病気情報がグラフ103であることを検出する。このため、予測顔画像102を顔の鏡像101に追従させる指示と共にグラフ103を他の画像に重ならない位置へ移動して表示する指示を表示制御部20へ送出する。この結果、図6に示すように表示装置23の画面の表示が切り換えられる。
That is, the display position control means 11 can detect the position and size of the current face (display path in FIG. 6) from the image obtained by the
図7には、表示装置23の画面上に表示された予測顔画像と健康病気情報の別の表示例を示す。この表示例は、予測顔画像102を顔の鏡像101に全面的に重ねて表示した例である。ここでは、例えば、利用者に病気の兆候が見られないために、顔の鏡像101の大きさと予測顔画像102の大きさがほぼ等しく、1つの画像として見えている。パラメータについて、正常値に比べて単に高いことを示す健康病気情報108、109が表示されている。
FIG. 7 shows another display example of the predicted face image displayed on the screen of the
この図7に示すような表示がなされているときに、利用者Aが移動して顔の鏡像101の位置が移動したときには、図6において説明した通り、予測顔画像102が顔の鏡像101に追従して移動されて表示される。
When the user A moves and the position of the
更に、図7の例では、「メニュー表示」指示キー110が画面の右下に表示されている。この「メニュー表示」指示キー110部分のタッチパネル25を操作すると、メニューが表示される。メニューとしては、グラフ103の内容の切換えや、正常値に比べて単に高いことを示す健康病気情報のパラメータの切換え、更には、予測顔画像102の表示中止などとすることができる。メニュー表示対応処理手段16は、これに応じて、グラフ103の内容以外のグラフをセンタサーバ50へ要求し、送られてくるとこれが表示されるように制御を行う。また、表示中の正常値に比べて単に高いことを示す健康病気情報以外の健康病気情報をセンタサーバ50へ要求し、送られてくるとこれが表示されるように制御を行う。
Further, in the example of FIG. 7, the "menu display"
また、メニューとしては、予測顔画像102と顔の鏡像101との重ね具合や距離をメニュー化して表示しても良い。更には、予測顔画像102及び/または健康病気情報の表示位置をメニューとして表示しても良い。
Further, as a menu, the degree of overlap and the distance between the predicted
なお、本実施形態では、タッチパネル25を入力手段としたが、鏡面22にマイクロフォンを設け、音声入力し、ローカルコンピュータ10に音声認識機能を備えさせて、認識結果をメニュー表示対応処理手段16と同様の機能を行う手段へ与えることで、処理を行うようにしても良い。また、利用者Aの手によるジャスチャーやボディーアクションをカメラ24により撮像し入力手段とし、ローカルコンピュータ10に映像認識機能を備えさせ、認識結果をメニュー表示対応処理手段16と同様の機能を行う手段へ与えることで、処理を行っても良い。
In the present embodiment, the touch panel 25 is used as the input means, but a microphone is provided on the
顔を含む生体を外部から撮像した画像情報を用いて健康状態と病気とに関係するバイオメトリックス情報を取得し、取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出し、撮像された顔画像と上記健康病気情報に基づき、健康病気情報に対応する拡張現実の予測顔画像を作成して、鏡面に写し出される顔の鏡像と共に予測顔画像を表示するので、直観的に健康状態を知ることができる。 Biometrics information related to health condition and illness is acquired using image information obtained by imaging the living body including the face from the outside, and based on the acquired biometrics information, health illness information is derived using machine learning technology and imaged. Based on the obtained face image and the above health and illness information, an augmented reality predicted face image corresponding to the health and illness information is created, and the predicted face image is displayed together with the mirror image of the face projected on the mirror surface. Can be known.
次に、第2の実施形態を説明する。第2の実施形態に係るシステムは、図8に示されるように構成される。即ち、センタサーバのコンピュータ部51には、第1の実施形態において備えられたデータ蓄積制御手段71と顔画像作成手段74以外に、バイオメトリックス情報取得手段72、健康病気情報導出手段73が備えられる。 Next, the second embodiment will be described. The system according to the second embodiment is configured as shown in FIG. That is, the computer unit 51 of the center server is provided with the biometrics information acquisition means 72 and the health / disease information derivation means 73 in addition to the data storage control means 71 and the face image creation means 74 provided in the first embodiment. ..
バイオメトリックス情報取得手段72は、顔を含む生体を外部から撮像した画像情報を用いて健康状態と病気とに関係するバイオメトリックス情報を取得するものである。本実施形態では、顔の皮膚色、唇色、眼球色をバイオメトリックス情報として取得(抽出)する。その他、顔の面積(変化)、首や手足の太さや色(変化)などをバイオメトリックス情報として取得しても良い。顔、唇、その他の生体部位の色は、幾つかのポイントの色を求めても良く、また、幾つかのポイントの平均を求めても良い。 The biometrics information acquisition means 72 acquires biometrics information related to a health condition and a disease by using image information obtained by photographing a living body including a face from the outside. In this embodiment, the skin color, lip color, and eyeball color of the face are acquired (extracted) as biometrics information. In addition, the area of the face (change), the thickness and color of the neck and limbs (change), and the like may be acquired as biometrics information. For the color of the face, lips, and other biological parts, the color of some points may be obtained, or the average of some points may be obtained.
健康病気情報導出手段73は、上記バイオメトリックス情報取得手段72が取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出する。この健康病気情報導出手段73は、記憶部52に記憶されている機械学習技術アルゴリズム520を用いて健康病気情報を導出する。機械学習技術アルゴリズム520は、生体部位の色と健康病気情報とが対応付けられた対応付データを備えている。上記のようにして求めた生体部位の色に基づき対応付データを検索して健康病気情報を導出することができる。機械学習技術アルゴリズム520としては、ランダムフォレストやザポートベクタマシンを採用することができる。
The health / disease information derivation means 73 derives health / disease information using machine learning technology based on the biometrics information acquired by the biometrics information acquisition means 72. The health / disease information derivation means 73 derives health / disease information using the machine
健康病気情報導出手段73によって得られる健康病気情報は、「○○病(症)の予兆」が「極めて僅かにあり」、「あり」、「高い」などとすることができる。また、「このままの生活ですと、○○病(症)となる可能性がある」などの警告情報であっても良い。また、血圧や尿酸値やBM1などのパラメータが正常値に比べて単に高いことを示す情報であっても良い。更に、健康病気情報は、生体情報センサ30により得られた幾つかの生体情報を経時的に並べて作成したグラフとすることもできる。健康病気情報導出手段73によって得られる健康病気情報は、カメラにより撮像された画像情報や生体情報と共に、該当の医師用のコンピュータ70へ送られる。
The health illness information obtained by the health illness information derivation means 73 can have "very slight signs of XX disease (disease)", "presence", "high", and the like. In addition, it may be warning information such as "If you live as it is, you may get XX disease (disease)". Further, it may be information indicating that parameters such as blood pressure, uric acid level, and BM1 are simply higher than normal values. Further, the health / illness information can be a graph created by arranging some biological information obtained by the
コンピュータ70のCPU81は、上述のようにセンタサーバ50から送られた画像情報や生体情報及び健康病気情報を受け取り、出力手段82へ送り出力する。医師は、出力手段82によって出力された画像情報や生体情報及び機械学習技術アルゴリズム520による健康病気情報を目視し、これらに基づき健康状態と病気とに関係するバイオメトリックス情報による診断を行い、医師としての診断結果である健康病気情報を導き出す。医師としての診断結果である健康病気情報は、入力手段83から医師によって入力される。入力された医師としての診断結果である健康病気情報は、センタサーバ50のコンピュータ部51へ送られる。
The
コンピュータ部51では、顔画像作成手段74が、撮像された顔画像と上記によりコンピュータ70から送られた医師としての診断結果である健康病気情報に基づき、この健康病気情報に対応する拡張現実の予測顔画像を作成するものである。これ以降の処理は第1の実施形態と同様である。
In the computer unit 51, the face image creating means 74 predicts augmented reality corresponding to the health and illness information based on the captured face image and the health and illness information which is the diagnosis result as a doctor sent from the
以上の通りに構成された第2の実施形態に係るシステムは、図9に示すフローチャートのように動作を行う。ステップS11からステップS14までは第1の実施形態と同じ処理が行われる。上記のようにして到来し記憶部52へ記憶した生体情報と画像情報(顔を含む生体を外部から撮像した画像情報)を用いてコンピュータ部51(のバイオメトリックス情報取得手段72)は、健康状態と病気とに関係するバイオメトリックス情報を取得する(S21)。 The system according to the second embodiment configured as described above operates as shown in the flowchart shown in FIG. From step S11 to step S14, the same processing as in the first embodiment is performed. The computer unit 51 (biometrics information acquisition means 72) is in a healthy state by using the biological information and the image information (image information obtained by photographing the living body including the face from the outside) that arrived in the storage unit 52 as described above. And the biometrics information related to the disease is acquired (S21).
更に、コンピュータ部51は、上記で取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出すると共に、この健康病気情報を生体情報や画像情報(顔を含む生体を外部から撮像した画像情報)と共に医師用のコンピュータ70へ送信して、コンピュータ70の出力手段82から出力する(S22)。出力された生体情報と画像情報に基づき、また機械学習による健康病気情報を参照して医師が診断を行って健康病気情報を得て、この健康病気情報を入力手段82を用いて入力することにより、センタサーバ50へ送信する(S23)。これ以降は、第1の実施形態のステップS17〜S19の処理が行われる。
Further, the computer unit 51 derives health and illness information by using machine learning technology based on the biometrics information acquired above, and captures the health and illness information as biological information and image information (a living body including a face is imaged from the outside). It is transmitted to the
この第2の実施形態によって表示装置23の画面上に表示される予測顔画像と健康病気情報の表示例は、第1の実施形態と同様に図5、図6、図7に示す通りである。本実施形態によれば、機械学習による健康病気情報が医師に示されるので、医師はこれを参照しながら医師としての診断を加えて健康病気情報を作成することができ、より正確な健康病気情報を得ることが期待できる。
The display example of the predicted face image and the health / illness information displayed on the screen of the
なお、本実施形態において、健康病気情報導出手段73に学習機能を持たせて、医師としての診断による健康病気情報に基づき機械学習技術アルゴリズム520を変更するようにしても良い。このように構成することによって、健康病気情報導出手段73による健康病気情報導出の精度を高めることができる、また、本実施形態では、予測顔画像を直接にローカルコンピュータ10へ送信したが、作成された予測顔画像を最初に医師用のコンピュータ70に送り出力し、医師による確認を受けて、医師の許可を受けた予測顔画像のみをローカルコンピュータ10へ送信するようにしても良い。また、医師による確認を受けるばかりでなく、医師用のコンピュータ70に予測顔画像に対し変更を加えるプログラムを備えさせ、顔色や顔の腫れ具合を変更し、変更後の予測顔画像をローカルコンピュータ10へ送信するようにしても良い。また、医師用のコンピュータ70により予測顔画像に対し変更を加えた結果を、顔画像作成手段74にフィードバックして予測顔画像作成用パラメータ530などを変更するようにしても良い。
In the present embodiment, the health / illness information deriving means 73 may be provided with a learning function, and the machine
10 ローカルコンピュータ
11 表示位置制御手段
12 顔位置検出手段
15 座標検出手段
16 メニュー表示対応処理手段
21 表示制御部
22 鏡面
23 表示装置
24 カメラ
25 タッチパネル
30 生体情報センサ
31 尿検査装置
32 血圧心拍センサ
33 体重体組織計
40 ローカル通信装置
50 センタサーバ
51 コンピュータ部
52 記憶部
60 センタ通信装置
71 データ蓄積制御手段
72 バイオメトリックス情報取得手段
73 健康病気情報導出手段
74 顔画像作成手段
81 CPU
82 出力手段
83 入力手段
90 通信装置
100 利用者宅
101 鏡像
102 予測顔画像
103 グラフ
104、105、108、109 健康病気情報
110 指示キー
500 センタ
520 機械学習技術アルゴリズム
530 予測顔画像作成用パラメータ
600 ネットワーク
700 医療機関
10 Local computer 11 Display position control means 12 Face position detection means 15 Coordinate detection means 16 Menu display support processing means 21
82 Output means 83 Input means 90
Claims (14)
前記生体から生体情報を得る生体情報センサと、
前記生体の健康状態と病気とに関係するバイオメトリックス情報を取得可能に、前記画像情報と生体情報を表示及び/またはプリントアウトにより出力する出力手段と、
前記出力手段により出力された前記画像情報と生体情報のバイオメトリックス情報に基づく医師の診断結果である健康病気情報を入力するための入力手段と、
撮像された顔画像と入力された前記健康病気情報に基づき、前記健康病気情報に対応する拡張現実の予測顔画像を作成する顔画像作成手段と、
鏡面に画像を表示するための表示手段と、
前記予測顔画像を表示する位置を指示する表示位置制御手段と
前記鏡面に写し出される顔の鏡像と共に前記予測顔画像を前記表示位置制御手段の指示に基づき前記表示手段に表示する表示制御手段と
を具備することを特徴とする健康管理システム。 A camera that captures the living body including the face from the outside and acquires image information,
A biological information sensor that obtains biological information from the living body,
An output means for displaying and / or printing out the image information and the biological information so that biometrics information related to the health condition and the disease of the living body can be acquired.
An input means for inputting health and illness information which is a diagnosis result of a doctor based on the biometric information of the image information and biological information output by the output means, and
A face image creating means for creating an augmented reality predicted face image corresponding to the health and illness information based on the captured face image and the input health and illness information.
Display means for displaying images on a mirror surface,
A display position control means for instructing a position to display the predicted face image and a display control means for displaying the predicted face image on the display means based on the instruction of the display position control means together with a mirror image of the face projected on the mirror surface. A health management system characterized by having.
前記表示制御手段は、診断結果の前記健康病気情報を前記表示位置制御手段の指示に基づき前記表示手段に表示することを特徴とする請求項1に記載の健康管理システム。 The display position control means indicates a position for displaying the input health / illness information.
The health management system according to claim 1, wherein the display control means displays the health and illness information of the diagnosis result on the display means based on the instruction of the display position control means.
前記表示位置制御手段は、前記顔の鏡像位置との関係において前記予測顔画像及び/または前記健康病気情報を表示する位置を指示するものであり、
前記表示制御手段は、前記表示位置制御手段の指示に基づき、前記予測顔画像を顔の鏡像位置に対応付けて表示することを特徴とする請求項2に記載の健康管理システム。 A face position detecting means for detecting a mirror image position of a face projected on the mirror surface is provided.
The display position control means indicates a position for displaying the predicted face image and / or the health / illness information in relation to the mirror image position of the face.
The health management system according to claim 2, wherein the display control means displays the predicted face image in association with a mirror image position of the face based on the instruction of the display position control means.
取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出する健康病気情報導出手段と、
を更に具備し、
前記健康病気情報導出手段により導出された健康病気情報を前記出力手段から出力することを特徴とする請求項1乃至5のいずれか1項に記載の健康管理システム。 Biometrics information acquisition means for acquiring biometrics information related to health condition and illness using image information captured by the camera, and
Health and illness information derivation means for deriving health and illness information using machine learning technology based on the acquired biometrics information,
Further equipped,
The health management system according to any one of claims 1 to 5, wherein the health / illness information derived by the health / illness information deriving means is output from the output means.
撮像された顔画像と入力された前記健康病気情報に基づき、前記健康病気情報に対応する拡張現実の予測顔画像を作成する顔画像作成手段、
前記予測顔画像を表示する位置を指示する表示位置制御手段、
前記鏡面に写し出される顔の鏡像と共に前記予測顔画像を前記表示位置制御手段の指示に基づき前記表示手段に表示する表示制御手段
として機能させることを特徴とする健康管理システムのプログラム。 A camera that acquires image information by imaging a living body including a face from the outside, a biological information sensor that obtains biological information from the living body, and biometrics information related to the health condition and illness of the living body can be acquired. Input the output means for displaying and / or printing out the image information and the biological information, and the health and illness information which is the diagnosis result of the doctor based on the biometric information of the image information and the biological information output by the output means. A computer of a health management system that has an input means for, has a mirror surface, and has a display means for displaying an image on the mirror surface, and displays health management on the display means.
A face image creating means for creating an augmented reality predicted face image corresponding to the health and illness information based on the captured face image and the input health and illness information.
Display position control means for instructing a position for displaying the predicted face image,
A program of a health management system characterized in that the predicted face image is made to function as a display control means to be displayed on the display means based on an instruction of the display position control means together with a mirror image of the face projected on the mirror surface.
前記表示制御手段を更に、診断結果の前記健康病気情報を前記表示位置制御手段の指示に基づき前記表示手段に表示するように機能させることを特徴とする請求項8に記載の健康管理システムのプログラム。 The display position control means is further made to function to indicate a position for displaying the input health / illness information.
The program of the health management system according to claim 8 , wherein the display control means further functions to display the health and illness information of the diagnosis result on the display means based on the instruction of the display position control means. ..
前記鏡面に写し出される顔の鏡像位置を検出する顔位置検出手段として機能させ、
前記表示位置制御手段を更に、前記顔の鏡像位置との関係において前記予測顔画像及び/または前記健康病気情報を表示する位置を指示するように機能させ、
前記表示制御手段を更に、前記表示位置制御手段の指示に基づき、前記予測顔画像を顔の鏡像位置に対応付けて表示するように機能させることを特徴とする請求項9に記載の健康管理システムのプログラム。 Further computer
It functions as a face position detecting means for detecting the mirror image position of the face projected on the mirror surface.
The display position control means is further made to function to indicate a position for displaying the predicted face image and / or the health / illness information in relation to the mirror image position of the face.
The health management system according to claim 9, wherein the display control means further functions to display the predicted face image in association with a mirror image position of the face based on the instruction of the display position control means. Program.
前記カメラにより撮像された画像情報を用いて健康状態と病気とに関係するバイオメトリックス情報を取得するバイオメトリックス情報取得手段、
取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出する健康病気情報導出手段、
として機能させ、
前記健康病気情報導出手段により導出された健康病気情報を前記出力手段から出力することを特徴とする請求項8乃至12のいずれか1項に記載の健康管理システムのプログラム。 Further, the computer
A biometrics information acquisition means for acquiring biometrics information related to a health condition and a disease using image information captured by the camera.
Health and illness information derivation means for deriving health and illness information using machine learning technology based on the acquired biometrics information,
To function as
The program of the health management system according to any one of claims 8 to 12, wherein the health and illness information derived by the health and illness information deriving means is output from the output means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016180742A JP6821364B2 (en) | 2016-09-15 | 2016-09-15 | Health management system and its programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016180742A JP6821364B2 (en) | 2016-09-15 | 2016-09-15 | Health management system and its programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018042812A JP2018042812A (en) | 2018-03-22 |
JP6821364B2 true JP6821364B2 (en) | 2021-01-27 |
Family
ID=61692985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016180742A Active JP6821364B2 (en) | 2016-09-15 | 2016-09-15 | Health management system and its programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6821364B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886248B (en) * | 2019-03-08 | 2023-06-23 | 南方科技大学 | Image generation method and device, storage medium and electronic equipment |
CN113375313A (en) * | 2021-05-18 | 2021-09-10 | 青岛海尔空调器有限总公司 | Method and device for controlling air conditioner and air conditioner |
KR102644249B1 (en) * | 2021-11-25 | 2024-03-08 | 주식회사 헬스맥스 | Health Management Method and System Using Facial Image |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11197116A (en) * | 1998-01-08 | 1999-07-27 | Mitsubishi Electric Corp | Health care system |
JP3408524B2 (en) * | 2001-02-06 | 2003-05-19 | 正 五井野 | Makeup advice providing method and makeup advice providing program |
KR100657901B1 (en) * | 2004-10-12 | 2006-12-14 | 삼성전자주식회사 | Method and apparatus of generating avata for representing state of health |
US20080294012A1 (en) * | 2007-05-22 | 2008-11-27 | Kurtz Andrew F | Monitoring physiological conditions |
JP2012130520A (en) * | 2010-12-21 | 2012-07-12 | Shimizu Corp | Healthcare sanitary room |
JP2013117941A (en) * | 2011-10-31 | 2013-06-13 | Sony Corp | Diathesis determination apparatus, diathesis determination method, health assistance apparatus, health assistance method, program, terminal apparatus, and health assistance system |
US20140121540A1 (en) * | 2012-05-09 | 2014-05-01 | Aliphcom | System and method for monitoring the health of a user |
JP6320143B2 (en) * | 2014-04-15 | 2018-05-09 | 株式会社東芝 | Health information service system |
-
2016
- 2016-09-15 JP JP2016180742A patent/JP6821364B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018042812A (en) | 2018-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6821364B2 (en) | Health management system and its programs | |
CN111476940B (en) | Triage referral method and system based on self-service inquiry terminal | |
JP2012059107A (en) | Emotion estimation device, emotion estimation method and program | |
WO2019162054A1 (en) | System and method for client-side physiological condition estimations based on a video of an individual | |
JP2009053328A (en) | Image display device | |
WO2016067892A1 (en) | Degree-of-health outputting device, degree-of-health outputting system, and program | |
Colantonio et al. | Computer vision for ambient assisted living: Monitoring systems for personalized healthcare and wellness that are robust in the real world and accepted by users, carers, and society | |
JP2022536808A (en) | Using a Set of Machine Learning Diagnostic Models to Determine a Diagnosis Based on a Patient's Skin Tone | |
JP2016140720A (en) | Communication terminal, interview system, display method, and program | |
US11361433B2 (en) | Image display control system, image display system, and image analysis device for dynamic medical imaging | |
JP6716404B2 (en) | Health management system and its program | |
JP2014018251A (en) | Ophthalmological photographing apparatus and ophthalmological photographing program | |
Pistorius | Developments in emerging digital health technologies | |
JP2016163166A (en) | Communication terminal, interview system, display method, and program | |
KR20210141197A (en) | Method, apparatur, computer program and computer readable recording medium for providing augmented reality interface for telemedicine | |
EP3435277A1 (en) | Body information analysis apparatus capable of indicating blush-areas | |
JP2016163150A (en) | Communication terminal, interview system, communication method, and program | |
US20230394124A1 (en) | Method for configuring data acquisition settings of a computing device | |
EP4111984A1 (en) | Information processing method, computer program, information processing device, and information processing system | |
Ktistakis et al. | Applications of ai in healthcare and assistive technologies | |
JP2023502369A (en) | Preparation method for analytical determination of analytes in body fluids | |
JP7401134B2 (en) | Proposal information generation device, display device with reflector, suggestion information generation system device, suggestion information generation method, display processing method, program and recording medium | |
Raad et al. | A ubiquitous telehealth system for the elderly | |
KR20190078299A (en) | Apparatus and system for skin diagnosis and method thereof | |
EP4099338A1 (en) | Autonomous image acquisition start-stop managing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190711 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190711 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6821364 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |