JP6821364B2 - Health management system and its programs - Google Patents

Health management system and its programs Download PDF

Info

Publication number
JP6821364B2
JP6821364B2 JP2016180742A JP2016180742A JP6821364B2 JP 6821364 B2 JP6821364 B2 JP 6821364B2 JP 2016180742 A JP2016180742 A JP 2016180742A JP 2016180742 A JP2016180742 A JP 2016180742A JP 6821364 B2 JP6821364 B2 JP 6821364B2
Authority
JP
Japan
Prior art keywords
information
health
image
display
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016180742A
Other languages
Japanese (ja)
Other versions
JP2018042812A (en
Inventor
庸介 深井
庸介 深井
明 山中
山中  明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Information Systems Japan Corp
Original Assignee
Toshiba Information Systems Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Information Systems Japan Corp filed Critical Toshiba Information Systems Japan Corp
Priority to JP2016180742A priority Critical patent/JP6821364B2/en
Publication of JP2018042812A publication Critical patent/JP2018042812A/en
Application granted granted Critical
Publication of JP6821364B2 publication Critical patent/JP6821364B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、健康管理システム及びそのプログラムに関するものである。 The present invention relates to a health care system and its program.

従来、在宅での健康管理を日常の行動時に行うことを目的としたシステムが特許文献1に示されている。この特許文献1のシステムは、洗面化粧台にコンピュータと表示装置を備え、ユーザの健康状態を反映する身体部位の特性を洗面化粧台の空間やトイレ、浴室更に寝室などにおいて計測し、計測データを分析して上記表示装置に表示するようにしたものである。 Conventionally, Patent Document 1 discloses a system for performing health management at home during daily activities. The system of Patent Document 1 is provided with a computer and a display device on the vanity, measures the characteristics of body parts that reflect the user's health condition in the space of the vanity, the toilet, the bathroom, the bedroom, and the like, and measures the measurement data. It is analyzed and displayed on the above display device.

また、特許文献2には、トイレに尿検査装置や血流検査装置などを設けて計測を行い、医療機関において分析を行うシステムであって、特別に検査のための時間を要することなく生体情報管理を行うシステムが開示されている。 Further, Patent Document 2 is a system in which a urinalysis device, a blood flow test device, or the like is provided in a toilet to perform measurement and analysis at a medical institution, and biological information does not require a special time for examination. The system for management is disclosed.

更に、特許文献3には、カメラと画像表示装置とを具備した携帯端末により、顔や舌の撮像を行って医師によることなく的確な健康状態の検査を行う装置が開示されている。 Further, Patent Document 3 discloses a device that uses a mobile terminal provided with a camera and an image display device to take an image of the face and tongue to perform an accurate health condition inspection without a doctor.

特開2002−83055号公報JP-A-2002-83055 特開2000−232964号公報Japanese Unexamined Patent Publication No. 2000-232964 特開2015−202208号公報JP 2015-202208

上記特許文献1〜3のいずれにおいても、住居において通常の生活している最中に自分を写し出した鏡内に健康病気情報が写し出されるものではなく、表示装置を別に備えるものであり、また、病気などのために自分の顔が将来どのようになるかについてイメージできず、必ずしも使い勝手が良いものではなかった。 In any of the above-mentioned Patent Documents 1 to 3, the health and illness information is not projected in the mirror in which the person is projected during the normal life in the house, but the display device is separately provided. I couldn't imagine what my face would look like in the future due to illness, so it wasn't always easy to use.

本発明は上記のような従来の健康管理システムが備える問題点に鑑みなされたもので、その目的は、住居において通常の生活している最中に自分を写し出した鏡内に医師の診断による健康病気情報が写し出され、自身の鏡像を見るときに自然に健康病気情報を得ることが可能な健康管理システムを提供することである。また、病気などのために自分の顔が将来どのようになるかについてイメージすることができ、使い勝手が良い健康管理システムを提供することである。 The present invention has been made in view of the problems provided by the conventional health management system as described above, and an object thereof is health based on a doctor's diagnosis in a mirror in which oneself is projected during a normal life in a residence. It is to provide a health management system in which illness information is projected and health illness information can be obtained naturally when looking at one's own mirror image. It is also to provide an easy-to-use health management system that allows you to imagine what your face will look like in the future due to illness.

本発明に係る健康管理システムは、顔を含む生体を外部から撮像して画像情報を取得するカメラと、前記生体から生体情報を得る生体情報センサと、前記生体の健康状態と病気とに関係するバイオメトリックス情報を取得可能に、前記画像情報と生体情報を表示及び/またはプリントアウトにより出力する出力手段と、前記出力手段により出力された前記画像情報と生体情報のバイオメトリックス情報に基づく医師の診断結果である健康病気情報を入力するための入力手段と、撮像された顔画像と入力された前記健康病気情報に基づき、前記健康病気情報に対応する拡張現実の予測顔画像を作成する顔画像作成手段と、
鏡面に画像を表示するための表示手段と、前記予測顔画像を表示する位置を指示する表示位置制御手段と前記鏡面に写し出される顔の鏡像と共に前記予測顔画像を前記表示位置制御手段の指示に基づき前記表示手段に表示する表示制御手段とを具備するを具備することを特徴とする。
The health management system according to the present invention is related to a camera that acquires image information by photographing a living body including a face from the outside, a biological information sensor that obtains biological information from the living body, and the health state and illness of the living body. An output means for displaying and / or printing out the image information and the biometric information so that the biometrics information can be acquired, and a doctor's diagnosis based on the biometric information of the image information and the biometric information output by the output means. Based on the input means for inputting the resulting health and illness information, the captured face image, and the input health and illness information, the face image creation that creates an augmented reality predicted face image corresponding to the health and illness information. Means and
A display means for displaying an image on a mirror surface, a display position control means for instructing a position for displaying the predicted face image, and a mirror image of the face projected on the mirror surface, and the predicted face image as an instruction of the display position control means. Based on the above, the display means is provided with a display control means for displaying.

本発明に係る健康管理システムでは、前記表示位置制御手段は、入力された前記健康病気情報を表示する位置を指示するものであり、前記表示制御手段は、診断結果の前記健康病気情報を前記表示位置制御手段の指示に基づき前記表示手段に表示することを特徴とする。 In the health management system according to the present invention, the display position control means indicates a position to display the input health / disease information, and the display control means displays the health / disease information of the diagnosis result. It is characterized in that it is displayed on the display means based on the instruction of the position control means.

本発明に係る健康管理システムでは、前記鏡面に写し出される顔の鏡像位置を検出する顔位置検出手段を備え、前記表示位置制御手段は、前記顔の鏡像位置との関係において前記予測顔画像及び/または前記健康病気情報を表示する位置を指示するものであり、前記表示制御手段は、前記表示位置制御手段の指示に基づき、前記予測顔画像を顔の鏡像位置に対応付けて表示することを特徴とする。 The health management system according to the present invention includes a face position detecting means for detecting a mirror image position of a face projected on the mirror surface, and the display position controlling means has the predicted face image and / / in relation to the mirror image position of the face. Alternatively, the position for displaying the health and illness information is instructed, and the display control means displays the predicted face image in association with the mirror image position of the face based on the instruction of the display position control means. And.

本発明に係る健康管理システムでは、前記表示位置制御手段は、前記予測顔画像を顔の鏡像位置に重ねて表示する制御を行うことを特徴とする。 The health management system according to the present invention is characterized in that the display position control means controls to superimpose and display the predicted face image on the mirror image position of the face.

本発明に係る健康管理システムでは、生体情報センサは、尿検査装置、血圧心拍センサ、体重体組織計の少なくとも1つであることを特徴とする。 In the health management system according to the present invention, the biometric information sensor is at least one of a urinalysis device, a blood pressure heart rate sensor, and a body composition analyzer.

本発明に係る健康管理システムでは、前記カメラにより撮像された画像情報を用いて健康状態と病気とに関係するバイオメトリックス情報を取得するバイオメトリックス情報取得手段と、取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出する健康病気情報導出手段と、を更に具備し、前記健康病気情報導出手段により導出された健康病気情報を前記出力手段から出力することを特徴とする。 In the health management system according to the present invention, a biometrics information acquisition means for acquiring biometrics information related to a health condition and a disease using image information captured by the camera, and machine learning based on the acquired biometrics information. It is further provided with a health disease information derivation means for deriving health disease information by using a technique, and is characterized in that the health disease information derived by the health disease information derivation means is output from the output means.

本発明に係る健康管理システムでは、前記バイオメトリックス情報取得手段は、皮膚色、皮膚状態、唇色、眼球色の少なくとも1つを取得することを特徴とする。 In the health management system according to the present invention, the biometrics information acquisition means acquires at least one of skin color, skin condition, lip color, and eyeball color.

本発明に係る健康管理システムのプログラムは、顔を含む生体を外部から撮像して画像情報を取得するカメラと、前記生体から生体情報を得る生体情報センサと、前記生体の健康状態と病気とに関係するバイオメトリックス情報を取得可能に、前記画像情報と生体情報を表示及び/またはプリントアウトにより出力する出力手段と、前記出力手段により出力された前記画像情報と生体情報のバイオメトリックス情報に基づく医師の診断結果である健康病気情報を入力するための入力手段と、鏡面を有し、この鏡面に画像を表示するための表示手段を有し、この表示手段に対し、健康管理に関する表示を行う健康管理システムのコンピュータを、撮像された顔画像と入力された前記健康病気情報に基づき、前記健康病気情報に対応する拡張現実の予測顔画像を作成する顔画像作成手段、前記予測顔画像を表示する位置を指示する表示位置制御手段、前記鏡面に写し出される顔の鏡像と共に前記予測顔画像を前記表示位置制御手段の指示に基づき前記表示手段に表示する表示制御手段として機能させることを特徴とする。 The program of the health management system according to the present invention includes a camera that captures an image of a living body including a face from the outside and acquires image information, a biological information sensor that obtains biological information from the living body, and the health condition and illness of the living body. An output means for displaying and / or printing out the image information and the biometric information so that the related biometrics information can be acquired, and a doctor based on the biometrics information of the image information and the biometric information output by the output means. It has an input means for inputting health and illness information which is the diagnosis result of the above, and a display means for displaying an image on the mirror surface, and the display means for displaying health management is performed. The computer of the management system displays the predicted face image, which is a face image creating means for creating an augmented reality predicted face image corresponding to the health and illness information based on the captured face image and the input health and illness information. It is characterized in that it functions as a display position control means for instructing a position and a display control means for displaying the predicted face image on the display means based on an instruction of the display position control means together with a mirror image of a face projected on the mirror surface.

本発明に係る健康管理システムのプログラムでは、前記表示位置制御手段を更に、入力された前記健康病気情報を表示する位置を指示するように機能させ、前記表示制御手段を更に、診断結果の前記健康病気情報を前記表示位置制御手段の指示に基づき前記表示手段に表示するように機能させることを特徴とする。 In the program of the health management system according to the present invention, the display position control means is further made to function to indicate the position where the input health / illness information is displayed, and the display control means is further made to indicate the health of the diagnosis result. It is characterized in that the disease information is made to function to be displayed on the display means based on the instruction of the display position control means.

本発明に係る健康管理システムのプログラムでは、コンピュータを更に、前記鏡面に写し出される顔の鏡像位置を検出する顔位置検出手段として機能させ、前記表示位置制御手段を更に、前記顔の鏡像位置との関係において前記予測顔画像及び/または前記健康病気情報を表示する位置を指示するように機能させ、前記表示制御手段を更に、前記表示位置制御手段の指示に基づき、前記予測顔画像を顔の鏡像位置に対応付けて表示するように機能させることを特徴とする。 In the program of the health management system according to the present invention, the computer is further functioned as a face position detecting means for detecting the mirror image position of the face projected on the mirror surface, and the display position controlling means is further referred to as the mirror image position of the face. In relation to this, the predicted face image and / or the position for displaying the health / illness information is made to be instructed, and the display control means is further subjected to a mirror image of the predicted face image based on the instruction of the display position control means. It is characterized in that it functions to be displayed in association with a position.

本発明に係る健康管理システムのプログラムでは、前記表示位置制御手段を更に、前記予測顔画像を顔の鏡像位置に重ねて表示するように機能させることを特徴とする。 The program of the health management system according to the present invention is characterized in that the display position control means is further made to function so as to superimpose the predicted face image on the mirror image position of the face.

本発明に係る健康管理システムのプログラムでは、前記生体情報センサは、尿検査装置、血圧心拍センサ、体重体組織計の少なくとも1つであることを特徴とする。 In the program of the health management system according to the present invention, the biometric information sensor is at least one of a urinalysis device, a blood pressure heart rate sensor, and a body composition analyzer.

本発明に係る健康管理システムのプログラムでは、前記コンピュータを更に、前記カメラにより撮像された画像情報を用いて健康状態と病気とに関係するバイオメトリックス情報を取得するバイオメトリックス情報取得手段、取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出する健康病気情報導出手段、として機能させ、前記健康病気情報導出手段により導出された健康病気情報を前記出力手段から出力することを特徴とする。 In the program of the health management system according to the present invention, the computer is further subjected to a biometrics information acquisition means for acquiring biometrics information related to a health condition and a disease by using image information captured by the camera, and the acquired biotechnology. It is characterized by functioning as a health disease information derivation means for deriving health disease information using machine learning technology based on metrics information, and outputting the health disease information derived by the health disease information derivation means from the output means. To do.

本発明に係る健康管理システムのプログラムでは、前記バイオメトリックス情報取得手段を更に、皮膚色、皮膚状態、唇色、眼球色の少なくとも1つを取得するように機能させることを特徴とする。 The program of the health management system according to the present invention is characterized in that the biometrics information acquisition means is further made to function to acquire at least one of skin color, skin condition, lip color, and eyeball color.

本発明では、住居において通常の生活している最中に自分を写し出した鏡内に健康病気情報が写し出され、自身の鏡像を見るときに自然に健康病気情報を得ることができ、便利である。 In the present invention, health and illness information is projected in a mirror that reflects oneself during a normal life in a house, and health and illness information can be naturally obtained when looking at one's own mirror image, which is convenient. ..

本発明では、であり、病気などのために自分の顔が将来どのようになるかについてイメージすることができ、使い勝手良く、直観的に健康状態を知ることができる。 In the present invention, it is possible to imagine what one's face will look like in the future due to illness or the like, and it is easy to use and intuitively knows the health condition.

本発明に係る健康管理システムの第1の実施形態を示すブロック図。The block diagram which shows the 1st Embodiment of the health management system which concerns on this invention. 本発明に係る健康管理システムの実施形態により作成する予測顔画像の作成過程において適用される顔の肉厚の領域を示す図。The figure which shows the area of the wall thickness of a face applied in the process of creating the predicted face image created by the embodiment of the health management system which concerns on this invention. 本発明に係る健康管理システムの実施形態により作成する予測顔画像の作成過程において用いられるテーブルの一例を示す図。The figure which shows an example of the table used in the process of creating the predicted face image created by the embodiment of the health management system which concerns on this invention. 本発明に係る健康管理システムの第1の実施形態の動作を示すフローチャート。The flowchart which shows the operation of the 1st Embodiment of the health management system which concerns on this invention. 本発明に係る健康管理システムの実施形態により表示される予測顔画像と健康病気情報の第1の表示例を示す図。The figure which shows the 1st display example of the predicted face image and health illness information displayed by embodiment of the health management system which concerns on this invention. 本発明に係る健康管理システムの実施形態により表示される予測顔画像と健康病気情報の第2の表示例を示す図。The figure which shows the 2nd display example of the predicted face image and the health illness information displayed by the embodiment of the health management system which concerns on this invention. 本発明に係る健康管理システムの実施形態により表示される予測顔画像と健康病気情報の第3の表示例を示す図。The figure which shows the 3rd display example of the predicted face image and the health illness information displayed by the embodiment of the health management system which concerns on this invention. 本発明に係る健康管理システムの第2の実施形態を示すブロック図。The block diagram which shows the 2nd Embodiment of the health management system which concerns on this invention. 本発明に係る健康管理システムの第2の実施形態の動作を示すフローチャート。The flowchart which shows the operation of the 2nd Embodiment of the health management system which concerns on this invention.

以下添付図面を参照して、本発明に係る健康管理システム及びそのプログラムの実施形態を説明する。各図において、同一の構成要素には同一の符号を付して重複する説明を省略する。図1に、本発明に係る健康管理システムにおける第1の実施形態のブロック図を示す。この実施形態においては、利用者宅100にローカルコンピュータ10が備えられ、センタ500にセンタサーバ50が備えられ、病院や医院などの医療機関700に医師用のコンピュータ70が備えられている。ローカルコンピュータ10はローカル通信装置40に接続され、センタサーバ50はセンタ通信装置60に接続され、医師用のコンピュータ70は通信装置90に接続されている。ローカル通信装置40とセンタ通信装置60及び通信装置90はネットワーク600を介して接続されている。これにより、ローカルコンピュータ10とセンタサーバ50は、相互に情報の送受信が可能に構成され、医師用のコンピュータ70とセンタサーバ50は、相互に情報の送受信が可能に構成されている。なお、本実施形態では、利用者宅100と医療機関700をそれぞれ1つ示しているが、利用者宅100は通常は複数であり、医療機関700も複数であっても良く、複数のローカルコンピュータ10や医師用のコンピュータ70が1つ以上のセンタサーバ50に接続される構成である。 Hereinafter, embodiments of the health management system and its program according to the present invention will be described with reference to the accompanying drawings. In each figure, the same components are designated by the same reference numerals and duplicate description will be omitted. FIG. 1 shows a block diagram of a first embodiment in the health management system according to the present invention. In this embodiment, the user's home 100 is provided with a local computer 10, the center 500 is provided with a center server 50, and a medical institution 700 such as a hospital or clinic is provided with a computer 70 for doctors. The local computer 10 is connected to the local communication device 40, the center server 50 is connected to the center communication device 60, and the doctor's computer 70 is connected to the communication device 90. The local communication device 40, the center communication device 60, and the communication device 90 are connected via the network 600. As a result, the local computer 10 and the center server 50 are configured to be able to send and receive information to each other, and the doctor's computer 70 and the center server 50 are configured to be able to send and receive information to and from each other. In the present embodiment, one user's home 100 and one medical institution 700 are shown, but the user's home 100 is usually plural, and the medical institution 700 may be plural, and a plurality of local computers. The configuration is such that 10 or a computer 70 for a doctor is connected to one or more center servers 50.

ローカルコンピュータ10には、表示制御部21が接続されている。表示制御部21は、鏡面22を有する表示装置23に対し、ローカルコンピュータ10から送られる画像信号に基づき画像を表示する表示手段として機能する。表示装置23は、鏡面22の表面から目視したときに表示装置23の画面に映しだされた画像を見ることができる。また、鏡面22は、その前方側から入射した光を反射して鏡像を結ぶ鏡として機能するので、この鏡像を利用者Aが見ることができ、従って、鏡面22を利用者Aが見ることによって表示制御部21によって表示装置23の画面に表示された画像及び鏡面22によって反射されて結像した利用者Aの鏡像を見ることができる。 A display control unit 21 is connected to the local computer 10. The display control unit 21 functions as a display means for displaying an image on the display device 23 having the mirror surface 22 based on the image signal sent from the local computer 10. The display device 23 can see the image projected on the screen of the display device 23 when viewed from the surface of the mirror surface 22. Further, since the mirror surface 22 functions as a mirror that reflects the light incident from the front side thereof and forms a mirror image, the mirror image can be seen by the user A, and therefore, by the user A looking at the mirror surface 22. The image displayed on the screen of the display device 23 by the display control unit 21 and the mirror image of the user A reflected and imaged by the mirror surface 22 can be seen.

鏡面22の例えば上部中央には、カメラ24が設けられており、鏡面22の前方を撮像することができれる。カメラ24は、例えば、人感センサを備えており、前方に人が到来すると人感センサにより電源がオンとされ自動的に撮像を開始し、撮像により得られた画像信号はローカルコンピュータ10へ送られる。 A camera 24 is provided in the center of the upper part of the mirror surface 22, for example, so that the front of the mirror surface 22 can be imaged. The camera 24 is provided with, for example, a motion sensor, and when a person arrives in front of the camera 24, the power is turned on by the motion sensor to automatically start imaging, and the image signal obtained by the imaging is sent to the local computer 10. Be done.

鏡面22の表面にはタッチパネル25が設けられており、タッチパネル25を操作したときに座標情報がローカルコンピュータ10の座標検出手段15によって検出される。ローカルコンピュータ10には、更に、メニュー表示対応処理手段16が備えられ、所要の場合にメニュー画像を表示制御部21へ送ってメニューを表示させる。また、タッチパネル25を操作してメニューが選択されると、メニュー表示対応処理手段16は、選択されたメニューの処理を実行する。例えば、メニュー表示対応処理手段16は、後述する健康病気情報の表示切換などを行う。 A touch panel 25 is provided on the surface of the mirror surface 22, and when the touch panel 25 is operated, the coordinate information is detected by the coordinate detecting means 15 of the local computer 10. The local computer 10 is further provided with a menu display corresponding processing means 16, and sends a menu image to the display control unit 21 to display the menu when necessary. Further, when the menu is selected by operating the touch panel 25, the menu display corresponding processing means 16 executes the processing of the selected menu. For example, the menu display corresponding processing means 16 switches the display of health and illness information, which will be described later.

本実施形態では、利用者宅100には、必要に応じて生体情報センサ30が設けられる。生体情報センサ30は、例えば人感センサにより人を検出すると電源オンとなって自動的に測定を行い、測定により得られた生体情報は、ローカルコンピュータ10へ送られる。生体情報センサ30としては、尿検査装置31、血圧心拍センサ32、体重体組織計33が設けられていても良い。尿検査装置31は、トイレに設けられ、自動的に検査を行い、結果をローカルコンピュータ10へ送る。尿検査装置31の検査項目としては、尿タンパク、尿糖、尿ウロビリノーゲン、尿ビリルビン、尿pH、尿潜血反応、尿中ケトン体、尿沈渣のいずれか1以上を採用することができる。 In the present embodiment, the user's home 100 is provided with the biometric information sensor 30 as needed. When the biometric information sensor 30 detects a person by, for example, a motion sensor, the power is turned on to automatically perform measurement, and the biometric information obtained by the measurement is sent to the local computer 10. As the biological information sensor 30, a urinalysis device 31, a blood pressure / heart rate sensor 32, and a body weight / body tissue meter 33 may be provided. The urine test device 31 is provided in the toilet, automatically tests, and sends the result to the local computer 10. As the test item of the urine test device 31, any one or more of urine protein, urine sugar, urine urobilinogen, urine bilirubin, urine pH, urine occult blood reaction, urine ketone body, and urine sediment can be adopted.

血圧心拍センサ32は、鏡面22と表示装置23の前方に設置しておくことができる。血圧心拍センサ32の検査項目は、血圧と脈拍数とすることができるが、これ以外にも、心電図を計測可能なセンサとしても良い。体重体組織計33についても、鏡面22と表示装置23の前方に設置しておくことができる。体重体組織計33の検査項目(パラメータ)は、体重、体脂肪率、内臓脂肪レベル、ボディマス指数(BMI)などとすることができる。 The blood pressure heart rate sensor 32 can be installed in front of the mirror surface 22 and the display device 23. The test items of the blood pressure and heart rate sensor 32 can be blood pressure and pulse rate, but other than this, a sensor capable of measuring an electrocardiogram may be used. The body composition analyzer 33 can also be installed in front of the mirror surface 22 and the display device 23. The test items (parameters) of the body composition analyzer 33 can be body weight, body fat percentage, visceral fat level, body mass index (BMI), and the like.

生体情報センサ30としては、上記のセンサ以外に、体温を測定する電子体温計、歩数、消費カロリー及び睡眠時間を計測する活動量計などを採用しても良い。電子体温計や活動量計は、利用者の身体に付着させて、得られた情報は無線通信によりローカルコンピュータ10へ送る構成とすることができる。 As the biological information sensor 30, in addition to the above sensors, an electronic thermometer for measuring body temperature, an activity meter for measuring the number of steps, calories burned, and sleep time may be adopted. The electronic thermometer and the activity meter can be attached to the user's body, and the obtained information can be sent to the local computer 10 by wireless communication.

上記のカメラ24により得られた画像情報や生体情報センサ30により得られた生体情報は、ローカル通信装置40、ネットワーク600、センタ通信装置60を介してセンタザーバ50へ送られる。 The image information obtained by the camera 24 and the biometric information obtained by the biometric information sensor 30 are sent to the center server 50 via the local communication device 40, the network 600, and the center communication device 60.

利用者宅100において、複数の利用者が本システムを利用する場合には、カメラ24、尿検査装置31、血圧心拍センサ32、体重体組織計33からの信号や情報については、例えば、ローカルコンピュータ10に、手のひらの静脈認証や顔認証などバイオメトリックス認証プログラムを備え、上記各センサに対応して静脈認証や顔認証に必要なカメラなどのセンサを備えるように構成することができる。また、電子体温計や活動量計は、ローカルコンピュータ10に信号などを送る場合に、個人の識別情報を付加して送るように構成することができる。 When a plurality of users use this system in the user's home 100, for signals and information from the camera 24, the urine test device 31, the blood pressure and heart rate sensor 32, and the body tissue meter 33, for example, a local computer 10 can be configured to include a biometrics authentication program such as palm vein recognition and face recognition, and to provide sensors such as a camera necessary for vein recognition and face recognition corresponding to each of the above sensors. Further, the electronic thermometer and the activity meter can be configured to add personal identification information when sending a signal or the like to the local computer 10.

センタサーバ50には、コンピュータ部51と大容量の記憶部52とが備えられている。コンピュータ部51は、プログラムに基づき所要の処理を行うコンピュータの構成であり、データ蓄積送信制御手段71、顔画像作成手段74を備える。 The center server 50 is provided with a computer unit 51 and a large-capacity storage unit 52. The computer unit 51 is configured as a computer that performs required processing based on a program, and includes data storage / transmission control means 71 and face image creation means 74.

データ蓄積送信制御手段71は、ローカルコンピュータ10から送られたカメラ24により得られた画像情報や生体情報センサ30により得られた生体情報を利用者毎に分けて記憶部52へ記憶する。また、データ蓄積制御手段71は、記憶部52へ記憶した画像情報や生体情報を利用者に対応する医療機関700のコンピュータ70へ送信する。 The data storage / transmission control means 71 stores the image information obtained by the camera 24 sent from the local computer 10 and the biometric information obtained by the biometric information sensor 30 in the storage unit 52 separately for each user. Further, the data storage control means 71 transmits the image information and the biological information stored in the storage unit 52 to the computer 70 of the medical institution 700 corresponding to the user.

コンピュータ70は、CPU81と、CPU81に接続されたLEDなどのディスプレイ装置及び/またはプリンタなどにより構成される出力手段82と、CPU81に接続されたキーボードやマウスなどの情報入力が可能な入力手段83とを備えている。 The computer 70 includes an output means 82 composed of a CPU 81, a display device such as an LED connected to the CPU 81, and / or a printer, and an input means 83 connected to the CPU 81 such as a keyboard and a mouse that can input information. It has.

CPU81は、上述のようにセンタサーバ50から送られた画像情報や生体情報を受け取り、出力手段82へ送り出力する。医師は、出力手段82によって出力された画像情報や生体情報を目視し、健康状態と病気とに関係するバイオメトリックス情報による診断を行い、健康病気情報を導き出す。 The CPU 81 receives the image information and the biological information sent from the center server 50 as described above, and sends and outputs the image information to the output means 82. The doctor visually observes the image information and the biological information output by the output means 82, makes a diagnosis based on the biometrics information related to the health condition and the disease, and derives the health condition information.

健康病気情報は、「○○病(症)の予兆」が「極めて僅かにあり」、「あり」、「高い」などとすることができる。また、「このままの生活ですと、○○病(症)となる可能性がある」などの警告情報であっても良い。これらの情報は医師が入力手段83によって入力することができる。また、血圧や尿酸値やBM1などのパラメータが正常値に比べて単に高いことを示す情報であっても良く、この情報は医師がコンピュータ70の該当プログラムを起動して情報を作成することができる。更に、健康病気情報は、生体情報センサ30により得られた幾つかの生体情報を経時的に並べて作成したグラフとすることもでき、このグラフも医師がコンピュータ70の該当プログラムを起動して作成するようにしても良い。医師によって入力或いは得られた健康病気情報は、該当のセンタサーバ50へ送られる。 As for health disease information, "predictive signs of XX disease (disease)" can be "extremely slight", "presence", "high", and the like. In addition, it may be warning information such as "If you live as it is, you may get XX disease (disease)". This information can be input by the doctor by the input means 83. Further, it may be information indicating that parameters such as blood pressure, uric acid level, and BM1 are simply higher than normal values, and this information can be created by a doctor by activating the corresponding program of the computer 70. .. Further, the health and illness information can be a graph created by arranging some biological information obtained by the biological information sensor 30 over time, and this graph is also created by the doctor by activating the corresponding program of the computer 70. You may do so. The health and illness information input or obtained by the doctor is sent to the corresponding center server 50.

前述の通り、センタサーバ50のコンピュータ部51には、顔画像作成手段74が備えられている。この顔画像作成手段74は、撮像された顔画像と上記医師が入力した健康病気情報に基づき、上記健康病気情報に対応する拡張現実の予測顔画像を作成するものである。顔画像作成手段74による予測顔画像を作成のために、記憶部52には、予測顔画像作成用パラメータ530が備えられている。 As described above, the computer unit 51 of the center server 50 is provided with the face image creating means 74. The face image creating means 74 creates an augmented reality predicted face image corresponding to the health and illness information based on the captured face image and the health and illness information input by the doctor. In order to create a predicted face image by the face image creating means 74, the storage unit 52 is provided with a parameter 530 for creating a predicted face image.

予測顔画像作成用パラメータ530は、例えば、病名のレベルに対応して顔色が対応付けられているテーブルである。病名のレベルとは、「○○病(症)の予兆」が「極めて僅かにあり」、「あり」、「高い」などの場合、「極めて僅かにあり」をレベル1、「あり」をレベル2、「高い」をレベル3とし、それぞれに色が対応付けられる。この色は、色相、明度、彩度により例えばLCh表色系により数値化されたもので、この数値に基づき例えばRGBの画像信号に変換することができるものである。また、予測顔画像作成用パラメータ530は、顔を図2に示すように、上部、中部、下部に分けて、腫れ具合を当初(健常状態)からの肉厚で表したものとすることができる。このように構成された予測顔画像作成用パラメータ530のテーブルの一例を図3に示す。勿論、レベルの段階を多くし、顔の部位の区分数を多くすることにより、より細緻なシミュレーション画像を作成するようにしても良い。 The prediction face image creation parameter 530 is, for example, a table in which the complexion is associated with the level of the disease name. As for the level of the disease name, when "the sign of XX disease (disease)" is "very slight", "yes", "high", etc., "very little" is level 1 and "yes" is level 1. 2. “High” is set to level 3, and colors are associated with each. This color is quantified by, for example, an LCh color system according to hue, lightness, and saturation, and can be converted into, for example, an RGB image signal based on these numerical values. Further, the parameter 530 for creating a predicted face image can divide the face into an upper part, a middle part, and a lower part as shown in FIG. 2, and represent the degree of swelling by the wall thickness from the initial (healthy state). .. FIG. 3 shows an example of a table of the predicted face image creation parameter 530 configured in this way. Of course, a more detailed simulation image may be created by increasing the number of levels and increasing the number of divisions of the facial part.

予測顔画像作成用パラメータ530を用いて顔画像作成手段74によって作成された予測顔画像及び上記健康病気情報は、該当のローカルコンピュータ10へ送られる。上記においては、顔全体の色をレベルによって変更することを示したが、顔を図2の如く領域分けして、各領域の色を変更しても良い。 The predicted face image and the health / illness information created by the face image creating means 74 using the predicted face image creating parameter 530 are sent to the corresponding local computer 10. In the above, it was shown that the color of the entire face is changed depending on the level, but the face may be divided into areas as shown in FIG. 2 and the color of each area may be changed.

ローカルコンピュータ10には、センタサーバ50から健康病気情報が送られた場合に、これを受け取り、更に、表示制御部21に送出する。表示制御部21は健康病気情報を表示装置23に表示する。 When health and illness information is sent from the center server 50 to the local computer 10, it receives it and further sends it to the display control unit 21. The display control unit 21 displays health and illness information on the display device 23.

ローカルコンピュータ10には、上記予測顔画像を表示する位置を指示する表示位置制御手段11と、顔位置検出手段12が備えられている。顔位置検出手段12は、鏡面22に写し出される顔の鏡像位置を検出するものである。具体的には、カメラ24により鏡面22の前方を撮像しており、利用者Aの顔が撮像されて顔の画像を得ることができるので、この顔の画像を用いる。例えば、カメラ24により撮像した画像の画面と鏡面22の大きさを一致させて、顔の画像の中心を顔位置の座標とする。表示位置制御手段11は、予測顔画像を表示する位置を指示し、更に、導出された前記健康病気情報を表示する位置を指示する。表示位置制御手段11は、前記顔の鏡像位置との関係において前記予測顔画像及び/または前記健康病気情報を表示する位置を指示するものである。 The local computer 10 is provided with a display position control means 11 for instructing a position for displaying the predicted face image and a face position detection means 12. The face position detecting means 12 detects the mirror image position of the face projected on the mirror surface 22. Specifically, since the front of the mirror surface 22 is imaged by the camera 24 and the face of the user A can be imaged to obtain an image of the face, this face image is used. For example, the screen of the image captured by the camera 24 and the size of the mirror surface 22 are matched, and the center of the face image is set as the coordinates of the face position. The display position control means 11 instructs a position to display the predicted face image, and further instructs a position to display the derived health / illness information. The display position control means 11 indicates a position for displaying the predicted face image and / or the health / illness information in relation to the mirror image position of the face.

上記のようにして得られた顔位置の座標から、表示位置制御手段11の制御により、例えば、右真横に健康病気情報及び/または予測顔画像を表示することができる。顔位置の座標から右真横方向における画像装置23の画面の縁までの距離が健康病気情報及び/または予測顔画像が入らない距離となると、左側に、更に必要であれば、上下のいずれかに予測顔画像を移動させて表示するように制御する。顔位置の座標と予測顔画像の中心とを一致させて、予測顔画像を顔の鏡像位置に重ねて表示するようにしても良い。 From the coordinates of the face position obtained as described above, the health / illness information and / or the predicted face image can be displayed right beside, for example, by the control of the display position control means 11. When the distance from the coordinates of the face position to the edge of the screen of the image device 23 in the right lateral direction is a distance that does not include health / illness information and / or the predicted face image, it is placed on the left side, and if necessary, either up or down. The predicted face image is controlled to be moved and displayed. The coordinates of the face position and the center of the predicted face image may be matched so that the predicted face image is superimposed on the mirror image position of the face and displayed.

また、表示位置制御手段11の制御により、健康病気情報を画像装置23の画面の所定位置に表示しても良く、上記予測顔画像の位置の近傍に健康病気情報を表示しても良いし、上記予測顔画像の位置と左右対称の位置など、所定の関係の位置に健康病気情報を表示しても良い。 Further, under the control of the display position control means 11, the health / illness information may be displayed at a predetermined position on the screen of the image device 23, or the health / illness information may be displayed in the vicinity of the position of the predicted face image. The health and illness information may be displayed at a position having a predetermined relationship, such as a position symmetrical with the position of the predicted face image.

以上の通りに構成されたシステムは、図4に示すフローチャートのように動作を行う。電源が投入され、生体情報センサ30は、自動的に生体情報の測定を行い、測定により得られた生体情報を、ローカルコンピュータ10へ送る(S11)。また、電源が投入され、カメラ24が自動的に撮像を開始し、撮像により得た画像信号をローカルコンピュータ10へ送る(S12)。 The system configured as described above operates as shown in the flowchart shown in FIG. When the power is turned on, the biometric information sensor 30 automatically measures the biometric information and sends the biometric information obtained by the measurement to the local computer 10 (S11). Further, the power is turned on, the camera 24 automatically starts imaging, and the image signal obtained by the imaging is sent to the local computer 10 (S12).

上記ステップS11、S12においてローカルコンピュータ10が受け取った生体情報と画像情報は、ローカルコンピュータ10からセンタサーバ50へ送信される(S13)。この場合に、生体情報と画像情報を暗号化して送信するようにして良い。 The biological information and image information received by the local computer 10 in steps S11 and S12 are transmitted from the local computer 10 to the center server 50 (S13). In this case, the biological information and the image information may be encrypted and transmitted.

センタサーバ50は送信されてきた生体情報と画像情報を受け取り、暗号化されているときには復号し、生体情報と画像情報を記憶部52へ記憶する(S14)。複数の利用者が本システムを利用する場合には、送受信の単位及び記憶の単位は利用者毎に行われることは言うまでもない。 The center server 50 receives the transmitted biological information and image information, decrypts the transmitted biological information and image information when it is encrypted, and stores the biological information and image information in the storage unit 52 (S14). Needless to say, when a plurality of users use this system, the unit of transmission / reception and the unit of storage are performed for each user.

上記のようにして到来し記憶した生体情報と画像情報(顔を含む生体を外部から撮像した画像情報)を医師用のコンピュータ70へ送り、コンピュータ70の出力手段82から出力する(S15)。出力された生体情報と画像情報に基づき医師が診断を行って健康病気情報を得て、この健康病気情報を入力手段82を用いて入力することにより、センタサーバ50へ送信する(S16)。 The biological information and image information (image information obtained by photographing the living body including the face from the outside) that arrived and are stored as described above are sent to the computer 70 for doctors and output from the output means 82 of the computer 70 (S15). A doctor makes a diagnosis based on the output biological information and image information, obtains health and illness information, inputs the health and illness information using the input means 82, and transmits the health and illness information to the center server 50 (S16).

撮像された顔画像と上記ステップS16において送られた医師の診断結果である健康病気情報に基づき、上記健康病気情報に対応する拡張現実の予測顔画像を作成し、ローカルコンピュータ10へ送信する(S17)。 Based on the captured face image and the health and illness information that is the diagnosis result of the doctor sent in step S16, an augmented reality predicted face image corresponding to the health and illness information is created and transmitted to the local computer 10 (S17). ).

ローカルコンピュータ10では、到来する予測顔画像と健康病気情報を表示する位置、つまり、表示装置23の画面上の予測顔画像と健康病気情報を表示すべき表示位置情報(座標)を作成している(S18)。表示位置は、予め備えたものであっても良い。予測顔画像と健康病気情報が到来すると、ローカルコンピュータ10は、上記予測顔画像と健康病気情報を表示位置情報と共に表示制御部21へ送出し、予測顔画像と健康病気情報を表示装置23の画面上に表示する(S19)。 The local computer 10 creates a position for displaying the coming predicted face image and health / illness information, that is, display position information (coordinates) for displaying the predicted face image and health / illness information on the screen of the display device 23. (S18). The display position may be provided in advance. When the predicted face image and health / illness information arrive, the local computer 10 sends the predicted face image and health / illness information to the display control unit 21 together with the display position information, and displays the predicted face image and health / illness information on the screen of the display device 23. Displayed above (S19).

図5に、上記のようにして表示装置23の画面上に表示された予測顔画像と健康病気情報の一例を示す。101は、鏡面22によって映し出された利用者Aの顔の鏡像である。この鏡像101から所定位置には、予測顔画像102が表示される。 FIG. 5 shows an example of the predicted face image and health / illness information displayed on the screen of the display device 23 as described above. Reference numeral 101 denotes a mirror image of the face of the user A projected by the mirror surface 22. A predicted face image 102 is displayed at a predetermined position from the mirror image 101.

また、健康病気情報として、幾つかの生体情報を経時的に並べて作成したグラフ103が画面の左側に表示されている。このグラフ103は、体重(Kg)、BMI、尿酸値(mg/dL)の経時変化をグラフ化したものである。 Further, as health and illness information, a graph 103 created by arranging some biological information over time is displayed on the left side of the screen. This graph 103 is a graph of changes over time in body weight (Kg), BMI, and uric acid level (mg / dL).

また、予測顔画像102の右側には、「糖尿病の兆候有り」という健康病気情報104と、パラメータであるBM1と尿酸値が正常値に比べて単に高いことを示す健康病気情報105、106が表示されている。 Further, on the right side of the predicted face image 102, health disease information 104 stating that there is a sign of diabetes and health disease information 105 and 106 indicating that the parameters BM1 and uric acid level are simply higher than the normal values are displayed. Has been done.

本実施形態では、顔位置検出手段12を備え、表示位置制御手段11が、顔の鏡像位置との関係において予測顔画像及び/または健康病気情報を表示する位置を指示する。従って、利用者Aが図5に示す顔の鏡像101の位置から移動し、顔の鏡像101が図6に示す位置に表示されたものとする。 In the present embodiment, the face position detecting means 12 is provided, and the display position controlling means 11 indicates a position for displaying the predicted face image and / or health / disease information in relation to the mirror image position of the face. Therefore, it is assumed that the user A moves from the position of the face mirror image 101 shown in FIG. 5 and the face mirror image 101 is displayed at the position shown in FIG.

すると、顔位置検出手段12が検出する顔の位置(座標)が変更され、顔の位置(座標)が変更を受けて、表示位置制御手段11は、顔の鏡像位置(図6の101)との関係において予測顔画像102及び/または健康病気情報(グラフ103)を表示する位置を指示する。 Then, the position (coordinates) of the face detected by the face position detecting means 12 is changed, the position (coordinates) of the face is changed, and the display position controlling means 11 is set to the mirror image position (101 in FIG. 6) of the face. In this relationship, the position where the predicted face image 102 and / or the health / illness information (graph 103) is displayed is indicated.

即ち、表示位置制御手段11は、カメラ24により得た画像により、現在(図6の表示路)の顔の位置と大きさを検出でき、図5に示した大きさの予測顔画像102を顔の鏡像101に追従させたときに、重なる健康病気情報がグラフ103であることを検出する。このため、予測顔画像102を顔の鏡像101に追従させる指示と共にグラフ103を他の画像に重ならない位置へ移動して表示する指示を表示制御部20へ送出する。この結果、図6に示すように表示装置23の画面の表示が切り換えられる。 That is, the display position control means 11 can detect the position and size of the current face (display path in FIG. 6) from the image obtained by the camera 24, and the predicted face image 102 having the size shown in FIG. 5 is used as the face. It is detected that the overlapping health and illness information is the graph 103 when the mirror image 101 of the above is followed. Therefore, along with an instruction to make the predicted face image 102 follow the mirror image 101 of the face, an instruction to move the graph 103 to a position not overlapping with other images and display the graph 103 is sent to the display control unit 20. As a result, the display on the screen of the display device 23 is switched as shown in FIG.

図7には、表示装置23の画面上に表示された予測顔画像と健康病気情報の別の表示例を示す。この表示例は、予測顔画像102を顔の鏡像101に全面的に重ねて表示した例である。ここでは、例えば、利用者に病気の兆候が見られないために、顔の鏡像101の大きさと予測顔画像102の大きさがほぼ等しく、1つの画像として見えている。パラメータについて、正常値に比べて単に高いことを示す健康病気情報108、109が表示されている。 FIG. 7 shows another display example of the predicted face image displayed on the screen of the display device 23 and the health / illness information. This display example is an example in which the predicted face image 102 is completely superimposed on the mirror image 101 of the face. Here, for example, since the user does not see any signs of illness, the size of the mirror image 101 of the face and the size of the predicted face image 102 are substantially equal, and the images are viewed as one image. Health and illness information 108 and 109 indicating that the parameters are simply higher than the normal values are displayed.

この図7に示すような表示がなされているときに、利用者Aが移動して顔の鏡像101の位置が移動したときには、図6において説明した通り、予測顔画像102が顔の鏡像101に追従して移動されて表示される。 When the user A moves and the position of the mirror image 101 of the face moves while the display as shown in FIG. 7 is displayed, the predicted face image 102 becomes the mirror image 101 of the face as described in FIG. It is moved and displayed following it.

更に、図7の例では、「メニュー表示」指示キー110が画面の右下に表示されている。この「メニュー表示」指示キー110部分のタッチパネル25を操作すると、メニューが表示される。メニューとしては、グラフ103の内容の切換えや、正常値に比べて単に高いことを示す健康病気情報のパラメータの切換え、更には、予測顔画像102の表示中止などとすることができる。メニュー表示対応処理手段16は、これに応じて、グラフ103の内容以外のグラフをセンタサーバ50へ要求し、送られてくるとこれが表示されるように制御を行う。また、表示中の正常値に比べて単に高いことを示す健康病気情報以外の健康病気情報をセンタサーバ50へ要求し、送られてくるとこれが表示されるように制御を行う。 Further, in the example of FIG. 7, the "menu display" instruction key 110 is displayed at the lower right of the screen. When the touch panel 25 of the "menu display" instruction key 110 is operated, the menu is displayed. The menu can include switching the contents of the graph 103, switching parameters of health and illness information indicating that the values are simply higher than the normal values, and canceling the display of the predicted face image 102. In response to this, the menu display corresponding processing means 16 requests the center server 50 for a graph other than the contents of the graph 103, and controls so that the graph is displayed when it is sent. Further, the center server 50 is requested to receive health disease information other than the health disease information indicating that the value is simply higher than the normal value being displayed, and control is performed so that this is displayed when sent.

また、メニューとしては、予測顔画像102と顔の鏡像101との重ね具合や距離をメニュー化して表示しても良い。更には、予測顔画像102及び/または健康病気情報の表示位置をメニューとして表示しても良い。 Further, as a menu, the degree of overlap and the distance between the predicted face image 102 and the mirror image 101 of the face may be displayed as a menu. Further, the predicted face image 102 and / or the display position of the health / illness information may be displayed as a menu.

なお、本実施形態では、タッチパネル25を入力手段としたが、鏡面22にマイクロフォンを設け、音声入力し、ローカルコンピュータ10に音声認識機能を備えさせて、認識結果をメニュー表示対応処理手段16と同様の機能を行う手段へ与えることで、処理を行うようにしても良い。また、利用者Aの手によるジャスチャーやボディーアクションをカメラ24により撮像し入力手段とし、ローカルコンピュータ10に映像認識機能を備えさせ、認識結果をメニュー表示対応処理手段16と同様の機能を行う手段へ与えることで、処理を行っても良い。 In the present embodiment, the touch panel 25 is used as the input means, but a microphone is provided on the mirror surface 22 to input voice, and the local computer 10 is provided with a voice recognition function, and the recognition result is the same as the menu display compatible processing means 16. The processing may be performed by giving it to the means for performing the function of. Further, a means for capturing a gesture or body action by the user A with the camera 24 and using it as an input means, equipping the local computer 10 with a video recognition function, and performing the recognition result in the same function as the menu display corresponding processing means 16. You may perform processing by giving to.

顔を含む生体を外部から撮像した画像情報を用いて健康状態と病気とに関係するバイオメトリックス情報を取得し、取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出し、撮像された顔画像と上記健康病気情報に基づき、健康病気情報に対応する拡張現実の予測顔画像を作成して、鏡面に写し出される顔の鏡像と共に予測顔画像を表示するので、直観的に健康状態を知ることができる。 Biometrics information related to health condition and illness is acquired using image information obtained by imaging the living body including the face from the outside, and based on the acquired biometrics information, health illness information is derived using machine learning technology and imaged. Based on the obtained face image and the above health and illness information, an augmented reality predicted face image corresponding to the health and illness information is created, and the predicted face image is displayed together with the mirror image of the face projected on the mirror surface. Can be known.

次に、第2の実施形態を説明する。第2の実施形態に係るシステムは、図8に示されるように構成される。即ち、センタサーバのコンピュータ部51には、第1の実施形態において備えられたデータ蓄積制御手段71と顔画像作成手段74以外に、バイオメトリックス情報取得手段72、健康病気情報導出手段73が備えられる。 Next, the second embodiment will be described. The system according to the second embodiment is configured as shown in FIG. That is, the computer unit 51 of the center server is provided with the biometrics information acquisition means 72 and the health / disease information derivation means 73 in addition to the data storage control means 71 and the face image creation means 74 provided in the first embodiment. ..

バイオメトリックス情報取得手段72は、顔を含む生体を外部から撮像した画像情報を用いて健康状態と病気とに関係するバイオメトリックス情報を取得するものである。本実施形態では、顔の皮膚色、唇色、眼球色をバイオメトリックス情報として取得(抽出)する。その他、顔の面積(変化)、首や手足の太さや色(変化)などをバイオメトリックス情報として取得しても良い。顔、唇、その他の生体部位の色は、幾つかのポイントの色を求めても良く、また、幾つかのポイントの平均を求めても良い。 The biometrics information acquisition means 72 acquires biometrics information related to a health condition and a disease by using image information obtained by photographing a living body including a face from the outside. In this embodiment, the skin color, lip color, and eyeball color of the face are acquired (extracted) as biometrics information. In addition, the area of the face (change), the thickness and color of the neck and limbs (change), and the like may be acquired as biometrics information. For the color of the face, lips, and other biological parts, the color of some points may be obtained, or the average of some points may be obtained.

健康病気情報導出手段73は、上記バイオメトリックス情報取得手段72が取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出する。この健康病気情報導出手段73は、記憶部52に記憶されている機械学習技術アルゴリズム520を用いて健康病気情報を導出する。機械学習技術アルゴリズム520は、生体部位の色と健康病気情報とが対応付けられた対応付データを備えている。上記のようにして求めた生体部位の色に基づき対応付データを検索して健康病気情報を導出することができる。機械学習技術アルゴリズム520としては、ランダムフォレストやザポートベクタマシンを採用することができる。 The health / disease information derivation means 73 derives health / disease information using machine learning technology based on the biometrics information acquired by the biometrics information acquisition means 72. The health / disease information derivation means 73 derives health / disease information using the machine learning technology algorithm 520 stored in the storage unit 52. The machine learning technology algorithm 520 includes correspondence data in which the color of the biological part and the health / disease information are associated with each other. Based on the color of the living body part obtained as described above, it is possible to search the corresponding data and derive health / disease information. As the machine learning technology algorithm 520, a random forest or the port vector machine can be adopted.

健康病気情報導出手段73によって得られる健康病気情報は、「○○病(症)の予兆」が「極めて僅かにあり」、「あり」、「高い」などとすることができる。また、「このままの生活ですと、○○病(症)となる可能性がある」などの警告情報であっても良い。また、血圧や尿酸値やBM1などのパラメータが正常値に比べて単に高いことを示す情報であっても良い。更に、健康病気情報は、生体情報センサ30により得られた幾つかの生体情報を経時的に並べて作成したグラフとすることもできる。健康病気情報導出手段73によって得られる健康病気情報は、カメラにより撮像された画像情報や生体情報と共に、該当の医師用のコンピュータ70へ送られる。 The health illness information obtained by the health illness information derivation means 73 can have "very slight signs of XX disease (disease)", "presence", "high", and the like. In addition, it may be warning information such as "If you live as it is, you may get XX disease (disease)". Further, it may be information indicating that parameters such as blood pressure, uric acid level, and BM1 are simply higher than normal values. Further, the health / illness information can be a graph created by arranging some biological information obtained by the biological information sensor 30 over time. The health illness information obtained by the health illness information derivation means 73 is sent to the computer 70 for the doctor concerned together with the image information and the biological information captured by the camera.

コンピュータ70のCPU81は、上述のようにセンタサーバ50から送られた画像情報や生体情報及び健康病気情報を受け取り、出力手段82へ送り出力する。医師は、出力手段82によって出力された画像情報や生体情報及び機械学習技術アルゴリズム520による健康病気情報を目視し、これらに基づき健康状態と病気とに関係するバイオメトリックス情報による診断を行い、医師としての診断結果である健康病気情報を導き出す。医師としての診断結果である健康病気情報は、入力手段83から医師によって入力される。入力された医師としての診断結果である健康病気情報は、センタサーバ50のコンピュータ部51へ送られる。 The CPU 81 of the computer 70 receives the image information, the biological information, and the health / illness information sent from the center server 50 as described above, and sends and outputs the information to the output means 82. The doctor visually observes the image information and biological information output by the output means 82 and the health and illness information by the machine learning technology algorithm 520, and based on these, makes a diagnosis based on the biometrics information related to the health condition and the illness, and as a doctor. Derivation of health and illness information, which is the diagnosis result of. The health and illness information, which is the result of the diagnosis as a doctor, is input by the doctor from the input means 83. The input health and illness information, which is the diagnosis result as a doctor, is sent to the computer unit 51 of the center server 50.

コンピュータ部51では、顔画像作成手段74が、撮像された顔画像と上記によりコンピュータ70から送られた医師としての診断結果である健康病気情報に基づき、この健康病気情報に対応する拡張現実の予測顔画像を作成するものである。これ以降の処理は第1の実施形態と同様である。 In the computer unit 51, the face image creating means 74 predicts augmented reality corresponding to the health and illness information based on the captured face image and the health and illness information which is the diagnosis result as a doctor sent from the computer 70 by the above. It creates a face image. Subsequent processing is the same as that of the first embodiment.

以上の通りに構成された第2の実施形態に係るシステムは、図9に示すフローチャートのように動作を行う。ステップS11からステップS14までは第1の実施形態と同じ処理が行われる。上記のようにして到来し記憶部52へ記憶した生体情報と画像情報(顔を含む生体を外部から撮像した画像情報)を用いてコンピュータ部51(のバイオメトリックス情報取得手段72)は、健康状態と病気とに関係するバイオメトリックス情報を取得する(S21)。 The system according to the second embodiment configured as described above operates as shown in the flowchart shown in FIG. From step S11 to step S14, the same processing as in the first embodiment is performed. The computer unit 51 (biometrics information acquisition means 72) is in a healthy state by using the biological information and the image information (image information obtained by photographing the living body including the face from the outside) that arrived in the storage unit 52 as described above. And the biometrics information related to the disease is acquired (S21).

更に、コンピュータ部51は、上記で取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出すると共に、この健康病気情報を生体情報や画像情報(顔を含む生体を外部から撮像した画像情報)と共に医師用のコンピュータ70へ送信して、コンピュータ70の出力手段82から出力する(S22)。出力された生体情報と画像情報に基づき、また機械学習による健康病気情報を参照して医師が診断を行って健康病気情報を得て、この健康病気情報を入力手段82を用いて入力することにより、センタサーバ50へ送信する(S23)。これ以降は、第1の実施形態のステップS17〜S19の処理が行われる。 Further, the computer unit 51 derives health and illness information by using machine learning technology based on the biometrics information acquired above, and captures the health and illness information as biological information and image information (a living body including a face is imaged from the outside). It is transmitted to the computer 70 for doctors together with the image information), and is output from the output means 82 of the computer 70 (S22). Based on the output biological information and image information, the doctor makes a diagnosis by referring to the health and illness information by machine learning, obtains the health and illness information, and inputs this health and illness information using the input means 82. , Sent to the center server 50 (S23). After that, the processes of steps S17 to S19 of the first embodiment are performed.

この第2の実施形態によって表示装置23の画面上に表示される予測顔画像と健康病気情報の表示例は、第1の実施形態と同様に図5、図6、図7に示す通りである。本実施形態によれば、機械学習による健康病気情報が医師に示されるので、医師はこれを参照しながら医師としての診断を加えて健康病気情報を作成することができ、より正確な健康病気情報を得ることが期待できる。 The display example of the predicted face image and the health / illness information displayed on the screen of the display device 23 according to the second embodiment is as shown in FIGS. 5, 6 and 7 as in the first embodiment. .. According to the present embodiment, since the health and illness information by machine learning is shown to the doctor, the doctor can create the health and illness information by adding the diagnosis as a doctor while referring to this, and more accurate health and illness information. Can be expected to be obtained.

なお、本実施形態において、健康病気情報導出手段73に学習機能を持たせて、医師としての診断による健康病気情報に基づき機械学習技術アルゴリズム520を変更するようにしても良い。このように構成することによって、健康病気情報導出手段73による健康病気情報導出の精度を高めることができる、また、本実施形態では、予測顔画像を直接にローカルコンピュータ10へ送信したが、作成された予測顔画像を最初に医師用のコンピュータ70に送り出力し、医師による確認を受けて、医師の許可を受けた予測顔画像のみをローカルコンピュータ10へ送信するようにしても良い。また、医師による確認を受けるばかりでなく、医師用のコンピュータ70に予測顔画像に対し変更を加えるプログラムを備えさせ、顔色や顔の腫れ具合を変更し、変更後の予測顔画像をローカルコンピュータ10へ送信するようにしても良い。また、医師用のコンピュータ70により予測顔画像に対し変更を加えた結果を、顔画像作成手段74にフィードバックして予測顔画像作成用パラメータ530などを変更するようにしても良い。 In the present embodiment, the health / illness information deriving means 73 may be provided with a learning function, and the machine learning technology algorithm 520 may be changed based on the health / illness information diagnosed by a doctor. With this configuration, the accuracy of derivation of health and illness information by the health and illness information derivation means 73 can be improved, and in the present embodiment, the predicted face image is directly transmitted to the local computer 10, but it is created. The predicted face image may be first sent to the computer 70 for doctors and output, and after confirmation by the doctor, only the predicted face image approved by the doctor may be transmitted to the local computer 10. In addition to being confirmed by a doctor, the doctor's computer 70 is provided with a program for changing the predicted face image, the complexion and the degree of swelling of the face are changed, and the changed predicted face image is displayed on the local computer 10. You may send it to. Further, the result of changing the predicted face image by the computer 70 for a doctor may be fed back to the face image creating means 74 to change the predicted face image creating parameter 530 and the like.

10 ローカルコンピュータ
11 表示位置制御手段
12 顔位置検出手段
15 座標検出手段
16 メニュー表示対応処理手段
21 表示制御部
22 鏡面
23 表示装置
24 カメラ
25 タッチパネル
30 生体情報センサ
31 尿検査装置
32 血圧心拍センサ
33 体重体組織計
40 ローカル通信装置
50 センタサーバ
51 コンピュータ部
52 記憶部
60 センタ通信装置
71 データ蓄積制御手段
72 バイオメトリックス情報取得手段
73 健康病気情報導出手段
74 顔画像作成手段
81 CPU
82 出力手段
83 入力手段
90 通信装置
100 利用者宅
101 鏡像
102 予測顔画像
103 グラフ
104、105、108、109 健康病気情報
110 指示キー
500 センタ
520 機械学習技術アルゴリズム
530 予測顔画像作成用パラメータ
600 ネットワーク
700 医療機関


10 Local computer 11 Display position control means 12 Face position detection means 15 Coordinate detection means 16 Menu display support processing means 21 Display control unit 22 Mirror surface 23 Display device 24 Camera 25 Touch panel 30 Biological information sensor 31 Urine test device 32 Blood pressure heart rate sensor 33 Weight Body tissue total 40 Local communication device 50 Center server 51 Computer unit 52 Storage unit 60 Center communication device 71 Data storage control means 72 Biometrics information acquisition means 73 Health and illness information derivation means 74 Face image creation means 81 CPU
82 Output means 83 Input means 90 Communication device 100 User's house 101 Mirror image 102 Predictive face image 103 Graph 104, 105, 108, 109 Health and illness information 110 Instruction key 500 Center 520 Machine learning technology Algorithm 530 Predictive face image creation parameter 600 Network 700 medical institutions


Claims (14)

顔を含む生体を外部から撮像して画像情報を取得するカメラと、
前記生体から生体情報を得る生体情報センサと、
前記生体の健康状態と病気とに関係するバイオメトリックス情報を取得可能に、前記画像情報と生体情報を表示及び/またはプリントアウトにより出力する出力手段と、
前記出力手段により出力された前記画像情報と生体情報のバイオメトリックス情報に基づく医師の診断結果である健康病気情報を入力するための入力手段と、
撮像された顔画像と入力された前記健康病気情報に基づき、前記健康病気情報に対応する拡張現実の予測顔画像を作成する顔画像作成手段と、
鏡面に画像を表示するための表示手段と、
前記予測顔画像を表示する位置を指示する表示位置制御手段と
前記鏡面に写し出される顔の鏡像と共に前記予測顔画像を前記表示位置制御手段の指示に基づき前記表示手段に表示する表示制御手段と
を具備することを特徴とする健康管理システム。
A camera that captures the living body including the face from the outside and acquires image information,
A biological information sensor that obtains biological information from the living body,
An output means for displaying and / or printing out the image information and the biological information so that biometrics information related to the health condition and the disease of the living body can be acquired.
An input means for inputting health and illness information which is a diagnosis result of a doctor based on the biometric information of the image information and biological information output by the output means, and
A face image creating means for creating an augmented reality predicted face image corresponding to the health and illness information based on the captured face image and the input health and illness information.
Display means for displaying images on a mirror surface,
A display position control means for instructing a position to display the predicted face image and a display control means for displaying the predicted face image on the display means based on the instruction of the display position control means together with a mirror image of the face projected on the mirror surface. A health management system characterized by having.
前記表示位置制御手段は、入力された前記健康病気情報を表示する位置を指示するものであり、
前記表示制御手段は、診断結果の前記健康病気情報を前記表示位置制御手段の指示に基づき前記表示手段に表示することを特徴とする請求項1に記載の健康管理システム。
The display position control means indicates a position for displaying the input health / illness information.
The health management system according to claim 1, wherein the display control means displays the health and illness information of the diagnosis result on the display means based on the instruction of the display position control means.
前記鏡面に写し出される顔の鏡像位置を検出する顔位置検出手段を備え、
前記表示位置制御手段は、前記顔の鏡像位置との関係において前記予測顔画像及び/または前記健康病気情報を表示する位置を指示するものであり、
前記表示制御手段は、前記表示位置制御手段の指示に基づき、前記予測顔画像を顔の鏡像位置に対応付けて表示することを特徴とする請求項2に記載の健康管理システム。
A face position detecting means for detecting a mirror image position of a face projected on the mirror surface is provided.
The display position control means indicates a position for displaying the predicted face image and / or the health / illness information in relation to the mirror image position of the face.
The health management system according to claim 2, wherein the display control means displays the predicted face image in association with a mirror image position of the face based on the instruction of the display position control means.
前記表示位置制御手段は、前記予測顔画像を顔の鏡像位置に重ねて表示する制御を行うことを特徴とする請求項3に記載の健康管理システム。 The health management system according to claim 3, wherein the display position control means controls to superimpose and display the predicted face image on a mirror image position of the face. 生体情報センサは、尿検査装置、血圧心拍センサ、体重体組織計の少なくとも1つであることを特徴とする請求項1乃至4のいずれか1項に記載の健康管理システム。 The health management system according to any one of claims 1 to 4, wherein the biological information sensor is at least one of a urinalysis device, a blood pressure heart rate sensor, and a body composition analyzer. 前記カメラにより撮像された画像情報を用いて健康状態と病気とに関係するバイオメトリックス情報を取得するバイオメトリックス情報取得手段と、
取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出する健康病気情報導出手段と、
を更に具備し、
前記健康病気情報導出手段により導出された健康病気情報を前記出力手段から出力することを特徴とする請求項1乃至5のいずれか1項に記載の健康管理システム。
Biometrics information acquisition means for acquiring biometrics information related to health condition and illness using image information captured by the camera, and
Health and illness information derivation means for deriving health and illness information using machine learning technology based on the acquired biometrics information,
Further equipped,
The health management system according to any one of claims 1 to 5, wherein the health / illness information derived by the health / illness information deriving means is output from the output means.
前記バイオメトリックス情報取得手段は、皮膚色、皮膚状態、唇色、眼球色の少なくとも1つを取得することを特徴とする請求項6に記載の健康管理システム。 The health management system according to claim 6, wherein the biometrics information acquisition means acquires at least one of skin color, skin condition, lip color, and eyeball color. 顔を含む生体を外部から撮像して画像情報を取得するカメラと、前記生体から生体情報を得る生体情報センサと、前記生体の健康状態と病気とに関係するバイオメトリックス情報を取得可能に、前記画像情報と生体情報を表示及び/またはプリントアウトにより出力する出力手段と、前記出力手段により出力された前記画像情報と生体情報のバイオメトリックス情報に基づく医師の診断結果である健康病気情報を入力するための入力手段と、鏡面を有し、この鏡面に画像を表示するための表示手段を有し、この表示手段に対し、健康管理に関する表示を行う健康管理システムのコンピュータを、
撮像された顔画像と入力された前記健康病気情報に基づき、前記健康病気情報に対応する拡張現実の予測顔画像を作成する顔画像作成手段、
前記予測顔画像を表示する位置を指示する表示位置制御手段、
前記鏡面に写し出される顔の鏡像と共に前記予測顔画像を前記表示位置制御手段の指示に基づき前記表示手段に表示する表示制御手段
として機能させることを特徴とする健康管理システムのプログラム。
A camera that acquires image information by imaging a living body including a face from the outside, a biological information sensor that obtains biological information from the living body, and biometrics information related to the health condition and illness of the living body can be acquired. Input the output means for displaying and / or printing out the image information and the biological information, and the health and illness information which is the diagnosis result of the doctor based on the biometric information of the image information and the biological information output by the output means. A computer of a health management system that has an input means for, has a mirror surface, and has a display means for displaying an image on the mirror surface, and displays health management on the display means.
A face image creating means for creating an augmented reality predicted face image corresponding to the health and illness information based on the captured face image and the input health and illness information.
Display position control means for instructing a position for displaying the predicted face image,
A program of a health management system characterized in that the predicted face image is made to function as a display control means to be displayed on the display means based on an instruction of the display position control means together with a mirror image of the face projected on the mirror surface.
前記表示位置制御手段を更に、入力された前記健康病気情報を表示する位置を指示するように機能させ、
前記表示制御手段を更に、診断結果の前記健康病気情報を前記表示位置制御手段の指示に基づき前記表示手段に表示するように機能させることを特徴とする請求項8に記載の健康管理システムのプログラム。
The display position control means is further made to function to indicate a position for displaying the input health / illness information.
The program of the health management system according to claim 8 , wherein the display control means further functions to display the health and illness information of the diagnosis result on the display means based on the instruction of the display position control means. ..
コンピュータを更に、
前記鏡面に写し出される顔の鏡像位置を検出する顔位置検出手段として機能させ、
前記表示位置制御手段を更に、前記顔の鏡像位置との関係において前記予測顔画像及び/または前記健康病気情報を表示する位置を指示するように機能させ、
前記表示制御手段を更に、前記表示位置制御手段の指示に基づき、前記予測顔画像を顔の鏡像位置に対応付けて表示するように機能させることを特徴とする請求項9に記載の健康管理システムのプログラム。
Further computer
It functions as a face position detecting means for detecting the mirror image position of the face projected on the mirror surface.
The display position control means is further made to function to indicate a position for displaying the predicted face image and / or the health / illness information in relation to the mirror image position of the face.
The health management system according to claim 9, wherein the display control means further functions to display the predicted face image in association with a mirror image position of the face based on the instruction of the display position control means. Program.
前記表示位置制御手段を更に、前記予測顔画像を顔の鏡像位置に重ねて表示するように機能させることを特徴とする請求項10に記載の健康管理システムのプログラム。 The program of the health management system according to claim 10, wherein the display position control means further functions to display the predicted face image on a mirror image position of the face. 前記生体情報センサは、尿検査装置、血圧心拍センサ、体重体組織計の少なくとも1つであることを特徴とする請求項11に記載の健康管理システムのプログラム。 The program of the health management system according to claim 11 , wherein the biometric information sensor is at least one of a urinalysis device, a blood pressure heart rate sensor, and a body composition analyzer. 前記コンピュータを更に、
前記カメラにより撮像された画像情報を用いて健康状態と病気とに関係するバイオメトリックス情報を取得するバイオメトリックス情報取得手段、
取得したバイオメトリックス情報に基づき機械学習技術を用いて健康病気情報を導出する健康病気情報導出手段、
として機能させ、
前記健康病気情報導出手段により導出された健康病気情報を前記出力手段から出力することを特徴とする請求項8乃至12のいずれか1項に記載の健康管理システムのプログラム。
Further, the computer
A biometrics information acquisition means for acquiring biometrics information related to a health condition and a disease using image information captured by the camera.
Health and illness information derivation means for deriving health and illness information using machine learning technology based on the acquired biometrics information,
To function as
The program of the health management system according to any one of claims 8 to 12, wherein the health and illness information derived by the health and illness information deriving means is output from the output means.
前記バイオメトリックス情報取得手段を更に、皮膚色、皮膚状態、唇色、眼球色の少なくとも1つを取得するように機能させることを特徴とする請求項13に記載の健康管理システムのプログラム。 The program of the health management system according to claim 13, wherein the biometrics information acquisition means is further made to function to acquire at least one of skin color, skin condition, lip color, and eyeball color.
JP2016180742A 2016-09-15 2016-09-15 Health management system and its programs Active JP6821364B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016180742A JP6821364B2 (en) 2016-09-15 2016-09-15 Health management system and its programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016180742A JP6821364B2 (en) 2016-09-15 2016-09-15 Health management system and its programs

Publications (2)

Publication Number Publication Date
JP2018042812A JP2018042812A (en) 2018-03-22
JP6821364B2 true JP6821364B2 (en) 2021-01-27

Family

ID=61692985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016180742A Active JP6821364B2 (en) 2016-09-15 2016-09-15 Health management system and its programs

Country Status (1)

Country Link
JP (1) JP6821364B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109886248B (en) * 2019-03-08 2023-06-23 南方科技大学 Image generation method and device, storage medium and electronic equipment
CN113375313A (en) * 2021-05-18 2021-09-10 青岛海尔空调器有限总公司 Method and device for controlling air conditioner and air conditioner
KR102644249B1 (en) * 2021-11-25 2024-03-08 주식회사 헬스맥스 Health Management Method and System Using Facial Image

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197116A (en) * 1998-01-08 1999-07-27 Mitsubishi Electric Corp Health care system
JP3408524B2 (en) * 2001-02-06 2003-05-19 正 五井野 Makeup advice providing method and makeup advice providing program
KR100657901B1 (en) * 2004-10-12 2006-12-14 삼성전자주식회사 Method and apparatus of generating avata for representing state of health
US20080294012A1 (en) * 2007-05-22 2008-11-27 Kurtz Andrew F Monitoring physiological conditions
JP2012130520A (en) * 2010-12-21 2012-07-12 Shimizu Corp Healthcare sanitary room
JP2013117941A (en) * 2011-10-31 2013-06-13 Sony Corp Diathesis determination apparatus, diathesis determination method, health assistance apparatus, health assistance method, program, terminal apparatus, and health assistance system
US20140121540A1 (en) * 2012-05-09 2014-05-01 Aliphcom System and method for monitoring the health of a user
JP6320143B2 (en) * 2014-04-15 2018-05-09 株式会社東芝 Health information service system

Also Published As

Publication number Publication date
JP2018042812A (en) 2018-03-22

Similar Documents

Publication Publication Date Title
JP6821364B2 (en) Health management system and its programs
CN111476940B (en) Triage referral method and system based on self-service inquiry terminal
JP2012059107A (en) Emotion estimation device, emotion estimation method and program
WO2019162054A1 (en) System and method for client-side physiological condition estimations based on a video of an individual
JP2009053328A (en) Image display device
WO2016067892A1 (en) Degree-of-health outputting device, degree-of-health outputting system, and program
Colantonio et al. Computer vision for ambient assisted living: Monitoring systems for personalized healthcare and wellness that are robust in the real world and accepted by users, carers, and society
JP2022536808A (en) Using a Set of Machine Learning Diagnostic Models to Determine a Diagnosis Based on a Patient's Skin Tone
JP2016140720A (en) Communication terminal, interview system, display method, and program
US11361433B2 (en) Image display control system, image display system, and image analysis device for dynamic medical imaging
JP6716404B2 (en) Health management system and its program
JP2014018251A (en) Ophthalmological photographing apparatus and ophthalmological photographing program
Pistorius Developments in emerging digital health technologies
JP2016163166A (en) Communication terminal, interview system, display method, and program
KR20210141197A (en) Method, apparatur, computer program and computer readable recording medium for providing augmented reality interface for telemedicine
EP3435277A1 (en) Body information analysis apparatus capable of indicating blush-areas
JP2016163150A (en) Communication terminal, interview system, communication method, and program
US20230394124A1 (en) Method for configuring data acquisition settings of a computing device
EP4111984A1 (en) Information processing method, computer program, information processing device, and information processing system
Ktistakis et al. Applications of ai in healthcare and assistive technologies
JP2023502369A (en) Preparation method for analytical determination of analytes in body fluids
JP7401134B2 (en) Proposal information generation device, display device with reflector, suggestion information generation system device, suggestion information generation method, display processing method, program and recording medium
Raad et al. A ubiquitous telehealth system for the elderly
KR20190078299A (en) Apparatus and system for skin diagnosis and method thereof
EP4099338A1 (en) Autonomous image acquisition start-stop managing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190711

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210106

R150 Certificate of patent or registration of utility model

Ref document number: 6821364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250