JP2016202798A - Computer system - Google Patents

Computer system Download PDF

Info

Publication number
JP2016202798A
JP2016202798A JP2015091324A JP2015091324A JP2016202798A JP 2016202798 A JP2016202798 A JP 2016202798A JP 2015091324 A JP2015091324 A JP 2015091324A JP 2015091324 A JP2015091324 A JP 2015091324A JP 2016202798 A JP2016202798 A JP 2016202798A
Authority
JP
Japan
Prior art keywords
user
data
voice
natural language
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015091324A
Other languages
Japanese (ja)
Other versions
JP6567319B2 (en
Inventor
鉄彦 堀
Tetsuhiko Hori
鉄彦 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2015091324A priority Critical patent/JP6567319B2/en
Publication of JP2016202798A publication Critical patent/JP2016202798A/en
Application granted granted Critical
Publication of JP6567319B2 publication Critical patent/JP6567319B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a computer system capable of meeting needs of users for grasping a state of their own biological part.SOLUTION: A computer system is configured to: search, when a user inquires about an intracorporeal part (YES in S66), for data on the intracorporeal part of an inquiry target (S67, S68) from a user DB; determine speech contents on the basis of the searched data (S69); and transmit speech data of the determined speech contents to a wearable computer of the user.SELECTED DRAWING: Figure 6

Description

本発明は、生体センサにより取得されたユーザの生体データを収集して活用するためのコンピュータシステムに関する。   The present invention relates to a computer system for collecting and utilizing user biometric data acquired by a biometric sensor.

この種のコンピュータシステムに関して、例えば、サーバがユーザの生体情報を収集し、その生体情報に基づいてユーザに行わせるべき運動プログラムを決定してユーザ端末に送信し、ユーザに行わせるべき運動に関する情報をユーザに提示するものがあった(特許文献1参照)。   With regard to this type of computer system, for example, the server collects the biological information of the user, determines an exercise program to be performed by the user based on the biological information, transmits it to the user terminal, and information on the exercise to be performed by the user Is presented to the user (see Patent Document 1).

特開2009−213528JP2009-213528

しかし、このようなコンピュータシステムにおいては、収集したユーザの生体情報に基づいてユーザがとるべき運動等の行動が決定されてユーザにフィードバックされるだけである。一方、ユーザにしてみれば、自分の心臓や肝臓等の生体部位の状況を把握したいというニーズがあり、そのニーズに応えることができないという欠点があった。   However, in such a computer system, an action such as exercise to be performed by the user is determined based on the collected biometric information of the user and is only fed back to the user. On the other hand, for users, there is a need for grasping the status of a living body part such as their heart and liver, and there is a drawback that it is impossible to meet the needs.

本発明は上記事情に鑑みてなされたものであり、その目的は、自分の生体部位の状況を把握したいというユーザのニーズに応えることのできるコンピュータシステムを提供することである。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a computer system that can meet the needs of users who want to grasp the status of their own body parts.

以下には、課題を解決するための各手段に対応する実施形態の一例を括弧書き挿入して示す。   In the following, an example of an embodiment corresponding to each means for solving the problem is shown in parentheses.

本発明は、生体センサ(例えば、各種生体センサ2、外部センサ群5)により取得されたユーザの生体データ(例えば、心拍数、体温、血圧、尿酸値、γGTP、体臭中のアセトン等)を収集して活用するためのコンピュータシステム(例えば、サーバ7、対話DB11、ユーザDB12、パターンDB13、ルールDB14)であって、
収集した前記生体データを蓄積するための生体データ蓄積手段(例えば、S23、ユーザDB12)と、
前記生体データ蓄積手段により蓄積されている生体データにより判別可能な生体部位の状態に基づいて、該生体部位とユーザとのコミュニケーションを実現するための制御を行うコミュニケーション手段(例えば、S39〜S46)とを備え、
前記コミュニケーション手段は、
自然言語認識手段(例えば、S50〜S54)と、
前記生体部位の状態を自然言語で表現すための自然言語化手段(例えば、S42、対話DB11)と、
前記自然言語化手段により表現された自然言語をユーザに伝達するための伝達手段(例えば、S43)と、を含み、
ユーザからの自然言語による問いかけがあった場合に、該問いかけを前記自然言語認識手段が認識し、該認識内容に対応する前記生体部位の状態を前記自然言語化手段が表現した自然言語を前記伝達手段がユーザに伝達することにより、前記問いかけに答える(例えば、S66〜S69で問いかけに対する発話内容を決定し、S42で発話内容に応じた発話データを生成し、S43でユーザに送信する)、コンピュータシステム。
The present invention collects user biometric data (for example, heart rate, body temperature, blood pressure, uric acid value, γGTP, acetone in body odor, etc.) acquired by a biosensor (for example, various biosensors 2, external sensor group 5). A computer system (for example, server 7, dialog DB 11, user DB 12, pattern DB 13, rule DB 14)
Biometric data storage means (for example, S23, user DB12) for storing the collected biometric data;
Communication means (for example, S39 to S46) for performing control for realizing communication between the living body part and the user based on the state of the living body part that can be discriminated by the biological data stored by the biological data storage means; With
The communication means is:
Natural language recognition means (for example, S50 to S54);
Natural languageization means (for example, S42, dialogue DB11) for expressing the state of the living body part in natural language;
Transmission means (for example, S43) for transmitting the natural language expressed by the natural languageization means to the user,
When there is an inquiry in a natural language from a user, the natural language recognition unit recognizes the inquiry, and the natural language expressing the state of the living body part corresponding to the recognized content is transmitted. The means communicates to the user to answer the question (for example, utterance content for the question is determined in S66 to S69, utterance data corresponding to the utterance content is generated in S42, and transmitted to the user in S43). system.

また、前記生体部位に影響を与えるユーザの行動データを収集して蓄積するための行動データ蓄積手段(例えば、S64、S65、ユーザDB12)と、
前記行動データ蓄積手段により蓄積されているユーザの行動データと、前記生体データ蓄積手段により蓄積されている生体データと、に基づいて、両者間の相関関係を見つけ出すための相関関係発見手段(例えば、図8(a)の機械学習処理)と、をさらに備えたてもよい。
Also, action data storage means (for example, S64, S65, user DB12) for collecting and storing user action data that affects the living body part,
Based on the user behavior data stored by the behavior data storage means and the biological data stored by the biological data storage means, a correlation finding means for finding a correlation between the two (for example, The machine learning process of FIG. 8A may be further provided.

また、前記生体データ蓄積手段と前記行動データ蓄積手段とは、複数のユーザからのデータを収集して蓄積し(例えば、図1、ユーザID毎にアクションデータとセンサ検出データとを蓄積)、
前記相関関係発見手段は、複数のユーザについての前記行動データと前記生体データとを含むデータ集合からデータマイニングにより相関関係を見つけ出すよいにしてもよい(例えば、S82、S86)。
Further, the biometric data storage means and the behavior data storage means collect and store data from a plurality of users (for example, FIG. 1, storing action data and sensor detection data for each user ID),
The correlation finding means may find a correlation by data mining from a data set including the behavior data and the biological data for a plurality of users (for example, S82 and S86).

また、前記相関関係発見手段により見つけ出された新たな相関関係の前記行動データに該当する行動を行っているユーザを、前記行動データ蓄積手段により蓄積されているユーザの行動データから割出すための該当ユーザ割出手段(例えば、S93、ユーザDB12)と、
前記該当ユーザ割出手段により割出されたユーザに対し所定のメッセージを伝達するためのメッセージ伝達手段(例えば、S94、S96)と、をさらに備えてもよい。
In addition, for calculating a user performing an action corresponding to the action data of the new correlation found by the correlation finding means from the action data of the user accumulated by the action data accumulating means Applicable user indexing means (for example, S93, user DB12),
You may further provide the message transmission means (for example, S94, S96) for transmitting a predetermined message with respect to the user indexed by the said user indexing means.

また、前記自然言語認識手段は、ユーザの音声を認識するための音声認識手段(例えば、S50〜S54)を含み、
前記伝達手段は、前記自然言語化手段により表現された自然言語を音声によりユーザに伝達するための音声伝達手段(例えば、S43)を含み、
前記コミュニケーション手段は、ユーザからの音声による問いかけがあった場合に、該問いかけを前記音声認識手段が認識し、該認識内容に対応する前記生体部位の状態を前記自然言語化手段が表現した自然言語を前記音声伝達手段が音声によりユーザに伝達することにより、前記問いかけに音声で答える(例えば、S66〜S69で問いかけに対する発話内容を決定し、S42で発話内容に応じた発話データを生成し、S43でユーザに送信する)ようにしてもよい。
Further, the natural language recognition means includes voice recognition means (for example, S50 to S54) for recognizing the user's voice,
The transmission means includes voice transmission means (for example, S43) for transmitting the natural language expressed by the natural languageization means to the user by voice,
The communication means is a natural language in which the voice recognition means recognizes the question when the user asks a voice question, and the natural language means expresses the state of the living body part corresponding to the recognized content. Is transmitted to the user by voice so that the question is answered by voice (for example, utterance content for the question is determined in S66 to S69, utterance data corresponding to the utterance content is generated in S42, and S43 To the user).

本発明によれば、ユーザは、生体データ蓄積手段により蓄積されている自分の生体データにより判別可能な生体部位の状態に基づいて、該生体部位とコミュニケーションすることにより、自分の生体部位の状況を把握することができる。   According to the present invention, the user communicates with the living body part based on the state of the living body part that can be discriminated by the living body data stored by the living body data storage means, thereby determining the state of the living body part. I can grasp it.

健康サービスシステムの全体を示す機能ブロック図である。It is a functional block diagram which shows the whole health service system. ウェアラブルコンピュータおよびそれに接続された各種生体センサと外部センサ群との制御回路を示すブロック図である。It is a block diagram which shows the control circuit of a wearable computer and the various biological sensors connected to it, and an external sensor group. サーバの制御回路を示すブロック図である。It is a block diagram which shows the control circuit of a server. (a)はウェアラブルコンピュータおよびサーバのメインルーチンを示すフローチャートであり、(b)はデータ送信処理およびデータ収集処理のサブルーチンプログラムを示すフローチャートである。(A) is a flowchart which shows the main routine of a wearable computer and a server, (b) is a flowchart which shows the subroutine program of a data transmission process and a data collection process. (a)はウェアラブルコンピュータとサーバとの対話処理のサブルーチンプログラムを示すフローチャートであり、(b)は音声認識処理のサブルーチンプログラムを示すフローチャートである。(A) is a flowchart which shows the subroutine program of the dialogue process of a wearable computer and a server, (b) is a flowchart which shows the subroutine program of a speech recognition process. (a)は認識した結果に応じた対応処理のサブルーチンプログラムを示すフローチャートであり、(b)はメッセージ生成処理のサブルーチンプログラムを示すフローチャートであり、(c)は外部センサ処理のサブルーチンプログラムを示すフローチャートであり、(d)は撮像処理のサブルーチンプログラムを示すフローチャートである。(A) is a flowchart showing a subroutine program of corresponding processing according to the recognized result, (b) is a flowchart showing a subroutine program of message generation processing, and (c) is a flowchart showing a subroutine program of external sensor processing. (D) is a flowchart showing a subroutine program for imaging processing. ウェアラブルコンピュータの表示部に表示される画面図である。It is a screen figure displayed on the display part of a wearable computer. (a)は機械学習処理のサブルーチンプログラムを示すフローチャートであり、(b)は機械学習結果に基づいた対話処理のサブルーチンプログラムを示すフローチャートである。(A) is a flowchart which shows the subroutine program of a machine learning process, (b) is a flowchart which shows the subroutine program of the dialogue process based on a machine learning result. (a)はパターンDBに記憶されているデータを示す図であり、(b)はルールDBに記憶されているデータを示す図である。(A) is a figure which shows the data memorize | stored in pattern DB, (b) is a figure which shows the data memorize | stored in rule DB. (a)はルール化処理のサブルーチンプログラムを示すフローチャートであり、(b)は効果検証処理のサブルーチンプログラムを示すフローチャートであり、(c)はその他の対応のサブルーチンプログラムを示すフローチャートである。(A) is a flowchart showing a subroutine program for rule processing, (b) is a flowchart showing a subroutine program for effect verification processing, and (c) is a flowchart showing other corresponding subroutine programs.

以下、本発明の実施形態を図面に基づいて詳述する。まず、 図1の全体システムを参照し、ユーザ4は、スマートグラス等を含むウェアラブルコンピュータ3を装着しており、ユーザ4の生体を検出するための各種生体センサ2がそのウェアラブルコンピュータ3に接続されている。この各種センサ2の検出データ(生体データ)がウェアラブルコンピュータ3、インターネット1を経由してサーバ7へ転送され、そのサーバ7がユーザデータベース(以下、データベースを「DB」と略す)12に各種センサ検出データを記憶する。例えばトイレに設けられた尿センサ59や体重センサ60からなる外部センサ群5にユーザ4が近づきその外部センサ群5によりユーザ4の生体データが検出されれば、そのユーザ4のウェアラブルコンピュータ3と外部センサ群5とが通信してその外部センサ群5によるセンサデータがウェアラブルコンピュータ3、インターネット1を経由してサーバ7へ送信される。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, referring to the entire system of FIG. 1, a user 4 is wearing a wearable computer 3 including a smart glass and the like, and various biological sensors 2 for detecting the living body of the user 4 are connected to the wearable computer 3. ing. The detection data (biological data) of the various sensors 2 is transferred to the server 7 via the wearable computer 3 and the Internet 1, and the server 7 detects various sensors in a user database (hereinafter referred to as "DB") 12. Store the data. For example, when the user 4 approaches the external sensor group 5 including the urine sensor 59 and the weight sensor 60 provided in the toilet and the biometric data of the user 4 is detected by the external sensor group 5, the wearable computer 3 of the user 4 and the external The sensor group 5 communicates, and sensor data from the external sensor group 5 is transmitted to the server 7 via the wearable computer 3 and the Internet 1.

ユーザ4がベッド等により睡眠をとった場合にそのベッド等に設置されている睡眠センサ6がユーザの睡眠状態を検知してその検出データがインターネット1を経由してサーバ7へ送信される。さらに、サプリメント(以下「サプリ」という)等の健康食品メーカ8には、サーバ8aと商品開発DB8bとが設置されており、サーバ8aがインターネット1に接続されて健康サービス提供業者10のサーバ7と通信可能に構成されている。商品開発DB8bには、開発されたサプリ等の商品データや開発中の商品のデータが蓄積されている。また、製薬メーカ9には、サーバ9aと商品開発DB9bとが設置されており、サーバ9aがインターネット1に接続されて健康サービス提供業者10のサーバ7と通信可能に構成されている。商品開発DB9bには、開発された製薬等の商品データや開発中の商品のデータが蓄積されている。   When the user 4 sleeps in a bed or the like, the sleep sensor 6 installed in the bed or the like detects the user's sleep state, and the detection data is transmitted to the server 7 via the Internet 1. Furthermore, a health food manufacturer 8 such as a supplement (hereinafter referred to as “supplement”) is provided with a server 8a and a product development DB 8b, and the server 8a is connected to the Internet 1 and connected to the server 7 of the health service provider 10. It is configured to be able to communicate. The product development DB 8b stores product data such as developed supplements and data on products under development. In addition, the pharmaceutical manufacturer 9 is provided with a server 9a and a product development DB 9b. The server 9a is connected to the Internet 1 and configured to be able to communicate with the server 7 of the health service provider 10. In the product development DB 9b, product data of developed pharmaceuticals and the like and data of products under development are accumulated.

健康サービス提供業者10には前述のサーバ7が設置されており、そのサーバ7に、対話DB11とユーザDB12とパターンDB13とルールDB14とが接続されている。また、ユーザ4の生体に影響を及ぼすようなアクション、例えば、食事、薬の服用、サプリの摂取等のユーザのアクションのデータが、ウェアラブルコンピュータ3、インターネット1を経由してサーバ7に送信される。例えばユーザが食事をしたときに、その食事をウェアラブルコンピュータ3のカメラ入力部29により撮像してサーバ7へ送信する。サーバ7では、その撮像データに基づいてユーザ4が食した食材(例えばサラダ,牛肉,パン)を割り出し、ユーザDB12に記憶する。また、ユーザ4が薬を服用した場合に「風邪薬服用」と喋ればその音声がウェアラブルコンピュータ3、インターネット1を経由してサーバ7へ転送され、サーバ7で音声認識されてユーザDB12に「薬:風邪薬服用」と記憶される。さらにユーザ4がサプリを摂取した場合に「ウコン摂取」と喋ればその音声がウェアラブルコンピュータ3、インターネット1を経由してサーバ7へ送信され、サーバ7において音声認識されてユーザDB12に「サプリ:ウコン摂取」と記憶される。   The health service provider 10 is provided with the server 7 described above, and a dialogue DB 11, a user DB 12, a pattern DB 13, and a rule DB 14 are connected to the server 7. Also, actions that affect the living body of the user 4, for example, user action data such as meals, taking medicines, taking supplements, etc. are transmitted to the server 7 via the wearable computer 3 and the Internet 1. . For example, when the user eats a meal, the meal is captured by the camera input unit 29 of the wearable computer 3 and transmitted to the server 7. In the server 7, ingredients (for example, salad, beef, bread) eaten by the user 4 are determined based on the imaging data and stored in the user DB 12. Also, if the user 4 says “take cold medicine” when taking a medicine, the voice is transferred to the server 7 via the wearable computer 3 and the Internet 1, the voice is recognized by the server 7, and the “medicine” is stored in the user DB 12. : “Cold medicine”. Further, when the user 4 ingests the supplement, if the user says “turmeric intake”, the voice is transmitted to the server 7 via the wearable computer 3 and the Internet 1, and the server 7 recognizes the voice, and the user DB 12 receives “supple: turmeric”. "Ingestion" is memorized.

健康サービス提供業者10は、その健康サービス提供システムに加盟しているユーザごとにユーザIDを割り振っており、多数のユーザ4から送信されてくる前述したセンサ検出データとアクションデータとをユーザIDごとに分類してユーザDB12に記憶する。そのセンサ検出データおよびアクションデータは、時間tとともに変化するものであり、例えば1分ごとあるいは1秒ごとにセンサ検出データとアクションデータとを記憶する。図1では、ユーザID:051392704の日時2015年4月9日7時30分15秒のデータとして、
(アクションデータ)
食事:サラダ+牛肉+パン
薬:風邪薬服用
サプリ:ウコン摂取
(センサ検出データ)
心拍数センサ:75
体温センサ:36.7
血圧センサ:140〜75
尿センサ:PH6,尿酸8.2
血液センサ:γGTP153,中性脂肪160,コレステロール130,ビリルビン1.2
体臭センサ:アセトン
等が記憶されている。このようなデータが時間軸tに沿ってユーザDB12に記憶される。
The health service provider 10 assigns a user ID to each user who is a member of the health service providing system, and the sensor detection data and action data transmitted from a large number of users 4 for each user ID. The data is classified and stored in the user DB 12. The sensor detection data and action data change with time t. For example, the sensor detection data and action data are stored every minute or every second. In FIG. 1, the date and time of the user ID: 051392704, April 9, 2015, 7:30:15,
(Action data)
Meals: Salad + Beef + Bread medicine: Cold medicine supplements: Turmeric intake (sensor detection data)
Heart rate sensor: 75
Body temperature sensor: 36.7
Blood pressure sensor: 140-75
Urine sensor: PH6, uric acid 8.2
Blood sensor: γGTP153, neutral fat 160, cholesterol 130, bilirubin 1.2
Body odor sensor: acetone and the like are stored. Such data is stored in the user DB 12 along the time axis t.

健康サービス提供業者10は、ユーザDB12に記憶されている前述した各種データに基づいて、ユーザ4の健康を支援するための各種サービスを提供する。   The health service provider 10 provides various services for supporting the health of the user 4 based on the above-described various data stored in the user DB 12.

次に図2を参照して、ウェアラブルコンピュータの制御回路のハードウェア構成を説明する。このウェアラブルコンピュータ3はスマートグラス等で代表されるものであり、制御中枢としてのCPU(Central Processing Unit)23、CPU23のワークエリアであるRAM(Random Access Memory)25、各種機能を実行するためのプログラムを保存したROM(Read Only Member)24、およびEEPROM(Electronically Erasable and Programmable Read Only Memory)26が、バス27により接続されている。   Next, the hardware configuration of the control circuit of the wearable computer will be described with reference to FIG. The wearable computer 3 is typified by a smart glass or the like. A CPU (Central Processing Unit) 23 as a control center, a RAM (Random Access Memory) 25 as a work area of the CPU 23, and programs for executing various functions. ROM (Read Only Member) 24 and EEPROM (Electronically Erasable and Programmable Read Only Memory) 26 are connected by a bus 27.

バス27は、インタフェース部28を介して種々のデバイスが接続されている。例えば、ユーザ4の周辺の映像(ユーザの視線方向の映像等)を撮影するデジタルビデオカメラ入力部29、各種情報等をユーザに表示する表示部30、基地局と無線通信してインターネット1を介してサーバ等とデータ通信する無線通信処理部31、ユーザがウェアラブルコンピュータ3のCPU23に希望する機能を実行させるための入力操作部32、ユーザが音声により通話をするための音声出力部33と音声入力部34、衛星からのGPS情報と基地局からの電波と無線LANアクセスポイントからの無線電波とに基づいて、現在位置を取得するための位置情報取得部35、Wi-FiやBluetooth(登録商標)、Wi-Fi Direct、Zigbee(登録商標)、Zwave、Ant+などを用いて各種センサ2や外部センサ群5と通信する無線通信インタフェース部36、ユーザの視線位置を検出して、デジタルビデオカメラ入力部29で撮影した映像でのユーザ視線の位置を特定するための視線位置検出部37、各種センサ38などが、インタフェース部28に接続されている。   Various devices are connected to the bus 27 via an interface unit 28. For example, a digital video camera input unit 29 that captures images around the user 4 (images in the direction of the user's line of sight, etc.), a display unit 30 that displays various information to the user, and wireless communication with a base station via the Internet 1 A wireless communication processing unit 31 that performs data communication with a server, an input operation unit 32 for causing the CPU 23 of the wearable computer 3 to execute a desired function, and a voice output unit 33 and a voice input for a user to make a voice call Unit 34, position information acquisition unit 35 for acquiring the current position based on GPS information from the satellite, radio waves from the base station, and radio waves from the wireless LAN access point, Wi-Fi or Bluetooth (registered trademark) , Wi-Fi Direct, Zigbee (registered trademark), Zwave, Ant +, etc. to communicate with various sensors 2 and external sensor group 5, wireless communication interface unit 36, A line-of-sight position detection unit 37, various sensors 38, etc. for detecting the position of the line of sight of the user and identifying the position of the user's line of sight in the video captured by the digital video camera input unit 29 are connected to the interface unit 28. Yes.

入力操作部32は、ユーザによる手動操作を受付けるものばかりでなく、ユーザのジェスチャや特定のウインク等による指示も受付ける。なお、ユーザの音声による指示は音声入力部34により受付ける。各種センサ38は、ウェアラブルコンピュータ3に取り付けられた気温や湿度や照度や紫外線等のセンサである。   The input operation unit 32 receives not only a manual operation by the user but also an instruction by a user's gesture or a specific wink. The user's voice instruction is received by the voice input unit 34. The various sensors 38 are sensors such as temperature, humidity, illuminance, and ultraviolet light attached to the wearable computer 3.

各種生体センサ2は、無線通信インタフェース部57が設けられており、この無線通信インタフェース部57によりウェアラブルコンピュータ3の無線通信インタフェース部36と無線通信することにより、センサ検出データをウェアラブルコンピュータ3に送信する。各種生体センサの種類としては、ユーザ4の心拍数を検出する心拍数センサ15、ユーザ4の体温を検出する体温センサ16、ユーザ4の血圧を検出する血圧センサ17、ユーザ4の血液を非侵襲で検出する非侵襲血液センサ18、ユーザ4の体臭を検出する体臭センサ19、ユーザ4の歩いた歩数を検出する歩数センサ50、ユーザ4の涙の成分を検出する涙センサ51、AGEsセンサ52等である。   The various biosensors 2 are provided with a wireless communication interface unit 57. The wireless communication interface unit 57 wirelessly communicates with the wireless communication interface unit 36 of the wearable computer 3 to transmit sensor detection data to the wearable computer 3. . The types of various biosensors include a heart rate sensor 15 that detects the heart rate of the user 4, a body temperature sensor 16 that detects the body temperature of the user 4, a blood pressure sensor 17 that detects the blood pressure of the user 4, and the blood of the user 4 non-invasively. Non-invasive blood sensor 18 for detecting body odor, body odor sensor 19 for detecting body odor of user 4, step number sensor 50 for detecting the number of steps taken by user 4, tear sensor 51 for detecting a component of tears of user 4, AGEs sensor 52, etc. It is.

血圧センサ17は、例えば位相シフト法を用いてユーザの指だけで血圧を測るもの(例えば光センサを利用)が考えられる。非侵襲血液センサ18は、採血することなく血液成分を測定するセンサであり、生体を透過させた近赤外光を高感度かつ高速に分光計測することにより、生体を透過した光の連続的な変動をとらえて、例えば血中の脂質あるいは血糖値を測定する。   As the blood pressure sensor 17, for example, a sensor that measures blood pressure with only a user's finger using a phase shift method (for example, using an optical sensor) can be considered. The non-invasive blood sensor 18 is a sensor that measures a blood component without collecting blood, and continuously measures the light transmitted through the living body by performing spectroscopic measurement of near-infrared light transmitted through the living body with high sensitivity and high speed. For example, the blood lipid level or blood glucose level is measured by detecting the fluctuation.

体臭センサ19は、バイオセンサを用いてにおい物質の微量検知を行うのであり、検出されたにおい成分により病名を特定することができる。例えば、検出されたにおい成分が、アセトンなどのケトン体である場合には糖尿病が疑われ、アンモニアである場合には腎臓病や肝臓病が疑われ、塩化メチルなどの硫化化合物の場合には胃腸病が疑われ、トルエンの場合には肺がんや乳がんが疑われる。   The body odor sensor 19 uses a biosensor to detect a minute amount of an odor substance, and a disease name can be specified by the detected odor component. For example, if the detected odor component is a ketone body such as acetone, diabetes is suspected, if it is ammonia, kidney disease or liver disease is suspected, and if it is a sulfide compound such as methyl chloride, the gastrointestinal tract is suspected. Disease is suspected, and in the case of toluene, lung cancer and breast cancer are suspected.

涙センサ51は、例えばコンタクトレンズに設けられたバイオセンサであり、ブドウ糖を認識する素子(グルコース酸化酵素)をコンタクトレンズ上に固定して涙の中のグルコース(血糖)を計測することにより、血糖値を測定する。   The tear sensor 51 is a biosensor provided in, for example, a contact lens, and measures glucose (blood sugar) in tears by fixing an element (glucose oxidase) that recognizes glucose on the contact lens. Measure the value.

AGEsセンサ52は、血管内でタンパク質が糖化してできる終末糖化産物(AGEs)の蓄積度を数値化できるセンサである。日常生活で糖分を過剰に摂取すると、タンパク質が糖化し、本来の働きを発揮できなくなる。この糖化反応は糖尿病のほか、認知症やがん、高血圧、動脈硬化症などにも関与している。このAGEsは万病のもとと言われている物質であり、血糖値と相関することが知られているが、血糖値とは異なり、測定前の食事内容などによって測定値がばらつきにくいという利点がある。このAGEsを検出することにより、血管の老化度が判別でき、糖尿病などの早期発見となる。   The AGEs sensor 52 is a sensor that can quantify the degree of accumulation of terminal glycation products (AGEs) formed by glycation of proteins in blood vessels. If you consume too much sugar in your daily life, the protein will saccharify and you will not be able to perform its original function. In addition to diabetes, this saccharification reaction is also involved in dementia, cancer, hypertension, arteriosclerosis and the like. These AGEs are substances that are said to cause all diseases, and are known to correlate with blood glucose levels, but unlike blood glucose levels, they have the advantage that measured values are less likely to vary depending on the content of meals before measurement. is there. By detecting these AGEs, the aging degree of blood vessels can be discriminated, and early detection of diabetes or the like is made.

以上説明した各種生体センサがインタフェース部53を介してCPU55に定期的に接続されている。CPU55は、制御用のプログラムおよびデータを記憶しているROM54と定期的に接続されているとともに、CPU55のワークエリアとして機能するRAM56と接続されている。そして、前述の各種生体センサからの検出信号を無線通信インタフェース部57を介してウェアラブルコンピュータ3の無線通信インタフェース部36へ送信する。   The various biological sensors described above are periodically connected to the CPU 55 via the interface unit 53. The CPU 55 is regularly connected to a ROM 54 that stores a control program and data, and is also connected to a RAM 56 that functions as a work area for the CPU 55. And the detection signal from the above-mentioned various biological sensors is transmitted to the wireless communication interface unit 36 of the wearable computer 3 through the wireless communication interface unit 57.

外部センサ群5は、トイレセンサ58とその他のセンサの61等からなる。トイレセンサ58は、尿の成分を検出する尿センサ59と、トイレに座ったユーザの体重を検出する体重センサ60とからなる。これらトイレセンサ58およびその他のセンサ61がウェアラブルコンピュータ3の無線通信インタフェース部36と無線通信し、センサ検出データがウェアラブルコンピュータ3に送信される。   The external sensor group 5 includes a toilet sensor 58 and 61 of other sensors. The toilet sensor 58 includes a urine sensor 59 that detects urine components and a weight sensor 60 that detects the weight of a user sitting in the toilet. The toilet sensor 58 and other sensors 61 communicate wirelessly with the wireless communication interface unit 36 of the wearable computer 3, and sensor detection data is transmitted to the wearable computer 3.

ウェアラブルコンピュータ3は、各種生体センサ2および外部センサ群5から送信されてきたセンサ検出データ(生体データ)を無線通信処理部31からインターネット1を経由してサーバ7へ送信する。   The wearable computer 3 transmits sensor detection data (biological data) transmitted from the various biological sensors 2 and the external sensor group 5 from the wireless communication processing unit 31 to the server 7 via the Internet 1.

次に、図3に基づいて、サーバ7の制御回路のハードウェア構成を説明する。前述と同様に、CPU40、RAM41およびROM42がバス43により接続されている。そのバス43が接続されているインタフェース部44には、インターネット1等との通信部45、オペレータに映像や情報を表示する表示部46、オペレータからの操作を受付ける入力操作部47が接続されている。   Next, the hardware configuration of the control circuit of the server 7 will be described with reference to FIG. As described above, the CPU 40, the RAM 41, and the ROM 42 are connected by the bus 43. The interface unit 44 to which the bus 43 is connected is connected to a communication unit 45 with the Internet 1 and the like, a display unit 46 for displaying video and information to the operator, and an input operation unit 47 for receiving operations from the operator. .

次に、図4(a)を参照して、サーバ7およびウェアラブルコンピュータ3のメインルーチンの制御動作を説明する。ウェアラブルコンピュータ3のCPU23は、ステップS(以下単に「S」という)10により、収集した生体データをサーバ7へ送信する処理を行い、次にS11により対話処理を行い、次にS12より外部センサ処理を行い、次にS13により撮像処理を行ってS10へ制御が戻る。   Next, the control operation of the main routine of the server 7 and the wearable computer 3 will be described with reference to FIG. The CPU 23 of the wearable computer 3 performs a process of transmitting the collected biological data to the server 7 in step S (hereinafter simply referred to as “S”) 10, then performs a dialogue process in S 11, and then performs an external sensor process in S 12. Next, the imaging process is performed in S13, and the control returns to S10.

サーバ7は、S1により、ウェアラブルコンピュータ3から送信されてきた生体データを収集するデータ収集処理を行い、S2により、ウェアラブルコンピュータ3との対話処理を行い、S3により、機械学習処理を行い、S4によりその学習結果に基づいた対話処理を行い、S5によりルール化処理を行い、S6により効果検証処理を行い、S7によりパターン販売処理を行って制御がS1に戻る。   The server 7 performs data collection processing for collecting biometric data transmitted from the wearable computer 3 in S1, performs interactive processing with the wearable computer 3 in S2, performs machine learning processing in S3, and performs S4. Dialog processing based on the learning result is performed, rule processing is performed in S5, effect verification processing is performed in S6, pattern sales processing is performed in S7, and control returns to S1.

S3の機械学習処理は、例えばユーザDB12に記憶された多数のユーザのアクションデータとセンサ検出データ(生体データ)とをデータ集合としてデータマイニング等を行うものである。学習結果に基づいた対応処理(S4)は、S3による機械学習処理の結果を各ユーザにフィードバックするための処理である。S5のルール化処理は、S3による機械学習処理の結果をルールとしてルールDB14に記憶する処理である。   The machine learning process of S3 performs, for example, data mining using a large number of user action data and sensor detection data (biological data) stored in the user DB 12 as a data set. The correspondence process (S4) based on the learning result is a process for feeding back the result of the machine learning process in S3 to each user. The rule forming process in S5 is a process for storing the result of the machine learning process in S3 in the rule DB 14 as a rule.

次に図4(b)を参照して、S10のデータ送信処理とS1のデータ収集処理とのサブルーチンプログラムの制御動作を説明する。ウェアラブルコンピュータ3のCPU23によりセンサからの検出データがあるか否かの判定がなされる(S18)、生体センサからの検出データ(生体データ)がない場合には制御がS20へ進み、食事の撮像画像データがあるか否かの判定がなされ、ない場合にはこのデータ送信処理がリターンして前述のS11へ制御が移行する。   Next, with reference to FIG. 4B, the control operation of the subroutine program of the data transmission process of S10 and the data collection process of S1 will be described. The CPU 23 of the wearable computer 3 determines whether or not there is detection data from the sensor (S18). If there is no detection data (biological data) from the biosensor, the control proceeds to S20, and a captured image of the meal It is determined whether or not there is data. If there is no data, the data transmission process returns and the control shifts to S11 described above.

各種生体センサ2からの検出データがあった場合にはS19により、ユーザIDとセンサ特定IDとその検出データとをサーバ7へ送信する処理が行われる。センサ特定IDとは、例えば心拍数センサ15、体温センサ16、血圧センサ17…の各種生体センサに割り振られているIDのことである。   If there is detection data from the various biological sensors 2, a process of transmitting the user ID, the sensor identification ID, and the detection data to the server 7 is performed in S19. The sensor identification ID is an ID assigned to various biological sensors such as a heart rate sensor 15, a body temperature sensor 16, a blood pressure sensor 17.

サーバ7のCPU40は、S22により検出データを受信したか否かの判定を行い、受信していない場合には制御がS24へ進み、撮像画像データを受信したか否かの判定を行い、受信していない場合にはこのデータ収集処理がリターンして前述のS2の処理に移行する。ウェアラブルコンピュータ3から検出データが送られてくればS22によりYESの判断がなされて制御がS23へ進み、受信したユーザIDに対応づけてセンサ特定IDで特定される種類のセンサの検出データをユーザDB12に記憶する処理が行われる。その結果、図1に示したセンサ検出データがユーザDB12に記憶されることとなる。   The CPU 40 of the server 7 determines whether or not the detection data has been received in S22. If not, the control proceeds to S24 to determine whether or not the captured image data has been received and received. If not, the data collection process returns and the process proceeds to S2. If detection data is sent from the wearable computer 3, a determination of YES is made in S22 and the control advances to S23, and the detection data of the type of sensor specified by the sensor identification ID in association with the received user ID is stored in the user DB 12. Is stored. As a result, the sensor detection data shown in FIG. 1 is stored in the user DB 12.

ユーザがウェアラブルコンピュータ3のカメラ入力部29により食事の料理を撮像してサーバ7へ送信してくれば、S24によりYESの判断がなされて制御がS25へ進み、その撮像画像データに基づいて食物の種類とカロリーとを割り出してユーザDB12に記憶する処理が行われる。その結果、図1に示すような「食事:サラダ+牛肉+パン」のような食物の種類が記憶されるとともにカロリー(図示省略)がユーザDB12に記憶される。この料理の撮像画像から食物の種類とカロリーとを割り出す制御は、多数の料理の画像を記憶しているデータベースと受信した撮像画像とを対比し、適合する料理をデータベースの料理画像から割出し、カロリーを算出する。なお、料理の撮像画像から食物の種類とカロリーとを割り出すことを人為的に行ってもよい。   If the user images a meal of food by the camera input unit 29 of the wearable computer 3 and transmits it to the server 7, a determination of YES is made in S24, and the control proceeds to S25, and the food is determined based on the captured image data. A process of determining the type and calorie and storing it in the user DB 12 is performed. As a result, the type of food such as “meal: salad + beef + bread” as shown in FIG. 1 is stored and calories (not shown) are stored in the user DB 12. The control for calculating the type of food and the calorie from the captured image of the dish is performed by comparing the database storing the images of many dishes and the received captured image, and calculating the appropriate dish from the dish image of the database. Calculate calories. Note that the type of food and the calorie may be artificially determined from the captured image of the dish.

次に図5(a)を参照して、ウェアラブルコンピュータ3のS11による対話処理とサーバ7のS2による対話処理とのサブルーチンプログラムの制御動作を説明する。ウェアラブルコンピュータ3のCPU23がS29により音声入力があるか否かを判定し、音声入力がない場合には制御がS33へ進み、サーバ7からメッセージを受信したか否かの判定を行い、受信していない場合にはこの対話処理がリターンして前述のS3へ制御が移行する。ユーザ4がしゃべった音声が音声入力部34から入力されれば、S29によりYESの判断がなされてS30によりその入力された音声データがサーバ7へ送信される。   Next, with reference to FIG. 5 (a), the control operation of the subroutine program of the dialogue process by S11 of the wearable computer 3 and the dialogue process by S2 of the server 7 will be described. The CPU 23 of the wearable computer 3 determines whether or not there is a voice input in S29. If there is no voice input, the control advances to S33 to determine whether or not a message has been received from the server 7 and received. If not, the dialogue process returns and the control shifts to S3 described above. If the voice spoken by the user 4 is input from the voice input unit 34, a determination of YES is made in S29, and the input voice data is transmitted to the server 7 in S30.

サーバ7では、CPU40が音声を受信したか否か判定し(S39)、受信していない場合には制御がS44へ進み、メッセージ生成処理を行い、S45によりメッセージがあるか否か判定され、ない場合にはこの対話処理が終了してリターンし制御がS3へ移行する。   In the server 7, it is determined whether or not the CPU 40 has received a sound (S39). If not, the control proceeds to S44, a message generation process is performed, and it is determined whether or not there is a message in S45. If this is the case, the interactive process ends and returns, and the control shifts to S3.

S31によりウェアラブルコンピュータ3から音声データがサーバ7へ送信されてくれば、S39によりYESの判断がなされて制御がS40へ進み、音声認識処理が行われ、S41によりその認識化に応じた対応処理が行われ、S42によりその対応処理に基づいた発話データの生成処理が行われ、S43によりその発話データと画像データとをウェアラブルコンピュータ3へ送信する処理が行われる。ウェアラブルコンピュータ3では、S31によりそのデータを受信し、S32により、その受信した発話データに基づいて音声出力部33から音声を発して発話し、受信した画像データに基づいて表示部30により画像を表示する処理を行う。   If the voice data is transmitted from the wearable computer 3 to the server 7 in S31, a determination of YES is made in S39, the control proceeds to S40, a voice recognition process is performed, and a corresponding process corresponding to the recognition is performed in S41. In step S42, utterance data generation processing based on the corresponding processing is performed. In step S43, processing for transmitting the utterance data and image data to the wearable computer 3 is performed. The wearable computer 3 receives the data in S31, and in S32, utters a voice from the voice output unit 33 based on the received utterance data, and displays an image on the display unit 30 based on the received image data. Perform the process.

ここで、S40の音声認識処理の具体的制御動作とS41による認識結果に応じた対応処理の具体的制御動作とを説明する。   Here, the specific control operation of the speech recognition process in S40 and the specific control operation of the corresponding process according to the recognition result in S41 will be described.

まず、S40による音声認識処理のサブルーチンプログラムの制御動作を図5(b)に基づいて説明する。まずS50により形態素解析処理を行い、S51により構文解析処理を行い、S52により意味解析処理行い、S53により文脈解析処理を行い、S54により意図解析処理(意図解釈処理)を行う。これらの解析処理は自然言語処理エンジンで実行される。   First, the control operation of the subroutine program for speech recognition processing in S40 will be described with reference to FIG. First, morphological analysis processing is performed in S50, syntax analysis processing is performed in S51, semantic analysis processing is performed in S52, context analysis processing is performed in S53, and intention analysis processing (intention interpretation processing) is performed in S54. These analysis processes are executed by a natural language processing engine.

形態素解析とは、文章を意味のある単語に区切り、辞書を利用して品詞や内容を判別することである。構文解析とは、文節と文節の係り受け関係を判定する処理である。意味解析とは、ベクトル空間モデルを利用した自然言語処理の技法の1つで、文書群とそこに含まれる用語群について、それらに関連した概念の集合を生成することで、その関係を分析することである。文脈解析とは、複数の文のつながりをチェックするものである。意図解析(意図解釈)とは、文章の意味を理解する処理である。   Morphological analysis is to divide a sentence into meaningful words and discriminate parts of speech and contents using a dictionary. Parsing is a process for determining the dependency relationship between clauses. Semantic analysis is a natural language processing technique that uses a vector space model, and analyzes the relationship between a group of documents and a group of terms contained therein by generating a set of related concepts. That is. Context analysis is to check the connection of multiple sentences. Intention analysis (intention interpretation) is a process of understanding the meaning of a sentence.

次に、次にS41の認識結果に応じた対応処理のサブルーチンプログラムの制御動作を図6(a)に基づいて説明する。まず、S64により、ユーザ4からのアクションの報告があったか否かの判定がなされる。例えばユーザが音声により「風邪薬服用」としゃべってその音声が前述の音声認識処理により認識された場合にはS64により「風邪薬服用」というアクションの報告があったと判定され、制御がS65へ進み、その報告されたアクションをユーザDB12に記憶する処理がなされる。一方アクションの報告でないと判定された場合には制御がS66へ進み、体内部位(生体部位)に関する対話か否かの判定がなされる。ユーザ4が音声により例えば「肝臓を指定して調子はどうだい。」としゃべってその音声が前述の音声認識処理により音声認識された場合にはS66によりYESの判断がなされて制御がS67へ進み、認識結果に関連する体内部位のIDを割り出す処理が行われる。肝臓、胃、腎臓等の各体内部位(各生体部位)にはそれぞれIDが割り振られており、その部位IDを割り出す処理がS67により行われる。次にS68により、その割り出された部位IDのデータをユーザDB12から検索する処理がなされる。例えば、S67により割り出された部位IDが肝臓のIDであった場合には、ユーザDB12に記憶されているセンサ検出データのうち血液センサの項目における「γGTP153、ビリルビン1.2」のデータがS68により検索される。次にS69により、その検索されたデータに基づいて発話内容が決定される。例えば、「γGTPとビリルビンとの数値データが時間軸tに沿ってユーザDB12に記憶されており、それらデータが時間の経過とともに改善されている場合には、「だいぶん回復したよ」の発話内容がS69により決定される。このような発話内容は、対話DB11に記憶されている。サーバ7は、対話DB11を検索してテンプレートマッチングによりマッチするテンプレートに基づいて発話内容を決定する。   Next, the control operation of the subroutine program of the corresponding process according to the recognition result in S41 will be described with reference to FIG. First, in S64, it is determined whether or not there is an action report from the user 4. For example, when the user speaks “sold cold medicine” by voice and the voice is recognized by the voice recognition process described above, it is determined by S64 that an action “take cold medicine” has been reported, and the control advances to S65. Then, processing for storing the reported action in the user DB 12 is performed. On the other hand, if it is determined that it is not an action report, the control advances to S66, where it is determined whether or not the dialogue is related to a body part (biological part). When the user 4 speaks, for example, “How is the tone specified by the liver?” And the voice is recognized by the voice recognition process described above, a determination of YES is made in S66 and the control advances to S67. Then, a process for determining the ID of the body part related to the recognition result is performed. Each body part (each biological part) such as the liver, stomach, and kidney is assigned an ID, and the process of determining the part ID is performed in S67. Next, in S68, a process for searching the data of the determined part ID from the user DB 12 is performed. For example, if the part ID determined in S67 is the liver ID, the data “γGTP153, bilirubin 1.2” in the blood sensor item in the sensor detection data stored in the user DB 12 is S68. Is searched. Next, in S69, the utterance content is determined based on the retrieved data. For example, if the numerical data of γGTP and bilirubin is stored in the user DB 12 along the time axis t and the data is improved with the passage of time, the content of the utterance “I have recovered a lot” Determined by S69. Such utterance contents are stored in the dialogue DB 11. The server 7 searches the dialogue DB 11 and determines the utterance content based on the template matched by template matching.

一方、S66によりNOと判断がなされた場合には制御がS70に進み、その他の対応処理が実行される。このその他の対応処理については、図10(c)に基づいて後述する。   On the other hand, if NO is determined in S66, the control proceeds to S70, and other corresponding processing is executed. This other handling process will be described later with reference to FIG.

図5(a)に戻り、前述の図6(a)の認識した結果に応じた対話処理により決定された発話内容の発話データがS42により生成され、その発話データが画像データとともにS43によりウェアラブルコンピュータ3へ送信される。このS43により送信される画像データは、S68により割り出された部位IDに対応する体内部位(例えば肝臓等)を表すマーク(アイコン)と発話内容を表す文章等であり、例えば図7に示すような画像である。   Returning to FIG. 5 (a), utterance data of the utterance content determined by the dialogue processing according to the recognition result of FIG. 6 (a) described above is generated in S42, and the utterance data together with the image data is a wearable computer in S43. 3 is transmitted. The image data transmitted in S43 includes a mark (icon) representing a body part (for example, liver) corresponding to the part ID determined in S68, a sentence representing speech content, and the like, for example, as shown in FIG. It is an image.

ウェアラブルコンピュータ3は、その発話データと画像とを受信して発話するとともに図7に示すような画像を表示部32より表示する。次に、S44に示したメッセージ生成処理のサブルーチンプログラムの制御動作を図6(b)に基づいて説明する。S75により、ユーザDB12を検索して悪化した体内部位のIDを割り出す処理がなされる。例えば図1に示したデータが記憶されているユーザDB12を検索した場合に、γGTPの値が153と、基準値55を大幅に超えているために、体内部位のうちの肝臓が悪化していると判断してその肝臓のIDを割り出すその処理がS74により行われる。次にS76により報知が必要であるか否かの判断がなされる。具体的には、センサ検出データ(生体データ)の数値が基準値を上回っている度合いが閾値を超えているか否かで判断する。例えばγGTPの場合には、基準値が55であるために、閾値を100と定めている。ユーザID:051392704のユーザの場合、γGTPの値が153であり、閾値100を超えているために、S76によりYESの判断がなされて制御がS77へ進み、報知用のメッセージが生成される。この報知用のメッセージは、S75により割り出されたIDに相当する体内部位が悪化している旨を報知するものであってもよいが、該当するユーザの最近のアクションデータを考慮したメッセージにしてもよい。例えば、図7に示すような「連日の宴会でもう駄目。助けて〜。γGTP153」のようなものであってもよい。   The wearable computer 3 receives the utterance data and the image and utters it, and displays an image as shown in FIG. Next, the control operation of the subroutine program for the message generation process shown in S44 will be described with reference to FIG. By S75, a process of searching the user DB 12 and determining the ID of the deteriorated body part is performed. For example, when searching the user DB 12 in which the data shown in FIG. 1 is stored, the value of γGTP is 153, which greatly exceeds the reference value 55, so the liver in the body part has deteriorated. And the process of determining the liver ID is performed in S74. Next, it is determined whether or not notification is necessary in S76. Specifically, the determination is made based on whether or not the degree that the numerical value of the sensor detection data (biological data) exceeds the reference value exceeds a threshold value. For example, in the case of γGTP, since the reference value is 55, the threshold is set to 100. In the case of the user with the user ID: 051392704, the value of γGTP is 153 and exceeds the threshold value 100, so that a determination of YES is made in S76, the control proceeds to S77, and a notification message is generated. This notification message may be a notification that the body part corresponding to the ID determined in S75 has deteriorated, but is a message that takes into account the recent action data of the corresponding user. Also good. For example, as shown in FIG. 7, it may be “No more banquets at consecutive banquets. Help me. ΓGTP153”.

図5(a)に戻り、このようにして生成されたメッセージがある場合には、S45によりYESの判断がなされて、S46によりその生成されたメッセージがウェアラブルコンピュータ3へ送信される。それを受けたウェアラブルコンピュータ3では、S34により、その受信したメッセージに基づいて発話するとともに画像表示する制御がなされる。   Returning to FIG. 5A, if there is a message generated in this way, a determination of YES is made in S45, and the generated message is transmitted to the wearable computer 3 in S46. The wearable computer 3 that has received it controls to speak and display an image based on the received message in S34.

次に図4(a)のS12に示した外部センサ処理のサブルーチンプログラムの制御動作を図6(c)に基づいて説明する。この外部センサ処理は、図1に示した外部センサ群5によるユーザ4の検出データ(生体データ)をサーバ7へ送信するための処理である。まずS60により、外部センサからの信号受信があったか否かの判断がなされる。ない場合にはリターンしてS13に移行する。   Next, the control operation of the subroutine program for external sensor processing shown in S12 of FIG. 4A will be described with reference to FIG. This external sensor process is a process for transmitting detection data (biological data) of the user 4 by the external sensor group 5 shown in FIG. First, at S60, it is determined whether or not a signal has been received from an external sensor. If not, the process returns and proceeds to S13.

ユーザ4が外部センサ群5に近づいて、外部センサ群5により生体データが検出されれば、ウェアラブルコンピュータ3の無線通信インタフェース部36と当該センサとの交信により、センサ検出データ(生体データ)がウェアラブルコンピュータ3へ送信される。それを受信したウェアラブルコンピュータ3のCPU23は、S60によりYESの判断を行い、受信したセンサのセンサ特定IDとその受信した検出データ(生体データ)をEEPROM26に記憶する処理を行う。この外部センサ群5の各センサにも、各種生体センサ2と同様にセンサの処理を特定するためのセンサ特定IDが割り振られており、センサ検出データとともにそのセンサ特定IDがウェアラブルコンピュータ3へ送信されてくる。このS61によりセンサ特定IDと検出データとが記憶された場合には、前述したS18によりセンサからの検出データがあると判断されて制御がS19へ進み、その記憶されたセンサ特定IDと検出データ(生体データ)とをユーザIDとともにサーバ7へ送信する処理が行われる。   When the user 4 approaches the external sensor group 5 and the biometric data is detected by the external sensor group 5, the sensor detection data (biometric data) becomes wearable by communication between the wireless communication interface unit 36 of the wearable computer 3 and the sensor. It is transmitted to the computer 3. The CPU 23 of the wearable computer 3 that has received the determination makes a determination of YES through S60, and performs a process of storing the sensor identification ID of the received sensor and the received detection data (biological data) in the EEPROM 26. Each sensor of the external sensor group 5 is also assigned a sensor identification ID for identifying the sensor processing in the same manner as the various biological sensors 2, and the sensor identification ID is transmitted to the wearable computer 3 together with the sensor detection data. Come. When the sensor identification ID and the detection data are stored in S61, it is determined that there is detection data from the sensor in S18 described above, the control proceeds to S19, and the stored sensor identification ID and detection data ( Is transmitted to the server 7 together with the user ID.

次に、図4(a)のS13に示した撮像処理のサブルーチンプログラムの制御動作を図6(d)に基づいて説明する。S72により、撮像操作があったか否かの判断がなされ、ない場合にはリターンして、S10に制御が移行する。ユーザがウェアラブルコンピュータ3の入力操作部32を操作して、撮像操作を行えば制御がS73へ進み、被写体(食事の料理等)をカメラ入力部29により撮像する制御が行われる。そしてS74により、その撮像した画像データを記憶する処理がなされる。S74により撮像画像データが記憶されることにより、前述したS20によりYESの判断がなされてS21によりその撮像画像データをサーバ7へ送信する処理が行われる。   Next, the control operation of the subroutine program for the imaging process shown in S13 of FIG. 4A will be described based on FIG. In S72, it is determined whether or not there has been an imaging operation. If not, the process returns to S10. If the user operates the input operation unit 32 of the wearable computer 3 and performs an imaging operation, the control proceeds to S73, and control is performed to capture an image of a subject (such as a food dish) by the camera input unit 29. In step S74, the captured image data is stored. By storing the captured image data in S74, a determination of YES is made in S20 described above, and processing for transmitting the captured image data to the server 7 is performed in S21.

次に、前述したS32およびS34により行われる表示部30への画像表示の一例を図7に基づいて説明する。図7の上半分の画像は、ユーザの肝臓、胃、腎臓等の各体内部位(生体部位)のアイコンが表示されるとともに、その各体内部位の最新の会話文字および会話日時が合わせて表示される。これら体内部位のうち、ユーザが新たに会話したい体内部位に相当するアイコンをタップすることにより、そのタップされた体内部位との過去の会話履歴が表示されるとともに(図7下半分参照)、その体内部位との新たなコミュニケーションが可能となる。図7の場合には、ユーザが肝臓のアイコンをタップした状態が示されている。肝臓との対話履歴は、図7の下半分の画像で示されているように、4月8日22時25分に、肝臓からのメッセージとして「連日の宴会でもう駄目。助けて〜。γGTP153」が表示されている。これを、ユーザID:051392704の血液センサの検出データ中のγGTPの値が153となっており(図1参照)、基準値55を大幅に上回っているために、図6(b)のメッセージ生成処理により報知用のメッセージが生成されて、S34による画像表示がなされた結果である。このようなメッセージが表示部30によりユーザに表示されるとともに、音声出力部33から音声によってもユーザに報知される。それを聞いた(見た)ユーザは、音声により「分かった。ウコンのサプリを飲むよ。」をしゃべることにより、その音声が音声入力部34から入力されて、音声認識処理(図5(b)参照)により解析処理され、その解析処理された認識結果に応じた対応処理が行われ(図6(a)参照)、その対応処理に基づいた画像データがウェアラブルコンピュータ3へ送信されてS32により画像表示される。その結果が「分かった。ウコンのサプリを飲むよ。」が画像表示されることとなる。   Next, an example of image display on the display unit 30 performed in S32 and S34 described above will be described with reference to FIG. The upper half image of FIG. 7 displays icons of each body part (biological part) such as the user's liver, stomach, and kidney, and displays the latest conversation characters and conversation date and time of each body part. The By tapping an icon corresponding to the body part that the user wants to newly talk among these body parts, the past conversation history with the tapped body part is displayed (see the lower half of FIG. 7), New communication with internal parts is possible. In the case of FIG. 7, a state where the user has tapped the liver icon is shown. As shown in the lower half image of FIG. 7, the conversation history with the liver is “No longer at banquets every day as a message from the liver at 22:25 on April 8,” γGTP153 Is displayed. This is because the value of γGTP in the detection data of the blood sensor with the user ID: 05139392704 is 153 (see FIG. 1), which is significantly higher than the reference value 55, so that the message generation in FIG. This is a result of generating a notification message by processing and displaying an image in S34. Such a message is displayed to the user by the display unit 30 and also notified to the user by voice from the voice output unit 33. The user who has heard (seen) it speaks by voice “I understand. I'll drink turmeric supplement”, and the voice is input from the voice input unit 34, and the voice recognition process (FIG. 5B). )), And a corresponding process is performed according to the recognized recognition result (see FIG. 6A), and image data based on the corresponding process is transmitted to the wearable computer 3 and the process proceeds to S32. An image is displayed. The result is "I understand. I'll drink turmeric supplement."

後日ユーザが肝臓のアイコンをタップして「調子はどうだい。」としゃべれば、前述と同様の処理がなされてそのしゃべった言葉が画像表示されるとともに、S66によりYESの判断がなされてS67〜S69の処理により発話内容が決定され、その発話データと画像データとがウェアラブルコンピュータ3に送信されてS32により発話されるとともに画像表示される。その結果、図7に示すように「だいぶん回復したよ。γGTP70」の音声が音声出力部33から出力されるとともに表示部30により画像表示される。   If the user taps the liver icon at a later date and says "How is it?", The same processing as described above is performed, and the spoken word is displayed as an image, and YES is determined in S66 and S67- The content of the utterance is determined by the process of S69, and the utterance data and the image data are transmitted to the wearable computer 3 and uttered by S32 and displayed as an image. As a result, as shown in FIG. 7, the sound “Much recovered. ΓGTP70” is output from the sound output unit 33 and displayed on the display unit 30.

なお、図7では、ユーザが会話したい体内部位のアイコンをタップすることにより新たな会話が可能となるものを示したが、タップの代わりにユーザが音声で会話したい体内臓器を指定するように制御してもよい。次に、図4(a)の機械学習処理S3および学習結果に基づいた対応処理S4のサブルーチンプログラムの制御動作を図8(a)、(b)に基づいて説明する。   Note that FIG. 7 shows that the user can make a new conversation by tapping the icon of the body part that the user wants to talk to, but instead of the tap, control is performed so that the user specifies the body organ that the user wants to talk by voice. May be. Next, the control operation of the subroutine program of the machine learning process S3 in FIG. 4A and the corresponding process S4 based on the learning result will be described based on FIGS. 8A and 8B.

サーバ7には、人工知能による機械学習エンジンがインストールされている。この機械学習エンジンでは、定期的に機械学習を行う。S80により、機械学習時期になったか否かの判断がなされ、いまだ機械学習時期になっていない場合にはリターンしてS4に制御が移行する。一方、機械学習時期になった場合には制御がS81へ進み、容態が悪化したユーザIDのデータのみをユーザDB12から抽出する処理が行われる。そして、その抽出されたデータに基づいて、S82によりデータマイニングを行ってNGパターンNGPi(i=1,2,3・・・)を見つけ出す処理が行われる。具体的には、ユーザのアクションデータとセンサ検出データとからなるデータ集合の中から、センサ検出データ(生体データ)が悪化した前兆となるアクションをデータマイニングにより見つけ出す。なお、後述するS86は、その逆で、センサ検出データ(生体データ)が改善された前兆となるアクションをデータマイニングにより見つけ出す処理である。サーバ7は、ノイマン型の一般的なコンピュータを用いているが、ニューラル・ネット・プロセッサー(NNP)を用いてもよい。NNPのチップ上には本物のニューロンをモデルにした「人工ニューロン」が多数搭載されており、各ニューロンはネットワークでそれぞれ連携し合う。また、「量子アニーリング方式」を採用した量子コンピュータを用いてもよい。これにより、機械学習における最適化計算の所要時間を大幅に短縮できる。   The server 7 is installed with a machine learning engine using artificial intelligence. This machine learning engine periodically performs machine learning. In S80, it is determined whether or not the machine learning time has come. If the machine learning time has not yet come, the process returns to S4. On the other hand, when the machine learning time comes, the control proceeds to S81, where only the data of the user ID whose condition has deteriorated is extracted from the user DB 12. Then, based on the extracted data, data mining is performed in S82 to perform a process of finding an NG pattern NGPi (i = 1, 2, 3,...). Specifically, an action that is a precursor to the deterioration of sensor detection data (biological data) is found by data mining from a data set including user action data and sensor detection data. Note that S86, which will be described later, is a process for finding an action that is a precursor to improved sensor detection data (biological data) by data mining. The server 7 uses a general Neumann computer, but may use a neural net processor (NNP). A large number of “artificial neurons” modeled on real neurons are mounted on the NNP chip, and each neuron cooperates in a network. Further, a quantum computer employing a “quantum annealing method” may be used. Thereby, the time required for the optimization calculation in machine learning can be greatly shortened.

次にS83により、NGPiは今まで見つけ出したものと異なるか否か判定される。今まで見つけ出されたNGPi(i=1,2,3・・・)は、パターンDB13に記憶されている(図9(a)参照)。このパターンDB13を検索して既に記憶されているNGパターンであるか否か判定する。既に記憶されている場合には制御がS85へ進むが、いまだに記憶されていない新たなものの場合には制御がS84へ進み、その新たに見つけ出されたNGPiをパターンDB13に追加記憶する制御が行われる。   Next, in S83, it is determined whether NGPi is different from what has been found so far. NGPi (i = 1, 2, 3...) Found so far is stored in the pattern DB 13 (see FIG. 9A). The pattern DB 13 is searched to determine whether or not the pattern is already stored. If it is already stored, the control proceeds to S85, but if it is a new one that has not yet been stored, the control proceeds to S84, and the newly found NGPi is additionally stored in the pattern DB 13. Is called.

次にS85により、ユーザDB12を検索して容態が改善したユーザIDのデータのみを抽出する制御が行われる。次にS86により、データマイニングを行ってポジティブパターン(PGパターン)PGPi(i=1,2,3・・・)を見つけ出す制御がなされる。次にS87には、その見つけ出されたPGPiは今まで見つけ出したものと異なるか否かの判定をパターンDB13を検索して行う。既に見つけ出されているものと同じ場合にはリターンするが、新たに見つけ出されたものである場合には制御がS88へ進み、PGPiをパターンDB13に追加記憶する制御が行われる。   Next, in S85, control is performed to search the user DB 12 and extract only the data of the user ID whose condition has improved. Next, in S86, control is performed to find a positive pattern (PG pattern) PGPi (i = 1, 2, 3,...) By performing data mining. Next, in S87, the pattern DB 13 is searched to determine whether or not the found PGPi is different from that found so far. If it is the same as the one that has already been found, the process returns. If it has been found, the control advances to S88, and control for additionally storing PGPi in the pattern DB 13 is performed.

S84およびS88によってパターンDB13に記憶されたNGPi(i=1,2,3・・・)とPGPi(i=1,2,3・・・)との一例を、図9(a)に基づいて説明する。S82およびS86により見つけ出されるパターンは、すべてのユーザに当てはまるものは少なく、ユーザの生体的特性に基づいて、ユーザをセグメント化し、あるセグメントに属するユーザにのみ当てはまる場合が多い。図9(a)の場合には、ユーザの生体属性として、体脂肪率25〜35%で男性でかつ年齢が35〜55歳に限定されたパターンが示されている。   An example of NGPi (i = 1, 2, 3,...) And PGPi (i = 1, 2, 3,...) Stored in the pattern DB 13 by S84 and S88 is based on FIG. explain. The patterns found by S82 and S86 are not applicable to all users, and are often applied only to users belonging to a certain segment by segmenting the users based on the biological characteristics of the users. In the case of FIG. 9 (a), as the biometric attribute of the user, a pattern in which the body fat percentage is 25 to 35% and the man is limited to 35 to 55 years old is shown.

まずNGパターン(NGPi)として、
1 大量の発汗ののちの飲酒で脳梗塞の危険性が高まる
2 飲酒中に脂質を多く食べると消化不良を起こす
3 早朝または深夜に高カロリーの食事をとると肥満になりやすい
等である。
また、PGパターン(PGPi)としては、
1 飲酒前または飲酒中に生卵を食べるとγGTPの上昇を抑えられる
2 飲酒中にゴマ油(ラー油)を摂取するとγGTPの上昇を抑えられる
3 高カロリーの食事は午後2時前後にとると肥満になりにくい
等である。
First, as an NG pattern (NGPi),
1 Increased risk of cerebral infarction by drinking after a large amount of sweating 2 Eating indigestion when eating a lot of lipids while drinking 3 If you eat a high-calorie meal early in the morning or late at night, you may become obese.
Moreover, as a PG pattern (PGPi),
1 Eating raw eggs before or during drinking can suppress the increase in γGTP 2 Ingesting sesame oil (ra oil) during drinking can suppress the increase in γGTP 3 High calorie meals become obese when taken around 2 pm It is hard to become.

次に、図8(b)に基づいて、機械学習結果に基づいた対応処理のサブルーチンプログラムの制御動作を説明する。S93により、パターンDB13に新たに追加記憶されたNGPiに該当するユーザIDをユーザDB12から検索する制御がなされる。次にS94により、その検索されたユーザIDのユーザに対しNG報知を行う制御がなされる。次にS95により、パターンDB13に新たに追加記憶されたPGPiに該当するユーザIDをユーザDB12から検索する制御がなされる。次にS96により、その検索されたユーザIDのユーザに対しPG報知(ポジティブ報知)する制御が行われる。   Next, based on FIG. 8B, the control operation of the subroutine program of the corresponding process based on the machine learning result will be described. Through S93, control is performed to search the user DB 12 for a user ID corresponding to NGPi newly added and stored in the pattern DB 13. Next, in S94, control is performed to notify the user of the searched user ID to NG. Next, in S95, control is performed to search the user DB 12 for a user ID corresponding to the PGPi newly added and stored in the pattern DB 13. Next, in S96, control is performed to notify the user of the searched user ID of PG (positive notification).

S94およびS96の報知制御は、該当するユーザのウェアラブルコンピュータ3に対しサーバ7がNGメッセージとその前兆となったアクション(行動)を報知し、また、PGメッセージとその前兆となったユーザのアクション(行動)とを報知する制御である。   In the notification control in S94 and S96, the server 7 notifies the wearable computer 3 of the corresponding user of the NG message and the action (behavior) that is a precursor thereof, and the PG message and the user action (the action that is a precursor thereof) ( Action).

この制御により、機械学習の結果新たに見つけ出されたユーザのアクション(行動)のNG前兆パターンおよびPG前兆パターンが該当するユーザに早期に報知されることとなり、それを知ったユーザは、いち早くNG前兆パターンを行わないようにし、PG前兆パターンを積極的に実行するようになるという、利点がある。   By this control, the NG precursor pattern and the PG precursor pattern of the user action (behavior) newly found as a result of machine learning are notified to the corresponding user at an early stage, and the user who knows this is NG promptly. There is an advantage that the precursor pattern is not performed and the PG precursor pattern is actively executed.

次に、図4(a)のS5のルール化処理のサブルーチンプログラムの制御動作を図10(a)に基づいて説明する。S100により、パターンDBに追加記憶されたNGPiとPGPiとを盛り込んだルールを作成してルールDB14に追加記憶する制御が行われる。その一例が図9(b)に示されている。図9(b)を参照して、ユーザセグメントとして体脂肪率25〜35%の男性で、35〜55歳の生体属性のユーザについて、
・大量の発汗のちに飲酒する場合には、事前に水分補給する。
・飲食する場合、生卵とゴマ油(ラー油)を食し脂質を控える。
・高カロリーの食事は、早朝と深夜を控え、午後2時前後にするのがよい。
等である。
Next, the control operation of the subroutine program of the rule forming process of S5 in FIG. 4A will be described based on FIG. In S100, control is performed in which a rule including NGPi and PGPi additionally stored in the pattern DB is created and additionally stored in the rule DB. An example of this is shown in FIG. With reference to FIG.9 (b), about the user of the body attribute of 35-55 years old with the male of body fat percentage 25-35% as a user segment,
・ If you drink after a lot of sweating, rehydrate in advance.
・ When eating or drinking, eat raw eggs and sesame oil (ra oil) and refrain from lipids.
・ A high-calorie meal should be around 2pm, early in the morning and late at night.
Etc.

次にS101により、追加記憶されたルールをユーザに報知するためのメッセージを作成する制御が行われる。その結果、前述した図5(a)のS45によりYESの判断がなされてS46によりウェアラブルコンピュータ3にメッセージが送信されることとなる。この送信対象となるユーザは、健康サービス提供業者10のサービスに加盟している全ユーザである。その結果、新たに追加記憶されたルールが全ユーザに対して周知徹底されるという利点がある。   Next, in S101, control for creating a message for notifying the user of the additionally stored rule is performed. As a result, YES is determined in S45 of FIG. 5A described above, and a message is transmitted to the wearable computer 3 in S46. The users to be transmitted are all users who are members of the service of the health service provider 10. As a result, there is an advantage that the newly additionally stored rule is thoroughly known to all users.

次に、図4(a)のS6に示した効果検証処理のサブルーチンプログラムの制御動作を図10(b)に基づいて説明する。この効果検証処理は、製薬メーカ9が作った製薬あるいは健康食品メーカ8が作った健康食品(サプリ等)を市場に投入して、それらを摂取したユーザ4の生体データをサーバ7側に吸い上げてユーザDB12に蓄積し、その生体データの経時的な変化(時間軸に沿った変化)に基づいて製薬または健康食品の効果を検証するものである。   Next, the control operation of the subroutine program for the effect verification process shown in S6 of FIG. 4A will be described with reference to FIG. In this effect verification process, pharmaceuticals made by the pharmaceutical manufacturer 9 or health foods (supplements, etc.) made by the health food manufacturer 8 are put on the market, and the biometric data of the user 4 who took them is sucked up to the server 7 side. It accumulates in the user DB 12 and verifies the effect of the pharmaceutical or health food based on the change over time of the biological data (change along the time axis).

まずS103により、製薬または健康食品の効果検証依頼があったか否かの判断がなされ、ない場合にはリターンして制御がS7へ移行する。一方依頼があった場合には、制御がS104へ進み、依頼された商品の商品情報(商品開発DB8bまたは商品開発DB9bに記憶されている商品情報)を送信してもらい、その依頼品を服用しているユーザIDのデータをユーザDB12から抽出し、S105により、その抽出されたデータに基づいて、容態の経時的な変化を割り出し、S106により、割り出された変化に基づいて効果を判定し、その効果の評価値を算出する制御がなされる。そしてS107により、容態の変化データと効果の評価値とを依頼者に返信する処理がなされる。この容態の変化データとは、依頼品を服用しているユーザの生体データの時系列的な変化を折れ線グラフ等により表したものである。容態の変化データと効果の評価値を受け取った製薬メーカ9または健康食品メーカ8は、良好な変化データで高い評価値の場合には、依頼品を宣伝する場合にその効用の高さを立証する証拠として変化データや評価値を用いることができる利点がある。なお、依頼品を服用しているユーザであるか否かを判別しやすくするために、ユーザ4が製薬または健康食品(サプリ等)を服用した場合に、服用した製薬または健康食品(サプリ等)の商品名も合わせて音声でウェアラブルコンピュータ3からサーバ7へ送信するようにし、ユーザDB12にアクションとして商品名も記憶するように制御する。例えば、ユーザ4が音声で「風邪薬服用」としゃべった場合に、サーバ7からの発話制御で「その風薬の商品名を教えてください」と問い合わせるようにする。   First, in S103, it is determined whether or not a pharmaceutical or health food effect verification request has been received. If not, the process returns to S7. On the other hand, if there is a request, control proceeds to S104, where the product information of the requested product (product information stored in the product development DB 8b or the product development DB 9b) is transmitted, and the requested product is taken. The user ID data is extracted from the user DB 12, and a change over time of the condition is determined based on the extracted data in S105, and an effect is determined based on the determined change in S106. Control is performed to calculate an evaluation value of the effect. In step S107, processing for returning the change data of the condition and the evaluation value of the effect to the client is performed. This change data of the condition is a time series change of the biometric data of the user taking the requested product, and is represented by a line graph or the like. The pharmaceutical manufacturer 9 or the health food manufacturer 8 that has received the change data of the condition and the evaluation value of the effect, when the evaluation value is good and the evaluation value is high, proves its high utility when advertising the requested product. There is an advantage that change data and evaluation values can be used as evidence. In addition, in order to make it easy to determine whether or not the user is taking the requested product, when the user 4 takes a pharmaceutical or health food (supplement etc.), the taken pharmaceutical or health food (supplement etc.) The product name is also transmitted from the wearable computer 3 to the server 7 by voice, and the product name is also stored in the user DB 12 as an action. For example, when the user 4 speaks “take cold medicine” by voice, the server 7 makes an inquiry “Please tell me the brand name of the powder” by the utterance control.

次に、図6(a)のS70に示したその他の対応のサブルーチンプログラムの制御動作を図10(c)に基づいて説明する。S110により、ユーザから健康に関する相談があったか否かの判断がなされる。ない場合にS112により、他人の臓器の健康情報の取得要求があったか否かの判断がなされ、ない場合にはリターンして制御がS42へ進む。ユーザ4が健康に関する質問等の相談を音声でしゃべれば、その音声が音声入力部34により入力されてサーバ7へ送信され、その音声が音声認識処理(図5(b)参照)により解析されてS110によりYESの判断がなされる。その結果、制御がS111へ進み、ルールDB14を検索して質問(相談)に該当するルールに基づいて回答する発話内容を決定する制御がなされる。その結果、その発話内容に対応する発話データがS42により生成され、S43によりその発話データと発話データを文字にした画像データとがウェアラブルコンピュータ3へ返信され、発話データに基づいて発話され、画像データに基づいて画像表示が行われる(S32)。   Next, the control operation of the other corresponding subroutine program shown in S70 of FIG. 6A will be described with reference to FIG. Through S110, it is determined whether or not there has been a health consultation from the user. If not, it is determined in S112 whether or not there has been a request for acquiring health information of another person's organ, and if not, the process returns and control proceeds to S42. When the user 4 speaks a consultation such as a health question by voice, the voice is input by the voice input unit 34 and transmitted to the server 7, and the voice is analyzed by voice recognition processing (see FIG. 5B). A determination of YES is made in S110. As a result, control proceeds to S111, and control is performed to search the rule DB 14 and determine the utterance content to be answered based on the rule corresponding to the question (consultation). As a result, utterance data corresponding to the utterance content is generated in S42, and in S43, the utterance data and image data in which the utterance data is converted to characters are returned to the wearable computer 3, and uttered based on the utterance data. The image is displayed based on (S32).

一方、ユーザ4が他人の臓器の健康情報の取得を音声により要求した場合には、前述と同様に音声認識処理による解析処理がなされてS112によりYESの判断がなされ、S113により、その指定された他人の臓器の健康情報を匿名化してウェアラブルコンピュータ3へ返信する制御が行われる。それを受けたウェアラブルコンピュータ3は、受信した他人の臓器の健康情報を表示するとともに音声で報知する。
以上の実施の形態では、機械学習結果(NGPiとPGPiとルール等)が各ユーザ4にフィードバックされて報知され、ユーザ4はその機械学習結果を参考にして体内部位とコミュニケ―ションを取りながらアクション(行動)をとることができる。そのアクション(行動)の結果が各ユーザ4の生体データに反映されてその生体データが再度サーバ7側へ吸い上げられて機械学習のデータとして供され、その機械学習結果が再び各ユーザ4にフィードバックされる。このような一連のサイクルを巡回することにより、機械学習結果を反映した各ユーザ4の生体データの経時的な変化をユーザDB12に蓄積することができ、そのようなデータに基づいた機械学習結果のパターンがパターン販売処理S7により販売される。この販売先は、例えば製薬メーカ9や健康食品メーカ8である。これにより、製薬メーカ9や健康食品メーカ8は製品開発に役立つデータを入手することができ、研究開発が促進されるという利点がある。
On the other hand, when the user 4 requests the acquisition of the health information of another person's organ by voice, the analysis process by the voice recognition process is performed in the same manner as described above, and a determination of YES is made in S112, and the designation is made by S113. Control of anonymizing the health information of another person's organ and returning it to the wearable computer 3 is performed. The wearable computer 3 that has received the information displays the received health information of the other person's organ and informs it by voice.
In the above embodiment, machine learning results (NGPi, PGPi, rules, etc.) are fed back and notified to each user 4, and the user 4 takes action while taking communication with the body part referring to the machine learning results. (Action) can be taken. The result of the action (behavior) is reflected in the biometric data of each user 4, the biometric data is sucked up again to the server 7 side and used as machine learning data, and the machine learning result is fed back to each user 4 again. The By cycling through such a series of cycles, it is possible to accumulate changes over time in the biometric data of each user 4 reflecting the machine learning result in the user DB 12, and the machine learning result based on such data can be stored. The pattern is sold by the pattern sales process S7. This sales destination is, for example, a pharmaceutical manufacturer 9 or a health food manufacturer 8. Thereby, the pharmaceutical manufacturer 9 and the health food manufacturer 8 can obtain data useful for product development, and there is an advantage that research and development is promoted.

以上、本発明の実施形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。   As mentioned above, although embodiment of this invention was explained in full detail, this invention is not limited to these embodiment, A various change is possible in the range which does not deviate from the meaning of this invention.

1 インターネット
2 各種生体センサ
3 ウェアラブルコンピュータ
5 外部センサ群
7 サーバ
10 健康サービス提供業者1
11 対話DB
12 ユーザDB
13 パターンDB
14 ルールDB
1 Internet 2 Various biological sensors 3 Wearable computer 5 External sensor group 7 Server 10 Health service provider 1
11 Dialogue DB
12 User DB
13 Pattern DB
14 Rule DB

Claims (5)

生体センサにより取得されたユーザの生体データを収集して活用するためのコンピュータシステムであって、
収集した前記生体データを蓄積するための生体データ蓄積手段と、
前記生体データ蓄積手段により蓄積されている生体データにより判別可能な生体部位の状態に基づいて、該生体部位とユーザとのコミュニケーションを実現するための制御を行うコミュニケーション手段とを備え、
前記コミュニケーション手段は、
自然言語認識手段と、
前記生体部位の状態を自然言語で表現すための自然言語化手段と、
前記自然言語化手段により表現された自然言語をユーザに伝達するための伝達手段と、を含み、
ユーザからの自然言語による問いかけがあった場合に、該問いかけを前記自然言語認識手段が認識し、該認識内容に対応する前記生体部位の状態を前記自然言語化手段が表現した自然言語を前記伝達手段がユーザに伝達することにより、前記問いかけに答える、コンピュータシステム。
A computer system for collecting and utilizing user biometric data acquired by a biometric sensor,
Biological data storage means for storing the collected biological data;
Communication means for performing control for realizing communication between the living body part and the user based on the state of the living body part that can be discriminated by the biological data stored by the biological data storage means;
The communication means is:
Natural language recognition means;
Natural languageizing means for expressing the state of the living body part in natural language;
Transmission means for transmitting the natural language expressed by the natural languageization means to the user,
When there is an inquiry in a natural language from a user, the natural language recognition unit recognizes the inquiry, and the natural language expressing the state of the living body part corresponding to the recognized content is transmitted. A computer system in which the means answers the question by communicating to the user.
前記生体部位に影響を与えるユーザの行動データを収集して蓄積するための行動データ蓄積手段と、
前記行動データ蓄積手段により蓄積されているユーザの行動データと、前記生体データ蓄積手段により蓄積されている生体データと、に基づいて、両者間の相関関係を見つけ出すための相関関係発見手段と、をさらに備えた、請求項1に記載のコンピュータシステム。
Behavior data accumulating means for collecting and accumulating user behavior data affecting the living body part;
A correlation finding means for finding a correlation between the two based on the user behavior data accumulated by the behavior data accumulation means and the biological data accumulated by the biological data accumulation means; The computer system according to claim 1, further comprising:
前記生体データ蓄積手段と前記行動データ蓄積手段とは、複数のユーザからのデータを収集して蓄積し、
前記相関関係発見手段は、複数のユーザについての前記行動データと前記生体データとを含むデータ集合からデータマイニングにより相関関係を見つけ出す、請求項1または2に記載のコンピュータシステム。
The biometric data storage means and the behavior data storage means collect and store data from a plurality of users,
The computer system according to claim 1, wherein the correlation finding unit finds a correlation by data mining from a data set including the behavior data and the biological data for a plurality of users.
前記相関関係発見手段により見つけ出された新たな相関関係の前記行動データに該当する行動を行っているユーザを、前記行動データ蓄積手段により蓄積されているユーザの行動データから割出すための該当ユーザ割出手段と、
前記該当ユーザ割出手段により割出されたユーザに対し所定のメッセージを伝達するためのメッセージ伝達手段と、をさらに備える、請求項3に記載のコンピュータシステム。
Corresponding user for indexing the user performing the behavior corresponding to the behavior data of the new correlation found by the correlation discovery means from the behavior data of the user accumulated by the behavior data accumulation means Indexing means;
The computer system according to claim 3, further comprising message transmission means for transmitting a predetermined message to a user indexed by the corresponding user indexing means.
前記自然言語認識手段は、ユーザの音声を認識するための音声認識手段を含み、
前記伝達手段は、前記自然言語化手段により表現された自然言語を音声によりユーザに伝達するための音声伝達手段を含み、
前記コミュニケーション手段は、ユーザからの音声による問いかけがあった場合に、該問いかけを前記音声認識手段が認識し、該認識内容に対応する前記生体部位の状態を前記自然言語化手段が表現した自然言語を前記音声伝達手段が音声によりユーザに伝達することにより、前記問いかけに音声で答える、請求項1〜4のいずれかに記載のコンピュータシステム。
The natural language recognition means includes voice recognition means for recognizing a user's voice,
The transmission means includes voice transmission means for transmitting the natural language expressed by the natural language conversion means to the user by voice,
The communication means is a natural language in which the voice recognition means recognizes the question when the user asks a voice question, and the natural language means expresses the state of the living body part corresponding to the recognized content. The computer system according to claim 1, wherein the voice transmission means answers the question by voice by transmitting the voice to the user.
JP2015091324A 2015-04-28 2015-04-28 Computer system Expired - Fee Related JP6567319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015091324A JP6567319B2 (en) 2015-04-28 2015-04-28 Computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015091324A JP6567319B2 (en) 2015-04-28 2015-04-28 Computer system

Publications (2)

Publication Number Publication Date
JP2016202798A true JP2016202798A (en) 2016-12-08
JP6567319B2 JP6567319B2 (en) 2019-08-28

Family

ID=57488224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015091324A Expired - Fee Related JP6567319B2 (en) 2015-04-28 2015-04-28 Computer system

Country Status (1)

Country Link
JP (1) JP6567319B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206575A (en) * 2007-02-23 2008-09-11 Hitachi Ltd Information management system and server
JP2010094243A (en) * 2008-10-15 2010-04-30 Kithit Co Ltd Automatic inquiry system
US20110028825A1 (en) * 2007-12-03 2011-02-03 Dataphysics Research, Inc. Systems and methods for efficient imaging
JP2012063919A (en) * 2010-09-15 2012-03-29 Fujifilm Corp Medical report evaluation device, medical report evaluation method, medical report evaluation program and medical network system
WO2013141386A1 (en) * 2012-03-23 2013-09-26 独立行政法人科学技術振興機構 Device for provision of personal genome information environment, method for provision of personal genome information environment, and program
JP2014524800A (en) * 2011-07-05 2014-09-25 サウジ アラビアン オイル カンパニー System, computer medium and computer-implemented method for monitoring employee health using a mobile device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008206575A (en) * 2007-02-23 2008-09-11 Hitachi Ltd Information management system and server
US20110028825A1 (en) * 2007-12-03 2011-02-03 Dataphysics Research, Inc. Systems and methods for efficient imaging
JP2010094243A (en) * 2008-10-15 2010-04-30 Kithit Co Ltd Automatic inquiry system
JP2012063919A (en) * 2010-09-15 2012-03-29 Fujifilm Corp Medical report evaluation device, medical report evaluation method, medical report evaluation program and medical network system
JP2014524800A (en) * 2011-07-05 2014-09-25 サウジ アラビアン オイル カンパニー System, computer medium and computer-implemented method for monitoring employee health using a mobile device
WO2013141386A1 (en) * 2012-03-23 2013-09-26 独立行政法人科学技術振興機構 Device for provision of personal genome information environment, method for provision of personal genome information environment, and program

Also Published As

Publication number Publication date
JP6567319B2 (en) 2019-08-28

Similar Documents

Publication Publication Date Title
JP7127086B2 (en) health tracking device
US11315688B2 (en) Methods and systems for an artificial intelligence alimentary professional support network for vibrant constitutional guidance
WO2017033697A1 (en) Lifestyle management assistance device and lifestyle management assistance method
US20210202085A1 (en) Apparatus for automatically triaging patient and automatic triage method
Schjoedt et al. Experiences and management of fatigue in everyday life among adult patients living with heart failure: a systematic review of qualitative evidence
EP4002141A1 (en) Question recommendation method, apparatus and system, and electronic device and readable storage medium
US11315684B2 (en) Systems and methods for generating alimentary instruction sets based on vibrant constitutional guidance
US20210118545A1 (en) System and method for recommending food items based on a set of instructions
CN114758781B (en) Method, system, device and storage medium for generating health portrait of user
JP2010277574A (en) Advisory message selection system, control program, and healthcare support device
Chung et al. Activity-based nutrition management model for healthcare using similar group analysis
KR20170084790A (en) Mobile terminal for executing health management application based on speech recognition and operating method using the same
CN114868203A (en) Information transmission device and information transmission method
JP6567319B2 (en) Computer system
JP6992505B2 (en) Information processing equipment, methods and programs
KR20210052123A (en) Method for providing user-customized food information service and server using the same
Nagarajan et al. Nutritional monitoring in older people prevention services
US20220054091A1 (en) Methods and systems for self-fulfillment of an alimentary instruction set based on vibrant constitutional guidance
Seto et al. Prediction of personal cardiovascular risk using machine learning for smartphone applications
Manivannan et al. Health monitoring system for diabetic patients
KR20210008268A (en) Personalized nutrition management system and analysis method thereof
Rahman et al. Review on food recommender system for diabetes mellitus
Oh Building Personal Chronicle of Life Events
JP6721253B2 (en) Cost determination system and cost determination method
US20230255556A1 (en) Biosensors and food logger systems for personalized health and self-care

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20150522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190731

R150 Certificate of patent or registration of utility model

Ref document number: 6567319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees