JP2016202798A - Computer system - Google Patents
Computer system Download PDFInfo
- Publication number
- JP2016202798A JP2016202798A JP2015091324A JP2015091324A JP2016202798A JP 2016202798 A JP2016202798 A JP 2016202798A JP 2015091324 A JP2015091324 A JP 2015091324A JP 2015091324 A JP2015091324 A JP 2015091324A JP 2016202798 A JP2016202798 A JP 2016202798A
- Authority
- JP
- Japan
- Prior art keywords
- user
- data
- voice
- natural language
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Description
本発明は、生体センサにより取得されたユーザの生体データを収集して活用するためのコンピュータシステムに関する。 The present invention relates to a computer system for collecting and utilizing user biometric data acquired by a biometric sensor.
この種のコンピュータシステムに関して、例えば、サーバがユーザの生体情報を収集し、その生体情報に基づいてユーザに行わせるべき運動プログラムを決定してユーザ端末に送信し、ユーザに行わせるべき運動に関する情報をユーザに提示するものがあった(特許文献1参照)。 With regard to this type of computer system, for example, the server collects the biological information of the user, determines an exercise program to be performed by the user based on the biological information, transmits it to the user terminal, and information on the exercise to be performed by the user Is presented to the user (see Patent Document 1).
しかし、このようなコンピュータシステムにおいては、収集したユーザの生体情報に基づいてユーザがとるべき運動等の行動が決定されてユーザにフィードバックされるだけである。一方、ユーザにしてみれば、自分の心臓や肝臓等の生体部位の状況を把握したいというニーズがあり、そのニーズに応えることができないという欠点があった。 However, in such a computer system, an action such as exercise to be performed by the user is determined based on the collected biometric information of the user and is only fed back to the user. On the other hand, for users, there is a need for grasping the status of a living body part such as their heart and liver, and there is a drawback that it is impossible to meet the needs.
本発明は上記事情に鑑みてなされたものであり、その目的は、自分の生体部位の状況を把握したいというユーザのニーズに応えることのできるコンピュータシステムを提供することである。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a computer system that can meet the needs of users who want to grasp the status of their own body parts.
以下には、課題を解決するための各手段に対応する実施形態の一例を括弧書き挿入して示す。 In the following, an example of an embodiment corresponding to each means for solving the problem is shown in parentheses.
本発明は、生体センサ(例えば、各種生体センサ2、外部センサ群5)により取得されたユーザの生体データ(例えば、心拍数、体温、血圧、尿酸値、γGTP、体臭中のアセトン等)を収集して活用するためのコンピュータシステム(例えば、サーバ7、対話DB11、ユーザDB12、パターンDB13、ルールDB14)であって、
収集した前記生体データを蓄積するための生体データ蓄積手段(例えば、S23、ユーザDB12)と、
前記生体データ蓄積手段により蓄積されている生体データにより判別可能な生体部位の状態に基づいて、該生体部位とユーザとのコミュニケーションを実現するための制御を行うコミュニケーション手段(例えば、S39〜S46)とを備え、
前記コミュニケーション手段は、
自然言語認識手段(例えば、S50〜S54)と、
前記生体部位の状態を自然言語で表現すための自然言語化手段(例えば、S42、対話DB11)と、
前記自然言語化手段により表現された自然言語をユーザに伝達するための伝達手段(例えば、S43)と、を含み、
ユーザからの自然言語による問いかけがあった場合に、該問いかけを前記自然言語認識手段が認識し、該認識内容に対応する前記生体部位の状態を前記自然言語化手段が表現した自然言語を前記伝達手段がユーザに伝達することにより、前記問いかけに答える(例えば、S66〜S69で問いかけに対する発話内容を決定し、S42で発話内容に応じた発話データを生成し、S43でユーザに送信する)、コンピュータシステム。
The present invention collects user biometric data (for example, heart rate, body temperature, blood pressure, uric acid value, γGTP, acetone in body odor, etc.) acquired by a biosensor (for example,
Biometric data storage means (for example, S23, user DB12) for storing the collected biometric data;
Communication means (for example, S39 to S46) for performing control for realizing communication between the living body part and the user based on the state of the living body part that can be discriminated by the biological data stored by the biological data storage means; With
The communication means is:
Natural language recognition means (for example, S50 to S54);
Natural languageization means (for example, S42, dialogue DB11) for expressing the state of the living body part in natural language;
Transmission means (for example, S43) for transmitting the natural language expressed by the natural languageization means to the user,
When there is an inquiry in a natural language from a user, the natural language recognition unit recognizes the inquiry, and the natural language expressing the state of the living body part corresponding to the recognized content is transmitted. The means communicates to the user to answer the question (for example, utterance content for the question is determined in S66 to S69, utterance data corresponding to the utterance content is generated in S42, and transmitted to the user in S43). system.
また、前記生体部位に影響を与えるユーザの行動データを収集して蓄積するための行動データ蓄積手段(例えば、S64、S65、ユーザDB12)と、
前記行動データ蓄積手段により蓄積されているユーザの行動データと、前記生体データ蓄積手段により蓄積されている生体データと、に基づいて、両者間の相関関係を見つけ出すための相関関係発見手段(例えば、図8(a)の機械学習処理)と、をさらに備えたてもよい。
Also, action data storage means (for example, S64, S65, user DB12) for collecting and storing user action data that affects the living body part,
Based on the user behavior data stored by the behavior data storage means and the biological data stored by the biological data storage means, a correlation finding means for finding a correlation between the two (for example, The machine learning process of FIG. 8A may be further provided.
また、前記生体データ蓄積手段と前記行動データ蓄積手段とは、複数のユーザからのデータを収集して蓄積し(例えば、図1、ユーザID毎にアクションデータとセンサ検出データとを蓄積)、
前記相関関係発見手段は、複数のユーザについての前記行動データと前記生体データとを含むデータ集合からデータマイニングにより相関関係を見つけ出すよいにしてもよい(例えば、S82、S86)。
Further, the biometric data storage means and the behavior data storage means collect and store data from a plurality of users (for example, FIG. 1, storing action data and sensor detection data for each user ID),
The correlation finding means may find a correlation by data mining from a data set including the behavior data and the biological data for a plurality of users (for example, S82 and S86).
また、前記相関関係発見手段により見つけ出された新たな相関関係の前記行動データに該当する行動を行っているユーザを、前記行動データ蓄積手段により蓄積されているユーザの行動データから割出すための該当ユーザ割出手段(例えば、S93、ユーザDB12)と、
前記該当ユーザ割出手段により割出されたユーザに対し所定のメッセージを伝達するためのメッセージ伝達手段(例えば、S94、S96)と、をさらに備えてもよい。
In addition, for calculating a user performing an action corresponding to the action data of the new correlation found by the correlation finding means from the action data of the user accumulated by the action data accumulating means Applicable user indexing means (for example, S93, user DB12),
You may further provide the message transmission means (for example, S94, S96) for transmitting a predetermined message with respect to the user indexed by the said user indexing means.
また、前記自然言語認識手段は、ユーザの音声を認識するための音声認識手段(例えば、S50〜S54)を含み、
前記伝達手段は、前記自然言語化手段により表現された自然言語を音声によりユーザに伝達するための音声伝達手段(例えば、S43)を含み、
前記コミュニケーション手段は、ユーザからの音声による問いかけがあった場合に、該問いかけを前記音声認識手段が認識し、該認識内容に対応する前記生体部位の状態を前記自然言語化手段が表現した自然言語を前記音声伝達手段が音声によりユーザに伝達することにより、前記問いかけに音声で答える(例えば、S66〜S69で問いかけに対する発話内容を決定し、S42で発話内容に応じた発話データを生成し、S43でユーザに送信する)ようにしてもよい。
Further, the natural language recognition means includes voice recognition means (for example, S50 to S54) for recognizing the user's voice,
The transmission means includes voice transmission means (for example, S43) for transmitting the natural language expressed by the natural languageization means to the user by voice,
The communication means is a natural language in which the voice recognition means recognizes the question when the user asks a voice question, and the natural language means expresses the state of the living body part corresponding to the recognized content. Is transmitted to the user by voice so that the question is answered by voice (for example, utterance content for the question is determined in S66 to S69, utterance data corresponding to the utterance content is generated in S42, and S43 To the user).
本発明によれば、ユーザは、生体データ蓄積手段により蓄積されている自分の生体データにより判別可能な生体部位の状態に基づいて、該生体部位とコミュニケーションすることにより、自分の生体部位の状況を把握することができる。 According to the present invention, the user communicates with the living body part based on the state of the living body part that can be discriminated by the living body data stored by the living body data storage means, thereby determining the state of the living body part. I can grasp it.
以下、本発明の実施形態を図面に基づいて詳述する。まず、 図1の全体システムを参照し、ユーザ4は、スマートグラス等を含むウェアラブルコンピュータ3を装着しており、ユーザ4の生体を検出するための各種生体センサ2がそのウェアラブルコンピュータ3に接続されている。この各種センサ2の検出データ(生体データ)がウェアラブルコンピュータ3、インターネット1を経由してサーバ7へ転送され、そのサーバ7がユーザデータベース(以下、データベースを「DB」と略す)12に各種センサ検出データを記憶する。例えばトイレに設けられた尿センサ59や体重センサ60からなる外部センサ群5にユーザ4が近づきその外部センサ群5によりユーザ4の生体データが検出されれば、そのユーザ4のウェアラブルコンピュータ3と外部センサ群5とが通信してその外部センサ群5によるセンサデータがウェアラブルコンピュータ3、インターネット1を経由してサーバ7へ送信される。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, referring to the entire system of FIG. 1, a
ユーザ4がベッド等により睡眠をとった場合にそのベッド等に設置されている睡眠センサ6がユーザの睡眠状態を検知してその検出データがインターネット1を経由してサーバ7へ送信される。さらに、サプリメント(以下「サプリ」という)等の健康食品メーカ8には、サーバ8aと商品開発DB8bとが設置されており、サーバ8aがインターネット1に接続されて健康サービス提供業者10のサーバ7と通信可能に構成されている。商品開発DB8bには、開発されたサプリ等の商品データや開発中の商品のデータが蓄積されている。また、製薬メーカ9には、サーバ9aと商品開発DB9bとが設置されており、サーバ9aがインターネット1に接続されて健康サービス提供業者10のサーバ7と通信可能に構成されている。商品開発DB9bには、開発された製薬等の商品データや開発中の商品のデータが蓄積されている。
When the
健康サービス提供業者10には前述のサーバ7が設置されており、そのサーバ7に、対話DB11とユーザDB12とパターンDB13とルールDB14とが接続されている。また、ユーザ4の生体に影響を及ぼすようなアクション、例えば、食事、薬の服用、サプリの摂取等のユーザのアクションのデータが、ウェアラブルコンピュータ3、インターネット1を経由してサーバ7に送信される。例えばユーザが食事をしたときに、その食事をウェアラブルコンピュータ3のカメラ入力部29により撮像してサーバ7へ送信する。サーバ7では、その撮像データに基づいてユーザ4が食した食材(例えばサラダ,牛肉,パン)を割り出し、ユーザDB12に記憶する。また、ユーザ4が薬を服用した場合に「風邪薬服用」と喋ればその音声がウェアラブルコンピュータ3、インターネット1を経由してサーバ7へ転送され、サーバ7で音声認識されてユーザDB12に「薬:風邪薬服用」と記憶される。さらにユーザ4がサプリを摂取した場合に「ウコン摂取」と喋ればその音声がウェアラブルコンピュータ3、インターネット1を経由してサーバ7へ送信され、サーバ7において音声認識されてユーザDB12に「サプリ:ウコン摂取」と記憶される。
The
健康サービス提供業者10は、その健康サービス提供システムに加盟しているユーザごとにユーザIDを割り振っており、多数のユーザ4から送信されてくる前述したセンサ検出データとアクションデータとをユーザIDごとに分類してユーザDB12に記憶する。そのセンサ検出データおよびアクションデータは、時間tとともに変化するものであり、例えば1分ごとあるいは1秒ごとにセンサ検出データとアクションデータとを記憶する。図1では、ユーザID:051392704の日時2015年4月9日7時30分15秒のデータとして、
(アクションデータ)
食事:サラダ+牛肉+パン
薬:風邪薬服用
サプリ:ウコン摂取
(センサ検出データ)
心拍数センサ:75
体温センサ:36.7
血圧センサ:140〜75
尿センサ:PH6,尿酸8.2
血液センサ:γGTP153,中性脂肪160,コレステロール130,ビリルビン1.2
体臭センサ:アセトン
等が記憶されている。このようなデータが時間軸tに沿ってユーザDB12に記憶される。
The
(Action data)
Meals: Salad + Beef + Bread medicine: Cold medicine supplements: Turmeric intake (sensor detection data)
Heart rate sensor: 75
Body temperature sensor: 36.7
Blood pressure sensor: 140-75
Urine sensor: PH6, uric acid 8.2
Blood sensor: γGTP153, neutral fat 160, cholesterol 130, bilirubin 1.2
Body odor sensor: acetone and the like are stored. Such data is stored in the
健康サービス提供業者10は、ユーザDB12に記憶されている前述した各種データに基づいて、ユーザ4の健康を支援するための各種サービスを提供する。
The
次に図2を参照して、ウェアラブルコンピュータの制御回路のハードウェア構成を説明する。このウェアラブルコンピュータ3はスマートグラス等で代表されるものであり、制御中枢としてのCPU(Central Processing Unit)23、CPU23のワークエリアであるRAM(Random Access Memory)25、各種機能を実行するためのプログラムを保存したROM(Read Only Member)24、およびEEPROM(Electronically Erasable and Programmable Read Only Memory)26が、バス27により接続されている。
Next, the hardware configuration of the control circuit of the wearable computer will be described with reference to FIG. The
バス27は、インタフェース部28を介して種々のデバイスが接続されている。例えば、ユーザ4の周辺の映像(ユーザの視線方向の映像等)を撮影するデジタルビデオカメラ入力部29、各種情報等をユーザに表示する表示部30、基地局と無線通信してインターネット1を介してサーバ等とデータ通信する無線通信処理部31、ユーザがウェアラブルコンピュータ3のCPU23に希望する機能を実行させるための入力操作部32、ユーザが音声により通話をするための音声出力部33と音声入力部34、衛星からのGPS情報と基地局からの電波と無線LANアクセスポイントからの無線電波とに基づいて、現在位置を取得するための位置情報取得部35、Wi-FiやBluetooth(登録商標)、Wi-Fi Direct、Zigbee(登録商標)、Zwave、Ant+などを用いて各種センサ2や外部センサ群5と通信する無線通信インタフェース部36、ユーザの視線位置を検出して、デジタルビデオカメラ入力部29で撮影した映像でのユーザ視線の位置を特定するための視線位置検出部37、各種センサ38などが、インタフェース部28に接続されている。
Various devices are connected to the
入力操作部32は、ユーザによる手動操作を受付けるものばかりでなく、ユーザのジェスチャや特定のウインク等による指示も受付ける。なお、ユーザの音声による指示は音声入力部34により受付ける。各種センサ38は、ウェアラブルコンピュータ3に取り付けられた気温や湿度や照度や紫外線等のセンサである。
The
各種生体センサ2は、無線通信インタフェース部57が設けられており、この無線通信インタフェース部57によりウェアラブルコンピュータ3の無線通信インタフェース部36と無線通信することにより、センサ検出データをウェアラブルコンピュータ3に送信する。各種生体センサの種類としては、ユーザ4の心拍数を検出する心拍数センサ15、ユーザ4の体温を検出する体温センサ16、ユーザ4の血圧を検出する血圧センサ17、ユーザ4の血液を非侵襲で検出する非侵襲血液センサ18、ユーザ4の体臭を検出する体臭センサ19、ユーザ4の歩いた歩数を検出する歩数センサ50、ユーザ4の涙の成分を検出する涙センサ51、AGEsセンサ52等である。
The
血圧センサ17は、例えば位相シフト法を用いてユーザの指だけで血圧を測るもの(例えば光センサを利用)が考えられる。非侵襲血液センサ18は、採血することなく血液成分を測定するセンサであり、生体を透過させた近赤外光を高感度かつ高速に分光計測することにより、生体を透過した光の連続的な変動をとらえて、例えば血中の脂質あるいは血糖値を測定する。
As the
体臭センサ19は、バイオセンサを用いてにおい物質の微量検知を行うのであり、検出されたにおい成分により病名を特定することができる。例えば、検出されたにおい成分が、アセトンなどのケトン体である場合には糖尿病が疑われ、アンモニアである場合には腎臓病や肝臓病が疑われ、塩化メチルなどの硫化化合物の場合には胃腸病が疑われ、トルエンの場合には肺がんや乳がんが疑われる。
The
涙センサ51は、例えばコンタクトレンズに設けられたバイオセンサであり、ブドウ糖を認識する素子(グルコース酸化酵素)をコンタクトレンズ上に固定して涙の中のグルコース(血糖)を計測することにより、血糖値を測定する。
The
AGEsセンサ52は、血管内でタンパク質が糖化してできる終末糖化産物(AGEs)の蓄積度を数値化できるセンサである。日常生活で糖分を過剰に摂取すると、タンパク質が糖化し、本来の働きを発揮できなくなる。この糖化反応は糖尿病のほか、認知症やがん、高血圧、動脈硬化症などにも関与している。このAGEsは万病のもとと言われている物質であり、血糖値と相関することが知られているが、血糖値とは異なり、測定前の食事内容などによって測定値がばらつきにくいという利点がある。このAGEsを検出することにより、血管の老化度が判別でき、糖尿病などの早期発見となる。
The
以上説明した各種生体センサがインタフェース部53を介してCPU55に定期的に接続されている。CPU55は、制御用のプログラムおよびデータを記憶しているROM54と定期的に接続されているとともに、CPU55のワークエリアとして機能するRAM56と接続されている。そして、前述の各種生体センサからの検出信号を無線通信インタフェース部57を介してウェアラブルコンピュータ3の無線通信インタフェース部36へ送信する。
The various biological sensors described above are periodically connected to the
外部センサ群5は、トイレセンサ58とその他のセンサの61等からなる。トイレセンサ58は、尿の成分を検出する尿センサ59と、トイレに座ったユーザの体重を検出する体重センサ60とからなる。これらトイレセンサ58およびその他のセンサ61がウェアラブルコンピュータ3の無線通信インタフェース部36と無線通信し、センサ検出データがウェアラブルコンピュータ3に送信される。
The
ウェアラブルコンピュータ3は、各種生体センサ2および外部センサ群5から送信されてきたセンサ検出データ(生体データ)を無線通信処理部31からインターネット1を経由してサーバ7へ送信する。
The
次に、図3に基づいて、サーバ7の制御回路のハードウェア構成を説明する。前述と同様に、CPU40、RAM41およびROM42がバス43により接続されている。そのバス43が接続されているインタフェース部44には、インターネット1等との通信部45、オペレータに映像や情報を表示する表示部46、オペレータからの操作を受付ける入力操作部47が接続されている。
Next, the hardware configuration of the control circuit of the
次に、図4(a)を参照して、サーバ7およびウェアラブルコンピュータ3のメインルーチンの制御動作を説明する。ウェアラブルコンピュータ3のCPU23は、ステップS(以下単に「S」という)10により、収集した生体データをサーバ7へ送信する処理を行い、次にS11により対話処理を行い、次にS12より外部センサ処理を行い、次にS13により撮像処理を行ってS10へ制御が戻る。
Next, the control operation of the main routine of the
サーバ7は、S1により、ウェアラブルコンピュータ3から送信されてきた生体データを収集するデータ収集処理を行い、S2により、ウェアラブルコンピュータ3との対話処理を行い、S3により、機械学習処理を行い、S4によりその学習結果に基づいた対話処理を行い、S5によりルール化処理を行い、S6により効果検証処理を行い、S7によりパターン販売処理を行って制御がS1に戻る。
The
S3の機械学習処理は、例えばユーザDB12に記憶された多数のユーザのアクションデータとセンサ検出データ(生体データ)とをデータ集合としてデータマイニング等を行うものである。学習結果に基づいた対応処理(S4)は、S3による機械学習処理の結果を各ユーザにフィードバックするための処理である。S5のルール化処理は、S3による機械学習処理の結果をルールとしてルールDB14に記憶する処理である。
The machine learning process of S3 performs, for example, data mining using a large number of user action data and sensor detection data (biological data) stored in the
次に図4(b)を参照して、S10のデータ送信処理とS1のデータ収集処理とのサブルーチンプログラムの制御動作を説明する。ウェアラブルコンピュータ3のCPU23によりセンサからの検出データがあるか否かの判定がなされる(S18)、生体センサからの検出データ(生体データ)がない場合には制御がS20へ進み、食事の撮像画像データがあるか否かの判定がなされ、ない場合にはこのデータ送信処理がリターンして前述のS11へ制御が移行する。
Next, with reference to FIG. 4B, the control operation of the subroutine program of the data transmission process of S10 and the data collection process of S1 will be described. The
各種生体センサ2からの検出データがあった場合にはS19により、ユーザIDとセンサ特定IDとその検出データとをサーバ7へ送信する処理が行われる。センサ特定IDとは、例えば心拍数センサ15、体温センサ16、血圧センサ17…の各種生体センサに割り振られているIDのことである。
If there is detection data from the various
サーバ7のCPU40は、S22により検出データを受信したか否かの判定を行い、受信していない場合には制御がS24へ進み、撮像画像データを受信したか否かの判定を行い、受信していない場合にはこのデータ収集処理がリターンして前述のS2の処理に移行する。ウェアラブルコンピュータ3から検出データが送られてくればS22によりYESの判断がなされて制御がS23へ進み、受信したユーザIDに対応づけてセンサ特定IDで特定される種類のセンサの検出データをユーザDB12に記憶する処理が行われる。その結果、図1に示したセンサ検出データがユーザDB12に記憶されることとなる。
The
ユーザがウェアラブルコンピュータ3のカメラ入力部29により食事の料理を撮像してサーバ7へ送信してくれば、S24によりYESの判断がなされて制御がS25へ進み、その撮像画像データに基づいて食物の種類とカロリーとを割り出してユーザDB12に記憶する処理が行われる。その結果、図1に示すような「食事:サラダ+牛肉+パン」のような食物の種類が記憶されるとともにカロリー(図示省略)がユーザDB12に記憶される。この料理の撮像画像から食物の種類とカロリーとを割り出す制御は、多数の料理の画像を記憶しているデータベースと受信した撮像画像とを対比し、適合する料理をデータベースの料理画像から割出し、カロリーを算出する。なお、料理の撮像画像から食物の種類とカロリーとを割り出すことを人為的に行ってもよい。
If the user images a meal of food by the
次に図5(a)を参照して、ウェアラブルコンピュータ3のS11による対話処理とサーバ7のS2による対話処理とのサブルーチンプログラムの制御動作を説明する。ウェアラブルコンピュータ3のCPU23がS29により音声入力があるか否かを判定し、音声入力がない場合には制御がS33へ進み、サーバ7からメッセージを受信したか否かの判定を行い、受信していない場合にはこの対話処理がリターンして前述のS3へ制御が移行する。ユーザ4がしゃべった音声が音声入力部34から入力されれば、S29によりYESの判断がなされてS30によりその入力された音声データがサーバ7へ送信される。
Next, with reference to FIG. 5 (a), the control operation of the subroutine program of the dialogue process by S11 of the
サーバ7では、CPU40が音声を受信したか否か判定し(S39)、受信していない場合には制御がS44へ進み、メッセージ生成処理を行い、S45によりメッセージがあるか否か判定され、ない場合にはこの対話処理が終了してリターンし制御がS3へ移行する。
In the
S31によりウェアラブルコンピュータ3から音声データがサーバ7へ送信されてくれば、S39によりYESの判断がなされて制御がS40へ進み、音声認識処理が行われ、S41によりその認識化に応じた対応処理が行われ、S42によりその対応処理に基づいた発話データの生成処理が行われ、S43によりその発話データと画像データとをウェアラブルコンピュータ3へ送信する処理が行われる。ウェアラブルコンピュータ3では、S31によりそのデータを受信し、S32により、その受信した発話データに基づいて音声出力部33から音声を発して発話し、受信した画像データに基づいて表示部30により画像を表示する処理を行う。
If the voice data is transmitted from the
ここで、S40の音声認識処理の具体的制御動作とS41による認識結果に応じた対応処理の具体的制御動作とを説明する。 Here, the specific control operation of the speech recognition process in S40 and the specific control operation of the corresponding process according to the recognition result in S41 will be described.
まず、S40による音声認識処理のサブルーチンプログラムの制御動作を図5(b)に基づいて説明する。まずS50により形態素解析処理を行い、S51により構文解析処理を行い、S52により意味解析処理行い、S53により文脈解析処理を行い、S54により意図解析処理(意図解釈処理)を行う。これらの解析処理は自然言語処理エンジンで実行される。 First, the control operation of the subroutine program for speech recognition processing in S40 will be described with reference to FIG. First, morphological analysis processing is performed in S50, syntax analysis processing is performed in S51, semantic analysis processing is performed in S52, context analysis processing is performed in S53, and intention analysis processing (intention interpretation processing) is performed in S54. These analysis processes are executed by a natural language processing engine.
形態素解析とは、文章を意味のある単語に区切り、辞書を利用して品詞や内容を判別することである。構文解析とは、文節と文節の係り受け関係を判定する処理である。意味解析とは、ベクトル空間モデルを利用した自然言語処理の技法の1つで、文書群とそこに含まれる用語群について、それらに関連した概念の集合を生成することで、その関係を分析することである。文脈解析とは、複数の文のつながりをチェックするものである。意図解析(意図解釈)とは、文章の意味を理解する処理である。 Morphological analysis is to divide a sentence into meaningful words and discriminate parts of speech and contents using a dictionary. Parsing is a process for determining the dependency relationship between clauses. Semantic analysis is a natural language processing technique that uses a vector space model, and analyzes the relationship between a group of documents and a group of terms contained therein by generating a set of related concepts. That is. Context analysis is to check the connection of multiple sentences. Intention analysis (intention interpretation) is a process of understanding the meaning of a sentence.
次に、次にS41の認識結果に応じた対応処理のサブルーチンプログラムの制御動作を図6(a)に基づいて説明する。まず、S64により、ユーザ4からのアクションの報告があったか否かの判定がなされる。例えばユーザが音声により「風邪薬服用」としゃべってその音声が前述の音声認識処理により認識された場合にはS64により「風邪薬服用」というアクションの報告があったと判定され、制御がS65へ進み、その報告されたアクションをユーザDB12に記憶する処理がなされる。一方アクションの報告でないと判定された場合には制御がS66へ進み、体内部位(生体部位)に関する対話か否かの判定がなされる。ユーザ4が音声により例えば「肝臓を指定して調子はどうだい。」としゃべってその音声が前述の音声認識処理により音声認識された場合にはS66によりYESの判断がなされて制御がS67へ進み、認識結果に関連する体内部位のIDを割り出す処理が行われる。肝臓、胃、腎臓等の各体内部位(各生体部位)にはそれぞれIDが割り振られており、その部位IDを割り出す処理がS67により行われる。次にS68により、その割り出された部位IDのデータをユーザDB12から検索する処理がなされる。例えば、S67により割り出された部位IDが肝臓のIDであった場合には、ユーザDB12に記憶されているセンサ検出データのうち血液センサの項目における「γGTP153、ビリルビン1.2」のデータがS68により検索される。次にS69により、その検索されたデータに基づいて発話内容が決定される。例えば、「γGTPとビリルビンとの数値データが時間軸tに沿ってユーザDB12に記憶されており、それらデータが時間の経過とともに改善されている場合には、「だいぶん回復したよ」の発話内容がS69により決定される。このような発話内容は、対話DB11に記憶されている。サーバ7は、対話DB11を検索してテンプレートマッチングによりマッチするテンプレートに基づいて発話内容を決定する。
Next, the control operation of the subroutine program of the corresponding process according to the recognition result in S41 will be described with reference to FIG. First, in S64, it is determined whether or not there is an action report from the
一方、S66によりNOと判断がなされた場合には制御がS70に進み、その他の対応処理が実行される。このその他の対応処理については、図10(c)に基づいて後述する。 On the other hand, if NO is determined in S66, the control proceeds to S70, and other corresponding processing is executed. This other handling process will be described later with reference to FIG.
図5(a)に戻り、前述の図6(a)の認識した結果に応じた対話処理により決定された発話内容の発話データがS42により生成され、その発話データが画像データとともにS43によりウェアラブルコンピュータ3へ送信される。このS43により送信される画像データは、S68により割り出された部位IDに対応する体内部位(例えば肝臓等)を表すマーク(アイコン)と発話内容を表す文章等であり、例えば図7に示すような画像である。 Returning to FIG. 5 (a), utterance data of the utterance content determined by the dialogue processing according to the recognition result of FIG. 6 (a) described above is generated in S42, and the utterance data together with the image data is a wearable computer in S43. 3 is transmitted. The image data transmitted in S43 includes a mark (icon) representing a body part (for example, liver) corresponding to the part ID determined in S68, a sentence representing speech content, and the like, for example, as shown in FIG. It is an image.
ウェアラブルコンピュータ3は、その発話データと画像とを受信して発話するとともに図7に示すような画像を表示部32より表示する。次に、S44に示したメッセージ生成処理のサブルーチンプログラムの制御動作を図6(b)に基づいて説明する。S75により、ユーザDB12を検索して悪化した体内部位のIDを割り出す処理がなされる。例えば図1に示したデータが記憶されているユーザDB12を検索した場合に、γGTPの値が153と、基準値55を大幅に超えているために、体内部位のうちの肝臓が悪化していると判断してその肝臓のIDを割り出すその処理がS74により行われる。次にS76により報知が必要であるか否かの判断がなされる。具体的には、センサ検出データ(生体データ)の数値が基準値を上回っている度合いが閾値を超えているか否かで判断する。例えばγGTPの場合には、基準値が55であるために、閾値を100と定めている。ユーザID:051392704のユーザの場合、γGTPの値が153であり、閾値100を超えているために、S76によりYESの判断がなされて制御がS77へ進み、報知用のメッセージが生成される。この報知用のメッセージは、S75により割り出されたIDに相当する体内部位が悪化している旨を報知するものであってもよいが、該当するユーザの最近のアクションデータを考慮したメッセージにしてもよい。例えば、図7に示すような「連日の宴会でもう駄目。助けて〜。γGTP153」のようなものであってもよい。
The
図5(a)に戻り、このようにして生成されたメッセージがある場合には、S45によりYESの判断がなされて、S46によりその生成されたメッセージがウェアラブルコンピュータ3へ送信される。それを受けたウェアラブルコンピュータ3では、S34により、その受信したメッセージに基づいて発話するとともに画像表示する制御がなされる。
Returning to FIG. 5A, if there is a message generated in this way, a determination of YES is made in S45, and the generated message is transmitted to the
次に図4(a)のS12に示した外部センサ処理のサブルーチンプログラムの制御動作を図6(c)に基づいて説明する。この外部センサ処理は、図1に示した外部センサ群5によるユーザ4の検出データ(生体データ)をサーバ7へ送信するための処理である。まずS60により、外部センサからの信号受信があったか否かの判断がなされる。ない場合にはリターンしてS13に移行する。
Next, the control operation of the subroutine program for external sensor processing shown in S12 of FIG. 4A will be described with reference to FIG. This external sensor process is a process for transmitting detection data (biological data) of the
ユーザ4が外部センサ群5に近づいて、外部センサ群5により生体データが検出されれば、ウェアラブルコンピュータ3の無線通信インタフェース部36と当該センサとの交信により、センサ検出データ(生体データ)がウェアラブルコンピュータ3へ送信される。それを受信したウェアラブルコンピュータ3のCPU23は、S60によりYESの判断を行い、受信したセンサのセンサ特定IDとその受信した検出データ(生体データ)をEEPROM26に記憶する処理を行う。この外部センサ群5の各センサにも、各種生体センサ2と同様にセンサの処理を特定するためのセンサ特定IDが割り振られており、センサ検出データとともにそのセンサ特定IDがウェアラブルコンピュータ3へ送信されてくる。このS61によりセンサ特定IDと検出データとが記憶された場合には、前述したS18によりセンサからの検出データがあると判断されて制御がS19へ進み、その記憶されたセンサ特定IDと検出データ(生体データ)とをユーザIDとともにサーバ7へ送信する処理が行われる。
When the
次に、図4(a)のS13に示した撮像処理のサブルーチンプログラムの制御動作を図6(d)に基づいて説明する。S72により、撮像操作があったか否かの判断がなされ、ない場合にはリターンして、S10に制御が移行する。ユーザがウェアラブルコンピュータ3の入力操作部32を操作して、撮像操作を行えば制御がS73へ進み、被写体(食事の料理等)をカメラ入力部29により撮像する制御が行われる。そしてS74により、その撮像した画像データを記憶する処理がなされる。S74により撮像画像データが記憶されることにより、前述したS20によりYESの判断がなされてS21によりその撮像画像データをサーバ7へ送信する処理が行われる。
Next, the control operation of the subroutine program for the imaging process shown in S13 of FIG. 4A will be described based on FIG. In S72, it is determined whether or not there has been an imaging operation. If not, the process returns to S10. If the user operates the
次に、前述したS32およびS34により行われる表示部30への画像表示の一例を図7に基づいて説明する。図7の上半分の画像は、ユーザの肝臓、胃、腎臓等の各体内部位(生体部位)のアイコンが表示されるとともに、その各体内部位の最新の会話文字および会話日時が合わせて表示される。これら体内部位のうち、ユーザが新たに会話したい体内部位に相当するアイコンをタップすることにより、そのタップされた体内部位との過去の会話履歴が表示されるとともに(図7下半分参照)、その体内部位との新たなコミュニケーションが可能となる。図7の場合には、ユーザが肝臓のアイコンをタップした状態が示されている。肝臓との対話履歴は、図7の下半分の画像で示されているように、4月8日22時25分に、肝臓からのメッセージとして「連日の宴会でもう駄目。助けて〜。γGTP153」が表示されている。これを、ユーザID:051392704の血液センサの検出データ中のγGTPの値が153となっており(図1参照)、基準値55を大幅に上回っているために、図6(b)のメッセージ生成処理により報知用のメッセージが生成されて、S34による画像表示がなされた結果である。このようなメッセージが表示部30によりユーザに表示されるとともに、音声出力部33から音声によってもユーザに報知される。それを聞いた(見た)ユーザは、音声により「分かった。ウコンのサプリを飲むよ。」をしゃべることにより、その音声が音声入力部34から入力されて、音声認識処理(図5(b)参照)により解析処理され、その解析処理された認識結果に応じた対応処理が行われ(図6(a)参照)、その対応処理に基づいた画像データがウェアラブルコンピュータ3へ送信されてS32により画像表示される。その結果が「分かった。ウコンのサプリを飲むよ。」が画像表示されることとなる。
Next, an example of image display on the
後日ユーザが肝臓のアイコンをタップして「調子はどうだい。」としゃべれば、前述と同様の処理がなされてそのしゃべった言葉が画像表示されるとともに、S66によりYESの判断がなされてS67〜S69の処理により発話内容が決定され、その発話データと画像データとがウェアラブルコンピュータ3に送信されてS32により発話されるとともに画像表示される。その結果、図7に示すように「だいぶん回復したよ。γGTP70」の音声が音声出力部33から出力されるとともに表示部30により画像表示される。
If the user taps the liver icon at a later date and says "How is it?", The same processing as described above is performed, and the spoken word is displayed as an image, and YES is determined in S66 and S67- The content of the utterance is determined by the process of S69, and the utterance data and the image data are transmitted to the
なお、図7では、ユーザが会話したい体内部位のアイコンをタップすることにより新たな会話が可能となるものを示したが、タップの代わりにユーザが音声で会話したい体内臓器を指定するように制御してもよい。次に、図4(a)の機械学習処理S3および学習結果に基づいた対応処理S4のサブルーチンプログラムの制御動作を図8(a)、(b)に基づいて説明する。 Note that FIG. 7 shows that the user can make a new conversation by tapping the icon of the body part that the user wants to talk to, but instead of the tap, control is performed so that the user specifies the body organ that the user wants to talk by voice. May be. Next, the control operation of the subroutine program of the machine learning process S3 in FIG. 4A and the corresponding process S4 based on the learning result will be described based on FIGS. 8A and 8B.
サーバ7には、人工知能による機械学習エンジンがインストールされている。この機械学習エンジンでは、定期的に機械学習を行う。S80により、機械学習時期になったか否かの判断がなされ、いまだ機械学習時期になっていない場合にはリターンしてS4に制御が移行する。一方、機械学習時期になった場合には制御がS81へ進み、容態が悪化したユーザIDのデータのみをユーザDB12から抽出する処理が行われる。そして、その抽出されたデータに基づいて、S82によりデータマイニングを行ってNGパターンNGPi(i=1,2,3・・・)を見つけ出す処理が行われる。具体的には、ユーザのアクションデータとセンサ検出データとからなるデータ集合の中から、センサ検出データ(生体データ)が悪化した前兆となるアクションをデータマイニングにより見つけ出す。なお、後述するS86は、その逆で、センサ検出データ(生体データ)が改善された前兆となるアクションをデータマイニングにより見つけ出す処理である。サーバ7は、ノイマン型の一般的なコンピュータを用いているが、ニューラル・ネット・プロセッサー(NNP)を用いてもよい。NNPのチップ上には本物のニューロンをモデルにした「人工ニューロン」が多数搭載されており、各ニューロンはネットワークでそれぞれ連携し合う。また、「量子アニーリング方式」を採用した量子コンピュータを用いてもよい。これにより、機械学習における最適化計算の所要時間を大幅に短縮できる。
The
次にS83により、NGPiは今まで見つけ出したものと異なるか否か判定される。今まで見つけ出されたNGPi(i=1,2,3・・・)は、パターンDB13に記憶されている(図9(a)参照)。このパターンDB13を検索して既に記憶されているNGパターンであるか否か判定する。既に記憶されている場合には制御がS85へ進むが、いまだに記憶されていない新たなものの場合には制御がS84へ進み、その新たに見つけ出されたNGPiをパターンDB13に追加記憶する制御が行われる。
Next, in S83, it is determined whether NGPi is different from what has been found so far. NGPi (i = 1, 2, 3...) Found so far is stored in the pattern DB 13 (see FIG. 9A). The
次にS85により、ユーザDB12を検索して容態が改善したユーザIDのデータのみを抽出する制御が行われる。次にS86により、データマイニングを行ってポジティブパターン(PGパターン)PGPi(i=1,2,3・・・)を見つけ出す制御がなされる。次にS87には、その見つけ出されたPGPiは今まで見つけ出したものと異なるか否かの判定をパターンDB13を検索して行う。既に見つけ出されているものと同じ場合にはリターンするが、新たに見つけ出されたものである場合には制御がS88へ進み、PGPiをパターンDB13に追加記憶する制御が行われる。
Next, in S85, control is performed to search the
S84およびS88によってパターンDB13に記憶されたNGPi(i=1,2,3・・・)とPGPi(i=1,2,3・・・)との一例を、図9(a)に基づいて説明する。S82およびS86により見つけ出されるパターンは、すべてのユーザに当てはまるものは少なく、ユーザの生体的特性に基づいて、ユーザをセグメント化し、あるセグメントに属するユーザにのみ当てはまる場合が多い。図9(a)の場合には、ユーザの生体属性として、体脂肪率25〜35%で男性でかつ年齢が35〜55歳に限定されたパターンが示されている。
An example of NGPi (i = 1, 2, 3,...) And PGPi (i = 1, 2, 3,...) Stored in the
まずNGパターン(NGPi)として、
1 大量の発汗ののちの飲酒で脳梗塞の危険性が高まる
2 飲酒中に脂質を多く食べると消化不良を起こす
3 早朝または深夜に高カロリーの食事をとると肥満になりやすい
等である。
また、PGパターン(PGPi)としては、
1 飲酒前または飲酒中に生卵を食べるとγGTPの上昇を抑えられる
2 飲酒中にゴマ油(ラー油)を摂取するとγGTPの上昇を抑えられる
3 高カロリーの食事は午後2時前後にとると肥満になりにくい
等である。
First, as an NG pattern (NGPi),
1 Increased risk of cerebral infarction by drinking after a large amount of sweating 2 Eating indigestion when eating a lot of lipids while drinking 3 If you eat a high-calorie meal early in the morning or late at night, you may become obese.
Moreover, as a PG pattern (PGPi),
1 Eating raw eggs before or during drinking can suppress the increase in
次に、図8(b)に基づいて、機械学習結果に基づいた対応処理のサブルーチンプログラムの制御動作を説明する。S93により、パターンDB13に新たに追加記憶されたNGPiに該当するユーザIDをユーザDB12から検索する制御がなされる。次にS94により、その検索されたユーザIDのユーザに対しNG報知を行う制御がなされる。次にS95により、パターンDB13に新たに追加記憶されたPGPiに該当するユーザIDをユーザDB12から検索する制御がなされる。次にS96により、その検索されたユーザIDのユーザに対しPG報知(ポジティブ報知)する制御が行われる。
Next, based on FIG. 8B, the control operation of the subroutine program of the corresponding process based on the machine learning result will be described. Through S93, control is performed to search the
S94およびS96の報知制御は、該当するユーザのウェアラブルコンピュータ3に対しサーバ7がNGメッセージとその前兆となったアクション(行動)を報知し、また、PGメッセージとその前兆となったユーザのアクション(行動)とを報知する制御である。
In the notification control in S94 and S96, the
この制御により、機械学習の結果新たに見つけ出されたユーザのアクション(行動)のNG前兆パターンおよびPG前兆パターンが該当するユーザに早期に報知されることとなり、それを知ったユーザは、いち早くNG前兆パターンを行わないようにし、PG前兆パターンを積極的に実行するようになるという、利点がある。 By this control, the NG precursor pattern and the PG precursor pattern of the user action (behavior) newly found as a result of machine learning are notified to the corresponding user at an early stage, and the user who knows this is NG promptly. There is an advantage that the precursor pattern is not performed and the PG precursor pattern is actively executed.
次に、図4(a)のS5のルール化処理のサブルーチンプログラムの制御動作を図10(a)に基づいて説明する。S100により、パターンDBに追加記憶されたNGPiとPGPiとを盛り込んだルールを作成してルールDB14に追加記憶する制御が行われる。その一例が図9(b)に示されている。図9(b)を参照して、ユーザセグメントとして体脂肪率25〜35%の男性で、35〜55歳の生体属性のユーザについて、
・大量の発汗のちに飲酒する場合には、事前に水分補給する。
・飲食する場合、生卵とゴマ油(ラー油)を食し脂質を控える。
・高カロリーの食事は、早朝と深夜を控え、午後2時前後にするのがよい。
等である。
Next, the control operation of the subroutine program of the rule forming process of S5 in FIG. 4A will be described based on FIG. In S100, control is performed in which a rule including NGPi and PGPi additionally stored in the pattern DB is created and additionally stored in the rule DB. An example of this is shown in FIG. With reference to FIG.9 (b), about the user of the body attribute of 35-55 years old with the male of body fat percentage 25-35% as a user segment,
・ If you drink after a lot of sweating, rehydrate in advance.
・ When eating or drinking, eat raw eggs and sesame oil (ra oil) and refrain from lipids.
・ A high-calorie meal should be around 2pm, early in the morning and late at night.
Etc.
次にS101により、追加記憶されたルールをユーザに報知するためのメッセージを作成する制御が行われる。その結果、前述した図5(a)のS45によりYESの判断がなされてS46によりウェアラブルコンピュータ3にメッセージが送信されることとなる。この送信対象となるユーザは、健康サービス提供業者10のサービスに加盟している全ユーザである。その結果、新たに追加記憶されたルールが全ユーザに対して周知徹底されるという利点がある。
Next, in S101, control for creating a message for notifying the user of the additionally stored rule is performed. As a result, YES is determined in S45 of FIG. 5A described above, and a message is transmitted to the
次に、図4(a)のS6に示した効果検証処理のサブルーチンプログラムの制御動作を図10(b)に基づいて説明する。この効果検証処理は、製薬メーカ9が作った製薬あるいは健康食品メーカ8が作った健康食品(サプリ等)を市場に投入して、それらを摂取したユーザ4の生体データをサーバ7側に吸い上げてユーザDB12に蓄積し、その生体データの経時的な変化(時間軸に沿った変化)に基づいて製薬または健康食品の効果を検証するものである。
Next, the control operation of the subroutine program for the effect verification process shown in S6 of FIG. 4A will be described with reference to FIG. In this effect verification process, pharmaceuticals made by the
まずS103により、製薬または健康食品の効果検証依頼があったか否かの判断がなされ、ない場合にはリターンして制御がS7へ移行する。一方依頼があった場合には、制御がS104へ進み、依頼された商品の商品情報(商品開発DB8bまたは商品開発DB9bに記憶されている商品情報)を送信してもらい、その依頼品を服用しているユーザIDのデータをユーザDB12から抽出し、S105により、その抽出されたデータに基づいて、容態の経時的な変化を割り出し、S106により、割り出された変化に基づいて効果を判定し、その効果の評価値を算出する制御がなされる。そしてS107により、容態の変化データと効果の評価値とを依頼者に返信する処理がなされる。この容態の変化データとは、依頼品を服用しているユーザの生体データの時系列的な変化を折れ線グラフ等により表したものである。容態の変化データと効果の評価値を受け取った製薬メーカ9または健康食品メーカ8は、良好な変化データで高い評価値の場合には、依頼品を宣伝する場合にその効用の高さを立証する証拠として変化データや評価値を用いることができる利点がある。なお、依頼品を服用しているユーザであるか否かを判別しやすくするために、ユーザ4が製薬または健康食品(サプリ等)を服用した場合に、服用した製薬または健康食品(サプリ等)の商品名も合わせて音声でウェアラブルコンピュータ3からサーバ7へ送信するようにし、ユーザDB12にアクションとして商品名も記憶するように制御する。例えば、ユーザ4が音声で「風邪薬服用」としゃべった場合に、サーバ7からの発話制御で「その風薬の商品名を教えてください」と問い合わせるようにする。
First, in S103, it is determined whether or not a pharmaceutical or health food effect verification request has been received. If not, the process returns to S7. On the other hand, if there is a request, control proceeds to S104, where the product information of the requested product (product information stored in the product development DB 8b or the product development DB 9b) is transmitted, and the requested product is taken. The user ID data is extracted from the
次に、図6(a)のS70に示したその他の対応のサブルーチンプログラムの制御動作を図10(c)に基づいて説明する。S110により、ユーザから健康に関する相談があったか否かの判断がなされる。ない場合にS112により、他人の臓器の健康情報の取得要求があったか否かの判断がなされ、ない場合にはリターンして制御がS42へ進む。ユーザ4が健康に関する質問等の相談を音声でしゃべれば、その音声が音声入力部34により入力されてサーバ7へ送信され、その音声が音声認識処理(図5(b)参照)により解析されてS110によりYESの判断がなされる。その結果、制御がS111へ進み、ルールDB14を検索して質問(相談)に該当するルールに基づいて回答する発話内容を決定する制御がなされる。その結果、その発話内容に対応する発話データがS42により生成され、S43によりその発話データと発話データを文字にした画像データとがウェアラブルコンピュータ3へ返信され、発話データに基づいて発話され、画像データに基づいて画像表示が行われる(S32)。
Next, the control operation of the other corresponding subroutine program shown in S70 of FIG. 6A will be described with reference to FIG. Through S110, it is determined whether or not there has been a health consultation from the user. If not, it is determined in S112 whether or not there has been a request for acquiring health information of another person's organ, and if not, the process returns and control proceeds to S42. When the
一方、ユーザ4が他人の臓器の健康情報の取得を音声により要求した場合には、前述と同様に音声認識処理による解析処理がなされてS112によりYESの判断がなされ、S113により、その指定された他人の臓器の健康情報を匿名化してウェアラブルコンピュータ3へ返信する制御が行われる。それを受けたウェアラブルコンピュータ3は、受信した他人の臓器の健康情報を表示するとともに音声で報知する。
以上の実施の形態では、機械学習結果(NGPiとPGPiとルール等)が各ユーザ4にフィードバックされて報知され、ユーザ4はその機械学習結果を参考にして体内部位とコミュニケ―ションを取りながらアクション(行動)をとることができる。そのアクション(行動)の結果が各ユーザ4の生体データに反映されてその生体データが再度サーバ7側へ吸い上げられて機械学習のデータとして供され、その機械学習結果が再び各ユーザ4にフィードバックされる。このような一連のサイクルを巡回することにより、機械学習結果を反映した各ユーザ4の生体データの経時的な変化をユーザDB12に蓄積することができ、そのようなデータに基づいた機械学習結果のパターンがパターン販売処理S7により販売される。この販売先は、例えば製薬メーカ9や健康食品メーカ8である。これにより、製薬メーカ9や健康食品メーカ8は製品開発に役立つデータを入手することができ、研究開発が促進されるという利点がある。
On the other hand, when the
In the above embodiment, machine learning results (NGPi, PGPi, rules, etc.) are fed back and notified to each
以上、本発明の実施形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。 As mentioned above, although embodiment of this invention was explained in full detail, this invention is not limited to these embodiment, A various change is possible in the range which does not deviate from the meaning of this invention.
1 インターネット
2 各種生体センサ
3 ウェアラブルコンピュータ
5 外部センサ群
7 サーバ
10 健康サービス提供業者1
11 対話DB
12 ユーザDB
13 パターンDB
14 ルールDB
1
11 Dialogue DB
12 User DB
13 Pattern DB
14 Rule DB
Claims (5)
収集した前記生体データを蓄積するための生体データ蓄積手段と、
前記生体データ蓄積手段により蓄積されている生体データにより判別可能な生体部位の状態に基づいて、該生体部位とユーザとのコミュニケーションを実現するための制御を行うコミュニケーション手段とを備え、
前記コミュニケーション手段は、
自然言語認識手段と、
前記生体部位の状態を自然言語で表現すための自然言語化手段と、
前記自然言語化手段により表現された自然言語をユーザに伝達するための伝達手段と、を含み、
ユーザからの自然言語による問いかけがあった場合に、該問いかけを前記自然言語認識手段が認識し、該認識内容に対応する前記生体部位の状態を前記自然言語化手段が表現した自然言語を前記伝達手段がユーザに伝達することにより、前記問いかけに答える、コンピュータシステム。 A computer system for collecting and utilizing user biometric data acquired by a biometric sensor,
Biological data storage means for storing the collected biological data;
Communication means for performing control for realizing communication between the living body part and the user based on the state of the living body part that can be discriminated by the biological data stored by the biological data storage means;
The communication means is:
Natural language recognition means;
Natural languageizing means for expressing the state of the living body part in natural language;
Transmission means for transmitting the natural language expressed by the natural languageization means to the user,
When there is an inquiry in a natural language from a user, the natural language recognition unit recognizes the inquiry, and the natural language expressing the state of the living body part corresponding to the recognized content is transmitted. A computer system in which the means answers the question by communicating to the user.
前記行動データ蓄積手段により蓄積されているユーザの行動データと、前記生体データ蓄積手段により蓄積されている生体データと、に基づいて、両者間の相関関係を見つけ出すための相関関係発見手段と、をさらに備えた、請求項1に記載のコンピュータシステム。 Behavior data accumulating means for collecting and accumulating user behavior data affecting the living body part;
A correlation finding means for finding a correlation between the two based on the user behavior data accumulated by the behavior data accumulation means and the biological data accumulated by the biological data accumulation means; The computer system according to claim 1, further comprising:
前記相関関係発見手段は、複数のユーザについての前記行動データと前記生体データとを含むデータ集合からデータマイニングにより相関関係を見つけ出す、請求項1または2に記載のコンピュータシステム。 The biometric data storage means and the behavior data storage means collect and store data from a plurality of users,
The computer system according to claim 1, wherein the correlation finding unit finds a correlation by data mining from a data set including the behavior data and the biological data for a plurality of users.
前記該当ユーザ割出手段により割出されたユーザに対し所定のメッセージを伝達するためのメッセージ伝達手段と、をさらに備える、請求項3に記載のコンピュータシステム。 Corresponding user for indexing the user performing the behavior corresponding to the behavior data of the new correlation found by the correlation discovery means from the behavior data of the user accumulated by the behavior data accumulation means Indexing means;
The computer system according to claim 3, further comprising message transmission means for transmitting a predetermined message to a user indexed by the corresponding user indexing means.
前記伝達手段は、前記自然言語化手段により表現された自然言語を音声によりユーザに伝達するための音声伝達手段を含み、
前記コミュニケーション手段は、ユーザからの音声による問いかけがあった場合に、該問いかけを前記音声認識手段が認識し、該認識内容に対応する前記生体部位の状態を前記自然言語化手段が表現した自然言語を前記音声伝達手段が音声によりユーザに伝達することにより、前記問いかけに音声で答える、請求項1〜4のいずれかに記載のコンピュータシステム。 The natural language recognition means includes voice recognition means for recognizing a user's voice,
The transmission means includes voice transmission means for transmitting the natural language expressed by the natural language conversion means to the user by voice,
The communication means is a natural language in which the voice recognition means recognizes the question when the user asks a voice question, and the natural language means expresses the state of the living body part corresponding to the recognized content. The computer system according to claim 1, wherein the voice transmission means answers the question by voice by transmitting the voice to the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015091324A JP6567319B2 (en) | 2015-04-28 | 2015-04-28 | Computer system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015091324A JP6567319B2 (en) | 2015-04-28 | 2015-04-28 | Computer system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016202798A true JP2016202798A (en) | 2016-12-08 |
JP6567319B2 JP6567319B2 (en) | 2019-08-28 |
Family
ID=57488224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015091324A Expired - Fee Related JP6567319B2 (en) | 2015-04-28 | 2015-04-28 | Computer system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6567319B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008206575A (en) * | 2007-02-23 | 2008-09-11 | Hitachi Ltd | Information management system and server |
JP2010094243A (en) * | 2008-10-15 | 2010-04-30 | Kithit Co Ltd | Automatic inquiry system |
US20110028825A1 (en) * | 2007-12-03 | 2011-02-03 | Dataphysics Research, Inc. | Systems and methods for efficient imaging |
JP2012063919A (en) * | 2010-09-15 | 2012-03-29 | Fujifilm Corp | Medical report evaluation device, medical report evaluation method, medical report evaluation program and medical network system |
WO2013141386A1 (en) * | 2012-03-23 | 2013-09-26 | 独立行政法人科学技術振興機構 | Device for provision of personal genome information environment, method for provision of personal genome information environment, and program |
JP2014524800A (en) * | 2011-07-05 | 2014-09-25 | サウジ アラビアン オイル カンパニー | System, computer medium and computer-implemented method for monitoring employee health using a mobile device |
-
2015
- 2015-04-28 JP JP2015091324A patent/JP6567319B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008206575A (en) * | 2007-02-23 | 2008-09-11 | Hitachi Ltd | Information management system and server |
US20110028825A1 (en) * | 2007-12-03 | 2011-02-03 | Dataphysics Research, Inc. | Systems and methods for efficient imaging |
JP2010094243A (en) * | 2008-10-15 | 2010-04-30 | Kithit Co Ltd | Automatic inquiry system |
JP2012063919A (en) * | 2010-09-15 | 2012-03-29 | Fujifilm Corp | Medical report evaluation device, medical report evaluation method, medical report evaluation program and medical network system |
JP2014524800A (en) * | 2011-07-05 | 2014-09-25 | サウジ アラビアン オイル カンパニー | System, computer medium and computer-implemented method for monitoring employee health using a mobile device |
WO2013141386A1 (en) * | 2012-03-23 | 2013-09-26 | 独立行政法人科学技術振興機構 | Device for provision of personal genome information environment, method for provision of personal genome information environment, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6567319B2 (en) | 2019-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7127086B2 (en) | health tracking device | |
US11315688B2 (en) | Methods and systems for an artificial intelligence alimentary professional support network for vibrant constitutional guidance | |
WO2017033697A1 (en) | Lifestyle management assistance device and lifestyle management assistance method | |
US20210202085A1 (en) | Apparatus for automatically triaging patient and automatic triage method | |
Schjoedt et al. | Experiences and management of fatigue in everyday life among adult patients living with heart failure: a systematic review of qualitative evidence | |
EP4002141A1 (en) | Question recommendation method, apparatus and system, and electronic device and readable storage medium | |
US11315684B2 (en) | Systems and methods for generating alimentary instruction sets based on vibrant constitutional guidance | |
US20210118545A1 (en) | System and method for recommending food items based on a set of instructions | |
CN114758781B (en) | Method, system, device and storage medium for generating health portrait of user | |
JP2010277574A (en) | Advisory message selection system, control program, and healthcare support device | |
Chung et al. | Activity-based nutrition management model for healthcare using similar group analysis | |
KR20170084790A (en) | Mobile terminal for executing health management application based on speech recognition and operating method using the same | |
CN114868203A (en) | Information transmission device and information transmission method | |
JP6567319B2 (en) | Computer system | |
JP6992505B2 (en) | Information processing equipment, methods and programs | |
KR20210052123A (en) | Method for providing user-customized food information service and server using the same | |
Nagarajan et al. | Nutritional monitoring in older people prevention services | |
US20220054091A1 (en) | Methods and systems for self-fulfillment of an alimentary instruction set based on vibrant constitutional guidance | |
Seto et al. | Prediction of personal cardiovascular risk using machine learning for smartphone applications | |
Manivannan et al. | Health monitoring system for diabetic patients | |
KR20210008268A (en) | Personalized nutrition management system and analysis method thereof | |
Rahman et al. | Review on food recommender system for diabetes mellitus | |
Oh | Building Personal Chronicle of Life Events | |
JP6721253B2 (en) | Cost determination system and cost determination method | |
US20230255556A1 (en) | Biosensors and food logger systems for personalized health and self-care |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20150522 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6567319 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |