JP2004318503A - Device, method and program for supporting action management - Google Patents

Device, method and program for supporting action management Download PDF

Info

Publication number
JP2004318503A
JP2004318503A JP2003111670A JP2003111670A JP2004318503A JP 2004318503 A JP2004318503 A JP 2004318503A JP 2003111670 A JP2003111670 A JP 2003111670A JP 2003111670 A JP2003111670 A JP 2003111670A JP 2004318503 A JP2004318503 A JP 2004318503A
Authority
JP
Japan
Prior art keywords
behavior
user
action
message
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003111670A
Other languages
Japanese (ja)
Inventor
Ken Ueno
研 植野
Shigeaki Sakurai
茂明 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003111670A priority Critical patent/JP2004318503A/en
Priority to US10/808,562 priority patent/US20040210117A1/en
Publication of JP2004318503A publication Critical patent/JP2004318503A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/221Ergometry, e.g. by using bicycle type apparatus
    • A61B5/222Ergometry, e.g. by using bicycle type apparatus combined with detection or measurement of physiological parameters, e.g. heart rate
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records

Abstract

<P>PROBLEM TO BE SOLVED: To provide an action management supporting device for conventionalizing exercise in a daily life and naturally increasing the amount of exercise, and also to provide its method, and its program. <P>SOLUTION: An individual attribute data aggregation 1, an action related data group 2, a sensor data aggregation 3, and a related data aggregation 9 are mutually related by a synthetic action data generating part 61, so as to generate a synthetically collected synthetic action data aggregation 7. An action rule generating part 62 generates the rule of the action of a user by referring to the synthetic action data aggregation 7, so that an action rule aggregation 8 is generated. An advice for promoting exercise is provided to the user by indicating an explicit reason, based on the exercise custom, characteristic, taste, and habit of each individual which are reflected on the generated action rule aggregation 8. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、ユーザが身につけて使用する装着可能なデバイスによりユーザの様々な状態を取得し、これをもとにユーザの行動を支援する行動管理支援装置、行動管理支援方法、および行動管理支援プログラムに関する。
【0002】
【従来の技術】
この種のシステム適用される装置に、下記特許文献1に開示される装置がある。この文献に記載の装置によればユーザのカロリー消費量、体温、基礎体温、血圧、心拍、ストレス度合い、血糖値、尿糖値、尿たんぱく、睡眠深度、体脂肪率、あるいは身体寸法などといった個人の日々の生体情報が取得される。そして、このような情報から個人の生理的バイオリズムを判定し、取得した生体情報とともにユーザに報知することで生体状態の良否の原因を個人に認識させることができる。この装置によれば最適なタイミングでユーザに運動を促すことができ、例えば痩せやすい日にダイエットを指示するなどといった応用ができる。
【0003】
しかしながらこの装置では、各個人の日常的な行動規則までは考慮されておらず、よって運動促進の理由をユーザに対して明示的に示すことが難しい。また、日常生活における運動スケジュールを柔軟的にかつ時間レベルで生成することが困難であり、運動を習慣化するには個人の意志に負うところが大きいと言わざるを得ない。
【0004】
一方、特許文献2に開示される装置によれば、通常の生活で消費される運動量のほか、さらにどのくらいの運動量で健康を維持することができるかをユーザに指導し、ユーザの健康管理を過不足のない運動により実現することができる。つまりスポーツだけでなく、日常生活の中で消費されるカロリーをも含めた運動量を計算することができ、年齢、性別、体型などの個人情報を考慮したうえで目標を達成するのに必要な運動量が指示される。
【0005】
しかしながらこの装置では、登録された目標心拍数をもとに目標値まであとどのくらいの運動が必要であるかという情報が提示されるに留まり、運動を習慣化するにはやはり個人の意志に負うところが大きいと言わざるを得ない。
【0006】
すなわち、ユーザのモチベーションを高め、運動を習慣化するためには適切なアドバイスをさらにきめ細かく提供する必要があり、また指示を与えるタイミングなども重要である。そのためにはユーザの日々の行動規則を生成し、これを一つの要素として利用することが有効であるが、そのような装置は未だ知られていない。
なお個人の行動規則を生成するための手法として、下記非特許文献1に述べられた手法が知られている。この文献には、時間を固定長で区切り、各時間帯における個人の行動規則の生成の手法が述べられている。
【0007】
【特許文献1】
特開平09−103413号公報(例えば段落番号[0060]〜[0063]、図15〜図17など)
【0008】
【特許文献2】
特開平10−118052号公報(例えば段落番号[0040]〜[0051]、図5など)
【0009】
【非特許文献1】
GSP(R. Srikant, R. Agrawal. , “Mining Sequential Patterns: Generalizations and Performance Improvements”, Proc. 5th Int. Conf. Extending Database Technology, EDBT,pp.3−17,1996)やPrefixSpan(J.Pei,J. Han, B. Mortazavi−Asl,H. Pinto,Q. Chen,U. Dayal,Mei−Chun Hsu, ”PrefixSpan: Mining Sequential Patterns Efficiently by Prefix−Projected Pattern Growth”, Proc. of International Conference of Data Engineering (ICDE2001), pp.215−224, 2001)
【0010】
【発明が解決しようとする課題】
以上述べたように既存の技術によっては、ユーザの運動量を増やすためにはユーザの意志によるところが大きく、特に、運動を習慣化するためにはユーザの負担をさらに軽くできることが望まれている。
【0011】
本発明は上記事情によりなされたもので、その目的は、日常生活において運動を習慣化でき、運動量を無理なく増やすことを可能とする行動管理支援装置、行動管理支援方法、および行動管理支援プログラムを提供することにある。
【0012】
【課題を解決するための手段】
上記目的を達成するために本発明は、利用者の身体に装着されるセンサにより検知される当該利用者の生体情報を利用して当該利用者の行動を管理するための行動管理支援装置において、前記センサにより検知される生体情報と前記利用者の行動に関連する行動関連情報とを時系列的に互いに関連付けた統合行動データベースを生成する統合行動データベース生成手段と、この統合行動データベース生成手段により生成される前記統合行動データベースから前記利用者の行動規則を生成する行動規則生成手段と、この行動規則生成手段により生成される利用者の行動規則に基づいて当該利用者に運動を促すためのメッセージを生成するメッセージ生成手段と、このメッセージ生成手段により生成されるメッセージを前記利用者に通知するメッセージ通知手段とを具備することを特徴とする。
【0013】
このような手段を講じることにより、運動に関する生体データ、イベントデータ、スケジュールデータなどから、利用者の生体的情報と行動的情報とが統合的にデータベース化され、これから利用者の行動規則が生成される。この行動規則は利用者の運動行動特徴、癖、嗜好、および習慣などを反映するものとなる。この行動規則に基づいてメッセージ生成手段により生成されるメッセージには、日常生活における利用者の個人的な特性を考慮した上での行動規則が明示的に反映され、このメッセージが与えられることにより利用者は自己のモチベーションを容易に高めることができる。従って利用者は、日常生活において、無理なく運動量を増やす行動を習慣化することが可能となる。
【0014】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を詳細に説明する。
【0015】
図1は、本発明に係わる行動管理支援装置を備えるシステムの一構成例を概略的に示す図である。このシステムは利用者(以下ユーザと称する)に携帯される行動管理支援装置(以下本体部C1と称する)を主体とし、本体部C1で処理しきれないタスクをサーバ装置C2により補助的に処理する形態をとる。本体部C1はPDA(Personal Digital Assistants)や携帯電話機、PHS、腕時計などの携帯端末として実現される。本体部C1とサーバ装置C2とはインターネット(internet)などの情報通信ネットワークを介して接続され、互いに必要な情報を授受し合う。なお本体部C1とサーバ装置C2との間のインタフェースは無線または有線のいずれの形態であってもよい。
【0016】
本体部C1には、センサヘッドC3が有線回線、またはBluetooth(登録商標)などの無線回線を介して接続される。センサヘッドC3には例えば歩数計、皮膚温計、脈派センサなどを含むセンサ群C5が接続され、センサヘッドC3はセンサ群C5で取得されるユーザの生体情報を収集して本体部C1に伝送する。また本体部C1にはデータ入力インタフェースC4が接続される。データ入力インタフェースC4は、キーボード、タブレット、音声入力インタフェースなどとして実現される。
【0017】
図2は、図1に示されるシステムの第1の実施例を示す機能ブロック図である。このシステムは、ユーザの行動に係わるデータを格納する行動関連データ群2と、データ入力部4およびデータ獲得部5を介して種々のデータを取得し処理する行動データ処理部6とを備える。このほかこのシステムは、個人属性データ集合1と、センサデータ集合3と、統合行動データ集合7と、行動規則集合8と、関連データ集合9と、行動助言集合10と、助言評価集合11と、運動制約条件ルール集合12とを備える。これらのデータ集合はいずれも所定のデータベースに格納される。
【0018】
行動関連データ群2は、行動データ集合21と、気分記述データ集合22と、行動予定データ集合23とを含み、これらのデータ集合も、いずれも所定のデータベースに格納される。
行動データ処理部6は、統合行動データ生成部61と、行動規則生成部62と、行動予定改編部63と、行動助言生成部64と、助言評価入力部65とを備える。
【0019】
統合行動データ生成部61は、個人属性データ集合1、行動関連データ群2、関連データ集合9をデータ入力部4を介して取得するとともに、センサデータ集合をデータ獲得部5を介して取得する。統合行動データ生成部61はこれらの取得したデータを時系列的に互いに関連付け、統合行動データ集合7を生成する。
【0020】
行動規則生成部62は、統合行動データ集合7から例えば上記非特許文献1に記載の手法を本装置向けに改良した手法によりユーザの行動規則を生成し、行動規則集合8を生成する。行動予定改編部63は、行動規則集合8を参照してユーザの運動量を調節し、より効率の良い運動を促すために行動予定データ集合23を改編する。
【0021】
行動助言生成部64は、行動予定改編部63により改編された行動予定データ集合23と、行動規則集合8と、関連データ集合9とから、ユーザに運動を促すためのメッセージを生成する。生成されたメッセージは本体部C1の液晶表示器(図示せず)などに表示され、ユーザに通知される。
【0022】
助言評価入力部65は、通知されたメッセージに対するユーザの評価をデータ入力インタフェースC4を介して取得し、助言評価集合11を生成する。また助言評価入力部65は、メッセージへのユーザの評価とこのメッセージに対するユーザの行動の結果とを統合して運動制約条件ルール集合12に蓄積する。運動制約条件ルール集合12は、行動予定改編部63および行動助言生成部64への入力データとして再利用される。
【0023】
図3は、個人属性データ集合1に記録される内容の一例を示す図である。個人属性データ集合1は、ユーザ名、氏名、年齢、性別、職種、住所、勤務先、パスワードなどのデータを互いに関連付けたデータベースである。
【0024】
図4は、行動データ集合21に記録される内容の一例を示す図である。行動データ集合21は、日付、開始時刻、終了時刻、現在地点(FROM)、移動先地点(TO)、ユーザ名、行動ラベル、およびユーザの辿ったルートを互いに関連付けたデータベースである。
【0025】
図5は、気分記述データ集合22に記録される内容の一例を示す図である。気分記述データ集合22は、日付、開始時刻、終了時刻、ユーザ名、気分、およびユーザにより入力される気分記述データを互いに関連付けたデータベースである。
【0026】
図6は、行動予定データ集合23に記録される内容の一例を示す図である。行動予定データ集合23はユーザの意志に基づいて予め作成され、日付、開始時刻、終了時刻、現在地点(FROM)、移動先地点(TO)、ユーザ名、行動ラベル、およびユーザが辿ることを予定している予定ルートを互いに関連付けたデータベースである。
【0027】
図7は、センサデータ集合3に記録される内容の一例を示す図である。センサデータ集合3は、日付、センサ群C5による生体情報の取得開始時刻および終了時刻、移動元におけるセンサ計測値FROM、移動先のセンサ計測値TOを互いに関連付けたデータベースである。
【0028】
図8は、統合行動データ集合7に記録される内容の一例を示す図である。統合行動データ集合7は、日付、開始時刻、終了時刻、ルート、ユーザ名、行動ラベル、所要時間、開始遅延時間、所要延長時間、歩数、累積歩数、気分、気分記述を互いに関連付けたデータベースである。統合行動データ集合7は、個人属性データ集合1、行動データ集合21、気分記述データ集合22、行動予定データ集合23、センサデータ集合3に記録される内容を互いに関連付けることにより生成される。
【0029】
図9は、行動規則集合8に記録される内容の一例を示す図である。行動規則集合8は、統合行動データ集合7から行動規則生成部62により生成されるユーザの行動規則をデータベース化したもので、例えば通常業務中に気分が不良でない日には、退勤の際に1日おきに買い物に行く傾向がある旨(ただし雨の日以外)が示される。また、買い物に行くことで通常の日よりも歩数が増えることが示される。ただし、歩数が増えても仕事の能率が悪ければあまり意味が無いので、仕事の能率を気分記述に記入するようにする。
【0030】
図10は、関連データ集合9に記録される内容の一例を示す図である。図10には、関連データ集合9の内容の一例としての概念辞書データ集合が示される。概念辞書データ集合は、上位概念、下位概念、表象表現、および条件の4つの項目を備える。例えば休憩という上位概念は、食事、午後休憩という2つの下位概念を持つ。また食事という下位概念は、表象表現として昼食や夕食などとして表現される。この概念辞書データ集合を用いて種々の概念をどの程度の概念レベルまでまとめるかを決定することにより、行動ラベルやテキスト情報に付随する数値データの区切りやまとめかたを操作することができる。
【0031】
図11は、関連データ集合9に記録される内容の一例を示す図である。図11には、関連データ集合9の内容の一例としての行動ラベル集合が示される。行動ラベル集合は、出発地点(FROM)、到着地点(TO)、条件、および行動ラベルを備える。行動の名称は、出発地点と到着地点とを決定することにより定まる。出発地点(FROM)と到着地点(TO)とをキーワードとして行動ラベル集合を参照することにより、行動のラベルを特定することができる。各行動ラベルに付加的な条件がある場合は条件欄に書き加えるようにする。
【0032】
図12は、関連データ集合9に記録される内容の一例を示す図である。図12には、関連データ集合9の内容の一例としてのカレンダー天候データ集合が示される。カレンダー天候データ集合とは、各日付に、その日付の曜日、休日かどうか、祝日かどうか、年休日かどうか、第何週であるか、昼夜ごとの天候、平均気温、および平均湿度を対応付けたデータベースである。これらのデータは他のデータベースより収集するか、または別途センサで計測された値を記録する。
【0033】
図13は、関連データ集合9に記録される内容の一例を示す図である。図13には、関連データ集合9の内容の一例としてのルートデータ集合が示される。ルートデータ集合とは、ルートラベル(すなわちルートの名称)に、マップデータ、出発地点(FROM)、到着地点(TO)、ルート、および地点リストを対応付けたデータベースである。
【0034】
図14は、関連データ集合9に記録される内容の一例を示す図である。図14には、関連データ集合9の内容の一例としての所在地データ集合が示される。所在地データ集合とは、ビットマップなどの形式で記録されるマップ情報に、地点、名称ラベル、所在地を対応付けたデータベースである。このデータベースを用いることで、各場所がどのマップのどの地点にあり、所在地はどこかを認識することができる。
【0035】
図15は、関連データ集合9に記録される内容の一例を示す図である。図15には、関連データ集合9の内容の一例としての地図データ集合が示される。地図データ集合とは、所在地データ集合に含まれるマップ情報に地点やルートなどを対応付けたデータであり、この情報を参照することにより地点やルートの位置関係、および地図データのどの位置に各地点があるかという情報を知ることが可能となる。
【0036】
図16は、関連データ集合9に記録される内容の一例を示す図である。図16には、関連データ集合9の内容の一例としての地図関係データ集合が示される。地図関係データ集合はマップ相互間の関係を表すデータ集合であり、このデータを参照することで、ある地図のある部分の詳細マップに対応するデータがどこにあるかという関係を知ることができる。以上説明した関連データ集合9は、後述する処理手順の各フェーズにおいて適宜使用される。
【0037】
図17は、行動助言集合10に記録される内容の一例を示す図である。行動助言集合10は、ユーザに与えられる助言(すなわちメッセージ)と予想合計歩数とを対応付けたデータベースである。予想合計歩数とは、行動予定データ集合23に基づき、過去の行動ごとの歩数データ履歴の予測値から計算される予測値である。予測値を求めるには平均化処理を用いても良いし、回帰分析結果やクラスタリング重心の値を用いてもよい。
【0038】
図18は、運動制約条件ルール集合12に記録される内容の一例を示す図である。運動制約条件ルール集合12は、ユーザが与えたメッセージへの評価と、行動助言集合10に記録される内容とを対応付けたデータベースである。このデータベースを参照することで、システムは、各ユーザの行動嗜好特性に合わせた柔軟なメッセージを生成することができる。
【0039】
次に、上記構成における動作を、日常の歩数管理を例として説明する。
図19は、上記構成における処理手順の一例を示すフローチャートである。このフローチャートでは、<使用準備フェーズ>、<設定フェーズ>、<モニタリングフェーズ>、<行動記述フェーズ>、<行動規則生成フェーズ>、<スケジューリングフェーズ>、<アドバイジングフェーズ>、および<フィードバックフェーズ>の8つのフェーズに分けて説明する。
【0040】
<使用準備フェーズ>
まず、メインプログラムの開始に先立ち、本体部C1、センサヘッドC3およびセンサ群C5をベルトまたはクリップなどでユーザの身体の適切な場所に固定する。センサヘッドC3およびセンサ群C5はその種類に応じて適切な場所に装着する。本装置を歩数計として用いる場合には、センサヘッドC3およびセンサ群C5を腰の周辺に装着すると良い。そうしてユーザが本体部C1のスイッチを入れるとプログラムが開始され、まずセンサが正常に働いているかのチェックとキャリブレーションが実施される。その後、メインプログラムが開始される。
【0041】
<設定フェーズ>
図19において、利用者が本プログラムを使用するのが初めてであれば(ステップS11でY)、図3に示されるユーザの個人属性データを、本体部C1のキーパッドなどを介して入力する(ステップS12)。初めてでなければ(ステップS11でN)、ステップS12をスキップして次のログインステップに移る。
【0042】
ログインステップでは、ユーザ名およびパスワードを入力することによりシステムにログインする(ステップS13)。次に、システムを終了したい場合(ステップS14でY)にはログアウトする。ログアウトしない場合(ステップS14でN)にはそうでない場合は次のステップに進む。
【0043】
次に、行動予定データがある場合(ステップS15でY)には、行動予定データ集合23からデータを読み込むか、またはスケジューラやエディタなどで記述する、他のスケジューラから読み込むなどにより行動予定データを入力したのち(ステップS16)、BDIプログラムに移行する。行動予定データが無い場合(ステップS15でN)にはステップS16をスキップしてBDIプログラムに移行する。
【0044】
<モニタリングフェーズ>
BDIプログラムが開始されると、まず、行動データを入力しない場合(ステップS21でN)には、DAプログラムに移行する。DAプログラムでは、予め設定されているサンプリングレートでセンサデータを常時サンプリングし、その値をモニタリングする(ステップS41)。センサデータが規定値を超えた場合や下回った場合、または異常なパターンを示したときはこれを異常値であるとみなし(ステップS42でY)、ユーザに警告を与える(ステップS43)。その際、常にデータをバッファリングしつつ(ステップS44)、センサデータ集合3として蓄積する(ステップS45)。
【0045】
<行動記述フェーズ>
一方、行動データを入力する場合(ステップS21でY)には、まず行動データを入力する(ステップS22)。このステップにおいて、例えば「出勤」という行動を入力するには、図20〜図25の示す手順を辿る。
【0046】
図20〜図25は、本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図である。まず、データ入力インタフェースC4の行動記録モードボタン(図33に表示)がクリックされると、プログラムの状態が行動記録モードに移行する。次に、2地点生成ボタンがクリックされると、画面上に円形の地点ノードが現われる(図20)。
【0047】
次に、図21に示されるように各地点ノードをプレスして指定し、キーボードなどを用いて場所の名称を定義する。図21では自宅および勤務先といった名称が入力されている。なおこの手順では予め名称の選択肢を用意し、ドロップダウンリストなどを用いて選択できるようにしても良い。
【0048】
次に、図22に示されるように、ユーザが移動する時刻になると2地点移動ボタンをクリックする。この状態で、まず、現在地点ノード(自宅)をクリックし、次に移動先の地点ノード(勤務先)をクリックする。
【0049】
そうすると、図23に示されるように、現在時刻と歩数計測値が現在地点ノードの近くに表示される。この値は記録される。また、現在地点ノードから移動先地点ノードへと至る矢印(アーク)が表示される。この状態で移動開始ボタンがクリックされると、プログラムは移動中状態に切り替わる。
【0050】
移動先に到着すると、図24に示されるように現在地設定ボタンをクリックし、現在地を変更することで移動先に到着した状態を記録する。そうすると、移動先地点ノード(勤務先)の近くに、現在の到着時刻とその時の歩数計測値が表示されるとともにその値が記録される。
【0051】
この状態から数秒後に、上記の手順により記述された行動の要約がアーク上に表示される。またこのデータは記録される。図25においては両地点間を結ぶアーク上に、行動ラベル、移動時間、歩数、時間帯からなる行動要約が記述される。なお行動ラベルとは、出発地点と到着地点の対で定義され、その行動を特定するための名称のことである。図25の行動ラベルは、「出勤」である。
【0052】
行動ラベルは、行動ラベル集合(図11)を参照することにより特定される。もしも、出発地点と到着地点の対が未知であれば、ユーザが新たに行動ラベルを登録するようにする。
【0053】
さて、図19のフローチャートにおいて各行動の気分を記述する場合(ステップS23)には、本体部C1の所定のボタンをクリックしてテキストボックスを表示させ、その中に気分を記述し、このテキストボックスと、行動要約ボックスとをリンクさせることで気分データを入力する(ステップS24)。以上の基本的な手順により、次々と行動を追加する。これにより得られる行動データは装置に記録される。
【0054】
例えば、退勤時に自宅以外の場所に立ち寄る場合などのように、行動を追加する場合にはまず経由点を追加する。すなわち図26に示されるように、2地点ノード間を移動中の際に経由点追加ボタンをクリックする。
【0055】
そうすると、アーク上に新たな地点ノードが表示され、図21と同様にしてノードの場所名称を定義する。そしてこの経由点に到着したときに、現在地設定ボタンをクリックし、次いで経由点ノードをクリックする。そうすると、図30に示されるように、図25と同様の行動の要約が生成される。以下、移動開始ボタンをクリックし(図29)、到着したら現在地設定ボタンをクリックする(図30)ことで、上記と同様に行動を記述する。
【0056】
このような処理手順により本体部C1には、行動データ集合21、および気分記述データ集合22として図4、図5に示すようなデータが蓄積されていく。
【0057】
さて、図19のフローチャートのステップS24ののち、処理手順はBPMプログラムに移行する。このプログラムでは、まず行動データ集合21の開始時刻、終了時刻を基準として、センサデータ集合3に順次蓄積されているデータが切り出される(ステップS31)。このように、センサ計測値から取得された生体状態や周囲の状況を、行動ごとに区切ることができる(セグメンテーション)。
【0058】
次に、統合行動データ生成部61は、行動データ集合21、気分記述データ集合22、行動予定データ集合23、センサデータ集合3、および関連データ集合9に基づいて、図8の統合行動データ集合7を生成する(ステップS32)。
【0059】
図31は、統合行動データ集合7の生成の過程を模式的に示す図である。この図に示されるように統合行動データ集合7は、例えば行動予定データ集合23、行動データ集合21、気分記述データ集合22、およびセンサデータ集合3を統合的に関連付けることにより生成される。なお必要に応じて関連データ集合9のデータも参照される。
【0060】
<行動規則生成フェーズ>
次に、行動規則生成部62は、統合行動データ集合7を所定の基準に基づいてフィルタリングし、必要であれば関連データ集合9を参照して図9の行動規則集合8を生成する(ステップS33)。ここでは、例えば(コンスタントに歩数目標値を超える行動予定)、(歩数が増えるように変更された行動)、(気分記述データに良いものが含まれている行動)などの切り口を基準とすることができる。例えば図8の統合行動データ集合7からは、図8の行動規則集合8が生成される。なお図12のカレンダー天候データ集合から得られる情報をこのフェーズで使うことにより、ある日の周囲の天候による行動の違いや曜日による行動の違いを知ることができる。
【0061】
<スケジューリングフェーズ>
次に、ユーザの行動をスケジューリングする。まず運動制約条件ルール集合12の有無を調べ、条件ルールが無い場合(ステップS34でN)には処理手順はステップS36に移る。条件ルールが有る場合(ステップS34でY)には、運動制約条件ルール集合12を遵守しつつ行動予定データ集合23を改編する(ステップS36)。
【0062】
図32は、行動予定データ集合23の改編の過程を模式的に示す図である。図32に示されるように行動予定改編部63は、行動規則集合8を参照して、より効率の良い運動を促すために運動量を調節し、行動予定データ集合23を改編する。
【0063】
<アドバイジングフェーズ>
次に、行動助言生成部64は、行動規則集合8に基づいて行動助言集合10を生成し(ステップS37)、アドバイスメッセージを例えば本体部C1の表示器に表示してユーザに通知する。なお、音声、またはメールなどにより、ユーザにアドバイスメッセージを通知するようにしても良い。
【0064】
<フィードバックフェーズ>
次に、ユーザはアドバイスメッセージ(すなわち助言)が通知されると(ステップS38でY)、そのアドバイスを評価する(ステップS39)。ここでは、例えばA(よいアドバイスで、しかも実行に移した)、B(よいアドバイスだが、今回は実行できない)、C(あまりよいアドバイスではない。)、およびD(全く見当違いのアドバイスである)のA〜Dからなる4段階で評価する。
【0065】
ここで与えられた助言評価を行動助言集合10と関連付けることにより運動制約条件ルール集合12が生成され、データベースに蓄積する(ステップS310)。この運動制約条件ルール集合12を用いることで、システムは、各ユーザの行動嗜好特性に合わせた柔軟な助言を生成することができる。すなわち、助言評価入力部65により、助言に対するユーザの評価と行動結果とを統合して運動制約条件ルール集合12に蓄積し、行動予定改編部63、行動助言生成部64の入力として再利用するようにする。そうして、これらの手順を、ユーザがログアウトするまで繰り返す(ステップS14)。以上の手順により生成されたデータは、最終的に行動グラフとしてまとめられる。
【0066】
図33は、行動グラフの一例を示す模式図である。このように本装置を用いることによりユーザの1日の行動が視覚的にまとめられる。このことから本装置は行動管理や勤務時間管理などの自己管理ツールとしても利用することができる。
【0067】
このように本実施形態では、個人属性データ集合1と、行動関連データ群2と、センサデータ集合3と、関連データ集合9とを統合行動データ生成部61により互いに関連付け、統合的にまとめた統合行動データ集合7を生成する。この統合行動データ集合7を参照し、行動規則生成部62によりユーザの行動規則を生成して行動規則集合8を生成する。そして、生成された行動規則集合8に反映される各個人の運動習慣、特性、嗜好、癖に基づいて、運動を促すためのアドバイスを明示的な理由を示したかたちでユーザに提供するようにしている。
【0068】
このようにしたので、システムは、各ユーザの行動嗜好特性に合わせた柔軟なメッセージを生成することができる。また、散歩や買物などの日常生活の中での運動は、細切れの時間に組み込むことができるため、行動予定改編部63により行動スケジュールの変更に柔軟に対応した形で合間に運動計画を組み込むことができる。また行動助言生成部64によって、忙しくて運動ができないという人でも、日常生活の中でどれだけの運動量があるのかを測定することにより、身近な場所で運動量を増やすよう促進することができる。
【0069】
すなわち本実施形態によれば、ユーザは自己の運動パターンや行動規則を知ることができ、これにより無理なく運動する計画を立てることができる。このことを利用して、日常生活の中で自然と、無理なく運動する習慣を身に付けることが可能となり、ひいてはより一層の健康管理に役立てることが可能となる。
【0070】
(第2の実施例)
次に、本発明の第2の実施例を説明する。
図34は、本発明に係わる行動管理支援システムの第2の実施例を示す機能ブロック図である。なお図34において図2と共通する部分には同一の符号を付して示し、ここでは異なる部分についてのみ説明する。
【0071】
図34のシステムは、図2の構成に加えて知識共有部13を備える。知識共有部13は、行動規則集合8と、関連データ集合9と、行動助言集合10と、助言評価集合11と、運動制約条件ルール集合12とを複数のユーザ間で共有する基盤を提供する。
【0072】
このようにユーザごとに所持される本体部C1で生成されるデータベースを複数のユーザ間で共有することで、運動行動管理のコツを共有することができるようになる。従って本実施形態によれば、第1の実施形態において得られる効果に加え、困ったときや情報が足りないときにユーザ間で助け合うことができるようになる。
【0073】
(第3の実施例)
次に、本発明の第3の実施例を説明する。
図35は、本発明に係わる行動管理支援システムの第3の実施例を示す機能ブロック図である。なお図35において図2,図34と共通する部分には同一の符号を付して示し、ここでは異なる部分についてのみ説明する。
【0074】
図35のシステムは自動位置検出部14を備え、この自動位置検出部14により検出されるユーザの時々刻々の位置の変化をセンサデータの一つとして取得し、センサデータ集合3に記録するようにしたものである。自動位置検出部14は、例えばGPS(Global Positioning System)、あるいはランニングコースなどに設置される電子チェックポイントと、無線タグ、ICカード、Bluetooth(登録商標)などによる位置特定手段として実現される。
【0075】
このような構成において、自動位置検知部14により得られる位置データをセンサデータ集合3として獲得することで、ユーザが現在地点を入力する手間を省くことができる。よって本実施形態によれば、第1の実施形態において得られる効果に加えてユーザの手間をさらに省くことができ、モチベーションをさらに高めて継続して運動行動を実施することが可能となる。
【0076】
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
【0077】
【発明の効果】
以上詳しく述べたように本発明によれば、日常生活において運動を習慣化でき、運動量を無理なく増やすことを可能とする行動管理支援装置、行動管理支援方法、および行動管理支援プログラムを提供することができる。
【図面の簡単な説明】
【図1】本発明に係わる行動管理支援装置を備えるシステムの一構成例を概略的に示す図。
【図2】図1に示されるシステムの第1の実施例を示す機能ブロック図。
【図3】個人属性データ集合1に記録される内容の一例を示す図。
【図4】行動データ集合21に記録される内容の一例を示す図。
【図5】気分記述データ集合22に記録される内容の一例を示す図。
【図6】行動予定データ集合23に記録される内容の一例を示す図。
【図7】センサデータ集合3に記録される内容の一例を示す図。
【図8】統合行動データ集合7に記録される内容の一例を示す図。
【図9】行動規則集合8に記録される内容の一例を示す図。
【図10】関連データ集合9に記録される内容の一例を示す図。
【図11】関連データ集合9に記録される内容の一例を示す図。
【図12】関連データ集合9に記録される内容の一例を示す図。
【図13】関連データ集合9に記録される内容の一例を示す図。
【図14】関連データ集合9に記録される内容の一例を示す図。
【図15】関連データ集合9に記録される内容の一例を示す図。
【図16】関連データ集合9に記録される内容の一例を示す図。
【図17】行動助言集合10に記録される内容の一例を示す図。
【図18】運動制約条件ルール集合12に記録される内容の一例を示す図。
【図19】本発明に係わる行動管理支援装置の処理手順を示すフローチャート。
【図20】本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図。
【図21】本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図。
【図22】本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図。
【図23】本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図。
【図24】本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図。
【図25】本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図。
【図26】本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図。
【図27】本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図。
【図28】本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図。
【図29】本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図。
【図30】本体部C1のデータ入力インタフェースC4を用いた行動記述処理の概要を示す図。
【図31】統合行動データ集合7の生成の過程を模式的に示す図。
【図32】行動予定データ集合23の改編の過程を模式的に示す図。
【図33】行動グラフの一例を示す模式図。
【図34】図1に示されるシステムの第2の実施例を示す機能ブロック図。
【図35】図1に示されるシステムの第3の実施例を示す機能ブロック図。
【符号の説明】
C1…本体部、C2…サーバ装置、C3…センサヘッド、C5…センサ群、C4…データ入力インタフェース、1…個人属性データ集合、2…行動関連データ群、3…センサデータ集合、4…データ入力部、5…データ獲得部、6…行動データ処理部、7…統合行動データ集合、8…行動規則集合、9…関連データ集合、10…行動助言集合、11…助言評価集合、12…運動制約条件ルール集合、13…知識共有部、14…自動位置検知部、21…行動データ集合、22…気分記述データ集合、23…行動予定データ集合、61…統合行動データ生成部、62…行動規則生成部、63…行動予定改編部、64…行動助言生成部、65…助言評価入力部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention obtains various states of a user with a wearable device worn and used by the user, and based on the acquired states, a behavior management support apparatus, a behavior management support method, and a behavior management support About the program.
[0002]
[Prior art]
As an apparatus to which this type of system is applied, there is an apparatus disclosed in Patent Document 1 below. According to the device described in this document, the user's calorie consumption, body temperature, basal body temperature, blood pressure, heart rate, stress level, blood sugar level, urine sugar level, urine protein, sleep depth, body fat percentage, or body size, etc. Daily biological information is acquired. Then, the physiological biorhythm of the individual is determined from such information, and the user is notified together with the acquired biological information, whereby the individual can recognize the cause of the quality of the biological condition. According to this device, the user can be encouraged to exercise at an optimal timing, and for example, an application such as instructing a diet on a day when it is easy to lose weight can be made.
[0003]
However, this device does not take into account the daily behavior rules of each individual, and it is therefore difficult to explicitly indicate the reason for promoting exercise to the user. Further, it is difficult to flexibly generate an exercise schedule in daily life at a time level, and it is inevitable that the habit of exercising largely depends on the individual's will.
[0004]
On the other hand, according to the device disclosed in Patent Literature 2, in addition to the amount of exercise consumed in normal life, the user is instructed on how much exercise can be maintained to maintain the health of the user. It can be realized by exercise without lack. In other words, it is possible to calculate not only sports but also calories consumed in daily life, including the calories consumed in daily life, and the amount of exercise required to achieve the goal taking into account personal information such as age, gender, body type etc. Is indicated.
[0005]
However, with this device, only information about how much exercise is needed to reach the target value based on the registered target heart rate is presented, and the habit of exercising also depends on the individual's will. I have to say that it is big.
[0006]
That is, in order to increase the user's motivation and make the exercise a habit, it is necessary to provide appropriate advice in more detail, and the timing of giving an instruction is also important. For that purpose, it is effective to generate a user's daily behavior rule and use it as one element, but such an apparatus is not yet known.
As a method for generating an individual behavior rule, a method described in Non-Patent Document 1 below is known. This document describes a method of generating an action rule of an individual in each time zone by dividing time into fixed lengths.
[0007]
[Patent Document 1]
JP-A-09-103413 (for example, paragraph numbers [0060] to [0063], FIGS. 15 to 17 and the like)
[0008]
[Patent Document 2]
JP-A-10-118052 (for example, paragraph numbers [0040] to [0051], FIG. 5, etc.)
[0009]
[Non-patent document 1]
GSP (R. Srikant, R. Agrawal., "Minning Sequential Patterns: Generalizations and Performance Improvements", Proc. 5th Int. J. Han, B. Mortazavi-Asl, H. Pinto, Q. Chen, U. Dayal, Mei-Chun Hsu, "PrefixSpan: Mining Sequential PatternsProfessional Graphic Principle proof proof proof proof proof proof proof proof prize proof proof proof proof proof proof proof proof proof proofing. ternational Conference of Data Engineering (ICDE2001), pp.215-224, 2001)
[0010]
[Problems to be solved by the invention]
As described above, depending on the existing technology, it is largely dependent on the will of the user to increase the amount of exercise of the user, and in particular, it is desired that the user's burden can be further reduced in order to habitually exercise.
[0011]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a behavior management support apparatus, a behavior management support method, and a behavior management support program that can make a habit of exercising in daily life and increase the amount of exercise without difficulty. To provide.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a behavior management support device for managing the behavior of a user using biometric information of the user detected by a sensor worn on the body of the user, Integrated action database generating means for generating an integrated action database in which biological information detected by the sensor and action-related information related to the action of the user are associated with each other in a time-series manner; A behavior rule generating means for generating the user's behavior rule from the integrated behavior database, and a message for prompting the user to exercise based on the user's behavior rule generated by the behavior rule generation means. Message generating means for generating, and a message notifying the user of the message generated by the message generating means. Characterized by comprising a chromatography di notifying means.
[0013]
By taking such measures, the biometric information and the behavioral information of the user are integrated into a database from the biometric data, event data, schedule data, etc. relating to exercise, and the behavior rules of the user are generated from this. You. This behavior rule reflects the user's motor behavior characteristics, habits, preferences, habits, and the like. The message generated by the message generating means based on this behavior rule explicitly reflects the behavior rule in consideration of the personal characteristics of the user in daily life, and is used by giving this message. Can easily increase their motivation. Therefore, it becomes possible for the user to habitually increase the amount of exercise in daily life.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0015]
FIG. 1 is a diagram schematically illustrating a configuration example of a system including a behavior management support device according to the present invention. This system is mainly composed of a behavior management support device (hereinafter, referred to as a main unit C1) carried by a user (hereinafter, referred to as a user). Take the form. The main unit C1 is realized as a portable terminal such as a PDA (Personal Digital Assistants), a mobile phone, a PHS, a wristwatch, or the like. The main unit C1 and the server device C2 are connected via an information communication network such as the Internet, and exchange necessary information with each other. The interface between the main unit C1 and the server device C2 may be either wireless or wired.
[0016]
A sensor head C3 is connected to the main body C1 via a wired line or a wireless line such as Bluetooth (registered trademark). A sensor group C5 including, for example, a pedometer, a skin thermometer, and a pulse sensor is connected to the sensor head C3, and the sensor head C3 collects user's biological information acquired by the sensor group C5 and transmits the information to the main body C1. I do. A data input interface C4 is connected to the main body C1. The data input interface C4 is realized as a keyboard, a tablet, a voice input interface, or the like.
[0017]
FIG. 2 is a functional block diagram showing a first embodiment of the system shown in FIG. This system includes a behavior-related data group 2 for storing data relating to a user's behavior, and a behavior data processing unit 6 for acquiring and processing various data via a data input unit 4 and a data acquisition unit 5. In addition, this system includes a personal attribute data set 1, a sensor data set 3, an integrated action data set 7, an action rule set 8, a related data set 9, an action advisory set 10, an advisory evaluation set 11, And a motion constraint condition rule set 12. Each of these data sets is stored in a predetermined database.
[0018]
The action-related data group 2 includes an action data set 21, a mood description data set 22, and an action schedule data set 23, and these data sets are all stored in a predetermined database.
The action data processing section 6 includes an integrated action data generation section 61, an action rule generation section 62, an action schedule reorganization section 63, an action advice generation section 64, and an advice evaluation input section 65.
[0019]
The integrated behavior data generation unit 61 acquires the personal attribute data set 1, the behavior-related data group 2, and the related data set 9 via the data input unit 4, and acquires the sensor data set via the data acquisition unit 5. The integrated behavior data generation unit 61 associates the acquired data with each other in chronological order, and generates the integrated behavior data set 7.
[0020]
The behavior rule generation unit 62 generates a behavior rule of the user from the integrated behavior data set 7 by, for example, a method obtained by improving the method described in Non-Patent Document 1 for the present apparatus, and generates a behavior rule set 8. The action schedule reorganizing unit 63 adjusts the amount of exercise of the user with reference to the action rule set 8 and reorganizes the action schedule data set 23 to encourage more efficient exercise.
[0021]
The action advice generating unit 64 generates a message for encouraging the user to exercise from the action schedule data set 23, the action rule set 8, and the related data set 9 reorganized by the action schedule reorganization unit 63. The generated message is displayed on a liquid crystal display (not shown) or the like of the main unit C1, and is notified to the user.
[0022]
The advice evaluation input unit 65 acquires the user's evaluation of the notified message via the data input interface C4, and generates the advice evaluation set 11. The advice evaluation input unit 65 integrates the evaluation of the user with respect to the message and the result of the user's action with respect to the message, and accumulates the result in the exercise constraint condition rule set 12. The exercise constraint condition rule set 12 is reused as input data to the behavioral schedule reorganization unit 63 and the behavioral advice generation unit 64.
[0023]
FIG. 3 is a diagram illustrating an example of the content recorded in the personal attribute data set 1. The personal attribute data set 1 is a database in which data such as user names, names, ages, genders, occupations, addresses, workplaces, and passwords are associated with one another.
[0024]
FIG. 4 is a diagram showing an example of the content recorded in the behavior data set 21. The action data set 21 is a database in which a date, a start time, an end time, a current point (FROM), a destination point (TO), a user name, an action label, and a route followed by the user are associated with each other.
[0025]
FIG. 5 is a diagram showing an example of the content recorded in the mood description data set 22. The mood description data set 22 is a database in which date, start time, end time, user name, mood, and mood description data input by the user are associated with each other.
[0026]
FIG. 6 is a diagram showing an example of the content recorded in the action schedule data set 23. The action schedule data set 23 is created in advance based on the user's intention, and includes a date, a start time, an end time, a current point (FROM), a destination point (TO), a user name, an action label, and a schedule for the user to follow. This is a database that associates scheduled routes with each other.
[0027]
FIG. 7 is a diagram illustrating an example of the content recorded in the sensor data set 3. The sensor data set 3 is a database in which the date, the acquisition start time and the end time of the biological information by the sensor group C5, the sensor measurement value FROM at the source, and the sensor measurement TO at the destination are associated with each other.
[0028]
FIG. 8 is a diagram illustrating an example of the content recorded in the integrated behavior data set 7. The integrated behavior data set 7 is a database in which date, start time, end time, route, user name, behavior label, required time, start delay time, required extended time, number of steps, cumulative number of steps, mood, and mood description are associated with each other. . The integrated action data set 7 is generated by associating the contents recorded in the personal attribute data set 1, the action data set 21, the mood description data set 22, the action schedule data set 23, and the sensor data set 3 with one another.
[0029]
FIG. 9 is a diagram illustrating an example of the content recorded in the behavior rule set 8. The behavior rule set 8 is a database in which the user's behavior rules generated by the behavior rule generation unit 62 from the integrated behavior data set 7 are stored in a database. It indicates that there is a tendency to go shopping every other day (except on rainy days). In addition, it is shown that the number of steps is increased by going to shopping compared to a normal day. However, increasing the number of steps does not make much sense if the work efficiency is poor. Therefore, write the work efficiency in the mood description.
[0030]
FIG. 10 is a diagram illustrating an example of the content recorded in the related data set 9. FIG. 10 shows a concept dictionary data set as an example of the contents of the related data set 9. The concept dictionary data set includes four items: a superordinate concept, a subordinate concept, a symbolic expression, and a condition. For example, a superordinate concept of a break has two subordinate concepts of a meal and a break in the afternoon. The subordinate concept of meal is expressed as lunch or dinner as a representational expression. By using this concept dictionary data set to determine the level of various concepts to be summarized, it is possible to operate the delimiter and the way of grouping the numerical data attached to the action label and the text information.
[0031]
FIG. 11 is a diagram illustrating an example of the content recorded in the related data set 9. FIG. 11 shows an action label set as an example of the content of the related data set 9. The action label set includes a starting point (FROM), an arrival point (TO), a condition, and an action label. The name of the action is determined by determining the starting point and the arriving point. By referring to the action label set using the departure point (FROM) and the arrival point (TO) as keywords, the label of the action can be specified. If there is an additional condition for each action label, add it to the condition column.
[0032]
FIG. 12 is a diagram illustrating an example of the content recorded in the related data set 9. FIG. 12 shows a calendar weather data set as an example of the contents of the related data set 9. The calendar weather data set associates each date with the day of the week, whether it is a holiday, whether it is a holiday, whether it is an annual holiday, what week it is, the weather for each day and night, the average temperature, and the average humidity. Database. These data are collected from other databases or separately recorded values measured by sensors.
[0033]
FIG. 13 is a diagram illustrating an example of the content recorded in the related data set 9. FIG. 13 shows a root data set as an example of the contents of the related data set 9. The route data set is a database in which map data, a starting point (FROM), an arrival point (TO), a route, and a point list are associated with a route label (name of a route).
[0034]
FIG. 14 is a diagram illustrating an example of the content recorded in the related data set 9. FIG. 14 shows a location data set as an example of the contents of the related data set 9. The location data set is a database in which map information recorded in a format such as a bit map is associated with a point, a name label, and a location. By using this database, it is possible to recognize where each location is located on which map and on which map.
[0035]
FIG. 15 is a diagram illustrating an example of the content recorded in the related data set 9. FIG. 15 shows a map data set as an example of the contents of the related data set 9. The map data set is data in which the map information included in the location data set is associated with a point, a route, and the like. By referring to this information, the positional relationship between the point and the route, and the position of each point in the map data, It is possible to know the information about whether there is.
[0036]
FIG. 16 is a diagram illustrating an example of the content recorded in the related data set 9. FIG. 16 shows a map-related data set as an example of the contents of the related data set 9. The map relation data set is a data set representing the relation between the maps, and by referring to this data, it is possible to know the relation of where the data corresponding to the detailed map of a certain part of a certain map is. The related data set 9 described above is appropriately used in each phase of the processing procedure described later.
[0037]
FIG. 17 is a diagram illustrating an example of the content recorded in the action advice set 10. The action advice set 10 is a database that associates the advice (that is, a message) given to the user with the expected total number of steps. The expected total number of steps is a predicted value calculated from the predicted value of the step count data history for each past action based on the action schedule data set 23. To obtain the predicted value, an averaging process may be used, or a regression analysis result or a value of a clustering centroid may be used.
[0038]
FIG. 18 is a diagram illustrating an example of the content recorded in the motion constraint condition rule set 12. The exercise constraint condition rule set 12 is a database in which the evaluation of the message given by the user and the content recorded in the action advice set 10 are associated with each other. By referring to this database, the system can generate a flexible message tailored to each user's behavioral preference characteristics.
[0039]
Next, the operation in the above configuration will be described by taking daily step count management as an example.
FIG. 19 is a flowchart illustrating an example of a processing procedure in the above configuration. In this flowchart, <use preparation phase>, <setting phase>, <monitoring phase>, <behavior description phase>, <behavior rule generation phase>, <scheduling phase>, <advising phase>, and <feedback phase> The description is divided into eight phases.
[0040]
<Preparation phase>
First, prior to the start of the main program, the main unit C1, the sensor head C3, and the sensor group C5 are fixed to an appropriate place on the user's body with a belt or a clip. The sensor head C3 and the sensor group C5 are mounted at appropriate places according to their types. When this device is used as a pedometer, it is preferable to mount the sensor head C3 and the sensor group C5 around the waist. Then, when the user turns on the main unit C1, the program starts, and first, a check is made to see if the sensor is working properly and a calibration is performed. After that, the main program is started.
[0041]
<Setting phase>
In FIG. 19, if this is the first time the user has used this program (Y in step S11), the user's personal attribute data shown in FIG. 3 is input via the keypad of the main body C1 (FIG. 19). Step S12). If it is not the first time (N in step S11), step S12 is skipped and the process proceeds to the next login step.
[0042]
In the login step, the user logs in to the system by inputting a user name and a password (step S13). Next, when the user wants to end the system (Y in step S14), the user logs out. If not logged out (N in step S14), otherwise proceed to the next step.
[0043]
Next, when there is action schedule data (Y in step S15), the action schedule data is input by reading the data from the action schedule data set 23, writing the data with a scheduler or an editor, or reading from another scheduler. After that (step S16), the processing shifts to the BDI program. If there is no action schedule data (N in step S15), the process skips step S16 and shifts to the BDI program.
[0044]
<Monitoring phase>
When the BDI program is started, first, when no action data is input (N in step S21), the process shifts to the DA program. In the DA program, sensor data is constantly sampled at a preset sampling rate, and the value is monitored (step S41). When the sensor data exceeds or falls below a specified value, or when an abnormal pattern is indicated, this is regarded as an abnormal value (Y in step S42) and a warning is given to the user (step S43). At this time, while always buffering the data (step S44), the data is accumulated as the sensor data set 3 (step S45).
[0045]
<Action description phase>
On the other hand, when the action data is input (Y in step S21), the action data is input first (step S22). In this step, for example, in order to input an action of “working in”, the procedure shown in FIGS. 20 to 25 is followed.
[0046]
20 to 25 are diagrams showing an outline of the action description process using the data input interface C4 of the main body C1. First, when the action recording mode button (displayed in FIG. 33) of the data input interface C4 is clicked, the state of the program shifts to the action recording mode. Next, when the two-point generation button is clicked, a circular point node appears on the screen (FIG. 20).
[0047]
Next, as shown in FIG. 21, each point node is specified by pressing, and the name of the place is defined using a keyboard or the like. In FIG. 21, names such as home and work are entered. In this procedure, a name option may be prepared in advance, and the name may be selected using a drop-down list or the like.
[0048]
Next, as shown in FIG. 22, when it is time for the user to move, the two-point move button is clicked. In this state, first, the current point node (home) is clicked, and then the destination point node (workplace) is clicked.
[0049]
Then, as shown in FIG. 23, the current time and the measured number of steps are displayed near the current position node. This value is recorded. Also, an arrow (arc) from the current location node to the destination location node is displayed. When the movement start button is clicked in this state, the program switches to the moving state.
[0050]
When the user arrives at the destination, the current position setting button is clicked as shown in FIG. 24, and the state where the user arrives at the destination is recorded by changing the current location. Then, the current arrival time and the measured number of steps at that time are displayed and recorded near the destination point node (workplace).
[0051]
A few seconds after this state, a summary of the behavior described by the above procedure is displayed on the arc. This data is also recorded. In FIG. 25, an action summary including an action label, a movement time, the number of steps, and a time zone is described on an arc connecting the two points. The action label is defined as a pair of a departure point and an arrival point, and is a name for specifying the action. The action label in FIG. 25 is “Work”.
[0052]
The action label is specified by referring to the action label set (FIG. 11). If the pair of the departure point and the arrival point is unknown, the user registers a new behavior label.
[0053]
When the mood of each action is described in the flowchart of FIG. 19 (step S23), a predetermined button of the main body C1 is clicked to display a text box, and the mood is described therein. And the action summary box, the user inputs mood data (step S24). By the above basic procedure, actions are added one after another. The behavior data obtained by this is recorded in the device.
[0054]
For example, when an action is added, such as when stopping at a place other than home when leaving the office, a waypoint is first added. That is, as shown in FIG. 26, the user clicks the via point addition button while moving between two point nodes.
[0055]
Then, a new point node is displayed on the arc, and the place name of the node is defined in the same manner as in FIG. When the vehicle arrives at this waypoint, the user clicks the current location setting button, and then clicks the waypoint node. Then, as shown in FIG. 30, the same action summary as in FIG. 25 is generated. Hereinafter, by clicking the movement start button (FIG. 29) and clicking the current location setting button when arriving (FIG. 30), the action is described in the same manner as described above.
[0056]
According to such a processing procedure, data as shown in FIGS. 4 and 5 are accumulated in the main body part C1 as the behavior data set 21 and the mood description data set 22.
[0057]
Now, after step S24 in the flowchart of FIG. 19, the processing procedure shifts to the BPM program. In this program, data sequentially stored in the sensor data set 3 is cut out based on the start time and the end time of the action data set 21 (step S31). In this way, the biological state and the surrounding state acquired from the sensor measurement values can be divided for each action (segmentation).
[0058]
Next, based on the action data set 21, the mood description data set 22, the action schedule data set 23, the sensor data set 3, and the related data set 9, the integrated action data set 7 shown in FIG. Is generated (step S32).
[0059]
FIG. 31 is a diagram schematically illustrating a process of generating the integrated behavior data set 7. As shown in this figure, the integrated behavioral data set 7 is generated by, for example, integrating the behavioral schedule data set 23, the behavioral data set 21, the mood description data set 22, and the sensor data set 3 in an integrated manner. The data of the related data set 9 is also referred to as needed.
[0060]
<Behavior rule generation phase>
Next, the behavior rule generation unit 62 filters the integrated behavior data set 7 based on a predetermined criterion, and generates the behavior rule set 8 of FIG. 9 by referring to the related data set 9 if necessary (step S33). ). Here, for example, the cut points such as (actions that constantly exceed the step count target value), (actions changed so that the number of steps is increased), and (actions in which the mood description data includes a good one) are used as a reference. Can be. For example, an action rule set 8 in FIG. 8 is generated from the integrated action data set 7 in FIG. By using the information obtained from the calendar weather data set in FIG. 12 in this phase, it is possible to know the difference in behavior depending on the weather around a certain day and the difference in behavior depending on the day of the week.
[0061]
<Scheduling phase>
Next, the action of the user is scheduled. First, the presence / absence of the motion constraint condition rule set 12 is checked. If there is no condition rule (N in step S34), the process proceeds to step S36. If there is a condition rule (Y in step S34), the action schedule data set 23 is reorganized while observing the motion constraint condition rule set 12 (step S36).
[0062]
FIG. 32 is a diagram schematically showing a process of reorganizing the action schedule data set 23. As shown in FIG. 32, the action schedule reorganization unit 63 refers to the action rule set 8, adjusts the amount of exercise in order to encourage more efficient exercise, and reorganizes the action schedule data set 23.
[0063]
<Advising phase>
Next, the action advice generation unit 64 generates the action advice set 10 based on the action rule set 8 (step S37), and displays the advice message on, for example, the display of the main body C1 to notify the user. Note that the advice message may be notified to the user by voice, mail, or the like.
[0064]
<Feedback phase>
Next, when the user is notified of the advice message (that is, advice) (Y in step S38), the user evaluates the advice (step S39). In this case, for example, A (good advice and executed), B (good advice but cannot be executed this time), C (not very good advice), and D (completely misplaced advice) Are evaluated in four stages consisting of A to D.
[0065]
By associating the given advice evaluation with the action advice set 10, a motion constraint condition rule set 12 is generated and stored in the database (step S310). By using the exercise constraint condition rule set 12, the system can generate a flexible advice tailored to the behavioral preference characteristics of each user. That is, the advice evaluation input unit 65 integrates the user's evaluation and the action result with respect to the advice, accumulates them in the exercise constraint condition rule set 12, and reuses them as inputs for the action schedule reorganization unit 63 and the action advice generation unit 64. To Then, these procedures are repeated until the user logs out (step S14). The data generated by the above procedure is finally put together as an action graph.
[0066]
FIG. 33 is a schematic diagram illustrating an example of an action graph. As described above, the user's daily activities are visually summarized by using the present apparatus. For this reason, the present apparatus can be used as a self-management tool such as behavior management and working time management.
[0067]
As described above, in the present embodiment, the individual attribute data set 1, the action-related data group 2, the sensor data set 3, and the related data set 9 are associated with each other by the integrated action data generation unit 61, and integrated integration is performed. An action data set 7 is generated. With reference to the integrated behavior data set 7, the behavior rule of the user is generated by the behavior rule generation unit 62, and the behavior rule set 8 is generated. Then, based on the exercise habits, characteristics, preferences, and habits of each individual reflected in the generated behavior rule set 8, advice for promoting exercise is provided to the user in a form showing an explicit reason. ing.
[0068]
By doing so, the system can generate a flexible message according to the behavior preference characteristics of each user. In addition, since exercises in daily life such as walking and shopping can be incorporated into short periods of time, the exercise plan reorganization unit 63 incorporates an exercise plan in a flexible manner in response to changes in the behavior schedule. Can be. Even the person who is busy and unable to exercise can be encouraged to increase the amount of exercise in a familiar place by measuring the amount of exercise in daily life by the action advice generation unit 64.
[0069]
That is, according to the present embodiment, the user can know his / her exercise pattern and behavior rules, and thereby can make a plan for exercising without difficulty. By utilizing this, it becomes possible to acquire a habit of exercising naturally and naturally in daily life, and it is possible to further contribute to health management.
[0070]
(Second embodiment)
Next, a second embodiment of the present invention will be described.
FIG. 34 is a functional block diagram showing a second embodiment of the behavior management support system according to the present invention. In FIG. 34, portions common to FIG. 2 are denoted by the same reference numerals, and only different portions will be described here.
[0071]
The system in FIG. 34 includes a knowledge sharing unit 13 in addition to the configuration in FIG. The knowledge sharing unit 13 provides a basis for sharing the behavior rule set 8, the related data set 9, the behavior advice set 10, the advice evaluation set 11, and the exercise constraint rule set 12 among a plurality of users.
[0072]
By sharing the database generated by the main unit C1 possessed for each user among a plurality of users in this manner, it becomes possible to share the tips for managing the exercise behavior. Therefore, according to the present embodiment, in addition to the effects obtained in the first embodiment, it becomes possible for users to help each other when they are in trouble or when information is insufficient.
[0073]
(Third embodiment)
Next, a third embodiment of the present invention will be described.
FIG. 35 is a functional block diagram showing a third embodiment of the behavior management support system according to the present invention. In FIG. 35, portions common to FIGS. 2 and 34 are denoted by the same reference numerals, and only different portions will be described here.
[0074]
The system shown in FIG. 35 includes an automatic position detecting unit 14, and obtains a change in the user's instantaneous position detected by the automatic position detecting unit 14 as one of sensor data, and records the change in the sensor data set 3. It was done. The automatic position detection unit 14 is realized as a position specifying unit using, for example, a GPS (Global Positioning System) or an electronic checkpoint installed on a running course, a wireless tag, an IC card, Bluetooth (registered trademark), or the like.
[0075]
In such a configuration, by acquiring the position data obtained by the automatic position detection unit 14 as the sensor data set 3, it is possible to save the user from inputting the current position. Therefore, according to the present embodiment, in addition to the effects obtained in the first embodiment, the user's labor can be further reduced, and motivation can be further increased to continuously carry out exercise behavior.
[0076]
Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements in an implementation stage without departing from the scope of the invention. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Further, components of different embodiments may be appropriately combined.
[0077]
【The invention's effect】
As described in detail above, according to the present invention, it is possible to provide a behavior management support device, a behavior management support method, and a behavior management support program that can make exercise a habit in daily life and increase the amount of exercise without difficulty. Can be.
[Brief description of the drawings]
FIG. 1 is a diagram schematically illustrating a configuration example of a system including a behavior management support device according to the present invention.
FIG. 2 is a functional block diagram showing a first embodiment of the system shown in FIG. 1;
FIG. 3 is a view showing an example of contents recorded in a personal attribute data set 1;
FIG. 4 is a diagram showing an example of contents recorded in an action data set 21.
FIG. 5 is a diagram showing an example of contents recorded in a mood description data set 22.
FIG. 6 is a diagram showing an example of contents recorded in an action schedule data set 23.
FIG. 7 is a diagram showing an example of contents recorded in a sensor data set 3;
FIG. 8 is a diagram showing an example of contents recorded in an integrated behavior data set 7;
FIG. 9 is a diagram showing an example of contents recorded in a behavior rule set 8;
FIG. 10 is a view showing an example of contents recorded in a related data set 9;
FIG. 11 is a diagram showing an example of contents recorded in a related data set 9;
FIG. 12 is a diagram showing an example of contents recorded in a related data set 9.
FIG. 13 is a view showing an example of contents recorded in a related data set 9;
FIG. 14 is a view showing an example of contents recorded in a related data set 9;
FIG. 15 is a view showing an example of contents recorded in a related data set 9;
FIG. 16 is a diagram showing an example of contents recorded in a related data set 9;
FIG. 17 is a diagram showing an example of contents recorded in a behavioral advice set 10;
FIG. 18 is a diagram showing an example of contents recorded in a motion constraint condition rule set 12.
FIG. 19 is a flowchart showing a processing procedure of the behavior management support device according to the present invention.
FIG. 20 is a diagram showing an outline of an action description process using a data input interface C4 of a main body C1.
FIG. 21 is a diagram showing an outline of an action description process using a data input interface C4 of a main body C1.
FIG. 22 is a diagram showing an outline of an action description process using a data input interface C4 of a main unit C1.
FIG. 23 is a diagram showing an outline of an action description process using a data input interface C4 of the main body C1.
FIG. 24 is a diagram showing an outline of an action description process using a data input interface C4 of a main unit C1.
FIG. 25 is a diagram showing an outline of an action description process using the data input interface C4 of the main unit C1.
FIG. 26 is a diagram showing an outline of an action description process using a data input interface C4 of a main body C1.
FIG. 27 is a diagram showing an outline of an action description process using a data input interface C4 of a main body C1.
FIG. 28 is a diagram showing an outline of an action description process using a data input interface C4 of the main body C1.
FIG. 29 is a diagram showing an outline of an action description process using the data input interface C4 of the main body C1.
FIG. 30 is a diagram showing an outline of an action description process using a data input interface C4 of a main body C1.
FIG. 31 is a diagram schematically showing a process of generating an integrated behavior data set 7;
FIG. 32 is a view schematically showing a process of reorganizing the action schedule data set 23.
FIG. 33 is a schematic view showing an example of an action graph.
FIG. 34 is a functional block diagram showing a second embodiment of the system shown in FIG. 1;
FIG. 35 is a functional block diagram showing a third embodiment of the system shown in FIG. 1;
[Explanation of symbols]
C1: body, C2: server device, C3: sensor head, C5: sensor group, C4: data input interface, 1: personal attribute data set, 2: action-related data group, 3: sensor data set, 4: data input Section, 5: data acquisition section, 6: action data processing section, 7: integrated action data set, 8: action rule set, 9: related data set, 10: action advice set, 11: advice evaluation set, 12: motion constraint Condition rule set, 13: knowledge sharing unit, 14: automatic position detection unit, 21: behavior data set, 22: mood description data set, 23: behavior schedule data set, 61: integrated behavior data generation unit, 62: behavior rule generation Section, 63: action schedule reorganization section, 64: action advice generation section, 65: advice evaluation input section

Claims (15)

利用者の身体に装着されるセンサにより検知される当該利用者の生体情報を利用して当該利用者の行動を管理するための行動管理支援装置において、
前記センサにより検知される生体情報と前記利用者の行動に関連する行動関連情報とを時系列的に互いに関連付けた統合行動データベースを生成する統合行動データベース生成手段と、
この統合行動データベース生成手段により生成される前記統合行動データベースから前記利用者の行動規則を生成する行動規則生成手段と、
この行動規則生成手段により生成される利用者の行動規則に基づいて当該利用者に運動を促すためのメッセージを生成するメッセージ生成手段と、
このメッセージ生成手段により生成されるメッセージを前記利用者に通知するメッセージ通知手段とを具備することを特徴とする行動管理支援装置。
In the behavior management support device for managing the behavior of the user using the biological information of the user detected by the sensor worn on the body of the user,
Integrated behavior database generating means for generating an integrated behavior database in which the biological information detected by the sensor and behavior-related information related to the behavior of the user are associated with each other in a time-series manner,
Behavior rule generation means for generating the user's behavior rules from the integrated behavior database generated by the integrated behavior database generation means,
Message generating means for generating a message for urging the user to exercise based on the user's action rules generated by the action rule generating means;
A behavior management support device comprising: a message notification unit that notifies the user of a message generated by the message generation unit.
さらに、前記利用者の意志に基づいて予め用意される当該利用者の未来の行動予定を取得する行動予定取得手段と、
前記行動規則生成手段により生成される利用者の行動規則に基づいて、当該利用者に運動を促すために前記行動予定を改編する行動予定改編手段とを備え、
前記メッセージ生成手段は、前記行動予定改編手段により改編された行動予定に基づくメッセージを生成することを特徴とする請求項1に記載の行動管理支援装置。
Further, action schedule acquisition means for acquiring a future action schedule of the user prepared in advance based on the user's will,
Based on the behavior rules of the user generated by the behavior rule generation means, comprising a behavior schedule reorganization means for reorganizing the behavior schedule to encourage the user to exercise,
The behavior management support device according to claim 1, wherein the message generation unit generates a message based on the action schedule reorganized by the behavior schedule reorganization unit.
さらに、前記利用者の行動の結果もたらされる当該利用者の気分が記述される気分記述データを当該利用者の入力操作を介して取得する気分記述データ取得手段を備え、
前記統合行動データベース生成手段は、前記統合行動データベースにおいて、前記生体情報と前記行動関連情報と前記気分記述データとを互いに関連付け、
前記メッセージ生成手段は、前記統合行動データベースにおける前記気分記述データを参酌して前記メッセージを生成することを特徴とする請求項1に記載の行動管理支援装置。
Further, mood description data acquisition means for acquiring mood description data that describes the mood of the user resulting from the action of the user via an input operation of the user,
The integrated behavior database generating means, in the integrated behavior database, correlate the biological information, the behavior-related information, and the mood description data with each other,
2. The behavior management support device according to claim 1, wherein the message generation unit generates the message in consideration of the mood description data in the integrated behavior database.
さらに、前記メッセージ通知手段により通知されたメッセージに対する前記利用者の評価を取得する評価取得手段と、
この評価取得手段により取得された評価とこの評価に対応するメッセージを対応付けてデータベース化した制約条件データベースを生成する制約条件データベース生成手段とを備え、
前記メッセージ生成手段は、前記制約条件データベース生成手段により生成される前記制約条件データベースを参酌して前記メッセージを生成することを特徴とする請求項1に記載の行動管理支援装置。
Further, evaluation obtaining means for obtaining an evaluation of the user for the message notified by the message notifying means,
Constraint condition database generating means for generating a constraint condition database in which the evaluation obtained by the evaluation obtaining means and a message corresponding to the evaluation are associated with each other to form a database,
2. The behavior management support device according to claim 1, wherein the message generation unit generates the message in consideration of the constraint database generated by the constraint database generation unit. 3.
さらに、前記統合行動データベースと、前記制約条件データベースとを複数の利用者間で共有するデータベース共有手段を具備することを特徴とする請求項4に記載の行動管理支援装置。The behavior management support device according to claim 4, further comprising a database sharing unit that shares the integrated behavior database and the constraint condition database among a plurality of users. さらに、前記利用者の位置情報を取得する位置情報取得手段を備え、
前記統合行動データベース生成手段は、前記統合行動データベースにおいて、前記生体情報と前記行動関連情報と前記位置情報とを互いに関連付けることを特徴とする請求項1に記載の行動管理支援装置。
Further, a position information acquisition unit for acquiring the position information of the user,
2. The behavior management support device according to claim 1, wherein the integrated behavior database generation unit associates the biological information, the behavior-related information, and the position information with each other in the integrated behavior database.
利用者の身体に装着されるセンサにより検知される当該利用者の生体情報を利用して当該利用者の行動を管理するための行動管理支援装置に利用される行動管理支援方法において、
前記センサにより検知される生体情報と前記利用者の行動に関連する行動関連情報とを時系列的に互いに関連付けた統合行動データベースを生成する統合行動データベース生成ステップと、
この統合行動データベース生成ステップにより生成される前記統合行動データベースから前記利用者の行動規則を生成する行動規則生成ステップと、
この行動規則生成ステップにより生成される利用者の行動規則に基づいて当該利用者に運動を促すためのメッセージを生成するメッセージ生成ステップと、
このメッセージ生成ステップにより生成されるメッセージを前記利用者に通知するメッセージ通知ステップとを具備することを特徴とする行動管理支援方法。
In the behavior management support method used in the behavior management support device for managing the behavior of the user using the biological information of the user detected by the sensor worn on the body of the user,
An integrated behavior database generation step of generating an integrated behavior database in which biological information detected by the sensor and behavior-related information related to the behavior of the user are associated with each other in a time-series manner,
An action rule generation step of generating an action rule of the user from the integrated action database generated by the integrated action database generation step;
A message generation step of generating a message for prompting the user to exercise based on the user's behavior rule generated by the behavior rule generation step;
A message notification step of notifying the user of a message generated by the message generation step.
さらに、前記利用者の意志に基づいて予め用意される当該利用者の未来の行動予定を取得する行動予定取得ステップと、
前記行動規則生成ステップにより生成される利用者の行動規則に基づいて、当該利用者に運動を促すために前記行動予定を改編する行動予定改編ステップとを備え、
前記メッセージ生成ステップは、前記行動予定改編ステップにより改編された行動予定に基づくメッセージを生成するステップであることを特徴とする請求項7に記載の行動管理支援装置。
Further, an action schedule obtaining step of obtaining a future action schedule of the user prepared in advance based on the user's will;
Based on the behavior rules of the user generated by the behavior rule generation step, comprising a behavior schedule reorganization step of reorganizing the behavior plan to encourage the user to exercise,
The action management support device according to claim 7, wherein the message generating step is a step of generating a message based on the action schedule reorganized by the action schedule reorganizing step.
さらに、前記利用者の行動の結果もたらされる当該利用者の気分が記述される気分記述データを当該利用者の入力操作を介して取得する気分記述データ取得ステップを備え、
前記統合行動データベース生成ステップは、前記統合行動データベースにおいて、前記生体情報と前記行動関連情報と前記気分記述データとを互いに関連付けるステップであり、
前記メッセージ生成ステップは、前記統合行動データベースにおける前記気分記述データを参酌して前記メッセージを生成するステップであることを特徴とする請求項7に記載の行動管理支援方法。
Further, a mood description data acquisition step of acquiring mood description data describing the mood of the user resulting from the action of the user through an input operation of the user,
The integrated behavior database generation step is a step of associating the biological information, the behavior-related information, and the mood description data with each other in the integrated behavior database,
8. The behavior management support method according to claim 7, wherein the message generation step is a step of generating the message in consideration of the mood description data in the integrated behavior database.
さらに、前記メッセージ通知ステップにより通知されたメッセージに対する前記利用者の評価を取得する評価取得ステップと、
この評価取得ステップにより取得された評価とこの評価に対応するメッセージを対応付けてデータベース化した制約条件データベースを生成する制約条件データベース生成ステップとを備え、
前記メッセージ生成ステップは、前記制約条件データベース生成ステップにより生成される前記制約条件データベースを参酌して前記メッセージを生成するステップであることを特徴とする請求項7に記載の行動管理支援方法。
Further, an evaluation obtaining step of obtaining an evaluation of the user for the message notified by the message notification step,
A constraint condition database generating step of generating a constraint condition database in which a database corresponding to the evaluation obtained by the evaluation obtaining step and the message corresponding to the evaluation are created,
8. The behavior management support method according to claim 7, wherein the message generating step is a step of generating the message in consideration of the constraint database generated by the constraint database generating step.
さらに、前記利用者の位置情報を取得する位置情報取得ステップを備え、
前記統合行動データベース生成ステップは、前記統合行動データベースにおいて、前記生体情報と前記行動関連情報と前記位置情報とを互いに関連付けるステップであることを特徴とする請求項7に記載の行動管理支援方法。
Further, a position information acquisition step of acquiring position information of the user,
The behavior management support method according to claim 7, wherein the integrated behavior database generation step is a step of associating the biological information, the behavior-related information, and the position information with each other in the integrated behavior database.
利用者の身体に装着されるセンサにより検知される当該利用者の生体情報を利用して当該利用者の行動を管理するための処理をコンピュータに実行させるための行動管理支援プログラムであって、
前記コンピュータに、
前記センサにより検知される生体情報と前記利用者の行動に関連する行動関連情報とを時系列的に互いに関連付けた統合行動データベースを生成する統合行動データベース生成ステップを実行させるための命令と、
この統合行動データベース生成ステップにより生成される前記統合行動データベースから前記利用者の行動規則を生成する行動規則生成ステップを実行させるための命令と、
この行動規則生成ステップにより生成される利用者の行動規則に基づいて当該利用者に運動を促すためのメッセージを生成するメッセージ生成ステップを実行させるための命令と、
このメッセージ生成ステップにより生成されるメッセージを前記利用者に通知するメッセージ通知ステップを実行させるための命令とを含むことを特徴とする行動管理支援プログラム。
An activity management support program for causing a computer to execute a process for managing the behavior of the user using biological information of the user detected by a sensor attached to the body of the user,
To the computer,
Instructions for executing an integrated action database generating step of generating an integrated action database that associates the biological information detected by the sensor and the action-related information related to the action of the user in a time-series manner,
An instruction for executing an action rule generation step of generating an action rule of the user from the integrated action database generated by the integrated action database generation step;
An instruction for executing a message generation step of generating a message for prompting the user to exercise based on the user's behavior rule generated by the behavior rule generation step;
An instruction for executing a message notification step of notifying the user of a message generated by the message generation step.
さらに、前記利用者の意志に基づいて予め用意される当該利用者の未来の行動予定を取得する行動予定取得ステップを実行させるための命令と、
前記行動規則生成ステップにより生成される利用者の行動規則に基づいて、当該利用者に運動を促すために前記行動予定を改編する行動予定改編ステップを実行させるための命令とを含み、
前記メッセージ生成ステップは、前記行動予定改編ステップにより改編された行動予定に基づくメッセージを生成するステップであることを特徴とする請求項12に記載の行動管理支援プログラム。
Further, an instruction for executing an action schedule obtaining step of obtaining a future action schedule of the user prepared in advance based on the user's will;
Based on the behavior rule of the user generated by the behavior rule generation step, including an instruction to execute a behavior schedule reorganization step of reorganizing the behavior schedule to encourage the user to exercise,
13. The computer-readable storage medium according to claim 12, wherein the message generating step is a step of generating a message based on the action schedule reorganized by the action schedule reorganizing step.
さらに、前記利用者の行動の結果もたらされる当該利用者の気分が記述される気分記述データを当該利用者の入力操作を介して取得する気分記述データ取得ステップを含み、
前記統合行動データベース生成ステップは、前記統合行動データベースにおいて、前記生体情報と前記行動関連情報と前記気分記述データとを互いに関連付けるステップであり、
前記メッセージ生成ステップは、前記統合行動データベースにおける前記気分記述データを参酌して前記メッセージを生成するステップであることを特徴とする請求項12に記載の行動管理支援プログラム。
Further, a mood description data acquisition step of acquiring mood description data describing the mood of the user resulting from the action of the user via an input operation of the user,
The integrated behavior database generation step is a step of associating the biological information, the behavior-related information, and the mood description data with each other in the integrated behavior database,
13. The behavior management support program according to claim 12, wherein the message generation step is a step of generating the message in consideration of the mood description data in the integrated behavior database.
さらに、前記メッセージ通知ステップにより通知されたメッセージに対する前記利用者の評価を取得する評価取得ステップを実行させるための命令と、
この評価取得ステップにより取得された評価とこの評価に対応するメッセージを対応付けてデータベース化した制約条件データベースを生成する制約条件データベース生成ステップを実行させるための命令とを含み、
前記メッセージ生成ステップは、前記制約条件データベース生成ステップにより生成される前記制約条件データベースを参酌して前記メッセージを生成するステップであることを特徴とする請求項12に記載の行動管理支援プログラム。
Further, an instruction for executing an evaluation obtaining step of obtaining an evaluation of the user for the message notified by the message notifying step,
An instruction for executing a constraint condition database generation step of generating a constraint condition database in which a database corresponding to the evaluation obtained by the evaluation obtaining step and the message corresponding to the evaluation is generated,
13. The behavior management support program according to claim 12, wherein the message generating step is a step of generating the message in consideration of the constraint database generated in the constraint database generating step.
JP2003111670A 2003-04-16 2003-04-16 Device, method and program for supporting action management Pending JP2004318503A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003111670A JP2004318503A (en) 2003-04-16 2003-04-16 Device, method and program for supporting action management
US10/808,562 US20040210117A1 (en) 2003-04-16 2004-03-25 Behavior control support apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003111670A JP2004318503A (en) 2003-04-16 2003-04-16 Device, method and program for supporting action management

Publications (1)

Publication Number Publication Date
JP2004318503A true JP2004318503A (en) 2004-11-11

Family

ID=33156987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003111670A Pending JP2004318503A (en) 2003-04-16 2003-04-16 Device, method and program for supporting action management

Country Status (2)

Country Link
US (1) US20040210117A1 (en)
JP (1) JP2004318503A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026429A (en) * 2005-06-13 2007-02-01 Matsushita Electric Ind Co Ltd Guidance apparatus
JP2008086479A (en) * 2006-09-29 2008-04-17 Matsushita Electric Works Ltd Physical activity measuring system
JP2009521053A (en) * 2005-12-23 2009-05-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Electronic calendar with weight management function
JP2015082137A (en) * 2013-10-21 2015-04-27 株式会社Nttドコモ Residence purpose estimation device and residence purpose estimation method
JP2016157487A (en) * 2016-05-26 2016-09-01 ソニー株式会社 Computer program, information processing apparatus, and information processing method
JP2016535611A (en) * 2013-10-14 2016-11-17 ナイキ イノベイト シーブイ Fitness device configured to provide target motivation
US10740057B2 (en) 2011-06-13 2020-08-11 Sony Corporation Information processing device, information processing method, and computer program
JP6935118B1 (en) * 2021-04-15 2021-09-15 ケイスリー株式会社 Behavior support system, behavior support method and behavior support program
WO2022163826A1 (en) * 2021-01-29 2022-08-04 株式会社Micin Health assistance apparatus, health assistance system, and health assistance method
JP2022541493A (en) * 2019-07-17 2022-09-26 アップル インコーポレイテッド User interface for logging and coaching health events
US11712179B2 (en) 2018-05-07 2023-08-01 Apple Inc. Displaying user interfaces associated with physical activities
US11842806B2 (en) 2019-06-01 2023-12-12 Apple Inc. Health application user interfaces
US11915805B2 (en) 2021-06-06 2024-02-27 Apple Inc. User interfaces for shared health-related data
US11950916B2 (en) 2018-03-12 2024-04-09 Apple Inc. User interfaces for health monitoring

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4398777B2 (en) * 2004-04-28 2010-01-13 株式会社東芝 Time series data analysis apparatus and method
JP2006350476A (en) * 2005-06-13 2006-12-28 Sony Computer Entertainment Inc Content distribution device and system
JP2009542287A (en) * 2006-06-27 2009-12-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for scheduling
US8540515B2 (en) 2006-11-27 2013-09-24 Pharos Innovations, Llc Optimizing behavioral change based on a population statistical profile
US8540516B2 (en) 2006-11-27 2013-09-24 Pharos Innovations, Llc Optimizing behavioral change based on a patient statistical profile
US8540517B2 (en) 2006-11-27 2013-09-24 Pharos Innovations, Llc Calculating a behavioral path based on a statistical profile
CN102467609A (en) * 2010-10-29 2012-05-23 大荣优比泰克有限公司 Media recommending system based on health index
JP6260190B2 (en) * 2013-10-17 2018-01-17 カシオ計算機株式会社 Electronic device, setting method executed by computer controlling electronic device, and program
WO2016128862A1 (en) * 2015-02-09 2016-08-18 Koninklijke Philips N.V. Sequence of contexts wearable
WO2016135589A2 (en) * 2015-02-24 2016-09-01 Koninklijke Philips N.V. Health habit management
JP6701634B2 (en) * 2015-07-06 2020-05-27 オムロンヘルスケア株式会社 Action notification system, exercise information measuring device, electronic device, action notification method, action notification program
CN105260413A (en) * 2015-09-24 2016-01-20 广东小天才科技有限公司 Information processing method and device
DK181037B1 (en) 2020-06-02 2022-10-10 Apple Inc User interfaces for health applications
US20230342739A1 (en) * 2022-04-20 2023-10-26 Waleed Haddad Global guaranteed future electronic check system and method of using the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115715A (en) * 1997-06-20 1999-01-22 Nec Corp Data sharing system
JP2001166803A (en) * 1999-12-06 2001-06-22 Nippon Telegr & Teleph Corp <Ntt> Robot action rule generation device, robot controller, robot teaching device, and robot with sensor
JP2001344352A (en) * 2000-05-31 2001-12-14 Toshiba Corp Life assisting device, life assisting method and advertisement information providing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU1257392A (en) * 1991-01-11 1992-08-17 Health Innovations Inc. Method and apparatus to control diet and weight using human behavior modification techniques
US6013007A (en) * 1998-03-26 2000-01-11 Liquid Spark, Llc Athlete's GPS-based performance monitor
EP1265524A2 (en) * 1999-10-08 2002-12-18 Healthetech, Inc. Integrated calorie management system
US6513532B2 (en) * 2000-01-19 2003-02-04 Healthetech, Inc. Diet and activity-monitoring device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1115715A (en) * 1997-06-20 1999-01-22 Nec Corp Data sharing system
JP2001166803A (en) * 1999-12-06 2001-06-22 Nippon Telegr & Teleph Corp <Ntt> Robot action rule generation device, robot controller, robot teaching device, and robot with sensor
JP2001344352A (en) * 2000-05-31 2001-12-14 Toshiba Corp Life assisting device, life assisting method and advertisement information providing method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026429A (en) * 2005-06-13 2007-02-01 Matsushita Electric Ind Co Ltd Guidance apparatus
JP2009521053A (en) * 2005-12-23 2009-05-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Electronic calendar with weight management function
JP2008086479A (en) * 2006-09-29 2008-04-17 Matsushita Electric Works Ltd Physical activity measuring system
US10740057B2 (en) 2011-06-13 2020-08-11 Sony Corporation Information processing device, information processing method, and computer program
JP2016535611A (en) * 2013-10-14 2016-11-17 ナイキ イノベイト シーブイ Fitness device configured to provide target motivation
US10789855B2 (en) 2013-10-14 2020-09-29 Nike, Inc. Fitness device configured to provide goal motivation
JP2015082137A (en) * 2013-10-21 2015-04-27 株式会社Nttドコモ Residence purpose estimation device and residence purpose estimation method
JP2016157487A (en) * 2016-05-26 2016-09-01 ソニー株式会社 Computer program, information processing apparatus, and information processing method
US11950916B2 (en) 2018-03-12 2024-04-09 Apple Inc. User interfaces for health monitoring
US11712179B2 (en) 2018-05-07 2023-08-01 Apple Inc. Displaying user interfaces associated with physical activities
US11842806B2 (en) 2019-06-01 2023-12-12 Apple Inc. Health application user interfaces
JP2022541493A (en) * 2019-07-17 2022-09-26 アップル インコーポレイテッド User interface for logging and coaching health events
JP7329674B2 (en) 2019-07-17 2023-08-18 アップル インコーポレイテッド User interface for logging and coaching health events
WO2022163826A1 (en) * 2021-01-29 2022-08-04 株式会社Micin Health assistance apparatus, health assistance system, and health assistance method
JP2022163957A (en) * 2021-04-15 2022-10-27 ケイスリー株式会社 Behavior support system, behavior support method, and behavior support program
JP6935118B1 (en) * 2021-04-15 2021-09-15 ケイスリー株式会社 Behavior support system, behavior support method and behavior support program
US11915805B2 (en) 2021-06-06 2024-02-27 Apple Inc. User interfaces for shared health-related data

Also Published As

Publication number Publication date
US20040210117A1 (en) 2004-10-21

Similar Documents

Publication Publication Date Title
JP2004318503A (en) Device, method and program for supporting action management
JP5216140B2 (en) Action suggestion apparatus and method
US9712629B2 (en) Tracking user physical activity with multiple devices
JP5250827B2 (en) Action history generation method and action history generation system
US8849610B2 (en) Tracking user physical activity with multiple devices
US10983945B2 (en) Method of data synthesis
CN110832524B (en) Storage medium, evaluation requesting method, and computer device
EP1584286B1 (en) Health management system
DK1662989T3 (en) System to monitor and maintain body weight and other physiological conditions with iterative and personalized planning, intervention and reporting capabilities
US20150289812A1 (en) System for monitoring and presenting health, wellness and fitness data with feedback and coaching engine and modeling capability
US20150339946A1 (en) System for monitoring and presenting health, wellness and fitness trend data having user selectable parameters
JP2016024669A (en) Body status presentation device, body status presentation system, presentation information output method and presentation information output program
JP2016122348A (en) Life style improvement apparatus, life style improvement method and life style improvement system
JP2005319283A (en) Biological information utilization system
JP2017097401A (en) Behavior modification analysis system, behavior modification analysis method and behavior modification analysis program
JP2016081519A (en) Characteristics evaluation apparatus, characteristics evaluation system, characteristics evaluation method and characteristics evaluation program
JP2014174954A (en) Action support system, terminal device of action support system, and server
JP2004503282A (en) Equipment for measuring and analyzing physical activity
JP6343939B2 (en) Health management support system
WO2019131256A1 (en) Device, method, and program for processing information
JP2013089035A (en) Information disclosure system, client device, server, and information disclosure method
KR101522983B1 (en) Method and System for Monitoring Life Pattern Change
WO2016060180A1 (en) Characteristic evaluation device, characteristic evaluation system, characteristic evaluation method, and characteristic evaluation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070605