JP2011045460A - Watching robot, watching method, and watching program - Google Patents
Watching robot, watching method, and watching program Download PDFInfo
- Publication number
- JP2011045460A JP2011045460A JP2009195044A JP2009195044A JP2011045460A JP 2011045460 A JP2011045460 A JP 2011045460A JP 2009195044 A JP2009195044 A JP 2009195044A JP 2009195044 A JP2009195044 A JP 2009195044A JP 2011045460 A JP2011045460 A JP 2011045460A
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- intention
- watching
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ユーザーを支援する見守りロボット、見守り方法、及び見守りプログラムに関する。 The present invention relates to a watching robot that supports a user, a watching method, and a watching program.
近年、高齢者の急増に伴い、一人暮らし世帯や高齢者のみの世帯が急増しており地域(在宅)における介護の必要性が高まっている。そこで、従来から行政機関や民間のボランティアによるヘルパー派遣などが行われているが、全国的な人手不足から十分な労働力を確保することが容易ではない状況にある。また、家庭においての在宅介護も家族構成や扶養意識の変化や女性の職場進出や地域社会の変容などにより十分な支援を行うことが難しく、介護者・非介護者双方に大きな負担となっている。さらに、高齢者の家庭内における不慮の事故である、例えば、転倒・転落、溺死・溺水、窒息等が発生した場合には、独居高齢者には致命傷となる。 In recent years, with the rapid increase in the elderly, the number of single-living households and households with only the elderly has increased rapidly, and the need for nursing care in the area (at home) has increased. In the past, helper dispatching by administrative agencies and private volunteers has been conducted, but it is not easy to secure a sufficient labor force due to the nationwide shortage of personnel. In addition, it is difficult for home care at home to provide sufficient support due to changes in the family structure, support consciousness, women's advancement into the workplace, and changes in the local community, creating a heavy burden on both caregivers and non-caregivers. . Furthermore, if an accident occurs in the home of the elderly such as a fall / fall, drowning / drowning, suffocation, etc., it will be fatal to the elderly living alone.
このような高齢者を中心とした要介護者の増大に伴い、様々な施策が提案されている。そのような状況下、介護を要する状態を引き起こさないために、また,介護を要する状態の進展を防ぎその軽減を図るために自助努力を基軸としつつ、保険・医療・福祉等の視点からなされる多面的なアプローチである介護予防という考え方が広がりつつある。 With such an increase in the number of care recipients centering on the elderly, various measures have been proposed. Under such circumstances, it is made from the viewpoints of insurance, medical care, welfare, etc., based on self-help efforts, in order not to cause a need for nursing care, and to prevent and reduce the progress of the need for nursing care. The concept of preventive care, which is a multifaceted approach, is spreading.
介護予防の流れとして、(1)健康増進・生活習慣改善、(2)生活習慣病予防・健康診断(検診)、(3)疾病の早期発見・早期医療、(4)早期リハビリ・自助自立、そして、(5)廃用症候予防・寝たきり予防、という順に行われるという見方がある。これによれば、介護予防のためには、正しい生活リズムの維持、自分自身の健康状態に対する自覚、運動機能を維持するリハビリテーションとその持続が必要になる。そして、転倒などの事故を生じたときには、迅速な対応が図られるような見守りが必要になる。 The flow of care prevention includes (1) health promotion / lifestyle improvement, (2) lifestyle-related disease prevention / health checkup (examination), (3) early detection / early medical care of disease, (4) early rehabilitation / self-help independence, There is a view that (5) prevention of disuse symptoms and bedridden prevention are performed in this order. According to this, in order to prevent care, it is necessary to maintain a correct life rhythm, to be aware of one's own health condition, and to rehabilitate and maintain a motor function. And when an accident such as a fall occurs, it is necessary to watch over so that a quick response can be made.
こうした介護予防や見守りをできるだけ人手を介さずに実現するため、様々な方法が提案されている。例えば、特許文献1に示すように、音声認識ならびに音声合成可能なロボットを介してユーザーの在宅健康管理を行うことが提案されている。
In order to realize such care prevention and watching without human intervention as much as possible, various methods have been proposed. For example, as shown in
しかしながら、上記従来のロボットでは人の状況、動作の認識を受動的なセンサから得られる情報のみから行っている。そのため正確な人の状況や動作の意図を認識するのが難しく、適切な介護予防を行うことが困難である。 However, the above-described conventional robot recognizes a human situation and motion only from information obtained from a passive sensor. Therefore, it is difficult to recognize an accurate situation of a person and an intention of an action, and it is difficult to perform appropriate care prevention.
本発明は上記事情に鑑みて成されたものであり、受動的なセンサからのみならず、積極的にユーザーに働きかけることによって、ユーザーの状況や動作を把握することができるとともに、把握した状況や動作の認識の精度を高めることができる見守りロボット、見守り方法、及び見守りプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and not only from passive sensors but also by actively acting on the user, the user's situation and operation can be grasped, and the grasped situation and It is an object of the present invention to provide a watching robot, a watching method, and a watching program that can increase the accuracy of motion recognition.
本発明は、上記課題を解決するため、以下の手段を採用する。
本発明に係る見守りロボットは、ユーザーの身体情報を取得するユーザー情報入力部から取得した前記身体情報とユーザーの意思又は状態とを対応付ける一の基準を作成する基準作成部を備え、該基準作成部が、取得した前記身体情報から前記意思又は状態を分析するユーザー認識部と、該ユーザー認識部による分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成部と、ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集部と、前記他の基準の特徴を抽出して前記一の基準を修正するデータマイニング部と、を備えていることを特徴とする。
The present invention employs the following means in order to solve the above problems.
The watching robot according to the present invention includes a reference creation unit that creates one reference for associating the physical information acquired from the user information input unit that acquires the user's physical information with the user's intention or state, and the reference creation unit A user recognition unit that analyzes the intention or state from the acquired physical information, a rule generation unit that confirms an analysis result by the user recognition unit and formalizes the intention or state, and is the same as the user or A rule collection unit that collects other criteria representing the intention or state of another user having similar attributes, and a data mining unit that extracts features of the other criteria and corrects the one criterion It is characterized by.
また、本発明に係る見守り方法は、ロボットによるユーザーの見守り方法であって、ユーザーの身体情報を取得する取得ステップと、取得した前記身体情報とユーザーの意思又は状態とを対応付ける一の基準を作成する基準作成ステップと、を備え、該基準作成ステップが、取得した前記身体情報から前記意思又は状態を分析するユーザー認識ステップと、分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成ステップと、ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集ステップと、前記他の基準の特徴を抽出して一の基準を修正するデータマイニングステップと、を備えていることを特徴とする。 The watching method according to the present invention is a user watching method using a robot, and creates an acquisition step for acquiring the user's physical information and a reference for associating the acquired physical information with the user's intention or state. A reference creation step, and a user recognition step for analyzing the intention or state from the acquired physical information, and a rule for confirming an analysis result with the user and formalizing the intention or state. A generating step, a rule collecting step for collecting other criteria representing the intention or state of another user having the same or similar attribute as the user, and a feature of the other criteria is extracted to correct one criterion A data mining step.
また、本発明に係る見守りプログラムは、コンピュータを介してユーザーを見守るための見守りプログラムであって、コンピュータを、ユーザーの身体情報を取得するユーザー情報入力部から取得した前記身体情報とユーザーの意思又は状態とを対応付ける一の基準を作成する基準作成部として機能させ、該基準作成部が、取得した前記身体情報から前記意思又は状態を分析するユーザー認識部と、該ユーザー認識部による分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成部と、ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集部と、前記他の基準の特徴を抽出して前記一の基準を修正するデータマイニング部と、として機能させることを特徴とする。 Further, the watching program according to the present invention is a watching program for watching a user via a computer, wherein the computer acquires the physical information acquired from the user information input unit for acquiring the user's physical information and the user's intention or A user recognition unit that functions as a reference creation unit that creates one reference for associating states, and the reference creation unit analyzes the intention or state from the acquired physical information, and the analysis result by the user recognition unit is a user A rule generation unit that confirms and formalizes the intention or state, a rule collection unit that collects other criteria representing the intention or state of another user having the same or similar attribute as the user, and the other It is characterized by functioning as a data mining unit that extracts a reference feature and corrects the one reference.
本発明によれば、受動的なセンサからのみならず、積極的にユーザーに働きかけることによって、ユーザーの状況や動作を把握することができるとともに、把握した状況や動作の認識の精度を高めることができる。 According to the present invention, not only from a passive sensor but also by actively acting on the user, it is possible to grasp the user's situation and action, and to improve the accuracy of recognition of the grasped situation and action. it can.
本発明に係る一実施形態について、図1から図5を参照して説明する。
本実施形態に係る見守りロボット10は、図1に示すように、扉D及び冷蔵庫Rや、ベッドB、体重計Mを備えるインテリジェントルームIR内にて、ユーザーUの見守りを行う。
An embodiment according to the present invention will be described with reference to FIGS. 1 to 5.
As shown in FIG. 1, the watching
この見守りロボット10は、図2に示すように、インテリジェントルームIR内に設置されたルームサーバ11と、ユーザーUとのコミュニケーションのインタフェースとなるロボット本体12と、インテリジェントルームIR内にてユーザーUの身体情報を取得するユーザー情報入力部13と、を備えている。
As shown in FIG. 2, the watching
ルームサーバ11には、必要な処理を行うためのプログラム及びデータ等が記憶された不図示のROM(リードオンリーメモリ)、必要なデータを一時的に保存するための不図示のRAM(ランダムアクセスメモリー)、ROM等に記憶されたプログラムに応じた処理を行う不図示のCPU(中央演算処理装置)、が内蔵されている。
The
このルームサーバ11は、機能手段(プログラムモジュール)として、基準作成部14と、サーバ側動作処理部(動作処理部)15と、基準蓄積部16と、を備えている。そして、インターネットWを介して外部の蓄積サーバSSと接続されている。
The
基準作成部14は、後述するユーザー情報入力部13から取得した身体情報とユーザーUの意思又は状態とを対応付ける一の基準R1を作成するため、ユーザー認識部17と、ルール生成部18と、ルール収集部20と、データマイニング部21と、パターンマイニング部22と、を備えている。
The
ユーザー認識部17は、ジェスチャ認識部23と、健康評価部25と、個人特定部26と、を備えて、取得した身体情報から意思又は状態を分析する。ジェスチャ認識部23は、例えば、特願2007−201447に記載のように、後述するカメラ32によって撮像されたユーザーUの顔及び手先の画像を解析から、ユーザーUの顔の向き、指差し方向を算出する。健康評価部25は、後述する生体情報測定部35によって検出されたユーザーUの生体情報から、例えば、特開2004−073520号公報又は特願2007−234725に記載のように、病態診断又はストレス評価を行う。個人特定部26は、後述する個人データ取得部36から得られた個人情報に基づき、公知の技術によってユーザーUの個人認証を行うとともに、予め格納されたユーザーUの個人属性を特定する。
The
ルール生成部18は、ロボット本体12を介してユーザーUに現在の意思又は状況を確認して、ユーザー認識部17による分析結果をその意思又は状態を表す一の基準R1として形式化する。ルール収集部20は、インターネットWを介して蓄積サーバSSに蓄積されたユーザーUと同一又は類似する属性を有する他のユーザーの意思又は状態を表す他の基準や、これらを含む他のユーザーの生活パターン、行動パターンを収集する。
The rule generation unit 18 confirms the current intention or situation with the user U via the
データマイニング部21は、解析アルゴリズムによるマイニング処理を行い、収集した他の基準の特徴を抽出して一の基準R1を修正する。パターンマイニング部22は、データマイニング部21と同様の構成とされ、収集した生活パターンや行動パターンからユーザーUの属性にとって最適な生活パターンを抽出する。 The data mining unit 21 performs a mining process using an analysis algorithm, extracts the characteristics of other collected standards, and corrects one standard R1. The pattern mining unit 22 has the same configuration as that of the data mining unit 21 and extracts an optimal lifestyle pattern for the attribute of the user U from the collected lifestyle patterns and behavior patterns.
サーバ側動作処理部15は、提示されたユーザーUの意思や動きに対し、作成した一の基準R1健康状態、個人属性情報、ユーザーUの生活時間に基づいて、ユーザーUに提示すべき情報をロボット本体12の動作を介して伝達させる動作パターンを決定する。基準蓄積部16は、作成された基準R1を保存する。
The server-side operation processing unit 15 generates information to be presented to the user U based on the created one reference R1 health condition, personal attribute information, and the user U life time in response to the intention and movement of the presented user U. An operation pattern to be transmitted through the operation of the
ロボット本体12は、サーバ側動作処理部15にて決定された動作処理が伝達されるロボット側動作処理部28と、音声を出力する音声出力部30と、ユーザーUに対して直感的な動きを通してジェスチャ動作を行う動作部31と、を備えている。ロボット本体12は、ルームサーバ11と無線LAN等によって接続されている。
The
ユーザー情報入力部13は、ユーザーUの顔を含む画像を取得するカメラ32と、ユーザーUの音声が入力されるマイクロフォン33と、血圧や体温、脈波等の情報を検出する生体情報測定部35と、個人を特定するICタグ等に埋め込まれた属性情報を検出する個人データ取得部36と、インテリジェントルームIR内の扉D及び冷蔵庫Rに配された開閉センサ37と、を備えている。カメラ32、マイクロフォン33、生体情報測定部35、及び個人データ取得部36は、ロボット本体12に配されている。なお、これらはインテリジェントルームIRに配されていても構わない。開閉センサ37は、扉D及び冷蔵庫Rの開閉情報を入手するように、ネットワークを構成してユーザー認識部17と接続されている。
The user
次に、本実施形態に係る見守りロボット10による見守り方法について説明する。
例えば、ユーザーUが転倒した場合、本実施形態に係る見守り方法は、図3に示すように、取得ステップ(S11)と、基準作成ステップ(S12)と、を備えている。そして、基準作成ステップ(S12)は、ユーザー認識ステップ(S121)と、ルール生成ステップ(S122)と、ルール収集ステップ(S123)と、データマイニングステップ(S124)と、パターンマイニングステップ(S125)と、を備えている。
Next, a watching method by the watching
For example, when the user U falls, the watching method according to the present embodiment includes an acquisition step (S11) and a reference creation step (S12) as shown in FIG. The reference creation step (S12) includes a user recognition step (S121), a rule generation step (S122), a rule collection step (S123), a data mining step (S124), a pattern mining step (S125), It has.
取得ステップ(S11)は、ユーザー情報入力部13を介してインテリジェントルームIR内におけるユーザーUの動作を検知する。ロボット本体12は、図4及び図5に示すように、ユーザーUの転倒の様子をカメラ32にて撮像する。
In the acquisition step (S11), the operation of the user U in the intelligent room IR is detected via the user
そして、基準作成ステップ(S12)に移行する。ユーザー認識ステップ(S121)では、ジェスチャ認識部23にて、例えば、特願2007−201447に記載のように、ユーザーUの顔及び手先の画像を解析する。そして、例えば、起立時の高さ方向をZ方向として、頭の位置を1、手を広げたときの方向をX方向又はY方向として手先の位置を1とし、起立の状態から転倒の状態までの動線に沿ったそれぞれの相対位置を公知の方法にてXYZ空間で座標化する。 Then, the process proceeds to a reference creation step (S12). In the user recognition step (S121), the gesture recognition unit 23 analyzes the image of the face and hand of the user U as described in Japanese Patent Application No. 2007-201447, for example. And, for example, the height direction when standing is the Z direction, the head position is 1, the direction when the hand is spread is the X direction or the Y direction, the hand position is 1, and from the standing state to the falling state The relative positions along the flow line are coordinated in the XYZ space by a known method.
次に、ルール生成ステップ(S122)では、座標化した動線の、例えば、変曲点及びその時間と、あらかじめルール収集部20に蓄積された同様に転倒を示すデフォルト基準とをルール生成部18にて参照し、同一又は類似する場合にはユーザーUの状態が転倒状態であると仮判断する。そして、サーバ側動作処理部15及びロボット側動作処理部28を介して、ロボット本体12からユーザーUに大丈夫かどうかを確認する。この際、ユーザーUからの返答が“No”であったり、返答がなかったりした場合には、ユーザーUが実際に転倒したものと判断し、転倒を示す一の基準R1を作成する。
Next, in the rule generation step (S122), for example, the inflection point and its time of the coordinated flow line, and the default standard indicating the fall similarly stored in the
ルール収集ステップ(S123)では、この一の基準R1を蓄積するとともに、ルール収集部20にて、蓄積サーバSSからユーザーUと同一又は類似する属性を有する他のユーザーの転倒に係る基準を収集する。そして、データマイニングステップ(S124)にて、公知のデータ処理技術に基づき、基準の共通化、最適化を図り、基準R1を修正する。こうして得られた基準R1を転倒判断の新たな基準R1とするとともに、蓄積サーバSSと共有する。
In the rule collecting step (S123), the one reference R1 is accumulated, and the
そして、図6に示すように、例えば、起床、テレビを見る、入浴、ふらつき、転倒、生体情報測定部35で健康状態を測定、といったユーザーUの1日の生活パターンにわたって、それぞれの意思又は状態を認識するための基準を作成していく。この際、さらに、パターンマイニングステップ(S125)にて、同一又は類似する属性を有する他のユーザーの生活パターンを蓄積サーバSSから収集し、公知の技術に基づくクラスタリングにて煩雑に発生する相関ルールを発見する。 Then, as shown in FIG. 6, for example, each intention or state over the daily life pattern of the user U such as getting up, watching TV, bathing, wandering, falling, and measuring the health state with the biological information measuring unit 35. We will create standards for recognizing At this time, further, in the pattern mining step (S125), the life patterns of other users having the same or similar attributes are collected from the storage server SS, and a correlation rule that is complicatedly generated by clustering based on a known technique is created. Discover.
基準が作成された後は、ユーザーUの生活パターンに対して様々な支援を行う。例えば、ユーザーUと同一又は類似する属性の他のユーザーは、1日のうち、ある時間帯に運動することによって健康が維持されていることが相関ルールとして認識できた場合について、図7に示すように、その生活パターンをユーザーUに推奨する場合について説明する。 After the reference is created, various support is provided for the life pattern of the user U. For example, FIG. 7 shows a case where another user having the same or similar attribute as the user U can recognize that the health is maintained by exercising during a certain time of day as an association rule. Thus, the case where the life pattern is recommended to the user U will be described.
この場合、上記方法に基づき、健康な人の起床時間や運動時間、就寝時間についての基準を作成する。そして、起床時間になったとき、基準に基づきロボット本体12が起床を促す。同様に、運動時間になったときには、ロボット本体12が運動を促し、就寝時間になったときには就寝を促す。
In this case, based on the above-described method, a standard for wake-up time, exercise time, and bedtime of a healthy person is created. When the wake-up time is reached, the
すなわち、作成された各種基準に基づき、サーバ側動作処理部15にて起床や運動、就寝についての呼びかけに関する処理がなされ、ロボット側動作処理部28に伝達される。ロボット本体12側では、音声出力部30及び動作部31から起床や運動を呼びかける音声や動作が出力される。ユーザーUが運動することに承服した場合には、その意思をマイクロフォン33等にて把握した後、ユーザーUの健康評価のため、例えば、生体情報測定部35による測定を促し、運動前の健康状態を把握する。その後、ユーザーUが運動する状態をカメラ32で撮像し、ユーザー認識部17を介して運動量を測定する。
In other words, based on the various standards that have been created, the server-side motion processing unit 15 performs processing related to calling for waking up, exercising, and sleeping, and is transmitted to the robot-side motion processing unit 28. On the
また、ユーザーUの属性として個人データ取得部36にて趣味や嗜好まで含めた個人情報を取得して個人属性を特定した後、同様にこれに関する基準を作成し、その後、ユーザーUの趣味や嗜好にあうテレビ番組や、競技場、コンサート会場等をWEBから検索し、これをユーザーUに知らせてもよい。 In addition, after acquiring personal information including hobbies and preferences as the attributes of the user U and specifying the personal attributes, a standard related to this is created in the same manner, and then the user U's hobbies and preferences A TV program, a stadium, a concert venue, or the like that matches may be searched from the WEB and notified to the user U.
例えば、1日の生活パターンが同一であっても、趣味や嗜好等の属性によって生活パターンを構成する各行動パターンが異なる場合がある。このような場合について、例えば、片付けロボット40に食器を片付けさせる場合について、図8を用いて説明する。
For example, even if the daily life pattern is the same, each behavior pattern constituting the life pattern may differ depending on attributes such as hobbies and preferences. In such a case, for example, a case where the cleaning
この場合、上述した基準作成ステップ(S12)にて食器の片付け動作の順番について基準を作成する。この際、まずは、デフォルト基準に基づき、食器を片付けていく。ここで、ユーザーUが例えばお茶が好きという属性を有しており、食後もゆっくりお茶を楽しむために、茶器は最後に片付けてほしい場合には、片付けを進める途中でユーザーUが片付けの中断の指示又は意思を表明する。これをユーザー認識部17にて認識した場合、ルール収集ステップ(S123)では、ユーザーUと同一又は類似する属性を有する他のユーザーの片付けに関する基準を収集する。そして、パターンマイニングステップ(S125)にて相関ルールを発見した場合には、片付け順番に関する基準を新たなものに修正する。
In this case, a reference is created for the order of the tableware cleaning operation in the reference creation step (S12) described above. At this time, first, the tableware is cleared based on the default standard. Here, if the user U has an attribute that he likes tea, for example, and he wants the tea utensils to be cleaned at the end in order to enjoy tea slowly after eating, the user U can cancel the cleanup in the middle of cleaning up. Express instructions or intentions. When this is recognized by the
この見守りロボット10、見守り方法、及び見守りプログラムによれば、ユーザーUの意思又は状態の認識の正誤を判断する基準の作成に際し、ユーザーUの意思又は状態と関連した身体情報を取得した際、ユーザーUに意思又は状態を確認して一の基準R1として形式化することができ、より正確な判断基準を作成することができる。この際、他人の同一又は類似の意思又は状態を示す基準を収集して共通する特徴を抽出してフィードバックするので、作成基準の精度を高めることができる。
According to the watching
また、作成した意思又は状態に関する基準に基づき、ユーザーUの1日の正確な生活パターンを認識することができ、さらに、同一又は類似する他人から取得した生活パターンと比較することによって、ユーザーUの属性に最適な生活パターンをユーザーUに提示して、生活支援を行うことができる。 Moreover, based on the created criteria regarding the intention or state, the user U can recognize an accurate daily life pattern, and by comparing with the life pattern obtained from the same or similar others, A life pattern optimal for the attribute can be presented to the user U to support life.
この際、生活パターンに限らず、生活パターンにおける各行動パターンに対しても、ユーザーUの属性に最適なものを提示することができる。 At this time, not only the lifestyle pattern but also each behavior pattern in the lifestyle pattern can be presented with the optimum user U attribute.
なお、本発明の技術範囲は上記実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
例えば、ユーザーUが転倒した場合、図1に示すように、ルームサーバ11から所定の条件下で異常と判定して予め許可された第三者にその旨を電子メールEM等で連絡するようにしてもよい。また、見守りロボット10が、ルームサーバ11とロボット本体12とを個別に備えているとしているが、それに限定されることはなく、両者が一体となっていても構わない。
The technical scope of the present invention is not limited to the above embodiment, and various modifications can be made without departing from the spirit of the present invention.
For example, when the user U falls, as shown in FIG. 1, the
また、開閉センサ37は、扉D及び冷蔵庫Rに配されているとしているが、それ以外のものに配されていてもよく、例えば、仕切りで区切られて日々の摂取すべき薬が分類され、インテリジェントルームIR内に配された不図示の薬箱に配されていてもよい。これにより、ユーザーUが薬を薬箱から取り出して飲む、という情報をユーザー情報入力部13を介して入手し、このような動作に対しても上述したような見守り方法を適用することによって同様の基準を作成することができ、さらにはユーザーUの生活支援を行うことができる。
In addition, the open /
10 見守りロボット
13 ユーザー情報入力部
14 基準作成部
15 サーバ側動作処理部(動作処理部)
17 ユーザー認識部
18 ルール生成部
20 ルール収集部
21 データマイニング部
22 パターンマイニング部
R1 基準
U ユーザー
10 watching
17 User recognition unit 18
Claims (12)
該基準作成部が、
取得した前記身体情報から前記意思又は状態を分析するユーザー認識部と、
該ユーザー認識部による分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成部と、
ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集部と、
前記他の基準の特徴を抽出して前記一の基準を修正するデータマイニング部と、
を備えていることを特徴とする見守りロボット A reference creation unit for creating one reference for associating the physical information acquired from the user information input unit for acquiring the user's physical information with the user's intention or state;
The reference creation unit
A user recognition unit that analyzes the intention or state from the acquired physical information;
A rule generation unit for confirming the analysis result by the user recognition unit and formalizing the intention or state;
A rule collection unit that collects other criteria representing the intention or state of another user having the same or similar attribute as the user;
A data mining unit that extracts features of the other criteria and corrects the one criterion;
Watching robot characterized by having
抽出された前記生活パターンをユーザーに提示する動作処理部を備えていることを特徴とする請求項1に記載の見守りロボット。 The reference creation unit includes a pattern mining unit that extracts a life pattern optimal for the attribute from a life pattern including the reference of another user having an attribute that is the same as or similar to the attribute of the user,
The watching robot according to claim 1, further comprising an operation processing unit that presents the extracted life pattern to a user.
前記動作処理部が、前記最適な行動パターンをユーザーに提示することを特徴とする請求項2に記載の見守りロボット。 The pattern mining unit extracts an action pattern optimal for the attribute for each of a plurality of action patterns constituting the life pattern,
The watching robot according to claim 2, wherein the motion processing unit presents the optimum behavior pattern to a user.
ユーザーの身体情報を取得する取得ステップと、
取得した前記身体情報とユーザーの意思又は状態とを対応付ける一の基準を作成する基準作成ステップと、
を備え、
該基準作成ステップが、
取得した前記身体情報から前記意思又は状態を分析するユーザー認識ステップと、
分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成ステップと、
ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集ステップと、
前記他の基準の特徴を抽出して一の基準を修正するデータマイニングステップと、
を備えていることを特徴とする見守り方法。 A method for watching a user with a robot,
An acquisition step of acquiring physical information of the user;
A standard creation step of creating a standard for associating the acquired physical information with the user's intention or state;
With
The reference creation step includes
A user recognition step of analyzing the intention or state from the acquired physical information;
A rule generation step of confirming the analysis result with the user and formalizing the intention or state;
A rule collection step for collecting other criteria representing the intention or state of another user having the same or similar attributes as the user;
A data mining step of extracting features of the other criteria and correcting one criteria;
A monitoring method characterized by comprising:
前記基準作成ステップが、前記ユーザーの属性と同一又は類似する属性を有する他のユーザーの前記基準を含む生活パターンから前記属性に最適な生活パターンを抽出するパターンマイニングステップと、
抽出された前記生活パターンをユーザーに提示する動作処理ステップと、
を備えていることを特徴とする請求項6に記載の見守り方法。 The standard is created for each user life pattern,
A pattern mining step in which the reference creating step extracts a life pattern optimal for the attribute from a life pattern including the reference of another user having an attribute that is the same as or similar to the attribute of the user;
An operation processing step of presenting the extracted life pattern to the user;
The monitoring method according to claim 6, further comprising:
前記動作処理部が、前記最適な行動パターンをユーザーに提示することを特徴とする請求項7に記載の見守り方法。 The pattern mining step extracts an optimum behavior pattern for the attribute for each of a plurality of behavior patterns constituting the life pattern,
The watching method according to claim 7, wherein the operation processing unit presents the optimum behavior pattern to a user.
コンピュータを、
ユーザーの身体情報を取得するユーザー情報入力部から取得した前記身体情報とユーザーの意思又は状態とを対応付ける一の基準を作成する基準作成部として機能させ、
該基準作成部が、
取得した前記身体情報から前記意思又は状態を分析するユーザー認識部と、
該ユーザー認識部による分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成部と、
ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集部と、
前記他の基準の特徴を抽出して前記一の基準を修正するデータマイニング部と、
として機能させることを特徴とする見守りプログラム。 A watching program for watching users via a computer,
Computer
Function as a reference creation unit for creating one reference for associating the physical information acquired from the user information input unit for acquiring the user's physical information with the user's intention or state,
The reference creation unit
A user recognition unit that analyzes the intention or state from the acquired physical information;
A rule generation unit for confirming the analysis result by the user recognition unit and formalizing the intention or state;
A rule collection unit that collects other criteria representing the intention or state of another user having the same or similar attribute as the user;
A data mining unit that extracts features of the other criteria and corrects the one criterion;
Watch program characterized by functioning as
前記基準作成部が、前記ユーザーの属性と同一又は類似する属性を有する他のユーザーの前記基準を含む生活パターンから前記属性に最適な生活パターンを抽出するパターンマイニング部と、
抽出された前記生活パターンをユーザーに提示する動作処理部と、
を備えていることを特徴とする請求項9に記載の見守りプログラム。 The standard is created for each user life pattern,
A pattern mining unit that extracts a life pattern optimal for the attribute from a life pattern including the reference of another user having the same or similar attribute as the user attribute;
An operation processing unit for presenting the extracted life pattern to the user;
The monitoring program according to claim 9, comprising:
前記動作処理部が、前記最適な行動パターンをユーザーに提示することを特徴とする請求項10に記載の見守りプログラム。 The pattern mining unit extracts an action pattern optimal for the attribute for each of a plurality of action patterns constituting the life pattern,
The watching program according to claim 10, wherein the operation processing unit presents the optimum behavior pattern to a user.
The monitoring program according to claim 9, wherein the rule collection unit collects the other reference stored in a storage server connected via the Internet.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009195044A JP5504529B2 (en) | 2009-08-26 | 2009-08-26 | Watching robot, watching method, and watching program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009195044A JP5504529B2 (en) | 2009-08-26 | 2009-08-26 | Watching robot, watching method, and watching program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011045460A true JP2011045460A (en) | 2011-03-10 |
JP5504529B2 JP5504529B2 (en) | 2014-05-28 |
Family
ID=43832400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009195044A Active JP5504529B2 (en) | 2009-08-26 | 2009-08-26 | Watching robot, watching method, and watching program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5504529B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013026781A (en) * | 2011-07-20 | 2013-02-04 | Sanyo Electric Co Ltd | Television telephone apparatus and television telephone system |
US9301685B2 (en) | 2013-02-28 | 2016-04-05 | Toshiba Tec Kabushiki Kaisha | Notification apparatus, method for performing notification and assist robot acting as the same |
JP2016067773A (en) * | 2014-09-30 | 2016-05-09 | 国立大学法人 千葉大学 | Autonomous mobile robot and vital sign monitoring method |
WO2016153223A1 (en) * | 2015-03-20 | 2016-09-29 | 주식회사 민토시스 | User monitoring system using unmanned aerial vehicle |
WO2016194173A1 (en) * | 2015-06-03 | 2016-12-08 | 株式会社日立システムズ | Support assistance system, support assistance method, and support assistance program |
JP2019171167A (en) * | 2013-10-31 | 2019-10-10 | デックスコム・インコーポレーテッド | Adaptive interface for continuous monitoring device |
JPWO2019220899A1 (en) * | 2018-05-16 | 2021-07-29 | 富士フイルム株式会社 | Biometric information acquisition system, electronic device, biometric information acquisition method, and biometric information acquisition program |
JP7371624B2 (en) | 2018-06-26 | 2023-10-31 | コニカミノルタ株式会社 | Programs that run on computers, information processing devices, and methods that run on computers |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6472287A (en) * | 1987-09-14 | 1989-03-17 | Hitachi Ltd | Robot visual system |
JP2001246580A (en) * | 2000-03-03 | 2001-09-11 | Sony Corp | Information communication robot device, information communication method, and information communication robot system |
JP2003340757A (en) * | 2002-05-24 | 2003-12-02 | Mitsubishi Heavy Ind Ltd | Robot |
JP2005284535A (en) * | 2004-03-29 | 2005-10-13 | Sanyo Electric Co Ltd | System for monitoring life |
JP2006092356A (en) * | 2004-09-24 | 2006-04-06 | Sanyo Electric Co Ltd | Presumption system, presumption apparatus and sensing apparatus |
JP2006260561A (en) * | 2006-03-10 | 2006-09-28 | Matsushita Electric Ind Co Ltd | Equipment information management device |
-
2009
- 2009-08-26 JP JP2009195044A patent/JP5504529B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6472287A (en) * | 1987-09-14 | 1989-03-17 | Hitachi Ltd | Robot visual system |
JP2001246580A (en) * | 2000-03-03 | 2001-09-11 | Sony Corp | Information communication robot device, information communication method, and information communication robot system |
JP2003340757A (en) * | 2002-05-24 | 2003-12-02 | Mitsubishi Heavy Ind Ltd | Robot |
JP2005284535A (en) * | 2004-03-29 | 2005-10-13 | Sanyo Electric Co Ltd | System for monitoring life |
JP2006092356A (en) * | 2004-09-24 | 2006-04-06 | Sanyo Electric Co Ltd | Presumption system, presumption apparatus and sensing apparatus |
JP2006260561A (en) * | 2006-03-10 | 2006-09-28 | Matsushita Electric Ind Co Ltd | Equipment information management device |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013026781A (en) * | 2011-07-20 | 2013-02-04 | Sanyo Electric Co Ltd | Television telephone apparatus and television telephone system |
US9301685B2 (en) | 2013-02-28 | 2016-04-05 | Toshiba Tec Kabushiki Kaisha | Notification apparatus, method for performing notification and assist robot acting as the same |
JP2019171167A (en) * | 2013-10-31 | 2019-10-10 | デックスコム・インコーポレーテッド | Adaptive interface for continuous monitoring device |
JP7384585B2 (en) | 2013-10-31 | 2023-11-21 | デックスコム・インコーポレーテッド | Adaptive interface for continuous monitoring devices |
JP2016067773A (en) * | 2014-09-30 | 2016-05-09 | 国立大学法人 千葉大学 | Autonomous mobile robot and vital sign monitoring method |
WO2016153223A1 (en) * | 2015-03-20 | 2016-09-29 | 주식회사 민토시스 | User monitoring system using unmanned aerial vehicle |
WO2016194173A1 (en) * | 2015-06-03 | 2016-12-08 | 株式会社日立システムズ | Support assistance system, support assistance method, and support assistance program |
JPWO2016194173A1 (en) * | 2015-06-03 | 2018-04-19 | 株式会社日立システムズ | Support support system, support support method, and support support program |
JPWO2019220899A1 (en) * | 2018-05-16 | 2021-07-29 | 富士フイルム株式会社 | Biometric information acquisition system, electronic device, biometric information acquisition method, and biometric information acquisition program |
JP7371624B2 (en) | 2018-06-26 | 2023-10-31 | コニカミノルタ株式会社 | Programs that run on computers, information processing devices, and methods that run on computers |
Also Published As
Publication number | Publication date |
---|---|
JP5504529B2 (en) | 2014-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5504529B2 (en) | Watching robot, watching method, and watching program | |
Schwenk et al. | Wearable sensor-based in-home assessment of gait, balance, and physical activity for discrimination of frailty status: baseline results of the Arizona frailty cohort study | |
CN201379558Y (en) | Healthy home system | |
KR101850855B1 (en) | Contactless and minimal-contact monitoring of quality of life parameters for assessment and intervention | |
CN108348194A (en) | Mobility monitors | |
CN102113034A (en) | Monitoring, predicting and treating clinical episodes | |
WO2012025622A2 (en) | Monitoring method and system for assessment of prediction of mood trends | |
JP6775922B2 (en) | Biological condition determination device and biological condition determination method | |
Fraccaro et al. | Real-world gyroscope-based gait event detection and gait feature extraction | |
Damouras et al. | An online swallow detection algorithm based on the quadratic variation of dual-axis accelerometry | |
CN105361858B (en) | A kind of method and wearable device of blood pressure data processing | |
Megalingam et al. | Assistive technology for elders: Wireless intelligent healthcare gadget | |
Moufawad El Achkar et al. | Classification and characterization of postural transitions using instrumented shoes | |
KR20200056674A (en) | Integrated system, server and method for managing chronic disease of pet | |
Aghanavesi et al. | A multiple motion sensors index for motor state quantification in Parkinson's disease | |
JP2004097496A (en) | Sleep monitoring system and monitoring device | |
WO2016096935A1 (en) | Device, system and method for assessing the ability of a person to carry out one or more activities | |
JP2014039586A (en) | Sleep improvement support device | |
KR20200066868A (en) | Method for providing healthcare questionnaire service based on chatter robot ana user device for supporting the same | |
Fontecha et al. | A proposal for elderly frailty detection by using accelerometer-enabled smartphones | |
US20200381116A1 (en) | System and method for providing personal health advice based on multimodal oral sensing data | |
JP2021125080A (en) | Medical treatment support system | |
JP7294707B2 (en) | Sleep monitoring capsule and sleep monitoring system | |
Naeem et al. | Recognising activities of daily life through the usage of everyday objects around the home | |
JP2005285001A (en) | Health support method and its system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120106 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120215 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120724 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130910 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5504529 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |