JP2011045460A - Watching robot, watching method, and watching program - Google Patents

Watching robot, watching method, and watching program Download PDF

Info

Publication number
JP2011045460A
JP2011045460A JP2009195044A JP2009195044A JP2011045460A JP 2011045460 A JP2011045460 A JP 2011045460A JP 2009195044 A JP2009195044 A JP 2009195044A JP 2009195044 A JP2009195044 A JP 2009195044A JP 2011045460 A JP2011045460 A JP 2011045460A
Authority
JP
Japan
Prior art keywords
user
unit
intention
watching
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009195044A
Other languages
Japanese (ja)
Other versions
JP5504529B2 (en
Inventor
Toru Yamaguchi
亨 山口
Yasushi Takama
康史 高間
Kota Nakamura
耕太 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Metropolitan Public University Corp
Original Assignee
Tokyo Metropolitan Public University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Metropolitan Public University Corp filed Critical Tokyo Metropolitan Public University Corp
Priority to JP2009195044A priority Critical patent/JP5504529B2/en
Publication of JP2011045460A publication Critical patent/JP2011045460A/en
Application granted granted Critical
Publication of JP5504529B2 publication Critical patent/JP5504529B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a watching robot, a watching method and a watching program, capable of grasping a situation and an operation of a user, by working actively on the user, and capable of enhancing precision of recognition of the grasped situation and operation. <P>SOLUTION: This watching robot 10 includes a reference preparing part 14 for preparing one reference of associating body information acquired from a user information input part 13 for acquiring the body information of the user, with an intention or a state of the user, and the reference preparing part 14 includes a user recognition part 17 for analyzing the intention or the state, based on the acquired body information, a rule generation part 18 for confirming an analytical result analyzed by the user recognition part 17, to the user, to formalize the intention or the state, a rule collection part 20 for collecting other reference expressing an intention or a state of other user having an attribute same or similar to that of the user, and a data mining part 21 for extracting a feature of the other reference to correct the one reference. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ユーザーを支援する見守りロボット、見守り方法、及び見守りプログラムに関する。   The present invention relates to a watching robot that supports a user, a watching method, and a watching program.

近年、高齢者の急増に伴い、一人暮らし世帯や高齢者のみの世帯が急増しており地域(在宅)における介護の必要性が高まっている。そこで、従来から行政機関や民間のボランティアによるヘルパー派遣などが行われているが、全国的な人手不足から十分な労働力を確保することが容易ではない状況にある。また、家庭においての在宅介護も家族構成や扶養意識の変化や女性の職場進出や地域社会の変容などにより十分な支援を行うことが難しく、介護者・非介護者双方に大きな負担となっている。さらに、高齢者の家庭内における不慮の事故である、例えば、転倒・転落、溺死・溺水、窒息等が発生した場合には、独居高齢者には致命傷となる。   In recent years, with the rapid increase in the elderly, the number of single-living households and households with only the elderly has increased rapidly, and the need for nursing care in the area (at home) has increased. In the past, helper dispatching by administrative agencies and private volunteers has been conducted, but it is not easy to secure a sufficient labor force due to the nationwide shortage of personnel. In addition, it is difficult for home care at home to provide sufficient support due to changes in the family structure, support consciousness, women's advancement into the workplace, and changes in the local community, creating a heavy burden on both caregivers and non-caregivers. . Furthermore, if an accident occurs in the home of the elderly such as a fall / fall, drowning / drowning, suffocation, etc., it will be fatal to the elderly living alone.

このような高齢者を中心とした要介護者の増大に伴い、様々な施策が提案されている。そのような状況下、介護を要する状態を引き起こさないために、また,介護を要する状態の進展を防ぎその軽減を図るために自助努力を基軸としつつ、保険・医療・福祉等の視点からなされる多面的なアプローチである介護予防という考え方が広がりつつある。   With such an increase in the number of care recipients centering on the elderly, various measures have been proposed. Under such circumstances, it is made from the viewpoints of insurance, medical care, welfare, etc., based on self-help efforts, in order not to cause a need for nursing care, and to prevent and reduce the progress of the need for nursing care. The concept of preventive care, which is a multifaceted approach, is spreading.

介護予防の流れとして、(1)健康増進・生活習慣改善、(2)生活習慣病予防・健康診断(検診)、(3)疾病の早期発見・早期医療、(4)早期リハビリ・自助自立、そして、(5)廃用症候予防・寝たきり予防、という順に行われるという見方がある。これによれば、介護予防のためには、正しい生活リズムの維持、自分自身の健康状態に対する自覚、運動機能を維持するリハビリテーションとその持続が必要になる。そして、転倒などの事故を生じたときには、迅速な対応が図られるような見守りが必要になる。   The flow of care prevention includes (1) health promotion / lifestyle improvement, (2) lifestyle-related disease prevention / health checkup (examination), (3) early detection / early medical care of disease, (4) early rehabilitation / self-help independence, There is a view that (5) prevention of disuse symptoms and bedridden prevention are performed in this order. According to this, in order to prevent care, it is necessary to maintain a correct life rhythm, to be aware of one's own health condition, and to rehabilitate and maintain a motor function. And when an accident such as a fall occurs, it is necessary to watch over so that a quick response can be made.

こうした介護予防や見守りをできるだけ人手を介さずに実現するため、様々な方法が提案されている。例えば、特許文献1に示すように、音声認識ならびに音声合成可能なロボットを介してユーザーの在宅健康管理を行うことが提案されている。   In order to realize such care prevention and watching without human intervention as much as possible, various methods have been proposed. For example, as shown in Patent Document 1, it has been proposed to perform user home health management via a robot capable of voice recognition and voice synthesis.

特開2004−337556号公報JP 2004-337556 A

しかしながら、上記従来のロボットでは人の状況、動作の認識を受動的なセンサから得られる情報のみから行っている。そのため正確な人の状況や動作の意図を認識するのが難しく、適切な介護予防を行うことが困難である。   However, the above-described conventional robot recognizes a human situation and motion only from information obtained from a passive sensor. Therefore, it is difficult to recognize an accurate situation of a person and an intention of an action, and it is difficult to perform appropriate care prevention.

本発明は上記事情に鑑みて成されたものであり、受動的なセンサからのみならず、積極的にユーザーに働きかけることによって、ユーザーの状況や動作を把握することができるとともに、把握した状況や動作の認識の精度を高めることができる見守りロボット、見守り方法、及び見守りプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and not only from passive sensors but also by actively acting on the user, the user's situation and operation can be grasped, and the grasped situation and It is an object of the present invention to provide a watching robot, a watching method, and a watching program that can increase the accuracy of motion recognition.

本発明は、上記課題を解決するため、以下の手段を採用する。
本発明に係る見守りロボットは、ユーザーの身体情報を取得するユーザー情報入力部から取得した前記身体情報とユーザーの意思又は状態とを対応付ける一の基準を作成する基準作成部を備え、該基準作成部が、取得した前記身体情報から前記意思又は状態を分析するユーザー認識部と、該ユーザー認識部による分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成部と、ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集部と、前記他の基準の特徴を抽出して前記一の基準を修正するデータマイニング部と、を備えていることを特徴とする。
The present invention employs the following means in order to solve the above problems.
The watching robot according to the present invention includes a reference creation unit that creates one reference for associating the physical information acquired from the user information input unit that acquires the user's physical information with the user's intention or state, and the reference creation unit A user recognition unit that analyzes the intention or state from the acquired physical information, a rule generation unit that confirms an analysis result by the user recognition unit and formalizes the intention or state, and is the same as the user or A rule collection unit that collects other criteria representing the intention or state of another user having similar attributes, and a data mining unit that extracts features of the other criteria and corrects the one criterion It is characterized by.

また、本発明に係る見守り方法は、ロボットによるユーザーの見守り方法であって、ユーザーの身体情報を取得する取得ステップと、取得した前記身体情報とユーザーの意思又は状態とを対応付ける一の基準を作成する基準作成ステップと、を備え、該基準作成ステップが、取得した前記身体情報から前記意思又は状態を分析するユーザー認識ステップと、分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成ステップと、ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集ステップと、前記他の基準の特徴を抽出して一の基準を修正するデータマイニングステップと、を備えていることを特徴とする。   The watching method according to the present invention is a user watching method using a robot, and creates an acquisition step for acquiring the user's physical information and a reference for associating the acquired physical information with the user's intention or state. A reference creation step, and a user recognition step for analyzing the intention or state from the acquired physical information, and a rule for confirming an analysis result with the user and formalizing the intention or state. A generating step, a rule collecting step for collecting other criteria representing the intention or state of another user having the same or similar attribute as the user, and a feature of the other criteria is extracted to correct one criterion A data mining step.

また、本発明に係る見守りプログラムは、コンピュータを介してユーザーを見守るための見守りプログラムであって、コンピュータを、ユーザーの身体情報を取得するユーザー情報入力部から取得した前記身体情報とユーザーの意思又は状態とを対応付ける一の基準を作成する基準作成部として機能させ、該基準作成部が、取得した前記身体情報から前記意思又は状態を分析するユーザー認識部と、該ユーザー認識部による分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成部と、ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集部と、前記他の基準の特徴を抽出して前記一の基準を修正するデータマイニング部と、として機能させることを特徴とする。   Further, the watching program according to the present invention is a watching program for watching a user via a computer, wherein the computer acquires the physical information acquired from the user information input unit for acquiring the user's physical information and the user's intention or A user recognition unit that functions as a reference creation unit that creates one reference for associating states, and the reference creation unit analyzes the intention or state from the acquired physical information, and the analysis result by the user recognition unit is a user A rule generation unit that confirms and formalizes the intention or state, a rule collection unit that collects other criteria representing the intention or state of another user having the same or similar attribute as the user, and the other It is characterized by functioning as a data mining unit that extracts a reference feature and corrects the one reference.

本発明によれば、受動的なセンサからのみならず、積極的にユーザーに働きかけることによって、ユーザーの状況や動作を把握することができるとともに、把握した状況や動作の認識の精度を高めることができる。   According to the present invention, not only from a passive sensor but also by actively acting on the user, it is possible to grasp the user's situation and action, and to improve the accuracy of recognition of the grasped situation and action. it can.

本発明の一実施形態に係る見守りロボットが配される部屋の内部を示す説明図である。It is explanatory drawing which shows the inside of the room where the watching robot which concerns on one Embodiment of this invention is arranged. 本発明の一実施形態に係る見守りロボットを示す機能ブロック図である。It is a functional block diagram which shows the watching robot which concerns on one Embodiment of this invention. 本発明の一実施形態に係る見守り方法を示すフロー図である。It is a flowchart which shows the watching method which concerns on one Embodiment of this invention. 本発明の一実施形態に係る見守りロボットにおける基準の作成内容を示す説明図である。It is explanatory drawing which shows the preparation content of the reference | standard in the watching robot which concerns on one Embodiment of this invention. 本発明の一実施形態に係る見守りロボットにおける基準の作成要領を示す説明図である。It is explanatory drawing which shows the preparation method of the reference | standard in the watching robot which concerns on one Embodiment of this invention. 本発明の一実施形態に係る見守りロボットにおける生活パターンの基準の作成内容を示す説明図である。It is explanatory drawing which shows the creation content of the reference | standard of the life pattern in the watching robot which concerns on one Embodiment of this invention. 本発明の一実施形態に係る見守りロボットによるユーザー支援要領を示す説明図である。It is explanatory drawing which shows the user assistance point by the watching robot which concerns on one Embodiment of this invention. 本発明の一実施形態に係る見守りロボットによる他のユーザー支援要領を示す説明図である。It is explanatory drawing which shows the other user assistance point by the watching robot which concerns on one Embodiment of this invention.

本発明に係る一実施形態について、図1から図5を参照して説明する。
本実施形態に係る見守りロボット10は、図1に示すように、扉D及び冷蔵庫Rや、ベッドB、体重計Mを備えるインテリジェントルームIR内にて、ユーザーUの見守りを行う。
An embodiment according to the present invention will be described with reference to FIGS. 1 to 5.
As shown in FIG. 1, the watching robot 10 according to the present embodiment watches the user U in an intelligent room IR including a door D, a refrigerator R, a bed B, and a scale M.

この見守りロボット10は、図2に示すように、インテリジェントルームIR内に設置されたルームサーバ11と、ユーザーUとのコミュニケーションのインタフェースとなるロボット本体12と、インテリジェントルームIR内にてユーザーUの身体情報を取得するユーザー情報入力部13と、を備えている。   As shown in FIG. 2, the watching robot 10 includes a room server 11 installed in the intelligent room IR, a robot body 12 serving as an interface for communication with the user U, and the body of the user U in the intelligent room IR. And a user information input unit 13 for acquiring information.

ルームサーバ11には、必要な処理を行うためのプログラム及びデータ等が記憶された不図示のROM(リードオンリーメモリ)、必要なデータを一時的に保存するための不図示のRAM(ランダムアクセスメモリー)、ROM等に記憶されたプログラムに応じた処理を行う不図示のCPU(中央演算処理装置)、が内蔵されている。   The room server 11 includes a ROM (read only memory) (not shown) in which programs and data for performing necessary processing are stored, and a RAM (random access memory) (not shown) for temporarily storing necessary data. ), A CPU (central processing unit) (not shown) that performs processing according to a program stored in a ROM or the like is incorporated.

このルームサーバ11は、機能手段(プログラムモジュール)として、基準作成部14と、サーバ側動作処理部(動作処理部)15と、基準蓄積部16と、を備えている。そして、インターネットWを介して外部の蓄積サーバSSと接続されている。   The room server 11 includes a reference creation unit 14, a server-side operation processing unit (operation processing unit) 15, and a reference accumulation unit 16 as functional means (program modules). Then, it is connected to an external storage server SS via the Internet W.

基準作成部14は、後述するユーザー情報入力部13から取得した身体情報とユーザーUの意思又は状態とを対応付ける一の基準R1を作成するため、ユーザー認識部17と、ルール生成部18と、ルール収集部20と、データマイニング部21と、パターンマイニング部22と、を備えている。   The reference creation unit 14 creates a reference R1 that associates physical information acquired from the user information input unit 13 to be described later with the intention or state of the user U, so that the user recognition unit 17, the rule generation unit 18, A collection unit 20, a data mining unit 21, and a pattern mining unit 22 are provided.

ユーザー認識部17は、ジェスチャ認識部23と、健康評価部25と、個人特定部26と、を備えて、取得した身体情報から意思又は状態を分析する。ジェスチャ認識部23は、例えば、特願2007−201447に記載のように、後述するカメラ32によって撮像されたユーザーUの顔及び手先の画像を解析から、ユーザーUの顔の向き、指差し方向を算出する。健康評価部25は、後述する生体情報測定部35によって検出されたユーザーUの生体情報から、例えば、特開2004−073520号公報又は特願2007−234725に記載のように、病態診断又はストレス評価を行う。個人特定部26は、後述する個人データ取得部36から得られた個人情報に基づき、公知の技術によってユーザーUの個人認証を行うとともに、予め格納されたユーザーUの個人属性を特定する。   The user recognition unit 17 includes a gesture recognition unit 23, a health evaluation unit 25, and a personal identification unit 26, and analyzes the intention or state from the acquired physical information. For example, as described in Japanese Patent Application No. 2007-201447, the gesture recognition unit 23 analyzes the image of the face and hand of the user U captured by the camera 32 described later, and determines the orientation and pointing direction of the user U. calculate. The health evaluation unit 25 performs pathological diagnosis or stress evaluation from the biological information of the user U detected by the biological information measurement unit 35 described later, as described in, for example, Japanese Patent Application Laid-Open No. 2004-073520 or Japanese Patent Application No. 2007-234725. I do. The personal identification unit 26 performs personal authentication of the user U by a known technique based on personal information obtained from the personal data acquisition unit 36 to be described later, and identifies personal attributes of the user U stored in advance.

ルール生成部18は、ロボット本体12を介してユーザーUに現在の意思又は状況を確認して、ユーザー認識部17による分析結果をその意思又は状態を表す一の基準R1として形式化する。ルール収集部20は、インターネットWを介して蓄積サーバSSに蓄積されたユーザーUと同一又は類似する属性を有する他のユーザーの意思又は状態を表す他の基準や、これらを含む他のユーザーの生活パターン、行動パターンを収集する。   The rule generation unit 18 confirms the current intention or situation with the user U via the robot body 12, and formats the analysis result by the user recognition unit 17 as one reference R1 representing the intention or state. The rule collection unit 20 is configured so that other criteria indicating the intention or state of other users having the same or similar attributes as those of the user U stored in the storage server SS via the Internet W, and the lives of other users including them Collect patterns and behavior patterns.

データマイニング部21は、解析アルゴリズムによるマイニング処理を行い、収集した他の基準の特徴を抽出して一の基準R1を修正する。パターンマイニング部22は、データマイニング部21と同様の構成とされ、収集した生活パターンや行動パターンからユーザーUの属性にとって最適な生活パターンを抽出する。   The data mining unit 21 performs a mining process using an analysis algorithm, extracts the characteristics of other collected standards, and corrects one standard R1. The pattern mining unit 22 has the same configuration as that of the data mining unit 21 and extracts an optimal lifestyle pattern for the attribute of the user U from the collected lifestyle patterns and behavior patterns.

サーバ側動作処理部15は、提示されたユーザーUの意思や動きに対し、作成した一の基準R1健康状態、個人属性情報、ユーザーUの生活時間に基づいて、ユーザーUに提示すべき情報をロボット本体12の動作を介して伝達させる動作パターンを決定する。基準蓄積部16は、作成された基準R1を保存する。   The server-side operation processing unit 15 generates information to be presented to the user U based on the created one reference R1 health condition, personal attribute information, and the user U life time in response to the intention and movement of the presented user U. An operation pattern to be transmitted through the operation of the robot body 12 is determined. The reference accumulation unit 16 stores the created reference R1.

ロボット本体12は、サーバ側動作処理部15にて決定された動作処理が伝達されるロボット側動作処理部28と、音声を出力する音声出力部30と、ユーザーUに対して直感的な動きを通してジェスチャ動作を行う動作部31と、を備えている。ロボット本体12は、ルームサーバ11と無線LAN等によって接続されている。   The robot body 12 is transmitted through an intuitive movement with respect to the user U, a robot-side motion processing unit 28 to which the motion processing determined by the server-side motion processing unit 15 is transmitted, a voice output unit 30 that outputs voice. And an operation unit 31 that performs a gesture operation. The robot body 12 is connected to the room server 11 via a wireless LAN or the like.

ユーザー情報入力部13は、ユーザーUの顔を含む画像を取得するカメラ32と、ユーザーUの音声が入力されるマイクロフォン33と、血圧や体温、脈波等の情報を検出する生体情報測定部35と、個人を特定するICタグ等に埋め込まれた属性情報を検出する個人データ取得部36と、インテリジェントルームIR内の扉D及び冷蔵庫Rに配された開閉センサ37と、を備えている。カメラ32、マイクロフォン33、生体情報測定部35、及び個人データ取得部36は、ロボット本体12に配されている。なお、これらはインテリジェントルームIRに配されていても構わない。開閉センサ37は、扉D及び冷蔵庫Rの開閉情報を入手するように、ネットワークを構成してユーザー認識部17と接続されている。   The user information input unit 13 includes a camera 32 that acquires an image including the face of the user U, a microphone 33 to which the user U's voice is input, and a biological information measurement unit 35 that detects information such as blood pressure, body temperature, and pulse wave. A personal data acquisition unit 36 for detecting attribute information embedded in an IC tag or the like for specifying an individual, and an open / close sensor 37 disposed in the door D and the refrigerator R in the intelligent room IR. The camera 32, the microphone 33, the biological information measurement unit 35, and the personal data acquisition unit 36 are arranged in the robot body 12. These may be arranged in the intelligent room IR. The open / close sensor 37 constitutes a network and is connected to the user recognition unit 17 so as to obtain the open / close information of the door D and the refrigerator R.

次に、本実施形態に係る見守りロボット10による見守り方法について説明する。
例えば、ユーザーUが転倒した場合、本実施形態に係る見守り方法は、図3に示すように、取得ステップ(S11)と、基準作成ステップ(S12)と、を備えている。そして、基準作成ステップ(S12)は、ユーザー認識ステップ(S121)と、ルール生成ステップ(S122)と、ルール収集ステップ(S123)と、データマイニングステップ(S124)と、パターンマイニングステップ(S125)と、を備えている。
Next, a watching method by the watching robot 10 according to the present embodiment will be described.
For example, when the user U falls, the watching method according to the present embodiment includes an acquisition step (S11) and a reference creation step (S12) as shown in FIG. The reference creation step (S12) includes a user recognition step (S121), a rule generation step (S122), a rule collection step (S123), a data mining step (S124), a pattern mining step (S125), It has.

取得ステップ(S11)は、ユーザー情報入力部13を介してインテリジェントルームIR内におけるユーザーUの動作を検知する。ロボット本体12は、図4及び図5に示すように、ユーザーUの転倒の様子をカメラ32にて撮像する。   In the acquisition step (S11), the operation of the user U in the intelligent room IR is detected via the user information input unit 13. As shown in FIGS. 4 and 5, the robot body 12 captures an image of the user U falling over with the camera 32.

そして、基準作成ステップ(S12)に移行する。ユーザー認識ステップ(S121)では、ジェスチャ認識部23にて、例えば、特願2007−201447に記載のように、ユーザーUの顔及び手先の画像を解析する。そして、例えば、起立時の高さ方向をZ方向として、頭の位置を1、手を広げたときの方向をX方向又はY方向として手先の位置を1とし、起立の状態から転倒の状態までの動線に沿ったそれぞれの相対位置を公知の方法にてXYZ空間で座標化する。   Then, the process proceeds to a reference creation step (S12). In the user recognition step (S121), the gesture recognition unit 23 analyzes the image of the face and hand of the user U as described in Japanese Patent Application No. 2007-201447, for example. And, for example, the height direction when standing is the Z direction, the head position is 1, the direction when the hand is spread is the X direction or the Y direction, the hand position is 1, and from the standing state to the falling state The relative positions along the flow line are coordinated in the XYZ space by a known method.

次に、ルール生成ステップ(S122)では、座標化した動線の、例えば、変曲点及びその時間と、あらかじめルール収集部20に蓄積された同様に転倒を示すデフォルト基準とをルール生成部18にて参照し、同一又は類似する場合にはユーザーUの状態が転倒状態であると仮判断する。そして、サーバ側動作処理部15及びロボット側動作処理部28を介して、ロボット本体12からユーザーUに大丈夫かどうかを確認する。この際、ユーザーUからの返答が“No”であったり、返答がなかったりした場合には、ユーザーUが実際に転倒したものと判断し、転倒を示す一の基準R1を作成する。   Next, in the rule generation step (S122), for example, the inflection point and its time of the coordinated flow line, and the default standard indicating the fall similarly stored in the rule collection unit 20 in advance are used. When it is the same or similar, it is temporarily determined that the state of the user U is a fallen state. Then, it is confirmed from the robot main body 12 to the user U via the server side operation processing unit 15 and the robot side operation processing unit 28. At this time, if the response from the user U is “No” or there is no response, it is determined that the user U has actually fallen, and one reference R1 indicating the fall is created.

ルール収集ステップ(S123)では、この一の基準R1を蓄積するとともに、ルール収集部20にて、蓄積サーバSSからユーザーUと同一又は類似する属性を有する他のユーザーの転倒に係る基準を収集する。そして、データマイニングステップ(S124)にて、公知のデータ処理技術に基づき、基準の共通化、最適化を図り、基準R1を修正する。こうして得られた基準R1を転倒判断の新たな基準R1とするとともに、蓄積サーバSSと共有する。   In the rule collecting step (S123), the one reference R1 is accumulated, and the rule collecting unit 20 collects the standards relating to the fall of another user having the same or similar attribute as the user U from the accumulation server SS. . In the data mining step (S124), based on a known data processing technique, the standard is standardized and optimized, and the standard R1 is corrected. The reference R1 obtained in this way is used as a new reference R1 for fall determination, and is shared with the storage server SS.

そして、図6に示すように、例えば、起床、テレビを見る、入浴、ふらつき、転倒、生体情報測定部35で健康状態を測定、といったユーザーUの1日の生活パターンにわたって、それぞれの意思又は状態を認識するための基準を作成していく。この際、さらに、パターンマイニングステップ(S125)にて、同一又は類似する属性を有する他のユーザーの生活パターンを蓄積サーバSSから収集し、公知の技術に基づくクラスタリングにて煩雑に発生する相関ルールを発見する。   Then, as shown in FIG. 6, for example, each intention or state over the daily life pattern of the user U such as getting up, watching TV, bathing, wandering, falling, and measuring the health state with the biological information measuring unit 35. We will create standards for recognizing At this time, further, in the pattern mining step (S125), the life patterns of other users having the same or similar attributes are collected from the storage server SS, and a correlation rule that is complicatedly generated by clustering based on a known technique is created. Discover.

基準が作成された後は、ユーザーUの生活パターンに対して様々な支援を行う。例えば、ユーザーUと同一又は類似する属性の他のユーザーは、1日のうち、ある時間帯に運動することによって健康が維持されていることが相関ルールとして認識できた場合について、図7に示すように、その生活パターンをユーザーUに推奨する場合について説明する。   After the reference is created, various support is provided for the life pattern of the user U. For example, FIG. 7 shows a case where another user having the same or similar attribute as the user U can recognize that the health is maintained by exercising during a certain time of day as an association rule. Thus, the case where the life pattern is recommended to the user U will be described.

この場合、上記方法に基づき、健康な人の起床時間や運動時間、就寝時間についての基準を作成する。そして、起床時間になったとき、基準に基づきロボット本体12が起床を促す。同様に、運動時間になったときには、ロボット本体12が運動を促し、就寝時間になったときには就寝を促す。   In this case, based on the above-described method, a standard for wake-up time, exercise time, and bedtime of a healthy person is created. When the wake-up time is reached, the robot body 12 prompts the user to wake up based on the reference. Similarly, when the exercise time is reached, the robot body 12 prompts the user to exercise, and when the bedtime is reached, the robot body 12 is prompted to go to bed.

すなわち、作成された各種基準に基づき、サーバ側動作処理部15にて起床や運動、就寝についての呼びかけに関する処理がなされ、ロボット側動作処理部28に伝達される。ロボット本体12側では、音声出力部30及び動作部31から起床や運動を呼びかける音声や動作が出力される。ユーザーUが運動することに承服した場合には、その意思をマイクロフォン33等にて把握した後、ユーザーUの健康評価のため、例えば、生体情報測定部35による測定を促し、運動前の健康状態を把握する。その後、ユーザーUが運動する状態をカメラ32で撮像し、ユーザー認識部17を介して運動量を測定する。   In other words, based on the various standards that have been created, the server-side motion processing unit 15 performs processing related to calling for waking up, exercising, and sleeping, and is transmitted to the robot-side motion processing unit 28. On the robot body 12 side, the voice output unit 30 and the operation unit 31 output voices and operations calling for getting up or exercising. When the user U agrees to exercise, the intention of the user U is grasped by the microphone 33 or the like, and then, for the health evaluation of the user U, for example, the measurement by the biological information measuring unit 35 is promoted, and the health state before the exercise To figure out. Thereafter, the state in which the user U exercises is imaged by the camera 32, and the amount of exercise is measured via the user recognition unit 17.

また、ユーザーUの属性として個人データ取得部36にて趣味や嗜好まで含めた個人情報を取得して個人属性を特定した後、同様にこれに関する基準を作成し、その後、ユーザーUの趣味や嗜好にあうテレビ番組や、競技場、コンサート会場等をWEBから検索し、これをユーザーUに知らせてもよい。   In addition, after acquiring personal information including hobbies and preferences as the attributes of the user U and specifying the personal attributes, a standard related to this is created in the same manner, and then the user U's hobbies and preferences A TV program, a stadium, a concert venue, or the like that matches may be searched from the WEB and notified to the user U.

例えば、1日の生活パターンが同一であっても、趣味や嗜好等の属性によって生活パターンを構成する各行動パターンが異なる場合がある。このような場合について、例えば、片付けロボット40に食器を片付けさせる場合について、図8を用いて説明する。   For example, even if the daily life pattern is the same, each behavior pattern constituting the life pattern may differ depending on attributes such as hobbies and preferences. In such a case, for example, a case where the cleaning robot 40 cleans up tableware will be described with reference to FIG.

この場合、上述した基準作成ステップ(S12)にて食器の片付け動作の順番について基準を作成する。この際、まずは、デフォルト基準に基づき、食器を片付けていく。ここで、ユーザーUが例えばお茶が好きという属性を有しており、食後もゆっくりお茶を楽しむために、茶器は最後に片付けてほしい場合には、片付けを進める途中でユーザーUが片付けの中断の指示又は意思を表明する。これをユーザー認識部17にて認識した場合、ルール収集ステップ(S123)では、ユーザーUと同一又は類似する属性を有する他のユーザーの片付けに関する基準を収集する。そして、パターンマイニングステップ(S125)にて相関ルールを発見した場合には、片付け順番に関する基準を新たなものに修正する。   In this case, a reference is created for the order of the tableware cleaning operation in the reference creation step (S12) described above. At this time, first, the tableware is cleared based on the default standard. Here, if the user U has an attribute that he likes tea, for example, and he wants the tea utensils to be cleaned at the end in order to enjoy tea slowly after eating, the user U can cancel the cleanup in the middle of cleaning up. Express instructions or intentions. When this is recognized by the user recognition unit 17, in the rule collection step (S123), a reference for cleaning up other users having the same or similar attributes as the user U is collected. And when a correlation rule is discovered in a pattern mining step (S125), the reference | standard regarding a tidying-up order is corrected into a new thing.

この見守りロボット10、見守り方法、及び見守りプログラムによれば、ユーザーUの意思又は状態の認識の正誤を判断する基準の作成に際し、ユーザーUの意思又は状態と関連した身体情報を取得した際、ユーザーUに意思又は状態を確認して一の基準R1として形式化することができ、より正確な判断基準を作成することができる。この際、他人の同一又は類似の意思又は状態を示す基準を収集して共通する特徴を抽出してフィードバックするので、作成基準の精度を高めることができる。   According to the watching robot 10, the watching method, and the watching program, the user can obtain the physical information related to the intention or the state of the user U when creating the standard for judging the correctness of the recognition of the intention or the state of the user U. It is possible to confirm with U the intention or state and form it as one standard R1, and to create a more accurate judgment standard. At this time, since criteria that indicate the same or similar intentions or states of others are collected and common features are extracted and fed back, the accuracy of the creation criteria can be improved.

また、作成した意思又は状態に関する基準に基づき、ユーザーUの1日の正確な生活パターンを認識することができ、さらに、同一又は類似する他人から取得した生活パターンと比較することによって、ユーザーUの属性に最適な生活パターンをユーザーUに提示して、生活支援を行うことができる。   Moreover, based on the created criteria regarding the intention or state, the user U can recognize an accurate daily life pattern, and by comparing with the life pattern obtained from the same or similar others, A life pattern optimal for the attribute can be presented to the user U to support life.

この際、生活パターンに限らず、生活パターンにおける各行動パターンに対しても、ユーザーUの属性に最適なものを提示することができる。   At this time, not only the lifestyle pattern but also each behavior pattern in the lifestyle pattern can be presented with the optimum user U attribute.

なお、本発明の技術範囲は上記実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
例えば、ユーザーUが転倒した場合、図1に示すように、ルームサーバ11から所定の条件下で異常と判定して予め許可された第三者にその旨を電子メールEM等で連絡するようにしてもよい。また、見守りロボット10が、ルームサーバ11とロボット本体12とを個別に備えているとしているが、それに限定されることはなく、両者が一体となっていても構わない。
The technical scope of the present invention is not limited to the above embodiment, and various modifications can be made without departing from the spirit of the present invention.
For example, when the user U falls, as shown in FIG. 1, the room server 11 determines that an abnormality has occurred under a predetermined condition, and notifies a third party authorized in advance by an email EM or the like. May be. Moreover, although the watching robot 10 is provided with the room server 11 and the robot main body 12 individually, it is not limited to this and both may be integrated.

また、開閉センサ37は、扉D及び冷蔵庫Rに配されているとしているが、それ以外のものに配されていてもよく、例えば、仕切りで区切られて日々の摂取すべき薬が分類され、インテリジェントルームIR内に配された不図示の薬箱に配されていてもよい。これにより、ユーザーUが薬を薬箱から取り出して飲む、という情報をユーザー情報入力部13を介して入手し、このような動作に対しても上述したような見守り方法を適用することによって同様の基準を作成することができ、さらにはユーザーUの生活支援を行うことができる。   In addition, the open / close sensor 37 is arranged in the door D and the refrigerator R, but may be arranged in other things, for example, divided into partitions to classify medicines to be taken daily, It may be arranged in a medicine box (not shown) arranged in the intelligent room IR. As a result, the user U obtains information that the medicine is taken out of the medicine box and drinks it through the user information input unit 13, and the same monitoring method is applied to such an operation by applying the monitoring method described above. A reference can be created, and further life support for the user U can be provided.

10 見守りロボット
13 ユーザー情報入力部
14 基準作成部
15 サーバ側動作処理部(動作処理部)
17 ユーザー認識部
18 ルール生成部
20 ルール収集部
21 データマイニング部
22 パターンマイニング部
R1 基準
U ユーザー
10 watching robot 13 user information input unit 14 reference creation unit 15 server side motion processing unit (motion processing unit)
17 User recognition unit 18 Rule generation unit 20 Rule collection unit 21 Data mining unit 22 Pattern mining unit R1 Reference U user

Claims (12)

ユーザーの身体情報を取得するユーザー情報入力部から取得した前記身体情報とユーザーの意思又は状態とを対応付ける一の基準を作成する基準作成部を備え、
該基準作成部が、
取得した前記身体情報から前記意思又は状態を分析するユーザー認識部と、
該ユーザー認識部による分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成部と、
ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集部と、
前記他の基準の特徴を抽出して前記一の基準を修正するデータマイニング部と、
を備えていることを特徴とする見守りロボット
A reference creation unit for creating one reference for associating the physical information acquired from the user information input unit for acquiring the user's physical information with the user's intention or state;
The reference creation unit
A user recognition unit that analyzes the intention or state from the acquired physical information;
A rule generation unit for confirming the analysis result by the user recognition unit and formalizing the intention or state;
A rule collection unit that collects other criteria representing the intention or state of another user having the same or similar attribute as the user;
A data mining unit that extracts features of the other criteria and corrects the one criterion;
Watching robot characterized by having
前記基準作成部が、前記ユーザーの属性と同一又は類似する属性を有する他のユーザーの前記基準を含む生活パターンから前記属性に最適な生活パターンを抽出するパターンマイニング部を備え、
抽出された前記生活パターンをユーザーに提示する動作処理部を備えていることを特徴とする請求項1に記載の見守りロボット。
The reference creation unit includes a pattern mining unit that extracts a life pattern optimal for the attribute from a life pattern including the reference of another user having an attribute that is the same as or similar to the attribute of the user,
The watching robot according to claim 1, further comprising an operation processing unit that presents the extracted life pattern to a user.
前記パターンマイニング部が、前記生活パターンを構成する複数の行動パターン毎に前記属性に最適な行動パターンを抽出し、
前記動作処理部が、前記最適な行動パターンをユーザーに提示することを特徴とする請求項2に記載の見守りロボット。
The pattern mining unit extracts an action pattern optimal for the attribute for each of a plurality of action patterns constituting the life pattern,
The watching robot according to claim 2, wherein the motion processing unit presents the optimum behavior pattern to a user.
前記ルール収集部が、インターネットを介して接続された蓄積サーバに蓄積された前記他の基準を収集することを特徴とする請求項1から3の何れか一つに記載の見守りロボット。   The watching robot according to claim 1, wherein the rule collection unit collects the other reference stored in a storage server connected via the Internet. ロボットによるユーザーの見守り方法であって、
ユーザーの身体情報を取得する取得ステップと、
取得した前記身体情報とユーザーの意思又は状態とを対応付ける一の基準を作成する基準作成ステップと、
を備え、
該基準作成ステップが、
取得した前記身体情報から前記意思又は状態を分析するユーザー認識ステップと、
分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成ステップと、
ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集ステップと、
前記他の基準の特徴を抽出して一の基準を修正するデータマイニングステップと、
を備えていることを特徴とする見守り方法。
A method for watching a user with a robot,
An acquisition step of acquiring physical information of the user;
A standard creation step of creating a standard for associating the acquired physical information with the user's intention or state;
With
The reference creation step includes
A user recognition step of analyzing the intention or state from the acquired physical information;
A rule generation step of confirming the analysis result with the user and formalizing the intention or state;
A rule collection step for collecting other criteria representing the intention or state of another user having the same or similar attributes as the user;
A data mining step of extracting features of the other criteria and correcting one criteria;
A monitoring method characterized by comprising:
前記基準が、ユーザーの生活パターン毎に作成され、
前記基準作成ステップが、前記ユーザーの属性と同一又は類似する属性を有する他のユーザーの前記基準を含む生活パターンから前記属性に最適な生活パターンを抽出するパターンマイニングステップと、
抽出された前記生活パターンをユーザーに提示する動作処理ステップと、
を備えていることを特徴とする請求項6に記載の見守り方法。
The standard is created for each user life pattern,
A pattern mining step in which the reference creating step extracts a life pattern optimal for the attribute from a life pattern including the reference of another user having an attribute that is the same as or similar to the attribute of the user;
An operation processing step of presenting the extracted life pattern to the user;
The monitoring method according to claim 6, further comprising:
前記パターンマイニングステップが、前記生活パターンを構成する複数の行動パターン毎に前記属性に最適な行動パターンを抽出し、
前記動作処理部が、前記最適な行動パターンをユーザーに提示することを特徴とする請求項7に記載の見守り方法。
The pattern mining step extracts an optimum behavior pattern for the attribute for each of a plurality of behavior patterns constituting the life pattern,
The watching method according to claim 7, wherein the operation processing unit presents the optimum behavior pattern to a user.
前記ルール収集ステップが、インターネットを介して接続された蓄積サーバに蓄積された前記他の基準を収集することを特徴とする請求項5から7の何れか一つに記載の見守り方法。   The monitoring method according to claim 5, wherein the rule collecting step collects the other reference stored in a storage server connected via the Internet. コンピュータを介してユーザーを見守るための見守りプログラムであって、
コンピュータを、
ユーザーの身体情報を取得するユーザー情報入力部から取得した前記身体情報とユーザーの意思又は状態とを対応付ける一の基準を作成する基準作成部として機能させ、
該基準作成部が、
取得した前記身体情報から前記意思又は状態を分析するユーザー認識部と、
該ユーザー認識部による分析結果をユーザーに確認して前記意思又は状態を形式化するルール生成部と、
ユーザーと同一又は類似する属性を有する他のユーザーの前記意思又は状態を表す他の基準を収集するルール収集部と、
前記他の基準の特徴を抽出して前記一の基準を修正するデータマイニング部と、
として機能させることを特徴とする見守りプログラム。
A watching program for watching users via a computer,
Computer
Function as a reference creation unit for creating one reference for associating the physical information acquired from the user information input unit for acquiring the user's physical information with the user's intention or state,
The reference creation unit
A user recognition unit that analyzes the intention or state from the acquired physical information;
A rule generation unit for confirming the analysis result by the user recognition unit and formalizing the intention or state;
A rule collection unit that collects other criteria representing the intention or state of another user having the same or similar attribute as the user;
A data mining unit that extracts features of the other criteria and corrects the one criterion;
Watch program characterized by functioning as
前記基準が、ユーザーの生活パターン毎に作成され、
前記基準作成部が、前記ユーザーの属性と同一又は類似する属性を有する他のユーザーの前記基準を含む生活パターンから前記属性に最適な生活パターンを抽出するパターンマイニング部と、
抽出された前記生活パターンをユーザーに提示する動作処理部と、
を備えていることを特徴とする請求項9に記載の見守りプログラム。
The standard is created for each user life pattern,
A pattern mining unit that extracts a life pattern optimal for the attribute from a life pattern including the reference of another user having the same or similar attribute as the user attribute;
An operation processing unit for presenting the extracted life pattern to the user;
The monitoring program according to claim 9, comprising:
前記パターンマイニング部が、前記生活パターンを構成する複数の行動パターン毎に前記属性に最適な行動パターンを抽出し、
前記動作処理部が、前記最適な行動パターンをユーザーに提示することを特徴とする請求項10に記載の見守りプログラム。
The pattern mining unit extracts an action pattern optimal for the attribute for each of a plurality of action patterns constituting the life pattern,
The watching program according to claim 10, wherein the operation processing unit presents the optimum behavior pattern to a user.
前記ルール収集部が、インターネットを介して接続された蓄積サーバに蓄積された前記他の基準を収集することを特徴とする請求項9から11の何れか一つに記載の見守りプログラム。
The monitoring program according to claim 9, wherein the rule collection unit collects the other reference stored in a storage server connected via the Internet.
JP2009195044A 2009-08-26 2009-08-26 Watching robot, watching method, and watching program Active JP5504529B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009195044A JP5504529B2 (en) 2009-08-26 2009-08-26 Watching robot, watching method, and watching program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009195044A JP5504529B2 (en) 2009-08-26 2009-08-26 Watching robot, watching method, and watching program

Publications (2)

Publication Number Publication Date
JP2011045460A true JP2011045460A (en) 2011-03-10
JP5504529B2 JP5504529B2 (en) 2014-05-28

Family

ID=43832400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009195044A Active JP5504529B2 (en) 2009-08-26 2009-08-26 Watching robot, watching method, and watching program

Country Status (1)

Country Link
JP (1) JP5504529B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013026781A (en) * 2011-07-20 2013-02-04 Sanyo Electric Co Ltd Television telephone apparatus and television telephone system
US9301685B2 (en) 2013-02-28 2016-04-05 Toshiba Tec Kabushiki Kaisha Notification apparatus, method for performing notification and assist robot acting as the same
JP2016067773A (en) * 2014-09-30 2016-05-09 国立大学法人 千葉大学 Autonomous mobile robot and vital sign monitoring method
WO2016153223A1 (en) * 2015-03-20 2016-09-29 주식회사 민토시스 User monitoring system using unmanned aerial vehicle
WO2016194173A1 (en) * 2015-06-03 2016-12-08 株式会社日立システムズ Support assistance system, support assistance method, and support assistance program
JP2019171167A (en) * 2013-10-31 2019-10-10 デックスコム・インコーポレーテッド Adaptive interface for continuous monitoring device
JPWO2019220899A1 (en) * 2018-05-16 2021-07-29 富士フイルム株式会社 Biometric information acquisition system, electronic device, biometric information acquisition method, and biometric information acquisition program
JP7371624B2 (en) 2018-06-26 2023-10-31 コニカミノルタ株式会社 Programs that run on computers, information processing devices, and methods that run on computers

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6472287A (en) * 1987-09-14 1989-03-17 Hitachi Ltd Robot visual system
JP2001246580A (en) * 2000-03-03 2001-09-11 Sony Corp Information communication robot device, information communication method, and information communication robot system
JP2003340757A (en) * 2002-05-24 2003-12-02 Mitsubishi Heavy Ind Ltd Robot
JP2005284535A (en) * 2004-03-29 2005-10-13 Sanyo Electric Co Ltd System for monitoring life
JP2006092356A (en) * 2004-09-24 2006-04-06 Sanyo Electric Co Ltd Presumption system, presumption apparatus and sensing apparatus
JP2006260561A (en) * 2006-03-10 2006-09-28 Matsushita Electric Ind Co Ltd Equipment information management device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6472287A (en) * 1987-09-14 1989-03-17 Hitachi Ltd Robot visual system
JP2001246580A (en) * 2000-03-03 2001-09-11 Sony Corp Information communication robot device, information communication method, and information communication robot system
JP2003340757A (en) * 2002-05-24 2003-12-02 Mitsubishi Heavy Ind Ltd Robot
JP2005284535A (en) * 2004-03-29 2005-10-13 Sanyo Electric Co Ltd System for monitoring life
JP2006092356A (en) * 2004-09-24 2006-04-06 Sanyo Electric Co Ltd Presumption system, presumption apparatus and sensing apparatus
JP2006260561A (en) * 2006-03-10 2006-09-28 Matsushita Electric Ind Co Ltd Equipment information management device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013026781A (en) * 2011-07-20 2013-02-04 Sanyo Electric Co Ltd Television telephone apparatus and television telephone system
US9301685B2 (en) 2013-02-28 2016-04-05 Toshiba Tec Kabushiki Kaisha Notification apparatus, method for performing notification and assist robot acting as the same
JP2019171167A (en) * 2013-10-31 2019-10-10 デックスコム・インコーポレーテッド Adaptive interface for continuous monitoring device
JP7384585B2 (en) 2013-10-31 2023-11-21 デックスコム・インコーポレーテッド Adaptive interface for continuous monitoring devices
JP2016067773A (en) * 2014-09-30 2016-05-09 国立大学法人 千葉大学 Autonomous mobile robot and vital sign monitoring method
WO2016153223A1 (en) * 2015-03-20 2016-09-29 주식회사 민토시스 User monitoring system using unmanned aerial vehicle
WO2016194173A1 (en) * 2015-06-03 2016-12-08 株式会社日立システムズ Support assistance system, support assistance method, and support assistance program
JPWO2016194173A1 (en) * 2015-06-03 2018-04-19 株式会社日立システムズ Support support system, support support method, and support support program
JPWO2019220899A1 (en) * 2018-05-16 2021-07-29 富士フイルム株式会社 Biometric information acquisition system, electronic device, biometric information acquisition method, and biometric information acquisition program
JP7371624B2 (en) 2018-06-26 2023-10-31 コニカミノルタ株式会社 Programs that run on computers, information processing devices, and methods that run on computers

Also Published As

Publication number Publication date
JP5504529B2 (en) 2014-05-28

Similar Documents

Publication Publication Date Title
JP5504529B2 (en) Watching robot, watching method, and watching program
Schwenk et al. Wearable sensor-based in-home assessment of gait, balance, and physical activity for discrimination of frailty status: baseline results of the Arizona frailty cohort study
CN201379558Y (en) Healthy home system
KR101850855B1 (en) Contactless and minimal-contact monitoring of quality of life parameters for assessment and intervention
CN108348194A (en) Mobility monitors
CN102113034A (en) Monitoring, predicting and treating clinical episodes
WO2012025622A2 (en) Monitoring method and system for assessment of prediction of mood trends
JP6775922B2 (en) Biological condition determination device and biological condition determination method
Fraccaro et al. Real-world gyroscope-based gait event detection and gait feature extraction
Damouras et al. An online swallow detection algorithm based on the quadratic variation of dual-axis accelerometry
CN105361858B (en) A kind of method and wearable device of blood pressure data processing
Megalingam et al. Assistive technology for elders: Wireless intelligent healthcare gadget
Moufawad El Achkar et al. Classification and characterization of postural transitions using instrumented shoes
KR20200056674A (en) Integrated system, server and method for managing chronic disease of pet
Aghanavesi et al. A multiple motion sensors index for motor state quantification in Parkinson's disease
JP2004097496A (en) Sleep monitoring system and monitoring device
WO2016096935A1 (en) Device, system and method for assessing the ability of a person to carry out one or more activities
JP2014039586A (en) Sleep improvement support device
KR20200066868A (en) Method for providing healthcare questionnaire service based on chatter robot ana user device for supporting the same
Fontecha et al. A proposal for elderly frailty detection by using accelerometer-enabled smartphones
US20200381116A1 (en) System and method for providing personal health advice based on multimodal oral sensing data
JP2021125080A (en) Medical treatment support system
JP7294707B2 (en) Sleep monitoring capsule and sleep monitoring system
Naeem et al. Recognising activities of daily life through the usage of everyday objects around the home
JP2005285001A (en) Health support method and its system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120106

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140228

R150 Certificate of patent or registration of utility model

Ref document number: 5504529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350