JP2001246580A - 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム - Google Patents
情報通信ロボット装置、情報通信方法および情報通信ロボットシステムInfo
- Publication number
- JP2001246580A JP2001246580A JP2000059029A JP2000059029A JP2001246580A JP 2001246580 A JP2001246580 A JP 2001246580A JP 2000059029 A JP2000059029 A JP 2000059029A JP 2000059029 A JP2000059029 A JP 2000059029A JP 2001246580 A JP2001246580 A JP 2001246580A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- output
- input
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
よび行動を行う情報通信ロボット装置、情報通信方法お
よび情報通信ロボットシステムを提案する。 【解決手段】情報通信ロボット装置は、外部のユーザの
状態に対する対応情報を記憶する着脱可能なユーザ状態
対応プログラム板状メモリ2と、ユーザとの間でユーザ
検出情報の入力、またはユーザに対してユーザ状態対応
情報およびフィードバック情報に対応した出力情報の出
力を行う外部入力部6、出力部10と、入力されるユー
ザ検出情報の解析を行い、ユーザ状態情報およびユーザ
検出情報に基づいてフィードバック情報の生成、および
出力情報の生成を行う入出力および通信データ生成/解
析手段13とを備え、ユーザに対してユーザ検出情報に
対応した出力情報の出力または可動部の動作を行う。
Description
型ロボットにおいて、ユーザの状態情報に基づいた情報
出力を行う情報通信ロボット装置、情報通信方法および
情報通信ロボットシステムに適用されるものである。
インターフェース方式においては、ロボット装置を動作
させるための所定のリモートコントロール信号を入力す
るようにしていた。このリモートコントロール信号を外
部からインターフェース部を介してロボット装置に入力
することは、ロボット装置に対する操作に相当するもの
であった。
に用いられる健康管理機器においては、ユーザが自ら意
識的に測定および管理のための操作を行わなければなら
なかった。
ザインターフェースは、例えば、音声認識信号や、リモ
ートコントロール部からのリモートコントロール信号な
ど技術的に限られた情報しか使用できなかった。
ト装置は、ユーザである操作者が外部から操作などのロ
ボット装置に対して何らかの意識的な働きかけをしない
と、自ら動作をすることはないという不都合があった。
ーザが自ら意識して測定や管理をしなければならず、裏
を返せば自動的に動作をしないので使うことを忘れやす
いという不都合があった。
ザインターフェースに用いる情報は、技術的に限られて
いたので、情報をリンクして使う際に限界があるという
不都合があった。
で、ユーザの健康状態などに対応する情報の出力および
行動を行う情報通信ロボット装置、情報通信方法および
情報通信ロボットシステムを提案しようとするものであ
る。
め本発明の情報通信ロボット装置、情報通信方法および
情報通信ロボットシステムでは、以下のような手段によ
り構成され、このような本発明によれば以下の作用をす
る。
能な記憶手段と、上記基本情報に基づいて可動部を駆動
させる駆動手段と、上記駆動手段の動作をフィードバッ
ク情報を用いて制御すると共に上記フィードバック情報
を上記基本情報に蓄積する制御手段とを有する自律行動
型の情報通信ロボット装置において適用されるものであ
る。
のユーザの状態に対する対応情報を記憶する着脱可能な
ユーザ状態対応情報記憶手段と、ユーザとの間でユーザ
検出情報の入力、またはユーザに対してユーザ状態対応
情報およびフィードバック情報に対応した出力情報の出
力を行う入出力手段と、入出力手段により入力されるユ
ーザ検出情報の解析を行い、ユーザ状態情報およびユー
ザ検出情報に基づいてフィードバック情報の生成、およ
び出力情報の生成を行う入出力情報生成/解析手段と、
を備え、ユーザに対してユーザ検出情報に対応した出力
情報の出力または可動部の動作を行うものである。
ユーザの状態に対する対応情報を着脱可能な記憶媒体に
記憶するユーザ状態対応情報記憶ステップと、ユーザと
の間でユーザ検出情報の入力、またはユーザに対してユ
ーザ状態対応情報およびフィードバック情報に対応した
ユーザに対する出力情報の出力を行う入出力ステップ
と、入力ステップにより入力されるユーザ検出情報の解
析を行い、ユーザ状態対応情報およびユーザ検出情報に
基づいてフィードバック情報の生成、および上記出力情
報の生成を行う入出力情報生成/解析ステップと、を備
え、ユーザに対してユーザ検出情報に対応した出力情報
の出力または可動部の動作を行うものである。
外部のユーザの状態に対する対応情報を通信またはユー
ザ状態対応情報記憶媒体を介して任意の情報通信ロボッ
ト装置に配信する配信部と、ユーザ状態対応情報の受信
を行う受信手段と、ユーザ状態対応情報記憶媒体を着脱
可能なユーザ状態対応情報記憶手段と、ユーザとの間で
ユーザ検出情報の入力、またはユーザに対してユーザ状
態対応情報およびフィードバック情報に対応した出力情
報の出力を行う入出力手段と、入出力手段により入力さ
れるユーザ検出情報の解析を行い、ユーザ状態対応情報
およびユーザ検出情報に基づいてフィードバック情報の
生成、および出力情報の生成を行う入出力情報生成/解
析手段と、を有する複数の情報通信ロボット装置と、を
備え、配信部から配信されたユーザ状態対応情報を用い
て、複数の情報通信ロボット装置がユーザに対してそれ
ぞれユーザ検出情報に対応した出力情報の出力または可
動部の動作を行うものである。
ず、ユーザの各種状態を示すユーザ検出情報の入力が行
われる。ユーザ側には、センサー部による位置情報、体
勢情報、および感情/体調情報の検出が、定期的にまた
は変化の生ずる毎に行われる。このようなユーザのユー
ザ検出情報である位置情報、体勢情報、および感情/体
調情報は、検出される毎に通信部を介して、ロボットに
送られる。
ザの映像パターンを入力して、ユーザの表情等を分析す
るパターン認識部と、赤外線センサーを介してユーザの
体温パターンを入力して、ユーザの体温分布等を分析す
る赤外線センサー検出部を設け、ユーザ検出情報をロボ
ット自ら得る。
報の入力機能を実行する。まず、ロボットは、通信部を
介して、ユーザ検出情報を受信し、または自ら得る。そ
して、センサー部の位置検出部である測位センサーから
入力された位置情報が居所判断部に供給される。居所判
断部は位置情報からユーザの居場所を判断してユーザと
の距離を認識する。
報が対応決定部に送られる。これにより、ロボットがユ
ーザから離れているときは、対応決定部は可動部を動か
して、ロボットをユーザに近接させる。また、ユーザの
居場所および他の状態に合わせて、移動せず、近づく、
または離れる等を判断する。
/体温センサーから入力されたユーザの血圧、脈拍、体
温などを示す感情/体調情報が精神状態判断部に供給さ
れる。精神状態判断部は感情/体調情報からその数値の
高低および変動などをもとにしてユーザの喜怒哀楽の感
情、機嫌などの精神状態を判断する。
/体温センサーから入力されたユーザの血圧、脈拍、体
温などを示す感情/体調情報が健康状態判断部に供給さ
れる。健康状態判断部は感情/体調情報からその数値の
高低および変動などをもとにしてユーザの体調などの健
康状態を判断する。
状態を(機械側が推測/判断するのではなく)プリセッ
トできる。例えば「絶好調だ!」と感じた時の状態でプ
リセットボタンを押して記録すると、その時の血圧/脈
拍等のパターンが登録される。逆に「不調だ!」とか
「不機嫌だ!」と感じた時にプリセットボタンを押すと
そのパターンが登録される。これは特に持病があるユー
ザには発作等のパターン登録となり有効となる。このよ
うに、機械側で推測/判断するのみでなく、ユーザ側で
もプリセット可能である。
態情報が対応決定部に送られる。また、健康状態判断部
からユーザの健康状態情報が対応決定部に送られる。こ
れにより、ロボットの対応決定部はスピーカからユーザ
に対して精神状態および健康状態に応じた所定の発声を
して、また対応決定部は可動部を動かして、ロボットに
ユーザに対する所定の動作をさせる。
ら入力された体勢情報が行動状態判断部に供給される。
行動状態判断部は体勢情報からユーザの例えば寝る、立
つ、走るなどの体勢を判断する。行動状態判断部からユ
ーザの体勢情報が対応決定部に送られる。これにより、
ロボットの対応決定部はスピーカからユーザに対して体
勢に応じた所定の発声をして、また対応決定部は可動部
を動かして、ロボットにユーザに対する所定の動作をさ
せる。
は、インタラクティブ動作に対応するユーザ状態対応プ
ログラムにより生成される、各種ユーザ状態判断部およ
び対応決定部を用いて、ユーザの状態に対応する情報の
出力および可動部の動作を行う。
発明の実施の形態を詳述する。本実施の形態のロボット
は、自律行動型ロボットとユーザとを専用インターフェ
ースを用いてデータリンクさせ、ロボットとユーザとの
情報の伝達を密接にし、情報に対応した健康管理に応用
できるロボット、およびこれを用いたロボット健康管理
システムを提案するものである。
機能を示す構成図である。図1において、本発明の実施
の形態のロボットは、ロボットの動作のための基本情報
が記憶されて本体に対して着脱可能に設けられたフラッ
シュメモリで構成される基本板状メモリ1と、外部のユ
ーザの状態に対するユーザ状態対応情報を示すユーザ状
態対応プログラムを記憶するフラッシュメモリで構成さ
れるユーザ状態対応プログラム板状メモリ2と、自律行
動可能でユーザの状態に対応した情報出力および動作を
するロボット本体3とを有して構成される。
する着脱可能な記憶手段を構成し、出力部10は、基本
情報に基づいて可動部を駆動させる駆動手段を構成し、
内部状態計算部5、行動変換部9および感情と状態のモ
デル記憶部8は駆動手段の動作をフィードバック情報を
用いて制御すると共にフィードバック情報を基本情報に
蓄積する制御手段を構成する。
との間でユーザ検出情報の入力、またはユーザに対して
ユーザ状態対応情報およびフィードバック情報に対応し
た出力情報の出力を行う入出力手段を構成する。入出力
および通信データ生成/解析部13は、入出力手段によ
り入力されるユーザ検出情報の解析を行い、ユーザ状態
対応情報およびユーザ検出情報に基づいてフィードバッ
ク情報の生成、および出力情報の生成を行う入出力情報
生成/解析手段を構成する。ユーザ状態対応データ生成
/解析部11は、ユーザ状態対応情報記憶手段により入
力されるユーザ状態対応情報の解析を行い、ユーザ状態
対応情報およびユーザ検出情報に基づいてフィードバッ
ク情報の生成、および出力情報の生成を行うユーザ状態
対応情報生成/解析手段を構成する。ユーザ状態対応プ
ログラム板状メモリ2は、外部のユーザの状態に対する
ユーザ状態対応情報を記憶する着脱可能なユーザ状態対
応情報記憶手段を構成する。
において入力されるユーザ検出情報のうちの位置検出情
報からユーザの居所情報を認識し、体勢検出情報からユ
ーザの行動情報を認識し、感情または体調検出情報から
ユーザの精神または健康情報を認識し、出力情報のうち
の発声情報または可動部の動作を選択する認識手段を構
成する。選択部12は、ユーザ検出情報に対応してユー
ザ状態対応情報の内容を選択して、ユーザ状態対応情報
生成/解析手段において生成されるフィードバック情報
および出力情報を生成する選択手段を構成する。
ボット本体3に設けられるスロットに相当し、基本板状
メモリ1およびユーザ状態対応プログラム板状メモリ2
とロボット本体3との間でデータをやりとりするための
インターフェースとして機能する。1/F4は基本板状
メモリ1からロボットの特徴を表現する情報を読み出
し、内部状態計算部5に供給する。また、I/F4は、
内部状態計算部5における所定の計算の結果得られる情
報を基本板状メモリ1に書き込み、その記憶内容を更新
する。
が供給されるほか、外部入力部6からも入力が与えられ
る。さらに、内部状態計算部5には、行動変換部9にお
いて得られるロボットの具体的なアクションもフィード
バックされる。内部状態計算部5は、モデル記憶部8に
記憶されている感情と状態のモデルを、I/F4、外部
入力部6、時間入力部7、または行動変換部9からの入
力に対応して駆動し、ロボットの内部状態を更新する。
報に含まれるものであり、更新された内部状態は、I/
F4を介して基本板状メモリ1に書き込まれる。また、
内部状態計算部5は更新後の内部状態に基づいて、ロボ
ットに行わせる概念的な動作を決定し、その概念的な動
作を行うように指示する命令を行動変換部9に出力す
る。
示すブロック図である。ロボットは、所定時間を計時す
るタイマ回路20と、インターフェース回路25との間
でデータを通すバス22と、所定のプログラムが格納さ
れるROM(Read Only Memory)23
と、ロボットの動作を制御するCPU(Central
Processing Unit)21と、CPU2
1の動作のための制御データが格納されるRAM(Ra
ndom Access Memory)24と、CP
U21と後述する各部とのインターフェースを行うイン
ターフェース回路25を有して構成される。
装置または他の情報端末装置との間で基本情報の送信ま
たは受信を行う通信部26を有する。また、ロボット
は、接触式または反射式のセンサー27と、被写体を撮
像するカメラ28と、カメラ28の撮像信号をディジタ
ルデータに変換するA/D変換器29とを有して構成さ
れる。また、ロボットは、外部音声を収音して電気信号
に変換するマイク30と、マイク30の電気信号をディ
ジタルデータに変換するA/D変換器31とを有して構
成される。
や所定入力指示などの操作を行う操作部32を有して構
成される。また、ロボットは、基本板状メモリ1を着脱
可能に接続する基本板状メモリ用コネクタ33と、ユー
ザ状態対応プログラム板状メモリ2を着脱可能に接続す
るユーザ状態対応プログラム板状メモリ用コネクタ34
とを有して構成される。
を出力音声信号に変換するD/A変換器35と、出力音
声信号を音声として鳴動させるスピーカ36とを有して
構成される。また、ロボットは、CPU21の制御に基
づいて可動部である駆動機構38を駆動させるモータ3
7とを有して構成される。なお、センサー27は、温度
情報を検出可能でサーモグラフィーで認識可能な赤外線
センサーで構成してもよい。
U21に制御され、駆動機構38を駆動するようになさ
れている。駆動機構38は、例えば、ロボットの可動部
分としての頭や手足、胴体などを構成し、モータ37に
よって駆動されるようになされている。
I/F25と基本板状メモリ用コネクタ33およびユー
ザ状態対応プログラム板状メモリ用コネクタ34に対応
する。また、図1の外部入力部6は、図2のセンサー2
7、マイク30およびA/D変換器31、カメラ28お
よびA/D変換器29や操作部32に対応する。
マ回路20に対応し、図1のモデル記憶部8は、図2の
ROM23に対応する。さらに、図1の出力部10は、
図2のD/A変換器35およびスピーカ36やモータ3
7および駆動機構38に対応する。
/解析部13は、図2の通信部26およびCPU21に
対応し、図1のユーザ状態対応データ生成/解析部1
1、選択部12および認識部14は図2のCPU21に
対応する。
ような動作をする。後述する情報端末において選択され
たユーザ状態対応情報のデータが、上述した通信部26
を介してロボットに送られる。またはユーザ状態対応情
報のデータを予め記憶させた着脱可能のユーザ状態対応
プログラム板状メモリ2を、直接ロボットに装着しても
良い。
から送られた所定のユーザ状態対応情報のプログラムデ
ータを受信してインターフェース回路25に供給する。
バス22を用いてCPU21はデータのやりとりを行う
ことにより、ROM23に格納される制御プログラムが
起動される。インターフェース回路25は、赤外線等を
介して情報端末から供給された所定のユーザ状態対応情
報のデータを内部処理可能に変換する。
ータはユーザ状態対応プログラム板状メモリ用コネクタ
34を介してユーザ状態対応プログラム板状メモリ2に
ダウンロードされる。センサー27は外部の接触物また
は近接物を検出し、カメラ28は外部の被写体を撮像
し、マイク30は外部の音声を収音し、センサー検出信
号、画像データおよび音声データをインターフェース回
路25を介してCPU21に供給する。
にセンサー検出信号、画像データおよび音声データをC
PU21が解析して、出力部の出力データおよび可動部
の動作コマンドをインターフェース回路25に供給す
る。インターフェース回路25は出力データを出力信号
に変換し、動作コマンドを駆動信号に変換する。出力信
号は、モータ37およびスピーカ36の各出力部に供給
される。モータ37は駆動信号により駆動され、スピー
カ36は駆動信号により鳴動される。駆動信号は駆動機
構38に供給され、駆動機構38により可動部が動かさ
れる。
示すブロック図である。図3において、情報端末39
は、インターネットを介してプロバイダから供給されま
たはアンテナから受信されるビデオ入力をNTSC方式
またはPAL方式の画像に変換してモニタにビデオ出力
するコーデック40と、NTSC方式またはPAL方式
のビデオデータを記憶するVRAM41と、VRAM4
1にグラフィックイメージを描画するグラフィックエン
ジン42とを有する。
介してプロバイダから供給されまたはアンテナから受信
されるオーディオ入力を所定の方式に変換してモニタに
オーディオ出力するオーディオコーデック43と、イン
ターネットを介してプロバイダからPSTN(高速通信
回線)により供給されるメールの通信データを受信して
受信データに変換するモデム44と、IR(赤外線)、
シリアル、パラレルおよびその他のインターフェースを
行うインターフェース回路45とを有する。
ジン42と、オーディオコーデック43と、モデム44
と、インターフェース回路45とのデータを通すローカ
ルバス46と、所定のプログラムが格納されるフラッシ
ュメモリ47と、情報端末39の動作を制御するCPU
50と、CPU50の動作のための制御データが格納さ
れるメモリ51と、CPU50およびメモリ51のデー
タを通すホストバス49と、ローカルバス46とホスト
バス49とのデータのやりとりをするバスブリッジ48
とを有して構成される。なお、フラッシュメモリ47
は、上述した基本板状メモリ1またはユーザ状態対応プ
ログラム板状メモリ2と同様のものである。
ような動作をする。電源を入れると、ホストバス49お
よびローカルバス46を用いてCPU50はデータのや
りとりを行うことにより、フラッシュメモリ47に格納
されるプログラムが起動される。モデム44は、インタ
ーネットを介してプロバイダから供給されたデータを内
部処理可能に変換する。モデム44で変換されたデータ
はメモリ51またはフラッシュメモリ47にダウンロー
ドされる。ダウンロードされたデータをCPU50が解
析して、グラフィックエンジン42に供給する。グラフ
ィックエンジン42はVRAM41にグラフィックイメ
ージを描画し、それをNTSC/PALコーデック40
がNTSC方式またはPAL方式の画像に変換する。
ードであるとき、所定のコードはインターフェース回路
45によりシリアルデータとして例えば無線LANなど
のワイヤレストランスミッタによりロボットに送られ
る。
状態に対応した情報出力および動作をするロボット、お
よびこのロボットを用いたロボット健康管理システムを
説明する。図4は、ユーザ状態対応プログラムをインス
トールした自律行動型ロボット(人型)の機能を示す図
である。前提として、図示しないネットワークから情報
端末のワイヤレスポートを介してユーザ状態対応情報が
送信される。ロボット70の通信部71はワイヤレスポ
ートを介してユーザ状態対応情報を受信して、図2に示
したユーザ状態対応プログラム板状メモリ用コネクタ3
4に装着されたユーザ状態対応プログラム板状メモリ2
にユーザ状態対応情報を記憶する。
検出情報の検出が行われる。図4において、ユーザ60
側には、ユーザ60の腕に例えば腕時計のように装着可
能なリスト型センサー61が装着されている。リスト型
センサー61は、ユーザの各種状態を検出するセンサー
部とロボット70への通信を行う通信部66とが一体に
構成されている。
PS(Grobal Positioning Sys
tem)衛星62からの測位情報を用いてユーザ60の
位置情報を検出する位置検出部としての測位センサー6
3を有して構成される。また、リスト型センサー61の
センサー部は、ユーザ60の例えば寝る、立つ、走るな
どの体勢情報を検出する体勢検出部である加速度センサ
ー64を有して構成される。また、リスト型センサー6
1のセンサー部は、ユーザ60の血圧、脈拍、体温など
を測定するユーザ60の感情/体調検出部である血圧/
脈拍/体温センサー45を有して構成される。
位置情報、体勢情報、および感情/体調情報の検出は、
定期的にまたは変化の生ずる毎に行われる。このような
ユーザ60のユーザ検出情報である位置情報、体勢情
報、および感情/体調情報は、検出される毎に通信部6
6を介して、ロボット70に送られる。
情報を受信する通信部71を有して構成される。また、
ロボット70は、位置情報からユーザ60の居場所を判
断する居所判断部72を有して構成される。また、ロボ
ット70は、感情/体調情報からユーザの喜怒哀楽の感
情、機嫌などの精神状態を判断する精神状態判断部73
を有して構成される。また、ロボット70は、感情/体
調情報からユーザの体調などの健康状態を判断する健康
状態判断部74を有して構成される。また、ロボット7
0は、体勢情報からユーザ60の体勢を判断する行動状
態判断部75を有して構成される。また、ロボット70
は、図2に示したスピーカ36からユーザ60に対して
所定の発声をし、また可動部を動かして、ロボット70
にユーザ60に対する所定の動作をさせる対応決定部7
6を有して構成される。
出情報の入力機能を実行する。図4において、まず、ロ
ボット70は、通信部71を介して、ユーザ検出情報を
受信する。そして、リスト型センサー61のセンサー部
の位置検出部である測位センサー63から入力された位
置情報が居所判断部72に供給される。居所判断部72
は位置情報からユーザ60の居場所を判断してユーザ6
0との距離を認識する。
離情報が対応決定部76に送られる。これにより、ロボ
ット70がユーザ60から離れているときは、対応決定
部76は可動部を動かして、ロボット70をユーザ60
に近接させる。また、ユーザ60の居場所および他の状
態に合わせて、移動せず、近づく、または離れる等の対
応の選択を判断する。
検出部である血圧/脈拍/体温センサー45から入力さ
れたユーザ60の血圧、脈拍、体温などを示す感情/体
調情報が精神状態判断部73に供給される。精神状態判
断部73は感情/体調情報からその数値の高低および変
動などをもとにしてユーザの喜怒哀楽の感情、機嫌など
の精神状態を判断する。
検出部である血圧/脈拍/体温センサー45から入力さ
れたユーザ60の血圧、脈拍、体温などを示す感情/体
調情報が健康状態判断部74に供給される。健康状態判
断部74は感情/体調情報からその数値の高低および変
動などをもとにしてユーザの体調などの健康状態を判断
する。
状態情報が対応決定部76に送られる。また、健康状態
判断部74からユーザ60の健康状態情報が対応決定部
76に送られる。これにより、ロボット70の対応決定
部76はスピーカ36からユーザ60に対して精神状態
および健康状態に応じた所定の発声をして、また対応決
定部76は可動部を動かして、ロボット70にユーザ6
0に対する所定の動作をさせる。
の良いときは、例えば、対応決定部76は可動部の顔や
手をユーザに近づけて、甘える動作をさせて、スピーカ
36から「良いことがあったの」などと発声させる。
ときは、例えば、対応決定部76は可動部の足を動かし
てユーザ60から逃げるように、離れる動作をさせて、
スピーカ36から「堪忍して」などと発声させる。
ときは、例えば、対応決定部76は可動部の足を動かし
てユーザ60に近づく動作をさせて、スピーカ36から
「熱が高いよ、血圧が高いよ、脈拍が早いよ」などと発
声させる。
である加速度センサー64から入力された体勢情報が行
動状態判断部75に供給される。行動状態判断部75は
体勢情報からユーザ60の例えば寝る、立つ、走るなど
の体勢を判断する。行動状態判断部75からユーザ60
の体勢情報が対応決定部76に送られる。これにより、
ロボット70の対応決定部76はスピーカ36からユー
ザ60に対して体勢に応じた所定の発声をして、また対
応決定部76は可動部を動かして、ロボット70にユー
ザ60に対する所定の動作をさせる。
ず、健康には異常がないときは、例えば、対応決定部7
6はユーザ60が寝ていると判断して、可動部の足を縮
めて、寝る動作をさせるか、または安全を監視する監視
モードに入る。
も倒れている状況で、かつ健康に異常が見られるとき
は、例えば、対応決定部76は可動部の足を動かしてユ
ーザ60に近づいて触る動作をさせて、スピーカ36か
ら「大丈夫」などと発声させて、それでも反応がないと
きは、緊急事態と判断して、救急連絡を行う。
には、最低でも、各種ユーザ状態判断部および対応決定
部が設けられている。また、上述した自律行動型ロボッ
トには、インタラクティブ動作に対応するユーザ状態対
応プログラムがインストールされているので、ユーザの
状態に対応する情報の出力および可動部の動作を行うこ
とができる。
ログラムを用いたロボットの実施態様を示す図である。
図5Aに示す通信型のものでは、人型ロボット80また
はペット型ロボット81に対して、ユーザ82に装着さ
れたリスト型センサー83からユーザの状態を示すユー
ザ検出情報が入力され、これに対応して人型ロボット8
0またはペット型ロボット81がユーザ82に情報の出
力および可動部の動作を行う態様を示している。
ボット84に図4に示した居所判断部72、精神状態判
断部73、健康状態判断部74、行動状態判断部75に
替えて、図2に示したカメラ28を介してユーザ88の
映像パターンを入力して、ユーザ88の表情等を分析す
るパターン認識部85と、赤外線センサーを介してユー
ザ88の体温パターンを入力して、ユーザ88の体温分
布等を分析する赤外線センサー検出部86を設け、パタ
ーン認識情報および温度分布情報から上述したユーザ検
出情報を得て、対応決定部87によりユーザに対する対
応の決定を行う態様を示している。
である。図4に示した測位センサー63は、GPS衛星
62からの測位情報を用いてユーザ60の位置情報を検
出する例を示したが、これは、専ら屋外において適用さ
れる。なお、同様に、屋外において、携帯電話(PHS
(パーソナルハンディフォン))の通信エリア情報を用
いても良い。
N(Local Area Network)の送受信
機能として、Blue Tooth規格を用いるもので
ある。ロボット93が存在する比較的広い部屋90内に
複数のアンテナ91、92を設置し、リスト型センサー
97を装着したユーザ96が存在する比較的狭い部屋9
4内に単一のアンテナ95を設置する。これにより、リ
スト型センサー97からアンテナ91,92,95を介
して検出されたユーザ96の位置情報がロボット93に
入力される。なお、同様に、屋内において、携帯電話
(PHS)の通信エリア情報を用いても良い。
トの対応例の動作を示すフローチャートである。この動
作は、図4に示した対応決定部76が可動部を動かし
て、図2に示したスピーカ36を動作させることにより
行う。まず、ステップS1において、リスト型センサー
からロボットにユーザ検出情報の入力があったか否かを
判断する。ステップS1で入力がなければ、ステップS
2に移行して、ロボットは自律状態で待機して、ステッ
プS1へ戻る。具体的には、ユーザ検出情報の入力は、
定期的にまたは変化の生ずる毎に行われる。
れば、ステップS3に移行して、ロボットは入力された
位置情報からユーザが近くにいるか否かを判断する。ス
テップS3でユーザが近くなければ、ステップS4へ移
行して、ロボットは自律状態で待機して、ステップS3
へ戻る。
プS5に移行して、ロボットは入力された位置情報から
ユーザがロボットの1メートルの範囲以内にいるか否か
を判断する。ステップS5でユーザが1メートル以内で
なければ、ステップS6へ移行して、ロボットはご主人
(ユーザ)に近づくように移動して、ステップS5へ戻
る。
あれば、ステップS7に移行して、ロボットは入力され
た体調情報からユーザの体温が異常に高いか否かを判断
する。ステップS7でユーザの体温が異常に高くなけれ
ば、ステップS8へ移行して、ロボットは対人自律モー
ドでユーザにじゃれる動作をして、ステップS7へ戻
る。
れば、ステップS9へ移行して、ロボットは入力された
体調情報からユーザの体温が異常に低いか否かを判断す
る。ステップS9でユーザの体温が異常に低くなけれ
ば、ステップS10へ移行して、ロボットは「熱があり
ます。大丈夫ですか」、「風邪ですか、大丈夫」・・・
等、ランダムに発声(または図示しない表示部に表示)
してステップS7へ戻る。
れば、ステップS11へ移行して、ロボットは入力され
た体調情報からユーザの脈拍が異常に早いか否かを判断
する。ステップS11でユーザの脈拍が異常に早くなけ
れば、ステップS12へ移行して、ロボットは「寒いで
すか」、「寝ているの」・・・等、ランダムに発声(ま
たは表示)してステップS11へ戻る。
ければ、ステップS13へ移行して、ロボットは入力さ
れた体調情報からユーザの脈拍が異常に遅いか否かを判
断する。ステップS13でユーザの脈拍が異常に遅くな
ければ、ステップS14へ移行して、ロボットは「怒っ
ているの」、「運動しているの」・・・等、ランダムに
発声(または表示)してステップS13へ戻る。
ければ、ステップS15へ移行して、ロボットは入力さ
れた体勢情報からユーザに動きがあるか否かを判断す
る。ステップS15でユーザに動きがなければ、ステッ
プS16へ移行して、ロボットは「苦しいの」、「寝て
いるのかな」・・・等、ランダムに発声(または表示)
してステップS15へ戻る。
トの対応状態例を示す図である。この動作は、図4に示
した対応決定部76が可動部を動かして、図2に示した
スピーカ36を動作させることにより行う。図8Aに示
す救援状態は、負傷したユーザ101に対して、ロボッ
ト100がユーザ101を探して、近づいて、助ける状
態を示している。
ーザ103にロボット103が触れたり激励の言葉を発
声して励ましている状態を示している。
05をロボット104が健康状態を測定しながら看病し
ている状態を示している。
ユーザ107に対してロボット106が逃げたり、頭を
下げて怒りを沈める状態を示している。
トの対応状態の応用例を示す図である。この動作は、図
4に示した対応決定部76が可動部を動かして、図2に
示したスピーカ36を動作させることにより行う。
体障害のユーザ111に対してロボット110が癒しの
言葉を発声して手でユーザをなでる動作をする状態を示
している。
理状態は、子供のユーザ113に対してロボット112
が情操教育し、高齢者のユーザ115に対してロボット
114が管理する状態を示している。
ユーザ117にロボット116が熱があることを知ら
せ、ユーザ119が倒れたのに対してロボット118が
救急連絡をする状態を示している。
ンサー122を装着した幼児のユーザ121の行動をロ
ボット120が管理する状態を示している。
手段として、例えば、無線LAN(Local Are
a Network)を用いて、サーバーとなる情報端
末装置からロボットをコントロールするためのプログラ
ムソフトデータなどのユーザ状態対応情報をダウンロー
ドして、必要とするロボットにインストールすることが
できる。
例えば、IEEE802.11b規格、Blue To
oth規格を用いても良い。
ジネスモデルを示す図である。図10において、病院/
健康管理サービス企業などの配信業者130のサーバ1
31からユーザ状態対応プログラムがインターネット1
32−1を介して情報端末133−1に伝送され、他の
ユーザ状態対応プログラムがインターネット132−2
を介して情報端末133−2に伝送され、さらに他のユ
ーザ状態対応プログラムがインターネット132−3を
介して情報端末133−3に伝送され、各種ユーザ状態
対応プログラムが配信される。また、配信業者130
は、各情報端末133−1〜3に、ユーザ状態対応プロ
グラムが格納されたユーザ状態対応プログラム板状メモ
リを直接配信しても良い。
から家庭内無線LANを介してユーザ状態対応プログラ
ムをロボット134−1に受信させて、本体にダウンロ
ードさせる。他の健康管理事業者は情報端末133−2
から家庭内無線LANを介して他のユーザ状態対応プロ
グラムをロボット134−2に受信させて、本体にダウ
ンロードさせる。さらに他の健康管理事業者は情報端末
133−3から家庭内無線LANを介してさらに他のユ
ーザ状態対応プログラムをロボット134−3に受信さ
せて、本体にダウンロードさせる。また、上述のように
配信されたユーザ状態対応プログラム板状メモリを各ロ
ボット134−1〜3にインストールしても良い。
ボット134−1を用いてユーザ135−1の転倒の状
態に対する救急連絡を行うことができる。また、他の健
康管理事業者はロボット134−2を用いてユーザ13
5−2の怒りの状態に対する避難を行うことができる。
さらに他の健康管理事業者はロボット134−3を用い
てユーザ135−3の病気の状態に対する健康管理を行
うことができる。
者130は、各ユーザ状態対応プログラムの配信時に課
金を行うようにでき、また、健康管理事業者は、ロボッ
ト134−1〜3を用いてユーザ状態対応プログラムの
実行時に課金を行うようにできる。
器との入出力や、プログラム配信業者130のサーバ1
31とのオンライン接続などにより、他の必要なソフト
ウエアのダウンロードを行うことができる。
131から上述したロボットに定期的または更新時にソ
フトウエアを配信することにより、最新のソフトウエア
によるオンライン健康管理システムのビジネスが可能と
なる。
応プログラムのレベルを切り替えることにより、各ユー
ザの重度または軽度の病状に適したロボットによる健康
管理を行うことができる。
〜3に対して、ユーザ状態対応プログラム板状メモリを
介して、またはインターネット132−1〜3を介して
オンラインにより必要なユーザ状態対応プログラムを配
信することにより、ロボット134−1〜3は配信され
たユーザ状態対応プログラムを本体にインストールし
て、または自動的に本体にダウンロードしてユーザに対
する健康管理を更新、継続させることができる。
をユーザ状態対応情報と組み合わせて用いることによ
り、ユーザの自宅にロボットを出張させて健康管理を行
うビジネスシステムを構築することができる。
用いた健康管理ビジネスシステムを構築することができ
る。
ば、所定基本情報を記憶する着脱可能な記憶手段と、基
本情報に基づいて可動部を駆動させる駆動手段と、駆動
手段の動作をフィードバック情報を用いて制御すると共
にフィードバック情報を基本情報に蓄積する制御手段と
を有する情報通信ロボット装置において、外部のユーザ
の状態に対する対応情報を記憶する着脱可能なユーザ状
態対応情報記憶手段と、ユーザとの間でユーザ検出情報
の入力、またはユーザに対してユーザ状態対応情報およ
びフィードバック情報に対応した出力情報の出力を行う
入出力手段と、入出力手段により入力されるユーザ検出
情報の解析を行い、ユーザ状態情報およびユーザ検出情
報に基づいてフィードバック情報の生成、および出力情
報の生成を行う入出力情報生成/解析手段と、を備え、
ユーザに対してユーザ検出情報に対応した出力情報の出
力または可動部の動作を行うので、ユーザが意識的に情
報の入力のための操作を行うことなくユーザの状態にロ
ボットが反応して動作をし、ユーザとの間でより密接な
情報のやりとりをすることができるという効果を奏す
る。
れば、上述において、入出力情報生成/解析手段におい
て入力されるユーザ検出情報のうちの位置検出情報から
ユーザの居所情報を認識し、体勢検出情報からユーザの
行動情報を認識し、感情または体調検出情報からユーザ
の精神または健康情報を認識し、出力情報のうちの発声
情報または可動部の動作を選択する認識手段を有するの
で、従来の入力情報では不可能であった各種ユーザ検出
情報が自動的に入力され、しかも、従来の入力情報では
不可能であった情報のリンクを可能にし、複合的な判断
を行うことにより、ユーザに関する位置情報、精神的ま
たは肉体的状態の情報をロボットが認識して、管理する
ことができるという効果を奏する。
れば、上述において、ユーザ状態対応情報記憶手段によ
り入力されるユーザ状態対応情報の解析を行い、ユーザ
状態対応情報およびユーザ検出情報に基づいてフィード
バック情報の生成、および出力情報の生成を行うユーザ
状態対応情報生成/解析手段を設け、ユーザ検出情報に
対応してユーザ状態対応情報の内容を選択して、ユーザ
状態対応情報生成/解析手段において生成されるフィー
ドバック情報および出力情報を生成する選択手段を有す
るので、ユーザの位置的、精神的または肉体的状態に対
してロボットが異なる内容またはレベルで対応した動作
をすることができるという効果を奏する。
れば、上述において、他の情報通信ロボット装置または
他の情報端末装置との間でユーザ状態対応情報の送信ま
たは受信を行う通信手段を設けたので、ロボット間また
は情報端末とロボット間でユーザ状態対応情報の伝達を
行うことにより、同様の動作または異なる動作を行うロ
ボットを多数設けることができるという効果を奏する。
定基本情報を着脱可能な記憶手段に記憶し、基本情報に
基づいて駆動手段により可動部を駆動させ、制御手段に
より駆動手段の動作をフィードバック情報を用いて制御
すると共にフィードバック情報を基本情報に蓄積する情
報通信ロボット装置を用いた情報通信方法において、外
部のユーザの状態に対する対応情報を着脱可能な記憶媒
体に記憶するユーザ状態対応情報記憶ステップと、ユー
ザとの間でユーザ検出情報の入力、またはユーザに対し
てユーザ状態対応情報およびフィードバック情報に対応
したユーザに対する出力情報の出力を行う入出力ステッ
プと、入力ステップにより入力されるユーザ検出情報の
解析を行い、ユーザ状態対応情報およびユーザ検出情報
に基づいてフィードバック情報の生成、および出力情報
の生成を行う入出力情報生成/解析ステップと、を備
え、ユーザに対してユーザ検出情報に対応した出力情報
の出力または可動部の動作を行うので、ユーザ検出情報
の自動的入力処理により、ユーザが意識的に情報の入力
のための操作を行うことなくユーザの状態にロボットが
反応して動作をし、ユーザとの間でより密接な情報のや
りとりの処理をすることができるという効果を奏する。
述において、ユーザ検出情報の入力は、定期的または変
化を検出した際に行われるので、ユーザが情報入力処理
を意識することなく、ユーザ検出情報の自動的入力処理
を行うことができるという効果を奏する。
述において、入出力情報生成/解析ステップにおいて入
力されるユーザ検出情報のうちの位置検出情報からユー
ザの居所情報を認識して、可動部の動作により居所情報
に基づいてユーザに近接した後に、体勢検出情報からユ
ーザの行動情報を認識し、感情または体調検出情報から
ユーザの精神または健康情報を認識し、出力情報のうち
の発声情報または可動部の動作をするので、まず、位置
情報に基づいてロボットがユーザに近接してからユーザ
の精神的または肉体的状態に対してユーザに発声したり
触れたりする動作をすることができるという効果を奏す
る。
は、所定基本情報を記憶する着脱可能な記憶手段と、基
本情報に基づいて可動部を駆動させる駆動手段と、駆動
手段の動作をフィードバック情報を用いて制御すると共
にフィードバック情報を基本情報に蓄積する制御手段と
を有する情報通信ロボット装置を用いた情報通信ロボッ
トシステムにおいて、外部のユーザの状態に対する対応
情報を通信またはユーザ状態対応情報記憶媒体を介して
任意の情報通信ロボット装置に配信する配信部と、ユー
ザ状態対応情報の受信を行う受信手段と、ユーザ状態対
応情報記憶媒体を着脱可能なユーザ状態対応情報記憶手
段と、ユーザとの間でユーザ検出情報の入力、またはユ
ーザに対してユーザ状態対応情報およびフィードバック
情報に対応した出力情報の出力を行う入出力手段と、入
出力手段により入力されるユーザ検出情報の解析を行
い、ユーザ状態対応情報およびユーザ検出情報に基づい
てフィードバック情報の生成、および上記出力情報の生
成を行う入出力情報生成/解析手段と、を有する複数の
情報通信ロボット装置と、を備え、配信部から配信され
たユーザ状態対応情報を用いて、複数の情報通信ロボッ
ト装置がユーザに対してそれぞれユーザ検出情報に対応
した出力情報の出力または可動部の動作を行うので、プ
ログラム配信業者は要求のあるロボットに対してユーザ
状態対応情報のプログラムを自動的に配信することがで
き、これにより、各健康管理事業者はロボットを用いて
ユーザの状態に対する健康管理を行うことができ、総合
的にロボットを用いた健康管理ビジネスシステムを構築
することができるという効果を奏する。
成図である。
ロック図である。
図である。
であり、図5Aは通信型、図5Bは自判型である。
ローチャートである。
援、図8Bは激励、図8Cは看病、図8Dはへつらいで
ある。
理システムを示す図であり、図9Aはヒーリング、図9
Bは子供と高齢者の情操教育および管理、図9Cは健康
管理および救急連絡、図9Dはヘルパーである。
を示す図である。
ム板状メモリ、3……ロボット、4……I/F、5……
内部状態計算部、6……外部入力部、7……時間入力
部、8……感情と状態のモデル記憶部、9……行動変換
部、10……出力部、11……ユーザ状態対応データ生
成/解析部、12……選択部、13……入出力および通
信データ生成/解析部、14……認識部、60……ユー
ザ、61……リスト型センサー、63……測位センサ
ー、64……加速度センサー、65……血圧/脈拍/体
温センサー、66……通信部、70……ロボット、71
……通信部、72……居所判断部、73……精神状態判
断部、74……健康状態判断部、75……行動状態判断
部、76……対応決定部
Claims (8)
- 【請求項1】 所定基本情報を記憶する着脱可能な記憶
手段と、上記基本情報に基づいて可動部を駆動させる駆
動手段と、上記駆動手段の動作をフィードバック情報を
用いて制御すると共に上記フィードバック情報を上記基
本情報に蓄積する制御手段とを有する情報通信ロボット
装置において、 外部のユーザの状態に対する対応情報を記憶する着脱可
能なユーザ状態対応情報記憶手段と、 ユーザとの間でユーザ検出情報の入力、またはユーザに
対して上記ユーザ状態対応情報および上記フィードバッ
ク情報に対応した出力情報の出力を行う入出力手段と、 上記入出力手段により入力されるユーザ検出情報の解析
を行い、上記ユーザ状態情報および上記ユーザ検出情報
に基づいて上記フィードバック情報の生成、および上記
出力情報の生成を行う入出力情報生成/解析手段と、 を備え、ユーザに対して上記ユーザ検出情報に対応した
出力情報の出力または上記可動部の動作を行うことを特
徴とする情報通信ロボット装置。 - 【請求項2】 請求項1記載の情報通信ロボット装置に
おいて、 上記入出力情報生成/解析手段において入力されるユー
ザ検出情報のうちの位置検出情報からユーザの居所情報
を認識し、体勢検出情報からユーザの行動情報を認識
し、感情または体調検出情報からユーザの精神または健
康情報を認識し、上記出力情報のうちの発声情報または
上記可動部の動作を選択する認識手段を有することを特
徴とする情報通信ロボット装置。 - 【請求項3】 請求項1記載の情報通信ロボット装置に
おいて、 上記ユーザ状態対応情報記憶手段により入力されるユー
ザ状態対応情報の解析を行い、上記ユーザ状態対応情報
および上記ユーザ検出情報に基づいて上記フィードバッ
ク情報の生成、および上記出力情報の生成を行うユーザ
状態対応情報生成/解析手段を設け、 上記ユーザ検出情報に対応して上記ユーザ状態対応情報
の内容を選択して、上記ユーザ状態対応情報生成/解析
手段において生成される上記フィードバック情報および
上記出力情報を生成する選択手段を有することを特徴と
する情報通信ロボット装置。 - 【請求項4】 請求項1記載の情報通信ロボット装置に
おいて、他の情報通信ロボット装置または他の情報端末
装置との間で上記ユーザ状態対応情報の送信または受信
を行う通信手段を設けたことを特徴とする情報通信ロボ
ット装置。 - 【請求項5】 所定基本情報を着脱可能な記憶手段に記
憶し、上記基本情報に基づいて駆動手段により可動部を
駆動させ、制御手段により上記駆動手段の動作をフィー
ドバック情報を用いて制御すると共に上記フィードバッ
ク情報を上記基本情報に蓄積する情報通信ロボット装置
を用いた情報通信方法において、 外部のユーザの状態に対する対応情報を着脱可能な記憶
媒体に記憶するユーザ状態対応情報記憶ステップと、 ユーザとの間でユーザ検出情報の入力、またはユーザに
対して上記ユーザ状態対応情報および上記フィードバッ
ク情報に対応したユーザに対する出力情報の出力を行う
入出力ステップと、 上記入力ステップにより入力されるユーザ検出情報の解
析を行い、上記ユーザ状態対応情報および上記ユーザ検
出情報に基づいて上記フィードバック情報の生成、およ
び上記出力情報の生成を行う入出力情報生成/解析ステ
ップと、 を備え、ユーザに対して上記ユーザ検出情報に対応した
出力情報の出力または上記可動部の動作を行うことを特
徴とする情報通信方法。 - 【請求項6】 請求項5記載の情報通信方法において、 上記ユーザ検出情報の入力は、定期的または変化を検出
した際に行われることを特徴とする情報通信方法。 - 【請求項7】 請求項5記載の情報通信方法において、 上記入出力情報生成/解析ステップにおいて入力される
ユーザ検出情報のうちの位置検出情報からユーザの居所
情報を認識して、上記可動部の動作により上記居所情報
に基づいてユーザに近接した後に、体勢検出情報からユ
ーザの行動情報を認識し、感情または体調検出情報から
ユーザの精神または健康情報を認識し、上記出力情報の
うちの発声情報または上記可動部の動作をすることを特
徴とする情報通信方法。 - 【請求項8】 所定基本情報を記憶する着脱可能な記憶
手段と、上記基本情報に基づいて可動部を駆動させる駆
動手段と、上記駆動手段の動作をフィードバック情報を
用いて制御すると共に上記フィードバック情報を上記基
本情報に蓄積する制御手段とを有する情報通信ロボット
装置を用いた情報通信ロボットシステムにおいて、 外部のユーザの状態に対する対応情報を通信またはユー
ザ状態対応情報記憶媒体を介して任意の情報通信ロボッ
ト装置に配信する配信部と、 上記ユーザ状態対応情報の受信を行う受信手段と、上記
ユーザ状態対応情報記憶媒体を着脱可能なユーザ状態対
応情報記憶手段と、ユーザとの間でユーザ検出情報の入
力、またはユーザに対して上記ユーザ状態対応情報およ
び上記フィードバック情報に対応した出力情報の出力を
行う入出力手段と、上記入出力手段により入力されるユ
ーザ検出情報の解析を行い、上記ユーザ状態対応情報お
よび上記ユーザ検出情報に基づいて上記フィードバック
情報の生成、および上記出力情報の生成を行う入出力情
報生成/解析手段と、を有する複数の情報通信ロボット
装置と、 を備え、上記配信部から配信された上記ユーザ状態対応
情報を用いて、複数の情報通信ロボット装置がユーザに
対してそれぞれ上記ユーザ検出情報に対応した出力情報
の出力または上記可動部の動作を行う情報通信ロボット
システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000059029A JP2001246580A (ja) | 2000-03-03 | 2000-03-03 | 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000059029A JP2001246580A (ja) | 2000-03-03 | 2000-03-03 | 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001246580A true JP2001246580A (ja) | 2001-09-11 |
JP2001246580A5 JP2001246580A5 (ja) | 2007-04-05 |
Family
ID=18579537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000059029A Pending JP2001246580A (ja) | 2000-03-03 | 2000-03-03 | 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001246580A (ja) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005305631A (ja) * | 2004-03-25 | 2005-11-04 | Nec Corp | ロボットおよびその制御方法 |
US7047105B2 (en) | 2001-02-16 | 2006-05-16 | Sanyo Electric Co., Ltd. | Robot controlled by wireless signals |
JP2006205343A (ja) * | 2005-01-31 | 2006-08-10 | Advanced Telecommunication Research Institute International | コミュニケーションロボットシステムおよびロボット制御装置 |
JP2006320621A (ja) * | 2005-05-20 | 2006-11-30 | Sharp Corp | ストレスケア装置およびそれを備えてなる空調装置ならびにロボット装置 |
US7547279B2 (en) | 2002-01-23 | 2009-06-16 | Samsung Electronics Co., Ltd. | System and method for recognizing user's emotional state using short-time monitoring of physiological signals |
US7689322B2 (en) | 2004-06-07 | 2010-03-30 | Sony Corporation | Robot apparatus and method of controlling the motion thereof |
JP2011045460A (ja) * | 2009-08-26 | 2011-03-10 | Tokyo Metropolitan Univ | 見守りロボット、見守り方法、及び見守りプログラム |
JP2011511718A (ja) * | 2008-02-13 | 2011-04-14 | シーグリッド コーポレーション | 分散型マルチロボット・システム |
US8315454B2 (en) | 2004-09-14 | 2012-11-20 | Sony Corporation | Robot apparatus and method of controlling the behavior thereof |
KR101264049B1 (ko) * | 2012-03-30 | 2013-05-21 | 이성종 | 이동통신단말장치의 가상 로봇과 동기화되는 애완 로봇 |
WO2013147360A1 (ko) * | 2012-03-30 | 2013-10-03 | Lee Seongjong | 가상로봇을 포함하는 이동통신단말장치 및 상기 가상로봇과 동기화되는 애완로봇 |
US8755936B2 (en) | 2008-01-28 | 2014-06-17 | Seegrid Corporation | Distributed multi-robot system |
US8838268B2 (en) | 2008-01-28 | 2014-09-16 | Seegrid Corporation | Service robot and method of operating same |
US8892256B2 (en) | 2008-01-28 | 2014-11-18 | Seegrid Corporation | Methods for real-time and near real-time interactions with robots that service a facility |
JP2015515292A (ja) * | 2012-03-07 | 2015-05-28 | ニューロスキー・インコーポレーテッドNeurosky Incorporated | 生体信号制御されるメカニズムのためのモジュール式ユーザ交換可能アクセサリ |
JP2016215292A (ja) * | 2015-05-15 | 2016-12-22 | Kddi株式会社 | ロボット動作生成装置およびプログラム |
WO2017199662A1 (ja) * | 2016-05-20 | 2017-11-23 | Groove X株式会社 | 自律行動型ロボット及びコンピュータプログラム |
JP2018086201A (ja) * | 2016-11-29 | 2018-06-07 | 株式会社メニコン | 健康管理型ペットロボット |
CN108687780A (zh) * | 2018-07-03 | 2018-10-23 | 上海常仁信息科技有限公司 | 生理数据检测的健康机器人 |
DE112017004414T5 (de) | 2016-09-02 | 2019-05-16 | Groove X, Inc. | Autonom handelnder roboter, server und verhaltenssteuerungsprogramm |
CN109895107A (zh) * | 2017-12-07 | 2019-06-18 | 卡西欧计算机株式会社 | 看护机器人、看护方法及记录介质 |
JPWO2020129993A1 (ja) * | 2018-12-17 | 2021-12-02 | Groove X株式会社 | ロボット |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01255097A (ja) * | 1988-04-02 | 1989-10-11 | Japan Maintenance:Kk | 非常事態検出装置 |
JPH0922495A (ja) * | 1995-07-06 | 1997-01-21 | Tooa Syst:Kk | 高齢者向けヘルパーシステム |
JPH10234681A (ja) * | 1997-02-24 | 1998-09-08 | Toshio Fukuda | 介護用ロボットおよび介護システム |
JPH10289006A (ja) * | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | 疑似感情を用いた制御対象の制御方法 |
JPH1158274A (ja) * | 1997-08-22 | 1999-03-02 | Sony Corp | ロボット装置の制御システム及びロボット装置の制御方法 |
JPH11126017A (ja) * | 1997-08-22 | 1999-05-11 | Sony Corp | 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム |
JPH11206721A (ja) * | 1998-01-22 | 1999-08-03 | Sanyo Electric Works Ltd | 携帯形身体異常報知装置 |
WO1999067067A1 (fr) * | 1998-06-23 | 1999-12-29 | Sony Corporation | Robot et systeme de traitement d'information |
-
2000
- 2000-03-03 JP JP2000059029A patent/JP2001246580A/ja active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01255097A (ja) * | 1988-04-02 | 1989-10-11 | Japan Maintenance:Kk | 非常事態検出装置 |
JPH0922495A (ja) * | 1995-07-06 | 1997-01-21 | Tooa Syst:Kk | 高齢者向けヘルパーシステム |
JPH10234681A (ja) * | 1997-02-24 | 1998-09-08 | Toshio Fukuda | 介護用ロボットおよび介護システム |
JPH10289006A (ja) * | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | 疑似感情を用いた制御対象の制御方法 |
JPH1158274A (ja) * | 1997-08-22 | 1999-03-02 | Sony Corp | ロボット装置の制御システム及びロボット装置の制御方法 |
JPH11126017A (ja) * | 1997-08-22 | 1999-05-11 | Sony Corp | 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム |
JPH11206721A (ja) * | 1998-01-22 | 1999-08-03 | Sanyo Electric Works Ltd | 携帯形身体異常報知装置 |
WO1999067067A1 (fr) * | 1998-06-23 | 1999-12-29 | Sony Corporation | Robot et systeme de traitement d'information |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7047105B2 (en) | 2001-02-16 | 2006-05-16 | Sanyo Electric Co., Ltd. | Robot controlled by wireless signals |
US7547279B2 (en) | 2002-01-23 | 2009-06-16 | Samsung Electronics Co., Ltd. | System and method for recognizing user's emotional state using short-time monitoring of physiological signals |
US8376803B2 (en) | 2004-03-25 | 2013-02-19 | Nec Corporation | Child-care robot and a method of controlling the robot |
JP4595436B2 (ja) * | 2004-03-25 | 2010-12-08 | 日本電気株式会社 | ロボット、その制御方法及び制御用プログラム |
JP2005305631A (ja) * | 2004-03-25 | 2005-11-04 | Nec Corp | ロボットおよびその制御方法 |
US7689322B2 (en) | 2004-06-07 | 2010-03-30 | Sony Corporation | Robot apparatus and method of controlling the motion thereof |
US8315454B2 (en) | 2004-09-14 | 2012-11-20 | Sony Corporation | Robot apparatus and method of controlling the behavior thereof |
JP2006205343A (ja) * | 2005-01-31 | 2006-08-10 | Advanced Telecommunication Research Institute International | コミュニケーションロボットシステムおよびロボット制御装置 |
JP4517086B2 (ja) * | 2005-01-31 | 2010-08-04 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボットシステムおよびロボット制御装置 |
JP2006320621A (ja) * | 2005-05-20 | 2006-11-30 | Sharp Corp | ストレスケア装置およびそれを備えてなる空調装置ならびにロボット装置 |
US8755936B2 (en) | 2008-01-28 | 2014-06-17 | Seegrid Corporation | Distributed multi-robot system |
US8892256B2 (en) | 2008-01-28 | 2014-11-18 | Seegrid Corporation | Methods for real-time and near real-time interactions with robots that service a facility |
US8838268B2 (en) | 2008-01-28 | 2014-09-16 | Seegrid Corporation | Service robot and method of operating same |
JP2011511718A (ja) * | 2008-02-13 | 2011-04-14 | シーグリッド コーポレーション | 分散型マルチロボット・システム |
JP2011045460A (ja) * | 2009-08-26 | 2011-03-10 | Tokyo Metropolitan Univ | 見守りロボット、見守り方法、及び見守りプログラム |
JP2015515292A (ja) * | 2012-03-07 | 2015-05-28 | ニューロスキー・インコーポレーテッドNeurosky Incorporated | 生体信号制御されるメカニズムのためのモジュール式ユーザ交換可能アクセサリ |
WO2013147360A1 (ko) * | 2012-03-30 | 2013-10-03 | Lee Seongjong | 가상로봇을 포함하는 이동통신단말장치 및 상기 가상로봇과 동기화되는 애완로봇 |
KR101264049B1 (ko) * | 2012-03-30 | 2013-05-21 | 이성종 | 이동통신단말장치의 가상 로봇과 동기화되는 애완 로봇 |
JP2016215292A (ja) * | 2015-05-15 | 2016-12-22 | Kddi株式会社 | ロボット動作生成装置およびプログラム |
CN109070332A (zh) * | 2016-05-20 | 2018-12-21 | Groove X 株式会社 | 行为自主型机器人以及计算机程序 |
JPWO2017199662A1 (ja) * | 2016-05-20 | 2018-07-05 | Groove X株式会社 | 自律行動型ロボット及びコンピュータプログラム |
WO2017199662A1 (ja) * | 2016-05-20 | 2017-11-23 | Groove X株式会社 | 自律行動型ロボット及びコンピュータプログラム |
GB2564821A (en) * | 2016-05-20 | 2019-01-23 | Groove X Inc | Autonomous action robot and computer program |
DE112017002589T5 (de) | 2016-05-20 | 2019-04-25 | Groove X, Inc. | Autonom handelnder Roboter und Computerprogramm |
US11230014B2 (en) | 2016-05-20 | 2022-01-25 | Groove X, Inc. | Autonomously acting robot and computer program |
DE112017004414T5 (de) | 2016-09-02 | 2019-05-16 | Groove X, Inc. | Autonom handelnder roboter, server und verhaltenssteuerungsprogramm |
JP2018086201A (ja) * | 2016-11-29 | 2018-06-07 | 株式会社メニコン | 健康管理型ペットロボット |
CN109895107A (zh) * | 2017-12-07 | 2019-06-18 | 卡西欧计算机株式会社 | 看护机器人、看护方法及记录介质 |
JP2019101971A (ja) * | 2017-12-07 | 2019-06-24 | カシオ計算機株式会社 | 見守りロボット、見守り方法及びプログラム |
CN109895107B (zh) * | 2017-12-07 | 2022-04-08 | 卡西欧计算机株式会社 | 看护机器人、看护方法及记录介质 |
CN108687780A (zh) * | 2018-07-03 | 2018-10-23 | 上海常仁信息科技有限公司 | 生理数据检测的健康机器人 |
JPWO2020129993A1 (ja) * | 2018-12-17 | 2021-12-02 | Groove X株式会社 | ロボット |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001246580A (ja) | 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム | |
US11382511B2 (en) | Method and system to reduce infrastructure costs with simplified indoor location and reliable communications | |
US20190147721A1 (en) | Personal emergency response system and method for improved signal initiation, transmission, notification/annunciation, and level of performance | |
US7420472B2 (en) | Patient monitoring apparatus | |
US20130150686A1 (en) | Human Care Sentry System | |
JP2002251681A (ja) | 動作検知装置、動作検知システム、異常動作通知システム、ゲームシステム、所定動作の通知方法およびセンタ装置 | |
KR101849955B1 (ko) | 스마트 미러를 활용한 요양 케어시스템 | |
CN106446518B (zh) | 一种社区智能医疗系统 | |
CN107566510B (zh) | 远程医疗诊断服务系统 | |
WO2003077745A1 (en) | Monitoring method and monitoring system for assessing physiological parameters of a subject | |
CN103581456A (zh) | 一种基于android智能健康终端 | |
CA2533014A1 (en) | Health care system, biological information terminal | |
JP2024038108A (ja) | 情報処理装置、見守りシステム、および制御プログラム | |
JP2020089947A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2008009885A (ja) | ナースコールシステム | |
KR101927373B1 (ko) | 거주자 모니터링 방법, 장치 및 시스템 | |
US11107343B2 (en) | System and method of user mobility monitoring | |
JP6880811B2 (ja) | 被監視者監視装置、該方法および該システム | |
JP2009110038A (ja) | 情報提示システム | |
DSouza et al. | IoT based smart sensing wheelchair to assist in healthcare | |
CN216311352U (zh) | 基于智能健康管理设备的健康监测系统 | |
JP6686523B2 (ja) | 被監視者監視装置、該方法および該システム | |
JP6874685B2 (ja) | ケアプラン調整システム及びプログラム | |
JP6740633B2 (ja) | 被監視者監視システムの中央処理装置および中央処理方法、ならびに、前記被監視者監視システム | |
JP2022082634A (ja) | 被監視者監視システムの中央処理装置および中央処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100112 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100831 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101013 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110315 |