JP2004017184A - Robot controlling device - Google Patents

Robot controlling device Download PDF

Info

Publication number
JP2004017184A
JP2004017184A JP2002172512A JP2002172512A JP2004017184A JP 2004017184 A JP2004017184 A JP 2004017184A JP 2002172512 A JP2002172512 A JP 2002172512A JP 2002172512 A JP2002172512 A JP 2002172512A JP 2004017184 A JP2004017184 A JP 2004017184A
Authority
JP
Japan
Prior art keywords
user
information
robot
unit
living information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002172512A
Other languages
Japanese (ja)
Inventor
Yoshihiro Furuyui
古結 義浩
Ryota Hiura
日浦 亮太
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2002172512A priority Critical patent/JP2004017184A/en
Publication of JP2004017184A publication Critical patent/JP2004017184A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a robot controlling device to appropriately support and aid a user by providing living information necessary for the user. <P>SOLUTION: A robot is constructed by providing a robot main body 11 which travels with a camera 17, a microphone 18, a data input part 23, and a calender clock 24 as input means, and also providing a monitor 20, a speaker 21, and a drive part 26, and controlled to travel by a control part 31. The control part 31 is provided with: a data storage means 34 storing living information for the user; a living information processing means 35 selecting necessary living information from living information stored in the data storage part 34 according to a question from the user; and an operation control means 36 controlling drive part according to selected living information of the user. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、室内でユーザの生活を補助・支援するためのロボットを駆動制御するロボット制御装置に関する。
【0002】
【従来の技術】
室内でユーザの生活を補助・支援するためのロボットとしては、例えば、特開平10−234681号公報に開示されたものがある。この公報に開示された「介護用ロボットは、被介護人の外観を映像情報として取得すると共に、音声を音声情報として取得し、この映像情報と音声情報に基づく被介護人情報を送信し、この被介護人情報により被介護人の健康管理を行うものである。
【0003】
【発明が解決しようとする課題】
上述した従来の介護用ロボットは、被介護人の映像情報や音声情報に基づいて被介護人の健康管理を行うものであるが、被介護人は室内での生活の補助や支援を望む場合が多く、介護用ロボットでは被介護人の要望を実行することはできない。例えば、外出準備や帰宅後の補助、食事中の話し相手、入浴時の支援などを果たすことができず、ユーザの生活を十分に補助・支援することができなかった。
【0004】
本発明はこのような問題を解決するものであって、ユーザに必要な生活情報を提供してユーザへの的確な補助・支援を可能としたロボット制御装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
上述の目的を達成するための請求項1の発明のロボット制御装置は、ロボット本体と、該ロボット本体を作動させる作動手段と、ユーザの生活情報を入力する入力手段と、該入力手段により入力されたユーザの生活情報を蓄積するデータ蓄積手段と、ユーザからの質問に応じて前記データ蓄積手段に蓄積された生活情報の中から必要な生活情報を選択する生活情報処理手段と、該生活情報処理手段が選択した生活情報をユーザに提供するように前記作動手段を制御する作動制御手段とを具えたことを特徴とするものである。
【0006】
請求項2の発明のロボット制御装置では、前記入力手段は、少なくともロボットの自己位置に関する情報と、ユーザの位置に関する情報と、ユーザの行動に関する情報とを入力することを特徴としている。
【0007】
請求項3の発明のロボット制御装置では、前記入力手段は、予めユーザの日常的な生活情報を入力する入力機器と、常時ユーザの生活情報を検出する検出機器と、年月日及び時刻を入力するカレンダクロックとを有することを特徴としている。
【0008】
請求項4の発明のロボット制御装置では、前記データ蓄積手段には、入力手段により入力されたユーザの生活情報を少なくとも映像及びキーワードとして記憶することを特徴としている。
【0009】
請求項5の発明のロボット制御装置では、前記生活情報処理手段は、前記データ蓄積手段に蓄積された生活情報の中からユーザの質問に応じた最新の生活情報を選択することを特徴としている。
【0010】
請求項6の発明のロボット制御装置では、前記作動制御手段は前記作動手段を制御することで、前記生活情報処理手段が選択した生活情報を画像及び音声としてユーザに提供することを特徴としている。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて詳細に説明する。
【0012】
図1に本発明の一実施形態に係るロボット制御装置の概略構成、図2に本実施形態のロボットの正面視を示す。
【0013】
本実施形態において、まず、ロボットについて説明する。図2に示すように、ロボット本体11は、頭部12と胸部13と胴部14と左右の腕部15とから構成され、頭部12と腕部15が図示しない駆動機構により回動可能であると共に、胴部14に左右の走行用車輪16が装着され、図示しない駆動機構により操舵及び走行可能となっている。
【0014】
そして、頭部12に2つのカメラ17が装着されると共に、2つのマイクロホン18が装着されている。また、胸部13に人検知センサ19が装着されると共に、その下部にモニタ20が装着され、その両側に左右のスピーカ21が装着されている。更に、胴部14に超音波式障害物センサ22が装着されると共に、レーザ式障害物センサ23が装着されている。
【0015】
次に、このロボットの制御装置について説明する。図1に示すように、制御部31には、前述したカメラ17、マイクロホン18、人検知センサ19、モニタ20、スピーカ21、超音波式障害物センサ22、レーザ式障害物センサ23が接続されている。この場合、カメラ17はユーザや室内を撮影してその撮影画像を制御部31に出力する。マイクロホン18はユーザの音声や電話のベル、呼び鈴、テレビの音などの生活音を取り込み、制御部31に出力する。人検知センサ19は音量・音源方向センサと人の存在や活動量などを検出する焦電型赤外線センサとから構成され、検出結果を制御部31に出力する。モニタ20は必要な生活情報を表示してユーザに見てるためのものであり、スピーカ21はこのモニタ20に表示した情報の説明を行ったり、ユーザと話をしたりするためのものである。超音波式障害物センサ22及びレーザ式障害物センサ23は、ロボット本体11の移動時に前方の障害物を検出して衝突を防止するためのものであり、検出結果を制御部31に出力する。
【0016】
制御部31にはこの他に、データ入力部24とカレンダクロック25と駆動部26が接続されている。データ入力部24は、例えば、コネクタや通信手段などを介して接続された入力機器としてのキーボードである。カレンダクロック25は所定期間にわたるカレンダ及び現在の年月日及び時刻を計時する時計である。駆動部26は、前述した頭部12、腕部15、走行用車輪16の駆動機構を駆動するためのものである。
【0017】
このように制御部31への入力手段としては、予めユーザの日常的な生活情報を入力するを入力する入力機器としてのデータ入力部24と、常時ユーザの生活情報を検出する検出機器としてのカメラ17、マイクロホン18、人検知センサ19、障害物センサ22,23と、年月日及び時刻を入力するカレンダクロック25が設けられている。そして、これらの入力手段により、少なくともロボット本体11の自己位置に関する情報と、ユーザの位置に関する情報と、ユーザの行動に関する情報とが制御部31へ入力するようになっている。
【0018】
そして、この制御部31は、自己位置認識部32とユーザ認識部33とデータ蓄積部34と生活情報処理部35と駆動制御部(作動制御手段)36とを有している。自己位置認識部32は、カメラ17が撮影した画像情報に基づいてロボット本体11の位置や向きを認識するものである。ユーザ認識部33は、カメラ17が撮影した画像情報とマイクロホン18が取り込んだ音声とからユーザ個人の認識を行うと共に、カメラ17と人検知センサ19の検出結果からユーザの位置、向き、姿勢、活動量を認識するものである。
【0019】
データ蓄積部34は、ユーザの生活情報を蓄積するものであり、前述したデータ入力部23がユーザーの生活情報を直接入力することで蓄積可能であると共に、カメラ17、マイクロホン18、人検知センサ19が取得したユーザの各種情報に基づいて生活情報として蓄積可能となっている。具体的には、ユーザの居住する部屋の状況(間取り、家具の配置等)、ユーザの日常の生活リズム(起床、就寝、出勤、帰宅、風呂などの時間等)、ユーザの趣味、健康状態などを事前に、データ入力部23やカメラ17などを用いてデータ蓄積部34に記憶させておく。そして、このデータ蓄積部34はこれらのユーザーの生活情報を少なくとも映像及びキーワード(音声)として記憶している。
【0020】
生活情報処理部35は、入力手段としてのカメラ17、マイクロホン18、人検知センサ19、カレンダクロック25により入力されたユーザの生活情報を処理することで、一つの生活情報を映像とキーワード(音声)と年月日及び時刻をセットとしてデータ蓄積部34に出力して記憶させる。そして、この生活情報処理部35は、ユーザからの質問に応じてデータ蓄積部34に蓄積された生活情報の中から必要な生活情報を選択するものである。即ち、ユーザの生活状況における質問内容(薬の飲み忘れ、物の置き忘れなど)に対応して最新の生活情報を選択する。そして、駆動制御手段36は選択した最新の生活情報に応じて駆動部25を駆動制御し、走行用車輪16の駆動によるロボット本体11の走行、頭部12や腕部15の回動、モニタ20及びスピーカ21を用いた情報の提供並びに会話を実行する。
【0021】
ここで、本実施形態のロボット制御装置による具体的な制御方法を説明する。この場合、前述したように、ユーザの居住する部屋の状況、ユーザの日常の生活リズム、ユーザの趣味、健康状態などを事前にデータ蓄積部34に記憶しておく。図1に示すように、自己位置認識部32は、カメラ17が撮影した室内の画像情報に基づいてロボット本体11の位置や向きを認識する。また、ユーザ認識部33は、カメラ17が撮影したユーザの画像情報とマイクロホン18が取り込んだユーザの音声とに基づいてユーザ個人の認識を行うと共に、カメラ17と人検知センサ19の検出結果からユーザの位置、向き、姿勢、活動量を認識する。
【0022】
生活情報処理部35は、常時ユーザの位置を把握してカメラ17により撮影しており、ユーザの行動を映像、キーワード、年月日及び時刻をセットとしてデータ蓄積部34に蓄積する。例えば、データ蓄積部34にはユーザの常備薬の収納位置が予め記憶されており、ユーザがその常備薬の収納位置に行ったことをカメラ17が撮影し、必要に応じてスピーカ21を用いて薬を飲んだことを確認すると、生活情報処理部35は、ユーザが薬を飲んだ映像と、「くすり」というキーワードと、その年月日及び時刻をセットとしてデータ蓄積部34に蓄積する。
【0023】
また、データ蓄積部34にはユーザが使用する携帯電話の形状が予め記憶されており、ユーザがその携帯電話で話をしたことをカメラ17が撮影し、必要に応じてスピーカ21を用いて携帯電話の使用が終了したことを確認すると、生活情報処理部35は、ユーザが携帯電話を使用した映像及び置いた場所の映像と、「携帯電話」というキーワードと、その年月日及び時刻をセットとしてデータ蓄積部34に蓄積する。
【0024】
そして、ユーザによる「今日は薬を飲んだかな」という質問がマイクロホン18から制御部31に入力すると、生活情報処理部35は、「くすり」というキーワードに基づいてデータ蓄積部34に蓄積された生活情報の中から必要な生活情報、つまり、「くすり」というキーワードとセットで記憶された「ユーザが薬を飲んだ映像」と「年月日及び時刻」を選択する。この場合、生活情報処理部35は最新の生活情報、つまり、ユーザが最後に薬を飲んだデータを選択するものであるが、ユーザの「昨日は薬を飲んだかな」などの質問に対しては、過去に逆上って必要な生活情報を選択する。そして、駆動制御手段36は生活情報処理部35が選択したユーザの生活情報に基づいて駆動部25を駆動制御し、ロボット本体11をユーザの位置まで移動し、モニタ20に「ユーザが薬を飲んだ映像」と「年月日及び時刻」を表示すると共に、スピーカ20により「今日は8時に飲んだ」あるいは「今日は飲んでない」と発声する。
【0025】
また、ユーザによる「携帯電話をどこに置いたかな」という質問がマイクロホン18から制御部31に入力すると、生活情報処理部35は、「携帯電話」というキーワードに基づいてデータ蓄積部34に蓄積された生活情報の中から必要な生活情報、つまり、「携帯電話」というキーワードとセットで記憶された「携帯電話を使用して置いた場所の映像」と「年月日及び時刻」を選択する。そして、駆動制御手段36は生活情報処理部35が選択したユーザの生活情報に基づいて駆動部25を駆動制御し、ロボット本体11をユーザの位置あるいは携帯電話がある位置まで移動し、モニタ20に「携帯電話を使用して置いた場所の映像」と「年月日及び時刻」を表示すると共に、スピーカ20により「ここにある」あるいは「キッチンにある」と発声する。
【0026】
その他、生活情報処理部35は、常時ユーザをカメラ17により撮影しており、ユーザの行動として新聞や雑誌を読んだ映像、訪問者が来た映像、財布を使用して閉まった映像などをキーワード、年月日及び時刻とセットとしてデータ蓄積部34に蓄積しており、ユーザの質問に対してデータ蓄積部34に蓄積された必要な生活情報を提供するようにすればよい。なお、生活情報処理部35は、カメラ17が撮影した映像がユーザのどのような行動を示すものか不明であるときには、スピーカ21を用いてその行動の質問、確認を行うことで適正な生活情報を記憶するようにすることが望ましい。
【0027】
このように本実施形態のロボット制御装置にあっては、走行可能なロボット本体11に、入力手段としてのカメラ17、マイクロホン18、データ入力部23、カレンダクロック24を設けると共に、モニタ20とスピーカ21と駆動部26を設けてロボットを構成し、制御部31により駆動制御可能とし、制御部31に、ユーザの生活情報を蓄積するデータ蓄積手段34と、ユーザからの質問に応じてデータ蓄積部34に蓄積された生活情報の中から必要な生活情報を選択する生活情報処理手段35と、選択したユーザの生活情報に応じて駆動部25を制御する作動制御手段36とを設けている。
【0028】
従って、生活情報処理部35は、カメラ17が撮影した画像情報、マイクロホン18が取り込んだ音声情報、カレンダクロック24の年月日及び時刻情報に基づいてユーザの生活情報を蓄積し、ユーザからの質問に応じてこの蓄積されたユーザの生活情報の中から必要な生活情報を選択し、作動制御手段36はこの生活情報に応じてロボット本体11のモニタ20及びスピーカ21による生活情報の提供を行うこととなり、ユーザへ必要な情報のみを提供することでユーザの的確な補助・支援を行うことができる。
【0029】
なお、上述した実施形態では、入力手段として、カメラ17、マイクロホン18、人検知センサ19、データ入力部24と、カレンダクロック25などを設けたが、ロボット本体とユーザの位置、ユーザの生活情報等を検出できれば、全ての入力手段が必要なものではなく、また、別の入力手段を適用してもよい。また、ロボット本体11の構造も本実施形態に限定されるものではない。
【0030】
【発明の効果】
以上、実施形態において詳細に説明したように請求項1の発明のロボット制御装置によれば、ロボット本体を作動手段により作動可能とし、ユーザの生活情報を入力する入力手段と、入力されたユーザの生活情報を蓄積するデータ蓄積手段と、ユーザからの質問に応じてデータ蓄積手段に蓄積された生活情報の中から必要な生活情報を選択する生活情報処理手段と、選択した必要な生活情報に応じて作動手段を制御する作動制御手段とを設けたので、生活情報処理部はユーザからの質問に応じて必要な生活情報を選択し、この生活情報に応じてロボットを制御することとなり、ユーザに必要な生活情報を適正に提供してユーザへの的確な補助・支援を行うことができる。
【0031】
請求項2の発明のロボット制御装置によれば、入力手段は、少なくともロボットの自己位置に関する情報と、ユーザの位置に関する情報と、ユーザの行動に関する情報とを入力するので、ユーザの生活パターンに応じてロボットを適正に作動制御することができる。
【0032】
請求項3の発明のロボット制御装置によれば、入力手段は、予めユーザの日常的な生活情報を入力する入力機器と、常時ユーザの生活パターンを検出する検出機器と、年月日及び時刻を入力するカレンダクロックとを有するので、ユーザの生活情報を適正に取り込むことができる。
【0033】
請求項4の発明のロボット制御装置によれば、データ蓄積手段には、入力手段により入力されたユーザの生活情報を少なくとも映像及びキーワードとして記憶するので、既存の設備を用いてユーザの生活情報を容易に蓄積することができる。
【0034】
請求項5の発明のロボット制御装置によれば、生活情報処理手段は、データ蓄積手段に蓄積された生活情報の中からユーザの質問に応じた最新の生活情報を選択するので、ユーザに必要な生活情報のみを適正に提供することができる。
【0035】
請求項6の発明のロボット制御装置によれば、作動制御手段は作動手段を制御することで、生活情報処理手段が選択した生活情報を画像及び音声としてユーザに提供するので、ユーザは必要な情報をわかりやすい方法で供給されることとなり、ユーザは適正な補助・支援を受けることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係るロボット制御装置の概略構成図である。
【図2】
本実施形態のロボットの正面図である。
【符号の説明】
11 ロボット本体
16 走行用車輪
17 カメラ(入力手段)
18 マイクロホン(入力手段)
19 人検知センサ(入力手段)
20 モニタ
21 スピーカ
22,23 障害物センサ
24 データ入力部(入力手段)
25 カレンダクロック(入力手段)
26 駆動部(作動手段)
31 制御部
32 自己位置認識部
33 ユーザ認識部
34 データ蓄積部
35 生活情報処理部
36 駆動制御部(作動制御手段)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a robot control device that drives and controls a robot for assisting and supporting a user's life indoors.
[0002]
[Prior art]
As a robot for assisting and supporting a user's life indoors, for example, there is a robot disclosed in Japanese Patent Laid-Open No. Hei 10-234681. The nursing care robot disclosed in this publication acquires the appearance of the care receiver as video information, acquires sound as audio information, and transmits care recipient information based on the video information and audio information. It manages the health of the cared person based on the cared person information.
[0003]
[Problems to be solved by the invention]
The conventional nursing care robot described above manages the health of the cared person based on the video information and audio information of the cared person, but the cared person sometimes desires assistance or support for indoor living. In many cases, a care robot cannot fulfill the needs of a care receiver. For example, it is not possible to provide assistance for preparing to go out or returning home, a partner during a meal, assistance during bathing, and the like, and it has not been possible to sufficiently assist and support a user's life.
[0004]
An object of the present invention is to solve such a problem, and an object of the present invention is to provide a robot control device that provides a user with necessary living information and enables the user to appropriately assist and support.
[0005]
[Means for Solving the Problems]
According to a first aspect of the present invention, there is provided a robot control apparatus, comprising: a robot main body; an operating unit for operating the robot main body; an input unit for inputting life information of a user; Data storage means for storing the life information of the user, living information processing means for selecting necessary life information from the life information stored in the data storage means in response to a question from the user, Operation control means for controlling the operation means so as to provide the user with the lifestyle information selected by the means.
[0006]
According to a second aspect of the present invention, in the robot control device, the input unit inputs at least information relating to the robot's own position, information relating to the position of the user, and information relating to the behavior of the user.
[0007]
In the robot control apparatus according to the third aspect of the present invention, the input means includes an input device for inputting daily life information of the user in advance, a detection device for constantly detecting the life information of the user, and a date and time. And a calendar clock.
[0008]
According to a fourth aspect of the present invention, in the robot control apparatus, the data storage unit stores the user's life information input by the input unit as at least a video and a keyword.
[0009]
According to a fifth aspect of the present invention, in the robot control device, the living information processing unit selects the latest living information according to a user's question from the living information stored in the data storing unit.
[0010]
In the robot control apparatus according to a sixth aspect of the present invention, the operation control unit controls the operation unit to provide the user with life information selected by the life information processing unit as an image and a sound.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0012]
FIG. 1 shows a schematic configuration of a robot control device according to an embodiment of the present invention, and FIG. 2 shows a front view of the robot of the present embodiment.
[0013]
In the present embodiment, first, a robot will be described. As shown in FIG. 2, the robot body 11 includes a head 12, a chest 13, a trunk 14, and left and right arms 15, and the head 12 and the arms 15 can be rotated by a drive mechanism (not shown). At the same time, left and right traveling wheels 16 are mounted on the body 14, and can be steered and run by a drive mechanism (not shown).
[0014]
Then, two cameras 17 are mounted on the head 12 and two microphones 18 are mounted. A human detection sensor 19 is mounted on the chest 13, a monitor 20 is mounted below the human detection sensor 19, and left and right speakers 21 are mounted on both sides thereof. Further, an ultrasonic obstacle sensor 22 is mounted on the body 14 and a laser obstacle sensor 23 is mounted.
[0015]
Next, a control device of the robot will be described. As shown in FIG. 1, the above-described camera 17, microphone 18, human detection sensor 19, monitor 20, speaker 21, ultrasonic obstacle sensor 22, and laser obstacle sensor 23 are connected to the control unit 31. I have. In this case, the camera 17 photographs the user or the room and outputs the photographed image to the control unit 31. The microphone 18 captures a user's voice, a living bell such as a telephone bell, a doorbell, or a TV sound, and outputs it to the control unit 31. The human detection sensor 19 includes a volume / sound source direction sensor and a pyroelectric infrared sensor that detects the presence of a person and the amount of activity, and outputs a detection result to the control unit 31. The monitor 20 is for displaying necessary living information for the user to see, and the speaker 21 is for explaining the information displayed on the monitor 20 and for talking with the user. The ultrasonic obstacle sensor 22 and the laser obstacle sensor 23 are for detecting an obstacle in front of the robot body 11 during movement and preventing collision, and output the detection result to the control unit 31.
[0016]
In addition, a data input unit 24, a calendar clock 25, and a drive unit 26 are connected to the control unit 31. The data input unit 24 is, for example, a keyboard as an input device connected via a connector, a communication unit, or the like. The calendar clock 25 is a clock that measures the calendar over a predetermined period and the current date and time. The drive unit 26 drives the above-described drive mechanism of the head 12, the arm 15, and the traveling wheels 16.
[0017]
As described above, the input means to the control unit 31 includes a data input unit 24 as an input device for inputting daily life information of the user in advance, and a camera as a detection device for constantly detecting the life information of the user. 17, a microphone 18, a human detection sensor 19, obstacle sensors 22 and 23, and a calendar clock 25 for inputting date and time are provided. Then, by these input means, at least information on the self-position of the robot main body 11, information on the position of the user, and information on the action of the user are input to the control unit 31.
[0018]
The control unit 31 includes a self-position recognition unit 32, a user recognition unit 33, a data storage unit 34, a living information processing unit 35, and a drive control unit (operation control unit) 36. The self-position recognition unit 32 recognizes the position and the direction of the robot body 11 based on image information captured by the camera 17. The user recognizing unit 33 performs personal recognition of the user from the image information captured by the camera 17 and the voice captured by the microphone 18, and detects the position, orientation, posture, and activity of the user based on the detection results of the camera 17 and the human detection sensor 19. Recognize the quantity.
[0019]
The data storage unit 34 stores the user's life information. The data storage unit 34 can store the information by directly inputting the user's life information into the data input unit 23, and also stores the camera 17, the microphone 18, and the human detection sensor 19. Can be stored as life information based on various information of the user acquired by the user. Specifically, the situation of the room where the user lives (floor layout, arrangement of furniture, etc.), the daily rhythm of the user's daily life (time such as getting up, going to bed, going to work, going home, taking a bath, etc.), the user's hobbies, health status, etc. Is stored in advance in the data storage unit 34 using the data input unit 23 and the camera 17. The data storage unit 34 stores the life information of these users as at least a video and a keyword (sound).
[0020]
The living information processing unit 35 processes the living information of the user input by the camera 17, the microphone 18, the human detection sensor 19, and the calendar clock 25 as the input means, and converts one living information into a video and a keyword (voice). And the date and time are output as a set to the data storage unit 34 and stored. The living information processing section 35 selects necessary living information from the living information stored in the data storing section 34 in response to a question from the user. That is, the latest life information is selected according to the content of the question in the life situation of the user (for example, forgetting to take a medicine or leaving a thing behind). The drive control means 36 controls the drive of the drive unit 25 in accordance with the selected latest living information, so that the running of the robot body 11 by driving the running wheels 16, the rotation of the head 12 and the arm 15, and the monitor 20 And provide information using the speaker 21 and perform conversation.
[0021]
Here, a specific control method by the robot control device of the present embodiment will be described. In this case, as described above, the state of the room where the user lives, the daily rhythm of the user, the user's hobbies, the health status, and the like are stored in the data storage unit 34 in advance. As shown in FIG. 1, the self-position recognition unit 32 recognizes the position and the direction of the robot main body 11 based on the indoor image information captured by the camera 17. The user recognizing unit 33 recognizes an individual user based on the image information of the user captured by the camera 17 and the voice of the user captured by the microphone 18, and detects the user based on the detection results of the camera 17 and the human detection sensor 19. Recognize the position, orientation, posture, and amount of activity.
[0022]
The life information processing unit 35 constantly captures the position of the user and shoots it with the camera 17, and stores the user's actions in the data storage unit 34 as a set of video, keywords, date and time. For example, the storage position of the user's common medicine is stored in the data storage unit 34 in advance, and the camera 17 takes an image that the user has gone to the common medicine storage position, and uses the speaker 21 to store the medicine as necessary. After confirming that the user has taken the drink, the lifestyle information processing unit 35 stores the video of the user taking the medicine, the keyword “drug”, and the date and time as a set in the data storage unit 34.
[0023]
The shape of the mobile phone used by the user is stored in the data storage unit 34 in advance, and the camera 17 takes an image of the user talking on the mobile phone. After confirming that the use of the telephone has been completed, the lifestyle information processing unit 35 sets the video using the mobile phone and the video of the place where the user has placed the mobile phone, the keyword “mobile phone”, and the date and time. And stored in the data storage unit 34.
[0024]
When the user inputs a question “Did you take the medicine today?” From the microphone 18 to the control unit 31, the life information processing unit 35 outputs the life information stored in the data storage unit 34 based on the keyword “drug”. From the information, necessary life information, that is, “video of user taking medicine” and “year, month, day and time” stored as a keyword and a set of “drug” are selected. In this case, the living information processing unit 35 selects the latest living information, that is, data on which the user took the medicine last. Selects the necessary living information going back in the past. Then, the drive control unit 36 controls the drive of the drive unit 25 based on the life information of the user selected by the life information processing unit 35, moves the robot main body 11 to the position of the user, and displays the message “ And "date and time" are displayed, and the speaker 20 speaks "did today at 8:00" or "did not drink today".
[0025]
When the user inputs a question "Where did the mobile phone be placed?" To the control unit 31 from the microphone 18, the life information processing unit 35 is stored in the data storage unit 34 based on the keyword "mobile phone". From the living information, the necessary living information, that is, “video of the place where the mobile phone is placed” and “date and time” stored with the keyword “mobile phone” and a set are selected. Then, the drive control unit 36 controls the drive of the drive unit 25 based on the life information of the user selected by the life information processing unit 35, moves the robot body 11 to the position of the user or the position where the mobile phone is located, and The “video of the place where the mobile phone is placed” and the “date and time” are displayed, and the speaker 20 speaks “here” or “in the kitchen”.
[0026]
In addition, the life information processing unit 35 constantly shoots the user with the camera 17, and as a user's action, a video reading a newspaper or a magazine, a video coming from a visitor, a video closing using a wallet, or the like is used as a keyword. , Date and time are stored in the data storage unit 34, and the necessary life information stored in the data storage unit 34 may be provided in response to a user's question. When it is not clear what kind of action the video taken by the camera 17 indicates the user, the living information processing unit 35 asks and confirms the action using the speaker 21 to obtain appropriate living information. Is desirably stored.
[0027]
As described above, in the robot control device of the present embodiment, the camera 17, the microphone 18, the data input unit 23, the calendar clock 24 as input means are provided in the movable robot body 11, and the monitor 20 and the speaker 21 are provided. And a drive unit 26 to form a robot, which can be driven and controlled by a control unit 31. The control unit 31 has a data storage unit 34 for storing user's life information, and a data storage unit 34 in response to a question from the user. A living information processing unit 35 for selecting necessary living information from the living information stored in the storage unit, and an operation control unit 36 for controlling the driving unit 25 according to the selected living information of the user are provided.
[0028]
Therefore, the living information processing unit 35 accumulates the living information of the user based on the image information captured by the camera 17, the voice information captured by the microphone 18, and the date and time information of the calendar clock 24. The necessary life information is selected from the stored life information of the user according to the operation information, and the operation control means 36 provides the life information through the monitor 20 and the speaker 21 of the robot body 11 according to the life information. Thus, by providing only necessary information to the user, the user can be properly assisted / supported.
[0029]
In the above-described embodiment, the camera 17, the microphone 18, the human detection sensor 19, the data input unit 24, the calendar clock 25, and the like are provided as input means. If all of the input means can be detected, another input means may be applied. Further, the structure of the robot body 11 is not limited to the present embodiment.
[0030]
【The invention's effect】
As described above in detail in the embodiment, according to the robot control device of the first aspect of the present invention, the robot main body can be operated by the operating unit, the input unit for inputting the life information of the user, and the input user's A data storage unit for storing living information, a living information processing unit for selecting necessary living information from the living information stored in the data storing unit in response to a question from the user, and a living information processing unit for selecting the necessary living information. The living information processing unit selects necessary living information in response to a question from the user, and controls the robot in accordance with the living information. It is possible to appropriately provide necessary living information and provide appropriate assistance and support to the user.
[0031]
According to the robot control device of the second aspect of the present invention, the input means inputs at least information relating to the robot's own position, information relating to the user's position, and information relating to the user's behavior. The robot can be properly operated.
[0032]
According to the robot control apparatus of the third aspect of the invention, the input means includes an input device for inputting daily life information of the user in advance, a detection device for constantly detecting the life pattern of the user, and a date and time. Since there is a calendar clock to be input, it is possible to appropriately capture the user's life information.
[0033]
According to the robot controller of the fourth aspect of the present invention, the data storage means stores at least the user's life information input by the input means as a video and a keyword. Can be easily accumulated.
[0034]
According to the robot control device of the fifth aspect of the invention, the life information processing means selects the latest life information according to the user's question from the life information stored in the data storage means. Only living information can be provided properly.
[0035]
According to the robot control device of the sixth aspect of the present invention, the operation control means controls the operation means to provide the user with the life information selected by the life information processing means as images and sounds. Is supplied in an easy-to-understand manner, and the user can receive appropriate assistance / support.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a robot control device according to an embodiment of the present invention.
FIG. 2
It is a front view of the robot of this embodiment.
[Explanation of symbols]
11 Robot main body 16 Running wheel 17 Camera (input means)
18 microphone (input means)
19 human detection sensor (input means)
Reference Signs List 20 monitor 21 speakers 22, 23 obstacle sensor 24 data input unit (input means)
25 Calendar clock (input means)
26 drive unit (actuation means)
31 control part 32 self-position recognition part 33 user recognition part 34 data storage part 35 life information processing part 36 drive control part (operation control means)

Claims (6)

ロボット本体と、該ロボット本体を作動させる作動手段と、ユーザの生活情報を入力する入力手段と、該入力手段により入力されたユーザの生活情報を蓄積するデータ蓄積手段と、ユーザからの質問に応じて前記データ蓄積手段に蓄積された生活情報の中から必要な生活情報を選択する生活情報処理手段と、該生活情報処理手段が選択した生活情報をユーザに提供するように前記作動手段を制御する作動制御手段とを具えたことを特徴とするロボット制御装置。A robot main body, an operation unit for operating the robot main body, an input unit for inputting user's life information, a data storage unit for storing the user's life information input by the input unit, A living information processing means for selecting necessary living information from the living information stored in the data storing means, and controlling the operating means so as to provide the user with the living information selected by the living information processing means. A robot control device comprising an operation control means. 請求項1において、前記入力手段は、少なくともロボットの自己位置に関する情報と、ユーザの位置に関する情報と、ユーザの行動に関する情報とを入力することを特徴とするロボット制御装置。2. The robot control device according to claim 1, wherein the input unit inputs at least information on a robot's own position, information on a user's position, and information on a user's action. 請求項1において、前記入力手段は、予めユーザの日常的な生活情報を入力する入力機器と、常時ユーザの生活情報を検出する検出機器と、年月日及び時刻を入力するカレンダクロックとを有することを特徴とするロボット制御装置。2. The input device according to claim 1, wherein the input unit includes an input device for inputting daily life information of the user in advance, a detection device for constantly detecting the life information of the user, and a calendar clock for inputting date and time. A robot control device, characterized in that: 請求項1において、前記データ蓄積手段には、入力手段により入力されたユーザの生活情報を少なくとも映像及びキーワードとして記憶することを特徴とするロボット制御装置。2. The robot control device according to claim 1, wherein the data storage unit stores at least a user's life information input by the input unit as a video and a keyword. 請求項1において、前記生活情報処理手段は、前記データ蓄積手段に蓄積された生活情報の中からユーザの質問に応じた最新の生活情報を選択することを特徴とするロボット制御装置。2. The robot control device according to claim 1, wherein the living information processing means selects the latest living information according to a user's question from the living information stored in the data storing means. 請求項1において、前記作動制御手段は前記作動手段を制御することで、前記生活情報処理手段が選択した生活情報を画像及び音声としてユーザに提供することを特徴とするロボット制御装置。2. The robot control device according to claim 1, wherein the operation control unit controls the operation unit to provide the user with life information selected by the life information processing unit as an image and a sound.
JP2002172512A 2002-06-13 2002-06-13 Robot controlling device Withdrawn JP2004017184A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002172512A JP2004017184A (en) 2002-06-13 2002-06-13 Robot controlling device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002172512A JP2004017184A (en) 2002-06-13 2002-06-13 Robot controlling device

Publications (1)

Publication Number Publication Date
JP2004017184A true JP2004017184A (en) 2004-01-22

Family

ID=31172050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002172512A Withdrawn JP2004017184A (en) 2002-06-13 2002-06-13 Robot controlling device

Country Status (1)

Country Link
JP (1) JP2004017184A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018094683A (en) * 2016-12-14 2018-06-21 株式会社メニコン Watching type pet robot
CN112805128A (en) * 2018-08-01 2021-05-14 Lg电子株式会社 Artificial intelligence mobile robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018094683A (en) * 2016-12-14 2018-06-21 株式会社メニコン Watching type pet robot
CN112805128A (en) * 2018-08-01 2021-05-14 Lg电子株式会社 Artificial intelligence mobile robot

Similar Documents

Publication Publication Date Title
JP4512830B2 (en) Communication robot
US20200066414A1 (en) Telehealth systems
JP5688574B2 (en) Robot with tactile display
US10405745B2 (en) Human socializable entity for improving digital health care delivery
JP2009045692A (en) Communication robot and its operating method
JP6291303B2 (en) Communication support robot system
JP7350356B2 (en) personal assistant control system
Hai et al. Remote healthcare for the elderly, patients by tele-presence robot
JP2004034274A (en) Conversation robot and its operation method
JP3930389B2 (en) Motion program generation device and robot during robot utterance
TW200540694A (en) Input device
JP2004017200A (en) Information service robot system
JP7375770B2 (en) Information processing device, information processing method, and program
JP2020089947A (en) Information processing device, information processing method, and program
US7984010B2 (en) Action agenda determining apparatus
JP2007152445A (en) Self-propelled robot
JP2004017185A (en) Robot control device
JP2004017184A (en) Robot controlling device
WO2016031405A1 (en) Device for supporting everyday life of patients with cerebral dysfunction
CN107761884A (en) Detergent of closet control method and device
JP2008155351A (en) Robot
KR20180082777A (en) Communion robot system for senior citizen
US11707694B2 (en) Message delivery apparatus and methods
Arnold et al. Cybernetic funeral systems
JP2019208167A (en) Telepresence system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050906