JP2003340757A - Robot - Google Patents

Robot

Info

Publication number
JP2003340757A
JP2003340757A JP2002150799A JP2002150799A JP2003340757A JP 2003340757 A JP2003340757 A JP 2003340757A JP 2002150799 A JP2002150799 A JP 2002150799A JP 2002150799 A JP2002150799 A JP 2002150799A JP 2003340757 A JP2003340757 A JP 2003340757A
Authority
JP
Japan
Prior art keywords
robot
work
user
questionnaire
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002150799A
Other languages
Japanese (ja)
Inventor
Masahito Takuhara
雅人 宅原
Shintaro Kumano
信太郎 熊野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2002150799A priority Critical patent/JP2003340757A/en
Publication of JP2003340757A publication Critical patent/JP2003340757A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot for acquiring answers to questionnaires from a user after work performed by the robot itself is completed. <P>SOLUTION: An operation unit 10 of this robot controls an output unit 30 so as to output questions of questionnaires stored in a storage unit 50 to a user after the work is completed. An input unit 60 or a sensor 20 acquires answers of the questionnaires of the user to the question of questionnaires, and the storage unit 50 stores the content of the work and the answers of the questionnaires. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、利用者からの命令
を実行するロボットに関し、特に命令された作業を実施
した後にロボットが行なった作業の結果について、ロボ
ット自身が利用者にアンケートを取るロボットに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot that executes a command from a user, and in particular, the robot itself asks the user about the result of the work performed by the robot after performing the commanded work. Regarding

【0002】[0002]

【従来の技術】利用者からの命令に従い作業を行なうロ
ボットが使用されている。このようなロボットは、その
ロボットが持つ機能により、いくつかの作業をすること
ができる。具体的には、障害者の補助を行なうロボット
が、障害者の命令により物を持って来たり、移動の手助
けをしたりすることである。
2. Description of the Related Art A robot is used which works according to a command from a user. Such a robot can perform some tasks depending on the function of the robot. Specifically, a robot that assists a person with a disability brings an object or assists with movement according to a command from the person with a disability.

【0003】ロボットの管理は専門的な知識等を必要と
するため、通常、ロボットを実際に使用する利用者とは
別の管理者によって管理される。管理者は、利用者から
の要求により専門的な立場から、ロボットの改良や設定
変更を行なう。
Since the management of the robot requires specialized knowledge and the like, it is usually managed by a manager other than the user who actually uses the robot. The administrator improves the robot and changes the settings from a professional standpoint according to the request from the user.

【0004】管理者は、ロボットの作業結果について利
用者に意見を聞き、利用者の要求に合うようにロボット
の改良や設定変更を行なうことが好ましい。従来、ロボ
ットを一定期間使用した利用者に対し、管理者がロボッ
トの作業等に対する満足度や感想、要求などのアンケー
トを行なっている。しかし、利用者は、使用から時間が
経過すると、ロボットの具体的な作業毎に、具体的な感
想や要求を記憶していない場合が多い。従って、管理者
が、ロボットの作業からある程度時間が経過した後に、
利用者にロボットの作業結果に関してアンケートを取っ
ても有効な回答を得られない場合がある。
It is preferable that the administrator asks the user about the work result of the robot, and improves or changes the setting of the robot so as to meet the user's request. Conventionally, an administrator surveys users who have used a robot for a certain period of time about satisfaction, impressions, requests, etc. regarding the work of the robot. However, in many cases, the user does not store a specific impression or request for each specific work of the robot after a lapse of time from the use. Therefore, after a certain amount of time has passed from the work of the robot, the administrator
In some cases, a valid questionnaire cannot be obtained even if a questionnaire is given to the user about the work result of the robot.

【0005】さらに利用者の命令によりロボットが行な
う作業は、いくつかの単位動作により構成されている。
しかし、利用者は、ロボットが行なう個々の単位動作を
把握していないため、どのような単位動作が含まれる作
業に対して、問題や不満が発生しているのか理解できな
い。従って、いくつかの作業に対してまとめてアンケー
トを取っても、どの作業のどの単位動作に不満があるか
具体的に回答できない。
Further, the work performed by the robot according to a user's command is composed of several unit operations.
However, since the user does not know the individual unit motions performed by the robot, it is not possible to understand what kind of unit motions the problem or dissatisfaction has occurred. Therefore, even if the questionnaires are collectively collected for some work, it is not possible to concretely answer which unit motion of which work is dissatisfied.

【0006】利用者のロボットの作業に対する要求は、
その作業が具体的であればあるほど、管理者にとって改
良を行ないやすい。ロボットの作業に対して、具体的な
作業に対応した回答が得られるアンケートが望まれる。
ロボットの作業毎に、有効な回答を得らるアンケートを
実施することが望まれる。
[0006] The user's request for the work of the robot is
The more specific the task is, the easier it is for the administrator to make improvements. It is desirable to have a questionnaire on robot work that gives answers that correspond to specific work.
It is desirable to conduct a questionnaire to obtain valid answers for each robot task.

【0007】[0007]

【発明が解決しようとする課題】ロボット自らが行なっ
た作業に対して、作業終了後に利用者からアンケートを
取ることができるロボットを提供する。
[PROBLEMS TO BE SOLVED BY THE INVENTION] Provided is a robot capable of taking a questionnaire from a user after the work is completed by the robot itself.

【0008】[0008]

【課題を解決するための手段】以下に、[発明の実施の
形態]で使用する番号・符号を用いて、課題を解決する
ための手段を説明する。これらの番号・符号は、[特許
請求の範囲]の記載と[発明の実施の形態]の記載との
対応関係を明らかにするために付加されたものである
が、[特許請求の範囲]に記載されている発明の技術的
範囲の解釈に用いてはならない。
[Means for Solving the Problems] Means for solving the problems will be described below with reference to the numbers and symbols used in the embodiments of the present invention. These numbers and signs are added to clarify the correspondence between the description in [Claims] and the description in [Embodiment of the Invention], but in [Claims] It should not be used to interpret the technical scope of the described invention.

【0009】本発明によるロボット(1)は、利用者の
命令により作業を行なう機構と、出力部(30)と、入
力部(60)もしくはセンサ(20)と、記憶部(5
0)と、演算部(10)と、を具備する。本発明による
ロボットの演算部(10)は、作業が完了した後に、利
用者に対し記憶部(50)に記憶されているアンケート
の質問を出力するように出力部(30)を制御し、入力
部(60)もしくはセンサ(20)は、アンケートの質
問に対する利用者のアンケートの回答を取得し、記憶部
(50)は作業の内容とアンケートの回答を関連付けて
記憶する。
The robot (1) according to the present invention has a mechanism for performing work according to a user's command, an output unit (30), an input unit (60) or a sensor (20), and a storage unit (5).
0) and a calculation unit (10). The operation unit (10) of the robot according to the present invention controls and inputs the output unit (30) so as to output the question of the questionnaire stored in the storage unit (50) to the user after the work is completed. The section (60) or the sensor (20) obtains the answer of the user's questionnaire to the question of the questionnaire, and the storage section (50) stores the work content and the answer of the questionnaire in association with each other.

【0010】上記のアンケートの質問は、作業の結果に
対する利用者の満足度、作業結果および作業速度に関す
る要求、不満な点、改善要求内容、感想、意見の少なく
とも一つを含む。
The question of the above questionnaire includes at least one of user's satisfaction with the result of work, request regarding work result and work speed, dissatisfaction point, contents of improvement request, impression and opinion.

【0011】本発明によるアンケート方法は、以下のス
テップを含む。ロボット(1)が行なった作業の結果に
関して、作業の終了後に、ロボット(1)が記憶部(5
0)に記憶された質問を、利用者に対して出力部(3
0)から出力するステップ。ロボット(1)が、質問に
対する利用者の回答を、入力部(60)もしくはセンサ
(20)から取得するステップ。ロボット(1)が、作
業の内容と、アンケートの回答を関連付けて記憶部(5
0)に記憶するステップ。
The questionnaire method according to the present invention includes the following steps. Regarding the result of the work performed by the robot (1), after the work is finished, the robot (1) stores in the storage unit (5).
The question stored in (0) is sent to the output section (3
0) output step. The step in which the robot (1) acquires the user's answer to the question from the input unit (60) or the sensor (20). The robot (1) associates the contents of the work with the answers of the questionnaire, and
Step 0) to store.

【0012】[0012]

【発明の実施の形態】添付図面を参照して、本発明によ
るロボットの実施の形態を以下に説明する。本発明のロ
ボット1は、利用者の命令に従って、移動する、物を持
ってくる、移動の介添えをする、メールを受信するなど
の作業を行なうことができるロボット1に代表される。
さらに、本発明のロボット1は、利用者からの命令によ
り作業を終了したとき、利用者に対して、利用者が作業
に関してよく記憶しているうちに、作業に関してロボッ
ト自らアンケートを取ることができる。アンケートの質
問は、音声による会話形式、モニタへの表示などにより
行なわれる。利用者は、アンケートに対して回答する。
利用者のアンケートに対する回答は、音声による方法、
モニタの表示をタッチして選択する方法、キー入力する
方法などにより行なわれる。ロボット1は、利用者名、
作業内容、実施日時、命令から作業終了までの所要時間
等とアンケートの回答を関連付けて記憶する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of a robot according to the present invention will be described below with reference to the accompanying drawings. The robot 1 of the present invention is typified by the robot 1 that can perform work such as moving, bringing an object, assisting with movement, and receiving mail according to a user's instruction.
Further, when the robot 1 of the present invention finishes the work in response to a command from the user, the robot itself can take a questionnaire for the work while the user well remembers the work. . Questionnaires are asked in a voice conversation format, displayed on a monitor, or the like. The user answers the questionnaire.
The answer to the user's questionnaire is by voice,
It is carried out by a method of touching and selecting a display on the monitor or a method of key input. Robot 1 is the user name,
The contents of the work, the date and time of the work, the time required from the command to the end of the work, etc. are stored in association with the answers to the questionnaire.

【0013】図1にロボット1の、外観の例を示す。図
1に示されるロボット1は、頭部2、胴部3を持ち、カ
メラ21、マイク22、モニタ31、スピーカ32、ア
ーム42、移動機構41、ハンド43、通信装置70等
を具備しているロボット1が例示されている。ロボット
1は、人間の各部に対応した位置に、同様の機能を持つ
センサや出力装置を備えることが、人とのコミュニケー
ションをとる上で好ましい。具体的には、頭部2の人の
目に対応する位置にカメラ21を備え、口の位置にスピ
ーカ32を備え、耳の位置にマイク22を備えることで
ある。また、人間の腕の様に肩および肘に可動部を持
ち、手振りや踊りができること等である。人はロボット
1の顔の部分を見てロボット1に話し掛けるため、ロボ
ット1の顔に相当する位置にカメラ21を備えること
で、対面する人の顔の画像を撮影することができる。人
間に近い構成を持つことで、ロボット1を使用する人
は、ロボット1に親近感を持ち、ロボット1を人と擬制
して扱うようになる。特に、介護に使用されるロボット
1においては、利用者に親近感を持たれ、家族や友人の
ように感じられるロボット1が望まれる。
FIG. 1 shows an example of the appearance of the robot 1. The robot 1 shown in FIG. 1 has a head 2 and a body 3, and includes a camera 21, a microphone 22, a monitor 31, a speaker 32, an arm 42, a moving mechanism 41, a hand 43, a communication device 70, and the like. The robot 1 is illustrated. It is preferable that the robot 1 is provided with a sensor and an output device having the same function at positions corresponding to respective parts of a human in order to communicate with the human. Specifically, the camera 21 is provided at a position corresponding to the human eyes of the head 2, the speaker 32 is provided at the mouth position, and the microphone 22 is provided at the ear position. In addition, it has a movable part on the shoulders and elbows like a human arm, and is capable of waving and dancing. Since the person looks at the face portion of the robot 1 and talks to the robot 1, by providing the camera 21 at a position corresponding to the face of the robot 1, it is possible to take an image of the face of the person who is facing. By having a configuration close to that of a human, a person who uses the robot 1 has a sense of familiarity with the robot 1 and treats the robot 1 as if it were a person. In particular, for the robot 1 used for nursing care, a robot 1 that gives the user a feeling of familiarity and feels like a family or friend is desired.

【0014】図2にロボット1の構成を示す。ロボット
1は、演算装置10、センサ20、出力装置30、動作
装置40、記憶装置50、入力装置60、通信装置70
を具備する。
FIG. 2 shows the configuration of the robot 1. The robot 1 includes a computing device 10, a sensor 20, an output device 30, an operating device 40, a storage device 50, an input device 60, and a communication device 70.
It is equipped with.

【0015】演算装置10は、機能的には中央演算部1
1、センサ情報処理部12、出力装置制御部13、動作
装置制御部14、通信情報処理部17を具備する。演算
装置10の上記各部は機能上の分類であり、装置の構成
は単数もしくは複数のCPUを具備するコンピュータに
代表される。
The arithmetic unit 10 is functionally equivalent to the central arithmetic unit 1.
1, a sensor information processing unit 12, an output device control unit 13, an operation device control unit 14, and a communication information processing unit 17. The above-mentioned respective parts of the arithmetic unit 10 are functional classifications, and the constitution of the unit is represented by a computer having a single or plural CPUs.

【0016】センサ情報処理部12は、センサ20が検
出した情報を処理し、中央演算部11に送信する。セン
サ情報処理部12はセンサ20の種類により、個別に構
成されてもよい。具体的には、カメラ21には画像処理
部が対応し、マイク22には音声処理部が対応する等で
ある。
The sensor information processing unit 12 processes the information detected by the sensor 20 and sends it to the central processing unit 11. The sensor information processing unit 12 may be individually configured depending on the type of the sensor 20. Specifically, the image processing unit corresponds to the camera 21, the voice processing unit corresponds to the microphone 22, and the like.

【0017】出力装置制御部13は、中央演算部11が
決定した出力に関する指令に対応して、出力装置30の
制御を行なう。出力装置制御部13は、出力装置30に
より、個別に構成されてもよい。動作装置制御部14
は、中央演算部11が決定した動作に関する指令に対応
して、動作装置40の制御を行なう。動作装置制御部1
4は、動作装置40の種類により、個別に構成されても
よい。
The output device control unit 13 controls the output device 30 in response to the output command determined by the central processing unit 11. The output device controller 13 may be individually configured by the output device 30. Operating device controller 14
Controls the operating device 40 in response to the operation-related command determined by the central processing unit 11. Operating device controller 1
4 may be individually configured depending on the type of the operating device 40.

【0018】センサ20は、カメラ21、マイク22、
赤外線センサ23、重量感知器24、触覚感知器25、
姿勢感知器26などに代表され、ロボット1に要求され
る機能に合わせ、必要なセンサが、単数または複数選択
されて装着される。
The sensor 20 includes a camera 21, a microphone 22,
Infrared sensor 23, weight sensor 24, tactile sensor 25,
One or a plurality of necessary sensors are selected and mounted according to the function required of the robot 1 as represented by the posture sensor 26 and the like.

【0019】カメラ21はCCDカメラに代表され、ロ
ボット1の移動時に経路上の障害物を検出するための撮
影、人を探索するための撮影などをする。さらに、カメ
ラ21は、ロボット1に命令した利用者の特定をするた
め、画像によるデータを入手する。入手された画像から
顔の特徴量などが抽出されることにより、個人認証が行
なわれる。個人認証の方法は、公知の技術から選択さ
れ、使用されることが可能である。また、ロボット1が
不特定多数の人に使用される場合で、かつ、個人認証が
行なわれない場合でも、利用者の性別などのデータをカ
メラ21で撮影した画像から検知することができる。さ
らに、利用者がロボット1に手話により命令する場合、
利用者の動作を撮影するのに使用される。カメラ21で
撮影された画像は、センサ情報処理部12で画像処理さ
れる。
The camera 21 is typified by a CCD camera, and takes a picture for detecting an obstacle on the route when the robot 1 moves, a picture for searching a person, and the like. Further, the camera 21 obtains image data to identify the user who has instructed the robot 1. The personal authentication is performed by extracting the facial feature amount from the obtained image. The method of personal authentication can be selected from known techniques and used. Further, even when the robot 1 is used by an unspecified number of people and the personal authentication is not performed, the data such as the gender of the user can be detected from the image captured by the camera 21. Furthermore, when the user commands the robot 1 by sign language,
Used to capture user actions. The image captured by the camera 21 is image-processed by the sensor information processing unit 12.

【0020】マイク22は、人の声を含む音声を検出
し、電子メールの音声入力に使用される。また、その他
の命令の音声入力、周辺の情報収集等にも使用される。
ロボット1が自身の作業に対するアンケートの回答を音
声で入手する場合、ロボット1は、利用者の音声による
回答を、マイク22から収集することができる。
The microphone 22 detects voice including human voice and is used for voice input of electronic mail. It is also used for voice input of other commands and information collection in the vicinity.
When the robot 1 obtains the answer of the questionnaire for its own work by voice, the robot 1 can collect the answer by the voice of the user from the microphone 22.

【0021】赤外線センサ23は、2点間の赤外線が切
断されることにより人や物の存在を確認するセンサや、
温度差により人の存在等を検出する赤外線カメラに代表
される。
The infrared sensor 23 is a sensor for confirming the presence of a person or an object by cutting infrared rays between two points,
It is represented by an infrared camera that detects the presence of a person based on the temperature difference.

【0022】重量感知器24は、ロボット1が物を持っ
たときに重さを感知したり、物を持っていることを検出
したりする。触覚感知器25は、物にぶつかったこと
や、持っている物の固さ、もしくは利用者に撫でられ
た、または、叩かれたことを検知する。また、触覚感知
器25は、個人認証のため指紋などを検出する機能を有
することもできる。姿勢感知器26は、ロボット1が自
身の姿勢を感知し、感知結果は移動時などの姿勢制御に
使用される。
The weight sensor 24 senses the weight when the robot 1 holds an object, and detects that the robot 1 holds an object. The tactile sensor 25 detects that the object has been hit, the hardness of the object that it has, or that the user has stroked or hit the object. Further, the tactile sensor 25 can also have a function of detecting a fingerprint or the like for personal authentication. The posture sensor 26 detects the posture of the robot 1 and the detection result is used for posture control during movement.

【0023】出力装置30は、モニタ31、スピーカ3
2、発光部33、印刷部34などに代表され、ロボット
1の機能に合わせ、必要な出力装置が単数または複数選
択されて装着される。
The output device 30 includes a monitor 31 and a speaker 3.
2, a light emitting unit 33, a printing unit 34, etc., and one or more required output devices are selected and mounted according to the function of the robot 1.

【0024】モニタ31は、液晶ディスプレイ等に代表
され、電子メール等の表示を行なう。また、その他の情
報の表示を行なうこともできる。ロボット1は、モニタ
31に質問を表示し、利用者にアンケートの質問をする
ことができる。
The monitor 31 is represented by a liquid crystal display or the like, and displays an electronic mail or the like. Also, other information can be displayed. The robot 1 can display a question on the monitor 31 and ask the user a question for a questionnaire.

【0025】スピーカ32は、音声や音楽を出力する。
スピーカ32は、音声による情報提示やロボット1の会
話に使用される。ロボット1が、音声により利用者にア
ンケートを取る場合、スピーカ32からの音声出力によ
り質問をすることができる。
The speaker 32 outputs voice and music.
The speaker 32 is used for information presentation by voice and conversation of the robot 1. When the robot 1 takes a questionnaire to the user by voice, it is possible to ask a question by voice output from the speaker 32.

【0026】発光部33は、ロボット1の顔に当たる部
分に設置されるLEDなどに代表される。ロボット1の
情況等を示すことができる。
The light emitting unit 33 is represented by an LED or the like installed in a portion of the robot 1 that touches the face. The situation of the robot 1 can be shown.

【0027】印刷部34は、アンケート結果等を印刷す
ることができる。
The printing unit 34 can print the questionnaire results and the like.

【0028】動作装置40は、移動機構41、アーム4
2、ハンド43、本体・首の動作機構44に代表され、
ロボット1の機能に合わせ、必要な動作装置が単数また
は複数選択されて装着される。
The operating device 40 includes a moving mechanism 41 and an arm 4.
2, represented by the hand 43, the body / neck operation mechanism 44,
Depending on the function of the robot 1, one or more necessary operating devices are selected and mounted.

【0029】移動機構41は、ロボット1が移動するた
めの機構で、2足歩行用脚、4足歩行用脚、その他の移
動用脚、車輪、クローラ等に代表され、ロボット1が移
動する場所や移動スピードに合わせて選択される。移動
機構41は、利用者の命令により作業をする場合に使用
される。
The moving mechanism 41 is a mechanism for moving the robot 1, and is represented by a bipedal leg, a quadrupedal leg, other moving legs, wheels, crawlers, etc., and is a place where the robot 1 moves. And selected according to the moving speed. The moving mechanism 41 is used when working according to a user's instruction.

【0030】アーム42は、人の腕に相当する機能を有
し、ロボット1の本体に可動的に取り付けられ、アーム
42の先端にハンド43が取り付けられる。アーム42
は、利用者の命令に応答して作業をする場合に使用され
る。ハンド43は、アーム42の先に取り付けられ、物
を掴む機能を有する。アーム42とハンド43により、
物を把持することができる。ハンド43も、利用者の命
令に応答して作業をする場合に使用される。
The arm 42 has a function equivalent to a human arm, is movably attached to the main body of the robot 1, and the hand 43 is attached to the tip of the arm 42. Arm 42
Is used when working in response to user commands. The hand 43 is attached to the tip of the arm 42 and has a function of grasping an object. With the arm 42 and the hand 43,
Can hold objects. The hand 43 is also used when working in response to a command from the user.

【0031】本体・首の動作機構44は、本体・首を振
ったり、回したりする機構で、方向転換、会話している
人の方へ向きの変更、センサ20の向き変更のために使
用される。
The main body / neck operating mechanism 44 is a mechanism for swinging and rotating the main body / neck, and is used for changing the direction, changing the direction to the person having a conversation, and changing the direction of the sensor 20. It

【0032】記憶装置50は、動作履歴51、通信情報
52、地図/領域情報53、個人認証データ54、物デ
ータ56、などのデータから、ロボット1に要求される
機能に合わせ、必要なデータを記憶している。
The storage device 50 stores necessary data from the data such as the operation history 51, the communication information 52, the map / area information 53, the personal authentication data 54, the object data 56, etc., in accordance with the function required of the robot 1. I remember.

【0033】動作履歴51は、ロボット1が行なった動
作を時間毎に記録したデータである。動作履歴により行
動パターンやルーチンの行動を認識し、効率よい行動パ
ターンを学習することに利用できる。ロボットが作業毎
に利用者に行なうアンケート結果は、動作履歴51と関
連付けられて、記憶装置50に記憶される。動作履歴5
1には、作業内容、作業を行なうためにする個々の動作
である単位動作の内容(以下、単位動作内容)、作業に
要した時間(命令を受けた時間、作業完了時間)、利用
者名、単位動作毎に要した時間、エラーの有無、エラー
内容などが含まれる。上記単位動作とは、物を取ってく
る命令の場合に、移動、物の発見、物の把持等の個別の
動作である。
The operation history 51 is data in which the operation performed by the robot 1 is recorded every time. It can be used for recognizing action patterns and routine actions from the action history and learning efficient action patterns. The result of the questionnaire conducted by the robot for each user for each work is stored in the storage device 50 in association with the operation history 51. Operation history 5
1, the content of the work, the content of the unit operation that is an individual operation for performing the work (hereinafter, the unit operation content), the time required for the work (the time when the command is received, the work completion time), the user name The time required for each unit operation, the presence / absence of an error, the error content, etc. are included. The unit operation is an individual operation such as moving, finding an object, or gripping an object in the case of an instruction to fetch the object.

【0034】通信情報52は、通信のために必要な情報
で、電子メールなどの受信履歴および内容、通信する人
のメールアドレス、メールサーバ情報、アドレス帖など
の通信に関する情報を含む。地図/領域情報53は、ロ
ボット1が移動するエリアの地図情報、特定の人に関連
付けられた場所、物の位置、障害物情報などの情報を含
む。地図/領域情報53は、ロボット1が移動したとき
に入手した情報により、順次更新されることが好まし
い。
The communication information 52 is information necessary for communication, and includes reception history and contents of electronic mails, mail addresses of communicating people, mail server information, address book, and other communication-related information. The map / area information 53 includes information such as map information of an area where the robot 1 moves, a location associated with a specific person, a position of an object, and obstacle information. It is preferable that the map / region information 53 be sequentially updated with the information obtained when the robot 1 moved.

【0035】個人認証データ54は、個人認証に使用さ
れるデータである。具体的には顔、指紋、手形、虹彩、
声紋、体型(骨格)などの特徴量、もしくは、暗証番
号、IDカード等に記憶された磁気もしくは電気的な情
報などのIDデータと、個人名を関連付ける情報を含
む。個人認証は、中央演算部11が、個人認証データ5
4と、センサ20または入力装置で入手した特徴量やI
Dデータを基に行なう。使用される特徴量等の種類は、
単数、もしくはいずれかの組合せによる。個人認証は、
ロボット1が特定の人にのみ使用される場合に、利用者
を特定するために使用される場合がある。また、個人認
証は、アンケートを取った人を特定するために行われる
場合がある。
The personal authentication data 54 is data used for personal authentication. Specifically, face, fingerprint, handprint, iris,
It includes information that associates a personal name with a feature amount such as a voiceprint or body type (skeleton), or ID data such as a personal identification number or magnetic or electrical information stored in an ID card or the like. For personal authentication, the central processing unit 11 uses the personal authentication data 5
4 and the feature amount or I acquired by the sensor 20 or the input device
Perform based on D data. The types of features used are
By singular or any combination. Personal authentication is
When the robot 1 is used only by a specific person, it may be used to specify the user. In addition, personal authentication may be performed to identify the person who took the questionnaire.

【0036】物データ56は、ロボット1が担当するエ
リアにある物の情報と、その位置、形、色、大きさ、重
さもしくはその物と同等品が関連付けられている。物デ
ータ56は、ロボット1が物を探す作業などに使用され
る。
The object data 56 is associated with information on an object in the area which the robot 1 is in charge of, and its position, shape, color, size, weight, or an equivalent item. The object data 56 is used for the task of the robot 1 searching for an object or the like.

【0037】入力装置60は、スイッチ61、キー6
2、カード読取装置63に代表され、移動ロボットの機
能に合わせ、必要な入力装置が単数または複数選択され
て装着される。
The input device 60 includes a switch 61 and a key 6
2. A single or a plurality of necessary input devices are selected and mounted according to the function of the mobile robot, as represented by the card reading device 63.

【0038】スイッチ61は、電源や各種設定などを入
力するスイッチである。複数のキー62がキーボード等
を形成し、暗証番号の入力や各種設定、命令を入力する
ことができる。また、利用者は、キー62で電子メール
の入力をすること等ができる。利用者は、ロボット1か
らのアンケートの質問に対し、キー62を使用して回答
を入力することもできる。カード読取装置63は、個人
認証時に、IDカードの磁気や電気的信号を読み取るた
めに使用される場合がある。
The switch 61 is a switch for inputting a power source and various settings. A plurality of keys 62 form a keyboard or the like, and can input a personal identification number, various settings, and commands. Further, the user can input an e-mail with the key 62. The user can also input an answer to the question of the questionnaire from the robot 1 using the key 62. The card reading device 63 may be used for reading the magnetic or electrical signals of the ID card during personal authentication.

【0039】通信装置70は、送受信部71を具備し、
インターネットやイントラネットを通じて、電子メール
等の情報を送受信できる。ロボット1が移動するため通
信は、無線通信であることが好ましい。無線通信できな
い場合でも、ロボット1は通常待機中は、特定の端子を
ネットワークに接続しておき、移動するときは、接続を
切り離すように構成することもできる。アンケート結果
を管理者に通信装置70により送付することもできる。
通信装置70で、アンケートの結果を、管理者に送信す
ることもできる。
The communication device 70 comprises a transmitter / receiver 71,
Information such as e-mail can be sent and received through the Internet and Intranet. Since the robot 1 moves, the communication is preferably wireless communication. Even when wireless communication is not possible, the robot 1 can be configured to connect a specific terminal to the network during normal standby and disconnect the connection when moving. The questionnaire result can be sent to the administrator by the communication device 70.
The communication device 70 can also send the result of the questionnaire to the administrator.

【0040】(動作の説明)図3を参照して、ロボット
1の動作が説明される。利用者が、ロボット1に作業命
令を行なう(S1)。利用者による命令は、声による命
令、キー入力による命令、動作(手話など)による命令
が可能である。
(Description of Operation) The operation of the robot 1 will be described with reference to FIG. The user gives a work command to the robot 1 (S1). The command by the user can be a command by voice, a command by key input, or a command by action (such as sign language).

【0041】ロボット1は、命令により作業を実施する
(S2)。ロボット1は、作業完了後、直ちに作業結果
に対して利用者にアンケートを取る(S3)。アンケー
トは、質問をモニタ31に表示する、または、スピーカ
32からの音声により質問する等の手段により行なわれ
る。アンケート内容は作業に対して事前に準備され、記
憶装置50に記憶されている。また、回答内容に応じて
質問項目を変更することもできる。具体的には、利用者
がある作業に対して不満と回答した場合、不満な点を具
体的に質問するなどである。質問内容は、作業の結果に
対する利用者の満足度、作業結果および作業スピードに
関する要求、不満な点、改善要求内容、感想、意見の少
なくとも一つを含む。
The robot 1 carries out the work according to the command (S2). After completing the work, the robot 1 immediately sends a questionnaire to the user about the work result (S3). The questionnaire is performed by means of displaying a question on the monitor 31 or asking a question by voice from the speaker 32. The questionnaire content is prepared in advance for the work and stored in the storage device 50. Also, the question item can be changed according to the content of the answer. Specifically, when the user replies dissatisfaction with a certain work, the dissatisfaction point is specifically asked. The content of the question includes at least one of user's satisfaction with the work result, request regarding work result and work speed, dissatisfaction point, improvement request content, impression, and opinion.

【0042】利用者は、ロボット1からのアンケートに
対して回答する(S4)。回答は、声による回答、キー
62入力による回答、動作(手話を含む)による回答の
いずれかの方法により行なわれる。
The user answers the questionnaire from the robot 1 (S4). The answer is given by one of a voice reply, a key 62 input, and an action (including sign language) reply.

【0043】利用者の回答は、ロボット1のマイク2
2、キー62、カメラ21等のセンサ20や入力装置6
0によりロボット1に入力される。入力された回答は、
ロボット1の作業と関連付けられて記憶装置50に記録
される(S5)。
The answer from the user is the microphone 2 of the robot 1.
2, a key 62, a sensor 20 such as a camera 21 and an input device 6
It is input to the robot 1 by 0. The entered answer is
It is recorded in the storage device 50 in association with the work of the robot 1 (S5).

【0044】記憶された回答は、いくつかのアンケート
が終了した時に、演算装置10で作業毎、単位動作毎等
に集計される(S6)。一定期間後、管理者が、アンケ
ート結果を回収する(S7)。回収は、管理者がネット
ワークなどを通じてロボット1にアクセスし、通信装置
71から送信することにより行なうこともできる。管理
者は、利用者の回答結果を分析し、利用者の要求に合う
様にロボット1の改良や設定変更を行なうことができ
る。
The stored answers are totaled for each work, each unit operation, etc. in the arithmetic unit 10 when some questionnaires are completed (S6). After a certain period of time, the administrator collects the questionnaire results (S7). The collection can also be performed by the administrator accessing the robot 1 through a network or the like and transmitting it from the communication device 71. The administrator can analyze the answer result of the user and improve the robot 1 or change the setting so as to meet the user's request.

【0045】このように、ロボット1の作業終了後、ロ
ボット1自身が直ちに利用者に作業結果に対してアンケ
ートを取ることにより、利用者は、ロボット1の作業内
容を忘れないで回答することができる。また、利用者が
ロボット1の動作内容や細かい単位動作を理解していな
くても、ロボット1は回答と作業とを関連付けて記録す
ることができる。これにより、管理者は、収集した回答
とロボットの作業および単位動作を、データマイニング
などで処理し、どんな単位動作を含む場合に、利用者が
不満等を感じているか分析することができる。
In this way, after the work of the robot 1 is completed, the robot 1 itself immediately gives a questionnaire to the user about the work result, so that the user can reply without forgetting the work content of the robot 1. it can. Further, even if the user does not understand the operation content and the detailed unit operation of the robot 1, the robot 1 can record the response and the work in association with each other. With this, the administrator can process the collected answers, the work of the robot, and the unit operation by data mining or the like, and analyze what kind of unit operation the user feels dissatisfied with.

【0046】[0046]

【発明の効果】本発明のロボットは、自らが行なった作
業結果に対して、作業終了後に利用者からアンケートを
取ることができる。
The robot of the present invention can take a questionnaire from the user after the work is completed for the result of the work performed by the robot.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1は本発明のロボットの外観の例を示す。FIG. 1 shows an example of the appearance of a robot of the present invention.

【図2】図2は本発明のロボットの構成を示す。FIG. 2 shows the configuration of the robot of the present invention.

【図3】図3は本発明のロボットがアンケートを取るフ
ローを示す。
FIG. 3 shows a flow of taking a questionnaire by the robot of the present invention.

【符号の説明】[Explanation of symbols]

1 ロボット 2 頭部 3 胴部 10 演算装置 11 中央演算部 12 センサ情報処理部 13 出力装置制御部 14 動作装置制御部 17 通信情報処理部 20 センサ 21 カメラ 22 マイク 23 赤外線センサ 24 重量感知器 25 触覚感知器 26 姿勢感知器 30 出力装置 31 モニタ 32 スピーカ 33 発光部 34 印刷部 40 動作装置 41 移動機構 42 アーム 43 ハンド 44 本体/首動作機構 50 記憶装置 51 動作履歴 52 通信情報 53 地図/領域情報 54 個人認証データ 56 物データ 60 入力装置 61 スイッチ 62 キー 70 通信装置 71 送受信部 1 robot 2 heads 3 torso 10 arithmetic unit 11 Central processing unit 12 Sensor information processing unit 13 Output device controller 14 Operating device controller 17 Communication information processing unit 20 sensors 21 camera 22 microphone 23 Infrared sensor 24 Weight sensor 25 Tactile sensor 26 Posture sensor 30 Output device 31 monitor 32 speakers 33 Light emitting part 34 Printing Department 40 motion device 41 Moving mechanism 42 arms 43 hands 44 body / neck movement mechanism 50 storage 51 Operation history 52 Communication information 53 Map / area information 54 Personal authentication data 56 physical data 60 input device 61 switch 62 key 70 Communication device 71 Transmitter / receiver

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3C007 AS34 AS35 AS36 CS08 KS39 KT01 WA03 WA13 WA16 WC07 WC11    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 3C007 AS34 AS35 AS36 CS08 KS39                       KT01 WA03 WA13 WA16 WC07                       WC11

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】利用者の命令により作業を行なう機構と、 出力部と、 入力部もしくはセンサと、 記憶部と、 演算部と、を具備し、 前記演算部は、前記機構により前記作業が完了した後
に、前記利用者に対し前記記憶部に記憶されているアン
ケートの質問を出力するように前記出力部を制御し、 前記入力部もしくは前記センサは、前記アンケートの質
問に対する前記利用者のアンケートの回答を取得し、 前記記憶部は、前記作業の内容と前記アンケートの回答
を関連付けて記憶する、 ロボット。
1. A mechanism for performing work according to a user's command, an output unit, an input unit or a sensor, a storage unit, and a calculation unit, wherein the calculation unit completes the work. After that, the output unit is controlled so as to output the question of the questionnaire stored in the storage unit to the user, the input unit or the sensor, of the questionnaire of the user for the question of the questionnaire. A robot that obtains an answer, and the storage unit stores the content of the work and the answer of the questionnaire in association with each other.
【請求項2】前記アンケートの質問は、前記作業の結果
に対する前記利用者の満足度、作業結果および作業速度
に関する要求、不満な点、改善要求内容、感想、意見の
少なくとも一つを含む請求項1に記載されたロボット。
2. The question of the questionnaire includes at least one of satisfaction of the user with respect to the result of the work, request regarding work result and work speed, dissatisfaction point, content of improvement request, impression, opinion. The robot described in 1.
【請求項3】ロボットが行なった作業の結果に関して、 前記ロボットが、前記作業の終了後に、記憶部に記憶さ
れた質問を、利用者に対して出力部から出力するステッ
プと、 前記ロボットが、前記質問に対する前記利用者の回答
を、入力部もしくはセンサから取得するステップと、 前記ロボットが、前記作業の内容と、前記回答を関連付
けて前記記憶部に記憶するステップを含む、アンケート
方法。
3. Regarding the result of the work performed by the robot, the robot outputs the question stored in the storage unit to the user from the output unit after the work is finished, the robot comprising: A questionnaire method comprising: a step of acquiring the user's answer to the question from an input unit or a sensor; and a step of the robot storing the work content and the answer in the storage unit in association with each other.
JP2002150799A 2002-05-24 2002-05-24 Robot Withdrawn JP2003340757A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002150799A JP2003340757A (en) 2002-05-24 2002-05-24 Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002150799A JP2003340757A (en) 2002-05-24 2002-05-24 Robot

Publications (1)

Publication Number Publication Date
JP2003340757A true JP2003340757A (en) 2003-12-02

Family

ID=29768565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002150799A Withdrawn JP2003340757A (en) 2002-05-24 2002-05-24 Robot

Country Status (1)

Country Link
JP (1) JP2003340757A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006007341A (en) * 2004-06-23 2006-01-12 Mitsubishi Heavy Ind Ltd Communication method, robot task executing method and system
JP2006106919A (en) * 2004-10-01 2006-04-20 Honda Motor Co Ltd Robot controller
JP2007115275A (en) * 2007-01-12 2007-05-10 Nippon Telegr & Teleph Corp <Ntt> Robot control system
JP2008003807A (en) * 2006-06-21 2008-01-10 Nippon Telegr & Teleph Corp <Ntt> Robot control device, method, and program
JP2011045460A (en) * 2009-08-26 2011-03-10 Tokyo Metropolitan Univ Watching robot, watching method, and watching program
CN109033179A (en) * 2018-02-27 2018-12-18 深圳狗尾草智能科技有限公司 Based on the return information generation method of robot emotion state, device
CN109896365A (en) * 2017-12-11 2019-06-18 株式会社日立大厦系统 Guidance system
WO2020066154A1 (en) * 2018-09-25 2020-04-02 ソニー株式会社 Information processing device, information processing method, computer program, and dialogue system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006007341A (en) * 2004-06-23 2006-01-12 Mitsubishi Heavy Ind Ltd Communication method, robot task executing method and system
JP2006106919A (en) * 2004-10-01 2006-04-20 Honda Motor Co Ltd Robot controller
JP2008003807A (en) * 2006-06-21 2008-01-10 Nippon Telegr & Teleph Corp <Ntt> Robot control device, method, and program
JP2007115275A (en) * 2007-01-12 2007-05-10 Nippon Telegr & Teleph Corp <Ntt> Robot control system
JP4490448B2 (en) * 2007-01-12 2010-06-23 日本電信電話株式会社 Robot control system
JP2011045460A (en) * 2009-08-26 2011-03-10 Tokyo Metropolitan Univ Watching robot, watching method, and watching program
CN109896365A (en) * 2017-12-11 2019-06-18 株式会社日立大厦系统 Guidance system
CN109896365B (en) * 2017-12-11 2021-06-08 株式会社日立大厦系统 Guidance system
CN109033179A (en) * 2018-02-27 2018-12-18 深圳狗尾草智能科技有限公司 Based on the return information generation method of robot emotion state, device
CN109033179B (en) * 2018-02-27 2022-07-29 深圳狗尾草智能科技有限公司 Reply information generation method and device based on emotional state of robot
WO2020066154A1 (en) * 2018-09-25 2020-04-02 ソニー株式会社 Information processing device, information processing method, computer program, and dialogue system

Similar Documents

Publication Publication Date Title
US11567573B2 (en) Neuromuscular text entry, writing and drawing in augmented reality systems
US20200097081A1 (en) Neuromuscular control of an augmented reality system
US10970936B2 (en) Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
WO2021046267A1 (en) Systems, methods, and interfaces for performing inputs based on neuromuscular control
WO2020069181A1 (en) Neuromuscular control of physical objects in an environment
CN106445168A (en) Intelligent gloves and using method thereof
JP2005202653A (en) Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
JP2021506052A (en) Communication methods and systems
CN110995812A (en) Cross-platform artificial intelligence assistant system application scheme
WO2023124026A1 (en) Robot control method and system, computer device, storage medium and computer program product
JP2003340757A (en) Robot
Pomboza-Junez et al. Toward the gestural interface: comparative analysis between touch user interfaces versus gesture-based user interfaces on mobile devices
JP7155613B2 (en) Information processing device and program
CN106598233A (en) Input method and input system based on gesture recognition
CN110519517A (en) Copy bootstrap technique, electronic equipment and computer readable storage medium
JP2003339796A (en) Robot for nursing care
CN115225682B (en) Management server, remote operation system, remote operation method, and storage medium
TWI836406B (en) Method for the non-contact triggering of buttons
JP7390891B2 (en) Client device, server, program, and information processing method
US20240112492A1 (en) Curl diagnosis system, apparatus, and method
JP2003340762A (en) Robot and robot system
US20240108280A1 (en) Systems, device, and methods for curly hair assessment and personalization
US20240112491A1 (en) Crowdsourcing systems, device, and methods for curly hair characterization
JP2001051726A (en) Machine controller corresponding to character
JP2019053706A (en) Body information analyzer and facial shape diagnostic method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802