JP5850560B2 - Remote control robot - Google Patents

Remote control robot Download PDF

Info

Publication number
JP5850560B2
JP5850560B2 JP2011159729A JP2011159729A JP5850560B2 JP 5850560 B2 JP5850560 B2 JP 5850560B2 JP 2011159729 A JP2011159729 A JP 2011159729A JP 2011159729 A JP2011159729 A JP 2011159729A JP 5850560 B2 JP5850560 B2 JP 5850560B2
Authority
JP
Japan
Prior art keywords
robot
mouth
operator
eye
remote control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011159729A
Other languages
Japanese (ja)
Other versions
JP2012040679A (en
Inventor
石黒 浩
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
ATR Advanced Telecommunications Research Institute International
Original Assignee
Osaka University NUC
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, ATR Advanced Telecommunications Research Institute International filed Critical Osaka University NUC
Priority to JP2011159729A priority Critical patent/JP5850560B2/en
Publication of JP2012040679A publication Critical patent/JP2012040679A/en
Application granted granted Critical
Publication of JP5850560B2 publication Critical patent/JP5850560B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明は、遠隔操作ロボットに関し、特にたとえば、インタネットなどを利用して遠隔場所に存在する人間と音声をやり取りできる、遠隔操作ロボットに関する。   The present invention relates to a remote control robot, and more particularly to a remote control robot capable of exchanging voices with a human being located at a remote location using the Internet or the like.

この種の遠隔操作ロボットの一例として、たとえば、非特許文献1において本件発明者が提案した、「アンドロイド」と称する、外観(姿形)が人間に酷似した遠隔操作ロボットがあり、このアンドロイドは、たとえば特許文献1に示すような遠隔操作によって、人間に類似したしぐさ動作を行うことができる。   As an example of this type of remote control robot, for example, there is a remote control robot called “Android” proposed by the present inventor in Non-Patent Document 1 and having an appearance (appearance) very similar to a human. For example, a gesture operation similar to a human can be performed by remote control as shown in Patent Document 1.

このような遠隔操作ロボットは、その容姿を写した人間(操作者)の代役として適宜場所に置かれる。その状態で、特許文献1のようなシステムを構成し、遠隔場所に存在する操作者の指示に従って、もしくは遠隔操作者の動作を示す動作データに従って、内蔵しているロボット機構が作動して、遠隔操作者の示す動作(振る舞い)を行う。   Such a remote control robot is appropriately placed at a place as a substitute for a human (operator) showing its appearance. In that state, the system as in Patent Document 1 is configured, and the built-in robot mechanism is operated in accordance with an instruction from an operator existing at a remote location or according to operation data indicating the operation of the remote operator. Performs the action (behavior) indicated by the operator.

特許文献1の遠隔操作ロボットでは、その場所に存在しない操作者(人間)があたかもその場所に居るかのような実在感を与えることが発明者の実験で確認されている。つまり、遠隔操作ロボットが人間の外観を持っていることは、ロボットとその周囲の人間との融和または調和を図るうえで、重要な意味を持つことが分かった。
Ishiguro, H. and Nishio, S. 'Building artificial humans for understanding humans', Journal of Artificial Organs, vol.10, no.3, pp.133-142, 2007 特開2008-23604号公報[B25J 13/08,A63H 11/00, 3/33, 3/36, 3/40]
In the remote control robot of Patent Document 1, it has been confirmed by an experiment of the inventors that an operator (human) who does not exist at the place gives a feeling of being as if it is at the place. In other words, it was found that the remote control robot having a human appearance has an important meaning in order to achieve harmony or harmony between the robot and the human beings around it.
Ishiguro, H. and Nishio, S. 'Building artificial humans for understanding humans', Journal of Artificial Organs, vol.10, no.3, pp.133-142, 2007 JP 2008-23604 [B25J 13/08, A63H 11/00, 3/33, 3/36, 3/40]

しかし、人間に酷似したアンドロイドを製作するためには、その人間の全身を型取りし、その型を用いて、人間の肌に類似した感触を有する材料、たとえばシリコーン樹脂の外被を形成し、その外被内に、多数の自由度(たとえば46自由度)を有するロボット機構をすべて組み込む必要がある。   However, in order to produce an android that closely resembles humans, the whole body of the human being is molded, and the mold is used to form a material having a touch similar to that of human skin, such as a silicone resin jacket, It is necessary to incorporate all the robot mechanisms having a large number of degrees of freedom (for example, 46 degrees of freedom) in the jacket.

つまり、従来の人間酷似の遠隔操作ロボット、一例としてアンドロイドでは、製作費用が高価になるばかりでなく、多数の自由度の制御のために機構や操作方法が複雑になってしまう。   That is, the conventional human-like remote control robot, for example, Android, not only is expensive to manufacture, but also has a complicated mechanism and operation method for controlling a large number of degrees of freedom.

それゆえに、この発明の主たる目的は、新規な、遠隔操作ロボットを提供することである。   Therefore, the main object of the present invention is to provide a novel remote control robot.

この発明の他の目的は、製作費用を安価にできる、遠隔操作ロボットを提供することである。   Another object of the present invention is to provide a remote control robot that can be manufactured at low cost.

この発明のその他の目的は、操作方法を簡単にできる、遠隔操作ロボットを提供することである。   Another object of the present invention is to provide a remote control robot capable of simplifying the operation method.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照 符号および補足説明等は、本発明の把握を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments to be described later in order to help grasp the present invention, and do not limit the present invention.

第1発明は、柔軟素材からなり、人間の胴体に相当しかつ胴体と見える胴体部分と、胴体部分の上にあって人間の頭に相当しかつ頭と見える頭部分と、胴体部分の両側から延びて人間の腕および手に相当しかつ腕および手と見える腕部分と、胴体部分の下端から下方に延びて人間の脚および足に相当しかつ脚および足と見える脚部分とを含む、外被を備え、外被はさらに、頭部分の前面であって、人間の口に相当しかつ口と見える口部分および口部分の上であって、人間の目に相当しかつ目と見える目部分を含み、口部分および目部分の大きさの比率は人間の大人と同じ程度の比率にし、頭部分の大きさに対する身長は子供のものとし、目部分および口部分は左右対称に形成し、外被内に収納され、外被の胴体部分、頭部分、腕部分、脚部分、口部分および目部分に対応する位置に形成される、胴体機構、頭機構、腕機構、脚機構、口機構および目機構を含む、ロボット機構体をさらに備え、口機構は口部分を動かすための口駆動手段を含み、目機構は目部分を動かす目駆動手段を含み、さらにロボット機構体と外被との間に設けられる詰め物、音声データに従って音声を出力する第1スピーカ、および周囲の音声を取得する第1マイクを備える、遠隔操作ロボットである。 The first invention is made of a flexible material, and corresponds to a human torso and can be seen as a torso, a head part that is above the torso and corresponds to a human head and can be seen as a head, and from both sides of the torso part An outer portion including an arm portion that extends and corresponds to a human arm and hand and is visible to the arm and hand, and a leg portion that extends downward from the lower end of the torso portion and corresponds to a human leg and foot and is visible to the leg and foot And the outer cover further includes a front portion of the head portion corresponding to a human mouth and above the mouth portion that can be seen as a mouth, and a mouth portion that is equivalent to a human eye and that is visible The size ratio of the mouth and eyes should be the same as that of a human adult, the height relative to the size of the head should be a child, the eyes and mouth should be symmetrical, The body part, the head part, the arm part, the leg part of the jacket The robot further includes a robot mechanism including a body mechanism, a head mechanism, an arm mechanism, a leg mechanism, a mouth mechanism, and an eye mechanism formed at positions corresponding to the mouth portion and the eye portion, the mouth mechanism for moving the mouth portion. The mouth mechanism includes eye drive means for moving the eye portion, and further includes a padding provided between the robot mechanism body and the jacket, a first speaker for outputting sound according to the sound data, and surrounding sound. It is a remote control robot provided with the 1st microphone to acquire.

第1発明において、遠隔操作ロボット(10:実施例において相当する部分を例示する参照符号。以下、同様。)は、たとえばシリコーン樹脂などの柔軟素材で作った外被(12)、このような外被(12)内に収納されるロボット機構体(14)、外被(12)とロボット機構体(14)との間に設けられる詰め物(30)、音声データに従って音声を出力する第1スピーカ(32)および周囲の音声を取得する第1マイク(34)を備える。   In the first invention, the remote control robot (10: reference numeral exemplifying a corresponding part in the embodiment, the same applies hereinafter) is a jacket (12) made of a flexible material such as silicone resin. A robot mechanism (14) housed in the jacket (12), a padding (30) provided between the jacket (12) and the robot mechanism (14), and a first speaker for outputting voice according to the voice data ( 32) and a first microphone (34) for acquiring surrounding sounds.

外被(12)は、人間の胴体に相当しかつ胴体と見える胴体部分(16)と、胴体部分(16)の上にあって人間の頭に相当しかつ頭と見える頭部分(18)と、胴体部分(16)の両側から延びて人間の腕および手に相当しかつ腕および手と見える腕部分(26)と、胴体部分(16)の下端から下方に延びて人間の脚および足に相当しかつ脚および足と見える脚部分(28)と、頭部分(18)の前面であって、人間の口に相当しかつ口と見える口部分(22)および口部分(22)の上であって、人間の目に相当しかつ目と見える目部分(24)を含む。口部分および目部分の大きさの比率(大きさや位置)は人間の大人と同じ程度の比率にし、頭部分の大きさに対する身長(等身)は子供のものとし、さらに目部分および口部分は、鼻も含めて、左右対称に形成する。 The outer cover (12) corresponds to the human torso and looks like a torso (16), and the head part (16) above the torso part (16) corresponds to the human head and looks like a head (18) An arm portion (26) extending from both sides of the torso portion (16) corresponding to and appearing as a human arm and hand, and extending downward from the lower end of the torso portion (16) to a human leg and foot A leg part (28) that looks like a leg and a leg, and a front part of the head part (18) on the mouth part (22) and the mouth part (22) that look like a human mouth and look like a mouth It includes an eye portion (24) that corresponds to the human eye and is visible. The ratio of the size of the mouth and eyes (size and position) should be the same as that of a human adult, the height relative to the size of the head (life) should be that of the child, and the eyes and mouth It is formed symmetrically including the nose.

ロボット機構体(14)は、外被(12)の胴体部分(16)、頭部分(18)、腕部分(26)、脚部分(28)、口部分(22)および目部分(24)にそれぞれ対応する位置に形成される、胴体機構(17)、頭機構(19)、腕機構(27)、脚機構(29)、口機構(23)および目機構(25)を含む。そのうち、口機構(23)は口部分(22)を動かすための、たとえばモータ(66)を含む口駆動手段を有し、目機構(25)は目部分(24)を動かす、たとえばモータ(76、76、86)を含む目駆動手段を有する。   The robot mechanism (14) is attached to the body part (16), head part (18), arm part (26), leg part (28), mouth part (22) and eye part (24) of the outer cover (12). The body mechanism (17), the head mechanism (19), the arm mechanism (27), the leg mechanism (29), the mouth mechanism (23), and the eye mechanism (25), which are formed at corresponding positions, are included. Among them, the mouth mechanism (23) has mouth driving means including a motor (66) for moving the mouth portion (22), and the eye mechanism (25) moves the eye portion (24), for example, a motor (76 , 76, 86).

第1発明によれば、遠隔操作ロボットは、人間のミニマルデザインに基づいた外観形状に形成され、口部分や目部分などに最低限の自由度がある。したがって、この発明の遠隔操作ロボットは、一見して人間と分かり、その上で性別や年齢は自由に想像できるので、その遠隔操作ロボットを通じて操作者と対話する対話者は、遠隔操作ロボットを操作者自身と感じることができる。   According to the first invention, the remote control robot is formed in an appearance shape based on a human minimal design, and has a minimum degree of freedom in the mouth portion and the eye portion. Therefore, the remote control robot of the present invention can be understood as a human at first glance, and the gender and age can be freely imagined on the robot. Therefore, a dialog person who interacts with the operator through the remote control robot can use the remote control robot as the operator. You can feel yourself.

発明者が非特許文献1で提案した「アンドロイド」(人間酷似ロボット)を用い、たとえば特許文献1に記載の遠隔操作システムを利用した実験では、ロボットが酷似させられた被験者(操作者:本人)にロボットと相手(ロボットの近くに存在して被験者とコミュニケーションする人)とを映し出すモニタを見せながら話をしてもらった。そのとき、本人の唇の動きや頭部の動きを画像処理で解析して、インタネットを通じてロボットに伝えて、ロボットの唇や頭部を本人の動きと連動させた。その様子を本人はモニタで確認することによって、ロボットを自分の身体のように感じるようになる。そして、ロボットが誰か(相手)に触られると、被験者(本人)は自らの身体が触られたような感覚を覚える。発明者はこのような現象をこれまでの遠隔操作ロボットの研究によって確認してきた。   In an experiment using the “android” (human-like robot) proposed by the inventor in Non-Patent Document 1, for example, in an experiment using the remote operation system described in Patent Document 1, the subject (operator: the person) whose robot was made very similar I talked to them while showing a monitor showing the robot and the other party (a person who was near the robot and communicated with the subject). At that time, the movement of the person's lips and the movement of the head were analyzed by image processing and transmitted to the robot through the Internet, and the robot's lips and head were linked to the movement of the person. By confirming the situation on the monitor, the person feels the robot like his / her body. When the robot is touched by someone (partner), the subject (person) feels as if his body was touched. The inventor has confirmed such a phenomenon by research on remote control robots so far.

非特許文献1の「アンドロイド」は発明者自身を酷似させたものであり、このアンドロイドを通じて、発明者自身も上記の現象を実感したところである。   “Android” in Non-Patent Document 1 is something that resembles the inventor himself, and through this android, the inventor himself has realized the above phenomenon.

これらの実験を通して発明者は、ロボットの容姿が本人に酷似していなくても、対話や動作によって、その人はロボットを自らの身体と感じるようになることが分かった。つまり、本件発明者は、数多くの実験を経験する中で、遠隔操作ロボットは必ずしも本人に酷似した見掛けを持つ必要がない、という確信を得るに至った。   Through these experiments, the inventor found that even if the appearance of the robot does not resemble the person himself, the person feels the robot as his body through dialogue and actions. In other words, the inventor of the present invention has gained the belief that the remote control robot does not necessarily have an appearance very similar to that of the person himself, through many experiments.

そこで、この発明においては、このようにして発明者が得た知見に基づいて、遠隔操作ロボットに、人間のミニマルデザインに基づく外観を持たせることを発想した。「人間のミニマルデザイン」とは、一見して人と分かるが、子供とも年寄りとも、男とも女とも認識できるような、年齢や性別が、見る人によって、どのようにも解釈できる、という人間の形状をいうものとする。   Therefore, in the present invention, based on the knowledge obtained by the inventor in this way, the inventor has conceived of giving the remote control robot an appearance based on human minimal design. “Human minimal design” can be understood as a person at first glance, but it can be recognized by both the child and the elderly, the man and the woman, and the human being can interpret the age and gender in any way. It shall mean the shape.

この人間のミニマルデザインを体現したのが、上記の外被の形状である。この発明は、このような独特の外観を持ち、かついくつかの自由度を持つので、対話者は遠隔操作ロボット自体の上に対話相手(操作者)を強く実感できるのである。たとえば、顔を左右対称にすることにより、男性にも女性にも見えるという効果を強く与えることができる。また、顔の各パーツの大きさの比率(目、鼻、口の大きさや位置)は、人間の大人と同じ程度の比率にしているが、頭部の大きさに対する身長(等身)は子供のものとすることによって、大人にも子供にも見える効果がある。 The shape of the above-mentioned jacket is what embodies this human minimal design. Since the present invention has such a unique appearance and has several degrees of freedom, the dialog person can strongly feel the dialog partner (operator) on the remote control robot itself. For example, by making the face bilaterally symmetric, it is possible to give a strong effect of being seen by both men and women. In addition, the ratio of the size of each part of the face (size and position of eyes, nose, mouth) is the same as that of a human adult, but the height (life) relative to the size of the head is a child. By doing so, it is effective for both adults and children.

第2の発明は、第1の発明に従属し、腕部分の先端は先細り形状でかつ前方に突出するように全体的に湾曲して形成され、さらに腕機構は、腕部分の先端を変位可能にするための変位部材および変位部材を操作データに従って駆動するための駆動手段を含む、遠隔操作ロボットである。 The second invention is dependent on the first invention, the tip of the arm portion is tapered and formed to be entirely curved so as to protrude forward, and the arm mechanism can displace the tip of the arm portion A remote operation robot including a displacement member for driving the displacement member and a driving unit for driving the displacement member according to operation data.

第2の発明では、腕部分の先端には手や足に相当する形状(指を含む)のものは設けられておらず、単に先細りの形状にされている。これは、ミニマルデザインの考え方による。つまり、手の部分がなくても、少なくとも人間に見えればよく、対話の障害にはならない、一方で、できるだけ簡略化することができるという効果がある。さらに、たとえば実施例でいえば先端プレート(100)が変位部材に相当し、モータ(94)を含む駆動手段で変位部材が駆動される。さらに、腕部分全体が前方に湾曲しかつ先端部が変位できるので、遠隔操作ロボットを遠隔操作する操作者は、ロボットを通じて対話している対話者に、腕部分の先端の変化によって意思(たとえば、子供が「抱っこ」をせがむ仕草など)を通じることができる。 In the second invention, the tip of the arm portion is not provided with a shape (including a finger) corresponding to a hand or a foot, and is simply tapered. This is based on the concept of minimal design. In other words, even if there is no hand portion, it is sufficient that it is at least visible to humans and does not become an obstacle to dialogue. Further, for example, in the embodiment, the tip plate (100) corresponds to a displacement member, and the displacement member is driven by driving means including a motor (94). Furthermore, since the entire arm portion is bent forward and the tip portion can be displaced, an operator who remotely operates the remote control robot can make an intention (for example, by changing the tip of the arm portion) Such as gestures in which a child holds a “cug” .

第3の発明は、第1または第2の発明に従属し、脚部分は、前記胴体部分の下端から下方に延びる1つの先細り形状ものとしての脚部分として形成される、、遠隔操作ロボットである。 A third invention is a remote control robot according to the first or second invention , wherein the leg portion is formed as one leg-shaped leg portion extending downward from a lower end of the body portion. .

第3の発明では、脚部分は1つの脚部分として形成される。これは、足が2本なのか1本しかないのかは機能上重要なことではないとの考えによる。さらに、脚部分の先端には足に相当する形状(指を含む)のものは設けられておらず、単に先細りの形状にされている。これは、ミニマルデザインの考え方による。つまり、手や足の部分がなくても、少なくとも人間に見えればよく、対話の障害にはならない、一方で、できるだけ簡略化することができるという効果がある。 In the third invention, the leg portion is formed as one leg portion. This is based on the idea that whether there are two legs or only one leg is not important in terms of function. Further, the tip of the leg portion is not provided with a shape corresponding to a foot (including a finger), and is simply tapered. This is based on the concept of minimal design. In other words, even if there is no hand or foot part, at least it should be visible to humans, and it does not become an obstacle to dialogue, but on the other hand, there is an effect that it can be simplified as much as possible.

第4の発明は、第1ないし第3のいずれかの発明に従った遠隔操作ロボットと、ネットワークを通して遠隔操作ロボットに繋がってそれを遠隔操作するための遠隔制御装置とを含む、遠隔操作システムであって、遠隔操作装置は、操作者の声を取得する第2マイクと、音声を出力する第2スピーカを含み、第2マイクで取得した操作者の声が第1スピーカで出力され、第1マイクで取得した音声が第2スピーカで出力される、遠隔操作システムである。   A fourth invention is a remote operation system including a remote operation robot according to any one of the first to third inventions, and a remote control device for remotely operating the robot by connecting to the remote operation robot through a network. The remote operation device includes a second microphone that acquires the voice of the operator and a second speaker that outputs the voice, and the voice of the operator acquired by the second microphone is output from the first speaker. This is a remote operation system in which sound acquired by a microphone is output from a second speaker.

第4の発明では、第1ないし第3のいずれかの発明に従った遠隔操作ロボット(10)と、ネットワーク(114)を通して遠隔操作ロボット(10)に繋がってそれを遠隔操作するための遠隔制御装置(116)とを含む、遠隔操作システム(110)である。遠隔操作装置(116)は、操作者の声を取得する第2マイク(120)と、音声を出力する第2スピーカ(118)を含む。そして、第2マイク(120)で取得した操作者の声が第1スピーカ(32)で出力され、第1マイク(34)で取得した音声が第2スピーカ(118)で出力される。したがって、操作者、対話者ともに強い臨場感のなかで遠隔操作ロボットを通じて対話することができる。 In the fourth invention, the remote control robot (10) according to any one of the first to third inventions and the remote control for remotely operating the remote control robot (10) connected to the remote control robot (10) through the network ( 114 ). A remote control system (110) including a device (116). The remote control device (116) includes a second microphone (120) that acquires the voice of the operator and a second speaker (118) that outputs the voice. Then, the operator's voice acquired by the second microphone (120) is output by the first speaker (32), and the voice acquired by the first microphone ( 34 ) is output by the second speaker (118). Therefore, both the operator and the dialog can interact through the remote control robot in a strong sense of reality.

第5の発明は、第4の発明に従属し、遠隔制御装置は操作者の状態を検出する状態検出手段、および操作者の状態を表す状態データをネットワークを介して遠隔操作ロボットに送信する状態データ送信手段を備え、口駆動手段および目駆動手段が状態データに従って駆動される、遠隔操作システムである。   A fifth invention is according to the fourth invention, wherein the remote control device detects a state of the operator, a state detection unit, and a state in which state data representing the state of the operator is transmitted to the remote control robot via the network. A remote control system including data transmission means, wherein the mouth driving means and the eye driving means are driven according to the state data.

第5の発明では、状態検出手段としては、実施例の場合、操作者カメラ(166)や、操作者カメラからの映像信号を処理して操作者の状態を検出するCPU(158)で構成される。CPU(158)は操作者の状態を表す状態データをネットワーク(114)を介して制御装置(112)すなわち遠隔操作ロボット(10)に送信する。口駆動手段および目駆動手段が状態データに従って駆動される結果、遠隔操作ロボット(10)において、そのときの操作者の状態が再現される。そのため、遠隔操作ロボットを通して操作者と対話している対話者は、遠隔操作ロボット上に非常に強く操作者を感得できる。   In the fifth aspect, in the case of the embodiment, the state detection means is constituted by an operator camera (166) and a CPU (158) that detects the state of the operator by processing a video signal from the operator camera. The The CPU (158) transmits status data representing the status of the operator to the control device (112), that is, the remote control robot (10) via the network (114). As a result of the mouth driving means and the eye driving means being driven according to the state data, the state of the operator at that time is reproduced in the remote operation robot (10). Therefore, a conversation person who is interacting with the operator through the remote operation robot can feel the operator very strongly on the remote operation robot.

本件発明者が非特許文献1などで提案した遠隔操作ロボットは、実在人間そっくりの遠隔操作アンドロイドであったが、数々の実験を重ねた本件発明者は、実在人間にそっくりに作らなくとも、遠隔操作ロボットを人間のミニマルデザインに基づいた外観形状にすれば、遠隔操作ロボットを通じて操作者と対話する対話者は、その遠隔操作ロボットを操作者本人と感じることができることを発見した。この発明はこの発見に基づいてなされたものである。   The remote control robot proposed by the inventor in Non-Patent Document 1 etc. was a remote control android that looked like a real person, but the inventor who repeated many experiments did not make it exactly like a real person, It has been discovered that if the operating robot has an external shape based on human minimal design, a dialog person who interacts with the operator through the remote control robot can feel the remote control robot as the operator himself. The present invention has been made based on this discovery.

この発明によれば、遠隔操作ロボットは、人間のミニマルデザインに基づいた外観形状に形成され、口または目などに最低限の自由度がある。したがって、この発明の遠隔操作ロボットは、一見して人間と分かり、その上で性別や年齢は自由に想像できるので、その遠隔操作ロボットを通じて操作者と対話する対話者は、遠隔操作ロボットを操作者自身と感じることができる。このような人間のミニマルデザインに基づく外観形状はかなり単純化されている。したがって、操作者を対話者に感じさせるために人間に酷似させていた「アンドロイド」と同様に遠隔操作ロボットを操作者と感じさせることができる反面、「アンドロイド」に比べて製作費用を大幅に低減できる。   According to the present invention, the remote control robot is formed in an appearance shape based on a human minimal design, and has a minimum degree of freedom in the mouth or eyes. Therefore, the remote control robot of the present invention can be understood as a human at first glance, and the gender and age can be freely imagined on the robot. Therefore, a dialog person who interacts with the operator through the remote control robot can use the remote control robot as the operator. You can feel yourself. The appearance shape based on such a human minimal design is considerably simplified. Therefore, it is possible to make the remote control robot feel like an operator like “Android” which makes the operator feel like a human being, but on the other hand, the production cost is greatly reduced compared to “Android” it can.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例の遠隔操作ロボットの外観の一例を示す図解図であり、図1(A)は正面図、図1(B)は側面図、図1(C)は平面図である。FIG. 1 is an illustrative view showing an example of an external appearance of a remote control robot according to an embodiment of the present invention. FIG. 1 (A) is a front view, FIG. 1 (B) is a side view, and FIG. 1 (C) is a plan view. It is. 図2は図1実施例の遠隔操作ロボットの体表の凹凸をよく表すコンピュータグラフィックスであり、図2(A)は図1(A)に対応し、図2(B)は図1(B)に対応し、図2(C)は図1(C)に対応している。FIG. 2 is a computer graphic that well represents the unevenness of the body surface of the remote control robot of FIG. 1 embodiment. FIG. 2 (A) corresponds to FIG. 1 (A), and FIG. 2 (C) corresponds to FIG. 1 (C). 図3は図1実施例の遠隔操作ロボットの構造の一例を示す正面図解図である。FIG. 3 is a front view solution diagram showing an example of the structure of the remote control robot of FIG. 1 embodiment. 図4は図1実施例のロボット機構の一例を示す、主として正面側を示す斜視図である。FIG. 4 is a perspective view mainly showing the front side, showing an example of the robot mechanism of FIG. 1 embodiment. 図5は図1実施例のロボット機構の一例を示す、主として背面側を示す斜視図である。FIG. 5 is a perspective view mainly showing the back side, showing an example of the robot mechanism of FIG. 1 embodiment. 図6は図1実施例のロボット機構の一例を示す平面図解図である。FIG. 6 is an illustrative plan view showing an example of the robot mechanism of FIG. 1 embodiment. 図7は図1実施例のロボットを通じて操作者と会話する対話者がロボットを抱き上げている状態の一例を示す図解図である。FIG. 7 is an illustrative view showing one example of a state in which a conversation person who talks with an operator through the robot of FIG. 1 embodiment is holding the robot. 図8は図1実施例のロボットを利用する遠隔操作システムの一例を示す概略ブロック図である。FIG. 8 is a schematic block diagram showing an example of a remote control system using the robot of FIG. 1 embodiment. 図9は図8の制御装置を詳細に示すブロック図である。FIG. 9 is a block diagram showing in detail the control device of FIG. 図10は図8の遠隔操作装置を詳細に示すブロック図である。FIG. 10 is a block diagram showing in detail the remote control device of FIG. 図11は図8実施例の遠隔操作システムの動作の一例を示すフロー図である。FIG. 11 is a flowchart showing an example of the operation of the remote control system of FIG. 8 embodiment. 図12はこの発明の他の実施例の遠隔操作ロボットの外観の一例を示す図解図であり、図12(A)は正面図、図12(B)は側面図、図12(C)は平面図である。FIG. 12 is an illustrative view showing an example of the appearance of a remote control robot according to another embodiment of the present invention. FIG. 12 (A) is a front view, FIG. 12 (B) is a side view, and FIG. FIG. 図13は図12実施例の遠隔操作ロボットの構造の一例を示す正面図解図である。FIG. 13 is an illustrative front view showing an example of the structure of the remote control robot of FIG. 12 embodiment. 図14は図12実施例のロボット機構の一例を示す、主として正面側を示す斜視図である。ただし、頭蓋骨相当部分は省略している。FIG. 14 is a perspective view mainly showing a front side showing an example of the robot mechanism of FIG. 12 embodiment. However, the portion corresponding to the skull is omitted. 図15は図12実施例のロボット機構の一例を示す、主として背面側を示す斜視図である。ただし、頭蓋骨相当部分は省略している。FIG. 15 is a perspective view mainly showing the back side showing an example of the robot mechanism of FIG. 12 embodiment. However, the portion corresponding to the skull is omitted. 図16は図12実施例のロボット機構の一例を示す平面図解図である。ただし、頭蓋骨相当部分は省略している。FIG. 16 is an illustrative plan view showing an example of the robot mechanism of FIG. 12 embodiment. However, the portion corresponding to the skull is omitted. 図17は図12実施例のロボット機構の一例を示す側面図解図である。ただし、頭蓋骨相当部分は省略している。FIG. 17 is a side view showing an example of the robot mechanism of FIG. 12 embodiment. However, the portion corresponding to the skull is omitted. 図17は図12実施例のロボット機構の一例を示す側面図解図である。FIG. 17 is a side view showing an example of the robot mechanism of FIG. 12 embodiment. 図19は図12実施例の制御装置を詳細に示すブロック図である。FIG. 19 is a block diagram showing in detail the control device of FIG. 12 embodiment. 図20は図19の制御装置の動作の一例を示すフロー図である。FIG. 20 is a flowchart showing an example of the operation of the control device of FIG.

図1および図2を参照して、この発明の一実施例の遠隔操作ロボット(この明細書では、単に「ロボット」ということがある。)10は、全体としては、人間のミニマルデザイン(minimal design)と呼ぶべき見掛け(外観)を持つ。なお、図1では凹凸が分かりにくく、立体感が十分表現できないので、コンピュータグラフィックス技術で作成した図面を参考的に図2として添付している。図1(A)および図2(A)がともに正面を示し、図1(B)および図2(B)が右側面を示し、図1(C)および図2(C)がともに(C)が平面を示している。   Referring to FIGS. 1 and 2, a remote control robot (which may be simply referred to as “robot” in this specification) 10 according to an embodiment of the present invention is generally composed of a human minimal design. ) Has the appearance (appearance) to be called. In FIG. 1, the unevenness is difficult to understand and the three-dimensional effect cannot be expressed sufficiently, so a drawing created by computer graphics technology is attached as FIG. 2 for reference. 1 (A) and 2 (A) both show the front, FIG. 1 (B) and FIG. 2 (B) show the right side, and FIG. 1 (C) and FIG. 2 (C) both show (C). Indicates a plane.

発明者が非特許文献1で提案した「アンドロイド」(人間酷似ロボット)を用い、たとえば特許文献1に記載の遠隔操作システムを利用した実験では、ロボットが酷似させられた被験者(操作者:本人)にロボットと相手(ロボットの近くに存在して被験者とコミュニケーションする人)とを映し出すモニタを見せながら話をしてもらった。そのとき、本人の唇の動きや頭部の動きを画像処理で解析して、インタネットを通じてロボットに伝えて、ロボットの唇や頭部を本人の動きと連動させた。その様子を本人はモニタで確認することによって、ロボットを自分の身体のように感じるようになる。そして、ロボットが誰か(相手)に触られると、被験者(本人)は自らの身体が触られたような感覚を覚える。発明者はこのような現象をこれまでの遠隔操作ロボットの研究によって確認してきた。   In an experiment using the “android” (human-like robot) proposed by the inventor in Non-Patent Document 1, for example, in an experiment using the remote operation system described in Patent Document 1, the subject (operator: the person) whose robot was made very similar I talked to them while showing a monitor showing the robot and the other party (a person who was near the robot and communicated with the subject). At that time, the movement of the person's lips and the movement of the head were analyzed by image processing and transmitted to the robot through the Internet, and the robot's lips and head were linked to the movement of the person. By confirming the situation on the monitor, the person feels the robot like his / her body. When the robot is touched by someone (partner), the subject (person) feels as if his body was touched. The inventor has confirmed such a phenomenon by research on remote control robots so far.

非特許文献1の「アンドロイド」は発明者自身を酷似させたものであり、このアンドロイドを通じて、発明者自身も上記の現象を実感したところである。   “Android” in Non-Patent Document 1 is something that resembles the inventor himself, and through this android, the inventor himself has realized the above phenomenon.

これらの実験を通して発明者は、ロボットの容姿が本人に酷似していなくても、対話や動作によって、その人はロボットを自らの身体と感じるようになることが分かった。つまり、本件発明者は、数多くの実験を経験する中で、遠隔操作ロボットは必ずしも本人に酷似した見掛けを持つ必要がない、という確信を得るに至った。   Through these experiments, the inventor found that even if the appearance of the robot does not resemble the person himself, the person feels the robot as his body through dialogue and actions. In other words, the inventor of the present invention has gained the belief that the remote control robot does not necessarily have an appearance very similar to that of the person himself, through many experiments.

そこで、この発明においては、このようにして発明者が得た知見に基づいて、遠隔操作ロボット10に上述のように人間のミニマルデザインに基づく外観を持たせることを発想した。「人間のミニマルデザイン」とは、一見して人と分かるが、子供とも年寄りとも、男とも女とも認識できるような、年齢や性別が、見る人によって、どのようにも解釈できる、という人間の形状をいうものとする。   Therefore, in the present invention, based on the knowledge obtained by the inventor in this way, the idea is to give the remote control robot 10 an appearance based on human minimal design as described above. “Human minimal design” can be understood as a person at first glance, but it can be recognized by both the child and the elderly, the man and the woman, and the human being can interpret the age and gender in any way. It shall mean the shape.

このような、人間のミニマルデザインを形作っているロボット10の外観は、人間の皮膚に類似した感触を持つ柔軟体、たとえばシリコーン樹脂、ウレタン(発泡)樹脂などの外被12で形成される。外被12の内部には、図3に示すように、ロボット機構体14が内蔵される。   The appearance of the robot 10 forming the human minimal design is formed of a flexible body 12 having a touch similar to that of the human skin, such as a silicone resin or urethane (foamed) resin. As shown in FIG. 3, a robot mechanism body 14 is built in the outer jacket 12.

なお、この外被12では、顔を完全に左右対称にすることにより、男性にも女性にも見えるという効果を強く与えることを意図している。また、顔の各パーツの大きさの比率(目、鼻、口の大きさや位置)は、人間の大人と同じ程度の比率にしているが、頭部の大きさに対する身長(等身)は子供のものとすることによって、大人にも子供にも見える効果を強調している。   The outer cover 12 is intended to give the effect of being visible to both men and women by making the face completely symmetrical. In addition, the ratio of the size of each part of the face (size and position of eyes, nose, mouth) is the same as that of a human adult, but the height (life) relative to the size of the head is a child. By embedding, it emphasizes the effects that both adults and children can see.

この実施例では、ロボット10の大きさは、対話者(ロボット10を感じさせる操作者と対話する者)がたとえばひざの上に抱き上げることができる程度の大きさにされている。人間の身長に相当する大きさは、一例として80cm程度としている。つまり、少し大きめの人形程度の大きさであるため、対話者が高齢者であっても子供であっても、容易に身近に置きながら、操作者と対話できる。ただし、この数値に限定されるものではなく、抱っこしたり、隣に座らせたりすることよって、ロボット10と対話者とが親密な距離感を持ちながら操作者と対話できるようなサイズであれば或る程度の幅は当然設定できる。 In this embodiment, the size of the robot 10 is set to such a size that a conversation person (a person who interacts with an operator who makes the robot 10 feel) can be lifted on a knee, for example. The size corresponding to the height of a person is about 80 cm as an example. In other words, because of the size of about a little larger doll, also interlocutor is a child even in the elderly, with-out easily familiar location, can interact with the operator. However, the size is not limited to this value, and the robot 10 and the interlocutor can interact with the operator while having a close sense of distance by holding them or sitting next to each other. A certain width can naturally be set.

外被12は、全体として1枚の外被として形成される。外被12は、人間の胴体に相当して、かつ胴体と見える部分(便宜上、「胴体部分」と呼ぶ。)16と、この胴体部分16の上方に配置され、人間の頭に相当して、かつ頭と見える部分(便宜上、「頭部分」と呼ぶ。)18を含む。頭部分18を形成する外被と胴体部分16を形成する外被とは首部分20の外被によって連続している。   The jacket 12 is formed as a single jacket as a whole. The outer cover 12 corresponds to a human torso and is seen as a torso (for convenience, referred to as a “torso part”) 16 and is disposed above the torso part 16 and corresponds to a human head. And a portion (referred to as a “head portion” for convenience) 18 that can be seen as a head. The jacket that forms the head portion 18 and the jacket that forms the body portion 16 are continuous by the jacket of the neck portion 20.

頭部分18の前面には、人間の口に相当して、かつ口と見える口部分22が形成される。この口部分22は、外被12に形成した裂け目のようなものであり、後述の口機構によって、開閉され得る。ただし、口部分22において外被12に裂け目を形成する必要は必ずしもない。後述の口機構を内蔵するだけでも、口部分22が動くので、ロボット10を見ている人は、口部分22が動いてロボット10が何かをしゃべっているように見える。   On the front surface of the head portion 18, a mouth portion 22 corresponding to a human mouth and visible as a mouth is formed. The mouth portion 22 is like a tear formed in the outer cover 12, and can be opened and closed by a mouth mechanism described later. However, it is not always necessary to form a tear in the jacket 12 at the mouth portion 22. Even if the mouth mechanism described later is incorporated, the mouth portion 22 moves, so that a person watching the robot 10 seems to move the mouth portion 22 and talk about something.

さらに、頭部分18の前面であって口部分22の上には、人間の目に相当して、かつ目と見える目部分24が形成される。この目部分24は、外被12に形成した孔から露出するものであり、後述の目機構によって、左右上下に変位される。なお、以下の説明では、目部分24や腕部分26のように左右1対のものは、左右区別なく同じ参照番号を用いて示すが、必要があるときには、区別のための添え字「L」または「R」を用いることがある。   Further, on the front surface of the head portion 18 and on the mouth portion 22, an eye portion 24 corresponding to the human eye and visible is formed. The eye portion 24 is exposed from a hole formed in the outer cover 12, and is displaced left and right and up and down by an eye mechanism described later. In the following description, a pair of left and right parts such as the eye part 24 and the arm part 26 are indicated using the same reference number without distinction between right and left, but when necessary, a subscript “L” for distinction is used. Or “R” may be used.

胴体部分16の両側には、胴体部分16から連続した外被によって、人間の腕および手に相当して、かつ腕および手と見える部分(便宜上、「腕部分」と呼ぶ。)26が外方に突出するように形成される。この腕部分26は、特に図1(C)からよく分かるように、先端が前方に突出するように全体的に湾曲して形成される。これは、子供が「抱っこ」をせがむときなどの腕の形態を模した形状である。当然ながら、このような湾曲を形成する必要は必ずしもない。   On both sides of the trunk portion 16, portions (referred to as “arm portions” for convenience) 26 corresponding to the human arms and hands and which can be seen as arms and hands by the outer casing continuous from the trunk portion 16 are outward. It is formed to protrude. As can be clearly understood from FIG. 1C in particular, the arm portion 26 is formed to be entirely curved so that the tip protrudes forward. This is a shape that mimics the shape of an arm such as when a child holds a “cug”. Of course, it is not always necessary to form such a curvature.

胴体部分16の下方には、胴体部分16から連続した外被によって、人間の脚および足に相当して、かつ脚および足と見える部分(便宜上、「脚部分」と呼ぶ。)28が下方に延びて形成される。人間の実際の脚は2本あるのに対して、この脚部分28は、図示からよく分かるように、1つの足部分として形成される。これは、ロボット10を遠隔操作する場面においてはたとえば、ロボット10をあいて対話者(相手)のひざの上に抱いた状態などを想定しているので、足が2本なのか1本しかないのかは機能上重要なことではないとの考えによる。なお、ここで対話者とは、ロボット10が自分の分身であると想定している人(上記の例で言えば、被験者(本人)に相当する。)の遠隔操作を通して、その本人と話をする人のことを指す。たとえば、遠隔地に住む家族の1人が操作者であり、他の1人が対話者の場合などが想定されている。   Below the body portion 16, a portion (referred to as a “leg portion” for convenience) 28 that corresponds to a human leg and foot and that can be seen as a leg and a foot is provided below the outer skin that is continuous from the body portion 16. It is formed to extend. The human leg has two legs, whereas the leg part 28 is formed as one leg part, as can be seen from the figure. This is because, for example, in a situation where the robot 10 is remotely operated, it is assumed that the robot 10 is held on the lap of the conversation person (partner), so there are only two legs or only one leg. It is based on the idea that it is not important in terms of function. In addition, a dialogue person here talks with the person through remote operation of a person (in the above example, it corresponds to a subject (person)) who assumes that the robot 10 is his or herself. The person who does it. For example, it is assumed that one family member living in a remote place is an operator and the other one is a dialog person.

なお、実施例では、腕部分26と脚部分28のそれぞれの先端には手や足に相当する形状(指を含む)のものは設けられておらず、単に先細りの形状にされている。これは、ミニマルデザインの考え方による。つまり、手や足の部分がなくても、少なくとも人間に見えればよく、対話の障害にはならない、と言う考えによる。   In the embodiment, the tip of each of the arm portion 26 and the leg portion 28 is not provided with a shape corresponding to a hand or a foot (including a finger), and is simply tapered. This is based on the concept of minimal design. In other words, it is based on the idea that even if there is no hand or foot part, it should be at least visible to humans and does not become an obstacle to dialogue.

なお、このような一枚物の外被12を1度の成形工程で作ることはできない。そこで、発明者等は、図1(B)に示すように、前部分12aと後ろ部分12bとを別々の工程で作り、前部分12aの端縁と後ろ部分12bの端縁とをたとえば熱溶着によって接続することを考えた。図1(B)の参照番号「12c」がその継ぎ目を示している。ただし、外被12は、上部分と下部分とを別々に作った後、両者を合体させるようにしてもよい。つまり、外被12の作り方は自由である。   In addition, such a single-piece outer cover 12 cannot be formed by a single molding process. Therefore, the inventors make the front portion 12a and the rear portion 12b in separate steps as shown in FIG. 1B, and, for example, thermally bond the edge of the front portion 12a and the edge of the rear portion 12b. Thought about connecting by. The reference number “12c” in FIG. 1B indicates the joint. However, after making the upper part and the lower part separately, the outer cover 12 may be made to unite both. That is, how to make the jacket 12 is free.

このような、人間のミニマルデザインを体現した外形を持つ外被12中に、図2‐図4に示す形状、構造を有するロボット機構体14が収納される。外被12には図示しないが、たとえば胴体部分16の後ろ(背中に相当する)にファスナのような開閉手段を設けておき、ロボット機構体14を収納するときそれを開き、その後閉じるようにすればよい。しかしながら、ファスナのように開閉自在とする必要はなく、工場等での製作過程では外被12の一部を開け、ロボット機構体14を収納後は開けられないように閉じてしまうことも考えられる。使用者が容易に開けられるようになっていると、故障や事故の原因になったりする可能性が考えられるからである。   A robot mechanism body 14 having the shape and structure shown in FIGS. 2 to 4 is housed in the outer cover 12 having an outer shape that embodies a human minimal design. Although not shown in the outer cover 12, for example, an opening and closing means such as a fastener is provided behind the trunk portion 16 (corresponding to the back), and when the robot mechanism body 14 is stored, it is opened and then closed. That's fine. However, it is not necessary to be able to open and close like a fastener, and it is conceivable that a part of the jacket 12 is opened in the manufacturing process in a factory or the like and the robot mechanism body 14 is closed so that it cannot be opened after being stored. . This is because if the user can easily open the door, there is a possibility of causing a failure or an accident.

ロボット機構体14の詳細は後述するが、図3に示すように、ロボット機構体14のサイズは外被12のサイズよりかなり小さい。したがって、外被12とロボット機構体14との間には介在する何かが必要である。この実施例では、そのような介在物(詰め物)30として、たとえば発泡スチロールまたは発泡ウレタンのような樹脂から作った小径のビーズを用いる。ただし、樹脂ビーズより大きいサイズのたとえば立方体や球形の柔軟素材、たとえば発泡樹脂(たとえばウレタン)を、詰め物30として外被12とロボット機構体14との間に充填するようにしてもよい。   Although details of the robot mechanism 14 will be described later, the size of the robot mechanism 14 is considerably smaller than the size of the outer cover 12, as shown in FIG. Therefore, something is required between the jacket 12 and the robot mechanism 14. In this embodiment, as such an inclusion (stuffing) 30, a small-diameter bead made of a resin such as foamed polystyrene or foamed urethane is used. However, a cubic or spherical flexible material having a size larger than that of the resin beads, for example, a foamed resin (for example, urethane) may be filled between the outer cover 12 and the robot mechanism body 14 as the filling 30.

詰め物30を用いる理由は、詰め物30がなければ外被12がたるみ、外被12の独特の形状を保持できないため、詰め物30によって外被12に適度な張りを持たせる必要があるからである。他方、この詰め物30をビーズや柔軟素材のものを用いる理由は、詰め物30によって、ロボット機構体14の可動部、たとえば頭機構、口機構、目機構さらには腕機構などの動き(変位)が阻害されないようにするためである。つまり、詰め物30が軟らかいか、変形容易な集合体(ビーズ)である場合には、可動部が動くときの力によって詰め物30が容易に変形できる。   The reason for using the padding 30 is that without the padding 30, the outer cover 12 is slack and the unique shape of the outer cover 12 cannot be maintained. On the other hand, the reason why the padding 30 is made of beads or a flexible material is that the padding 30 inhibits the movement (displacement) of the movable part of the robot mechanism body 14 such as the head mechanism, the mouth mechanism, the eye mechanism, and the arm mechanism. This is to prevent it from being done. That is, when the filling 30 is soft or is an easily deformable assembly (bead), the filling 30 can be easily deformed by the force when the movable part moves.

しかしながら、図示しないが、外被12を肉厚に形成してロボット機構体14と間に隙間が出ないようにすることも可能である。この場合には、重くなる可能性があるので、軽量化の工夫が必要であろう。   However, although not shown, it is also possible to form the outer cover 12 thick so that there is no gap between the robot mechanism body 14. In this case, since it may become heavy, the device of weight reduction will be needed.

なお、図3に示すように、ロボット機構体14の前面には、このロボット10の発話音声を出力するためのスピーカ32や、このロボット10を通じて操作者と会話する対話者の声を拾うためのマイク34が設けられる。実施例では、スピーカ32は胴体部分16の位置に、マイク34は口部分22の位置にそれぞれ設けられるが、それらの位置はこの位置に限定されるものではない。   As shown in FIG. 3, on the front surface of the robot mechanism 14, a speaker 32 for outputting the speech voice of the robot 10 and a voice of a talker who talks with the operator through the robot 10 are picked up. A microphone 34 is provided. In the embodiment, the speaker 32 is provided at the position of the body portion 16 and the microphone 34 is provided at the position of the mouth portion 22, but these positions are not limited to this position.

さらに、ロボット機構体14は、図3に示しかつ後に詳細に説明するすように、外被12の胴体部分16、頭部分18、口部分22、目部分24、腕部分26および脚部分28にそれぞれ位置が対応する、胴体機構17、頭機構19、口機構23、目機構25、腕機構27および脚機構29を含む。   Further, as shown in FIG. 3 and described in detail later, the robot mechanism 14 is attached to the body portion 16, the head portion 18, the mouth portion 22, the eye portion 24, the arm portion 26 and the leg portion 28 of the jacket 12. The body mechanism 17, the head mechanism 19, the mouth mechanism 23, the eye mechanism 25, the arm mechanism 27, and the leg mechanism 29, each corresponding to a position, are included.

図2‐図4を参照して、ロボット機構体14は、外被12の胴体部分16に相当する位置に配置されるべき胴体ボックス36を含む。この胴体ボックス36が胴体機構17を形成する。胴体ボックス36は、実施例ではたとえばアルミニウムの薄板をねじによって組み立てたもので、その中に、ロボット機構体14の一部のモータや制御用の電気回路部品などを収納する。或る程度の強度を持たせるためや、電気回路部品をできるだけ周囲の電気ノイズの影響から保護するためにアルミニウムのような金属で胴体ボックス36を形成したが、材料はこれに限定されるものではない。胴体ボックス36は側面5角形であり、前面は山折れ線を挟んで上下のプレートに分離される。前面の上部プレートには第1スピーカ32(図3)を取り付けるための開口38が形成される。   2 to 4, the robot mechanism body 14 includes a body box 36 to be disposed at a position corresponding to the body portion 16 of the jacket 12. This body box 36 forms the body mechanism 17. In the embodiment, the body box 36 is formed by assembling, for example, an aluminum thin plate with screws, and accommodates a part of the motor of the robot mechanism 14 and electric circuit parts for control. The fuselage box 36 is made of a metal such as aluminum in order to give a certain degree of strength or to protect the electric circuit components from the influence of surrounding electric noise as much as possible. However, the material is not limited to this. Absent. The fuselage box 36 has a pentagonal side surface, and the front surface is separated into upper and lower plates across a mountain line. An opening 38 for attaching the first speaker 32 (FIG. 3) is formed in the upper plate on the front surface.

胴体ボックス36の天井プレート40の上には、円形の軸受けプレート42がねじなどによって固着される。個々に言及はしないが、この軸受けプレート42より上の位置に設けられる部品が頭機構19を構成することを予め指摘しておく。   On the ceiling plate 40 of the body box 36, a circular bearing plate 42 is fixed by screws or the like. Although not mentioned individually, it should be pointed out in advance that the components provided above the bearing plate 42 constitute the head mechanism 19.

軸受けプレート42の上には回転プレート44が積層され、回転プレート44のほぼ中央には、天井プレート40を貫通し、軸受けプレート42に設けた軸受け(図示せず)によって支承されたモータ軸46が固着される。したがって、モータ軸46が天井プレート40の真下に設けられているモータ(図示せず:図4のボックス36の中)によって回転されると、それに固着された回転プレート44が、モータ軸46を中心として水平方向(左右方向)に回転される。   A rotating plate 44 is laminated on the bearing plate 42, and a motor shaft 46 that passes through the ceiling plate 40 and is supported by a bearing (not shown) provided on the bearing plate 42 at the center of the rotating plate 44. It is fixed. Therefore, when the motor shaft 46 is rotated by a motor (not shown: in the box 36 in FIG. 4) provided directly below the ceiling plate 40, the rotation plate 44 fixed to the motor shaft 46 is centered on the motor shaft 46. Is rotated in the horizontal direction (left-right direction).

回転プレート44のモータ軸46周りの回転によって、ロボット10の頭部分18が図1(C)に示す矢印A方向に回転(または回動)する。頭部分18の矢印A方向での回転によって、ロボット10が頭部分18を横に振る動作を表現でき、たとえば否定(“NO”)や嫌がっていることを対話者に伝えることができる。   Due to the rotation of the rotating plate 44 around the motor shaft 46, the head portion 18 of the robot 10 rotates (or rotates) in the direction of arrow A shown in FIG. By rotating the head portion 18 in the direction of the arrow A, the robot 10 can express an action of shaking the head portion 18 side by side, and for example, it is possible to inform the conversation person that it is negative (“NO”) or disliked.

回転プレート44の上面には正面形状がU字形状でかつ側面形状が3角形のアングル50が回転プレート44と一体的に固定され、アングル50の頂角部分において、回転軸52が左右の立ち上がり板に差し渡されて、それぞれに設けた軸受け(図示せず)によって支承される。アングル50の左右の立ち上がり板に挟まれて、平面矩形でかつ各辺に立上がり板が形成されている支持ボックス54が配置される。支持軸52は、両端部において、支持ボックス54の左右辺の立ち上がり板に固着される。回転軸52は、図示しない連結機構、たとえば歯車を介して、支持ボックス54の中に設置されたモータ56のモータ軸に連結される。したがって、このモータ56が回転されると、モータ軸(図示せず)が回転し、このモータ軸から動力を受ける回転軸52が回転され、回転軸52に一体的に固定されている支持ボックス54が回転軸52周りに回転する。   On the upper surface of the rotating plate 44, an angle 50 having a U-shaped front surface and a triangular side surface is fixed integrally with the rotating plate 44, and at the apex portion of the angle 50, the rotating shaft 52 has left and right rising plates. And is supported by bearings (not shown) provided for each. A support box 54 that is sandwiched between the right and left rising plates of the angle 50 and that is rectangular in plan and formed with rising plates on each side is disposed. The support shaft 52 is fixed to the rising plates on the left and right sides of the support box 54 at both ends. The rotation shaft 52 is connected to a motor shaft of a motor 56 installed in the support box 54 via a connection mechanism (not shown), for example, a gear. Therefore, when the motor 56 is rotated, a motor shaft (not shown) is rotated, and the rotating shaft 52 that receives power from the motor shaft is rotated, and the support box 54 is integrally fixed to the rotating shaft 52. Rotates around the rotation axis 52.

支持ボックス54の回転軸52周りの回転によって、ロボット10の頭部分18が図1(B)に示す矢印B方向(前後)に傾動する。頭部分18の矢印B方向での傾動によって、ロボット10が頭部分18を縦に振る動作を表現でき、たとえば肯定(“YES”)やあいづちなどを対話者に伝えることができる。   Due to the rotation of the support box 54 around the rotation axis 52, the head portion 18 of the robot 10 tilts in the direction of arrow B (front and rear) shown in FIG. By tilting the head portion 18 in the direction of arrow B, the robot 10 can express an action of swinging the head portion 18 vertically, and for example, affirmative (“YES”) or nickname can be communicated to the talker.

なお、支持ボックス54の前辺の立ち上がり板に、図3に示す第1マイク34を装着するための開口58が形成される。   An opening 58 for mounting the first microphone 34 shown in FIG. 3 is formed in the rising plate on the front side of the support box 54.

特に図5からよく分かるように、支持ボックス54の上部において、前後辺の立ち上がり板に軸受け(図示せず)によってモータ軸60が軸支され、モータ軸60には、平面矩形でかつ各辺から垂下する立ち上がり(実際には、立ち下り)板が形成されている支持ボックス62の、前後辺の立ち上がり板の下部が固着される。したがって、モータ64が回転されると、支持ボックス62がモータ軸60と一体的に回転する。   In particular, as can be seen from FIG. 5, a motor shaft 60 is supported by bearings (not shown) on the rising plates on the front and rear sides in the upper portion of the support box 54. The lower portions of the rising plates on the front and rear sides of the support box 62 on which the rising (actually falling) plates are formed are fixed. Therefore, when the motor 64 is rotated, the support box 62 rotates integrally with the motor shaft 60.

支持ボックス62のモータ軸60周りの回転によって、ロボット10の頭部分18が図1(A)に示す矢印C方向(左右)に傾動する。頭部分18の矢印C方向での傾動によって、ロボット10が頭部分18によって「首を傾げる」動作を表現でき、たとえば疑問があることや甘えたい感じなどを対話者に伝えることができる。   Due to the rotation of the support box 62 around the motor shaft 60, the head portion 18 of the robot 10 tilts in the direction of arrow C (left and right) shown in FIG. By tilting the head portion 18 in the direction of arrow C, the robot 10 can express an action of “tilting the neck” by the head portion 18, and for example, it is possible to convey a questionable feeling or a feeling of sweetness to the interlocutor.

このようにしてロボット機構体14の頭機構19が形成されるが、頭機構19は上述のように3つの自由度を有し、各自由度における変化量を制御するためのモータ(図示せず:図4のボックス36の中)およびモータ56ならびに64が、頭機構19の駆動手段の一例である。   The head mechanism 19 of the robot mechanism 14 is thus formed. The head mechanism 19 has three degrees of freedom as described above, and a motor (not shown) for controlling the amount of change in each degree of freedom. 4) and motors 56 and 64 are examples of driving means of the head mechanism 19.

ただし、頭機構19が必ず3つの自由度を持たなくてはならないものではなく、自由度を全てなくして頭機構19すなわち頭部分18が動かないようにしてもよい。あるいは、頭機構19にモータ(図示せず:図4のボックス36の中)とそれによって駆動される機構だけを設けて横首振り(図1の矢印A)だけができるようにしてもよく、頭機構19にモータ58とそれによって駆動される機構だけを設けて縦首振り(図1の矢印B)だけができるようにしてもよく、頭機構19にモータ64とそれによって駆動される機構だけを設けて首傾げ(図1の矢印C)だけができるようにしてもよい。あるいは、これら3つの自由度の任意の2つの組み合わせを設定することもできる。   However, the head mechanism 19 does not necessarily have three degrees of freedom, and the head mechanism 19, that is, the head portion 18, may not move by eliminating all the degrees of freedom. Alternatively, the head mechanism 19 may be provided with only a motor (not shown: in the box 36 in FIG. 4) and a mechanism driven by the motor so that only the horizontal swing (arrow A in FIG. 1) can be performed. The head mechanism 19 may be provided with only the motor 58 and the mechanism driven thereby, so that only the vertical swing (arrow B in FIG. 1) can be performed. The head mechanism 19 includes only the motor 64 and the mechanism driven thereby. May be provided so that only the head can be tilted (arrow C in FIG. 1). Alternatively, any two combinations of these three degrees of freedom can be set.

さらに、各自由度(矢印A、BまたはC)においては、基本的には、変化量を連続的に制御できるように設計するが、段階的にしか変化しないような制御を採用することもできる。段階的変化の極端な例が2段階変化であり、たとえば、矢印A方向の横首振りであれば、右‐正面‐左だけの変化が想定でき、矢印B方向の縦首振りであれば、上‐正面‐下だけの変化が想定でき、矢印C方向の首傾げでは、右‐正面‐左だけの変化が想定できる。   Furthermore, each degree of freedom (arrow A, B or C) is basically designed so that the amount of change can be controlled continuously, but it is also possible to adopt a control that changes only stepwise. . An extreme example of a step change is a two-step change. For example, if the head swings in the direction of arrow A, a change of only right-front-left can be assumed, and if the head swings in the direction of arrow B, Only the top-front-bottom change can be assumed, and if the head is tilted in the direction of arrow C, only the right-front-left change can be assumed.

支持ボックス62の前面の立ち上がり板には図4に示すように、口機構23を作動させるためのモータ66が取り付けられ、それのモータ軸68にU字形状のアングル70の左右片が固着される。したがって、モータ66が回転されると、モータ軸68によって、アングル70がモータ軸68周りに回動する。   As shown in FIG. 4, a motor 66 for operating the mouth mechanism 23 is attached to the rising plate on the front surface of the support box 62, and left and right pieces of a U-shaped angle 70 are fixed to the motor shaft 68. . Therefore, when the motor 66 is rotated, the angle 70 is rotated around the motor shaft 68 by the motor shaft 68.

アングル70のモータ軸68周りの回転によって、ロボット10の口部分22が図1(A)に示す矢印D方向(上下)に開閉される。つまり、アングル70は、口部分22において、下口蓋に相当する動きをするものであり、したがって、アングル70が矢印D方向において下方に動くと、口部分22では下唇が押し下げられて、口部分22が開く。アングル70が矢印D方向において上方に動くと、下唇が元に戻って、口部分22が閉じる。このような口部分22の開閉動作、つまりアングル70の上下動動作をスピーカ32(図3)からの音声と同期させることによって、ロボット10を通じて操作者と会話している対話者は、ごく自然に、操作者の声をロボット10から聴取することができる。したがって、対話者はロボット10に強く操作者を感じることができる。なお、一例として、特開2008‐26485号公報に開示されるように、発話を遅延させる一方で音響特徴に基づいて口形状を推定する(第2コンピュータ126によって)ことで、口部分22の動作と発話とを同期させることができる。   By rotation of the angle 70 around the motor shaft 68, the mouth portion 22 of the robot 10 is opened and closed in the direction of arrow D (up and down) shown in FIG. That is, the angle 70 moves corresponding to the lower palate in the mouth portion 22. Therefore, when the angle 70 moves downward in the arrow D direction, the lower lip is pushed down in the mouth portion 22, and the mouth portion 22 opens. When the angle 70 moves upward in the direction of arrow D, the lower lip returns to its original position and the mouth portion 22 is closed. By synchronizing the opening / closing operation of the mouth portion 22, that is, the vertical movement operation of the angle 70, with the sound from the speaker 32 (FIG. 3), a conversation person who is talking to the operator through the robot 10 becomes very natural. The voice of the operator can be heard from the robot 10. Accordingly, the dialog person can feel the operator strongly to the robot 10. As an example, as disclosed in Japanese Patent Laid-Open No. 2008-26485, the mouth shape is estimated (by the second computer 126) while delaying the speech while estimating the mouth shape based on the acoustic features. And the utterance can be synchronized.

また、口機構23では、基本的には、口の開度を連続的に制御できるように設計するが、段階的にしか開度を変えないという制御も考えられる。段階的変化の極端な例が2段階変化であり、口を開けるか閉じるかだけである。   In addition, the mouth mechanism 23 is basically designed so that the opening degree of the mouth can be controlled continuously, but it is also conceivable to control the opening degree only in stages. An extreme example of a step change is a two-step change, only opening or closing the mouth.

このようにモータ66およびアングル70が口機構23の主要構成部品であり、特にモータ66は口機構の動きをするもので、口機構の駆動手段の一例である。   As described above, the motor 66 and the angle 70 are the main components of the mouth mechanism 23. In particular, the motor 66 moves the mouth mechanism and is an example of a drive mechanism for the mouth mechanism.

口機構23の上方に、図1に示す目部分24を構成する目機構25が設けられる。目部分24と同じように、目機構についても左右区別なく説明する。目部分24の左右の眼球72を支持する支持プレート74が設けられる。眼球72はこの実施例では半球形であり、その前面に図1のような黒目が描かれている。支持プレート74の裏面に、モータ76が、各モータ76のモータ軸78が上に向くように、固着される。モータ軸78の先端にはギア80が固着される。このギア80に噛み合うギア82が、ギア80の前方に設けられる。ギア82は、垂直方向下方に延びる回転軸84(図6)に、回転軸84の後ろ側で固着される。回転軸84の前側は眼球72の中心に固着されている。モータ76が回転されてモータ軸78が回転すると、2つのギア80および82の連係によって、回転軸84が回転し、回転軸84に中心が接続されている眼球72は、ギア82の回転方向とは反対方向に回転する。   Above the mouth mechanism 23, an eye mechanism 25 constituting the eye portion 24 shown in FIG. As with the eye portion 24, the eye mechanism will be described without distinction between left and right. Support plates 74 that support the left and right eyeballs 72 of the eye portion 24 are provided. The eyeball 72 has a hemispherical shape in this embodiment, and black eyes as shown in FIG. 1 are drawn on its front surface. The motor 76 is fixed to the back surface of the support plate 74 so that the motor shaft 78 of each motor 76 faces upward. A gear 80 is fixed to the tip of the motor shaft 78. A gear 82 that meshes with the gear 80 is provided in front of the gear 80. The gear 82 is fixed to a rotating shaft 84 (FIG. 6) that extends downward in the vertical direction on the rear side of the rotating shaft 84. The front side of the rotation shaft 84 is fixed to the center of the eyeball 72. When the motor 76 is rotated and the motor shaft 78 is rotated, the rotation shaft 84 is rotated by the linkage of the two gears 80 and 82, and the eyeball 72 whose center is connected to the rotation shaft 84 has the rotation direction of the gear 82. Rotates in the opposite direction.

ギア80のモータ軸78周りの回転に応じて、眼球72が回転すると、ロボット10の目部分24が図1(A)に示す矢印E方向(左右)に変位する。つまり、眼球72の黒目が左右に動く。このような目部分24の動きを対話している操作者の目の動きに連動させれば、対話者は、ごく自然に、操作者の表情をロボット10から聴取することができる。したがって、対話者はロボット10にさらに強く操作者を感じることができる。   When the eyeball 72 rotates according to the rotation of the gear 80 around the motor shaft 78, the eye portion 24 of the robot 10 is displaced in the direction of arrow E (left and right) shown in FIG. That is, the black eye of the eyeball 72 moves from side to side. If the movement of the eye portion 24 is linked to the movement of the eye of the operator who is interacting, the conversation person can listen to the operator's facial expression from the robot 10 very naturally. Therefore, the dialogue person can feel the operator more strongly to the robot 10.

さらに、図6に示すように、2つのモータ76の間においてモータ86が頭部分を形成する取り付けプレート88に固着され、そのモータ86のモータ軸90は水平方向に延び、上記2つのモータ76の一方(図6では左)のモータハウジングの側面に連結される。したがって、モータ86が回転されて、モータ軸90が回転すると、モータ76がハウジングの側面の1点を中心に回動する。モータ76は上述のように支持プレート74に直接固定されている。そのため、モータ76がそのような態様で回動すると、支持プレート74が上下方向に傾動する。   Further, as shown in FIG. 6, a motor 86 is fixed between two motors 76 to a mounting plate 88 that forms a head portion, and a motor shaft 90 of the motor 86 extends in the horizontal direction. It is connected to the side surface of one (left in FIG. 6) motor housing. Therefore, when the motor 86 is rotated and the motor shaft 90 is rotated, the motor 76 is rotated around one point on the side surface of the housing. The motor 76 is directly fixed to the support plate 74 as described above. Therefore, when the motor 76 rotates in such a manner, the support plate 74 tilts in the vertical direction.

モータ86のモータ軸90周りの支持プレート74の回動に応じて、左右の眼球72が一緒に上下方向に変位する。つまり、眼球72の黒目が上下に動く。このような目部分24の動きを対話している操作者の目の動きと連動させれば、対話者は、ごく自然に、操作者の表情をロボット10から聴取することができる。したがって、対話者はロボット10にさらに一層強く操作者を感じることができる。   In accordance with the rotation of the support plate 74 around the motor shaft 90 of the motor 86, the left and right eyeballs 72 are displaced in the vertical direction together. That is, the black eye of the eyeball 72 moves up and down. If the movement of the eye portion 24 is linked to the movement of the eyes of the operator who is interacting, the conversation person can listen to the operator's facial expression from the robot 10 very naturally. Therefore, the conversation person can feel the operator even more strongly in the robot 10.

ここまでで目機構25について説明したが、目機構25は上下左右に変位可能にも受けられた眼球72と、その眼球72を上下左右に動かすモータ76および86が眼球駆動手段の一例である。   The eye mechanism 25 has been described so far. The eye mechanism 25 is an example of an eyeball driving unit that includes an eyeball 72 that is also received so as to be displaceable in the vertical and horizontal directions, and motors 76 and 86 that move the eyeball 72 in the vertical and horizontal directions.

ただし、目機構25が必ず2つの自由度を持たなくてはならないものではなく、自由度を全てなくして目機構25すなわち目部分24が動かないようにしてもよい。あるいは、目機構25にモータ76とそれによって駆動される機構だけを設けて眼球72を左右方向(図1の矢印E)にだけ動くようにしてもよく、目機構25にモータ86とそれによって駆動される機構だけを設けて眼球72を上下方向(図1の矢印F)にだけ動くようにしてもよい。   However, the eye mechanism 25 does not necessarily have two degrees of freedom, and the eye mechanism 25, that is, the eye portion 24, may not move by eliminating all the degrees of freedom. Alternatively, the eye mechanism 25 may be provided with only the motor 76 and the mechanism driven thereby, and the eyeball 72 may be moved only in the left-right direction (arrow E in FIG. 1). The eye mechanism 25 is driven by the motor 86 and driven thereby. It is also possible to provide only the mechanism to be moved so that the eyeball 72 moves only in the vertical direction (arrow F in FIG. 1).

さらに、目機構25では、自由度(矢印EまたはF)においては、基本的には、変化量を連続的に制御できるように設計するが、段階的にしか変化しないような制御も考えられる。段階的変化の極端な例が2段階変化であり、たとえば、矢印E方向であれば、右‐正面‐左だけの変化が、矢印F方向であれば、上‐正面‐下だけの変化が想定できる。   Furthermore, in the eye mechanism 25, the degree of freedom (arrow E or F) is basically designed so that the amount of change can be controlled continuously, but control that changes only in stages is also conceivable. An extreme example of a step change is a two-step change. For example, in the direction of arrow E, a change of only right-front-left is assumed, and in a direction of arrow F, a change of only top-front-down is assumed. it can.

胴体ボックス36の裏面には、たとえばFRP(fiberglass reinforced plastics:ガラス繊維強化プラスチック)の水平プレート92が取り付けられる。この水平プレート92は水平方向に延び、図1のロボット10における腕部分26のための腕機構27(図3)の構成部品である。水平プレート92の先端(両端)前面にはモータ94が、モータ軸96が上に向くように、固着される。モータ軸96の先端は口機構のアングル70と同様の形状のアングル98が固着され、アングル98の垂直面には、たとえば水平プレート92と同じ材料の、先端部材としての先端プレート100が固着される。したがって、モータ94が回転されると、モータ軸96周りにアングル98すなわち先端プレート100が前後方向に回動する。つまり、先端部材としての先端プレート100が水平プレート92の両端に前後に変位可能に設けられ、モータ94がその先端プレート100を前後に動かす駆動手段を構成する。   A horizontal plate 92 of, for example, FRP (fiberglass reinforced plastics) is attached to the back surface of the body box 36. The horizontal plate 92 extends in the horizontal direction and is a component of the arm mechanism 27 (FIG. 3) for the arm portion 26 in the robot 10 of FIG. A motor 94 is fixed to the front surface (both ends) of the horizontal plate 92 so that the motor shaft 96 faces upward. An angle 98 having the same shape as the angle 70 of the mouth mechanism is fixed to the tip of the motor shaft 96, and a tip plate 100 as a tip member made of, for example, the same material as the horizontal plate 92 is fixed to the vertical surface of the angle 98. . Therefore, when the motor 94 is rotated, the angle 98, that is, the tip plate 100 rotates in the front-rear direction around the motor shaft 96. That is, the tip plate 100 as a tip member is provided at both ends of the horizontal plate 92 so as to be displaceable back and forth, and the motor 94 constitutes drive means for moving the tip plate 100 back and forth.

先端プレート100のモータ軸96周りの回転によって、ロボット10の腕部分26が図1(C)に示す矢印G方向(前後)に変位する。腕頭部分26の矢印G方向の動きによって、ロボット10は、たとえば「抱っこ」(ハグ)をして欲しいときに子供が手を前に出すしぐさなどを表現でき、たとえば操作者が甘えたい感情を対話者に伝えることができる。   Due to the rotation of the tip plate 100 around the motor shaft 96, the arm portion 26 of the robot 10 is displaced in the direction of arrow G (front and rear) shown in FIG. By the movement of the arm head portion 26 in the direction of the arrow G, the robot 10 can express, for example, a gesture in which the child puts his hand forward when he wants to “cug” (hug). Can communicate to the interlocutor.

このように、腕機構27は、水平プレート92およびこの水平プレート92の先端に前後に変位可能に設けられる先端プレート100などで構成され、モータ94が先端部材の変位駆動手段の一例となる。   As described above, the arm mechanism 27 includes the horizontal plate 92 and the tip plate 100 provided at the tip of the horizontal plate 92 so as to be displaceable back and forth, and the motor 94 is an example of a displacement driving means for the tip member.

なお、腕機構27の先端部材の一例である先端プレート100の平面形状は、ロボット10の腕部分26の先端が先細りに形成されているために、それに合うように、略3角形状にされている。ただし、この先端部材は先端プレート100のような平板形状に限られるものではなく、この先端部材はそれが前後に変位することによって外被12の腕部分26の先端を前後に動かすためのものであるので、その機能がはっきできるのであれば、棒形状などのものであってもよい。   Note that the planar shape of the distal end plate 100, which is an example of the distal end member of the arm mechanism 27, is substantially triangular so that the distal end of the arm portion 26 of the robot 10 is tapered. Yes. However, this tip member is not limited to a flat plate shape like the tip plate 100, and this tip member is for moving the tip of the arm portion 26 of the jacket 12 back and forth when it is displaced back and forth. Therefore, a bar shape or the like may be used as long as the function can be clearly understood.

また、実施例の腕機構27では、図1(C)に示す腕部分26の湾曲形状を表現するために、先端プレート100の先端が前方に突出するように、先端プレート100を、水平プレート92に対して鈍角に傾斜した位置が初期位置(ホーム位置)となるように、アングル98すなわちモータ軸96に取り付けられる。しかしながら、水平プレート92と整列する(面一になる)初期位置を設定しておき、動作指令が与えられると、先端が前方に向くように設計することも可能である。   Further, in the arm mechanism 27 of the embodiment, in order to express the curved shape of the arm portion 26 shown in FIG. 1C, the tip plate 100 is moved to the horizontal plate 92 so that the tip of the tip plate 100 protrudes forward. Is attached to the angle 98, that is, the motor shaft 96 so that the position inclined at an obtuse angle becomes the initial position (home position). However, it is also possible to set the initial position to be aligned with the horizontal plate 92 (become flush with each other) and to design the tip to face forward when an operation command is given.

また、腕機構27では、基本的には、先端プレート100の曲げ角度を連続的に制御できるように設計するが、段階的にしか変化しないという制御も考えられる。段階的変化の極端な例が2段階変化であり、先端を前に出すか出さないかである。   In addition, the arm mechanism 27 is basically designed so that the bending angle of the tip plate 100 can be controlled continuously, but it is also conceivable that the arm mechanism 27 only changes stepwise. An extreme example of a step change is a two-step change, with the tip moving forward or not.

胴体ボックス36の下面に、2本の金属蛇腹管102が、下方に向かうにつれて互いの間隔が狭くなるように、下方に延びて取り付けられる。金属蛇腹管102の先端には、たとえばアルミニウムの薄板からなり、かつ略3角形状の先端プレート104が、3角形の頂角に相当する側が下になるように、取り付けられる。金属蛇腹管102および先端プレート104が、ロボット10の脚部分28のための脚機構29を構成する。   The two metal bellows tubes 102 are attached to the lower surface of the body box 36 so as to extend downward so that the distance between them decreases toward the bottom. A tip plate 104 made of, for example, an aluminum thin plate and having a substantially triangular shape is attached to the tip of the metal bellows tube 102 so that the side corresponding to the apex angle of the triangle is down. The metal bellows tube 102 and the tip plate 104 constitute a leg mechanism 29 for the leg portion 28 of the robot 10.

脚機構29に金属蛇腹管102を用いているため、ロボット10の脚部分28(図1)を容易に屈曲させることができる。そのため、対話者は、ロボット10を抱っこしたり、隣に座らせたりすることよって、対話者と親密な距離感を持ちながら、操作者と話をすることができる。これにより,対話者は操作者の存在を、ロボット10を通してより強く感じることができる。一例として、ロボット10を通じて操作者と対話する対話者108は、図7に示すように、脚部分28を幾分曲げて、ロボット10を自分のひざの上に抱いてもよい。ただし、ロボット10を対話者の身近に置く態様は、図7のよう対話者のひざの上に置く態様に限られるものではない。 Since the metal bellows tube 102 is used for the leg mechanism 29, the leg portion 28 (FIG. 1) of the robot 10 can be easily bent. Therefore, the conversation person can talk with the operator while holding the robot 10 or sitting next to it while having a close sense of distance with the conversation person. Thereby, the dialog person can feel the presence of the operator more strongly through the robot 10. As an example, a dialoguer 108 who interacts with an operator through the robot 10 may bend the leg portion 28 somewhat and hold the robot 10 on his lap as shown in FIG. However, the manner in which the robot 10 is placed close to the conversation person is not limited to the aspect in which the robot 10 is placed on the conversation person's lap as shown in FIG.

なお、後述の制御装置112(図8)とロボット10の電気回路とを有線で接続する場合には、胴体ボックス36の下面から突出して形成されている有線接続ポート106を用い、その接続線(コード)は外被12に適宜の孔を形成しておき、その孔から外被12の外へだせばよい。   In addition, when connecting the control apparatus 112 (FIG. 8) mentioned later and the electric circuit of the robot 10 with a wire connection, the wired connection port 106 which protrudes from the lower surface of the fuselage box 36 is used, and the connection line ( For the cord), an appropriate hole may be formed in the jacket 12 and the cord 12 may be put out of the jacket 12 through the hole.

図8を参照して、この実施例の遠隔操作システム(以下、単に「システム」ということがある。)110は、ロボット10を含む。ロボット10は先に説明したように、人間のミニマルデザインに基づく外観形状を持ち、腕部分26などのような必要最低限の自由度を備えるロボットである。ロボット10は、遠隔場所で検知した操作者の音声や状態のデータ(音声データ、状態データ)に基づいて、操作者の音声、状態を主としてロボット機構体14の動作によって再現する。そのために、ロボット機構体14に設けられた横首振り用のモータ(図示せず:図4のボックス36の中)、縦首振り用のモータ56、首傾げ用のモータ64、口開閉用のモータ66、目左右変位用のモータ(2つ)76、目上下変位用のモータ86、および腕先端前後変位用のモータ94をそれぞれ制御するための制御装置112が設けられる。この制御装置112は典型的にはパソコンで構成する。   Referring to FIG. 8, a remote operation system (hereinafter simply referred to as “system”) 110 of this embodiment includes a robot 10. As described above, the robot 10 is a robot having an appearance shape based on a minimal design of a human and having a minimum necessary degree of freedom such as the arm portion 26. The robot 10 reproduces the voice and state of the operator mainly by the operation of the robot mechanism 14 based on the voice and state data (voice data and state data) of the operator detected at a remote place. For this purpose, a horizontal swing motor (not shown in the box 36 in FIG. 4), a vertical swing motor 56, a tilting motor 64, and a mouth opening / closing motor provided in the robot mechanism 14 are provided. A control device 112 is provided for controlling the motor 66, the left and right eye displacement motors (two) 76, the eye vertical displacement motor 86, and the arm tip longitudinal displacement motor 94, respectively. The control device 112 is typically composed of a personal computer.

なお、制御装置112とロボット10の各モータなどを有線で接続する場合には、図4などに示す有線接続ポート106を用いることは前述のとおりである。無線通信手段で結合されてもよい。さらに、このような制御装置112をロボット10の外被12に内蔵し、あるいは外被12の表面に装着することも考えられる。特に、高齢者がロボット10を日常的に使う場合には、ロボット10と制御装置112とを一体化するほうが好都合である。   Note that when the control device 112 and each motor of the robot 10 are connected by wire, the wire connection port 106 shown in FIG. 4 is used as described above. It may be coupled by wireless communication means. Furthermore, it is conceivable that such a control device 112 is built in the outer cover 12 of the robot 10 or mounted on the surface of the outer cover 12. In particular, when an elderly person uses the robot 10 on a daily basis, it is more convenient to integrate the robot 10 and the control device 112.

制御装置112は、インタネットや電話通信回線のようなネットワーク114を介して遠隔操作装置116に接続される。遠隔操作装置116も、パソコンのような汎用のコンピュータであってよい。遠隔操作装置116には、第2スピーカ118、第2マイク120およびモニタ122が接続される。図示は省略するが、当然のことながら、遠隔操作装置116には、キーボードおよびコンピュータマウスのような入力装置が含まれる。   The control device 112 is connected to the remote control device 116 via a network 114 such as the Internet or a telephone communication line. The remote control device 116 may also be a general-purpose computer such as a personal computer. A remote speaker 116 is connected to a second speaker 118, a second microphone 120, and a monitor 122. Although not shown, it should be appreciated that the remote control device 116 includes input devices such as a keyboard and a computer mouse.

図9は図8の制御装置112を詳しく示すブロック図である。この図9を参照して、制御装置112は、第1コンピュータ124および第2コンピュータ126によって構成される。たとえば、第1コンピュータ124がメインのコンピュータであり、第2コンピュータ126がサブのコンピュータである。ただし、処理能力が高ければ、1台のコンピュータで構成することもできる。   FIG. 9 is a block diagram showing in detail the control device 112 of FIG. Referring to FIG. 9, control device 112 includes a first computer 124 and a second computer 126. For example, the first computer 124 is a main computer, and the second computer 126 is a sub computer. However, if the processing capability is high, it can be configured by one computer.

第1コンピュータ124は、CPU128を含み、CPU128には内部バスを介してメモリ130、通信ボード132、LANボード134およびカメラボード136が接続される。メモリ130は、たとえば、ハードディスク装置(HDD)のような主記憶装置、ROMおよびRAMを含む。   The first computer 124 includes a CPU 128, and a memory 130, a communication board 132, a LAN board 134, and a camera board 136 are connected to the CPU 128 via an internal bus. The memory 130 includes, for example, a main storage device such as a hard disk device (HDD), a ROM, and a RAM.

カメラボード136は、全方位カメラ138、PTZカメラ140およびロボットカメラ142からのカメラ信号をA/D変換してカメラ信号データとしてCPU128に与え、制御データを主としてPTZカメラ140にパン、チルト、ズームなどの制御データを出力するためのインターフェイスである。   The camera board 136 performs A / D conversion on camera signals from the omnidirectional camera 138, the PTZ camera 140, and the robot camera 142, and supplies them to the CPU 128 as camera signal data. The control data is mainly panned, tilted, zoomed, etc. to the PTZ camera 140. It is an interface for outputting control data.

全方位カメラ138は、ロボット10すなわち対話者108が存在する部屋ないし場所(区画)に設置され、当該部屋ないし場所の全体(360度)を撮影することができる。全方位カメラ138のカメラ映像に対応する映像データがCPU128に与えられる。CPU128は、映像データに基づいてその場所の状況の変化を検出するのみならず、その画像データを遠隔操作装置116に送信する。遠隔操作装置116は、受信した映像データをモニタ122に出力する。したがって、全方位カメラ138からの映像が、モニタ122に表示され、そのモニタ122を通して操作者は対話者の存在する部屋ないし場所の様子を知ることができる。   The omnidirectional camera 138 is installed in a room or place (section) where the robot 10, that is, the conversation person 108 exists, and can photograph the entire room or place (360 degrees). Video data corresponding to the camera video of the omnidirectional camera 138 is supplied to the CPU 128. The CPU 128 not only detects a change in the situation of the place based on the video data, but also transmits the image data to the remote operation device 116. The remote operation device 116 outputs the received video data to the monitor 122. Therefore, the video from the omnidirectional camera 138 is displayed on the monitor 122, and the operator can know the state of the room or place where the interlocutor exists through the monitor 122.

PTZカメラ140は、操作者の指示に従って、パン(Pan)、チルト(Tilt)およびズーム(Zoom)の各々を制御(調整)することができるカメラである。たとえば、遠隔操作者が、パン、チルト、ズームの指示を入力すると、対応する制御信号(コマンド)が遠隔操作装置116からネットワーク114を介して第1コンピュータ124に与えられる。すると、第1コンピュータ124のCPU128は、そのコマンドに従ってPTZカメラ140を駆動制御する。PTZカメラ140の撮影映像に対応する映像データもまた、CPU128に与えられる。CPU128は、映像データに基づいて対話者108などの状況の変化を検出するのみならず、その映像データを遠隔操作装置116に送信する。遠隔操作装置116は、受信した映像データをモニタ122に出力する。したがって、PTZカメラ140の映像もモニタ122に表示される。モニタ122を通して操作者は対話者108の様子を知ることができる。   The PTZ camera 140 is a camera that can control (adjust) each of pan, tilt, and zoom according to an operator's instruction. For example, when a remote operator inputs pan, tilt, and zoom instructions, corresponding control signals (commands) are given from the remote operation device 116 to the first computer 124 via the network 114. Then, the CPU 128 of the first computer 124 drives and controls the PTZ camera 140 according to the command. Video data corresponding to the video shot by the PTZ camera 140 is also provided to the CPU 128. The CPU 128 not only detects changes in the situation of the interlocutor 108 or the like based on the video data, but also transmits the video data to the remote control device 116. The remote operation device 116 outputs the received video data to the monitor 122. Therefore, the image of the PTZ camera 140 is also displayed on the monitor 122. Through the monitor 122, the operator can know the state of the interlocutor 108.

上では説明しなかったが、ロボット10の外被12の頭部分18(人間でいえば額に相当する位置)に内蔵されて外被12の外を撮影できるロボットカメラ142を設けるようにしてもよい。ロボットカメラ142は、たとえばイメージセンサであり、ロボット10の視覚の一部を構成する。つまり、ロボットカメラ142は、ロボット10から見た映像を検出するために用いられる。この実施例では、ロボットカメラ142の映像(動画ないし静止画)に対応するデータ(映像データ)は、カメラボード136を介してCPU128に与えられる。CPU128は、映像データに基づいて、撮影映像の変化を検出するのみならず、その映像データを、ネットワーク114を介して遠隔操作装置116に送信する。そして、遠隔操作装置116は、受信した映像データを再生してモニタ122に映像を出力する。したがって、ロボットカメラ142の撮影映像がモニタ122に表示され、モニタ122を通して操作者はロボットカメラ142が取得した対話者108などの様子を知ることができる。 Although not described above, a robot camera 142 that is built in the head portion 18 (a position corresponding to a forehead for humans) of the jacket 12 of the robot 10 and can photograph the outside of the jacket 12 may be provided. Good. The robot camera 142 is an image sensor, for example, and constitutes part of the vision of the robot 10. That is, the robot camera 142 is used to detect an image viewed from the robot 10. In this embodiment, data (video data) corresponding to the video (moving image or still image) of the robot camera 142 is given to the CPU 128 via the camera board 136. The CPU 128 not only detects a change in the captured video based on the video data, but also transmits the video data to the remote operation device 116 via the network 114. Then, the remote operation device 116 outputs the video to the monitor 122 reproduces the Zode over data movies received. Therefore, the captured image of the robot camera 142 is displayed on the monitor 122, and the operator can know the state of the conversation person 108 acquired by the robot camera 142 through the monitor 122.

通信ボード132は、他のコンピュータ(この実施例では、第2コンピュータ126)とデータ通信するためのインターフェイスである。たとえば、通信ボード132は、後述する第2コンピュータ126の通信ボード148と、RS232Cのようなケーブル(図示せず)を用いて接続される。LANボード134は、ネットワーク114を介して他のコンピュータ(この実施例では、遠隔操作装置116)とデータ通信するためのインターフェイスである。この実施例では、LANボード134は、LANケーブル(図示せず)または無線LANでネットワーク114と接続される。   The communication board 132 is an interface for data communication with another computer (in this embodiment, the second computer 126). For example, the communication board 132 is connected to a communication board 148 of the second computer 126 to be described later using a cable (not shown) such as RS232C. The LAN board 134 is an interface for data communication with another computer (in this embodiment, the remote operation device 116) via the network 114. In this embodiment, the LAN board 134 is connected to the network 114 via a LAN cable (not shown) or a wireless LAN.

第2コンピュータ126は、CPU144を含み、CPU144には内部バスを介してメモリ146、通信ボード148、モータ制御ボード150、音声ボード152およびセンサボード154が接続される。メモリ146は、たとえば、ハードディスク装置(HDD)のような主記憶装置、ROMおよびRAMを含む。詳細な説明は省略するが、このメモリ146には、遠隔操作装置116から伝えられる、操作者の状態を表す状態データをロボット10の動作として再現するための変換テーブル(図示せず)などが設定されているものとする。つまり、状態データが示す操作者の状態を再生するためには、モータ(図示せず:図4のボックス36の中)およびモータ56、64、66、76、86および94をどの程度どの方向に回転または回動すればよいかモータ制御データに変換するためのテーブルである。 The second computer 126 includes a CPU 144, and a memory 146, a communication board 148, a motor control board 150, an audio board 152, and a sensor board 154 are connected to the CPU 144 via an internal bus. The memory 146 includes, for example, a main storage device such as a hard disk device (HDD), a ROM, and a RAM. Although detailed description is omitted, a conversion table (not shown) for reproducing the state data representing the state of the operator transmitted from the remote operation device 116 as the operation of the robot 10 is set in the memory 146. It is assumed that That is, in order to reproduce the operator's status indicated by the status data, the motor (not shown: in the box 36 in FIG. 4) and the motors 56, 64, 66, 76, 86 and 94 and in which direction. It is a table for converting into motor control data whether it should rotate or rotate.

ロボット10は前述のように、頭部分に3自由度、口部分に1自由度、目部分に3自由度、左右の腕部分にそれぞれ1自由度、計9自由度が設定されていて、それら9自由度のそれぞれを制御するための9つのモータ(図示せず:図4のボックス36の中)およびモータ56、64、66、76(2つ)、86および94(2つ)と、スピーカ32およびマイク34を含む。モータ(図示せず:図4のボックス36の中)およびモータ56、64、66、76(2つ)、86および94(2つ)は、制御装置112に設けられたモータ制御ボード150に接続される。したがって、CPU144からのモータ制御データに従って、モータ制御ボード150がモータ(図示せず:図4のボックス36の中)およびモータ56、64、66、76(2つ)、86および94(2つ)の回転方向および回転量を制御する。   As described above, the robot 10 has 3 degrees of freedom in the head portion, 1 degree of freedom in the mouth portion, 3 degrees of freedom in the eye portion, 1 degree of freedom in the left and right arm portions, a total of 9 degrees of freedom. Nine motors (not shown: in box 36 in FIG. 4) and motors 56, 64, 66, 76 (two), 86 and 94 (two) to control each of the nine degrees of freedom, speakers 32 and microphone 34. Motors (not shown: in box 36 in FIG. 4) and motors 56, 64, 66, 76 (two), 86 and 94 (two) are connected to motor control board 150 provided in controller 112. Is done. Therefore, according to the motor control data from the CPU 144, the motor control board 150 is connected to the motor (not shown: in the box 36 in FIG. 4) and the motors 56, 64, 66, 76 (two), 86 and 94 (two). Control the direction and amount of rotation.

また、ロボット10は前述のようにスピーカ32およびマイク34を含む。CPU144から出力された音声データ(典型的には、遠隔地の操作者の音声)は音声ボード152によってD/A変換されてスピーカ32に与えられる。したがって、スピーカ32は、操作者の音声を出力する。マイク34によって取り込まれた対話者108(図7)の音声は、音声ボード152によってD/A変換されてCPU144に与えられる。   The robot 10 includes the speaker 32 and the microphone 34 as described above. The voice data (typically, the voice of the remote operator) output from the CPU 144 is D / A converted by the voice board 152 and given to the speaker 32. Therefore, the speaker 32 outputs the operator's voice. The voice of the interlocutor 108 (FIG. 7) captured by the microphone 34 is D / A converted by the voice board 152 and given to the CPU 144.

ロボット10は、また、外被12の表面の適宜数の場所に装着された1つまたは複数の触覚センサ156を含む。触覚センサないし皮膚センサ156は、たとえばタッチセンサであり、ロボット10の触覚の一部を構成する。つまり、触覚センサ156は、人間や他の物体等がロボット10に触れたか否かを検出するために用いられる。この触覚センサ156からのセンサ信号がセンサボード154を介してCPU144に入力される。したがって、CPU144は、人間や他の物体等がロボット10に触れたことを検出することができる。   The robot 10 also includes one or more tactile sensors 156 mounted at an appropriate number of locations on the surface of the jacket 12. The tactile sensor or skin sensor 156 is a touch sensor, for example, and constitutes a part of the tactile sense of the robot 10. That is, the tactile sensor 156 is used to detect whether a human or another object touches the robot 10. A sensor signal from the tactile sensor 156 is input to the CPU 144 via the sensor board 154. Therefore, the CPU 144 can detect that a human or another object has touched the robot 10.

ただし、触覚センサ156としては、圧力センサを用いることもできる。この場合には、人間や他の物体等がロボット10の肌に触れたか否かのみならず、その触れ方(強弱)を知ることができる。   However, a pressure sensor can also be used as the tactile sensor 156. In this case, it is possible to know not only whether or not a human or another object touches the skin of the robot 10, but also how to touch it (strength).

図10に示す遠隔制御装置116も同様にパソコンのようなコンピュータで形成される。遠隔制御装置116はCPU158を含み、CPU158には内部バスを介してメモリ160、LANボード162およびカメラボード164が接続される。メモリ160は、たとえば、ハードディスク装置(HDD)のような主記憶装置、ROMおよびRAMを含む。カメラボード164には操作者カメラ166が接続される。操作者カメラ166は、ロボット10を通して対話者108(図7)と対話する操作者の状態を撮影するもので、それのカメラ信号はカメラボード164を介して、映像データとして、CPU158に入力される。   Similarly, the remote control device 116 shown in FIG. 10 is formed by a computer such as a personal computer. The remote control device 116 includes a CPU 158, and a memory 160, a LAN board 162, and a camera board 164 are connected to the CPU 158 via an internal bus. The memory 160 includes, for example, a main storage device such as a hard disk device (HDD), a ROM, and a RAM. An operator camera 166 is connected to the camera board 164. The operator camera 166 shoots the state of the operator who interacts with the conversation person 108 (FIG. 7) through the robot 10, and the camera signal thereof is input to the CPU 158 as video data via the camera board 164. .

CPU158は、映像データに基づいて、操作者の状態を示す状態データを生成する。詳しくいうと、遠隔操作装置116のCPU158は、操作者カメラ166からの映像データを処理して、まず、たとえば映像中の肌色領域を検出するなどして、操作者の頭部分を検出する。その頭部分の状態が前回検出したものとどのように変化しているかを示す差分データを計算して、その差分データをネットワーク114を通して制御装置112に送信する。たとえば、操作者の頭部分の状態を、図1に示す矢印A、BおよびC方向における変位量の差分データとして検出する。   The CPU 158 generates status data indicating the status of the operator based on the video data. More specifically, the CPU 158 of the remote operation device 116 processes the video data from the operator camera 166 and first detects the operator's head, for example, by detecting a skin color area in the video. Difference data indicating how the state of the head portion is changed from that detected last time is calculated, and the difference data is transmitted to the control device 112 through the network 114. For example, the state of the operator's head is detected as difference data of displacement amounts in the directions of arrows A, B and C shown in FIG.

制御装置112のLANボード134からこの差分データが入力され、CPU128および通信ボード132および148を介して、第2コンピュータ126のCPU144に伝えられる。CPU144は、メモリ146に予め設定している前述のような変換テーブル(図示せず)を参照して、頭部分18を図1に示す矢印A、BおよびC方向のそれぞれにおいて、どの方向にどれだけ変位させればよいかを計算し、モータ(図示せず:図4のボックス36の中)およびモータ56ならびに64のモータ制御データを決定し、それをモータ制御ボード150に出力する。そのモータ制御データが示す回転方向および回転量に従ってモータ(図示せず:図4のボックス36の中)およびモータ56ならびに64が制御される。したがって、操作者カメラ166が捉えた操作者の頭部分の状態が、ロボット10の頭部分18によって再現または再生される。つまり、そのときのロボット10の頭部分18の状態は、操作者の頭部分の状態に追従したものとして再現される。したがって、対話者108は、そのような頭部分18の変位を見て、ロボット10上において、操作者の状態を容易に読取ることができる。   The difference data is input from the LAN board 134 of the control device 112 and transmitted to the CPU 144 of the second computer 126 via the CPU 128 and the communication boards 132 and 148. The CPU 144 refers to the conversion table (not shown) set in advance in the memory 146 and refers to the head portion 18 in which direction in the directions of arrows A, B and C shown in FIG. The motor control data of the motor (not shown: in the box 36 of FIG. 4) and the motors 56 and 64 are determined and output to the motor control board 150. The motor (not shown in the box 36 in FIG. 4) and the motors 56 and 64 are controlled according to the rotation direction and rotation amount indicated by the motor control data. Therefore, the state of the head portion of the operator captured by the operator camera 166 is reproduced or reproduced by the head portion 18 of the robot 10. That is, the state of the head portion 18 of the robot 10 at that time is reproduced as following the state of the operator's head portion. Therefore, the conversation person 108 can easily read the state of the operator on the robot 10 by seeing such a displacement of the head portion 18.

口部分22についても同様に、遠隔操作装置116のCPU158が操作者の頭部分(肌色部分)中にある、口部分を検出する。そして、口部分の状態が前回検出したものとどのように変化しているかを示す差分データを計算して、その差分データをネットワーク114を通して制御装置112に送信する。たとえば、操作者の口部分の状態を、図1に示す矢印D方向における変位量の差分データとして検出する。   Similarly for the mouth portion 22, the CPU 158 of the remote control device 116 detects the mouth portion in the head portion (skin color portion) of the operator. Then, difference data indicating how the state of the mouth portion is changed from that detected last time is calculated, and the difference data is transmitted to the control device 112 through the network 114. For example, the state of the operator's mouth is detected as difference data of the displacement amount in the direction of arrow D shown in FIG.

制御装置112のLANボード134からこの差分データが入力され、CPU128および通信ボード132および148を介して、第2コンピュータ126のCPU144に伝えられる。CPU144は、メモリ146に予め設定している前述のような変換テーブル(図示せず)を参照して、口部分22を図1に示す矢印D方向において、どの方向にどれだけ変位させればよいかを計算し、モータ66のモータ制御データを決定し、それをモータ制御ボード150に出力する。そのモータ制御データが示す回転方向および回転量に従ってモータ66が制御される。したがって、操作者カメラ166が捉えた操作者の口部分の状態が、ロボット10の口部分22によって再現または再生される。つまり、そのときのロボット10の口部分22の状態は、操作者の口部分の状態を追従したものとして再現される。したがって、対話者108は、そのような口部分22の動きを見て、操作者が対話者に向けて発話していることを容易に認識することができる。   The difference data is input from the LAN board 134 of the control device 112 and transmitted to the CPU 144 of the second computer 126 via the CPU 128 and the communication boards 132 and 148. The CPU 144 refers to a conversion table (not shown) set in advance in the memory 146 and displaces the mouth portion 22 in what direction in the direction of arrow D shown in FIG. The motor control data of the motor 66 is determined and is output to the motor control board 150. The motor 66 is controlled according to the rotation direction and rotation amount indicated by the motor control data. Accordingly, the state of the mouth portion of the operator captured by the operator camera 166 is reproduced or reproduced by the mouth portion 22 of the robot 10. That is, the state of the mouth portion 22 of the robot 10 at that time is reproduced as following the state of the operator's mouth portion. Therefore, the interlocutor 108 can easily recognize that the operator is speaking to the interlocutor by seeing such movement of the mouth portion 22.

目部分も同様である。遠隔操作装置116のCPU158が操作者の頭部分(肌色部分)中にある、目部分を検出する。その目部分の状態が前回検出したものとどのように変化しているかを示す差分データを計算して、その差分データをネットワーク114を通して制御装置112に送信する。たとえば、操作者の目部分の状態を、図1に示す矢印EおよびF方向における変位量の差分データとして検出する。   The same applies to the eyes. The CPU 158 of the remote operation device 116 detects an eye portion in the operator's head portion (skin color portion). Difference data indicating how the state of the eye part is changed from that detected last time is calculated, and the difference data is transmitted to the control device 112 through the network 114. For example, the state of the operator's eyes is detected as difference data of displacement amounts in the directions of arrows E and F shown in FIG.

制御装置112のLANボード134からこの差分データが入力され、CPU128および通信ボード132および148を介して、第2コンピュータ126のCPU144に伝えられる。CPU144は、メモリ146に予め設定している前述のような変換テーブルを参照して、目部分24を図1に示す矢印EおよびF方向のそれぞれにおいて、どの方向にどれだけ変位させればよいかを計算し、モータ76(2つ)および86のモータ制御データを決定し、それをモータ制御ボード150に出力する。そのモータ制御データが示す回転方向および回転量に従ってモータ76(2つ)および86が制御される。したがって、操作者カメラ166が捉えた操作者の目部分の状態が、ロボット10の目部分24によって再現または再生される。つまり、そのときのロボット10の目部分24の状態は、操作者の目部分の状態に追従したものとして再現される。したがって、対話者108は、そのような目部分24の変化を見て、ロボット10上において、操作者の表情を容易に読取ることができる。   The difference data is input from the LAN board 134 of the control device 112 and transmitted to the CPU 144 of the second computer 126 via the CPU 128 and the communication boards 132 and 148. The CPU 144 refers to the conversion table previously set in the memory 146 and determines how much the eye portion 24 should be displaced in which direction in each of the arrow E and F directions shown in FIG. , Determine motor control data for the motors 76 (two) and 86, and output them to the motor control board 150. The motors 76 (two) and 86 are controlled in accordance with the rotation direction and rotation amount indicated by the motor control data. Therefore, the state of the operator's eyes captured by the operator camera 166 is reproduced or reproduced by the eyes 24 of the robot 10. That is, the state of the eye part 24 of the robot 10 at that time is reproduced as following the state of the operator's eye part. Accordingly, the interlocutor 108 can easily read the operator's facial expression on the robot 10 while seeing such a change in the eye portion 24.

遠隔操作装置116が前述のようにコンピュータである場合、たとえば、マウスなどのポインティングデバイス(図示せず)による入力、あるいはカーソルキー(図示せず)など特定のキー入力などの所定入力操作によって、腕機構27の先端プレート100の前後方向への変位を指示する遠隔操作指令(操作データ)を送ることができる。たとえば、上向きカーソルキーを押すと先端プレート100を前に出す指令を、それに後続して数値を入力すると、水平プレート92に対する角度を指令する操作データを、ネットワーク114を介して制御112に送信することができる。下向きカーソルキーを押しその後数を入力することによって、先端プレート100を水平プレート92に対して何度に後退させるかと言う操作データを送信できる。ただし、先端プレート100の位置として2つの位置(前か後か)しかない場合には、カーソルキーだけの操作でよい。 When the remote control device 116 is a computer as described above, for example, an arm is input by a predetermined input operation such as an input with a pointing device (not shown) such as a mouse or a specific key input such as a cursor key (not shown). A remote operation command (operation data) for instructing the displacement of the mechanism 27 in the front-rear direction of the tip plate 100 can be sent. For example, when an upward cursor key is pressed, a command for moving the tip plate 100 forward is sent, and when a numerical value is subsequently input, operation data for commanding an angle with respect to the horizontal plate 92 is transmitted to the control 112 via the network 114. Can do. By pressing the downward cursor key and inputting the number thereafter, operation data indicating how many times the tip plate 100 is retracted relative to the horizontal plate 92 can be transmitted. However, if there are only two positions (front or rear) as the position of the tip plate 100, only the operation of the cursor key is sufficient.

このような遠隔操作システム110において、遠隔操作装置116から何らかのデータが制御装置112に送信されたとき、そのことをイベントとして、図11の処理が制御装置112によって実行される。ただし、ロボット10のロボット機構体14の制御は主として第2コンピュータ126(図9)が行なうので、図11の処理は第2コンピュータ126すなわちCPU144の動作である。   In such a remote operation system 110, when some data is transmitted from the remote operation device 116 to the control device 112, the processing of FIG. However, since the control of the robot mechanism 14 of the robot 10 is mainly performed by the second computer 126 (FIG. 9), the processing of FIG. 11 is the operation of the second computer 126, that is, the CPU 144.

最初のステップS1では、制御装置112の第2コンピュータ126のCPU144は、ネットワーク114および通信ボード132および148を介して入力され、メモリ146に一旦記憶されたデータが、音声データかどうか判断する。音声データは、マイク120で取得した操作者の音声の音声データであり、ステップS1で“YES”の場合、CPU144は、ステップS3において、メモリ146から該当の音声データを読み出して、音声ボード152に入力する。したがって、スピーカ32から、操作者の音声が出力される。   In the first step S1, the CPU 144 of the second computer 126 of the control device 112 determines whether the data input via the network 114 and the communication boards 132 and 148 and once stored in the memory 146 is audio data. The voice data is voice data of the operator's voice acquired by the microphone 120. If “YES” in the step S1, the CPU 144 reads out the corresponding voice data from the memory 146 in the step S3, and stores it in the voice board 152. input. Therefore, the operator's voice is output from the speaker 32.

ステップS3ではまた、スピーカ32からの上述の発話に同期して口部分22が動作するように、ロボット機構体14の口機構23に含まれるモータ66を制御する。つまり、スピーカ32からの発話に合わせて、口部分22を開閉させる。   In step S3, the motor 66 included in the mouth mechanism 23 of the robot mechanism 14 is controlled so that the mouth portion 22 operates in synchronization with the above-mentioned speech from the speaker 32. That is, the mouth portion 22 is opened and closed according to the utterance from the speaker 32.

このようにして、口部分22の開閉動作をスピーカ32からの操作者の音声と同期させることによって、ロボット10を通じて操作者と会話している対話者は、身近において直接、操作者の声をロボット10から聴取することができる。したがって、対話者はロボット10に強く操作者を感じることができる。   In this manner, by synchronizing the opening / closing operation of the mouth portion 22 with the voice of the operator from the speaker 32, the conversation person who is talking to the operator through the robot 10 directly hears the voice of the operator from the robot. 10 can be heard. Accordingly, the dialog person can feel the operator strongly to the robot 10.

ステップS1で“NO”の場合、遠隔制御装置116からのデータは、操作者の状態を示す状態データか、腕機構27のための操作データである。   If “NO” in the step S 1, the data from the remote control device 116 is state data indicating the state of the operator or operation data for the arm mechanism 27.

操作データである場合、ステップS5において“YES”が判断される。この場合、次のステップS7において、CPU144は、メモリ146に一旦蓄積された操作データを読み出し、その操作データの指令内容を達成するためには、メモリ146内の変換テーブル(図示せず)を参照するなどして、モータ94(2つ)をどの方向にどの程度回転させればよいかという制御データを生成する。制御データは、モータ制御ボード150に与えられる。モータ制御ボード150では、その制御データに従ってモータ94を駆動する。応じて、腕機構27すなわち腕部分26が操作データに従って前後に動く。   If it is operation data, “YES” is determined in step S5. In this case, in the next step S7, the CPU 144 reads the operation data once stored in the memory 146 and refers to a conversion table (not shown) in the memory 146 in order to achieve the command content of the operation data. By doing so, control data is generated as to which direction the motor 94 (two) should be rotated. The control data is given to the motor control board 150. The motor control board 150 drives the motor 94 according to the control data. Accordingly, the arm mechanism 27, that is, the arm portion 26 moves back and forth according to the operation data.

ステップS5で“NO”を判断したとき、そのときのデータは、操作者の状態を示す状態データ(差分データ)である。したがって、先に詳細に説明したように、CPU144がモータ制御ボード150を通して、ロボット機構体14の必要なモータ(図示せず:図4のボックス36の中)およびモータ56ならびに64、66、76(2つ)および/または86を制御する。これによって、ロボット10にそのときの操作者の状態が再現され、対話者はロボット10に一層強く操作者を感じることになる。   When “NO” is determined in step S5, the data at that time is state data (difference data) indicating the state of the operator. Therefore, as described in detail above, the CPU 144 passes the motor control board 150 through the motor control board 150 and the necessary motor (not shown: in the box 36 in FIG. 4) and the motor 56 and 64, 66, 76 ( 2) and / or 86. As a result, the state of the operator at that time is reproduced in the robot 10, and the dialog person feels the operator more strongly in the robot 10.

なお、発明者の実験によれば、ロボット10自体を操作者と実感するには口部分や頭部分は操作者と同期して状態変化することが必要であった。   According to the inventors' experiment, in order to realize the robot 10 itself as an operator, it is necessary to change the state of the mouth portion and the head portion in synchronization with the operator.

次に重要な要素は、腕部分26の先端が前後に揺動できることであった。口部分、頭部分と共に腕部分の状態が変化することで、対話者はロボット10上に操作者を一層強く実感できた。   The next important factor was that the tip of the arm portion 26 could swing back and forth. By changing the state of the arm portion together with the mouth portion and the head portion, the dialog person can feel the operator more strongly on the robot 10.

目部分の状態を操作者と同期するようにすれば、人間のミニマルデザインを体現した外観を有するだけのロボット10がほぼ完全に操作者と意識するようになった。   If the state of the eye portion is synchronized with the operator, the robot 10 having an appearance that embodies the minimal design of a human is almost completely aware of the operator.

図12以降はこの発明の他の実施例を示し、図12は図1と同様に、遠隔操作ロボット10の外観の一例を示す図解図であり、図12(A)は正面図、図12(B)は側面図、図12(C)は平面図である。図12実施例の遠隔操作ロボットは次の点において、先の図1実施例の遠隔操作ロボットと異なる。ただし、以下の説明で特に言及しない限り、両者は同一または類似の構造、形状、材質などを持つものと理解されたい。   FIG. 12 and subsequent figures show another embodiment of the present invention. FIG. 12 is an illustrative view showing an example of the external appearance of the remote control robot 10 as in FIG. 1, FIG. 12 (A) is a front view, and FIG. B) is a side view, and FIG. 12C is a plan view. The remote control robot of FIG. 12 embodiment differs from the remote control robot of FIG. 1 embodiment in the following points. However, unless specifically mentioned in the following description, it should be understood that both have the same or similar structure, shape, material, and the like.

図1実施例では、外被12はシリコーン樹脂製だが、図12実施例では、軟質ポリ塩化ビニル(ソフトビニール)製の外被12を用いる。ただし、図1実施例では頭蓋骨に相当する「殻」はないが、図12実施例では、たとえばABS樹脂からなる頭蓋骨部材170(図18)を用いる。このような頭蓋骨部材170は、図18からよくわかるように、頭部の前半分を形成する前部部材170aと、顎部材170bと、前部部材170aと結合される後部部材170cとを含む。頭蓋骨部材170の前部部材170aと後部部材170cは、取り付けプレート88の両側に設けられた側板174上に、両側に突出するように設けた中空ねじ(中空棒に雌ねじを切ったもの)172(図12‐図15)とボルトまたはビス(図示せず)とによって固定的に取り付けられる。そして、顎部材170bは、前部部材170aの下端両側で結合されることによって、上下に変位可能に前部部材170aに連結される。 In the embodiment shown in FIG. 1, the jacket 12 is made of a silicone resin, but in the embodiment shown in FIG. 12, a jacket 12 made of soft polyvinyl chloride (soft vinyl) is used. However, although there is no “shell” corresponding to the skull in the embodiment of FIG. 1, the skull member 170 (FIG. 18) made of, for example, ABS resin is used in the embodiment of FIG. Such skull member 170, as best seen in FIG. 18, includes a front member 170a forming the front half of the head, and jaw member 170b, a rear member 170c, which is coupled to the front member 170a. The front member 170a and the rear member 170c of the skull member 170 are formed on a side plate 174 provided on both sides of the mounting plate 88, and are provided with hollow screws 172 (in which a female screw is cut into a hollow rod). 12-15) and fixedly attached by bolts or screws (not shown). The jaw member 170b is coupled to the front member 170a so as to be vertically displaceable by being coupled at both lower ends of the front member 170a.

なお、外被12は頭蓋骨部材170の表面に密着するように被せられるので、頭蓋骨部材170と外被12との間に隙間はなく、したがって、それらの間にウレタン樹脂などからなる詰め物30(図12)は入っていない。   Since the outer cover 12 is placed so as to be in close contact with the surface of the skull member 170, there is no gap between the skull member 170 and the outer cover 12, and therefore, the filling 30 (see FIG. 12) is not included.

また、図1実施例は全長80cm程度であるが、図12実施例は70cm程度と短くした。それに伴って、各部の部品形状も変わっているところもあるが、図12実施例においても、ロボット機構体14の自由度は図1実施例と同様に、9軸である。   The embodiment of FIG. 1 has a total length of about 80 cm, but the embodiment of FIG. 12 is shortened to about 70 cm. Along with this, there are places where the part shapes of the respective parts have also changed, but also in the embodiment of FIG. 12, the degree of freedom of the robot mechanism 14 is 9 axes, as in the embodiment of FIG.

さらに、図1実施例では、操作者(図示せず)の音声を再生するために胸に相当する部位に1つのスピーカ32を設けていたが、図12実施例では、胸部分のスピーカ32に加え、図12や図14などからよくわかるように、口部分22にもう1つのスピーカ32aを設けた。胴体(胴機構)部分のスピーカ32は、対話者108(図7)が音声を聞き取るのに十分な音量の音声を発生できるだけの大きさのスピーカであるが、口部分22のスピーカ32aは、口機構に収まる大きさのものである。胸部分のスピーカ32は外被12で覆われているので、高域成分が減衰して音がこもった感じに聞こえることがあるため、開口している口部分22に別のスピーカ32aを設けるようにした。このように口部分22にスピーカ32aを設けたこの実施例によれば、スピーカ32aによってスピーカ32が失った高域成分を補償して対話者108にはっきりした音声を伝えることができるだけでなく、先に説明したように、このロボット10によって発話される遠隔の対話者からの音声がスピーカ32aから出力されるので、当該音声が口から聞こえる感じを高めることができるのである。   Further, in FIG. 1 embodiment, one speaker 32 is provided at a portion corresponding to the chest in order to reproduce the voice of the operator (not shown). However, in FIG. In addition, as can be seen from FIG. 12 and FIG. 14, another speaker 32 a is provided at the mouth portion 22. The speaker 32 in the body (torso mechanism) is a speaker that is large enough to generate a sound having a volume sufficient for the conversation person 108 (FIG. 7) to hear the sound. It is of a size that fits in the mechanism. Since the breast portion speaker 32 is covered with the outer jacket 12, it may be felt that the high frequency component is attenuated and the sound is muffled. Therefore, another speaker 32a is provided in the mouth portion 22 that is open. I made it. Thus, according to this embodiment in which the speaker 32a is provided at the mouth portion 22, not only can the high frequency component lost by the speaker 32 be compensated by the speaker 32a, but a clear voice can be transmitted to the conversation person 108. As described above, since the voice from the remote conversation person uttered by the robot 10 is output from the speaker 32a, the feeling that the voice can be heard from the mouth can be enhanced.

また、図1実施例では喉部分にマイク34を設けたが、この実施例では、頭部両側面の「耳」に相当する部位にそれぞれマイク34aおよび34aを設けた。マイク34aを両耳の部分に設けることにより、ロボット10の機能をより人間の機能に近づけるとともに、マイクで音声を採取できる領域ないし範囲を拡大できるという利点がある。   In the embodiment of FIG. 1, the microphone 34 is provided at the throat, but in this embodiment, the microphones 34a and 34a are provided at portions corresponding to the “ears” on both sides of the head. Providing the microphones 34a at both ears has the advantage that the functions of the robot 10 can be made closer to human functions, and the area or range in which sound can be collected with the microphones can be expanded.

なお、実施例では、マイク34aの大きさは直径8mm程度であり、頭蓋骨部材170(後部部材170c)の両耳部分に穴をあけ、そこに差し込んで固定するように取り付けている。そして、好ましくは、マイク34aおよび34aは前方を向くように斜めに取り付けられ、さらに、マイク34aおよび34aの外側の外被12の部分には貫通孔(図示せず)をあけ、顔前方の外部音、たとえば図7に示すように対話者108に対面したとき、対話者108の声の取り込みを容易にしている。   In the embodiment, the microphone 34a has a diameter of about 8 mm, and a hole is made in both ears of the skull member 170 (rear member 170c), and the microphone 34a is attached so as to be inserted therein and fixed. Preferably, the microphones 34a and 34a are attached obliquely so as to face the front, and further, a through hole (not shown) is formed in a portion of the outer jacket 12 outside the microphones 34a and 34a, so Capturing sounds, for example, voice of the interlocutor 108 when facing the interlocutor 108 as shown in FIG.

さらに、モータ動作による頭蓋骨部材170の振動の影響を抑えるため、マイク34aは頭蓋骨部材170に直接接しないように、たとえば発泡ウレタン樹脂のような振動遮断部材を介して頭蓋骨部材170に取り付けられればよい。   Furthermore, in order to suppress the influence of the vibration of the skull member 170 due to the motor operation, the microphone 34a may be attached to the skull member 170 via a vibration blocking member such as foamed urethane resin so as not to directly contact the skull member 170. .

ロボット機構体14の頭部分(頭蓋骨部材170)内部に別のマイクを設置し、その別のマイクで取得した音情報と耳部マイク34aおよび34aで取得した音情報を比較して、モータ動作音を抑制(キャンセル)するようにしてもよい。   Another microphone is installed inside the head part (skull member 170) of the robot mechanism 14, and the sound information acquired by the other microphone is compared with the sound information acquired by the ear microphones 34a and 34a, and the motor operating sound is compared. May be suppressed (cancelled).

図1実施例では、カメラ142を「額」の部分に設けてもよい旨説明したが、この実施例では、カメラ142は、図12に示すように、胸部分に設けることとした。たとえば、外被12の顎の下5cm程度の場所に直径6mmていどの孔(図示せず)をあけ、この孔からカメラ142のレンズがのぞくように、外被12の裏側に、カメラ回路基板(図示せず)を接着して固定する。したがって、カメラ142は外被12にだけ固定され、ロボット機構体14には固定されていない。もし、ロボット機構体14に固定すると、外被12が捩れたりしたときにカメラ142が隠れてしまう可能性があるからである。つまり、カメラ142を外被12にだけ固定しておけば、外被12が捩れたとしても、カメラ142がそれにつれて動くだけで、隠れてしまうことはない。   In the embodiment of FIG. 1, it has been described that the camera 142 may be provided in the “forehead” portion. However, in this embodiment, the camera 142 is provided in the chest portion as shown in FIG. For example, a hole (not shown) having a diameter of 6 mm is formed in a location about 5 cm below the chin of the outer cover 12, and a camera circuit board ( Glue and fix (not shown). Therefore, the camera 142 is fixed only to the jacket 12 and is not fixed to the robot mechanism body 14. This is because if the robot mechanism 14 is fixed, the camera 142 may be hidden when the jacket 12 is twisted. That is, if the camera 142 is fixed only to the outer jacket 12, even if the outer jacket 12 is twisted, the camera 142 only moves along with it and is not hidden.

さらに、図1実施例では、金属蛇腹管102の先端に先端プレート104が取り付けられ、それによって曲げることができる脚部分を構成したが、図12実施例では、脚部分の強度を大きくするために、脚部分を全体が1枚の板である、脚プレート103だけで脚部分を形成することにした。脚プレート103はたとえばFRPからなる。   Further, in the embodiment of FIG. 1, the tip plate 104 is attached to the tip of the metal bellows tube 102 to constitute a leg portion that can be bent, but in the embodiment of FIG. 12, in order to increase the strength of the leg portion. The leg portion is formed only by the leg plate 103, which is a single plate as a whole. The leg plate 103 is made of, for example, FRP.

なお、ロボット機構体14の胴体部分に、図19に示しかつこのロボット10の姿勢を計測する姿勢センサ180を取り付けるようにしてもよい。姿勢センサ180は加速度センサやジャイロセンサでよい。このような姿勢センサ180は図19に示すようにセンサボード154を介して第1コンピュータ124のCPUに接続される。そして、姿勢センサ180からの情報またはデータはネットワーク114を介して操作者に提示されることがある。操作者は姿勢センサの情報またはデータから、対話者108がロボット10をどのように扱っているか知ることができる。   A posture sensor 180 that measures the posture of the robot 10 as shown in FIG. 19 may be attached to the body portion of the robot mechanism 14. The attitude sensor 180 may be an acceleration sensor or a gyro sensor. Such an attitude sensor 180 is connected to the CPU of the first computer 124 via a sensor board 154 as shown in FIG. Information or data from the posture sensor 180 may be presented to the operator via the network 114. The operator can know how the dialogue person 108 is handling the robot 10 from the information or data of the posture sensor.

さらにまた、姿勢センサ180については,一例として、ロボット10がスタンド等(図示せず)に設置されて待機している状態のところへ、ユーザがやってきてロボット10を持ち上げたら、姿勢センサ180によってそれを感知して(触覚センサ156だけだとスタンドに設置しているときにも反応しているかも知れないので)、遠隔操作装置116(図8)を起動して操作者にユーザが会話を始めようとしていることを知らせる、という使い方ができる。   Furthermore, with respect to the posture sensor 180, as an example, when the user comes to a state where the robot 10 is placed on a stand or the like (not shown) and is on standby, the robot 10 is lifted by the posture sensor 180. (Since the tactile sensor 156 alone may react even when installed on the stand), the remote control device 116 (FIG. 8) is activated and the user starts a conversation with the operator. You can use it to let people know that you are going.

たとえば図20の最初のステップS11において、CPU144は、ロボット10が、図示しない、クレードルのようなスタンドに戻されているかどうか判断する。このステップS11の判断は、たとえばスタンド(図示せず)の該当部分に圧力センサ、光センサなどの任意の検知手段を設け、その検知手段がロボット10を検知しているときは、ロボット10はスタンドに戻されている、と判断できる。   For example, in the first step S11 of FIG. 20, the CPU 144 determines whether or not the robot 10 is returned to a stand such as a cradle (not shown). For the determination in step S11, for example, an arbitrary detection means such as a pressure sensor or an optical sensor is provided in a corresponding part of a stand (not shown), and when the detection means detects the robot 10, the robot 10 It can be determined that it has been returned to.

ステップS11で“NO”を判断したときには、そのまま処理を終了するが、“YES”を判断したときは、CPU144は、次のステップS13で、姿勢センサ180からの姿勢データに基づいて、ロボット10の姿勢に変化が生じたかどうか判断する。ステップS13で“NO”を判断したときには、そのまま処理を終了する。   If “NO” is determined in the step S11, the process is terminated as it is. However, if “YES” is determined, the CPU 144 determines the robot 10 based on the posture data from the posture sensor 180 in the next step S13. Judge whether the posture has changed. If “NO” is determined in the step S13, the process is ended as it is.

ステップS13で“YES”が判断されると、続くステップS15で、CPU144は、通信ボード148および132並びにLANボード134を経由して、ネットワーク114へ、遠隔操作装置116を起動するための起動信号を送信する。この起動信号がLANボード162を経てシステム158(図10)に入力される。応じて、CPU158はこの遠隔操作装置116を起動する処理を実行する。そして、たとえば第2スピーカ118(図8)から操作者に、「○○さんがお話ししたいようです。」のような報知をして、先の図に示すような体勢の対話者との会話を始めることを操作者に促すことができる。 If "YES" is determined in the step S13, in a succeeding step S15, the CPU 144 sends an activation signal for activating the remote control device 116 to the network 114 via the communication boards 148 and 132 and the LAN board 134. Send. This activation signal is input to the system 158 (FIG. 10) via the LAN board 162. In response, the CPU 158 executes processing for starting up the remote control device 116. Then, for example, to the operator from the second speaker 118 (FIG. 8), "seems to want to talk is ○○'s." Such was the notification as, conversation with the interlocutor of posture, such as shown in the previous FIG. 7 The operator can be encouraged to start.

なお、上述の2つの実施例ではいずれも、詰め物30として、樹脂ビーズを用いた。しかしながら、この詰め物30は、上述のように立方体や球形の柔軟素材の他、外被12とロボット機構体14との間の隙間の形状に形作ったたとえば発泡ウレタンを用いるようにしてもよい。このように、詰め物30を、隙間の形状とほぼ同じ形状のものとすることによって、隙間を確実に充填することができる。ただし、この場合、詰め物は1つのものではなく、右腕,左腕,胴体(脚も含む)前面,胴体(脚も含む)後面の詰め物を別々にして、詰め物を詰め易く、またロボット機構体14の可動部を動き易くしている。さらに、腕の詰め物が胴体の詰め物と別になっていることにより、腕関節が動き易くなっている。   In both of the above-described two examples, resin beads were used as the filling 30. However, the stuffing 30 may be made of, for example, urethane foam formed in the shape of the gap between the outer cover 12 and the robot mechanism 14 in addition to the cubic or spherical flexible material as described above. In this way, the gap 30 can be reliably filled by making the padding 30 substantially the same shape as the gap. However, in this case, the stuffing is not a single item, the right arm, the left arm, the front of the body (including the legs) and the back of the body (including the legs) are separated separately, so that the stuffing can be easily performed. The movable part is easy to move. Furthermore, the arm joint is easy to move because the arm padding is separate from the body padding.

10 …遠隔操作ロボット(ロボット)
12 …外被
14 …ロボット機構体
16 …胴体部分
17 …胴機構
18 …頭部分
19 …頭機構
20 …首部分
22 …口部分
23 …口機構
24 …目部分
25 …目機構
26 …腕部分
27 …腕機構
28 …脚部分
29 …脚機構
30 …詰め物
32 …スピーカ
34 …マイク
10. Remote control robot (robot)
DESCRIPTION OF SYMBOLS 12 ... Outer jacket 14 ... Robot mechanism 16 ... Torso part 17 ... Torso mechanism 18 ... Head part 19 ... Head mechanism 20 ... Neck part 22 ... Mouth part 23 ... Mouth mechanism 24 ... Eye part 25 ... Eye mechanism 26 ... Arm part 27 ... arm mechanism 28 ... leg portion 29 ... leg mechanism 30 ... padding 32 ... speaker 34 ... microphone

Claims (5)

柔軟素材からなり、人間の胴体に相当しかつ胴体と見える胴体部分と、胴体部分の上にあって人間の頭に相当しかつ頭と見える頭部分と、胴体部分の両側から延びて人間の腕および手に相当しかつ腕および手と見える腕部分と、胴体部分の下端から下方に延びて人間の脚および足に相当しかつ脚および足と見える脚部分とを含む、外被を備え、
前記外被はさらに、前記頭部分の前面であって、人間の口に相当しかつ口と見える口部分および前記口部分の上であって、人間の目に相当しかつ目と見える目部分を含み、
前記口部分および前記目部分の大きさの比率は人間の大人と同じ程度の比率にし、前記頭部分の大きさに対する身長は子供のものとし、
前記目部分および前記口部分は左右対称に形成し、
前記外被内に収納され、前記外被の前記胴体部分、前記頭部分、前記腕部分、前記脚部分、前記口部分および前記目部分に対応する位置に形成される、胴体機構、頭機構、腕機構、脚機構、口機構および目機構を含む、ロボット機構体をさらに備え、
前記口機構は前記口部分を動かすための口駆動手段を含み、
前記目機構は前記目部分を動かす目駆動手段を含み、さらに
前記ロボット機構体と前記外被との間に設けられる詰め物、
音声データに従って音声を出力する第1スピーカ、および
周囲の音声を取得する第1マイクを備える、遠隔操作ロボット。
A torso part that is made of a flexible material and corresponds to the human torso and appears to be a torso, a head part that is above the torso part and that corresponds to the human head and appears to be a head, and a human arm that extends from both sides of the torso part And an arm portion corresponding to the hand and visible to the arm and the hand, and a leg portion extending downward from the lower end of the torso portion and corresponding to a human leg and foot and visible to the leg and foot,
The outer cover further includes a front portion of the head portion, the mouth portion corresponding to a human mouth and visible to the mouth, and the top portion of the mouth portion corresponding to the human eye and corresponding to the human eye. Including
The ratio of the size of the mouth part and the eye part is the same as that of a human adult, and the height relative to the size of the head part is a child,
The eye part and the mouth part are formed symmetrically,
A trunk mechanism, a head mechanism, which is housed in the jacket, and is formed at a position corresponding to the trunk portion, the head portion, the arm portion, the leg portion, the mouth portion, and the eye portion of the jacket; A robot mechanism including an arm mechanism, a leg mechanism, a mouth mechanism, and an eye mechanism;
The mouth mechanism includes mouth drive means for moving the mouth portion;
The eye mechanism includes eye driving means for moving the eye part, and further, a padding provided between the robot mechanism body and the outer cover,
A remote control robot comprising: a first speaker that outputs sound according to sound data; and a first microphone that acquires surrounding sound.
前記腕部分の先端は先細り形状でかつ前方に突出するように全体的に湾曲して形成され、さらに
前記腕機構は、前記腕部分の先端を変位可能にするための変位部材および前記変位部材を操作データに従って駆動するための駆動手段を含む、請求項1記載の遠隔操作ロボット。
The tip of the arm portion has a tapered shape and is curved so as to protrude forward, and the arm mechanism further includes a displacement member for allowing the tip of the arm portion to be displaced, and the displacement member. The remote control robot according to claim 1, comprising drive means for driving according to the operation data.
前記脚部分は、前記胴体部分の下端から下方に延びる1つの先細り形状ものとしての脚部分として形成される、請求項1または2記載の遠隔操作ロボット。 The remote operation robot according to claim 1 , wherein the leg portion is formed as a leg portion having one tapered shape extending downward from a lower end of the body portion . 請求項1ないし3のいずれかに記載の遠隔操作ロボットと、ネットワークを通して前記遠隔操作ロボットに繋がってそれを遠隔操作するための遠隔制御装置とを含む、遠隔操作システムであって、
前記遠隔操作装置は、操作者の声を取得する第2マイクと、音声を出力する第2スピーカを含み、
前記第2マイクで取得した操作者の声が前記第1スピーカで出力され、前記第1マイクで取得した音声が前記第2スピーカで出力される、遠隔操作システム。
A remote operation system comprising: the remote operation robot according to any one of claims 1 to 3; and a remote control device connected to the remote operation robot via a network and remotely operating the remote operation robot.
The remote control device includes a second microphone for acquiring an operator's voice and a second speaker for outputting a voice,
The remote operation system in which an operator's voice acquired by the second microphone is output from the first speaker, and a voice acquired by the first microphone is output from the second speaker.
前記遠隔制御装置は前記操作者の状態を検出する状態検出手段、および前記操作者の状態を表す状態データを前記ネットワークを介して前記遠隔操作ロボットに送信する状態データ送信手段を備え、
前記口駆動手段および前記目駆動手段が前記状態データに従って駆動される、請求項4記載の遠隔操作システム。
The remote control device includes state detection means for detecting the state of the operator, and state data transmission means for transmitting state data representing the state of the operator to the remote operation robot via the network.
The remote control system according to claim 4, wherein the mouth driving means and the eye driving means are driven according to the state data.
JP2011159729A 2010-07-23 2011-07-21 Remote control robot Active JP5850560B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011159729A JP5850560B2 (en) 2010-07-23 2011-07-21 Remote control robot

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010166058 2010-07-23
JP2010166058 2010-07-23
JP2011159729A JP5850560B2 (en) 2010-07-23 2011-07-21 Remote control robot

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015100646A Division JP5991557B2 (en) 2010-07-23 2015-05-18 Remote control robot

Publications (2)

Publication Number Publication Date
JP2012040679A JP2012040679A (en) 2012-03-01
JP5850560B2 true JP5850560B2 (en) 2016-02-03

Family

ID=45897542

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011159729A Active JP5850560B2 (en) 2010-07-23 2011-07-21 Remote control robot
JP2015100646A Active JP5991557B2 (en) 2010-07-23 2015-05-18 Remote control robot

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015100646A Active JP5991557B2 (en) 2010-07-23 2015-05-18 Remote control robot

Country Status (1)

Country Link
JP (2) JP5850560B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101393013B1 (en) 2013-04-30 2014-05-09 한국생산기술연구원 Facial expression producing apparatus of character robot
JP6746080B2 (en) * 2014-09-03 2020-08-26 株式会社国際電気通信基礎技術研究所 Lecture system
JP6540946B2 (en) * 2015-03-10 2019-07-10 株式会社国際電気通信基礎技術研究所 Biological information measuring device
CN104991766B (en) * 2015-06-12 2019-08-27 联想(北京)有限公司 A kind of control method and electronic equipment
WO2017183319A1 (en) * 2016-04-20 2017-10-26 株式会社ソニー・インタラクティブエンタテインメント Robot and housing
WO2017183294A1 (en) 2016-04-20 2017-10-26 株式会社ソニー・インタラクティブエンタテインメント Actuator device
JP6442457B2 (en) * 2016-10-18 2018-12-19 株式会社エム・エス・ケー Robot structure
KR101686460B1 (en) * 2016-10-24 2016-12-14 인천대학교 산학협력단 Dummy for implementation of biometric information and biometric information control system of dummy using the same
JP6610609B2 (en) * 2017-04-27 2019-11-27 トヨタ自動車株式会社 Voice dialogue robot and voice dialogue system
CN111065495B (en) * 2017-09-15 2023-03-31 Groove X 株式会社 Robot capable of moving interestingly and structure thereof
JP6922766B2 (en) * 2018-01-31 2021-08-18 トヨタ自動車株式会社 Communication robot and its control program
JP7212390B2 (en) * 2018-06-29 2023-01-25 国立研究開発法人科学技術振興機構 remote control system
JP7067414B2 (en) 2018-10-24 2022-05-16 トヨタ自動車株式会社 Communication robots and control programs for communication robots
JP7119896B2 (en) 2018-10-24 2022-08-17 トヨタ自動車株式会社 Communication robot and communication robot control program
CN109895111B (en) * 2019-03-01 2020-12-08 达闼科技(北京)有限公司 Robot neck subassembly and robot

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07299773A (en) * 1994-04-28 1995-11-14 Nec Corp Human body motion reproducing device
JP2002027575A (en) * 1998-04-28 2002-01-25 Masanobu Kujirada Security device including stuffed toy
JP3706113B2 (en) * 2003-03-24 2005-10-12 株式会社国際電気通信基礎技術研究所 Communication robot
JP4571816B2 (en) * 2004-03-22 2010-10-27 日本電信電話株式会社 Dummy head and highly realistic communication device using the same
JP5162852B2 (en) * 2006-07-18 2013-03-13 株式会社国際電気通信基礎技術研究所 Android control system
JP5181541B2 (en) * 2007-06-15 2013-04-10 富士通株式会社 Robot system, editor terminal, and editor program
JP5229701B2 (en) * 2008-03-24 2013-07-03 株式会社国際電気通信基礎技術研究所 Robot with tactile sensor
JP2009241166A (en) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International Robot remote operation system

Also Published As

Publication number Publication date
JP2015164757A (en) 2015-09-17
JP5991557B2 (en) 2016-09-14
JP2012040679A (en) 2012-03-01

Similar Documents

Publication Publication Date Title
JP5991557B2 (en) Remote control robot
CN110900617B (en) Robot and method for operating the same
US8830244B2 (en) Information processing device capable of displaying a character representing a user, and information processing method thereof
JP4439740B2 (en) Voice conversion apparatus and method
CN103596088B (en) There is the earphone of pivotal parts
JP4512830B2 (en) Communication robot
JP3670180B2 (en) hearing aid
JP2009520296A (en) Message sending method, message sending device and message rendering device
US20220347860A1 (en) Social Interaction Robot
JP7102169B2 (en) Equipment, robots, methods, and programs
JP4247149B2 (en) robot
JP7012953B2 (en) Sensory stimulation presentation system, program and method
JP5162852B2 (en) Android control system
WO2001082046A2 (en) Human-machine interface apparatus
JP2006088276A (en) Motion generation system
JP6992957B2 (en) Agent dialogue system
JP5296898B2 (en) Android control system
JP2012029066A (en) Portable telephone
JP2001345906A (en) Robot for adaptive to telephone
JP2000349920A (en) Intention transmitter
JP4582449B2 (en) Communication device
CN211806147U (en) Main control unit based on modular robot and modular robot
JP4735965B2 (en) Remote communication system
JP2018057624A (en) Display/transmission robot
JP2004098252A (en) Communication terminal, control method of lip robot, and control device of lip robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151130

R150 Certificate of patent or registration of utility model

Ref document number: 5850560

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250