JP3942586B2 - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP3942586B2
JP3942586B2 JP2003402462A JP2003402462A JP3942586B2 JP 3942586 B2 JP3942586 B2 JP 3942586B2 JP 2003402462 A JP2003402462 A JP 2003402462A JP 2003402462 A JP2003402462 A JP 2003402462A JP 3942586 B2 JP3942586 B2 JP 3942586B2
Authority
JP
Japan
Prior art keywords
sensor
contact
skin
detected
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003402462A
Other languages
Japanese (ja)
Other versions
JP2005161450A (en
Inventor
敬宏 宮下
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003402462A priority Critical patent/JP3942586B2/en
Publication of JP2005161450A publication Critical patent/JP2005161450A/en
Application granted granted Critical
Publication of JP3942586B2 publication Critical patent/JP3942586B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

この発明はコミュニケーションロボットに関し、特にたとえば、身振りや音声などの身体動作を用いて人間とコミュニケーションを図る、コミュニケーションロボットに関する。   The present invention relates to a communication robot, and more particularly to a communication robot that communicates with a human by using body movements such as gestures and voices.

この種の従来のコミュニケーションロボットは、たとえば本件出願人による特許文献1および2等に開示される。このコミュニケーションロボットは、音声や所作によって人間とのコミュニケーションを図ろうとする相互作用指向のロボットであり、対話相手となる人間や障害となる物を認識すべく各種のセンサ類を備えている。この従来技術では、たとえば、足下の台車上のパネルなどに近接センサとして超音波距離センサが設けられて、人等との間の距離を計測してその接近が検知される。また、肩、上腕、前腕などの部位にタッチセンサ(接触センサ)が設けられ、人等と接触したことが検知される。
特開2002−355783号公報[B25J13/00] 特開2002−361584号公報[B25J13/08]
This type of conventional communication robot is disclosed in, for example, Patent Documents 1 and 2 by the present applicant. This communication robot is an interaction-oriented robot that attempts to communicate with humans through voice and actions, and is equipped with various sensors for recognizing humans who are conversation partners and obstacles. In this prior art, for example, an ultrasonic distance sensor is provided as a proximity sensor on a panel on the undercarriage, and the approach is detected by measuring the distance to a person or the like. In addition, touch sensors (contact sensors) are provided on parts such as the shoulder, upper arm, and forearm to detect contact with a person or the like.
JP 2002-357883 A [B25J13 / 00] JP 2002-361484 A [B25J13 / 08]

しかし、ロボット体上のスペースは限られており、この限られたスペースに複数種類のセンサを設けねばならないので、近接センサも接触センサもそれぞれ別々の特定の箇所にしか設けることができなかった。このため、上述の従来技術では、人や物自体のロボットへの接近は検知できるが、たとえば、人等がロボットのどの箇所に接触しようとしているのかを事前に検知することは困難であった。また、行動中に動かしているたとえば腕などの部位が人にぶつかりそうになっても、ぶつかりそうな箇所を検知することが同様に不可能であったので、回避することは困難であった。   However, the space on the robot body is limited, and a plurality of types of sensors must be provided in the limited space. Therefore, the proximity sensor and the contact sensor can only be provided at different specific locations. For this reason, in the above-described prior art, it is possible to detect the approach of the person or the object itself to the robot, but for example, it is difficult to detect in advance which part of the robot the person or the like is trying to contact. Further, even if a part such as an arm that is moving during an action is likely to hit a person, it is difficult to avoid it because it is impossible to detect the part that is likely to hit.

なお、たとえば人が触れる可能性のある箇所に近接センサを設けておけば、この特定箇所への接近を検知することは可能であるが、同じ箇所に接触センサを設けることができないので、当該箇所における接触状態を検知することができない。   For example, if a proximity sensor is provided in a place where a person may touch, it is possible to detect the approach to this specific place, but a contact sensor cannot be provided in the same place. The contact state cannot be detected.

一方、上述の従来技術では、接触センサは非常に敏感なものが用いられていたが、特定箇所にしか設けられていないことと、情報がオン/オフの2値であることから、接触箇所を、たとえば強く握られたり、やさしくなでられたりしたというような、触覚で意思や気持ちなどを伝える触行動の情報を取得することはできなかったので、触行動に応じた触覚コミュニケーションを実行することができなかった。この触覚コミュニケーションに対応するため、本件出願人は平成15年3月24日付で出願された特願2003−80106号において、タッチセンサに代えて圧力センサシートをたとえば全身に配置したコミュニケーションロボットを提案している。しかしながら、このロボットでも近接センサと圧力センサとが別々に設けられていたので、上述と同じような問題があった。   On the other hand, in the above-mentioned prior art, a very sensitive contact sensor is used. However, since the contact sensor is provided only at a specific location and the information is binary of on / off, the contact location is determined. For example, we could not acquire tactile information that conveys intentions and feelings by tactile sensation, such as being grasped strongly or stroked gently. I could not. In order to cope with this tactile communication, the present applicant proposed in Japanese Patent Application No. 2003-80106, filed on March 24, 2003, a communication robot in which a pressure sensor sheet is arranged, for example, on the whole body instead of a touch sensor. ing. However, since the proximity sensor and the pressure sensor are provided separately in this robot, there is the same problem as described above.

したがって、従来技術では、触覚コミュニケーションにおいて、常に接触を検知してから対処するというような事後的で限定された行動しか実行することができなかった。   Therefore, in the prior art, in the tactile communication, only a posteriori and limited action of always detecting a contact and dealing with it can be executed.

また、人などが接近して来て触れるという触行動における一連の動きを、別々の箇所に設けた別々の種類のセンサを用いて検知することは、上述のスペース面、またコスト面からも好ましいものではない。   Moreover, it is preferable from the above-mentioned space aspect and cost aspect to detect a series of movements in the tactile behavior of people approaching and touching using different types of sensors provided at different locations. It is not a thing.

それゆえに、この発明の主たる目的は、人や物の接近を検知することができ、かつ、その後の接触状態を検知することができる、コミュニケーションロボットを提供することである。   Therefore, a main object of the present invention is to provide a communication robot that can detect the approach of a person or an object and can detect the subsequent contact state.

この発明の他の目的は、人や物の接近および接触の状態に応じて予測的に動作を制御できる、コミュニケーションロボットを提供することである。   Another object of the present invention is to provide a communication robot that can control the operation in a predictive manner in accordance with the approach and contact state of a person or an object.

この発明のその他の目的は、センサの種類を低減できる、コミュニケーションロボットを提供することである。   Another object of the present invention is to provide a communication robot that can reduce the types of sensors.

請求項1の発明は、感度可変に設けられる圧電センサ、圧電センサの感度を変更して静電容量を計測する近接センサまたは圧力を計測する圧力センサとして圧電センサを機能させる変更手段、および近接センサまたは圧力センサとして検知した検知情報に応じて動作を制御する動作制御手段を備える、コミュニケーションロボットである。 The invention according to claim 1 is a piezoelectric sensor provided with variable sensitivity, a proximity sensor that changes the sensitivity of the piezoelectric sensor to measure capacitance, or a changing means that causes the piezoelectric sensor to function as a pressure sensor that measures pressure, and a proximity sensor Or it is a communication robot provided with the operation control means which controls operation | movement according to the detection information detected as a pressure sensor.

請求項1の発明では、コミュニケーションロボットは圧電センサを含み、変更手段は、この圧電センサの感度を変更して、静電容量を計測する近接センサまたは圧力を計測する圧力センサとして機能させる。つまり、このコミュニケーションロボットでは、変更手段によって、圧電センサの感度をたとえば状況に応じて動的に変更することによって、この圧電センサを近接センサまたは圧力センサの2種類のセンサとして使い分けることができる。そして、動作制御手段は近接センサまたは圧力センサとして検知した検知情報に応じて動作を制御する。たとえば、この圧電センサを近接センサとして機能させておくことによって、人や物などの近接状態を検知することができるので、接近を検知したことに応じてその後の接触を予測した動作、たとえば接触に適応するような動作や接触を回避するような動作などを実行できる。さらに、接近の検知の後に、変更手段によって圧電センサの感度を変更して圧力センサとして機能させた場合には、接近を検知したのと同じ箇所あるいは別の箇所における接触状態を検知することができるので、その接触状態に応じた動作を実行することができる。   According to the first aspect of the present invention, the communication robot includes a piezoelectric sensor, and the changing means changes the sensitivity of the piezoelectric sensor to function as a proximity sensor that measures capacitance or a pressure sensor that measures pressure. That is, in this communication robot, the piezoelectric sensor can be used as two types of sensors, ie, a proximity sensor or a pressure sensor, by dynamically changing the sensitivity of the piezoelectric sensor according to, for example, the situation by the changing means. The operation control means controls the operation in accordance with detection information detected as a proximity sensor or a pressure sensor. For example, by making this piezoelectric sensor function as a proximity sensor, it is possible to detect the proximity state of a person or an object. Actions that can be adapted and actions that avoid contact can be performed. Further, after the approach is detected, when the sensitivity of the piezoelectric sensor is changed by the changing means to function as a pressure sensor, it is possible to detect the contact state at the same location or another location where the approach is detected. Therefore, the operation | movement according to the contact state can be performed.

請求項2の発明は、請求項1に従属するコミュニケーションロボットであって、動作制御手段は、近接センサとして検知した検知情報に基づいて接近または接触が検知されたとき、接近または接触を検知していないときと異なる動作を実行させる。   The invention according to claim 2 is the communication robot according to claim 1, wherein the operation control means detects the approach or the contact when the approach or the contact is detected based on the detection information detected as the proximity sensor. Make it perform a different action than when it is not.

請求項2の発明では、動作制御手段は、近接センサとして機能する圧電センサによって人や物などの接近または接触が検知されたとき、その接近または接触を検知していないときとは異なる動作を実行させる。したがって、接近を検知したときには、その後の接触を予測してそれまでの動作とは異なった動作を実行することによって、たとえば接触に適応したりあるいは接触を回避したりすることができるし、接触を検知した場合にも同様に接触があったことに応じた適切な動作を実行することができる。   In the invention of claim 2, when the approach or contact of a person or an object is detected by the piezoelectric sensor functioning as a proximity sensor, the operation control means performs an operation different from that when the approach or contact is not detected. Let Therefore, when an approach is detected, it is possible to adapt to contact or avoid contact, for example, by predicting the subsequent contact and performing an action different from the previous action. Similarly, when it is detected, it is possible to execute an appropriate operation according to the contact.

請求項3の発明は、請求項2に従属するコミュニケーションロボットであって、動作制御手段は、近接センサとして検知した検知情報に基づいて接近が検知されたとき、動作速度を小さくする。   According to a third aspect of the present invention, there is provided a communication robot according to the second aspect, wherein the operation control means reduces the operation speed when an approach is detected based on detection information detected as a proximity sensor.

請求項3の発明では、動作制御手段は、人や物などの接近が検知されたとき、動作速度を小さくする。したがって、たとえば、その人などと近くなるのを遅らせて、接触を回避するようにすることができるし、あるいは、接近した人の近辺に長く滞在して、相手にロボットに対するコミュニケーションのきっかけを与えることができる。   According to a third aspect of the present invention, the operation control means reduces the operation speed when an approach of a person or an object is detected. Therefore, for example, it is possible to delay contact with the person and avoid contact, or to stay long in the vicinity of the approaching person and give the other party a chance to communicate with the robot Can do.

請求項4の発明は、請求項2または3に従属するコミュニケーションロボットであって、動作制御手段は、近接センサとして検知した検知情報に基づいて接近が検知されたとき、動作軌道を変更する。   According to a fourth aspect of the present invention, there is provided a communication robot according to the second or third aspect, wherein the motion control means changes the motion trajectory when an approach is detected based on detection information detected as a proximity sensor.

請求項4の発明では、動作制御手段は、人や物などの接近が検知されたとき、動作軌道を変更する。したがって、たとえば、接近した人や物などから遠ざかるような方向に軌道を変更して、接触を回避することができる。   In the invention of claim 4, the motion control means changes the motion trajectory when an approach of a person or an object is detected. Therefore, for example, it is possible to avoid contact by changing the trajectory in a direction away from an approaching person or object.

請求項5の発明は、請求項1ないし4のいずれかに従属するコミュニケーションロボットであって、変更手段は、近接センサとして検知した検知情報に基づいて接近または接触が検知されたとき、感度を変更して圧電センサを圧力センサとして機能させ、動作制御手段は、圧力センサとして検知した検知情報に応じて動作を制御する。   The invention according to claim 5 is the communication robot according to any one of claims 1 to 4, wherein the changing means changes the sensitivity when an approach or a contact is detected based on detection information detected as a proximity sensor. Then, the piezoelectric sensor functions as a pressure sensor, and the operation control means controls the operation according to the detection information detected as the pressure sensor.

請求項5の発明では、変更手段は、近接センサとして機能する圧電センサによって接近または接触が検知されたとき、感度を変更して、圧電センサを圧力センサとして機能させる。そして、動作制御手段は、この圧力センサとして検知した検知情報に応じて動作を制御する。したがって、たとえば、人などの接近または接触に応じて、圧電センサの機能を近接センサから圧力センサに変更するので、その後の接触状態を検知することができ、その接触状態に応じた適切な動作を実行することができる。   In the fifth aspect of the invention, when the approach or contact is detected by the piezoelectric sensor functioning as a proximity sensor, the changing means changes the sensitivity and causes the piezoelectric sensor to function as a pressure sensor. Then, the operation control means controls the operation according to the detection information detected as the pressure sensor. Therefore, for example, the function of the piezoelectric sensor is changed from a proximity sensor to a pressure sensor in accordance with the approach or contact of a person or the like, so that the subsequent contact state can be detected and an appropriate operation corresponding to the contact state is performed. Can be executed.

請求項6の発明は、請求項1ないし5のいずれかに従属するコミュニケーションロボットであって、圧電センサは身振りで表現する際に動く部分に配置される。   A sixth aspect of the present invention is a communication robot according to any one of the first to fifth aspects, wherein the piezoelectric sensor is arranged in a portion that moves when the gesture is expressed.

請求項6の発明では、身振りで表現する際に動く部分に圧電センサが配置される。したがって、たとえば、変更手段によって圧電センサを近接センサとして機能させておけば、その身振りを実行している際にその動く部分が人などへ接近したことを検知することができるので、その相手と接触してしまうことを回避することができる。また、圧電センサを圧力センサとして機能するように感度を変更すれば、その部分に対しての接触状態も検知することができる。   According to the sixth aspect of the present invention, the piezoelectric sensor is arranged in a portion that moves when expressing by gesture. Therefore, for example, if the piezoelectric sensor functions as a proximity sensor by the changing means, it is possible to detect that the moving part has approached a person or the like while performing the gesture, and thus contact with the opponent. Can be avoided. Further, if the sensitivity is changed so that the piezoelectric sensor functions as a pressure sensor, the contact state with respect to that portion can also be detected.

請求項7の発明は、請求項1ないし6のいずれかに従属するコミュニケーションロボットであって、圧電センサは少なくとも頭、胴、肩、腕または手のいずれかに配置される。   A seventh aspect of the present invention is a communication robot according to any one of the first to sixth aspects, wherein the piezoelectric sensor is disposed at least on any of the head, torso, shoulder, arm or hand.

請求項7の発明では、センサが少なくとも頭、胴、肩、腕または手のいずれかに配置されるので、配置した部分に対する人などの接近および接触の状態を検知することができる。また、接近された部分や接触された部分を把握して、それに応じた動作を実行することができる。   In the invention of claim 7, since the sensor is disposed at least on any of the head, torso, shoulder, arm or hand, it is possible to detect the approach and contact state of a person or the like with respect to the disposed portion. Moreover, the approached part and the contacted part can be grasped | ascertained, and the operation | movement according to it can be performed.

請求項8の発明は、請求項1ないし7のいずれかに従属するコミュニケーションロボットであって、圧電センサは分散配置される。   The invention according to claim 8 is the communication robot according to any one of claims 1 to 7, wherein the piezoelectric sensors are distributedly arranged.

請求項8の発明では、圧電センサが分散して配置されるので、配置されたそれぞれの部分に対する人などの接近および接触の状態を検知することができる。たとえば全身にわたって分散配置した場合には、全身へのさまざまな方向からの近接状態を検知することができるし、また、全身のさまざまな部分への接触状態を検知することができる。そして、接近された箇所や接触された箇所を把握して、それに応じた動作を実行することができる。たとえば、接近等を検知した圧電センサの配置された部分の高さの違いから相手の大きさなどを推定して、その大きさに応じた動作を実行することもできる。   In the invention of claim 8, since the piezoelectric sensors are arranged in a distributed manner, it is possible to detect the approach and contact state of a person or the like with respect to each arranged part. For example, when distributed throughout the body, proximity states from various directions to the whole body can be detected, and contact states to various parts of the whole body can be detected. Then, it is possible to grasp the approached part or the contacted part and execute an operation corresponding thereto. For example, it is possible to estimate the size of the other party from the difference in height of the portion where the piezoelectric sensor that has detected the approach or the like is arranged, and to perform an operation corresponding to the size.

請求項9の発明は、請求項1ないし8のいずれかに従属するコミュニケーションロボットであって、ロボット本体上に被せられる柔軟素材からなる皮膚をさらに備え、圧電センサは皮膚中に配置される。   A ninth aspect of the present invention is a communication robot according to any one of the first to eighth aspects, further comprising skin made of a flexible material placed on the robot body, and the piezoelectric sensor is disposed in the skin.

請求項9の発明では、たとえば筐体などを含むロボット本体上に柔らかい皮膚が被せられ、この皮膚中に圧電センサが配置される。したがって、たとえば、この柔らかい皮膚を介した触行動における接近および接触の状態を検知することができるので、それに応じたコミュニケーションを行うことができる。また、相手に安心感を与えて親和性を高めることができるとともに、接触時の安全性も高めることができる。   According to the ninth aspect of the present invention, for example, a soft skin is put on a robot main body including a casing and the piezoelectric sensor is disposed in the skin. Therefore, for example, it is possible to detect the state of approach and contact in the tactile behavior via the soft skin, and communication can be performed accordingly. In addition, it is possible to give the partner a sense of security and increase the affinity, and also improve the safety at the time of contact.

この発明によれば、圧電センサをその感度を動的に変化させることによって近接センサと圧力センサの2種類のセンサとして機能させることができるので、この1種類のセンサによって人などの接近を検知することができるとともに、接触後は接触の状態を検知することができる。したがって、接触を予測して、その予測に応じた動作を実行することができるし、接触後はその接触の状態に応じた動作を実行することができ、従来では不可能であった触覚を用いた新たなコミュニケーション行動を実行できる。また、センサの種類を低減することができ、スペース面やコスト面に資することができる。   According to the present invention, the piezoelectric sensor can be caused to function as two types of sensors, ie, a proximity sensor and a pressure sensor, by dynamically changing the sensitivity thereof, so that the approach of a person or the like is detected by this one type of sensor. It is possible to detect the state of contact after contact. Therefore, it is possible to predict a contact and perform an operation according to the prediction, and after the contact, an operation according to the state of the contact can be performed. New communication behavior that has been In addition, the types of sensors can be reduced, which can contribute to space and cost.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は、台車12を含み、この台車12の側面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図4において参照番号「16」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサが取り付けられ、この衝突センサは、台車12への人間や他の障害物の接触を検知する。   With reference to FIG. 1, a communication robot (hereinafter, simply referred to as “robot”) 10 of this embodiment includes a carriage 12, and wheels on which the robot 10 autonomously moves are disposed on a side surface of the carriage 12. 14 is provided. The wheel 14 is driven by a wheel motor (indicated by reference numeral “16” in FIG. 4), and the carriage 12, that is, the robot 10 can be moved in any direction, front, back, left, and right. Although not shown, a collision sensor is attached to the front surface of the carriage 12, and the collision sensor detects contact of a person or other obstacle with the carriage 12.

台車12の上には、人体状部18が直立するように取り付けられる。このロボット本体としての人体状部18の全身は、後に詳しく説明するように、柔軟素材からなる皮膚20によって覆われる。人体状部18は、たとえば鉄板のような筐体(図示せず)を含み、その筐体にコンピュータやその他必要なコンポーネントを収容している。そして、皮膚20は、その筐体上に被せられる。皮膚20の下の筐体の上部ほぼ中央にはマイク22が設けられる。このマイク22は、周囲の音声、特に人間の声を収集するためものである。   On the carriage 12, the human body-like portion 18 is attached so as to stand upright. The whole body of the human body 18 as the robot body is covered with skin 20 made of a flexible material, as will be described in detail later. The human body 18 includes a housing (not shown) such as an iron plate, for example, and houses a computer and other necessary components in the housing. Then, the skin 20 is put on the casing. A microphone 22 is provided at approximately the center of the upper part of the housing under the skin 20. The microphone 22 is for collecting ambient sounds, particularly human voices.

人体状部18は、右腕24Rおよび左腕24Lを含み、右腕24Rおよび左腕24Lすなわち上腕26Rおよび26Lは、それぞれ、肩関節28Rおよび28Lによって、胴体部分に変位自在に取り付けられる。この肩関節28Rおよび28Lは、3軸の自由度を有する。上腕26Rおよび26Lには、1軸の肘関節30Rおよび30Lによって、前腕32Rおよび32Lが取り付けられ、この前腕32Rおよび32Lには、手34Rおよび34Lが取り付けられる。これら右腕24Rおよび左腕24Lの各関節における各軸はここでは図示しないモータによってそれぞれ制御される。すなわち、右腕24Rおよび左腕24Lのそれぞれ4個のモータが、図4において、それぞれ右腕モータ36および左腕モータ38として表される。   The human body portion 18 includes a right arm 24R and a left arm 24L, and the right arm 24R and the left arm 24L, that is, the upper arms 26R and 26L are detachably attached to the trunk portion by shoulder joints 28R and 28L, respectively. The shoulder joints 28R and 28L have three degrees of freedom. Forearms 32R and 32L are attached to upper arms 26R and 26L by uniaxial elbow joints 30R and 30L, and hands 34R and 34L are attached to these forearms 32R and 32L. Each axis in each joint of the right arm 24R and the left arm 24L is controlled by a motor (not shown). That is, the four motors of the right arm 24R and the left arm 24L are represented as the right arm motor 36 and the left arm motor 38, respectively, in FIG.

人体状部18の上部には首関節40を介して頭部42が、人間の頭と同様に俯仰・回転可能に取付けられる。この3軸の首関節40は、図4に示す頭部モータ44によって制御される。頭部42の前面の「目」に相当する位置には2つの眼カメラ46が設けられ、この眼カメラ46は、ロボット10に接近した人間の顔や他の部分を撮影してその映像信号を取り込む。頭部42の前面の目カメラ46の下方にはスピーカ48が設けられる。このスピーカ48は、ロボット10がそれの周囲の人間に対して音声によってコミュニケーションを図るために用いられる。   A head 42 is attached to the upper portion of the human body 18 via a neck joint 40 so as to be able to be elevated and rotated in the same manner as a human head. The three-axis neck joint 40 is controlled by a head motor 44 shown in FIG. Two eye cameras 46 are provided at positions corresponding to the “eyes” on the front surface of the head 42, and these eye cameras 46 photograph a human face and other parts approaching the robot 10 and output the video signals thereof. take in. A speaker 48 is provided below the eye camera 46 in front of the head 42. The speaker 48 is used for the robot 10 to communicate by voice to the people around it.

上で説明した人体状部18の胴体や頭部42および腕は上記したようにすべて柔軟な素材からなる皮膚20に覆われる。この皮膚20は、図2に示すように、下層のウレタンフォーム50と、その上に積層される比較的肉厚のシリコンゴム層52aおよび比較的肉薄のシリコンゴム層52bとを含む。そして、2つのシリコンゴム層52aおよび52bの間に、ピエゾセンサシート54が埋め込まれる。このピエゾセンサシート54は、たとえば米国MSI社製、株式会社東京センサ販売のピエゾフィルムを用いる(http://www.t-sensor.co.jp/PIEZO/TOP/index.html)。実施例のロボットに使用したのはA4サイズ(型番:200×140×28)のピエゾフィルムを1/2、1/3、1/4、1/6の大きさにはさみでカットしたピエゾセンサシートである。   The body, head 42 and arms of the human body 18 described above are all covered with the skin 20 made of a flexible material as described above. As shown in FIG. 2, the skin 20 includes a lower urethane foam 50 and a relatively thick silicon rubber layer 52a and a relatively thin silicon rubber layer 52b laminated thereon. A piezo sensor sheet 54 is embedded between the two silicon rubber layers 52a and 52b. As this piezo sensor sheet 54, for example, a piezo film manufactured by MSI Inc. in the US and sold by Tokyo Sensor Co., Ltd. is used (http://www.t-sensor.co.jp/PIEZO/TOP/index.html). The robot used in the example is a piezo sensor sheet obtained by cutting an A4 size (model number: 200 × 140 × 28) piezo film with scissors into 1/2, 1/3, 1/4, or 1/6 size. It is.

このピエゾフィルムは、圧電フィルム(たとえばPVDF(ポリビニリデンフルオロイド))の両面に金属薄膜が形成された構造、つまり、圧電体が導体で挟まれた構造を有する。圧力等で変形すると両面金属薄膜間にピエゾ電気を発生し、すなわち、電荷があらわれて電位差が生じる。また、帯電している物体が金属薄膜の片側に近付くと片側の薄膜側に電荷が集まるので、このときの電位差を読み取ることができれば静電容量を計測することができる。つまり、このピエゾセンサシート54は、後述するように感度を制御することによって圧力センサおよび近接センサの2種類のセンサとして機能させることができる。   This piezo film has a structure in which a metal thin film is formed on both surfaces of a piezoelectric film (for example, PVDF (polyvinylidene fluoride)), that is, a structure in which a piezoelectric body is sandwiched between conductors. When deformed by pressure or the like, piezoelectricity is generated between the metal thin films on both sides, that is, electric charges appear and a potential difference is generated. In addition, when a charged object approaches one side of the metal thin film, charges are collected on the one thin film side, so that the capacitance can be measured if the potential difference at this time can be read. That is, the piezo sensor sheet 54 can function as two types of sensors, that is, a pressure sensor and a proximity sensor, by controlling sensitivity as described later.

実施例では、上述のように、発泡ウレタンとシリコンゴムとを使って皮膚20の柔らかさを得た。シリコンゴムだけである程度の厚みと柔らかさとを得ようとすると、重くなりすぎてエネルギ消費量が大きくなるだけでなく、裂傷に弱くなる。そこで、発明者等は、実験を重ねた結果、大まかな形と厚みはウレタンフォームで作り、その表面を約20mmのシリコンゴムで覆う形を採用することとした。そして、シリコンゴム層を2つにし、それらのシリコンゴム層52aおよび52bの間に、上述のピエゾセンサシート54を埋め込んだ。このとき、内側のシリコンゴム層52aを厚く(約15mm)し、表面側のシリコンゴム層52bを薄く(約5mm)した。このようにすると、ロボット10の振動や人間が表面を押したときに生じる高周波の振動をカットでき、なおかつフィルムが変形し易くなるので、圧力の計測が容易になる。つまり、シリコンゴム層の厚みはロボット10の構造やパワーによるが、なるべく薄く、しかし変形が伝わり易く、雑音となる振動が伝わり難いものが必要となる。また、この柔らかい皮膚を介して、人との間で触行動によるコミュニケーションを行うことができるので、相手に安心感を与えて親和性を高めることができるし、触れたりぶつかったりした場合の人の怪我を防止して安全性も高めることができる。   In the example, as described above, the softness of the skin 20 was obtained using foamed urethane and silicon rubber. If silicon rubber alone is used to obtain a certain degree of thickness and softness, it becomes too heavy and not only increases energy consumption but also weakens against laceration. Therefore, as a result of repeated experiments, the inventors decided to adopt a shape in which the rough shape and thickness are made of urethane foam and the surface is covered with about 20 mm of silicon rubber. Then, two silicon rubber layers were formed, and the above-described piezo sensor sheet 54 was embedded between the silicon rubber layers 52a and 52b. At this time, the silicon rubber layer 52a on the inner side was thickened (about 15 mm), and the silicon rubber layer 52b on the front side was thinned (about 5 mm). In this way, vibrations of the robot 10 and high-frequency vibrations generated when a person presses the surface can be cut, and the film can be easily deformed, so that pressure can be easily measured. In other words, the thickness of the silicon rubber layer depends on the structure and power of the robot 10, but it should be as thin as possible, but it is easy for deformation to be transmitted and vibration that causes noise is difficult to be transmitted. In addition, because it is possible to communicate with people through this soft skin, it is possible to give a sense of security to the other party and enhance the affinity, and when people touch or collide It can prevent injury and increase safety.

なお、皮膚20の素材は軟性素材であればよく、上述のものに限定されずたとえば他のゴム素材等でもよい。ただし、ピエゾフィルムシートの表面金属薄膜が腐食しない材質である必要がある。また、皮膚20の厚み(各層の厚み)は、素材によって適宜変更され得る。   The material of the skin 20 may be a soft material, and is not limited to the above-described material, and may be another rubber material, for example. However, the surface metal thin film of the piezo film sheet needs to be made of a material that does not corrode. Further, the thickness of the skin 20 (the thickness of each layer) can be appropriately changed depending on the material.

上述のピエゾセンサシートすなわち皮膚センサ54は人体状部18の全身にわたって埋め込まれ、それによって、人間等が接触することによって皮膚20に加えられた圧力を圧覚情報として検知する。また、このピエゾセンサシート54では、検知の感度を上げると静電容量を計測することができるので、人間等の接近による静電容量の変化を非接触で計測してその近接状態を検知することもできる。そこで、この実施例では、図3に示すように、ロボット10の全身にわたって48枚のピエゾセンサシート501−548を埋め込んだ。埋め込み状況(場所)に関しては、人間に触られやすい部位、たとえば頭頂や肩それに腕(手を含む)には、圧力を正確かつ確実に検知できるように、隙間なくピエゾセンサシートを埋め込み、あまり触られることを想定していない部位たとえば背中や足あるいは脇腹には許容できる隙間を持ってピエゾセンサシートを埋め込んだ。それによって、検出精度と製造コストとのトレードオフを解決した。なお、これら48枚のピエゾセンサシート501−548は、場合によっては、参照番号54で区別なしに示されることがあることに留意されたい。   The above-described piezo sensor sheet, that is, the skin sensor 54 is embedded over the whole body of the human body-like portion 18, thereby detecting pressure applied to the skin 20 by contact with a human or the like as pressure sense information. Also, with this piezo sensor sheet 54, the capacitance can be measured when the detection sensitivity is increased, so that the change in capacitance due to the approach of a human or the like is measured in a non-contact manner to detect the proximity state. You can also. Therefore, in this embodiment, as shown in FIG. 3, 48 piezo sensor sheets 501-548 are embedded over the entire body of the robot 10. As for the embedding situation (place), a piezo sensor sheet is embedded in a part that is easily touched by humans, for example, the top of the head, shoulders, and arms (including hands) without gaps so that pressure can be detected accurately and reliably. A piezo sensor sheet was embedded in an unacceptable gap, such as on the back, legs, or flank. This solved the trade-off between detection accuracy and manufacturing cost. It should be noted that these 48 piezo sensor sheets 501-548 are sometimes shown without distinction by reference numeral 54 in some cases.

図1に示すロボット10の電気的構成が図4のブロック図に示される。図4に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU56を含み、このCPU56には、バス58を通して、メモリ60,モータ制御ボード62,センサ入力/出力ボード64およびサウンド入力/出力ボード66が接続される。   The electrical configuration of the robot 10 shown in FIG. 1 is shown in the block diagram of FIG. As shown in FIG. 4, the robot 10 includes a microcomputer or CPU 56 for overall control. The CPU 56 is connected to a memory 60, a motor control board 62, a sensor input / output board 64, and a sound through a bus 58. An input / output board 66 is connected.

メモリ60は、図示しないが、ROMやHDD、RAMを含み、ROMやHDDにはこのロボット10の制御プログラムが予め書き込まれているとともに、スピーカ48から発生すべき音声または声の音声データや、所定の身振りを行うための各関節軸の角度制御データなどが格納されている。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用される。   Although not shown, the memory 60 includes a ROM, an HDD, and a RAM. The ROM and HDD are pre-stored with a control program for the robot 10, and voice or voice data to be generated from the speaker 48, predetermined data The angle control data of each joint axis for performing the gesture is stored. The RAM is used as a temporary storage memory and a working memory.

モータ制御ボード62は、たとえばDSP(Digital Signal Processor) で構成され、各腕や頭部などの各軸モータを制御する。すなわち、モータ制御ボード62は、CPU56からの制御データを受け、右肩関節28Rの3軸のそれぞれの角度を制御する3つのモータと右肘関節30Rの1軸の角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「右腕モータ」として示す。)36の回転角度を調節する。また、モータ制御ボード62は、左肩関節28Lの3軸と左肘関節30Lの1軸、計4つのモータ(図4ではまとめて、「左腕モータ」として示す。)38の回転角度を調節する。モータ制御ボード62は、また、頭部42の3軸のモータ(図4ではまとめて、「頭部モータ」として示す。)44の回転角度を調節する。そして、モータ制御ボード62は、車輪14を駆動する2つのモータ(図4ではまとめて、「車輪モータ」として示す。)16を制御する。   The motor control board 62 is constituted by a DSP (Digital Signal Processor), for example, and controls each axis motor such as each arm and head. That is, the motor control board 62 receives control data from the CPU 56, and controls three motors for controlling the angles of the three axes of the right shoulder joint 28R and one motor for controlling the angles of the one axis of the right elbow joint 30R. The rotation angles of the four motors (collectively shown as “right arm motor” in FIG. 4) 36 are adjusted. Further, the motor control board 62 adjusts the rotation angle of a total of four motors (collectively shown as “left arm motor” in FIG. 4) 38, three axes of the left shoulder joint 28L and one axis of the left elbow joint 30L. The motor control board 62 also adjusts the rotation angle of the three-axis motor 44 of the head 42 (collectively shown as “head motor” in FIG. 4). The motor control board 62 controls two motors 16 that collectively drive the wheels 14 (collectively shown as “wheel motors” in FIG. 4).

なお、この実施例の上述のモータは、車輪モータ16を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ16と同様に、直流モータであってよい。   The above-described motors of this embodiment are stepping motors or pulse motors for simplifying the control except for the wheel motors 16, but may be direct-current motors similarly to the wheel motors 16.

センサ入力/出力ボード64も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU56に与える。すなわち、図示しない衝突センサの各々からの接触に関するデータがこのセンサ入力/出力ボード64を通して、CPU56に入力される。また、眼カメラ46からの映像信号が、必要に応じてこのセンサ入力/出力ボード64で所定の処理が施された後、CPU56に入力される。   Similarly, the sensor input / output board 64 is configured by a DSP, and takes in signals from each sensor and camera and gives them to the CPU 56. That is, data relating to contact from each of the collision sensors (not shown) is input to the CPU 56 through the sensor input / output board 64. The video signal from the eye camera 46 is input to the CPU 56 after being subjected to predetermined processing by the sensor input / output board 64 as necessary.

このセンサ入力/出力ボード64は、さらに、図5に示すように、複数(実施例では12枚)の基板68,68…を含み、各基板68には、それぞれ1つのPICマイコン70が設けられる。PICマイコン70はたとえばASICで構成され、同じく基板68に設けられたA/D変換器72からの電圧データ(たとえば10ビット)をビット直列信号として出力する。   As shown in FIG. 5, the sensor input / output board 64 further includes a plurality of (in the embodiment, twelve) boards 68, 68..., And each board 68 is provided with one PIC microcomputer 70. . The PIC microcomputer 70 is composed of, for example, an ASIC, and outputs voltage data (for example, 10 bits) from the A / D converter 72 similarly provided on the substrate 68 as a bit serial signal.

ピエゾセンサシート54は、図5に示すようにピエゾフィルム74を電極ないし導体76aおよび76bで挟んだものであり、圧力が加えられるとそのピエゾフィルム74が電圧を発生し、その電圧が2つの導体76aおよび76b間に現れる。ただし、このとき発生される電圧は電位は高いが電流が微弱なため、この発生電圧をそのまま長いケーブルでコンピュータ56(図4)に取り込むことは、ノイズが多く乗ってしまうので難しい。そこで、この実施例では、図5に示す基板68をピエゾセンサシート54に近い位置に配置し、その中に高インピーダンスの読み取り装置、すなわちA/D変換器72を配置し、このA/D変換器72で変換した電圧値をPICマイコン70で読み取ってシリアル信号として出力し、それをCPU56へ送るようにした。なお、ピエゾフィルムシートの電極の配置の一例として、導体76aは皮膚20の表面側に配置され、導体76bは筐体側に配置される。   As shown in FIG. 5, the piezo sensor sheet 54 is obtained by sandwiching a piezo film 74 between electrodes or conductors 76a and 76b. When a pressure is applied, the piezo film 74 generates a voltage, and the voltage is divided into two conductors. Appears between 76a and 76b. However, since the voltage generated at this time has a high potential but the current is weak, it is difficult to capture the generated voltage as it is into the computer 56 (FIG. 4) because of a lot of noise. Therefore, in this embodiment, the substrate 68 shown in FIG. 5 is disposed at a position close to the piezo sensor sheet 54, and a high impedance reader, that is, an A / D converter 72 is disposed therein, and this A / D conversion is performed. The voltage value converted by the device 72 is read by the PIC microcomputer 70 and output as a serial signal, which is sent to the CPU 56. In addition, as an example of arrangement | positioning of the electrode of a piezo film sheet, the conductor 76a is arrange | positioned at the surface side of the skin 20, and the conductor 76b is arrange | positioned at the housing | casing side.

A/D変換器72は、実施例では4チャネル10ビットのものを用いた。したがって、1つの基板68が4つのピエゾセンサシート54を受け持つことができる。基板68には、4つのピエゾセンサシート54のために4対の端子78aおよび78bが設けられ、それぞれに電極76aおよび76bが接続される。端子78aおよび78b間にはノイズ除去用コンデンサ80や抵抗Rが接続されている。コンデンサ80および抵抗Rの端子78a側の一方端はオペアンプ82の一方(+)側の入力に接続され、コンデンサ80および抵抗Rの端子78b側の他方端は接地される。また、オペアンプ82の(−)側入力は抵抗R1を介して接地される。そして、オペアンプ82の(−)側の入力とオペアンプ82の出力側とを結ぶ帰還回路には、その抵抗を可変にするためにたとえば複数の抵抗R21、R22、…R2nおよびマルチプレクサ84を含む回路が設けられる。   As the A / D converter 72, a 4-channel 10-bit converter is used in the embodiment. Accordingly, one substrate 68 can handle the four piezoelectric sensor sheets 54. The substrate 68 is provided with four pairs of terminals 78a and 78b for the four piezo sensor sheets 54, and electrodes 76a and 76b are connected to the respective pairs. A noise removing capacitor 80 and a resistor R are connected between the terminals 78a and 78b. One end of the capacitor 80 and the resistor R on the terminal 78a side is connected to one (+) side input of the operational amplifier 82, and the other end of the capacitor 80 and the resistor R on the terminal 78b side is grounded. The (−) side input of the operational amplifier 82 is grounded via the resistor R1. The feedback circuit connecting the (−) side input of the operational amplifier 82 and the output side of the operational amplifier 82 includes a circuit including a plurality of resistors R21, R22,... R2n and a multiplexer 84 in order to make the resistance variable. Provided.

この基板68では、端子78aおよび78b間に与えられたピエゾセンサシート54からの電圧は、ノイズ除去された後、オペアンプ82によって電流増幅され、上述のA/D変換器72の1つのチャネルに入力される。また、複数の抵抗R21〜R2nおよびマルチプレクサ84等によって、オペアンプ82の増幅率が動的に調整され、したがって、ピエゾセンサシート54の感度が動的に可変にされる。具体的には、マルチプレクサ84は、コンピュータ56によって直接、あるいはコンピュータ56の命令を受けたPICマイコン70によって制御され、抵抗R21〜R2nのどれを回路と繋ぐかを制御し、これによってピエゾセンサシート54の感度が変更される。そして、このピエゾセンサシート54は、通常の感度の場合には圧力を計測する圧力センサとして機能し、感度を上げた場合には静電容量を計測する非接触型の近接センサとして機能する。   In this substrate 68, the voltage from the piezo sensor sheet 54 applied between the terminals 78a and 78b is subjected to noise removal, and then current amplified by the operational amplifier 82 and input to one channel of the A / D converter 72 described above. Is done. Further, the amplification factor of the operational amplifier 82 is dynamically adjusted by the resistors R21 to R2n, the multiplexer 84, and the like, and thus the sensitivity of the piezo sensor sheet 54 is dynamically varied. Specifically, the multiplexer 84 is controlled by the computer 56 directly or by the PIC microcomputer 70 that receives an instruction from the computer 56 to control which of the resistors R21 to R2n is connected to the circuit, and thereby the piezo sensor sheet 54. The sensitivity of is changed. The piezo sensor sheet 54 functions as a pressure sensor that measures pressure when the sensitivity is normal, and functions as a non-contact proximity sensor that measures capacitance when the sensitivity is increased.

なお、この図5では分かり易くするために1つのピエゾセンサシート54だけが示されるが、他のピエゾセンサシート54およびそれに関連する回路も同様に構成されるものである。また、複数の抵抗R21〜R2nおよびマルチプレクサ84は一例であり、オペアンプ82の増幅率を調整する可変抵抗回路は適宜変更され得る。   In FIG. 5, only one piezo sensor sheet 54 is shown for the sake of clarity, but the other piezo sensor sheets 54 and circuits related thereto are configured in the same manner. Further, the plurality of resistors R21 to R2n and the multiplexer 84 are examples, and the variable resistor circuit for adjusting the amplification factor of the operational amplifier 82 can be changed as appropriate.

発明者等は、帰還回路の抵抗値について、静電容量を測るために十分な抵抗値は、たとえば330kΩ程度(増幅率は約330倍)であることを確認している。つまり、抵抗R1が1kΩであり、帰還回路の抵抗が330kΩであるときは、当該ピエゾセンサシート54を近接センサとして使用することができる。そこで、一例としては、帰還回路に設ける可変抵抗の範囲が0Ω〜500kΩ程度まで変化するものであれば十分な機能を発揮できる。この可変抵抗をたとえば図5のように離散的に複数のR2nとして構成する場合には、これらR2nを一例として0Ω,10kΩ,50kΩ,100kΩ,500kΩとしておけばよい。この場合には、500kΩを選択したときに近接センサとして機能し、他の抵抗を選択したときに圧力センサとして機能する。   The inventors have confirmed that the resistance value of the feedback circuit sufficient for measuring the capacitance is, for example, about 330 kΩ (amplification factor is about 330 times). That is, when the resistance R1 is 1 kΩ and the resistance of the feedback circuit is 330 kΩ, the piezo sensor sheet 54 can be used as a proximity sensor. Therefore, as an example, if the range of the variable resistor provided in the feedback circuit changes from about 0Ω to about 500 kΩ, a sufficient function can be exhibited. When this variable resistor is discretely configured as a plurality of R2n as shown in FIG. 5, for example, these R2n may be set to 0Ω, 10 kΩ, 50 kΩ, 100 kΩ, and 500 kΩ as an example. In this case, it functions as a proximity sensor when 500 kΩ is selected, and functions as a pressure sensor when another resistance is selected.

上述のように人体状部18の皮膚20中には48個のピエゾセンサシート54が全身にわたって埋め込まれているが、それらをすべてロボット制御用のCPUないしコンピュータ56で読み取ろうとすると、ノイズを拾い易いだけでなく、コンピュータのA/Dポートを非常に多く必要としてしまい、現実的ではない。そこで、上述のように読み取り装置(基板68、A/D変換器72)をピエゾセンサシート54の近傍に分散配置し、それぞれの出力を1本のシリアルケーブル、たとえばRS232C(商品名)で繋いだ、いわゆるデイジーチェーンを形成した。したがって、図5に示す1つの基板68のPICマイコン70から出力されたビットシリアル信号は、次段の基板68のPICマイコン70のシリアル入力ポートに与えられる。当該次段のPICマイコン70は、前段のPICマイコン70から送られてきたデータに自分が担当するA/D変換器72から読み込んだデータを加えて、ビット直列信号として出力する。したがって、コンピュータ56は、1つのシリアルポートで全身のピエゾセンサシート54からの検知情報を取り込めるようになっている。   As described above, 48 piezo sensor sheets 54 are embedded throughout the body 20 in the skin 20 of the human body-like portion 18. However, if all of them are read by the CPU or computer 56 for robot control, it is easy to pick up noise. In addition, it requires a large number of computer A / D ports, which is not realistic. Therefore, as described above, the reading device (substrate 68, A / D converter 72) is distributed in the vicinity of the piezo sensor sheet 54, and each output is connected by one serial cable, for example, RS232C (trade name). Formed a so-called daisy chain. Therefore, the bit serial signal output from the PIC microcomputer 70 of one board 68 shown in FIG. 5 is given to the serial input port of the PIC microcomputer 70 of the board 68 at the next stage. The next-stage PIC microcomputer 70 adds the data read from the A / D converter 72 in charge to the data sent from the previous-stage PIC microcomputer 70 and outputs the result as a bit serial signal. Therefore, the computer 56 can capture the detection information from the piezo sensor sheet 54 of the whole body with one serial port.

なお、各PICマイコン70から出力される検知データは、図3に示す48個のピエゾセンサシート501−548のどれであるかを示す識別子と、圧力値または静電容量に関する情報とを含むので、コンピュータ56は、どの(部位の)ピエゾセンサシート54がどの程度の圧力を受けているかを容易に特定できるし、あるいは、どの(部位の)ピエゾセンサシート54が接近を受けたかを容易に特定できる。   Since the detection data output from each PIC microcomputer 70 includes an identifier indicating which of the 48 piezo sensor sheets 501 to 548 shown in FIG. 3 and information on the pressure value or capacitance, The computer 56 can easily specify how much pressure (which part) of the piezo sensor sheet 54 is subjected to, or can easily specify which (part) piezo sensor sheet 54 has been approached. .

具体的には、コンピュータ56は、たとえば50msecの周期で、ビットシリアルデータを出力する最終段のPICマイコン70にポーリングをかけ、50msec周期ですべてのピエゾセンサシート501−548の検知データを読み取ることができる。検知データは、A/D変換器72(図5)からはたとえば正負32段階、合計64段階で出力される。つまり、10ビットのうち下位4ビットはノイズ成分として捨て、上位6ビットのデータだけが各PICマイコン70(図5)から出力される。   Specifically, the computer 56 polls the last stage PIC microcomputer 70 that outputs bit serial data at a cycle of 50 msec, for example, and reads the detection data of all the piezo sensor sheets 501 to 548 at a cycle of 50 msec. it can. The detection data is output from the A / D converter 72 (FIG. 5) in, for example, 32 stages of positive and negative, for a total of 64 stages. That is, the lower 4 bits of the 10 bits are discarded as noise components, and only the upper 6 bits of data are output from each PIC microcomputer 70 (FIG. 5).

そして、コンピュータ56は、ピエゾセンサシート54が圧力センサとして機能している場合には、この圧力センサとして検知した64段階のデータを用いて、たとえば触られ方の強弱、押された状態の持続時間または電圧変化の波形の周波数(圧力変化の周波数)などの接触状態を計測することができる。触られ方の強弱によってたとえば「ひどく叩かれたか」、「軽く叩かれたか」、「やさしく手を置かれたか」、「軽く触られたか」などを判断することができ、持続時間によってたとえば「叩かれたか」、「押されたか」などの継続状態を判断することができ、圧力変化の周波数によってたとえば「叩かれているのか」、「なでられているのか」、「くすぐられているのか」という触られ方の種類を判断することができる。このような接触状態に応じた動作の制御は、本件出願人が平成15年3月24日付けで出願した特願2003−80106号にも詳細に開示されるので参照されたい。また、この圧力センサモードにおいてもたとえばロボット10の行動パターンに応じて感度を適宜変化させることによって、接触状態をより詳細に検知することもできる。   Then, when the piezo sensor sheet 54 functions as a pressure sensor, the computer 56 uses, for example, 64 steps of data detected as the pressure sensor, for example, how to touch and how long it is pressed. Alternatively, the contact state such as the frequency of the voltage change waveform (pressure change frequency) can be measured. Depending on the strength of the touch, it can be judged whether it was struck by a heavy hit, lightly struck, a gentle hand placed, a light touch, etc. It is possible to determine the continuation state such as “whether it has been struck”, “whether it has been pressed”, etc., and depending on the frequency of the pressure change, for example, “whether it has been struck” The type of touching can be determined. Such control of the operation according to the contact state is disclosed in detail in Japanese Patent Application No. 2003-80106 filed on March 24, 2003 by the applicant of the present application. Also in this pressure sensor mode, the contact state can be detected in more detail by appropriately changing the sensitivity according to the behavior pattern of the robot 10, for example.

また、ピエゾセンサシート54の感度を高感度に変更して近接センサとして機能させた場合には、コンピュータ56は、この近接センサとして検知したデータを用いて、つまり、この検知データの変化(静電容量の変化)を捉えることによって、人や物の接近状態を計測することができるし、また接触があったことも検知することができる。   Further, when the sensitivity of the piezo sensor sheet 54 is changed to a high sensitivity so as to function as a proximity sensor, the computer 56 uses the data detected as the proximity sensor, that is, changes in the detected data (electrostatic capacitance). By capturing the change in capacity, it is possible to measure the approaching state of a person or an object, and to detect that there has been contact.

図4に戻って、スピーカ48にはサウンド入力/出力ボード66を介して、CPU56から、合成音声データが与えられ、それに応じて、スピーカ48からはそのデータに従った音声または声が出力される。また、マイク22からの音声入力が、サウンド入力/出力ボード66を介して、CPU56に取り込まれる。   Returning to FIG. 4, the synthesized voice data is given to the speaker 48 from the CPU 56 via the sound input / output board 66, and accordingly, the voice or voice according to the data is outputted from the speaker 48. . Further, the voice input from the microphone 22 is taken into the CPU 56 via the sound input / output board 66.

この実施例のロボット10は、ロボット10の行動パターンや状況に応じて皮膚センサ(圧電センサ)54の感度を動的に変更することによって、この皮膚センサ54を近接センサまたは圧力センサとして使い分け、その検知データに基づいて状況に応じたコミュニケーション行動を実行することができる。   The robot 10 of this embodiment dynamically uses the skin sensor 54 as a proximity sensor or a pressure sensor by dynamically changing the sensitivity of the skin sensor (piezoelectric sensor) 54 in accordance with the behavior pattern and situation of the robot 10. Based on the detected data, it is possible to execute a communication action corresponding to the situation.

たとえば、最初にピエゾセンサシート54の感度を上げておくことによって、当該ピエゾセンサシート54を、静電容量を計測する非接触型の近接センサとして機能させておく。そして、皮膚センサ54に反応があって人や物の接近または接触を検知したとき、ロボット10はその接近または接触に応じて、それまでの接近または接触を検知していないときの動作とは異なる所定の動作を実行する。   For example, by first increasing the sensitivity of the piezo sensor sheet 54, the piezo sensor sheet 54 is caused to function as a non-contact type proximity sensor that measures capacitance. When the skin sensor 54 reacts and detects the approach or contact of a person or an object, the robot 10 is different from the operation when no approach or contact is detected according to the approach or contact. A predetermined operation is executed.

高感度状態の皮膚センサ54に反応があるということは、近くに人や物が存在するということであるので、たとえば移動中であれば、その後の接触が予測される。この実施例では、上述のように複数のピエゾセンサシート54を頭、胴、肩、腕または手など全身に分散して配置したので全身へのいろいろな方向からの近接状態を検知することができる。そこで、たとえば、速度を落としたりすること等によって、より近くなるのを遅らせて、安全性を確保することができるし、また、相手の近くにより長く滞在することで相手に声を掛け易くしてコミュニケーションのきっかけを与えることができる。さらに、進行方向に反応がある場合には、移動方向を変えることによって接触を回避して安全性を高めることができる。   The fact that there is a response to the skin sensor 54 in the high sensitivity state means that there is a person or an object nearby. For example, if it is moving, a subsequent contact is predicted. In this embodiment, as described above, a plurality of piezo sensor sheets 54 are distributed throughout the body, such as the head, torso, shoulders, arms or hands, so that proximity states from various directions to the whole body can be detected. . So, for example, by slowing down, you can delay getting closer, ensuring safety, and staying closer to the other person makes it easier to talk to the other person Can give an opportunity to communicate. Furthermore, when there is a reaction in the traveling direction, contact can be avoided and safety can be improved by changing the moving direction.

また、たとえば待機中であれば、近くに人や動く物が存在していて接触しようとしている状態であるので、その気配を感じる場所や方向を見る動作は、人にとって自然なものとなる。また、相手がいきなり触った場合には皮膚センサ54の反応が振り切れて最大値を示すか所定の閾値を超えるので、ロボット10は人の反応として自然な驚きの仕草を見せてから、皮膚センサ54の感度を下げてコミュニケーションを開始することができる。また、恐る恐るロボット10に接していてなかなか触ろうとせずコミュニケーションのきっかけを掴めないような相手に対しては、たとえば触っても大丈夫であることを話し掛けて、コミュニケーションを促すことができる。   Further, for example, when waiting, there is a person or moving object nearby and the person is trying to come into contact with the person, so the operation of looking at the place or direction where the user feels the sign is natural for the person. Further, when the opponent suddenly touches the skin sensor 54, the response of the skin sensor 54 swings out and shows a maximum value or exceeds a predetermined threshold value, so that the robot 10 shows a natural surprise as a human reaction, and then the skin sensor 54 You can start communication with lower sensitivity. In addition, for a partner who is in contact with the scary robot 10 and does not readily touch it and cannot grasp the opportunity of communication, the user can talk to the person that it is safe to touch, for example, and can promote communication.

また、コミュニケーション行動中には、ロボット10と人は、基本的に近距離でコミュニケーションを図ることとなり、ロボット10と人とがぶつかる機会が増加する。特に体を使って身振り(ジェスチャ)で表現を行う場合、この実施例では腕24Rおよび24Lの部分を頻繁に動かすが、従来技術のようにタッチセンサしか付いていない場合には相手にぶつかるまで分からなかった。つまり、従来技術では、たとえば、握手行動時にはロボットは手を相手に向かって差し出すが、このとき相手との距離がうまく測れていない場合には差し出す途中でぶつかってしまう。また、バイバイ行動(「バイバイ」と発話しながら手を振る)の場合にも同様に手を振っているときにぶつかってしまう。また、抱っこ行動(腕を広げて相手が近寄ってきたら「大好き」と抱きつく)の場合には、腕を広げるときに横に居る人などにぶつかってしまう。   Further, during the communication action, the robot 10 and the person basically communicate with each other at a short distance, and the opportunity for the robot 10 and the person to collide increases. In particular, when expressing with gestures (gestures) using the body, in this embodiment, the arms 24R and 24L are frequently moved. However, when only the touch sensor is provided as in the prior art, it is difficult to understand until it hits the opponent. There wasn't. That is, in the prior art, for example, the robot pushes the hand toward the opponent during a handshake action, but at this time, if the distance from the opponent cannot be measured well, the robot bumps into the middle. Similarly, in the case of a by-by action (waving a hand while speaking “bye-bye”), the user will also collide when waving. In addition, in the case of hugging behavior (if you spread your arms and hug your loved one when the other person approaches you), you will collide with someone who is beside you when you spread your arms.

しかし、この実施例のように、この動かす部分において圧力センサと同じ場所に近接センサがある場合には、つまり、圧力センサが近接センサとして機能していれば、ぶつかる前にぶつかる危険を検知することができる。そこで、コミュニケーション行動中に頻繁に動かす部分(この実施例では腕)の感度を高くしておけば、その部分の皮膚センサ54に反応があったとき、その部分の動作速度を落としたり、または動作軌道を変更したりすることによって、接触の危険を回避することができる。そして、たとえば回避軌道で動作しているときに反応がなくなって安全が確保されたのを確認してから動作を元に戻すことができる。   However, if there is a proximity sensor at the same location as the pressure sensor in this moving part as in this embodiment, that is, if the pressure sensor functions as a proximity sensor, the risk of collision before collision is detected. Can do. Therefore, if the sensitivity of the part (arm in this embodiment) that is frequently moved during the communication action is increased, when the skin sensor 54 of the part reacts, the operation speed of the part is reduced or the action is performed. The danger of contact can be avoided by changing the trajectory. Then, for example, it is possible to return the operation after confirming that the reaction is lost and the safety is ensured when operating in the avoidance path.

また、ロボット10は、皮膚センサ54を近接センサとして機能させていた場合において人や物の接近または接触を検知したとき、皮膚センサ54の感度を下げることによって、当該皮膚センサ54を圧力センサとして機能させて、その後に人や物が実際に接触した状態を計測することができ、その接触状態に応じた所定の動作を実行する。   Further, when the robot 10 functions as a proximity sensor, the robot 10 functions as a pressure sensor by reducing the sensitivity of the skin sensor 54 when detecting the approach or contact of a person or an object. Then, it is possible to measure a state in which a person or an object has actually contacted thereafter, and perform a predetermined operation according to the contact state.

たとえば、握手行動の際には、皮膚センサ54に反応があったとき、相手が握ろうとしている場所を実際に握手する前に把握することができるので、握手動作をその相手の動作に適応させることができる。なお、差し出した腕以外の部分に配置された皮膚センサ54に反応があった場合には、相手が握手に応じてくれていないことが事前に把握できるので、それに応じた動作を実行できる。このように、接近や接触を検知した部分を把握して、その部分部分に応じた適切な動作を実行できる。さらに、反応のあった場所の皮膚センサ54の感度を下げて圧力センサとして機能させて圧力の強弱を計測することによって、握手中に相手がどの程度の力で握っているかが分かるので、たとえば相手が手を離そうとしているのかどうかを検出することができ、その相手の動作に合わせて握手動作を終わらせることができる。   For example, in the case of a handshake action, when the skin sensor 54 reacts, it is possible to grasp the place where the opponent is about to grip before actually shaking, so the handshake action is adapted to the action of the opponent. be able to. In addition, when there is a reaction in the skin sensor 54 arranged on a portion other than the arm that has been pushed out, it can be grasped in advance that the opponent is not responding to the handshake, and accordingly, an operation corresponding to that can be executed. In this way, it is possible to grasp the part where the approach or contact is detected, and execute an appropriate operation according to the part. Further, by lowering the sensitivity of the skin sensor 54 at the place where the reaction occurred and functioning as a pressure sensor to measure the strength of the pressure, it is possible to know how much the opponent is gripping during the handshake. It is possible to detect whether or not he is trying to release his hand, and the handshake operation can be terminated in accordance with the operation of the opponent.

また、たとえば抱っこ行動の際には、全身に分散配置した皮膚センサ54を高感度にしておくことによって、視覚を使わなくても、皮膚センサ54の配置部分(高さ)の違いに基づいて、相手のある程度の大きさを、接触する前に推定することができる。つまり、この実施例のロボット10はたとえば100cm前後の体高であるが、相手が大人等で大きい場合には、その相手は腕をロボット10の肩の部分に接触するようにして抱っこしようとすることが予期される。一方、相手が子供等で小さい場合には、その相手は腕をロボット10の腹回りに回して抱っこしようとすることが予期される。したがって、たとえば肩周辺の皮膚センサ54に反応がある場合にはその相手は大きく、一方、たとえば肩周辺の皮膚センサ54に反応がないが下腹部あたりの皮膚センサ54に反応がある場合にはその相手は小さいということが分かる。そして、この反応のあった部分の違いに適応した動作を実行することができる。たとえば相手が大きい場合には甘えるように強く抱きつき、相手が小さい場合には力を加えずに優しく抱っこするというように、その相手に応じて動作と発話を異ならせて、相手に適応した動作を実行することができる。そして、この抱きつき動作の際には、圧力センサによって圧力の強弱および持続時間等の接触状態を計測することによって、どの程度の力で抱きついているのかが分かるので、強く抱きついたり、あるいは優しく触れる程度に抱きついたりすることができる。   In addition, for example, in the case of a cuddle action, by making the skin sensors 54 distributed throughout the body highly sensitive, based on the difference in the placement part (height) of the skin sensor 54 without using vision, The size of the opponent can be estimated before touching. That is, the robot 10 of this embodiment has a body height of about 100 cm, for example, but when the opponent is an adult or the like, the opponent tries to hold the arm so that the arm contacts the shoulder portion of the robot 10. Is expected. On the other hand, when the other party is a child or the like, the other party is expected to turn his arm around the robot 10 and hold it. Therefore, for example, when there is a response to the skin sensor 54 around the shoulder, the opponent is large. On the other hand, when there is no response to the skin sensor 54 around the shoulder, for example, there is a reaction to the skin sensor 54 around the lower abdomen. You can see that the opponent is small. And the operation | movement adapted to the difference of the part with this reaction can be performed. For example, if the opponent is large, you will hug it so that it will be sweet, and if the opponent is small, you will gently hold it without applying force. Can be executed. And during this hugging operation, you can know how much you are hugging by measuring the contact state such as pressure intensity and duration with a pressure sensor, so that you can hold or touch gently You can hug.

この実施例によれば、ピエゾセンサシート54の感度を上げておくことで近接センサとして使用して、コミュニケーションの際に人や物の接近に応じて適応的に動作したり危険を回避したりするなど、予測的に動作を制御することができる。さらに、実際に触れられる状況では、感度を下げて圧力センサとして使用することで、接近のあったのと同じ場所における圧力センシングを行って、その接触状態に応じた動作を実行することができる。このように、近接センサと接触センサとを別々に設けた従来技術では不可能であった新たな触覚コミュニケーションを実現することができる。また、ピエゾセンサシート54を感度に応じて近接センサまたは圧力センサの2種類のセンサとして機能させることができるので、センサの種類を低減することができ、スペース面やコスト面に資することができる。   According to this embodiment, by increasing the sensitivity of the piezo sensor sheet 54, it can be used as a proximity sensor to adaptively operate or avoid danger according to the approach of a person or an object during communication. The operation can be controlled predictively. Furthermore, in the situation where it is actually touched, by using the pressure sensor with reduced sensitivity, pressure sensing can be performed at the same place where the approach has occurred, and an operation according to the contact state can be executed. In this manner, new tactile communication that is impossible with the conventional technology in which the proximity sensor and the contact sensor are separately provided can be realized. In addition, since the piezo sensor sheet 54 can function as two types of sensors, a proximity sensor and a pressure sensor, depending on the sensitivity, the types of sensors can be reduced, contributing to space and cost.

幾つかの具体的な動作を、以下、対応するフロー図を参照して説明する。ただし、いずれの動作も単なる一例であることを予め指摘しておく。   Some specific operations are described below with reference to corresponding flow diagrams. However, it should be pointed out in advance that each operation is merely an example.

図6に示すフロー図は、ロボット10が「パトロール行動」(周囲を動き回り警備しているふりをする)を実行する場合の動作の一例を示す。   The flowchart shown in FIG. 6 shows an example of the operation when the robot 10 executes “patrol behavior” (pretend to move around and guard).

図6の最初のステップS1では、CPU56は、センサ入力/出力ボード64に指示して、すべての皮膚センサ54の感度を高感度に変更し近接センサモードにする。   In the first step S1 of FIG. 6, the CPU 56 instructs the sensor input / output board 64 to change the sensitivity of all the skin sensors 54 to high sensitivity and enter the proximity sensor mode.

なお、この実施例では、このように行動を開始するときに、皮膚センサ54を高感度に変更して近接センサとして機能させるようにしているが、皮膚センサ54は初期状態として高感度に設定し近接センサとして機能するように設定されていてもよい。   In this embodiment, when the action is started in this way, the skin sensor 54 is changed to high sensitivity so as to function as a proximity sensor. However, the skin sensor 54 is set to high sensitivity as an initial state. It may be set to function as a proximity sensor.

次に、ステップS3で、メモリ60からこの「パトロール行動」を実行するためのプログラムおよびデータを読み出して「パトロール行動」を開始し、続くステップS5で、モータ制御ボード62を介して車輪モータ16を制御し、このロボット10をランダムに移動させる。   Next, in step S3, the program and data for executing this “patrol action” are read from the memory 60 to start the “patrol action”, and in step S5, the wheel motor 16 is controlled via the motor control board 62. The robot 10 is controlled and moved at random.

そして、ステップS7で、いずれかの皮膚センサ54に反応があるかどうかを判断する。すなわち、センサ入力/出力ボード64から検知データを取得して、接近を検知したことを示すデータが入力されたかどうかを判断する。このステップS7の処理は、このパトロール行動の動作と並行してたとえば一定周期で繰り返し実行される。   In step S7, it is determined whether any skin sensor 54 has a reaction. That is, the detection data is acquired from the sensor input / output board 64, and it is determined whether or not the data indicating that the approach is detected is input. The process of step S7 is repeatedly executed, for example, at a constant period in parallel with the operation of the patrol action.

このステップS7で“YES”であれば、続くステップS9で、車輪モータ16を制御して移動速度を低下させる。これによって、接近した相手にコミュニケーションのきっかけを与えることができる。   If “YES” in this step S7, the wheel motor 16 is controlled in a succeeding step S9 to lower the moving speed. As a result, it is possible to give an opportunity for communication to an approaching partner.

さらに、ステップS11で、進行方向に反応があるかどうか、すなわち、進行方向側に配置されている皮膚センサ54から接近を検知したことを示すデータが入力されていたかどうかを判断する。このステップS11で“NO”であれば、ステップS7で検知された人または物が進行方向には存在していないことが分かるので、そのままステップS7へ戻る。一方、ステップS11で“YES”であれば、進行方向に人または物が存在しているので、続くステップS13で、衝突を避けるべく車輪モータ16を制御して移動する方向を別の方向に変更して、ステップS7へ戻る。   Further, in step S11, it is determined whether or not there is a reaction in the traveling direction, that is, whether or not data indicating that an approach has been detected is input from the skin sensor 54 disposed on the traveling direction side. If “NO” in this step S11, it is understood that the person or thing detected in the step S7 does not exist in the traveling direction, and the process directly returns to the step S7. On the other hand, if “YES” in the step S11, since a person or an object exists in the traveling direction, the moving direction is changed to another direction by controlling the wheel motor 16 to avoid a collision in the subsequent step S13. Then, the process returns to step S7.

図7に示すフロー図は、ロボット10が「待機中の行動(ひとり遊び)」(コミュニケーションの待機中に頭をかいたり腕を組んだりしてひとり遊びをする)を実行する場合の動作の一例を示す。   The flowchart shown in FIG. 7 is an example of an operation when the robot 10 executes “standby action (single play)” (playing alone by putting a head or arms together while waiting for communication). Indicates.

図7の最初のステップS21では、CPU56は、センサ入力/出力ボード64に指示してすべての皮膚センサ54の感度を高くし、近接センサモードにする。次に、ステップS23で、メモリ60から「待機中の行動」を実行するためのプログラムおよびデータを読み出して「待機中の行動」を開始する。   In the first step S21 in FIG. 7, the CPU 56 instructs the sensor input / output board 64 to increase the sensitivity of all the skin sensors 54 and set the proximity sensor mode. Next, in step S23, the program and data for executing the “standby action” are read from the memory 60, and the “standby action” is started.

そして、ステップS25で、いずれかの皮膚センサ54に反応があるかどうかを判断する。つまり、たとえば、一定周期ごとにセンサ入力/出力ボード64から検知データを取得して、接近または接触を検知したことを示すデータが入力されたかどうかを判断する。このステップS25で“YES”であれば、続くステップS27で、その反応が振り切れているかどうかを判断する。つまり、検知データが最大値を示したかあるいは所定の閾値を超えているか等を判断する。ここで“YES”であることは、接触があったことを意味する。   In step S25, it is determined whether any skin sensor 54 has a reaction. That is, for example, detection data is acquired from the sensor input / output board 64 at regular intervals, and it is determined whether data indicating that an approach or contact has been detected is input. If “YES” in the step S25, it is determined whether or not the reaction has been shaken in a succeeding step S27. That is, it is determined whether the detection data shows a maximum value or exceeds a predetermined threshold value. Here, “YES” means that there is a contact.

ステップS27で“NO”であれば、触れられそうになっている部分のピエゾセンサシート54を特定し、頭部モータ44を制御してその部分を見る動作を実行する。これによって、人が触れようとしている場所を把握して、触れられる前にその場所または方向を見るという自然な動作を提示できる。   If “NO” in the step S27, the part of the piezo sensor sheet 54 that is likely to be touched is specified, and the head motor 44 is controlled to perform the operation of viewing the part. As a result, it is possible to present a natural action of grasping a place where a person is going to touch and looking at the place or direction before being touched.

続くステップS31では、反応があっても触れられない状態が所定回数以上繰り返されたか否かを判断し、“NO”であればステップS25へ戻る。一方、ステップS31で“YES”であれば、相手がロボット10になかなか触れようとせず恐る恐る対応していると思われるので、続くステップS33で、メモリ60から音声データをサウンド入力/出力ボード66に与えて、スピーカ48から「触っても大丈夫だよ」という合成音声を出力させる。これによって、躊躇している相手にコミュニケーションを促すことができる。このステップS33を終了するとステップS25へ戻る。   In a succeeding step S31, it is determined whether or not a state of being touched even if there is a reaction is repeated a predetermined number of times or more. If “NO”, the process returns to the step S25. On the other hand, if “YES” in the step S31, it seems that the other party does not readily touch the robot 10 and is terribly responding. Therefore, in the subsequent step S33, the audio data is transferred from the memory 60 to the sound input / output board 66. Then, a synthesized voice “It is okay to touch” is output from the speaker 48. As a result, communication can be promoted to the other party who is hesitant. When step S33 ends, the process returns to step S25.

また、ステップS27で“YES”であれば、つまり、相手にいきなり触られた場合には、ステップS35で、右腕モータ36、左腕モータ38または頭部モータ44を制御してびっくりする動作を実行し、驚きの仕草を提示する。続いて、ステップS37で、センサ入力/出力ボード64に指示して、触られている部分の皮膚センサ54の感度を下げる。このように触れられた部分を圧力センサとして機能させ接触状態を検知可能にしてから、その相手との間でのコミュニケーションを開始する。   If “YES” in the step S27, that is, if the opponent is suddenly touched, a surprising operation is executed by controlling the right arm motor 36, the left arm motor 38, or the head motor 44 in a step S35. , Present a surprising gesture. In step S37, the sensor input / output board 64 is instructed to lower the sensitivity of the skin sensor 54 in the touched portion. The part touched in this way functions as a pressure sensor so that the contact state can be detected, and then communication with the partner is started.

図8に示すフロー図は、コミュニケーション行動時の危険回避を実行する場合の動作の一例を示す。図8の最初のステップS51で、CPU56は、センサ入力/出力ボード64に指示して、動かす腕24R、24Lの部分にある皮膚センサ531−539、540−548の感度を高くして、動かす腕24R、24Lの部分のみ近接センサモードにする。次に、ステップS53で、メモリ60から所定のコミュニケーション行動を実行するためのプログラムおよびデータを読み出してコミュニケーション行動を開始する。   The flowchart shown in FIG. 8 shows an example of an operation when risk avoidance at the time of communication action is executed. In the first step S51 in FIG. 8, the CPU 56 instructs the sensor input / output board 64 to increase the sensitivity of the skin sensors 531 to 539 and 540 to 548 in the portions of the arms 24R and 24L to be moved and move the arms. Only the portions 24R and 24L are set to the proximity sensor mode. Next, in step S53, a program and data for executing a predetermined communication action are read from the memory 60, and the communication action is started.

そして、ステップS55で、近接センサモードにした腕24R、24Lの皮膚センサ54に反応があるかどうかをたとえば一定周期ごとに判断する。   In step S55, whether or not there is a reaction in the skin sensors 54 of the arms 24R and 24L in the proximity sensor mode is determined at regular intervals, for example.

このステップS55で“YES”であれば、つまり、動かしている腕24R、24Lの皮膚センサ54からの検知データが接近を検知したことを示すものであった場合には、続くステップS57で、右腕モータ36、左腕モータ38を制御して、その動かしている腕24R、24Lの動作速度を落とす。続くステップS59で、右腕モータ36、左腕モータ38を制御して、腕24R、24Lの軌道を障害物回避軌道に変更させる。障害物回避軌道は、たとえば、動かす腕24R、24Lの部分に配置されたピエゾセンサシート531−539、540−548ごとに、その反応が小さくなるような方向に、すなわち、障害物から遠ざかって近接の度合いが小さくなるような方向に、腕24Rまたは24Lを動作させるような制御データとして予めメモリ60に登録しておけばよい。この場合、反応のあったピエゾセンサシート54に対応する制御データをメモリ60からモータ制御ボード62に与えて右腕モータ36、左腕モータ38等を制御し、動かす部分について障害物と接触しないような回避軌道を簡単に取らせることができる。   If “YES” in this step S55, that is, if the detection data from the skin sensor 54 of the moving arms 24R and 24L indicates that an approach has been detected, in the subsequent step S57, the right arm The motor 36 and the left arm motor 38 are controlled to reduce the operating speed of the moving arms 24R and 24L. In subsequent step S59, the right arm motor 36 and the left arm motor 38 are controlled to change the trajectories of the arms 24R and 24L to obstacle avoiding trajectories. The obstacle avoidance trajectory is, for example, close to the piezo sensor sheets 531 to 539 and 540 to 548 arranged in the moving arms 24R and 24L in such a direction that the reaction becomes small, that is, away from the obstacle. It may be registered in advance in the memory 60 as control data for operating the arm 24R or 24L in such a direction that the degree of the movement becomes smaller. In this case, control data corresponding to the piezo sensor sheet 54 that has reacted is given from the memory 60 to the motor control board 62 to control the right arm motor 36, the left arm motor 38, etc. The trajectory can be easily taken.

続いて、ステップS61で、この回避を伴った行動中に、腕24R、24Lの皮膚センサ54に反応があるかどうかをたとえば一定周期ごとに判断する。このステップS61で“YES”であれば、つまり、センサ入力/出力ボード64からの取得した検知データが接近または接触を検知したことを示すものであった場合には、続くステップS63で、その腕24R、24Lの皮膚センサ54の反応が振り切れたかどうか、つまり、接触があったかどうかを判断する。   Subsequently, in step S61, whether or not there is a reaction in the skin sensors 54 of the arms 24R and 24L during the action accompanied by the avoidance is determined at regular intervals, for example. If “YES” in this step S61, that is, if the detection data acquired from the sensor input / output board 64 indicates that an approach or contact has been detected, the arm is detected in a succeeding step S63. It is determined whether or not the reaction of the skin sensors 54 of 24R and 24L has been shaken, that is, whether or not there has been contact.

ステップS63で“NO”であれば、つまり、障害物(人や物)がぶつかりそうな場所に存在するが未だ接触していない場合には、ステップS61へ戻って皮膚センサ54の監視をしつつ、回避軌道によるコミュニケーション行動を継続する。   If “NO” in the step S63, that is, if an obstacle (a person or an object) is present in a place where the object is likely to collide but is not yet in contact, the process returns to the step S61 and the skin sensor 54 is monitored. Continue communication behavior by avoidance trajectory.

一方、ステップS63で“YES”であれば、つまり、障害物に接触した場合には、続くステップS65で右腕モータ36、左腕モータ38を制御してコミュニケーション行動を中断する。なお、この実施例では、ロボット10を柔らかい皮膚20で覆うようにしているので、ぶつかっても安全である。   On the other hand, if “YES” in the step S63, that is, if an obstacle is touched, the right arm motor 36 and the left arm motor 38 are controlled in a subsequent step S65 to interrupt the communication action. In this embodiment, since the robot 10 is covered with the soft skin 20, it is safe even if it collides.

そして、ステップS67で、音声データをサウンド入力/出力ボード66に与えてスピーカ48から「ごめんね」と発話させる。このステップS67の処理を終了するとステップS61へ戻って再び皮膚センサ54の反応を一定周期ごとに監視する。   In step S 67, the audio data is given to the sound input / output board 66 and “I ’m sorry” is uttered from the speaker 48. When the process of step S67 is completed, the process returns to step S61, and the reaction of the skin sensor 54 is monitored again at regular intervals.

他方、ステップS61で“NO”であれば、つまり、腕24R、24Lのぶつかりそうな場所に障害物が存在しなくなった場合には、ステップS69で、右腕モータ36、左腕モータ38を制御して、腕24R、24Lの速度と軌道を通常のものに戻す。そして、ステップS55に戻って、通常のコミュニケーション行動を継続しつつ皮膚センサ54の反応を一定周期で見張る。   On the other hand, if “NO” in the step S61, that is, if there is no obstacle at the place where the arms 24R and 24L are likely to collide, the right arm motor 36 and the left arm motor 38 are controlled in a step S69. Return the speed and trajectory of the arms 24R, 24L to normal ones. Then, the process returns to step S55, and the reaction of the skin sensor 54 is watched at regular intervals while continuing normal communication behavior.

図9に示すフロー図は、「握手してね!行動」をする場合の動作の一例を示す。図9の最初のステップS81で、CPU56は、センサ入力/出力ボード64に指示し、動かす腕24R、24Lに配置された皮膚センサ531−539、540−548の感度を高くして、動かす腕24R、24Lの部分のみを近接センサモードにする。   The flowchart shown in FIG. 9 shows an example of an operation when “shake a hand! In the first step S81 in FIG. 9, the CPU 56 instructs the sensor input / output board 64 to increase the sensitivity of the skin sensors 531-539 and 540-548 arranged on the moving arms 24R, 24L and move the arms 24R. , 24L is set to the proximity sensor mode.

次に、ステップS83で、メモリ60からこの「握手してね!行動」を実行するためのプログラムおよびデータを読み出して「握手してね!行動」を開始する。この行動を開始すると、まず、ステップS85で、音声データをサウンド入力/出力ボード66に与えてスピーカ48から「握手してね」の合成音声を出力させ、続いて、ステップS87で、制御データをモータ制御ボード62に与えて右腕モータ36、左腕モータ38を制御し、手を差し出す動作を実行させる。   Next, in step S83, a program and data for executing this “shake a hand! Action” are read from the memory 60, and a “shake a hand! Action” is started. When this action is started, first, in step S85, the voice data is given to the sound input / output board 66 to output the synthesized voice of “shake handshake” from the speaker 48. Subsequently, in step S87, the control data is sent. The operation is given to the motor control board 62 to control the right arm motor 36 and the left arm motor 38, and the operation of inserting a hand is executed.

そして、ステップS89で、たとえば一定周期ごとにセンサ入力/出力ボード66から検知データを取得して、左腕24R、24Lに配置された皮膚センサ531−539、540−548に反応があったかどうかを判断する。   In step S89, for example, detection data is acquired from the sensor input / output board 66 at regular intervals, and it is determined whether or not the skin sensors 531 to 539 and 540 to 548 arranged on the left arms 24R and 24L have reacted. .

ステップS89で“YES”であれば、つまり、相手が握手をしようとロボット10の腕24R、24Lのいずれかの場所にその手を近づけた場合には、続くステップS91で、センサ入力/出力ボード64に指示して、反応のあった場所の皮膚センサ54の感度を下げて、その場所の皮膚センサ54を圧力センサモードに変更しておく。そして、ステップS93で、右腕モータ36、左腕モータ38を制御して、握られた場所を中心にして腕24R、24Lを振る動作すなわち握手動作を実行させる。   If “YES” in the step S89, that is, if the opponent brings his hand close to any of the arms 24R and 24L of the robot 10 to shake hands, in the subsequent step S91, the sensor input / output board 64, the sensitivity of the skin sensor 54 at the place of reaction is lowered, and the skin sensor 54 at that place is changed to the pressure sensor mode. In step S93, the right arm motor 36 and the left arm motor 38 are controlled to perform an operation of shaking the arms 24R and 24L around the gripped position, that is, a handshake operation.

ステップS95では、たとえば一定周期ごとにセンサ入力/出力ボード64からの検知データを取得して、接触状態として圧力の強弱を計測することによって、握られている場所の皮膚センサ54で検知された圧力が小さくなってきたかどうかを判断する。   In step S95, for example, the detection data from the sensor input / output board 64 is acquired at regular intervals, and the pressure detected by the skin sensor 54 at the place where it is gripped by measuring the strength of the pressure as the contact state. Determine if has become smaller.

このステップS95で“YES”であれば、相手が握手を終えようとその手を離そうとしているので、続くステップS97で、右腕モータ36、左腕モータ38を制御して、握手動作を終了させる。そして、ステップS99で、右腕モータ36、左腕モータ38を制御して、差し出した手を引く動作を実行させて、この処理を終了する。   If “YES” in this step S95, the opponent is trying to release his hand to finish the handshake, and in the subsequent step S97, the right arm motor 36 and the left arm motor 38 are controlled to end the handshake operation. Then, in step S99, the right arm motor 36 and the left arm motor 38 are controlled to perform the operation of pulling out the hand that has been drawn out, and this process is terminated.

一方、ステップS89で“NO”であれば、ステップS101で、他の部分に配置された皮膚センサ54に反応があったか否かを判断する。このステップS101で“NO”であれば、ステップS89に戻って一定周期ごとの皮膚センサ54の監視を繰り返す。一方、このステップS101で“YES”であれば、つまり、相手が差し出した腕以外の部分を握ろうとしている場合には、続くステップS103で、スピーカ48から「それは握手じゃないよぅ」と発話させる。そして、ステップS99へ進み、差し出した手を引く動作を実行させて、この処理を終了する。   On the other hand, if “NO” in the step S89, it is determined whether or not there is a reaction in the skin sensor 54 disposed in another part in a step S101. If “NO” in the step S101, the process returns to the step S89 to repeat the monitoring of the skin sensor 54 for every fixed period. On the other hand, if “YES” in this step S101, that is, if the other party is trying to grasp a part other than the arm that the opponent has presented, the speaker 48 speaks “It is not a handshake” in the following step S103. . Then, the process proceeds to step S99, and the operation of pulling out the hand that has been handed out is executed, and this process ends.

図10に示すフロー図は、「抱っこしてね!行動」をする場合の動作の一例を示す。図10の最初のステップS111で、CPU56は、センサ入力/出力ボード64に指示して、すべての皮膚センサ54の感度を高くし、全身の皮膚センサ54を近接センサモードにする。次に、ステップS113で、メモリ60からこの「抱っこしてね!行動」に関するプログラムおよびデータを読み出して、「抱っこしてね!行動」を開始する。この行動を開始すると、ステップS115でメモリ60から音声データをサウンド入力/出力ボード66に与えてスピーカ48から「抱っこしてね」の合成音声を出力させる。続いて、ステップS117で、モータ制御ボード62に制御データを与えて右腕モータ36、左腕モータ38を制御し、抱っこをするために手を広げる動作を実行させる。   The flowchart shown in FIG. 10 shows an example of an operation in the case of “Hold me! In the first step S111 of FIG. 10, the CPU 56 instructs the sensor input / output board 64 to increase the sensitivity of all the skin sensors 54 and set the whole body skin sensors 54 to the proximity sensor mode. Next, in step S113, the program and data relating to “Hold me! Action” are read from the memory 60, and “Hold me! Action” is started. When this action is started, voice data is given from the memory 60 to the sound input / output board 66 in step S115, and a synthesized voice of “Hold me” is outputted from the speaker 48. Subsequently, in step S117, control data is given to the motor control board 62 to control the right arm motor 36 and the left arm motor 38, and an operation of spreading a hand for holding is executed.

そして、ステップS119で、たとえば一定周期ごとにセンサ入力/出力ボード64から検知データを取得して、肩周辺に配置されたピエゾセンサシート509−513に反応があったかどうかを判断する。このステップS119で“YES”であれば、つまり、大きい相手がロボット10に抱きつこうとしている場合には、ステップS121で、全身の皮膚センサ54の感度を下げて圧力センサモードに変更しておく。続いて、ステップS123で、右腕モータ36、左腕モータ38を制御して、腕24R、24Lで輪を作って相手に抱きつく動作を開始する。   In step S119, detection data is acquired from the sensor input / output board 64 at regular intervals, for example, and it is determined whether or not there is a response to the piezo sensor sheet 509-513 arranged around the shoulder. If “YES” in this step S119, that is, if a large opponent is trying to hug the robot 10, the sensitivity of the skin sensor 54 of the whole body is lowered and changed to the pressure sensor mode in step S121. . Subsequently, in step S123, the right arm motor 36 and the left arm motor 38 are controlled to start the operation of making a ring with the arms 24R and 24L and hugging the opponent.

そして、ステップS125で、たとえば一定周期ごとにセンサ入力/出力ボード64から検知データを取得して、接触状態として圧力の強弱等を計測することによって、皮膚センサ54が少し押されたような状態かどうかを判断する。ここでは、たとえば腕、胸、腹などの接触のある部分に配置された皮膚センサ54からのデータによって判断される。なお、このとき、皮膚センサ54が圧力センサとして機能する範囲内でその感度を変更して接触状態を確実に検知するようにしてもよい。   In step S125, for example, detection data is acquired from the sensor input / output board 64 at regular intervals, and the skin sensor 54 is pressed a little by measuring the strength of pressure as a contact state. Determine if. Here, the determination is made based on data from the skin sensor 54 disposed in a contact portion such as an arm, chest, or stomach. At this time, the contact state may be reliably detected by changing the sensitivity within a range where the skin sensor 54 functions as a pressure sensor.

このステップS125で“YES”であれば、つまり、たとえば圧力値データが相手に強く抱きついた状態のような所定範囲の値を示した場合には、ステップS127で右腕モータ36、左腕モータ38を制御して、抱きつく動作を停止させ、ステップS129でスピーカ48から「もっとぎゅっとして」と発話させる。このように、この実施例では皮膚センサ54を用いて相手が大きいことを検知した場合、強く抱きつきかつ甘い言葉を発することによって、相手に甘えるように抱きつくことができる。   If “YES” in the step S125, that is, if the pressure value data indicates a value in a predetermined range such as a state where the pressure data is strongly held by the opponent, for example, the right arm motor 36 and the left arm motor 38 are controlled in a step S127. Then, the hugging operation is stopped, and “more tight” is uttered from the speaker 48 in step S129. As described above, in this embodiment, when the skin sensor 54 is used to detect that the partner is large, the partner can be hugged so that the partner can be pampered by strongly hugging and uttering sweet words.

また、ステップS119で“NO”であれば、つまり、肩周辺の皮膚センサ54に反応がない場合、ステップS131で下腹部に配置されたピエゾセンサシート526、527、529に反応があるかどうかを判断する。このステップS131で“NO”であれば、ステップS119に戻って、一定周期ごとに皮膚センサ54の監視を繰り返す。一方、このステップS131で“YES”であれば、つまり、小さい相手がロボット10に抱きつこうとしている場合には、ステップS133で全身の皮膚センサ54の感度を下げて圧力センサモードに変更し、続いて、ステップS135で、腕24R、24Lで輪を作って相手に抱きつく動作を開始する。   If “NO” in the step S119, that is, if there is no response to the skin sensor 54 around the shoulder, it is determined whether or not there is a response to the piezo sensor sheets 526, 527, and 529 arranged in the lower abdomen in the step S131. to decide. If “NO” in the step S131, the process returns to the step S119, and the monitoring of the skin sensor 54 is repeated at regular intervals. On the other hand, if “YES” in this step S131, that is, if a small opponent is trying to hug the robot 10, the sensitivity of the whole body skin sensor 54 is lowered in step S133, and the pressure sensor mode is changed. Subsequently, in step S135, an operation of making a ring with the arms 24R and 24L and hugging the opponent is started.

そして、ステップS137で、たとえば一定周期ごとにセンサ入力/出力ボード64から検知データを取得して、接触状態として圧力の強弱等を計測することによって、皮膚センサ54が触れられた状態かどうかを判断する。なお、このときも上述と同様に圧力センサ54の感度を適宜調整するようにしてもよい。   In step S137, for example, detection data is acquired from the sensor input / output board 64 at regular intervals, and the pressure sensor is measured as a contact state to determine whether the skin sensor 54 is touched. To do. Also at this time, the sensitivity of the pressure sensor 54 may be adjusted appropriately as described above.

このステップS137で“YES”であれば、つまり、圧力値データが力を加えず相手に抱きついた状態のような所定範囲の値を示した場合には、ステップS139で右腕モータ36、左腕モータ38を制御して、抱きつく動作を停止させる。そして、ステップS141で片腕を上下させる動作を実行させるとともに、ステップS143でスピーカ48から「よしよし」と発話させる。このように、この実施例では皮膚センサ54を用いて相手が小さいことを検知した場合、優しく抱きつきかつ優しい言葉を発することによって相手を優しく抱っこすることができる。   If “YES” in this step S137, that is, if the pressure value data indicates a value within a predetermined range such as a state where the force is hung on the other party, the right arm motor 36 and the left arm motor 38 in step S139. To stop the hugging movement. In step S141, an operation of moving one arm up and down is executed, and in step S143, the speaker 48 utters “good”. As described above, in this embodiment, when the skin sensor 54 is used to detect that the partner is small, the partner can be gently held by gently hugging and issuing a friendly word.

ステップS129またはステップS143の処理を終了すると、ステップS145で、右腕モータ36、左腕モータ38および車輪モータ16を制御して、腕24R、24Lを広げて離れる動作を実行させ、ステップS147で抱っこ動作を終了させて、この処理を終了する。   When the process of step S129 or step S143 is completed, the right arm motor 36, the left arm motor 38, and the wheel motor 16 are controlled in step S145 to perform the operation of spreading and separating the arms 24R, 24L, and the holding operation is performed in step S147. The process is terminated.

この実施例によれば、ピエゾセンサシート54の感度を動的に変更することによって当該センサを近接センサおよび圧力センサとして機能させることができ、このピエゾセンサシート54を全身に配置することによって、全身分布型の近接センサおよび全身分布型の圧力センサの両方を同時に実現することができる。したがって、状況等に応じて感度を動的に変更しセンサの機能を使い分けることによって、新たな触覚コミュニケーションを実現することができる。   According to this embodiment, by dynamically changing the sensitivity of the piezo sensor sheet 54, the sensor can function as a proximity sensor and a pressure sensor, and by disposing the piezo sensor sheet 54 throughout the body, Both a distributed proximity sensor and a whole body distributed pressure sensor can be realized simultaneously. Therefore, new tactile communication can be realized by dynamically changing the sensitivity according to the situation and using the functions of the sensor properly.

なお、上述の実施例では、人体状部18の頭部、胴、肩、腕や手などの全身にピエゾセンサシート54を分散配置しているが、ピエゾセンサシート54は、ロボット10に実行させる所定の動作に応じて必要な部分に必要な数だけ配置するようにしてもよい。   In the above-described embodiment, the piezo sensor sheets 54 are distributed throughout the body, such as the head, torso, shoulders, arms, and hands, of the human body-like portion 18, but the piezo sensor sheets 54 are executed by the robot 10. You may arrange | position as many as required to a required part according to predetermined | prescribed operation | movement.

また、上述の各実施例では、ピエゾセンサシート54を近接センサとして機能させたので、従来技術のロボットで用いていた超音波距離センサを設けていないが、人等との間の距離を計る必要があるような場合などには必要に応じて超音波距離センサを設けるようにしてもよい。   In each of the above-described embodiments, since the piezo sensor sheet 54 is functioned as a proximity sensor, the ultrasonic distance sensor used in the prior art robot is not provided, but it is necessary to measure the distance to a person or the like. For example, an ultrasonic distance sensor may be provided as necessary.

図1はこの発明の一実施例のコミュニケーションロボットを示す図解図である。FIG. 1 is an illustrative view showing a communication robot according to an embodiment of the present invention. 図2は図1実施例に用いる皮膚とその中に埋め込まれるピエゾセンサシートとを示す図解図である。FIG. 2 is an illustrative view showing the skin used in FIG. 1 embodiment and a piezo sensor sheet embedded therein. 図3はピエゾセンサシートの配置位置を示す図解図である。FIG. 3 is an illustrative view showing an arrangement position of the piezo sensor sheet. 図4は図1実施例の電気的構成を示すブロック図である。FIG. 4 is a block diagram showing the electrical configuration of the embodiment of FIG. 図5は図1実施例におけるピエゾセンサシートから検知信号を入力するセンサ入力/出力ボードを部分的に示す図解図である。FIG. 5 is an illustrative view partially showing a sensor input / output board for inputting a detection signal from the piezo sensor sheet in FIG. 1 embodiment. 図6は図1実施例において「パトロール行動」を行うときの動作を示すフロー図である。FIG. 6 is a flowchart showing an operation when performing the “patrol action” in the embodiment of FIG. 1. 図7は図1実施例において「待機中の行動」を行うときの動作を示すフロー図である。FIG. 7 is a flowchart showing an operation when performing “waiting action” in the FIG. 1 embodiment. 図8は図1実施例においてコミュニケーション行動中に危険回避をするときの動作を示すフロー図である。FIG. 8 is a flowchart showing an operation when risk avoidance is performed during the communication action in the FIG. 1 embodiment. 図9は図1実施例において「握手してね!行動」をするときの動作を示すフロー図である。FIG. 9 is a flowchart showing an operation when “shake a hand! Act” in the embodiment of FIG. 図10は図1実施例において「抱っこしてね!行動」をするときの動作を示すフロー図である。FIG. 10 is a flowchart showing an operation when “hold me! Act” in the embodiment of FIG. 1.

符号の説明Explanation of symbols

10 …コミュニケーションロボット
18 …人体状部
20 …皮膚
54,501−548 …ピエゾセンサシート
56 …CPU
62 …モータ制御ボード
64 …センサ入力/出力ボード
66 …サウンド入力/出力ボード
68 …基板
70 …PICマイコン
72 …A/D変換器
74 …ピエゾフィルム
76a,76b …導体
82 …オペアンプ
84 …マルチプレクサ
DESCRIPTION OF SYMBOLS 10 ... Communication robot 18 ... Human body part 20 ... Skin 54,501-548 ... Piezo sensor sheet | seat 56 ... CPU
62 ... Motor control board 64 ... Sensor input / output board 66 ... Sound input / output board 68 ... Substrate 70 ... PIC microcomputer 72 ... A / D converter 74 ... Piezo film 76a, 76b ... Conductor 82 ... Operational amplifier 84 ... Multiplexer

Claims (9)

感度可変に設けられる圧電センサ、
前記圧電センサの感度を変更して静電容量を計測する近接センサまたは圧力を計測する圧力センサとして前記圧電センサを機能させる変更手段、および
前記近接センサまたは前記圧力センサとして検知した検知情報に応じて動作を制御する動作制御手段を備える、コミュニケーションロボット。
A piezoelectric sensor provided with variable sensitivity ,
Depending on the proximity sensor that changes the sensitivity of the piezoelectric sensor to measure capacitance or the changing means that causes the piezoelectric sensor to function as a pressure sensor that measures pressure, and detection information detected as the proximity sensor or the pressure sensor A communication robot comprising motion control means for controlling motion.
前記動作制御手段は、前記近接センサとして検知した検知情報に基づいて接近または接触が検知されたとき、接近または接触を検知していないときと異なる動作を実行させる、請求項1記載のコミュニケーションロボット。   The communication robot according to claim 1, wherein when the approach or contact is detected based on the detection information detected as the proximity sensor, the operation control unit performs an operation different from that when no approach or contact is detected. 前記動作制御手段は、前記近接センサとして検知した検知情報に基づいて接近が検知されたとき、動作速度を小さくする、請求項2記載のコミュニケーションロボット。   The communication robot according to claim 2, wherein the operation control unit reduces the operation speed when an approach is detected based on detection information detected as the proximity sensor. 前記動作制御手段は、前記近接センサとして検知した検知情報に基づいて接近が検知されたとき、動作軌道を変更する、請求項2または3記載のコミュニケーションロボット。   The communication robot according to claim 2 or 3, wherein the motion control means changes the motion trajectory when an approach is detected based on detection information detected as the proximity sensor. 前記変更手段は、前記近接センサとして検知した検知情報に基づいて接近または接触が検知されたとき、感度を変更して前記圧電センサを圧力センサとして機能させ、
前記動作制御手段は、前記圧力センサとして検知した検知情報に応じて動作を制御する、請求項1ないし4のいずれかに記載のコミュニケーションロボット。
When the approach or contact is detected based on detection information detected as the proximity sensor, the changing means changes sensitivity to cause the piezoelectric sensor to function as a pressure sensor,
The communication robot according to claim 1, wherein the operation control unit controls the operation according to detection information detected as the pressure sensor.
前記圧電センサは身振りで表現する際に動く部分に配置される、請求項1ないし5のいずれかに記載のコミュニケーションロボット。   The communication robot according to claim 1, wherein the piezoelectric sensor is disposed in a portion that moves when expressing by gesture. 前記圧電センサは少なくとも頭、胴、肩、腕または手のいずれかに配置される、請求項1ないし6のいずれかに記載のコミュニケーションロボット。   The communication robot according to claim 1, wherein the piezoelectric sensor is disposed at least on any of a head, a torso, a shoulder, an arm, and a hand. 前記圧電センサは分散配置される、請求項1ないし7のいずれかに記載のコミュニケーションロボット。   The communication robot according to claim 1, wherein the piezoelectric sensors are arranged in a distributed manner. ロボット本体上に被せられる柔軟素材からなる皮膚をさらに備え、
前記圧電センサは前記皮膚中に配置される、請求項1ないし8のいずれかに記載のコミュニケーションロボット。
It is further equipped with a skin made of a flexible material to be put on the robot body
The communication robot according to claim 1, wherein the piezoelectric sensor is disposed in the skin.
JP2003402462A 2003-12-02 2003-12-02 Communication robot Expired - Fee Related JP3942586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003402462A JP3942586B2 (en) 2003-12-02 2003-12-02 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003402462A JP3942586B2 (en) 2003-12-02 2003-12-02 Communication robot

Publications (2)

Publication Number Publication Date
JP2005161450A JP2005161450A (en) 2005-06-23
JP3942586B2 true JP3942586B2 (en) 2007-07-11

Family

ID=34726017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003402462A Expired - Fee Related JP3942586B2 (en) 2003-12-02 2003-12-02 Communication robot

Country Status (1)

Country Link
JP (1) JP3942586B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4878462B2 (en) * 2005-09-07 2012-02-15 株式会社国際電気通信基礎技術研究所 Communication robot
JP5530798B2 (en) * 2010-05-11 2014-06-25 東海ゴム工業株式会社 Capacitance type sensor and sensor mounting structure
EP2952299A1 (en) 2014-06-05 2015-12-09 Aldebaran Robotics Standby mode of a humanoid robot
JP6495606B2 (en) * 2014-10-01 2019-04-03 シャープ株式会社 Information control device and program
ITUA20163522A1 (en) * 2016-05-17 2017-11-17 Comau Spa "Sensorized coverage for an industrial device"
CN106272420B (en) * 2016-08-30 2019-07-02 北京小米移动软件有限公司 Robot and robot control method
WO2018084170A1 (en) * 2016-11-07 2018-05-11 Groove X株式会社 Autonomous robot that identifies persons
JP6935902B2 (en) * 2017-02-20 2021-09-15 株式会社国際電気通信基礎技術研究所 Communication robot
JP2018149673A (en) * 2017-03-10 2018-09-27 Idec株式会社 Non-contact sensor device and machine provided with the non-contact sensor device
JP6953778B2 (en) * 2017-04-28 2021-10-27 オムロン株式会社 Coordinated robots, controllers, and methods
JP7024754B2 (en) * 2019-03-25 2022-02-24 カシオ計算機株式会社 Controls, robots, control methods and programs
WO2020260205A1 (en) * 2019-06-24 2020-12-30 Albert-Ludwigs-Universität Freiburg Tactile sensor and method for operating a tactile sensor
US20220274269A1 (en) * 2021-03-01 2022-09-01 Samsung Electronics Co., Ltd. Method and apparatus for robot collision avoidance by full surface proximity detection

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5914495A (en) * 1982-07-15 1984-01-25 オムロン株式会社 Sensor for robot
JP2001041969A (en) * 1999-07-30 2001-02-16 Matsushita Electric Ind Co Ltd Manufacture of piezoelectric sensor and piezoelectric sensor
JP3989698B2 (en) * 2001-06-01 2007-10-10 株式会社国際電気通信基礎技術研究所 Communication robot
JP3745649B2 (en) * 2001-06-07 2006-02-15 株式会社国際電気通信基礎技術研究所 Communication robot
JP2003071778A (en) * 2001-09-05 2003-03-12 National Institute Of Advanced Industrial & Technology Tactile sensor for robot arm
JP3899912B2 (en) * 2001-11-29 2007-03-28 アイシン精機株式会社 Door opener
JP3615535B2 (en) * 2003-02-03 2005-02-02 本田技研工業株式会社 Keyless entry device

Also Published As

Publication number Publication date
JP2005161450A (en) 2005-06-23

Similar Documents

Publication Publication Date Title
JP3942586B2 (en) Communication robot
JP3706113B2 (en) Communication robot
JP4517509B2 (en) Robot apparatus and control method thereof
JP5186723B2 (en) Communication robot system and communication robot gaze control method
JP4524435B2 (en) Communication robot
JP5007404B2 (en) Personality discrimination device, personality discrimination method, communication robot and electronic device
JP2007139710A (en) Walking-aid robot
JP2008149399A (en) Mobile robot and travel speed estimating method
WO2018020889A1 (en) Robot
JP2006281347A (en) Communication robot
JP4677585B2 (en) Communication robot
JP4617428B2 (en) Motion generation system
JP2004034274A (en) Conversation robot and its operation method
JP4271070B2 (en) Communication robot
EP3198365A1 (en) Mobile communications device with adaptive friction of the housing
JP2011240468A (en) Contact type discriminating system for robot
JP4873607B2 (en) Electronic device having skin sensor
JP2006281348A (en) Communication robot
JP2002031574A (en) Tactile sensor
JP3745649B2 (en) Communication robot
JP4753410B2 (en) Communication robot
WO2018095076A1 (en) Female sex toy with action sensing ability
JP4223426B2 (en) Communication robot
JP2004286205A (en) Torque limiter device, component holding device, articulating device and robot device
JP5103589B2 (en) Communication robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070403

R150 Certificate of patent or registration of utility model

Ref document number: 3942586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110413

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120413

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140413

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees