JP2006281348A - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP2006281348A
JP2006281348A JP2005103036A JP2005103036A JP2006281348A JP 2006281348 A JP2006281348 A JP 2006281348A JP 2005103036 A JP2005103036 A JP 2005103036A JP 2005103036 A JP2005103036 A JP 2005103036A JP 2006281348 A JP2006281348 A JP 2006281348A
Authority
JP
Japan
Prior art keywords
tactile
data
opponent
robot
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005103036A
Other languages
Japanese (ja)
Inventor
Keiko Miyashita
敬宏 宮下
Taichi Tachika
太一 田近
Hiroshi Ishiguro
浩 石黒
Kiyoshi Kogure
潔 小暮
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005103036A priority Critical patent/JP2006281348A/en
Publication of JP2006281348A publication Critical patent/JP2006281348A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve the affinity and safety by estimating the next position and touch behavior of the other party in tactile communication to make the other party feel easy. <P>SOLUTION: This communication robot 10 includes a plurality of piezo sensor sheets, that is, tactile sensors 58 dispersed and arranged on the whole body, and stores a tactile aspect graph data showing the probability transition of the output pattern of the tactile sensors 58 related to the position of the other party making touch behavior. Using the tactile aspect graph data, what is the probability transition of the position and touch behavior of the other party is obtained based upon the position of the other party detected from the obtained tactile sensor output vector, for example, photographing image data of an eye camera 50. The movement is controlled according to the transition destination information such as the obtained next position of the other party to avoid the movement to the concerned position and the movement of the arm, and the movement or turning to make the other party exist in the concerned next position is performed to introduce the other party to the estimated touch behavior. Accordingly, the next position and touch behavior of the other party is estimated to improve the safety and achieve the smooth communication. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明はコミュニケーションロボットに関し、特にたとえば、全身に分布された触覚センサを備え、触覚に基づいて相手の触行動を予測するコミュニケーションロボットに関する。   The present invention relates to a communication robot, and more particularly to, for example, a communication robot that includes a tactile sensor distributed throughout the body and predicts a partner's tactile behavior based on the tactile sense.

日常環境の中で活動するロボットにとって表面の柔らかさと敏感さは、コミュニケーションの相手となる人間への安全性という面において重要である。さらに、スキンシップという言葉の通り、体の表面は最初に触れるインタフェースであることから、コミュニケーションの相手がどのようにどの場所に触れているかを知ることは、相手の状態を知ることに繋がる。たとえば強く握ったり、やさしくなでたりするという触行動は自分の意思や気持ちを相手に伝えるための行動であり、根本的なコミュニケーション行動の1つである。したがって、ロボットの全身の柔らかさと触覚は、日常環境の中で活動するコミュニケーションロボットにとって非常に重要である。   The softness and sensitivity of the surface is important for robots working in everyday environments in terms of safety to humans who can communicate with each other. Furthermore, as the term “skinship” means that the surface of the body is the first interface to touch, so knowing how and where the communication partner is touching leads to knowing the partner's condition. For example, tactile behavior such as grasping firmly or stroking gently is an action to convey one's intention and feeling to the other party, and is one of fundamental communication actions. Therefore, the softness and tactile sensation of the whole body of the robot are very important for a communication robot that operates in an everyday environment.

そこで、本件出願人は、たとえば特許文献1において、柔らかい皮膚を持ち、触覚情報を出力するピエゾセンサ(触覚センサまたは皮膚センサ)を全身に配置したコミュニケーションロボットを提案している。この特許文献1のコミュニケーションロボットでは、触覚センサの出力情報から圧力の強弱、持続時間、または変化の周波数などに着目することで、コミュニケーション相手である人間の触り方を区別することができることがわかっている。
特開2004−283975号公報
In view of this, the present applicant has proposed a communication robot having a soft skin and a piezo sensor (tactile sensor or skin sensor) that outputs tactile information arranged in the whole body in Patent Document 1, for example. In the communication robot disclosed in Patent Document 1, it is understood that the way of touching a human being who is a communication partner can be distinguished by paying attention to pressure intensity, duration, frequency of change, or the like from output information of a tactile sensor. Yes.
JP 2004-283975 A

従来技術では、たとえば撫でられているときに圧力がどういう力加減で変化するのかというように、短い時間間隔(たとえば2、3秒程度)での触り方が区別されていた。ロボットの状況をコミュニケーションに限定した場合には、長い時間間隔で捉えたときに次にどこに位置してどの場所をどのように触るのかというようなコミュニケーション相手である人間の触行動の遷移を、触覚に基づいてある程度限定することが可能である。   In the prior art, how to touch at a short time interval (for example, about 2 or 3 seconds) is distinguished, for example, how the pressure changes when stroking. If the situation of the robot is limited to communication, the tactile sensation of the transition of human tactile behavior as the communication partner, such as where to locate and how to touch the next location when captured at long time intervals It is possible to limit to some extent based on

それゆえに、この発明の主たる目的は、触覚コミュニケーションでの相手の次の位置や触行動を予測できる、コミュニケーションロボットを提供することである。   Therefore, a main object of the present invention is to provide a communication robot capable of predicting the next position and tactile behavior of a partner in tactile communication.

請求項1の発明は、複数の触覚センサ、触行動をしているコミュニケーションの相手の位置に関連付けられた複数の触覚センサの出力のパターンの確率的な遷移を示す触覚アスペクトグラフデータを記憶する触覚アスペクト記憶手段、複数の触覚センサの出力データを取得する取得手段、取得手段によって出力データを取得するときの相手の位置を検出する検出手段、取得手段によって取得された複数の触覚センサの出力データと検出手段による検出結果に基づいて、触覚アスペクト記憶手段から相手の少なくとも次の位置を含む遷移先の情報を取得する遷移先情報取得手段、および遷移先情報取得手段によって取得された遷移先の情報に基づいて動作を制御する制御手段を備える、コミュニケーションロボットである。   According to the first aspect of the present invention, a plurality of tactile sensors and tactile aspect graph data storing tactile aspect graph data indicating stochastic transitions of output patterns of the plurality of tactile sensors associated with the positions of communication partners performing tactile behavior are stored. Aspect storage means, acquisition means for acquiring output data of a plurality of tactile sensors, detection means for detecting the position of a partner when the output data is acquired by the acquisition means, output data of the plurality of tactile sensors acquired by the acquisition means, and Based on the detection result by the detection means, the transition destination information acquisition means for acquiring the transition destination information including at least the next position of the opponent from the tactile aspect storage means, and the transition destination information acquired by the transition destination information acquisition means It is a communication robot provided with the control means which controls operation | movement based on it.

請求項1の発明では、コミュニケーションロボットには、たとえば全身に分布して、複数の触覚センサが設けられる。触覚アスペクト記憶手段には、触行動をしているコミュニケーションの相手の位置に関連付けられた複数の触覚センサの出力のパターンの確率的な遷移を示す触覚アスペクトグラフデータが記憶されている。つまり、触覚アスペクトグラフデータは、複数の触覚センサの出力のパターンを状態とした確率的状態遷移を示す。たとえば、複数の触覚センサの出力パターンは複数のクラスタとして記憶されていて、複数のクラスタごとに、遷移先となるクラスタおよびその遷移確率が記憶される。クラスタは、触覚コミュニケーションにおける代表的な触られ方を示している。また、複数のクラスタのそれぞれに関連付けて、相手の位置に関する情報が記憶される。たとえば、相手の位置に関する情報はコミュニケーションロボットのたとえば重心などの位置を基準とした少なくとも相手の指先および腰の位置に関する確率分布として記憶される。つまり、この場合の触覚アスペクトグラフデータにおいて相手の位置は、相手の存在している位置(腰の位置)および相手に触られている場所(指先の位置)を示す。したがって、触覚アスペクト記憶手段には、相手の存在している位置、触られている場所およびそのときの触られ方がどのように確率的に遷移していくかを示す情報が記憶されている。コミュニケーションロボットに対して相手が触行動を行ったとき、取得手段は、複数の触覚センサの出力データを取得する。また、検出手段は、触覚センサの出力データを取得するときの相手の位置を検出する。検出手段は、実施例では、ロボットのたとえば頭部に設けられた眼カメラを含み、当該カメラで撮影された画像データに基づいて相手の位置を検出する。遷移先情報取得手段は、取得手段によって取得された複数の触覚センサの出力データと検出手段による検出結果に基づいて、触覚アスペクト記憶手段から相手の少なくとも次の位置を含む遷移先の情報を取得する。たとえば、複数の触覚センサの出力データと画像データに基づいて、触覚アスペクトグラフデータにおける現在のクラスタ、すなわち現在の相手の位置が特定される。そして、触覚アスペクトグラフデータから少なくとも相手の次の位置を含む遷移先の情報を取得する。取得した遷移先の情報から、コミュニケーションロボットは、少なくとも次には、相手の位置、触られる場所、触られ方などがどのように確率的に遷移するのかを知ることができ、つまり、少なくとも次の触行動を予測することができる。制御手段は、取得された遷移先の情報に基づいて動作を制御する。したがって、触覚に基づいて相手の次の位置などの触行動を予測することができ、その予測に対応して動作を制御することができるので、たとえば、危険回避によって安全性を向上でき、相手の誘導によって円滑なコミュニケーションを実現できる。   In the invention of claim 1, the communication robot is provided with a plurality of tactile sensors, for example, distributed throughout the body. The tactile aspect storage means stores tactile aspect graph data indicating the probabilistic transition of the output patterns of a plurality of tactile sensors associated with the positions of communication partners performing tactile actions. That is, the tactile aspect graph data indicates a probabilistic state transition in which the output patterns of the plurality of tactile sensors are in a state. For example, output patterns of a plurality of tactile sensors are stored as a plurality of clusters, and a cluster to be a transition destination and a transition probability thereof are stored for each of the plurality of clusters. A cluster shows a typical touch in tactile communication. In addition, information on the position of the opponent is stored in association with each of the plurality of clusters. For example, information related to the position of the opponent is stored as a probability distribution relating to at least the position of the fingertip and the waist of the opponent based on the position of the communication robot such as the center of gravity. That is, in the haptic aspect graph data in this case, the opponent's position indicates the position where the opponent is present (waist position) and the place where the opponent is touching (the position of the fingertip). Therefore, the tactile aspect storage means stores information indicating the position where the other party is present, the place where the opponent is touched, and how the touch at that time changes probabilistically. When the opponent performs a tactile action on the communication robot, the acquisition unit acquires output data of a plurality of tactile sensors. The detecting means detects the position of the other party when acquiring the output data of the tactile sensor. In the embodiment, the detection means includes an eye camera provided on, for example, the head of the robot, and detects the position of the other party based on image data captured by the camera. The transition destination information acquisition unit acquires transition destination information including at least the next position of the opponent from the tactile aspect storage unit based on the output data of the plurality of tactile sensors acquired by the acquisition unit and the detection result by the detection unit. . For example, based on output data and image data of a plurality of tactile sensors, the current cluster in the tactile aspect graph data, that is, the position of the current partner is specified. Then, transition destination information including at least the next position of the other party is acquired from the tactile aspect graph data. From the acquired information of the transition destination, the communication robot can know at least next how the opponent's position, touched place, touched state, etc. change stochastically, that is, at least the next Tactile behavior can be predicted. The control means controls the operation based on the acquired transition destination information. Accordingly, it is possible to predict the tactile behavior such as the next position of the opponent based on the tactile sense, and to control the operation in response to the prediction. For example, safety can be improved by avoiding danger, Smooth communication can be realized by guidance.

請求項2の発明は、請求項1の発明に従属し、制御手段は、遷移先情報取得手段によって取得された相手の次の位置への移動または部位の動きを回避する。   The invention of claim 2 is dependent on the invention of claim 1, and the control means avoids the movement of the opponent to the next position or the movement of the part acquired by the transition destination information acquisition means.

請求項2の発明では、制御手段は、相手の次の位置への移動または部位の動きを回避する。たとえば、取得した遷移先の情報に基づいて相手の次の位置を予測し、当該予測位置への移動または部位の動きを禁止または制限するような制御データを生成して、動作を制御する。したがって、相手への衝突や腕などの部位が相手にぶつかるのを防止することができるので、危険を回避することができ、安全性を向上できる。   In the invention of claim 2, the control means avoids movement of the opponent to the next position or movement of the part. For example, the next position of the other party is predicted based on the acquired information of the transition destination, and control data that prohibits or restricts the movement to the predicted position or the movement of the part is generated to control the operation. Therefore, since it is possible to prevent a collision with the opponent or a part such as an arm from hitting the opponent, danger can be avoided and safety can be improved.

請求項3の発明は、請求項1の発明に従属し、制御手段は、取得手段によって取得された複数の触覚センサの出力データに対応する相手の位置と遷移先情報取得手段によって取得された相手の次の位置との差分に基づいて移動または旋回を制御する。   The invention of claim 3 is dependent on the invention of claim 1, and the control means corresponds to the position of the opponent corresponding to the output data of the plurality of tactile sensors acquired by the acquisition means and the opponent acquired by the transition destination information acquisition means. The movement or turning is controlled based on the difference from the next position.

請求項3の発明では、制御手段は、複数の触覚センサの出力データに対応する相手の位置すなわち相手の現在の位置と、相手の次の位置との差分に基づいて、移動または旋回を制御する。これによって、遷移先情報取得手段によって取得された次の位置に相手が存在することになるようにコミュニケーションロボットを移動または旋回させることができる。したがって、予測される次の位置に相手を位置させることができるので、相手が当該次の位置に対応する触り場所を触ったり、当該次の位置に対応する触り方を行ったりすることが期待される。つまり、予測される触行動に相手を誘導することができる。また、さらに先の遷移先の位置ないし触行動に導いていくこともできる。したがって、予測に対応して相手を所望の位置や触行動に誘導することができるので、円滑なコミュニケーションを実現できる。   In the invention of claim 3, the control means controls the movement or turning based on the difference between the position of the opponent corresponding to the output data of the plurality of tactile sensors, that is, the current position of the opponent and the next position of the opponent. . Accordingly, the communication robot can be moved or turned so that the opponent exists at the next position acquired by the transition destination information acquisition means. Therefore, since the opponent can be positioned at the predicted next position, it is expected that the opponent touches the touch location corresponding to the next position or performs the touch corresponding to the next position. The That is, the opponent can be guided to the predicted tactile behavior. Further, it is possible to lead to a further transition destination position or tactile behavior. Accordingly, since the other party can be guided to a desired position or tactile behavior in response to the prediction, smooth communication can be realized.

請求項4の発明は、請求項1ないし3のいずれかの発明に従属し、ロボット本体上に被せられる柔軟素材からなる皮膚をさらに備え、複数の触覚センサは皮膚中に分散配置される複数のピエゾセンサシートを含む。   The invention of claim 4 is dependent on any one of the inventions of claims 1 to 3, further comprising skin made of a flexible material placed on the robot body, wherein the plurality of tactile sensors are distributed in the skin. Includes piezo sensor sheet.

請求項4の発明では、たとえば筐体などを含むロボット本体上には柔軟素材からなる皮膚が被せられ、この皮膚中に、複数の触覚センサとして複数のピエゾセンサシートが分散配置される。したがって、たとえば全身分布型皮膚センサを有するコミュニケーションロボットを実現することができ、また、柔らかい皮膚を介して触行動が行われるので、相手に対して安心感を与えて親和性と安全性をより向上できるとともに、より円滑な触覚コミュニケーションを実現できる。   In the invention of claim 4, for example, a skin made of a flexible material is placed on a robot body including a housing or the like, and a plurality of piezoelectric sensor sheets are dispersedly arranged in the skin as a plurality of tactile sensors. Therefore, for example, a communication robot having a whole body distribution type skin sensor can be realized, and tactile behavior is performed through soft skin, giving a sense of security to the other party and further improving affinity and safety. In addition to being able to achieve smoother tactile communication.

この発明によれば、相手の位置に対応付けられた触覚センサ出力の確率的遷移を示す触覚アスペクトグラフデータを記憶するようにしたので、触覚に基づいて相手の次の位置ないし触行動を予測することができる。したがって、予測に対応して動作を制御することによって、たとえば危険を回避したり、相手を予測された位置や触行動に誘導したりできるので、安全性を向上でき、また、円滑なコミュニケーションを実現できる。   According to the present invention, since the tactile aspect graph data indicating the stochastic transition of the tactile sensor output associated with the position of the opponent is stored, the next position or tactile behavior of the opponent is predicted based on the tactile sense. be able to. Therefore, by controlling the movement in response to the prediction, for example, it is possible to avoid danger and guide the opponent to the predicted position and tactile behavior, so that safety can be improved and smooth communication is realized. it can.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」ということがある。)10は台車12を含み、この台車12の側面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図4において参照番号「16」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサが取り付けられ、この衝突センサは、台車12への人間や他の障害物の接触を検知する。   Referring to FIG. 1, a communication robot (hereinafter simply referred to as “robot”) 10 of this embodiment includes a carriage 12, and wheels 14 for autonomously moving the robot 10 are disposed on the side of the carriage 12. Is provided. The wheel 14 is driven by a wheel motor (indicated by reference numeral “16” in FIG. 4), and the carriage 12, that is, the robot 10 can be moved in any direction, front, back, left, and right. Although not shown, a collision sensor is attached to the front surface of the carriage 12, and the collision sensor detects contact of a person or other obstacle with the carriage 12.

台車12の上には、多角形柱状のセンサ取付パネル18が設けられ、このセンサ取付パネル18の各面には、超音波距離センサ20が取り付けられる。この実施例ではたとえば24個の超音波距離センサ20が周囲360度にわたるように設けられる。この超音波距離センサ20は、センサ取付パネル18すなわちロボット10の周囲の主として人間との距離を計測するものである。具体的には、超音波距離センサ20は超音波を発射し、その超音波が人から反射されて超音波距離センサ20に入射されたタイミングを測定して、人との間の距離情報を出力する。   A polygonal columnar sensor mounting panel 18 is provided on the carriage 12, and an ultrasonic distance sensor 20 is mounted on each surface of the sensor mounting panel 18. In this embodiment, for example, 24 ultrasonic distance sensors 20 are provided so as to cover 360 degrees. The ultrasonic distance sensor 20 measures the distance from the sensor mounting panel 18, that is, the human body around the robot 10. Specifically, the ultrasonic distance sensor 20 emits an ultrasonic wave, measures the timing at which the ultrasonic wave is reflected from the person and is incident on the ultrasonic distance sensor 20, and outputs distance information between the person and the person. To do.

台車12の上には、人体状部22が直立するように取り付けられる。このロボット本体としての人体状部22の全身は、後に詳しく説明するように、柔軟素材からなる皮膚24によって覆われる。人体状部22は、たとえば鉄板のような筐体(図示せず)を含み、その筐体にコンピュータやその他必要なコンポーネントを収容している。そして、皮膚24は、その筐体上に被せられる。皮膚24の下の筐体の上部ほぼ中央にはマイク26が設けられる。このマイク26は、周囲の音声、特に人間の声を収集するためものである。   On the carriage 12, the human body-like part 22 is attached so as to stand upright. The whole body of the human body 22 as the robot body is covered with skin 24 made of a flexible material, as will be described in detail later. The human body portion 22 includes a housing (not shown) such as an iron plate, for example, and accommodates a computer and other necessary components in the housing. Then, the skin 24 is put on the casing. A microphone 26 is provided at approximately the center of the upper part of the housing under the skin 24. The microphone 26 is for collecting ambient sounds, particularly human voices.

人体状部22は、右腕28Rおよび左腕28Lを含み、右腕28Rおよび左腕28Lすなわち上腕30Rおよび30Lは、それぞれ、肩関節32Rおよび32Lによって、胴体部分に変位自在に取り付けられる。この肩関節32Rおよび32Lは、3軸の自由度を有する。上腕30Rおよび30Lには、1軸の肘関節34Rおよび34Lによって、前腕36Rおよび36Lが取り付けられ、この前腕36Rおよび36Lには、手38Rおよび38Lが取り付けられる。これら右腕28Rおよび左腕28Lの各関節における各軸はここでは図示しないモータによってそれぞれ制御される。すなわち、右腕28Rおよび左腕28Lのそれぞれ4個のモータが、図4において、それぞれ右腕モータ40および左腕モータ42として表される。   The human body 22 includes a right arm 28R and a left arm 28L, and the right arm 28R and the left arm 28L, that is, the upper arms 30R and 30L are detachably attached to the trunk portion by shoulder joints 32R and 32L, respectively. The shoulder joints 32R and 32L have three axes of freedom. Forearms 36R and 36L are attached to upper arms 30R and 30L by uniaxial elbow joints 34R and 34L, and hands 38R and 38L are attached to these forearms 36R and 36L. Each axis in each joint of the right arm 28R and the left arm 28L is controlled by a motor (not shown). That is, the four motors of the right arm 28R and the left arm 28L are represented as the right arm motor 40 and the left arm motor 42, respectively, in FIG.

人体状部18の上部には首関節44を介して頭部46が、人間の頭と同様に俯仰・回転可能に取付けられる。この3軸の首関節44は、図4に示す頭部モータ48によって制御される。頭部46の前面の「目」に相当する位置には2つの眼カメラ50が設けられ、この眼カメラ50は、ロボット10に接近した人間の顔や他の部分を撮影してその映像信号を取り込む。頭部46の前面の目カメラ50の下方にはスピーカ52が設けられる。このスピーカ52は、ロボット10がそれの周囲の人間に対して音声によってコミュニケーションを図るために用いられる。   A head 46 is attached to the upper portion of the human body 18 via a neck joint 44 so as to be able to be elevated and rotated like a human head. The three-axis neck joint 44 is controlled by a head motor 48 shown in FIG. Two eye cameras 50 are provided at positions corresponding to the “eyes” on the front surface of the head 46, and the eye camera 50 takes a picture of a human face approaching the robot 10 and other parts and outputs the video signal. take in. A speaker 52 is provided below the eye camera 50 in front of the head 46. The speaker 52 is used for the robot 10 to communicate by voice to the people around it.

上で説明した人体状部22の胴体や頭部46および腕は上記したようにすべて柔軟な素材からなる皮膚24に覆われる。この皮膚24は、図2に示すように、下層のウレタンフォーム54と、その上に積層される比較的肉厚のシリコンゴム層56aおよび比較的肉薄のシリコンゴム層56bとを含む。そして、2つのシリコンゴム層56aおよび56bの間に、ピエゾセンサシート(皮膚センサ)58が埋め込まれる。このピエゾセンサシート58は、たとえば米国MSI社製、株式会社東京センサ販売のピエゾフィルムを用いる(http://www.t-sensor.co.jp/PIEZO/TOP/index.html)。実施例のロボットに使用したのはA4サイズ(型番:200×140×28)のピエゾフィルムを1/2、1/3、1/4、1/6の大きさにはさみでカットしたピエゾセンサシートである。このピエゾフィルムは、圧電フィルム(たとえばPVDF(ポリビニリデンフルオロイド))の両面に金属薄膜が形成された構造、つまり、圧電体が導体で挟まれた構造を有する。圧力等で変形すると両面金属薄膜間にピエゾ電気を発生し、すなわち、電荷があらわれて電位差が生じる。   The torso, head 46 and arms of the human body 22 described above are all covered with the skin 24 made of a flexible material as described above. As shown in FIG. 2, the skin 24 includes a lower urethane foam 54 and a relatively thick silicon rubber layer 56a and a relatively thin silicon rubber layer 56b laminated thereon. A piezo sensor sheet (skin sensor) 58 is embedded between the two silicon rubber layers 56a and 56b. As this piezo sensor sheet 58, for example, a piezo film manufactured by MSI Inc. in the USA and sold by Tokyo Sensor Co., Ltd. is used (http://www.t-sensor.co.jp/PIEZO/TOP/index.html). The robot used in the example is a piezo sensor sheet obtained by cutting an A4 size (model number: 200 × 140 × 28) piezo film with scissors into 1/2, 1/3, 1/4, or 1/6 size. It is. This piezo film has a structure in which a metal thin film is formed on both surfaces of a piezoelectric film (for example, PVDF (polyvinylidene fluoride)), that is, a structure in which a piezoelectric body is sandwiched between conductors. When deformed by pressure or the like, piezoelectricity is generated between the metal thin films on both sides, that is, electric charges appear and a potential difference is generated.

実施例では、上述のように、発泡ウレタンとシリコンゴムとを使って皮膚24の柔らかさを得た。シリコンゴムだけである程度の厚みと柔らかさとを得ようとすると、重くなりすぎてエネルギ消費量が大きくなるだけでなく、裂傷に弱くなる。そこで、発明者等は、実験を重ねた結果、大まかな形と厚みはウレタンフォームで作り、その表面を約20mmのシリコンゴムで覆う形を採用することとした。そして、シリコンゴム層を2つにし、それらのシリコンゴム層56aおよび56bの間に、上述のピエゾセンサシート58を埋め込んだ。このとき、内側のシリコンゴム層56aを厚く(約15mm)し、表面側のシリコンゴム層56bを薄く(約5mm)した。このようにすると、ロボット10の振動や人間が表面を押したときに生じる高周波の振動をカットでき、なおかつフィルムが変形し易くなるので、圧力の計測が容易になる。つまり、シリコンゴム層の厚みはロボット10の構造やパワーによるが、なるべく薄く、しかし変形が伝わり易く、雑音となる振動が伝わり難いものが必要となる。また、この柔らかい皮膚を介して、人との間で触行動によるコミュニケーションを行うことができるので、人に対して安心感を与えて親和性を高めることができるし、触れたりぶつかったりした場合の人の怪我を防止して安全性も高めることができる。   In the example, as described above, the softness of the skin 24 was obtained using foamed urethane and silicon rubber. If silicon rubber alone is used to obtain a certain degree of thickness and softness, it becomes too heavy and not only increases energy consumption but also weakens against laceration. Therefore, as a result of repeated experiments, the inventors decided to adopt a shape in which the rough shape and thickness are made of urethane foam and the surface is covered with about 20 mm of silicon rubber. Then, two silicon rubber layers were formed, and the above-described piezo sensor sheet 58 was embedded between the silicon rubber layers 56a and 56b. At this time, the silicon rubber layer 56a on the inner side was thickened (about 15 mm), and the silicon rubber layer 56b on the front side was thinned (about 5 mm). In this way, vibrations of the robot 10 and high-frequency vibrations generated when a person presses the surface can be cut, and the film can be easily deformed, so that pressure can be easily measured. In other words, the thickness of the silicon rubber layer depends on the structure and power of the robot 10, but it should be as thin as possible, but it is easy for deformation to be transmitted and vibration that causes noise is difficult to be transmitted. In addition, because it is possible to communicate with people through this soft skin through tactile behavior, it is possible to give a sense of security to people and increase their affinity, and when touching or hitting It can prevent human injury and increase safety.

なお、皮膚24の素材は軟性素材であればよく、上述のものに限定されずたとえば他のゴム素材等でもよい。ただし、ピエゾフィルムシートの表面金属薄膜が腐食しない材質である必要がある。また、皮膚24の厚み(各層の厚み)は、素材によって適宜変更され得る。   The material of the skin 24 may be a soft material, and is not limited to the above-described material, and may be another rubber material, for example. However, the surface metal thin film of the piezo film sheet needs to be made of a material that does not corrode. Further, the thickness of the skin 24 (the thickness of each layer) can be appropriately changed depending on the material.

上述のピエゾセンサシートすなわち皮膚センサ(触覚センサ)58は人体状部22の全身にわたって埋め込まれ、それによって、人間等が接触することによって皮膚24に加えられた圧力を圧覚(触覚)情報として検知する。この実施例では、図3に示すように、ロボット10の全身にわたって48枚のピエゾセンサシート501−548を埋め込んだ。つまり、ロボット10は全身分布型皮膚センサを有するといえる。埋め込み状況(場所)に関しては、人間に触られやすい部位、たとえば頭頂や肩それに腕(手を含む)には、圧力を正確かつ確実に検知できるように、隙間なくピエゾセンサシートを埋め込み、あまり触られることを想定していない部位たとえば足あるいは脇腹には許容できる隙間を持ってピエゾセンサシートを埋め込んだ。それによって、検出精度と製造コストとのトレードオフを解決した。なお、これら48枚のピエゾセンサシート501−548は、場合によっては、参照番号58で区別なしに示されることがあることに留意されたい。   The above-described piezo sensor sheet, that is, a skin sensor (tactile sensor) 58 is embedded over the whole body of the human body-like portion 22, thereby detecting pressure applied to the skin 24 by contact with a human or the like as pressure (tactile) information. . In this embodiment, as shown in FIG. 3, 48 piezo sensor sheets 501-548 are embedded over the entire body of the robot 10. That is, it can be said that the robot 10 has a whole body distributed skin sensor. As for the embedding situation (place), a piezo sensor sheet is embedded in a part that is easily touched by humans, for example, the top of the head, shoulders, and arms (including hands) without gaps so that pressure can be detected accurately and reliably. A piezo sensor sheet was embedded with an acceptable gap in a part that is not supposed to be used, such as a foot or a flank. This solved the trade-off between detection accuracy and manufacturing cost. It should be noted that these 48 piezo sensor sheets 501-548 are sometimes shown without distinction by reference numeral 58 in some cases.

図1に示すロボット10の電気的構成が図4のブロック図に示される。図4に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU60を含み、このCPU60には、バス62を通して、メモリ64,モータ制御ボード66,センサ入力/出力ボード68およびサウンド入力/出力ボード70が接続される。   The electrical configuration of the robot 10 shown in FIG. 1 is shown in the block diagram of FIG. As shown in FIG. 4, the robot 10 includes a microcomputer or CPU 60 for overall control. The CPU 60 is connected to a memory 64, a motor control board 66, a sensor input / output board 68, and a sound through a bus 62. An input / output board 70 is connected.

メモリ64は、図示しないが、ROMやHDD、RAMを含む。ROMやHDDにはこのロボット10の制御プログラムが予め書き込まれている。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、外部のコンピュータと通信するためのプログラム等を含む。メモリ64にはまた、コミュニケーション行動を実行するためのデータが記憶され、そのデータは、たとえば、個々の行動を実行する際に、スピーカ52から発生すべき音声または声の音声データ(音声合成データ)、および所定の身振りを提示するための各関節軸の角度制御データ等を含む。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用される。   Although not shown, the memory 64 includes a ROM, an HDD, and a RAM. A control program for the robot 10 is written in advance in the ROM and HDD. The control program includes, for example, a program for executing communication behavior and a program for communicating with an external computer. The memory 64 also stores data for executing a communication action. The data is, for example, voice data or voice data (voice synthesis data) to be generated from the speaker 52 when executing each action. And angle control data of each joint axis for presenting a predetermined gesture. The RAM is used as a temporary storage memory and a working memory.

モータ制御ボード66は、たとえばDSP(Digital Signal Processor) で構成され、各腕や頭部などの各軸モータを制御する。すなわち、モータ制御ボード66は、CPU60からの制御データを受け、右肩関節32Rの3軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの1軸の角度を制御する1つのモータとの計4つのモータ(図4ではまとめて、「右腕モータ」として示す。)40の回転角度を調節する。また、モータ制御ボード66は、左肩関節32Lの3軸と左肘関節34Lの1軸、計4つのモータ(図4ではまとめて、「左腕モータ」として示す。)42の回転角度を調節する。モータ制御ボード66は、また、頭部46の3軸のモータ(図4ではまとめて、「頭部モータ」として示す。)48の回転角度を調節する。そして、モータ制御ボード66は、車輪14を駆動する2つのモータ(図4ではまとめて、「車輪モータ」として示す。)16を制御する。   The motor control board 66 is constituted by a DSP (Digital Signal Processor), for example, and controls each axis motor such as each arm and head. That is, the motor control board 66 receives control data from the CPU 60, and controls three motors for controlling the angles of the three axes of the right shoulder joint 32R and one motor for controlling the angles of the one axis of the right elbow joint 34R. The rotation angles of the four motors (collectively shown as “right arm motor” in FIG. 4) 40 are adjusted. Further, the motor control board 66 adjusts the rotation angle of a total of four motors (collectively shown as “left arm motor” in FIG. 4) 42, three axes of the left shoulder joint 32L and one axis of the left elbow joint 34L. The motor control board 66 also adjusts the rotation angle of the triaxial motor 48 of the head 46 (collectively shown as “head motor” in FIG. 4) 48. The motor control board 66 controls two motors 16 that collectively drive the wheels 14 (collectively shown as “wheel motors” in FIG. 4).

なお、この実施例の上述のモータは、車輪モータ16を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ16と同様に、直流モータであってよい。   The above-described motors of this embodiment are stepping motors or pulse motors for simplifying the control except for the wheel motors 16, but may be direct-current motors similarly to the wheel motors 16.

センサ入力/出力ボード68も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU60に与える。すなわち、図示しない衝突センサの各々からの接触に関するデータがこのセンサ入力/出力ボード68を通して、CPU60に入力される。また、眼カメラ50からの映像信号が、必要に応じてこのセンサ入力/出力ボード68で所定の処理が施された後、CPU60に入力される。   Similarly, the sensor input / output board 68 is configured by a DSP, and takes in signals from each sensor and camera and gives them to the CPU 60. That is, data related to contact from each of the collision sensors (not shown) is input to the CPU 60 through the sensor input / output board 68. Further, a video signal from the eye camera 50 is input to the CPU 60 after being subjected to predetermined processing by the sensor input / output board 68 as necessary.

このセンサ入力/出力ボード68は、さらに、図5に示すように、複数(実施例では12枚)の基板72,72…を含み、各基板72には、それぞれ1つのPICマイコン74が設けられる。PICマイコン74はたとえばASICで構成され、同じく基板72に設けられたA/D変換器76からの電圧データ(たとえば10ビット)をビット直列信号として出力する。   As shown in FIG. 5, the sensor input / output board 68 further includes a plurality (12 in the embodiment) of substrates 72, 72..., And each substrate 72 is provided with one PIC microcomputer 74. . The PIC microcomputer 74 is composed of, for example, an ASIC, and outputs voltage data (for example, 10 bits) from the A / D converter 76 similarly provided on the substrate 72 as a bit serial signal.

皮膚センサ58は、図5に示すようにピエゾフィルム78を電極ないし導体80aおよび80bで挟んだものであり、圧力が加えられるとそのピエゾフィルム78が電圧を発生し、その電圧が2つの導体80aおよび80b間に現れる。ただし、このとき発生される電圧は電位は高いが電流が微弱なため、この発生電圧をそのまま長いケーブルでコンピュータ60(図4)に取り込むことは、ノイズが多く乗ってしまうので難しい。そこで、この実施例では、図5に示す基板72を皮膚センサ58に近い位置に配置し、その中に高インピーダンスの読み取り装置、すなわちA/D変換器76を配置し、このA/D変換器76で変換した電圧値をPICマイコン74で読み取ってシリアル信号として出力し、それをCPU60へ送るようにした。なお、ピエゾフィルムシートの電極の配置の一例として、導体80aは皮膚24の表面側に配置され、導体80bは筐体側に配置される。   As shown in FIG. 5, the skin sensor 58 has a piezo film 78 sandwiched between electrodes or conductors 80a and 80b. When pressure is applied to the piezo film 78, the piezo film 78 generates a voltage, and the voltage is applied to the two conductors 80a. And appear between 80b. However, since the voltage generated at this time has a high potential but the current is weak, it is difficult to capture the generated voltage as it is in the computer 60 (FIG. 4) because of a lot of noise. Therefore, in this embodiment, the substrate 72 shown in FIG. 5 is disposed at a position close to the skin sensor 58, and a high-impedance reading device, that is, an A / D converter 76 is disposed therein, and this A / D converter. The voltage value converted at 76 is read by the PIC microcomputer 74 and output as a serial signal, which is sent to the CPU 60. In addition, as an example of arrangement | positioning of the electrode of a piezo film sheet, the conductor 80a is arrange | positioned at the surface side of the skin 24, and the conductor 80b is arrange | positioned at the housing | casing side.

A/D変換器76は、実施例では4チャネル10ビットのものを用いた。したがって、1つの基板72が4つの皮膚センサ58を受け持つことができる。基板72には、4つのピエゾセンサシートのために4対の端子82aおよび82bが設けられ、それぞれに電極80aおよび80bが接続される。端子82aおよび82b間にはノイズ除去用コンデンサ84が接続されている。したがって、端子82aおよび82b間に与えられた皮膚センサ58からの電圧は、ノイズ除去された後、オペアンプ86によって電流増幅され、上述のA/D変換器76の1つのチャネルに入力される。図5では1つの皮膚センサ58が示されるだけであるが、他の皮膚センサ58およびそれに関連する回路も同様に構成されるものである。   As the A / D converter 76, a 4-channel 10-bit converter is used in the embodiment. Therefore, one substrate 72 can handle the four skin sensors 58. The substrate 72 is provided with four pairs of terminals 82a and 82b for four piezo sensor sheets, to which electrodes 80a and 80b are connected, respectively. A noise removing capacitor 84 is connected between the terminals 82a and 82b. Accordingly, the voltage from the skin sensor 58 applied between the terminals 82a and 82b is subjected to noise removal, and then subjected to current amplification by the operational amplifier 86 and is input to one channel of the A / D converter 76 described above. Although only one skin sensor 58 is shown in FIG. 5, the other skin sensors 58 and associated circuitry are similarly configured.

上述のように人体状部22の皮膚24中には48個のピエゾセンサシート501−548が全身にわたって埋め込まれているが、それらをすべてロボット制御用のCPUないしコンピュータ60で読み取ろうとすると、ノイズを拾い易いだけでなく、コンピュータのA/Dポートを非常に多く必要としてしまい、現実的ではない。そこで、上述のように読み取り装置(基板72、A/D変換器76)を皮膚センサ58の近傍に分散配置し、それぞれの出力を1本のシリアルケーブル、たとえばRS232C(商品名)で繋いだ、いわゆるデイジーチェーンを形成した。したがって、図5に示す1つの基板72のPICマイコン74から出力されたビットシリアル信号は、次段の基板72のPICマイコン74のシリアル入力ポートに与えられる。当該次段のPICマイコン74は、前段のPICマイコン74から送られてきたデータに自分が担当するA/D変換器76から読み込んだデータを加えて、ビット直列信号として出力する。したがって、コンピュータ60は、1つのシリアルポートで全身の皮膚センサ58からの検知情報を取り込めるようになっている。   As described above, 48 piezo sensor sheets 501 to 548 are embedded in the skin 24 of the human body 22 throughout the whole body. However, when all of them are read by the CPU or computer 60 for controlling the robot, noise is generated. Not only is it easy to pick up, but it also requires a large number of A / D ports of the computer, which is not realistic. Therefore, as described above, the readers (substrate 72, A / D converter 76) are arranged in the vicinity of the skin sensor 58, and each output is connected by one serial cable, for example, RS232C (trade name). A so-called daisy chain was formed. Therefore, the bit serial signal output from the PIC microcomputer 74 of one board 72 shown in FIG. 5 is given to the serial input port of the PIC microcomputer 74 of the board 72 at the next stage. The next-stage PIC microcomputer 74 adds the data read from the A / D converter 76 that it is in charge of to the data sent from the previous-stage PIC microcomputer 74 and outputs the result as a bit serial signal. Therefore, the computer 60 can take in the detection information from the skin sensor 58 of the whole body with one serial port.

なお、各PICマイコン74から出力される検知データは、図3に示す48個のピエゾセンサシート501−548のいずれであるかを示す識別子と、圧力値に関する情報とを含むので、コンピュータ60は、どの(部位の)ピエゾセンサシートがどの程度の圧力を受けているかを容易に特定できる。   Since the detection data output from each PIC microcomputer 74 includes an identifier indicating which of the 48 piezo sensor sheets 501 to 548 shown in FIG. 3 and information on the pressure value, the computer 60 It is possible to easily specify which (part) of the piezo sensor sheet is subjected to how much pressure.

ただし、この実施例では、左右の手先に設けられるそれぞれ5つのピエゾセンサシート535−539と544−548については、A/D変換器76の入力が4つであることから、便宜上、先端の1個(右手:539、左手:548)と外側の1個(右手:536、左手:545)の出力を並列にしている。したがって、この実施例では、左右の手先の皮膚センサ58は実質的にそれぞれ4個となるので、皮膚センサ58の出力データは46次元データとなる。   However, in this embodiment, for each of the five piezo sensor sheets 535-539 and 544-548 provided at the left and right hands, there are four inputs to the A / D converter 76. The output of one piece (right hand: 539, left hand: 548) and one outside (right hand: 536, left hand: 545) are arranged in parallel. Therefore, in this embodiment, there are substantially four skin sensors 58 on the left and right hands, so that the output data of the skin sensor 58 is 46-dimensional data.

出力を読み取る場合、具体的には、コンピュータ60は、たとえば50msecの周期で、ビットシリアルデータを出力する最終段のPICマイコン74にポーリングをかけ、50msec周期ですべてのピエゾセンサシート501−548の検知データを読み取ることができる。検知データは、A/D変換器76(図5)からはたとえば正負32段階、合計64段階で出力される。つまり、10ビットのうち下位4ビットはノイズ成分として捨て、上位6ビットのデータだけが各PICマイコン74(図5)から出力される。   When reading the output, specifically, the computer 60 polls the PIC microcomputer 74 at the final stage that outputs the bit serial data at a cycle of 50 msec, for example, and detects all the piezo sensor sheets 501 to 548 at a cycle of 50 msec. Data can be read. The detection data is output from the A / D converter 76 (FIG. 5) in, for example, 32 stages of positive and negative, for a total of 64 stages. That is, the lower 4 bits of the 10 bits are discarded as noise components, and only the upper 6 bits of data are output from each PIC microcomputer 74 (FIG. 5).

そして、コンピュータ60は、皮膚センサ58で検知した64段階のデータを用いて、たとえば触られ方の強弱、押された状態の持続時間または電圧変化の波形の周波数(圧力変化の周波数)などの接触状態を計測することができる。触られ方の強弱によってたとえば「ひどく叩かれたか」、「軽く叩かれたか」、「やさしく手を置かれたか」、「軽く触られたか」などを判断することができ、持続時間によってたとえば「叩かれたか」、「押されたか」などの継続状態を判断することができ、圧力変化の周波数によってたとえば「叩かれているのか」、「なでられているのか」、「くすぐられているのか」という触られ方の種類を判断することができる。そして、ロボット10は、触り方(接触状態)に応じて動作を制御することができる。このような動作制御は、本件出願人による特許文献1(特開2004−283975号)にも詳細に開示されるので参照されたい。   Then, the computer 60 uses the 64 levels of data detected by the skin sensor 58, for example, touch such as strength of touch, duration of pressed state or frequency of voltage change waveform (frequency of pressure change). The state can be measured. Depending on the strength of the touch, it can be judged, for example, whether it was struck badly, whether it was lightly struck, whether it was gently touched, or whether it was touched lightly. It is possible to determine the continuation state such as “whether it has been struck”, “whether it has been pressed”, etc., and depending on the frequency of the pressure change, for example, “whether it is struck”, “whether it is being stroked”, “whether it is tickled” The type of touching can be determined. And the robot 10 can control operation | movement according to how to touch (contact state). Such operation control is also disclosed in detail in Patent Document 1 (Japanese Patent Application Laid-Open No. 2004-283975) by the present applicant, so please refer to it.

図4に戻って、スピーカ52にはサウンド入力/出力ボード70を介して、CPU60から、合成音声データが与えられ、それに応じて、スピーカ52からはそのデータに従った音声または声が出力される。また、マイク26からの音声入力が、サウンド入力/出力ボード70を介して、CPU60に取り込まれる。   Returning to FIG. 4, the synthesized voice data is given from the CPU 60 to the speaker 52 via the sound input / output board 70, and the voice or voice according to the data is outputted from the speaker 52 accordingly. . Also, the voice input from the microphone 26 is taken into the CPU 60 via the sound input / output board 70.

また、CPU60には、バス62を介して通信LANボード88および無線通信装置90が接続される。通信LANボード88は、DSPで構成され、CPU60から送られる送信データを無線通信装置90に与え、無線通信装置90から送信データを、図示は省略するが、たとえば無線LANまたはインタネットのようなネットワークを介して外部のコンピュータに送信させる。また、通信LANボード88は、無線通信装置90を介してデータを受信し、受信したデータをCPU60に与える。つまり、この通信LANボード88および無線通信装置90によって、ロボット10は外部のコンピュータ等と無線通信を行うことができる。   Further, a communication LAN board 88 and a wireless communication device 90 are connected to the CPU 60 via the bus 62. The communication LAN board 88 is configured by a DSP and gives transmission data sent from the CPU 60 to the wireless communication apparatus 90. The transmission data from the wireless communication apparatus 90 is omitted from illustration, but a network such as a wireless LAN or the Internet is not shown. Via an external computer. The communication LAN board 88 receives data via the wireless communication device 90 and gives the received data to the CPU 60. That is, the communication LAN board 88 and the wireless communication device 90 allow the robot 10 to perform wireless communication with an external computer or the like.

さらに、CPU60は、バス62を介して触覚アスペクトグラフデータベース(DB)92に接続される。ただし、このデータベースは、外部のコンピュータまたは外部のネットワーク上にアクセス可能に設けるようにしてもよい。   Further, the CPU 60 is connected to a haptic aspect graph database (DB) 92 via a bus 62. However, this database may be provided so as to be accessible on an external computer or an external network.

触覚アスペクトグラフDB110には、触覚コミュニケーション時の相手の位置および姿勢に対応付けられた触覚センサ出力を状態とした、確率的状態遷移を示すデータ(触覚アスペクトグラフデータ)が記憶される。アスペクトグラフは、物体(パターン)認識の記述として利用され、物体の見え方(一般的にはカメラ画像情報に基づく)がどのように変化(遷移)していくかを示す。触覚センサ出力は、触覚コミュニケーション時の相手の位置および姿勢に対応付けられて記憶されており、したがって、このロボット10は、触覚センサ58を通して相手の位置を見る。そこで、触覚を通しての相手の見え方を示す触覚センサ出力の確率的遷移を、アスペクトグラフという用語を用いて、触覚アスペクトグラフと表現するものとする。なお、触覚センサ58の出力と、触覚コミュニケーション時におけるコミュニケーション相手の位置・姿勢とを対応付けたデータをマップというものとする。   The tactile aspect graph DB 110 stores data indicating the probabilistic state transition (tactile aspect graph data) with the tactile sensor output associated with the position and orientation of the partner during tactile communication as a state. The aspect graph is used as a description of object (pattern) recognition, and shows how the appearance of the object (generally based on camera image information) changes (transitions). The output of the tactile sensor is stored in association with the position and posture of the opponent at the time of tactile communication. Therefore, the robot 10 views the position of the opponent through the tactile sensor 58. Therefore, the probabilistic transition of the tactile sensor output indicating how the other party looks through the tactile sense is expressed as a tactile aspect graph using the term aspect graph. Data that associates the output of the tactile sensor 58 with the position / posture of the communication partner at the time of tactile communication is referred to as a map.

たとえば、ロボット10は、コミュニケーション時に皮膚センサ58の出力データを計測して、この触覚アスペクトグラフデータに含まれるマップデータを用いることで、触行動をしている相手が、現在どのような位置に居てどのような姿勢であるかを把握することができる。人間は日常のインタラクションやスキンシップコミュニケーションにおいて皮膚感覚を通して様々な情報を得ており、たとえば後ろから抱き付かれてもどのような抱き付き方をされたのか把握することができる。このロボット10は、このマップデータによって、人間と同じように、目で見なくても触覚によって相手がどういった触行動をとっているのかを認識することが可能である。   For example, the robot 10 measures the output data of the skin sensor 58 during communication, and uses the map data included in the tactile aspect graph data, so that the position where the partner who is performing the tactile action is currently located. Can grasp what kind of posture it is. Humans obtain various information through skin sensations in daily interaction and skinship communication. For example, even if they are hugged from behind, they can grasp how they are hugged. With this map data, the robot 10 can recognize what kind of tactile action the other party is taking by tactile sense, even if it is not seen with the eyes, like a human being.

また、このロボット10は、計測した触覚センサ58の出力データと触覚アスペクトグラフデータとに基づいて、次にどのような触覚センサ出力に確率的に遷移するかを把握することができる。つまり、ロボット10は、遷移先の触覚センサ出力(クラスタ)に基づいて、次にどのような触られ方をするかを予測することができる。また、触覚センサ出力は相手の位置および姿勢に対応付けられているので、このロボット10は、コミュニケーション相手の次の位置および姿勢を予測することができる。具体的には、相手の位置および姿勢は、この実施例では、相手の指先および腰の3次元位置に関する確率分布から把握される。したがって、ロボット10は、次の触行動では、相手の腰がどこに位置して、その指先がどこに触れるのかを予測することができる。   Further, the robot 10 can grasp what kind of tactile sensor output is to be probabilistically changed next based on the measured output data of the tactile sensor 58 and tactile aspect graph data. That is, the robot 10 can predict how to be touched next based on the tactile sensor output (cluster) of the transition destination. Further, since the tactile sensor output is associated with the position and posture of the opponent, the robot 10 can predict the next position and posture of the communication partner. Specifically, in this embodiment, the position and posture of the opponent are grasped from the probability distribution regarding the three-dimensional positions of the opponent's fingertips and waist. Therefore, the robot 10 can predict where the opponent's waist is located and where the fingertip touches in the next tactile behavior.

このように、ロボット10は、相手の次の行動(触行動)を予測することができる。また、触覚アスペクトグラフデータは、上述のように触覚センサ出力の確率的遷移を示すので、触覚アスペクトグラフデータに基づいて、1つ先への遷移だけでなく、更なる先への遷移も把握することが可能である。したがって、ロボット10は、たとえば相手のさらに次の行動など、近い将来の行動(相手の位置、触られる場所、触られ方等)を予測することも可能になっている。   Thus, the robot 10 can predict the next action (touch action) of the opponent. In addition, since the tactile aspect graph data indicates the probabilistic transition of the tactile sensor output as described above, not only the transition to the previous one but also the transition to the further destination is grasped based on the tactile aspect graph data. It is possible. Therefore, the robot 10 can also predict the near future behavior (the opponent's position, touched location, touched manner, etc.) such as the next behavior of the opponent.

この触覚アスペクトグラフデータを作成する際には、まず、触覚センサ58の出力と、触覚コミュニケーション時におけるコミュニケーション相手の位置・姿勢とを対応付けたマップを作成する。   When creating the tactile aspect graph data, first, a map in which the output of the tactile sensor 58 is associated with the position / posture of the communication partner during tactile communication is created.

コミュニケーションを目的とした触行動としては握手や抱擁などが挙げられるが、代表的な行動は誰が見てもその行動の意味が伝わることから、定型的な行動が多いと考えられる。そこで、ロボット10の皮膚センサ58と3次元動作計測システムとを組み合わせることで、ロボット10と人間とのコミュニケーション時の皮膚センサ58の出力と、3次元動作計測システムで計測した人間の位置・姿勢とのマッピングを行う。   Touching actions for communication purposes include handshake and hug, but typical actions are thought to have many typical actions because the meaning of the action is transmitted to anyone. Therefore, by combining the skin sensor 58 of the robot 10 and the three-dimensional motion measurement system, the output of the skin sensor 58 during communication between the robot 10 and the human and the position / posture of the human measured by the three-dimensional motion measurement system. Mapping is performed.

たとえば、図6に示すような作成システム94が用いられる。この作成システム94は作成用コンピュータ96を含み、作成用コンピュータ96には複数のカメラ98が接続される。また、作成用コンピュータ96には、その内部または外部に3次元動作計測データDB102、皮膚センサデータDB104、マップDB92および触覚アスペクトグラフDB110が設けられる。   For example, a creation system 94 as shown in FIG. 6 is used. The creation system 94 includes a creation computer 96, and a plurality of cameras 98 are connected to the creation computer 96. The creation computer 96 includes a three-dimensional motion measurement data DB 102, a skin sensor data DB 104, a map DB 92, and a haptic aspect graph DB 110 inside or outside the computer 96.

作成システム94はモーションキャプチャシステムとしての機能を備えるものであり、この実施例ではたとえばVICON社(http://www.vicon.com/)の光学式のモーションキャプチャシステムが適用される。なお、モーションキャプチャシステムは光学式のものに限られず、種々の公知のものが適用され得る。   The creation system 94 has a function as a motion capture system. In this embodiment, for example, an optical motion capture system of VICON (http://www.vicon.com/) is applied. The motion capture system is not limited to an optical system, and various known systems can be applied.

ロボット10と人間100には、たとえば赤外線反射マーカが複数取り付けられ、カメラ98は赤外線ストロボ付きカメラが適用される。複数のカメラ98はロボット10および人間100に対して互いに異なる方向となるように設置され、原理的には少なくとも3台設けられればよい。この実施例では、たとえば12台のカメラ98が環境に設置された。   For example, a plurality of infrared reflection markers are attached to the robot 10 and the human 100, and a camera with an infrared strobe is applied as the camera 98. The plurality of cameras 98 are installed in different directions with respect to the robot 10 and the human 100, and in principle, at least three cameras may be provided. In this embodiment, for example, twelve cameras 98 are installed in the environment.

赤外線反射マーカは、図7に示すように、ロボット10および人間100共に、頭部に4箇所、腕部に6箇所×2(左右)、人差し指の指先に1箇所×2(左右)、胴体前部に2箇所、胴体後部に3箇所の合計23箇所に取り付けられる。コミュニケーション時の相手の位置をロボット10を基準とした座標系で得たいので、ロボット10の原点と向きを決めるためにロボット10にもマーカが取り付けられる。ロボット10の原点は任意に設定されてよいがたとえば中心(重心)位置に設定される。座標軸方向も任意であるがたとえば両肩方向がY軸、奥行き方向がX軸、上下方向がZ軸に設定される。   As shown in FIG. 7, the infrared reflective marker includes both the robot 10 and the human 100 at four positions on the head, six positions on the arm × 2 (left and right), one position × 2 (left and right) on the fingertip of the index finger, and the front of the torso It is attached to a total of 23 locations, two at the part and three at the rear of the fuselage. Since it is desired to obtain the position of the other party during communication in the coordinate system with reference to the robot 10, a marker is also attached to the robot 10 in order to determine the origin and orientation of the robot 10. Although the origin of the robot 10 may be set arbitrarily, it is set at the center (center of gravity) position, for example. Although the coordinate axis direction is also arbitrary, for example, both shoulder directions are set to the Y axis, the depth direction is set to the X axis, and the vertical direction is set to the Z axis.

この実施例では、人間100がどこを触っているか、どういった姿勢であるかを把握するために、指先と腰部(胴体後部)の合計3箇所のマーカをマップ作成に使用した。指先の位置によって、人間100がどこを触っているのかが把握される。また、上半身のいずれかの位置と指先との相対位置関係から姿勢が決まる。そのうち腰の位置は、カメラ98から見えなくなり難いこと、腰から足が出ているため相手が立っているかしゃがんでいるかなどが分かること等によって、姿勢が分かり易いという利点があるので、腰の位置を対応付けに採用した。なお、その他頭や肩などの位置も対応付けマップに使用すれば、さらに詳しく相手100の位置や姿勢を把握することが可能になる。   In this embodiment, in order to grasp where the human 100 is touching and in what kind of posture, a total of three markers, the fingertip and the waist (rear torso), are used for map creation. From the position of the fingertip, it is grasped where the human 100 is touching. The posture is determined from the relative positional relationship between any position of the upper body and the fingertip. Among them, the position of the waist has the advantage that the posture is easy to understand by being difficult to see from the camera 98 and knowing whether the opponent is standing or squatting because the legs are out of the waist, etc. Was adopted for correspondence. If other positions such as heads and shoulders are also used in the association map, the position and posture of the opponent 100 can be grasped in more detail.

そして、データ収集のために、カメラ98の環境中でロボット10と相手100との間でコミュニケーションをとる実験を行ってもらう。具体的には握手や抱擁といった触行動を伴うコミュニケーションを行わせる。ロボット10はそのメモリ64に登録されている制御プログラムおよびデータと取得した各種センサデータに基づいて自律的に行動する。   Then, in order to collect data, an experiment is conducted in which communication is performed between the robot 10 and the opponent 100 in the environment of the camera 98. Specifically, communication with tactile behavior such as handshake and hug is performed. The robot 10 acts autonomously based on the control program and data registered in the memory 64 and the acquired various sensor data.

図8に、この作成システム94におけるマップ作成処理の動作の一例が示される。まず、ステップS1で、作成用コンピュータ96は、実験によりコミュニケーション時のデータを蓄積する。取得されるデータは、皮膚センサ58の出力データと、3次元動作計測による相手100の指先および腰の位置データである。具体的には、コミュニケーション時の3次元動作データはたとえば60Hz(1秒間に60フレーム)で計測し、皮膚センサデータは20Hz(1秒間に20フレーム)で計測する。皮膚センサデータと位置データとの同期をとるために、実験の開始時に人間100によってロボット10の頭頂部などを叩いてもらい、そのときのデータを計測して両データの時間軸を合わせるようにする。   FIG. 8 shows an example of map creation processing operation in the creation system 94. First, in step S1, the creation computer 96 accumulates data during communication through experiments. The acquired data is the output data of the skin sensor 58 and the fingertip and waist position data of the partner 100 by three-dimensional motion measurement. Specifically, the three-dimensional motion data during communication is measured at, for example, 60 Hz (60 frames per second), and the skin sensor data is measured at 20 Hz (20 frames per second). In order to synchronize the skin sensor data and the position data, at the start of the experiment, a human 100 hits the top of the robot 10 and the like, and measures the data at that time so that the time axes of both data are aligned. .

コミュニケーション時の動作は複数のカメラ98によって撮像され、作成用コンピュータ96はそれぞれのカメラ98からの時系列画像データを取得する。取得したフレームごとの画像データの画像処理によって、各画像データにおける各マーカ(指先と腰を含む)の2次元座標データが抽出される。そして、その2次元座標データから各マーカの時系列の3次元座標データが三角測量の原理によって算出される。指先のマーカの座標は、ロボット10の胴体に原点を固定した直交座標系である胴体座標系と、ロボット10の頭部に原点を固定した直交座標系である頭部座標系の2種類で表現される。腰のマーカの座標は胴体座標系で表現される。こうして算出された各マーカの時系列の3次元座標データが3次元動作計側データDB102に格納される。動作計測データをフレームごとに見た場合には、フレームごとの指先と腰の3次元位置がわかるので、相手100がどういった姿勢であるのかを把握でき、また、相手100がどこに位置してどこを触っているのかを把握できる。また、動作計測データを時系列で見た場合には、指先と腰の位置の変化がわかるので、どのような触行動を行っているのか把握できる。   The operation at the time of communication is imaged by a plurality of cameras 98, and the creation computer 96 acquires time-series image data from each camera 98. By the image processing of the acquired image data for each frame, two-dimensional coordinate data of each marker (including the fingertip and the waist) in each image data is extracted. Then, time-series three-dimensional coordinate data of each marker is calculated from the two-dimensional coordinate data by the principle of triangulation. The coordinates of the fingertip marker are expressed in two types: a body coordinate system that is an orthogonal coordinate system in which the origin is fixed to the body of the robot 10 and a head coordinate system that is an orthogonal coordinate system in which the origin is fixed to the head of the robot 10. Is done. The coordinates of the waist marker are expressed in the body coordinate system. The time-series three-dimensional coordinate data of each marker calculated in this way is stored in the three-dimensional motion meter side data DB 102. When the motion measurement data is viewed for each frame, the three-dimensional positions of the fingertips and waist for each frame are known, so that the posture of the opponent 100 can be grasped, and where the opponent 100 is located. You can see where you are touching. Further, when the motion measurement data is viewed in time series, the change in the positions of the fingertips and the waist can be understood, so that it is possible to grasp what kind of tactile behavior is being performed.

また、皮膚センサ58の時系列の出力データはロボット10からたとえば無線LANを介して作成用コンピュータ96に逐次または実験完了後にまとめて取り込まれ、皮膚センサデータDB104に格納される。皮膚センサデータは、上述のように48個の皮膚センサ501−548からの出力を含む46次元データであり、各要素が0〜32(−31〜32の絶対値)の値を有する。   Further, time-series output data of the skin sensor 58 is taken in from the robot 10 to the creation computer 96 via the wireless LAN, for example, or after completion of the experiment, and stored in the skin sensor data DB 104. Skin sensor data is 46-dimensional data including outputs from 48 skin sensors 501-548 as described above, and each element has a value of 0 to 32 (absolute value of −31 to 32).

続いて、ステップS3で、皮膚センサ出力が閾値以上のフレームを選別する。閾値は48個の皮膚センサ501−548ごとに実験的に求められて予め設定されている。48個の皮膚センサ501−548のうちどれか1つでもその閾値を超えているものがあるかどうかを判断し、閾値を超えているものがある場合にはそのフレームをマップ作成のために採用する。   Subsequently, in step S3, a frame whose skin sensor output is greater than or equal to a threshold is selected. The threshold value is experimentally obtained for each of the 48 skin sensors 501 to 548 and set in advance. It is judged whether any one of the 48 skin sensors 501 to 548 exceeds the threshold value, and if there is one exceeding the threshold value, the frame is adopted for map creation. To do.

そして、ステップS5では、選別したフレームのデータを用いて、皮膚センサデータを元にISODATA法によってクラスタリングする。つまり、46次元の皮膚センサデータ空間において、パターンの分布が密になっている部分(クラスタ)を見つけ、または各パターンの中でよく似ているものどうしをまとめる。たとえば、まず、選別した各フレームにつき、閾値を超えたセンサを「1」、そうでないセンサを「0」とした46次元ベクトルを作る。これらのベクトルのうち、同じパターンを持つフレームの数が5に満たないものはノイズとして切り捨てられる。残ったパターンの各要素について、値が「1」のときはそのセンサの閾値の1.5倍の値を使い、値が「0」のときはそのセンサの閾値の0.5倍の値を使ったベクトルを生成し、ISODATAの初期クラスタ核とした。ISODATA法はクラスタリングの一手法であり、前段において生成したクラスタを一定基準に従って分割したり併合したりして最終的なクラスタを導く(参考文献:鳥脇純一郎、テレビジョン学会教科書シリーズ9「認識工学―パターン認識とその応用―」、コロナ社、1993)。導き出されたクラスタは、コミュニケーション時の代表的な触られ方を表している。   In step S5, clustering is performed by the ISODATA method based on the skin sensor data using the selected frame data. That is, in the 46-dimensional skin sensor data space, a portion (cluster) in which the distribution of patterns is dense is found, or similar patterns in each pattern are grouped together. For example, first, for each selected frame, a 46-dimensional vector is created in which the sensor exceeding the threshold is “1” and the other sensors are “0”. Among these vectors, those with less than 5 frames having the same pattern are discarded as noise. For each element of the remaining pattern, when the value is “1”, the value of 1.5 times the threshold value of the sensor is used, and when the value is “0”, the value of 0.5 times the threshold value of the sensor is used. The vector used was generated and used as the initial cluster nucleus of ISODATA. The ISODATA method is a method of clustering, and the cluster generated in the previous stage is divided or merged according to a certain standard to derive a final cluster (Reference: Junichiro Toriwaki, Television Society Textbook Series 9 “Cognitive Engineering— Pattern recognition and its application- ", Corona, 1993). The derived cluster represents a typical touch in communication.

続いて、ステップS7で、指先データの処理を実行する。この指先データの処理は図9に詳細に示される。図9の最初のステップS21では、各クラスタにおける皮膚センサデータと対になった指先の座標(頭部・胴体座標系)について、各座標系での空間密度分布を求める。つまり、各クラスタにおける皮膚センサデータに対応する計測時刻ないしフレームの指先座標データについて処理する。たとえば座標系内を50×50×50[mm]のボクセルで分割し、各ボクセルに指先の座標が何個入っているかを数える。最後にクラスタ内の要素数でボクセル内要素数を割ることで密度を求める。   Subsequently, in step S7, fingertip data processing is executed. The processing of this fingertip data is shown in detail in FIG. In the first step S21 in FIG. 9, the spatial density distribution in each coordinate system is obtained for the coordinates of the fingertip (head / torso coordinate system) paired with the skin sensor data in each cluster. That is, the measurement time corresponding to the skin sensor data in each cluster or the fingertip coordinate data of the frame is processed. For example, the coordinate system is divided into 50 × 50 × 50 [mm] voxels, and the number of fingertip coordinates in each voxel is counted. Finally, the density is obtained by dividing the number of elements in the voxel by the number of elements in the cluster.

次に、ステップS23では、密度分布の最大値を座標系間で比較し、大きい方の座標系を採用する。つまり、頭と胴体のどちらが触られているのかを判別する。たとえばコミュニケーション時にはロボット10は首の関節を動作させ、頷く、傾げるなどの身体表現を行うが、その際に人間100の指先がロボット10の頭部に触れる場合、指先の位置は頭部の動きに合わせて変化する。その指先の位置は頭部座標系で表せば変化しないが、胴体座標系で表すと、ロボット10の同じ場所を触っているにもかかわらず変化してしまう。したがって、指先の座標が座標系内の広い範囲に拡がっている場合にはその座標系は不適切であり、指先の座標が座標系内のある範囲にかたまっている場合にはその座標系は適切である。密度分布の最大値について、頭部座標系の方が大きい場合には頭が触られており、胴体座標系の方が大きい場合には胴体が触られていることがわかる。   Next, in step S23, the maximum value of the density distribution is compared between the coordinate systems, and the larger coordinate system is adopted. That is, it is determined whether the head or the torso is touched. For example, at the time of communication, the robot 10 moves the neck joint and performs body expression such as crawling and tilting. However, when the fingertip of the human 100 touches the head of the robot 10 at that time, the position of the fingertip depends on the movement of the head. It changes together. The position of the fingertip does not change if it is expressed in the head coordinate system, but if it is expressed in the torso coordinate system, it changes even though the same place of the robot 10 is touched. Therefore, if the coordinates of the fingertip are spread over a wide range in the coordinate system, the coordinate system is inappropriate. If the coordinates of the fingertip are in a certain range in the coordinate system, the coordinate system is appropriate. It is. As for the maximum value of the density distribution, it can be seen that the head is touched when the head coordinate system is larger, and the body is touched when the body coordinate system is larger.

そして、ステップS25で、採用した座標系での密度ピーク値が閾値を超えたクラスタを有効なクラスタとして、マップに取り入れる。密度ピーク値は上記ボクセルの26近傍をまとめた際の密度であり、密度の26近傍和である。ピーク値の閾値は実験的に求められ、たとえば0.6に設定される。この閾値での選別によって、位置ないし姿勢が安定していて推定可能なものをクラスタとして採用する。たとえば片手でコミュニケーションをしているときに他方の手がぶらぶらしているものなどは姿勢が推定できないので切り捨てられる。このステップS25によって、有効なクラスタにおける皮膚センサ出力データと対になった指先の座標の確率分布を該有効なクラスタに対応付けてマップとして記憶する。ステップS25を終了すると図8のステップS9へ戻る。   In step S25, a cluster whose density peak value in the adopted coordinate system exceeds the threshold is taken into the map as an effective cluster. The density peak value is a density when the vicinity of 26 of the voxel is collected, and is a sum of the densities near 26. The threshold value of the peak value is obtained experimentally and is set to 0.6, for example. As a result of selection based on this threshold value, a stable position or posture that can be estimated is adopted as a cluster. For example, if the other hand is hanging while communicating with one hand, the posture cannot be estimated and is discarded. By this step S25, the probability distribution of the coordinates of the fingertip paired with the skin sensor output data in the effective cluster is stored as a map in association with the effective cluster. When step S25 ends, the process returns to step S9 in FIG.

図8に戻って、ステップS9では、腰データの処理を実行する。この腰データの処理は図10に詳細に示される。図10の最初のステップS31では、各クラスタにおける皮膚センサデータと対になった腰の座標(胴体座標系)について、空間密度分布を求める。上述の指先データ処理と同様に、各クラスタにおける皮膚センサデータに対応するフレームの腰座標データについて、各ボクセル内に腰の座標が何個入っているかを数えてから、クラスタ内の要素数でボクセル内要素数を割る。そして、ステップS33で、密度ピーク値が閾値を超えたクラスタを有効なクラスタとして、マップに取り入れる。このステップS33によって、有効なクラスタにおける皮膚センサ出力データと対になった腰の座標の確率分布を該有効なクラスタに対応付けてマップとして記憶する。ステップS33を終了すると腰データ処理を終了し、マップ作成処理を終了する。   Returning to FIG. 8, waist data processing is executed in step S9. The waist data processing is shown in detail in FIG. In the first step S31 of FIG. 10, the spatial density distribution is obtained for the coordinates of the waist (body coordinate system) paired with the skin sensor data in each cluster. Similar to the above fingertip data processing, for the waist coordinate data of the frame corresponding to the skin sensor data in each cluster, count how many waist coordinates are in each voxel, and then voxel by the number of elements in the cluster Divide the number of inner elements. In step S33, a cluster whose density peak value exceeds the threshold value is taken into the map as a valid cluster. By this step S33, the probability distribution of the coordinates of the hips paired with the skin sensor output data in the effective cluster is stored in association with the effective cluster as a map. When step S33 ends, the waist data processing ends, and the map creation processing ends.

なお、指先と腰以外のたとえば肩や頭などの部位のマーカ位置をマップ作成に採用する場合には、同様にして各位置のデータの処理を実行すればよい。   In addition, when the marker positions of parts other than the fingertips and the waist, such as shoulders and heads, are used for map creation, data processing at each position may be executed in the same manner.

このようにして、皮膚センサ出力のパターン(クラスタ)と相手の位置・姿勢とを対応付けたマップデータが作成され、図6のマップDB92に格納される。マップの概要は図11に示される。たとえば、クラスタ代表値が46次元の皮膚センサベクトルAであるクラスタと、コミュニケーション相手100の指先および/または腰の3次元位置に関する確率分布Aとが対応付けられている。つまり、ロボット10が皮膚センサベクトルAの触り方をされているとき、確率分布Aが、その触り方に対応した相手100の代表的な指先位置と姿勢(腰の位置)を表している。なお、クラスタ代表値は中心値であり、分散がそのクラスタの広がりを示す。   In this way, map data in which the pattern (cluster) of the skin sensor output is associated with the position / posture of the other party is created and stored in the map DB 92 of FIG. An overview of the map is shown in FIG. For example, a cluster whose cluster representative value is a 46-dimensional skin sensor vector A is associated with a probability distribution A related to the three-dimensional position of the fingertip and / or waist of the communication partner 100. That is, when the robot 10 is touching the skin sensor vector A, the probability distribution A represents the representative fingertip position and posture (waist position) of the opponent 100 corresponding to the touch method. The cluster representative value is the center value, and the variance indicates the spread of the cluster.

図12にはクラスタ代表値の一例が示される。つまり、46次元の皮膚センサベクトルであり、1つの触り方を表している。この図12のクラスタに対応する相手100の指先位置106と腰の位置108の3次元位置(分布の平均)の一例が図13に示される。この図13では同じ位置分布を異なる2つの視点で表示している。相手100の指先がロボット10の両肩に触れており、腰はロボット10の正面上方にあることが把握できる。つまり、この場合の相手100はロボット10の前に立っていて、その両手がロボット10の両肩に触っていることがわかる。   FIG. 12 shows an example of cluster representative values. That is, it is a 46-dimensional skin sensor vector and represents one way of touching. An example of the three-dimensional position (average of distribution) of the fingertip position 106 and the waist position 108 of the opponent 100 corresponding to the cluster of FIG. 12 is shown in FIG. In FIG. 13, the same position distribution is displayed from two different viewpoints. It can be grasped that the fingertip of the opponent 100 touches both shoulders of the robot 10 and the waist is above the front of the robot 10. That is, it can be seen that the opponent 100 in this case stands in front of the robot 10 and both hands touch the shoulders of the robot 10.

このようにして作成された、皮膚センサ出力パターンと触行動をしている相手100の位置または姿勢とを対応付けたマップを元に、作成用コンピュータ96は触覚アスペクトグラフデータを作成する。   The creation computer 96 creates tactile aspect graph data based on the map created in this manner that associates the output pattern of the skin sensor with the position or posture of the partner 100 performing the tactile action.

図14に、作成用コンピュータ96の触覚アスペクトグラフ作成処理の動作の一例が示される。まず、ステップS41で、皮膚センサデータDB104に記憶されている時系列の皮膚センサデータを、マップDB92に記憶されている皮膚センサ出力のクラスタの遷移データに変換する。具体的には、各検出時刻(フレーム)の出力データ(皮膚センサ出力ベクトル)がどのクラスタに属するのかを判別する。たとえば、皮膚センサ出力ベクトルと各クラスタとの距離を算出し、最も近いクラスタを検出する。そして、各検出時刻の皮膚センサデータを所属クラスタの識別情報に対応付けることによって、クラスタの遷移データを作成する。   FIG. 14 shows an example of the operation of the tactile aspect graph creation process of the creation computer 96. First, in step S41, the time-series skin sensor data stored in the skin sensor data DB 104 is converted into the transition data of the cluster of the skin sensor output stored in the map DB 92. Specifically, it is determined to which cluster the output data (skin sensor output vector) at each detection time (frame) belongs. For example, the distance between the skin sensor output vector and each cluster is calculated, and the nearest cluster is detected. Then, the transition data of the cluster is created by associating the skin sensor data at each detection time with the identification information of the belonging cluster.

次に、ステップS43で、クラスタの遷移データに基づいて、各クラスタについて、遷移した先のクラスタを検出するとともに、当該遷移先クラスタごとに遷移回数をカウントする。続いて、ステップS45で、各クラスタについて、たとえば各遷移先クラスタの遷移回数を全遷移回数で割ることによって、遷移先クラスタごとの遷移確率を算出する。   Next, in step S43, the transition destination cluster is detected for each cluster based on the cluster transition data, and the number of transitions is counted for each transition destination cluster. Subsequently, in step S45, for each cluster, for example, the transition probability for each transition destination cluster is calculated by dividing the number of transitions of each transition destination cluster by the total number of transitions.

そして、ステップS47で、クラスタ(クラスタ識別情報)に関連付けて、遷移先のクラスタ(クラスタ識別情報)およびその遷移確率値を記憶する。   In step S47, the transition destination cluster (cluster identification information) and its transition probability value are stored in association with the cluster (cluster identification information).

このようにして作成された、クラスタに関連付けた遷移先クラスタおよび遷移確率を含むデータと、マップDB92のマップデータとが、触覚アスペクトグラフデータとして触覚アスペクトグラフDB110に記憶される。図15に触覚アスペクトグラフデータの内容の一例が示される。図15(A)に示すように、クラスタ番号ごとに、遷移先のクラスタ番号およびその遷移確率値が記憶される。複数の遷移先がある場合には複数の遷移先クラスタ番号および遷移確率を含むデータが記憶される。また、図15(B)に示すように、クラスタ番号と相手位置データ番号との対応付けを示すデータが記憶される。クラスタ番号はクラスタの識別情報であり、相手位置データ番号は、相手位置データ、すなわち、コミュニケーション相手の指先と腰の3次元位置に関する確率分布を示すデータの識別情報である。また、図15(C)に示すように、クラスタ番号ごとに、当該触覚センサ出力(クラスタ)に関するデータが記憶される。また、図15(D)に示すように、相手位置データ番号ごとに、当該相手位置に関するデータが記憶される。コミュニケーション時には、計測された触覚センサ出力ベクトルに対応するクラスタを特定して、図15(A)のデータを参照することによって、遷移先のクラスタ番号およびその遷移確率を取得することができる。そして、図15(B)のデータを参照することによって、遷移先のクラスタ番号に対応する相手位置データ番号を特定できるので、次の相手位置データを取得することができる。したがって、次の相手位置データと遷移確率とに基づいて、次の相手位置、すなわち次の行動を予測することができる。   The data including the transition destination cluster and the transition probability associated with the cluster and the map data of the map DB 92 created in this way are stored in the haptic aspect graph DB 110 as haptic aspect graph data. FIG. 15 shows an example of the contents of the haptic aspect graph data. As shown in FIG. 15A, for each cluster number, a transition destination cluster number and its transition probability value are stored. When there are a plurality of transition destinations, data including a plurality of transition destination cluster numbers and transition probabilities is stored. Further, as shown in FIG. 15B, data indicating the association between the cluster number and the partner position data number is stored. The cluster number is identification information of the cluster, and the partner position data number is identification information of the partner position data, that is, data indicating a probability distribution regarding the three-dimensional positions of the fingertip and waist of the communication partner. Further, as shown in FIG. 15C, data related to the tactile sensor output (cluster) is stored for each cluster number. Further, as shown in FIG. 15D, data on the opponent position is stored for each opponent position data number. At the time of communication, the cluster number corresponding to the measured tactile sensor output vector is specified, and the transition destination cluster number and its transition probability can be acquired by referring to the data in FIG. Then, by referring to the data of FIG. 15B, the partner position data number corresponding to the cluster number of the transition destination can be specified, so that the next partner position data can be acquired. Therefore, the next partner position, that is, the next action can be predicted based on the next partner position data and the transition probability.

なお、図15(B)、(C)および(D)に示すデータは、触覚センサ出力(クラスタ)とコミュニケーション相手の位置および姿勢を対応付けたマップのデータに相当する。   The data shown in FIGS. 15B, 15C, and 15D corresponds to map data in which the tactile sensor output (cluster) is associated with the position and orientation of the communication partner.

図16には触覚アスペクトグラフの概念図が示される。触覚アスペクトグラフは、上述のように、触覚センサ出力を状態とした確率的状態遷移を示す。触覚センサ出力(クラスタ)は、コミュニケーション相手の位置に対応付けられている。相手の位置は、この実施例では相手の指先および腰の3次元位置の確率分布である。腰の位置はロボット10から見た相手の位置に相当し、指先の位置は触られている場所に相当する。すなわち、触覚アスペクトグラフは、触られ方だけでなく、相手の位置および触る場所が確率的にどのように遷移するかを示すものでもある。したがって、触覚アスペクトグラフを用いて、相手が次に(あるいは近い将来)どこに位置するか、どこを触るのか、どのように触るのかを予測することができる。   FIG. 16 shows a conceptual diagram of a haptic aspect graph. As described above, the tactile aspect graph shows the stochastic state transition with the tactile sensor output as the state. The tactile sensor output (cluster) is associated with the position of the communication partner. In this embodiment, the position of the opponent is a probability distribution of the three-dimensional positions of the opponent's fingertips and waist. The position of the waist corresponds to the position of the opponent viewed from the robot 10, and the position of the fingertip corresponds to the place touched. That is, the tactile aspect graph shows not only how to be touched but also how the position of the other party and the place to touch change probabilistically. Therefore, the tactile aspect graph can be used to predict where the opponent will be located next (or in the near future), where to touch, and how to touch.

図16の各ノードは触覚センサ出力(クラスタ)に対応付けられた相手の位置および触られている場所を示している。なお、右上のノード内では、触覚センサ出力(クラスタ)としてクラスタ代表値のグラフが図示されるとともに、当該クラスタに対応する相手の位置および触られている場所が図示される。他のノード内では、相手の位置および触られている場所のみが図示され、対応する触覚センサ出力は省略される。黒い球体が触られている場所(指先の位置)を示し、斜線の付された楕円体が相手の位置(腰の位置)を示す。楕円体から下方へ伸びる線分は相手の腰の高さを示す。   Each node in FIG. 16 indicates the position of the opponent and the touched location associated with the tactile sensor output (cluster). In the upper right node, a graph of the cluster representative value is shown as the tactile sensor output (cluster), and the position of the other party corresponding to the cluster and the touched location are shown. In the other nodes, only the position of the opponent and the place being touched are shown, and the corresponding tactile sensor output is omitted. The place where the black sphere is touched (the position of the fingertip) indicates the position of the opponent (the position of the waist). A line segment extending downward from the ellipsoid indicates the height of the opponent's waist.

この図16の例では、右上のノードでは、相手がロボットの右側に立ちロボットの右肩を触っている状態であることが示されている。ノード間の線は、各ノードの繋がりを示しており、各ノードは、接続されたノードに確率的に遷移する。左上のノードは相手がロボットの右側に立ちロボットの頭頂を触っている状態を示す。右中のノードは相手がロボットの正面に立ちロボットの首下を触っている状態を示す。左中のノードは相手がロボットの正面に立ちロボットの頭頂を触っている状態を示す。右下のノードは相手がロボットの正面でしゃがんでロボットの胸を触っている状態を示す。たとえば、ロボットの右側に立ってロボットの右肩を触っている状態(右上のノード)の次の行動として、相手は、そのままの位置でロボットの頭頂を触る(左上のノード)か、またはロボットの前に移動してロボットの首下を触る(右中のノード)ということが予測できる。   In the example of FIG. 16, the upper right node indicates that the opponent stands on the right side of the robot and touches the right shoulder of the robot. The line between nodes shows the connection of each node, and each node makes a transition to a connected node stochastically. The upper left node shows a state where the opponent stands on the right side of the robot and touches the top of the robot. The middle right node shows that the opponent is standing in front of the robot and touching the head of the robot. The middle left node shows a state where the opponent stands in front of the robot and touches the top of the robot. The lower right node shows a state where the opponent is squatting in front of the robot and touching the chest of the robot. For example, as the next action after standing on the right side of the robot and touching the robot's right shoulder (the upper right node), the opponent touches the top of the robot in the same position (the upper left node), or It can be predicted that the robot moves forward and touches the head of the robot (the middle node on the right).

図17には、ロボット10の予測処理の動作の一例が示される。ロボット10は、コミュニケーション時に相手から触られたとき、予測処理を開始する。図17の最初のステップS61で、ロボット10のCPU60は、皮膚センサ58からの出力データが検出されたとき、皮膚センサ出力ベクトルを取得する。つまり、すべての皮膚センサ58で検知した圧力をセンサ入力/出力ボード68を介して圧力値データとして検出して、46次元の皮膚センサ出力ベクトルを生成して、メモリ64に記憶する。   FIG. 17 shows an example of the prediction processing operation of the robot 10. The robot 10 starts the prediction process when touched by the opponent during communication. In the first step S61 in FIG. 17, when the output data from the skin sensor 58 is detected, the CPU 60 of the robot 10 acquires a skin sensor output vector. That is, pressures detected by all skin sensors 58 are detected as pressure value data via the sensor input / output board 68, and a 46-dimensional skin sensor output vector is generated and stored in the memory 64.

次に、ステップS63で、取得した皮膚センサベクトルに最も近いクラスタを触覚アスペクトグラフDB110に記憶されているクラスタから選択する。たとえば、現在の皮膚センサ出力ベクトルと各クラスタとの距離は、各クラスタ代表値および各クラスタ内要素の分散から算出される。   Next, in step S63, the cluster closest to the acquired skin sensor vector is selected from the clusters stored in the haptic aspect graph DB 110. For example, the distance between the current skin sensor output vector and each cluster is calculated from each cluster representative value and the variance of the elements in each cluster.

続いて、ステップS65で、当該選択されたクラスタに対応する位置に眼カメラ50を向けて画像データをメモリ64に取得する。たとえば、触覚アスペクトグラフデータから、当該選択されたクラスタ番号に対応する相手位置データをメモリ64に取得し、当該相手位置データに基づく位置を眼カメラ50で撮影可能になる頭部モータ48の角度制御データを生成し、モータ制御ボード66を介して頭部モータ48の回転角度を制御する。そして、センサ入力/出力ボード68を介して眼カメラ50からの画像データをメモリ64に取得する。   Subsequently, in step S65, image data is acquired in the memory 64 by directing the eye camera 50 to a position corresponding to the selected cluster. For example, the other party position data corresponding to the selected cluster number is acquired from the tactile aspect graph data in the memory 64, and the angle control of the head motor 48 that enables the eye camera 50 to photograph the position based on the other party position data. Data is generated and the rotation angle of the head motor 48 is controlled via the motor control board 66. Then, the image data from the eye camera 50 is acquired in the memory 64 via the sensor input / output board 68.

続くステップS67で、画像データに基づいて、取得した相手位置データに対応する位置での相手の検出を試みる。そして、ステップS69で、当該位置で相手が検出されたか否かを判断する。ステップS69で“NO”であれば、つまり、当該位置で相手が撮影されていなかった場合には、相手が触覚センサ出力に対応する位置に存在していない。この場合、クラスタを特定できなかったので、ステップS61に戻る。   In the subsequent step S67, an attempt is made to detect a partner at a position corresponding to the acquired partner position data based on the image data. In step S69, it is determined whether or not a partner is detected at the position. If “NO” in the step S69, that is, if the opponent is not photographed at the position, the opponent does not exist at the position corresponding to the tactile sensor output. In this case, since the cluster could not be specified, the process returns to step S61.

一方、ステップS69で“YES”であれば、つまり、当該位置で相手が撮影されていた場合には、ステップS71で、ステップS65で取得した相手位置データ番号を、現在位置を示す情報としてメモリ64に記憶する。続くステップS73で、触覚アスペクトグラフデータから、当該選択されたクラスタの遷移先の情報をメモリ64に取得する。たとえば、当該選択されたクラスタ番号に対応する遷移先のクラスタ番号および確率値を取得し、当該遷移先のクラスタ番号に対応するクラスタのデータを取得し、当該遷移先クラスタ番号に対応する相手位置データ番号を特定して当該相手位置データ番号に対応する相手位置データを取得する。   On the other hand, if “YES” in the step S69, that is, if the opponent is photographed at the position, the opponent position data number acquired in the step S65 is stored in the memory 64 as information indicating the current position in the step S71. To remember. In subsequent step S73, the transition destination information of the selected cluster is acquired from the tactile aspect graph data in the memory 64. For example, the cluster number and probability value of the transition destination corresponding to the selected cluster number are acquired, the data of the cluster corresponding to the cluster number of the transition destination is acquired, and the partner position data corresponding to the transition destination cluster number The number is specified, and the partner position data corresponding to the partner position data number is acquired.

ステップS75で、その先の情報も必要か否かを判断する。たとえば、相手の次の行動よりもさらに将来の行動を予測して誘導するように設定されている場合等には、その先の情報が必要であると判断される。ステップS75で“YES”であれば、ステップS77で、触覚アスペクトグラフデータから、ステップS73で取得した遷移先クラスタの遷移先の情報をメモリ64に取得する。これによって、次の行動よりもさらに先すなわち近い将来の必要な情報(遷移先クラスタ番号、遷移確率、遷移先のクラスタのデータ、対応する相手位置データ等)が取得される。   In step S75, it is determined whether further information is necessary. For example, when it is set to predict and guide a future action further than the next action of the opponent, it is determined that the information ahead is necessary. If “YES” in the step S75, the transition destination information of the transition destination cluster acquired in the step S73 is acquired in the memory 64 from the tactile aspect graph data in a step S77. As a result, necessary information (transition destination cluster number, transition probability, transition destination cluster data, corresponding partner position data, etc.) ahead of the next action, that is, in the near future is acquired.

ステップS75で“NO”である場合、またはステップS77を終了すると、ステップS79で予測対応処理を実行して、ステップS73またはS77で取得した遷移先の情報に基づいて動作を制御する。ステップS79を終了するとこの図17の予測処理を終了する。ステップS79の予測対応処理の動作の一例は次の図18に示される。   If “NO” in the step S75, or when the step S77 is ended, a prediction handling process is executed in a step S79, and the operation is controlled based on the transition destination information acquired in the step S73 or S77. When step S79 ends, the prediction process of FIG. 17 ends. An example of the operation of the prediction handling process in step S79 is shown in FIG.

図18の最初のステップS91で、危険回避するか否かを判断する。たとえば、現在実行している触覚コミュニケーション行動のプログラムまたはデータにおいて予測に基づく危険回避が設定されているか否かを判定する。   In first step S91 in FIG. 18, it is determined whether or not to avoid danger. For example, it is determined whether or not risk avoidance based on prediction is set in the program or data of the tactile communication behavior currently being executed.

ステップS91で“YES”であれば、ステップS93で、取得した遷移先の情報に基づいて、相手の次の位置または行動を予測する。たとえば、確率値の最も高い相手位置データを次の相手位置として予測し、メモリ64に予測位置として記憶する。あるいは、可能性のあるもの全てを考慮するように、遷移先として取得された全ての相手位置データを次の相手位置として予測し、メモリ64に予測位置として記憶するようにしてもよい。たとえば、遷移先の相手位置データがロボットの右側と正面と左側とを含む場合には、ロボットの右側、正面および左側のすべてが次の相手の位置として予測されてよい。なお、確率値に応じて重みを考慮するようにしてもよい。   If “YES” in the step S91, the next position or action of the opponent is predicted in a step S93 based on the acquired transition destination information. For example, the partner position data having the highest probability value is predicted as the next partner position and stored in the memory 64 as the predicted position. Alternatively, all possible partner position data acquired as a transition destination may be predicted as the next partner position and stored as a predicted position in the memory 64 so as to consider all possibilities. For example, when the opponent position data of the transition destination includes the right side, the front side, and the left side of the robot, all of the right side, front side, and left side of the robot may be predicted as the positions of the next opponent. Note that the weight may be considered according to the probability value.

そして、ステップS95で、予測位置側への移動の禁止を設定する。たとえば、移動を禁止するフラグをONに設定し、予測位置のうち相手の腰の位置を移動禁止位置として記憶する。また、ステップS97で、予測位置への腕などの部位の動作の禁止を設定する。たとえば、腕の動作を禁止するフラグをONに設定し、予測位置から、相手の指先および腰の位置、ならびに指先と腰の間の領域等を、動作禁止位置として記憶する。ステップS97を終了すると、この予測対応処理を終了する。   In step S95, prohibition of movement toward the predicted position is set. For example, a flag prohibiting movement is set to ON, and the position of the opponent's waist among the predicted positions is stored as a movement prohibited position. In step S97, prohibition of movement of a part such as an arm to the predicted position is set. For example, the flag prohibiting the movement of the arm is set to ON, and from the predicted position, the position of the opponent's fingertip and waist, the area between the fingertip and the waist, and the like are stored as the operation prohibited position. When step S97 ends, the prediction handling process ends.

一方、ステップS91で“NO”であれば、ステップS99で、誘導するか否かを判断する。たとえば、現在実行している触覚コミュニケーション行動のプログラムまたはデータにおいて予測に基づく誘導が設定されているか否かを判定する。   On the other hand, if “NO” in the step S91, it is determined whether or not to guide in a step S99. For example, it is determined whether or not guidance based on prediction is set in the program or data of the tactile communication behavior currently being executed.

ステップS99で“YES”であれば、ステップS101で、取得した遷移先の情報から誘導したい相手の位置または行動を選択する。たとえば、図16の例で、現在の相手位置が右上のノードであり、かつ、2つ先まで予測する場合には、右上以外のノードから誘導したいノードがクラスタ番号あるいは相手位置データ番号等で選択される。たとえば相手が胸を触るように誘導したいときは、右下のノードに相当する相手位置データ番号等が選択される。   If “YES” in the step S99, the position or action of the other party to be guided is selected from the acquired transition destination information in a step S101. For example, in the example of FIG. 16, when the current partner position is the upper right node and when predicting up to two nodes ahead, the node to be guided from the node other than the upper right is selected by the cluster number or the partner position data number Is done. For example, when it is desired to guide the partner to touch the chest, the partner position data number corresponding to the lower right node is selected.

続いて、ステップS103で選択されたのは遷移先の先への誘導であるか否かを判断する。ステップS103で“YES”であれば、ステップS105で、ステップS101で選択された相手位置の手前側の相手位置を選択する。遷移先のさらに先へ誘導したい場合、その誘導したい位置まで導くために手前側の経路を遷移していく必要があるので、現在のノードから1つ先に相当する相手位置を選択する。たとえば、ステップS101で右下のノードに相当する相手位置データ番号等が選択されている場合には、その手前側の現在のノードに最も近いノードである右中のノードに相当する相手位置データ番号等が選択される。   Subsequently, it is determined whether or not the selection in step S103 is guidance to the destination of the transition destination. If “YES” in the step S103, an opponent position on the near side of the opponent position selected in the step S101 is selected in a step S105. When it is desired to guide further to the transition destination, it is necessary to change the path on the near side in order to lead to the position to be guided, and therefore, the partner position corresponding to the one ahead from the current node is selected. For example, when the partner position data number corresponding to the lower right node is selected in step S101, the partner position data number corresponding to the middle right node that is the node closest to the current node on the near side is selected. Etc. are selected.

ステップS105を終了し、またはステップS103で“NO”であれば、ステップS107で、選択された位置に相手が存在するように移動または旋回する。具体的には、選択された相手位置データ番号等に対応する相手位置データと現在位置に対応する相手位置データとの差に基づいて、選択位置に相手が存在することになるように車輪モータ16の制御データを変更する。この変更された制御データに基づいてロボット10は旋回または移動し、その結果、相手はロボット10から見て選択された位置に存在することとなる。   If step S105 ends or if “NO” in the step S103, in a step S107, the opponent moves or turns so that the opponent exists at the selected position. Specifically, based on the difference between the partner position data corresponding to the selected partner position data number and the partner position data corresponding to the current position, the wheel motor 16 is set so that the partner exists at the selected position. Change the control data. Based on the changed control data, the robot 10 turns or moves, and as a result, the opponent is located at a position selected as viewed from the robot 10.

たとえば、上述の例の続きとして、現在の相手位置がロボット10の右側(図16の右上のノード)であり、選択位置がロボット10の正面(図16の右中のノード)である場合には、たとえばロボット10から現在位置への方向と選択位置への方向との差分(角度差)を算出して、当該角度差だけロボット10を旋回させることによって、相手をロボット10の正面に位置させることができる。この場合、次の行動として、右中のノードのように、相手が、当該位置に対応する触り場所であるロボットの首下を、対応する触り方で触ることが期待される。したがって、予測に対応して、相手の触行動を誘導することができる。そして、皮膚センサ出力ベクトルまたは画像データの確認によって相手がロボット10の首下を触ったことが検出された場合には、その遷移先の左下のノード、すなわち、相手が正面でしゃがんで胸を触る状態に導いていくことが可能になる。ステップS107を終了し、またはステップS99で“NO”である場合には、この予測対応処理を終了する。   For example, as a continuation of the above example, when the current opponent position is the right side of the robot 10 (the upper right node in FIG. 16) and the selected position is the front side of the robot 10 (the middle right node in FIG. 16). For example, by calculating the difference (angle difference) between the direction from the robot 10 to the current position and the direction to the selected position and turning the robot 10 by the angle difference, the opponent is positioned in front of the robot 10. Can do. In this case, as the next action, it is expected that the opponent touches the head of the robot, which is the touch location corresponding to the position, with the corresponding touch method, as in the middle right node. Therefore, the other party's tactile behavior can be induced in response to the prediction. If it is detected by checking the skin sensor output vector or the image data that the opponent touches the lower neck of the robot 10, the lower left node of the transition destination, that is, the opponent squats in front and touches the chest. It becomes possible to lead to the state. If the step S107 is ended or if “NO” in the step S99, the prediction corresponding process is ended.

図19には、コミュニケーション行動実行時の変更処理の動作の一例が示される。図18の予測対応処理で危険回避のために移動または腕動作の禁止が設定されている場合、この変更処理によって制御データが変更される。図19の最初のステップS121では、移動禁止フラグ等に基づいて、移動禁止が設定されているか否かを判断する。ステップS121で“YES”であれば、ステップS123で、ステップS95で設定した禁止位置を取得し、ステップS125で、実行しようとしているコミュニケーション行動の制御データが禁止位置側への移動を含むか否かを判断する。ステップS125で“YES”であれば、ステップS127で、禁止位置側へ移動しないように変更した制御データを生成する。たとえば、禁止位置が正面であり、制御データが前方への移動を含む場合には、車輪モータ16の制御データの前方移動に関する部分をクリアする。このようにして、変更された制御データに基づいて制御が実行されることによって、禁止位置への移動が行われなくなるので、相手に衝突することが防止され、危険を回避することができる。   FIG. 19 shows an example of the operation of the change process when the communication action is executed. When the prohibition of movement or arm movement is set to avoid danger in the prediction handling process of FIG. 18, the control data is changed by this change process. In the first step S121 of FIG. 19, it is determined whether or not movement prohibition is set based on a movement prohibition flag or the like. If “YES” in the step S121, the prohibited position set in the step S95 is acquired in a step S123, and whether or not the control data of the communication action to be executed includes a movement to the prohibited position side in a step S125. Judging. If “YES” in the step S125, control data changed so as not to move to the prohibited position side is generated in a step S127. For example, when the forbidden position is the front and the control data includes a forward movement, the portion related to the forward movement of the control data of the wheel motor 16 is cleared. In this way, the control is executed based on the changed control data, so that the movement to the prohibited position is not performed, so that the collision with the opponent can be prevented and the danger can be avoided.

ステップS127を終了し、またはステップS125で“NO”である場合、またはステップS121で“NO”である場合には、ステップS129で、動作禁止フラグ等に基づいて、腕の動作の禁止が設定されているか否かを判断する。ステップS129で“YES”であれば、ステップS131で、ステップS97で設定した禁止位置を取得し、ステップS133で、実行しようとしているコミュニケーション行動の制御データが禁止位置への腕の動作を含むか否かを判断する。ステップS133で“YES”であれば、ステップS135で、禁止位置へ腕を動かさないように変更した制御データを生成する。たとえば、禁止位置が右側であり制御データが右手の動作を含む場合には、右腕モータ40の制御データをクリアし、現在の角度を維持するようにする。また、たとえば、禁止位置が右側であり制御データが右腕の動作を含む場合であって、当該右腕の動作が左腕で代替可能なもの、たとえば右腕でバイバイと手を振るような行動であるときには、当該動作を左腕で行うように変更した制御データを生成するようにしてもよい。ステップS135を終了し、または、ステップS133で“NO”である場合、または、ステップS129で“NO”である場合には、この変更処理を終了する。このようにして、変更された制御データに基づいて制御が実行されることによって、禁止位置への腕などの部位の動作が行われなくなるので、相手に腕などの部位をぶつけることを未然に防止でき、危険を回避することができる。   If step S127 ends or if “NO” in step S125, or if “NO” in step S121, prohibition of arm movement is set based on the operation prohibition flag or the like in step S129. Judge whether or not. If “YES” in the step S129, the prohibition position set in the step S97 is acquired in a step S131, and whether or not the control data of the communication action to be executed includes the movement of the arm to the prohibition position in a step S133. Determine whether. If “YES” in the step S133, control data changed so as not to move the arm to the prohibited position is generated in a step S135. For example, when the forbidden position is on the right side and the control data includes a right-hand motion, the control data for the right arm motor 40 is cleared and the current angle is maintained. Further, for example, when the prohibition position is on the right side and the control data includes the movement of the right arm, and the movement of the right arm can be replaced with the left arm, for example, the action of shaking the hand with the right arm, You may make it produce | generate the control data changed so that the said operation | movement may be performed with a left arm. If step S135 ends, or if “NO” in step S133, or if “NO” in step S129, this change processing ends. In this way, since the control is executed based on the changed control data, the movement of the part such as the arm to the prohibited position is not performed, so it is possible to prevent the part such as the arm from hitting the opponent beforehand. And avoid danger.

この実施例によれば、相手の位置(たとえば腰および指先)に関連付けられた触覚センサ出力の確率的遷移を示す触覚アスペクトグラフデータを記憶するので、コミュニケーション時には、触覚に基づいて、次の相手の位置、触る場所および触られ方など、触行動が遷移すると予測される先の相手の情報を取得することができるので、相手の次の位置や触行動を予測することができる。そして、予測に応じて動作を制御することによって、相手への衝突などの危険を回避できるので、安全性を向上することができる。また、取得した遷移先の情報と現在の相手の位置との差に基づいて、予測される位置や触行動に相手を誘導することができるので、円滑なコミュニケーションを実現できる。   According to this embodiment, the tactile aspect graph data indicating the stochastic transition of the tactile sensor output associated with the position of the opponent (for example, the waist and the fingertip) is stored. Since it is possible to acquire information on a partner who is predicted to change the tactile behavior, such as a position, a touched place, and a touched manner, the next position and tactile behavior of the partner can be predicted. And by controlling operation | movement according to prediction, since danger, such as a collision with the other party, can be avoided, safety | security can be improved. In addition, since the opponent can be guided to the predicted position or tactile behavior based on the difference between the acquired information of the transition destination and the current position of the other party, smooth communication can be realized.

なお、触行動の遷移の個人的な特徴に着目すれば、ロボット10は触覚アスペクトグラフデータを用いて個人認識をすることも可能である。この場合には、複数のコミュニケーション相手ごとの触覚アスペクトグラフデータをたとえば相手IDに関連付けて触覚アスペクトグラフDB110に記憶しておく。コミュニケーション時には、触覚センサ出力ベクトルを計測するとともに画像データから相手の位置を検出することによって、相手の位置および触れている場所ならびに触り方(クラスタ)を特定してこれらの履歴を記憶していくことによって、触行動の遷移を記録する。そして、遷移の仕方がどの相手IDの触覚アスペクトグラフデータに適合するかを判定することによって、コミュニケーション相手が誰であるかを特定することができる。   If attention is paid to the personal characteristics of the transition of tactile behavior, the robot 10 can also perform personal recognition using tactile aspect graph data. In this case, the haptic aspect graph data for each of a plurality of communication partners is stored in the haptic aspect graph DB 110 in association with the partner ID, for example. During communication, by measuring the output vector of the tactile sensor and detecting the position of the other party from the image data, the position of the other party, the place where the person is touching, and the way of touching (cluster) are identified and the history is stored. To record the transition of tactile behavior. Then, it is possible to specify who the communication partner is by determining which partner ID corresponds to the tactile aspect graph data of the partner ID.

この発明の一実施例のコミュニケーションロボットを示す図解図である。It is an illustration figure which shows the communication robot of one Example of this invention. 図1実施例のコミュニケーションロボットに用いる皮膚とその中に埋め込まれるピエゾセンサシートとを示す図解図である。It is an illustration figure which shows the skin used for the communication robot of FIG. 1 Example, and the piezo sensor sheet | seat embedded in it. ピエゾセンサシートの配置位置を示す図解図である。It is an illustration figure which shows the arrangement position of a piezo sensor sheet | seat. 図1実施例のコミュニケーションロボットの電気的構成を示すブロック図である。It is a block diagram which shows the electrical structure of the communication robot of FIG. 1 Example. 図1実施例のコミュニケーションロボットにおけるピエゾセンサシートから検知信号を入力するセンサ入力/出力ボードを部分的に示す図解図である。It is an illustration figure which shows partially the sensor input / output board which inputs a detection signal from the piezo sensor sheet | seat in the communication robot of FIG. 1 Example. 図1実施例のコミュニケーションロボットに備えられる触覚アスペクトグラフを作成するためのマップ作成システムの概要を示す図解図である。It is an illustration figure which shows the outline | summary of the map creation system for creating the tactile aspect graph with which the communication robot of FIG. 1 embodiment is equipped. マップ作成時の赤外線反射マーカの取付位置を示す図解図である。It is an illustration figure which shows the attachment position of the infrared reflective marker at the time of map creation. 図6の作成用コンピュータのマップ作成処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the map creation process of the computer for creation of FIG. 図8の指先データの処理の動作を示すフロー図である。It is a flowchart which shows the operation | movement of the processing of the fingertip data of FIG. 図8の腰データの処理の動作を示すフロー図である。It is a flowchart which shows the operation | movement of the process of waist data of FIG. マップDBに記憶されるマップデータの概要を示す図解図である。It is an illustration figure which shows the outline | summary of the map data memorize | stored in map DB. クラスタ代表値の一例を示す図解図である。It is an illustration figure which shows an example of a cluster representative value. 図12のクラスタ代表値に対応する相手の指先と腰の位置の分布の概要を示す図解図である。It is an illustration figure which shows the outline | summary of distribution of the other party's fingertip and waist position corresponding to the cluster representative value of FIG. 図6の作成用コンピュータの触覚アスペクトグラフ作成処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the tactile aspect graph preparation process of the computer for preparation of FIG. 触覚アスペクトグラフDBに記憶されるデータの内容の一例を示す図解図であり、図15(A)はクラスタ番号ごとの遷移先クラスタ番号とその遷移確率を含むデータを示し、図15(B)はクラスタ番号と相手位置データ番号との対応付けを示すデータを示し、図15(C)はクラスタ番号ごとの触覚センサ出力(クラスタ)のデータを示し、図15(D)は相手位置番号データごとの相手位置データを示す。It is an illustration figure which shows an example of the content of the data memorize | stored in tactile aspect graph DB, FIG.15 (A) shows the data including the transition destination cluster number for every cluster number, and its transition probability, FIG.15 (B) is FIG. FIG. 15C shows data indicating the tactile sensor output (cluster) for each cluster number, and FIG. 15D shows data for each partner position number data. Indicates partner position data. 触覚アスペクトグラフの概念を示す図解図である。It is an illustration figure which shows the concept of a tactile aspect graph. 図1実施例のコミュニケーションロボットの予測処理における動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement in the prediction process of the communication robot of FIG. 1 Example. 図17の予測対応処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement of the prediction corresponding | compatible process of FIG. 図1実施例のコミュニケーションロボットのコミュニケーション行動実行時の変更処理における動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement in the change process at the time of communication action execution of the communication robot of FIG. 1 Example.

符号の説明Explanation of symbols

10 …コミュニケーションロボット
22 …人体状部
24 …皮膚
50 …眼カメラ
58,501−548 …触覚センサ(ピエゾセンサシート)
60 …CPU
64 …メモリ
66 …モータ制御ボード
68 …センサ入力/出力ボード
70 …サウンド入力/出力ボード
92 …マップDB
94 …作成システム
96 …作成用コンピュータ
110 …触覚アスペクトグラフDB
DESCRIPTION OF SYMBOLS 10 ... Communication robot 22 ... Human body-like part 24 ... Skin 50 ... Eye camera 58,501-548 ... Tactile sensor (piezo sensor sheet)
60 ... CPU
64 ... Memory 66 ... Motor control board 68 ... Sensor input / output board 70 ... Sound input / output board 92 ... Map DB
94 ... Creation system 96 ... Creation computer 110 ... Tactile aspect graph DB

Claims (4)

複数の触覚センサ、
触行動をしているコミュニケーションの相手の位置に関連付けられた複数の触覚センサの出力のパターンの確率的な遷移を示す触覚アスペクトグラフデータを記憶する触覚アスペクト記憶手段、
前記複数の触覚センサの出力データを取得する取得手段、
前記取得手段によって前記出力データを取得するときの相手の位置を検出する検出手段、
前記取得手段によって取得された前記複数の触覚センサの出力データと前記検出手段による検出結果に基づいて、前記触覚アスペクト記憶手段から前記相手の少なくとも次の位置を含む遷移先の情報を取得する遷移先情報取得手段、および
前記遷移先情報取得手段によって取得された前記遷移先の情報に基づいて動作を制御する制御手段を備える、コミュニケーションロボット。
Multiple tactile sensors,
Tactile aspect storage means for storing tactile aspect graph data indicating probabilistic transitions of patterns of outputs of a plurality of tactile sensors associated with positions of communication partners performing tactile behavior;
Obtaining means for obtaining output data of the plurality of tactile sensors;
Detecting means for detecting the position of the opponent when the output data is acquired by the acquiring means;
Based on the output data of the plurality of tactile sensors acquired by the acquiring unit and the detection result by the detecting unit, the transition destination that acquires at least the next position of the opponent from the tactile aspect storage unit A communication robot comprising: an information acquisition unit; and a control unit that controls an operation based on the transition destination information acquired by the transition destination information acquisition unit.
前記制御手段は、前記遷移先情報取得手段によって取得された前記相手の次の位置への移動または部位の動きを回避する、請求項1記載のコミュニケーションロボット。   The communication robot according to claim 1, wherein the control unit avoids movement of the opponent to a next position or movement of a part acquired by the transition destination information acquisition unit. 前記制御手段は、前記取得手段によって取得された前記複数の触覚センサの出力データに対応する前記相手の位置と前記遷移先情報取得手段によって取得された前記相手の次の位置との差分に基づいて移動または旋回を制御する、請求項1記載のコミュニケーションロボット。   The control means is based on a difference between the position of the opponent corresponding to the output data of the plurality of tactile sensors acquired by the acquisition means and the next position of the opponent acquired by the transition destination information acquisition means. The communication robot according to claim 1, wherein the communication robot controls movement or turning. ロボット本体上に被せられる柔軟素材からなる皮膚をさらに備え、
前記複数の触覚センサは前記皮膚中に分散配置される複数のピエゾセンサシートを含む、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
It is further equipped with a skin made of a flexible material to be put on the robot body,
The communication robot according to any one of claims 1 to 3, wherein the plurality of tactile sensors include a plurality of piezo sensor sheets distributed in the skin.
JP2005103036A 2005-03-31 2005-03-31 Communication robot Withdrawn JP2006281348A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005103036A JP2006281348A (en) 2005-03-31 2005-03-31 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005103036A JP2006281348A (en) 2005-03-31 2005-03-31 Communication robot

Publications (1)

Publication Number Publication Date
JP2006281348A true JP2006281348A (en) 2006-10-19

Family

ID=37403781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005103036A Withdrawn JP2006281348A (en) 2005-03-31 2005-03-31 Communication robot

Country Status (1)

Country Link
JP (1) JP2006281348A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013082071A (en) * 2013-02-12 2013-05-09 Toyota Motor East Japan Inc Work assist system
JP2015089577A (en) * 2013-11-05 2015-05-11 セイコーエプソン株式会社 Robot, control device, and robot system
WO2016068346A1 (en) * 2014-10-28 2016-05-06 シャープ株式会社 Robot, control method for robot, and program
US9975240B2 (en) 2013-11-01 2018-05-22 Seiko Epson Corporation Robot, controller, and robot system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013082071A (en) * 2013-02-12 2013-05-09 Toyota Motor East Japan Inc Work assist system
US9975240B2 (en) 2013-11-01 2018-05-22 Seiko Epson Corporation Robot, controller, and robot system
JP2015089577A (en) * 2013-11-05 2015-05-11 セイコーエプソン株式会社 Robot, control device, and robot system
WO2016068346A1 (en) * 2014-10-28 2016-05-06 シャープ株式会社 Robot, control method for robot, and program
JP2016083747A (en) * 2014-10-28 2016-05-19 シャープ株式会社 Robot, control method of robot, and program

Similar Documents

Publication Publication Date Title
Dakopoulos et al. Wearable obstacle avoidance electronic travel aids for blind: a survey
JP3706113B2 (en) Communication robot
CN109141620B (en) Sound source separation information detection device, robot, sound source separation information detection method, and storage medium
JP2003337963A (en) Device and method for image processing, and image processing program and recording medium therefor
JP4677585B2 (en) Communication robot
US10576633B2 (en) Communication device
JP4524435B2 (en) Communication robot
JP2006281348A (en) Communication robot
JP3942586B2 (en) Communication robot
JP2008278981A (en) Character determination apparatus, character determination method, communication robot and electronic device
JP4271070B2 (en) Communication robot
Bouzit et al. Tactile feedback navigation handle for the visually impaired
WO2021005878A1 (en) Information processing device, information processing method, and information processing program
JP2011240468A (en) Contact type discriminating system for robot
JP5076107B2 (en) Robot with tactile sensor
EP2831706B1 (en) A multimodal system and method facilitating gesture creation through scalar and vector data
JP4223426B2 (en) Communication robot
WO2020105309A1 (en) Information processing device, information processing method, and program
WO2022194029A1 (en) Robot feedback method and robot
JP4753410B2 (en) Communication robot
JP4873607B2 (en) Electronic device having skin sensor
JP4878462B2 (en) Communication robot
JP5103589B2 (en) Communication robot
Sampath et al. Obstacle classification through acoustic echolocation
JP5229701B2 (en) Robot with tactile sensor

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603