JP5103589B2 - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP5103589B2
JP5103589B2 JP2007238747A JP2007238747A JP5103589B2 JP 5103589 B2 JP5103589 B2 JP 5103589B2 JP 2007238747 A JP2007238747 A JP 2007238747A JP 2007238747 A JP2007238747 A JP 2007238747A JP 5103589 B2 JP5103589 B2 JP 5103589B2
Authority
JP
Japan
Prior art keywords
tactile
series data
sensor
time
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007238747A
Other languages
Japanese (ja)
Other versions
JP2009066716A (en
Inventor
敬宏 宮下
智之 野田
浩 石黒
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007238747A priority Critical patent/JP5103589B2/en
Publication of JP2009066716A publication Critical patent/JP2009066716A/en
Application granted granted Critical
Publication of JP5103589B2 publication Critical patent/JP5103589B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)
  • Bus Control (AREA)

Description

この発明はコミュニケーションロボットに関し、特にたとえば、全身に分布された複数の触覚センサエレメントを備えるコミュニケーションロボットに関する。また、この発明は、そのようなコミュニケーションロボットのための触覚インタラクションの識別関数の作成方法に関する。   The present invention relates to a communication robot, and more particularly to a communication robot including a plurality of tactile sensor elements distributed throughout the body, for example. The present invention also relates to a method for creating a discrimination function of haptic interaction for such a communication robot.

人とのコミュニケーションを目指すロボットにとって、全身を柔らかい素材で構成された皮膚と敏感な触覚で覆うことは、接触によって危害を加える危険性を減少させるという点で重要な要素の1つとなるだけでなく、ロボットと人間とが円滑にコミュニケーションを行うためには、全身分布型の高感度超柔軟性触覚センサに基づく触行動認識が必要不可欠になる。   For robots aiming to communicate with humans, covering the whole body with skin made of soft materials and sensitive tactile sensations is not only one of the important factors in reducing the risk of harm from contact. In order for a robot and a human to communicate smoothly, tactile behavior recognition based on a whole body-distributed high-sensitivity super-flexible tactile sensor is indispensable.

これまでのロボットの触覚に関する研究は、物体の把持や操りに関するものが多く、全身に高密度で柔軟な触覚センサエレメントが分布することで引き起こされる技術的な困難さはあまり考慮されてこなかった。触覚センサエレメントの配線や実装に起因する問題だけではなく、第1に高密度化に伴うシステムの故障率の増加、第2にセンサエレメントの高密度化に伴う情報量の増加、第3にセンサエレメントの管理が困難になるという、3つの課題が生まれてくる。   Many researches on the tactile sensation of robots so far have been related to grasping and manipulating objects, and technical difficulties caused by the distribution of high-density and flexible tactile sensor elements throughout the body have not been considered much. In addition to problems caused by wiring and mounting of tactile sensor elements, firstly, an increase in the failure rate of the system due to higher density, secondly, an increase in information amount due to higher density of sensor elements, and thirdly, sensor Three issues arise: managing elements becomes difficult.

本出願人は、コミュニケーションロボットの全身触覚の実現を目指し、第1の課題の断線やノードの故障に柔軟に対応できる自己組織化可能なセンサネットワークを提案した(たとえば特許文献1参照)。ネットワークのノードは複数の触覚センサエレメントとセンサ値読み取り装置および演算装置から構成され、それらを相互接続することで、触覚情報に対して継ぎ目のない分散処理が可能であり、これにより第2の課題を解決できる。
特開2006−287520号公報[H04L 12/56, G06F 13/36]
The present applicant has proposed a sensor network capable of self-organization that can flexibly cope with the disconnection of the first problem and the failure of a node with the aim of realizing the whole body tactile sensation of the communication robot (see, for example, Patent Document 1). A node of the network includes a plurality of tactile sensor elements, a sensor value reading device, and a computing device, and by interconnecting them, seamless distributed processing can be performed on tactile information. Can be solved.
JP 2006-287520 A [H04L 12/56, G06F 13/36]

しかしながら、このような分散処理を行うには、人間が実際に起こる触覚インタラクションを予見して、その情報を分散処理できるようなプログラムを各ノードに記述する必要がある。その記述自体が困難であるばかりか、自由度をもつロボットの体表面相対位置は変化するため、どのセンサの組み合わせで分散処理を行えばよいかを決定することはできない。したがって、第3の課題としての大量の触覚センサエレメントの管理方法が、ロボットの全身分布触覚には特有の問題となる。   However, in order to perform such distributed processing, it is necessary to foresee a haptic interaction actually occurring by a human and to write a program that can process the information in each node. Not only is the description itself difficult, but the relative position of the robot's body surface changes, so it is impossible to determine which sensor combination should be used for distributed processing. Therefore, the management method for a large number of tactile sensor elements as the third problem is a problem peculiar to the whole body distributed tactile sense of the robot.

それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボット、および触覚インタラクションの識別関数の作成方法を提供することである。   Therefore, a main object of the present invention is to provide a novel communication robot and a method for creating a discrimination function for haptic interaction.

この発明の他の目的は、触覚情報の分散処理を実現できる、コミュニケーションロボット、およびそのようなコミュニケーションロボットのための触覚インタラクションの識別関数の作成方法を提供することである。   Another object of the present invention is to provide a communication robot capable of realizing distributed processing of tactile information, and a method for creating a discrimination function of a tactile interaction for such a communication robot.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、全身に分布された複数の触覚センサエレメントが接続された複数のノードを含む触覚センサおよびホストコンピュータを備えるコミュニケーションロボットであって、複数のノードのそれぞれは、触覚インタラクション時の触覚センサの時系列データを用いて算出された複数の触覚センサエレメント間の相互相関を表す特徴ベクトルから部分空間法によって構成されかつ各触覚インタラクションの種類を識別するための識別関数を示す識別関数データ、および認識対象の触覚インタラクションについて識別関数の出力の計算のための各触覚センサエレメントの時系列データの転送経路を示す転送経路データを記憶する記憶手段、所属する各触覚センサエレメントの時系列データを検出する検出手段、転送経路データに基づいて、検出手段で検出した時系列データを他のノードに送信する第1送信手段、他のノードの各触覚センサエレメントの時系列データを受信する受信手段、検出手段で検出した時系列データ、受信手段で受信した時系列データおよび識別関数データに基づいて、認識対象の触覚インタラクションの識別関数の出力を算出する算出手段、および算出手段によって算出された識別関数の出力をホストコンピュータに送信する第2送信手段を備え、ホストコンピュータは、各ノードから受信した識別関数の出力に基づいて、触覚インタラクションの識別を行う識別手段を備える、コミュニケーションロボットである。 A first invention is a communication robot including a tactile sensor including a plurality of nodes to which a plurality of tactile sensor elements distributed throughout the body are connected and a host computer, wherein each of the plurality of nodes is a tactile sense during tactile interaction Discriminant function data indicating a discriminant function for discriminating the type of each tactile interaction and comprising a subspace method from a feature vector representing a cross-correlation between a plurality of tactile sensor elements calculated using sensor time-series data; Storage means for storing the transfer path data indicating the transfer path of the time series data of each tactile sensor element for calculating the output of the discrimination function for the tactile interaction of the recognition target and the time series data of each tactile sensor element to which it belongs Detection means based on the transfer path data First transmission means for transmitting time series data detected by the detection means to another node, reception means for receiving time series data of each tactile sensor element of another node, time series data detected by the detection means, and reception means Based on the received time series data and discriminant function data, a calculating unit that calculates an output of the discriminant function of the tactile interaction to be recognized, and a second transmitting unit that transmits the output of the discriminant function calculated by the calculating unit to the host computer And the host computer is a communication robot including identification means for identifying tactile interaction based on the output of the identification function received from each node.

第1の発明では、コミュニケーションロボット(10)は、全身分布型の触覚センサ(76)およびホストコンピュータ(60)を含む。触覚センサは、複数の触覚センサエレメント(58)が接続される複数のノード(80)を含み、つまり、センサネットワークを構成している。各ノードは、記憶手段(プロセッサユニット86の内蔵メモリ)を備えており、この記憶手段には、少なくとも識別関数データおよび転送経路データが記憶される。識別関数データは、各触覚インタラクションの識別関数を示すデータであり、実施例の近似識別関数テーブルDFまたは識別関数テーブルDFに対応する。各触覚インタラクションの識別関数は、触覚インタラクション時の触覚センサの時系列データを用いて算出された複数の触覚センサエレメント間の特徴ベクトルから部分空間法によって構成される。また、転送経路データは、認識対象の触覚インタラクションについて識別関数の出力の計算のための各触覚センサエレメントの時系列データの転送経路を示す。つまり、この転送経路データでは、各触覚センサエレメントの時系列データをどの経路で通信してどのノードに集めるかが示されている。各ノードでは、検出手段(86、88、90、S407)により、当該ノードに所属する各触覚センサエレメントの時系列データを検出する。そして、第1送信手段(86、S409、S503)により、転送経路データに基づいて、各触覚センサエレメントの時系列データを他のノードに送信する。これに応じて、各ノードでは、受信手段(86、S409、S507)により、他のノードの触覚センサエレメントの時系列データを受信できる。したがって、各ノードでは、算出手段(86、S415、S417)により、検出手段で検出した当該ノードに所属する触覚センサエレメントの時系列データ、受信手段で受信した他のノードに所属する触覚センサエレメントの時系列データ、および識別関数データに基づいて、認識対象の触覚インタラクションの識別関数の出力を算出することができる。算出された識別関数の出力は、第2送信手段(86、S419)により、ホストコンピュータに送信される。したがって、ホストコンピュータは、各ノードからの識別関数の出力を受信して、識別手段(60、S319−S325)により、触覚インタラクションの識別を行うことができ、具体的には、認識対象の触覚インタラクションが行われたのか、あるいは予期しない入力があったのか等を認識することができる。 In the first invention, the communication robot (10) includes a whole body distributed tactile sensor (76) and a host computer (60). The tactile sensor includes a plurality of nodes (80) to which a plurality of tactile sensor elements (58) are connected, that is, forms a sensor network. Each node includes storage means (internal memory of the processor unit 86), and at least identification function data and transfer path data are stored in the storage means. The discriminant function data is data indicating the discriminant function of each tactile interaction, and corresponds to the approximate discriminant function table DF * or discriminant function table DF of the embodiment. The identification function of each tactile interaction is constituted by a subspace method from feature vectors between a plurality of tactile sensor elements calculated using time series data of the tactile sensor at the time of tactile interaction. The transfer path data indicates the transfer path of the time series data of each tactile sensor element for calculating the output of the discrimination function for the tactile interaction to be recognized. In other words, this transfer route data indicates which route the time series data of each tactile sensor element is communicated with and which node is collected. In each node, the time series data of each tactile sensor element belonging to the node is detected by the detection means (86, 88, 90, S407). Then, the first transmission means (86, S409, S503) transmits the time series data of each tactile sensor element to another node based on the transfer path data. Accordingly, each node can receive the time series data of the tactile sensor elements of the other nodes by the receiving means (86, S409, S507). Therefore, in each node, the time series data of the tactile sensor element belonging to the node detected by the detecting means and the tactile sensor element belonging to another node received by the receiving means are detected by the calculating means (86, S415, S417). Based on the time series data and the identification function data, the output of the identification function of the recognition target tactile interaction can be calculated. The calculated output of the discrimination function is transmitted to the host computer by the second transmission means (86, S419). Therefore, the host computer can receive the output of the identification function from each node and identify the haptic interaction by the identification means (60, S319-S325). Specifically, the host computer can identify the haptic interaction to be recognized. It is possible to recognize whether or not there has been an unexpected input.

第1の発明によれば、各ノードに識別関数データおよび転送経路データを記憶しているので、転送経路データに基づいて触覚センサエレメントの時系列データをノード間で送受信することによって、各ノードで触覚インタラクションの識別関数の出力を算出することができる。そして、ホストコンピュータで、各ノードからの識別関数の出力に基づいて、触覚インタラクションの識別を行うことができる。このように、各ノードにおいて触覚情報の分散処理を実行して、触覚インタラクションの識別を行うことができる。   According to the first invention, since the identification function data and the transfer route data are stored in each node, the time series data of the tactile sensor element is transmitted / received between the nodes based on the transfer route data. The output of the discrimination function of haptic interaction can be calculated. The host computer can identify the haptic interaction based on the output of the identification function from each node. In this way, the tactile information can be identified by executing distributed processing of tactile information at each node.

第2の発明は、第1の発明に従属するコミュニケーションロボットであって、記憶手段は、各触覚センサエレメントの時系列データの転送量を示す転送量データをさらに記憶し、第1送信手段は、時系列データを転送量データの転送量で送信する。   A second invention is a communication robot according to the first invention, wherein the storage means further stores transfer amount data indicating the transfer amount of time-series data of each tactile sensor element, and the first transmission means includes Send time-series data with the transfer amount of transfer amount data.

第2の発明では、記憶手段には、転送量データがさらに記憶されている。転送量データは、各触覚センサエレメントの時系列データの転送量を示し、これはネットワーク帯域の許容範囲内に収められている。第1送信手段により、転送量データに示された転送量を有する時系列データが他のノードに送信される。したがって、各ノードでの識別関数の出力の計算に必要な触覚センサエレメントの時系列データのノード間の通信を、許容範囲内の転送量で実行することができ、分散処理を実行する際の通信負荷を適切に抑制することができる。   In the second invention, the storage means further stores transfer amount data. The transfer amount data indicates the transfer amount of the time-series data of each tactile sensor element, and this is within the allowable range of the network band. The first transmission means transmits time-series data having the transfer amount indicated in the transfer amount data to other nodes. Therefore, communication between nodes of time-series data of tactile sensor elements necessary for calculating the output of the discrimination function at each node can be executed with a transfer amount within an allowable range, and communication when executing distributed processing. The load can be appropriately suppressed.

第3の発明は、第1発明のコミュニケーションロボットのための前記識別関数の作成方法であって、(a)触覚インタラクション時の触覚センサの時系列データを蓄積し、(b)前記触覚センサの時系列データを用いて算出された前記複数の触覚センサエレメント間の相互相関を表す特徴ベクトルを算出し、そして(c)前記特徴ベクトルから部分空間法により各触覚インタラクションの識別関数を構成する、触覚インタラクションの識別関数の作成方法。である。 A third invention is a method for creating the discriminant function for the communication robot of the first invention, wherein (a) the time series data of the tactile sensor at the time of tactile interaction is accumulated, and (b) the time of the tactile sensor. Calculating a feature vector representing a cross-correlation between the plurality of tactile sensor elements calculated using series data, and (c) constructing a discrimination function of each tactile interaction from the feature vector by a subspace method. To create a discriminant function. It is.

第3の発明によれば、触覚センサエレメントの時系列データから触覚インタラクションを識別可能にする識別関数を作成することができる。   According to the third aspect of the invention, it is possible to create an identification function that makes it possible to identify tactile interaction from time-series data of tactile sensor elements.

この発明によれば、人間との触覚インタラクション時の触覚センサの時系列データから部分空間法により構成された各触覚インタラクションの識別関数が各ノードに記憶されるので、各ノードで識別関数の出力を算出することができ、そして、ホストコンピュータで触覚インタラクションの識別を行うことができる。したがって、複数の触覚センサエレメントで全身を覆われたコミュニケーションロボットにおいて、触覚情報の分散処理を実現することができる。   According to the present invention, since the identification function of each tactile interaction constructed by the subspace method is stored in each node from the time series data of the tactile sensor at the time of tactile interaction with a human, the output of the identification function is output at each node. The tactile interaction can be identified at the host computer. Accordingly, distributed processing of tactile information can be realized in a communication robot whose whole body is covered with a plurality of tactile sensor elements.

また、部分空間法により触覚インタラクション時の触覚センサの時系列データから触覚インタラクションの識別関数を構成することができるので、触覚情報の分散処理を行えるコミュニケーションロボットを実現できる。   Further, since the identification function of the tactile interaction can be constructed from the time series data of the tactile sensor at the time of the tactile interaction by the subspace method, a communication robot capable of distributed processing of the tactile information can be realized.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1は、この発明の実施例のコミュニケーションロボット(以下、単に「ロボット」ともいう。)10を示す。ロボット10は台車12を含み、この台車12の側面には、このロボット10を自律移動させる車輪14が設けられる。この車輪14は、車輪モータ(図3において参照番号「16」で示す。)によって駆動され、台車12すなわちロボット10を前後左右任意の方向に動かすことができる。なお、図示しないが、この台車12の前面には、衝突センサが取り付けられ、この衝突センサは、台車12への人間や他の障害物の接触を検知する。   FIG. 1 shows a communication robot (hereinafter also simply referred to as “robot”) 10 according to an embodiment of the present invention. The robot 10 includes a carriage 12, and wheels 14 for autonomously moving the robot 10 are provided on a side surface of the carriage 12. The wheel 14 is driven by a wheel motor (indicated by reference numeral “16” in FIG. 3), and the carriage 12, that is, the robot 10 can be moved in any direction. Although not shown, a collision sensor is attached to the front surface of the carriage 12, and the collision sensor detects contact of a person or other obstacle with the carriage 12.

台車12の上には、多角形柱状のセンサ取付パネル18が設けられ、このセンサ取付パネル18の各面には、超音波距離センサ20が取り付けられる。この実施例ではたとえば24個の超音波距離センサ20が周囲360度にわたるように設けられる。この超音波距離センサ20は、センサ取付パネル18すなわちロボット10の周囲の主として人間との距離を計測するものである。具体的には、超音波距離センサ20は超音波を発射し、その超音波が人から反射されて超音波距離センサ20に入射されたタイミングを測定して、人との間の距離情報を出力する。   A polygonal columnar sensor mounting panel 18 is provided on the carriage 12, and an ultrasonic distance sensor 20 is mounted on each surface of the sensor mounting panel 18. In this embodiment, for example, 24 ultrasonic distance sensors 20 are provided so as to cover 360 degrees. The ultrasonic distance sensor 20 measures the distance from the sensor mounting panel 18, that is, the human body around the robot 10. Specifically, the ultrasonic distance sensor 20 emits an ultrasonic wave, measures the timing at which the ultrasonic wave is reflected from the person and is incident on the ultrasonic distance sensor 20, and outputs distance information between the person and the person. To do.

台車12の上には、人体状部22が直立するように取り付けられる。このロボット本体としての人体状部22の全身は、後に詳しく説明するように、柔軟素材からなる皮膚24によって覆われる。人体状部22は、たとえば鉄板のような筐体(図示せず)を含み、その筐体にコンピュータやその他必要なコンポーネントを収容している。そして、皮膚24は、その筐体上に被せられる。皮膚24の下の筐体の上部ほぼ中央にはマイク26が設けられる。このマイク26は、周囲の音声、特に人間の声を収集するためものである。   On the carriage 12, the human body-like part 22 is attached so as to stand upright. The whole body of the human body 22 as the robot body is covered with skin 24 made of a flexible material, as will be described in detail later. The human body portion 22 includes a housing (not shown) such as an iron plate, for example, and accommodates a computer and other necessary components in the housing. Then, the skin 24 is put on the casing. A microphone 26 is provided at approximately the center of the upper part of the housing under the skin 24. The microphone 26 is for collecting ambient sounds, particularly human voices.

人体状部22は、右腕28Rおよび左腕28Lを含み、右腕28Rおよび左腕28Lすなわち上腕30Rおよび30Lは、それぞれ、肩関節32Rおよび32Lによって、胴体部分に変位自在に取り付けられる。この肩関節32Rおよび32Lは、3軸の自由度を有する。上腕30Rおよび30Lには、1軸の肘関節34Rおよび34Lによって、前腕36Rおよび36Lが取り付けられ、この前腕36Rおよび36Lには、手38Rおよび38Lが取り付けられる。これら右腕28Rおよび左腕28Lの各関節における各軸はここでは図示しないモータによってそれぞれ制御される。すなわち、右腕28Rおよび左腕28Lのそれぞれ4個のモータが、図3において、それぞれ右腕モータ40および左腕モータ42として表される。   The human body 22 includes a right arm 28R and a left arm 28L, and the right arm 28R and the left arm 28L, that is, the upper arms 30R and 30L are detachably attached to the trunk portion by shoulder joints 32R and 32L, respectively. The shoulder joints 32R and 32L have three axes of freedom. Forearms 36R and 36L are attached to upper arms 30R and 30L by uniaxial elbow joints 34R and 34L, and hands 38R and 38L are attached to these forearms 36R and 36L. Each axis in each joint of the right arm 28R and the left arm 28L is controlled by a motor (not shown). That is, the four motors of the right arm 28R and the left arm 28L are represented as the right arm motor 40 and the left arm motor 42, respectively, in FIG.

人体状部22の上部には首関節44を介して頭部46が、人間の頭と同様に俯仰・回転可能に取付けられる。この3軸の首関節44は、図3に示す頭部モータ48によって制御される。頭部46の前面の「目」に相当する位置には2つの眼カメラ50が設けられ、この眼カメラ50は、ロボット10に接近した人間の顔や他の部分を撮影してその映像信号を取り込む。頭部46の前面の目カメラ50の下方にはスピーカ52が設けられる。このスピーカ52は、ロボット10がそれの周囲の人間に対して音声によってコミュニケーションを図るために用いられる。   A head 46 is attached to the upper part of the human body 22 via a neck joint 44 so as to be able to be elevated and rotated in the same manner as a human head. The three-axis neck joint 44 is controlled by a head motor 48 shown in FIG. Two eye cameras 50 are provided at positions corresponding to the “eyes” on the front surface of the head 46, and the eye camera 50 takes a picture of a human face approaching the robot 10 and other parts and outputs the video signal. take in. A speaker 52 is provided below the eye camera 50 in front of the head 46. The speaker 52 is used for the robot 10 to communicate by voice to the people around it.

上で説明した人体状部22の胴体や頭部46および腕は上記したようにすべて柔軟な素材からなる皮膚24に覆われる。この皮膚24は、図2に示すように、下層のウレタンフォーム54と、その上に積層される比較的肉厚のシリコーンゴム層56aおよび比較的肉薄のシリコーンゴム層56bとを含む。そして、2つのシリコーンゴム層56aおよび56bの間に、ピエゾセンサシート58が埋め込まれる。このピエゾセンサシート58は、圧電フィルム(たとえばPVDF(ポリビニリデンフルオロイド))の両面に金属薄膜が形成された構造、つまり、圧電体が導体で挟まれた構造を有する圧電センサである。ピエゾフィルムは、圧力等で変形されると、両面金属薄膜間にピエゾ電気を発生し、すなわち、そのひずみ速度に応じた電圧を発生する。ピエゾフィルムは、たとえば、30×30mm程度の大きさにカットされ、約5mmの間隔で皮膚24中に配置される。   The torso, head 46 and arms of the human body 22 described above are all covered with the skin 24 made of a flexible material as described above. As shown in FIG. 2, the skin 24 includes a lower urethane foam 54, and a relatively thick silicone rubber layer 56a and a relatively thin silicone rubber layer 56b laminated thereon. A piezo sensor sheet 58 is embedded between the two silicone rubber layers 56a and 56b. The piezo sensor sheet 58 is a piezoelectric sensor having a structure in which a metal thin film is formed on both surfaces of a piezoelectric film (for example, PVDF (polyvinylidene fluoride)), that is, a structure in which a piezoelectric body is sandwiched between conductors. When the piezo film is deformed by pressure or the like, piezo electricity is generated between the metal thin films on both sides, that is, a voltage corresponding to the strain rate is generated. The piezo film is cut into a size of about 30 × 30 mm, for example, and is placed in the skin 24 at an interval of about 5 mm.

皮膚24では、上述のように、発泡ウレタンとシリコーンゴムとを使って柔らかさを得るようにしている。シリコーンゴムだけである程度の厚みと柔らかさとを得ようとすると、重くなりすぎてエネルギ消費量が大きくなるだけでなく、裂傷に弱くなるので、大まかな形と厚みをウレタンフォームで作り、その表面を約20mmのシリコーンゴムで覆う形が採用されている。そして、シリコーンゴム層を2つにし、それらのシリコーンゴム層56aおよび56bの間に、上述のピエゾセンサシート58が埋め込まれる。さらに、内側のシリコーンゴム層56aが厚く(約15mm)され、表面側のシリコーンゴム層56bが薄く(約5mm)される。これによって、ロボット10の振動や人間が表面を押したときに生じる高周波の振動をカットでき、なおかつフィルムが変形し易くなるので、圧力の計測が容易になる。つまり、シリコーンゴム層の厚みはロボット10の構造やパワーによるが、なるべく薄く、しかし変形が伝わり易く、雑音となる振動が伝わり難いものが必要となる。また、この柔らかい皮膚を介して、人との間で触行動によるコミュニケーションを行うことができるので、人に対して安心感を与えて親和性を高めることができるし、触れたりぶつかったりした場合の人の怪我を防止して安全性も高めることができる。   As described above, the skin 24 is made soft by using foamed urethane and silicone rubber. If you try to obtain a certain thickness and softness only with silicone rubber, not only will it become too heavy and energy consumption will increase, but it will also weaken against lacerations, so make a rough shape and thickness with urethane foam and make the surface A shape covered with about 20 mm of silicone rubber is employed. Then, two silicone rubber layers are formed, and the above-described piezo sensor sheet 58 is embedded between the silicone rubber layers 56a and 56b. Further, the inner silicone rubber layer 56a is thickened (about 15 mm), and the front silicone rubber layer 56b is thinned (about 5 mm). As a result, the vibration of the robot 10 and the high-frequency vibration generated when a person pushes the surface can be cut, and the film can be easily deformed, so that the pressure can be easily measured. In other words, the thickness of the silicone rubber layer depends on the structure and power of the robot 10, but it should be as thin as possible, but it is easy for deformation to be transmitted and vibrations that cause noise are difficult to be transmitted. In addition, because it is possible to communicate with people through this soft skin through tactile behavior, it is possible to give a sense of security to people and increase their affinity, and when touching or hitting It can prevent human injury and increase safety.

なお、皮膚24の素材は軟性素材であればよく、上述のものに限定されずたとえば他のゴム素材等でもよい。ただし、ピエゾセンサシートの表面金属薄膜が腐食しない材質である必要がある。また、上述の皮膚24の厚み(各層の厚み)は一例であり、素材等によって適宜変更され得る。また、皮膚24の積層構造も適宜変更可能である。   The material of the skin 24 may be a soft material, and is not limited to the above-described material, and may be another rubber material, for example. However, it is necessary that the surface metal thin film of the piezo sensor sheet is made of a material that does not corrode. Further, the thickness of the skin 24 described above (the thickness of each layer) is an example, and can be appropriately changed depending on the material and the like. Further, the laminated structure of the skin 24 can be changed as appropriate.

このように、人体状部22の全身にわたって多数のピエゾセンサシート(触覚センサエレメント)58が埋め込まれており、全身分布型の高密度で超柔軟の触覚センサ(図3において参照符号「76」で示す。)が構築されている。後述するように、触覚センサ76は、複数のノード80(図4参照)を含むセンサネットワークで構成されており、各ノード80は、複数の触覚センサエレメント58、センサ値読取装置および演算装置等を備えている。この触覚センサ76によって、ロボット10の全身において人間や物の接触によって皮膚24に加えられた圧力を圧覚(触覚)情報として検知することができる。   In this way, a large number of piezo sensor sheets (tactile sensor elements) 58 are embedded throughout the body of the human body-like portion 22, and the whole body distributed type high-density and ultra-flexible tactile sensor (reference numeral “76” in FIG. 3). Is shown). As will be described later, the tactile sensor 76 includes a sensor network including a plurality of nodes 80 (see FIG. 4), and each node 80 includes a plurality of tactile sensor elements 58, a sensor value reading device, an arithmetic device, and the like. I have. The tactile sensor 76 can detect pressure applied to the skin 24 by contact of a person or an object in the whole body of the robot 10 as pressure (tactile) information.

図1に示すロボット10の電気的構成の一例が図3のブロック図に示される。図3に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU60を含み、このCPU60には、バス62を通して、メモリ64,モータ制御ボード66,センサ入力/出力ボード68およびサウンド入力/出力ボード70が接続される。   An example of the electrical configuration of the robot 10 shown in FIG. 1 is shown in the block diagram of FIG. As shown in FIG. 3, the robot 10 includes a microcomputer or CPU 60 for overall control. The CPU 60 is connected to a memory 64, a motor control board 66, a sensor input / output board 68, and a sound through a bus 62. An input / output board 70 is connected.

メモリ64は、図示しないが、ROMやHDD、RAM等を含む。ROMやHDD等にはこのロボット10の制御プログラムが予め書き込まれている。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、外部のコンピュータと通信するためのプログラム等を含む。メモリ64にはまた、コミュニケーション行動を実行するためのデータが記憶され、そのデータは、たとえば、個々の行動を実行する際に、スピーカ52から発生すべき音声または声の音声データ(音声合成データ)、および所定の身振りを提示するための各関節軸の角度制御データ等を含む。RAMは、一時記憶メモリおよびワーキングメモリとして利用される。   Although not shown, the memory 64 includes a ROM, an HDD, a RAM, and the like. A control program for the robot 10 is written in advance in a ROM, HDD, or the like. The control program includes, for example, a program for executing communication behavior and a program for communicating with an external computer. The memory 64 also stores data for executing a communication action. The data is, for example, voice data or voice data (voice synthesis data) to be generated from the speaker 52 when executing each action. And angle control data of each joint axis for presenting a predetermined gesture. The RAM is used as a temporary storage memory and a working memory.

モータ制御ボード66は、たとえばDSP(Digital Signal Processor)で構成され、各腕や頭部などの各軸モータを制御する。すなわち、モータ制御ボード66は、CPU60からの制御データを受け、右肩関節32Rの3軸のそれぞれの角度を制御する3つのモータと右肘関節34Rの1軸の角度を制御する1つのモータとの計4つのモータ(図3ではまとめて、「右腕モータ」として示す。)40の回転角度を調節する。また、モータ制御ボード66は、左肩関節32Lの3軸と左肘関節34Lの1軸、計4つのモータ(図3ではまとめて、「左腕モータ」として示す。)42の回転角度を調節する。モータ制御ボード66は、また、頭部46を変位させる首関節44の3軸のモータ(図3ではまとめて、「頭部モータ」として示す。)48の回転角度を調節する。そして、モータ制御ボード66は、車輪14を駆動する2つのモータ(図3ではまとめて、「車輪モータ」として示す。)16を制御する。   The motor control board 66 is constituted by a DSP (Digital Signal Processor), for example, and controls each axis motor such as each arm and head. That is, the motor control board 66 receives control data from the CPU 60, and controls three motors for controlling the angles of the three axes of the right shoulder joint 32R and one motor for controlling the angles of the one axis of the right elbow joint 34R. The rotation angles of the four motors (collectively shown as “right arm motor” in FIG. 3) 40 are adjusted. Further, the motor control board 66 adjusts the rotation angle of a total of four motors (collectively shown as “left arm motor” in FIG. 3) 42, three axes of the left shoulder joint 32L and one axis of the left elbow joint 34L. The motor control board 66 also adjusts the rotation angle of a three-axis motor 48 (referred to collectively as “head motor” in FIG. 3) 48 of the neck joint 44 that displaces the head 46. The motor control board 66 controls two motors 16 that collectively drive the wheels 14 (collectively shown as “wheel motors” in FIG. 3).

なお、この実施例の上述のモータは、車輪モータ16を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ16と同様に、直流モータであってよい。   The above-described motors of this embodiment are stepping motors or pulse motors for simplifying the control except for the wheel motors 16, but may be direct-current motors similarly to the wheel motors 16.

センサ入力/出力ボード68も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU60に与える。すなわち、図示しない衝突センサの各々からの接触に関するデータがこのセンサ入力/出力ボード68を通して、CPU60に入力される。また、眼カメラ50からの映像信号が、必要に応じてこのセンサ入力/出力ボード68で所定の処理が施された後、CPU60に入力される。   Similarly, the sensor input / output board 68 is configured by a DSP, and takes in signals from each sensor and camera and gives them to the CPU 60. That is, data related to contact from each of the collision sensors (not shown) is input to the CPU 60 through the sensor input / output board 68. Further, a video signal from the eye camera 50 is input to the CPU 60 after being subjected to predetermined processing by the sensor input / output board 68 as necessary.

また、触覚センサ76が、このセンサ入力/出力ボード68に接続されており、CPU60と触覚センサ76はセンサ入力/出力ボード68を介してデータを送受信する。   A tactile sensor 76 is connected to the sensor input / output board 68, and the CPU 60 and the tactile sensor 76 transmit and receive data via the sensor input / output board 68.

サウンド入力/出力ボード70には、スピーカ52およびマイク26が接続される。スピーカ52にはサウンド入力/出力ボード70を介して、CPU60から、合成音声データが与えられ、それに応じて、スピーカ52からはそのデータに従った音声または声が出力される。また、マイク26からの音声入力が、サウンド入力/出力ボード70を介して、CPU60に取り込まれる。   A speaker 52 and a microphone 26 are connected to the sound input / output board 70. The synthesized voice data is given to the speaker 52 from the CPU 60 via the sound input / output board 70, and the voice or voice according to the data is outputted from the speaker 52 accordingly. Also, the voice input from the microphone 26 is taken into the CPU 60 via the sound input / output board 70.

また、CPU60には、バス62を介して通信LANボード72および無線通信装置74が接続される。この通信LANボード72および無線通信装置74によって、ロボット10は外部のコンピュータ等と無線通信を行うことができる。具体的には、通信LANボード72は、DSPで構成され、CPU60からの送信データを無線通信装置74に与え、無線通信装置74から送信データを、図示は省略するが、たとえば無線LANまたはインタネットのようなネットワークを介して、外部のコンピュータに送信させる。また、通信LANボード72は、無線通信装置74を介して外部のコンピュータからのデータを受信し、受信したデータをCPU60に与える。   In addition, a communication LAN board 72 and a wireless communication device 74 are connected to the CPU 60 via a bus 62. The communication LAN board 72 and the wireless communication device 74 allow the robot 10 to perform wireless communication with an external computer or the like. Specifically, the communication LAN board 72 is configured by a DSP, and sends transmission data from the CPU 60 to the wireless communication device 74. The transmission data from the wireless communication device 74 is omitted from illustration, but for example, wireless LAN or Internet It is made to transmit to an external computer via such a network. Further, the communication LAN board 72 receives data from an external computer via the wireless communication device 74 and gives the received data to the CPU 60.

さらに、CPU60には、バス62を介して触覚インタラクションデータベース78が接続される。この触覚インタラクションデータベース78には、ロボット10と人間との間で行われた触覚インタラクションの際に触覚センサ76によって検出されたセンサ時系列データ等が記憶されている。触覚インタラクションデータベース78のデータを元に、触覚インタラクションの識別器や分散処理のための情報が作成される。触覚インタラクションデータベース78は、後述のように実験により構築される。   Further, a tactile interaction database 78 is connected to the CPU 60 via the bus 62. The tactile interaction database 78 stores sensor time-series data detected by the tactile sensor 76 during tactile interaction performed between the robot 10 and a human. Based on the data in the haptic interaction database 78, a haptic interaction identifier and information for distributed processing are created. The haptic interaction database 78 is constructed by experiments as will be described later.

触覚センサ76の電気的構成の一例が図4のブロック図に示される。触覚センサ76は複数のノード80を含み、各ノード80は複数の触覚センサエレメント58を備えている。複数のノード80はバス82を介して相互に接続される。バス82はたとえばRS422シリアルバスであり、センサ入力/出力ボード68に設けられるシリアル通信ポートに接続されている。このように、複数のノード80およびCPU60がセンサネットワークを構成しており、接続された経路を介して通信を行う。   An example of the electrical configuration of the tactile sensor 76 is shown in the block diagram of FIG. The tactile sensor 76 includes a plurality of nodes 80, and each node 80 includes a plurality of tactile sensor elements 58. The plurality of nodes 80 are connected to each other via a bus 82. The bus 82 is, for example, an RS422 serial bus, and is connected to a serial communication port provided on the sensor input / output board 68. As described above, the plurality of nodes 80 and the CPU 60 form a sensor network, and perform communication via the connected paths.

なお、触覚センサ76のネットワーク構造は適宜変更可能であり、たとえば、本出願人による上述の特開2006−287520号公報に開示されるような相互接続型のセンサネットワークが構築されてもよい。   The network structure of the tactile sensor 76 can be changed as appropriate. For example, an interconnected sensor network as disclosed in the above-mentioned Japanese Patent Application Laid-Open No. 2006-287520 by the present applicant may be constructed.

各ノード80は基板84を含み、この基板84に当該ノード80に所属する複数の触覚センサエレメント58が接続される。また、基板84には、センサ値読取装置としてのA/D変換器88および増幅器90、ならびに演算装置としてのプロセッサユニット86が設けられている。各触覚センサエレメント58からの配線は増幅器90に接続されている。   Each node 80 includes a substrate 84 to which a plurality of tactile sensor elements 58 belonging to the node 80 are connected. The substrate 84 is provided with an A / D converter 88 and an amplifier 90 as a sensor value reading device, and a processor unit 86 as an arithmetic device. The wiring from each tactile sensor element 58 is connected to the amplifier 90.

なお、基板84と所属する各触覚センサエレメント58との配線長を短くするために、各ノード80の基板84は、所属する各触覚センサエレメント58のなるべく近傍になるように筐体内において配置される。たとえば、200−300枚程度の触覚センサエレメント58がロボット10の全身の皮膚24中に分布されており、また、十数枚程度の基板84が設けられる。各基板84には数十枚程度の触覚センサエレメント58が割り当てられる。   In order to shorten the wiring length between the board 84 and each tactile sensor element 58 belonging thereto, the board 84 of each node 80 is arranged in the housing so as to be as close as possible to each tactile sensor element 58 to which it belongs. . For example, about 200 to 300 tactile sensor elements 58 are distributed in the skin 24 of the whole body of the robot 10, and about ten or more substrates 84 are provided. About several tens of tactile sensor elements 58 are assigned to each substrate 84.

各触覚センサエレメント58の出力信号は、増幅器90で電流増幅された後、A/D変換器88によってディジタルデータに変換される。このA/D変換器88は、たとえば16bit、100Hzの時空間分解能でサンプリングを行う。A/D変換器88でサンプリングされたデータはプロセッサユニット86に与えられる。   The output signal of each tactile sensor element 58 is current amplified by an amplifier 90 and then converted into digital data by an A / D converter 88. The A / D converter 88 performs sampling with a spatiotemporal resolution of, for example, 16 bits and 100 Hz. The data sampled by the A / D converter 88 is given to the processor unit 86.

プロセッサユニット86は、ノードプロセッサであり、つまり、当該ノード80の制御および通信制御を行うマイクロコンピュータである。プロセッサユニット86は、ROMおよびRAMなどのメモリを内蔵している。内蔵メモリのROMにはノード80の動作を制御するためのプログラムおよびデータが予め記憶される。A/D変換器88で読み取られた各触覚センサエレメント58のセンサ出力データ(時系列データ)は、内蔵メモリのRAMに記憶される。このプロセッサユニット86により、センサ時系列データの処理を各ノード80において行うことができる。また、このプロセッサユニット86が上述のバス82に接続されており、他のノード80のプロセッサユニット86およびCPU60との間で通信を行う。   The processor unit 86 is a node processor, that is, a microcomputer that controls the node 80 and performs communication control. The processor unit 86 includes a memory such as a ROM and a RAM. A program and data for controlling the operation of the node 80 are stored in advance in the ROM of the built-in memory. The sensor output data (time series data) of each tactile sensor element 58 read by the A / D converter 88 is stored in the RAM of the built-in memory. With this processor unit 86, sensor time-series data can be processed in each node 80. The processor unit 86 is connected to the above-described bus 82 and communicates with the processor unit 86 and the CPU 60 of another node 80.

このような全身分布型触覚センサ76を有するロボット10における大量の触覚センサエレメント58の管理という課題に対し、本発明者らは、認識に必要なセンサに注目するための手法を発明した。本手法では、ロボット10と人間とのコミュニケーションのうち、人間の触行動を伴う触覚インタラクションの際の触覚センサ76の時系列データを記録し、全センサ間の時系列出力から相関値を算出し、これらを特徴空間とした触覚インタラクションの識別器を構成する。この識別器の出力に有用な部分空間を取り出すことで、各触覚インタラクション識別に有用なセンサの組み合わせを決定することができる。これを、触覚インタラクションに基づく触覚センサエレメントの自己組織化と呼ぶ。   In response to the problem of managing a large number of tactile sensor elements 58 in the robot 10 having such a whole body distribution type tactile sensor 76, the present inventors have invented a method for paying attention to sensors necessary for recognition. In this method, the time series data of the tactile sensor 76 at the time of tactile interaction accompanied by human tactile behavior among the communication between the robot 10 and the human is recorded, and the correlation value is calculated from the time series output between all the sensors. A tactile interaction classifier using these as feature spaces is constructed. By extracting a subspace useful for the output of the discriminator, it is possible to determine a combination of sensors useful for discriminating each haptic interaction. This is called self-organization of tactile sensor elements based on tactile interaction.

識別器の構成には、部分空間法の1つであるCLAFIC法(CLAss-Featuring Information Compression)を用いる。CLAFIC法は、各クラスの特徴データのKL展開よりクラスごとの部分空間を作成し、その各部分空間に特徴ベクトルを写像し、写像後のノルムが最大になる部分空間を構成するクラスを識別結果として出力する手法である。もともとこの手法は、1960年代にWatanabeらが、多数の特徴ベクトルを多次元の特徴空間の中にプロットすると、多くの場合小さな部分空間の中に偏って分布することに着目した[渡辺慧,“認識とパタン”,(岩波新書),岩波書店,1986(絶版)]ことに始まる。相互相関マトリクスの上三角部分より構成する特徴空間は、触覚センサエレメント数をNとするとO(N)の超多次元の特徴空間となるため、この場合も特徴ベクトルが小さな部分空間の中に偏って分布することが予想できる。つまり、その小さな部分空間に注目して識別器を構成することによってデータの次元圧縮が期待できる。 For the configuration of the discriminator, a CLAFIC method (CLAss-Featuring Information Compression) which is one of the subspace methods is used. The CLAFIC method creates a subspace for each class from the KL expansion of the feature data of each class, maps the feature vector to each subspace, and identifies the classes that make up the subspace with the maximum norm after mapping It is a method to output as. Originally, Watanabe et al. Focused on the fact that when many feature vectors were plotted in a multidimensional feature space in the 1960s, they were often distributed in a small subspace [Watanabe, “ "Recognition and Pattern", (Iwanami Shinsho), Iwanami Shoten, 1986 (out of print)]. The feature space formed by the upper triangular part of the cross-correlation matrix is an O (N 2 ) super multidimensional feature space where the number of tactile sensor elements is N. In this case as well, the feature vector is in a small subspace. It can be expected to be unevenly distributed. In other words, the dimensional compression of data can be expected by configuring the discriminator by paying attention to the small subspace.

本手法ではさらに、選択した正規直交ベクトルと特徴空間の基底ベクトルとの内積が大きいもののみを選択することによりさらなる次元圧縮を試みる。最終的に次元圧縮された空間は、もとの特徴ベクトルを張る基底ベクトルの一部の線形結合和で表せる部分空間となる。その部分空間で構成される識別器の出力は、絶対値の大きい各成分の行と列にあたるセンサエレメント出力のみから近似的に計算可能となる。その組み合わせから分散処理におけるセンサエレメントの境界を決定することができる。   In this method, further dimension reduction is attempted by selecting only those having a large inner product between the selected orthonormal vector and the basis vector of the feature space. The dimension-compressed space finally becomes a subspace that can be expressed by a linear combination sum of a part of the basis vectors that stretch the original feature vector. The output of the discriminator constituted by the partial space can be approximately calculated only from the sensor element output corresponding to the row and column of each component having a large absolute value. The boundary of the sensor element in the distributed processing can be determined from the combination.

識別器の特徴空間は、相互相関マトリクスの上三角行列部分をベクトル化したものを用いる。つまり、特徴ベクトルaは、N個ある触覚センサエレメントのうち(i,j)間の相互相関係数Rij(i<j,対称成分を除く上三角行列部分)より次の数1のように定義される。 As the feature space of the discriminator, a vector obtained by vectorizing the upper triangular matrix portion of the cross-correlation matrix is used. That is, the feature vector a is expressed by the following equation 1 from the cross-correlation coefficient R ij (i <j, upper triangular matrix excluding symmetric components) between (i, j) among the N tactile sensor elements. Defined.

なお、P個のセンサエレメントが、ある等間隔の離散時間でサンプリングされ、i番目の離散時系列データベクトルとしてS(i=1,…,P)が得られたとする。このとき、i番目とj番目のセンサの相互相関係数Rijは共分散をCij(S,S)とすると次の数2で求められる。 Note that it is assumed that P sensor elements are sampled at discrete intervals at equal intervals, and S i (i = 1,..., P) is obtained as the i-th discrete time series data vector. At this time, the cross-correlation coefficient R ij of the i-th sensor and the j-th sensor can be obtained by the following formula 2, where C ij (S i , S j ) is covariance.

特徴ベクトルaに触覚インタラクションのクラス(種類)c(これをωと表す)を関連づけ、それを列成分として並べたデータセットをXとして準備する。部分空間法より構成される任意のクラスの識別関数は、データセットXを次の数3のように特異値分解した結果を用いることができる。 A tactile interaction class (kind) c (represented as ω C ) is associated with the feature vector a, and a data set in which these are arranged as column components is prepared as X C. The discriminant function of an arbitrary class constituted by the subspace method can use the result of singular value decomposition of the data set X as shown in the following Equation 3.

ここで、Uは正規直交ベクトルu1,u2,…,urを並べた行列であり、左特異ベクトルと呼ばれ、KL展開で求まる各固有値に対応する固有ベクトルに相当する。Vは右特異ベクトル、Dλは特異値λ1,…,λrを対角要素にもつ対角行列である。 Here, U is a matrix in which orthonormal vectors u 1 , u 2 ,..., U r are arranged, which is called a left singular vector, and corresponds to an eigenvector corresponding to each eigenvalue obtained by KL expansion. V is a right singular vector, and D λ is a diagonal matrix having singular values λ 1 ,..., Λ r as diagonal elements.

これより未知ベクトルxに対する各クラスの識別関数出力DF(x)は、正規直交ベクトルuijを特異値の大きいものから順にd,d,…,dまで採用し、次の数4のように表すことができる。 From this for each class for an unknown vector x discriminant function output DF i (x) is, d 1 an orthonormal vector u ij from the largest singular value in order, d 2, ..., adopted to d i, the number of the next 4 It can be expressed as

ここで、dは累積寄与率に関する閾値Cをもとに決定する。つまり、閾値Cにより、部分空間を構成するベクトルの上位何番目までを採用するかが決められる。 Here, d i is determined based on the threshold C 1 relates cumulative contribution ratio. In other words, the threshold value C 1, or is determined to adopt to the most ordinal number of vectors constituting a subspace.

本手法では、さらにリジェクト領域を導入する方法としてWatanabeらのいう忠実度τを用いた基準を多クラス問題に拡張して導入し、次の数5の関係式が成り立たない場合には、どのクラスにも属さないリジェクトと判定する。つまり、各クラスの識別関数出力のうちクラスlが最大であるとき、   In this method, the standard using Watanabe et al., Which uses fidelity τ, is introduced as a method for introducing a reject area. If the following equation (5) does not hold, It is determined as a reject that does not belong to any. That is, when class l is the maximum among the discriminant function outputs of each class,

上述のように導出した識別関数から特徴空間を構成する基底のうち、出力に有用な部分空間を決定する。これは、識別関数により基底の重みが表されている点に注目した、Ishiguroら[Hiroshi Ishiguro, Masatoshi Kamiharako and Toru Ishida,“State Space Construction by Attention Control”, International Joint Conference on Artificial Intelligence (IJCAI-99), pp. 1131-1137, 1999.]のいうアテンションコントロールと共通している。   Of the bases constituting the feature space, the subspace useful for output is determined from the discriminant function derived as described above. This is because Ishiguro et al. [Hiroshi Ishiguro, Masatoshi Kamiharako and Toru Ishida, “State Space Construction by Attention Control”, International Joint Conference on Artificial Intelligence (IJCAI-99 ), pp. 1131-1137, 1999.].

ijのp番目の成分(uijがほぼ0である場合に、(uij=0とした新たなベクトル~uijを作る。すなわち、0に十分近い適当な閾値Cを決め、絶対値がCより小さいuijの成分を0とした新たなベクトルu ijを作る。ただし、次の数6の関係が成立する。この閾値Cにより、どの触覚センサエレメントの組に注目するかが決められる。 when p th component of u ij (u ij) p is approximately 0, make a new vector ~ u ij which was (u ij) p = 0. That is, an appropriate threshold value C 2 that is sufficiently close to 0 is determined, and a new vector u * ij is generated with the component of u ij having an absolute value smaller than C 2 as 0. However, the following relationship of Equation 6 is established. The threshold C 2, or of interest is determined in which set of the tactile sensor element.

このu ijに対して、u ijの正規直交性(数7)を近似的に仮定する。 For this u * ij , the orthonormality (Equation 7) of u * ij is assumed approximately.

識別関数DF (x)は最終的に次の数8で表される。 The discriminant function DF * i (x) is finally expressed by the following formula 8.

最終的な識別関数であるDF (x)は、数8より、未知のベクトルxとu ijの内積の形をしている。そのため、この内積を求めるにはxの成分のうち、u ijの0以外の成分に対応するx,{p|(u ij≠0}を知ることができればよい。未知パターンxを特徴ベクトルで表したときのベクトルの成分は、数1で定義したように相互相関マトリクスの上三角部分の(N−1)N/2個をならべた特徴ベクトルaの定義より、次の数9のR(rq,sq)に対応する。 The final discriminant function DF * i (x) is in the form of the inner product of the unknown vector x and u * ij from Equation 8. Therefore, in order to obtain this inner product, it is only necessary to know x p , {p | (u * ij ) p ≠ 0} corresponding to components other than 0 of u * ij among the components of x. The component of the vector when the unknown pattern x is represented by a feature vector is defined by the feature vector a including (N−1) N / 2 of the upper triangular portion of the cross-correlation matrix as defined by Equation 1. This corresponds to R (r q , s q ) in the following equation (9).

その相互相関マトリクスの成分がR(rq,sq)であるので、そのときの行と列の番号の組(rq,sq)を順番に並べていくと、相互相関を求めるために必要になるセンサエレメント出力の組となる。 Since the component of the cross-correlation matrix is R (r q , s q ), it is necessary to obtain the cross-correlation when the row and column number pairs (r q , s q ) are arranged in order. It becomes a set of sensor element outputs.

このN組のセンサエレメント出力(Srq,Ssq)の相互相関係数が実際に識別関数DF (x)の出力に関係する成分であり、この成分が計算できるようなN個の相互相関マトリクスの成分を計算するだけでよいことになる。ただし、iは各クラスω,…,ω,…,ωに対応しており、N≦D=(N−1)N/2,r=(r,r,…,rNi),s=(s,s,…,sNi)である。 The cross-correlation coefficients of the N i sensor element outputs (Sr q , Ss q ) are components that are actually related to the output of the discriminant function DF * i (x), and N i pieces that can be calculated It is only necessary to calculate the components of the cross correlation matrix. Here, i corresponds to each class ω 1 , ω 2 ,..., Ω i ,..., Ω C , and N i ≦ D = (N−1) N / 2, r = (r 0 , r 1 , .., R Ni ), s = (s 0 , s 1 ,..., S Ni ).

この組み合わせに入っていないセンサエレメントと入っているセンサエレメントの間で、識別に使うかどうかの境界が引ける。以上の定式化を実際のセンサエレメント出力に適用することによって、識別に必要なセンサエレメントを決定することができる。   Between the sensor element that is not included in this combination and the sensor element that is included, a boundary can be drawn as to whether to use for identification. By applying the above formulation to the actual sensor element output, the sensor element necessary for identification can be determined.

本手法を適用する触覚インタラクションデータベース78は、ロボット10と人間との間のコミュニケーション実験により構築される。実験では、人間の触行動を伴う様々なコミュニケーションを人間とロボット10との間で行わせ、そのような触覚インタラクションごとの触覚センサ76のセンサ時系列データを記録する。   The tactile interaction database 78 to which this method is applied is constructed by a communication experiment between the robot 10 and a human. In the experiment, various communications involving human tactile behavior are performed between the human and the robot 10, and sensor time-series data of the tactile sensor 76 for each such tactile interaction is recorded.

具体的には、この実施例のような全身の体表が柔軟な皮膚24で覆われており人間が安全に触ることのできるロボット10に対しては、人間は様々な触行動を行う。このロボット10を大阪市立科学館に展示し来館者にロボット10と自由に遊んでもらう実験では、頭をなでる、抱っこする、ロボット10を触るというような触行動を伴う触覚インタラクションが観察された。この実験で観察されたインタラクションを元に、統制実験のためのシナリオを準備した。シナリオの各ステップではロボット10が対面する相手に触行動を促すための働き掛けを行い、被験者の触行動が終わった段階で次のステップに進むというルールから成っている。このルールをもとにロボット10をWOZ(Wizard of OZ)法によって制御する。つまり、オペレータがロボット10の行動の遷移を遠隔制御する。具体的には、シナリオおよびルールに従ってオペレータが外部コンピュータを操作することによって、外部コンピュータがロボット10に各ステップの行動(働き掛け)の実行コマンドを送信する。当該コマンドの受信に応じて、ロボット10が当該コマンドに対応する行動を行うためのプログラムを実行する。これによって、ロボット10が音声および身振りの少なくとも一方を用いて当該行動を実行し、それに応じた人間のロボット10に対する行動が期待されるので、そのような触覚インタラクションを触覚センサ76によって計測する。   Specifically, the human body performs various tactile actions with respect to the robot 10 whose whole body surface is covered with the flexible skin 24 and can be safely touched by the human body as in this embodiment. In an experiment in which the robot 10 was exhibited at the Osaka City Science Museum and visitors were allowed to play freely with the robot 10, tactile interaction involving tactile behavior such as stroking the head, holding it, and touching the robot 10 was observed. Based on the interaction observed in this experiment, a scenario for the control experiment was prepared. Each step of the scenario consists of a rule that the robot 10 performs an action for prompting the opponent to face and touches the opponent, and proceeds to the next step when the subject's touch action is finished. Based on this rule, the robot 10 is controlled by the WOZ (Wizard of OZ) method. That is, the operator remotely controls the transition of the action of the robot 10. Specifically, when an operator operates an external computer according to a scenario and a rule, the external computer transmits an execution command for action (working) of each step to the robot 10. In response to receiving the command, the robot 10 executes a program for performing an action corresponding to the command. As a result, the robot 10 executes the action using at least one of voice and gesture, and a corresponding action on the human robot 10 is expected. Therefore, such a tactile interaction is measured by the tactile sensor 76.

シナリオの一例が図5に示されている。この図5のシナリオをもとにロボット10と人間をインタラクションさせることにより、15種類の働き掛けに対応する触覚コミュニケーションが時系列順にクラス1からクラス15として観察されることが期待できる。   An example scenario is shown in FIG. By interacting the robot 10 with a human based on the scenario of FIG. 5, it can be expected that tactile communication corresponding to 15 kinds of actions is observed as class 1 to class 15 in time series.

図5のシナリオを簡単に説明すると、まず、ステップS1で、ロボット10は振り向く行動を実行し、人間に顔を向ける。次に、ステップS3で、「こんにちは」行動を実行し、つまり、「こんにちは」と発話する。この働き掛けに対する触覚インタラクションがクラス1であり、触覚センサ76のセンサ時系列データがクラス1に対応付けて触覚インタラクションデータベース78に記憶される。   The scenario of FIG. 5 will be described briefly. First, in step S1, the robot 10 performs a turning action and turns its face to a human. Then, in step S3, run the "Hello" behavior, in other words, uttered as "Hello". The tactile interaction for this action is class 1, and the sensor time series data of the tactile sensor 76 is stored in the tactile interaction database 78 in association with class 1.

続いて、ステップS5で、「握手してね」行動を実行し、つまり、「握手してね」と発話し右手を前に差し出す。これに対しては、人間の触行動すなわち握手が期待できる。この「握手してね」に対応する触覚インタラクションがクラス2である。人間が握手してくれない場合には、オペレータは、ステップS7で“NO”と判断する。したがって、ステップS9の「どうしてしてくれないの?」の発話を実行してから、再びステップS5の「握手してね」行動を実行する。人間が握手してくれるまでこれを繰返す。人間が握手してくれた場合には、その触行動のセンサ時系列データがクラス2に対応付けて記憶される。   Subsequently, in step S5, the action “shake handshake” is executed, that is, “shake handshake” and the right hand is presented forward. For this, a human tactile action, that is, a handshake can be expected. The tactile interaction corresponding to this “shake handshake” is class 2. If the person does not shake hands, the operator determines “NO” in step S7. Therefore, after executing the utterance “Why not?” In step S9, the “shake handshake” action in step S5 is executed again. Repeat this until humans shake hands. When humans shake hands, sensor time-series data of the tactile behavior is stored in association with class 2.

続いて、ステップS11で「よろしくね」行動を実行し、つまり、「よろしくね」と発話する。これに対する触覚インタラクションがクラス3であり、触覚センサ76のセンサ時系列データがクラス3に対応付けて記憶される。続くステップS13で「あなたの名前は」行動を実行し、つまり、「あなたの名前は」と発話する。これに対する触覚インタラクションがクラス4である。人間が名前を答えてくれない場合には、オペレータはステップS15で“NO”と判断し、答えがあるまでステップS13の「あなたの名前は」行動を繰返す。人間が名前を答えてくれた場合には、そのときの触覚センサ76のセンサ時系列データがクラス4に対応付けて記憶される。   Subsequently, in step S11, the “Let me be happy” action is executed, that is, “Let me be grateful”. The tactile interaction with respect to this is class 3, and the sensor time-series data of the tactile sensor 76 is stored in association with class 3. In the subsequent step S13, the action “Your name is” is executed, that is, “Your name is”. The haptic interaction for this is class 4. If the person does not answer the name, the operator determines “NO” in step S15, and repeats the action “your name is” in step S13 until there is an answer. When a person answers the name, the sensor time series data of the tactile sensor 76 at that time is stored in association with the class 4.

続いて、ステップS17で「どこから来たの」行動を実行し、つまり、「どこから来たの」と発話する。これに対する触覚センサ76のセンサ時系列データがクラス5に対応付けて記憶される。   Subsequently, in step S17, the action “from where” is executed, that is, “from where” is spoken. The sensor time series data of the touch sensor 76 corresponding to this is stored in association with class 5.

続くステップS19では、「遊ぼうよ」行動を実行し、つまり、「遊ぼうよ」と発話する。これに対する触覚インタラクションがクラス6である。この「遊ぼうよ」に対して、たとえば「遊ぼうね」などの肯定的な反応を人間がしない場合には、オペレータは、ステップS21で“NO”と判断する。したがって、ステップS23の「どうして」の発話を実行してから、ステップS19の「遊ぼうよ」を実行する。人間が肯定的な反応を返すまでこれを繰返す。人間が肯定的な反応をしてくれた場合、そのときのセンサ時系列データがクラス6に対応付けて記憶される。   In the subsequent step S19, an action of “Let's play” is executed, that is, “Let's play” is spoken. The haptic interaction for this is class 6. If a human does not respond to this “Let's play” positive response such as “Let's play”, the operator determines “NO” in step S21. Therefore, after executing “why” utterance in step S23, “play” is executed in step S19. Repeat this until the human responds positively. When a human responds positively, the sensor time-series data at that time is stored in association with class 6.

続いて、ステップS25で「かわいいかなぁ」行動を実行し、つまり、「かわいいかなぁ」と発話する。これに対する触覚インタラクションがクラス7であり、人間が「かわいいよ」などの肯定的な反応をしてくれた場合には、そのときのセンサ時系列データがクラス7に対応付けて記憶される。   Subsequently, in step S25, an action “Kana Kana” is executed, that is, “Kana Kana” is spoken. When the tactile interaction with respect to this is class 7 and a human gives a positive response such as “It's cute”, the sensor time-series data at that time is stored in association with class 7.

そして、オペレータはステップS27で“YES”と判断する。したがって、ステップS29で「よしよししてほしいな」行動を実行し、つまり、「よしよししてほしいな」と発話する。これに対しては、典型的には人間がロボット10の頭部46を撫でるような触行動が期待できる。この触覚インタラクションがクラス8であり、そのセンサ時系列データがクラス8に対応付けて記憶される。   Then, the operator determines “YES” in the step S27. Accordingly, in step S29, an action “I want you to be good” is executed, that is, “I want you to be good”. For this, typically, a touching action in which a human strokes the head 46 of the robot 10 can be expected. This tactile interaction is class 8, and the sensor time series data is stored in association with class 8.

ステップS29で人間が触行動をしてくれた場合、オペレータはステップS31で“YES”と判断する。したがって、ステップS33で「わーいわーい」行動を実行し、つまり、「わーいわーい」と発話して喜びを表現する。これに対する触覚インタラクションがクラス9であり、そのセンサ時系列データがクラス9に対応付けて記憶される。   When a human makes a tactile action in step S29, the operator determines “YES” in step S31. Therefore, “Wai Wai” action is executed in step S33, that is, “Wai Wai” is spoken to express joy. The tactile interaction with respect to this is class 9, and the sensor time-series data is stored in association with class 9.

なお、ステップS25の「かわいいかなぁ」行動に対して「かわいくない」などの否定的な発話や叩くなどの行動があったりした場合には、オペレータはステップS27で“NO”と判断し、ステップS35の「どうして」の発話を実行する。そして、ステップS37の「えーんえーん」の発話(泣く振り)を実行する。また、ステップS29の「よしよししてほしいな」行動に対する触行動が行われず、ステップS31で“NO”と判断される場合にも、ステップS37の「えーんえーん」と泣き声を発して悲しみを表現する。   If there is a negative utterance or hitting action such as “not cute” in response to the “cute kana” action in step S25, the operator determines “NO” in step S27, and the step The "why" utterance in S35 is executed. Then, the utterance (waving crying) of “ENEN” in step S37 is executed. In addition, even when the touching action for the “I want to do it” action in step S29 is not performed and “NO” is determined in step S31, a sad cry is made in step S37. Express.

続いて、ステップS39で「もっと遊びたいなぁ」行動を実行し、つまり、「もっと遊びたいなぁ」と発話する。これに対する触覚インタラクションがクラス10であり、そのセンサ時系列データがクラス10に対応付けて記憶される。   Subsequently, in step S39, an action “I want to play more” is executed, that is, “I want to play more” is spoken. The tactile interaction with respect to this is class 10, and the sensor time-series data is stored in association with class 10.

続くステップS41では、「こちょこちょしてほしいな」行動を実行し、つまり、「こちょこちょしてほしいな」と発話するとともに、両腕を動かして脇を開ける。これに対しては、典型的には人間がロボット10の脇などをくすぐるような触行動が期待できる。この触覚インタラクションがクラス11であり、そのセンサ時系列データがクラス11に対応付けて記憶される。   In the following step S41, an action “I want you to do this” is executed, that is, “I want you to do this”, and both arms are moved to open the side. In response to this, typically, a human touching action such as tickling the side of the robot 10 can be expected. This tactile interaction is class 11, and the sensor time-series data is stored in association with class 11.

なお、人間がロボット10に対して「こちょこちょ」に対応する触行動をしてくれない場合には、オペレータはステップS43で“NO”と判断する。したがって、ステップS45で「どうしてくれないの」の発話を実行してから、ステップS41の「こちょこちょしてほしいな」を再び実行する。人間が触行動を返すまでこれを繰返す。   If the human does not touch the robot 10 in response to the touch, the operator determines “NO” in step S43. Therefore, after executing the utterance “I can't do it” in step S45, “I want you to do this” in step S41 is executed again. This is repeated until the human returns to touch.

人間が対応する触行動をしてくれた場合には、オペレータはステップS43で“YES”と判断する。そして、続くステップS47で、「くすぐったい」行動を実行し、つまり、「くすぐったい」と発話する。これに対する人間の触覚インタラクションがクラス12であり、そのセンサ時系列データがクラス12に対応付けて記憶される。   If a human performs a corresponding touch action, the operator determines “YES” in step S43. In the subsequent step S47, the “tickling” action is executed, that is, “tickling” is spoken. The human tactile interaction with respect to this is class 12, and the sensor time-series data is stored in association with class 12.

続いて、ステップS49で、「ありがとうね」行動を実行し、つまり、「ありがとうね」と発話する。これに対する触覚インタラクションで検出されたセンサ時系列データがクラス13として記憶される。   Subsequently, in step S49, the “thank you” action is executed, that is, “thank you” is spoken. Sensor time-series data detected by haptic interaction is stored as class 13.

ステップS51では、「だっこしてね」行動を実行し、つまり、「だっこしてね」と発話するとともに、両腕を開いた状態で前に出す。これに対しては、典型的には人間がロボット10を両腕の中に抱くような触行動が期待できる。この触覚インタラクションがクラス14であり、そのセンサ時系列データがクラス14に対応付けて記憶される。   In step S51, the “do it with me” action is executed, that is, “do it with me” and speak out with both arms open. In response to this, typically, a tactile action in which a human holds the robot 10 in both arms can be expected. This tactile interaction is class 14, and the sensor time series data is stored in association with class 14.

そして、ステップS53で「ばいばい」行動を実行し、つまり、腕を振りながら「ばいばい」と発話する。これに対する触覚インタラクションのセンサ時系列データがクラス15として記憶される。ステップS53を終了すると、このシナリオに基づく一連のコミュニケーションが終了する。   Then, in step S53, the “seating” action is executed, that is, “wasting” is spoken while waving the arm. Sensor time series data of tactile interaction corresponding to this is stored as class 15. When step S53 ends, a series of communications based on this scenario ends.

このように、触覚インタラクションのシナリオには、ロボット10の働き掛けに対して人間が触行動を返してくれることが期待できるものと、必ずしも触行動が期待できないものとが含まれているが、いずれの触覚インタラクションにおいても触覚センサ76で検出されるセンサ時系列データが各クラス番号に対応付けて記憶される。また、このような予め決めておいたシナリオに基づいて一連のコミュニケーションを実行する場合には、センサ時系列データに自動的にクラス番号を関連付けてデータベースに記憶することが可能であり、オペレータが触覚インタラクションのクラス番号を入力しなくてよい。   As described above, the tactile interaction scenario includes a scenario in which a human can expect to return a tactile behavior to an action of the robot 10 and a scenario in which a tactile behavior cannot be expected. Also in tactile interaction, sensor time series data detected by the tactile sensor 76 is stored in association with each class number. In addition, when a series of communications is executed based on such a predetermined scenario, it is possible to automatically associate a class number with the sensor time-series data and store it in the database so that the operator can sense the tactile sense. You don't have to enter the interaction class number.

図5のシナリオを用いて実際に発明者等が行った実験と、その実験で構築された触覚インタラクションデータベースに本手法を適用した結果について説明する。この実験においては、ロボット10の正面を0度として、右斜め45度、正面0度、左斜め45度の3方向にロボットから約2m離れた位置を触覚インタラクションシナリオのスタート位置とした。被験者はそれぞれ1回ずつ各スタート位置から始まるロボット10との触覚インタラクションを実施し、一人の計3回を10分間の休憩を挟んで行った。実験の1回あたりの実施時間は約5分である。被験者は大学生の男女48人を対象に行い、各被験者には基本的にはロボット10と自由に遊んでもらうように指示したあと、実験条件として、(1)ロボット10の全身は自由に触ってもよいこと、(2)ロボット10の言っている事をよく聞いて遊んでもらうこと、(3)実験が始まったらスタート位置よりロボット10に近づき、触れて、呼びかけること、の3点を説明した。ロボット10や構築システムの故障などデータベースが構築できなかった場合を除き、シナリオに沿って制御されたロボット10と人間との触覚インタラクションデータベースを、延べ約120ケースについて構築した。   An experiment actually conducted by the inventors using the scenario of FIG. 5 and a result of applying this method to a haptic interaction database constructed in the experiment will be described. In this experiment, the front of the robot 10 was set to 0 degree, and a position about 2 m away from the robot in three directions of 45 degrees to the right, 0 degrees to the front, and 45 degrees to the left was set as the start position of the tactile interaction scenario. Each test subject performed a tactile interaction with the robot 10 starting from each start position once, and a total of three times per person with a 10-minute break. The duration of one experiment is about 5 minutes. The subjects were 48 male and female university students, and each subject was basically instructed to freely play with the robot 10, and then, as experimental conditions, (1) the robot 10 was touched freely. I explained three points: (2) listening to what the robot 10 said and playing with it, (3) approaching the robot 10 from the starting position, touching, and calling when the experiment started. . Except for the case where the database could not be constructed due to failure of the robot 10 or the construction system, a tactile interaction database between the robot 10 and the human being controlled according to the scenario was constructed for a total of about 120 cases.

図6には、上述の図5のシナリオに基づく15クラスの触覚インタラクションの認識率が示され、図7にはそれらの誤認識率が示される。図6および図7ともに、横軸に各クラス1〜15が対応する。また、図6および図7ともに、識別関数を構成する正規直交ベクトルの数を決める閾値Cと、正規直交ベクトルの成分のうち0とする成分数を決定する閾値Cとを組み合わせた6つの条件での結果が示されている。識別器の性能評価は、認識率および誤認識率ともに1点除外法による交差検証により行った。なお、忠実度τ(数5)は、認識率が下がりすぎず誤認識率が低くなるように実験的に0.95を採用した。 FIG. 6 shows the recognition rates of 15 classes of haptic interactions based on the scenario of FIG. 5 described above, and FIG. 7 shows their false recognition rates. In both FIG. 6 and FIG. 7, each of the classes 1 to 15 corresponds to the horizontal axis. 6 and FIG. 7, six threshold values C 1 for determining the number of orthonormal vectors constituting the discriminant function and six threshold values C 2 for determining the number of components to be zero among the components of the orthonormal vectors are combined. Results with conditions are shown. The performance of the classifier was evaluated by cross-validation using the one-point exclusion method for both the recognition rate and the misrecognition rate. As the fidelity τ (Equation 5), 0.95 was experimentally adopted so that the recognition rate was not lowered too much and the erroneous recognition rate was lowered.

今回構成した識別器は、性能評価の結果を示す図6および図7より、人間からの触行動が期待できる触覚インタラクションにおいては高い識別率を示している。つまり、本手法は触覚インタラクションの識別に有効な手法であると言うことができる。   The discriminator constructed this time shows a high discrimination rate in the haptic interaction that can be expected to be touched by humans, as shown in FIG. 6 and FIG. 7 showing the results of the performance evaluation. In other words, this method can be said to be an effective method for identifying haptic interactions.

=1.00の条件では、ケース数に相当する基底ベクトルから構成される約120次元の全特徴空間を用いた識別器となる。一方、C=0.15の条件では、各クラスの基底ベクトル数は3−7の範囲内であった。つまり、C=0.15の条件では、3〜7次元の特徴空間の部分空間を用いた識別器となる。したがって、図6および図7から分かるように、基底ベクトルの数が少ない条件(C=0.15)の方が識別器の性能が良くなっている。これにより、大きな特異値に対応する基底ベクトルが張る部分空間に各インタラクションの特徴が現れていることが予想できる。 Under the condition of C 1 = 1.00, the discriminator uses a total feature space of about 120 dimensions composed of basis vectors corresponding to the number of cases. On the other hand, under the condition of C 1 = 0.15, the number of basis vectors for each class was in the range of 3-7. That is, under the condition of C 1 = 0.15, the discriminator uses a partial space of a 3-7 dimensional feature space. Therefore, as can be seen from FIGS. 6 and 7, the performance of the discriminator is better under the condition where the number of basis vectors is smaller (C 1 = 0.15). Thereby, it can be expected that the feature of each interaction appears in the subspace spanned by the basis vector corresponding to the large singular value.

実際、最も大きな特異値に対応する正規直交ベクトルui1より作成した、図8に示す体性感覚マップにその特徴が現れている。図8(A)は、クラス8の「よしよししてほしいな」の場合の最大特異値に対応するu(8)1から作成された体性感覚マップを示し、図8(B)は、クラス11の「こちょこちょしてほしいな」の場合の最大特異値に対応するu(11)1から作成された体性感覚マップを示す。 Actually, the feature appears in the somatosensory map shown in FIG. 8 created from the orthonormal vector u i1 corresponding to the largest singular value. FIG. 8 (A) shows the somatosensory map created from u (8) 1 corresponding to the maximum singular value in the case of “I want to be good” in class 8, and FIG. The somatosensory map created from u (11) 1 corresponding to the maximum singular value in the case of 11 “I want to do this” is shown.

この体性感覚マップは、識別器の出力に有用な触覚センサエレメントを決定するために特徴空間の部分空間を取り出し、その空間を構成する基底ベクトルを用いて作成されたマップであり、つまり、次の数10から作成される。   This somatosensory map is a map created by taking out a subspace of the feature space and determining the basis vectors constituting the space in order to determine tactile sensor elements useful for the output of the discriminator. It is created from the number 10.

なお、これは、センサ間の相互相関関係を2次元平面に可視化するマップ作成手法を用いている。このマップ作成手法では、相互相関に注目してセンサ間の非類似度を定義し、相関が強いセンサが近くに配置されるようにしたマップが作成される。具体的には、相互相関マトリクスの各相関係数Rijから非類似度dijへの変換を次の数11のように定義する。 This uses a map creation method that visualizes the cross-correlation between sensors on a two-dimensional plane. In this map creation method, a dissimilarity between sensors is defined by paying attention to cross-correlation, and a map in which sensors with strong correlation are arranged nearby is created. Specifically, the conversion from each correlation coefficient R ij of the cross-correlation matrix to the dissimilarity d ij is defined as the following Expression 11.

自分自身のセンサとの相関係数は1であるので、dii=0となる。この定義した量を距離と読み替えると、相関係数の絶対値が大きいセンサの組の非類似度が小さく、つまり、相関係数の絶対値が大きいセンサの組の距離が近くなるような定義になっている。 Since the correlation coefficient with its own sensor is 1, d ii = 0. When this defined amount is read as distance, the definition is such that the dissimilarity of the sensor pair with a large absolute value of the correlation coefficient is small, that is, the distance of the sensor pair with a large absolute value of the correlation coefficient is close. It has become.

図8(A)の体性感覚マップでは、頭の触覚センサエレメントが他から分離している。図8(B)の体性感覚マップでは、胴体前面の触覚センサエレメント、胴体側面(左または右)の触覚センサエレメント、および胴体上面の触覚センサエレメントが、他から分離してクラスタを形成していることが分かる。このマップ上でクラスタを形成するセンサ間の距離が近いことは、識別関数DF (x)の出力に影響する触覚センサエレメントの組み合わせであることを意味する。これが触覚センサエレメントが自己組織化した結果となる。 In the somatosensory map of FIG. 8A, the tactile sensor element of the head is separated from the others. In the somatosensory map of FIG. 8B, the tactile sensor element on the front of the torso, the tactile sensor element on the side of the torso (left or right), and the tactile sensor element on the top of the torso are separated from each other to form a cluster. I understand that. A short distance between the sensors forming the cluster on this map means a combination of tactile sensor elements that affect the output of the discriminant function DF * i (x). This is a result of the tactile sensor element being self-organized.

図6および図7におけるC≠0の2条件(C=1,C=2)には、次元削減された基底ベクトルが張る特徴空間で構成された識別器の性能が示してある。C=1の条件では、未知ベクトルxの成分のうち15%〜20%のみから識別関数の出力が得られる。それにも関わらず、識別器の性能はほとんど変化していない。このことから、今回定義した特徴空間上にかなり偏ってデータが分布していることが予想され、部分空間法を適用することの妥当性を考察することができる。C=2の条件では、xの成分のうち4%〜6%のみから識別関数の出力が得られ、ここではかなり識別器の性能は低下している。しかし、ごく限られた特徴空間のみを用いているにも関わらず、クラス8の「よしよししてほしいな」やクラス11の「こちょこちょしてほしいな」のクラスの認識率は依然高い値を示している。したがって、これらクラスの特徴ベクトルは特徴空間の中での局所性が高く、他のクラスに比べて特徴的な触覚インタラクションであるといえる。 The two conditions (C 2 = 1, C 2 = 2) of C 2 ≠ 0 in FIGS. 6 and 7 show the performance of the classifier configured by the feature space spanned by the dimension-reduced basis vectors. Under the condition of C 2 = 1, the output of the discrimination function can be obtained from only 15% to 20% of the components of the unknown vector x. Nevertheless, the performance of the discriminator has hardly changed. From this, it is expected that the data is distributed considerably biased on the feature space defined this time, and the validity of applying the subspace method can be considered. Under the condition of C 2 = 2, the output of the discriminant function is obtained from only 4% to 6% of the components of x, and here, the performance of the discriminator is considerably deteriorated. However, despite the fact that only a limited feature space is used, the recognition rate of class 8 “I want you to do well” and class 11 “I want you to do this” still show high values. ing. Therefore, the feature vectors of these classes have high locality in the feature space, and can be said to be characteristic haptic interactions compared to other classes.

この実施例では、ロボット10のCPU60が触覚インタラクションデータベース78のデータから上述のような触覚インタラクションの識別器を作成し、触覚センサ76の各ノード80に転送する。したがって、各ノード80では、識別に有用なセンサエレメントが分かるので、この有用なセンサエレメントの組み合わせで分散処理を行うことが可能になる。   In this embodiment, the CPU 60 of the robot 10 creates a tactile interaction discriminator as described above from the data of the tactile interaction database 78 and transfers it to each node 80 of the tactile sensor 76. Therefore, since each node 80 knows sensor elements useful for identification, it is possible to perform distributed processing using a combination of these useful sensor elements.

図9および図10には、分散処理のための各種テーブルを作成する処理の動作の一例が示される。この実施例では、触覚センサ76(センサネットワーク)のホストコンピュータないしホストCPUであるCPU60によって、この分散処理テーブル作成処理が実行される。   9 and 10 show an example of processing operations for creating various tables for distributed processing. In this embodiment, the distributed processing table creation process is executed by the CPU 60 which is a host computer or host CPU of the tactile sensor 76 (sensor network).

なお、分散処理テーブルの作成は、ロボット10と通信可能な外部のコンピュータ、たとえば上述の触覚インタラクションデータベース78の構築実験を行うシステムにおける外部コンピュータ等によって実行し、作成したテーブルをロボット10に送信するようにしてもよい。   The distributed processing table is created by an external computer that can communicate with the robot 10, for example, an external computer in a system that conducts an experiment for constructing the haptic interaction database 78 described above, and the created table is transmitted to the robot 10. It may be.

作成されるテーブルは、識別関数テーブルDF、近似識別関数テーブルDF、転送経路テーブルTD、および転送量テーブルTR等を含む。 The created tables include an identification function table DF, an approximate identification function table DF * , a transfer path table TD, a transfer amount table TR, and the like.

識別関数テーブルDFは、近似識別関数テーブルDFを作成するために作成される。識別関数は、N個の触覚センサエレメントのうち2つのセンサ(i,j)(i,j=1,2,・・・,N)の時系列データの組み合わせから計算される特徴量(相互相関係数)を入力とする識別器であり、上述の数4のように表される。ここで作成される識別関数テーブルDFは、数4における正規直交ベクトルuijに相当する。 The discriminant function table DF is created to create the approximate discriminant function table DF * . The discriminant function is a feature amount (mutual phase) calculated from a combination of time series data of two sensors (i, j) (i, j = 1, 2,..., N) of N tactile sensor elements. It is a discriminator having the relation number) as an input, and is expressed as the above-mentioned formula 4. The discriminant function table DF created here corresponds to the orthonormal vector u ij in Equation 4.

近似識別関数は、閾値Cより小さい基底の成分を0とすることによって近似された識別器であり、上述の数8のように表される。ここで作成される近似識別関数テーブルDFは、数8におけるベクトルu ijに相当する。 Approximate identification function, a component of the threshold C 2 is smaller than the base is a classifier which is approximated by a 0 is represented by the number 8 above. The approximate discriminant function table DF * created here corresponds to the vector u * ij in Equation 8.

転送経路テーブルTDは、各触覚センサエレメント58のセンサ時系列データをどの経路で通信し、どのノード80にセンサ時系列データを集めて、特徴量を計算するかを決定するためのテーブルである。センサの組(i,j)に対応する各要素には、(i,j)の2つのセンサ時系列データを、或る1つのノード80に収集するためのデータ通信経路が記録される。   The transfer path table TD is a table for determining on which path the sensor time series data of each tactile sensor element 58 is communicated, and on which node 80 the sensor time series data is collected to calculate the feature quantity. In each element corresponding to the sensor set (i, j), a data communication path for collecting two sensor time-series data (i, j) in a certain node 80 is recorded.

転送量テーブルTRは、各センサ時系列データのノード間での転送量を決定するテーブルである。センサの組(i,j)に対応する各要素には、転送経路テーブルTDの各要素に対応した転送量が記録される。   The transfer amount table TR is a table for determining the transfer amount between nodes of each sensor time series data. In each element corresponding to the sensor set (i, j), the transfer amount corresponding to each element of the transfer path table TD is recorded.

また、転送量が許容範囲内であるかどうかを確認するために、転送負荷テーブルTRSが作成される。ノードの組(n,m)に対応する各要素は、転送経路テーブルTDおよび転送量テーブルTRに基づいて計算され、各ノード(n,m)間での総通信量を表す。送信と受信が別であるとすると、たとえばノード(A,B)間において、AからBへの経路の総通信量はTRS(A,B)で、BからAへの経路の総通信量はTRS(B,A)で表される。   In addition, a transfer load table TRS is created in order to check whether the transfer amount is within an allowable range. Each element corresponding to the node set (n, m) is calculated based on the transfer path table TD and the transfer amount table TR, and represents the total communication amount between the nodes (n, m). If transmission and reception are different, for example, between nodes (A, B), the total traffic on the path from A to B is TRS (A, B), and the total traffic on the path from B to A is It is represented by TRS (B, A).

分散処理テーブル作成処理を開始すると、まず、ステップS101で、触覚インタラクションデータから部分空間法によってクラスごとに識別器を作成する。ここでは、上述の数3に示した特異値分解の結果として得られる正規直交ベクトルu1,u2,…,urをクラスiごとに算出する。 When the distributed processing table creation process is started, first, in step S101, a classifier is created for each class from the haptic interaction data by the subspace method. Here, orthonormal vectors u 1 , u 2 ,..., U r obtained as a result of the singular value decomposition shown in the above equation 3 are calculated for each class i.

次に、ステップS103で、パラメータCによって識別器を簡単化し、クラスごとの識別関数テーブルDFを作成する。パラメータCは、累積寄与率に関する閾値であって、識別関数を構成する正規直交ベクトルの数dを決める。これによって、クラスiごとに、正規直交ベクトルuijが特異値の大きいものから順にdからdまで採用される。したがって、上述の数4におけるuijが得られ、このuijによってクラスごとの識別関数テーブルDFを作成する。 Next, in step S103, and simplify the classifier by the parameters C 1, to create the discriminant function table DF for each class. The parameter C 1 is a threshold value regarding the cumulative contribution rate, and determines the number d i of orthonormal vectors constituting the discriminant function. Thus, for each class i, the orthonormal vector u ij is adopted from d 1 to d i in descending order of singular values. Therefore, u ij in the above equation 4 is obtained, and the discriminant function table DF for each class is created by this u ij .

なお、パラメータCには、所定値が初期値として与えられる。作成した識別器の性能評価によって適切な認識率・誤認識率が得られるように、パラメータCの値は、たとえば一定値ずつ加減すること等によって適宜変更される。 Note that the parameters C 1, a predetermined value is given as an initial value. The value of the parameter C 1 is changed as appropriate by, for example, increasing or decreasing a certain value so that an appropriate recognition rate / error recognition rate can be obtained by performance evaluation of the created discriminator.

さらに、ステップS105で、パラメータCによってテーブルDFを簡単化し、クラスごとの近似識別関数テーブルDFを作成する。パラメータCは、正規直交ベクトルの成分のうち0とする成分数を決定する閾値である。したがって、クラスiごとに、上述の数8におけるu ijを算出し、このu ijによってクラスごとの近似識別関数テーブルDFを作成する。 Further, in step S105, and simplified tables DF by the parameter C 2, to create the approximate identification function table DF * per class. Parameter C 2 is a threshold for determining the number of components to 0 among the components of the orthonormal vectors. Therefore, u * ij in the above equation 8 is calculated for each class i, and an approximate discriminant function table DF * for each class is created based on this u * ij .

なお、パラメータC2には、所定値が初期値として与えられる。パラメータCの場合と同様に、作成した識別器の性能評価によって適切な認識率・誤認識率が得られるように、パラメータCの値は、たとえば一定値ずつ加減すること等によって適宜変更される。 The parameter C2 is given a predetermined value as an initial value. As with the parameters C 1, so that the appropriate recognition rate, error recognition rate is obtained by the performance evaluation of classifier created, the value of the parameter C 2, for example, be changed as appropriate, such as by subtraction by a constant value The

このクラス別の近似識別関数テーブルDFを用いて、計測されたセンサ時系列データに基づいて、数8の識別関数出力DF (x)を計算することが可能になり、したがって、触覚インタラクションのクラスを識別することが可能になる。 Using this class-specific approximate discriminant function table DF * , it becomes possible to calculate the discriminant function output DF * i (x) of Formula 8 based on the measured sensor time-series data, and therefore, tactile interaction Class can be identified.

続いて、ステップS107で、認識対象のクラスセットごとに転送経路テーブルTDおよび転送量テーブルTRを作成するために、各クラスの近似識別関数テーブルDFを包括するテーブルを作成する。 Subsequently, in step S107, in order to create the transfer path table TD and the transfer amount table TR for each class set to be recognized, a table including the approximate identification function table DF * of each class is created.

ここで、認識対象のクラスセットは、認識対象とする複数のクラスの組み合わせである。つまり、この実施例では、ロボット10が人間とコミュニケーションしているときに、触覚インタラクションデータベース78に登録された全クラスを認識の対象とはせず、限定された数のクラスを認識の対象とするようにしている。人間とロボット10のコミュニケーションが成立する場合には、状況に応じたインタラクションが発生するものと期待できるからである。たとえば、ロボット10が「握手してね」行動を行っているときには、ロボット10の手38や腕28および30を触るような触覚インタラクションは起こり得ると予期されるが、「よしよししてほしいな」や「こちょこちょしてほしいな」等に対応する触覚インタラクションは、通常は起こらないものと予期される。したがって、ロボット10が認識対象とすべき触覚インタラクションのクラスを、状況に応じて限定することができる。そこで、この実施例では、ロボット10の実行しているコミュニケーション行動もしくは働き掛けのような種々の状況ごとにクラスセットを予め決めておいて、これら複数のクラスセットをそれぞれの状況に対応付けて予め記憶しておく。そして、触覚センサ76の各ノード80では、状況に対応するクラスセットに規定された複数のクラスを識別の対象として分散処理を行うようにする。   Here, the class set to be recognized is a combination of a plurality of classes to be recognized. That is, in this embodiment, when the robot 10 is communicating with a human, all classes registered in the haptic interaction database 78 are not subject to recognition, and a limited number of classes are subject to recognition. I am doing so. This is because when communication between the human and the robot 10 is established, it can be expected that an interaction corresponding to the situation occurs. For example, when the robot 10 is performing a “shake hand” action, it is expected that a tactile interaction such as touching the hand 38 or the arms 28 and 30 of the robot 10 may occur, but “I want you to do it”. It is expected that tactile interaction corresponding to “I want you to do this” will not normally occur. Therefore, the tactile interaction class that the robot 10 should recognize can be limited according to the situation. Therefore, in this embodiment, class sets are determined in advance for each of various situations such as communication actions or actions performed by the robot 10, and the plurality of class sets are stored in advance in association with the respective situations. Keep it. Then, each node 80 of the tactile sensor 76 performs distributed processing with a plurality of classes defined in the class set corresponding to the situation as identification targets.

なお、他の実施例では、1つの触覚インタラクションのクラスのみを識別対象としてもよく、その場合、当該クラスの近似識別関数テーブルDFに基づいて、当該クラスの転送経路テーブルTDおよび転送量テーブルTRが作成される。 In another embodiment, only one haptic interaction class may be identified. In this case, based on the approximate identification function table DF * of the class, the transfer path table TD and the transfer amount table TR of the class. Is created.

また、各ノード80において、上述のような識別関数に基づく処理を行うためには、入力ベクトルxの特徴量算出のために、ノード80間で必要なセンサ時系列データを通信し、或る1つのノード80に収集する必要がある。クラスごとに有用なセンサの組み合わせは異なり、クラスごとの近似識別関数テーブルDFを用いてクラスごとの算出が行われるので、必要なセンサ時系列データのための通信経路は本来クラスごとに異なるものである。しかし、この実施例では、クラスセットに含まれる複数のクラスが認識対象であるので、複数のクラスのそれぞれの近似識別関数に基づく処理を行うために必要なすべてのセンサ時系列データを通信しなければならない。 Further, in order to perform processing based on the discriminant function as described above in each node 80, necessary time series data is communicated between the nodes 80 for calculating the feature quantity of the input vector x, and certain 1 It is necessary to collect in one node 80. Useful sensor combinations vary from class to class, and the approximate discriminant function table DF * for each class is used to calculate each class. Therefore, the communication path for the necessary sensor time-series data is inherently different from class to class. It is. However, in this embodiment, since a plurality of classes included in the class set are recognition targets, all sensor time-series data necessary for performing processing based on the approximate identification functions of the plurality of classes must be communicated. I must.

そこで、この実施例では、このステップS107で、認識対象クラスセットごとに転送経路テーブルTDおよび転送量テーブルTRを作成するために、当該クラスセットに含まれる各クラスの近似識別関数テーブルDFを包括するテーブル、つまり、クラスセットの複数のクラスで必要なセンサ時系列データ通信のすべてを網羅するテーブルを作成する。 Therefore, in this embodiment, in order to create the transfer path table TD and the transfer amount table TR for each recognition target class set in step S107, the approximate identification function table DF * of each class included in the class set is included. A table that covers all of the sensor time-series data communication necessary for a plurality of classes in the class set.

たとえば、クラスセットの複数のクラスのいずれかの近似識別関数テーブルDFにおいて、要素(センサ組み合わせ)の値に0以外が記録されていれば、当該要素の値にたとえば1を設定することによって、包括するテーブルを作成するようにしてよい。または、各クラスのテーブルDFにおける各要素のうち絶対値が最大であるものを当該要素の値として採用することによって、包括するテーブルを作成してよいし、あるいは、各要素の値の平均値を当該要素の値に設定することによって作成してもよい。 For example, in the approximate discriminant function table DF * of any of a plurality of classes in the class set, if a value other than 0 is recorded as the value of the element (sensor combination), for example, by setting 1 as the value of the element, A comprehensive table may be created. Alternatively, a comprehensive table may be created by adopting the element having the maximum absolute value among the elements in the table DF * of each class as the value of the element, or the average value of the values of the elements May be created by setting to the value of the element.

続いて、ステップS109で、クラスセットに対応する転送経路テーブルTDを生成する。同一ノードに所属するセンサ同士には、通信が不要であるから、このステップS109では、当該センサ同士の各要素には、たとえば当該所属ノードから所属ノードへの経路を示すデータを記憶しておく。   In step S109, a transfer path table TD corresponding to the class set is generated. Since sensors belonging to the same node do not need to communicate with each other, in this step S109, for example, data indicating a route from the belonging node to the belonging node is stored in each element of the sensors.

なお、ロボット10のメモリ64には、各ノード80の識別情報に対応付けた各ノード80に所属する触覚センサエレメント58の識別情報を示すデータ、各ノード80の接続構造(隣接するノード80の識別情報など)を示すデータなどが記憶されている。   Note that the memory 64 of the robot 10 stores data indicating identification information of the tactile sensor element 58 belonging to each node 80 associated with the identification information of each node 80, a connection structure of each node 80 (identification of adjacent nodes 80). Data indicating information etc.) is stored.

続くステップS111からステップS117の処理で、当該転送経路テーブルTDにおいて、異ノードに所属するセンサの組み合わせの各要素のための経路を選択して記憶する。   In subsequent steps S111 to S117, a path for each element of the combination of sensors belonging to different nodes is selected and stored in the transfer path table TD.

具体的には、ステップS111では、当該クラスセットの各クラスのDFを包括するテーブルにおいて、転送のホップ数が最も少ない要素のうち絶対値が最大の要素を選択する。なお、各ノード間のホップ数は、ノード80の接続構造を示すデータから把握される。 Specifically, in step S111, an element having the maximum absolute value is selected from the elements having the smallest number of transfer hops in the table including the DF * of each class of the class set. Note that the number of hops between the nodes is determined from data indicating the connection structure of the nodes 80.

次に、ステップS113で、当該要素のセンサの所属ノード間について、最短経路でノード間の通信量が最も少ない経路を選択し、当該経路を示すデータを、転送経路テーブルTDの要素に追加(記録)する。   Next, in step S113, for the node to which the sensor of the element belongs, a route with the least amount of communication between the nodes is selected as the shortest route, and data indicating the route is added (recorded) to the element of the transfer route table TD. )

続くステップS115で、追加したセンサ時系列データ通信を利用できる転送経路テーブルTDの要素にも、当該選択した経路を示すデータを追加する。つまり、ステップS113で追加した経路で通信されたセンサ時系列データを利用できる要素がある場合には、当該要素にも同じ経路を書込んでおく。   In subsequent step S115, data indicating the selected route is also added to an element of the transfer route table TD that can use the added sensor time-series data communication. That is, if there is an element that can use the sensor time-series data communicated by the route added in step S113, the same route is written in the element.

そして、ステップS117で、すべての要素の経路が決まったか否かを判断する。ステップS117で“YES”と判断されるまで、ステップS111−S115の処理を繰り返して、当該クラスセットに対応する転送経路テーブルTDのすべての要素についてホップ数分の経路を決定し、この転送経路テーブルTDを完成させる。   In step S117, it is determined whether or not the routes of all elements have been determined. Until it is determined as “YES” in step S117, the processing of steps S111 to S115 is repeated to determine the number of hops for all elements of the transfer route table TD corresponding to the class set, and this transfer route table. Complete the TD.

ステップS117で“YES”の場合には、図10のステップS119で、当該クラスセットの転送経路テーブルTDに基づいて、転送量テーブルTRを作成する。具体的には、転送量テーブルTRの各要素に、転送経路テーブルTDにおける各要素の経路に対応した転送量が記録される。   If “YES” in the step S117, a transfer amount table TR is created based on the transfer route table TD of the class set in a step S119 of FIG. Specifically, the transfer amount corresponding to the path of each element in the transfer route table TD is recorded in each element of the transfer amount table TR.

続くステップS121で、当該クラスセットの転送経路テーブルTDおよび転送量テーブルTRに基づいて、転送負荷テーブルTRSを計算する。具体的には、全ノード数をMとし、2つのノードの組み合わせを(n,m)(n,m=1,…,M)で表すと、ノード(n,m)間における、ノードnからノードmへの経路の総通信量と、ノードmからノードnへの経路の総通信量が計算される。   In subsequent step S121, the transfer load table TRS is calculated based on the transfer path table TD and the transfer amount table TR of the class set. Specifically, when the total number of nodes is M and a combination of two nodes is represented by (n, m) (n, m = 1,..., M), from node n between nodes (n, m) The total traffic on the route to the node m and the total traffic on the route from the node m to the node n are calculated.

そして、ステップS123で、ネットワーク帯域に余裕があるか否かを転送負荷テーブルTRSに基づいて判断する。具体的には、各ノード間の通信量が所定の最大値以内におさまっているかどうかを判断する。   In step S123, it is determined based on the transfer load table TRS whether there is a margin in the network bandwidth. Specifically, it is determined whether or not the traffic between the nodes is within a predetermined maximum value.

ステップS123で“NO”の場合、ステップS125で、TRSの通信量が許容範囲内におさまるように調整した転送量テーブルTRを作成する。具体的には、転送負荷テーブルTRSにおける最大値を超えたノード間の総通信量が最大値以内におさまるように、転送量テーブルTRにおいて対応する経路の転送量を低減させる。ホップ数の大きい経路ほど、転送量をより減少させるようにしてよく、一例として、新たな転送量は、元の転送量をホップ数の関数で割ることによって算出されてよい。続くステップS127で、調整した転送量テーブルTRと転送経路テーブルTDに基づいて、調整後の転送負荷テーブルTRSを計算して、各ノード間の通信量が許容範囲内であることを確認する。 If “NO” in the step S123, a transfer amount table TR * adjusted so that the traffic amount of the TRS is within an allowable range is created in a step S125. Specifically, the transfer amount of the corresponding route in the transfer amount table TR is reduced so that the total communication amount between nodes exceeding the maximum value in the transfer load table TRS falls within the maximum value. A route with a larger number of hops may reduce the transfer amount. For example, a new transfer amount may be calculated by dividing the original transfer amount by a function of the hop number. In subsequent step S127, the adjusted transfer load table TRS * is calculated based on the adjusted transfer amount table TR * and the transfer route table TD, and it is confirmed that the communication amount between the nodes is within the allowable range. .

一方、ステップS123で“YES”の場合、つまり、通信負荷がネットワーク帯域の許容範囲内におさまっている場合には、ステップS129で、全クラスセットの計算が終わったか否かを判断する。ステップS129で“NO”の場合、図9のステップS109に戻り、残りのクラスセットのためのテーブル作成を行う。   On the other hand, if “YES” in the step S123, that is, if the communication load is within the allowable range of the network band, it is determined whether or not the calculation of all the class sets has been completed in a step S129. If “NO” in the step S129, the process returns to the step S109 in FIG. 9 to create a table for the remaining class set.

ステップS129で“YES”の場合、作成した分散処理テーブル、すなわち、クラス別の近似識別関数テーブルDF、クラスセット別の転送経路テーブルTDおよび転送量テーブルTRをネットワークノード80へ転送する。なお、調整した転送量テーブルTRを作成した場合には、テーブルTRではなく、当該テーブルTRを送信する。 If “YES” in the step S129, the created distributed processing table, that is, the approximate discrimination function table DF * for each class, the transfer path table TD for each class set, and the transfer amount table TR are transferred to the network node 80. When the adjusted transfer amount table TR * is created, the table TR * is transmitted instead of the table TR.

なお、この実施例では、転送量テーブルTR(またはTR)を作成するようにしているが、すべての転送量を予め一定値(転送負荷が許容範囲内に十分におさまるような値)に決めておく場合には、TRの作成は必要ない。 In this embodiment, the transfer amount table TR (or TR * ) is created. However, all transfer amounts are previously determined to be a constant value (a value that allows the transfer load to be sufficiently within an allowable range). If it is necessary to create a TR, it is not necessary to create a TR.

以上のような分散処理テーブルの具体的な作成例を、簡略化したセンサネットワークを対象にして説明する。図11に、この説明のためのモデルとしての触覚センサ76を示す。9枚の触覚センサエレメント58と3つのノード80が設けられている。各ノード80には3枚ずつ触覚センサエレメント58が所属している。具体的には、ノードAにはセンサ番号1−3の触覚センサエレメントが所属し、ノードBにはセンサ番号4−6が所属し、ノードCにはセンサ番号7−9が所属している。また、ノード同士は相互にA―B間と、B−C間とで接続されている。   A specific example of creating the distributed processing table as described above will be described for a simplified sensor network. FIG. 11 shows a tactile sensor 76 as a model for this explanation. Nine tactile sensor elements 58 and three nodes 80 are provided. Three tactile sensor elements 58 belong to each node 80. Specifically, the tactile sensor element of sensor number 1-3 belongs to node A, sensor number 4-6 belongs to node B, and sensor number 7-9 belongs to node C. The nodes are connected to each other between AB and BC.

図12(A)は、識別関数テーブルDFの一例を示す。なお、この作成例では、簡単のため、特徴空間を構成する基底ベクトルのうち、寄与率の最も高い1つの基底ベクトルのみを採用した場合を示している。図12(B)は、簡単化した(近似)識別関数テーブルDFの一例を示す。ここで採用されている閾値は、一例として0.27であり、これは、成分の標準偏差0.27とパラメータC=1との積により得られる。近似識別関数テーブルDFは、識別関数テーブルDFにおいて0.27より小さい絶対値の成分を0とすることによって作成されている。 FIG. 12A shows an example of the identification function table DF. In this example, for the sake of simplicity, a case is shown in which only one base vector having the highest contribution ratio among the base vectors constituting the feature space is employed. FIG. 12B shows an example of a simplified (approximate) discriminant function table DF * . The threshold value adopted here is 0.27 as an example, and this is obtained by the product of the standard deviation 0.27 of the component and the parameter C 2 = 1. The approximate discriminant function table DF * is created by setting the absolute value component smaller than 0.27 to 0 in the discriminant function table DF.

続いて、認識対象のクラスセットの各クラスの近似識別関数テーブルDFを包括するテーブルを作成し、当該クラスセットに対応する転送経路テーブルTDを作成する。図13は、近似識別関数テーブルDFから作成された転送経路テーブルTDの一例を示す。なお、この作成例では、便宜上、図12(B)に示すテーブルが認識対象のクラスセットの各クラスを包括するテーブルであるものとして、図13の転送経路テーブルTDを作成している。 Subsequently, a table including the approximate discriminant function table DF * of each class of the class set to be recognized is created, and a transfer path table TD corresponding to the class set is created. FIG. 13 shows an example of the transfer path table TD created from the approximate identification function table DF * . In this creation example, for the sake of convenience, the transfer route table TD in FIG. 13 is created assuming that the table shown in FIG. 12B is a table that includes each class of the class set to be recognized.

まず、同一ノード80に所属する触覚センサエレメント58同士の計算には他のノードとの通信が不要である。したがって、転送経路としては、AA,BB,CCのように当該ノード同士を結ぶ経路が記録される。たとえば、ノードAに所属するセンサ番号1とセンサ番号3の計算は、ノードA内の処理のみで完了するので、センサ番号1の行とセンサ番号3の列をと結ぶ欄には、AAが記載されている。   First, communication with other nodes is not necessary for calculation between the tactile sensor elements 58 belonging to the same node 80. Therefore, as the transfer route, a route connecting the nodes such as AA, BB, and CC is recorded. For example, since the calculation of sensor number 1 and sensor number 3 belonging to node A is completed only by processing in node A, AA is described in the column connecting the row of sensor number 1 and the column of sensor number 3. Has been.

そして、図9のステップS111の処理によって、転送ホップ数が最小であり、かつ、絶対値が最大の要素を選択し、この選択した要素から順に転送経路を決めていく。ホップ数が1である組み合わせは、隣のノード80に相手の触覚センサエレメント58が存在する組み合わせであり、この作成例では、ノードAB間の組み合わせとノードBC間の組み合わせである。それらのうち絶対値が最大の要素は、絶対値0.9の要素であり、つまり、センサ番号の組が(3,4)、(6,7)である。このうち、まず、たとえばセンサ番号の小さい方の(3,4)を選択する。   Then, by the process of step S111 in FIG. 9, an element having the minimum number of transfer hops and the maximum absolute value is selected, and the transfer path is determined in order from the selected element. The combination with the hop count of 1 is a combination in which the partner tactile sensor element 58 exists in the adjacent node 80. In this example, the combination is between the nodes AB and BC. Among them, the element having the maximum absolute value is an element having an absolute value of 0.9, that is, the sensor number pairs are (3, 4) and (6, 7). Of these, first, for example, (3,4) having a smaller sensor number is selected.

続いて、図9のステップS113の処理によって、選択した要素のために、最短経路で、ノード間の通信量が最も少ない経路を選択する。今回の(3,4)にはノードAB間の通信が必要であるから、ノードAからノードBへの通信を選択し、テーブルの(3,4)の要素に「AB1」を追加(記憶)する。この選択は、AからBへの通信の最初の選択であるから、「AB」に「1」が付与されている。つまり、「AB1」は、AからBへの通信であり、かつ、その1回目であることを意味する。   Subsequently, in the process of step S113 in FIG. 9, for the selected element, a route with the shortest route and the smallest amount of communication between nodes is selected. Since communication between the nodes AB is necessary for (3, 4) this time, communication from the node A to the node B is selected, and "AB1" is added to the element of (3, 4) in the table (memory) To do. Since this selection is the first selection of communication from A to B, “1” is assigned to “AB”. That is, “AB1” means communication from A to B and the first time.

さらに、図9のステップS115の処理によって、この追加したデータ通信を利用できる要素に、当該経路を追加する。今回のセンサ番号3の時系列データのAからBへの通信により、ノードBにおいてセンサ番号3のデータを、(3,5)および(3,6)の組の計算でも使用できるので、テーブルの(3,5)および(3,6)の要素にも、「AB1」を追加する。   Further, the route is added to the element that can use the added data communication by the process of step S115 in FIG. By communication from A to B of the time-series data of sensor number 3 this time, the data of sensor number 3 can be used in the calculation of the set of (3, 5) and (3, 6) at node B. “AB1” is also added to the elements (3, 5) and (3, 6).

このように、(3,4)の選択から始まった処理によって、(3,4)、(3,5)および(3,6)の経路が決められる。絶対値が0.9である(6,7)についても、同様にして、経路が決められ、(6,7)、(6,8)および(6.9)に「BC1」が追加される。
他の組についても、同様な処理を繰返して経路を決めていく。
In this way, the path of (3, 4), (3, 5) and (3, 6) is determined by the process starting from the selection of (3, 4). For (6, 7) whose absolute value is 0.9, the route is determined in the same manner, and “BC1” is added to (6, 7), (6, 8), and (6.9). .
The same process is repeated for other groups to determine the route.

たとえば、絶対値が0.7である(2,4)の組については、ノードAB間の通信として既にノードAからノードBへの「AB1」が選択されているので、同方向の通信を増やすのではなく、逆方向のノードBからノードAへの通信を選択し、テーブルの(2,4)の要素に「BA1」を追加する。このセンサ番号4の時系列データのBからAの通信によって、ノードAにおいてセンサ番号4のデータを(1,4)の組でも利用できるので、テーブルの(1,4)にも、「BA1」を追加する。   For example, for the pair (2, 4) having an absolute value of 0.7, “AB1” from node A to node B has already been selected as communication between nodes AB, so communication in the same direction is increased. Instead, the communication from the node B to the node A in the reverse direction is selected, and “BA1” is added to the element of (2, 4) in the table. By communication from B to A of the time-series data of the sensor number 4, the data of the sensor number 4 can be used in the group (1, 4) in the node A, and therefore “BA1” is also stored in the table (1, 4). Add

また、ホップ数が2の要素については、まず、絶対値が0.5である(3,7)の組を選択する。センサ番号3の時系列データは、AB1によってノードBにあるので、センサ番号7の時系列データをノードBに送ればよい。したがって、「CB3」を選択する。なお、この(3,7)の計算には、「AB1」も必要であるから、テーブルの(3,7)には「CB3/AB1」と記憶する。   For the element with the number of hops of 2, first, a set of (3, 7) having an absolute value of 0.5 is selected. Since the time series data of sensor number 3 is in node B by AB1, the time series data of sensor number 7 may be sent to node B. Therefore, “CB3” is selected. Since “AB1” is also required for the calculation of (3, 7), “CB3 / AB1” is stored in (3, 7) of the table.

さらに、センサ番号7の時系列データのCからBへの通信「CB3」を、(1,7)の組で利用できる。センサ番号1の時系列データは、ノードBにはない。また、AB間の通信は、AB1、BA1およびAB2まで選択されている。したがって、センサ番号7の時系列データをBからAへ送信する「BA2」を選択する。テーブルの(1,7)には「CB3/BA2」を追加する。   Furthermore, the communication “CB3” from C to B of the time-series data of sensor number 7 can be used in the group (1, 7). The time series data of sensor number 1 is not in node B. Further, the communication between AB is selected up to AB1, BA1, and AB2. Therefore, “BA2” for transmitting the time-series data of sensor number 7 from B to A is selected. “CB3 / BA2” is added to (1, 7) of the table.

このようにして、転送経路テーブルTDを作成でき、このテーブルTDによって、各センサの時系列データの転送経路、ノード間の通信回数、センサ間の特徴量を計算するノード等を把握することができる。   In this way, the transfer route table TD can be created, and by using this table TD, it is possible to grasp the transfer route of the time series data of each sensor, the number of communication between nodes, the node for calculating the feature quantity between sensors, and the like. .

続いて、転送量テーブルTRが作成される。転送量テーブルTRおよび転送負荷テーブルTRSの一例が図14に示される。この例では、1ホップの通信量を「100」とする。したがって、図14(A)の転送量テーブルTRの各経路には「100」が記載される。また、同一ノード間の組には通信が不要であるから「0」が記憶される。   Subsequently, a transfer amount table TR is created. An example of the transfer amount table TR and the transfer load table TRS is shown in FIG. In this example, the communication amount of one hop is “100”. Therefore, “100” is described in each path of the transfer amount table TR in FIG. Also, “0” is stored in the group between the same nodes because no communication is required.

転送経路テーブルTDと転送量テーブルTRに基づいて図14(B)の転送負荷テーブルTRSが作成される。転送負荷テーブルTRSは、ノード間の通信量を示している。ノードAB、BA、BC間には、それぞれ転送量100の2回の通信が必要であるから、テーブルTRSの(A,B)、(B,A)および(B,C)には、「2」が記載される。ノードCB間には3回の通信が必要であるからテーブルTRSの(C,B)には「3」が記載される。   A transfer load table TRS in FIG. 14B is created based on the transfer path table TD and the transfer amount table TR. The transfer load table TRS indicates the amount of communication between nodes. Since the node AB, BA, and BC need to communicate twice with a transfer amount of 100, each of (A, B), (B, A), and (B, C) in the table TRS contains “2 Is described. Since three communications are required between the nodes CB, “3” is written in (C, B) of the table TRS.

この転送負荷テーブルTRSに基づいて帯域に余裕があるかどうかが判断される。ここで、たとえば転送負荷量が最大値3よりも小さいことが必要とされる場合には、通信CBが許容範囲を超えるので、転送量の調整を行う。調整した転送量テーブルTRおよび調整後の転送負荷テーブルTRSの一例が図15に示される。ここでは、ホップ数の大きい要素の通信量を減らす。つまり、(1,7)および(3,7)の「CB3」の通信量を50に減らす。たとえば元の転送量をホップ数で割ることによって調整後の転送量を算出する。この通信を利用する(1,7)の「BA2」も50になる。なお、(3,7)の「AB1」は、(3,4)の通信の利用であるから、通信量は100のままである。この図15(A)のテーブルTRと図13のテーブルTDに基づいて、図15(B)のテーブルTRSを作成し、転送負荷が許容範囲内におさまったことを確認することができる。「CB3」と「AB2」の通信量がそれぞれ半減されたので、(C,B)の転送負荷が2.5になり、(B,A)の転送負荷が1.5になり、最大値3よりも小さい値に抑えられている。 Based on this transfer load table TRS, it is determined whether there is a margin in the bandwidth. Here, for example, if the transfer load amount needs to be smaller than the maximum value 3, the communication CB exceeds the allowable range, so the transfer amount is adjusted. An example of the adjusted transfer amount table TR * and the adjusted transfer load table TRS * is shown in FIG. Here, the traffic of elements with a large number of hops is reduced. That is, the communication amount of “CB3” in (1, 7) and (3, 7) is reduced to 50. For example, the adjusted transfer amount is calculated by dividing the original transfer amount by the number of hops. “BA2” of (1, 7) using this communication is also 50. Since “AB1” in (3, 7) is the use of communication in (3, 4), the communication amount remains 100. Based on the table TR * in FIG. 15A and the table TD in FIG. 13, the table TRS * in FIG. 15B can be created to confirm that the transfer load is within the allowable range. Since the communication volumes of “CB3” and “AB2” are each halved, the transfer load of (C, B) is 2.5, the transfer load of (B, A) is 1.5, and the maximum value 3 It is suppressed to a smaller value.

このようにして作成された分散処理テーブルは、上述のように図10のステップS131でCPU60から各ノード80に送信されて、各ノード80で保持される。図16に各ノード80のテーブル更新処理の動作が示される。各ノード80のプロセッサユニット86は、一定時間ごとにこのテーブル更新処理を実行する。   The distributed processing table created in this way is transmitted from the CPU 60 to each node 80 in step S131 in FIG. FIG. 16 shows the table update processing operation of each node 80. The processor unit 86 of each node 80 executes this table update process at regular intervals.

具体的には、ステップS201では、ホストCPU60からバス82を介してテーブルを受信した否かを判断する。ステップS201で“NO”の場合には、そのままこの更新処理を終了する。一方、ステップS201で“YES”の場合には、ステップS203で、受信した分散処理テーブルを、プロセッサユニット86に内蔵されるメモリに保存(記憶)する。分散処理テーブルは、上述のように、クラスごとの近似識別関数テーブルDF、クラスセットごとの転送経路テーブルTDおよび転送量テーブルTR(またはTR)を含む。なお、この分散処理テーブルの保存メモリとしてフラッシュメモリのような不揮発性メモリを適用した場合には、ロボット10の電源を切っても各ノード80が分散処理テーブルを保持できるので、ロボット10の電源をオンするたびにCPU60からの分散処理テーブルの送信処理を行わなくてもよく、当該分散処理テーブルの送信処理は、分散処理テーブルが再構成されて更新されたときにだけ行うようにすればよい。 Specifically, in step S201, it is determined whether a table is received from the host CPU 60 via the bus 82. If “NO” in the step S201, the updating process is ended as it is. On the other hand, if “YES” in the step S201, the received distributed processing table is stored (stored) in a memory built in the processor unit 86 in a step S203. As described above, the distributed processing table includes the approximate identification function table DF * for each class, the transfer path table TD for each class set, and the transfer amount table TR (or TR * ). When a nonvolatile memory such as a flash memory is applied as the storage memory for the distributed processing table, each node 80 can hold the distributed processing table even when the robot 10 is turned off. It is not necessary to perform the transmission processing of the distributed processing table from the CPU 60 every time the power is turned on, and the transmission processing of the distributed processing table may be performed only when the distributed processing table is reconfigured and updated.

なお、上述の正規直交ベクトルUijの成分を0にするための閾値Cを考慮しない場合、つまり、閾値Cが0の場合、近似識別関数テーブルDFは、識別関数テーブルDFであり、これが分散処理テーブルとして送信されて、各ノード80のプロセッサユニット86に記憶される。 Note that when the threshold C 2 for setting the component of the orthonormal vector U ij to 0 is not considered, that is, when the threshold C 2 is 0, the approximate discriminant function table DF * is the discriminant function table DF. This is transmitted as a distributed processing table and stored in the processor unit 86 of each node 80.

続いて、ロボット10が人間とコミュニケーションをしている場合に実行される触覚インタラクションの識別段階の処理について説明する。ロボット10では、人間に提示しようとしている行動(身振りおよび/または発話)に対して、人間が行うであろうと予期できる複数の触行動(触覚インタラクション)が認識対象クラスセットとして予め記憶されている。各行動を提示するための処理とともに、対応するクラスセットを認識対象として識別処理を実行することによって、予期できる複数の触覚インタラクションのクラスのうち、どのクラスが実行されたのか、または、認識対象のクラスセットのクラス以外の予期しない触覚インタラクションが実行されたのかを識別することができる。   Subsequently, a process of identifying a tactile interaction executed when the robot 10 is communicating with a human will be described. In the robot 10, a plurality of tactile actions (haptic interaction) that can be expected to be performed by a human with respect to an action (gesture and / or speech) that is to be presented to a human is stored in advance as a recognition target class set. Along with the process for presenting each action, by executing the identification process with the corresponding class set as the recognition target, which class of multiple tactile interaction classes can be predicted has been executed, or the recognition target It is possible to identify whether an unexpected haptic interaction other than a class in the class set has been performed.

図17および図18にCPU60(触覚センサ76のホスト)によって実行される識別処理の動作の一例が示される。識別処理を開始すると、ステップS301で、認識対象のクラスセットをネットワークノード80にブロードキャストする。送信されるクラスセットのデータは、各クラスの識別番号を含んでおり、これによって、触覚センサ76の各ノード80に認識対象の複数のクラスを知らせて、使用する分散処理テーブルを知らせることができる。   FIG. 17 and FIG. 18 show an example of the operation of identification processing executed by the CPU 60 (host of the tactile sensor 76). When the identification process is started, the class set to be recognized is broadcast to the network node 80 in step S301. The transmitted class set data includes the identification number of each class, so that the nodes 80 of the tactile sensor 76 can be informed of a plurality of classes to be recognized and the distributed processing table to be used. .

続いて、ステップS303で、センサ時系列データのIn点をネットワークノード80にブロードキャストする。時系列データのIn点は、各触覚センサエレメント58により検出された時系列データの記録の開始点を指示するためのデータであり、たとえば開始時刻が指定されてよいし、または開始命令であってよい。   Subsequently, the In point of the sensor time series data is broadcast to the network node 80 in step S303. The In point of the time series data is data for designating the start point of the recording of the time series data detected by each tactile sensor element 58. For example, the start time may be designated or a start command. Good.

これによって、各ノード80では、サンプリングされたセンサ時系列データの記録(蓄積)が開始される。また、各ノード80では、転送経路テーブルTDと転送量テーブルTRに基づくデータ交換が開始される。さらに、この実施例のように、識別器のメンテナンスのためのデータ収集として、各ノード80はセンサ時系列データをホストCPU60に送信してもよい。   As a result, each node 80 starts recording (accumulating) the sampled sensor time-series data. In each node 80, data exchange based on the transfer path table TD and the transfer amount table TR is started. Further, as in this embodiment, each node 80 may transmit sensor time-series data to the host CPU 60 as data collection for maintenance of the discriminator.

そして、ステップS305で、センサ時系列データを受信したかどうかを判断し、“YES”の場合、ステップS307で、センサ時系列データをメモリ64に記憶する。なお、センサ時系列データは、一定時間分の検出データのほかに、当該ノード80の識別情報、当該触覚センサエレメント58の識別情報およびタイムスタンプ(検出時刻情報)を含んでいる。ステップS307を終了すると処理はステップS305へ戻る。   In step S305, it is determined whether sensor time-series data has been received. If “YES”, the sensor time-series data is stored in the memory 64 in step S307. The sensor time-series data includes identification information of the node 80, identification information of the tactile sensor element 58, and time stamp (detection time information) in addition to detection data for a predetermined time. When step S307 ends, the process returns to step S305.

一方、ステップS305で“NO”の場合、ステップS309で現在の時刻がOut点になったか否かを判断する。Out点は、認識対象の複数のクラスの識別に必要な時間分のセンサ時系列データの計測が行えるように決められる。たとえば、クラスセットごとにIn点からの必要な時間が予め記憶される。つまり、このステップS309では、In点の送信から所定時間が経過したかどうかが判断される。   On the other hand, if “NO” in the step S305, it is determined whether or not the current time has become the Out point in a step S309. The Out point is determined so that the sensor time-series data can be measured for the time necessary for identifying a plurality of classes to be recognized. For example, the necessary time from the In point is stored in advance for each class set. That is, in this step S309, it is determined whether or not a predetermined time has elapsed since the transmission of the In point.

ステップS309で“NO”の場合、つまり、計測がまだ必要である場合には、処理はステップS305に戻る。したがって、受信待機、および受信データの記録が繰返されて、In点からOut点までのセンサ時系列データが取得される。   If “NO” in the step S309, that is, if measurement is still necessary, the process returns to the step S305. Therefore, reception standby and reception data recording are repeated, and sensor time-series data from the In point to the Out point is acquired.

なお、識別器のメンテナンス、つまり、学習による識別器の再構成を行わない場合には、センサ時系列データのノード80からの収集は行わなくてよい。各ノード80での分散処理によって、触覚インタラクションのクラスの識別ための処理(類似度の算出)が行われており、ホストであるCPU60がセンサ時系列データを受信しなくてもクラス識別を行うことができるからである。   In addition, when the maintenance of the discriminator, that is, the reconfiguration of the discriminator by learning is not performed, it is not necessary to collect the sensor time series data from the node 80. A process for identifying a tactile interaction class (similarity calculation) is performed by distributed processing at each node 80, and the host CPU 60 performs class identification without receiving sensor time-series data. Because you can.

一方、ステップS309で“YES”の場合、ステップS311で、センサ時系列データのOut点をネットワークノード80にブロードキャストする。このOut点は、センサ時系列データの記録の終了点を指示するデータであり、たとえば終了時刻が指定されてよいし、または終了命令であってよい。これによって、各ノード80では、センサ時系列データの記録が終了される。そして、記録したセンサ時系列データと識別関数テーブルに基づいて、クラス識別のための類似度算出処理が開始されることとなる。   On the other hand, if “YES” in the step S309, the Out point of the sensor time series data is broadcast to the network node 80 in a step S311. This Out point is data for instructing the end point of the recording of the sensor time series data. For example, the end time may be designated, or it may be an end command. Thereby, in each node 80, the recording of the sensor time-series data is ended. Then, based on the recorded sensor time series data and the identification function table, the similarity calculation process for class identification is started.

なお、この実施例では、CPU60でOut点になったと判断されるときにOut点を各ノード80に送信するようにしているが、他の実施例では、In点と同時に、またはIn点送信のすぐ後に、Out点を予め送信するようにしてもよく、その場合、Out点は、たとえば記録終了の予定時刻または記録の継続時間であってよい。   In this embodiment, the Out point is transmitted to each node 80 when the CPU 60 determines that the Out point has been reached, but in other embodiments, the In point is transmitted simultaneously with the In point. Immediately after, the Out point may be transmitted in advance. In this case, the Out point may be, for example, the scheduled end time of recording or the duration of recording.

続くステップS313では、識別対象クラスの類似度を受信したかどうかを判断する。Out点の送信後、各ノード80からは、当該ノード80において算出可能な部分特徴空間の各クラスの類似度が送信されてくるので、その受信を行う。ステップS313で“NO”の場合、一定時間受信を待機して、再びステップS313の処理を行う。一方、ステップS313で“YES”の場合、ステップS315で、受信した識別対象クラスの類似度をメモリ64に記憶する。そして、ステップS317で、全ノード80から類似度を受信したか否かを判断する。ステップS317で“NO”の場合、つまり、受信すべき類似度が残っている場合には、処理はステップS313に戻る。一方、ステップS317で“YES”の場合には、処理は図18のステップS319へ進む。   In a succeeding step S313, it is determined whether or not the similarity of the identification target class is received. After transmission of the Out point, each node 80 transmits the similarity of each class of the partial feature space that can be calculated by the node 80, and receives it. If “NO” in the step S313, the reception of a predetermined time is waited and the process of the step S313 is performed again. On the other hand, if “YES” in the step S313, the received similarity of the class to be identified is stored in the memory 64 in a step S315. In step S317, it is determined whether or not the similarity is received from all the nodes 80. If “NO” in the step S317, that is, if the similarity to be received remains, the process returns to the step S313. On the other hand, if “YES” in the step S317, the process proceeds to a step S319 in FIG.

図18のステップS319では、各ノード80が持つ部分特徴空間での類似度を識別対象クラスごとに合計する。具体的には、上述の数8の右辺における合計が行われる。したがって、クラスごとの識別関数出力を算出することができる。続くステップS321で、クラスごとの合計値を比較して最大のクラスを検出する。認識対象のクラスセットのうち、この最大値を示したクラスの触覚インタラクションが行われたことが推定されるが、この段階では、未だ仮の推定であり、次のステップS323でリジェクト判定を行う。つまり、上述の数5の判定を行う。最大値を示すクラスlの識別関数出力と、それ以外のクラスの識別関数出力のうちの最大値とが、数5の関係式を満たさない場合には、リジェクトである、つまり、認識対象のクラスセットのクラス以外の触覚インタラクションが行われたことが判定される。   In step S319 of FIG. 18, the similarity in the partial feature space of each node 80 is summed for each class to be identified. Specifically, the summation on the right side of Equation 8 is performed. Therefore, the discrimination function output for each class can be calculated. In subsequent step S321, the maximum value for each class is compared to detect the maximum class. Although it is presumed that the tactile interaction of the class indicating the maximum value in the class set to be recognized has been performed, at this stage, it is still a tentative estimation, and reject determination is performed in the next step S323. That is, the above-described determination of Equation 5 is performed. If the discriminant function output of class l indicating the maximum value and the maximum value of discriminant function outputs of the other classes do not satisfy the relational expression (5), it is rejected, that is, the class to be recognized It is determined that haptic interaction other than the set class has occurred.

そして、ステップS325で識別結果の出力を行う。つまり、ステップS323のリジェクト判定で数5の関係式が成立した場合には、最大値を示したクラスの触覚インタラクションが行われことが識別されたので、当該クラスを示すデータを結果として出力する。一方、リジェクトの場合は、予期しない触覚インタラクションが行われたことが識別されたので、当該リジェクトを示すデータを結果として出力する。   In step S325, the identification result is output. In other words, when the relational expression (5) is established in the rejection determination in step S323, it is identified that the tactile interaction of the class indicating the maximum value is performed, and therefore data indicating the class is output as a result. On the other hand, in the case of rejection, since it is identified that an unexpected tactile interaction has been performed, data indicating the rejection is output as a result.

したがって、ロボット10の制御コンピュータとしてのCPU60は、センサ時系列データを自分で処理しなくても、複数のノード80において分散処理した結果を用いて触覚インタラクションを識別することができる。なお、ロボット10は、この識別結果と実行した行動に応じて、人間とのコミュニケーションの状況を把握することができ、したがって、当該状況に応じた、次に実行すべき行動を適切に選択することができる。   Therefore, the CPU 60 as the control computer of the robot 10 can identify the haptic interaction using the result of distributed processing in the plurality of nodes 80 without processing the sensor time series data by itself. The robot 10 can grasp the state of communication with humans according to the identification result and the executed action, and accordingly appropriately selects the action to be executed next according to the situation. Can do.

続くステップS327からステップS335の処理は、識別器のメンテナンス用の処理であり、識別器の検証、学習、再構成などのメンテナンスを行う場合に実行すればよい。具体的には、ステップS327で、部分特徴空間の成分を受信したか否かを判断する。各ノード80からは、類似度の送信後、この成分が送られてくる。このステップS327で“NO”の場合、一定時間受信を待機する。一方、ステップS327で“YES”の場合には、ステップS329で、受信した部分特徴空間の各成分をメモリ64に記憶する。この部分特徴空間の各成分は、数9の特徴ベクトルのうち、各ノード80が計算可能な成分である。そして、ステップS331で全ノード80から部分特徴空間の成分を受信したか否かを判断する。ステップS331で“NO”の場合には、処理はステップS327に戻り、残りのノード80からの受信処理を繰返す。   The subsequent processing from step S327 to step S335 is processing for maintenance of the discriminator, and may be executed when performing maintenance such as verification, learning, and reconfiguration of the discriminator. Specifically, in step S327, it is determined whether or not a component of the partial feature space has been received. This component is sent from each node 80 after the similarity is transmitted. If “NO” in the step S327, reception is waited for a predetermined time. On the other hand, if “YES” in the step S327, the respective components of the received partial feature space are stored in the memory 64 in a step S329. Each component of the partial feature space is a component that can be calculated by each node 80 among the feature vectors of Equation 9. In step S331, it is determined whether or not the components of the partial feature space have been received from all the nodes 80. If “NO” in the step S331, the process returns to the step S327, and the reception process from the remaining nodes 80 is repeated.

一方、ステップS331で“YES”の場合には、ステップS333で、メモリ64に記憶したセンサ時系列データおよび特徴空間を触覚インタラクションデータベース78に記録する。ステップS325で出力された識別結果も対応付けて記録する。   On the other hand, if “YES” in the step S331, the sensor time series data and the feature space stored in the memory 64 are recorded in the tactile interaction database 78 in a step S333. The identification result output in step S325 is also recorded in association with it.

そして、ステップS335で、正解の触覚インタラクションが与えられる場合に、識別器の再構成を行う。正解の触覚インタラクションが与えられるのは、たとえば上述のデータベース構築実験のように所定のシナリオに沿ったコミュニケーションを人間との間で実行している場合であり、この場合、CPU60は、シナリオの進行に応じて自動的に正解の触覚インタラクションのクラスを特定することができる。したがって、図9に示した分散処理テーブルの作成処理と同様にして、識別器を再構成し、分散処理のための各種テーブルを再作成することができる。また、正解のクラスと識別結果に基づいて認識率・誤認識率などを算出することができるので、パラメータC1およびパラメータC2も適宜な値に再設定して、識別器の再構成を行うこともできる。ステップS335を終了すると、この識別処理を終了する。   In step S335, when a correct tactile interaction is given, the classifier is reconfigured. The correct tactile interaction is given when, for example, the communication according to a predetermined scenario is executed with a human as in the database construction experiment described above. In this case, the CPU 60 proceeds with the progress of the scenario. In response, the correct haptic interaction class can be automatically specified. Therefore, the discriminator can be reconfigured and various tables for distributed processing can be recreated in the same manner as the distributed processing table creation processing shown in FIG. In addition, since the recognition rate and the erroneous recognition rate can be calculated based on the correct answer class and the identification result, the parameter C1 and the parameter C2 can be reset to appropriate values and the classifier can be reconfigured. it can. When step S335 ends, the identification process ends.

図19には、ノード80のプロセッサユニット86によって実行されるノード分散処理の動作の一例が示される。この分散処理はたとえば一定時間ごとに実行される。   FIG. 19 shows an example of the operation of node distributed processing executed by the processor unit 86 of the node 80. This distributed processing is executed at regular intervals, for example.

なお、各ノード80のプロセッサユニット86の内蔵メモリには、自身のノード識別情報を示すデータ、所属する触覚センサエレメントの識別情報を示すデータ、隣接するノード80の識別情報を示すデータなどが記憶されている。   The internal memory of the processor unit 86 of each node 80 stores data indicating its own node identification information, data indicating the identification information of the tactile sensor element to which it belongs, data indicating the identification information of the adjacent node 80, and the like. ing.

まず、ステップS401で、認識対象のクラスセットをホストCPU60から受信したか否かを判断する。上述のように、識別処理では認識対象のクラスセットがホスト60から送信されてくる。ステップS401で“NO”の場合、この分散処理を終了する。   First, in step S401, it is determined whether a recognition target class set has been received from the host CPU 60 or not. As described above, the class set to be recognized is transmitted from the host 60 in the identification process. If “NO” in the step S401, the distribution process is ended.

一方、ステップS401で“YES”の場合、ステップS403で、受信した認識対象のクラスセットを内蔵メモリに記憶する。認識対象のクラスセットは、識別しようとする複数のクラスを含んでいる。このクラスセットの受信によって、内蔵メモリに既に記憶されている分散処理テーブルのうち、使用するテーブルを特定することができる。具体的には、近似識別関数テーブルTDの場合、クラスセットに含まれる各クラスに対応するテーブルが参照され、転送経路テーブルTDおよび転送量テーブルTRの場合、クラスセットに対応するテーブルがそれぞれ参照されることとなる。 On the other hand, if “YES” in the step S401, the received class set to be recognized is stored in a built-in memory in a step S403. The class set to be recognized includes a plurality of classes to be identified. By receiving this class set, a table to be used can be specified among the distributed processing tables already stored in the built-in memory. Specifically, in the case of the approximate identification function table TD * , a table corresponding to each class included in the class set is referred to, and in the case of the transfer path table TD and the transfer amount table TR, the table corresponding to the class set is referred to. Will be.

続くステップS405では、In点をホスト60から受信したか否かを判断する。上述のように、センサ時系列データの記録の開始を指示するIn点がホスト60から送信されてくるので、その受信を待機する。   In a succeeding step S405, it is determined whether or not the In point is received from the host 60. As described above, since the In point that instructs the start of recording of the sensor time-series data is transmitted from the host 60, the reception of the In point is awaited.

ステップS405で“YES”の場合には、ステップS407で、センサ時系列データの蓄積を開始する。この蓄積処理は図19の処理等と並列的に実行される。各触覚センサエレメント58の出力は、A/D変換器88によって所定周期でサンプリングされて、その出力データはプロセッサユニット86のバッファに記憶されている。したがって、蓄積処理では、一定時間ごとに、各触覚センサエレメント58のサンプリングデータをバッファから読み出して、内蔵メモリの所定領域に蓄積する。また、センサ時系列データには、サンプリングされたデータに、当該ノード80の識別情報、当該触覚センサエレメント58の識別情報、およびタイムスタンプ等の情報が付加される。   If “YES” in the step S405, accumulation of sensor time-series data is started in a step S407. This accumulation process is executed in parallel with the process of FIG. The output of each tactile sensor element 58 is sampled at a predetermined period by an A / D converter 88, and the output data is stored in a buffer of the processor unit 86. Therefore, in the accumulation process, the sampling data of each tactile sensor element 58 is read from the buffer and accumulated in a predetermined area of the built-in memory at regular intervals. In addition, the sensor time-series data includes information such as identification information of the node 80, identification information of the tactile sensor element 58, and a time stamp added to the sampled data.

また、ステップS409で、データ交換処理を開始する。このデータ交換処理は、図19の処理等と並列的に実行され、これによって、転送経路テーブルTDおよび転送量テーブルTRに基づいて、近隣のノード80との間でセンサ時系列データの送受信が行われる。このデータ交換処理の動作の一例が図20に詳細に示される。   In step S409, data exchange processing is started. This data exchange process is executed in parallel with the process of FIG. 19 and the like, and, based on the transfer path table TD and the transfer amount table TR, sensor time-series data is transmitted / received to / from neighboring nodes 80. Is called. An example of the operation of this data exchange process is shown in detail in FIG.

図20のステップS501では、送信タイミングになったか否かを判断する。データの送信は、たとえば一定時間ごとに実行される。ステップS501で“YES”の場合には、ステップS503で、クラスセットに対応する転送経路テーブルおよび転送量テーブルTRに基づいて、他のノード80にセンサ時系列データを送信する。各ノード80は、通信経路テーブルTDを参照して、通信経路の順に、所属する触覚センサエレメント58のセンサ時系列データを送信する。各触覚センサエレメント58のセンサ時系列データの転送量は、転送量テーブルTRに記録された転送量に決定される。なお、センサ時系列データには、所属ノードの識別情報、触覚センサエレメントの識別情報、およびタイムスタンプ等が付加されている。   In step S501 in FIG. 20, it is determined whether or not the transmission timing has come. Data transmission is executed at regular time intervals, for example. If “YES” in the step S501, the sensor time series data is transmitted to the other nodes 80 in a step S503 based on the transfer route table and the transfer amount table TR corresponding to the class set. Each node 80 refers to the communication path table TD and transmits the sensor time series data of the tactile sensor element 58 to which the node 80 belongs in the order of the communication path. The transfer amount of the sensor time-series data of each tactile sensor element 58 is determined by the transfer amount recorded in the transfer amount table TR. The sensor time-series data is added with identification information of the belonging node, identification information of the tactile sensor element, a time stamp, and the like.

ステップS503を終了し、またはステップS501で“NO”の場合、ステップS505で、センサ時系列データを他のノード80から受信したか否かを判断する。ステップS505で“YES”の場合には、ステップS507で、受信したセンサ時系列データを内蔵メモリに記憶する。なお、受信したセンサ時系列データに付加されているノードの識別情報および触覚センサエレメントの識別情報と、転送経路テーブルTDとを参照することによって、必要とするセンサ時系列データを受信できたかどうかを判定することが可能である。   If step S503 ends or if “NO” in the step S501, it is determined whether or not sensor time-series data is received from another node 80 in a step S505. If “YES” in the step S505, the received sensor time series data is stored in the built-in memory in a step S507. Whether the necessary sensor time-series data can be received by referring to the node identification information and the tactile sensor element identification information added to the received sensor time-series data and the transfer path table TD. It is possible to determine.

ステップS507を終了し、またはステップS505で“NO”の場合には、ステップS509で、交換終了か否かを判断する。たとえば、ホスト60からセンサ時系列データの記録の終了を指示するOut点を受信したかどうかを判断する。ステップS509で“NO”の場合、処理はステップS501に戻り、データ交換を続ける。一方、ステップS509で“YES”の場合、このデータ交換処理を終了する。   If step S507 ends or if “NO” in the step S505, it is determined whether or not the replacement is ended in a step S509. For example, it is determined whether or not an Out point that instructs the end of recording of the sensor time-series data is received from the host 60. If “NO” in the step S509, the process returns to the step S501 to continue the data exchange. On the other hand, if “YES” in the step S509, the data exchange processing is ended.

このようなデータ交換処理が、図19のステップS409で開始される。したがって、各ノード80には、当該ノード80で算出すべき特徴量のために必要な他のノード80の触覚センサエレメント58のセンサ時系列データが収集されることとなる。   Such data exchange processing is started in step S409 of FIG. Therefore, the sensor time-series data of the tactile sensor elements 58 of other nodes 80 necessary for the feature amount to be calculated by the node 80 is collected in each node 80.

続いて、ステップS411で、蓄積された一定時間分のセンサ時系列データをホスト60に転送する。ここで送信するセンサ時系列データは、所属する触覚センサエレメント58のデータである。また、このセンサ時系列データは、識別器のメンテナンス用であり、メンテナンスを行わない場合には、このホスト60への転送は行われない。なお、全体のノード80がホスト60へ送信できるように、転送量をステップS409のデータ交換処理における転送量よりも減少させるようにしてよい。   Subsequently, in step S411, the accumulated sensor time-series data for a predetermined time is transferred to the host 60. The sensor time-series data transmitted here is data of the tactile sensor element 58 to which it belongs. The sensor time series data is for maintenance of the discriminator, and is not transferred to the host 60 when maintenance is not performed. It should be noted that the transfer amount may be made smaller than the transfer amount in the data exchange processing in step S409 so that the entire node 80 can transmit to the host 60.

そして、ステップS413で、Out点をホスト60から受信したか否かを判断する。Out点は、上述のように、センサ時系列データの記録の終了を指示するものである。ステップS413で“NO”の場合、処理はステップS411に戻る。したがって、センサ時系列データの蓄積、データ交換処理、およびホスト60への転送が続けられる。   In step S413, it is determined whether the Out point is received from the host 60 or not. As described above, the Out point is an instruction to end the recording of the sensor time-series data. If “NO” in the step S413, the process returns to the step S411. Therefore, accumulation of sensor time-series data, data exchange processing, and transfer to the host 60 are continued.

一方、ステップS413で“YES”の場合には、つまり、センサ時系列データの記録の終了が指示された場合には、ステップS415で、In点からOut点までの蓄積されたセンサ時系列データから特徴量を算出する。具体的には、このノード80に転送経路テーブルTDに基づいてセンサ時系列データが収集された触覚センサエレメント58の組み合わせについて、上述の数9に示したような特徴ベクトルの成分をセンサ時系列データから算出する。なお、特徴量は、最大限の高い時間分解能で算出されるのが望ましい。   On the other hand, if “YES” in the step S413, that is, if the end of recording of the sensor time-series data is instructed, in a step S415, from the accumulated sensor time-series data from the In point to the Out point. The feature amount is calculated. Specifically, with respect to the combination of the tactile sensor elements 58 for which sensor time series data has been collected based on the transfer path table TD in this node 80, the component of the feature vector as shown in the above equation 9 is used as the sensor time series data. Calculate from It should be noted that the feature amount is preferably calculated with a maximum high time resolution.

続くステップS417で、クラス別の近似識別関数テーブルDFに基づいて、部分特徴空間での各クラスの類似度を算出する。ここでいう部分特徴空間は、このノード80で計算できる触覚センサエレメント58の組み合わせについての特徴ベクトル、つまり、ステップS415で算出された特徴ベクトルを意味する。したがって、このステップS417では、認識対象の各クラスについて、近似識別関数テーブルTDと特徴ベクトルに基づいて、このノード80で計算できる触覚センサエレメント58の組み合わせの要素についての上述の数8の計算が行われて、このノード80の有する部分特徴空間での各クラスの類似度が算出される。このように、触覚センサ76では、分散処理テーブルに基づいて、触覚インタラクションの識別のための分散処理を各ノード80で実行することができる。 In subsequent step S417, the similarity of each class in the partial feature space is calculated based on the class-specific approximate discriminant function table DF * . The partial feature space here means a feature vector for a combination of the tactile sensor elements 58 that can be calculated by the node 80, that is, the feature vector calculated in step S415. Therefore, in this step S417, the calculation of the above equation 8 is performed for the elements of the combination of the tactile sensor elements 58 that can be calculated at this node 80 based on the approximate discrimination function table TD * and the feature vector for each class to be recognized. As a result, the similarity of each class in the partial feature space of the node 80 is calculated. Thus, the tactile sensor 76 can execute the distributed processing for identifying the tactile interaction in each node 80 based on the distributed processing table.

そして、ステップS419で、算出された各クラスの類似度をホスト60に送信する。これによって、ホスト60は、上述のように、各ノード80における各クラスの類似度を取得してそれらを合計することによって、数8の識別関数出力を認識対象のクラスごとに算出することができる。   In step S419, the calculated similarity of each class is transmitted to the host 60. Thus, as described above, the host 60 can calculate the discrimination function output of Expression 8 for each recognition target class by acquiring the similarity of each class in each node 80 and summing them. .

また、ステップS421では、部分特徴空間の各成分、つまり、ステップS415で算出した特徴ベクトルの各成分をホスト60に送信する。これは、上述のように、識別器の検証やメンテナンス等のために行われる。ステップS421を終了すると、このノード分散処理を終了する。   In step S421, each component of the partial feature space, that is, each component of the feature vector calculated in step S415 is transmitted to the host 60. This is performed for verification, maintenance, etc. of the discriminator as described above. When step S421 ends, this node distribution processing ends.

この実施例によれば、人間とのコミュニケーション時のロボット10の触覚情報を触覚インタラクションデータベース78に蓄積し、これを部分空間法で解析することによって、触覚インタラクションの識別器を構成し、コミュニケーション時の触覚注目点を求めるとともに、触覚情報の分散処理を行うためのセンサ群の切れ目を求めるようにした。したがって、多数の触覚センサエレメント58で全身を覆われたロボット10において、触覚情報の分散処理を実現することができる。これにより、触覚センサ76の各ノード80からは、各触覚センサエレメント58の時系列データをホストCPU60に送信する必要がなく、分散処理で情報量の少ないデータを生成することができるので、ホストCPU60に送信する情報量を減らすことができる。また、ホストCPU60で膨大な触覚情報を処理する必要がないので、ホストCPU60として能力の低いものを使用することができ、つまり、低コストに抑えることができる。さらに、識別器によって予期される触覚インタラクションを識別することができるだけではなく、予想外の触行動(触覚センサ76への予想外の入力)が行われたことも把握することができる。   According to this embodiment, the tactile information of the robot 10 at the time of communication with a human is accumulated in the tactile interaction database 78, and this is analyzed by the subspace method to constitute a tactile interaction discriminator. In addition to obtaining tactile attention points, the breaks of sensor groups for performing distributed processing of tactile information were obtained. Accordingly, distributed processing of tactile information can be realized in the robot 10 whose entire body is covered with a large number of tactile sensor elements 58. Thereby, it is not necessary to transmit the time series data of each tactile sensor element 58 to the host CPU 60 from each node 80 of the tactile sensor 76, and data with a small amount of information can be generated by distributed processing. The amount of information to be transmitted to can be reduced. In addition, since it is not necessary to process a large amount of tactile information in the host CPU 60, a host CPU 60 having a low capability can be used, that is, the cost can be reduced. Furthermore, not only can the tactile interaction expected by the discriminator be identified, but it can also be understood that an unexpected tactile action (an unexpected input to the tactile sensor 76) has occurred.

この発明の一実施例のコミュニケーションロボットを示す図解図である。It is an illustration figure which shows the communication robot of one Example of this invention. 図1実施例のコミュニケーションロボットに用いる皮膚とその中に埋め込まれる触覚センサエレメントを示す図解図である。It is an illustration figure which shows the skin used for the communication robot of FIG. 1 Example, and the tactile sensor element embedded in it. 図1実施例のコミュニケーションロボットの電気的構成の一例を示すブロック図である。It is a block diagram which shows an example of an electrical configuration of the communication robot of FIG. 1 Example. 触覚センサの電気的構成の一例を示すブロック図である。It is a block diagram which shows an example of the electrical structure of a tactile sensor. 触覚インタラクションデータベース構築実験で用いられたシナリオを示す図解図である。It is an illustration figure which shows the scenario used in the tactile interaction database construction experiment. 図5の実験にこの発明の識別手法を適用した結果として15のインタラクションのクラスの認識率を示す図解図である。FIG. 6 is an illustrative view showing recognition rates of 15 interaction classes as a result of applying the identification method of the present invention to the experiment of FIG. 5. 図5の実験にこの発明の識別手法を適用した結果として15のインタラクションのクラスの誤認識率を示す図解図である。It is an illustration figure which shows the misrecognition rate of 15 classes of interaction as a result of applying the identification method of this invention to the experiment of FIG. 図5の実験から最大特異値に対応する正規直交ベクトルより作成した体性感覚マップを示す図解図であり、図8(A)はクラス8の「よしよしして」の場合を示し、図8(B)はクラス11の「こちょこちょして」の場合を示す。FIG. 8 is an illustrative view showing a somatosensory map created from an orthonormal vector corresponding to the maximum singular value from the experiment of FIG. 5, and FIG. 8A shows a case of class 8 “Yoshiyoshi”, and FIG. B) shows the case of class 11 “Kokokoshite”. 分散処理テーブルの作成処理の動作の一例の一部を示すフロー図である。It is a flowchart which shows a part of example of operation | movement of the production process of a distributed processing table. 図9の続きを示すフロー図である。FIG. 10 is a flowchart showing a continuation of FIG. 9. 分散処理テーブルの作成例の説明のための簡略化した触覚センサを示す図解図である。It is an illustration figure which shows the simplified tactile sensor for description of the preparation example of a distributed process table. 図11の触覚センサのための或るクラスの識別関数テーブルの一例を示す図解図であり、図12(A)は識別関数テーブルDFを示し、図12(B)は近似識別関数テーブルDFを示す。FIG. 12 is an illustrative view showing an example of a certain class of discrimination function table for the tactile sensor of FIG. 11, FIG. 12 (A) shows the discrimination function table DF, and FIG. 12 (B) shows the approximate discrimination function table DF * . Show. 図11の触覚センサのための或るクラスセットの転送経路テーブルTDの一例を示す図解図である。It is an illustration figure which shows an example of the transfer path | route table TD of a certain class set for the tactile sensor of FIG. 図13の転送経路テーブルTDから作成された転送量に関するテーブルの一例を示す図解図であり、図14(A)は転送量テーブルTRを示し、図14(B)は転送負荷テーブルTRSを示す。FIG. 14A is an illustrative view showing an example of a table relating to a transfer amount created from the transfer path table TD of FIG. 13, FIG. 14A shows a transfer amount table TR, and FIG. 14B shows a transfer load table TRS. 図14から調整した転送量に関するテーブルの一例を示す図解図であり、図15(A)は調整した転送量テーブルTRを示し、図15(B)は調整後の転送負荷テーブルTRSを示す。FIG. 15A is an illustrative view showing an example of a table related to the transfer amount adjusted from FIG. 14, FIG. 15A shows the adjusted transfer amount table TR * , and FIG. 15B shows the adjusted transfer load table TRS * . . ノードのテーブル更新処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the table update process of a node. ホストCPUによって実行される触覚インタラクションの識別処理の動作の一例の一部を示すフロー図である。It is a flowchart which shows a part of example of operation | movement of the identification process of the tactile interaction performed by host CPU. 図17の続きを示すフロー図である。FIG. 18 is a flowchart showing a continuation of FIG. 17. ノードの分散処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the distributed process of a node. ノードのデータ交換処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the data exchange process of a node.

符号の説明Explanation of symbols

10 …コミュニケーションロボット
24 …皮膚
58 …触覚センサエレメント
60 …CPU
64 …メモリ
68 …センサ入力/出力ボード
76 …触覚センサ
78 …触覚インタラクションデータベース
80 …ノード
86 …プロセッサユニット
10 ... Communication robot 24 ... Skin 58 ... Tactile sensor element 60 ... CPU
64 ... Memory 68 ... Sensor input / output board 76 ... Tactile sensor 78 ... Tactile interaction database 80 ... Node 86 ... Processor unit

Claims (3)

全身に分布された複数の触覚センサエレメントが接続された複数のノードを含む触覚センサおよびホストコンピュータを備えるコミュニケーションロボットであって、
前記複数のノードのそれぞれは、
触覚インタラクション時の前記触覚センサの時系列データを用いて算出された前記複数の触覚センサエレメント間の相互相関を表す特徴ベクトルから部分空間法によって構成されかつ各触覚インタラクションの種類を識別するための識別関数を示す識別関数データ、および認識対象の触覚インタラクションについて前記識別関数の出力の計算のための各触覚センサエレメントの時系列データの転送経路を示す転送経路データを記憶する記憶手段、
所属する各触覚センサエレメントの時系列データを検出する検出手段、
前記転送経路データに基づいて、前記検出手段で検出した前記時系列データを他のノードに送信する第1送信手段、
他のノードの前記各触覚センサエレメントの時系列データを受信する受信手段、
前記検出手段で検出した前記時系列データ、前記受信手段で受信した前記時系列データおよび前記識別関数データに基づいて、認識対象の触覚インタラクションの識別関数の出力を算出する算出手段、および
前記算出手段によって算出された識別関数の出力を前記ホストコンピュータに送信する第2送信手段を備え、
前記ホストコンピュータは、各ノードから受信した前記識別関数の出力に基づいて、触覚インタラクションの識別を行う識別手段を備える、コミュニケーションロボット。
A communication robot comprising a tactile sensor including a plurality of nodes to which a plurality of tactile sensor elements distributed throughout the body are connected and a host computer,
Each of the plurality of nodes is
Identification for identifying the type of each tactile interaction by using a subspace method from a feature vector representing a cross-correlation between the plurality of tactile sensor elements calculated using time series data of the tactile sensor at the time of tactile interaction Storage means for storing identification function data indicating a function, and transfer path data indicating a transfer path of time series data of each tactile sensor element for calculating the output of the identification function for a tactile interaction to be recognized;
Detection means for detecting time-series data of each tactile sensor element to which it belongs,
First transmission means for transmitting the time-series data detected by the detection means to another node based on the transfer path data;
Receiving means for receiving time-series data of each tactile sensor element of another node;
Calculation means for calculating an output of a discrimination function of a tactile interaction to be recognized based on the time series data detected by the detection means, the time series data received by the reception means, and the discrimination function data; and the calculation means A second transmission means for transmitting the output of the discrimination function calculated by the above to the host computer,
The said host computer is a communication robot provided with the identification means which identifies a tactile interaction based on the output of the said identification function received from each node.
前記記憶手段は、前記各触覚センサエレメントの時系列データの転送量を示す転送量データをさらに記憶し、
前記第1送信手段は、前記時系列データを前記転送量データの転送量で送信する、請求項1記載のコミュニケーションロボット。
The storage means further stores transfer amount data indicating a transfer amount of time-series data of each tactile sensor element,
The communication robot according to claim 1, wherein the first transmission unit transmits the time-series data with a transfer amount of the transfer amount data.
請求項1記載のコミュニケーションロボットのための前記識別関数の作成方法であって、
(a)触覚インタラクション時の前記触覚センサの時系列データを蓄積し、
(b)前記触覚センサの時系列データを用いて算出された前記複数の触覚センサエレメント間の相互相関を表す特徴ベクトルを算出し、そして
(c)前記特徴ベクトルから部分空間法により各触覚インタラクションの識別関数を構成する、触覚インタラクションの識別関数の作成方法。
A method of creating the identification function for the claim 1, wherein the communication robot,
(A) Accumulating time series data of the tactile sensor at the time of tactile interaction;
(B) calculating a feature vector representing a cross-correlation between the plurality of tactile sensor elements calculated using the time series data of the tactile sensor ; and (c) calculating each feature of the tactile interaction from the feature vector by a subspace method. A method of creating a discrimination function of haptic interaction that constitutes a discrimination function.
JP2007238747A 2007-09-14 2007-09-14 Communication robot Active JP5103589B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007238747A JP5103589B2 (en) 2007-09-14 2007-09-14 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007238747A JP5103589B2 (en) 2007-09-14 2007-09-14 Communication robot

Publications (2)

Publication Number Publication Date
JP2009066716A JP2009066716A (en) 2009-04-02
JP5103589B2 true JP5103589B2 (en) 2012-12-19

Family

ID=40603516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007238747A Active JP5103589B2 (en) 2007-09-14 2007-09-14 Communication robot

Country Status (1)

Country Link
JP (1) JP5103589B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6566172B1 (en) * 2018-01-05 2019-08-28 Jfeスチール株式会社 Corrosion amount prediction method of metal material, selection method of metal material and corrosion amount prediction device of metal material
CN108772854B (en) * 2018-06-19 2021-03-16 南京涵曦月自动化科技有限公司 360 degrees collision protector of robot based on tumbler principle

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163515A (en) * 1998-11-25 2000-06-16 Ntt Data Corp Method and device for pattern recognition and record medium
JP4127043B2 (en) * 2002-12-11 2008-07-30 ソニー株式会社 Legged mobile robot and actuator device applied as joint axis of legged mobile robot
JP2005339186A (en) * 2004-05-27 2005-12-08 Nippon Telegr & Teleph Corp <Ntt> Pattern recognition learning device and identification device, pattern recognition learning processing method, identification processing method, pattern recognition program and recoding medium with its program recorded
JP4505606B2 (en) * 2005-03-31 2010-07-21 株式会社国際電気通信基礎技術研究所 Skin sensor network
JP4429298B2 (en) * 2006-08-17 2010-03-10 独立行政法人産業技術総合研究所 Object number detection device and object number detection method

Also Published As

Publication number Publication date
JP2009066716A (en) 2009-04-02

Similar Documents

Publication Publication Date Title
CN109141620B (en) Sound source separation information detection device, robot, sound source separation information detection method, and storage medium
KR100898435B1 (en) Robot apparatus and control method thereof
JP5070441B2 (en) Robot remote control system
JP2003269937A (en) Obstruction recognition device, obstruction recognition method, obstruction recognition program and mobile robot device
JP4016180B2 (en) Planar extraction method, apparatus thereof, program thereof, recording medium thereof, and imaging apparatus
JP2006082150A (en) Robot device and its action controlling method
JP2003266345A (en) Path planning device, path planning method, path planning program, and moving robot device
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
WO2019138619A1 (en) Information processing device, information processing method and program
JP4535096B2 (en) Planar extraction method, apparatus thereof, program thereof, recording medium thereof, and imaging apparatus
JP2006281347A (en) Communication robot
Chaccour et al. Novel indoor navigation system for visually impaired and blind people
JP2003266349A (en) Position recognition method, device thereof, program thereof, recording medium thereof, and robot device provided with position recognition device
JP2009131914A (en) Robot control system
Papageorgiou et al. Advances in intelligent mobility assistance robot integrating multimodal sensory processing
JP5103589B2 (en) Communication robot
JP5076107B2 (en) Robot with tactile sensor
JP4677585B2 (en) Communication robot
Bouzit et al. Tactile feedback navigation handle for the visually impaired
Raggioli et al. A reinforcement-learning approach for adaptive and comfortable assistive robot monitoring behavior
Ktistakis et al. A multimodal human-machine interaction scheme for an intelligent robotic nurse
JP2006281348A (en) Communication robot
JP5229701B2 (en) Robot with tactile sensor
JP5633003B2 (en) Recording control apparatus and recording control program
JP2005271137A (en) Robot device and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120831

R150 Certificate of patent or registration of utility model

Ref document number: 5103589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250