JP5429462B2 - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP5429462B2
JP5429462B2 JP2009146168A JP2009146168A JP5429462B2 JP 5429462 B2 JP5429462 B2 JP 5429462B2 JP 2009146168 A JP2009146168 A JP 2009146168A JP 2009146168 A JP2009146168 A JP 2009146168A JP 5429462 B2 JP5429462 B2 JP 5429462B2
Authority
JP
Japan
Prior art keywords
communication
familiarity
user
sensing
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009146168A
Other languages
Japanese (ja)
Other versions
JP2011000681A (en
Inventor
崇行 神田
昌裕 塩見
聡 佐竹
フェアチャイルド グラス ディラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2009146168A priority Critical patent/JP5429462B2/en
Publication of JP2011000681A publication Critical patent/JP2011000681A/en
Application granted granted Critical
Publication of JP5429462B2 publication Critical patent/JP5429462B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、コミュニケーションロボットに関し、特にたとえば、一連の行動プログラムからなる行動モジュールを実行することによって、1または複数のコミュニケーション対象との間でコミュニケーション行動を取るコミュニケーションロボットに関する。   The present invention relates to a communication robot, and more particularly to, for example, a communication robot that takes a communication action with one or a plurality of communication objects by executing an action module including a series of action programs.

本件出願人は、特許文献1において、コミュニケーションロボットを提案している。たとえば、特許文献1のコミュニケーションロボットは、複数のユーザ(コミュニケーション対象)が所持しているRFID(Radio Frequency Identification)タグが送信する情報を受信することで、近傍あるいは周囲に存在するユーザを識別する。そして、このコミュニケーションロボットは、各RFIDタグが送信する際の電波強度から、最近傍のユーザを特定してコミュニケーション行動をとり、その実行したコミュニケーション行動の履歴を、当該コミュニケーション行動を実行したコミュニケーション対象に対応づけて記録する。   The present applicant has proposed a communication robot in Patent Document 1. For example, the communication robot disclosed in Patent Literature 1 receives information transmitted from an RFID (Radio Frequency Identification) tag possessed by a plurality of users (communication targets), thereby identifying a user existing in the vicinity or in the vicinity. Then, this communication robot identifies the nearest user from the radio wave intensity when each RFID tag transmits, takes a communication action, and sets the history of the executed communication action as the communication target that executed the communication action. Record in association.

特開2007−320033号[B25J 13/08]JP2007-320033 [B25J 13/08]

特許文献1の技術では、コミュニケーション行動履歴を残しておくことで、或るユーザに一度話した内容を当該ユーザに再び話すようなことを回避できる。しかしながら、特許文献1の技術では、過去に提示した情報を提示するかしないかをON/OFF的に切り替えることしかできないため、コミュニケーション対象に適した多様なコミュニケーション行動をコミュニケーションロボットが実行しているとは言い難い。   In the technique of Patent Document 1, by leaving a communication action history, it is possible to avoid talking to a user again about the contents once spoken to a certain user. However, in the technology of Patent Document 1, since it is only possible to switch on / off whether information presented in the past is presented or not, it is assumed that the communication robot is executing various communication actions suitable for the communication target. Is hard to say.

それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットを提供することである。   Therefore, the main object of the present invention is to provide a novel communication robot.

この発明のさらに他の目的は、コミュニケーション対象に適した多様なコミュニケーション行動を実行することができる、コミュニケーションロボットを提供することである。   Still another object of the present invention is to provide a communication robot capable of executing various communication actions suitable for a communication target.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、一連の行動プログラムからなる行動モジュールを実行することによって、1または複数のコミュニケーション対象との間でコミュニケーション行動を取るコミュニケーションロボットであって、コミュニケーション対象を個別に識別し、当該コミュニケーション対象の個人識別情報を取得する識別情報取得手段、コミュニケーション対象の個人識別情報に対応付けて、当該コミュニケーション対象のユーザ親密度を記憶するユーザ親密度記憶手段、識別情報取得手段によって取得された個人識別情報に対応するユーザ親密度をユーザ親密度記憶手段から読み出す第1読み出し手段、コミュニケーション対象の現在の反応をセンシングし、各々がセンシング親密度に対応付けされた複数のパラメータからなるセンシング情報を取得するセンシング情報取得手段、センシング情報取得手段によって取得されたセンシング情報の各パラメータに対応するセンシング親密度に基づいてコミュニケーション対象のセンシング親密度を決定するセンシング親密度決定手段、第1読み出し手段によって読み出されたユーザ親密度と、センシング親密度決定手段によって決定されたセンシング親密度とを比較して、それらの中で小さい方の数値をコミュニケーション対象に対してコミュニケーション行動を取るときのコミュニケーション親密度として決定するコミュニケーション親密度決定手段、コミュニケーション親密度に対応付けて行動モジュール実行情報を記憶する行動モジュール実行情報記憶手段、コミュニケーション親密度決定手段によって決定されたコミュニケーション親密度に対応する行動モジュール実行情報を行動モジュール実行情報記憶手段から読み出す第2読み出し手段、および第2読み出し手段によって読み出された行動モジュール実行情報を参照して、行動モジュールを実行する行動モジュール実行手段を備える、コミュニケーションロボットである。 A first invention is a communication robot that takes a communication action with one or a plurality of communication objects by executing an action module consisting of a series of action programs, individually identifying the communication objects, and Identification information acquisition means for acquiring the personal identification information of the target, user familiarity storage means for storing the user familiarity of the communication target in association with the personal identification information of the communication target, and personal identification acquired by the identification information acquisition means first reading means for reading user intimacy corresponding to information from the user familiarity storing means, and sensing the current response of the communication target, collected sensing information, each consisting of a plurality of parameters associated with the sensing closeness Sensing information acquiring means, sensing familiarity determining means for determining a sensing closeness communication target based on the sensing familiarity corresponding to each parameter of the sensing information obtained by sensing the information acquisition means for, read out by the first reading means user intimacy that is, by comparing the sensing closeness that is determined by sensing the closeness determining means, determining the smaller value of among them as a communication familiarity when to communicate action against communication target Communication closeness determining unit, behavior module execution information storage means for storing behavior module execution information in association with the communication familiarity to, communication determined by the communication closeness determining means Second reading means for reading the action module execution information corresponding to the density from the behavior module execution information storage means, and with reference to the behavior module execution information read by the second reading means, behavior module executing means for executing an action module It is a communication robot equipped with.

第1の発明では、コミュニケーションロボット(10)は、一連の行動プログラムからなる行動モジュールを実行することによってコミュニケーション行動を取るものであり、コミュニケーション対象となるユーザの個人識別情報を取得する識別情報取得手段(102)を備えている。ユーザ親密度記憶手段(108)には、個々のユーザに対してコミュニケーションロボットが設定するユーザ親密度がユーザの個人識別情報に対応付けて記憶されている。第1読み出し手段(S27)は、個人識別情報に対応するユーザを特定し、そのユーザのユーザ親密度をユーザ親密度記憶手段から読み出す。センシング情報取得手段(S29)は、ユーザのセンシング情報を取得し、センシング親密度算出手段(S31)は、そのセンシング情報に基づいて、センシング親密度を算出する。そして、コミュニケーション親密度算出手段(S33)は、ユーザ親密度とセンシング親密度とに基づいて、コミュニケーション親密度を算出する。また、行動モジュール実行情報記憶手段(110,112)には、コミュニケーション親密度に対応付けて、行動モジュールを実行するときの行動モジュール実行情報が記憶されている。行動モジュール実行手段(S39)は、コミュニケーション親密度に応じて行動モジュール実行情報記憶手段から読み出した行動モジュール実行情報を参照して、行動モジュールを実行する。   In the first invention, the communication robot (10) takes communication behavior by executing a behavior module consisting of a series of behavior programs, and obtains identification information acquisition means for acquiring personal identification information of a user to be communicated (102). In the user closeness storage means (108), the user closeness set by the communication robot for each user is stored in association with the personal identification information of the user. The first reading means (S27) specifies a user corresponding to the personal identification information and reads the user familiarity of the user from the user familiarity storage means. The sensing information acquisition means (S29) acquires the user's sensing information, and the sensing familiarity calculation means (S31) calculates the sensing familiarity based on the sensing information. Then, the communication closeness calculating means (S33) calculates the communication closeness based on the user closeness and the sensing closeness. The behavior module execution information storage means (110, 112) stores behavior module execution information when executing the behavior module in association with the communication familiarity. The behavior module execution means (S39) executes the behavior module with reference to the behavior module execution information read from the behavior module execution information storage means according to the communication familiarity.

第1の発明によれば、コミュニケーション親密度に従ってビヘイビアを実行することができる。したがって、コミュニケーション対象に適した多様なコミュニケーション行動を実行することができる。   According to the first aspect, the behavior can be executed according to the communication familiarity. Therefore, various communication actions suitable for the communication target can be executed.

第2の発明は、一連の行動プログラムからなる行動モジュールを実行することによって、1または複数のコミュニケーション対象との間でコミュニケーション行動を取るコミュニケーションロボットであって、コミュニケーション対象を個別に識別し、当該コミュニケーション対象の個人識別情報を取得する識別情報取得手段、コミュニケーション対象の個人識別情報に対応付けて、当該コミュニケーション対象のユーザ親密度を記憶するユーザ親密度記憶手段、識別情報取得手段によって取得された個人識別情報に対応するユーザ親密度をユーザ親密度記憶手段から読み出す第1読み出し手段、コミュニケーション対象のセンシング情報を取得するセンシング情報取得手段、センシング情報取得手段によって取得されたセンシング情報に基づいて、コミュニケーション対象のセンシング親密度を算出するセンシング親密度算出手段、第1読み出し手段によって読み出されたユーザ親密度とセンシング親密度算出手段によって算出されたセンシング親密度とに基づいて、コミュニケーション行動を取るときのコミュニケーション親密度を算出するコミュニケーション親密度算出手段、コミュニケーション親密度に対応付けて行動モジュール実行情報を記憶する行動モジュール実行情報記憶手段、コミュニケーション親密度算出手段によって算出されたコミュニケーション親密度に対応する行動モジュール実行情報を行動モジュール実行情報記憶手段から読み出す第2読み出し手段、第2読み出し手段によって読み出された行動モジュール実行情報を参照して、前記行動モジュールを実行する行動モジュール実行手段、行動モジュールに係るコミュニケーション行動の種類に対応付けて、コミュニケーション行動を取った後にコミュニケーション対象のユーザ親密度を加算するか否かの設定情報を記憶する設定情報記憶手段、行動モジュール実行手段によって実行される行動モジュールに係るコミュニケーション行動に対応する設定情報を設定情報記憶手段から読み出す第3読み出し手段、行動モジュール実行手段によって行動モジュールが実行された後、第3読み出し手段によって読み出された設定情報を参照して、コミュニケーション対象のユーザ親密度を加算するか否かを判断する判断手段、および判断手段によってコミュニケーション対象のユーザ親密度を加算すると判別されたとき、ユーザ親密度記憶手段に記憶されている当該コミュニケーション対象のユーザ親密度を加算する親密度加算手段を備える、コミュニケーションロボットである。 A second invention is a communication robot that takes a communication action with one or a plurality of communication objects by executing an action module composed of a series of action programs, individually identifying the communication objects, and Identification information acquisition means for acquiring the personal identification information of the target, user familiarity storage means for storing the user familiarity of the communication target in association with the personal identification information of the communication target, and personal identification acquired by the identification information acquisition means Based on the sensing information obtained by the first reading means for reading out the user intimacy corresponding to the information from the user intimacy storage means, sensing information obtaining means for obtaining the sensing information to be communicated, and sensing information obtaining means. A sensing intimacy calculating means for calculating a sensing intimacy of a communication target, based on the user intimacy read by the first reading means and the sensing intimacy calculated by the sensing intimacy calculating means. Correspondence to communication familiarity calculated by communication familiarity calculation means for calculating communication familiarity when taking, behavior module execution information storage means for storing behavior module execution information in association with communication familiarity, and communication familiarity calculation means The behavior module execution information to be read is read from the behavior module execution information storage means, the behavior module execution information is read by referring to the behavior module execution information read by the second readout means. Action module executing means for performing, setting information storage means for storing setting information as to whether or not to add the user intimacy of the communication target after taking the communication action in association with the type of communication action related to the action module, action after the behavior module is executed by the third reading means, behavior module execution means for reading the setting information corresponding to the communication behavior according to the behavior module executed from the setting information storage means by the module execution means, read out by the third reading means refers to the setting information, when it is determined that adding the user intimacy communication subject by determining means, and determination means for determining whether to add the user intimacy communication target, user familiarity storing means Remembered It is a communication robot provided with the familiarity addition means which adds the said user familiarity of the said communication object .

第2の発明では、判断手段(S41)は、ビヘイビアの実行終了後にコミュニケーション対象となったユーザのユーザ親密度を加算するかどうかを判断する。ユーザ親密度を加算する場合には、更新手段(S43)は、コミュニケーション対象となったユーザのユーザ親密度を1加算して、ユーザ親密度記憶手段(108)を更新する。   In the second invention, the determining means (S41) determines whether or not to add the user intimacy of the user who became the communication target after the execution of the behavior is completed. When adding the user intimacy, the updating means (S43) adds 1 to the user intimacy of the user who became the communication target, and updates the user intimacy storage means (108).

第2の発明によれば、ユーザ親密度を逐次的に変化させることで、時宜に適したコミュニケーション行動を実行することができる。   According to the second aspect of the present invention, it is possible to execute a communication action suitable in a timely manner by sequentially changing the user familiarity.

第3の発明は、第1または2の発明に従属し、行動モジュール実行情報は、コミュニケーション行動を取るときの発話内容を含む。   A third invention is dependent on the first or second invention, and the action module execution information includes an utterance content when a communication action is taken.

第3の発明では、行動モジュール実行情報記憶手段(110,112)は、たとえば、発話内容データベース(110)を含み、この発話内容データベースには、コミュニケーションロボット(10)がコミュニケーション行動を取るときの発話内容がコミュニケーション親密度に対応付けて記憶されている。   In the third invention, the action module execution information storage means (110, 112) includes, for example, an utterance content database (110), and this utterance content database includes an utterance when the communication robot (10) takes a communication action. The contents are stored in association with the communication intimacy.

第4の発明は、第1ないし3のいずれかの発明に従属し、行動モジュール実行情報は、前記コミュニケーション行動を取るときの前記コミュニケーション対象との対話距離を含む。   A fourth invention is dependent on any one of the first to third inventions, and the action module execution information includes a dialogue distance with the communication target when the communication action is taken.

第4の発明では、行動モジュール実行情報記憶手段(110,112)は、たとえば、発話状況データベース(112)を含み、この発話状況データベースには、コミュニケーションロボット(10)がコミュニケーション行動を取るときのユーザとの対話距離がコミュニケーション親密度に対応付けて記憶されている。   In the fourth invention, the action module execution information storage means (110, 112) includes, for example, an utterance situation database (112), and the utterance situation database includes a user when the communication robot (10) takes a communication action. Is stored in association with the communication intimacy.

第5の発明は、第1ないし4のいずれかの発明に従属し、行動モジュール実行情報は、コミュニケーション行動を取る時間に対するコミュニケーション対象にアイコンタクトする時間の割合を含む。   A fifth invention is dependent on any one of the first to fourth inventions, and the action module execution information includes a ratio of time for making eye contact with a communication target with respect to time for taking communication action.

第5の発明では、行動モジュール実行情報記憶手段(110,112)は、たとえば、発話状況データベース(112)を含み、この発話状況データベースには、コミュニケーションロボット(10)がコミュニケーション行動を取る時間に対するコミュニケーション対象にアイコンタクトする時間の割合がコミュニケーション親密度に対応付けて記憶されている。   In the fifth invention, the action module execution information storage means (110, 112) includes, for example, an utterance situation database (112), and the utterance situation database includes communication for the time when the communication robot (10) takes communication action. The proportion of time for eye contact with the subject is stored in association with the communication familiarity.

第6の発明は、第1ないし5のいずれかの発明に従属し、コミュニケーション対象は固有の無線タグを保有し、識別情報取得手段は、無線タグのタグ情報を取得するタグ情報取得手段を含み、ユーザ親密度記憶手段は、無線タグのタグ情報に対応付けてコミュニケーション対象のユーザ親密度を記憶する。   A sixth invention is dependent on any one of the first to fifth inventions, the communication object has a unique wireless tag, and the identification information acquisition means includes tag information acquisition means for acquiring tag information of the wireless tag. The user closeness storage means stores the user closeness of the communication target in association with the tag information of the wireless tag.

第6の発明では、コミュニケーション対象となるユーザは、それぞれ、無線タグ(12)を装着しており、識別情報取得手段(102)は、たとえばRFIDのようなタグ情報を取得する。ユーザ親密度記憶手段(108)には、個々のユーザに対してコミュニケーションロボットが設定するユーザ親密度がタグ情報に対応付けて記憶されている。   In the sixth invention, each user to be communicated wears a wireless tag (12), and the identification information acquisition means (102) acquires tag information such as RFID. The user closeness storage means (108) stores user closeness set by the communication robot for each user in association with tag information.

この発明によれば、コミュニケーション対象であるユーザのユーザ親密度とセンシング親密度とに基づいてコミュニケーション親密度が算出され、このコミュニケーション親密度に従ってビヘイビアを実行するため、コミュニケーション対象に適した多様なコミュニケーション行動を実行することができる。   According to the present invention, the communication closeness is calculated based on the user closeness and sensing closeness of the user who is the communication target, and the behavior is executed according to the communication closeness. Can be executed.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例のコミュニケーションロボットおよびユーザの一例を示す図解図である。It is an illustration figure which shows an example of the communication robot of one Example of this invention, and a user. 図1に示すコミュニケーションロボットの一例を示す外観図である。It is an external view which shows an example of the communication robot shown in FIG. 図1に示すコミュニケーションロボットの電気的な構成を示すブロック図である。It is a block diagram which shows the electrical structure of the communication robot shown in FIG. ユーザ情報DBに記憶されるテーブルの一例を示す図解図である。It is an illustration figure which shows an example of the table memorize | stored in user information DB. 発話内容DBに記憶されるテーブルの一例を示す図解図である。It is an illustration figure which shows an example of the table memorize | stored in speech content DB. 発話状況DBに記憶されるテーブルの一例を示す図解図である。It is an illustration figure which shows an example of the table memorize | stored in speech state DB. コミュニケーションロボットの動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of a communication robot. 図7の親密度に従ったビヘイビアの実行処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement of the execution process of the behavior according to the familiarity of FIG.

図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」という。)10は、一連の行動プログラムからなる行動モジュールを実行することによってコミュニケーション行動を取るものである。   Referring to FIG. 1, a communication robot (hereinafter simply referred to as “robot”) 10 of this embodiment takes a communication action by executing an action module composed of a series of action programs.

図1に示すように、このロボット10の近傍或いは周囲には、コミュニケーション対象となるユーザA、ユーザBおよびユーザCが存在し、たとえば、このユーザA、ユーザBおよびユーザCは、それぞれ、無線タグ(RFIDタグ)12を所持或いは装着している。無線タグ12は、それぞれ、固有のRFIDなどのタグ情報(個人識別情報)を所定周波数の電波に重畳して、一定の時間間隔で送信(発信)する。なお、図1では、3人のユーザが存在する場合について示してあるが、ユーザは1人以上であればよい。   As shown in FIG. 1, there are a user A, a user B, and a user C to be communicated in the vicinity of or around the robot 10, for example, the user A, the user B, and the user C are respectively connected to a wireless tag. (RFID tag) 12 is carried or attached. Each of the wireless tags 12 superimposes tag information (personal identification information) such as a unique RFID on a radio wave of a predetermined frequency and transmits (transmits) at regular time intervals. Although FIG. 1 shows the case where there are three users, it is sufficient that the number of users is one or more.

図2を参照して、ロボット10のハードウェア面の構成を詳細に説明する。図2に示すように、ロボット10は台車30を含み、台車30の下面にはロボット10を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット10を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。したがって、ロボット10は、配置された空間内を自律制御によって移動可能である。ただし、ロボット10は、或る場所に固定的に配置されても構わない。   The hardware configuration of the robot 10 will be described in detail with reference to FIG. As shown in FIG. 2, the robot 10 includes a carriage 30, and two wheels 32 and one slave wheel 34 that autonomously move the robot 10 are provided on the lower surface of the carriage 30. The two wheels 32 are independently driven by a wheel motor 36 (see FIG. 3), and the carriage 30, that is, the robot 10 can be moved in any direction, front, back, left, and right. The slave wheel 34 is an auxiliary wheel that assists the wheel 32. Therefore, the robot 10 can move in the arranged space by autonomous control. However, the robot 10 may be fixedly arranged at a certain place.

台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38すなわちロボット10の周囲の物体(人間や障害物など)との距離を測定するものである。   A cylindrical sensor attachment panel 38 is provided on the carriage 30, and a large number of infrared distance sensors 40 are attached to the sensor attachment panel 38. These infrared distance sensors 40 measure the distance from the sensor mounting panel 38, that is, an object (such as a human being or an obstacle) around the robot 10.

なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。   In this embodiment, an infrared distance sensor is used as the distance sensor, but an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.

センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられ、ロボット10の前方の主として人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット10の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。   A body 42 is provided on the sensor mounting panel 38 so as to stand upright. Further, the above-described infrared distance sensor 40 is further provided at the front center upper portion of the body 42 (a position corresponding to a person's chest), and measures the distance mainly to a human in front of the robot 10. Further, the body 42 is provided with a support column 44 extending from substantially the center of the upper end of the side surface, and an omnidirectional camera 46 is provided on the support column 44. The omnidirectional camera 46 photographs the surroundings of the robot 10 and is distinguished from an eye camera 70 described later. As this omnidirectional camera 46, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, the installation positions of the infrared distance sensor 40 and the omnidirectional camera 46 are not limited to the portions, and can be changed as appropriate.

胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 50R and an upper arm 50L are provided at upper end portions on both sides of the torso 42 (position corresponding to a human shoulder) by a shoulder joint 48R and a shoulder joint 48L, respectively. Although illustration is omitted, each of the shoulder joint 48R and the shoulder joint 48L has three orthogonal degrees of freedom. That is, the shoulder joint 48R can control the angle of the upper arm 50R around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48R is an axis parallel to the longitudinal direction (or axis) of the upper arm 50R, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do. Similarly, the shoulder joint 48L can control the angle of the upper arm 50L around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48L is an axis parallel to the longitudinal direction (or axis) of the upper arm 50L, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do.

また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。   In addition, an elbow joint 52R and an elbow joint 52L are provided at the respective distal ends of the upper arm 50R and the upper arm 50L. Although illustration is omitted, each of the elbow joint 52R and the elbow joint 52L has one degree of freedom, and the angle of the forearm 54R and the forearm 54L can be controlled around the axis (pitch axis).

前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当する球体56Rおよび球体56Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車30の前面,肩関節48Rと肩関節48Lとを含む肩に相当する部位,上腕50R,上腕50L,前腕54R,前腕54L,球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット10は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸,腹,脇,背中および腰に相当する位置)に設けられてもよい。   A sphere 56R and a sphere 56L corresponding to a human hand are fixedly provided at the tips of the forearm 54R and the forearm 54L, respectively. However, when a finger or palm function is required, a “hand” in the shape of a human hand can be used. Although not shown, the front surface of the carriage 30, the portion corresponding to the shoulder including the shoulder joint 48R and the shoulder joint 48L, the upper arm 50R, the upper arm 50L, the forearm 54R, the forearm 54L, the sphere 56R, and the sphere 56L, A contact sensor 58 (shown generically in FIG. 3) is provided. A contact sensor 58 on the front surface of the carriage 30 detects contact of a person or another obstacle with the carriage 30. Therefore, when the robot 10 is in contact with an obstacle during its movement, the robot 10 can detect it and immediately stop driving the wheels 32 to suddenly stop the movement of the robot 10. Further, the other contact sensors 58 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 58 is not limited to the said site | part, and may be provided in an appropriate position (position corresponding to a person's chest, abdomen, side, back, and waist).

胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a head 62 is further provided thereon. Although illustration is omitted, the neck joint 60 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 10, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット10が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。   The head 62 is provided with a speaker 64 at a position corresponding to a human mouth. The speaker 64 is used for the robot 10 to communicate with a person around it by voice or sound. A microphone 66R and a microphone 66L are provided at a position corresponding to a human ear. Hereinafter, the right microphone 66R and the left microphone 66L may be collectively referred to as a microphone 66. The microphone 66 captures ambient sounds, in particular, the voices of humans who are subjects of communication. Furthermore, an eyeball part 68R and an eyeball part 68L are provided at positions corresponding to human eyes. The eyeball portion 68R and the eyeball portion 68L include an eye camera 70R and an eye camera 70L, respectively. Hereinafter, the right eyeball part 68R and the left eyeball part 68L may be collectively referred to as the eyeball part 68. The right eye camera 70R and the left eye camera 70L may be collectively referred to as an eye camera 70.

眼カメラ70は、ロボット10に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64,マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 70 captures a human face approaching the robot 10, other parts or objects, and captures a corresponding video signal. The eye camera 70 can be the same camera as the omnidirectional camera 46 described above. For example, the eye camera 70 is fixed in the eyeball unit 68, and the eyeball unit 68 is attached to a predetermined position in the head 62 via an eyeball support unit (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 62, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 62 faces. It is an axis (pitch axis) in the direction to be performed. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 68 or the eye camera 70 is displaced, and the camera axis, that is, the line-of-sight direction is moved. Note that the installation positions of the speaker 64, the microphone 66, and the eye camera 70 described above are not limited to those portions, and may be provided at appropriate positions.

このように、この実施例のロボット10は、車輪32の独立2軸駆動,肩関節48の3自由度(左右で6自由度),肘関節52の1自由度(左右で2自由度),首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。   As described above, the robot 10 of this embodiment includes independent two-axis driving of the wheels 32, three degrees of freedom of the shoulder joint 48 (6 degrees of freedom on the left and right), and one degree of freedom of the elbow joint 52 (two degrees of freedom on the left and right). It has a total of 17 degrees of freedom, 3 degrees of freedom for the neck joint 60 and 2 degrees of freedom for the eyeball support (4 degrees of freedom on the left and right).

図3はロボット10の電気的な構成を示すブロック図である。この図3を参照して、ロボット10は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84,モータ制御ボード86,センサ入力/出力ボード88および音声入力/出力ボード90に接続される。   FIG. 3 is a block diagram showing an electrical configuration of the robot 10. Referring to FIG. 3, robot 10 includes a CPU 80. The CPU 80 is also called a microcomputer or a processor, and is connected to the memory 84, the motor control board 86, the sensor input / output board 88 and the audio input / output board 90 via the bus 82.

メモリ84は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、ロボット10のビヘイビアを制御するためのプログラムやデータが記憶されている。ここで、ビヘイビアとは、行動モジュールによって実現されるロボット10のコミュニケーション行動を示しており、ROMおよびHDDには、複数の行動モジュールが各ビヘイビアに対応付けて記憶されている。また、RAMは、ワークメモリやバッファメモリとして用いられる。   Although not shown, the memory 84 includes a ROM, an HDD, and a RAM. The ROM and HDD store programs and data for controlling the behavior of the robot 10. Here, the behavior indicates the communication behavior of the robot 10 realized by the behavior module, and a plurality of behavior modules are stored in the ROM and HDD in association with each behavior. The RAM is used as a work memory or a buffer memory.

モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。   The motor control board 86 is constituted by, for example, a DSP, and controls driving of each axis motor such as each arm, neck joint, and eyeball unit. That is, the motor control board 86 receives control data from the CPU 80, and controls two motors (collectively indicated as “right eyeball motor 92” in FIG. 3) that control the angles of the two axes of the right eyeball portion 68R. Control the rotation angle. Similarly, the motor control board 86 receives control data from the CPU 80, and controls two angles of the two axes of the left eyeball portion 68L (in FIG. 3, collectively referred to as “left eyeball motor 94”). ) To control the rotation angle.

また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。   The motor control board 86 receives control data from the CPU 80, and includes a total of four motors including three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48R and one motor for controlling the angle of the elbow joint 52R. The rotation angle of two motors (collectively indicated as “right arm motor 96” in FIG. 3) is controlled. Similarly, the motor control board 86 receives control data from the CPU 80, and includes three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48L and one motor for controlling the angle of the elbow joint 52L. The rotation angles of a total of four motors (collectively indicated as “left arm motor 98” in FIG. 3) are controlled.

さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。   Further, the motor control board 86 receives control data from the CPU 80, and controls three motors that control the angles of the three orthogonal axes of the neck joint 60 (in FIG. 3, collectively indicated as “head motor 100”). Control the rotation angle. The motor control board 86 receives control data from the CPU 80 and controls the rotation angles of the two motors (collectively indicated as “wheel motor 36” in FIG. 3) that drive the wheels 32. In this embodiment, a motor other than the wheel motor 36 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 36. The actuator that drives the body part of the robot 12 is not limited to a motor that uses a current as a power source, and may be changed as appropriate. For example, in another embodiment, an air actuator may be applied.

センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。   Similar to the motor control board 86, the sensor input / output board 88 is configured by a DSP and takes in signals from each sensor and gives them to the CPU 80. That is, data relating to the reflection time from each of the infrared distance sensors 40 is input to the CPU 80 through the sensor input / output board 88. The video signal from the omnidirectional camera 46 is input to the CPU 80 after being subjected to predetermined processing by the sensor input / output board 88 as necessary. Similarly, the video signal from the eye camera 70 is also input to the CPU 80. Further, signals from the plurality of contact sensors 58 described above (collectively indicated as “contact sensors 58” in FIG. 3) are provided to the CPU 80 via the sensor input / output board 88. Similarly, the voice input / output board 90 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 80 is output from the speaker 64. In addition, voice input from the microphone 66 is given to the CPU 80 via the voice input / output board 90.

また、CPU80は、バス82を介して無線タグ読取装置102が接続される。無線タグ読取装置102は、アンテナ(図示せず)を介して、無線タグ12(RFIDタグ)から送信されるタグ情報の重畳された電波を受信する。そして、無線タグ読取装置102は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該タグ情報を復調(デコード)してCPU80に与える。上述したように、無線タグ12は、ロボット10の近傍或いは周囲に存在する人間(ユーザA,ユーザB,ユーザC)に装着され、無線タグ読取装置102は、通信可能範囲内の無線タグ12を検出する。なお、無線タグ12は、アクティブ型であってもよいし、無線タグ読取装置102から送信される電波に応じて駆動されるパッシブ型であってもよい。   Further, the wireless tag reader 102 is connected to the CPU 80 via the bus 82. The wireless tag reader 102 receives a radio wave on which tag information transmitted from the wireless tag 12 (RFID tag) is superimposed via an antenna (not shown). The wireless tag reader 102 amplifies the received radio wave signal, separates the identification signal from the radio wave signal, demodulates (decodes) the tag information, and supplies the tag information to the CPU 80. As described above, the wireless tag 12 is attached to a human (user A, user B, user C) that exists near or around the robot 10, and the wireless tag reader 102 removes the wireless tag 12 within the communicable range. To detect. Note that the wireless tag 12 may be an active type or a passive type that is driven in accordance with a radio wave transmitted from the wireless tag reader 102.

また、CPU80は、バス82を介して通信LANボード104に接続される。通信LANボード104は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置106に与え、無線通信装置106は送信データを、ネットワークを介して外部コンピュータに送信する。また、通信LANボード104は、無線通信装置106を介してデータを受信し、受信したデータをCPU80に与える。   The CPU 80 is connected to the communication LAN board 104 via the bus 82. The communication LAN board 104 is configured by a DSP, for example, and provides transmission data given from the CPU 80 to the wireless communication device 106, and the wireless communication device 106 transmits the transmission data to an external computer via a network. The communication LAN board 104 receives data via the wireless communication device 106 and gives the received data to the CPU 80.

さらに、CPU80は、バス82を介して複数のデータベース(以下、DB)に接続される。具体的には、CPU80は、ユーザ情報DB108、発話内容DB110、ならびに発話状況DB112に接続される。   Further, the CPU 80 is connected to a plurality of databases (hereinafter referred to as DB) via the bus 82. Specifically, the CPU 80 is connected to the user information DB 108, the utterance content DB 110, and the utterance situation DB 112.

ユーザ情報DB108には、図に示すように、コミュニケーション対象となるユーザの名前に関連付けて、ユーザに装着された無線タグ12のRFID(タグ情報)、ならびにユーザの親密度(ユーザ親密度)がテーブルで記憶されている。ここで、ユーザ親密度とは、個々のユーザに対してロボット10が設定している親密度を示す数値であり、0から3までの整数で表わされ、数値が大きいほど親密度が高い。ユーザは、予めロボット10の開発者等が外部コンピュータを操作してユーザ情報DB108に登録しておくことができ、新たなユーザを追加する場合には、当該新しいユーザのユーザ親密度は“0”である。そして、後で詳細に説明するように、ロボット10がユーザに対して特定のコミュニケーション行動(ビヘイビア)を実行することによって、当該ユーザのユーザ親密度が加算されることとなる。 In the user information DB 108, as shown in FIG. 4 , the RFID (tag information) of the wireless tag 12 attached to the user and the user intimacy (user intimacy) are associated with the name of the user to be communicated. Stored in the table. Here, the user familiarity is a numerical value indicating the familiarity set by the robot 10 for each user, and is represented by an integer from 0 to 3. The larger the numerical value, the higher the familiarity. The user can be registered in advance in the user information DB 108 by the developer of the robot 10 operating the external computer, and when adding a new user, the user familiarity of the new user is “0”. It is. Then, as will be described in detail later, when the robot 10 performs a specific communication action (behavior) on the user, the user intimacy of the user is added.

たとえば、このユーザ情報テーブルでは、ユーザAに装着された無線タグ12は、“AAAA”というRFIDを有しており、ユーザAのユーザ親密度は、“2”であることが分かる。また、ユーザBに装着された無線タグ12は、“BBBB”というRFIDを有しており、ユーザBのユーザ親密度は、“3”であることが分かる。さらに、ユーザCに装着された無線タグ12は、“CCCC”というRFIDを有しており、ユーザCのユーザ親密度は、“1”であることが分かる。   For example, in this user information table, it can be seen that the wireless tag 12 attached to the user A has an RFID “AAAA” and the user closeness of the user A is “2”. Further, the wireless tag 12 attached to the user B has the RFID “BBBB”, and the user closeness of the user B is “3”. Further, the wireless tag 12 attached to the user C has an RFID of “CCCC”, and it can be seen that the user closeness of the user C is “1”.

発話内容DB110および発話状況DB112には、ロボット10がコミュニケーション行動(ビヘイビア)を実行するときの親密度(コミュニケーション親密度)に関連付けて、行動モジュールの実行に関する情報(行動モジュール実行情報)が記憶されている。したがって、これら発話内容DB110および発話状況DB112が行動モジュール実行情報記憶手段に該当する。   In the utterance content DB 110 and the utterance situation DB 112, information (behavior module execution information) related to the execution of the behavior module is stored in association with the familiarity (communication familiarity) when the robot 10 executes the communication behavior (behavior). Yes. Therefore, the utterance content DB 110 and the utterance situation DB 112 correspond to action module execution information storage means.

ここで、コミュニケーション親密度とは、ロボット10がコミュニケーション行動(ビヘイビア)を実行するときの親密度を示す数値であり、0から3までの整数で表わされ、数値が大きいほど親密度が高い。後で詳細に説明するように、コミュニケーション親密度は、コミュニケーション対象となるユーザのユーザ親密度とセンシング親密度とに基づいて算出され、ロボット10は、このコミュニケーション親密度に応じて読み出した行動モジュール実行情報を参照して、行動モジュールを実行する。   Here, the communication intimacy is a numerical value indicating the intimacy when the robot 10 executes communication behavior (behavior), and is expressed by an integer from 0 to 3, and the greater the numerical value, the higher the intimacy. As will be described in detail later, the communication familiarity is calculated based on the user familiarity and the sensing familiarity of the user to be communicated, and the robot 10 executes the behavior module read according to the communication familiarity. The action module is executed with reference to the information.

に示すように、発話内容DB110には、ロボット10が「Talk(挨拶)」、「Guide(道案内)」、「Bye(ばいばい)」といったビヘイビアを実行するときの発話内容(発話内容情報)が、コミュニケーション親密度が1の場合、コミュニケーション親密度が2の場合、コミュニケーション親密度が3の場合というように、ロボット10のコミュニケーション親密度に関連付けて、テーブルで記憶されている。また、テーブルには、ビヘイビアを実行した後でコミュニケーション対象となったユーザのユーザ親密度を1加算するか否かの設定が、ビヘイビアごとに“YES”か“NO”で記憶されている。 As shown in FIG. 5 , in the utterance content DB 110, utterance content (utterance content information) when the robot 10 executes behaviors such as “Talk (greeting)”, “Guide (way guidance)”, and “Bye”. ) Is stored in a table in association with the communication familiarity of the robot 10, such as when the communication familiarity is 1, the communication familiarity is 2, and the communication familiarity is 3. In the table, “YES” or “NO” is stored for each behavior as to whether or not to add 1 to the user intimacy of the user who became the communication target after executing the behavior.

たとえば、この発話内容情報テーブルでは、「Talk(挨拶)」のビヘイビアを実行するとき、コミュニケーション親密度が1の場合にロボット10が「はじめして」と発話し、コミュニケーション親密度が2の場合にロボット10が「こんにちは」と発話し、コミュニケーション親密度が3の場合にロボット10が「こんにちは、また来てくれてありがとう」と発話することが分かる。また、「Guide(道案内)」のビヘイビアを実行するとき、コミュニケーション親密度が1の場合にロボット10が「ショッピングセンターの中を案内しましょうか?」と発話し、コミュニケーション親密度が2の場合にロボット10が「どこか案内しようか?」と発話し、コミュニケーション親密度が3の場合にロボット10が「どこでも案内するので、よかったら聞いてね」と発話することが分かる。さらに、「Bye(ばいばい)」のビヘイビアを実行するとき、コミュニケーション親密度が1の場合にロボット10が「ばいばい」と発話し、コミュニケーション親密度が2の場合にロボット10が「また来てね」と発話し、コミュニケーション親密度が3の場合にロボット10が「今日は来てくれてありがとう、また来てね」と発話することが分かる。さらにまた、「Bye(ばいばい)」のビヘイビアを実行終了した後、そのコミュニケーション対象となったユーザのユーザ親密度が1加算されることが分かる。   For example, in the utterance content information table, when the “Talk (greeting)” behavior is executed, when the communication familiarity is 1, the robot 10 speaks “for the first time” and the communication familiarity is 2. robot 10 speaks as "Hello", it can be seen that the robot 10 in case communication intimacy degree of 3 utters "Hello, also thanks for coming." Also, when executing the “Guide” behavior, if the communication familiarity is 1, the robot 10 speaks “Would you like to guide you through the shopping center?” And the communication familiarity is 2. It is understood that the robot 10 utters “Where should I guide you?”, And when the communication familiarity is 3, the robot 10 utters “Since you guide anywhere, please listen if you like”. Further, when the behavior of “Bye” is executed, the robot 10 speaks “Bai Bai” when the communication familiarity is 1, and the robot 10 “come back” when the communication familiarity is 2. When the communication intimacy is 3, the robot 10 speaks “Thank you for coming today, please come again”. Furthermore, it is understood that the user familiarity of the user who is the communication target is incremented by 1 after the execution of the “Bye” behavior.

また、図に示すように、発話状況DB112には、コミュニケーション親密度に関連付けて、ロボット10がビヘイビアを実行するときの発話状況に関する情報(発話状況情報)がテーブルで記憶されている。一例を挙げると、テーブルには、ロボット10がビヘイビアを実行するときのユーザとの対話距離、ならびにロボット10がコミュニケーション行動を取る時間に対するユーザにアイコンタクトする時間の割合が、ロボット10のコミュニケーション親密度に関連付けて記憶されている。 Also, as shown in FIG. 6 , in the utterance situation DB 112, information relating to the utterance situation when the robot 10 executes the behavior (utterance situation information) is stored in a table in association with the communication familiarity. For example, the table shows the communication distance of the robot 10 when the robot 10 executes the behavior, and the ratio of the time when the robot 10 makes eye contact to the time when the robot 10 takes the communication action. Is stored in association with.

たとえば、この発話状況情報テーブルでは、「ロボット10のコミュニケーション親密度が1の場合には、ロボット10の発話時のユーザとの対話距離が3.0mであり、ロボット10が発話時にユーザに対してアイコンタクトを維持する時間の割合が10%であることが分かる。また、ロボット10のコミュニケーション親密度が2の場合には、ロボット10の発話時のユーザとの対話距離が2.0mであり、ロボット10が発話時にユーザに対してアイコンタクトを維持する時間の割合が40%であることが分かる。さらに、ロボット10のコミュニケーション親密度が3の場合には、ロボット10の発話時のユーザとの対話距離が0.8mであり、ロボット10が発話時にユーザに対してアイコンタクトを維持する時間の割合が70%であることが分かる。   For example, in this utterance status information table, “If the communication familiarity of the robot 10 is 1, the dialogue distance with the user when the robot 10 speaks is 3.0 m, and the robot 10 It can be seen that the proportion of time for maintaining eye contact is 10%, and when the communication familiarity of the robot 10 is 2, the dialogue distance with the user when the robot 10 speaks is 2.0 m, It can be seen that the percentage of time that the robot 10 maintains eye contact with the user when speaking is 40%, and when the communication familiarity of the robot 10 is 3, the communication with the user when the robot 10 speaks The dialogue distance is 0.8 m, and the percentage of time that the robot 10 maintains eye contact with the user when speaking is 70%. There it can be seen.

ただし、図4、図5および図6に示すテーブルの構成はあくまで一例であり、テーブルの構成は、本発明の技術的思想を実現できる構成であればどのようなものでもかまわない。   However, the configuration of the tables shown in FIGS. 4, 5 and 6 is merely an example, and the configuration of the tables may be any configuration as long as the technical idea of the present invention can be realized.

このようなロボット12のコミュニケーション行動(ビヘイビア)を実現するためのプログラムは、上述したように、モジュール化された「行動モジュール」として実行される。行動モジュールの実行順序は、行動モジュールの短期的な遷移ないし推移である「行動モジュールの状態遷移」として設定され、長期的に首尾一貫した前後関係または調和した状況を維持しているコミュニケーション行動が実現される。   As described above, the program for realizing the communication behavior (behavior) of the robot 12 is executed as a modularized “behavior module”. The execution order of the behavior modules is set as “action module state transitions”, which are short-term transitions or transitions of the behavior modules, realizing communication behavior that maintains a consistent context or a harmonious situation in the long term Is done.

この実施例では、ロボット10は、コミュニケーション行動(ビヘイビア)を実行するとき、無線タグ読取装置102によって通信可能範囲内の無線タグ12を検出し、無線タグ12を装着しているユーザ(ユーザA,ユーザB,ユーザC)からコミュニケーション対象とするユーザを特定する。   In this embodiment, when the robot 10 executes a communication action (behavior), the wireless tag reader 102 detects the wireless tag 12 within the communicable range, and the user wearing the wireless tag 12 (user A, user A, The user to be communicated is specified from the users B and C).

コミュニケーション対象とするユーザを特定すると、ロボット10は、そのユーザのセンシング情報を取得する。ここで、センシング情報とは、コミュニケーション対象となるユーザのロボット10に対する現在の反応をセンシングしたものであり、この実施例では、センシング情報は、「ユーザとの対話距離」、「触覚センサ」、「ユーザの顔の表情」、「ユーザの視線の位置」の4つのパラメータからなる。そして、ロボット10は、これらのパラメータのそれぞれにおいて、親密度が“0”か“1”か“2”か“3”かを判断する。   When the user to be communicated is specified, the robot 10 acquires the sensing information of the user. Here, the sensing information is obtained by sensing the current reaction of the user 10 to be communicated with the robot 10, and in this embodiment, the sensing information includes “distance with the user”, “tactile sensor”, “ It consists of four parameters, “facial expression of user” and “position of line of sight of user”. Then, the robot 10 determines whether the familiarity is “0”, “1”, “2”, or “3” in each of these parameters.

「ユーザとの対話距離」では、赤外線距離センサ40によってロボット10とユーザとの対話距離を検出し、その検出結果によって親密度が“0”か“1”か“2”か“3”かを判断する。たとえば、その対話距離が所定の親密距離(たとえば、0.5m程度)以下であれば親密度を“3”とし、所定の個人距離(たとえば、1.2m程度)以下であれば親密度を“2”とし、所定の社会距離(たとえば、3.5m程度)以下であれば親密度を“1”とし、そうでなければ、親密度を“0”とする。   In “user interaction distance”, the infrared distance sensor 40 detects the interaction distance between the robot 10 and the user, and the detection result indicates whether the familiarity is “0”, “1”, “2”, or “3”. to decide. For example, if the conversation distance is equal to or less than a predetermined close distance (for example, about 0.5 m), the intimacy is set to “3”, and if the conversation distance is equal to or less than a predetermined individual distance (for example, about 1.2 m), 2 is set, and if it is less than a predetermined social distance (for example, about 3.5 m), the familiarity is set to “1”, otherwise, the familiarity is set to “0”.

また、「触覚センサ」では、接触センサ58によってユーザがロボット10に触れたかどうかを検出し、その検出結果によって親密度が“0”か“3”かを判断する。たとえば、過去1分間にロボット10の頭がユーザになでられた場合には、親密度を“3”とし、そうでなければ、親密度を“0”とする。   In the “tactile sensor”, whether or not the user touches the robot 10 is detected by the contact sensor 58, and whether the familiarity is “0” or “3” is determined based on the detection result. For example, when the head of the robot 10 has been stroked by the user in the past one minute, the familiarity is set to “3”, otherwise, the familiarity is set to “0”.

また、「ユーザの顔の表情」では、全方位カメラ46ないし眼カメラ70で撮影された顔画像に基づいてユーザの顔の表情を検出し、その検出結果によって親密度が“0”か“3”かを判断する。たとえば、ロボット10とユーザとの対話時間に対する当該ユーザが笑っている顔の表情(笑顔)をしている時間の割合が70%以上であれば、親密度を“3”とし、そうでなければ、親密度を“0”とする。   In “user facial expression”, the facial expression of the user is detected based on the facial image captured by the omnidirectional camera 46 or the eye camera 70, and the closeness is “0” or “3” depending on the detection result. To determine. For example, if the ratio of the facial expression (smile) of the user laughing to the interaction time between the robot 10 and the user is 70% or more, the intimacy is set to “3”, otherwise The intimacy is set to “0”.

また、「ユーザの視線の位置」では、全方位カメラ46ないし眼カメラ70で撮影された顔画像に基づいてユーザの視線の位置を検出し、その検出結果によって親密度が“0”か“1”か“2”か“3”かを判断する。たとえば、ロボット10とユーザとの対話時間に対するユーザの視線の位置がロボット10の顔に向けられている時間の割合が70%以上であれば親密度を“3”とし、その時間の割合が50%以上であれば親密度を“2”とし、その時間の割合が25%以上であれば親密度を“1”とし、そうでなければ、親密度を“0”とする。   Further, in “the line of sight of the user”, the position of the line of sight of the user is detected based on the face image taken by the omnidirectional camera 46 or the eye camera 70, and the closeness is “0” or “1” depending on the detection result. "," 2 "or" 3 ". For example, if the ratio of the time when the user's line of sight is directed to the face of the robot 10 with respect to the interaction time between the robot 10 and the user is 70% or more, the familiarity is set to “3”, and the ratio of the time is 50 If the percentage is greater than or equal to%, the familiarity is set to “2”, if the time ratio is 25% or greater, the familiarity is set to “1”, and if not, the familiarity is set to “0”.

そして、各パラメータの親密度の数値の中で最も大きい数値をセンシング親密度とする。ここで、センシング親密度は,ユーザのセンシング情報に基づいて算出される親密度を示す数値であり、0から3までの整数で表わされ、数値が大きいほど親密度が高い。たとえば、「ユーザとの対話距離」での親密度が2であり、「触覚センサ」での親密度が0であり、「ユーザの顔の表情」での親密度が3であり、「ユーザの視線の位置」での親密度が1である場合には、センシング親密度は3となる。   Then, the largest numerical value among the numerical values of the familiarity of each parameter is set as the sensing familiarity. Here, the sensing familiarity is a numerical value indicating the familiarity calculated based on the user's sensing information, and is represented by an integer from 0 to 3. The larger the numerical value, the higher the familiarity. For example, the intimacy at the “dialogue distance with the user” is 2, the intimacy at the “tactile sensor” is 0, the intimacy at the “facial expression of the user” is 3, When the familiarity at the line-of-sight position is 1, the sensing familiarity is 3.

センシング親密度を算出すると、ロボット10は、そのセンシング親密度の数値と、ユーザ情報DB104から読み出したユーザのユーザ親密度の数値との中で、小さい方の数値をコミュニケーション親密度とする。たとえば、ユーザ親密度が2であり、センシング親密度が3である場合には、コミュニケーション親密度は2となる。   When the sensing familiarity is calculated, the robot 10 sets the smaller numerical value as the communication familiarity among the numerical value of the sensing familiarity and the numerical value of the user familiarity of the user read from the user information DB 104. For example, when the user familiarity is 2 and the sensing familiarity is 3, the communication familiarity is 2.

そして、ロボット10は、ビヘイビアに対応する行動モジュールのプログラムデータをメモリ84から読み出し、そのプログラムデータに、発話内容DB110からコミュニケーション親密度に応じて読み出した発話内容情報、ならびに発話状況DB112からコミュニケーション親密度に応じて読み出した発話状況情報を与えることによって、行動モジュールに規定される行動を行う。   Then, the robot 10 reads out the program data of the behavior module corresponding to the behavior from the memory 84, the utterance content information read out from the utterance content DB 110 according to the communication familiarity, and the communication familiarity from the utterance situation DB 112. The behavior specified in the behavior module is performed by giving the utterance status information read according to the behavior.

具体的には、ロボット10のCPU80は、図7に示すフロー図に従って全体処理を実行する。   Specifically, the CPU 80 of the robot 10 executes the entire process according to the flowchart shown in FIG.

処理が開始されると、CPU80は、先ず、ステップS1で、停止命令があるか否かを判断する。ここでは、たとえば、外部コンピュータから終了指示があったか、あるいは、ロボット10を停止させるための終了ボタンが押されたかどうか等を判断する。   When the process is started, the CPU 80 first determines whether or not there is a stop command in step S1. Here, for example, it is determined whether there is an end instruction from an external computer, or whether an end button for stopping the robot 10 is pressed.

ステップS1で“YES”であれば、続くステップS3で終了処理を実行して、ロボット10の動作処理を終了する。この終了処理では、ロボット10の体の各部位をそれぞれのホームポジションに戻すようにしてもよい。   If “YES” in the step S1, an end process is executed in a subsequent step S3, and the operation process of the robot 10 is ended. In this end process, each part of the body of the robot 10 may be returned to the home position.

一方、ステップS1で“NO”であれば、つまり停止命令がなければ、ステップS5で、行動モジュールの状態遷移によって指定されている最初のビヘイビアを選択する。ここでは、たとえば、行動モジュールの状態遷移に関する情報(遷移情報)がロボット10の開発者等によって外部コンピュータからロボット10に送信され、この遷移情報を受信したロボット10が遷移情報に従って最初のビヘイビアに対応する行動モジュールのデータをメモリ104から読み出す。   On the other hand, if “NO” in the step S1, that is, if there is no stop command, the first behavior specified by the state transition of the behavior module is selected in a step S5. Here, for example, information on the state transition of the behavior module (transition information) is transmitted from the external computer to the robot 10 by the developer of the robot 10, and the robot 10 that has received this transition information corresponds to the first behavior according to the transition information. The action module data to be read is read from the memory 104.

続いて、ステップS7で、ビヘイビアがコミュニケーション親密度に従うものであるか否かを判断する。すなわち、そのビヘイビアが発話内容DB110に登録されているビヘイビアであるか否かを判断する。ステップS7で“YES”であれば、ステップS9で、親密度に従ったビヘイビアの実行処理(図8参照)を開始して、ステップS13に進む。   Subsequently, in step S7, it is determined whether the behavior conforms to the communication familiarity. That is, it is determined whether or not the behavior is a behavior registered in the utterance content DB 110. If “YES” in the step S7, a behavior execution process (see FIG. 8) according to the familiarity is started in a step S9, and the process proceeds to the step S13.

一方、ステップS7で“NO”であれば、ステップS11で、親密度に従わないビヘイビアの実行処理を開始する。すなわち、そのビヘイビアに対応する行動モジュールをメモリ104から読み出して、その行動モジュールに規定されるコミュニケーション行動を行い、ステップS13に進む。   On the other hand, if “NO” in the step S7, a behavior executing process not following the familiarity is started in a step S11. That is, the behavior module corresponding to the behavior is read from the memory 104, the communication behavior defined in the behavior module is performed, and the process proceeds to step S13.

続くステップS13では、行動モジュールの状態遷移によって指定されている全てのビヘイビアの実行が完了したか否かを判断する。ステップS13で“YES”であれば、つまり行動モジュールの状態遷移によって指定されている全てのビヘイビアの実行が完了していれば、ステップS1へ戻って、処理が繰り返される。   In a succeeding step S13, it is determined whether or not execution of all the behaviors specified by the behavior module state transition is completed. If “YES” in the step S13, that is, if execution of all the behaviors designated by the state transition of the behavior module is completed, the process returns to the step S1 and the process is repeated.

一方、ステップS13で“NO”であれば、つまり、まだ全てのビヘイビアの実行が完了していなければ、ステップS15で、行動モジュールの状態遷移によって指定されている次のビヘイビアを選択する。ステップS15の処理を終了すると、ステップS7に戻って、処理を繰り返す。   On the other hand, if “NO” in the step S13, that is, if the execution of all the behaviors is not yet completed, the next behavior specified by the behavior module state transition is selected in a step S15. When the process of step S15 is completed, the process returns to step S7 to repeat the process.

図8は、図7に示したステップS9の親密度に従ったビヘイビアの実行処理のフロー図である。ロボット10のCPU80は、親密度に従ったビヘイビアの実行処理を開始すると、ステップS21で個人識別情報を取得する。ここでは、CPU80は、無線タグ読取装置102からの入力を検出する。   FIG. 8 is a flowchart of behavior execution processing according to the familiarity in step S9 shown in FIG. CPU80 of the robot 10 will acquire personal identification information in step S21, if the execution process of the behavior according to closeness is started. Here, the CPU 80 detects an input from the wireless tag reader 102.

続くステップS23では、個人識別情報を取得できたかどうかを判断する。ステップS23で“NO”であれば、たとえば、ロボット10の近傍或いはその周囲に無線タグ12を装着したユーザが存在しない場合には、ステップS25で、たとえば「EXPLORE(周囲環境を巡回して調査)」のように周囲環境を調査する所定のビヘイビアを実行して、ステップS21に戻り、処理を繰り返す。   In a succeeding step S23, it is determined whether or not the personal identification information has been acquired. If “NO” in the step S23, for example, if there is no user wearing the wireless tag 12 in the vicinity of or around the robot 10, for example, “EXPLORE (surrounding the surrounding environment)” "A predetermined behavior for investigating the surrounding environment is executed, and the process returns to step S21 to repeat the process.

一方、ステップS23で“YES”であれば、たとえば、無線タグ12のタグ情報を取得できた場合には、続くステップS27で、ユーザ情報DB104を参照して、個人識別情報を取得したユーザ(ユーザA,ユーザB,ユーザC)からコミュニケーション対象とするユーザを特定する。たとえば、ここでは、1の無線タグ12を検出した場合には、その無線タグ12を装着しているユーザをコミュニケーション対象とし、複数の無線タグ12を検出した場合には、当該無線タグ12を装着している複数のユーザの中で最もユーザ親密度が高いユーザをコミュニケーション対象とする。   On the other hand, if “YES” in the step S23, for example, if the tag information of the wireless tag 12 can be acquired, the user (user) who has acquired the personal identification information in the subsequent step S27 with reference to the user information DB 104. A, a user B, a user C) are identified as users to be communicated. For example, here, when one wireless tag 12 is detected, the user wearing the wireless tag 12 is targeted for communication, and when a plurality of wireless tags 12 are detected, the wireless tag 12 is attached. A user who has the highest user familiarity among a plurality of users who are working is set as a communication target.

そして、ステップS29では、コミュニケーション対象としたユーザのセンシング情報を取得し、続くステップS31で、このセンシング情報に基づいて、センシング親密度を算出する。ここでは、ロボット10は、センシング情報として、「ユーザとの対話距離」、「触覚センサ」、「ユーザの顔の表情」、「ユーザの視線の位置」の4つを検出する。そして、その4つのパラメータのそれぞれにおいて、親密度が“0”か“1”か“2”か“3”かを判断し、各パラメータの親密度の数値の中で最も大きい数値をセンシング親密度とする。   In step S29, sensing information of the user as a communication target is acquired, and in step S31, the sensing familiarity is calculated based on the sensing information. Here, the robot 10 detects four types of sensing information: “dialogue distance with the user”, “tactile sensor”, “expression of the user's face”, and “position of the user's line of sight”. Then, in each of the four parameters, it is determined whether the familiarity is “0”, “1”, “2”, or “3”, and the largest value among the numerical values of the familiarity of each parameter is determined. And

次に、ステップS33では、ユーザ情報DB104から読み込んだユーザ自身のユーザ親密度とステップS31で算出したセンシング親密度とに基づいて、コミュニケーション親密度を算出する。ここでは、たとえば、ロボット10は、センシング親密度の数値と、ユーザ情報DB104から読み出したユーザのユーザ親密度の数値との中で、小さい方の数値をコミュニケーション親密度とする。   Next, in step S33, the communication familiarity is calculated based on the user's own user familiarity read from the user information DB 104 and the sensing familiarity calculated in step S31. Here, for example, the robot 10 sets the smaller numerical value as the communication familiarity among the numerical value of the sensing familiarity and the numerical value of the user familiarity of the user read from the user information DB 104.

そして、ステップS35で、コミュニケーション親密度に対応する発話内容情報を発話内容DB110から読み出し、ステップS37で、コミュニケーション親密度に対応する発話状況情報を発話状況DB110から読み出す。   In step S35, the utterance content information corresponding to the communication familiarity is read from the utterance content DB 110, and in step S37, the utterance situation information corresponding to the communication familiarity is read from the utterance situation DB 110.

続くステップS39では、発話内容情報と発話状況情報とを参照して、ビヘイビアを実行する。ここでは、ビヘイビアに対応する行動モジュールのプログラムデータをメモリ84から読み出し、そのプログラムデータに、ステップS35で発話内容DB110から読み出した発話内容情報、ならびにステップS37で発話状況DB112から読み出した発話状況情報を与えることによって、行動モジュールに規定される行動を行う。   In the subsequent step S39, the behavior is executed with reference to the utterance content information and the utterance status information. Here, the program data of the behavior module corresponding to the behavior is read from the memory 84, and the utterance content information read from the utterance content DB 110 in step S35 and the utterance status information read from the utterance status DB 112 in step S37 are included in the program data. The action specified in the action module is performed.

そして、ステップS41で、ビヘイビアの実行終了後にユーザのユーザ親密度を加算するかどうかを判断する。ステップS41で“YES”であれば、すなわち、実行情報DB110のテーブルに“YES”と登録されていれば、ステップS43でコミュニケーション対象となったユーザのユーザ親密度を1加算して、ユーザ情報DB108を更新する。ステップS43の処理を終了すると、親密度に従ったビヘイビアの実行処理を終了して、ステップS13(図7参照)に進む。一方、ステップS41で“NO”であれば、すなわち、実行情報DB110のテーブルに“NO”と登録されていれば、そのまま親密度に従ったビヘイビアの実行処理を終了して、ステップS13(図7参照)に進む。   In step S41, it is determined whether or not the user familiarity of the user is added after the execution of the behavior. If “YES” in the step S41, that is, if “YES” is registered in the table of the execution information DB 110, the user familiarity of the user who became the communication target in the step S43 is incremented by 1, and the user information DB 108 Update. When the process in step S43 is completed, the behavior execution process according to the familiarity is terminated, and the process proceeds to step S13 (see FIG. 7). On the other hand, if “NO” in the step S41, that is, if “NO” is registered in the table of the execution information DB 110, the behavior executing process according to the familiarity is finished as it is, and the step S13 (FIG. 7) is finished. Go to Reference).

このように、この実施例では、ユーザを個別に識別する個人識別情報からコミュニケーション対象のユーザが特定され、そのユーザのユーザ親密度とセンシング親密度とに基づいて、ロボット10のコミュニケーション親密度が算出される。そして、ロボット10は、このコミュニケーション親密度に応じて実行情報DB110から読み出した行動モジュール実行情報を参照して、行動モジュールを実行する。したがって、コミュニケーション対象に適した多様なコミュニケーション行動を実行することができる。   As described above, in this embodiment, the communication target user is specified from the personal identification information for individually identifying the user, and the communication closeness of the robot 10 is calculated based on the user closeness and sensing closeness of the user. Is done. Then, the robot 10 executes the behavior module with reference to the behavior module execution information read from the execution information DB 110 according to the communication familiarity. Therefore, various communication actions suitable for the communication target can be executed.

また、この実施例では、特定のビヘイビアの実行終了後にコミュニケーション対象となったユーザのユーザ親密度が1加算されて、ユーザ情報DB108が更新される。したがって、ユーザのユーザ親密度を逐次的に変化させることができ、時宜に適したコミュニケーション行動を実行することができる。   Further, in this embodiment, 1 is added to the user familiarity of a user who becomes a communication target after completion of execution of a specific behavior, and the user information DB 108 is updated. Therefore, the user closeness of the user can be changed sequentially, and a communication action suitable for time can be executed.

なお、この実施例では、無線タグ読取装置102によって無線タグ12を検出し、この無線タグ12のタグ情報によってユーザを特定したが、ユーザを個別に識別する個人識別情報を取得することができるのであれば、無線タグ12のタグ情報に限定される必要はない。たとえば、無線タグ読取装置102に代えてカメラを設け、その撮影画像に基づく顔認識によって、ユーザを個別に識別するようにしてもよい。かかる場合には、ユーザ情報DB108には、コミュニケーション対象となるユーザの名前に関連付けて、ユーザの顔画像データや顔の特徴データ(個人識別情報)、ならびにユーザ親密度がテーブルで記憶されることとなる。   In this embodiment, the wireless tag reader 102 detects the wireless tag 12 and identifies the user by the tag information of the wireless tag 12, but personal identification information for individually identifying the user can be acquired. If there is, it is not necessary to be limited to the tag information of the wireless tag 12. For example, a camera may be provided in place of the wireless tag reader 102, and users may be individually identified by face recognition based on the captured image. In such a case, the user information DB 108 stores the face image data of the user, facial feature data (personal identification information), and user intimacy in a table in association with the name of the user to be communicated. Become.

また、この実施例では、ロボット10のCPU80は、ユーザ情報DB108、発話内容DB110、ならびに発話状況DB112に接続されたが、これに限定される必要はない。たとえば、これらのデータベースのいずれも、外部のネットワーク上にアクセス可能に設けるようにしてもよい。かかる場合には、通信LANボード104は、無線通信装置106を介してデータを受信し、受信したデータをCPU80に与える。   In this embodiment, the CPU 80 of the robot 10 is connected to the user information DB 108, the utterance content DB 110, and the utterance situation DB 112, but the present invention is not limited to this. For example, any of these databases may be provided so as to be accessible on an external network. In such a case, the communication LAN board 104 receives data via the wireless communication device 106 and gives the received data to the CPU 80.

さらにまた、この実施例では、センシング情報に基づいて算出されるパラメータの親密度が離散値、たとえば、“0”か“1”か“2”か“3”かであり、各パラメータの親密度の数値の中で最も大きい数値をセンシング親密度としたが、これに限定される必要はない。たとえば、パラメータの親密度は、0.5などの小数点以下を含む値であってもよい。かかる場合には、ユーザ親密度の数値とセンシング親密度の数値との中で、小さい方の数値をコミュニケーション親密度とするのではなく、ユーザ親密度の数値とセンシング親密度の数値との中で、大きい方の数値をコミュニケーション親密度とするとよい。   Furthermore, in this embodiment, the familiarity of the parameter calculated based on the sensing information is a discrete value, for example, “0”, “1”, “2”, or “3”, and the familiarity of each parameter The largest numerical value among the numerical values is the sensing familiarity, but it is not necessary to be limited to this. For example, the parameter intimacy may be a value including a decimal point such as 0.5. In such a case, of the user familiarity value and the sensing familiarity value, the smaller value is not used as the communication familiarity, but the user familiarity value and the sensing familiarity value are not included. The larger value should be the communication intimacy.

10 …コミュニケーションロボット
12 …無線タグ
60 …赤外線距離センサ
66 …全方位カメラ
78 …接触センサ
84 …スピーカ
86 …マイク
90 …眼カメラ
80 …CPU
82 …バス
84 …メモリ
86 …モータ制御ボード
88 …センサ入力/出力ボード
90 …音声入力/出力ボード
102 …無線タグ読取装置
104 …通信LANボード
106 …無線通信装置
108 …ユーザ情報DB
110 …発話内容DB
112 …発話状況DB
DESCRIPTION OF SYMBOLS 10 ... Communication robot 12 ... Wireless tag 60 ... Infrared distance sensor 66 ... Omnidirectional camera 78 ... Contact sensor 84 ... Speaker 86 ... Microphone 90 ... Eye camera 80 ... CPU
82 ... Bus 84 ... Memory 86 ... Motor control board 88 ... Sensor input / output board 90 ... Voice input / output board 102 ... Wireless tag reader 104 ... Communication LAN board 106 ... Wireless communication apparatus 108 ... User information DB
110… utterance content DB
112 ... Utterance situation DB

Claims (6)

一連の行動プログラムからなる行動モジュールを実行することによって、1または複数のコミュニケーション対象との間でコミュニケーション行動を取るコミュニケーションロボットであって、
前記コミュニケーション対象を個別に識別し、当該コミュニケーション対象の個人識別情報を取得する識別情報取得手段、
前記コミュニケーション対象の個人識別情報に対応付けて、当該コミュニケーション対象のユーザ親密度を記憶するユーザ親密度記憶手段、
前記識別情報取得手段によって取得された個人識別情報に対応するユーザ親密度を前記ユーザ親密度記憶手段から読み出す第1読み出し手段、
前記コミュニケーション対象の現在の反応をセンシングし、各々がセンシング親密度に対応付けされた複数のパラメータからなるセンシング情報を取得するセンシング情報取得手段、
前記センシング情報取得手段によって取得されたセンシング情報の各パラメータに対応するセンシング親密度に基づいて前記コミュニケーション対象のセンシング親密度を決定するセンシング親密度決定手段、
前記第1読み出し手段によって読み出されたユーザ親密度と前記センシング親密度決定手段によって決定されたセンシング親密度とを比較して、それらの中で小さい方の数値を前記コミュニケーション対象に対してコミュニケーション行動を取るときのコミュニケーション親密度として決定するコミュニケーション親密度決定手段、
前記コミュニケーション親密度に対応付けて行動モジュール実行情報を記憶する行動モジュール実行情報記憶手段、
前記コミュニケーション親密度決定手段によって決定されたコミュニケーション親密度に対応する行動モジュール実行情報を前記行動モジュール実行情報記憶手段から読み出す第2読み出し手段、および
前記第2読み出し手段によって読み出された行動モジュール実行情報を参照して、前記行動モジュールを実行する行動モジュール実行手段を備える、コミュニケーションロボット。
A communication robot that performs a communication action with one or a plurality of communication objects by executing an action module including a series of action programs,
Identification information acquisition means for individually identifying the communication target and acquiring personal identification information of the communication target;
User familiarity storage means for storing the user familiarity of the communication target in association with the personal identification information of the communication target,
First reading means for reading out user familiarity corresponding to the personal identification information acquired by the identification information acquiring means from the user familiarity storage means;
Sensing information acquisition means for sensing the current reaction of the communication target, and acquiring sensing information composed of a plurality of parameters each associated with a sensing familiarity ;
Sensing familiarity determining means for determining the sensing familiarity of the communication target based on the sensing familiarity corresponding to each parameter of the sensing information acquired by the sensing information acquiring means,
Compared with user intimacy read by the first reading means, and a sensing closeness that is determined by the sensing closeness determining means, communication numerical smaller among them against the communication target Communication intimacy determination means to determine as communication intimacy when taking action,
Behavior module execution information storage means for storing behavior module execution information in association with the communication intimacy;
The Communication closeness determining means second reading means for reading the action module execution information corresponding to the communication familiarity determined from the behavior module execution information storage unit by, and behavior module execution information read by said second reading means A communication robot comprising behavior module execution means for executing the behavior module.
一連の行動プログラムからなる行動モジュールを実行することによって、1または複数のコミュニケーション対象との間でコミュニケーション行動を取るコミュニケーションロボットであって、
前記コミュニケーション対象を個別に識別し、当該コミュニケーション対象の個人識別情報を取得する識別情報取得手段、
前記コミュニケーション対象の個人識別情報に対応付けて、当該コミュニケーション対象のユーザ親密度を記憶するユーザ親密度記憶手段、
前記識別情報取得手段によって取得された個人識別情報に対応するユーザ親密度を前記ユーザ親密度記憶手段から読み出す第1読み出し手段、
前記コミュニケーション対象のセンシング情報を取得するセンシング情報取得手段、
前記センシング情報取得手段によって取得されたセンシング情報に基づいて、前記コミュニケーション対象のセンシング親密度を算出するセンシング親密度算出手段、
前記第1読み出し手段によって読み出されたユーザ親密度と前記センシング親密度算出手段によって算出されたセンシング親密度とに基づいて、前記コミュニケーション行動を取るときのコミュニケーション親密度を算出するコミュニケーション親密度算出手段、
前記コミュニケーション親密度に対応付けて行動モジュール実行情報を記憶する行動モジュール実行情報記憶手段、
前記コミュニケーション親密度算出手段によって算出されたコミュニケーション親密度に対応する行動モジュール実行情報を前記行動モジュール実行情報記憶手段から読み出す第2読み出し手段、
前記第2読み出し手段によって読み出された行動モジュール実行情報を参照して、前記行動モジュールを実行する行動モジュール実行手段、
前記行動モジュールに係るコミュニケーション行動の種類に対応付けて、前記コミュニケーション行動を取った後に前記コミュニケーション対象のユーザ親密度を加算するか否かの設定情報を記憶する設定情報記憶手段、
前記行動モジュール実行手段によって実行される行動モジュールに係るコミュニケーション行動に対応する設定情報を前記設定情報記憶手段から読み出す第3読み出し手段、
前記行動モジュール実行手段によって前記行動モジュールが実行された後、前記第3読み出し手段によって読み出された前記設定情報を参照して、前記コミュニケーション対象のユーザ親密度を加算するか否かを判断する判断手段、および
前記判断手段によって前記コミュニケーション対象のユーザ親密度を加算すると判別されたとき、前記ユーザ親密度記憶手段に記憶されている当該コミュニケーション対象のユーザ親密度を加算する親密度加算手段を備える、コミュニケーションロボット。
A communication robot that performs a communication action with one or a plurality of communication objects by executing an action module including a series of action programs,
Identification information acquisition means for individually identifying the communication target and acquiring personal identification information of the communication target;
User familiarity storage means for storing the user familiarity of the communication target in association with the personal identification information of the communication target,
First reading means for reading out user familiarity corresponding to the personal identification information acquired by the identification information acquiring means from the user familiarity storage means;
Sensing information acquisition means for acquiring sensing information of the communication target;
Sensing familiarity calculation means for calculating the sensing familiarity of the communication target based on the sensing information acquired by the sensing information acquisition means;
Communication familiarity calculating means for calculating a communication familiarity when taking the communication action based on the user familiarity read by the first reading means and the sensing familiarity calculated by the sensing familiarity calculating means ,
Behavior module execution information storage means for storing behavior module execution information in association with the communication intimacy;
Second reading means for reading action module execution information corresponding to the communication closeness calculated by the communication closeness calculating means from the action module execution information storage means;
Action module execution means for executing the action module with reference to the action module execution information read by the second reading means;
A setting information storage means for storing setting information as to whether or not to add the user closeness of the communication target after taking the communication action in association with the type of communication action related to the action module;
Third reading means for reading setting information corresponding to the communication action related to the action module executed by the action module executing means from the setting information storage means;
After the behavior module is executed by the behavior module execution means, a determination to determine whether or not to add the user intimacy of the communication target with reference to the setting information read by the third reading means means, and when it is determined that adding the user closeness of the communication target by said determining means comprises a familiarity adding means for adding the user closeness of the communication target stored in the user familiarity storing means, Communication robot.
前記行動モジュール実行情報は、前記コミュニケーション行動を取るときの発話内容を含む、請求項1または2記載のコミュニケーションロボット。   The communication robot according to claim 1, wherein the action module execution information includes an utterance content when the communication action is taken. 前記行動モジュール実行情報は、前記コミュニケーション行動を取るときの前記コミュニケーション対象との対話距離を含む、請求項1ないし3のいずれかに記載のコミュニケーションロボット。   The communication robot according to any one of claims 1 to 3, wherein the action module execution information includes a dialogue distance with the communication target when the communication action is taken. 前記行動モジュール実行情報は、前記コミュニケーション行動を取る時間に対する前記コミュニケーション対象にアイコンタクトする時間の割合を含む、請求項1ないし4のいずれかに記載のコミュニケーションロボット。   The communication robot according to claim 1, wherein the behavior module execution information includes a ratio of time for making eye contact with the communication target with respect to time for taking the communication behavior. 前記コミュニケーション対象は固有の無線タグを保有し、
前記識別情報取得手段は、前記無線タグのタグ情報を取得するタグ情報取得手段を含み、
前記ユーザ親密度記憶手段は、前記無線タグのタグ情報に対応付けて前記コミュニケーション対象のユーザ親密度を記憶する、請求項1ないし5のいずれかに記載のコミュニケーションロボット。
The communication object has a unique wireless tag,
The identification information acquisition means includes tag information acquisition means for acquiring tag information of the wireless tag,
The communication robot according to claim 1, wherein the user closeness storage unit stores the user closeness of the communication target in association with tag information of the wireless tag.
JP2009146168A 2009-06-19 2009-06-19 Communication robot Active JP5429462B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009146168A JP5429462B2 (en) 2009-06-19 2009-06-19 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009146168A JP5429462B2 (en) 2009-06-19 2009-06-19 Communication robot

Publications (2)

Publication Number Publication Date
JP2011000681A JP2011000681A (en) 2011-01-06
JP5429462B2 true JP5429462B2 (en) 2014-02-26

Family

ID=43559082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009146168A Active JP5429462B2 (en) 2009-06-19 2009-06-19 Communication robot

Country Status (1)

Country Link
JP (1) JP5429462B2 (en)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5477399B2 (en) * 2012-01-30 2014-04-23 カシオ計算機株式会社 Information processing apparatus, information processing method and program, and information processing system
JP5982840B2 (en) * 2012-01-31 2016-08-31 富士通株式会社 Dialogue device, dialogue program, and dialogue method
GB2507073B (en) * 2012-10-17 2017-02-01 China Ind Ltd Interactive toy
WO2014162161A1 (en) * 2013-04-01 2014-10-09 Tosy Robotics Joint Stock Company Shoulder and arm arrangement for a humanoid robot
WO2014162162A1 (en) * 2013-04-01 2014-10-09 Tosy Robotics Joint Stock Company Sound system for humanoid robot
ES2703338T3 (en) * 2014-04-17 2019-03-08 Softbank Robotics Europe Running software applications on a robot
US10366689B2 (en) 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
KR20160051020A (en) * 2014-10-31 2016-05-11 얄리주식회사 User-interaction toy and interaction method of the toy
JP6159357B2 (en) * 2015-03-19 2017-07-05 ヤフー株式会社 Information processing apparatus and method
JP6242359B2 (en) * 2015-03-19 2017-12-06 ヤフー株式会社 Information processing apparatus and method
JP6230560B2 (en) * 2015-03-19 2017-11-15 ヤフー株式会社 Information processing apparatus and method
CN107530882B (en) 2015-04-22 2021-08-10 索尼公司 Mobile object control system, control method, and storage medium
JP6610349B2 (en) * 2016-03-10 2019-11-27 大日本印刷株式会社 Guide robot control system, program, and guide robot
DE112017001573B4 (en) * 2016-03-28 2020-01-30 Groove X, Inc. Autonomous robot that performs a greeting action
CN109070330B (en) * 2016-04-08 2022-07-15 Groove X 株式会社 Cognitive behavioral autonomous robot
GB2565959B (en) 2016-07-11 2021-10-13 Groove X Inc Autonomously acting robot
CN109644303B (en) * 2016-08-29 2021-07-23 Groove X 株式会社 Robot for operating sounding body
JP6309673B1 (en) * 2017-06-09 2018-04-11 六月 林 Love feeling formation device, love feeling formation method, and program for forming love feeling between device and operator
JP2019053351A (en) * 2017-09-12 2019-04-04 大日本印刷株式会社 Reception apparatus, computer program and reception method
JP7133836B2 (en) * 2018-05-02 2022-09-09 国立大学法人豊橋技術科学大学 robot
JP7133840B2 (en) * 2018-09-03 2022-09-09 株式会社国際電気通信基礎技術研究所 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
CN110919643B (en) * 2018-09-20 2021-12-17 深圳市优必选科技有限公司 Robot interaction method, robot and device with storage function
JP7225642B2 (en) * 2018-09-27 2023-02-21 富士通株式会社 Communication robot, control method and control program
JP7119896B2 (en) 2018-10-24 2022-08-17 トヨタ自動車株式会社 Communication robot and communication robot control program
JP7067414B2 (en) 2018-10-24 2022-05-16 トヨタ自動車株式会社 Communication robots and control programs for communication robots
JP7439826B2 (en) 2019-04-16 2024-02-28 ソニーグループ株式会社 Information processing device, information processing method, and program
JP2021097765A (en) * 2019-12-20 2021-07-01 株式会社東海理化電機製作所 Control device and program
CN112497217B (en) * 2020-12-02 2022-12-13 深圳市香蕉智能科技有限公司 Robot interaction method and device, terminal equipment and readable storage medium
KR20230057034A (en) * 2021-10-21 2023-04-28 삼성전자주식회사 Robot and controlling method thereof

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000326274A (en) * 1999-05-24 2000-11-28 Nec Corp Acting robot
JP2001188779A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing information and recording medium
JP2004090109A (en) * 2002-08-29 2004-03-25 Sony Corp Robot device and interactive method for robot device
JP4024683B2 (en) * 2003-01-15 2007-12-19 株式会社国際電気通信基礎技術研究所 Communication robot
JP4247149B2 (en) * 2004-03-30 2009-04-02 株式会社国際電気通信基礎技術研究所 robot
JP4204541B2 (en) * 2004-12-24 2009-01-07 株式会社東芝 Interactive robot, interactive robot speech recognition method, and interactive robot speech recognition program
JP5120745B2 (en) * 2005-03-10 2013-01-16 株式会社国際電気通信基礎技術研究所 Communication robot

Also Published As

Publication number Publication date
JP2011000681A (en) 2011-01-06

Similar Documents

Publication Publication Date Title
JP5429462B2 (en) Communication robot
JP5033994B2 (en) Communication robot
JP5366048B2 (en) Information provision system
JP7173031B2 (en) Information processing device, information processing method, and program
JP2004216513A (en) Communication robot
JP4386367B2 (en) Communication robot improvement system
JP2009241166A (en) Robot remote operation system
JP7120254B2 (en) Information processing device, information processing method, and program
JP2004230479A (en) Communication robot and communication system using the same
JP2007222968A (en) Communication robot
JP5145569B2 (en) Object identification method and apparatus
JP2024023193A (en) Information processing device and information processing method
JP2009131914A (en) Robot control system
JP2015066621A (en) Robot control system, robot, output control program and output control method
JP2015066624A (en) Robot control system, robot control program, and explanation robot
JP4677593B2 (en) Communication robot
JP2007160427A (en) Robot control system
JP2015066623A (en) Robot control system and robot
JP3942599B2 (en) Communication robot
JP2007130691A (en) Communication robot
JP4798581B2 (en) Robot system
JP2006088276A (en) Motion generation system
JP5842245B2 (en) Communication robot
JP5324956B2 (en) Road guidance robot
JP5163202B2 (en) Article estimation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5429462

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250