JP2007268696A - Interactive robot system - Google Patents

Interactive robot system Download PDF

Info

Publication number
JP2007268696A
JP2007268696A JP2006100688A JP2006100688A JP2007268696A JP 2007268696 A JP2007268696 A JP 2007268696A JP 2006100688 A JP2006100688 A JP 2006100688A JP 2006100688 A JP2006100688 A JP 2006100688A JP 2007268696 A JP2007268696 A JP 2007268696A
Authority
JP
Japan
Prior art keywords
robot
user
infrared
tag
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006100688A
Other languages
Japanese (ja)
Other versions
JP4800819B2 (en
Inventor
Ichiro Watanabe
一郎 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006100688A priority Critical patent/JP4800819B2/en
Publication of JP2007268696A publication Critical patent/JP2007268696A/en
Application granted granted Critical
Publication of JP4800819B2 publication Critical patent/JP4800819B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide services and contents suitable for a user when a user is near a robot but in a directly-invisible place, when the user is not in front of the robot but is directed to and interested in the robot, and when the user is not directed to the robot, in an interactive robot giving interactive services to a plurality of users wearing an RF tag and an infrared tag. <P>SOLUTION: This interactive robot 1 comprises RF tag signal reading means for reading an RF tag located around it and worn by a user and detecting various IDs, and a plurality of infrared signal transmission and reception means 2a, 2b directed to various directions on an entire periphery of a body such as a trunk of the interactive robot. The ID of the user existing in a certain peripheral area is detected by the RF tag signal reading means to create a member list. The infrared signals including the IDs are transmitted from the transmission and reception means of various infrared signals in a plurality of directions based on the member list, and it is detected which transmission and reception means received the signals, so as to identify the opposing direction. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は,ユーザと音声,ジェスチャ,スキンシップ等でインタラクション,コミュニケーションを行い,各ユーザに対応したコンテンツ,サービスを提供する対話ロボットシステムに関する。   The present invention relates to an interactive robot system that interacts and communicates with users by voice, gestures, skinships, etc., and provides contents and services corresponding to each user.

近年,ロボットを人間と交流し,人間との共棲に利用する研究が盛んである。そのようなロボットは,家庭での対話や,各種サービスを提供したり,オフィスや店舗等でユーザとの対話やサービスの提供を行う。サービスとしては,家庭内の介護,見守り,見回りや,機器の操作,物の搬送,掃除などの各種作業があり,オフィス等では接客,案内,等の各種がある。   In recent years, research on using robots for interaction with humans and sharing with humans has been active. Such robots provide home dialogue and various services, and provide dialogues and services with users in offices and stores. Services include home care, watching, patrol, operation of equipment, transport of goods, cleaning, and various other services such as customer service and guidance in offices.

ロボットがユーザと対話を行う時,ユーザが誰なのかを知ることによって,ユーザに対して適切なサービスを提供することができる。ロボットがユーザを識別する技術として種々のものがある。   By knowing who the user is when the robot interacts with the user, an appropriate service can be provided to the user. There are various techniques for identifying a user by a robot.

従来から,ユーザの顔画像を画像処理して相手を識別する方法があるが,この方法は識別精度が低く,顔部分の抽出も難しい場合もあり,信頼性に問題がある。   Conventionally, there is a method for identifying a partner by performing image processing on a user's face image. However, this method has a low identification accuracy, and it is sometimes difficult to extract a face portion, which causes a problem in reliability.

そこで,ユーザにユーザID等を記録した超音波発信部や赤外線発信部や,RFID(Radio Frequency Identification: 電磁波で読み取り可能な非接触ICによる自動認識)のためのRFタグを持たせ,ロボットに超音波受信部,赤外線カメラや,RFIDタグ読取装置を設ける方法が提案されている。   Therefore, the robot is provided with an ultrasonic transmission unit and infrared transmission unit that record the user ID and the like, and an RF tag for RFID (Radio Frequency Identification: automatic recognition by a non-contact IC readable by electromagnetic waves). A method of providing a sound wave receiver, an infrared camera, and an RFID tag reader has been proposed.

その中に,子供と遊んだり,子供の世話をするチャイルドケアロボットの技術として,ロボットの前面にタグが発生する超音波を受信する超音波レシーバを複数個と電波発信部を設け,ユーザ(子供)に電波受信部と超音波発信部を設け,ロボットの電波発信部から呼び出し対象のタグのID(識別情報)を載せた電波を発信すると,タグは常に電波を受信・分析し自分のIDによる呼び出しがあると,ただちに超音波発信部から超音波を発信し,ロボットでは複数のレシーバで超音波を受信すると,各レシーバとタグ間の距離,各レシーバの相対位置からタグの3次元位置を算出することを原理とし,子供の位置や名前等を検出して点呼をとる技術がある(非特許文献1参照)。   Among them, as a child care robot technology for playing with and taking care of children, there are multiple ultrasonic receivers and radio wave transmitters that receive the ultrasonic waves generated by the tags on the front of the robot. ) Is equipped with a radio wave receiver and an ultrasonic wave transmitter, and when the radio wave transmitter of the robot carries a radio wave carrying the ID (identification information) of the tag to be called, the tag always receives and analyzes the radio wave and uses its own ID. When there is a call, the ultrasonic wave is immediately transmitted from the ultrasonic wave transmitter, and when the robot receives ultrasonic waves from multiple receivers, the 3D position of the tag is calculated from the distance between each receiver and the tag and the relative position of each receiver. Based on this principle, there is a technique for making a call by detecting the position and name of a child (see Non-Patent Document 1).

また,ロボットに赤外線カメラを設け,ユーザに赤外線を放射する赤外線タグを装着し,コミュニケーション中に赤外線カメラにより相手のIDが検出できるか判別し,相手が目前に存在してこちらを向いているか確認し,相手のIDが検出されないでこちらを向いていないと,前方の超音波距離センサ若しくはレーザレンジファインダ,または相手に装着された無線タグ(RFID)等で反応の有無を確認し,判断結果に応じて相手に対する行動,例えば話題転換を図る等の制御をするコミュニケーションロボットが知られている(特許文献1参照)。   In addition, an infrared camera is installed on the robot, an infrared tag that emits infrared rays is attached to the user, it is determined whether the other party's ID can be detected by the infrared camera during communication, and it is confirmed whether the other party is in front of you. If the other party's ID is not detected and you are not facing this direction, the presence or absence of a reaction is confirmed with the ultrasonic distance sensor or laser range finder in front or the RFID tag (RFID) attached to the other party. In response to this, a communication robot is known that controls the behavior of the other party, for example, controls a topic change (see Patent Document 1).

更に,組織内の複数の構成員(ユーザ)にRFIDタグと赤外線タグを装着させ,構成員が所定の領域内に近づくと,無線タグ読取装置と赤外線カメラによって識別情報を取得して,所定領域における行動の履歴として記録し,これに基づき構成員の関係を把握する関係検出システムがある(特許文献2参照)。   Further, RFID members and infrared tags are attached to a plurality of members (users) in the organization, and when the members approach a predetermined region, identification information is acquired by the wireless tag reader and the infrared camera, and the predetermined region There is a relationship detection system that records as a history of actions in, and grasps the relationship of members based on the history (see Patent Document 2).

特許文献2は,特許文献1を基本アイディアとした応用発明とみなせる。すなわち,上記特許文献1の技術では,超音波(特許文献1は赤外線タグも使用)を用いているが,超音波の発信,受信(センサ)のための装置は高価であるという問題がある。また,特許文献1の技術では,赤外線カメラをロボットの正面方向に向けて設置しているのみなので,ロボットの近傍においてロボットの正面では対面していないが,他の方向から対面している(つまりロボットに興味関心を持っていると考えられる)ユーザについては認識できないといった,まわりのユーザ(またはロボット)の状態をより細かに識別することができないという問題がある。   Patent Document 2 can be regarded as an application invention based on Patent Document 1 as a basic idea. That is, although the technique of Patent Document 1 uses ultrasonic waves (Patent Document 1 also uses an infrared tag), there is a problem that an apparatus for transmitting and receiving ultrasonic waves (sensor) is expensive. Further, in the technique of Patent Document 1, since the infrared camera is only installed in the front direction of the robot, it is not facing the front of the robot in the vicinity of the robot, but is facing from another direction (that is, There is a problem that the state of the surrounding users (or robots) cannot be identified more precisely, such as being unable to recognize a user who is considered to be interested in the robot.

また,特許文献1の方法では,相手識別のために赤外線タグと超音波センサまたは無線タグ(RFID)を装着する方法を用いているが,この場合も,まず赤外線タグの情報を正面に向けた赤外線カメラによってユーザを認識することから開始するため,ユーザの検出は局所的(すなわち,ユーザがロボットの正面にいる場合のみ)である。また,そのため,ロボットのまわりにいて,ロボットに興味を持っているが,ロボットの正面にいないユーザ(すなわち,ロボットの側面や後ろからロボットの方向を向いて関心を示しているユーザ)のことを認識することはできなかった(RFIDタグを使って,近傍に存在している複数のユーザを知ることはできるが,そのユーザがロボットに関心を持っているかどうかは判別不可能であった)。RFIDタグは近くに存在するかどうかという識別が可能であるが,対象がどこに存在するか,その位置,方向を識別するには,分解能が粗いため,各ユーザの方向を識別することは難しいという問題がある。   Further, in the method of Patent Document 1, an infrared tag and an ultrasonic sensor or a wireless tag (RFID) are used for identifying the other party. In this case, the information on the infrared tag is first turned to the front. Since we start by recognizing the user with an infrared camera, the user's detection is local (ie only when the user is in front of the robot). For this reason, a user who is around the robot and is interested in the robot but is not in front of the robot (ie, a user who shows interest from the side or the back of the robot toward the robot). It was not possible to recognize (using the RFID tag, it was possible to know a plurality of users in the vicinity, but it was impossible to determine whether or not the user was interested in the robot). Although it is possible to identify whether or not an RFID tag exists nearby, it is difficult to identify the direction of each user because the resolution is coarse to identify where the target is, its position and direction. There's a problem.

これらの問題に対して,安価で且つ信頼性が高く,対話相手(人やロボット)の識別,方向判別が可能で,対話相手に応じて対話・サービスの提供が可能な「ロボットにおける対話相手識別方法及びロボット」という発明が本出願人により提案されている(特願2005−361433号)。   To deal with these problems, it is cheap and highly reliable, and it is possible to identify the conversation partner (people and robots) and determine the direction, and to provide conversations and services according to the conversation partner. The invention of “method and robot” has been proposed by the present applicant (Japanese Patent Application No. 2005-361433).

図10は提案された発明による実施例のロボットの基本構成を示す。図中,50は対話ロボット,60はユーザ(人間),61はユーザ用赤外線受発信ユニットであり,この図では対話ロボットのユーザが1対1の場合を示す。対話ロボット50の身体(例えば胴回り)には対話ロボット50の周囲の複数方向に向けて配置した赤外線受発信ユニット51が装着されている。赤外線受発信ユニット51は,一対の赤外線発信器51aと赤外線受信器51bとで構成され,赤外線発信器51aから自分自身の識別信号を発信し,赤外線受信器51bにより赤外線の発信主体である人あるいは他のロボットからの発信者の識別信号を含む赤外線を受信する。   FIG. 10 shows the basic configuration of a robot according to an embodiment of the proposed invention. In the figure, 50 is a dialogue robot, 60 is a user (human), 61 is a user infrared transmission / reception unit, and this figure shows a case where there is a one-to-one dialogue robot user. An infrared transmission / reception unit 51 arranged in a plurality of directions around the dialogue robot 50 is attached to the body (for example, the waist) of the dialogue robot 50. The infrared receiving / transmitting unit 51 includes a pair of infrared transmitters 51a and infrared receivers 51b. The infrared transmitter / receiver unit 51 transmits its own identification signal from the infrared transmitters 51a, and the infrared receiver 51b Infrared light including a caller identification signal from another robot is received.

ユーザはその識別信号を発信する少なくとも1つ赤外線発信器51aを有する赤外線受発信ユニット51(または赤外線タグともいう)を装着(図ではペンダント形状で首から下げている)する。対話ロボット50は,複数方向に向けて配置された赤外線発信器51aの内の,どの受信器によってユーザ60から発信された識別信号が受信されたかによって,対応するユーザ60が自分から見てどちらの方向にいるかを知り,受信した識別信号を解読することで対応するユーザ60が誰かを知ることが可能となる。また,対話ロボット50は,その顔部(頭部)あるいは身体の向きを駆動する身体方向駆動手段(図10では図示省略)を有しており,検出されたユーザ方向に応じて,その方向に顔または身体全体を向けることができる。また,ユーザ60が誰であるかを識別すると,識別した相手に応じた対話/サービス内容を選択し,その相手に対して言語・非言語に基づく対話・サービスを行う。
船田純一外4名,「チャイルドケアロボットPaPeRoにおける超音波タグの利用」,第23回日本ロボット学会学術講演会予講集,1113, 2005年 9月 特開2005−238382号公報 特開2005−131748号公報
The user wears an infrared receiving / transmitting unit 51 (or also referred to as an infrared tag) having at least one infrared transmitter 51a for transmitting the identification signal (pendant shape is lowered from the neck in the figure). The interactive robot 50 determines which one of the corresponding users 60 sees by itself depending on which receiver of the infrared transmitters 51a arranged in a plurality of directions has received the identification signal transmitted from the user 60. Knowing whether the user is in the direction and decoding the received identification signal makes it possible to know who the corresponding user 60 is. In addition, the dialogue robot 50 has body direction driving means (not shown in FIG. 10) for driving the face (head) or body direction, and in the direction according to the detected user direction. The face or the whole body can be turned. When the user 60 is identified, the conversation / service content corresponding to the identified partner is selected, and the conversation / service based on language / non-language is performed on the partner.
Junichi Funada, 4 people, “Use of ultrasonic tags in child care robot PaPeRo”, 23rd Annual Conference of the Robotics Society of Japan, 1113, September 2005 JP 2005-238382 A JP 2005-131748 A

上記の提案された図10に示す技術によれば,信頼性が高く,安価簡便で,相手の識別と方向判別を同時に可能となった。しかし,場の中に複数のユーザが存在すると,ユーザタグ(図10のユーザ用赤外線受発信ユニット61)からの識別信号出力が空間で干渉し,通信プロトコルが複雑化,または通信が困難になるという問題がある。また,近傍にいるがロボットから直接見えない(他のユーザの影や障害物の影となる位置)ユーザは検出することができないという問題がある。   The proposed technique shown in FIG. 10 is highly reliable, inexpensive and simple, and can simultaneously identify the opponent and determine the direction. However, if there are a plurality of users in the field, the identification signal output from the user tag (infrared receiving / transmitting unit 61 for user in FIG. 10) interferes in space, and the communication protocol becomes complicated or communication becomes difficult. There is a problem. In addition, there is a problem that a user who is in the vicinity but cannot directly see from the robot (a position that becomes a shadow of another user or an obstacle) cannot be detected.

一方,一般に用いられるRFIDを用いるシステムでは,これらの問題はないものの,十分な分解能で,ユーザの位置を検出することは困難であった。また,RFIDでユーザ位置を検出するシステムでは施設側にインフラを必要とする点が問題である。   On the other hand, a generally used system using RFID does not have these problems, but it is difficult to detect the position of the user with sufficient resolution. Another problem is that the system that detects the user position by RFID requires infrastructure on the facility side.

本発明は複数のユーザが存在してユーザが直接見えないが近傍にいる場合や,ユーザがロボットの方に向いていない場合,及びロボットの方を向いているがロボットの正面にはいない場合でも,それらのユーザの存在を認識して,認識したユーザに応じたサービス,コンテンツを提供することができる対話ロボットシステムを提供することを目的とする。すなわち,上記特許文献1では識別不可能であった,ロボットの正面以外の,ロボットの側面あるいは後ろにいて,ロボットの方向を見ているユーザ(ロボットに興味を抱いているユーザとみなせるユーザ)を識別可能とし,そのユーザに適したサービス,コンテンツを提供できる対話ロボットシステムを提供することを目的とする。   The present invention can be used even when there are a plurality of users and the user is not directly visible but is in the vicinity, when the user is not facing the robot, or when the user is facing the robot but is not in front of the robot. An object of the present invention is to provide an interactive robot system that can recognize the existence of these users and provide services and contents according to the recognized users. That is, a user who can not be identified in the above-mentioned Patent Document 1 and is on the side or back of the robot other than the front of the robot and looking at the direction of the robot (a user who can be regarded as a user interested in the robot). The purpose is to provide an interactive robot system that can identify and provide services and contents suitable for the user.

図1は本発明の原理構成を示す図である。1は対話ロボット,1aはユーザが所持するRFIDのタグの信号を読み取るRFタグ信号読み取り手段,1bは赤外線信号発信手段,1cは赤外線信号受信手段,1dはユーザ(人または他のロボット)が何者であるかを識別すると共にそのユーザが位置する方向を識別する相手・方向識別手段,1eは身体方向駆動手段,1fは対話・サービス内容再生手段,1gはコマンド解釈手段,1hは対話・サービス内容選択手段,1iは予め当該対話ロボットがコミュニケーションの対象とする各ユーザ(またはロボット)に適したコンテンツ・サービス等をサーバ(図示省略)からダウンロードしたりして保持している対話・サービス内容DB(データベース)である。   FIG. 1 is a diagram showing a principle configuration of the present invention. 1 is an interactive robot, 1a is an RF tag signal reading means for reading an RFID tag signal possessed by a user, 1b is an infrared signal transmitting means, 1c is an infrared signal receiving means, and 1d is a user (human or other robot) And 1d is a body direction drive means, 1f is a dialogue / service content reproduction means, 1g is a command interpretation means, and 1h is a dialogue / service content. The selection means 1i is a dialogue / service content DB (in which content / services and the like suitable for each user (or robot) to be communicated by the dialogue robot are downloaded from a server (not shown) and held in advance. Database).

なお,対話ロボット1の赤外線信号発信手段1bと赤外線信号受信手段1cを組み合わせて赤外線受発信ユニットが構成され,上記提案された技術(図10)に示すロボットと同様に身体(例えば胴回り)の周囲の複数方向(全周)に向けて赤外線受発信ユニットが一定間隔を置いて(赤外線の送受信角度を変えて),複数個装着される。   The infrared signal transmitting / receiving unit 1b and the infrared signal receiving unit 1c of the interactive robot 1 are combined to form an infrared receiving / transmitting unit, and like the robot shown in the proposed technique (FIG. 10), around the body (for example, the waistline) A plurality of infrared transmission / reception units are mounted at different intervals (changing the infrared transmission / reception angle) in a plurality of directions (all circumferences).

また,2と3は各ユーザ(人間または他のロボット等でメンバともいう)が身に付けるもので,2は赤外線発信器2aと赤外線受信器2bとで構成する赤外線タグ,2cはコマンドボタン,3はRFIDで構成するRFタグであり,ユーザ(メンバ)のID(識別情報)を設定保持し,自分のIDを含む情報を無線送信する。赤外線タグ2とRFタグ3は一体でなく,特にRFタグ3は例えば,ユーザのポケット等に入れても良い。   2 and 3 are worn by each user (also called a member of a human or other robot), 2 is an infrared tag composed of an infrared transmitter 2a and an infrared receiver 2b, 2c is a command button, Reference numeral 3 denotes an RF tag constituted by RFID, which sets and holds the ID (identification information) of the user (member) and wirelessly transmits information including its own ID. The infrared tag 2 and the RF tag 3 are not integrated. In particular, the RF tag 3 may be placed in a user's pocket, for example.

更に,赤外線タグ2はペンダント等に取り付けてユーザの首からぶら下げる等により装着することができ,更にそのようなペンダントに対話ロボット1に対しユーザのコマンド(指示)を出力するためのボタン(例えば,イエス,ノーの指示)を設けることができ,そのコマンド指示のボタンを操作すると赤外線タグ2の赤外線信号発信器2a から対応する赤外線信号を送信する。   Further, the infrared tag 2 can be attached to a pendant or the like by hanging it from the user's neck or the like, and a button (for example, for outputting a user command (instruction) to the interactive robot 1 to such a pendant. If the command instruction button is operated, the corresponding infrared signal is transmitted from the infrared signal transmitter 2a of the infrared tag 2.

本発明ではRFタグ信号読み取り手段1aによりロボットの周りの場(一定の半径の円内)にいるユーザ(メンバ)のRFタグの情報をRFアンテナからの電波により読み取って,電磁波が届く範囲内に誰がいて,何人いるかを相手・方向識別手段1dで検出する。これによりロボット1は自分の周囲にいるユーザを特定してメンバリストを作成する。この相手・方向識別手段1dによる検出動作は一定あるいは不定の周期を置いて実行され,メンバリストが更新される。次に,相手・方向識別手段1dは作成したメンバリストに従って赤外線信号発信手段1bからユーザの赤外線タグ2に向かって,存在確認のリクエストコマンドを発信する。それぞれのユーザに対するリクエストコマンド信号は時間的に個別に発信し,ユーザの赤外線タグ2はそれぞれ自分の名前を受け取った場合,自分が存在することを赤外線で返答する。この返答を何れの方向に配置された赤外線信号受信手段1cで受信したかを識別することによりそのユーザの方向(位置)が識別される。   In the present invention, the RF tag signal reading means 1a reads the information of the RF tag of the user (member) in the field around the robot (in a circle with a certain radius) by the radio wave from the RF antenna, and the electromagnetic wave reaches within the range. The person / direction identifying means 1d detects who is and how many are. As a result, the robot 1 identifies users around him and creates a member list. This detection operation by the partner / direction identification means 1d is executed at regular or indefinite intervals, and the member list is updated. Next, the partner / direction identifying unit 1d transmits a request command for existence confirmation from the infrared signal transmitting unit 1b to the user's infrared tag 2 in accordance with the created member list. Request command signals for each user are individually transmitted in time, and when the user's infrared tag 2 receives its own name, it responds by infrared that it exists. The direction (position) of the user is identified by identifying the direction in which the response is received by the infrared signal receiving means 1c.

赤外線通信で確認できたユーザ,すなわち,対話ロボット1から見えているユーザに対し,そのユーザに適したコンテンツ,サービスを対話・サービス内容選択手段1hにより,対話・サービス内容データベース1iから選択して,対話・サービス内容再生手段1fで再生して,ユーザに向けて対話のための音声等の出力を行う。RFタグでのみ存在が確認できたユーザ(近くにいるがロボットからは見えていないユーザ)に対し,そのユーザに適したコンテンツ・サービスを提供する。   For a user who has been confirmed by infrared communication, that is, a user who can be seen from the dialog robot 1, the content / service suitable for the user is selected from the dialog / service content database 1 i by the dialog / service content selection means 1 h, It is reproduced by the dialogue / service content reproduction means 1f, and a voice or the like for dialogue is output to the user. A content service suitable for a user who has been confirmed to exist only with an RF tag (a user who is nearby but cannot be seen by a robot) is provided.

また,対話ロボット1はその顔部(頭部)または身体の向きを駆動する身体方向駆動手段1eを備え,検出されたユーザの方向に応じて,その方向に顔または身体全体を向けるように駆動することができる。これにより,ロボットが自律的にユーザの方向を向くことができる。なお,対話・サービス内容データベース1iには,外部のサーバ(図示省略)から必要なコンテンツをダウンロードすることができる。   Further, the dialogue robot 1 includes body direction driving means 1e for driving the face (head) or body direction, and is driven so that the face or the whole body is directed in the direction according to the detected user direction. can do. As a result, the robot can autonomously face the user. It should be noted that necessary contents can be downloaded from an external server (not shown) to the dialogue / service contents database 1i.

また,RFタグの電波受信感度を変更することで,その場に応じた場の範囲(近接場となる範囲)を,静的・動的に変更できる。すなわち,個室内,集会所等の場所に応じて,場の範囲を変更する。   In addition, by changing the radio wave reception sensitivity of the RF tag, the field range corresponding to the place (range that becomes a near field) can be changed statically and dynamically. In other words, the range of the venue is changed according to the location such as the private room or meeting place.

更に,ユーザが備える赤外線タグ2に上記コマンドを指示するコマンドボタン2cを備えた場合,コマンドを表す赤外線信号が赤外線信号受信手段1cで受信されると,コマンド解釈手段1gにおいてコマンドを解釈し,その解釈した内容に応じて対話・サービス内容選択手段1hの選択が行われる。   Further, when the infrared tag 2 provided by the user is provided with the command button 2c for instructing the command, when the infrared signal representing the command is received by the infrared signal receiving means 1c, the command interpreting means 1g interprets the command, The dialogue / service content selection means 1h is selected according to the interpreted content.

対話・サービス内容選択手段1hにより各ユーザ(メンバ)に対して行われる対話・サービスは,対話・サービス内容データベース1iに格納されているが,相手の名前を呼んだり,相手が好む話題や,音楽を提供したり,首や身体を動かす等の動作(ジェスチャ)等の各種のサービスがある。   The dialogue / service performed for each user (member) by the dialogue / service content selection means 1h is stored in the dialogue / service content database 1i. The name of the other party, the topic preferred by the other party, music There are various services such as providing gestures and moving the neck and body (gestures).

本発明により,赤外線タグを用いることによるユーザ識別において,マルチユーザの場合,空間内での赤外線の干渉により,ユーザの識別が困難になる場合があったが,RFタグシステムを併用することにより,場にいるユーザを絞り込むことができ,ユーザ個別にリクエスト信号を別々の時間に発信できるので,混信によるエラー発生の問題を回避できる。また,RFタグだけを使うシステムと比較しても,相手の位置を十分な分解能で知る機能を得ることができるメリットがある。さらに,ロボットの正面だけでなく,側面やうしろに居て,ロボットの方を向いているユーザ(すなわち,ロボットの近傍にいて,ロボットに興味関心を抱いているユーザ)が誰か,また,どこにいるを特定できるので,それらのユーザに対するコンテンツ,サービスを適切に提供することが可能となる。また,それらの複数ユーザに対して,適切なコンテンツ,サービスを提供することも可能となる。   According to the present invention, in the user identification by using the infrared tag, in the case of multi-users, the identification of the user may be difficult due to infrared interference in the space. By using the RF tag system together, The users in the field can be narrowed down, and the request signal can be transmitted for each user at different times, so that the problem of error occurrence due to interference can be avoided. In addition, compared with a system using only an RF tag, there is an advantage that a function of knowing the position of the other party with sufficient resolution can be obtained. In addition to who is in front of the robot, on the side or behind, and who is facing the robot (that is, who is in the vicinity of the robot and is interested in the robot), and where is the user Therefore, it is possible to appropriately provide contents and services for those users. It is also possible to provide appropriate contents and services to those multiple users.

すなわち,本発明によれば,特許文献1では「ロボットの近傍にいるがロボットの正面で対面していない」ユーザ,「ロボットの近傍にいてロボットの正面で対面している」ユーザ,「ロボットの近傍にいない」ユーザの3種類の状態しか認識できなかったが,さらに「ロボットの近傍にいてロボットの正面では対面していないが,正面以外の他の方向から対面している(つまりロボットに興味関心をもっている可能性が高いと思われる)」ユーザも識別可能となる。さらに,結果的に「ロボットの近傍にいるが,今のところロボットに興味関心をもたない」ユーザも識別可能になる。これにより,従来に比べて,ロボットの近傍にいるユーザの状態(興味関心の有無など)をより細かに認識できるため,それに応じて,各ユーザに対し,細やかなコンテンツ,サービスを提供することが可能となる。   That is, according to the present invention, in Patent Document 1, a user who is “near the robot but is not facing the front of the robot”, a user who is “near the robot and is facing the front of the robot”, and “ It was possible to recognize only three types of states of users who are not in the vicinity, but in addition, they were in the vicinity of the robot and not facing the front of the robot, but facing from other directions than the front (that is, interested in the robot The user is also likely to be interested)). Further, as a result, it becomes possible to identify a user who is “near the robot but has no interest in the robot at present”. This makes it possible to more precisely recognize the status of users in the vicinity of the robot (such as whether or not they are interested) compared to conventional robots. Therefore, it is possible to provide detailed content and services to each user accordingly. It becomes possible.

図2はメンバリスト作成・更新の処理フローであり,図1の相手・方向識別手段1dにおいて実行される。最初に,RFタグ信号読み取り装置(図1の1aに対応)により自分(ロボット)の周りに存在するメンバ(ユーザ及び他ロボット)のID(識別情報)を得る(図2のS1)。次に得られたIDに基づき,周りにいるメンバのリストを作成して保持する(同S2)。なお,このリストは相手・方向識別手段1d内のメモリ(図示省略)に格納される。次にメンバリストを順に読み出し(図2のS3),読み出したメンバがリストの最後か判別し(同S4),最後なら古いメンバリストを今回作成した新しいメンバリストで置き換えて(同S9),ステップS1に戻る。S4においてリストの最後でない場合,リストから選択されたメンバに対する所在確認信号を,胴体に設置された複数の赤外線信号発信手段(図1の1b)から出力する(図2のS5)。この後,赤外線信号による応答があったか,複数の赤外線信号受信手段1cの受信信号から判別し(図2のS6),応答があった場合は,受信した赤外線信号受信手段の胴体上の設置位置より,ロボットから見た該メンバの位置を割り出し,その位置情報をリストに登録する(同S7)。応答がなかった場合は,該メンバの位置情報を不明(?)として登録する(図2のS8)。ステップS7,S8の後は,S3の処理に戻り,次のメンバリストについての処理が実行される。   FIG. 2 is a process flow for creating / updating a member list, which is executed in the partner / direction identifying means 1d in FIG. First, an ID (identification information) of members (users and other robots) existing around him (robot) is obtained by the RF tag signal reading device (corresponding to 1a in FIG. 1) (S1 in FIG. 2). Next, based on the obtained ID, a list of members around is created and held (S2). This list is stored in a memory (not shown) in the opponent / direction identifying means 1d. Next, the member list is read in order (S3 in FIG. 2), and it is determined whether the read member is the end of the list (S4). If it is the end, the old member list is replaced with the newly created member list (S9), step Return to S1. If it is not the last of the list in S4, a location confirmation signal for the member selected from the list is output from a plurality of infrared signal transmitting means (1b in FIG. 1) installed on the body (S5 in FIG. 2). Thereafter, it is determined whether there is a response by the infrared signal from the received signals of the plurality of infrared signal receiving means 1c (S6 in FIG. 2), and if there is a response, from the installation position on the body of the received infrared signal receiving means. The position of the member viewed from the robot is determined, and the position information is registered in the list (S7). If there is no response, the member position information is registered as unknown (?) (S8 in FIG. 2). After steps S7 and S8, the process returns to S3 and the process for the next member list is executed.

図3は赤外線タグにおける処理フローであり,ユーザの身体(胴等)の正面に装着されており,赤外線信号発信手段1b(図1)と赤外線信号受信手段1cとを含み処理部(図示省略)を備えている。赤外線タグが赤外線信号を受信したか判別しており(図3のS1),受信した場合は自分に対する存在確認信号か判別する(同S2)。すなわち,自分のIDを含む赤外線信号による問い合わせであるかを判別する。自分に対する存在確認信号であることが確認できると,自分の存在通知信号を赤外線信号発信手段から送信する(図3のS3)。   FIG. 3 shows a processing flow in the infrared tag, which is attached to the front of the user's body (such as the torso), and includes an infrared signal transmitting means 1b (FIG. 1) and an infrared signal receiving means 1c. It has. It is determined whether the infrared tag has received an infrared signal (S1 in FIG. 3). If it has been received, it is determined whether it is a presence confirmation signal for itself (S2). That is, it is determined whether the inquiry is based on an infrared signal including its own ID. If it can be confirmed that it is a presence confirmation signal for the user, the presence notification signal of the user is transmitted from the infrared signal transmitting means (S3 in FIG. 3).

図4はRFタグを用いた「場」のメンバの識別の例を示す。図4のa.はメンバと対話ロボットの位置関係の例を示し,b.はa.の位置関係におけるロボットのメンバリストを示す。a.において,1は対話ロボット,A〜Eは対話ロボット1の周辺に存在する各メンバ(ユーザ),4aは場の中の障害物,4bはRFタグによるシステムの通信範囲(例えば,半径2mの円とする)であり,対話ロボット1に備えるRFタグ信号読み取り手段1aが通信可能な範囲で,この範囲を「場」と呼ぶ。上記図2のステップS1におけるRFタグ信号読み取り装置によりロボットの周りに存在するメンバのIDを得る動作により,図4のb.に示すメンバリストが得られる。このリストでは,a.に示すユーザDはRFタグ信号読み取り手段1aの通信範囲の外に位置しているため読み取ることができないので,メンバDのIDを得ることができず,メンバリストに格納されない。   FIG. 4 shows an example of identification of “field” members using RF tags. In FIG. Shows an example of the positional relationship between a member and a dialogue robot, b. Is a. The robot member list in the positional relationship is shown. a. 1, 1 is a dialogue robot, A to E are members (users) existing around the dialogue robot 1, 4 a is an obstacle in the field, 4 b is an RF tag communication range (for example, a circle with a radius of 2 m) And the range within which the RF tag signal reading means 1a included in the dialogue robot 1 can communicate is referred to as a “field”. By the operation of obtaining IDs of members existing around the robot by the RF tag signal reading device in step S1 of FIG. The member list shown in FIG. In this list, a. Since the user D shown in FIG. 5 is located outside the communication range of the RF tag signal reading means 1a and cannot be read, the ID of the member D cannot be obtained and is not stored in the member list.

図5は赤外線信号受発信ユニットによるメンバ位置把握の説明図である。a.は対話ロボット1の顔の方向の基準を示し,上の方向を0°としてこの方向を基準とし,時計方向へ回転する方向を+方向,反時計方向へ回転する方向を−方向とする。図2のステップS5〜S7の赤外線信号受発信ユニットにより,上記図4のb.に示すメンバリストの各メンバへの所在確認信号の送信(複数の赤外線信号受発信ユニットからのメンバのIDの送信)と,受信動作によるメンバ位置の割り出し(どの方向の赤外線信号受発信ユニットで受信したかの識別)を,各メンバについて順に実行し,各メンバの位置情報をリストに登録する。   FIG. 5 is an explanatory view of member position grasping by the infrared signal receiving / transmitting unit. a. Indicates the reference of the face direction of the interactive robot 1, the upper direction is set to 0 °, this direction is used as a reference, the clockwise direction is the + direction, and the counterclockwise direction is the − direction. 4b by the infrared signal receiving / transmitting unit in steps S5 to S7 in FIG. Location confirmation signal transmission to each member of the member list shown in Fig. 1 (transmission of member IDs from a plurality of infrared signal receiving / transmitting units), and member position determination by receiving operation (in which direction infrared signal receiving / transmitting unit receives) Identification for each member) is executed in order for each member, and the position information of each member is registered in the list.

具体的には,図5のb.に示すように,最初に,リストの先頭のメンバAに対して,対話ロボット1から「Aさん,いますか?」という確認が送信される。この時「A」の部分にはそのIDが設定される。これを受け取ったメンバAから,その赤外線信号発信ユニットから「いますよ」という返事を赤外線で対話ロボット1へ送信すると,対話ロボット1に設けた複数の赤外線信号受発信ユニットの中の+45°の方向に取り付けられた赤外線信号受発信ユニットでメンバAから送信した赤外線信号(返事)を検出する。以下,メンバB〜Eまで同様な処理が行われる。この中,メンバEについては,障害物4a(図5)が存在するため,赤外線が遮蔽されるため,位置を検出することができない。   Specifically, b. As shown in FIG. 5, first, the dialogue robot 1 sends a confirmation “Is Mr. A?” To the first member A in the list. At this time, the ID is set in the portion “A”. When member A who has received this message sends a reply “I'm coming” from the infrared signal transmission unit to the dialogue robot 1 by infrared rays, the + 45 ° of the plurality of infrared signal reception / transmission units provided in the dialogue robot 1 is transmitted. The infrared signal (reply) transmitted from the member A is detected by the infrared signal receiving / transmitting unit attached in the direction. Thereafter, the same processing is performed for members B to E. Among them, the position of the member E cannot be detected because the obstacle 4a (FIG. 5) exists and the infrared rays are shielded.

図6はメンバ位置確認後のメンバリストであり,上記図5のb.に示すような位置に各メンバ(ユーザ)が存在している場合のリストである。図6のメンバリストは,「場」にいる人(メンバ)のID(または名前),それぞれの位置(方向),及び現在の対話ロボットの顔(または胴)の正面がどのメンバに向いているかの情報(○のマークで表す)とで構成される。なお,対話ロボット1の顔(または胴)の正面がどのメンバに向いているかは,対話ロボット1の首部の回転角度センサの読み取り値(図5 のa.の角度座標に従った頭部の向きの角度の読み取り値)と各メンバの位置(同座標上の角度値)を比較することにより,容易に認識可能である。図6のメンバリストの例は図5のb.の場合に相当し,「メンバA」が「+45°」の位置におり,ロボットの首部の回転角度センサの読み取り値も+45°であることから,+45°の位置において,対話ロボットの顔とメンバAが正面で向かい合っていることが認識できる。   FIG. 6 is a member list after the member position is confirmed, and FIG. It is a list when each member (user) exists in the position as shown in FIG. The member list in FIG. 6 shows which member (member) 's ID (or name), each position (orientation), and the face (or torso) of the current interactive robot is facing. Information (represented by a circle mark). Note that which member the front (or torso) front of the dialogue robot 1 faces is determined by the reading of the rotation angle sensor at the neck of the dialogue robot 1 (the orientation of the head according to the angle coordinates of a in FIG. 5). Can be easily recognized by comparing each member position (angle value on the same coordinate). An example of the member list in FIG. Since “Member A” is in the position of “+ 45 °” and the reading value of the rotation angle sensor of the robot neck is also + 45 °, the face and members of the interactive robot are at the position of + 45 °. It can be recognized that A faces the front.

図7は対話・サービス内容選択手段の処理フローである。最初に,上記図2のメンバリスト作成・更新の処理フローで作成・更新している最新のメンバリストを読み出し(図7のS1),メンバリストは空ではないか判別する(同S2)。メンバリストが空であるということは,ロボットの周囲にユーザやロボットが存在していない(存在を認識されていない)ことを示す。空の場合はステップS1に戻り,空でない場合はロボットの現在の首振り角度を読み出す(同S3)。ここで,ロボットがどの方向を見ているかを調べ,メンバリストに載っているうちのどの人(ロボット)と対話(インタラクション)するかを決定する(図7のS4)。決め方としては,(1) 上記ステップS3で調べた首の向きを使って,ロボットが向いている方向に一番近い相手を選ぶ方法,(2) (1) 以外でロボットの方向を向いている相手を選ぶ方法(赤外線タグで検出可能な人の中から選ぶ),(3) 赤外線タグでは存在を確認できない相手(RFタグでのみ存在を確認できる,すなわち,ロボットの方を向いていない,あるいは何かのうしろに隠れている相手)を選ぶ方法がある。   FIG. 7 is a processing flow of the dialog / service content selection means. First, the latest member list created / updated in the member list creation / update process flow of FIG. 2 is read (S1 in FIG. 7), and it is determined whether the member list is empty (S2). An empty member list indicates that there is no user or robot around the robot (the existence is not recognized). If it is empty, the process returns to step S1, and if it is not empty, the current swing angle of the robot is read (S3). Here, it is checked which direction the robot is looking at, and it is determined which person (robot) on the member list is to interact (interact) (S4 in FIG. 7). The decision method is as follows: (1) Use the neck orientation checked in step S3 above to select the opponent closest to the direction the robot is facing. (2) Point to the robot other than (1). How to select a partner (select from those that can be detected with an infrared tag), (3) Partners that cannot be confirmed with an infrared tag (can only be confirmed with an RF tag, ie, not facing the robot, or There is a way to select a partner who is hiding behind something.

こうして,選んだ相手が(1) あるいは(2) の場合には,その相手のほうに顔を向けて,顔をそちらに向ける(図7のS5)。なお,(3) の場合には相手の居る場所はわからないので,今の顔の向きのままか,ロボット正面などのデフォルトの顔の向きに顔を向けるか,あるいはキョロキョロする動作などをさせながら,例えば,「○○さん,どこにいるの?」などと言うようにしてもよい。   In this way, when the selected partner is (1) or (2), the face is directed toward the partner and the face is directed there (S5 in FIG. 7). In the case of (3), the location of the other party is unknown, so keep the current face orientation, or turn the face to the default face orientation such as the front of the robot, For example, “Mr. XX, where are you?” May be said.

次に選択した相手に適したコンテンツを選択して,相手との対話をし(図7のS6),その相手との対話を終了させるかどうかを判定する(同S7)。終了と判定した場合には,メンバリストが新しく更新されているかどうかをチェックし(図7のS8),更新されていれば,新しいメンバリストを読み出し(同S1),更新されていなければ,ステップS3に移行し,現在持っているメンバリストを使って,次の相手との対話プロセスを実行する。   Next, a content suitable for the selected partner is selected, and a dialog with the partner is performed (S6 in FIG. 7), and it is determined whether or not the dialog with the partner is to be terminated (S7). If it is determined that the process is completed, it is checked whether the member list is newly updated (S8 in FIG. 7). If updated, the new member list is read (S1). The process proceeds to S3, and the dialogue process with the next partner is executed using the member list that is currently held.

なお,(3) の場合には相手のいる場所はわからないので,今の顔の向きのままか,ロボット正面などのデフォルトの顔の向きに顔を向けるか,あるいはキョロキョロする動作などをさせながら,例えば,「○○さん,どこにいるの?」等というようにしても良い(請求項5に対応)。従来の例えば,RFIDのみによる周辺にどのメンバがいるかを知る方式では,近傍に存在することはわかるが,どこにいるか,見える位置にいるか,ロボットの方向を向いているかいないかということは分からなかった。本発明では,それが区別できるので,このように,近傍に存在しているのが分かっていながら,ロボットの方向を向いていないメンバ,あるいは障害物の影にいるメンバなどを識別可能なため,このような相手,状況に対して,適したふるまいをすることが可能となる。   In the case of (3), the location of the other party is unknown, so keep the current face direction, or turn the face to the default face direction such as the front of the robot, For example, “Mr. XX, where are you?” May be used (corresponding to claim 5). For example, in the conventional method of knowing which member is in the vicinity only by RFID, it can be known that it exists in the vicinity, but it is not known where it is, where it is visible, or whether it is facing the direction of the robot . In the present invention, since it can be distinguished, it is possible to identify a member that is not facing the direction of the robot or a member that is in the shadow of an obstacle while knowing that it exists in the vicinity. It is possible to perform appropriate behavior for such opponents and situations.

図8は図7においてメンバの変更に対応する処理フローである。このフローは,上記図7のステップS2とS3の間に実行する。上記図7のステップS2において,メンバリストが空でない場合,古いメンバリストと今回のメンバリストで構成メンバに差があるか判別し(図8のS20),構成メンバが変わっていなければ,ステップS3に移行し,変わっていれば,構成メンバが変わって新しく増えたメンバに対するコンテンツ・サービスをサーバからロボットの記憶装置にダウンロードする(同S21)。1回前と同じメンバに対するコンテンツはすでにロボット内の記憶装置に記憶されているのでそれを維持して,そのまま使う。図8には示されていないが,メンバがいなくなった場合(減った場合)は,いなくなったメンバに対するコンテンツも,ロボット内の記憶装置の容量の範囲で保持しておけば,再び,そのユーザがメンバリストに加わった場合に,サーバからダウンロードする手間を省略できる。   FIG. 8 is a processing flow corresponding to the member change in FIG. This flow is executed between steps S2 and S3 in FIG. If the member list is not empty in step S2 in FIG. 7 above, it is determined whether there is a difference between the constituent members in the old member list and the current member list (S20 in FIG. 8). If it has changed, the content service for the newly added member is downloaded from the server to the robot storage device (S21). Since the content for the same member as the previous one is already stored in the storage device in the robot, it is maintained and used as it is. Although not shown in FIG. 8, if the member disappears (decreases), the content for the lost member is retained within the capacity of the storage device in the robot, and the user again. Can be saved from the server when it is added to the member list.

このように,ロボットの周りに居た存在(ユーザまたはロボット)が,その場を離れるとき(つまり,RFタグでのみ存在か確認される他のユーザまたはロボット)に対しても,必要に応じてその存在に適した,コンテンツ,サービスを提供することができる。   In this way, when the presence (user or robot) around the robot leaves the place (that is, another user or robot whose existence is confirmed only with the RF tag), as necessary It is possible to provide content and services suitable for the existence.

図9は本発明を老人施設に適用した例の説明図である。図9は老人病院,老人ホーム等の食堂,ダイニングルーム等の日常場面を表している。図中,1は対話ロボット,4bはRFタグによるシステムの通信範囲,5−1,5−2はダイニングテーブルであり,A〜Dのユーザ(老人)は,一つのダイニングテーブル5−1に座っていて対話ロボット1が対話コンテンツを提供しながら,相手をしている。老人(ユーザ)Eは別のダイニングテーブル5−2に座っていて,また,ロボットとは対面していないので,RFタグで存在は確認できるが,どこに居るかは明らかではない。   FIG. 9 is an explanatory diagram of an example in which the present invention is applied to an elderly facility. FIG. 9 shows daily scenes such as a geriatric hospital, a nursing home cafeteria, a dining room, and the like. In the figure, 1 is an interactive robot, 4b is a communication range of the system using an RF tag, 5-1 and 5-2 are dining tables, and users (old people) A to D sit on one dining table 5-1. The dialogue robot 1 is interacting with the dialogue content. Since the elderly person (user) E is sitting at another dining table 5-2 and is not facing the robot, the presence can be confirmed with the RF tag, but it is not clear where he is.

このような状況では,老人Eは疎外感を感じる場合がある。対話ロボット1は老人Eの存在を知っているので,必要に応じて「Eさんも一緒に歌を歌いませんか」とか,声かけをすることが可能になる。また,A〜Dの老人の何れかに「Eさんを誘って」というような声かけを行って,老人の間のコミュニケーション促進を図ることもできる。   In such a situation, the old man E may feel alienated. Since the dialogue robot 1 knows the existence of the old man E, it becomes possible to call out “Would you like to sing a song together with E” if necessary. In addition, it is possible to encourage communication between old people by calling out to any of the old people A to D, such as “invite Mr. E”.

このように,対話ロボットの周りに存在することがRFタグにより分かっているが方向が分からない他のユーザ(ロボット)に対しても,必要に応じてその存在に適した,コンテンツ,サービスを提供することができる。   In this way, content and services suitable for the presence of other users (robots) who are known to exist around the dialog robot but are not known in the direction are provided as necessary. can do.

(付記1) 無線信号による自動認識を行うためのRFタグと赤外線受信器と赤外線発信器とからなる赤外線タグを装着した複数のユーザ(メンバ)のそれぞれに対し対話・サービスを提供する対話ロボットにおいて,周囲に存在するユーザが装着するRFタグを読み取ってそれぞれの識別情報(ID)を検出するRFタグ信号読み取り手段と,対話ロボットの胴体等の身体の全周に各方向に向けた複数個の赤外線信号の送・受信手段を設け,前記RFタグ信号読み取り手段により周囲の一定エリアに存在するユーザの識別情報を検出してメンバリストを作成し,該メンバリストに基づいて前記複数方向の各赤外線信号の送受信器からの前記識別情報に基づいて赤外線信号を送信して,該当する識別情報を持つメンバの赤外線タグからの赤外線信号をどの赤外線信号の送・受信手段で受信したかを検出することにより前記メンバの方向を識別する相手・方向識別手段を備え,前記識別した相手の方向に顔または身体を向けるよう身体方向駆動手段を駆動し,その相手に応じた対話・サービス内容を選択し,その相手に対して対話・サービスを行うことを特徴とする対話ロボットシステム。   (Supplementary note 1) In a dialogue robot that provides dialogue and services to each of a plurality of users (members) equipped with an infrared tag comprising an RF tag, an infrared receiver and an infrared transmitter for automatic recognition by radio signals , RF tag signal reading means for reading the RF tag worn by the user around and detecting each identification information (ID), and a plurality of directions directed in each direction around the entire body of the body such as the body of the interactive robot Infrared signal transmission / reception means is provided, and the RF tag signal reading means detects user identification information existing in a fixed area around it to create a member list. Based on the member list, each infrared ray in the plurality of directions is provided. An infrared signal is transmitted based on the identification information from the signal transmitter / receiver, and the infrared signal from the infrared tag of the member having the corresponding identification information is transmitted. Body direction driving means is provided to detect the direction of the member by detecting which infrared signal is transmitted / received by the infrared signal to detect the direction of the member, and to face the body or body in the direction of the identified partner An interactive robot system characterized by driving means, selecting dialogue / service contents according to the partner, and performing dialogue / service for that partner.

(付記2) 付記1において,前記相手・方向識別手段は,前記メンバリストに識別したメンバの識別情報(名前及び方向情報)を設定し,前記対話・サービス内容選択手段は,前記メンバリストから一つのメンバを選択し,顔の角度を現在の顔の向きから前記メンバリストの選択したメンバの方向に向けて回転させるよう身体方向駆動手段を駆動して,対話・サービスを実行することを特徴とする対話ロボットシステム。   (Supplementary Note 2) In Supplementary Note 1, the partner / direction identifying means sets identification information (name and direction information) of the identified member in the member list, and the dialogue / service content selection means is selected from the member list. Selecting a member and driving the body direction driving means to rotate the face angle from the current face direction to the direction of the selected member in the member list, thereby executing a dialogue / service. Interactive robot system.

(付記3) 付記1において,前記対話・サービス内容選択手段は,一定または不定の周期で前記RFタグ信号読み取り手段によるメンバリストを更新し,以前のメンバリストよりユーザが増加したことが検出されると,増加したユーザに対応した対話・サービス内容を外部サーバからダウンロードすることを特徴とする対話ロボットシステム。   (Supplementary Note 3) In Supplementary Note 1, the dialog / service content selection means updates the member list by the RF tag signal reading means at a constant or indefinite period, and detects that the number of users has increased from the previous member list. And a dialogue robot system that downloads dialogue and service contents corresponding to the increased number of users from an external server.

(付記4) 付記1において,前記相手・方向識別手段は,前記RFタグ信号読み取り手段による前記電磁波の到達範囲内に位置するが対話ロボットとユーザ間に障害物が存在するユーザの存在を検出し,前記メンバリストに識別情報を設定するが,前記赤外線の送・受信手段による前記ユーザの方向の識別において,方向が不明として設定することを特徴とする対話ロボットシステム。   (Supplementary Note 4) In Supplementary Note 1, the partner / direction identification unit detects the presence of a user who is located within the electromagnetic wave reach by the RF tag signal reading unit but has an obstacle between the interactive robot and the user. The interactive robot system is characterized in that identification information is set in the member list, but the direction is set as unknown in the identification of the direction of the user by the infrared transmission / reception means.

(付記5) 付記1において,前記対話・サービス内容選択手段は,メンバリストを参照することにより,近傍に存在しているのがわかっているが,その存在位置(方向)がわからないユーザに対し,その状況に適したふるまいを生成し,身体方向駆動手段あるいは対話・サービス内容再生手段に指令を与えることにより,そのふるまいを再生することを特徴とする対話ロボットシステム。   (Additional remark 5) In additional remark 1, with respect to the user who knows that the dialog / service content selection means exists in the vicinity by referring to the member list, but does not know the position (direction). A dialogue robot system that generates behavior suitable for the situation and reproduces the behavior by giving commands to the body direction drive means or the dialogue / service content reproduction means.

本発明の原理構成を示す図である。It is a figure which shows the principle structure of this invention. メンバリスト作成・更新の処理フローを示す図である。It is a figure which shows the processing flow of member list creation / update. 赤外線タグにおける処理フローを示す図である。It is a figure which shows the processing flow in an infrared tag. RFタグを用いた「場」のメンバ識別の例の図である。It is a figure of the example of the member identification of the "place" using RF tag. 赤外線信号受発信ユニットによるメンバ位置の把握の説明図である。It is explanatory drawing of grasping | ascertaining of the member position by an infrared signal receiving / transmitting unit. メンバ位置確認後のメンバリストを示す図である。It is a figure which shows the member list after member position confirmation. 対話・サービス内容選択手段の処理フローを示す図である。It is a figure which shows the processing flow of a dialog and service content selection means. 図7におけるメンバの変更に対応する処理フローである。It is a processing flow corresponding to the change of the member in FIG. 本発明を老人施設に適用した例の説明図である。It is explanatory drawing of the example which applied this invention to the elderly person facility. 提案された発明による実施例のロボットの基本構成を示す図である。It is a figure which shows the basic composition of the robot of the Example by the proposed invention.

符号の説明Explanation of symbols

1 対話ロボット
1a RFタグ信号読み取り手段
1b 赤外線信号発信手段
1c 赤外線信号受信手段
1d 相手・方向識別手段
1e 身体方向駆動手段
1f 対話・サービス内容再生手段
1g コマンド解釈手段
1h 対話・サービス内容選択手段
1i 対話・サービス内容DB(データベース)
2 赤外線タグ
2a 赤外線発信器
2b 赤外線受信器
3 RFタグ
DESCRIPTION OF SYMBOLS 1 Dialogue robot 1a RF tag signal reading means 1b Infrared signal transmitting means 1c Infrared signal receiving means 1d Opponent / direction identification means 1e Body direction driving means 1f Dialogue / service content reproduction means 1g Command interpretation means 1h Dialogue / service content selection means 1i Dialogue・ Service contents DB (database)
2 Infrared tag 2a Infrared transmitter 2b Infrared receiver 3 RF tag

Claims (4)

無線信号による自動認識を行うためのRFタグと赤外線受信器と赤外線発信器とからなる赤外線タグを装着した複数のユーザ(メンバ)のそれぞれに対し対話・サービスを提供する対話ロボットにおいて,
周囲に存在するユーザが装着するRFタグを読み取ってそれぞれの識別情報(ID)を検出するRFタグ信号読み取り手段と,対話ロボットの胴体等の身体の全周に各方向に向けた複数個の赤外線信号の送・受信手段を設け,
前記RFタグ信号読み取り手段により周囲の一定エリアに存在するユーザの識別情報を検出してメンバリストを作成し,該メンバリストに基づいて前記複数方向の各赤外線信号の送受信器からの前記識別情報に基づいて赤外線信号を送信して,該当する識別情報を持つメンバの赤外線タグからの赤外線信号をどの赤外線信号の送・受信手段で受信したかを検出することにより前記メンバの方向を識別する相手・方向識別手段を備え,
前記識別した相手の方向に顔または身体を向けるよう身体方向駆動手段を駆動し,その相手に応じた対話・サービス内容を選択し,その相手に対して対話・サービスを行うことを特徴とする対話ロボットシステム。
In a dialogue robot that provides dialogue and services to each of a plurality of users (members) equipped with an infrared tag composed of an RF tag, an infrared receiver and an infrared transmitter for automatic recognition by radio signals,
RF tag signal reading means for detecting the identification information (ID) by reading an RF tag worn by a user existing in the surrounding area, and a plurality of infrared rays directed in each direction around the entire body of the body such as the body of the interactive robot Provide signal transmission / reception means,
A member list is created by detecting user identification information existing in a certain surrounding area by the RF tag signal reading means, and the identification information from the transmitter / receiver of each infrared signal in the plurality of directions is created based on the member list. The other party who identifies the direction of the member by transmitting the infrared signal based on the detected infrared signal from the infrared tag of the member having the corresponding identification information and detecting by which means the infrared signal transmission / reception means is received. With direction identification means,
A dialogue characterized in that the body direction driving means is driven so that the face or body is directed toward the identified partner, the dialogue / service content corresponding to the partner is selected, and the dialogue / service is performed on the partner. Robot system.
請求項1において,
前記相手・方向識別手段は,前記メンバリストに識別したメンバの識別情報(名前及び方向情報)を設定し,
前記対話・サービス内容選択手段は,前記メンバリストから一つのメンバを選択し,顔の角度を現在の顔の向きから前記メンバリストの選択したメンバの方向に向けて回転させるよう身体方向駆動手段を駆動して,対話・サービスを実行することを特徴とする対話ロボットシステム。
In claim 1,
The partner / direction identification means sets identification information (name and direction information) of the identified member in the member list,
The dialogue / service content selecting means selects one member from the member list, and turns the body direction driving means to rotate the face angle from the current face direction toward the selected member direction of the member list. A dialogue robot system that is driven to execute dialogues and services.
請求項1において,
前記対話・サービス内容選択手段は,一定または不定の周期で前記RFタグ信号読み取り手段によるメンバリストを更新し,以前のメンバリストよりユーザが増加したことが検出されると,増加したユーザに対応した対話・サービス内容を外部サーバからダウンロードすることを特徴とする対話ロボットシステム。
In claim 1,
The dialog / service content selection means updates the member list by the RF tag signal reading means at a constant or indefinite period, and when it is detected that the number of users has increased from the previous member list, the user / user can respond to the increased number of users. A dialogue robot system that downloads dialogue and service contents from an external server.
請求項1において,
前記対話・サービス内容選択手段は,メンバリストを参照することにより,近傍に存在しているのがわかっているが,その存在位置(方向)がわからないユーザに対し,その状況に適したふるまいを生成し,身体方向駆動手段あるいは対話・サービス内容再生手段に指令を与えることにより,そのふるまいを再生することを特徴とする対話ロボットシステム。
In claim 1,
By referring to the member list, the dialog / service content selection means generates a behavior suitable for the situation for a user who is known to exist in the vicinity but whose location (direction) is unknown. A dialogue robot system which reproduces the behavior by giving a command to the body direction driving means or the dialogue / service content reproduction means.
JP2006100688A 2006-03-31 2006-03-31 Dialogue robot system Expired - Fee Related JP4800819B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006100688A JP4800819B2 (en) 2006-03-31 2006-03-31 Dialogue robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006100688A JP4800819B2 (en) 2006-03-31 2006-03-31 Dialogue robot system

Publications (2)

Publication Number Publication Date
JP2007268696A true JP2007268696A (en) 2007-10-18
JP4800819B2 JP4800819B2 (en) 2011-10-26

Family

ID=38672017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006100688A Expired - Fee Related JP4800819B2 (en) 2006-03-31 2006-03-31 Dialogue robot system

Country Status (1)

Country Link
JP (1) JP4800819B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009248193A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp Reception system and reception method
JP2010164443A (en) * 2009-01-16 2010-07-29 Nec Corp Location information analyzer, location information analysis method, location information analysis system and program
CN102631784A (en) * 2011-09-29 2012-08-15 太仓国励电子有限公司 Educational voice toy capable of identifying cards
TWI393583B (en) * 2007-11-02 2013-04-21 Hon Hai Prec Ind Co Ltd Electronic toy
KR20140025079A (en) * 2012-08-21 2014-03-04 연세대학교 산학협력단 Robot, method for estimating location in the robot, and recording medium for executing the method
US9020643B2 (en) 2011-12-01 2015-04-28 Sony Corporation Robot apparatus, control method thereof, and computer program
KR101540100B1 (en) * 2012-09-28 2015-07-30 경희대학교 산학협력단 A smart health―care system and a health―space having the same
KR101540101B1 (en) * 2012-09-28 2015-07-30 경희대학교 산학협력단 A healing tocken for a smart health―care system and a health―space having the same
WO2017008182A1 (en) * 2015-07-15 2017-01-19 深圳市优必选科技有限公司 Control system for intelligent robot

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004216513A (en) * 2003-01-15 2004-08-05 Advanced Telecommunication Research Institute International Communication robot
JP2005238382A (en) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International Communication robot
JP2005291716A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Detection target detection system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004216513A (en) * 2003-01-15 2004-08-05 Advanced Telecommunication Research Institute International Communication robot
JP2005238382A (en) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International Communication robot
JP2005291716A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Detection target detection system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI393583B (en) * 2007-11-02 2013-04-21 Hon Hai Prec Ind Co Ltd Electronic toy
JP2009248193A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp Reception system and reception method
JP2010164443A (en) * 2009-01-16 2010-07-29 Nec Corp Location information analyzer, location information analysis method, location information analysis system and program
CN102631784A (en) * 2011-09-29 2012-08-15 太仓国励电子有限公司 Educational voice toy capable of identifying cards
US9020643B2 (en) 2011-12-01 2015-04-28 Sony Corporation Robot apparatus, control method thereof, and computer program
KR20140025079A (en) * 2012-08-21 2014-03-04 연세대학교 산학협력단 Robot, method for estimating location in the robot, and recording medium for executing the method
KR101540100B1 (en) * 2012-09-28 2015-07-30 경희대학교 산학협력단 A smart health―care system and a health―space having the same
KR101540101B1 (en) * 2012-09-28 2015-07-30 경희대학교 산학협력단 A healing tocken for a smart health―care system and a health―space having the same
WO2017008182A1 (en) * 2015-07-15 2017-01-19 深圳市优必选科技有限公司 Control system for intelligent robot

Also Published As

Publication number Publication date
JP4800819B2 (en) 2011-10-26

Similar Documents

Publication Publication Date Title
JP4800819B2 (en) Dialogue robot system
JP6984768B2 (en) Robots, control methods and programs
Sato et al. NavCog3 in the wild: Large-scale blind indoor navigation assistant with semantic features
US10360907B2 (en) Smart necklace with stereo vision and onboard processing
Ivanov Indoor navigation system for visually impaired
US7557703B2 (en) Position management system and position management program
Abu Doush et al. ISAB: integrated indoor navigation system for the blind
JP4787813B2 (en) Detection target detection system
EP2369436B1 (en) Robot apparatus, information providing method carried out by the robot apparatus and computer storage media
US20050060088A1 (en) Pedestrian navigation and spatial relation device
JP2007160473A (en) Interactive object identifying method in robot and robot
JP2005305631A (en) Robot and its controlling method
GB2440583A (en) A portable route planning and object identification device for the visually impaired
US10354295B2 (en) Reception system and reception method
JP7468421B2 (en) Remote operation system, remote operation method, and program
US20240053153A1 (en) Target Localization Using AC Magnetic Fields
JP2011227237A (en) Communication robot
AlZuhair et al. NFC based applications for visually impaired people-A review
US9972216B2 (en) System and method for storing and playback of information for blind users
US20190141663A1 (en) Portable-device-locating system that uses room-level motion sensors and rssi measurements to determine precise room-location
JP2022148262A (en) Remote operation system, remote operation moving body, remote operation method, and program
JP4178846B2 (en) Autonomous driving support device and program
JP2017205848A (en) Service providing system
Dias et al. Future directions in indoor navigation technology for blind travelers
TW200924926A (en) Autonomous robot and position system and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110128

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110804

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees