JP2007268696A - Interactive robot system - Google Patents
Interactive robot system Download PDFInfo
- Publication number
- JP2007268696A JP2007268696A JP2006100688A JP2006100688A JP2007268696A JP 2007268696 A JP2007268696 A JP 2007268696A JP 2006100688 A JP2006100688 A JP 2006100688A JP 2006100688 A JP2006100688 A JP 2006100688A JP 2007268696 A JP2007268696 A JP 2007268696A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- user
- infrared
- tag
- dialogue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
- Toys (AREA)
Abstract
Description
本発明は,ユーザと音声,ジェスチャ,スキンシップ等でインタラクション,コミュニケーションを行い,各ユーザに対応したコンテンツ,サービスを提供する対話ロボットシステムに関する。 The present invention relates to an interactive robot system that interacts and communicates with users by voice, gestures, skinships, etc., and provides contents and services corresponding to each user.
近年,ロボットを人間と交流し,人間との共棲に利用する研究が盛んである。そのようなロボットは,家庭での対話や,各種サービスを提供したり,オフィスや店舗等でユーザとの対話やサービスの提供を行う。サービスとしては,家庭内の介護,見守り,見回りや,機器の操作,物の搬送,掃除などの各種作業があり,オフィス等では接客,案内,等の各種がある。 In recent years, research on using robots for interaction with humans and sharing with humans has been active. Such robots provide home dialogue and various services, and provide dialogues and services with users in offices and stores. Services include home care, watching, patrol, operation of equipment, transport of goods, cleaning, and various other services such as customer service and guidance in offices.
ロボットがユーザと対話を行う時,ユーザが誰なのかを知ることによって,ユーザに対して適切なサービスを提供することができる。ロボットがユーザを識別する技術として種々のものがある。 By knowing who the user is when the robot interacts with the user, an appropriate service can be provided to the user. There are various techniques for identifying a user by a robot.
従来から,ユーザの顔画像を画像処理して相手を識別する方法があるが,この方法は識別精度が低く,顔部分の抽出も難しい場合もあり,信頼性に問題がある。 Conventionally, there is a method for identifying a partner by performing image processing on a user's face image. However, this method has a low identification accuracy, and it is sometimes difficult to extract a face portion, which causes a problem in reliability.
そこで,ユーザにユーザID等を記録した超音波発信部や赤外線発信部や,RFID(Radio Frequency Identification: 電磁波で読み取り可能な非接触ICによる自動認識)のためのRFタグを持たせ,ロボットに超音波受信部,赤外線カメラや,RFIDタグ読取装置を設ける方法が提案されている。 Therefore, the robot is provided with an ultrasonic transmission unit and infrared transmission unit that record the user ID and the like, and an RF tag for RFID (Radio Frequency Identification: automatic recognition by a non-contact IC readable by electromagnetic waves). A method of providing a sound wave receiver, an infrared camera, and an RFID tag reader has been proposed.
その中に,子供と遊んだり,子供の世話をするチャイルドケアロボットの技術として,ロボットの前面にタグが発生する超音波を受信する超音波レシーバを複数個と電波発信部を設け,ユーザ(子供)に電波受信部と超音波発信部を設け,ロボットの電波発信部から呼び出し対象のタグのID(識別情報)を載せた電波を発信すると,タグは常に電波を受信・分析し自分のIDによる呼び出しがあると,ただちに超音波発信部から超音波を発信し,ロボットでは複数のレシーバで超音波を受信すると,各レシーバとタグ間の距離,各レシーバの相対位置からタグの3次元位置を算出することを原理とし,子供の位置や名前等を検出して点呼をとる技術がある(非特許文献1参照)。 Among them, as a child care robot technology for playing with and taking care of children, there are multiple ultrasonic receivers and radio wave transmitters that receive the ultrasonic waves generated by the tags on the front of the robot. ) Is equipped with a radio wave receiver and an ultrasonic wave transmitter, and when the radio wave transmitter of the robot carries a radio wave carrying the ID (identification information) of the tag to be called, the tag always receives and analyzes the radio wave and uses its own ID. When there is a call, the ultrasonic wave is immediately transmitted from the ultrasonic wave transmitter, and when the robot receives ultrasonic waves from multiple receivers, the 3D position of the tag is calculated from the distance between each receiver and the tag and the relative position of each receiver. Based on this principle, there is a technique for making a call by detecting the position and name of a child (see Non-Patent Document 1).
また,ロボットに赤外線カメラを設け,ユーザに赤外線を放射する赤外線タグを装着し,コミュニケーション中に赤外線カメラにより相手のIDが検出できるか判別し,相手が目前に存在してこちらを向いているか確認し,相手のIDが検出されないでこちらを向いていないと,前方の超音波距離センサ若しくはレーザレンジファインダ,または相手に装着された無線タグ(RFID)等で反応の有無を確認し,判断結果に応じて相手に対する行動,例えば話題転換を図る等の制御をするコミュニケーションロボットが知られている(特許文献1参照)。 In addition, an infrared camera is installed on the robot, an infrared tag that emits infrared rays is attached to the user, it is determined whether the other party's ID can be detected by the infrared camera during communication, and it is confirmed whether the other party is in front of you. If the other party's ID is not detected and you are not facing this direction, the presence or absence of a reaction is confirmed with the ultrasonic distance sensor or laser range finder in front or the RFID tag (RFID) attached to the other party. In response to this, a communication robot is known that controls the behavior of the other party, for example, controls a topic change (see Patent Document 1).
更に,組織内の複数の構成員(ユーザ)にRFIDタグと赤外線タグを装着させ,構成員が所定の領域内に近づくと,無線タグ読取装置と赤外線カメラによって識別情報を取得して,所定領域における行動の履歴として記録し,これに基づき構成員の関係を把握する関係検出システムがある(特許文献2参照)。 Further, RFID members and infrared tags are attached to a plurality of members (users) in the organization, and when the members approach a predetermined region, identification information is acquired by the wireless tag reader and the infrared camera, and the predetermined region There is a relationship detection system that records as a history of actions in, and grasps the relationship of members based on the history (see Patent Document 2).
特許文献2は,特許文献1を基本アイディアとした応用発明とみなせる。すなわち,上記特許文献1の技術では,超音波(特許文献1は赤外線タグも使用)を用いているが,超音波の発信,受信(センサ)のための装置は高価であるという問題がある。また,特許文献1の技術では,赤外線カメラをロボットの正面方向に向けて設置しているのみなので,ロボットの近傍においてロボットの正面では対面していないが,他の方向から対面している(つまりロボットに興味関心を持っていると考えられる)ユーザについては認識できないといった,まわりのユーザ(またはロボット)の状態をより細かに識別することができないという問題がある。
Patent Document 2 can be regarded as an application invention based on
また,特許文献1の方法では,相手識別のために赤外線タグと超音波センサまたは無線タグ(RFID)を装着する方法を用いているが,この場合も,まず赤外線タグの情報を正面に向けた赤外線カメラによってユーザを認識することから開始するため,ユーザの検出は局所的(すなわち,ユーザがロボットの正面にいる場合のみ)である。また,そのため,ロボットのまわりにいて,ロボットに興味を持っているが,ロボットの正面にいないユーザ(すなわち,ロボットの側面や後ろからロボットの方向を向いて関心を示しているユーザ)のことを認識することはできなかった(RFIDタグを使って,近傍に存在している複数のユーザを知ることはできるが,そのユーザがロボットに関心を持っているかどうかは判別不可能であった)。RFIDタグは近くに存在するかどうかという識別が可能であるが,対象がどこに存在するか,その位置,方向を識別するには,分解能が粗いため,各ユーザの方向を識別することは難しいという問題がある。
Further, in the method of
これらの問題に対して,安価で且つ信頼性が高く,対話相手(人やロボット)の識別,方向判別が可能で,対話相手に応じて対話・サービスの提供が可能な「ロボットにおける対話相手識別方法及びロボット」という発明が本出願人により提案されている(特願2005−361433号)。 To deal with these problems, it is cheap and highly reliable, and it is possible to identify the conversation partner (people and robots) and determine the direction, and to provide conversations and services according to the conversation partner. The invention of “method and robot” has been proposed by the present applicant (Japanese Patent Application No. 2005-361433).
図10は提案された発明による実施例のロボットの基本構成を示す。図中,50は対話ロボット,60はユーザ(人間),61はユーザ用赤外線受発信ユニットであり,この図では対話ロボットのユーザが1対1の場合を示す。対話ロボット50の身体(例えば胴回り)には対話ロボット50の周囲の複数方向に向けて配置した赤外線受発信ユニット51が装着されている。赤外線受発信ユニット51は,一対の赤外線発信器51aと赤外線受信器51bとで構成され,赤外線発信器51aから自分自身の識別信号を発信し,赤外線受信器51bにより赤外線の発信主体である人あるいは他のロボットからの発信者の識別信号を含む赤外線を受信する。
FIG. 10 shows the basic configuration of a robot according to an embodiment of the proposed invention. In the figure, 50 is a dialogue robot, 60 is a user (human), 61 is a user infrared transmission / reception unit, and this figure shows a case where there is a one-to-one dialogue robot user. An infrared transmission /
ユーザはその識別信号を発信する少なくとも1つ赤外線発信器51aを有する赤外線受発信ユニット51(または赤外線タグともいう)を装着(図ではペンダント形状で首から下げている)する。対話ロボット50は,複数方向に向けて配置された赤外線発信器51aの内の,どの受信器によってユーザ60から発信された識別信号が受信されたかによって,対応するユーザ60が自分から見てどちらの方向にいるかを知り,受信した識別信号を解読することで対応するユーザ60が誰かを知ることが可能となる。また,対話ロボット50は,その顔部(頭部)あるいは身体の向きを駆動する身体方向駆動手段(図10では図示省略)を有しており,検出されたユーザ方向に応じて,その方向に顔または身体全体を向けることができる。また,ユーザ60が誰であるかを識別すると,識別した相手に応じた対話/サービス内容を選択し,その相手に対して言語・非言語に基づく対話・サービスを行う。
上記の提案された図10に示す技術によれば,信頼性が高く,安価簡便で,相手の識別と方向判別を同時に可能となった。しかし,場の中に複数のユーザが存在すると,ユーザタグ(図10のユーザ用赤外線受発信ユニット61)からの識別信号出力が空間で干渉し,通信プロトコルが複雑化,または通信が困難になるという問題がある。また,近傍にいるがロボットから直接見えない(他のユーザの影や障害物の影となる位置)ユーザは検出することができないという問題がある。
The proposed technique shown in FIG. 10 is highly reliable, inexpensive and simple, and can simultaneously identify the opponent and determine the direction. However, if there are a plurality of users in the field, the identification signal output from the user tag (infrared receiving / transmitting
一方,一般に用いられるRFIDを用いるシステムでは,これらの問題はないものの,十分な分解能で,ユーザの位置を検出することは困難であった。また,RFIDでユーザ位置を検出するシステムでは施設側にインフラを必要とする点が問題である。 On the other hand, a generally used system using RFID does not have these problems, but it is difficult to detect the position of the user with sufficient resolution. Another problem is that the system that detects the user position by RFID requires infrastructure on the facility side.
本発明は複数のユーザが存在してユーザが直接見えないが近傍にいる場合や,ユーザがロボットの方に向いていない場合,及びロボットの方を向いているがロボットの正面にはいない場合でも,それらのユーザの存在を認識して,認識したユーザに応じたサービス,コンテンツを提供することができる対話ロボットシステムを提供することを目的とする。すなわち,上記特許文献1では識別不可能であった,ロボットの正面以外の,ロボットの側面あるいは後ろにいて,ロボットの方向を見ているユーザ(ロボットに興味を抱いているユーザとみなせるユーザ)を識別可能とし,そのユーザに適したサービス,コンテンツを提供できる対話ロボットシステムを提供することを目的とする。
The present invention can be used even when there are a plurality of users and the user is not directly visible but is in the vicinity, when the user is not facing the robot, or when the user is facing the robot but is not in front of the robot. An object of the present invention is to provide an interactive robot system that can recognize the existence of these users and provide services and contents according to the recognized users. That is, a user who can not be identified in the above-mentioned
図1は本発明の原理構成を示す図である。1は対話ロボット,1aはユーザが所持するRFIDのタグの信号を読み取るRFタグ信号読み取り手段,1bは赤外線信号発信手段,1cは赤外線信号受信手段,1dはユーザ(人または他のロボット)が何者であるかを識別すると共にそのユーザが位置する方向を識別する相手・方向識別手段,1eは身体方向駆動手段,1fは対話・サービス内容再生手段,1gはコマンド解釈手段,1hは対話・サービス内容選択手段,1iは予め当該対話ロボットがコミュニケーションの対象とする各ユーザ(またはロボット)に適したコンテンツ・サービス等をサーバ(図示省略)からダウンロードしたりして保持している対話・サービス内容DB(データベース)である。 FIG. 1 is a diagram showing a principle configuration of the present invention. 1 is an interactive robot, 1a is an RF tag signal reading means for reading an RFID tag signal possessed by a user, 1b is an infrared signal transmitting means, 1c is an infrared signal receiving means, and 1d is a user (human or other robot) And 1d is a body direction drive means, 1f is a dialogue / service content reproduction means, 1g is a command interpretation means, and 1h is a dialogue / service content. The selection means 1i is a dialogue / service content DB (in which content / services and the like suitable for each user (or robot) to be communicated by the dialogue robot are downloaded from a server (not shown) and held in advance. Database).
なお,対話ロボット1の赤外線信号発信手段1bと赤外線信号受信手段1cを組み合わせて赤外線受発信ユニットが構成され,上記提案された技術(図10)に示すロボットと同様に身体(例えば胴回り)の周囲の複数方向(全周)に向けて赤外線受発信ユニットが一定間隔を置いて(赤外線の送受信角度を変えて),複数個装着される。
The infrared signal transmitting / receiving
また,2と3は各ユーザ(人間または他のロボット等でメンバともいう)が身に付けるもので,2は赤外線発信器2aと赤外線受信器2bとで構成する赤外線タグ,2cはコマンドボタン,3はRFIDで構成するRFタグであり,ユーザ(メンバ)のID(識別情報)を設定保持し,自分のIDを含む情報を無線送信する。赤外線タグ2とRFタグ3は一体でなく,特にRFタグ3は例えば,ユーザのポケット等に入れても良い。 2 and 3 are worn by each user (also called a member of a human or other robot), 2 is an infrared tag composed of an infrared transmitter 2a and an infrared receiver 2b, 2c is a command button, Reference numeral 3 denotes an RF tag constituted by RFID, which sets and holds the ID (identification information) of the user (member) and wirelessly transmits information including its own ID. The infrared tag 2 and the RF tag 3 are not integrated. In particular, the RF tag 3 may be placed in a user's pocket, for example.
更に,赤外線タグ2はペンダント等に取り付けてユーザの首からぶら下げる等により装着することができ,更にそのようなペンダントに対話ロボット1に対しユーザのコマンド(指示)を出力するためのボタン(例えば,イエス,ノーの指示)を設けることができ,そのコマンド指示のボタンを操作すると赤外線タグ2の赤外線信号発信器2a から対応する赤外線信号を送信する。
Further, the infrared tag 2 can be attached to a pendant or the like by hanging it from the user's neck or the like, and a button (for example, for outputting a user command (instruction) to the
本発明ではRFタグ信号読み取り手段1aによりロボットの周りの場(一定の半径の円内)にいるユーザ(メンバ)のRFタグの情報をRFアンテナからの電波により読み取って,電磁波が届く範囲内に誰がいて,何人いるかを相手・方向識別手段1dで検出する。これによりロボット1は自分の周囲にいるユーザを特定してメンバリストを作成する。この相手・方向識別手段1dによる検出動作は一定あるいは不定の周期を置いて実行され,メンバリストが更新される。次に,相手・方向識別手段1dは作成したメンバリストに従って赤外線信号発信手段1bからユーザの赤外線タグ2に向かって,存在確認のリクエストコマンドを発信する。それぞれのユーザに対するリクエストコマンド信号は時間的に個別に発信し,ユーザの赤外線タグ2はそれぞれ自分の名前を受け取った場合,自分が存在することを赤外線で返答する。この返答を何れの方向に配置された赤外線信号受信手段1cで受信したかを識別することによりそのユーザの方向(位置)が識別される。
In the present invention, the RF tag signal reading means 1a reads the information of the RF tag of the user (member) in the field around the robot (in a circle with a certain radius) by the radio wave from the RF antenna, and the electromagnetic wave reaches within the range. The person / direction identifying means 1d detects who is and how many are. As a result, the
赤外線通信で確認できたユーザ,すなわち,対話ロボット1から見えているユーザに対し,そのユーザに適したコンテンツ,サービスを対話・サービス内容選択手段1hにより,対話・サービス内容データベース1iから選択して,対話・サービス内容再生手段1fで再生して,ユーザに向けて対話のための音声等の出力を行う。RFタグでのみ存在が確認できたユーザ(近くにいるがロボットからは見えていないユーザ)に対し,そのユーザに適したコンテンツ・サービスを提供する。
For a user who has been confirmed by infrared communication, that is, a user who can be seen from the
また,対話ロボット1はその顔部(頭部)または身体の向きを駆動する身体方向駆動手段1eを備え,検出されたユーザの方向に応じて,その方向に顔または身体全体を向けるように駆動することができる。これにより,ロボットが自律的にユーザの方向を向くことができる。なお,対話・サービス内容データベース1iには,外部のサーバ(図示省略)から必要なコンテンツをダウンロードすることができる。
Further, the
また,RFタグの電波受信感度を変更することで,その場に応じた場の範囲(近接場となる範囲)を,静的・動的に変更できる。すなわち,個室内,集会所等の場所に応じて,場の範囲を変更する。 In addition, by changing the radio wave reception sensitivity of the RF tag, the field range corresponding to the place (range that becomes a near field) can be changed statically and dynamically. In other words, the range of the venue is changed according to the location such as the private room or meeting place.
更に,ユーザが備える赤外線タグ2に上記コマンドを指示するコマンドボタン2cを備えた場合,コマンドを表す赤外線信号が赤外線信号受信手段1cで受信されると,コマンド解釈手段1gにおいてコマンドを解釈し,その解釈した内容に応じて対話・サービス内容選択手段1hの選択が行われる。 Further, when the infrared tag 2 provided by the user is provided with the command button 2c for instructing the command, when the infrared signal representing the command is received by the infrared signal receiving means 1c, the command interpreting means 1g interprets the command, The dialogue / service content selection means 1h is selected according to the interpreted content.
対話・サービス内容選択手段1hにより各ユーザ(メンバ)に対して行われる対話・サービスは,対話・サービス内容データベース1iに格納されているが,相手の名前を呼んだり,相手が好む話題や,音楽を提供したり,首や身体を動かす等の動作(ジェスチャ)等の各種のサービスがある。 The dialogue / service performed for each user (member) by the dialogue / service content selection means 1h is stored in the dialogue / service content database 1i. The name of the other party, the topic preferred by the other party, music There are various services such as providing gestures and moving the neck and body (gestures).
本発明により,赤外線タグを用いることによるユーザ識別において,マルチユーザの場合,空間内での赤外線の干渉により,ユーザの識別が困難になる場合があったが,RFタグシステムを併用することにより,場にいるユーザを絞り込むことができ,ユーザ個別にリクエスト信号を別々の時間に発信できるので,混信によるエラー発生の問題を回避できる。また,RFタグだけを使うシステムと比較しても,相手の位置を十分な分解能で知る機能を得ることができるメリットがある。さらに,ロボットの正面だけでなく,側面やうしろに居て,ロボットの方を向いているユーザ(すなわち,ロボットの近傍にいて,ロボットに興味関心を抱いているユーザ)が誰か,また,どこにいるを特定できるので,それらのユーザに対するコンテンツ,サービスを適切に提供することが可能となる。また,それらの複数ユーザに対して,適切なコンテンツ,サービスを提供することも可能となる。 According to the present invention, in the user identification by using the infrared tag, in the case of multi-users, the identification of the user may be difficult due to infrared interference in the space. By using the RF tag system together, The users in the field can be narrowed down, and the request signal can be transmitted for each user at different times, so that the problem of error occurrence due to interference can be avoided. In addition, compared with a system using only an RF tag, there is an advantage that a function of knowing the position of the other party with sufficient resolution can be obtained. In addition to who is in front of the robot, on the side or behind, and who is facing the robot (that is, who is in the vicinity of the robot and is interested in the robot), and where is the user Therefore, it is possible to appropriately provide contents and services for those users. It is also possible to provide appropriate contents and services to those multiple users.
すなわち,本発明によれば,特許文献1では「ロボットの近傍にいるがロボットの正面で対面していない」ユーザ,「ロボットの近傍にいてロボットの正面で対面している」ユーザ,「ロボットの近傍にいない」ユーザの3種類の状態しか認識できなかったが,さらに「ロボットの近傍にいてロボットの正面では対面していないが,正面以外の他の方向から対面している(つまりロボットに興味関心をもっている可能性が高いと思われる)」ユーザも識別可能となる。さらに,結果的に「ロボットの近傍にいるが,今のところロボットに興味関心をもたない」ユーザも識別可能になる。これにより,従来に比べて,ロボットの近傍にいるユーザの状態(興味関心の有無など)をより細かに認識できるため,それに応じて,各ユーザに対し,細やかなコンテンツ,サービスを提供することが可能となる。
That is, according to the present invention, in
図2はメンバリスト作成・更新の処理フローであり,図1の相手・方向識別手段1dにおいて実行される。最初に,RFタグ信号読み取り装置(図1の1aに対応)により自分(ロボット)の周りに存在するメンバ(ユーザ及び他ロボット)のID(識別情報)を得る(図2のS1)。次に得られたIDに基づき,周りにいるメンバのリストを作成して保持する(同S2)。なお,このリストは相手・方向識別手段1d内のメモリ(図示省略)に格納される。次にメンバリストを順に読み出し(図2のS3),読み出したメンバがリストの最後か判別し(同S4),最後なら古いメンバリストを今回作成した新しいメンバリストで置き換えて(同S9),ステップS1に戻る。S4においてリストの最後でない場合,リストから選択されたメンバに対する所在確認信号を,胴体に設置された複数の赤外線信号発信手段(図1の1b)から出力する(図2のS5)。この後,赤外線信号による応答があったか,複数の赤外線信号受信手段1cの受信信号から判別し(図2のS6),応答があった場合は,受信した赤外線信号受信手段の胴体上の設置位置より,ロボットから見た該メンバの位置を割り出し,その位置情報をリストに登録する(同S7)。応答がなかった場合は,該メンバの位置情報を不明(?)として登録する(図2のS8)。ステップS7,S8の後は,S3の処理に戻り,次のメンバリストについての処理が実行される。
FIG. 2 is a process flow for creating / updating a member list, which is executed in the partner / direction identifying means 1d in FIG. First, an ID (identification information) of members (users and other robots) existing around him (robot) is obtained by the RF tag signal reading device (corresponding to 1a in FIG. 1) (S1 in FIG. 2). Next, based on the obtained ID, a list of members around is created and held (S2). This list is stored in a memory (not shown) in the opponent /
図3は赤外線タグにおける処理フローであり,ユーザの身体(胴等)の正面に装着されており,赤外線信号発信手段1b(図1)と赤外線信号受信手段1cとを含み処理部(図示省略)を備えている。赤外線タグが赤外線信号を受信したか判別しており(図3のS1),受信した場合は自分に対する存在確認信号か判別する(同S2)。すなわち,自分のIDを含む赤外線信号による問い合わせであるかを判別する。自分に対する存在確認信号であることが確認できると,自分の存在通知信号を赤外線信号発信手段から送信する(図3のS3)。 FIG. 3 shows a processing flow in the infrared tag, which is attached to the front of the user's body (such as the torso), and includes an infrared signal transmitting means 1b (FIG. 1) and an infrared signal receiving means 1c. It has. It is determined whether the infrared tag has received an infrared signal (S1 in FIG. 3). If it has been received, it is determined whether it is a presence confirmation signal for itself (S2). That is, it is determined whether the inquiry is based on an infrared signal including its own ID. If it can be confirmed that it is a presence confirmation signal for the user, the presence notification signal of the user is transmitted from the infrared signal transmitting means (S3 in FIG. 3).
図4はRFタグを用いた「場」のメンバの識別の例を示す。図4のa.はメンバと対話ロボットの位置関係の例を示し,b.はa.の位置関係におけるロボットのメンバリストを示す。a.において,1は対話ロボット,A〜Eは対話ロボット1の周辺に存在する各メンバ(ユーザ),4aは場の中の障害物,4bはRFタグによるシステムの通信範囲(例えば,半径2mの円とする)であり,対話ロボット1に備えるRFタグ信号読み取り手段1aが通信可能な範囲で,この範囲を「場」と呼ぶ。上記図2のステップS1におけるRFタグ信号読み取り装置によりロボットの周りに存在するメンバのIDを得る動作により,図4のb.に示すメンバリストが得られる。このリストでは,a.に示すユーザDはRFタグ信号読み取り手段1aの通信範囲の外に位置しているため読み取ることができないので,メンバDのIDを得ることができず,メンバリストに格納されない。
FIG. 4 shows an example of identification of “field” members using RF tags. In FIG. Shows an example of the positional relationship between a member and a dialogue robot, b. Is a. The robot member list in the positional relationship is shown. a. 1, 1 is a dialogue robot, A to E are members (users) existing around the
図5は赤外線信号受発信ユニットによるメンバ位置把握の説明図である。a.は対話ロボット1の顔の方向の基準を示し,上の方向を0°としてこの方向を基準とし,時計方向へ回転する方向を+方向,反時計方向へ回転する方向を−方向とする。図2のステップS5〜S7の赤外線信号受発信ユニットにより,上記図4のb.に示すメンバリストの各メンバへの所在確認信号の送信(複数の赤外線信号受発信ユニットからのメンバのIDの送信)と,受信動作によるメンバ位置の割り出し(どの方向の赤外線信号受発信ユニットで受信したかの識別)を,各メンバについて順に実行し,各メンバの位置情報をリストに登録する。
FIG. 5 is an explanatory view of member position grasping by the infrared signal receiving / transmitting unit. a. Indicates the reference of the face direction of the
具体的には,図5のb.に示すように,最初に,リストの先頭のメンバAに対して,対話ロボット1から「Aさん,いますか?」という確認が送信される。この時「A」の部分にはそのIDが設定される。これを受け取ったメンバAから,その赤外線信号発信ユニットから「いますよ」という返事を赤外線で対話ロボット1へ送信すると,対話ロボット1に設けた複数の赤外線信号受発信ユニットの中の+45°の方向に取り付けられた赤外線信号受発信ユニットでメンバAから送信した赤外線信号(返事)を検出する。以下,メンバB〜Eまで同様な処理が行われる。この中,メンバEについては,障害物4a(図5)が存在するため,赤外線が遮蔽されるため,位置を検出することができない。
Specifically, b. As shown in FIG. 5, first, the
図6はメンバ位置確認後のメンバリストであり,上記図5のb.に示すような位置に各メンバ(ユーザ)が存在している場合のリストである。図6のメンバリストは,「場」にいる人(メンバ)のID(または名前),それぞれの位置(方向),及び現在の対話ロボットの顔(または胴)の正面がどのメンバに向いているかの情報(○のマークで表す)とで構成される。なお,対話ロボット1の顔(または胴)の正面がどのメンバに向いているかは,対話ロボット1の首部の回転角度センサの読み取り値(図5 のa.の角度座標に従った頭部の向きの角度の読み取り値)と各メンバの位置(同座標上の角度値)を比較することにより,容易に認識可能である。図6のメンバリストの例は図5のb.の場合に相当し,「メンバA」が「+45°」の位置におり,ロボットの首部の回転角度センサの読み取り値も+45°であることから,+45°の位置において,対話ロボットの顔とメンバAが正面で向かい合っていることが認識できる。
FIG. 6 is a member list after the member position is confirmed, and FIG. It is a list when each member (user) exists in the position as shown in FIG. The member list in FIG. 6 shows which member (member) 's ID (or name), each position (orientation), and the face (or torso) of the current interactive robot is facing. Information (represented by a circle mark). Note that which member the front (or torso) front of the
図7は対話・サービス内容選択手段の処理フローである。最初に,上記図2のメンバリスト作成・更新の処理フローで作成・更新している最新のメンバリストを読み出し(図7のS1),メンバリストは空ではないか判別する(同S2)。メンバリストが空であるということは,ロボットの周囲にユーザやロボットが存在していない(存在を認識されていない)ことを示す。空の場合はステップS1に戻り,空でない場合はロボットの現在の首振り角度を読み出す(同S3)。ここで,ロボットがどの方向を見ているかを調べ,メンバリストに載っているうちのどの人(ロボット)と対話(インタラクション)するかを決定する(図7のS4)。決め方としては,(1) 上記ステップS3で調べた首の向きを使って,ロボットが向いている方向に一番近い相手を選ぶ方法,(2) (1) 以外でロボットの方向を向いている相手を選ぶ方法(赤外線タグで検出可能な人の中から選ぶ),(3) 赤外線タグでは存在を確認できない相手(RFタグでのみ存在を確認できる,すなわち,ロボットの方を向いていない,あるいは何かのうしろに隠れている相手)を選ぶ方法がある。 FIG. 7 is a processing flow of the dialog / service content selection means. First, the latest member list created / updated in the member list creation / update process flow of FIG. 2 is read (S1 in FIG. 7), and it is determined whether the member list is empty (S2). An empty member list indicates that there is no user or robot around the robot (the existence is not recognized). If it is empty, the process returns to step S1, and if it is not empty, the current swing angle of the robot is read (S3). Here, it is checked which direction the robot is looking at, and it is determined which person (robot) on the member list is to interact (interact) (S4 in FIG. 7). The decision method is as follows: (1) Use the neck orientation checked in step S3 above to select the opponent closest to the direction the robot is facing. (2) Point to the robot other than (1). How to select a partner (select from those that can be detected with an infrared tag), (3) Partners that cannot be confirmed with an infrared tag (can only be confirmed with an RF tag, ie, not facing the robot, or There is a way to select a partner who is hiding behind something.
こうして,選んだ相手が(1) あるいは(2) の場合には,その相手のほうに顔を向けて,顔をそちらに向ける(図7のS5)。なお,(3) の場合には相手の居る場所はわからないので,今の顔の向きのままか,ロボット正面などのデフォルトの顔の向きに顔を向けるか,あるいはキョロキョロする動作などをさせながら,例えば,「○○さん,どこにいるの?」などと言うようにしてもよい。 In this way, when the selected partner is (1) or (2), the face is directed toward the partner and the face is directed there (S5 in FIG. 7). In the case of (3), the location of the other party is unknown, so keep the current face orientation, or turn the face to the default face orientation such as the front of the robot, For example, “Mr. XX, where are you?” May be said.
次に選択した相手に適したコンテンツを選択して,相手との対話をし(図7のS6),その相手との対話を終了させるかどうかを判定する(同S7)。終了と判定した場合には,メンバリストが新しく更新されているかどうかをチェックし(図7のS8),更新されていれば,新しいメンバリストを読み出し(同S1),更新されていなければ,ステップS3に移行し,現在持っているメンバリストを使って,次の相手との対話プロセスを実行する。 Next, a content suitable for the selected partner is selected, and a dialog with the partner is performed (S6 in FIG. 7), and it is determined whether or not the dialog with the partner is to be terminated (S7). If it is determined that the process is completed, it is checked whether the member list is newly updated (S8 in FIG. 7). If updated, the new member list is read (S1). The process proceeds to S3, and the dialogue process with the next partner is executed using the member list that is currently held.
なお,(3) の場合には相手のいる場所はわからないので,今の顔の向きのままか,ロボット正面などのデフォルトの顔の向きに顔を向けるか,あるいはキョロキョロする動作などをさせながら,例えば,「○○さん,どこにいるの?」等というようにしても良い(請求項5に対応)。従来の例えば,RFIDのみによる周辺にどのメンバがいるかを知る方式では,近傍に存在することはわかるが,どこにいるか,見える位置にいるか,ロボットの方向を向いているかいないかということは分からなかった。本発明では,それが区別できるので,このように,近傍に存在しているのが分かっていながら,ロボットの方向を向いていないメンバ,あるいは障害物の影にいるメンバなどを識別可能なため,このような相手,状況に対して,適したふるまいをすることが可能となる。 In the case of (3), the location of the other party is unknown, so keep the current face direction, or turn the face to the default face direction such as the front of the robot, For example, “Mr. XX, where are you?” May be used (corresponding to claim 5). For example, in the conventional method of knowing which member is in the vicinity only by RFID, it can be known that it exists in the vicinity, but it is not known where it is, where it is visible, or whether it is facing the direction of the robot . In the present invention, since it can be distinguished, it is possible to identify a member that is not facing the direction of the robot or a member that is in the shadow of an obstacle while knowing that it exists in the vicinity. It is possible to perform appropriate behavior for such opponents and situations.
図8は図7においてメンバの変更に対応する処理フローである。このフローは,上記図7のステップS2とS3の間に実行する。上記図7のステップS2において,メンバリストが空でない場合,古いメンバリストと今回のメンバリストで構成メンバに差があるか判別し(図8のS20),構成メンバが変わっていなければ,ステップS3に移行し,変わっていれば,構成メンバが変わって新しく増えたメンバに対するコンテンツ・サービスをサーバからロボットの記憶装置にダウンロードする(同S21)。1回前と同じメンバに対するコンテンツはすでにロボット内の記憶装置に記憶されているのでそれを維持して,そのまま使う。図8には示されていないが,メンバがいなくなった場合(減った場合)は,いなくなったメンバに対するコンテンツも,ロボット内の記憶装置の容量の範囲で保持しておけば,再び,そのユーザがメンバリストに加わった場合に,サーバからダウンロードする手間を省略できる。 FIG. 8 is a processing flow corresponding to the member change in FIG. This flow is executed between steps S2 and S3 in FIG. If the member list is not empty in step S2 in FIG. 7 above, it is determined whether there is a difference between the constituent members in the old member list and the current member list (S20 in FIG. 8). If it has changed, the content service for the newly added member is downloaded from the server to the robot storage device (S21). Since the content for the same member as the previous one is already stored in the storage device in the robot, it is maintained and used as it is. Although not shown in FIG. 8, if the member disappears (decreases), the content for the lost member is retained within the capacity of the storage device in the robot, and the user again. Can be saved from the server when it is added to the member list.
このように,ロボットの周りに居た存在(ユーザまたはロボット)が,その場を離れるとき(つまり,RFタグでのみ存在か確認される他のユーザまたはロボット)に対しても,必要に応じてその存在に適した,コンテンツ,サービスを提供することができる。 In this way, when the presence (user or robot) around the robot leaves the place (that is, another user or robot whose existence is confirmed only with the RF tag), as necessary It is possible to provide content and services suitable for the existence.
図9は本発明を老人施設に適用した例の説明図である。図9は老人病院,老人ホーム等の食堂,ダイニングルーム等の日常場面を表している。図中,1は対話ロボット,4bはRFタグによるシステムの通信範囲,5−1,5−2はダイニングテーブルであり,A〜Dのユーザ(老人)は,一つのダイニングテーブル5−1に座っていて対話ロボット1が対話コンテンツを提供しながら,相手をしている。老人(ユーザ)Eは別のダイニングテーブル5−2に座っていて,また,ロボットとは対面していないので,RFタグで存在は確認できるが,どこに居るかは明らかではない。
FIG. 9 is an explanatory diagram of an example in which the present invention is applied to an elderly facility. FIG. 9 shows daily scenes such as a geriatric hospital, a nursing home cafeteria, a dining room, and the like. In the figure, 1 is an interactive robot, 4b is a communication range of the system using an RF tag, 5-1 and 5-2 are dining tables, and users (old people) A to D sit on one dining table 5-1. The
このような状況では,老人Eは疎外感を感じる場合がある。対話ロボット1は老人Eの存在を知っているので,必要に応じて「Eさんも一緒に歌を歌いませんか」とか,声かけをすることが可能になる。また,A〜Dの老人の何れかに「Eさんを誘って」というような声かけを行って,老人の間のコミュニケーション促進を図ることもできる。
In such a situation, the old man E may feel alienated. Since the
このように,対話ロボットの周りに存在することがRFタグにより分かっているが方向が分からない他のユーザ(ロボット)に対しても,必要に応じてその存在に適した,コンテンツ,サービスを提供することができる。 In this way, content and services suitable for the presence of other users (robots) who are known to exist around the dialog robot but are not known in the direction are provided as necessary. can do.
(付記1) 無線信号による自動認識を行うためのRFタグと赤外線受信器と赤外線発信器とからなる赤外線タグを装着した複数のユーザ(メンバ)のそれぞれに対し対話・サービスを提供する対話ロボットにおいて,周囲に存在するユーザが装着するRFタグを読み取ってそれぞれの識別情報(ID)を検出するRFタグ信号読み取り手段と,対話ロボットの胴体等の身体の全周に各方向に向けた複数個の赤外線信号の送・受信手段を設け,前記RFタグ信号読み取り手段により周囲の一定エリアに存在するユーザの識別情報を検出してメンバリストを作成し,該メンバリストに基づいて前記複数方向の各赤外線信号の送受信器からの前記識別情報に基づいて赤外線信号を送信して,該当する識別情報を持つメンバの赤外線タグからの赤外線信号をどの赤外線信号の送・受信手段で受信したかを検出することにより前記メンバの方向を識別する相手・方向識別手段を備え,前記識別した相手の方向に顔または身体を向けるよう身体方向駆動手段を駆動し,その相手に応じた対話・サービス内容を選択し,その相手に対して対話・サービスを行うことを特徴とする対話ロボットシステム。 (Supplementary note 1) In a dialogue robot that provides dialogue and services to each of a plurality of users (members) equipped with an infrared tag comprising an RF tag, an infrared receiver and an infrared transmitter for automatic recognition by radio signals , RF tag signal reading means for reading the RF tag worn by the user around and detecting each identification information (ID), and a plurality of directions directed in each direction around the entire body of the body such as the body of the interactive robot Infrared signal transmission / reception means is provided, and the RF tag signal reading means detects user identification information existing in a fixed area around it to create a member list. Based on the member list, each infrared ray in the plurality of directions is provided. An infrared signal is transmitted based on the identification information from the signal transmitter / receiver, and the infrared signal from the infrared tag of the member having the corresponding identification information is transmitted. Body direction driving means is provided to detect the direction of the member by detecting which infrared signal is transmitted / received by the infrared signal to detect the direction of the member, and to face the body or body in the direction of the identified partner An interactive robot system characterized by driving means, selecting dialogue / service contents according to the partner, and performing dialogue / service for that partner.
(付記2) 付記1において,前記相手・方向識別手段は,前記メンバリストに識別したメンバの識別情報(名前及び方向情報)を設定し,前記対話・サービス内容選択手段は,前記メンバリストから一つのメンバを選択し,顔の角度を現在の顔の向きから前記メンバリストの選択したメンバの方向に向けて回転させるよう身体方向駆動手段を駆動して,対話・サービスを実行することを特徴とする対話ロボットシステム。
(Supplementary Note 2) In
(付記3) 付記1において,前記対話・サービス内容選択手段は,一定または不定の周期で前記RFタグ信号読み取り手段によるメンバリストを更新し,以前のメンバリストよりユーザが増加したことが検出されると,増加したユーザに対応した対話・サービス内容を外部サーバからダウンロードすることを特徴とする対話ロボットシステム。
(Supplementary Note 3) In
(付記4) 付記1において,前記相手・方向識別手段は,前記RFタグ信号読み取り手段による前記電磁波の到達範囲内に位置するが対話ロボットとユーザ間に障害物が存在するユーザの存在を検出し,前記メンバリストに識別情報を設定するが,前記赤外線の送・受信手段による前記ユーザの方向の識別において,方向が不明として設定することを特徴とする対話ロボットシステム。
(Supplementary Note 4) In
(付記5) 付記1において,前記対話・サービス内容選択手段は,メンバリストを参照することにより,近傍に存在しているのがわかっているが,その存在位置(方向)がわからないユーザに対し,その状況に適したふるまいを生成し,身体方向駆動手段あるいは対話・サービス内容再生手段に指令を与えることにより,そのふるまいを再生することを特徴とする対話ロボットシステム。
(Additional remark 5) In
1 対話ロボット
1a RFタグ信号読み取り手段
1b 赤外線信号発信手段
1c 赤外線信号受信手段
1d 相手・方向識別手段
1e 身体方向駆動手段
1f 対話・サービス内容再生手段
1g コマンド解釈手段
1h 対話・サービス内容選択手段
1i 対話・サービス内容DB(データベース)
2 赤外線タグ
2a 赤外線発信器
2b 赤外線受信器
3 RFタグ
DESCRIPTION OF
2 Infrared tag 2a Infrared transmitter 2b Infrared receiver 3 RF tag
Claims (4)
周囲に存在するユーザが装着するRFタグを読み取ってそれぞれの識別情報(ID)を検出するRFタグ信号読み取り手段と,対話ロボットの胴体等の身体の全周に各方向に向けた複数個の赤外線信号の送・受信手段を設け,
前記RFタグ信号読み取り手段により周囲の一定エリアに存在するユーザの識別情報を検出してメンバリストを作成し,該メンバリストに基づいて前記複数方向の各赤外線信号の送受信器からの前記識別情報に基づいて赤外線信号を送信して,該当する識別情報を持つメンバの赤外線タグからの赤外線信号をどの赤外線信号の送・受信手段で受信したかを検出することにより前記メンバの方向を識別する相手・方向識別手段を備え,
前記識別した相手の方向に顔または身体を向けるよう身体方向駆動手段を駆動し,その相手に応じた対話・サービス内容を選択し,その相手に対して対話・サービスを行うことを特徴とする対話ロボットシステム。 In a dialogue robot that provides dialogue and services to each of a plurality of users (members) equipped with an infrared tag composed of an RF tag, an infrared receiver and an infrared transmitter for automatic recognition by radio signals,
RF tag signal reading means for detecting the identification information (ID) by reading an RF tag worn by a user existing in the surrounding area, and a plurality of infrared rays directed in each direction around the entire body of the body such as the body of the interactive robot Provide signal transmission / reception means,
A member list is created by detecting user identification information existing in a certain surrounding area by the RF tag signal reading means, and the identification information from the transmitter / receiver of each infrared signal in the plurality of directions is created based on the member list. The other party who identifies the direction of the member by transmitting the infrared signal based on the detected infrared signal from the infrared tag of the member having the corresponding identification information and detecting by which means the infrared signal transmission / reception means is received. With direction identification means,
A dialogue characterized in that the body direction driving means is driven so that the face or body is directed toward the identified partner, the dialogue / service content corresponding to the partner is selected, and the dialogue / service is performed on the partner. Robot system.
前記相手・方向識別手段は,前記メンバリストに識別したメンバの識別情報(名前及び方向情報)を設定し,
前記対話・サービス内容選択手段は,前記メンバリストから一つのメンバを選択し,顔の角度を現在の顔の向きから前記メンバリストの選択したメンバの方向に向けて回転させるよう身体方向駆動手段を駆動して,対話・サービスを実行することを特徴とする対話ロボットシステム。 In claim 1,
The partner / direction identification means sets identification information (name and direction information) of the identified member in the member list,
The dialogue / service content selecting means selects one member from the member list, and turns the body direction driving means to rotate the face angle from the current face direction toward the selected member direction of the member list. A dialogue robot system that is driven to execute dialogues and services.
前記対話・サービス内容選択手段は,一定または不定の周期で前記RFタグ信号読み取り手段によるメンバリストを更新し,以前のメンバリストよりユーザが増加したことが検出されると,増加したユーザに対応した対話・サービス内容を外部サーバからダウンロードすることを特徴とする対話ロボットシステム。 In claim 1,
The dialog / service content selection means updates the member list by the RF tag signal reading means at a constant or indefinite period, and when it is detected that the number of users has increased from the previous member list, the user / user can respond to the increased number of users. A dialogue robot system that downloads dialogue and service contents from an external server.
前記対話・サービス内容選択手段は,メンバリストを参照することにより,近傍に存在しているのがわかっているが,その存在位置(方向)がわからないユーザに対し,その状況に適したふるまいを生成し,身体方向駆動手段あるいは対話・サービス内容再生手段に指令を与えることにより,そのふるまいを再生することを特徴とする対話ロボットシステム。 In claim 1,
By referring to the member list, the dialog / service content selection means generates a behavior suitable for the situation for a user who is known to exist in the vicinity but whose location (direction) is unknown. A dialogue robot system which reproduces the behavior by giving a command to the body direction driving means or the dialogue / service content reproduction means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006100688A JP4800819B2 (en) | 2006-03-31 | 2006-03-31 | Dialogue robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006100688A JP4800819B2 (en) | 2006-03-31 | 2006-03-31 | Dialogue robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007268696A true JP2007268696A (en) | 2007-10-18 |
JP4800819B2 JP4800819B2 (en) | 2011-10-26 |
Family
ID=38672017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006100688A Expired - Fee Related JP4800819B2 (en) | 2006-03-31 | 2006-03-31 | Dialogue robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4800819B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009248193A (en) * | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | Reception system and reception method |
JP2010164443A (en) * | 2009-01-16 | 2010-07-29 | Nec Corp | Location information analyzer, location information analysis method, location information analysis system and program |
CN102631784A (en) * | 2011-09-29 | 2012-08-15 | 太仓国励电子有限公司 | Educational voice toy capable of identifying cards |
TWI393583B (en) * | 2007-11-02 | 2013-04-21 | Hon Hai Prec Ind Co Ltd | Electronic toy |
KR20140025079A (en) * | 2012-08-21 | 2014-03-04 | 연세대학교 산학협력단 | Robot, method for estimating location in the robot, and recording medium for executing the method |
US9020643B2 (en) | 2011-12-01 | 2015-04-28 | Sony Corporation | Robot apparatus, control method thereof, and computer program |
KR101540100B1 (en) * | 2012-09-28 | 2015-07-30 | 경희대학교 산학협력단 | A smart health―care system and a health―space having the same |
KR101540101B1 (en) * | 2012-09-28 | 2015-07-30 | 경희대학교 산학협력단 | A healing tocken for a smart health―care system and a health―space having the same |
WO2017008182A1 (en) * | 2015-07-15 | 2017-01-19 | 深圳市优必选科技有限公司 | Control system for intelligent robot |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004216513A (en) * | 2003-01-15 | 2004-08-05 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005238382A (en) * | 2004-02-26 | 2005-09-08 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005291716A (en) * | 2004-03-31 | 2005-10-20 | Honda Motor Co Ltd | Detection target detection system |
-
2006
- 2006-03-31 JP JP2006100688A patent/JP4800819B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004216513A (en) * | 2003-01-15 | 2004-08-05 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005238382A (en) * | 2004-02-26 | 2005-09-08 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005291716A (en) * | 2004-03-31 | 2005-10-20 | Honda Motor Co Ltd | Detection target detection system |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI393583B (en) * | 2007-11-02 | 2013-04-21 | Hon Hai Prec Ind Co Ltd | Electronic toy |
JP2009248193A (en) * | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | Reception system and reception method |
JP2010164443A (en) * | 2009-01-16 | 2010-07-29 | Nec Corp | Location information analyzer, location information analysis method, location information analysis system and program |
CN102631784A (en) * | 2011-09-29 | 2012-08-15 | 太仓国励电子有限公司 | Educational voice toy capable of identifying cards |
US9020643B2 (en) | 2011-12-01 | 2015-04-28 | Sony Corporation | Robot apparatus, control method thereof, and computer program |
KR20140025079A (en) * | 2012-08-21 | 2014-03-04 | 연세대학교 산학협력단 | Robot, method for estimating location in the robot, and recording medium for executing the method |
KR101540100B1 (en) * | 2012-09-28 | 2015-07-30 | 경희대학교 산학협력단 | A smart health―care system and a health―space having the same |
KR101540101B1 (en) * | 2012-09-28 | 2015-07-30 | 경희대학교 산학협력단 | A healing tocken for a smart health―care system and a health―space having the same |
WO2017008182A1 (en) * | 2015-07-15 | 2017-01-19 | 深圳市优必选科技有限公司 | Control system for intelligent robot |
Also Published As
Publication number | Publication date |
---|---|
JP4800819B2 (en) | 2011-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4800819B2 (en) | Dialogue robot system | |
JP6984768B2 (en) | Robots, control methods and programs | |
Sato et al. | NavCog3 in the wild: Large-scale blind indoor navigation assistant with semantic features | |
US10360907B2 (en) | Smart necklace with stereo vision and onboard processing | |
Ivanov | Indoor navigation system for visually impaired | |
US7557703B2 (en) | Position management system and position management program | |
Abu Doush et al. | ISAB: integrated indoor navigation system for the blind | |
JP4787813B2 (en) | Detection target detection system | |
EP2369436B1 (en) | Robot apparatus, information providing method carried out by the robot apparatus and computer storage media | |
US20050060088A1 (en) | Pedestrian navigation and spatial relation device | |
JP2007160473A (en) | Interactive object identifying method in robot and robot | |
JP2005305631A (en) | Robot and its controlling method | |
GB2440583A (en) | A portable route planning and object identification device for the visually impaired | |
US10354295B2 (en) | Reception system and reception method | |
JP7468421B2 (en) | Remote operation system, remote operation method, and program | |
US20240053153A1 (en) | Target Localization Using AC Magnetic Fields | |
JP2011227237A (en) | Communication robot | |
AlZuhair et al. | NFC based applications for visually impaired people-A review | |
US9972216B2 (en) | System and method for storing and playback of information for blind users | |
US20190141663A1 (en) | Portable-device-locating system that uses room-level motion sensors and rssi measurements to determine precise room-location | |
JP2022148262A (en) | Remote operation system, remote operation moving body, remote operation method, and program | |
JP4178846B2 (en) | Autonomous driving support device and program | |
JP2017205848A (en) | Service providing system | |
Dias et al. | Future directions in indoor navigation technology for blind travelers | |
TW200924926A (en) | Autonomous robot and position system and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101130 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110128 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110128 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20110128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110802 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110804 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |