JP2007164379A - インターフェース装置およびそれを備えた移動ロボット - Google Patents
インターフェース装置およびそれを備えた移動ロボット Download PDFInfo
- Publication number
- JP2007164379A JP2007164379A JP2005358338A JP2005358338A JP2007164379A JP 2007164379 A JP2007164379 A JP 2007164379A JP 2005358338 A JP2005358338 A JP 2005358338A JP 2005358338 A JP2005358338 A JP 2005358338A JP 2007164379 A JP2007164379 A JP 2007164379A
- Authority
- JP
- Japan
- Prior art keywords
- message
- robot
- voice
- article
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims description 59
- 238000000605 extraction Methods 0.000 claims description 35
- 230000009471 action Effects 0.000 claims description 33
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 238000003786 synthesis reaction Methods 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000007726 management method Methods 0.000 description 87
- 238000001514 detection method Methods 0.000 description 72
- 238000004891 communication Methods 0.000 description 45
- 238000000034 method Methods 0.000 description 27
- 230000032258 transport Effects 0.000 description 25
- 230000008569 process Effects 0.000 description 22
- 239000000284 extract Substances 0.000 description 20
- 238000010586 diagram Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000003795 desorption Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/74—Systems using reradiation of electromagnetic waves other than radio waves, e.g. IFF, i.e. identification of friend or foe
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/49—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
【解決手段】メッセージを無線タグに書き込むロボットであって、人物の音声を入力するマイクで入力された音声を認識する音声認識手段と、メッセージを獲得するための定型文に基づいて、音声認識手段で認識された音声から、メッセージを抽出する音声メッセージ抽出手段454と、音声メッセージ抽出手段454で抽出されたメッセージを、物品に設けられた物品用タグに書き込むライタとを備える。
【選択図】図4
Description
そこで、依頼人のメッセージを無線タグに記録し、メッセージが記録された無線タグを物品に予め取り付けておき、無線タグが取り付けられた物品をロボットに持たせて、ロボットが受取人に物品を渡す際に無線タグを読み取ると共に、記録されたメッセージを発話する方法が考えられる。しかしながら、無線タグへ所定の情報を記録するには、端末を利用する利用者(オペレータ)が、その所定の情報を端末に入力し、無線タグに記録可能な状態のデータを予め作成しておかなければならず、時間と手間がかかってしまうという問題がある。
まず、本発明に係る移動ロボットを含むメッセージ記録システムAの全体構成について図1を参照して説明する。
図1は、本発明の実施形態に係る移動ロボットを含むメッセージ記録システムのシステム構成図である。
ロボットRは、頭部R1、腕部R2、脚部R3を有しており、頭部R1、腕部R2、脚部R3は、それぞれアクチュエータにより駆動され、自律移動制御部50(図2参照)により2足歩行の制御がなされる。この2足歩行についての詳細は、たとえば、特開2001−62760号公報に開示されている。
また、ロボットRの腕部R2の掌には図示しない圧力センサが設けられており、ロボットRは、手を開いた状態で掌に所定の圧力を検出したときに手指を所定の角度に曲げて軽く握った状態に保持する。つまり、ロボットRは、外部から腕部R2の掌に物品Xを押し付けられると手が所定の把持力を有して物品Xを保持することができる。また、ロボットRは、この軽く握った状態で所定の引張力を検出したときに手を開いて手指の配置を元の状態に復元する。つまり、ロボットRは、手に保持した物品Xが抜き取られる際に引っ張りの圧力が所定値以上になった場合に、把持力を低下させる。
端末5は、ネットワーク4を介して管理用コンピュータ3に接続し、管理用コンピュータ3の記憶手段200(図5参照)に、検知用タグDに関する情報および検知用タグDを装着した人物Hに関する情報などを登録する、もしくは登録されたこれらの情報を修正するものである。
[ロボットR]
図2は、ロボットRのブロック構成図である。図2に示すように、ロボットRは、頭部R1、腕部R2、脚部R3に加えて、カメラC,C、スピーカS、マイクMC,MC、画像処理部10、音声処理部20、記憶部30、制御部40、自律移動制御部50、無線通信部60、対象検知部70およびレコード処理部80を有する。
さらに、ロボットRは、ロボットRの現在位置を検出するため、ジャイロセンサ(現在位置情報取得手段)SR1や、GPS受信器(現在位置情報取得手段)SR2を有している。
カメラ(撮像手段)C,Cは、映像をデジタルデータとして取り込むことができるものであり、たとえば、カラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部10に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R1の内部に配設される。
画像処理部(画像処理手段)10は、カメラC,Cが撮影した画像を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部10は、ステレオ処理部11a、移動体抽出部11b、および顔認識部11cを含んで構成される。
ステレオ処理部11aは、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を移動体抽出部11bに出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
移動体の抽出をするために、移動体抽出部11bは、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物があると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部11cへ移動体の画像を出力する。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、制御部40に出力される。
音声処理部20は、音声合成部21aと、音声認識部21bとを有する。
音声合成部(音声合成手段)21aは、制御部40が決定し、出力してきた発話行動の指令に基づき、文字情報(テキストデータ)から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶部30に記憶している文字情報(テキストデータ)と音声データとの対応関係を利用する。なお、音声データは、管理用コンピュータ3から取得され、記憶部30に保存される。
音声認識部(音声認識手段)21bは、マイク(音声入力手段)MC,MCから音声データが入力され、入力された音声データから文字情報(テキストデータ)を生成し、制御部40に出力するものである。なお、音声データと文字情報(テキストデータ)との対応関係は、記憶部30に予め記憶されている。
記憶部30は、例えば、一般的なハードディスク等から構成され、管理用コンピュータ3から送信された必要な情報(人物Hの氏名、ローカル地図データ、会話用データなど)と、ロボットRが識別した人物Hの識別番号や位置情報とを記憶するものである。
制御部40は、画像処理部10、音声処理部20、記憶部30、自律移動制御部50、無線通信部60、対象検知部70およびレコード処理部80を統括制御するものであり、詳細は後記するが、主として、人物が発話した音声から抽出した音声メッセージを、物品Xに取り付けられた物品用タグTに書き込むための制御を行う。
自律移動制御部(自律移動制御手段)50は、頭部制御部51a、腕部制御部51b、脚部制御部51cを有する。
頭部制御部51aは、制御部40の指示に従い頭部R1を駆動し、腕部制御部51bは、制御部40の指示に従い腕部R2を駆動し、脚部制御部51cは、制御部40の指示に従い脚部R3を駆動する。
また、ジャイロセンサSR1、およびGPS受信器SR2が検出したデータは、制御部40に出力され、ロボットRの行動を決定するために利用される。
無線通信部60は、管理用コンピュータ3とデータの送受信を行う通信装置である。無線通信部60は、公衆回線通信装置61aおよび無線通信装置61bを有する。
公衆回線通信装置61aは、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置61bは、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部60は、管理用コンピュータ3からの接続要求に従い、公衆回線通信装置61aまたは無線通信装置61bを選択して管理用コンピュータ3とデータ通信を行う。
対象検知部(読取手段)70は、ロボットRの周囲に検知用タグDを備える検知対象が存在するか否かを検知すると共に、検知対象の存在が検知された場合、前記検知対象の位置を特定するものである。この対象検知部70は、ロボットRの頭部R1外周に沿って前後左右などに複数の発光部71を備え、この発光部71から、各発光部71を識別する発光部IDを示す信号を含む赤外光をそれぞれ発信すると共に、この赤外光を受信した検知用タグDから受信報告信号を受信する。発光部71は、例えば、発光ダイオードから構成される。いずれかの赤外光を受信した検知用タグDは、その赤外光に含まれる発光部IDに基づいて、受信報告信号を生成するので、ロボットRは、この受信報告信号に含まれる発光部IDを参照することにより、当該ロボットRから視てどの方向に検知用タグDが存在するかを特定することができる。
そして、対象検知部70内の図示しない記憶手段には、各発光部71がどの探索域(第1領域から第8領域)に向けて設置されているのかを示すテーブル(方向テーブル)が記憶されている。
レコード処理部80は、物品用タグTに所定の情報を書き込んだり、物品用タグTに記録されている情報を読み出すものである。このレコード処理部80は、図2に示すように、ライタ81と、リーダ82とを備えている。
次に、図2に示したロボットRの制御部40の詳細な構成について図4を参照して説明する。図4は、制御部の詳細を示すブロック図である。図4に示すように、制御部40は、移動制御手段41と、人物識別手段42と、運搬制御手段43と、通信制御手段44と、個人情報取得手段441と、対話制御手段45と、レコード処理制御手段46と、動作判断手段47とを含んで構成される。
移動制御手段41は、ロボットRを目的地に移動させるものであり、図4に示すように、地図情報取得手段411と、移動先経路決定手段412と、移動方向特定手段413と、移動指令生成手段414とを備える。
移動先経路決定手段412は、対象検知部70で検知された検知用タグDの位置を、地図情報取得手段411で取得された地図情報上に重畳し、対象検知部70で検知された検知用タグDの位置を設定し、ロボットRの現在位置から設定した位置までの移動経路を決定するものである。
人物識別手段42は、対象検知部70で取得したタグ識別番号を基に、このタグ識別番号を含む受信報告信号を送信した検知用タグDを装着した人物が誰なのかを識別するものである。この人物識別手段42は、タグ識別番号に対応させた個人情報を、無線通信部60を介して管理用コンピュータ3(図1参照)から取得することによって、人物を識別する。これにより、ロボットRは、個人情報に基づいて人物と対話することが可能になる。人物識別手段42が取得する個人情報は、氏名のほか、例えば、年齢、性別、所在地等がある。
また、人物識別手段42は、顔認識部11c(図1参照)から人物の顔情報を取得して、管理用コンピュータ3(図1参照)から取得した固有の顔情報、または、予め記憶部30に登録してある固有の顔情報と比較して、カメラC,Cで撮像した人物を識別するようにしてもよい。これによれば、人物識別手段42が、顔情報と個人情報とを両方とも取得した場合には、二つの情報を用いることで検知用タグDを所持する人を高い確度で識別することができる。
運搬制御手段43は、運搬タスクを実行するために必要な各部の動作を制御する指令を生成して、移動制御手段41や腕部制御部51b(図1参照)に出力するものである。この運搬タスクは、例えば、物品を受け取って、その物品を把持する受取動作と、把持した物品を持ち運ぶ移動動作と、目的地で物品を脱離する脱離動作とを含む一連の動作(シナリオ動作)によって実現される。ここで、受取動作および脱離動作において、人物を検知した場合には、運搬制御手段43は、場面に応じて予め取り決められた発話行動をするための指令を生成するように、対話制御手段45に指示する。
また、運搬制御手段43は、手指を軽く握った状態で、図示しない圧力センサの検出する引っ張りの圧力が所定値以上であるか否かを判別し、所定値以上であると判別した場合に、把持力を低下させるように、腕部制御部51bに指示する。これにより、ロボットRは、手を開いて手指の配置を元の状態に復元する。
通信制御手段44は、無線通信部60を介して管理用コンピュータ3に所定の情報を送信し、また、管理用コンピュータ3から必要な情報を取得するための制御を行うものであり、図4に示すように、少なくとも個人情報取得手段441と、タスクスケジュール調整手段442とを備えている。
対話制御手段45は、人物と対話するために音声処理部20(図2参照)を制御するものであり、図4に示すように、入力テキスト解釈手段451と、発話行動指令生成手段452と、音声命令抽出手段453と、音声メッセージ抽出手段454とを備えている。
レコード処理制御手段46は、レコード処理部80(図2参照)を制御するものであり、図4に示すように、ライト制御手段461と、リード制御手段462と、計時手段463とを備えている。
ライト制御手段461は、動作判断手段47からメッセージが取得されたことを示す信号が入力した場合に、音声メッセージ抽出手段454で抽出されたメッセージを物品用タグTに書き込むためのライト指示を生成し、ライタ81(図2参照)に出力するものである。これにより、ライタ81(図2参照)は、メッセージを物品用タグTに書き込むことができる。また、ライト制御手段461は、計時手段463で計時された時刻と、ジャイロセンサSR1またはGPS受信器SR2で測定された現在位置と、をメッセージと共に物品用タグTに書き込むためのライト指示を生成する。
動作判断手段47は、種々の動作をするように判断し、移動制御手段41と、人物識別手段42と、運搬制御手段43と、通信制御手段44と、個人情報取得手段441と、対話制御手段45と、レコード処理制御手段46とに所定の指令を出すものである。
例えば、運搬制御手段43に対する指令としては、運搬タスクを実行するための一連のシナリオ動作の指令などがある。
また、レコード処理制御手段46に対する指令としては、メッセージの書き込み指令(メッセージが取得されたことを示す信号)やメッセージの読み取り指令(メッセージの発話タイミングであることを示す信号)などがある。
また、移動制御手段41に対する指令としては、検知用タグDの位置(方向および距離)まで移動させる指令がある。
また、動作判断手段47は、ロボットRの状態に関するデータ(ステータス情報)を、所定時間間隔毎に生成する。このステータス情報には、ジャイロセンサSR1またはGPS受信器SR2で取得された現在位置情報と、ロボットRのバッテリの残量に関する情報と、ロボットRを識別するためのロボットIDとが含まれている。動作判断手段47で生成されたステータス情報は、通信制御手段44によって管理用コンピュータ3に適宜送信される。
図1に示した管理用コンピュータ3は、主として、ロボットRに実行させるタスクを管理するものである。
図5は、図1に示した管理用コンピュータの機能を説明するブロック図である。
図5に示すように、管理用コンピュータ3は、通信手段100と、記憶手段200と、制御手段300とを主要部として含んで構成される。
通信手段100は、基地局1(図1参照)を介してロボットRとの間の通信を行うためのインタフェースである。この通信手段100は、ロボットRから入力されるステータス情報をデータベース管理手段310に出力する。なお、通信手段100は、ネットワーク4(図1参照)を介して端末5との間の通信も行う。
記憶手段200は、ロボットRの制御に必要な情報を記憶するものであり、この記憶手段200には、地図情報データベース210と、タスク情報データベース220と、個人情報データベース230と、ロボット情報データベース240と、音声認識用データベース250と、音声合成用データベース260とが少なくとも記憶されている。
地図情報データベース210は、ロボットRがタスクを実行する領域(タスク実行エリア)の地図情報(ローカルマップ)を格納するデータベースである。この地図情報データベース210では、タスク実行エリア内に存在するもの、例えば、通路(通行路)、階段、エレベータ、部屋などの情報が、タスク実行エリア内における位置を示す座標データ(ノード情報等)と関連づけて登録されている。なお、本実施形態では、タスク実行エリアをオフィス内としており、地図情報データベース210には、オフィス内での座席位置等も記憶されている。
タスク情報データベース220は、ロボットRに実行させるタスクに関する情報を記憶するデータベースである。
このタスク情報データベース220には、情報項目として、タスク毎に割り当てられた固有の識別子であるタスクID、タスクを優先的に実行すべき度合いを示す優先度、タスクの重要度、タスクを実行させるロボットRの識別子であるロボットID、運搬などのタスクの内容、タスク実行エリア内におけるタスクを開始する位置、タスク実行エリア内におけるタスクを終了する位置、そして、タスクの進行状況として、タスクの開始予定時刻、タスクの終了予定時刻、タスクの状態(完了、実行中、未処理)などが、含まれている。
個人情報データベース230は、個人情報を記憶するデータベースである。個人情報は、例えば、氏名、年齢、性別、所在地等である。これらの個人情報は、タグ識別番号に対応させて登録してある。つまり、タグ識別番号は、個人情報データベース230を検索する検索キーとして用いられるものである。なお、タグ識別番号とは別の通し番号を検索キーとして用いてもよい。また、氏名等の一部の個人情報を検知用タグDに予め記憶させておき、これを検索キーとして用いてもよい。
ロボット情報データベース240は、ロボットRの状態に関するデータ(ステータス情報)を格納するデータベースである。
ロボット情報データベース240には、現在位置情報、タスク情報、バッテリ残量情報、そしてロボットRの駆動系異常の有無などに関する情報(データ)などが情報項目として含まれており、これら情報項目はロボットIDに関連付けて整理されている。
このロボット情報データベース240に記憶される各情報項目の内容の更新は、ロボットRから送信されたステータス情報に基づいて、後記する制御手段300のデータベース管理手段310により行われる。
音声認識用データベース250は、ロボットRが音声認識を実行するためのデータを記憶するデータベースである。
(音声合成用データベース)
音声合成用データベース260は、ロボットRが発話用の音声を合成するためのデータを記憶するデータベースである。
制御手段300は、管理用コンピュータ3の全体の処理を統括して制御するものである。制御手段300は、図5に示すように、データベース管理手段310と、優先度データ生成手段320と、タスク管理手段330と、タスク実行命令生成手段340とを含んで構成される。
データベース管理手段310は、記憶手段200に記憶された各データベース210〜260へのデータの登録や、各データベース210〜260に登録されたデータの更新などを行うものである。
また、データベース管理手段310は、ステータス情報に含まれるタスク情報が、タスクの完了を示している場合には、当該ロボットRに次のタスクを実行させるために、命令の生成を要求する信号(実行命令要求信号)を生成し、この実行命令要求信号をタスク実行命令生成手段340に出力する。
また、データベース管理手段310は、端末5から通信手段100を介して、新規タスクの登録やタスクの変更を要求する信号(タスク要請信号)が入力されると、タスク情報データベース220を更新すると共に、更新が行われたことを示す信号(タスク更新信号)を生成し、生成したタスク更新信号を優先度データ生成手段320に出力する。
優先度データ生成手段320は、ロボットRに実行させるタスクの優先度を決定するものである。この優先度データ生成手段320は、データベース管理手段310から、タスク更新信号が入力された場合、タスク情報データベース220に登録されているタスクであって、未処理(未実行)のタスクの優先度を決定する。ここで、タスクの優先度の決定は、タスク情報データベース220にタスクを登録する際に設定されたタスクの重要度、タスクの開始位置から最も近い位置にいるロボットRと当該タスクの開始位置との離間距離、現在の時刻からタスクの開始時刻や終了時刻までの時間的余裕、を加味した上で行われる。そして、優先度データ生成手段320は、タスク情報データベース220に登録されたタスクの中で、未実行のタスクについてのスケジューリングを行うことを要求する信号(スケジュール要求信号)を生成し、タスク管理手段330に出力する。
タスク管理手段330は、ロボットRに実行させるタスクの実行計画(タスクスケジュール)をロボットR毎に設定するものである。このタスク管理手段330は、タスク毎に決定された優先度に基づいて、各タスクを実行するロボットRを決定すると共に、ロボットRに割り当てられたタスクの実行順序を、ロボットR毎に設定するものである。また、タスク管理手段330は、タスク情報データベース220に基づいて、ロボットIDにより特定されるロボットRに対するタスク実行命令の生成を要求する信号(実行命令要求信号)をタスク実行命令生成手段340に出力する。
また、タスク管理手段330は、ロボットRからタスクスケジュールの問い合わせ(割込通知信号)が入力された場合に、タスク情報データベース220に格納されたタスクに基づいて、割込タスクの受諾の可否を決定し、その旨を示す信号(受諾可否信号)を生成し、タスク実行命令生成手段340に出力する。なお、受諾可否信号は、例えば、それぞれハイレベル/ローレベルの信号を割り当ててもよい。
タスク実行命令生成手段340は、ロボットRにタスクを実行させるためのタスク実行命令(データ)を生成するものである。このタスク実行命令生成手段340は、実行命令要求信号が、データベース管理手段310またはタスク管理手段330から入力された場合に、この実行命令要求信号に含まれるロボットIDをもとに、タスク情報データベース220に登録されたタスクを確認する。そして、タスク実行命令生成手段340は、当該タスクをロボットRに実行させるためのタスク実行命令を、タスク情報データベース220の各情報項目のデータを参照して生成し、生成したタスク実行命令を、通信手段100を介して、ロボットIDにより特定されるロボットRに向けて出力する。
また、タスク実行命令生成手段340は、タスク管理手段330から受諾可否信号が入力した場合に、この受諾可否信号に基づいて、割込タスクの受諾の可否を示す割込対応命令を生成し、通信手段100を介して、ロボットIDにより特定されるロボットRに向けて出力する。
図1に示したメッセージ記録システムAにおいて、ロボットRと管理用コンピュータ3の一般的な動作は、以下の通りである。すなわち、ロボットRは、制御部40(図2参照)によって、無線通信部60を介して管理用コンピュータ3からタスク実行命令を取得し所定のタスクを実行する。すなわち、各ロボットRは、スケジュールに従って、ロボットRの現在位置(ホームポジション)からタスク実行位置までの経路探索(例えばノード間の経路を探索)及び移動、タスクの実行、タスク終了位置からホームポジションまでの経路探索及び移動の各行動を順次実行する。このロボットRは、移動に際しては、地図情報データベース210(図3参照)に記憶された地図データを取得参照し、対象検知部70(図2参照)によって、識別対象を検知しつつ、最短距離で目的地に到達することができる。そして、ロボットRは、制御部40によって、ロボットRの状態に関するデータ(ステータス情報)を、所定時間間隔毎に生成し、生成したステータス情報を無線通信部60を介して管理用コンピュータ3に出力する。そして、管理用コンピュータ3は、通信手段100を介して入力されたステータス情報を、データベース管理手段310によって、ロボット情報データベース240に登録する。
(前提)
図6は、図1に示したロボットによる物品の配達の説明図であり、(a)は物品の受け取り時の状態、(b)は物品の受け渡し時の状態を示している。
ここでは、ロボットRと応対する人物Hとして、例えば、1つのオフィス内にいる依頼人H1と受取人H2とを想定している。あらかじめ、端末5(図1参照)の操作者は、検知用タグDを装着する人物についての個人情報(氏名など)を入力し、ネットワーク4を介して管理用コンピュータ3の個人情報データベース230(図5参照)に登録する。そして、端末5における入力が完了した後、依頼人H1は、検知用タグD1(D)を装着し、受取人H2は、検知用タグD2(D)を装着する。
あらかじめ、端末5(図1参照)の操作者は、運搬タスクに関するタスク情報を入力し、ネットワーク4を介して管理用コンピュータ3のタスク情報データベース220(図5参照)に登録する。具体的には、端末5の操作者は、端末5から、依頼人および受取人の氏名と配達コマンドを入力する。なお、依頼人および受取人の所在地(オフィス内の座席等)も同時にまたは事前に入力される。そして、端末5における入力が完了した後、各ロボットRは、それぞれ所定の位置(ホームポジション)で待機する。また、物品Xには、物品用タグTが取り付けられている。ここでは、物品Xは花束であるが、ロボットRが把持可能であれば任意のものでよい。
次に、管理用コンピュータ3による運搬タスクの指示動作について図7を参照(適宜図5参照)して説明する。図7は、管理用コンピュータによる運搬タスクの指示動作を示すフローチャートである。
管理用コンピュータ3は、タスク管理手段330によって、タスク情報データベース220に基づいて、運搬タスクのタスク情報を予め取得しておく。具体的には、タスク管理手段330は、所定の運搬タスクを実行するロボットのロボットID、依頼人および受取人に関する情報(IDまたは氏名)を取得しておく。
次に、ロボットRが運搬タスクを実行するときの動作について図8を参照(適宜図2および図4参照)して説明する。図8は、ロボットが運搬タスクを実行するときの制御部の動作を示すフローチャートである。
制御部40は、通信制御手段44によって、タスク実行命令を管理用コンピュータ3から無線通信部60を介して受信する(ステップS11)。そして、制御部40は、動作判断手段47によって、タスク実行命令を運搬タスクであると判断し、運搬タスクを実行するために指令を運搬制御手段43に出力する。この指令によって、運搬制御手段43による一連のシナリオ動作が実行される。
そして、制御部40は、対話制御手段45によって、伝言を要求する(ステップS17)。具体的には、例えば、「H2さまへの伝言はありますか」という意味の音声が出力される。依頼人H1が応答して、図6の(a)に示すように、音声601「ありがとうと伝えて」を発話すると、制御部40は、音声メッセージ抽出手段454によって、「ありがとう」をメッセージとして抽出する。
そして、制御部40は、動作判断手段47によって、メッセージの受領を確認する(ステップS20)。すなわち、制御部40は、対話制御手段45によって、メッセージを受領したときの会話を制御する。具体的には、ロボットRは、例えば、メッセージを復唱して、「ありがとうと伝えます」という意味の音声を出力する。
なお、制御部40は、人物識別手段42によって、依頼人を検知できなかった場合(ステップS13:No)、運搬制御手段43によって、不在時処理を実行する(ステップS23)。すなわち、制御部40は、例えば、依頼人を発見できなかった旨を管理用コンピュータ3に送信する処理と、ホームポジションへの移動に係る処理とを実行する。
次に、前記したステップS22の物品解放処理について図9を参照(適宜図2および図4参照)して説明する。図9は、図8に示した物品解放処理の詳細を示すフローチャートである。まず、制御部40は、人物識別手段42によって、受取人を検知したか否かを判別する(ステップS31)。受取人を検知した場合(ステップS31:Yes)、制御部40は、移動制御手段41によって、受取人に接近し(ステップS32)、対話制御手段45によって、受け取りを要求する(ステップS33)。ステップS31〜ステップS33までの処理は、図8に示したステップS13〜ステップS15までの処理と同様なので説明を省略する。ただし、ステップS33において、音声合成部21aは、記憶部30から受け取りを依頼するときの音声データを読み出して合成し、スピーカSから音声として出力する。例えば、「○○○をお受け取りください。」という意味の音声が出力される。なお、ロボットRは、このような音声を出力する前に、例えば、「H1さまからH2さまへ物品を配達するために来ました」という意味の音声を出力して来訪目的を告げることが好ましい。
図10は、割込タスクに基づくロボットの制御部の動作を示すフローチャートである。
ロボットRは、所定のタスクを実行中であるか、または、待機中であるものとする。ここで、所定のタスクとは、運搬タスク、案内タスク、バッテリ補給タスクなどがあり、ロボットRは,移動状態または立ち止まった状態である。
対話制御手段45Aは、図11に示すように、画像命令抽出手段455と、画像メッセージ抽出手段456とをさらに備えている。
例えば、タグ識別番号と発話命令とを関連付けたテーブルを予め作成しておくことによって、タグ情報行動決定手段48は、タグ識別番号を取得したときに、予め作成されたテーブルに基づいて対話制御手段45への指令を変更する。これによって、ロボットRは、運搬を依頼する依頼人ごとに発話内容を変更できる。
また、本実施形態では、本発明のインタフェース装置を、自律移動可能なロボットRに備えるものとして説明したが、これに限定されず、図2に示したロボットRの自律移動装置(自律移動制御部50と、頭部R1、腕部R2および脚部R3)を除く各部(例えば、パーソナルコンピュータ、カメラC、マイクMC、スピーカS等)で構成するようにしてもよい。
R ロボット
H 人物
D 検知用タグ(人物用タグ)
T 物品用タグ
1 基地局
2 ロボット専用ネットワーク
3 管理用コンピュータ
4 ネットワーク
5 端末
10 画像処理部
20 音声処理部
21a 音声合成部(音声合成手段)
21b 音声認識部(音声認識手段)
30 記憶部
40,40A 制御部
41 移動制御手段
42 人物識別手段
43 運搬制御手段
44 通信制御手段
441 個人情報取得手段
442 タスクスケジュール取得手段
45,45A 対話制御手段
451 入力テキスト解釈手段
452 発話行動指令生成手段
453 音声命令抽出手段
454 音声メッセージ抽出手段
455 画像命令抽出手段
456 画像メッセージ抽出手段
46 レコード処理制御手段
461 ライト制御手段
462 リード制御手段
463 計時手段
47 動作判断手段
48 タグ情報行動決定手段
50 自律移動制御部
60 無線通信部
70 対象検知部(読取手段)
71 発光部
80 レコード処理部
81 ライタ(書込手段)
82 リーダ(読取手段)
100 通信手段
200 記憶手段
300 制御手段
C カメラ(撮像手段)
Da 受光部
S スピーカ
MC マイク
SR1 ジャイロセンサ(現在位置情報取得手段)
SR2 GPS受信器(現在位置情報取得手段)
Claims (9)
- メッセージを無線タグに書き込むインターフェース装置であって、
人物の音声を入力する音声入力手段で入力された音声を認識する音声認識手段と、
前記音声認識手段で認識された音声から、前記メッセージを抽出する音声メッセージ抽出手段と、
この音声メッセージ抽出手段で抽出されたメッセージを、物品に設けられた物品用無線タグに書き込む書込手段と、
を備えたことを特徴とするインターフェース装置。 - 人物を撮像する撮像手段で撮像された人物の画像情報を抽出する画像処理手段と、
前記メッセージに関連付けられたジェスチャまたは手話を示す固有画像情報と、前記画像処理手段で抽出された画像情報とに基づいて、前記固有画像情報に関連付けられたメッセージを抽出する画像メッセージ抽出手段とをさらに備え、
前記書込手段は、前記画像メッセージ抽出手段で抽出されたメッセージを前記物品用無線タグに書き込む、
ことを特徴とする請求項1に記載のインターフェース装置。 - 時刻を計時する計時手段をさらに備え、
前記書込手段は、前記計時手段で計時された時刻を前記メッセージと共に前記物品用無線タグに書き込む、
ことを特徴とする請求項1または請求項2に記載のインターフェース装置。 - 前記物品用無線タグまたは人物の個人情報が記録された人物用無線タグから、記録された情報を読み取る読取手段と、
前記読取手段で読み取られた情報に基づいて、前記人物用無線タグまたは前記物品用無線タグに記録された情報に関連付けられた音声情報を出力用音声として合成する音声合成手段とをさらに備える、
ことを特徴とする請求項1乃至請求項3のいずれか一項に記載のインターフェース装置。 - 前記書込手段は、前記人物用無線タグから前記読取手段で読み取られた個人情報を前記メッセージと共に前記物品用無線タグに書き込む、
ことを特徴とする請求項4に記載のインターフェース装置。 - 請求項4または請求項5に記載のインターフェース装置と、
当該移動ロボットの現在位置を示す位置情報を取得する現在位置情報取得手段と、
移動先である目的地に移動するための移動手段と、
前記目的地を指定する指示と、所定の移動範囲の地図を示す地図情報とに基づいて、前記移動手段を駆動させる自律移動制御手段と、
を備えたことを特徴とする移動ロボット。 - 前記インターフェース装置の前記書込手段は、前記現在位置情報取得手段で取得した位置情報を前記メッセージと共に前記物品用無線タグに書き込む、
ことを特徴とする請求項6に記載の移動ロボット。 - 所定の命令に基づいて、少なくとも、物品の受け渡しと、所定の音声を発話する発話とのいずれの動作を行うかを判断する動作判断手段をさらに備え、
前記動作判断手段は、前記インターフェース装置の前記読取手段で前記人物用無線タグから読み取られた個人情報と、前記書込手段で書き込む情報とのうちの少なくとも一つに基づき、行う動作を判断することを特徴とする請求項6または請求項7に記載の移動ロボット。 - 前記自律移動制御手段は、前記動作判断手段で行うことを判断した動作を実行する場所である目的地へ移動するために、前記移動手段を駆動させることを特徴とする請求項8に記載の移動ロボット。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005358338A JP4718987B2 (ja) | 2005-12-12 | 2005-12-12 | インターフェース装置およびそれを備えた移動ロボット |
US11/635,041 US7983794B2 (en) | 2005-12-12 | 2006-12-07 | Interface apparatus and mobile robot equipped with the interface apparatus |
DE602006011841T DE602006011841D1 (de) | 2005-12-12 | 2006-12-12 | Roboter mit einer Schnittstellenvorrichtung zur Kommunikation mit drahtlosen Etiketten |
EP06256313A EP1796079B1 (en) | 2005-12-12 | 2006-12-12 | Mobile robot equipped with an interface apparatus for communicating with a wireless tag |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005358338A JP4718987B2 (ja) | 2005-12-12 | 2005-12-12 | インターフェース装置およびそれを備えた移動ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007164379A true JP2007164379A (ja) | 2007-06-28 |
JP4718987B2 JP4718987B2 (ja) | 2011-07-06 |
Family
ID=37744631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005358338A Expired - Fee Related JP4718987B2 (ja) | 2005-12-12 | 2005-12-12 | インターフェース装置およびそれを備えた移動ロボット |
Country Status (4)
Country | Link |
---|---|
US (1) | US7983794B2 (ja) |
EP (1) | EP1796079B1 (ja) |
JP (1) | JP4718987B2 (ja) |
DE (1) | DE602006011841D1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009090864A1 (ja) * | 2008-01-15 | 2009-07-23 | Honda Motor Co., Ltd. | ロボット |
JP2017207901A (ja) * | 2016-05-18 | 2017-11-24 | 株式会社Nttドコモ | 応答システム及び入出力装置 |
JP2019131360A (ja) * | 2018-01-31 | 2019-08-08 | トヨタ自動車株式会社 | 移動体、移動体のサービス提供方法、及びプログラム |
WO2019187834A1 (ja) * | 2018-03-30 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2019537786A (ja) * | 2016-10-21 | 2019-12-26 | トルンプフ ヴェルクツォイクマシーネン ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディートゲゼルシャフトTrumpf Werkzeugmaschinen GmbH + Co. KG | 金属処理産業における製造工程の内部位置特定に基づく制御 |
JP2020030477A (ja) * | 2018-08-20 | 2020-02-27 | 富士ゼロックス株式会社 | 自走式移動装置、情報処理装置及びプログラム |
US11361391B2 (en) | 2016-10-21 | 2022-06-14 | Trumpf Werkzeugmaschinen Gmbh + Co. Kg | Manufacturing control in the metal processing industry |
US11358180B2 (en) | 2016-10-21 | 2022-06-14 | Trumpf Werkzeugmaschinen Gmbh + Co. Kg | Workpiece collecting point units and methods for supporting the processing of workpieces |
JP7416500B1 (ja) | 2022-11-18 | 2024-01-17 | 合同会社Straid | 情報システムおよび通信端末 |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7539086B2 (en) * | 2002-10-23 | 2009-05-26 | J2 Global Communications, Inc. | System and method for the secure, real-time, high accuracy conversion of general-quality speech into text |
WO2007132690A1 (ja) * | 2006-05-17 | 2007-11-22 | Nec Corporation | 音声データ要約再生装置、音声データ要約再生方法および音声データ要約再生用プログラム |
US8355818B2 (en) | 2009-09-03 | 2013-01-15 | Battelle Energy Alliance, Llc | Robots, systems, and methods for hazard evaluation and visualization |
US8271132B2 (en) * | 2008-03-13 | 2012-09-18 | Battelle Energy Alliance, Llc | System and method for seamless task-directed autonomy for robots |
US8965578B2 (en) | 2006-07-05 | 2015-02-24 | Battelle Energy Alliance, Llc | Real time explosive hazard information sensing, processing, and communication for autonomous operation |
US8755936B2 (en) * | 2008-01-28 | 2014-06-17 | Seegrid Corporation | Distributed multi-robot system |
US8892256B2 (en) * | 2008-01-28 | 2014-11-18 | Seegrid Corporation | Methods for real-time and near real-time interactions with robots that service a facility |
CN101970187A (zh) * | 2008-01-28 | 2011-02-09 | 塞格瑞德公司 | 用于对服务机器人所收集的时空信息进行再利用的方法 |
US8838268B2 (en) * | 2008-01-28 | 2014-09-16 | Seegrid Corporation | Service robot and method of operating same |
US8677018B2 (en) | 2008-08-25 | 2014-03-18 | Google Inc. | Parallel, side-effect based DNS pre-caching |
FR2947923B1 (fr) * | 2009-07-10 | 2016-02-05 | Aldebaran Robotics | Systeme et procede pour generer des comportements contextuels d'un robot mobile |
WO2012142587A1 (en) * | 2011-04-15 | 2012-10-18 | Irobot Corporation | Method for path generation for an end effector of a robot |
US8452451B1 (en) * | 2011-05-06 | 2013-05-28 | Google Inc. | Methods and systems for robotic command language |
JP2013072974A (ja) * | 2011-09-27 | 2013-04-22 | Toshiba Corp | 音声認識装置、方法及びプログラム |
JP5607012B2 (ja) * | 2011-11-04 | 2014-10-15 | 本田技研工業株式会社 | 手話動作生成装置及びコミュニケーションロボット |
KR101970962B1 (ko) * | 2012-03-19 | 2019-04-22 | 삼성전자주식회사 | 아기 감시 방법 및 장치 |
TW201423574A (zh) * | 2012-12-11 | 2014-06-16 | Hon Hai Prec Ind Co Ltd | 留言錄製及播放系統及方法 |
US9141852B1 (en) * | 2013-03-14 | 2015-09-22 | Toyota Jidosha Kabushiki Kaisha | Person detection and pose estimation system |
US20150243158A1 (en) * | 2014-02-06 | 2015-08-27 | Pixie Technology, Inc. | Method for finding objects |
US9530058B2 (en) * | 2014-12-11 | 2016-12-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Visual-assist robots |
US9532508B1 (en) * | 2015-04-27 | 2017-01-03 | X Development Llc | Tagging of fruit-producing flowers for robotic selective harvesting |
CN106272449A (zh) * | 2015-05-27 | 2017-01-04 | 鸿富锦精密工业(深圳)有限公司 | 人机交互型看护机器人 |
JP6726388B2 (ja) * | 2016-03-16 | 2020-07-22 | 富士ゼロックス株式会社 | ロボット制御システム |
US20170368690A1 (en) * | 2016-06-27 | 2017-12-28 | Dilili Labs, Inc. | Mobile Robot Navigation |
TW201805598A (zh) * | 2016-08-04 | 2018-02-16 | 鴻海精密工業股份有限公司 | 自主移動設備及建立導航路徑的方法 |
RU2638003C1 (ru) * | 2016-11-24 | 2017-12-08 | Федеральное государственное бюджетное учреждение науки Санкт-Петербургский институт информатики и автоматизации Российской академии наук | Способ распределения задач между сервисными роботами и средствами киберфизического интеллектуального пространства при многомодальном обслуживании пользователей |
JP6586968B2 (ja) * | 2017-02-01 | 2019-10-09 | トヨタ自動車株式会社 | 移動ロボット、移動ロボットの制御方法および制御プログラム |
WO2018155116A1 (ja) * | 2017-02-24 | 2018-08-30 | ソニーモバイルコミュニケーションズ株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
JP6633580B2 (ja) * | 2017-08-02 | 2020-01-22 | ファナック株式会社 | ロボットシステム及びロボット制御装置 |
US11413755B2 (en) * | 2017-12-31 | 2022-08-16 | Sarcos Corp. | Covert identification tags viewable by robots and robotic devices |
US10807246B2 (en) * | 2018-01-08 | 2020-10-20 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Mobile robotic device and method of controlling the same manipulator for locomotion and manipulation |
CN110304505B (zh) * | 2018-03-20 | 2021-10-01 | 上海新时达电气股份有限公司 | 电梯控制交互装置、机器人及电梯控制交互系统 |
JP7057214B2 (ja) * | 2018-05-18 | 2022-04-19 | トヨタ自動車株式会社 | 把持装置、タグが付された容器、対象物把持プログラムおよび対象物把持方法 |
CN110941258A (zh) * | 2018-09-21 | 2020-03-31 | 日本电产株式会社 | 移动体的控制方法及移动体的控制系统 |
EP3873190A4 (en) * | 2018-10-29 | 2022-07-27 | Ffrobotics Ltd. | ROBOTIC FRUIT PICKING MACHINE WITH PAIRS OF FRUIT PICKING AND HYBRID MOTORIZED PNEUMATIC ROBOT ARMS |
CN109994114B (zh) * | 2019-04-09 | 2021-07-23 | 昆山古鳌电子机械有限公司 | 一种智能控制系统 |
CN110381221B (zh) * | 2019-07-25 | 2021-06-11 | 北京百度网讯科技有限公司 | 呼叫处理方法、装置、系统、设备和计算机存储介质 |
US11285612B2 (en) * | 2019-08-20 | 2022-03-29 | X Development Llc | Coordinating agricultural robots |
FR3142318A1 (fr) * | 2022-11-23 | 2024-05-24 | Enchanted Tools | Architecture de réseau robotique comportant un ensemble d’étiquettes |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001209644A (ja) * | 2000-01-28 | 2001-08-03 | Sony Corp | 情報処理装置および情報処理方法、並びに記録媒体 |
JP2002097824A (ja) * | 2000-09-25 | 2002-04-05 | Omron Corp | 情報記録装置および音声応答システム |
JP2004067323A (ja) * | 2002-08-07 | 2004-03-04 | Renesas Technology Corp | 物品検索システム |
JP2005321845A (ja) * | 2004-05-06 | 2005-11-17 | Casio Comput Co Ltd | Icタグ発行管理装置およびプログラム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5204670A (en) * | 1988-08-29 | 1993-04-20 | B. I. Incorporated | Adaptable electric monitoring and identification system |
US5640002A (en) * | 1995-08-15 | 1997-06-17 | Ruppert; Jonathan Paul | Portable RF ID tag and barcode reader |
US5721421A (en) * | 1996-07-15 | 1998-02-24 | Bass, Inc. | Apparatus and method for verifying a shelf tag |
JPH11249778A (ja) * | 1998-02-26 | 1999-09-17 | Hitachi Ltd | 移動体管理システム |
JP4279416B2 (ja) * | 1999-08-30 | 2009-06-17 | 本田技研工業株式会社 | 2足歩行ロボット |
JP2001188555A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2001320781A (ja) * | 2000-05-10 | 2001-11-16 | Inst Of Physical & Chemical Res | データ・キャリア・システムを用いた支援システム |
US6703935B1 (en) * | 2001-05-14 | 2004-03-09 | Amerasia International Technology, Inc. | Antenna arrangement for RFID smart tags |
JP3900995B2 (ja) * | 2002-04-03 | 2007-04-04 | オムロン株式会社 | 情報処理端末、サーバ、情報処理プログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体 |
WO2004032086A1 (ja) * | 2002-10-04 | 2004-04-15 | Fujitsu Limited | ロボットシステムおよび自律走行ロボット |
KR20040042242A (ko) * | 2002-11-13 | 2004-05-20 | 삼성전자주식회사 | 홈서버를 이용하는 홈로봇 및 이를 포함하는 홈네트워크시스템 |
US6982640B2 (en) | 2002-11-21 | 2006-01-03 | Kimberly-Clark Worldwide, Inc. | RFID system and method for tracking food freshness |
US7693514B2 (en) * | 2003-08-18 | 2010-04-06 | Honda Motor Co., Ltd. | Information gathering robot |
KR100906136B1 (ko) * | 2003-12-12 | 2009-07-07 | 닛본 덴끼 가부시끼가이샤 | 정보 처리용 로봇 |
US7317388B2 (en) * | 2004-03-31 | 2008-01-08 | Honda Motor Co., Ltd. | Position detection system for mobile object |
US7106198B2 (en) | 2004-05-20 | 2006-09-12 | Xerox Corporation | Control of programmable modules |
JP4604612B2 (ja) * | 2004-09-07 | 2011-01-05 | 日本電気株式会社 | Icタグ管理装置、それを含むロボットおよびicタグ管理方法 |
EP1985097A2 (en) * | 2005-12-20 | 2008-10-29 | Philips Intellectual Property & Standards GmbH | Method of sending a message, message transmitting device and message rendering device |
-
2005
- 2005-12-12 JP JP2005358338A patent/JP4718987B2/ja not_active Expired - Fee Related
-
2006
- 2006-12-07 US US11/635,041 patent/US7983794B2/en not_active Expired - Fee Related
- 2006-12-12 EP EP06256313A patent/EP1796079B1/en not_active Expired - Fee Related
- 2006-12-12 DE DE602006011841T patent/DE602006011841D1/de active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001209644A (ja) * | 2000-01-28 | 2001-08-03 | Sony Corp | 情報処理装置および情報処理方法、並びに記録媒体 |
JP2002097824A (ja) * | 2000-09-25 | 2002-04-05 | Omron Corp | 情報記録装置および音声応答システム |
JP2004067323A (ja) * | 2002-08-07 | 2004-03-04 | Renesas Technology Corp | 物品検索システム |
JP2005321845A (ja) * | 2004-05-06 | 2005-11-17 | Casio Comput Co Ltd | Icタグ発行管理装置およびプログラム |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009166162A (ja) * | 2008-01-15 | 2009-07-30 | Honda Motor Co Ltd | ロボット |
US8380348B2 (en) | 2008-01-15 | 2013-02-19 | Honda Motor Co., Ltd. | Robot |
WO2009090864A1 (ja) * | 2008-01-15 | 2009-07-23 | Honda Motor Co., Ltd. | ロボット |
JP2017207901A (ja) * | 2016-05-18 | 2017-11-24 | 株式会社Nttドコモ | 応答システム及び入出力装置 |
US11361391B2 (en) | 2016-10-21 | 2022-06-14 | Trumpf Werkzeugmaschinen Gmbh + Co. Kg | Manufacturing control in the metal processing industry |
US11520314B2 (en) | 2016-10-21 | 2022-12-06 | Trumpf Werkzeugmaschinen Gmbh + Co. Kg | Control of manufacturing processes in metal processing industry |
JP2019537786A (ja) * | 2016-10-21 | 2019-12-26 | トルンプフ ヴェルクツォイクマシーネン ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディートゲゼルシャフトTrumpf Werkzeugmaschinen GmbH + Co. KG | 金属処理産業における製造工程の内部位置特定に基づく制御 |
US11358180B2 (en) | 2016-10-21 | 2022-06-14 | Trumpf Werkzeugmaschinen Gmbh + Co. Kg | Workpiece collecting point units and methods for supporting the processing of workpieces |
JP2019131360A (ja) * | 2018-01-31 | 2019-08-08 | トヨタ自動車株式会社 | 移動体、移動体のサービス提供方法、及びプログラム |
JPWO2019187834A1 (ja) * | 2018-03-30 | 2021-07-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11468891B2 (en) | 2018-03-30 | 2022-10-11 | Sony Corporation | Information processor, information processing method, and program |
WO2019187834A1 (ja) * | 2018-03-30 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7259843B2 (ja) | 2018-03-30 | 2023-04-18 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2020030477A (ja) * | 2018-08-20 | 2020-02-27 | 富士ゼロックス株式会社 | 自走式移動装置、情報処理装置及びプログラム |
JP7180198B2 (ja) | 2018-08-20 | 2022-11-30 | 富士フイルムビジネスイノベーション株式会社 | 自走式移動装置、情報処理装置及びプログラム |
US11559892B2 (en) | 2018-08-20 | 2023-01-24 | Fujifilm Business Innovation Corp. | Self-propelled travelling apparatus, information processing apparatus, and non-transitory computer readable medium |
JP7416500B1 (ja) | 2022-11-18 | 2024-01-17 | 合同会社Straid | 情報システムおよび通信端末 |
Also Published As
Publication number | Publication date |
---|---|
US7983794B2 (en) | 2011-07-19 |
EP1796079A1 (en) | 2007-06-13 |
JP4718987B2 (ja) | 2011-07-06 |
US20070135962A1 (en) | 2007-06-14 |
EP1796079B1 (en) | 2010-01-20 |
DE602006011841D1 (de) | 2010-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4718987B2 (ja) | インターフェース装置およびそれを備えた移動ロボット | |
US10381003B2 (en) | Voice acquisition system and voice acquisition method | |
US11785395B2 (en) | Hearing aid with voice recognition | |
US11979716B2 (en) | Selectively conditioning audio signals based on an audioprint of an object | |
JP4460528B2 (ja) | 識別対象識別装置およびそれを備えたロボット | |
JP4560078B2 (ja) | コミュニケーションロボット | |
US20130123658A1 (en) | Child-Care Robot and a Method of Controlling the Robot | |
CN106328132A (zh) | 一种智能设备的语音交互控制方法和装置 | |
JP2004078316A (ja) | 姿勢認識装置及び自律ロボット | |
JP2008254122A (ja) | ロボット | |
JP5411789B2 (ja) | コミュニケーションロボット | |
JP4896550B2 (ja) | 情報管理システム | |
JP2009248193A (ja) | 接客システム及び接客方法 | |
JP2013161086A (ja) | 記録システム及びその方法、音声入力装置、音声記録装置及びその方法 | |
US20050113974A1 (en) | Cooperative robot system and navigation robot system | |
WO2010010736A1 (ja) | 会議画像生成方法、会議システム、サーバ装置及び会議装置等 | |
US20170278146A1 (en) | Reception system and reception method | |
JP2017182334A (ja) | 受付システム及び受付方法 | |
JP2007272534A (ja) | 省略語補完装置、省略語補完方法、及びプログラム | |
JP4764377B2 (ja) | 移動型ロボット | |
CN110364164B (zh) | 对话控制装置、对话系统、对话控制方法以及存储介质 | |
JP2007320033A (ja) | コミュニケーションロボット | |
JP2006243555A (ja) | 対応決定システム、ロボット、イベント出力サーバ、および対応決定方法 | |
US11915039B2 (en) | Enabling workers to swap between mobile devices | |
JP2001188551A (ja) | 情報処理装置および方法、並びに記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110329 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4718987 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140408 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |