JP4764377B2 - 移動型ロボット - Google Patents
移動型ロボット Download PDFInfo
- Publication number
- JP4764377B2 JP4764377B2 JP2007124139A JP2007124139A JP4764377B2 JP 4764377 B2 JP4764377 B2 JP 4764377B2 JP 2007124139 A JP2007124139 A JP 2007124139A JP 2007124139 A JP2007124139 A JP 2007124139A JP 4764377 B2 JP4764377 B2 JP 4764377B2
- Authority
- JP
- Japan
- Prior art keywords
- dialogue
- inducing
- robot
- mobile robot
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
特許文献1に記載のロボットは、予め定められたスケジュールにしたがって、例えば、対話対象に伝達すべき情報として、天気予報などの定期的に更新される情報を発話し、例えば、「快晴」という単語が伝達すべき情報の内容を示す場合に、「快晴」を身振りで示すために両手を上に挙げて「ばんざい」を行う。このロボットは、移動中に対話対象から呼びかけられたときに立ち止まり、例えば、天気予報などの定期的に更新される情報を要求された場合に、最新の情報を示す発話や身振りを行うようにしている。
請求項2に記載の発明によれば、移動型ロボットは、対話誘発動作の候補が複数存在する場合に、その中から1つの対話誘発動作を容易に決定することができる。
請求項3ないし請求項5に記載の発明によれば、移動型ロボットは、内部状態や現在位置等の現在状況を反映した適切な対話誘発動作を実行できる。
請求項6に記載の発明によれば、移動型ロボットは、対話対象が良好な反応を示すような適切な対話誘発動作を実行することができる。
請求項7に記載の発明によれば、移動型ロボットは、対話対象に対して自発的に対話を開始することができる。
図1に示すように、ロボット制御システムAは、ロボットRと、このロボットRと無線通信によって接続された基地局1と、この基地局1とロボット専用ネットワーク2を介して接続された管理用コンピュータ3と、この管理用コンピュータ3にネットワーク4を介して接続された端末5とから構成される。
ロボットRは、管理用コンピュータ3から入力された実行命令に従ってタスクを実行するものであり、ロボットRがタスクを実行する領域として予め設定されたタスク実行エリア内に、少なくとも一台配置されている。
ここで、図1には、来訪者を会議室などの所定の場所に案内するという内容のタスク(案内タスク)を実行中のロボットRAと、荷物をある人に渡すという内容のタスク(荷物配達タスク)を実行中のロボットRBと、新たなタスクが割り当てられるまで待機中のロボットRCとが、例示されている。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を仲介するものである。
具体的には、基地局1は、管理用コンピュータ3から出力された実行命令をロボットRに送信すると共に、ロボットRから送信されたロボットRの状態に関するデータ(ステータス情報)やロボットRが実行命令を受信したことを示す信号(受信報告信号)を受信して、管理用コンピュータ3に出力するものである。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を確実に行えるようにするために、タスク実行エリア内に少なくとも一つ設けられている。
なお、タスク実行エリアが建物の数フロアに亘って設定されている場合には、フロア毎に設けられていることが好ましく、一つの基地局1では総てのタスク実行エリアをカバーできない場合には、複数の基地局1がタスク実行エリア内に設けられていることが好ましい。
図4に示すように、タスク情報データベース400には、タスク毎に割り当てられた固有の識別子であるタスクID、タスクの優先度、タスクの重要度、タスクを実行させるロボットの識別子であるロボットID、案内や運搬(荷物配達)などのタスクの内容、タスク実行エリア内におけるタスクを開始する位置(開始位置)、タスク実行エリア内におけるタスクを終了する位置(終了位置)、タスクの実行に要する時間(所要時間)、そしてタスクの開始予定時刻(開始時刻)、タスクの終了予定時刻(終了時刻)、そしてタスクの状態などが、情報項目として含まれている。
図5に示すように、タスクスケジュールテーブル500は、ロボットRに実行させるタスクの実行順位、タスク情報データベース400(図4参照)に登録されたタスクを特定するためのタスクID、タスクの優先度、タスクの内容、そしてタスクの状態を情報項目として含むテーブルである。
このタスクスケジュールテーブル500では、これら情報項目が、タスク実行エリア内に配置されたロボットR毎に整理されており、どの様なタスクが、どのような順番で各ロボットRに割り当てられているのかを把握できるようになっている。
端末5は、ネットワーク4を介して管理用コンピュータ3に接続し、管理用コンピュータ3の記憶部3aに、人物に関する情報などを登録する、もしくは登録されたこれらの情報を修正するものである。また、端末5は、ロボットRに実行させるタスクの登録や、管理用コンピュータ3において設定されるタスクスケジュールの変更や、ロボットRの動作命令の入力などを行うものである。
ロボットRは、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5に加えて、これら各部R1〜R5の適所に、図6に示すように、カメラC,C、スピーカS、マイクMC,MC、画像処理部10、音声処理部20、記憶部30、主制御部40、自律移動制御部50、無線通信部60、バッテリ70、対象検知部80、および周辺状態検知部90を有する。
さらに、ロボットRは、ロボットRの向いている方向を検出するジャイロセンサSR1や、予め設定された地図上におけるロボットRの存在する位置座標を取得するためのGPS(Global Positioning System)受信器SR2を有している。
カメラ(視覚センサ)C,Cは、ロボットRの前方移動方向側の映像をデジタルデータとして取り込むことができるものであり、例えば、カラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部10に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R1の内部に配設される。スピーカ(音声出力手段)Sは、音声処理部20で音声合成された所定の音声を発することができる。
画像処理部(画像処理手段)10は、カメラC,Cが撮影した画像(撮影画像)を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部10は、ステレオ処理部11a、移動体抽出部11bおよび顔認識部11cを含んで構成される。
ステレオ処理部11aは、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を移動体抽出部11bに出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
移動体の抽出をするために、移動体抽出部11bは、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物があると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部11cへ移動体の画像を出力する。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、主制御部40に出力される。
音声処理部20は、音声合成部21aと、音声認識部21bおよび音源定位部21cを有する。
音声合成部21aは、主制御部40が決定し、出力してきた発話行動の指令に基づき、文字情報(テキストデータ)から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶部30に記憶している文字情報(テキストデータ)と音声データとの対応関係を利用する。なお、音声データは、管理用コンピュータ3から取得され、記憶部30に保存される。
音声認識部(音声認識手段)21bは、マイクMC,MCから音声データが入力され、入力された音声データから文字情報(テキストデータ)を生成し、主制御部40に出力するものである。なお、音声データと文字情報(テキストデータ)との対応関係は、記憶部30に予め記憶されている。
音源定位部21cは、マイクMC,MC間の音圧差および音の到達時間差に基づいて音源位置(ロボットRが認識する平面状の位置)を特定し、主制御部40に出力するものである。音源位置は、例えば、ロボットRの立っている方向(z軸方向)周りの回転角θzで表される。
記憶部30は、例えば、一般的なハードディスク等から構成され、管理用コンピュータ3から送信された必要な情報(ローカル地図データ、会話用データなど)を記憶するものである。また、記憶部30は、後記するように、主制御部40の各種動作を行うために必要な情報を記憶している。
主制御部40は、画像処理部10、音声処理部20、記憶部30、自律移動制御部50、無線通信部60、対象検知部80、および周辺状態検知部90を統括制御するものである。また、ジャイロセンサSR1、およびGPS受信器SR2が検出したデータは、主制御部40に出力され、ロボットRの行動を決定するために利用される。この主制御部40は、例えば、管理用コンピュータ3と通信を行うための制御、管理用コンピュータ3から取得したタスク実行命令に基づいて所定のタスクを実行するための制御、ロボットRを目的地に移動させるための制御、人物を識別するための制御、人物と対話するための制御を行うために、種々の判断を行ったり、各部の動作のための指令を生成したりする。
自律移動制御部50は、主制御部40の指示に従い頭部R1、腕部R2、脚部R3および胴部R4を駆動するものである。この自律移動制御部50は、図示を省略するが、頭部R1の首関節を駆動させる首制御部、腕部R2の手の先の指関節を駆動させる手制御部、腕部R2の肩関節、肘関節、手首関節を駆動させる腕制御部、脚部R3に対して胴部R4を水平方向に回転駆動させる腰制御部、脚部R3の股関節、膝関節、足首関節を駆動させる足制御部を有している。これら首制御部、手制御部,腕制御部、腰制御部および足制御部は、頭部R1、腕部R2、脚部R3および胴部R4を駆動するアクチュエータに駆動信号を出力する。
無線通信部60は、管理用コンピュータ3とデータの送受信を行う通信装置である。無線通信部60は、公衆回線通信装置61aおよび無線通信装置61bを有する。
公衆回線通信装置61aは、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置61bは、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部60は、管理用コンピュータ3からの接続要求に従い、公衆回線通信装置61aまたは無線通信装置61bを選択して管理用コンピュータ3とデータ通信を行う。
対象検知部(対象検知手段)80は、ロボットRの周囲にタグTを備える人物が存在するか否かを検知するものである。対象検知部80は、複数の発光部81(図6では1つのみ表示した)を備える。これら発光部81は、例えば、LEDから構成され、ロボットRの頭部R1外周に沿って前後左右などに配設される(図示は省略する)。対象検知部80は、発光部81から、各発光部81を識別する発光部IDを示す信号を含む赤外光をそれぞれ発信すると共に、この赤外光を受信したタグTから受信報告信号を受信する。いずれかの赤外光を受信したタグTは、その赤外光に含まれる発光部IDに基づいて、受信報告信号を生成するので、ロボットRは、この受信報告信号に含まれる発光部IDを参照することにより、当該ロボットRから視てどの方向にタグTが存在するかを特定することができる。また、対象検知部80は、タグTから取得した受信報告信号の電波強度に基づいて、タグTまでの距離を特定する機能を有する。したがって、対象検知部80は、受信報告信号に基づいて、タグTの位置(距離および方向)を、人物の位置として特定することができる。さらに、対象検知部80は、発光部81から赤外光を発光するだけではなく、ロボットIDを示す信号を含む電波を図示しないアンテナから発信する。これにより、この電波を受信したタグTは、赤外光を発信したロボットRを正しく特定することができる。なお、対象検知部80およびタグTについての詳細は、例えば、特開2006−192563号公報に開示されている。
周辺状態検知部90は、ロボットRの周辺状態を検知するものであり、ジャイロセンサSR1やGPS受信器SR2によって検出された自己位置データを取得可能になっている。また、周辺状態検知部90は、探索域に向かってスリット光を照射するレーザ照射部91と、探索域に向かって赤外線を照射する赤外線照射部92と、スリット光または赤外線が照射された探索域を撮像する床面カメラ93とを有する。この周辺状態検知部90は、床面カメラ93で撮像したスリット光画像(スリット光が照射されたときの画像)を解析して路面状態を検出する。また、周辺状態検知部90は、床面カメラ93で撮像した赤外線画像(赤外線が照射されたときの画像)を解析してマークM(図2参照)を検出し、検出されたマークMの位置(座標)からマークMとロボットRとの相対的な位置関係を計算する。なお、周辺状態検知部90についての詳細は、例えば、特開2006−167844号公報に開示されている。
図7は、図6に示したロボットの主制御部の構成を示すブロック図である。
主制御部40は、静止障害物統合部41と、オブジェクトデータ統合部42と、行動パターン部43と、身振り統合部44と、内部状態検出部45と、行動計画管理部46と、対話誘発動作制御部47とを備えている。
対話誘発動作情報記憶手段34は、対話誘発動作情報を記憶するものである。対話誘発動作情報は、対話誘発動作制御部47が管理するものなので詳細は後記する。
局所回避モジュールは、歩行中に障害物が検知されたときに、静止障害物統合部41で統合された障害物情報に基づいて、障害物を回避する迂回経路を探索するものである。
案内モジュールは、例えば、タスク実行エリア内の案内開始地点に来訪した来訪客を案内領域301(図3参照)の受付305にいる受付スタッフのもとへ案内するタスクを実行するものである。
人対応モジュールは、例えば、物品運搬タスクや案内タスクの実行時に所定のシナリオに基づいて、発話、姿勢の変更、腕部R2の上下移動や把持等を行うものである。
図8は、図7に示した対話誘発動作制御部の構成を示すブロック図である。
対話誘発動作制御部47は、図8に示すように、使用状況検出手段110と、対話誘発動作決定手段120と、知覚可能動作制御手段130とを備え、これらによって記憶部30に記憶された各種の情報やデータに基づいて後記する制御を行う。
この重みデータテーブル930は、項目の一例として、現在状況1(タスク)、現在状況2(場所)および実行履歴状況とを有している。
<使用状況検出手段>
使用状況検出手段110は、ロボットRの可動部(例えば、腕、指、肩、頭)とスピーカ(音声出力部)Sとを示す各部位のうち現在使用している部位を検出するものである。本実施形態では、使用状況検出手段110は、各部位の動作信号によって各部位が使用中であることを検出し、使用中または未使用であることを示す情報を使用状況として対話誘発動作決定手段120に出力する。
対話誘発動作決定手段120は、使用状況検出手段110で検出された使用状況(現在使用している部位)と、対話誘発動作情報記憶手段34に記憶された対話誘発動作情報とに基づいて実行すべき対話誘発動作を決定するものである。この対話誘発動作決定手段120は、図8に示すように、対話誘発動作検索手段121と、現在状況判別手段122と、使用許可判別手段123と、対話誘発動作選択手段124と、重みづけ算出手段125と、反応判別手段126と、重みづけデータ更新手段127と、発話情報選択手段128とを備えている。
知覚可能動作制御手段130は、対話誘発動作決定手段120により決定された対話誘発動作を実行するために使用する部位に対して対話対象が知覚可能な動作を実行させるものである。本実施形態では、知覚可能動作制御手段130は、頭部R1や腕部R2を用いた身振りを実行させるコマンドを身振り統合部44に出力し、発話情報選択手段128で選択された話題をスピーカSから発話させるコマンドを行動パターン部43に出力する。
図6に示したロボットRの動作について主に対話誘発動作制御部47の動作を中心に図10を参照(適宜図1、図6および図7参照)して説明する。図10は、図7に示した対話誘発動作制御部の動作を示すフローチャートである。ロボットRは、主制御部40によって、無線通信部60を介して管理用コンピュータ3からローカル地図等の情報を予め取得しておく。
また、対話対象の反応があった場合、対話誘発動作制御部47は、発話情報選択手段128によって、その反応に基づいて、対話誘発動作に関連する話題を発話情報記憶手段35から選択して発話情報として知覚可能動作制御手段130に出力する。これにより、ロボットRが対話誘発動作を実行した後、対話対象の反応に応じて、実行した対話誘発動作に関連する話題を自発的に発話することができる。
次に、ロボットRの対話誘発動作制御部47で、実行すべき対話誘発動作を決定する処理の具体例について図11を参照(適宜図9参照)して説明する。図11は、実行すべき対話誘発動作を決定する処理の一例を示す説明図である。この例では、図11(a)に示すように、対話誘発動作制御部47は、使用状況検出手段110によって、腕、指、肩、頭およびスピーカ(口)のうち、指と肩とが使用中であり、その他の部位が未使用であると判別した場合を想定している。ここで、指と肩とが使用中である状況とは、ロボットRが例えばトレイを把持して前腕および上腕の姿勢を変えずに肩関節を回転させる状況に相当する。この場合、図9(a)の対話誘発動作情報テーブル910に示すように、指と肩とを使用する識別番号「1」の対話誘発動作「踊る」を実行することはできない。
R ロボット(移動型ロボット)
R1 頭部
R2 腕部
R3 脚部
R4 胴体部
R5 背面格納部
1 基地局
2 ロボット専用ネットワーク
3 管理用コンピュータ
3a 記憶部
4 ネットワーク
5 端末
10 画像処理部
20 音声処理部
21a 音声合成部
21b 音声認識部
21c 音源定位部
30 記憶部
31 オブジェクトデータ記憶手段
32 ローカル地図データ記憶手段
33 シナリオ記憶手段
34 対話誘発動作情報記憶手段
35 発話情報記憶手段
40 主制御部
41 静止障害物統合部
42 オブジェクトデータ統合部
43 行動パターン部
44 身振り統合部
45 内部状態検出部
46 行動計画管理部
47 対話誘発動作制御部(対話誘発動作制御手段)
50 自律移動制御部
60 無線通信部
70 バッテリ
80 対象検知部
90 周辺状態検知部
110 使用状況検出手段
120 対話誘発動作決定手段
121 対話誘発動作検索手段
122 現在状況判別手段
123 使用許可判別手段
124 対話誘発動作選択手段
125 重みづけ算出手段
126 反応判別手段
127 重みづけデータ更新手段
128 発話情報選択手段
130 知覚可能動作制御手段
131 認識尤度変更手段
C カメラ(視覚センサ)
MC マイク(音声入力部)
S スピーカ(音声出力手段)
SR1 ジャイロセンサ
SR2 GPS受信器
Claims (7)
- 視覚センサを介して取得された対話対象の撮影画像を画像処理する画像処理部と、音声入力部に入力された対話対象の音声を認識する音声認識部と、所定の発話情報に基づいて音声を出力する音声出力部と、前記対話対象が知覚可能な動作をそれぞれ行う複数の可動部とを有する移動型ロボットであって、
前記対話対象の発話を誘発するために実行する対話誘発動作を、前記複数の可動部と前記音声出力部とのうちの少なくとも1つの部位を使用して前記対話対象が知覚可能な単独の動作または動作の組合せとして、前記部位に実行させる制御を行う対話誘発動作制御手段と、
前記対話誘発動作と、当該対話誘発動作を実行するために使用する部位とを予め関連付けた情報を示す対話誘発動作情報を複数記憶した対話誘発動作情報記憶手段とを備え、
前記対話誘発動作制御手段は、
前記各部位のうち現在使用している部位を検出する使用状況検出手段と、
前記検出された部位と前記対話誘発動作情報とに基づいて、前記検出された部位以外の部位を使用する対話誘発動作を、実行すべき対話誘発動作として決定する対話誘発動作決定手段と、
前記対話誘発動作決定手段により決定された対話誘発動作を実行するために使用する部位に対して前記対話対象が知覚可能な動作を実行させる知覚可能動作制御手段と、
を有することを特徴とする移動型ロボット。 - 前記対話誘発動作情報記憶手段は、前記対話誘発動作情報を所定の重みづけデータと共に記憶し、
前記対話誘発動作決定手段は、
前記検出された部位に基づいて、前記検出された部位以外の部位を用いる対話誘発動作を前記対話誘発動作情報から検索する対話誘発動作検索手段と、
前記検索された対話誘発動作の中から前記重みづけデータに基づいて実行すべき対話誘発動作を選択する対話誘発動作選択手段と、
を備えることを特徴とする請求項1に記載の移動型ロボット。 - 前記記憶された重みづけデータは、当該移動型ロボットが実行するタスクの種別、当該移動型ロボットの内部状態の良否、当該移動型ロボットの位置する場所、および、前記対話誘発動作の実行履歴状況のうちの少なくとも1つの項目に関して重みが予め定められたデータであり、
前記対話誘発動作決定手段は、
現在検出されたタスクの種別、当該移動型ロボットの内部状態の良否、当該移動型ロボットの位置する場所、および、前記対話誘発動作を最後に実行してから経過した時間のうちの少なくとも1つの情報に基づいて、前記重みづけデータの各項目から前記現在検出された各情報に対応する重みを判別する現在状況判別手段と、
前記現在状況判別手段により判別された重みを使用して、前記対話誘発動作ごとに前記重みづけデータの各項目の重みを合計し、現在状況に対応した重みを算出する重みづけ算出手段とをさらに備え、
前記対話誘発動作選択手段は、前記算出された現在状況に対応した重みが最も重い対話誘発動作を、実行すべき対話誘発動作として選択することを特徴とする請求項2に記載の移動型ロボット。 - 前記知覚可能動作制御手段は、
前記現在検出されたタスクの種別、当該移動型ロボットの内部状態の良否、および、当該移動型ロボットの位置する場所のうちの少なくとも1つの情報が状態変化した場合に、前記対話対象が知覚可能な動作を開始させることで前記対話誘発動作を開始させることを特徴とする請求項3に記載の移動型ロボット。 - 前記知覚可能動作制御手段は、
前記対話対象が知覚可能な動作を実行させているときに、前記現在検出されたタスクの種別、当該移動型ロボットの内部状態の良否、および、当該移動型ロボットの位置する場所のうちの少なくとも1つの情報が状態変化した場合に、前記現在実行させている動作を終了させることで前記対話誘発動作を終了させることを特徴とする請求項3または請求項4に記載の移動型ロボット。 - 前記記憶された重みづけデータは、
当該移動型ロボットが実行するタスクの種別、当該移動型ロボットの内部状態の良否、当該移動型ロボットの位置する場所、前記対話対象の反応、および、前記対話誘発動作の実行履歴状況のうちの少なくとも1つの項目に関して重みが予め定められたデータであり、
前記対話誘発動作決定手段は、
前記対話誘発動作を実行した後に前記画像処理部で処理された画像または前記音声認識部で認識された音声を用いて前記対話対象の反応を予め設定された基準により判別する反応判別手段と、
前記判別された反応に基づいて、前記記憶された重みづけデータの前記実行した対話誘発動作に関して、前記対話対象の反応の項目の重みを、前記対話対象の反応別に予め定められた重みに更新する重みづけデータ更新手段と、
をさらに備えることを特徴とする請求項2に記載の移動型ロボット。 - 前記対話対象の反応別に、前記発話情報として前記対話誘発動作に関連する話題を記憶した発話情報記憶手段と、
前記反応判別手段で判別された前記対話対象の反応に基づいて、前記対話誘発動作に関連する話題を前記発話情報記憶手段から選択して前記発話情報として前記知覚可能動作制御手段に出力する発話情報選択手段と、
をさらに備えることを特徴とする請求項6に記載の移動型ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007124139A JP4764377B2 (ja) | 2007-05-09 | 2007-05-09 | 移動型ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007124139A JP4764377B2 (ja) | 2007-05-09 | 2007-05-09 | 移動型ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008279529A JP2008279529A (ja) | 2008-11-20 |
JP4764377B2 true JP4764377B2 (ja) | 2011-08-31 |
Family
ID=40140790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007124139A Expired - Fee Related JP4764377B2 (ja) | 2007-05-09 | 2007-05-09 | 移動型ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4764377B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5569073B2 (ja) * | 2010-03-18 | 2014-08-13 | 富士通株式会社 | サービス提供装置、サービス提供プログラム及びサービスロボット |
US8818556B2 (en) * | 2011-01-13 | 2014-08-26 | Microsoft Corporation | Multi-state model for robot and user interaction |
JP2013237124A (ja) * | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | 端末装置、情報提供方法及びプログラム |
US10929336B2 (en) * | 2012-11-19 | 2021-02-23 | Nokia Technologies Oy | Methods, apparatuses, and computer program products for synchronized conversation between co-located devices |
JP7146373B2 (ja) * | 2017-07-13 | 2022-10-04 | 雅美 田嶋 | 接客サービスシステム |
JP7174673B2 (ja) * | 2019-06-17 | 2022-11-17 | 株式会社日立ビルシステム | 案内ロボット |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3797047B2 (ja) * | 1999-12-08 | 2006-07-12 | 富士通株式会社 | ロボット装置 |
JP2001188555A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2001300148A (ja) * | 2000-04-18 | 2001-10-30 | Casio Comput Co Ltd | アクション応答システムおよびそのプログラム記録媒体 |
JP2005088179A (ja) * | 2003-09-22 | 2005-04-07 | Honda Motor Co Ltd | 自律移動ロボットシステム |
JP2005246564A (ja) * | 2004-02-06 | 2005-09-15 | Sanyo Electric Co Ltd | ロボット装置 |
JP4261529B2 (ja) * | 2005-08-31 | 2009-04-30 | 株式会社東芝 | ホームロボットにおける処理方法及びホームロボット |
-
2007
- 2007-05-09 JP JP2007124139A patent/JP4764377B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008279529A (ja) | 2008-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4560078B2 (ja) | コミュニケーションロボット | |
JP5411789B2 (ja) | コミュニケーションロボット | |
JP5405381B2 (ja) | 音声対話装置 | |
JP4516592B2 (ja) | 移動型ロボット | |
JP2008254122A (ja) | ロボット | |
JP4718987B2 (ja) | インターフェース装置およびそれを備えた移動ロボット | |
JP5366048B2 (ja) | 情報提供システム | |
JP4460528B2 (ja) | 識別対象識別装置およびそれを備えたロボット | |
JP4764377B2 (ja) | 移動型ロボット | |
JP4886572B2 (ja) | ロボット | |
JP2008087140A (ja) | 音声認識ロボットおよび音声認識ロボットの制御方法 | |
US20050234729A1 (en) | Mobile unit and method of controlling a mobile unit | |
JP2007264472A (ja) | 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム | |
US20210347386A1 (en) | Information processing apparatus, information processing method, computer program, and package receipt support system | |
JP2008152504A (ja) | 案内ロボット装置及び案内システム | |
KR102463806B1 (ko) | 이동이 가능한 전자 장치 및 그 동작 방법 | |
JP2007249427A (ja) | 情報管理システム | |
KR20200128486A (ko) | 사용자의 위치를 결정하는 인공 지능 장치 및 그 방법 | |
JP2023095918A (ja) | ロボット、ロボットの制御方法及びプログラム | |
US11709065B2 (en) | Information providing device, information providing method, and storage medium | |
JP2017205848A (ja) | サービス提供システム | |
JP7426631B2 (ja) | 無人移動体及び情報処理方法 | |
JP5163202B2 (ja) | 物品推定システム | |
JP5866646B2 (ja) | コミュニケーションシステム、発話内容生成装置、発話内容生成プログラムおよび発話内容生成方法 | |
JP2020021351A (ja) | ロボット、ロボット制御プログラムおよびロボット制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110531 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110610 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4764377 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |