JP2010082714A - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP2010082714A
JP2010082714A JP2008252000A JP2008252000A JP2010082714A JP 2010082714 A JP2010082714 A JP 2010082714A JP 2008252000 A JP2008252000 A JP 2008252000A JP 2008252000 A JP2008252000 A JP 2008252000A JP 2010082714 A JP2010082714 A JP 2010082714A
Authority
JP
Japan
Prior art keywords
arm
joint
user
communication device
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008252000A
Other languages
English (en)
Inventor
Masahito Takuhara
雅人 宅原
Ryota Hiura
亮太 日浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2008252000A priority Critical patent/JP2010082714A/ja
Publication of JP2010082714A publication Critical patent/JP2010082714A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】ユーザに対して、必要なタイミングでタッチパネルへ注目してもらうことを促進する。
【解決手段】コミュニケーションロボット11は、頭部12,胸部13,胴部14,腕部15を有して自立走行する。腕部15にはタッチパネル17を備えている。ユーザに対して、積極的にタッチパネル17を注目してもらうときには、腕部15の向きや形状を制御して、タッチパネル17の表示面をユーザ側に向け、注目を外してもらうときには、腕部15の向きや形状を制御して、タッチパネル17の表示面をユーザから外した方向に収納する。
【選択図】図11

Description

本発明はコミュニケーションロボットに関し、ロボットに備えたコミュニケーションデバイスを通じてロボットとユーザとの間で十分なコミュニケーションが取れるように、コミュニケーションデバイスの存在や使用タイミング等をユーザに対してダイナミック(動的)に且つ直感的に伝えることができるように工夫したものである。
人とコミュニケーションを行うロボットの多くは、音声により人との間でコミュニケーションをとるタイプのものが中心であるが、タッチパネルや表示モニタ等、音声コミュニケーションを補うデバイスを備えているものがある。
これらタッチパネル等のデバイスは、音声認識や表現方法が不十分であることを補うために使われているが、それらデバイスを備えているだけでは、そのデバイスの目的自体や、そのデバイスを使うタイミングを、ユーザ(人間)がわからないことが多い。
例えば、図26に示すように、ロボット01にタッチパネル02を備えていても、「それがタッチパネルであって、ユーザが押すことにより、ロボットに対してコミュニケーションをとることができるデバイスである」こと自体がわからないことがあり、また、そのタッチパネル02をどのタイミングで使えばよいのかが分からないことがある。
特に、タッチパネル等がロボット自体に搭載されておらず、別置きのデバイスとなっているロボットシステムでは、そのデバイスがロボットと連動していること自体が、ユーザには分かりにくい。
その理由は、タッチパネル等のデバイスが常に同じ位置に静止しており、音声や表示内容といった静的な情報だけで、ユーザがそのデバイスを利用するように促しているだけだからである。
特開2006−297531
上述したように、ユーザとの間でコミュニケーションをとるために使用するタッチパネルをロボットシステムに備えていたとしても、従来では、ユーザに対して、タッチパネルの存在を積極的に示したり、タッチパネルを備えている目的(理由)はロボットとコミュニケーションすることであることを理解してもらったり、タッチパネルに注目するように促したり、逆にタッチパネルへの注目を外してもらったり、タッチパネルを操作してもらうタイミングを直感的に分からせるといった、ロボット側からユーザに対してタッチパネルに関する各種の意思をダイナミック(動的)に伝えることはしていなかった。
このため、従来では、タッチパネルを備えていたとしても、ユーザがタッチパネルの存在に気がつかないことや、タッチパネルに対して適切なタイミングや状態で操作できないことがあり、タッチパネルを通じてのユーザとロボットとのコミュニケーションが十分にとれないという問題があった。
上記課題を解決する本発明の構成は、
移動手段を備えた体幹部と、
前記体幹部に備えられており、複数の腕部用関節を腕部用関節駆動機構により駆動することにより向きや形状が変化する腕部と、
前記体幹部に備えられており、首関節を首関節駆動機構により駆動することにより向きが変化する頭部を有するコミュニケーションロボットであって、
前記腕部に備えられた、少なくとも表示機能を有する面形状を成すコミュニケーションデバイスと、
前記腕部用関節の各関節角度を情報として有する腕制御指令を受けると、前記腕部用関節の各関節角度が前記腕制御指令で示す各関節角度となるように、前記腕部用関節駆動機構を駆動制御する腕制御部と、
ユーザに対して前記コミュニケーションデバイスを注目させたいときには、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送ると共に、ユーザに対して前記コミュニケーションデバイスを注目させたくないときには、前記腕部が前記体幹部の側面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面しないような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送るロボット姿勢制御部とを備えたことを特徴とする。
また本発明の構成は、
移動手段を備えた体幹部と、
前記体幹部に備えられており、複数の腕部用関節を腕部用関節駆動機構により駆動することにより向きや形状が変化する腕部と、
前記体幹部に備えられており、首関節を首関節駆動機構により駆動することにより向きが変化する頭部を有するコミュニケーションロボットであって、
前記腕部に備えられた、少なくとも表示機能を有する面形状を成すコミュニケーションデバイスと、
前記腕部用関節の各関節角度を情報として有する腕制御指令を受けると、前記腕部用関節の各関節角度が前記腕制御指令で示す各関節角度となるように、前記腕部用関節駆動機構を駆動制御する腕制御部と、
ユーザに対して前記コミュニケーションデバイスを注目させたいときには、前記腕部が前記体幹部の正面側に位置し且つ前記コミュニケーションデバイスが前記体幹部から離れた位置に位置してその表示面がユーザ側に対面するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送り、ユーザに対して前記コミュニケーションデバイスを注目させたくないときには、前記腕部が前記体幹部の正面側に位置し且つ前記コミュニケーションデバイスが前記体幹部に近い位置に位置してその表示面がユーザ側に対面するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送るロボット姿勢制御部とを備えたことを特徴とする。
また本発明の構成は、
移動手段を備えた体幹部と、
前記体幹部に備えられており、複数の腕部用関節を腕部用関節駆動機構により駆動することにより向きや形状が変化する左右の腕部と、
前記体幹部に備えられており、首関節を首関節駆動機構により駆動することにより向きが変化する頭部を有するコミュニケーションロボットであって、
前記腕部の一方に備えられた、少なくとも表示機能を有する面形状を成すコミュニケーションデバイスと、
前記腕部用関節の各関節角度を情報として有する腕制御指令を受けると、前記腕部用関節の各関節角度が前記腕制御指令で示す各関節角度となるように、前記腕部用関節駆動機構を駆動制御する腕制御部と、
前記腕部の一方が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送り、ユーザに対して前記コミュニケーションデバイスを注目させたいときには、前記腕部の他方が前記コミュニケーションデバイスの表示面を指し示すような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送ると共に、ユーザに対して前記コミュニケーションデバイスを注目させたくないときには、前記腕部の他方が前記コミュニケーションデバイスの表示面から外れた方向を指し示すような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送るロボット姿勢制御部とを備えたことを特徴とする。
また本発明の構成は、
移動手段を備えた体幹部と、
前記体幹部に備えられており、複数の腕部用関節を腕部用関節駆動機構により駆動することにより向きや形状が変化する腕部と、
前記体幹部に備えられており、首関節を首関節駆動機構により駆動することにより向きが変化する頭部を有するコミュニケーションロボットであって、
前記腕部に備えられた、少なくとも表示機能を有する面形状を成すコミュニケーションデバイスと、
前記腕部用関節の各関節角度を情報として有する腕制御指令を受けると、前記腕部用関節の各関節角度が前記腕制御指令で示す各関節角度となるように、前記腕部用関節駆動機構を駆動制御する腕制御部と、
前記首関節の各関節角度を情報として有する首制御指令を受けると、前記首関節の各関節角度が前記首制御指令で示す各関節角度となるように、前記首関節駆動機構を駆動制御する首制御部と、
前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送り、ユーザに対して前記コミュニケーションデバイスを注目させたいときには、前記頭部の正面側である顔部が前記コミュニケーションデバイスの表示面を覗き込むような首関節の各関節角を情報として有する首制御指令を前記首制御部に送ると共に、ユーザに対して前記コミュニケーションデバイスを注目させたくないときには、前記頭部の正面側である顔部が前記コミュニケーションデバイスの表示面を覗き込まないような首関節の各関節角を情報として有する首制御指令を前記首制御部に送るロボット姿勢制御部とを備えたことを特徴とする。
また本発明の構成は、
移動手段を備えた体幹部と、
前記体幹部に備えられており、複数の腕部用関節を腕部用関節駆動機構により駆動することにより向きや形状が変化する腕部と、
前記体幹部に備えられており、首関節を首関節駆動機構により駆動することにより向きが変化する頭部を有するコミュニケーションロボットであって、
前記腕部に備えられた、少なくとも表示機能を有する面形状を成すコミュニケーションデバイスと、
前記腕部用関節の各関節角度を情報として有する腕制御指令を受けると、前記腕部用関節の各関節角度が前記腕制御指令で示す各関節角度となるように、前記腕部用関節駆動機構を駆動制御する腕制御部と、
ユーザを撮影する撮影手段と、
前記撮影手段により撮影した画像を処理することにより、ユーザの顔の目の位置を検出し、検出したユーザの顔の目と前記頭部の正面側である顔部の目の位置とを結ぶ視線を演算により検出する視線検出部と、
ユーザに対して前記コミュニケーションデバイスを注目させたいときには、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面しつつ前記視線に近い位置に位置するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送ると共に、ユーザに対して前記コミュニケーションデバイスを注目させたくないときには、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面しつつ前記視線から離れた位置に位置するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送るロボット姿勢制御部とを備えたことを特徴とする。
また本発明の構成は、前記コミュニケーションロボットにおいて、
前記撮影手段により撮影した画像を処理することにより、ユーザの顔の高さを検出するユーザ高さ検出手段を備え、
前記ロボット姿勢制御手段は、前記ユーザ高さ検出手段により検出したユーザの顔の高さに応じて前記コミュニケーションデバイスの高さ及び角度を調整するように、前記腕制御部に送る腕制御指令を調整し、調整した腕制御指令を前記腕制御部に送ることを特徴とする。
また本発明の構成は、前記コミュニケーションロボットにおいて、
前記ロボット姿勢制御部は、前記コミュニケーションデバイスの表示面の向きを変えるために、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面の向きが予め決めた第1の向きとなるような腕部用関節の各関節角を情報として有する腕制御指令と、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面の向きが第1の向きとは異なる第2の向きとなるような腕部用関節の各関節角を情報として有する腕制御指令を、前記腕制御部に順次送ることを特徴とする。
また本発明の構成は、前記コミュニケーションロボットにおいて、
前記ロボット姿勢制御部は、前記コミュニケーションデバイスの表示面の高さを変えるために、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面の高さが予め決めた第1の高さとなるような腕部用関節の各関節角を情報として有する腕制御指令と、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面の高さが第1の高さとは異なる第2の高さとなるような腕部用関節の各関節角を情報として有する腕制御指令を、前記腕制御部に順次送ることを特徴とする。
また本発明の構成は、前記コミュニケーションロボットにおいて、
前記ロボット姿勢制御部は、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスが横置き配置となるような腕部用関節の各関節角を情報として有する腕制御指令と、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスが縦置き配置となるような腕部用関節の各関節角を情報として有する腕制御指令とを、前記腕制御部に送ることを特徴とする。
また本発明の構成は、前記コミュニケーションロボットにおいて、
前記ロボット姿勢制御部は、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面が水平となるような腕部用関節の各関節角を情報として有する腕制御指令を、前記腕制御部に送ることを特徴とする。
また本発明の構成は、前記コミュニケーションロボットにおいて、
前記コミュニケーションデバイスは、タッチパネルであることを特徴とする。
本発明によれば、ユーザに対してコミュニケーションデバイスを注目させたいときには、コミュニケーションデバイスをユーザに正対させたりユーザに近づけたり、コミュニケーションデバイスの表示面を腕部で指し示したりという、注目を促進させる動作をする。
このため、ユーザはコミュニケーションデバイスの存在を理解し積極的にコミュニケーションデバイスを用いてロボットとのコミュニケーションを図ることができる。
以下に本発明を実施するための最良の形態を、実施例に基づき詳細に説明する。
まず最初に、本実施例のコミュニケーションロボットシステムに導入したコミュニケーションロボット11の概略を、図1を基に説明する。
コミュニケーションロボット11は、頭部12と胸部13と胴部(台車部)14と左右の腕部15を有しており、人間を模した外形となっている。頭部12の正面側は、人間の顔の形状を模擬した顔部になっている。なお、胸部13と胴部14により、コミュニケーションロボット11の体幹部が構成されている
コミュニケーションロボット11は、胴部14に備えた左右の走行車輪16が、図示しない駆動機構により駆動されることにより、走行及び操舵ができるようになっている。
このコミュニケーションロボット11は、一般家庭やビルや工場などを作業空間として、バッテリ駆動により自律的に移動する。
頭部12と胸部13との間の首関節(3軸関節)や、胸部13と腕部15との間の肩関節や、腕部15内の肘関節が、図示しない駆動機構により回動可能となっている。
更に、左側の腕部15の前腕部には、長方形の面形状となっているタッチパネル17を取り付けている。このタッチパネル17が、コミュニケーションデバイスとなっている。
ここで、コミュニケーションロボット11の腕部15に備えた肩関節、肘関節を、図2を基に説明する。
なお、腕部15に備えた肩関節及び肘関節により、腕部用関節が構成されている。
肩関節、即ち、胴部13と、腕部15の上腕の基端部(胴側部)との接続部分は、2軸の関節となっている。肩関節の第1軸は、右肩と左肩を結ぶ軸線周りの回転(α方向の回転)をし、肩関節の第2軸は、上腕の軸線周りの回転(β方向の回転)をすることができるようになっている。
腕部15の上腕と前腕との角度は固定されており、前腕が上腕に対して屈曲することはできない。その代わりに、前腕は、上腕の先端部(肘関節)に対して、前腕の軸線周りの回転(γ方向の回転)をすることができるようになっている。
腕部用関節駆動機構(図4の肩関節駆動機構60、肘関節駆動機構61)により、肩関節及び肘関節を回転駆動することにより、α,β,γ方向の回転をして、左右の腕部15の向きや形状を変化させることができる。したがって、左側の腕部15の向きや形状を変化させると、左側の腕部15に取り付けているタッチパネル17の位置、向き、高さ、などを変化させることができる。
なお、本実施例では、図2に示すような肩関節・肘関節構成になっているが、本発明を適用するロボットの関節構成としては、これに限定するものではない。
図1に戻り説明を続けると、頭部12には、全方位カメラ20と前方カメラ21とマイクロホン22が備えられ、胸部13には、人検知用の超音波センサ23とスピーカ24等の各種のセンサが備えられ、胴部14には、段差検出用の赤外線センサ25や衝突検知用のバンパセンサ26等などの各種のセンサが備えられている。
次に図3を参照して、上記のコミュニケーションロボット11を備えたコミュニケーションロボットシステムを説明する。
このコミュニケーションロボットシステムでは、コミュニケーションロボット11の外部環境空間に、ユーザ1の位置を検出するユーザ位置検出センサ2や、計算機3や、通信機4や、外部のデータベース5を備えている。
計算機3は、ユーザ位置検出センサ2により検出したユーザ1の位置を計算・判定し、判定したユーザ位置は、通信機4を介してデータベース5に送出される。
コミュニケーションロボット11には、通信機40や、腕制御部50や、ロボット制御部100や、全方位カメラ20や前方カメラ21などの各種のセンサが備えられている。
ロボット制御部100は、腕制御部50との間で相互に情報の送受ができると共に、通信機40を介して外部のデータベース5との間でも相互に情報の送受ができる。
またロボット制御部100は、タッチパネル17が表示すべき情報をタッチパネル17に送ると共に、タッチパネル17がタッチされたときのタッチ内容(情報)をタッチパネル17から受け取っている。
次に図4を参照して、コミュニケーションロボット11を備えたコミュニケーションロボットシステムの制御系について説明する。
コミュニケーションロボット11のロボット制御部100には、コマンド発行部101と、ロボット姿勢制御部102と、顔検出部103と、視線検出部104と、ユーザ高さ検出部105と、会話処理部106と、タッチパネル制御部107と、内部のデータベース108などを備えている。
コマンド発行部101は、「姿勢コマンド」や「動作コマンド」を発行(送出)する。
ロボット姿勢制御部102は、腕制御部50に対して腕制御指令(腕部用関節の各関節角度を情報として有する指令)Xを出力する。
腕制御指令Xが出力されると、腕制御部50の制御の下に肩関節駆動機構60や肘関節駆動機構61が駆動して、肩関節の角度α,βや肘関節の角度γが、腕制御指令Xで示される各関節角度に変更されて、腕部15の向きや形状が変化する。このように腕部15の向きや形状が変化することにより、タッチパネル17の位置、向き、高さ、などが変化する。
またロボット姿勢制御部102は、首制御部51に対して首制御指令(首関節の各関節角度を情報として有する指令)Yを出力する。
首制御指令Yが出力されると、首制御部51の制御の下に首関節駆動機構62が駆動して、首関節の各関節角度が、首制御指令Yで示される各関節角度に変更されて、頭部12の向きが変化する。
なおロボット制御部100から走行指令Rが出されると、走行制御部52により走行車輪駆動機構63が駆動して、走行車輪16の走行や操舵が制御される。これにより、コミュニケーションロボット11が自立的に移動することができる。
顔検出部103は、全方位カメラ20により撮影した画像を処理することにより作業空間を認識してユーザ1の存在を認識し、更に、前方カメラ21によりユーザの顔を撮影した画像を処理することにより、ユーザ1の顔の位置(座標)を認識する。顔の検出は、顔検知ソフトウエアを用いて画像中の顔の位置(座標)を検出することにより行う。
視線検出部104は、前方カメラ21によりユーザの顔を撮影した画像を処理することによりユーザ1の顔の目の位置(座標)を検出し、検出したユーザ1の顔の目と、コミュニケーションロボット11の頭部12の正面側である顔部の目とを結ぶ視線を演算により検出する。
ユーザ高さ検出部105は、図5に示すように、前方カメラ21により撮影したユーザ1の顔の大きさから、ユーザ1までの距離dを推定し、コミュニケーションロボット11に備えた前方カメラ12の高さh、首の角度θから、ユーザ1の顔の高さHを次式により算出する。
H=h+dsinθ
会話処理部106は、マイクロホン22により取り込んだ音声や、必要な動作に応じて、スピーカ24から音声を出力する制御をする。
タッチパネル制御部107は、タッチパネル17に所定の表示をしたり、タッチパネル17がタッチされることにより入力された情報を処理する。
内部のデータベース108には各種のデータが記録されている。
このデータベース108には、例えば、ロボット姿勢の制御のためのデータや、ロボット動作のためのデータ等が記録されている。
なお、外部のデータベース5に各種のデータを記録しておき、必要なデータのみを、内部のデータベース108に取り込むようにしてもよい。
ここで、ロボットの姿勢の制御や、ロボットの特定の動作を実現する制御について、その概要を説明しておく。
なお、コミュニケーションロボット11がユーザとコミュニケーションする場合には、コミュニケーションロボット11の正面側とユーザの正面側とが向き合った状態になっていることを前提として以下の説明をする。
なお、コミュニケーションロボット11とユーザとが向き合っていないときには、コミュニケーションロボット11は全方位カメラ20によりユーザの位置を検出し、自立走行してコミュニケーションロボット11の正面側がユーザの正面側に向き合うように移動し、この向き合った状態になってからコミュニケーション動作をする。
先に、ロボットの姿勢の制御について説明する。
コミュニケーションロボット11の姿勢は、腕部15(タッチパネル)や頭部12の姿勢を制御する各関節角度の特定の組み合わせとして表現することができる。
例えば、「タッチパネルを水平にし、右手は下げて、顔を正面に向ける」という姿勢は、各関節1〜Nの角度(θ1〜θN)がそれぞれ特定の値をとる状態として表現することができる。
このような「各関節の角度の特定の組み合わせ」をデータベース108(またはデータベース5)に複数記録しておき、それぞれに「姿勢名」をつけておく。「特定の姿勢を実現するコマンド」は、その姿勢を実現する「各関節角度の特定の組み合わせ」を呼び出し、各関節がその角度となるように制御する仕組みとして実現できる。
図6は、データベース108に記録された姿勢名と、各関節の角度を示す一例である。
このようにデータベース108に姿勢名と関節角度のデータを記録しておけば、図7に示すように、特定の姿勢を実現するコマンドが発行されると、その姿勢に対応する各関節の角度をデータベース108から読み込み、コミュニケーションロボット11の各関節が、読み出した角度となるように制御することにより、コミュニケーションロボット11の姿勢を特定の姿勢にすることができる。
なお、各関節の角度は、事前に記録した固定的な値でもよいが、引数として上位系(例えば外部の計算機3)から値を渡し、事前に記録した値をオーバーライドする仕組みとしておくことで、例えばユーザの身長に応じてタッチパネルの高さを変更することが可能となる。
また、目的角度となるまでの所要時間を制御できるよう、引数として上位系から値を渡して値を設定できる仕組みとすることで、「速く動く」「ゆっくり動く」といった動作速度の違いを実現できる。
次に、ロボットの特定の動作を実現する制御について説明する。
コミュニケーションロボット11に、特定の動作をさせるよう実現するには、複数の姿勢の遷移として実現する。
例えば、「タッチパネルを少し持ち上げる」というのは、タッチパネルが低い位置にある「タッチパネル姿勢1」から、タッチパネルが高い位置にある「タッチパネル姿勢2」へ遷移することで実現できる。
つまり、「タッチパネル姿勢1」を実現するコマンドを発行した後、続いて「タッチパネル姿勢2」を実現するコマンドを発行することで、上記の遷移を実現できる。
そこから更に別の姿勢に遷移したり、また、発話・表示や音声認識といた他のコマンドを組み合わせることで、より複雑な一連の動作を実現できる。
図8は、例えば「タッチパネルの操作を促す」コマンドを示す一例である。
このような、コマンドの発行順や、各コマンドの時間間隔の組み合わせをデータベース108に複数記録しておき、それぞれに「動作名」をつけておく。「特定の動作を実現するコマンド」は、その動作を実現するコマンドを順に呼び出すことで実現できる。
例えば、図9に示すように、特定の動作を実現するコマンドが発行されると、その動作に対応するコマンドの組み合わせをデータベース108から読み込み、各コマンドを順に実行することにより、コミュニケーションロボット11により、特定の動作を実現することができる。
なお、例えばタッチパネル17の高さや、発話の内容については、引数として上位系(例えば外部の計算機3)より受け取り、発行する各コマンドの各引数として利用する仕組みとする。これにより、ユーザの身長に応じてタッチパネルの高さを変更することが可能となる。
次に、ユーザの身長へ対応する制御について説明する。
前方カメラ21によって対応中のユーザ1の顔を撮影し、顔検出部103が顔検出ソフトウエアを用いて画像中の顔の位置(座標)を検出する。
ユーザ高さ検出部105は、画像上の顔の大きさからユーザまでの距離dを推定し、ロボットのカメラ高さh、首の角度θから、ユーザの顔の高さHを次式により算出する(図5参照)。
H=h+dsinθ
なお、ユーザまでの距離dは、例えば天井に設置したカメラを用いる等、別の手段を用いても良い。
ユーザの顔の高さを引数として、「特定の動作を実現するコマンド」を実行する。例えば、「タッチパネルの操作を促す」コマンドでは、タッチパネルの高さをユーザに応じた高さに設定できる。
図10は、上記の処理手順を示すものである。
本実施例では、ロボット姿勢や腕部15の向きや形状を制御することにより、タッチパネル17の位置、向き、高さを変えることができる。そこで、ロボット姿勢や腕部15の向きや形状と、タッチパネル17の状態を異ならせた各種の動作例を、図面と共に説明する。
<第1の動作例>
図11は、腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面する状態である。
このようにタッチパネル17の表示面をユーザ1に向けることにより、ユーザ1がタッチパネル17に注目することを促すことができる。
図12は、腕部15が胴部14の側面側に位置して、タッチパネル17の表示面がユーザ1に対面しないようにした状態であり、この状態を収納状態とする。
このような収納状態にすることにより、ユーザ1がタッチパネル17に注目することを外すことができる。
ここで、図11及び図12に示すようにタッチパネル17の位置,向き,高さを制御する手法を、図4も参照しつつ説明する。
データベース108には、タッチパネル姿勢(図11に示す姿勢)S1及びこのタッチパネル姿勢S1をとることができるようにした腕部用関節の各関節角と、タッチパネル姿勢(図12に示す姿勢)S2及びこのタッチパネル姿勢S2をとることができるようにした腕部用関節の各関節角が、予め記録されている。
コマンド発行部101から、ユーザ1に対してタッチパネル17を注目させたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢(図11に示す姿勢)S1をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X1を腕制御部50に送る。
腕制御部50は、腕制御指令X1を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X1で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置してタッチパネル17の表示面がユーザ側に対面する姿勢となる。
このように、腕部15が胸部13の正面側に位置してタッチパネル17の表示面がユーザ側に対面するため、積極的かつダイナミックにユーザ1をタッチパネル17に注目させることができる。
このため、ユーザ1はタッチパネル17の存在に気がつき、このタッチパネル17を用いてコミュニケーションロボット11とのコミュニケーションをすることができる。つまり、ユーザ1は、タッチパネル17に表示された表示内容を読んだり、タッチパネル17を用いてコミュニケーションロボット11に対して指示を出したりすることができる。
コマンド発行部101から、ユーザ1に対してタッチパネル17を注目させたくないとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢(図12に示す姿勢)S2をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X2を腕制御部50に送る。
腕制御部50は、腕制御指令X2を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X2で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胴部14の側面側に位置してタッチパネル17の表示面がユーザ側に対面しない姿勢、即ち収納状態となる。
このように、腕部15が胴部14の側面側に位置してタッチパネル17の表示面がユーザ側に対面しない姿勢、即ち収納状態となるため、ユーザ1がタッチパネル17に注目することを外すことができる。
このため、ユーザ1は、このような収納状態の時には、このタッチパネル17を用いてコミュニケーションロボット11とのコミュニケーションをする状態やタイミングではないことを知ることができる。
<第2の動作例>
図13は、腕部15が胸部13の正面側に位置して、タッチパネル17が胸部13から離れた位置に位置してその表示面がユーザ1に対面する状態である。つまり、タッチパネル17の表示面が、ユーザ1に近づくように押し出された状態である。
このようにタッチパネル17の表示面をユーザ1に近づけることにより、ユーザ1がタッチパネル17に注目することを促すことができる。
図14は、腕部15が胸部13の正面側に位置して、タッチパネル17が胸部13に近い位置に位置してその表示面がユーザ1に対面する状態である。つまり、タッチパネル17の表示面が、ユーザ1から遠ざかるように引き戻された状態である。
このようにタッチパネル17の表示面をユーザ1から遠ざけることにより、ユーザ1がタッチパネル17に注目することを外すことができる。
ここで、図13及び図14に示すようにタッチパネル17の位置,向き,高さを制御する手法を、図4も参照しつつ説明する。
データベース108には、タッチパネル姿勢(図13に示す姿勢)S3及びこのタッチパネル姿勢S3をとることができるようにした腕部用関節の各関節角と、タッチパネル姿勢(図14に示す姿勢)S4及びこのタッチパネル姿勢S4をとることができるようにした腕部用関節の各関節角が、予め記録されている。
コマンド発行部101から、ユーザ1に対してタッチパネル17を注目させたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢(図13に示す姿勢)S3をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X3を腕制御部50に送る。
腕制御部50は、腕制御指令X3を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X3で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置して、タッチパネル17が胸部13から離れた位置に位置してその表示面がユーザ1に近づくように押し出されて対面する状態となる。
このように、腕部15が胸部13の正面側に位置して、タッチパネル17が胸部13から離れた位置に位置してその表示面がユーザ1に近づくように押し出されて対面するため、積極的かつダイナミックにユーザ1をタッチパネル17に注目させることができる。
このため、ユーザ1はタッチパネル17の存在に気がつき、このタッチパネル17を用いてコミュニケーションロボット11とのコミュニケーションをすることができる。つまり、ユーザ1は、タッチパネル17に表示された表示内容を読んだり、タッチパネル17を用いてコミュニケーションロボット11に対して指示を出したりすることができる。
コマンド発行部101から、ユーザ1に対してタッチパネル17を注目させたくないとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢(図14に示す姿勢)S4をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X4を腕制御部50に送る。
腕制御部50は、腕制御指令X4を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X4で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置して、タッチパネル17が胸部13に近い位置に位置してその表示面がユーザ1から遠ざけるように引き戻される状態となる。
このように、腕部15が胸部13の正面側に位置して、タッチパネル17が胸部13に近い位置に位置してその表示面がユーザ1から遠ざけるように引き戻されるため、ユーザ1がタッチパネル17に注目することを外すことができる。
このため、ユーザ1は、このような状態の時には、このタッチパネル17を用いてコミュニケーションロボット11とのコミュニケーションをする状態やタイミングではないことを知ることができる。
<第3の動作例>
図15は、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面しており、右側の腕部15の先端がタッチパネル17の表示面を指し示す状態である。
このように右側の腕部15の先端がタッチパネル17の表示面を指し示すことにより、ユーザ1がタッチパネル17に注目することを促すことができる。
図16は、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面しており、右側の腕部15の先端がタッチパネル17の表示面から外れた方向を指し示す状態である。
このように右側の腕部15の先端がタッチパネル17の表示面から外れた方向を指し示すことにより、ユーザ1がタッチパネル17に注目することを外すことができる。
ここで、図15及び図16に示すようにタッチパネル17の位置,向き,高さや、右側の腕部15の向きや形状を制御する手法を、図4も参照しつつ説明する。
データベース108には、タッチパネル姿勢(図15に示す姿勢)S5及びこのタッチパネル姿勢S5をとることができるようにした左右の腕部用関節の各関節角と、タッチパネル姿勢(図16に示す姿勢)S6及びこのタッチパネル姿勢S6をとることができるようにした左右の腕部用関節の各関節角が、予め記録されている。
コマンド発行部101から、ユーザ1に対してタッチパネル17を注目させたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢(図15に示す姿勢)S5をとることができるようにした左右の腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X5を腕制御部50に送る。
腕制御部50は、腕制御指令X5を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、左右の肩関節の角度α,βや左右の肘関節の角度γが、腕制御指令X5で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面しており、右側の腕部15の先端がタッチパネル17の表示面を指し示す状態となる。
このように、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面しており、右側の腕部15の先端がタッチパネル17の表示面を指し示すため、積極的かつダイナミックにユーザ1をタッチパネル17に注目させることができる。
このため、ユーザ1はタッチパネル17の存在に気がつき、このタッチパネル17を用いてコミュニケーションロボット11とのコミュニケーションをすることができる。つまり、ユーザ1は、タッチパネル17に表示された表示内容を読んだり、タッチパネル17を用いてコミュニケーションロボット11に対して指示を出したりすることができる。
コマンド発行部101から、ユーザ1に対してタッチパネル17を注目させたくないとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢(図16に示す姿勢)S6をとることができるようにした左右の腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X6を腕制御部50に送る。
腕制御部50は、腕制御指令X6を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、左右の肩関節の角度α,βや左右の肘関節の角度γが、腕制御指令X6で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面しており、右側の腕部15の先端がタッチパネル17の表示面から外れた方向を指し示す状態となる。
このように、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面してはいるが、右側の腕部15の先端がタッチパネル17の表示面から外れた方向を指し示すため、ユーザ1がタッチパネル17に注目することを外すことができる。
このため、ユーザ1は、このような状態の時には、このタッチパネル17を用いてコミュニケーションロボット11とのコミュニケーションをする状態やタイミングではないことを知ることができる。
<第4の動作例>
図17は、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面しており、頭部12の正面側である顔部がタッチパネル17の表示面を覗き込む状態である。
このように頭部12の正面側である顔部がタッチパネル17の表示面を覗き込むことにより、ユーザ1がタッチパネル17に注目することを促すことができる。
図18は、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面しており、頭部12の正面側である顔部がタッチパネル17の表示面を覗き込まない状態である。
このように頭部12の正面側である顔部がタッチパネル17の表示面を覗き込まないことにより、ユーザ1がタッチパネル17に注目することを外すことができる。
ここで、図17及び図18に示すようにタッチパネル17の位置,向き,高さ及び頭部姿勢を制御する手法を、図4も参照しつつ説明する。
データベース108には、タッチパネル姿勢及び頭部姿勢(図17に示す姿勢)S7と、このタッチパネル姿勢及び頭部姿勢S7をとることができるようにした腕部用関節の各関節角及び首関節の各関節角と、タッチパネル姿勢及び頭部姿勢(図18に示す姿勢)S8と、このタッチパネル姿勢及び頭部姿勢S8をとることができるようにした腕部用関節の各関節角及び首関節の各関節角が、予め記録されている。
コマンド発行部101から、ユーザ1に対してタッチパネル17を注目させたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢及び頭部姿勢(図17に示す姿勢)S7をとることができるようにした腕部用関節の各関節角及び首関節の各関節角を読み出し、読み出した腕部用関節の各関節角を情報として有する腕制御指令X7を腕制御部50に送り、読み出した首関節の各関節角を情報として有する首制御指令Y7を首制御部51に送る。
腕制御部50は、腕制御指令X7を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや左右の肘関節の角度γが、腕制御指令X5で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
首制御部70は、首制御指令Y7を受けると、首関節駆動機構62を駆動制御して、首関節の各関節角度が首制御指令Y7で示される各関節角度に変更されて、頭部12の傾きが変化する。
これにより、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面しており、頭部12の正面側である顔部がタッチパネル17の表示面を覗き込む状態となる。
このように、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面しており、頭部12の正面側である顔部がタッチパネル17の表示面を覗き込むため、積極的かつダイナミックにユーザ1をタッチパネル17に注目させることができる。
このため、ユーザ1はタッチパネル17の存在に気がつき、このタッチパネル17を用いてコミュニケーションロボット11とのコミュニケーションをすることができる。つまり、ユーザ1は、タッチパネル17に表示された表示内容を読んだり、タッチパネル17を用いてコミュニケーションロボット11に対して指示を出したりすることができる。
コマンド発行部101から、ユーザ1に対してタッチパネル17を注目させたくないとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢及び頭部姿勢(図18に示す姿勢)S8をとることができるようにした腕部用関節の各関節角及び各首関節の関節角を読み出し、読み出した腕部用関節の各関節角を情報として有する腕制御指令X8を腕制御部50に送り、読み出した首関節の各関節角を情報として有する首制御指令Y8を首制御部51に送る。
腕制御部50は、腕制御指令X8を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや左右の肘関節の角度γが、腕制御指令X5で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
首制御部70は、首制御指令Y8を受けると、首関節駆動機構62を駆動制御して、首関節の各関節角度が首制御指令Y8で示される各関節角度に変更されて、頭部12の傾きが変化する。
これにより、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面しており、頭部12の正面側である顔部がタッチパネル17の表示面を覗き込まない状態となる。
このように、左側の腕部15が胸部13の正面側に位置して、タッチパネル17の表示面がユーザ1に対面してはいるが、頭部12の正面側である顔部がタッチパネル17の表示面を覗き込まない状態となるため、ユーザ1がタッチパネル17に注目することを外すことができる。
このため、ユーザ1は、このような状態の時には、このタッチパネル17を用いてコミュニケーションロボット11とのコミュニケーションをする状態やタイミングではないことを知ることができる。
<第5の動作例>
図19は、腕部15が胸部13の正面側に位置して、タッチパネル17が胸部13の正面側に位置して、その表示面がユーザ1に対面しつつ視線Lに近づけた状態である。
視線Lは、ユーザ1の顔の目と、コミュニケーションロボット1の顔部の目とを結ぶラインであり、視線Lは前述した視線検出部104により演算して求めたものである。
このようにタッチパネル17の表示面を視線Lに近づけることにより、ユーザ1がタッチパネル17に注目することを促すことができる。
図20は、腕部15が胸部13の正面側に位置して、タッチパネル17が胸部13の正面側に位置して、その表示面がユーザ1に対面しつつ視線Lから離した状態である。
このようにタッチパネル17の表示面を視線Lから離すことにより、ユーザ1がタッチパネル17に注目することを外すことができる。
ここで、図19及び図20に示すようにタッチパネル17の位置,向き,高さを制御する手法を、図4も参照しつつ説明する。
データベース108には、タッチパネル姿勢(図19に示す姿勢)S9及びこのタッチパネル姿勢S9をとることができるようにした腕部用関節の各関節角と、タッチパネル姿勢(図20に示す姿勢)S10及びこのタッチパネル姿勢S10をとることができるようにした腕部用関節の各関節角が、予め記録されている。
つまり、視線検出部104により演算して求めた視線Lを演算し、この視線Lの位置を考慮した、タッチパネル姿勢S9,S10を演算して、このタッチパネル姿勢S9,S10をとることができるようにした腕部用関節の各関節角をデータベース108に記録するのである。
なおタッチパネル姿勢(図19に示す姿勢)S9としては、タッチパネル17の表示面が、視線Lに近づいた状態であったり、視線Lを中心とする一定範囲のエリアに入る状態であったりしてもよい。
コマンド発行部101から、ユーザ1に対してタッチパネル17を注目させたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢(図19に示す姿勢)S9をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X9を腕制御部50に送る。
腕制御部50は、腕制御指令X9を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X9で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置して、タッチパネル17が胸部13の正面側に位置して、その表示面がユーザ1に対面しつつ視線Lに近づく状態となる。
このように、タッチパネル17が視線Lに近づく位置に位置するため、積極的かつダイナミックにユーザ1をタッチパネル17に注目させることができる。
このため、ユーザ1はタッチパネル17の存在に気がつき、このタッチパネル17を用いてコミュニケーションロボット11とのコミュニケーションをすることができる。つまり、ユーザ1は、タッチパネル17に表示された表示内容を読んだり、タッチパネル17を用いてコミュニケーションロボット11に対して指示を出したりすることができる。
コマンド発行部101から、ユーザ1に対してタッチパネル17を注目させたくないとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢(図20に示す姿勢)S10をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X10を腕制御部50に送る。
腕制御部50は、腕制御指令X10を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X10で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置して、タッチパネル17が胸部13の正面側に位置して、その表示面がユーザ1に対面しつつ視線Lから離した状態となる。
このように、タッチパネル17が視線Lから離れた位置に位置するため、ユーザ1がタッチパネル17に注目することを外すことができる。
このため、ユーザ1は、このような状態の時には、このタッチパネル17を用いてコミュニケーションロボット11とのコミュニケーションをする状態やタイミングではないことを知ることができる。
<第6の動作例>
第6の動作例では、ユーザ高さ検出部105により、ユーザ1の顔の高さHを予め算出する。
そして、前述した第1〜第5の動作例において、ユーザ1に対してタッチパネル17を注目させるため、ロボット姿勢制御部102が、姿勢S1,S3,S5,S7,S9をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X1,X3,X5,X7,X9を求める際に、高さHが高いときにはタッチパネル17の高さを高くしつつタッチパネル17の表示面がユーザ1に対面し、高さHが低いときにはタッチパネル17の高さを低くしつつタッチパネル17の表示面がユーザ1に対面するようなデータ調整をして、腕制御指令X1,X3,X5,X7,X9を求める。
このように、ユーザ1の高さHに応じてデータ調整した腕制御指令X1,X3,X5,X7,X9を出力することにより、ユーザ1の高さHが異なっていても、タッチパネル17の高さや向きが高さHに応じて最適に調整されて、ユーザ1がタッチパネル17に注目することをより効果的に促すことができる。
<第7の動作例>
第7の動作例では、腕部15が胸部13の正面側に位置しつつ、タッチパネル17の表示面の向きを上下に変える動作である。
ここで、図21に示すように、タッチパネル17の向きを上下に変える制御をする手法を、図4も参照しつつ説明する。
データベース108には、タッチパネル17の表示面の向きが下向きとなったタッチパネル姿勢S11及びこのタッチパネル姿勢S11をとることができるようにした腕部用関節の各関節角と、タッチパネル17の表示面の向きが上向きとなったタッチパネル姿勢S12及びこのタッチパネル姿勢S12をとることができるようにした腕部用関節の各関節角が、予め記録されている。
コマンド発行部101から、タッチパネル17の表示面の向きを下向きに変化させたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢S11をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X11を腕制御部50に送る。
腕制御部50は、腕制御指令X11を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X11で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置して、タッチパネル17の表示面の向きが下向きになった状態になる。
コマンド発行部101から、タッチパネル17の表示面の向きを上向きに変化させたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢S12をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X12を腕制御部50に送る。
腕制御部50は、腕制御指令X12を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X12で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置して、タッチパネル17の表示面の向きが上向きになった状態になる。
また、腕制御指令X11と腕制御指令X12を交互に順次出力すると、タッチパネル17の表示面の向きが、連続的に上向から下向きに、下向きから上向きにと、連続的に切り替わる。
<第8の動作例>
第8の動作例では、腕部15が胸部13の正面側に位置しつつ、タッチパネル17の表示面の高さを上下に変える動作である。
ここで、図22に示すように、タッチパネル17の高さを上下に変える制御をする手法を、図4も参照しつつ説明する。
データベース108には、タッチパネル17の表示面の高さが低くなったタッチパネル姿勢S13及びこのタッチパネル姿勢S13をとることができるようにした腕部用関節の各関節角と、タッチパネル17の表示面の高さが高くなったタッチパネル姿勢S14及びこのタッチパネル姿勢S14をとることができるようにした腕部用関節の各関節角が、予め記録されている。
コマンド発行部101から、タッチパネル17の表示面の高さを低くさせたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢S13をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X13を腕制御部50に送る。
腕制御部50は、腕制御指令X13を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X13で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置して、タッチパネル17の表示面の高さが低くなった状態になる。
コマンド発行部101から、タッチパネル17の表示面の高さを高くさせたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢S14をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X14を腕制御部50に送る。
腕制御部50は、腕制御指令X14を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X14で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置して、タッチパネル17の表示面の高さが高くなった状態になる。
また、腕制御指令X13と腕制御指令X14を交互に順次出力すると、タッチパネル17の表示面の高さが、連続的に上方位置から下方位置に、下方位置から上方位置にと、連続的に切り替わる。
<第9の動作例>
第9の動作例では、腕部15が胸部13の正面側に位置しつつ、タッチパネル17を横置き配置にしたり、縦置き配置にしたりする動作である。
ここで、図23に示すようにタッチパネル17を横置き配置にしたり、図24に示すように縦置き配置にしたりする制御手法を、図4も参照しつつ説明する。
データベース108には、タッチパネル17を横置き配置にするタッチパネル姿勢(図23に示す姿勢)S15及びこのタッチパネル姿勢S15をとることができるようにした腕部用関節の各関節角と、タッチパネル17を縦置き配置するタッチパネル姿勢(図24に示す姿勢)S16及びこのタッチパネル姿勢S16をとることができるようにした腕部用関節の各関節角が、予め記録されている。
コマンド発行部101から、タッチパネル17を横置き配置させたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢S15をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X15を腕制御部50に送る。
腕制御部50は、腕制御指令X15を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X13で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置して、タッチパネル17を横置配置した状態になる。
コマンド発行部101から、タッチパネル17を縦置き配置させたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢S16をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X16を腕制御部50に送る。
腕制御部50は、腕制御指令X16を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X16で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置して、タッチパネル17を縦置き配置した状態になる。
このようにタッチパネル17を縦置き配置して上方に掲げるようにすれば、遠くのユーザ1に対して、タッチパネル17の表示面を示すことができる。
<第10の動作例>
第10の動作例では、腕部15が胸部13の正面側に位置しつつ、タッチパネル17の表示面を水平にする動作である。
ここで、図25に示すようにタッチパネル17の表示面を水平にする制御手法を、図4も参照しつつ説明する。
データベース108には、タッチパネル17の表示面を水平にするタッチパネル姿勢(図25に示す姿勢)S17及びこのタッチパネル姿勢S17をとることができるようにした腕部用関節の各関節角が、予め記録されている。
コマンド発行部101から、タッチパネル17の表示面を水平にしたいとするコマンドが発行されたら、ロボット姿勢制御部102は、データベース108からタッチパネル姿勢S17をとることができるようにした腕部用関節の各関節角を読み出し、この読み出した腕部用関節の各関節角を情報として有する腕制御指令X17を腕制御部50に送る。
腕制御部50は、腕制御指令X17を受けると、腕関節駆動機構60及び肘関節駆動機構61を駆動制御して、肩関節の角度α,βや肘関節の角度γが、腕制御指令X17で示される各関節角度に変更されて、腕部15の向きや形状が変化する。
これにより、腕部15が胸部13の正面側に位置して、タッチパネル17の表示面を水平にすることができる。
このようにタッチパネル17の表示面を水平にすれば、このタッチパネル17の上に分ピンを乗せて搬送することもできる。
なおタッチパネル17の代わりに、面状のトレイを腕部15に備えるようにしてもよい。
<第11の動作例>
第11の動作例では、コマンド発行部101が各種のコマンドを発行するタイミングを、発話のタイミング(発話の開始や、発話の終了)に合わせて行ったり、タッチパネル17に情報を表示するタイミング(表示の開始や、表示の終了)に合わせて行なったりする。
コミュニケーションロボットを示す正面図。 コミュニケーションロボットの腕部用関節を示す斜視図。 コミュニケーションロボットシステムを示す構成図。 コミュニケーションロボットシステムの制御系を示すブロック構成図。 ユーザ高さの検出手法を示す説明図。 データベースに記録したデータを示す説明図。 特定の姿勢を実現する制御手法を示す説明図。 データベースに記録したデータを示す説明図。 特定の動作を実現する制御手法を示す説明図。 ユーザ高さに応じた処理を示す説明図。 ロボットの第1の動作を示す説明図。 ロボットの第1の動作を示す説明図。 ロボットの第2の動作を示す説明図。 ロボットの第2の動作を示す説明図。 ロボットの第3の動作を示す説明図。 ロボットの第3の動作を示す説明図。 ロボットの第4の動作を示す説明図。 ロボットの第4の動作を示す説明図。 ロボットの第5の動作を示す説明図。 ロボットの第5の動作を示す説明図。 ロボットの第7の動作を示す説明図。 ロボットの第8の動作を示す説明図。 ロボットの第9の動作を示す説明図。 ロボットの第9の動作を示す説明図。 ロボットの第10の動作を示す説明図。 従来のロボットを示す斜視図。
符号の説明
1 ユーザ
2 ユーザ位置検出センサ
3 計算機
4 通信機
5 データベース
11 コミュニケーションロボット
12 頭部
13 胸部
14 胴部
15 腕部
16 走行車輪
17 タッチパネル
20 全方位カメラ
21 前方カメラ
22 マイクロホン
23 超音波センサ
24 スピーカ
25 赤外線センサ
26 パンパセンサ
40 通信機
50 腕制御部
51 首制御部
52 走行制御部
60 肩関節駆動機構
61 肘関節駆動機構
62 首関節駆動機構
63 走行車輪駆動機構
100 ロボット制御部
101 コマンド発行部
102 ロボット姿勢制御部
103 顔検出部
104 視線検出部
105 ユーザ高さ検出部
106 会話処理部
107 タッチパネル制御部
108 データベース
X 腕制御指令
Y 首制御指令
R 走行指令
L 視線

Claims (11)

  1. 移動手段を備えた体幹部と、
    前記体幹部に備えられており、複数の腕部用関節を腕部用関節駆動機構により駆動することにより向きや形状が変化する腕部と、
    前記体幹部に備えられており、首関節を首関節駆動機構により駆動することにより向きが変化する頭部を有するコミュニケーションロボットであって、
    前記腕部に備えられた、少なくとも表示機能を有する面形状を成すコミュニケーションデバイスと、
    前記腕部用関節の各関節角度を情報として有する腕制御指令を受けると、前記腕部用関節の各関節角度が前記腕制御指令で示す各関節角度となるように、前記腕部用関節駆動機構を駆動制御する腕制御部と、
    ユーザに対して前記コミュニケーションデバイスを注目させたいときには、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送ると共に、ユーザに対して前記コミュニケーションデバイスを注目させたくないときには、前記腕部が前記体幹部の側面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面しないような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送るロボット姿勢制御部と、
    を備えたことを特徴とするコミュニケーションロボット。
  2. 移動手段を備えた体幹部と、
    前記体幹部に備えられており、複数の腕部用関節を腕部用関節駆動機構により駆動することにより向きや形状が変化する腕部と、
    前記体幹部に備えられており、首関節を首関節駆動機構により駆動することにより向きが変化する頭部を有するコミュニケーションロボットであって、
    前記腕部に備えられた、少なくとも表示機能を有する面形状を成すコミュニケーションデバイスと、
    前記腕部用関節の各関節角度を情報として有する腕制御指令を受けると、前記腕部用関節の各関節角度が前記腕制御指令で示す各関節角度となるように、前記腕部用関節駆動機構を駆動制御する腕制御部と、
    ユーザに対して前記コミュニケーションデバイスを注目させたいときには、前記腕部が前記体幹部の正面側に位置し且つ前記コミュニケーションデバイスが前記体幹部から離れた位置に位置してその表示面がユーザ側に対面するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送り、ユーザに対して前記コミュニケーションデバイスを注目させたくないときには、前記腕部が前記体幹部の正面側に位置し且つ前記コミュニケーションデバイスが前記体幹部に近い位置に位置してその表示面がユーザ側に対面するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送るロボット姿勢制御部と、
    を備えたことを特徴とするコミュニケーションロボット。
  3. 移動手段を備えた体幹部と、
    前記体幹部に備えられており、複数の腕部用関節を腕部用関節駆動機構により駆動することにより向きや形状が変化する左右の腕部と、
    前記体幹部に備えられており、首関節を首関節駆動機構により駆動することにより向きが変化する頭部を有するコミュニケーションロボットであって、
    前記腕部の一方に備えられた、少なくとも表示機能を有する面形状を成すコミュニケーションデバイスと、
    前記腕部用関節の各関節角度を情報として有する腕制御指令を受けると、前記腕部用関節の各関節角度が前記腕制御指令で示す各関節角度となるように、前記腕部用関節駆動機構を駆動制御する腕制御部と、
    前記腕部の一方が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送り、ユーザに対して前記コミュニケーションデバイスを注目させたいときには、前記腕部の他方が前記コミュニケーションデバイスの表示面を指し示すような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送ると共に、ユーザに対して前記コミュニケーションデバイスを注目させたくないときには、前記腕部の他方が前記コミュニケーションデバイスの表示面から外れた方向を指し示すような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送るロボット姿勢制御部と、
    を備えたことを特徴とするコミュニケーションロボット。
  4. 移動手段を備えた体幹部と、
    前記体幹部に備えられており、複数の腕部用関節を腕部用関節駆動機構により駆動することにより向きや形状が変化する腕部と、
    前記体幹部に備えられており、首関節を首関節駆動機構により駆動することにより向きが変化する頭部を有するコミュニケーションロボットであって、
    前記腕部に備えられた、少なくとも表示機能を有する面形状を成すコミュニケーションデバイスと、
    前記腕部用関節の各関節角度を情報として有する腕制御指令を受けると、前記腕部用関節の各関節角度が前記腕制御指令で示す各関節角度となるように、前記腕部用関節駆動機構を駆動制御する腕制御部と、
    前記首関節の各関節角度を情報として有する首制御指令を受けると、前記首関節の各関節角度が前記首制御指令で示す各関節角度となるように、前記首関節駆動機構を駆動制御する首制御部と、
    前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送り、ユーザに対して前記コミュニケーションデバイスを注目させたいときには、前記頭部の正面側である顔部が前記コミュニケーションデバイスの表示面を覗き込むような首関節の各関節角を情報として有する首制御指令を前記首制御部に送ると共に、ユーザに対して前記コミュニケーションデバイスを注目させたくないときには、前記頭部の正面側である顔部が前記コミュニケーションデバイスの表示面を覗き込まないような首関節の各関節角を情報として有する首制御指令を前記首制御部に送るロボット姿勢制御部と、
    を備えたことを特徴とするコミュニケーションロボット。
  5. 移動手段を備えた体幹部と、
    前記体幹部に備えられており、複数の腕部用関節を腕部用関節駆動機構により駆動することにより向きや形状が変化する腕部と、
    前記体幹部に備えられており、首関節を首関節駆動機構により駆動することにより向きが変化する頭部を有するコミュニケーションロボットであって、
    前記腕部に備えられた、少なくとも表示機能を有する面形状を成すコミュニケーションデバイスと、
    前記腕部用関節の各関節角度を情報として有する腕制御指令を受けると、前記腕部用関節の各関節角度が前記腕制御指令で示す各関節角度となるように、前記腕部用関節駆動機構を駆動制御する腕制御部と、
    ユーザを撮影する撮影手段と、
    前記撮影手段により撮影した画像を処理することにより、ユーザの顔の目の位置を検出し、検出したユーザの顔の目と前記頭部の正面側である顔部の目の位置とを結ぶ視線を演算により検出する視線検出部と、
    ユーザに対して前記コミュニケーションデバイスを注目させたいときには、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面しつつ前記視線に近い位置に位置するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送ると共に、ユーザに対して前記コミュニケーションデバイスを注目させたくないときには、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面がユーザ側に対面しつつ前記視線から離れた位置に位置するような腕部用関節の各関節角を情報として有する腕制御指令を前記腕制御部に送るロボット姿勢制御部と、
    を備えたことを特徴とするコミュニケーションロボット。
  6. 請求項1乃至請求項5の何れか一項のコミュニケーションロボットにおいて、
    前記撮影手段により撮影した画像を処理することにより、ユーザの顔の高さを検出するユーザ高さ検出手段を備え、
    前記ロボット姿勢制御手段は、前記ユーザ高さ検出手段により検出したユーザの顔の高さに応じて前記コミュニケーションデバイスの高さ及び角度を調整するように、前記腕制御部に送る腕制御指令を調整し、調整した腕制御指令を前記腕制御部に送ることを特徴とするコミュニケーションロボット。
  7. 請求項1乃至請求項5の何れか一項のコミュニケーションロボットにおいて、
    前記ロボット姿勢制御部は、前記コミュニケーションデバイスの表示面の向きを変えるために、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面の向きが予め決めた第1の向きとなるような腕部用関節の各関節角を情報として有する腕制御指令と、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面の向きが第1の向きとは異なる第2の向きとなるような腕部用関節の各関節角を情報として有する腕制御指令を、前記腕制御部に順次送ることを特徴とするコミュニケーションロボット。
  8. 請求項1乃至請求項5の何れか一項のコミュニケーションロボットにおいて、
    前記ロボット姿勢制御部は、前記コミュニケーションデバイスの表示面の高さを変えるために、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面の高さが予め決めた第1の高さとなるような腕部用関節の各関節角を情報として有する腕制御指令と、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面の高さが第1の高さとは異なる第2の高さとなるような腕部用関節の各関節角を情報として有する腕制御指令を、前記腕制御部に順次送ることを特徴とするコミュニケーションロボット。
  9. 請求項1乃至請求項5の何れか一項のコミュニケーションロボットにおいて、
    前記ロボット姿勢制御部は、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスが横置き配置となるような腕部用関節の各関節角を情報として有する腕制御指令と、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスが縦置き配置となるような腕部用関節の各関節角を情報として有する腕制御指令とを、前記腕制御部に送ることを特徴とするコミュニケーションロボット。
  10. 請求項1乃至請求項5の何れか一項のコミュニケーションロボットにおいて、
    前記ロボット姿勢制御部は、前記腕部が前記体幹部の正面側に位置して前記コミュニケーションデバイスの表示面が水平となるような腕部用関節の各関節角を情報として有する腕制御指令を、前記腕制御部に送ることを特徴とするコミュニケーションロボット。
  11. 請求項1乃至請求項5の何れか一項のコミュニケーションロボットにおいて、
    前記コミュニケーションデバイスは、タッチパネルであることを特徴とするコミュニケーションロボット。
JP2008252000A 2008-09-30 2008-09-30 コミュニケーションロボット Withdrawn JP2010082714A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008252000A JP2010082714A (ja) 2008-09-30 2008-09-30 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008252000A JP2010082714A (ja) 2008-09-30 2008-09-30 コミュニケーションロボット

Publications (1)

Publication Number Publication Date
JP2010082714A true JP2010082714A (ja) 2010-04-15

Family

ID=42247185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008252000A Withdrawn JP2010082714A (ja) 2008-09-30 2008-09-30 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP2010082714A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013114493A1 (ja) * 2012-02-03 2013-08-08 日本電気株式会社 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム
KR20150105246A (ko) * 2014-03-07 2015-09-16 지멘스 악티엔게젤샤프트 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템
JP2017087411A (ja) * 2015-11-11 2017-05-25 グローリー株式会社 操作ガイダンスシステム、及び、ロボット
JP2017516674A (ja) * 2014-06-05 2017-06-22 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 衝突検出
JP2019084628A (ja) * 2017-11-07 2019-06-06 富士ゼロックス株式会社 自律移動ロボット
WO2021075118A1 (ja) * 2019-10-15 2021-04-22 ソニー株式会社 画像表示装置
WO2022044819A1 (ja) * 2020-08-25 2022-03-03 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9662788B2 (en) 2012-02-03 2017-05-30 Nec Corporation Communication draw-in system, communication draw-in method, and communication draw-in program
CN104093527A (zh) * 2012-02-03 2014-10-08 日本电气株式会社 通信引入系统、通信引入方法和通信引入程序
JPWO2013114493A1 (ja) * 2012-02-03 2015-05-11 日本電気株式会社 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム
WO2013114493A1 (ja) * 2012-02-03 2013-08-08 日本電気株式会社 コミュニケーション引き込みシステム、コミュニケーション引き込み方法およびコミュニケーション引き込みプログラム
KR20150105246A (ko) * 2014-03-07 2015-09-16 지멘스 악티엔게젤샤프트 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템
JP2015167863A (ja) * 2014-03-07 2015-09-28 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft アシスタント装置と医療機器および/またはオペレータおよび/または患者との間のインタラクション方法、アシスタント装置、アシスタントシステム、ユニットおよびシステム
US9927966B2 (en) 2014-03-07 2018-03-27 Siemens Aktiengesellschaft Method for enabling an interaction between an assistance device and a medical apparatus and/or an operator and/or a patient, assistance device, assistance system, unit, and system
KR102027020B1 (ko) * 2014-03-07 2019-09-30 지멘스 악티엔게젤샤프트 보조 장치와 의료 기기 및/또는 조작자 및/또는 환자 간의 상호작용 방법, 보조 장치, 보조 시스템, 유닛 및 시스템
JP2017516674A (ja) * 2014-06-05 2017-06-22 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 衝突検出
JP2017087411A (ja) * 2015-11-11 2017-05-25 グローリー株式会社 操作ガイダンスシステム、及び、ロボット
JP2019084628A (ja) * 2017-11-07 2019-06-06 富士ゼロックス株式会社 自律移動ロボット
WO2021075118A1 (ja) * 2019-10-15 2021-04-22 ソニー株式会社 画像表示装置
WO2022044819A1 (ja) * 2020-08-25 2022-03-03 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Similar Documents

Publication Publication Date Title
JP2010082714A (ja) コミュニケーションロボット
US10384348B2 (en) Robot apparatus, method for controlling the same, and computer program
US9873200B2 (en) Personal robot
US9481087B2 (en) Robot and control method thereof
WO2017033367A1 (ja) 遠隔操作ロボットシステム
JP5429462B2 (ja) コミュニケーションロボット
US20020198626A1 (en) Communication robot
JP2006297531A (ja) サービスロボット
JP4386367B2 (ja) コミュニケーションロボット改良システム
JP2007190641A (ja) コミュニケーションロボット
CN102902271A (zh) 基于双目视觉的机器人目标识别与抓取系统及方法
JPWO2007132571A1 (ja) ロボット
TW201914785A (zh) 機器人語音操控系統及方法
JP6850183B2 (ja) ロボットシステム及びその運転方法
KR20130060952A (ko) 서비스로봇 원격제어 시스템
JP5145569B2 (ja) 対象物特定方法および装置
JP4962940B2 (ja) 道案内システム
JP2006272471A (ja) コミュニケーションロボット
JP2015066624A (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP6134894B2 (ja) ロボット制御システムおよびロボット
JP7047726B2 (ja) 把持ロボットおよび把持ロボットの制御プログラム
JP2007130691A (ja) コミュニケーションロボット
JP2003251581A (ja) ロボット装置およびロボット遠隔操作システム
JP5510599B2 (ja) 案内用ロボット
JP2020032320A (ja) 解体システム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111206