JP2011200970A - 自律移動装置および作業決定方法 - Google Patents

自律移動装置および作業決定方法 Download PDF

Info

Publication number
JP2011200970A
JP2011200970A JP2010070260A JP2010070260A JP2011200970A JP 2011200970 A JP2011200970 A JP 2011200970A JP 2010070260 A JP2010070260 A JP 2010070260A JP 2010070260 A JP2010070260 A JP 2010070260A JP 2011200970 A JP2011200970 A JP 2011200970A
Authority
JP
Japan
Prior art keywords
unit
work
user
identified
autonomous mobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010070260A
Other languages
English (en)
Inventor
Atsushi Miyamoto
敦史 宮本
Satoru Shimizu
悟 清水
Wataru Kokubo
亘 小久保
Masakuni Nagano
雅邦 永野
Hirokazu Shirato
寛和 白土
Yoshiaki Iwai
嘉昭 岩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010070260A priority Critical patent/JP2011200970A/ja
Publication of JP2011200970A publication Critical patent/JP2011200970A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】ユーザから提示された物体を認識し、当該物体を用いて実行する作業内容を決定することが可能な自律移動装置を提供する。
【解決手段】本発明の自律移動装置は、所定の作業を行うために動作する動作部と、ユーザからの指示に基づいて、実行する作業を決定する作業決定部と、作業決定部により決定された作業内容に基づいて、動作部の動きを制御する制御部と、を備える。作業決定部は、ユーザから提示された物体を識別するための物体情報を取得する情報取得部と、情報取得部により取得された物体情報に基づいて、物体を識別する物体識別部と、物体と、当該物体を使用して行う作業内容とを関連付けて記憶する作業記憶部と、物体識別部により識別された物体に基づいて、作業記憶部から識別された物体を用いて行う作業内容を決定する決定部と、を備える。
【選択図】図3

Description

本発明は、自律移動装置および作業決定方法に関し、より詳細には、様々な作業を実行可能な自律移動装置および当該自律移動装置によって実行する作業を決定する作業決定方法に関する。
近年、自律的に移動し、様々な作業を行うロボットが実現されつつある。このようなロボットに対して、ユーザの所望する作業を理解させ、かつ実行させるため、従来から、ユーザの音声による作業内容の指示や入力装置を用いた作業内容の指示が行われている。しかし、音声を利用する場合においては、音声認識技術の技術的困難さから、音声のみで複雑な作業内容を指示することは現状では難しい。
一方、キーボード等の入力装置を利用する場合は、作業内容に対応付けられた作業ID等を入力することで容易に作業内容を指示することが可能である。しかし、このような作業内容の指示方法は、あまり直感的ではなく、ユーザとロボットとのインタラクションに不自然さが残るため、ユーザにとっては入力負荷が大きい。近年では、タッチパネル等のように優れたユーザインタフェースを有する入力装置もあり、ユーザの入力負荷が軽減されてきたものの、ロボットとのさらに自然なインタラクションが望まれている。
ところで、ユーザの指示に応じて作業するロボットの動作決定方法についても様々な提案がなされている。例えば、特許文献1には、無線タグ等を用いて対象物体を検知し、それに対応した物体特性データベースからのパラメータを用いてロボットアームを制御する制御装置が開示されている。また、特許文献2には、物体の把持する位置が記録された無線タグを対象物体に張り付けて、その無線タグの情報を読み取ることにより物体の把持や操作を行うマニピュレータが開示されている。
さらに、特許文献3には、対象物体の形状を記憶する形状データベースを備え、物体の把持・運搬後、設置時の姿勢などを形状データベースに記憶されている情報を基に決定する物体管理・移動運搬ロボットが開示されている。また、特許文献4には、カメラにより撮像された画像に基づいて、対象物体およびこれに対する作業内容をユーザに選択させた後、指定された物体モデルおよび作業モデルから、実空間で作業するための制御情報を生成する作業教示システムが開示されている。
特許第4056080号公報 特開2004−90099号公報 特許第3738354号公報 特開2008−68348号公報
しかし、上記特許文献1は、人間とロボットとが接触している場合に、人間に対してダメージを与えることなく、把持する物体を確実に搬送するという、人間との接触時の安全性の確保を目的とするものである。また、特許文献2は、無線タグに記録された情報は物体の操作点の定量的情報であって、かかる情報は物体操作を容易に行うことができるようにするために用いられるものである。これらの発明では、物体を安定して保持するための指示を行うことはできるが、その物体を用いた作業を指示することはできなかった。
また、特許文献3は、物品を指定された位置に適切な状態で設置させる運搬タスクを実行するロボットの発明であり、ユーザから提示された物体を用いて作業を行うものではなかった。そして、特許文献4では、物体に対する作業を指示することができるものの、対象物体の推定およびこれを用いた作業内容の推定の技術的困難さから、これをユーザに委ねている。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザから提示された物体を認識し、当該物体を用いて実行する作業内容を決定することが可能な、新規かつ改良された自律移動装置および作業決定方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、所定の作業を行うために動作する動作部と、ユーザからの指示に基づいて、実行する作業を決定する作業決定部と、作業決定部により決定された作業内容に基づいて、動作部の動きを制御する制御部と、を備え、作業決定部は、ユーザから提示された物体を識別するための物体情報を取得する情報取得部と、情報取得部により取得された物体情報に基づいて、物体を識別する物体識別部と、物体と、当該物体を使用して行う作業内容とを関連付けて記憶する作業記憶部と、物体識別部により識別された物体に基づいて、作業記憶部から識別された物体を用いて行う作業内容を決定する決定部と、を備える、自律移動装置が提供される。
情報取得部は、画像を取得する撮像手段であるとき、自律移動装置は、撮像手段により撮像された物体の画像から画像特徴量を抽出する画像特徴量抽出部と、予め物体の画像から抽出した画像特徴量を記憶する画像特徴量記憶部と、をさらに備えてもよい。このとき、物体識別部は、画像特徴量抽出部により抽出された画像特徴量と、画像特徴量記憶部に記憶された画像特徴量とを比較して、ユーザから提示された物体を識別するようにしてもよい。
自律移動装置は、撮像手段により撮像された画像に基づいて、ユーザの動作または当該ユーザにより提示された物体の動きのうち少なくともいずれか一方を認識結果として認識する動作認識部をさらに備えることもできる。このとき、決定部は、物体識別部により識別された物体と、動作認識部による認識結果とに基づいて、識別された物体に対応する作業内容を決定する。
作業記憶部に、物体識別部により識別された物体を用いて行う作業内容が複数記憶されているとき、決定部は、動作認識部による認識結果に基づいて、識別された物体を用いて行う作業内容を決定してもよい。
また、作業記憶部に、物体識別部により識別された物体を用いて行う作業内容が1つ記憶されており、かつ、動作認識部によりユーザの動作または物体の動きのうち少なくともいずれか一方が認識結果として認識されているとき、決定部は、物体識別部により識別された物体を用いて行う作業内容を、動作認識部による認識結果に応じて実行することを決定してもよい。
情報取得部は、ユーザから提示された物体に設けられている無線タグから、当該無線タグに記憶された無線タグ情報を読み出す読出手段であるとき、自律移動装置は、無線タグが設けられている物体と、当該無線タグに記憶されている無線タグ情報とを関連付けて記憶する無線タグ情報記憶部をさらに備えてもよい。このとき、物体識別部は、読出手段により読み出された無線タグ情報と、無線タグ情報記憶部に記憶された無線タグ情報とを比較して、ユーザから提示された物体を識別する。
また、自律移動装置は、ユーザの音声を取得する音声取得部と、音声取得部により取得された音声から、ユーザの発話内容を認識する音声認識部と、をさらに備えてもよい。このとき、決定部は、物体識別部により識別された物体と、音声認識部により認識されたユーザの発話内容とに基づいて、識別された物体を用いて行われる作業内容を決定する。
また、上記課題を解決するために、本発明の別の観点によれば、ユーザから提示された物体を識別するための物体情報を、所定の作業を行うために動作する動作部を備える自律移動装置の情報取得部により取得するステップと、情報取得部により取得された物体情報に基づいて、自律移動装置の物体識別部により物体を識別するステップと、物体識別部により識別された物体に基づいて、物体と当該物体を使用して行う作業内容とを関連付けて記憶する作業記憶部から、識別された物体を用いて自律移動装置が行う作業内容を、自律移動装置の決定部により決定するステップと、決定された作業内容に基づいて、自律移動装置の動作部の動きを制御部により制御するステップと、を含む、作業決定方法が提供される。
以上説明したように本発明によれば、ユーザから提示された物体を認識し、当該物体を用いて実行する作業内容を決定することが可能な自律移動装置および作業決定方法を提供することができる。
ユーザが本発明の実施形態に係る自律移動型ロボットに対して作業内容を指示する際の一指示例を示す説明図である。 同実施形態に係る自律移動型ロボットのシステム構成の一例を示す説明図である。 同実施形態に係る作業決定装置の機能構成を示すブロック図である。 カメラにより取得される画像の一例と、当該画像から画像特徴量抽出部により抽出された輪郭抽出画像の一例を示す説明図である。 無線タグが付設されたお盆を示す説明図である。 無線タグが付設された箒を示す説明図である。 動作・作業データベースの一構成例を示す説明図である。 動作決定装置によるロボットの動作決定方法を示すフローチャートである。 同実施形態に係る作業決定装置のハードウェアの一構成例を示すブロック図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.自律移動型ロボットの概要
2.作業決定装置の構成
3.動作決定装置によるロボットの動作決定方法
4.ハードウェア構成例
<1.自律移動型ロボットの概要>
まず、図1および図2を参照して、本発明の実施形態に係る自律移動装置である自律移動型ロボット(以下、単に「ロボット」とも称する。)1の概要とユーザがロボット1に対して行う作業指示方法の概略について説明する。なお、図1は、ユーザ2が本実施形態に係る自律移動型ロボット1に対して作業内容を指示する際の一指示例を示す説明図である。図2は、本実施形態に係る自律移動型ロボット1のシステム構成の一例を示す説明図である。
[自律移動型ロボットの概略構成]
本実施形態に係る自律移動型ロボット1は、様々な作業を実行可能に構成された自律移動装置である。本実施形態に係るロボット1は、図1に示すように、胴体部12、腕部13、14、頭部15、および脚体16、17を有する人間型ロボットであり、例えば図2に示すようなシステム構成で構築されている。ロボット1の各関節部には、関節部を駆動するアクチュエータと、アクチュエータの動きを検出するためのトルクセンサとがそれぞれ設けられている。すなわち、胴体部12、腕部13、14、頭部15、および脚体16、17の動作部は、アクチュエータからなる駆動機構によって駆動されることにより、ユーザ2の指示に応じた作業を行うために動くことができる。
例えば、胴体部12には、3軸の腰関節アクチュエータa1、a2、a3からなる腰関節部20、および3軸の首関節アクチュエータa16、a17、a18からなる首関節部50が設けられている。これらはホストコンピュータ10に対してシリアル接続されている。また、各アクチュエータa1〜a3、a16〜a18には、当該アクチュエータの動きを検出するトルクセンサtq1〜tq3、tq16〜tq18がそれぞれ設けられている。
また、ロボット1は、左腕部13に、3軸の肩関節アクチュエータa4、a5、a6からなる肩関節部32、1軸の肘関節アクチュエータa7からなる肘関節部34、および2軸の手首関節アクチュエータa8、a9からなる手首関節部36を備える。各アクチュエータの出力軸には、それぞれトルクセンサtq4〜tq6、tq7、tq8およびtq9が設けられている。同様に、ロボット1は、右腕部14に、3軸の肩関節アクチュエータa10、a11、a12からなる肩関節部42、1軸の肘関節アクチュエータa13からなる肘関節部44、および2軸の手首関節アクチュエータa14、a15からなる手首関節部46を備える。各アクチュエータの出力軸には、それぞれトルクセンサtq10〜tq12、tq13、tq14およびtq15が設けられている。
そしてロボット1は、左脚部16に、3軸の股関節アクチュエータa19、a20、a21からなる股関節部62、1軸の膝関節アクチュエータa22からなる膝関節部64、および2軸の足首関節アクチュエータa23、a24からなる足首関節部66を備える。各アクチュエータの出力軸には、それぞれトルクセンサtq19〜tq21、tq22、tq23およびtq24が設けられている。同様に、ロボット1は、右脚部17に、3軸の股関節アクチュエータa25、a26、a27からなる股関節部72、1軸の膝関節アクチュエータa28からなる膝関節部74、および2軸の足首関節アクチュエータa29、a30からなる足首関節部76を備える。各アクチュエータの出力軸には、それぞれトルクセンサtq25〜tq27、tq28、tq29およびtq30が設けられている。
これらのアクチュエータおよびトルクセンサも、ロボット1全体の動作を統括的にコントロールするホストコンピュータ10とシリアル接続されている。ホストコンピュータ10は、ロボット1のダイナミクス演算を実行し、各関節アクチュエータのトルク目標値を生成する。トルク目標値は、アクチュエータに併設された制御用マイコンに送信され、制御用マイコン上で実行されるアクチュエータの力制御方式による制御に用いられる。制御用マイコンにより算出された各関節アクチュエータの位置制御目標値は、シリアルケーブルを通じて、各関節アクチュエータに送信される。各関節アクチュエータは、受信した位置制御目標値に基づいて駆動するとともに、現在の出力トルクや関節角度、関節各速度をホストコンピュータ10に送信する。
[自律移動型ロボットに対する作業指示方法の概要]
このような駆動機構を有する自律移動型ロボット1は、ユーザから物体が提示されると、提示された物体を認識し、当該物体を用いて作業を実行することができる。このため、本実施形態に係るロボット1は、物体を識別するための識別手段と、認識手段により認識した物体を用いて行う作業内容を決定する決定手段とを備えている。
例えば、図1に示すように、ロボット1に箒6を提示したとする。箒6には、箒6を用いて行う作業内容を特定するための情報を記憶する無線タグ6aが設けられている。一方、ロボット1の把持部には、無線タグ6aに記録された情報を読み取る無線タグ読出部である無線タグリーダが設けられている。ロボット1は、ユーザ2から渡された箒6を把持部で把持すると、無線タグリーダを用いて箒6の無線タグ6aに記録されている情報(無線タグ情報)を読み出す。そして、ロボット1は、無線タグ6aから読み出した情報に基づいて、箒6を用いて行う作業内容を特定し、実行する。
すなわち、ロボット1は、無線タグ6aに記録されている情報より、ユーザ2から渡された物体が箒であることを識別し、当該箒に関連付けられた動作を実行する。例えば「床の上で箒を左右に動かしながら移動する」という動作が箒という物体に関連付けられていれば、ロボット1は箒6を用いて床の掃除を開始する。このように、ユーザ2は、ロボット1に箒6を手渡すだけで、ロボット1に箒6で掃除することを指示できる。
また、ロボット1は、ユーザ2の行うジェスチャや音声等を認識するための認識手段をさらに備えることもできる。このとき決定手段は、無線タグ6aから読み出した情報と合わせて実行する作業を決定するようにしてもよい。例えば、図1に示すように、ユーザ2が箒6を渡すとともに、所定の位置を指し示したとする。ロボット1は、箒6を把持することで箒6を用いて行う作業を決定するとともに、ユーザ2の指す方向から当該作業を行う場所を認識する。このように、ユーザ2は、直感的に認識し易く、かつ容易な指示方法により、ロボット1に対して作業を行わせることができる。
なお、ロボット1に対するこのような作業指示方法は一例であって、ユーザ2は、指示する作業に用いる物体を提示し、場合によってはさらにジェスチャや発話することによって、ロボット1に実行させる作業内容を指示することができる。この際、ロボット1は、ユーザから提示された物体を識別する識別手段や、ユーザ2の行うジェスチャや音声を認識する認識手段による識別・認識された情報から、指示された作業内容を理解し、実行する作業内容を決定する。以下、本実施形態に係るロボット1における作業決定処理を行う、識別手段、決定手段、さらに認識手段を備える作業決定装置100の構成と、これによる作業決定処理について、詳細に説明していく。
<2.作業決定装置の構成>
まず、図3〜図7に基づいて、本実施形態に係る作業決定装置100の機能構成について説明する。図3は、本実施形態に係る作業決定装置100の機能構成を示すブロック図である。図4は、カメラ110により取得される画像の一例と、当該画像から画像特徴量抽出部112により抽出された輪郭抽出画像の一例を示す説明図である。図5は、無線タグ5aが付設されたお盆5を示す説明図である。図6は、無線タグ6aが付設された箒6を示す説明図である。図7は、動作・作業データベース160の一構成例を示す説明図である。
本実施形態に係る作業決定装置100は、自律移動型ロボット1に設けられており、ユーザ2の指示に応じて当該ロボット1が実行する作業内容を決定する装置である。まず、本実施形態に係る作業決定装置100は、画像により物体を識別する識別手段として、カメラ110と、画像特徴量抽出部112と、画像特徴量データベース114と、画像比較部116とを備える。また、作業決定装置100は、無線タグに記憶された情報に基づいて物体を識別する識別手段として、無線タグ読出部120と、無線タグデータベース122と、無線タグ情報比較部124とを備える。
カメラ110は、画像を取得する撮像装置である。カメラ110は、例えばロボット1の頭部15に設けられており、ユーザ2から提示された物体を認識するために、物体を撮像して物体の画像を取得する。また、カメラ110は、物体を提示したユーザ2を撮像することもできる。ユーザ2の画像は、ユーザ2の動作を認識するために用いられる。カメラ110によって取得された画像は、画像特徴量抽出部112またはジェスチャ認識部140へ出力される。
画像特徴量抽出部112は、カメラ110により取得された画像から、画像の特徴部分を表す特徴量を抽出する。画像特徴量抽出部112は、画像の特徴部分として、例えば物体の輪郭やエッジ、コーナー等を既存の画像処理手法により抽出し、抽出した特徴部分を特徴量として表す。例えば、物体の輪郭を特徴量として抽出する場合、図4の上図に示すような画像がカメラ110により取得されたとすると、画像特徴量抽出部112は、図4の下図に示すような輪郭抽出画像を抽出結果として出力する。また、画像特徴量抽出部112は、隣接する画素間の輝度値の変化や色を、画像の特徴量として用いてもよい。特徴量抽出部112は、抽出した画像特徴量を画像比較部116へ出力する。
画像特徴量データベース114は、物体に関する画像特徴量を記憶する記憶部である。画像特徴量データベース114には、予め物体の画像から抽出した画像特徴量が記憶されており、ユーザ2から提示された物体を特定する画像比較部116により参照される。
画像比較部116は、画像特徴量抽出部112により抽出された物体の画像特徴量と、画像特徴量データベース114に記憶された画像特徴量とを比較することにより、画像に基づきユーザ2から提示された物体を特定する。画像比較部116は、2つの画像特徴量を比較して、画像特徴量抽出部112により抽出された画像特徴量に最も類似する画像特徴量を有する物体を、画像特徴量データベース114を参照して特定する。画像比較部116は、比較結果および特定した物体を物体認識部130へ出力する。
無線タグ読出部120は、物体に付設された無線タグに記録された無線タグ情報を読み出す。無線タグは、無線ICとアンテナとを組み合わせなるモジュールであり、無線ICのメモリには無線タグが付される物体に関する情報(例えば、物体に固有の物体ID等)が無線タグ情報として記憶されている。無線タグ読出部120は、無線タグに記憶された無線タグ情報を読み出すための電波を発信し、それに応じて無線タグから発信された電波を受信して、無線タグ情報を取得する。
本実施形態に係るロボット1において、無線タグ読出部122は、物体を把持する把持部に設けられている。これにより、ロボット1は、物体を把持すると同時に、無線タグから無線タグ情報を読み出すことができる。もちろん、無線タグ読出部120は、ロボット1の把持部以外に設けることもできる。また、無線タグは、ロボット1の無線タグ読出部122により読み取り易い位置に設けるのがよい。例えば、図5に示すように、お盆5の載置面に無線タグ5aを付設したり、図6に示すように、箒6の柄に無線タグ6aを付設したりすればよい。
無線タグデータベース122は、無線タグに記憶されている無線タグ情報を記憶する記憶部である。例えば、無線タグデータベース122には、物体の名称と当該物体に固有に付される物体IDとが関連付けて記憶されている。
無線タグ情報比較部124は、無線タグ読出部120により読み出した無線タグ情報と、無線タグデータベース122に記憶された情報とを比較することにより、無線タグに基づきユーザ2から提示された物体を特定する。無線タグ情報比較部124は、物体に付設された無線タグに無線タグ情報として記憶されている物体IDと一致する情報を無線タグデータベース122より特定することにより、ユーザから提示された物体を特定する。無線タグ情報比較部124は、比較結果および特定した物体を物体認識部130へ出力する。
このように、作業決定装置100は、物体を特定するための基になる情報を取得する手段として、カメラ110と無線タグ読出部120との2つを備えているが、本発明はかかる例に限定されず、少なくともいずれか一方を備えていればよい。また、上記以外にも、例えば、バーコード等の人工的に生成された幾何学パターンを用いることにより、ユーザ2から提示された物体を特定することも可能である。このような幾何学パターンは、例えば上記カメラ110により画像情報として取得してもよく、赤外線を照射してバーコードの情報を読み取ってもよい。
本実施形態のように情報を取得するための手段(カメラ110および無線タグ読出部120)を複数備える場合、各情報から特定された物体から、1つの物体を特定するための物体識別部130を備えてもよい。作業決定装置100は、当該装置によって識別された物体に基づいて、この物体を用いて行う作業内容を決定するものである。このため、例えばカメラ110および無線タグ読出部120によって特定された物体が異なる場合、ロボット1が実行する作業の特定が困難になる。そこで、物体識別部130は、ユーザ2によって提示された物体を最終的に1つ特定する。
例えば、物体識別部130は、カメラ110および無線タグ読出部120によって特定された物体が同一である場合には、これらによって特定された物体を、作業決定装置100が識別した物体とする。一方、カメラ110および無線タグ読出部120によって特定された物体が異なる場合には、物体識別部130は、予め設定された優先度に基づいて、特定された物体のいずれかを選択するようにしてもよい。優先度は、例えば、より高精度に物体認識できる手法によって特定された物体を選択するように設定することができる。
また、画像比較部116および無線タグ情報比較部124によってそれぞれ物体を特定する際に、どれぐらいの確からしさで特定したのかを確率で表現し、物体識別部130は、その確率に基づいて、特定された物体のいずれかを選択するようにしてもよい。例えば、提示されたある物体を特定する際に、画像による特定の確からしさが60%、無線タグによる特定の確からしさが80%の結果が得られた場合には、より確からしい無線タグによる特定結果を選択するように設定することができる。物体識別部130により識別された物体の情報は、作業決定部170へ出力される。
また、作業決定装置100は、カメラ110により撮像した画像に基づいてユーザ2が行ったジェスチャを認識するジェスチャ認識部140と、マイク150により取得した音声情報に基づいてユーザ2が発話した音声内容を認識する音声認識部152とを備える。ジェスチャ認識部140および音声認識部152は、後述する作業決定部170によりロボット1が実行する作業内容を決定する際に、補助的に用いられる情報を取得する認識手段として機能する。
ジェスチャ認識部140は、カメラ110が撮像した画像から、ユーザ2の手の位置や手の動き、ユーザ2が提示した物体を移動させているときの物体の動き等を認識し、ユーザ2が行っている動作(ジェスチャ)を特定する。ジェスチャの特定は、既存の技術を用いて行うことができる。ジェスチャ認識部140により認識される動作としては、例えばユーザ2が所定の方向を指差ししている動作や、ユーザ2が持っている物体を移動させる動作(例えば、左右に大きく振ったり、上方向に上げたりする動作)等がある。ジェスチャ認識部140により認識されたジェスチャの内容は、作業決定部170へ出力され、後述する作業決定部170が物体識別部130により特定された物体を用いて行う作業を決定する際に補助情報として用いられる。
音声認識部152は、マイク150により取得された音声情報を既存の手法を用いて解析し、ユーザ2が発話した音声内容を認識する。音声認識部152により認識された音声内容は、作業決定部170へ出力される。音声認識部152により認識された音声内容は、後述する作業決定部170が物体識別部130により特定された物体を用いて行う作業を決定する際に補助情報として用いられる。
また、作業決定装置100は、ロボット1が認識した物体を用いて行う作業を決定する決定手段として、動作・作業データベース160と、作業決定部170とを備える。
動作・作業データベース160は、物体と、ロボット1が当該物体を用いて行う作業内容とを関連付けて記憶する記憶部である。動作・作業データベース160は、例えば図7に示すように、道具の名称161と、道具を用いて行われる作業内容162と、ジェスチャに基づく動作内容163と、音声に基づく動作内容164とを記憶する。道具の名称161には、ロボット1が作業する際に用いる物体の名称が格納されている。作業内容162は、作業内容の分類と、ロボット1が行う動作とが格納されている。ジェスチャに基づく動作内容163には、作業内容に応じてユーザにより行われるジェスチャの内容が格納されている。そして、音声に基づく動作内容164には、作業内容に応じてユーザにより行われる音声による指示内容が格納されている。
作業決定部170は、動作・作業データベース160を参照して、物体識別部130により識別された物体を用いてロボット1が行う作業を決定する。例えば、物体識別部130により識別された物体が箒である場合には、作業決定部170は、図4に示す動作・作業データベース160を参照して、ロボット1に箒を床の上で左右に動かしながら移動する動作を行わせることを決定する。また、例えば、物体識別部130により識別された物体がマグカップの場合等のように、ロボット1に実行させる作業内容が複数設定されている場合もある。この場合、作業決定部170は、ジェスチャ認識部140により認識されたジェスチャや、音声認識部152により認識された音声内容に基づいて、ロボット1に実行させる作業内容を決定する。
作業決定部170は、決定した作業内容をロボット1に行わせるため、ロボット1のアクチュエータを駆動制御する駆動制御部(図示せず。)へ出力する。なお、駆動制御部は、上述したホストコンピュータ10に併設される制御用マイコンにより実現される機能である。
<3.動作決定装置によるロボットの動作決定方法>
このような動作決定装置100を備える自律移動型ロボット1は、ユーザ2から提示された物体を識別し、当該物体を用いて行う作業を決定して実行することができる。以下、図8に基づいて、動作決定装置100によるロボット1の動作決定方法について説明する。なお、図8は、動作決定装置100によるロボット1の動作決定方法を示すフローチャートである。
まず、ロボット1の動作決定装置100は、図8に示すように、画像特徴量抽出部112により、カメラ110により撮像された画像から画像特徴量を抽出する(ステップS100)。画像特徴量抽出部112では、上述したように、例えば物体の輪郭やエッジ、コーナー、輝度値の変化、色等の特徴量や、バーコード等の人工的な幾何学パターン等を抽出する。画像特徴量抽出部112により画像特徴量が抽出されると、画像比較部116は、画像特徴量データベース114を探索し、抽出された画像特徴量と合致する物体を特定する(ステップS110)。
一方、ロボット1の動作決定装置100は、画像特徴量の抽出処理(ステップS100、S110)と並行して、無線タグ読出部120により、ユーザ2が提示した物体に付設された無線タグを検出する(ステップS120)。無線タグ読出部120は、無線タグから無線タグ情報を読み出すための電波を発し、当該電波に応じて出力された無線タグからの無線タグ情報を取得する。無線タグ情報を取得すると、無線タグ情報比較部124は、無線タグデータベース122を探索し、読み出した無線タグ情報と合致する物体を特定する(ステップS130)。
ステップS110およびS130においてそれぞれ物体が特定されると、物体識別部130により、物体が識別できたか否かを確認する(ステップS140)。物体識別部130は、画像比較部116または無線タグ情報比較部124のうち少なくともいずれか一方により物体が特定されている場合には、その物体を識別したと判定する。このとき、ステップS110およびS130において特定された物体が異なる場合には、物体識別部130は、予め設定された優先度に基づき、いずれかの処理により決定された物体を優先して決定する。また、ステップS110およびS130において物体を特定する際に、どれぐらいの確からしさで特定したのかを確率で表現し、物体識別部130は、その確率に基づいて、いずれかの処理により決定された物体を優先するか決定してもよい。一方、画像比較部116および無線タグ情報比較部124のいずれによっても物体が特定されていない場合は、物体識別部130は、物体識別ができていないと判定し、ステップS100〜S130の処理を繰り返す。
物体識別部130により物体が識別されると、作業決定部170は、識別された物体に対応する作業を動作・作業データベース160を探索して決定する(ステップS150)。作業決定部170は、動作・作業データベース160を探索し、物体識別部130により識別された物体と合致する道具を検出し、当該道具に関連付けられた作業内容を特定する。
ここで、作業決定部170は、特定された作業内容が複数存在するか否かを判定する(ステップS160)。例えば、物体識別部130により識別された物体がマグカップやお盆であるとき、これらの物体には、図7に示すように2つの作業内容が関連付けられている。この場合、作業決定部170は、ユーザ2から提示された物体を識別するのみではいずれの作業を実行すればよいか決定することができない。そこで、作業決定部170は、特定された作業内容が複数存在する場合には、ユーザ2のジェスチャまたは音声内容を認識し、実行する作業内容をさらに絞り込む(ステップS170)。
例えば、図7に示すように、ユーザ2から提示された物体がマグカップと識別した場合、マグカップには2つの片付け作業が関連付けられている。このとき、ユーザがマグカップを横に大きく振りながら差し出している動作がジェスチャ認識部140により認識されている場合には、作業決定部170は、マグカップを台所流し台に持っていく作業の実行を決定する。一方、ジェスチャ認識部140によりユーザがジェスチャを行っていないと認識されている場合には、作業決定部170は、マグカップを食器棚にしまう作業の実行を決定する。
あるいは、例えば、図7に示すように、ユーザ2から提示された物体がお盆と識別した場合、お盆には配膳と片付けという2つの作業が関連付けられている。このとき、ユーザ2がお盆をロボット1に提示して「片付け」と発言し、マイク150から取得した音声情報から音声認識部152が「片付け」という音声内容を認識すると、作業決定部170は、お盆を用いて茶碗・皿などをまとめて台所流し台に持っていく作業を実行する。また、ユーザ2がお盆をロボット1に提示して「配膳」と発言し、マイク150から取得した音声情報から音声認識部152が「配膳」という音声内容を認識すると、作業決定部170は、お盆を用いて茶碗・皿などをまとめてテーブルの上に並べる作業を実行する。
なお、図7には、1つの物体に対して1または2の作業内容が関連付けられている場合が示されているが、本発明はかかる例に限定されず、1つの物体に対して3以上の作業内容を関連付けておくこともできる。この場合、当該物体を用いて行う作業内容を一意に決定するため、ユーザ2によるジェスチャや物体の動き、音声内容を作業内容に対してさらに関連付ける。また、作業内容を、ユーザ2によるジェスチャや物体の動き、音声内容の複数の情報から決定してもよい。
このように、特定された作業内容が複数存在する場合には、作業決定部170は、ジェスチャ認識部140や音声認識部152による認識結果を識別した物体の情報と組み合わせて用いることにより、実行する作業内容を決定する。一方、ステップS160において、複数の作業が特定されなかった場合には、ステップS170の処理を実行せず、ステップS180の処理に進む。
そして、作業決定部170は、ユーザ2により提示された物体を用いて実行する作業内容が一意に決定されたか否かを確認する(ステップS180)。実行する作業内容が決定したと判断した場合には、当該作業の実行を開始し、動作決定処理を終了する。ここで、ステップS150にて、識別された物体に対して1つの作業が決定されている場合には、当該作業の実行が開始される。例えば、ユーザ2から提示された物体が箒であれば、箒を床の上で左右に動かしながら移動する動作が行われ、ユーザ2から提示された物体がモップであれば、モップを床に押し付けながら移動する動作が行われる。また、例えばユーザ2から提示された物体がちりとりである場合には、箒とともに使用してごみを集める動作が行われる。
なお、ステップS150の処理により、識別された物体に対して複数の作業が設定されていた場合には、ステップS170の処理によって決定された作業内容の実行が開始される。
一方、ステップS180において、実行する作業内容が決定されていないと判断した場合には、ユーザ2に対して作業不能メッセージを通知して、作業を開始することができないことを伝える(ステップS190)。ここで、実行する作業内容が決定されていない場合には、ステップS140において物体は識別されたが、識別された物体に対応する作業内容が動作・作業データベース160に記憶されていない場合も含まれる。作業不能メッセージは、例えば、ロボット1に設けられた表示部やスピーカ等の出力手段(ともに図示せず。)を用いてユーザ2に通知することができる。作業不能メッセージには、作業を特定することができない旨や、特定できない理由等を含めることができる。
なお、図8では、ステップS180において実行する作業内容が決定されていないと判断した場合には作業不能としたが、本発明はかかる例に限定されない。例えば、動作・作業データベース160に、ある物体と関連付けた作業内容が複数設定されている場合には、その作業内容の実行優先度も予め設定しておく。そして、ステップS180において、実行する作業内容が決定されていないと判断した場合には、作業決定部170は、その予め設定された優先度に基づき、作業を決定し、開始させるようにしてもよい。
以上、本実施形態に係る作業決定装置100による作業決定方法について説明した。本実施形態によれば、ユーザ2により提示された物体を識別し、ロボット1が識別された物体を道具として用いて行う作業内容を決定する。このように、ユーザ2がロボット1に対して道具を提示するだけで、ロボット1に対してその道具を用いた所望の作業を行わせることができる。また、画像処理や無線タグ情報認識により認識された物体の情報とともに、画像によるジェスチャ認識や音声認識等を組み合わせることにより、従来と比較してより自然なインタラクションによりロボット1に作業指示することが可能となる。
なお、上記説明では、識別された物体に複数の作業内容が関連付けられている場合に、ジェスチャ認識部140や音声認識部152による認識結果を用いて実行する作業内容を決定したが、本発明はかかる例に限定されない。例えば、ユーザ2が箒をロボット1に提示するとともに、掃除したい場所を指差しすると、ジェスチャ認識部140は指差しされた場所を認識することができる。この場合、作業決定部170は、物体から特定された作業内容を、ジェスチャ認識部140により認識された場所で行うことを決定することで、ユーザ2は詳細な作業指示を容易に行うことができるようになる。また、このような作業場所の指示は、ユーザ2が発話することにより指示することも可能である。
また、認識された物体を用いて行う作業内容を、ユーザ毎に設定するようにしてもよい。例えば、ジェスチャ認識部140により、カメラ110により撮像したユーザ2の画像から、作業指示を行っているユーザ2を特定する。ユーザ2の特定は、既存の顔認識処理等の技術を用いて行うことができる。また、動作・作業データベース160には、作業指示者を示すユーザ情報が作業内容と関連付けて記憶されているとする。そして、作業決定部170は、識別された物体の情報と、物体を提示していると特定したユーザ2とに基づいて、実行する作業内容を決定する。これにより、作業指示者であるユーザ毎に、物体を用いて実行する作業内容を設定することができ、ユーザが詳細に指示しなくとも各ユーザがそれぞれ所望する作業を実行させることができる。
<4.ハードウェア構成例>
本実施形態にかかる作業決定装置100による一部の処理は、ハードウェアにより実行させることもでき、ソフトウェアによって実行させることもできる。この場合、作業決定装置100は、図9に示すようなコンピュータとして構成することもできる。以下、図9に基づいて、本実施形態に係る作業決定装置100の一ハードウェア構成例について説明する。
本実施形態にかかる入力ユニットを構成する作業決定装置100は、上述したように、コンピュータ等の情報処理装置により実現することができ、図2に示すホストコンピュータ10として自律分散型ロボット1に設けることができる。作業決定装置100は、図9に示すように、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、ホストバス104aとを備える。また、作業決定装置100は、ブリッジ104と、外部バス104bと、インタフェース105と、入力装置106と、出力装置107と、ストレージ装置(HDD)108と、ドライブ109と、接続ポート111と、通信装置113とを備える。
CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従って作業決定装置100内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。ROM102は、CPU101が使用するプログラムや演算パラメータ等を記憶する。RAM103は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス104aにより相互に接続されている。
ホストバス104aは、ブリッジ104を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス104bに接続されている。なお、必ずしもホストバス104a、ブリッジ104および外部バス104bを分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
入力装置106は、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。ユーザは、該入力装置106を操作することにより、ロボット1の作業決定装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置107は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置や、スピーカなどの音声出力装置を含む。出力装置107は、例えば、ユーザに対して作業不能メッセージを通知する際に用いられる。
ストレージ装置108は、作業決定装置100の記憶部の一例であり、データ格納用の装置である。ストレージ装置108は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置108は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置108は、ハードディスクを駆動し、CPU101が実行するプログラムや各種データを格納する。
ドライブ109は、記憶媒体用リーダライタであり、作業決定装置100に内蔵、あるいは外付けされる。ドライブ109は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAM103に出力する。
接続ポート111は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。また、通信装置113は、例えば、通信網15に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置112は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、動作・作業データベース160には、予め所定の物体を用いて行う作業内容が当該物体と関連付けられて記憶されていたが、本発明はかかる例に限定されない。例えば、ロボット1に作業を行わせる際に、ユーザが物体を提示して作業内容を教示し、当該作業内容を動作・作業データベース160に記録するようにしてもよい。作業内容の教示は、例えば、カメラ110により撮像した画像からユーザが使用している物体とユーザの動作とを認識させることにより行うことができる。
1 自律移動型ロボット
100 動作決定装置
110 カメラ
112 画像特徴量抽出部
114 画像特徴量データベース
116 画像比較部
120 無線タグ読出部
122 無線タグデータベース
124 無線タグ情報比較部
130 物体識別部
140 ジェスチャ認識部
150 マイク
152 音声認識部
160 動作・作業データベース
170 作業決定部

Claims (8)

  1. 所定の作業を行うために動作する動作部と、
    ユーザからの指示に基づいて、実行する作業を決定する作業決定部と、
    作業決定部により決定された作業内容に基づいて、前記動作部の動きを制御する制御部と、
    を備え、
    前記作業決定部は、
    ユーザから提示された物体を識別するための物体情報を取得する情報取得部と、
    前記情報取得部により取得された物体情報に基づいて、前記物体を識別する物体識別部と、
    物体と、当該物体を使用して行う作業内容とを関連付けて記憶する作業記憶部と、
    前記物体識別部により識別された物体に基づいて、前記作業記憶部から前記識別された物体を用いて行う作業内容を決定する決定部と、
    を備える、自律移動装置。
  2. 前記情報取得部は、画像を取得する撮像手段であり、
    前記自律移動装置は、
    前記撮像手段により撮像された物体の画像から画像特徴量を抽出する画像特徴量抽出部と、
    予め物体の画像から抽出した画像特徴量を記憶する画像特徴量記憶部と、
    をさらに備え、
    前記物体識別部は、前記画像特徴量抽出部により抽出された画像特徴量と、前記画像特徴量記憶部に記憶された画像特徴量とを比較して、ユーザから提示された物体を識別する、請求項1に記載の自律移動装置。
  3. 前記自律移動装置は、前記撮像手段により撮像された画像に基づいて、ユーザの動作または当該ユーザにより提示された物体の動きのうち少なくともいずれか一方を認識結果として認識する動作認識部をさらに備え、
    前記決定部は、前記物体識別部により識別された物体と、前記動作認識部による認識結果とに基づいて、前記識別された物体に対応する作業内容を決定する、請求項2に記載の自律移動装置。
  4. 前記作業記憶部に、前記物体識別部により識別された物体を用いて行う作業内容が複数記憶されているとき、
    前記決定部は、前記動作認識部による認識結果に基づいて、前記識別された物体を用いて行う作業内容を決定する、請求項3に記載の自律移動装置。
  5. 前記作業記憶部に、前記物体識別部により識別された物体を用いて行う作業内容が1つ記憶されており、かつ、前記動作認識部によりユーザの動作または物体の動きのうち少なくともいずれか一方が認識結果として認識されているとき、
    前記決定部は、前記物体識別部により識別された物体を用いて行う作業内容を、前記動作認識部による認識結果に応じて実行することを決定する、請求項3に記載の自律移動装置。
  6. 前記情報取得部は、ユーザから提示された物体に設けられている無線タグから、当該無線タグに記憶された無線タグ情報を読み出す読出手段であり、
    前記自律移動装置は、無線タグが設けられている物体と、当該無線タグに記憶されている無線タグ情報とを関連付けて記憶する無線タグ情報記憶部をさらに備え、
    前記物体識別部は、前記読出手段により読み出された無線タグ情報と、前記無線タグ情報記憶部に記憶された無線タグ情報とを比較して、ユーザから提示された物体を識別する、請求項1に記載の自律移動装置。
  7. ユーザの音声を取得する音声取得部と、
    前記音声取得部により取得された音声から、ユーザの発話内容を認識する音声認識部と、
    をさらに備え、
    前記決定部は、前記物体識別部により識別された物体と、前記音声認識部により認識されたユーザの発話内容とに基づいて、前記識別された物体を用いて行われる作業内容を決定する、請求項1に記載の自律移動装置。
  8. ユーザから提示された物体を識別するための物体情報を、所定の作業を行うために動作する動作部を備える自律移動装置の情報取得部により取得するステップと、
    前記情報取得部により取得された物体情報に基づいて、前記自律移動装置の物体識別部により前記物体を識別するステップと、
    前記物体識別部により識別された物体に基づいて、物体と当該物体を使用して行う作業内容とを関連付けて記憶する作業記憶部から、前記識別された物体を用いて自律移動装置が行う作業内容を、前記自律移動装置の決定部により決定するステップと、
    前記決定された作業内容に基づいて、前記自律移動装置の動作部の動きを制御部により制御するステップと、
    を含む、作業決定方法。
JP2010070260A 2010-03-25 2010-03-25 自律移動装置および作業決定方法 Withdrawn JP2011200970A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010070260A JP2011200970A (ja) 2010-03-25 2010-03-25 自律移動装置および作業決定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010070260A JP2011200970A (ja) 2010-03-25 2010-03-25 自律移動装置および作業決定方法

Publications (1)

Publication Number Publication Date
JP2011200970A true JP2011200970A (ja) 2011-10-13

Family

ID=44878240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010070260A Withdrawn JP2011200970A (ja) 2010-03-25 2010-03-25 自律移動装置および作業決定方法

Country Status (1)

Country Link
JP (1) JP2011200970A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013205047A (ja) * 2012-03-27 2013-10-07 Tokyo Metropolitan Sewerage Service Corp 回転機械用診断機器の位置決め装置
JP2014124735A (ja) * 2012-12-27 2014-07-07 Seiko Epson Corp ロボット制御方法、ロボット制御装置、プログラム、及びロボット
US9612727B2 (en) 2013-04-02 2017-04-04 Toyota Jidosha Kabushiki Kaisha Task changing apparatus, task changing method, and task changing program
JP2017200718A (ja) * 2016-05-05 2017-11-09 トヨタ自動車株式会社 認識的アフォーダンスに基づくロボットから人間への物体ハンドオーバの適合
WO2018033728A1 (en) * 2016-08-17 2018-02-22 University Of Hertfordshire Higher Education Corporation Robot
US20220066468A1 (en) * 2020-08-27 2022-03-03 Toyota Jidosha Kabushiki Kaisha Transport system, transport method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013205047A (ja) * 2012-03-27 2013-10-07 Tokyo Metropolitan Sewerage Service Corp 回転機械用診断機器の位置決め装置
JP2014124735A (ja) * 2012-12-27 2014-07-07 Seiko Epson Corp ロボット制御方法、ロボット制御装置、プログラム、及びロボット
US9612727B2 (en) 2013-04-02 2017-04-04 Toyota Jidosha Kabushiki Kaisha Task changing apparatus, task changing method, and task changing program
JP2017200718A (ja) * 2016-05-05 2017-11-09 トヨタ自動車株式会社 認識的アフォーダンスに基づくロボットから人間への物体ハンドオーバの適合
WO2018033728A1 (en) * 2016-08-17 2018-02-22 University Of Hertfordshire Higher Education Corporation Robot
JP2019524465A (ja) * 2016-08-17 2019-09-05 ユニバーシティ・オブ・ハートフォードシャー・ハイヤーエデュケーション・コーポレーションUniversity Of Hertfordshire Higher Education Corporation ロボット
US20220066468A1 (en) * 2020-08-27 2022-03-03 Toyota Jidosha Kabushiki Kaisha Transport system, transport method, and program

Similar Documents

Publication Publication Date Title
Rosenberger et al. Object-independent human-to-robot handovers using real time robotic vision
JP2018161692A (ja) 情報処理装置、情報処理方法およびプログラム
JP2011200970A (ja) 自律移動装置および作業決定方法
US20190009409A1 (en) Robot apparatus, method of controlling robot apparatus, and computer program
US9669544B2 (en) Vision-guided robots and methods of training them
JP3920317B2 (ja) 物品運搬用ロボット
US8436897B2 (en) Article estimating apparatus and article position estimating apparatus, article estimating method as well as article estimating program
Stückler et al. Real-Time 3D Perception and Efficient Grasp Planning for Everyday Manipulation Tasks.
Bekiroglu et al. Benchmarking protocol for grasp planning algorithms
JP2013022705A (ja) ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
Yamazaki et al. Recognition and manipulation integration for a daily assistive robot working on kitchen environments
Stückler et al. Mobile manipulation, tool use, and intuitive interaction for cognitive service robot cosero
JP2003345435A (ja) ロボットおよびロボットシステム
Bianchi et al. Touch-based grasp primitives for soft hands: Applications to human-to-robot handover tasks and beyond
Devine et al. Real time robotic arm control using hand gestures with multiple end effectors
CN112975952A (zh) 远程操作系统及远程操作方法
JP6067547B2 (ja) 物体認識装置、ロボット及び物体認識方法
JP6931585B2 (ja) 作業システム、作業システムの制御方法及びプログラム
KR20200034025A (ko) 정리 및 정돈이 가능한 청소 로봇 및 시스템
JP5278955B2 (ja) 福祉用ロボット装置のロボットアーム操作方法
US20230226698A1 (en) Robot teleoperation control device, robot teleoperation control method, and storage medium
De La Puente et al. Grasping objects from the floor in assistive robotics: Real world implications and lessons learned
Chu et al. Hands-free assistive manipulator using augmented reality and tongue drive system
JP2015157343A (ja) ロボット、ロボットシステム、制御装置、および制御方法
KR100741773B1 (ko) 이동로봇의 경로지정방법

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604