JP2016101612A - 物品搬送用ロボット - Google Patents
物品搬送用ロボット Download PDFInfo
- Publication number
- JP2016101612A JP2016101612A JP2014239999A JP2014239999A JP2016101612A JP 2016101612 A JP2016101612 A JP 2016101612A JP 2014239999 A JP2014239999 A JP 2014239999A JP 2014239999 A JP2014239999 A JP 2014239999A JP 2016101612 A JP2016101612 A JP 2016101612A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- robot
- information
- work
- instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】複数の作業指示を受けると共に、複数の作業を確実に実行可能なロボットを提供すること。【解決手段】指示端末3からの指示に基づいて実行する作業を決定する作業決定部11と、作業決定部11により決定された作業を行うための動作を行う動作部12と、を有する物品搬送用のロボットであって、作業決定部11は、物品の形状を認識する情報取得部21と、情報取得部21で取得される物品形状に関連する関連情報が蓄積されたデータベース22と、情報取得部21で認識された物品形状と、物品形状に関連した関連情報と、を含む物品情報を指示端末3に送信する送信部23と、指示端末3で入力された複数の指示内容を、物品情報と関連付けて記憶する記憶部25と、を有し、作業決定部11は、記憶部25に記憶された指示内容に基づいて動作部12で実行する作業を決定する。【選択図】図1
Description
本発明は、物品の搬送を行う物品搬送用ロボットに関する。
従来、このような分野の技術として、特開2008−068348号公報がある。この公報に記載されたロボット作業教示システムでは、ユーザは、撮影手段により取得された表示画面を確認し、ロボットを作業させる物体を物体モデルにより選択すると共に、物体モデルに対する作業内容を作業モデルの選択により指定する。ロボットは、物体モデルや作業モデルに基づき、撮影手段により認識されたロボットの作業空間に対応して、作業内容の制御情報を作成する。これにより、ユーザは、画面に表示された対象物を選択して物体モデルを指定し、その物体モデルに適用できる作業モデルを指定するだけで、ロボットは作業空間に対応して適切な作業モデルを選択できる。
しかしながら前述した従来のロボットでは、ロボットに動作させたい場合には、その都度、ユーザが取得画像から対象物体を選択して、動作内容の指示を与えていた。したがって、ロボットに複数の物体を移動させたい場合には、ロボットが動作を完了するまでユーザは待機し、その後、ユーザが次の動作の指示を行わなければならない。また現在の画像認識技術では、家庭環境などのように対象物が多様である場合や、照明条件が大幅に変化する環境では、十分な信頼性が確保できないという問題がある。
本発明は、複数の作業指示を受けると共に、複数の作業を確実に実行可能なロボットを提供することを目的とする。
本発明は、複数の作業指示を受けると共に、複数の作業を確実に実行可能なロボットを提供することを目的とする。
本発明にかかるロボットは、指示端末からの指示に基づいて実行する作業を決定する作業決定部と、前記作業決定部により決定された作業を行うための動作を行う動作部と、を有する物品搬送用のロボットであって、前記作業決定部は、物品の形状を認識する情報取得部と、前記情報取得部で取得される物品形状に関連する関連情報が蓄積されたデータベースと、前記情報取得部で認識された物品形状と、前記物品形状に関連した関連情報と、を含む物品情報を前記指示端末に送信する送信部と、前記指示端末で入力された複数の指示内容を、物品情報と関連付けて記憶する記憶部と、を有し、前記作業決定部は、前記記憶部に記憶された指示内容に基づいて前記動作部で実行する作業を決定する。
これにより、ユーザはロボットに対し、複数の物体についての動作をまとめて指示することができる。
これにより、ユーザはロボットに対し、複数の物体についての動作をまとめて指示することができる。
これにより、複数の作業指示を受けると共に、複数の作業を確実に実行可能なロボットを提供することができる。
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1に示すように、ロボットシステム1には、ロボット2と、ロボット2に動作指示を与える指示端末3を備える。
以下、図面を参照して本発明の実施の形態について説明する。図1に示すように、ロボットシステム1には、ロボット2と、ロボット2に動作指示を与える指示端末3を備える。
ロボット2は、作業決定部11と、作業決定部11で決定された動作を行う動作部12を備える。なおロボット2は、自律走行が可能であり、待機時には充電ステーションでの充電が可能である。
作業決定部11は、制御判定部20と、物体(物品)の形状を認識する情報取得部21と、情報取得部21で取得される物体についての情報が蓄積されているデータベース22と、情報取得部21で取得された物体及び該物体に関連する情報を関連付けて指示端末3に送る送信部23と、指示端末3から送られた情報を受信する受信部24と、指示端末3から入力された指示を記憶する記憶部25とを有する。
制御判定部20は、作業決定部11により決定された内容に基づいて、動作部12を動作させる。また、制御判定部20は、情報取得部21が環境内の物体情報を取得するときに、まだ環境内に未取得の物体があるか否かの判定などを行う。
情報取得部21には、画像を取得するためのカメラが設けられている。例えば情報取得部21は図2に示すように、ロボット2の頭部に設けられている。情報取得部21は、ロボット2が動作している間の動画像や静止画像を取得すると共に、床や机上などに存在する物体を推定して切り出しを行う。また情報取得部21には、距離画像センサなどの認識用センサが設けられている。この認識用センサは、ロボット2から物体までの距離や、物体が存在する位置の計測を行う。ここで情報取得部21は、各物体上や環境内にあらかじめ設けられたマーカーを利用して、物体の認識や位置情報の取得を行うものであってもよい。
データベース22には、情報取得部21で取得する物体についての情報があらかじめ保存されている。データベース22では、情報取得部21で取得された物体の形状やマーカー等の情報に基づいて、該当する物体のカテゴリ情報、物体のカテゴリに対応する作業の候補、物体をどこに片付けるべきであるのか等の情報が読み出され、情報取得部21で取得された物体に、これらの情報が付加される。なお、情報取得部21では複数の物体が認識されるが、データベース22による情報の付加は、これらの複数の物体に連続的に行われる。なお、情報取得部21で取得された夫々の物体には、データベース22から読み出された情報が付加されると共に、固有のIDが付加され、記憶部25に記憶される。
送信部23は、データベース22により情報が付加された物体の情報を、付加されたIDとともに指示端末3に送信する。また送信部23は、情報取得部21のカメラで取得した動画像や静止画像を、指示端末3に送信する。
受信部24は、指示端末3から送信された情報を受信する。ここで受信部24が受信する情報は、物体ごとに、ユーザにより動作指示が付加された物体情報である。なお典型的には、送信部23及び受信部24による指示端末3との通信は、無線通信によって行われる。
記憶部25は、情報取得部21で切り出された物体の情報と、受信部24で受信したユーザからの動作指示に関する情報が記憶される。具体的には、記憶部25には、データベース22によって情報が付加された物体の情報が、IDとともに記憶される。また、受信部24で受信した指示端末3からの情報が入力される。したがって記憶部25では、認識された物体、及び物体に対する指示の情報を、IDに基づいて関連付けて記憶する。また、記憶部25には、ロボット2の作業環境内の地図が記憶されている。
動作部12は、記憶部25に記憶された物体の情報に基づいて動作を行う。動作部12には、物体を保持するアーム26と、複数の車輪27を有する。
アーム26は、多関節で構成され、一端部がロボット2の本体部分に連結し、他端部にはハンド部26aが設けられている。例えばハンド部26aは、先端が二股に分かれており、物体を挟み込むことにより把持する。また、ハンド部26aには、吸気により物体を吸着する機構を有していても良い。なお、ハンド部26aでは、物体を把持や吸着をせずに、押す等の動作を行うことも可能である。
また、アーム26は、記憶部25に記憶された内容を参照した制御判定部20の指示に基づいて物体に対して動作を行う。言い換えると、制御判定部20では、指示端末3から入力されたユーザの指示と、あらかじめデータベース22に記憶されている知識に基づいて制御信号が生成され、アーム26はこの制御信号に応じて作業を行う。またアーム26は、制御判定部20の制御に応じて関節の角度を変更することにより、ハンド部26aの位置を適切に変更し、物体に対して動作を行う。
車輪27は、制御判定部20の制御に基づいて動作を行う。例えば車輪27は、ユーザによる作業指示に応じて、ハンド部26aが物体の保持等を行うことができる位置までロボット2が移動するように動作する。また車輪27は、ユーザによる動作指示がない場合には、ロボット2が充電ステーションに戻るようにロボット2を移動させるように動作する。このときロボット2は、充電を行いながら待機した状態となる。
指示端末3は、送信部23から送信された物体の情報を受信する受信部30と、ロボット2で撮影した動画像又は静止画像等を表示する表示部31と、ユーザによる指示を入力する入力部32と、ユーザによって入力された物体ごとの指示を送信する送信部33と、を備える。
受信部30は、送信部23によって送信された情報を受信する。具体的には、受信部30は、情報取得部21により取得した動画像や静止画像を受信すると共に、物体の情報を受信する。ここで受信部30が受信する物体の情報には、ロボット2において物体が切り出された結果や、データベース22で付加された物体の種類の情報及び作業の候補の情報、及び切り出された物体ごとのID情報が含まれる。
表示部31には、受信部30で受信した動画像や静止画像を表示すると共に、ロボット2によって物体が切り出された結果が表示される。また図3及び図4に示すように、表示部31には、ロボット2による物体の推定結果と、動作の候補、修正の有無の選択ボタン、物体の動作の修正を行う場合には動作の修正候補が表示される。なお、表示部31に表示される動画像又は静止画像上に、ロボット2により行われた物体の推定内容等の情報が書き込まれていても良い。
入力部32では、ユーザの操作による入力が行われる。ここで、表示部31及び入力部32は、いわゆるタッチパネルである。すなわち入力部32は、表示部31上に設けられた透明のパネルであり、表示部31上で、ユーザが接触したのを感知することにより入力が行われる。これによりユーザは、表示部31に表示された物体の切り出し結果が誤っている場合に表示部31上を操作することで切り出し結果を修正することや、物体に対して行う動作の修正、動作の確定等を行う。ここで入力部32では、表示部31に表示された1つの画面について複数の指示や修正を行うことや、表示部31に表示される静止画像や動画像を切り替えて、複数の指示や修正を行うことができる。
送信部33は、入力部32でユーザによって入力された物体の切り出し結果の修正や、物体に対して行う作業の修正内容や動作の決定の情報を、受信部24に送信する。ここで送信部33が送信する情報には、受信部30が受信したID情報が含まれる。
次に、ロボットシステム1の動作について説明する。
図5に示すように、複数の物体A〜Cに対してロボット2が動作を行う場合、物体A〜Cの事前動作を最初に行い、次にユーザによる物体A〜Cの指示が行われる。その後、ロボット2による物体A〜Cに対する作業が実行される。
図6を参照して、より詳細な動作手順を説明する。最初に、事前探索フェーズが実行される。
事前探索フェーズでは、まず、ロボット2が環境内を自律移動で探索する(S1)。このとき、記憶部25には、あらかじめ環境内の地図が記憶されており、制御判定部20の制御に応じて車輪27が動作することによって、ロボット2は環境内を探索する。
ロボット2は、情報取得部21により撮影及びセンサによる識別を行い、床や机上の未知物体を切り出す(S2)。例えばここで、物体A〜Cが切り出される。また情報取得部21では、物体の切り出しと並行して、物体の位置情報などの取得を行う。
制御判定部20は、情報取得部21により取得された画像から、切り出せるものがないかを判定する(S3)。切り出せるものがあれば(S3でNo)、S2に戻って未知物体の切り出しを繰り返し行う。切り出せるものが無ければ(S3でYes)、S4に進む。
制御判定部20は、情報取得部21による情報取得が、あらかじめ決められたエリア内を全て探索したか否かを判定する(S4)。全て探索していない場合には(S4でNo)、S1に戻り、ロボット2は移動しながら探索を繰り返す。全て探索が終了している場合には(S4でYes)、S5に進む。
次に、ユーザによる指示のフェーズが実行される。
ロボット2は、認識結果の情報を指示端末3に送信する(S5)。ここでロボット2では、情報取得部21により切り出された物体について、物体の形状の情報や位置情報と共に、データベース22に蓄積されたカテゴリ情報、物体に対応した作業の候補、片付けの候補の情報が、認識された物体ごとにIDが付加された状態で、記憶部25に記憶されている。ロボット2は、記憶部25に記憶されたこれらの情報を、送信部23を介して指示端末3に送信する。このとき情報取得部21では、複数の物体が認識されており、複数の物体についての情報のそれぞれを記憶部25に記憶した後に、送信部23から複数の物体についての情報を指示端末3に送信する。例えばロボット2は、物体A〜Cについて、それぞれに付加されたID、カテゴリ情報、作業候補の情報等を、指示端末3に送信する。
ここでロボット2は、一旦停止して待機する(S6)。具体的には、制御判定部20は、ロボット2が充電スポットに戻るように車輪27を動作させる。その後、ロボット2は動作を一旦停止し、充電スポットで充電しながら待機する。
ここで、指示端末3における動作について説明する。
指示端末3は、ロボット2から送信された情報を、受信部30を介して受信する(S11)。ここで図3に示すように、指示端末3の表示部31には、受信した情報に基づいて、ロボット2の情報取得部21で取得された静止画像や動画像と、画像上に物体の切り出し結果と、物体の推定結果と、物体に対する動作の候補と、動作等の修正の有無の選択ボタンが表示される。
指示端末3では、受け取った物体の情報について、修正や確認を行う(S12)。例えば図3に示すように、ユーザが表示部31に表示された修正ありを選択した場合には、図4に示すように実施作業の修正内容が表示される。また、表示部31の静止画像や動画像上に表示された情報取得部21の切り出し結果が誤っていれば、ユーザは静止画像や動画像上を範囲選択することで、切り出し範囲の修正を行う。また、指示端末3では、修正後に修正内容を確定した場合や、修正なしで確定した場合には、図7に示すように次の物体について、表示部31に静止画像や動画像、切り出し結果などを表示し、切り出し結果や動作の修正や確定を繰り返す。例えばユーザは、指示端末3を用いて、物体Aについて切り出し範囲、推定結果、動作指示の修正や確認をした後に、引き続き物体B、物体Cについて同様に修正や確認を行う。このようにして、ユーザにより切り出された物体A〜Cの確認が行われると共に、物体Aに対する動作指示A、物体Bに対する動作指示B、物体Cに対する動作指示Cが決定される。
指示端末3は、動作の修正及び確定の結果をロボットに送信する(S13)。すなわち、指示端末3は、切り出された物体ごとにIDが付加された状態で、修正後の物体の切り出しの修正結果、物体認識の修正結果と共に、物体の動作指示を、送信部33を介してロボット2に送信する。
ロボット2は、指示端末3からの指示情報を、受信部24を介して受信する(S7)。これにより、例えばロボット2には、切り出された物体A〜Cについての動作指示A〜Cが入力される。
次に、ロボット2による作業実行のフェーズに移行する。
ロボット2は、指示端末3からの指示情報と、記憶部25に記憶されている事前探索フェーズで得られた情報に基づいて、切り出された物体に対する動作を実行する(S8)。例えばロボット2では、事前探索フェーズで得られた物体の位置情報、指示端末3から入力された物体に対する修正後の動作指示に基づき、制御判定部20が動作部12を制御するための制御信号を生成する。ここで、記憶部25に記憶されている物体の情報と、指示端末3からの動作指示は、物体ごとにIDにより関連付けられている。
このときロボット2は、複数の物体について指示端末3から指示情報を受信するが、対応するIDが付加された物体への指示であることが認識されているため、ユーザが指示した物体に対して指示を実行できる。
これにより、例えばアーム26のハンド部26aでは物体の把持等を行うと共に、車輪27が動作する。すなわち、ハンド部26aでの物体の把持後に走行することで物体を運搬でき、例えば、物体が鉛筆であれば書斎のデスクまで持っていく、物体が皿であればシンクまで持っていく、物体がごみであればその物体をゴミ箱に捨てるといった作業が可能である。
ロボット2は、1つの物体について動作指示に基づいた動作が終了したら、次の物体について、動作指示に基づいた動作を行う。すなわちロボット2は、指示端末3からの指示情報と、記憶部25に記憶されている事前探索フェーズで得られた情報に基づいて、切り出された他の物体に対する動作を実行する。すなわちロボット2は、物体Aに対して指示された動作指示A、物体Bに対して指示された動作指示B、物体Cに対して指示された動作指示Cを、IDに基づいて認識し、それぞれの動作を実行する。
なお、S2において物体の切り出しを行う際に、情報取得部21では、最低限、物体の位置情報と大まかな形状の情報のみを取得することとしても良い。このような場合には、ロボット2では物体が何であるか把握されていない状態となるが、S12においてユーザが物体に対する作業内容を入力するため、ロボット2では、ユーザからの動作指示に従って、物体の把持等の動作を実行できる。
これにより、複数の作業指示を受けると共に、複数の作業を連続して実行可能となる。すなわちユーザは、ロボット2の動作開始前に、複数の物体の切り出しの結果や各物体についての動作指示をまとめて修正や確認することができると共に、ロボット2の動作終了まで待機している必要がなくなる。特に、アーム26が単腕であって多数の物体を一度に搬送できず、また、移動やハンド部26aでの把持動作等に時間がかかるロボット2に対し、ユーザの待機時間の減少をはかることができる。また、事前探索フェーズと作業実行のフェーズを分離できるため、ロボット2はユーザからの指示待ちの間は充電することができ、バッテリの消耗を低減できる。
また図8に示すように、環境内に設置され、環境内の情報を取得する情報取得部41を設けていても良い。例えば情報取得部41は、天井に設けられたカメラや、位置センサである。この場合、情報取得部41で取得された物体の情報が、ロボット2に送信され、ロボット2の情報取得部21で取得された物体の情報と併用して利用される。
これにより、ロボット2の巡回ルート上に物体が落ちているなどの理由により、事前探索フェーズにおいてロボット2が移動できない場所がある場合であっても、物体を適切に切り出すことができる。
また、情報取得部21は、事前探索フェーズ以前に、あらかじめ整理された環境内を撮影した基準画像を準備しておき、該基準画像と、事前探索フェーズで撮影した画像との差分によって、物体の切り出しを行うことができる。この場合、処理が軽くなると共に、切り出し対象となる物体の発見が容易となる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記ではロボット2は、1つのアーム26を有するものとして説明しているが、複数のアームを備えるロボットであってもよい。
1 ロボットシステム
2 ロボット
3 指示端末
11 作業決定部
12 動作部
20 制御判定部
21 情報取得部
22 データベース
23 送信部
24 受信部
25 記憶部
26 アーム
26a ハンド部
27 車輪
30 受信部
31 表示部
32 入力部
33 送信部
41 情報取得部
2 ロボット
3 指示端末
11 作業決定部
12 動作部
20 制御判定部
21 情報取得部
22 データベース
23 送信部
24 受信部
25 記憶部
26 アーム
26a ハンド部
27 車輪
30 受信部
31 表示部
32 入力部
33 送信部
41 情報取得部
Claims (1)
- 指示端末からの指示に基づいて実行する作業を決定する作業決定部と、前記作業決定部により決定された作業を行うための動作を行う動作部と、を有する物品搬送用のロボットであって、
前記作業決定部は、
物品の形状を認識する情報取得部と、
前記情報取得部で取得される物品形状に関連する関連情報が蓄積されたデータベースと、
前記情報取得部で認識された物品形状と、前記物品形状に関連した関連情報と、を含む物品情報を前記指示端末に送信する送信部と、
前記指示端末で入力された複数の指示内容を、物品情報と関連付けて記憶する記憶部と、を有し、
前記作業決定部は、
前記記憶部に記憶された指示内容に基づいて前記動作部で実行する作業を決定する
物品搬送用ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014239999A JP2016101612A (ja) | 2014-11-27 | 2014-11-27 | 物品搬送用ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014239999A JP2016101612A (ja) | 2014-11-27 | 2014-11-27 | 物品搬送用ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016101612A true JP2016101612A (ja) | 2016-06-02 |
Family
ID=56088446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014239999A Pending JP2016101612A (ja) | 2014-11-27 | 2014-11-27 | 物品搬送用ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016101612A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018147079A (ja) * | 2017-03-02 | 2018-09-20 | トヨタ自動車株式会社 | 自律移動ロボットの制御方法 |
JP2020026011A (ja) * | 2018-08-14 | 2020-02-20 | 日本放送協会 | ロボット操作装置及びロボット操作プログラム |
JP2020526402A (ja) * | 2017-07-03 | 2020-08-31 | エックス デベロップメント エルエルシー | ロボットアクションへの修正の判定および利用 |
JP2021500140A (ja) * | 2017-10-23 | 2021-01-07 | ストライカー・コーポレイション | 自律廃棄物収集アセンブリおよび医療廃棄物収集システムならびに方法 |
JP2021011001A (ja) * | 2019-07-09 | 2021-02-04 | トヨタ自動車株式会社 | 演算装置、機械学習方法及び制御プログラム |
JP2021160071A (ja) * | 2020-04-03 | 2021-10-11 | Telexistence株式会社 | ロボット制御装置、ロボット制御システム及びロボット制御方法 |
US11640517B2 (en) | 2017-07-03 | 2023-05-02 | X Development Llc | Update of local features model based on correction to robot action |
-
2014
- 2014-11-27 JP JP2014239999A patent/JP2016101612A/ja active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018147079A (ja) * | 2017-03-02 | 2018-09-20 | トヨタ自動車株式会社 | 自律移動ロボットの制御方法 |
US11640517B2 (en) | 2017-07-03 | 2023-05-02 | X Development Llc | Update of local features model based on correction to robot action |
JP7054755B2 (ja) | 2017-07-03 | 2022-04-14 | エックス デベロップメント エルエルシー | ロボットアクションへの修正の判定および利用 |
US12064876B2 (en) | 2017-07-03 | 2024-08-20 | Google Llc | Determining and utilizing corrections to robot actions |
US11780083B2 (en) | 2017-07-03 | 2023-10-10 | Google Llc | Determining and utilizing corrections to robot actions |
JP7128377B2 (ja) | 2017-07-03 | 2022-08-30 | エックス デベロップメント エルエルシー | ロボットアクションへの修正の判定および利用 |
JP2022024072A (ja) * | 2017-07-03 | 2022-02-08 | エックス デベロップメント エルエルシー | ロボットアクションへの修正の判定および利用 |
JP2020526402A (ja) * | 2017-07-03 | 2020-08-31 | エックス デベロップメント エルエルシー | ロボットアクションへの修正の判定および利用 |
JP2022101580A (ja) * | 2017-07-03 | 2022-07-06 | エックス デベロップメント エルエルシー | ロボットアクションへの修正の判定および利用 |
JP7418325B2 (ja) | 2017-10-23 | 2024-01-19 | ストライカー・コーポレイション | 自律廃棄物収集アセンブリおよび医療廃棄物収集システムならびに方法 |
JP2021500140A (ja) * | 2017-10-23 | 2021-01-07 | ストライカー・コーポレイション | 自律廃棄物収集アセンブリおよび医療廃棄物収集システムならびに方法 |
JP7186036B2 (ja) | 2018-08-14 | 2022-12-08 | 日本放送協会 | ロボット操作装置及びロボット操作プログラム |
JP2020026011A (ja) * | 2018-08-14 | 2020-02-20 | 日本放送協会 | ロボット操作装置及びロボット操作プログラム |
JP7207207B2 (ja) | 2019-07-09 | 2023-01-18 | トヨタ自動車株式会社 | 演算装置、機械学習方法及び制御プログラム |
JP2021011001A (ja) * | 2019-07-09 | 2021-02-04 | トヨタ自動車株式会社 | 演算装置、機械学習方法及び制御プログラム |
JP2021160071A (ja) * | 2020-04-03 | 2021-10-11 | Telexistence株式会社 | ロボット制御装置、ロボット制御システム及びロボット制御方法 |
JP7454161B2 (ja) | 2020-04-03 | 2024-03-22 | Telexistence株式会社 | ロボット制御装置、ロボット制御システム及びロボット制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016101612A (ja) | 物品搬送用ロボット | |
CN111602096B (zh) | 具有排除区的多分辨率扫描匹配 | |
AU2020399417B2 (en) | Charging device | |
JP5982729B2 (ja) | 搬送管理装置、搬送システム、および、搬送管理プログラム | |
CN110989633B (zh) | 一种机器人控制方法、装置、计算机设备及存储介质 | |
US10558214B2 (en) | Manual control modes for an autonomous mobile robot | |
CN110494259B (zh) | 控制装置、拾取系统、物流系统、程序、控制方法以及生产方法 | |
WO2018024069A1 (zh) | 用于引导无人机降落的方法、装置和系统 | |
WO2019036931A1 (zh) | 货物摆放方法、装置、系统以及电子设备和可读存储介质 | |
WO2018059136A1 (zh) | 一种跨仓储搬运控制方法、装置及系统 | |
US20150019012A1 (en) | Robot system and work facility | |
JP2011201002A (ja) | ロボット装置、ロボット装置の遠隔制御方法及びプログラム | |
JP2021121974A (ja) | 経路データ作成装置、経路データ作成システム及び経路データ作成方法 | |
CN110621451B (zh) | 信息处理装置、拾取系统、物流系统、程序以及信息处理方法 | |
KR102330435B1 (ko) | 서비스로봇 제어 시스템 | |
JP2018153874A (ja) | 提示装置、提示方法およびプログラム、ならびに作業システム | |
JP2011245577A (ja) | 給仕サービスのためのロボットシステム | |
WO2018075393A1 (en) | Method and system for generating navigation data transporting object | |
JP2018153873A (ja) | マニピュレータの制御装置、制御方法およびプログラム、ならびに作業システム | |
US20140180577A1 (en) | Method and system for navigation and electronic device thereof | |
JP2019063951A (ja) | 作業システム、作業システムの制御方法及びプログラム | |
JP2020042516A (ja) | 移動経路生成装置、移動装置、移動経路生成方法、及びプログラム | |
US20180068356A1 (en) | Systems and Methods for Autonomous Assistance and Routing | |
JP2022132166A (ja) | ロボット支援システム | |
JP2015080836A (ja) | 自律探索システム、操作端末、移動探索装置及び探索制御方法 |