JP2017519644A - 仮想現実入力を用いたロボット制御システム - Google Patents

仮想現実入力を用いたロボット制御システム Download PDF

Info

Publication number
JP2017519644A
JP2017519644A JP2016565200A JP2016565200A JP2017519644A JP 2017519644 A JP2017519644 A JP 2017519644A JP 2016565200 A JP2016565200 A JP 2016565200A JP 2016565200 A JP2016565200 A JP 2016565200A JP 2017519644 A JP2017519644 A JP 2017519644A
Authority
JP
Japan
Prior art keywords
rwo
robot
rules
input
vwo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016565200A
Other languages
English (en)
Other versions
JP6873703B2 (ja
Inventor
パーカー、コールマン、ピー.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2017519644A publication Critical patent/JP2017519644A/ja
Application granted granted Critical
Publication of JP6873703B2 publication Critical patent/JP6873703B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40131Virtual reality control, programming of manipulator

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Processing Or Creating Images (AREA)
  • Manipulator (AREA)

Abstract

【課題】改良されたロボット制御システムを提供すること。【解決手段】ロボットシステム及び方法は、仮想現実環境からの入力を受けて、現実世界のオブジェクト(RWO)上で自律的にタスクを実行する。ロボット駆動装置は、RWOを操作するためのツール、及びツールを作動させるための一組のロボット固有の命令を有する。第1組のルールは、RWOを管理すると共に、センサは、RWOの存在を検知する。仮想現実(VR)コンピュータは、センサデータを用いて、RWOの代表である仮想世界オブジェクト(VWO)を含む仮想世界(VW)を生成する。第2組のルールは、VWOを管理する。ユーザは、VWOを操作して、修正された仮想世界(MVW)を生成する。変換エンジンは、VW及びMVW間の差異を取得し、該差異を、ロボット駆動装置への入力に変換する。自律的な命令エンジンは、該入力を受けてRWOを特定すると共に、該入力を第1組のルールと結び付けて、ロボット駆動装置の使用可能な結合された命令を生成し、RWOを自律的に操作する。【選択図】図1A

Description

(関連出願)
本願は、構築された仮想/ゲーム世界における操作により、現実世界に変化をもたらすことができるシステムとの名称を付された、2014年4月30日付け出願の特許文献1の利益を主張するものである。該米国仮特許出願の内容は全て、上記参照により、本明細書内に組み込まれている。
本願発明は、ロボット制御に関し、特に、ランダム可変環境内の仮想オブジェクトに対する人の操作により、ロボットが、対応する現実世界オブジェクトと自律的に相互作用するための入力を生成可能とするシステム及び方法に関する。
本願を通じて、様々な刊行物、特許、及び公開特許出願は、引用部分を特定することにより参照される。ここで、本願において参照される刊行物、特許、及び公開特許出願の開示内容は、本願開示の中に参照により組み込まれる。
ロボット制御の分野は、2つの異なる種類の制御:自動または人工知能制御;及び遠隔または距離制御を有する。人工知能(AI)または自動制御は、予めプログラムされた、刺激に対する一組の応答に依存する。ロボットは、予めプログラムされた応答の何れかが適合する場合に、何れが適合するかを判定するための入力を処理する。システムは、入力源の性質、プログラミングの時間に提供される“例示材料”からの予めプログラムされた応答及び変化の程度、並びにロボットにより相互作用される実用材料に限定される。このAIロボット制御は、ロボットが何度も繰り返して同じ事をする様に構成される場合には、繰り返し作業を得意とする傾向がある。この例は、ロボットアームが、パーツを持ち上げて回路基板上の特定の位置に繰り返し載置する組立工程であるだろう。また、ロボット装置は、例えば、その領域周辺における操作の仕方を学習することにより、環境内における動作を学習することもできる。ROOMBA(登録商標)の掃除機は、その様な装置の一例である。これらのAIロボット制御システムは、不安定な、不慣れな、または変化する環境に適応することが不得手な傾向にある。これらの制御システムは、通常、将来起こり得る環境の入力及び故障モードに事前に対処し、予期せぬ入力に出くわした際にその入力を無視することからシャットダウン(電源断)することまでの広範な対応を採り得ることを要求する。
遠隔または距離制御は、ロボットから物理的に離れたロボット制御システムを用いる。人間のオペレータは、システムを制御するための入力を選択し、ロボットは、通常、リアルタイムに、これらの入力に直接反応する。上記例として、ドローン飛行機、水中遠隔潜水艇、及び爆弾作業ロボットが挙げられる。これらのロボットは、動作制御を実行するために人間の制御に完全に依存するか、または、例えば、ドローン飛行機が円を描いて飛行する場合の様に、入力が無い状況において単純かつ自律的な制御に戻る。
仮想現実、仮想提示、及び仮想世界は、現実世界、または、ユーザが閲覧または接触する擬似世界の再提示を行うものとしてもよい。例えば、現実世界の空間及び属性を再提示すると共に、ユーザが移動可能な仮想世界が、生成されるものとしてもよい。
ロボット制御システムは、例えば、コンピュータの生成または拡張したグラフィック(図形)を、現実世界のオブジェクトの画像に重ね合わせて、現実世界のオブジェクトの遠隔操作を支援することにより、仮想現実の特性を用いるものとしてもよい。例えば、GUI(Graphical User インタフェース)は、グラフィックオブジェクトを物理オブジェクトと融合させるために、ライブ映像上に適用するものとしてもよい。その結果として拡張されたオブジェクトは、表示された後、ロボット制御を用いてユーザにより操作されるものとしてもよい。しかしながら、この様な手法は、依然として、例えばリアルタイムに、ロボットを直接制御するための人間のオペレータに依存するものである。
従来の手法の問題点を克服するため、改良されたロボット制御システムが必要である。
米国仮特許出願61986282号
本願発明の一側面によれば、ロボットシステムは、仮想現実環境からの入力を受けると、現実世界のオブジェクト(RWO)に対して自律的にタスクを実行するために提供される。上記システムは、ツールを作動させるためにプロセッサにより実行可能なロボット固有の一組の命令を含む、現実世界のオブジェクト(RWO)を操作する様に構成されたツールを有する、プロセッサ制御されたロボット駆動装置(アクチュエータ)を有する。データストアは、RWOを管理する第1組のルールを有する一方、1つ以上のセンサは、RWOの存在を検知する。ロボット駆動装置及びセンサと通信可能に接続された仮想現実(VR)コンピュータは、センサデータを取得及び使用して、RWOの代表である仮想世界オブジェクト(VWO)を有する仮想世界(VW)を生成する。データストアは、VWOを管理する第2組のルールを有する。VRコンピュータユーザインタフェースは、第2組のルールに従い、ユーザがVWと相互作用することを許可し、VWOを操作して、修正された仮想世界(MVW)を生成する。変換エンジンは、VW及びMVW間の差異を取得し、該差異を、ロボット駆動装置の使用可能な入力に変換し、該入力を、ロボット駆動装置へ送信する。自律的な命令エンジンは、上記入力を受けると、興味を引くRWOを特定し、上記入力を第1組のルールと結び付けて、ロボット駆動装置の使用可能な一組の結合された命令を生成し、ロボット固有の命令の各々を選択的に実行し、自律的に特定のRWOと相互作用する。
本願発明の別の側面は、前述のシステムを用いて、仮想現実環境からの入力を受けると、現実世界のオブジェクト(RWO)に対して自律的にタスクを実行するための方法を含む。該方法は、センサにより、RWOの存在を検知すること、及び、対応するデータを生成することを含む。その後、VRコンピュータは、データを取得して使用し、RWOの代表であるVWOを有するVWを生成する。ユーザは、ユーザインタフェースを介して、VWOを操作し、修正された仮想世界(MVW)を生成する。変換エンジンは、VW及びMVW間の差異を取得し、該差異を、ロボット駆動装置の使用可能な入力に変換し、変換エンジンからの該入力を、ロボット駆動装置へ送信する。自律的な命令エンジンは、上記入力を受けて使用し、興味を引くRWOを特定し、上記入力を第1組のルールと結び付けて、ロボット駆動装置の使用可能な一組の結合された命令を生成し、ロボット固有の命令の各々を選択的に実行し、自律的に特定のRWOと相互作用する。その後、ロボット駆動装置は、RWOを操作する。
本明細書に記載されている特徴及び効果は、全てを含むものではなく、特に、図面、明細書、及び請求項を考慮すると、当業者には、多くの付加的な特徴及び効果の存在が明らかとなるであろう。更に、明細書において使用される用語は、主に、読み易さや教示の目的のために選択されたものであり、本願発明の主題の範囲を限定するものではないことに留意すべきである。
本願発明は、一例として図示されるが、同様の構成要素を同様の参照番号により示す添付図面の形態に限定されるものではない:
本願発明の一実施形態を示す模式図 代表的な適用例における、本願発明の一実施形態を示す機能ブロック図 図1A及び図1Bの実施形態の態様を示す機能ブロック図 図1A〜図2の実施形態に従って構築された仮想世界の一部分を示す例示的な表示の説明図 代表的な適用例における、図1A〜図3の実施形態を示す斜視図 本願発明の様々な態様において使用可能なコンピュータシステムの一実施形態を示すブロック図
以下の詳細な説明においては、その説明の一部を為す添付図面に参照番号が付されている。添付図面には、本願発明を実施可能な特定の実施形態が、例として示されている。これらの実施形態は、当業者が本願発明を実施可能な程度に十分に詳細に記載されており、また、当然のことながら、他の実施形態も利用可能である。また、当然のことながら、構造、手順、及びシステムは、本願発明の主旨及び範囲から逸脱することなく、変更可能である。加えて、周知の構造、回路、及び技術については、上記説明の理解の妨げとならない様に、詳細には示さない。従って、以下の詳細な説明は、限定的な意味に解釈されるものではなく、本願発明の範囲は、添付の請求項及びその均等物により規定される。
明細書及び添付の請求項において使用される、単数形の“ある”及び“上記”は、そうでない事が明示されない限り、複数の指示対象を含む。例えば、“ある分析装置”への言及は、複数のその様な分析装置を含むものである。別の例では、“ある分析”への言及は、複数のその様な分析を含むものである。
本明細書では、特別な用語が用いられるが、それらは、一般的及び記述的な意味においてのみ使用されるものであり、限定の目的で使用されるものではない。本明細書において使用される様な、技術的及び科学的な用語を含む全ての用語は、用語が別途定義されていない限り、本願発明が属する技術分野の当業者により一般的に理解されているのと同じ意味を有する。更に、当然のことながら、例えば、一般に使用される辞書において定義される用語等の用語は、本願発明が属する技術分野の当業者により一般的に理解されている意味を有する。更に、当然のことながら、例えば、一般に使用される辞書において定義される用語等の用語は、関連技術及び本願開示の文脈における意味と一致する意味を有する。この様な一般的に使用される用語は、本明細書における開示が明示的に別の意味を定義していない限り、理想化された意味または過度に形式張った意味に解釈されない。
総括
本願の発明者は、ロボットが、多くの現実世界への適用に際して効果的に動作するためには、膨大な量のテレメトリデータが必要となり、該テレメトリデータを収集するための現在の手法は、実用化が困難なほど非効率的であることを認識した。データ入力によりテレメトリデータを収集することは、人的には仕事を退屈にさせ易い傾向があるため、生産性及び品質の全てが急速に低下してしまうものであることに、発明者は、気付いた。ユーザが“失敗”し得ると共に、ユーザが成功するとテレメトリデータを収集することのできるゲームは、多くのロボットの応用に要求される大量のデータを効率的に供給することができるであろうことを、発明者は、認識した。上記ロボットの応用は、例えば、ロボットが、ごみくず(都市固形廃棄物“MSW”)の中から、有価物または危険物を取り出すことを可能とする。
従来のロボットは、効果的にごみを分類することができない。その分類処理は、複雑過ぎ、自動化すると遅過ぎ、過度に多くの機械学習が要求されることから、コンピュータビジョン(視覚)では、対応仕切れない。人がゲーム中に関連データをシステムへ供給していれば、人及びロボットは、MSWの中から、再生利用可能な物を効率的に取り出すことができるであろうことを発明者は認識した。プレイヤは、アイテムを識別及び分類し、ロボットは取り出すであろう。ゲームの目標は、例えば、最も価値のあるアイテムを見付けること、所定時間内にアイテムを見付けること、有害なアイテムを見付けること、異なる種類の同一アイテムを分類すること、アイテムの方向及び位置を特定すること等:を含むものとしてもよい。発明者の調査は、20%の特定及び除去という目標を有するシステムが、3年に渡り30%のROIを有するであろうことを示した。より高いパフォーマンスを有する個々のプレイヤは、より高い対価及びより困難なチャレンジに直結するであろう。
他の手法では失敗したが、その様な解決手段を採ると、以下の理由により、成功する可能性がある。人はゲームを楽しみ、勝ってゲームに魅了される。従来の“ゲーミフィケーション”による解決手段では、データ収集インタフェースを“ゲーム化すること”により、データ収集を可能とすることを試みた。しかしながら、“ゲーム化された”製品へのユーザの興味は、製品が、“ゲーム化された”特徴を超える程に有益な利益を奏しない限り、急速に減退する。典型的な報酬:バッジ、チェックイン、ステータスは、容易に達成されるため、その価値を急速に低下させる。標準的なデータ収集システムは、要求されたデータを入力するために構築された方法を提供する。この構造及び繰返しが、離脱につながり、かつ、多くの複雑な現実世界の問題を解決するのに十分なテレメトリデータをシステムが収集することを阻害する。
本願の発明者は、ゲームへの熱中及び継続により、テレメトリデータを収集するために、人を用いる方法を特定した。本願発明に係る解決手段は、上記システムをゲームとし、固定的な解決策または固定的な結果をもつことなく、努力目標を提示して、プレイヤに解決策を発見させる。プレイヤは、必然的に試行及び失敗し、成功するために再試行することができる。上記解決手段は、効果的に、固定的な解決策が存在しない困難な要素にまで、問題を切り分ける。幾つかの実施例は:時間の許容する限りできるだけ多くの特定オブジェクトを識別し、これらのオブジェクトを、例えば1分足らずで分類するものであってもよい。この様に、上記解決手段は、ゲームに勝つという最終目標を、現実の具体的な小さな目標に分けて、試行、失敗、再試行をさせながら、プレイヤが現実の問題を解決すると共に真に熱中することを可能とする手法である。本願発明に係る実施形態は、設定された問題を解決するためのユーザの能力に依存するであろう。これらの実施形態は、問題を解決する方法をユーザに理解させ、その後、ユーザの解決策に基づいて、データを収集するであろう。
本願発明に係る実施形態は、動的または別の態様のランダム可変環境内におけるオブジェクトの操作を含む如何なる用途においても、使用可能である。ごみの分類に加えて、他の潜在的な用途は、ロボットによる採鉱、建造、深海掘削、または、意思決定の樹状図に解決策を効率的に描くことはできないが、ゲームをするユーザにより結果として提供される一組の動作を行うロボットによる解決の可能な問題を有する他の用途を含む。
簡潔に要約すると、本願発明に係る特定の実施形態は、人が現実世界オブジェクトの仮想的な再提示と相互作用すると共に、ロボットが現実世界のオブジェクトと自律的かつ非同期的に相互作用する、ロボット制御を可能とするシステムを有する。これらの実施形態は、人間のオペレータが、動作を選択し、紛争か他のものを解決し、所望の結果の方針を決定することを可能とすることにより、従来手法の限界に対処する。システムは、上記動作及び結果を、ロボット用の一組の命令に変換するであろう。その後、ロボットは、仮想的な/構築された環境に対する変化により、現実世界に変化をもたらすであろう。
専門用語
本願開示において使用される用語“仮想現実”は、コンピュータの生成する画像及び音声から成り、かつ、それを経験する人の動作による影響を受ける人工的な世界の従来の定義と同義により使用される。“コンピュータ”及び“エンドユーザ装置”の用語は、ワークステーション、パーソナルコンピュータ、携帯情報端末(PDA)、無線電話、または、プロセッサ、コンピュータ読取り可能な(命令及び/またはデータを含む)プログラムコードが処理可能なコンピュータ読取り可能な媒体、及びユーザインタフェースを含む他の如何なる適切なコンピュータ装置も含む意味である。例えば、“サーバ”、“アプリケーション”、“エンジン”等の用語は、ハードウェア、ソフトウェア、及び/または実行中のソフトウェアを含む、コンピュータ関連の構成要素への言及を意図するものである。例えば、エンジンは、それらに限定されないが、プロセッサ、オブジェクト、実行ファイル、実行スレッド、及びプログラムを含むプロセッサ、並びにコンピュータ上で実行される処理(プロセス)であってもよい。更に、様々な構成要素は、1つのコンピュータ上に局在する、及び/または、2つ以上のコンピュータ間に分散されるものとしてもよい。例えば、“構成要素”または“モジュール”等の用語は、コンピュータ関連の実在物(エンティティ)、並びに、ハードウェア、ハードウェア及びソフトウェアの組合せ、ソフトウェア、または実行中のソフトウェアの何れかへの言及を意図するものである。例えば、モジュールは、それらに限定されないが、プロセッサ、オブジェクト、実行ファイル、実行スレッド、及びプログラムを含むプロセッサ、並びにコンピュータ上で実行される処理であってもよい。例として、サーバ上で実行されるアプリケーション、及びサーバ(または制御関連装置)の双方は、モジュールであってもよい。1つ以上のモジュールは、プロセス及び/または実行スレッド内に属するものとしてもよく、また、1つのモジュールは、1つのコンピュータ上に局在する、及び/または、2つ以上のコンピュータ若しくは制御装置間に分散されるものとしてもよい。“リアルタイム”及び“オンデマンド”の用語は、外部イベントの発生とほぼ同時に(例えば、ミリ秒若しくはマイクロ秒以内)、または、システムの処理限界、及び入力に正確に応答する様に要求された時間に付与された計画的遅延を伴うことなく、外部イベントを感知して応答することを示す。“非同期”の用語は、“リアルタイム”ではない方法により、外部イベントを感知して応答することを示す。
プログラム言語
本願発明を具現化するシステム及び方法は、例えば、これらに限定されないが:アセンブリ言語、C、C++;ビジュアルベーシック;Java;VBスクリプト;Jスクリプト;ノード.js;BCMAスクリプト;DHTM1;XML及びCGI等の、如何なる適切な言語及び技術においてもプログラム可能である。別バージョンは、ハイパーテキストマークアップランゲッジ(HTML)、アクティブサーバページ(ASP)、及びJavaスクリプトを含む他のプログラム言語を用いて、開発されるものとしてもよい。例えば、これらに限定されないが:マイクロソフト製のSQLサーバまたはIBM製のAS400等の、如何なる適切なデータベース技術も利用可能である。
上述した様に、本願発明に係る実施形態は、ロボットが、意思決定の樹状図が無いか、または、費用効率性の高い方法で意思決定の樹状図に描くことのできないソフトウェア解決策を要求するタスクを実行することを可能とするシステム及び方法を有する。ロボットは、仮想世界における難題を解決する人により生成された一組の入力を受けることにより、現実世界における上記タスクを実行することが可能となる。ロボットは、ロボットが、利用可能な幾つかの手段を自律的に選択して層状にすることにより、所望のタスクを遂行する指針として、上記入力を、効果的に使用する。ここで、図面を再び参照しながら、本願発明の実施形態について、より詳細に説明する。
ここで、図1Aには、仮想現実環境からの入力を受けると、現実世界のオブジェクト(RWO)上で自律的にタスクを実行するための独創的なロボットシステム10の一般的な実施形態が、図示及び記載されている。システム10は、現実世界のオブジェクト(RWO)24を操作する様に構成されたツール22を有する、プロセッサ制御されたロボット駆動装置20を有する。該ロボット駆動装置は、一組のロボット固有の命令111(図1B)がその上に格納されたメモリ26を有する。更に、ロボット駆動装置は、ツール22を作動させるためのロボット固有の命令111を実行する様に構成されたプロセッサ28を有する。また、図1Bに示す様に、システム10は、RWO24を管理する第1組のルール102(図1B)を含むデータストア32、及び、例えば、矢印aに示す下流方向にRWOを移動させる工業過程25内において、RWO24の存在に応答して、データを検知するか、または別の方法で生成する様に構成された1つ以上のセンサ34を有する。特定の実施形態では、センサ34は、例えば、画像取込み(例えば、CCD)装置等の電磁センサを有する。
システム10は、更に、ロボット駆動装置20及び1つ以上のセンサ34と通信可能に接続された仮想現実(VR)コンピュータ40を有する。VRコンピュータ40は、センサ34からデータを取得し、該データを使用して、RWO24の代表である仮想世界オブジェクト(VWO)301(図3)を含む仮想世界(VW)104(図1B)を生成する様に構成される。データストア36は、VWO301を管理する第2組のルール103(図1B)を有する。VRコンピュータ40は、GUI44(図3)を生成するグラフィカルユーザインタフェース(GUI)モジュール42を有する。GUI44は、VWO301を操作すると共に、修正された仮想世界(MVW)106(図1B)を生成するための(データストア36内の)第2組のルール103に従い、ユーザがVWと相互作用することを可能とする。変換エンジン46は、VW104(図1B)及びMVW106(図1B)間の差異を取得し、該差異を、ロボット駆動装置20に転送されて使用可能な入力107(図1B)へ変換する様に構成される。ロボット駆動装置20は、VRコンピュータ40から入力107を受信し、該入力を(データストア32の)第1組のルールと結び付ける様に構成された自律的な命令エンジン50を有する。この組合せは、エンジン50が、ロボット駆動装置20により使用可能な一組の結合された命令を生成すると共に、メモリ26内のロボット固有の命令111の各々を選択的に実行して特定のRWO24と自律的に相互作用することを可能とする。例えば、一旦、興味を引く特定のRWO24が特定され、その情報がロボット駆動装置に伝達されると、ロボット駆動装置20は、あらゆる手法の中から、自律的に、最も良く所望の成果を挙げる手法を選択する。これらの実施形態の具体例については、以下において、より詳細に説明する。
例えば、特定の実施形態においては、変換エンジン46は、仮想世界(VW)104及び修正された仮想世界(MVW)106間の差異を取得し、ユーザにより選択された仮想世界オブジェクト(VWO)301を特定する様に構成される。その後、エンジン46は、特定されたVWOを、ロボット駆動装置の使用可能な入力107(図1B)へ変換する。様々な実施形態において、自律的な命令エンジン50は、ユーザの特定されたVWOの形態で上記入力を受信し、該入力を使用して、対応するRWO24を特定する。この点に関し、センサ34及びVRコンピュータ40の組合せは、コンベヤベルト等の上の位置(例えば、2次元または3次元のx、y、zのデカルト座標)、及び下流方向に向かうコンベヤの周知の速度に基づき、処理(プロセス)25を有するRWOの位置を探知するものとしてもよい。対応するRWOの位置が一旦検知されると、特定の実施形態では、自律的な命令エンジンは、上記入力を、データストア32内の第1組のルールと結び付けて、RWOの操作の所望の最終結果を決定する。換言すれば、エンジン50は、入力情報(例えば、RWOの位置、種類、サイズ等)を、第1組のルール(例えば、特定のRWOが入れられるべき箱)と結び付けて、ロボット駆動装置の使用可能な一組の結合された命令を生成する。その後、自律的な命令モジュール50は、結合された命令を用いて、様々なロボット固有の命令111(図1B)の中から、例えば、ロボット駆動装置20のファームウェア内に格納された命令111を選択し、RWOを最適に使用及び操作して、所望の結果をもたらす。ロボット固有の命令の実施例は、上記処理がRWOを下流方向に運ぶ時等にRWOを遮断するために、ツール22が特定のRWOを掴むべき力、及びツールが移動すべき速度を用いるための上記種類またはサイズのツール22を有する。従って、ロボット20は、結合された命令を、事前にプログラムされた複数の命令セットの内の1つ以上の中に挿入し、MVW106を、RWOに対する所望の影響と同期させることにより、自律的にRWOと相互作用するものとしてもよい。
当業者は、本願発明の実施形態が、個別のパラメータを変更するかまたは別の方法を含む如何なる用途においても使用可能であることを認識するであろう。特に1つの用途が、コンベヤベルト上を運ばれるごみの流れの中から、けん引する再生利用可能なまたは有害なアイテムを特定すること、及び指定された箱の中にアイテムを入れることを含む。これらの実施形態では、RWOを管理する第1組のルールは、これらには限定されないが、数学的法則、物理的法則、生化学的な法則、またはオブジェクトの相互作用についての若しくは相互作用を管理する他の法則を含むものとしてもよい。更なる具体例は:特定のRWOのための所望の位置/箱;RWOが構築された材料を含む、RWOの物理的特性;危険を含む、RWOの処理に関連付けられた安全性考慮;色、材料の種類、性質、地表面に基づきオブジェクトの価値を管理するルールを含む、RWOオブジェクトの価値;例えば、ppm(100万分の1)内に生成される汚染等の、RWOが燃やされ、埋められ、沈められた場合にRWOによりもたらされる被害;並びに、これらの混ぜ合わせ及び組合せを含む。
これらの実施形態では、VROを管理する第2組のルールは、これらには限定されないが、オブジェクトのカラー化(カラーライゼーション)、オブジェクトまたは動作に関連付けられた音声及び音楽、VW104内のオブジェクトまたは動作に関連付けられた動画(アニメーション)または映像を含むものとしてもよい。ルール103の更なる具体例は:価値、材料の種類、材料の等級、ロボットを用いて掴む際の相対的困難さ、未回収が許される汚染物質のppmに関するルールに基づくオブジェクトのカラー化;異なる目標を達成するために回収されるべき種類の材料の割合(%)に関するルール;回収された材料の価値、及び回収された材料の価値の目標に関するルール;例えば、収集されたオブジェクトを有する、あるオブジェクトの出現、または、ユーザの“逃した”所望のオブジェクトの出現に関連付けられた音声及び音楽;例えば、目標を管理するルールにより決定される様な、オブジェクトの不完全同定、または、1分毎に所定数のオブジェクトを識別することの失敗等の、“報酬”が与えられているある動作に関連付けられた音声、及び妨げられている動作に関連付けられた音声;ユーザが学習する新たな動作、以前の期間においてユーザが逃したアイテムの例、特定の価値若しくは損害の新たなアイテム、または以前より周知のアイテムの価値若しくは損害における有意な変化に関連付けられた動画あるいは映像;並びに、これらの混ぜ合わせ及び組合せを含む。
ここで、図1Bには、本願発明の追加的な実施形態の態様が、図示及び記載されている。様々な実施形態により生成されるVW104は、情報のセット101、102、103を用いて構築されるものとしてもよい。セット101は、これらに限らないが、光、視覚的及び非視覚的帯域、音声、温度、重さ、相対運動等を含む、システムへの一組の一般的な物理入力である。これらの入力101は、仮想世界104におけるデータ及び再提示に変換される。上述した様に、セット102は、現実世界におけるRWOの挙動を管理するルールを有する。現実世界は、特定の実施形態において処理25(図1A)に対応する108により、概略的に示される。特定の実施形態では、これらのルール102は、例えば、本明細書において上述した様に、VW104内に存在する一組のルール及び/または建造物であるルールセット103との組合せにより、VW104内のVWOに適用可能な仮想的なルールに変換されるものとしてもよい。上述した様に、ルール103は、VW104内のVROをユーザが操作することを支援する様に構成され、これらに限定されないが、オブジェクトのカラー化、オブジェクトまたは動作に関連付けられた音声及び音楽、VW104内のオブジェクトまたは動作に関連付けられた動画または映像を含むものとしてもよい。
ユーザ207(図2)は、一旦生成されると、VRコンピュータ40のGUIモジュール42により生成されたGUI44(図3)を用いて、VW104と相互作用するものとしてもよい。ユーザ207は、直接的に、及び/または、例えば、クライアント−サーバの配置内のユーザ装置を経由して遠隔的に、VRコンピュータ40にアクセス可能であることに留意すべきである。この点に関し、コンピュータ40は、ウェブブラウザプログラム等を介してサーバのGUI44にアクセスする従来のサーバの機能を、クライアントとして機能するユーザ装置により、提供するものとしてもよい。説明を簡易化するため、図示及び本明細書に記載される実施形態では、ユーザが、VRコンピュータ40に物理的に位置し、かつ、VRコンピュータ40からシステム10を動作させる状況を想定する。
特定の実施形態においては、構築されたVW104は、複数のオブジェクト、音声、命令、ルール、挙動、及び入力101、102、103により提供される建造物を有する。その後、ユーザ207(図2)は、GUI44(図3)を介してVW104と相互作用し、例えば、決定、動作、操作、無活動、及び特定等の形態により、MVW106を生成するための一組の修正105を生成する。当然のことながら、ユーザの利用可能な修正または動作のセットは、部分的には、入力101、102、103により決定されるが、その一方で、ユーザ207(図2)の創造力及び知性によっても決定される。上述した様に、ロボット制御命令107は、元の仮想世界104及び修正された仮想世界106間の差異に基づき、変換エンジン46(図1A)により生成され、特定の実施形態においては、RWOを管理する第1組のルール103を含むものとしてもよい。様々な実施形態においては、命令107の詳細は、システム103への入力、選択的には101及び102への入力により管理され、例えば、利用可能な動作を、選択されたRWO24の所望の操作に対応する動作に限定する。例えば、入力101〜103は、特定の処理25の他の態様の操作を許可するのではなく、命令107を、興味を引くRWOの操作に制限するものとしてもよい。
ロボット制御命令107のセットは、ロボット20、208(図1A、図2)に送信される。その後、上述した様に、ロボットは、自律的な命令エンジン50を用いて、入力107を、(上述した様に、命令セット107内に組み入れ可能な)第1組のルール102と結び付けるか、または別の方法で照合を行う。この組合せは、エンジン50が、ロボット駆動装置20の使用可能な一組の結合された命令を生成し、ロボット固有の命令111の各々を選択的に特定及び実行し、ユーザの特定/選択されたRWO24と自律的に相互作用する、例えば操作することを可能とする。この相互作用は、ロボット介在109として図示されている。この様に、元の現実世界または処理108、25は、必要に応じて、修正された現実世界110を生成する様に修正される。
ここで、図2には、本願発明の態様が、システム200として示される本願発明の代替的な実施形態に関連して、図示及び記載されている。システム200は、図1のシステム10と相当に類似するが、以下の相違点を有する。図示の様に、システム200は、可視光線または不可視光線を撮像可能であり、VRコンピュータ40に対してデータを提供する、カメラ(例えば、CCD装置)の形態を有するセンサ34’を有する。変化するタイプの1つ以上のカメラが配置可能であるが、図面上では、単一の要素として示されている。また、1つ以上の追加のセンサ34”が、図示の様に提供されるものとしてもよい。これらの追加のセンサ34”は、物理オブジェクト24若しくは処理/現実世界25、108の他の態様に関するデータを収集することのできる、磁気、温度、速度、または実質上全ての他の装置を有するものとしてもよい。システム200においては、単一のデータストア32’が、仮想世界の生成に関する様々なルール、データ、若しくは情報、上記世界内のオブジェクトの操作、または、現実世界内のオブジェクトの価値、該オブジェクトの使用についての命令若しくはルールを格納するために用いられる。上述した様に、VRコンピュータ40は、仮想世界を生成及び維持する。なお、コンピュータ40は、複数のコンピュータを有するものとしてもよい。この場合、各コンピュータは、本明細書に図示及び記載されている様な、必要なデータ記憶装置の部分、データ処理及び/またはデータ操作を含むが、簡単のため、単独の実在物としては示していない。VWO301は、ユーザ207が、例えば、GUI44を介して、仮想世界104を閲覧及び相互作用することを可能とするユーザインタフェース206上に示される。インタフェース206は、例えば、タッチスクリーン、キーボード、マウス、ジョイスティック等の形態を有する1つ以上の一体型または分離型の入力装置を含む、1つ以上の監視装置、投射機(プロジェクタ)、タッチスクリーン等の形態を採ることもできる。206においてグループとして特定されるこれら全ての構成要素は、VWを可視化して105にてVWを操作するための能力をユーザ207に提供するために結合し、命令107をロボット20に送信する。その後、ロボット20は、本明細書において上述した様に、介在109にRWO24を操作させる様に動作する。
なお、ロボット20は、特定の処理25の要求を満たすために、複数機能を有する単体のロボット、互いに協働する単一の機能を有する複数のロボット、及び/またはその何れかの組合せの形態を採ることもできる。説明の簡易化のため、これらのロボット20、その搭載装置、安全装置、電源、及び制御入力は、図面においては、単一の構成要素20に単純化されている。また、RWO24、及び/または現実世界110に対する所望の修正を含む処理25が、現実世界における所望の結果を表すこと、並びに、ユーザ207が、206にて表示されるVWを用いて、VWにおける特定の所望の目標を達成する方法を決定するであろうことが認識されるべきである。VWにおける所望の目標は、得点を獲得することによりゲームに勝つことであってもよい。その後、システムは、VW目標をRW目標24、110に変換するため、実際の現実世界目標は、ユーザには明らかにならないかもしれない。また、特定のRW目標は、例えば、アイテム24をある位置から別の位置に移動させること等の単一目標であってもよいし、または、全体目標を達成するための一連の複雑かつ小さな目標/移動であってもよいことに留意すべきである。一連の小さな目標、必須の動作、動作の順序、及び中間工程は全て、単一要素24、110内に示されている。
ここで、図3には、GUI44を有する例示的な表示206が、一例としてのVWO301を含んで示されている。本実施例では、ユーザは、例えば、302に示す缶に関し、VWO301を、指定された位置へ移動することにより、VWO301を仮想的に操作する。操作302は、位置として図示されているが、他の実施形態では、例えば、圧搾または分離の様な変形動作の形態を採ることもできる。また、図示する様に、GUI44は、本実施例において仮想目標を達成する際のユーザの進捗に関する視覚フィードバックを提供するフィードバックディスプレイ303を有するものとしてもよい。上記フィードバックは、追加的または代替的に、音声、音楽、色の変化等を含むことができることが認識されるべきである。上記フィードバックは、ユーザがVWO301を特定し続けて、その後、所望の現実世界目標24、110を達成するためにシステムにより使用される目標302を達成することを通知及び動機付ける、実質上全ての情報を含むものとしてもよい。
ここで、図4に示す一例としての別の実施形態では、一連のロボット20’は、コンベヤ上を運ばれるごみの形態で、処理25と連動して処理される。RWO401に対応するVWO301(図3)は、物理的な目標24(図1A)の上位集合(スーパーセット)を形成する多くのアイテムの内の1つである。ロボット20’は、現実世界において要求されたタスクを実行する様に、すなわち、RWO401と連動してRWO401を適切な箱403に移動する様に特殊化されている。位置403におけるRWOは、ロボット介在109(図1B)の後に、修正された現実世界110(図1B)を示す。
本明細書において図示及び記載される実施形態は、如何なる応用においても、上述した様な、自治体の管理するごみの流れの中から再生利用可能なアイテムを選択するという用途を含むものとしてもよい。これらの用途において、ごみは、再生利用工場により稼働するコンベヤベルト上に載せられるであろう。なお、VRコンピュータ40は、ユーザに対して動作を提案可能でありかつ許可されたVWOを、事前に分類するものとしてもよい。VWOの幾つかは、ルール101、102、103等に従い、システムにより強調されるものとしてもよい。他の例では、VWOは、人間のオペレータ207(図2)により特定されるであろう。上述した様に、人間のオペレータ207は、仮想世界を修正することにより、正確な特定を行うであろう。仮想世界における変化は、ロボットに送信され、ロボットは、特定されたアイテムを持ち上げて、提供された場所に正確に置くであろう。
本願発明の特定の実施形態に適した別の用途は、建設廃棄物の流れの中から、再生利用可能なアイテムを選択することを含む。建設廃棄物は、再生利用工場により稼働するコンベヤベルト上に載せられるであろう。生成された仮想世界は、ユーザに対して動作を提案可能でありかつ提案するアイテムを、事前に分類するであろう。幾つかのアイテムは、仮想世界のルールに従い、システムにより強調されるであろう。他のアイテムは、人間のオペレータにより特定されるであろう。人間のオペレータは、仮想世界を修正することにより、正確な特定を行うであろう。仮想世界における変化は、ロボットに送信され、その後、ロボットは、特定されたアイテムを持ち上げて、提供された場所に正確に置くであろう。
別の用途においては、実施形態は、分類されていない再生利用可能な物の流れの中から、異なる再生利用可能な物を分類するであろう。仮想世界のユーザは、例えば、異なる種類のプラスティック、紙、金属等の、異なる種類の材料を特定するであろう。
更なる別の潜在的な用途は、焼却用に指定されたごみの流れの中から、危険または有毒な材料を選択して除去することである。システムは、仮想世界を構成して、燃やすと有害、破壊的または危険となり得るアイテムを特定するであろう。システムのユーザは、アイテムを特定すると共に、採るべき動作の所望の方針を示すであろう。ロボットは、最初の仮想世界、及びユーザ操作により生成された仮想世界間の差異に基づき、システムからロボットへの命令を受けるであろう。ロボットは、システムによる指示に従い、アイテムを持ち上げて置くであろう。残りの廃棄物は、安全に焼却されるであろう。
更に別の用途は、複合材料の分解である。仮想世界は、アイテムまたは分解中のアイテム、アイテムの価値に関する情報、並びに、アイテムの分解及び該分解にはらむ危険への最良の対処方法を含んで構築されるであろう。その後、仮想世界のユーザは、例えば、タスクの一覧表(メニュー)から選択することにより、動作の方針を選択し、ユーザ自身の専門知識と関連して順序付けられた実行すべきタスクのリストを生成するであろう。仮想世界においてユーザにより選択された動作は、物理的な空間内に位置する一連のロボットのためのコマンドに変換されるであろう。これにより、ロボットは、選択されたタスクを実行すると共に、状態の変化を通知するために、状態を仮想世界に返信して報告するであろう。
図示及び本明細書に記載された実施形態は、従来より定義される単なる“ゲーミフィケーション”、すなわち、“参加を促すために、ゲームまたはゲームの様な要素を、(タスクとして)何かに追加する処理”(http://www.merriam-webster.com/dictionary/gamification)を超えるものを示すことに留意すべきである。本願発明の実施形態は、ゲームによる報酬及び評価を、非ゲームタスクに単に適用するのではなく、目標は特定されるが達成されない“現実世界ゲーム”を効果的に生成する。VRコンピュータ40の提供する仮想現実は、解決すべき難題を、様々な視覚的及び/または聴覚的な特徴と連動させて、ユーザに対して効果的に提供し、ユーザによる難題の解決を支援すると共に、例えば、ユーザへの報酬の調整等、ユーザの進捗の監視を行う。そして、これらの実施形態は、ロボット20が処理25に遅れずについていかなければならない様な時間的制約のある状況において動作するものとしてもよいが、例えば、ドローン飛行機または遠隔治療を行うために使用されるロボット等のロボットに対する従来の遠隔または距離制御という意味においては、必ずしもリアルタイムに動作する必要はない。むしろ、これらの実施形態は、ロボットがその後になって使用する可能性のある非同期のユーザ入力の使用が、記載された様な所望の現実世界の動作を自律的に実行することを可能とする。更に、図示及び本明細書に記載された様々なロボット駆動装置20、20’は、ハードウェアツール22を有するハードウェア装置を有するが、ロボット駆動装置及び/またはツールは、本願発明の主旨を逸脱しない範囲内で、ハードウェア及び/またはソフトウェアの様々な組合せにおいて実行可能であることが認識されるべきである。
図5は、上述した手法の何れか1つを機械に実行させるための一組の命令を実行可能なコンピュータシステム300の一例としての形態における機械の再提示を示す図である。代替的な実施形態では、上記機械は、ネットワークルータ、ネットワークスイッチ、ネットワークブリッジ、PDA(Personal Digital Assistant)、携帯電話、ウェブ関連機器、または、機械の採るべき動作を特定する一連の命令を実行することのできる何れかの機械を有するものとしてもよい。
コンピュータシステム300は、バス308を介して互いに通信し合うプロセッサ302、メインメモリ304、及び静的メモリ306を有する。コンピュータシステム300は、映像表示装置310(例えば、LCD(Liquid Crystal Display)、プラズマ、CRT(Cathode Ray Tube)等)を更に有するものとしてもよい。また、コンピュータシステム300は、英数字入力装置312(例えば、キーボードまたはタッチスクリーン)、カーソル制御装置314(例えば、マウス)、ドライブ(例えば、ディスク、フラッシュメモリ等)装置316、信号生成装置320(例えば、スピーカ)、及びネットワークインタフェース装置322を有するものとしてもよい。
ドライブ装置316は、上述した手法の何れか1つまたは全てを実現する一組の命令(すなわち、ソフトウェア)326が格納される、コンピュータ読取り可能な媒体324を有する。また、ソフトウェア326は、全体的にまたは少なくとも部分的に、メインメモリ304内及び/またはプロセッサ302内に属する様に示されている。更に、ソフトウェア326は、ネットワークインタフェース装置322経由で送受信されるものとしてもよい。本明細書の目的に照らし、“コンピュータ読取り可能な媒体”という用語は、コンピュータにより実行される一連の命令を格納または符号化することができ、かつ、本願発明の手法の何れか1つをコンピュータに実行させる、如何なる媒体をも含むものとする。
更に、本願発明の実施形態は、コンピュータに対して、本願発明に関連付けられた何れかの機能、方法、及び/またはモジュールの実行を指示するのに使用可能なプログラムコードをその中に記憶したコンピュータ読取り可能な記憶媒体を有するコンピュータプログラムコードベースの製品を含む。持続性のあるコンピュータ読取り可能な媒体は、これらに限られないが、以下の:CD−ROM、DVD、磁気テープ、光ディスク、ハードドライブ、フロッピィディスク、強誘電体メモリ、フラッシュメモリ、相変化メモリ、強磁性メモリ、光学記憶装置、電荷結合素子(CCD)、磁気または光カード、スマートカード、EEPROM、EPROM、RAM、ROM、DRAM、SRAM、SDRAM、及び/あるいは他の何れかの適切な静的、動的、または揮発性のメモリ若しくはデータ記憶装置の内の何れかを含む。しかしながら、一時的な信号それ自体は含まない。
以下の例示的な実施例は、本願発明のある側面及び実施形態を示すものであり、本願発明を、何れか1つの特定の実施形態または一組の特徴に限定することを意図するものではない。
実施例
図1A〜図5に関して実質的に図示及び記載されたシステムの原型は、間もなく燃やされるごみの流れの中にある電池、及び水銀を含む電球型蛍光ランプ(CFL)の電球を発見するために構築された。USB映像カメラの映像データソースは、センサ34として使用された。また、高照度光は、カメラ用のより高いコントラスト(硬調)を提供するために使用された。物理入力101は、カメラにより生成されたライブ映像の供給を含んだ。RWO(CFL)24のための代表的な第1組のルール102は、データストア32上に載せられ、電池及びCFL電球のサイズ、CFLの最適な回収位置、割れたガラスの破片を回収するための最適位置、回収された各種材料を載置するためのxy座標上の位置を含んだ。また、セット102は、残されても安全な割れたCFLガラスの量に関するデータ、及び有害性の高い方から低い方への順位付けにより、より多くの電池が特定され、その後除去可能となった場合に、電池の除去に使用する際の優先度も含んだ。VROを管理するルール103は、追加され、より大きな危険に対してより大きなバケツが対応する様に、相対危険率に基づいて異なるサイズのバケツ;小さなガラス、割れたCFL、または多過ぎるアイテムが画面上に一度に存在する場合に、問題を解決する方法の可能性についてユーザ207にする命令;及び、できる限り多く除去し、かつ、最も有害な材料を最初に除去することを含むユーザの目標:を含んだ。他のルール103は、オブジェクトを容易に特定可能とするために、高いコントラストのフィルタを映像供給に適用すること;選択に対して音声を追加すること、及びアイテムをバケツの中に入れること;ユーザを落ち着かせて集中させ続けるための沈静用バックグラウンドミュージック;ユーザに注意を喚起し続けるためにGUI44において使用される明るい色;並びに、良好な選択を監視して到達に必要な目標速度を通知するための視覚的カウンタを含んだ。ロボット相互作用ルール111のセットは、ロボットが何れかの種類のアイテム、例えば、CFL電球、電池、またはCFLガラスを回収するために用いるべきツール22(例えば、グリッパ)の識別情報、及び、異なるサイズの電池をうまく回収するためにグリッパを閉じる量を含んだ。
VR世界/ゲーム104は、アドビ(登録商標)フラッシュを用いて構築され、かつ、仮想世界の表示装置206としての機能を果たすタッチスクリーンと共に、ウィンドウズ(登録商標)8.1のタブレット40上に属した。システムは、仮想世界104と相互作用しながら、修正された仮想世界106をリアルタイムに生成した。ユーザの相互作用105は、仮想世界を含むコンピュータ40から他のコンピュータ40へ、空色プラットフォーム上で実行されるネットウェブサーバの形態で、送信された。これにより、通信プロトコルとしてインターネットを用いることで、プレイヤが、ロボット20及び現実世界108から遠隔に位置することを可能とした。ウェブサーバは、MVW106を形成するためのこれらの修正を記録して、“位置x、yにおける“アイテム種類”のアイテムを回収”の形態で、ロボット宛に送信された命令107の生成に用いた。これらの命令の例は、“aa−電池”、“23、43”であった。ロボット20は、空色ウェブサーバの接続ソケットから、これらの命令を受けた。
ロボット20は、ABB会社により製造された、ロボティックスタジオと呼ばれる仮想的なロボットシミュレータであり、IRB1600を含む多くのロボットの内の1つの実行をシミュレートした。ロボットは、アイテムを入れるための箱、及び特定されたアイテムのためのグリップ目標点を含む、代表モデル102からの情報を使用し、ロボット相互作用111に提供した。ロボットは、上記情報を用いて、現実世界108内のシミュレートされたRWOを、自動的かつ自律的に操作し、ロボット介在109により、修正された現実世界110を生成した。ロボット介在109は、命令107により提供された位置に移動し、ロボットルール111により示されたグリッパを用い、特定の位置にある物理的な目標24を回収するロボット20の形態を採った。
上記システムは、様々なコンピュータ環境において実行される。例えば、本願発明は、従来のIBM社製PCまたはその同等物、多結節のシステム(例えば、LAN)、あるいはネットワークシステム(例えば、インターネット、www、無線ウェブ)上で実行されるものとしてもよい。全てのプログラム及びこれに関するデータは、コンピュータの静的若しくは動的または不揮発性のメモリ内に格納され、かつ、従来のコンピュータ記憶装置、表示装置(例えば、CRT、フラットパネルLCD、プラズマ等)及び/またはハードコピー(すなわち、印刷された)形式の何れかにおいて:ユーザにより検索されるものとしてもよい。本願発明に係るプログラムは、コンピュータシステム及び/またはソフトウェア設計の当業者により、実行されるものとしてもよい。
前述の明細書においては、図示及び説明の目的で、一例としての特定の実施形態に参照番号を付して、本願発明について記載した。かかる記載は、網羅的なものではなく、また、本願発明を、開示された通りの詳細な形態に限定することを意図するものでもない。本願開示の内容に照らして、多くの修正態様、及び変形態様を採ることが可能である。本願発明の範囲は、本明細書の詳細な説明により限定されるものではなく、むしろ本明細書に添付の請求項により限定されることを意図するものである。
更に、当然のことながら、本明細書に記載された実施形態の一つについて記載された特徴の幾つかは、本願発明の主旨から逸脱しない範囲内において、本明細書に記載された他の実施形態の幾つかに対しても、同様に適用可能である。

Claims (18)

  1. 仮想現実環境から入力を受けると、現実世界のオブジェクト(RWO)上でタスクを自律的に実行するためのロボットシステムであって:
    現実世界のオブジェクト(RWO)を操作するように構成されたツールを有するプロセッサ制御されたロボット駆動装置であり、該ロボット駆動装置は、一組のロボット固有の命令がその上に格納されたメモリを有し、該ロボット駆動装置は、前記ツールを作動させるための前記ロボット固有の命令を実行するために構成されたプロセッサを更に有するロボット駆動装置と;
    前記RWOを管理する第1組のルールを含む1つ以上のデータストアと;
    前記RWOの存在を検知すると共に、前記存在に対応するデータを生成するように構成された1つ以上のセンサと;
    前記ロボット駆動装置及び前記1つ以上のセンサに通信可能に接続された仮想現実(VR)コンピュータであり、該VRコンピュータは、前記データを取得すると共に、該データを用いて、前記RWOの代表である仮想世界オブジェクト(VWO)を含む仮想世界(VW)を生成するように構成されたVRコンピュータと;
    前記VWOを管理する第2組のルールを含む1つ以上のデータストアと;
    ユーザが、前記第2組のルールに従って前記VWと相互作用し、前記VWOを操作して、修正された仮想世界(MVW)を生成することを可能とするユーザインタフェースを有する前記VRコンピュータと;
    前記VW及び前記MVW間の差異を取得し、該差異を、前記ロボット駆動装置の使用可能な入力に変換し、該入力を、前記ロボット駆動装置に送信するように構成された変換エンジンと;
    前記入力を受けて興味を引くRWOを特定すると共に、前記入力を前記第1組のルールと結び付けて、前記ロボット駆動装置の使用可能な一組の結合された命令を生成し、前記ロボット固有の命令の各々を選択的に実行し、特定の前記RWOと自律的に相互作用するように構成された自律的な命令エンジンを有する前記ロボット駆動装置とを有する
    ことを特徴とするシステム。
  2. 前記変換エンジンは、前記VW及び前記MVW間の差異を取得し、前記ユーザにより選択されたVWOを特定し、特定されたVWOを、前記ロボット駆動装置の使用可能な入力に変換するように構成される
    請求項1に記載のシステム。
  3. 前記変換エンジンは、特定の位置x、yにおける特定の種類の回収アイテムの形態で、前記差異を、ロボット制御命令に変換するように構成される
    請求項2に記載のシステム。
  4. 前記自律的な命令エンジンは、ユーザの特定されたVWOの形態で前記入力を受けて、興味を引く対応するRWOを特定するように構成される
    請求項2に記載のシステム。
  5. 前記自律的な命令エンジンは、前記入力を、前記第1組のルールと結び付けて、前記RWOの操作の所望の最終結果を特定し、前記ロボット駆動装置の使用可能な一組の結合された命令を生成するように構成される
    請求項4に記載のシステム。
  6. 前記第1組のルールは、数学的法則、物理的法則、生化学的な法則、及びこれらの組合せを含む
    請求項1に記載のシステム。
  7. 前記第1組のルールは:特定のRWOのための所望の位置/箱;前記RWOが構築された材料を含む、前記RWOの物理的特性;危険を含む、前記RWOの処理に関連付けられた安全性考慮;色、材料種別、性質、地表面に基づいて前記オブジェクトの価値を管理するルールを含む、前記RWOオブジェクトの価値;例えば、ppm(100万分の1)内に生成される汚染等の、前記RWOが燃やされ、埋められ、沈められた場合に前記RWOによりもたらされる被害;前記RWOのサイズ、前記RWOの最適な回収位置;並びに、これらの混ぜ合わせ及び組合せを含む
    請求項6に記載のシステム。
  8. 前記第2組のルールは、オブジェクトのカラー化、オブジェクトまたは動作に関連付けられた音声及び音楽、オブジェクトまたは動作に関連付けられた動画または映像、並びに、これらの組合せを含む
    請求項1に記載のシステム。
  9. 前記第2組のルールは:価値、材料種類、材料の等級、前記ロボットを用いて掴む際の相対的困難さ、未回収が許される汚染物質のppmに関するルールに基づくオブジェクトのカラー化;異なる目標を達成するために回収されるべき種類の材料の割合(%)に関するルール;回収された材料の前記価値、及び前記回収された材料の価値の前記目標に関するルール;例えば、収集されたオブジェクトを有する、あるオブジェクトの出現、または、ユーザの“逃した”所望のオブジェクトの出現に関連付けられた音声及び音楽;例えば、目標を管理するルールにより決定されるような、オブジェクトの不完全同定、または、1分毎に所定数のオブジェクトを識別することの失敗等の、“報酬”が与えられているある動作に関連付けられた音声、及び妨げられている動作に関連付けられた音声;前記ユーザが学習する新たな動作、以前の期間において前記ユーザが逃したアイテムの例、特定の価値若しくは損害の新たなアイテム、または以前より周知のアイテムの前記価値若しくは損害における有意な変化に関連付けられた動画あるいは映像;割れたVWO、または多過ぎるアイテムが画面上に一度に存在する場合に、問題を解決する方法のための命令;並びに、できる限り多く除去する、最も有害なVWOを最初に除去する等の、プレイヤのための目標;並びに、これらの組合せを含む
    請求項8に記載のシステム。
  10. 前記ロボット固有の命令は、使用するツールの種類及び/またはサイズを管理するルール、前記ツールが前記特定のRWOを掴むべき力、前記RWOを遮断するために前記ツールが移動されるべき速度、異なるサイズのRWOをうまく回収するために前記ツールを閉じる量、並びに、これらの組合せを含む
    請求項1に記載のシステム。
  11. 前記自律的な命令エンジンは、前記ロボット駆動装置と通信可能に接続される
    請求項1に記載のシステム。
  12. 前記ロボットは、前記結合された命令を、事前にプログラムされた複数の命令セットの内の1つ以上の中に挿入し、前記MVWを、前記RWOに対する所望の影響と同期させることにより、自律的に前記RWOと相互作用するように構成される
    請求項1に記載のシステム。
  13. 前記ロボット固有の命令のセットは、ファームウェア内に格納される
    請求項1に記載のシステム。
  14. 前記センサは、電磁センサを有する
    請求項1に記載のシステム。
  15. 前記電磁センサは、画像取込み装置を有する
    請求項14に記載のシステム。
  16. 光、視覚的及び非視覚的帯域、音声、温度、重さ、相対運動、並びにこれらの組合せを含む、前記VWの物理的態様を管理する第3組のルールを含むデータストアを有する
    請求項1に記載のシステム。
  17. 前記ロボット駆動装置は、前記ロボット固有の命令の各々を選択的に実行し、前記VWとのユーザ相互作用に関連して、特定の前記RWOと自律的かつ非同期的に相互作用するように構成される
    請求項1に記載のシステム。
  18. 請求項1に記載の前記システムを用いて、仮想現実環境から入力を受けると、現実世界のオブジェクト(RWO)上でタスクを自律的に実行するための方法であって:
    (a)前記1つ以上のセンサを用いて、前記RWOの存在を検知すると共に、前記存在に対応するデータを生成することと;
    (b)前記VRコンピュータにより、前記データを撮像及び使用し、前記RWOの代表であるVWOを含む前記VWを生成することと;
    (c)前記ユーザインタフェースを介して、ユーザが、前記VWOを操作して、修正された仮想世界(MVW)を生成することを可能とすることと;
    (d)前記変換エンジンを用いて、前記VW及び前記MVW間の差異を撮像し、該差異を、前記ロボット駆動装置の使用可能な入力に変換すると共に、該入力を、前記変換エンジンから前記ロボット駆動装置へ送信することと;
    (e)前記ロボット駆動装置の前記自律的な命令エンジンにおいて入力を受け、興味を引き、かつ、前記自律的な命令エンジンを有するRWOを特定し、前記入力を、前記第1組のルールと結び付けて、前記ロボット駆動装置の使用可能な一組の結合された命令を生成し、前記ロボット固有の命令の各々を選択的に実行して、特定の前記RWOと自律的に相互作用することと;
    (f)前記ロボット駆動装置により前記RWOを操作することを含む
    ことを特徴とする方法。
JP2016565200A 2014-04-30 2015-04-30 仮想現実入力を用いたロボット制御システム Active JP6873703B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461986282P 2014-04-30 2014-04-30
US61/986,282 2014-04-30
US14/699,715 2015-04-29
US14/699,715 US9579799B2 (en) 2014-04-30 2015-04-29 Robotic control system using virtual reality input
PCT/US2015/028416 WO2015168357A1 (en) 2014-04-30 2015-04-30 Robotic control system using virtual reality input

Publications (2)

Publication Number Publication Date
JP2017519644A true JP2017519644A (ja) 2017-07-20
JP6873703B2 JP6873703B2 (ja) 2021-05-19

Family

ID=54354550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016565200A Active JP6873703B2 (ja) 2014-04-30 2015-04-30 仮想現実入力を用いたロボット制御システム

Country Status (4)

Country Link
US (1) US9579799B2 (ja)
EP (1) EP3137264A4 (ja)
JP (1) JP6873703B2 (ja)
WO (1) WO2015168357A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019063952A (ja) * 2017-10-02 2019-04-25 株式会社オカムラ 管理システム及び制御方法
KR101987274B1 (ko) * 2017-12-29 2019-09-27 한국과학기술연구원 장애물 재배치 위치 생성방법
WO2020032207A1 (ja) * 2018-08-10 2020-02-13 川崎重工業株式会社 情報処理装置、ロボット操作システム、及びロボット操作方法
WO2020032265A1 (ja) * 2018-08-10 2020-02-13 川崎重工業株式会社 ロボットシステム
WO2020032266A1 (ja) * 2018-08-10 2020-02-13 川崎重工業株式会社 仲介装置及びそれを用いた仲介方法
WO2020032211A1 (ja) * 2018-08-10 2020-02-13 川崎重工業株式会社 データ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システム
JP6858434B1 (ja) * 2020-02-14 2021-04-14 株式会社ロボマインド 人工知能システムおよび人工知能プログラム
US11220002B2 (en) 2018-04-25 2022-01-11 Fanuc Corporation Robot simulation device
JP7391023B2 (ja) 2018-01-02 2023-12-04 ゼネラル・エレクトリック・カンパニイ 人間による実演に基づく、ロボットによる産業タスクの学習のためのシステム及び方法

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9579799B2 (en) * 2014-04-30 2017-02-28 Coleman P. Parker Robotic control system using virtual reality input
US20180018714A1 (en) * 2015-06-23 2018-01-18 David A. Uhalley System and method of delivering advertising over networks
US9975241B2 (en) * 2015-12-03 2018-05-22 Intel Corporation Machine object determination based on human interaction
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
WO2017143367A1 (de) * 2016-02-26 2017-08-31 Knapp Ag Teilautomatisches lager- und kommissioniersystem
US10191486B2 (en) 2016-03-28 2019-01-29 Aveopt, Inc. Unmanned surveyor
US10597275B2 (en) * 2016-04-07 2020-03-24 Soft Robotics, Inc. Soft robotic actuators for positioning, packaging, and assembling
WO2017216853A1 (ja) * 2016-06-13 2017-12-21 株式会社日立製作所 制御操作インターフェース
US10220511B2 (en) * 2016-07-28 2019-03-05 X Development Llc Customized robotic installation based on measurements collected on site
CN106256509A (zh) * 2016-08-15 2016-12-28 李文松 替身机器人
CN106426166A (zh) * 2016-09-30 2017-02-22 西北大学 一种虚拟现实远程操控机械装置系统
US10919152B1 (en) 2017-05-30 2021-02-16 Nimble Robotics, Inc. Teleoperating of robots with tasks by mapping to human operator pose
US11345040B2 (en) * 2017-07-25 2022-05-31 Mbl Limited Systems and methods for operating a robotic system and executing robotic interactions
US11559898B2 (en) 2017-10-06 2023-01-24 Moog Inc. Teleoperation system, method, apparatus, and computer-readable medium
US11934187B2 (en) * 2017-12-01 2024-03-19 Onesubsea Ip Uk Limited Systems and methods of pilot assist for subsea vehicles
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
GB2572213A (en) * 2018-03-23 2019-09-25 Sony Interactive Entertainment Inc Second user avatar method and system
KR102275520B1 (ko) * 2018-05-24 2021-07-12 티엠알더블유 파운데이션 아이피 앤드 홀딩 에스에이알엘 현실 세계를 대표하는 실시간 3d 가상 세계 내에서 실시간 3d 가상 객체의 양방향 실시간 대화형 오퍼레이션
US10576526B2 (en) * 2018-07-03 2020-03-03 Komatsu Industries Corporation Workpiece conveying system, and workpiece conveying method
US11203122B2 (en) * 2018-08-03 2021-12-21 Digital Dream Labs, Llc Goal-based robot animation
WO2020032249A1 (ja) 2018-08-10 2020-02-13 川崎重工業株式会社 情報処理装置、仲介装置、シミュレートシステム及び情報処理方法
EP3976281A1 (en) * 2019-05-24 2022-04-06 Technische Universiteit Delft Apparatus and method for picking up objects off a surface
NL2023193B1 (nl) * 2019-05-24 2020-12-02 Univ Delft Tech Inrichting en werkwijze voor het vanaf een vlak uitnemen van objecten
US11262887B2 (en) * 2019-09-13 2022-03-01 Toyota Research Institute, Inc. Methods and systems for assigning force vectors to robotic tasks
US11328047B2 (en) * 2019-10-31 2022-05-10 Microsoft Technology Licensing, Llc. Gamified challenge to detect a non-human user
US11590663B2 (en) 2020-01-14 2023-02-28 International Business Machines Corporation Virtual reality enabled activity allocation
CN111369854A (zh) * 2020-03-20 2020-07-03 广西生态工程职业技术学院 一种Vr虚拟现实实验室的操作系统及方法
US20210370503A1 (en) * 2020-05-29 2021-12-02 Wipro Limited Method and system for providing dynamic cross-domain learning
CN116057508A (zh) * 2020-07-31 2023-05-02 西门子股份公司 在多个自治系统之间共享世界模型对象
DE102020213843A1 (de) 2020-11-04 2022-05-05 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Bestimmung optimierter Arbeitsabläufe mobiler Arbeitsmaschinen mithilfe Methoden der künstlichen Intelligenz
US11868433B2 (en) * 2020-11-20 2024-01-09 Accenture Global Solutions Limited Target object identification for waste processing

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS615690A (ja) * 1984-06-20 1986-01-11 株式会社日立製作所 多管式テレビジヨンカメラの電磁フオ−カス回路
JPH01127486A (ja) * 1987-11-10 1989-05-19 Sasebo Sentan Gijutsu Kaihatsu Kyodo Kumiai 水中ロボット
JPH02218576A (ja) * 1989-02-20 1990-08-31 Toshiba Corp 把持装置
JP2004243499A (ja) * 2003-02-17 2004-09-02 Matsushita Electric Ind Co Ltd 生活空間用の物品取扱いシステム、物品取扱い方法、及びロボット操作装置
JP2004268148A (ja) * 2003-03-05 2004-09-30 Matsushita Electric Ind Co Ltd 生活空間用の物品移動システム、及びロボット操作装置
JP2005080262A (ja) * 2003-09-04 2005-03-24 Hitachi Kokusai Electric Inc 撮像管式カメラ装置
JP2013119153A (ja) * 2011-12-09 2013-06-17 Kawasaki Heavy Ind Ltd ロボットハンド装置
JP2013132726A (ja) * 2011-12-27 2013-07-08 Seiko Epson Corp ロボットの制御方法、及びロボット

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5617515A (en) * 1994-07-11 1997-04-01 Dynetics, Inc. Method and apparatus for controlling and programming a robot or other moveable object
WO1997020305A1 (en) * 1995-11-30 1997-06-05 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US6281651B1 (en) * 1997-11-03 2001-08-28 Immersion Corporation Haptic pointing devices
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
KR20010053322A (ko) * 1999-04-30 2001-06-25 이데이 노부유끼 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체
US7050955B1 (en) * 1999-10-01 2006-05-23 Immersion Corporation System, method and data structure for simulated interaction with graphical objects
KR20010076786A (ko) 2000-01-28 2001-08-16 오길록 가상현실기술을 이용한 로봇 원격제어 시스템 및 방법
US7269632B2 (en) * 2001-06-05 2007-09-11 Xdyne, Inc. Networked computer system for communicating and operating in a virtual reality environment
EP1450737A2 (en) * 2001-11-10 2004-09-01 ARIZONA BOARD OF REGENTS, acting on behalf of ARIZONA STATE UNIVERSITY Direct cortical control of 3d neuroprosthetic devices
US6889118B2 (en) * 2001-11-28 2005-05-03 Evolution Robotics, Inc. Hardware abstraction layer for a robot
US7802193B1 (en) * 2001-12-19 2010-09-21 Sandia Corporation Controlling motion using a human machine interface
JP2005515910A (ja) * 2002-01-31 2005-06-02 ブレインテック カナダ インコーポレイテッド シングルカメラ3dビジョンガイドロボティクスの方法および装置
US20030222977A1 (en) * 2002-06-03 2003-12-04 Kazutora Yoshino Intelligent system and 3D virtual object generator
JPWO2004106009A1 (ja) * 2003-06-02 2006-07-20 松下電器産業株式会社 物品取扱いシステムおよび物品取扱いサーバ
DE10345743A1 (de) 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
CA2573728A1 (en) 2004-07-14 2006-02-23 Braintech Canada, Inc. Method and apparatus for machine-vision
US20060223637A1 (en) 2005-03-31 2006-10-05 Outland Research, Llc Video game system combining gaming simulation with remote robot control and remote robot feedback
US8398541B2 (en) * 2006-06-06 2013-03-19 Intuitive Surgical Operations, Inc. Interactive user interfaces for robotic minimally invasive surgical systems
WO2007136403A2 (en) * 2005-10-24 2007-11-29 Mtd America Ltd Dissimilar materials sorting process, system and apparatus
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
US8266536B2 (en) * 2008-11-20 2012-09-11 Palo Alto Research Center Incorporated Physical-virtual environment interface
KR101671900B1 (ko) * 2009-05-08 2016-11-03 삼성전자주식회사 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체
CN101920233A (zh) 2010-07-09 2010-12-22 广东工业大学 一种基于虚拟现实技术的喷涂工业机器人综合控制系统及控制方法
US20120142415A1 (en) * 2010-12-03 2012-06-07 Lindsay L Jon Video Show Combining Real Reality and Virtual Reality
US20120306850A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
WO2012174406A1 (en) * 2011-06-15 2012-12-20 University Of Washington Methods and systems for haptic rendering and creating virtual fixtures from point clouds
US8843236B2 (en) * 2012-03-15 2014-09-23 GM Global Technology Operations LLC Method and system for training a robot using human-assisted task demonstration
WO2013176762A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
US8831780B2 (en) * 2012-07-05 2014-09-09 Stanislav Zelivinski System and method for creating virtual presence
US20140320629A1 (en) * 2013-01-24 2014-10-30 University Of Washington Through Its Center For Commericialization Haptically-Enabled Co-Robotics for Underwater Tasks
KR101478908B1 (ko) 2013-05-14 2015-01-02 고려대학교 산학협력단 증강 현실 기술을 이용한 이동 로봇의 원격 내비게이션 시스템
US9579799B2 (en) * 2014-04-30 2017-02-28 Coleman P. Parker Robotic control system using virtual reality input

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS615690A (ja) * 1984-06-20 1986-01-11 株式会社日立製作所 多管式テレビジヨンカメラの電磁フオ−カス回路
JPH01127486A (ja) * 1987-11-10 1989-05-19 Sasebo Sentan Gijutsu Kaihatsu Kyodo Kumiai 水中ロボット
JPH02218576A (ja) * 1989-02-20 1990-08-31 Toshiba Corp 把持装置
JP2004243499A (ja) * 2003-02-17 2004-09-02 Matsushita Electric Ind Co Ltd 生活空間用の物品取扱いシステム、物品取扱い方法、及びロボット操作装置
JP2004268148A (ja) * 2003-03-05 2004-09-30 Matsushita Electric Ind Co Ltd 生活空間用の物品移動システム、及びロボット操作装置
JP2005080262A (ja) * 2003-09-04 2005-03-24 Hitachi Kokusai Electric Inc 撮像管式カメラ装置
JP2013119153A (ja) * 2011-12-09 2013-06-17 Kawasaki Heavy Ind Ltd ロボットハンド装置
JP2013132726A (ja) * 2011-12-27 2013-07-08 Seiko Epson Corp ロボットの制御方法、及びロボット

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019063952A (ja) * 2017-10-02 2019-04-25 株式会社オカムラ 管理システム及び制御方法
KR101987274B1 (ko) * 2017-12-29 2019-09-27 한국과학기술연구원 장애물 재배치 위치 생성방법
JP7391023B2 (ja) 2018-01-02 2023-12-04 ゼネラル・エレクトリック・カンパニイ 人間による実演に基づく、ロボットによる産業タスクの学習のためのシステム及び方法
DE102019002898B4 (de) 2018-04-25 2022-11-03 Fanuc Corporation Robotersimulationsvorrichtung
US11220002B2 (en) 2018-04-25 2022-01-11 Fanuc Corporation Robot simulation device
KR20210041048A (ko) * 2018-08-10 2021-04-14 카와사키 주코교 카부시키 카이샤 데이터 생성 장치, 데이터 생성 방법, 데이터 생성 프로그램 및 원격 조작 시스템
JP7130752B2 (ja) 2018-08-10 2022-09-05 川崎重工業株式会社 ロボットシステム
JP2020026024A (ja) * 2018-08-10 2020-02-20 川崎重工業株式会社 情報処理装置、ロボット操作システム、及びロボット操作方法
CN112469539A (zh) * 2018-08-10 2021-03-09 川崎重工业株式会社 机器人系统
KR20210040119A (ko) * 2018-08-10 2021-04-12 카와사키 주코교 카부시키 카이샤 정보 처리 장치, 로봇 조작 시스템 및 로봇 조작 방법
CN112469539B (zh) * 2018-08-10 2024-02-13 川崎重工业株式会社 机器人系统
KR20210041040A (ko) * 2018-08-10 2021-04-14 카와사키 주코교 카부시키 카이샤 로봇 시스템
WO2020032211A1 (ja) * 2018-08-10 2020-02-13 川崎重工業株式会社 データ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システム
TWI728424B (zh) * 2018-08-10 2021-05-21 日商川崎重工業股份有限公司 資訊處理裝置、機器人操作系統、以及機器人操作方法
JPWO2020032265A1 (ja) * 2018-08-10 2021-08-10 川崎重工業株式会社 ロボットシステム
WO2020032266A1 (ja) * 2018-08-10 2020-02-13 川崎重工業株式会社 仲介装置及びそれを用いた仲介方法
JP2020026028A (ja) * 2018-08-10 2020-02-20 川崎重工業株式会社 データ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システム
WO2020032265A1 (ja) * 2018-08-10 2020-02-13 川崎重工業株式会社 ロボットシステム
KR102511814B1 (ko) * 2018-08-10 2023-03-20 카와사키 주코교 카부시키 카이샤 정보 처리 장치, 로봇 조작 시스템 및 로봇 조작 방법
KR102518131B1 (ko) * 2018-08-10 2023-04-05 카와사키 주코교 카부시키 카이샤 로봇 시스템
KR102518766B1 (ko) * 2018-08-10 2023-04-06 카와사키 주코교 카부시키 카이샤 데이터 생성 장치, 데이터 생성 방법, 데이터 생성 프로그램 및 원격 조작 시스템
JP7281349B2 (ja) 2018-08-10 2023-05-25 川崎重工業株式会社 遠隔操作システム
JP7333204B2 (ja) 2018-08-10 2023-08-24 川崎重工業株式会社 情報処理装置、ロボット操作システム、及びロボット操作方法
US11769422B2 (en) 2018-08-10 2023-09-26 Kawasaki Jukogyo Kabushiki Kaisha Information processing device, robot manipulating system and robot manipulating method
WO2020032207A1 (ja) * 2018-08-10 2020-02-13 川崎重工業株式会社 情報処理装置、ロボット操作システム、及びロボット操作方法
JP6858434B1 (ja) * 2020-02-14 2021-04-14 株式会社ロボマインド 人工知能システムおよび人工知能プログラム

Also Published As

Publication number Publication date
US9579799B2 (en) 2017-02-28
EP3137264A4 (en) 2018-01-03
US20150314440A1 (en) 2015-11-05
EP3137264A1 (en) 2017-03-08
JP6873703B2 (ja) 2021-05-19
WO2015168357A1 (en) 2015-11-05

Similar Documents

Publication Publication Date Title
JP6873703B2 (ja) 仮想現実入力を用いたロボット制御システム
Shi et al. World of bits: An open-domain platform for web-based agents
Hundt et al. “good robot!”: Efficient reinforcement learning for multi-step visual tasks with sim to real transfer
CN102930753B (zh) 加油站虚拟培训系统及应用
Bainbridge Berkshire encyclopedia of human-computer interaction
Gutierrez et al. IMA-VR: A multimodal virtual training system for skills transfer in Industrial Maintenance and Assembly tasks
US20120272171A1 (en) Apparatus, Method and Computer-Implemented Program for Editable Categorization
Rea et al. Still not solved: A call for renewed focus on user-centered teleoperation interfaces
CN106393113A (zh) 机器人和机器人的交互控制方法
US10960540B2 (en) Robot orchestration architecture
Nam et al. A software architecture for service robots manipulating objects in human environments
Sydora et al. Critical lifting simulation of heavy industrial construction in gaming environment
KR20220128655A (ko) 제조 또는 산업 환경에서 협동 로봇과의 상호작용을 위한 가상/증강 현실 사용 시스템 및 방법
Zhang et al. Learning collaborative action plans from youtube videos
US20210394359A1 (en) Robotic Intervention Systems
Pieskä et al. Towards easier human-robot interaction to help inexperienced operators in SMEs
Donepudi Reinforcement learning for robotic grasping and manipulation: a review
Campana et al. The importance of specific usability guidelines for robot user interfaces
Huang et al. An object-centric paradigm for robot programming by demonstration
Kasper et al. Abstracting perception and manipulation in end-user robot programming using Sikuli
Papadopoulos et al. An Advanced Human-Robot Interaction Interface for Teaching Collaborative Robots New Assembly Tasks
Li et al. Perception-enhancement based task learning and action scheduling for robotic limb in CPS environment
Senanayake et al. bRIGHT–workstations of the future and leveraging contextual models
Qiao et al. Teleoperation of the industrial robot: augmented reality application
Sennersten et al. Towards a cloud-based architecture for 3D object comprehension in cognitive robotics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190605

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200108

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20200121

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200207

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200212

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200228

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200303

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200512

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200930

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210309

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210316

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210420

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210421

R150 Certificate of patent or registration of utility model

Ref document number: 6873703

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250