JP2022538281A - ロボットマニピュレータに入力を実行するためのシステム - Google Patents

ロボットマニピュレータに入力を実行するためのシステム Download PDF

Info

Publication number
JP2022538281A
JP2022538281A JP2021577212A JP2021577212A JP2022538281A JP 2022538281 A JP2022538281 A JP 2022538281A JP 2021577212 A JP2021577212 A JP 2021577212A JP 2021577212 A JP2021577212 A JP 2021577212A JP 2022538281 A JP2022538281 A JP 2022538281A
Authority
JP
Japan
Prior art keywords
input variables
robot manipulator
computing unit
input
manipulator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021577212A
Other languages
English (en)
Inventor
スペニンガー、アンドレアス
ゴルツ、サスキア
パルーセル、スヴェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Franka Emika GmbH
Original Assignee
Franka Emika GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Franka Emika GmbH filed Critical Franka Emika GmbH
Publication of JP2022538281A publication Critical patent/JP2022538281A/ja
Priority to JP2024010612A priority Critical patent/JP2024038495A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/04Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type by rotating at least one arm, excluding the head movement itself, e.g. cylindrical coordinate type or polar coordinate type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36401Record play back, teach position and record it then play back

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

本発明は、ロボットマニピュレータ(1)に入力を実行するためのシステム(100)に関し、システムは、-関節によって互いに接続された複数の肢を有し、アクチュエータ(3)を有するロボットマニピュレータ(1)、-ロボットマニピュレータ(1)に接続されたコンピューティングユニット(5)、-コンピューティングユニット(5)に接続されたセンサユニット(7)、を有し、ここで、センサユニット(7)は、ロボットマニピュレータ(1)上でロボットマニピュレータ(1)を手動でガイドすることによってユーザによって適用される入力変数を記録するように設計され、入力変数は、運動学的変数または力および/またはモーメントであり、センサユニット(7)は、入力変数をコンピューティングユニット(5)に送信するように設計され、コンピューティングユニット(5)は、事前定義された入力変数マッピングによって入力変数を変換するように設計されており、入力変数マッピングは、グラフィカルユーザーインターフェースの座標または仮想制御要素の設定への入力変数の数学的マッピングを定義する。【選択図】図1

Description

本発明は、ロボットマニピュレータに入力を実行するためのシステム、およびロボットマニピュレータに入力を実行するための方法に関する。
本発明の目的は、ユーザによるロボットマニピュレータへの入力の性能を改善することである。
本発明は、独立請求項の特徴により定義される。好都合な発展形および実施形態は、従属請求項の主題である。
本発明の第1の態様は、ロボットマニピュレータに入力を実行するためのシステムに関し、システムは:
-関節によって互いに接続された複数の肢を有し、アクチュエータを有するロボットマニピュレータ、
-ロボットマニピュレータに接続されたコンピューティングユニット、
-コンピューティングユニットに接続されたセンサユニット、
を有し、
ここで、センサユニットはロボットマニピュレータ上でロボットマニピュレータを手動でガイドすることによってユーザによって適用される入力変数を記録するように設計されており、入力変数は、運動学的変数または力および/またはモーメントであり、センサユニットは、入力変数コンピューティングユニットに送信するように設計され、
ここで、コンピューティングユニットは、事前定義された入力変数マッピングによって入力変数を変換するように設計されており、入力変数マッピングは、グラフィカルユーザーインターフェースの座標または仮想制御要素の設定への入力変数の数学的マッピングを定義する。
グラフィカルユーザーインターフェースの座標は、特にスクリーンの場合、スクリーン上の座標に対応し、グラフィカルユーザーインターフェースが仮想現実ゴーグルで表される場合は仮想現実ゴーグルの座標に対応する。
本発明の第1の態様によれば、また以下では、エンドエフェクタは、ロボットマニピュレータの「肢」であると理解することもでき、エンドエフェクタは、通常、ロボットマニピュレータの遠位肢に配置される。
入力変数は、この点で、好ましくは運動学的変数、すなわち、ロボットマニピュレータ上の少なくとも1つの肢または事前定義された点の位置および/または方向、またはその時間微分、すなわち速度または加速度、あるいは好ましくは、ユーザによってロボットマニピュレータに加えられる力、またはユーザによってロボットマニピュレータに加えられるモーメントであり、後者のモーメントまたは力の場合、コンピューティングユニットは、好ましくは、ロボットマニピュレータが剛体として振る舞うように、すなわち、アクチュエータによって可能になる範囲で、前記アクチュエータは、ユーザによるロボットマニピュレータの試みられた動きに対して反モーメントを生成するよう、ロボットマニピュレータのアクチュエータを作動させるように設計される。したがって、センサユニットは、少なくとも、肢またはロボットマニピュレータまたは複数の肢上の点の位置および/または向きを決定するのに適したセンサを含み、任意選択で、力センサおよび/またはモーメントセンサも含む。
グラフィカルユーザーインターフェースがスクリーン上に表示される場合、特に入力変数のマッピングは、特にスクリーンの幾何学的限界を考慮した、スクリーンの2次元平面への入力変数の投影であり、有利には、ロボットマニピュレータ(および特にそのアクチュエータ)は、スクリーンの限界の1つに到達することと相関するそのような入力変数の場合、アクチュエータがロボットマニピュレータの追加の動きに対して人工的な抵抗を提供するように、コンピューティングユニットによって作動される。
仮想制御要素は、好ましくは、実際の物理的制御要素、例えば、回転制御装置またはスライディング制御装置のエミュレーションである。仮想制御要素には、特に下限と上限とがあり、これら2つの制限の間に、特にロボットマニピュレータのパラメータとして使用できる設定が定義されている。
本発明の有利な効果は、ロボットマニピュレータのユーザが、ロボットマニピュレータに力またはモーメントを対応して加えることによるロボットマニピュレータの対応する動きによって、ロボットマニピュレータに直感的に入力を実行できることである。ロボットマニピュレータへのユーザの入力は、この点で、特にグラフィカルユーザーインターフェースに関連する数値またはロボットマニピュレータへのコマンドを含むことができ、その結果、ユーザの入力は、マウスポインター(入力変数によって制御される)によるメニュー制御、またはグラフィカルユーザーインターフェース上のマークされたメニューエントリまたはオブジェクトの切り替えによるメニュー制御に有利に使用できる。したがって、有利には、ユーザは、ロボットマニピュレータを入力デバイスとして普遍的に使用することができる。なぜなら、事前定義された入力変数マッピングの結果として、グラフィカルユーザーインターフェースまたは仮想制御要素への対応する参照が確立されるからである。特に、有利には、力またはモーメントの記録、あるいは位置変化の記録は、それぞれの場合において、ロボットマニピュレータ上のユーザの側での手動ガイドによって引き起こされ、特にグラフィカルユーザーインターフェースのメニューまたは機能領域を制御できる触覚ジェスチャとして定義できる。
さらに、有利には、本発明の第1の態様によるシステムはまた、第1のロボットマニピュレータおよび第2のロボットマニピュレータを備えたシステムに使用することができ、特に、第1のロボットマニピュレータは、本発明の第1の態様に従って入力を実行するために使用され、および、特に、第2のロボットマニピュレータは、代替案において本発明の第1の態様を実行するよう設計される。
有利な実施形態によれば、ロボットマニピュレータの事前定義された動作を実行するためのコンピューティングユニットは、変換された入力変数または座標または設定に応じて実行される。
ロボットマニピュレータの事前定義された動作は、ここでは特に、グラフィカルな表面上のオブジェクトのアクティブ化であり、好ましくは、ロボットマニピュレータの後続のアクション、例えば、機能またはロボットプログラムのパラメータ化、ならびにあるいはそのようなプログラムまたはそのような機能の実行の開始、さらにあるいはロボットマニピュレータのスイッチオフ、現在の位置値またはロボットマニピュレータの現在の向きの値の保存、である。
追加の有利な実施形態によれば、システムは、表示ユニットを含み、表示ユニットは、以下のうちの少なくとも1つを表示するように設計されている:
-入力変数、
-入力変数の量、
-変換された入力変数、
-変換された入力変数の量。
表示ユニットは、好ましくは、スクリーン、プロジェクター、仮想現実ディスプレイゴーグル、LEDユニットのうちの1つである。有利なことに、それにより、ユーザは、どのタイプの入力および/またはどのレベルで所与の時間に入力を実行しているかに関して、即座にフィードバックが与えられる。特に、表示ユニットは、現在の座標をマウスポインタ座標としてマウスポインタを表示するため、および/または仮想制御要素の現在の設定を表示するよう設計されている。
追加の有利な実施形態によれば、センサユニットは、ロボットマニピュレータの現在の位置および/または向きを記録し、現在の位置および/または向きをコンピューティングユニットに送信するように設計されており、コンピューティングユニットは、事前定義された幾何学的構造への手動ガイド中に、ロボットマニピュレータが手動ガイドによって引き起こされるロボットマニピュレータの動きに対する抵抗を生成するようにアクチュエータを作動させるように設計され、コンピューティングユニットは、抵抗の事前定義された制限値を超えた場合、または幾何学的構造に対するロボットマニピュレータの事前定義されたポイントの距離の事前定義された制限値がアンダーシュートされた場合に、事前定義された機能をアクティブ化するように設計されている。有利には、この実施形態は、ロボットマニピュレータ上の入力要素を省くことをもたらし、その結果、純粋にユーザのジェスチャ制御によって、例えば、マウスクリックの機能を生成することができ、さもなければ、グラフィカルユーザーインターフェース上の他の機能をアクティブ化することができる。
追加の有利な実施形態によれば、事前定義された機能は、少なくとも座標がオブジェクトの所定の座標範囲と一致する場合、グラフィカルユーザーインターフェース上のオブジェクトのアクティブ化である。この実施形態によれば、現在の位置、特にロボットマニピュレータのエンドエフェクタの現在の位置では、機能は、マウスクリックと同様にアクティブ化され、現在の入力変数および/または入力変数の過去の経過により、グラフィカルユーザーインターフェースの現在の座標が決定され、これにより、マウスポインタをグラフィカルユーザーインターフェースのオブジェクトにガイドするのと同様の方法で、その後マウスをクリックまたはダブルクリックした場合は、マウスポインタの下にあるそれぞれのオブジェクトをアクティブ化することができる。
追加の有利な実施形態によれば、事前定義された幾何学的構造は平面であり、平面は、地上座標系に対するその向きおよび位置に関して不変である。
追加の有利な実施形態によれば、コンピューティングユニットは、ロボットマニピュレータの手動ガイド中に、ロボットマニピュレータが記録された現在の入力変数および/または変換された入力変数の触覚および/または触感フィードバックを出力するようにアクチュエータを作動させるように設計されている。
追加の有利な実施形態によれば、それぞれの場合の触覚および/または触感フィードバックは、以下のうちの少なくとも1つを含む:
-特にエンドエフェクタの位置に依存する位置依存グリッド、
-ロボットマニピュレータを手動でガイドできる作業領域の抵抗による制限、つまり、反力によって生成された人工壁、
-ロボットマニピュレータの入力変数および/または現在の位置および/または現在の向き、および/または変換された入力変数がグラフィカルユーザーインターフェース上のオブジェクトと一致する場合のフィードバックであり、ここで、グラフィカルユーザーインターフェースの座標は、ロボットマニピュレータの入力変数および/または現在の位置および/または現在の向き、および/または変換された入力変数に割り当てられ、
-座標がグラフィカルユーザーインターフェースのオブジェクトの事前定義された座標範囲と一致する場合の信号。
システムの追加の有利な実施形態によれば、表示ユニットはスクリーンである。
追加の有利な実施形態によれば、コンピューティングユニットは、重力補償を備えたロボットマニピュレータを作動させるように設計されている。重力補償を伴うロボットマニピュレータの作動の場合、アクチュエータは、ロボットマニピュレータに作用する重力が補償されるように作動され、その結果、外力の影響がなく、加速せずに静的な静止位置から進んでいる場合、ロボットマニピュレータはこの静止位置に留まり続ける。これは、ユーザのためのロボットマニピュレータの手動ガイドを有利に容易にする。
本発明の追加の態様は、関節によって互いに接続され、アクチュエータを有する複数の肢を有するロボットマニピュレータに入力を実行するための方法に関し、ロボットマニピュレータはコンピューティングユニットに接続されており、次のステップを実行する:
-コンピューティングユニットに接続されたセンサユニットによって、ロボットマニピュレータ上でロボットマニピュレータを手動でガイドすることにより、ユーザによって適用された入力変数を記録し、ここで、入力変数は、運動学的変数または力および/またはモーメントであり、
-センサユニットによって入力変数をコンピューティングユニットに送信し、および、
-事前定義された入力変数マッピングを用いてコンピューティングユニットによって入力変数を変換し、ここで、入力変数マッピングは、グラフィカルユーザーインターフェースの座標またはコンピューティングユニットの仮想制御要素の設定への入力変数の数学的マッピングを定義する。
有利な実施形態によれば、この方法はさらに、以下のステップを含む:
-現在のマウスポインタ座標でマウスポインタを表示する、および/または表示ユニットによって仮想制御要素の現在の設定を表示する。
有利な実施形態によれば、この方法はさらに、以下のステップを含む:
-変換された入力変数または座標または設定に応じて、ロボットマニピュレータの事前定義された操作を実行する。
提案された方法の利点および好ましい発展形は、提案されたシステムに関連して上述された説明を類似の対応する転用から導き出すことができる。
さらなる利点、特徴、および詳細は、必要であれば図面を参照し、少なくとも1つの実施形態を詳細に説明する以下の説明から導き出すことができる。同一、類似、および/または機能的に同一の要素は同じ参照符号で示す。
以下のとおり図に示す。
図1は、本発明の実施例によるロボットマニピュレータに入力を実行するためのシステムを示す。 図2は、本発明の追加の実施例による、ロボットマニピュレータに入力を実行するための方法を示す。
図面の表現は、図式化されたものであり、縮尺通りではない。
図1は、ロボットマニピュレータ1に入力を実行するためのシステム100を示しており、以下を含む:
-関節によって互いに接続された複数の肢を有し、アクチュエータ3を有するロボットマニピュレータ1、
-ロボットマニピュレータ1の基部に配置されたコンピューティングユニット5、
-コンピューティングユニット5に接続されたセンサユニット7。
センサユニット7は、ロボットマニピュレータ1上でロボットマニピュレータ1を手動でガイドすることにより、ユーザが適用した入力変数を記録するために使用され、ここで、入力変数は、ユーザがロボットマニピュレータ1に加える力であり、センサユニット7は、入力変数をコンピューティングユニット5に送信するように設計されている。コンピューティングユニット5は、ここでは、事前定義された入力変数マッピングによって入力変数を変換するために使用され、入力変数マッピングは、グラフィカルユーザーインターフェースの座標または仮想制御要素の設定への入力変数の数学的マッピングである。システム100はさらに、表示ユニット9を備え、表示ユニット9は、以下のうちの少なくとも1つを表示するように設計されている:
-入力変数、
-入力変数の量、
-変換された入力変数、
-変換された入力変数の量。
特に、表示ユニットは、現在のマウスポインタ座標でマウスポインタを表示するように設計されている。したがって、センサユニット7は、ロボットマニピュレータ1の現在の位置および/または向きを記録するため、および現在の位置および/または向きをコンピューティングユニット5に送信するために使用され、コンピューティングユニット5は、ロボットマニピュレータ1が、事前定義された空間的に固定された定義された平面への手動ガイド中に、手動ガイドによって引き起こされるロボットマニピュレータ1の動きに対する抵抗を生成するようにアクチュエータ3を作動させるように設計されている。コンピューティングユニット5はさらに、抵抗の事前定義された制限値を超えた場合、または幾何学的構造に対するロボットマニピュレータ1の事前定義された点の距離の事前定義された制限値がアンダーシュートされた場合に、事前定義された機能をアクティブにするために使用される。事前定義された機能は、少なくとも座標がオブジェクトの事前定義された座標範囲と一致する場合、グラフィカルユーザーインターフェースでのオブジェクトのアクティブ化である。事前定義された機能は、少なくとも座標がオブジェクトの事前定義された座標範囲と一致する場合の、グラフィカルユーザーインターフェースでのオブジェクトのアクティブ化である。さらに、コンピューティングユニット5は、ロボットマニピュレータ1の手動ガイド中に、ロボットマニピュレータ1が、記録された現在の入力変数および/または変換された入力変数の触覚および/または触感フィードバックを出力するようにアクチュエータ3を作動させるように設計されており、それぞれの場合の触覚および/または触感フィードバックには、以下の少なくとも1つが含まれる:
-位置依存グリッド、
-ロボットマニピュレータ1を手動でガイドできる作業領域の抵抗による制限、
-ロボットマニピュレータ1の入力変数および/または現在の位置および/または現在の向きがグラフィカルユーザーインターフェース上のオブジェクトと一致する場合のフィードバック、ここで、グラフィカルユーザーインターフェースの座標は、ロボットマニピュレータ1の入力変数および/または現在の位置および/または現在の向きに割り当てられ、
-座標がグラフィカルユーザーインターフェースのオブジェクトの事前定義された座標範囲と一致する場合の信号。ここでの表示ユニット9はスクリーンである。
図2は、関節によって互いに接続された複数の肢を有し、アクチュエータ3を有するロボットマニピュレータ1に入力を実行するための方法を示し、ロボットマニピュレータ1は、以下のステップを有するコンピューティングユニット5に接続されている:
-コンピューティングユニット5に接続されたセンサユニット7によってロボットマニピュレータ1上でロボットマニピュレータ1を手動でガイドすることによってユーザによって適用される入力変数を記録S1し、ここで、入力変数は、運動学的変数または力および/またはモーメントであり、
-センサユニット7によって入力変数をコンピューティングユニット5に送信S2し、
-事前定義された入力変数マッピングを用いてコンピューティングユニット5によって入力変数を変換S3し、ここで、入力変数マッピングは、グラフィカルユーザーインターフェースの座標またはコンピューティングユニット5の仮想制御要素の設定への入力変数の数学的マッピングを定義し、
-現在のマウスポインタ座標でマウスポインタを表示する、および/または表示ユニットによって仮想制御要素の現在の設定を表示S4する。
以上、好適な実施形態を用いて本発明を詳細に説明してきたが、本発明は開示された例に限定されるものではなく、ここから当業者によって本発明の保護の範囲を逸脱することなくその他の変形例を得ることも可能である。したがって、複数の変形例の可能性が存在することは明らかである。また、例示された実施形態は、実際に単なる例であり、例えば、保護の範囲、潜在的な利用可能性、または本発明の構成を限定するものとして理解されるべきではないことも明らかである。むしろ、上記の説明および図面の説明は、当業者に例示される実施形態を具体的に実施することを可能にするものであり、開示された発明概念の知識を持つ当業者には、例えば例示される実施形態に記載の個々の要素の機能または構成について、請求項、および、例えば明細書におけるさらなる説明など、請求項の法的な等価物に規定される保護の範囲を逸脱することなく、数多くの修正を行うことが可能である。
1:ロボットマニピュレータ
3:アクチュエータ
5:コンピューティングユニット
7:センサユニット
9:表示ユニット
100:システム

S1:記録
S2:送信
S3:変換
S4:表示

Claims (10)

  1. ロボットマニピュレータ(1)に入力を実行するためのシステム(100)であって、
    -関節によって互いに接続された複数の肢を有し、アクチュエータ(3)を有するロボットマニピュレータ(1)、
    -前記ロボットマニピュレータ(1)に接続されたコンピューティングユニット(5)、
    -前記コンピューティングユニット(5)に接続されたセンサユニット(7)、
    を有し、
    ここで、前記センサユニット(7)は、前記ロボットマニピュレータ(1)上で前記ロボットマニピュレータ(1)を手動でガイドすることによってユーザによって適用される入力変数を記録するように設計されており、前記入力変数は、運動学的変数または力および/またはモーメントであり、前記センサユニット(7)は、前記入力変数を前記コンピューティングユニット(5)に送信するように設計され、
    ここで、前記コンピューティングユニット(5)は、事前定義された入力変数マッピングによって前記入力変数を変換するように設計されており、前記入力変数マッピングは、グラフィカルユーザーインターフェースの座標または仮想制御要素の設定への前記入力変数の数学的マッピングを定義する、システム。
  2. 請求項1に記載のシステム(100)であって、
    前記システム(100)は、表示ユニット(9)を備え、前記表示ユニット(9)は、
    -入力変数、
    -入力変数の量、
    -変換された入力変数、
    -変換された入力変数の量、
    -グラフィカルユーザーインターフェースとグラフィカルオブジェクトサーフェス上のオブジェクト、
    -マウスポインタ、
    のうちの少なくとも1つを表示するように設計されている、システム。
  3. 請求項1または請求項2に記載のシステム(100)であって、
    前記センサユニット(7)は、前記ロボットマニピュレータ(1)の現在の位置および/または向きを記録し、前記現在の位置および/または向きをコンピューティングユニット(5)に送信するように設計され、前記コンピューティングユニット(5)は、前記ロボットマニピュレータ(1)が特定の幾何学的構造への手動ガイド中に、手動ガイドによって引き起こされる前記ロボットマニピュレータ(1)の動きに対する抵抗を生成するように前記アクチュエータ(3)を作動させるように設計され、前記コンピューティングユニット(5)は、抵抗の所定の限界値を超えた場合、または幾何学的構造に対する前記ロボットマニピュレータ(1)の所定の点の距離の所定の限界値がアンダーシュートされた場合に、所定の機能をアクティブ化するように設計されている、システム。
  4. 請求項3に記載のシステム(100)であって、
    前記事前定義された機能は、少なくとも座標がオブジェクトの所定の座標範囲と一致する場合に、グラフィカルユーザーインターフェース上でオブジェクトをアクティブ化することである、システム。
  5. 請求項3または請求項4に記載のシステム(100)であって、
    事前定義された幾何学的構造は平面であり、前記平面は、地上座標系に対する方向と位置に関して不変である、システム。
  6. 請求項1から請求項5のいずれか一項に記載のシステム(100)であって、
    前記コンピューティングユニット(5)は、前記ロボットマニピュレータ(1)の手動ガイド中に、前記ロボットマニピュレータ(1)が記録された現在の入力変数および/または変換された入力変数の触覚および/または触感フィードバックを出力するように前記アクチュエータ(3)を作動させるように設計されている、システム。
  7. 請求項6に記載のシステム(100)であって、
    それぞれの場合の触覚および/または触感フィードバックには、
    -位置依存グリッド、
    -前記ロボットマニピュレータ(1)を手動でガイドできる作業領域の抵抗による制限、
    -前記ロボットマニピュレータ(1)の入力変数および/または現在の位置および/または現在の方向がグラフィカルユーザーインターフェース上のオブジェクトと一致する場合のフィードバックであり、ここで、前記グラフィカルユーザーインターフェースの座標は、ロボットマニピュレータ(1)の入力変数および/または現在の位置および/または現在の方向に割り当てられ、
    -前記座標がグラフィカルユーザーインターフェースのオブジェクトの事前定義された座標範囲と一致する場合の信号、
    の少なくとも1つが含まれる、システム。
  8. 請求項2から請求項7のいずれか一項に記載のシステム(100)であって、
    前記表示ユニット(9)はスクリーンである、システム。
  9. 請求項1から請求項8のいずれか一項に記載のシステム(100)であって、
    前記コンピューティングユニット(5)は、重力補償を備えた前記ロボットマニピュレータ(1)を作動させるように設計されている、システム。
  10. 関節によって互いに接続された複数の肢を有し、アクチュエータ(3)を有するロボットマニピュレータ(1)に入力を実行するための方法であって、前記ロボットマニピュレータ(1)はコンピューティングユニット(5)に接続されており、次のステップ:
    -前記コンピューティングユニット(5)に接続されたセンサユニット(7)によって、前記ロボットマニピュレータ(1)を前記ロボットマニピュレータ(1)上で手動ガイドすることによって、ユーザによって適用された入力変数を記録(S1)し、ここで、前記入力変数は、運動学的変数または力および/またはモーメントであり、
    -前記センサユニット(7)によって前記入力変数を前記コンピューティングユニット(5)に送信(S2)し、
    -事前定義された入力変数マッピングを用いて前記コンピューティングユニット(5)によって前記入力変数を変換(S3)し、ここで、前記入力変数マッピングは、グラフィカルユーザーインターフェースの座標または前記コンピューティングユニット(5)の仮想制御要素の設定への前記入力変数の数学的マッピングを定義する、
    を有する、方法。
JP2021577212A 2019-06-26 2020-06-26 ロボットマニピュレータに入力を実行するためのシステム Pending JP2022538281A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024010612A JP2024038495A (ja) 2019-06-26 2024-01-26 ロボットマニピュレータに入力を実行するためのシステム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102019004478.9A DE102019004478B3 (de) 2019-06-26 2019-06-26 System zum Vornehmen einer Eingabe an einem Robotermanipulator
DE102019004478.9 2019-06-26
PCT/EP2020/067981 WO2020260555A1 (de) 2019-06-26 2020-06-26 System zum vornehmen einer eingabe an einem robotermanipulator

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024010612A Division JP2024038495A (ja) 2019-06-26 2024-01-26 ロボットマニピュレータに入力を実行するためのシステム

Publications (1)

Publication Number Publication Date
JP2022538281A true JP2022538281A (ja) 2022-09-01

Family

ID=71670210

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021577212A Pending JP2022538281A (ja) 2019-06-26 2020-06-26 ロボットマニピュレータに入力を実行するためのシステム
JP2024010612A Pending JP2024038495A (ja) 2019-06-26 2024-01-26 ロボットマニピュレータに入力を実行するためのシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024010612A Pending JP2024038495A (ja) 2019-06-26 2024-01-26 ロボットマニピュレータに入力を実行するためのシステム

Country Status (7)

Country Link
US (1) US20220362943A1 (ja)
EP (1) EP3990231B1 (ja)
JP (2) JP2022538281A (ja)
KR (1) KR20220024971A (ja)
CN (1) CN114072256A (ja)
DE (1) DE102019004478B3 (ja)
WO (1) WO2020260555A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019117217B3 (de) * 2019-06-26 2020-08-20 Franka Emika Gmbh Verfahren zum Vorgeben eines Eingabewerts an einem Robotermanipulator
DE102021106251B4 (de) 2021-03-15 2022-11-10 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Betreiben eines Roboterarms

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880956A (en) * 1994-08-12 1999-03-09 Minnesota Mining And Manufacturing Company Lead-through robot programming system
JP2016175178A (ja) * 2015-03-19 2016-10-06 株式会社デンソーウェーブ ロボット操作装置、及びロボット操作プログラム
WO2016162066A1 (en) * 2015-04-09 2016-10-13 Abb Technology Ltd An industrial robot and a method for lead-through programming of an industrial robot

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4891767A (en) * 1988-06-02 1990-01-02 Combustion Engineering, Inc. Machine vision system for position sensing
US5652603A (en) * 1994-06-16 1997-07-29 Abrams; Daniel Lawrence 3-D computer input device
DK3045273T3 (en) * 2006-03-03 2019-02-25 Universal Robots As Joint for a robot
DE102008062622B9 (de) * 2008-12-17 2016-08-25 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Befehlseingabe in eine Steuerung eines Manipulators
US20130343640A1 (en) * 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US20140114464A1 (en) * 2012-10-23 2014-04-24 Christopher Williams System and method for remotely positioning an end effector
CN104476544A (zh) * 2014-10-23 2015-04-01 广东工业大学 一种视觉伺服机械臂系统的自适应死区逆模型发生装置
CN104942809B (zh) * 2015-06-23 2018-04-17 广东工业大学 基于视觉伺服系统的机械臂动态模糊逼近器
DE102015009151A1 (de) * 2015-07-14 2017-01-19 Kuka Roboter Gmbh Ermitteln eines Eingabebefehls für einen Roboter, der durch manuelles Ausüben einer Kraft auf den Roboter eingegeben wird
DE102015012959B4 (de) * 2015-10-08 2019-01-17 Franka Emika Gmbh Robotersystem und Verfahren zur Steuerung eines Robotersystems
DE102017202439B4 (de) * 2017-02-15 2022-03-31 Festo Se & Co. Kg Eingabeeinrichtung, Verfahren zur Bereitstellung von Bewegungsbefehlen an einen Aktor und Aktorsystem
DE102017010678B4 (de) * 2017-11-17 2021-07-01 Kuka Deutschland Gmbh Verfahren und System zum Vorgeben eines Beaufschlagungsmuster-Befehls-Lexikons zur Eingabe wenigstens eines Roboterbefehls
DE102018200864B3 (de) * 2018-01-19 2019-02-07 Kuka Deutschland Gmbh Verfahren und System zum Steuern eines Roboters
DE202019102430U1 (de) * 2019-04-30 2019-06-05 Franka Emika Gmbh Ermittlung eines externen Kraftwinders durch Drehmomentsensoren eines Robotermanipulators

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880956A (en) * 1994-08-12 1999-03-09 Minnesota Mining And Manufacturing Company Lead-through robot programming system
JP2016175178A (ja) * 2015-03-19 2016-10-06 株式会社デンソーウェーブ ロボット操作装置、及びロボット操作プログラム
WO2016162066A1 (en) * 2015-04-09 2016-10-13 Abb Technology Ltd An industrial robot and a method for lead-through programming of an industrial robot

Also Published As

Publication number Publication date
JP2024038495A (ja) 2024-03-19
DE102019004478B3 (de) 2020-10-29
US20220362943A1 (en) 2022-11-17
KR20220024971A (ko) 2022-03-03
WO2020260555A1 (de) 2020-12-30
CN114072256A (zh) 2022-02-18
EP3990231B1 (de) 2024-04-24
EP3990231A1 (de) 2022-05-04

Similar Documents

Publication Publication Date Title
JP6314134B2 (ja) ロボット訓練のためのユーザインターフェース
KR102284918B1 (ko) 로보틱 시스템 및 로보틱 시스템을 제어하는 방법
JP2024038495A (ja) ロボットマニピュレータに入力を実行するためのシステム
US10729506B2 (en) System and method for virtual feedback with haptic devices
WO2016103307A1 (ja) ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置
Winck et al. A practical interface for coordinated position control of an excavator arm
JP7049069B2 (ja) ロボットシステム及びロボットシステムの制御方法
JPWO2011151915A1 (ja) 人操作型作業機械システム
TW201805127A (zh) 機械手臂之控制裝置及其教導系統與方法
JP2024038494A (ja) ロボットマニピュレータ入力値の指定方法
Lambrecht et al. Markerless gesture-based motion control and programming of industrial robots
US20050231468A1 (en) Methods and systems for interacting with virtual objects
CN113641239A (zh) 用于沉浸式人机交互的方法
Malysz et al. Cooperative teleoperation control with projective force mappings
JP2016013607A (ja) ロボットへの動作指示システム及び動作指示方法
WO2021073733A1 (en) Method for controlling a device by a human
WO2022166770A1 (zh) 双边遥操作系统及控制方法
US20050116925A1 (en) Multidimensional input device for navigation and selection of virtual objects, method for controlling a computer unit, and computer system
JP2836577B2 (ja) マニピュレータ操作装置
US10642377B2 (en) Method for the interaction of an operator with a model of a technical system
KR20190001842A (ko) 다관절 햅틱 장치의 성능 평가 시스템 및 이를 이용한 성능 평가 방법
WO2023067942A1 (ja) 情報処理装置、情報処理方法、及びロボット制御システム
Gokul et al. Design of Imitative Control Modalities for a 3 Degree of Freedom Robotic Arm
Yang et al. A novel master interface using vibrotactile display for bi-lateral teleoperation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230926