JP6476662B2 - ロボット操作装置、ロボットシステム、及びロボット操作プログラム - Google Patents
ロボット操作装置、ロボットシステム、及びロボット操作プログラム Download PDFInfo
- Publication number
- JP6476662B2 JP6476662B2 JP2014175753A JP2014175753A JP6476662B2 JP 6476662 B2 JP6476662 B2 JP 6476662B2 JP 2014175753 A JP2014175753 A JP 2014175753A JP 2014175753 A JP2014175753 A JP 2014175753A JP 6476662 B2 JP6476662 B2 JP 6476662B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- touch
- drag
- detection unit
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000003811 finger Anatomy 0.000 claims description 477
- 238000000034 method Methods 0.000 claims description 291
- 230000008569 process Effects 0.000 claims description 288
- 238000001514 detection method Methods 0.000 claims description 254
- 238000012545 processing Methods 0.000 claims description 69
- 239000013598 vector Substances 0.000 claims description 39
- 210000003813 thumb Anatomy 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 25
- 230000007423 decrease Effects 0.000 claims description 22
- 230000005057 finger movement Effects 0.000 claims description 22
- 238000000926 separation method Methods 0.000 claims description 10
- 238000013459 approach Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 3
- 238000007689 inspection Methods 0.000 claims description 2
- 210000004247 hand Anatomy 0.000 description 27
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 15
- 238000009434 installation Methods 0.000 description 14
- 230000007257 malfunction Effects 0.000 description 14
- 230000009471 action Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000007717 exclusion Effects 0.000 description 8
- 238000012360 testing method Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 210000000707 wrist Anatomy 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 239000010687 lubricating oil Substances 0.000 description 4
- 230000002542 deteriorative effect Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 239000012636 effector Substances 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000012887 quadratic function Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1658—Programme controls characterised by programming, planning systems for manipulators characterised by programming language
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/409—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36168—Touchscreen
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40392—Programming, visual robot programming language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Manufacturing & Machinery (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Description
請求項1に記載のロボット操作装置は、ユーザからタッチ操作の入力を受けるタッチパネルと、タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、を備える。つまり、ロボット操作装置は、ロボットの手動操作をタッチ操作により実現するものである。このロボット操作装置の操作対象となるロボットは、複数の駆動軸を有する多関節型のロボットである。多関節型のロボットを手動操作する場合、ロボットの手先を基準として複数の駆動軸を組み合わせて駆動させるか、又は各駆動軸を個別に駆動させるか、のいずれかの態様が考えられる。以下の説明では、前者のロボットの手先を基準とした態様を手先系の動作と称し、後者の各駆動軸を個別に駆動させる態様を各軸系の動作と称する。
請求項1に記載のロボット操作装置によれば、選択操作検出部は、タッチパネルに対するタッチ操作を検出するものである。また、操作判断処理は、選択操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の指の本数若しくは操作方向、又は指の本数及び操作方向に基づいて、操作対象になる駆動軸又は動作態様を決定する処理を含んでいる。
請求項2に記載のロボット操作装置よれば、ユーザは、1本又は2本指のドラッグ操作によって、手先系の動作で多用される動作、具体的には、水平移動動作、垂直移動動作、及び手先の回転動作を行うことができる。すなわち、このロボット操作装置によれば、ユーザは、1本の指によるドラッグ操作によって、ロボットに水平移動動作を行わせることができる。また、ユーザは、2本指によるドラッグ操作によって、ロボットに垂直移動動作または回転動作を行わせることができる。
請求項3に記載のロボット操作装置において、上述の第2操作は、2本指による直線方向へのドラッグ操作であって且つそのドラッグ操作が行われている期間に各指間の距離が次第に短くなる操作、または次第に長くなる操作である。この場合、直線方向へのドラッグ操作とは、タッチパネルの画面上の任意の直線方向への操作を意味し、画面に対して縦方向、横方向、斜め方向等の相対的な関係は問わない。また、上述の第3操作は、2本指による円周方向へのドラッグ操作である。この場合、円周方向へのドラッグ操作とは、2本指によるドラッグ操作のうち少なくとも一方に回転成分が含まれている操作を意味する。
請求項4に記載のロボット操作装置において、第2操作は、タッチパネル上における縦方向への操作である。また、第3操作は、タッチパネル上において前記縦方向に直交する横方向への操作である。この場合、タッチパネル上における縦方向とは、ロボット操作装置を持ったユーザに対して離接する方向を意味する。また、タッチパネル上における横方向とは、ロボット操作装置を持ったユーザに対して平行方向を意味する。
請求項7に記載のロボット操作装置において、選択操作検出部は、タッチパネルに対するタッチ操作を検出するものである。また、動作指令生成処理は、駆動軸選択処理を含んでいる。駆動軸選択処理は、検出されたタッチ操作が指によるドラッグ操作である場合に、そのドラッグ操作の指の本数若しくは操作方向、又は指の本数と操作方向とに基づいて複数の前記駆動軸の中から駆動させる一の駆動軸を選択する処理である。すなわち、このロボット操作装置は、ドラッグ操作の指の本数若しくは操作方向、又は指の本数と操作方向とを変えることによって、各軸系の動作において各駆動軸を切り替えて動作させることができる。これにより、ロボット操作装置にタッチパネルを採用した場合であっても、各軸系の動作を問題無く行うことができる。さらに、ユーザは、ドラッグ操作の指の本数若しくは操作方向、又は指の本数と操作方向とを変えることで、直感的に駆動軸を切り替えることができる。したがって、ロボット操作装置は、タッチパネルを採用しつつ、ユーザが画面を直視しなくても直感的な操作を可能にすることができる。
請求項7に記載のロボット操作装置において、駆動軸選択処理は、第1駆動軸選択処理と、第2駆動軸選択処理と、を含んでいる。第1駆動軸選択処理は、ドラッグ操作の操作方向がタッチパネル上における縦方向である場合に、第1群の駆動軸の中から駆動させる一の駆動軸を選択する処理である。この場合、第1群の駆動軸とは、ロボットの手先を、ロボットの動作基準面に対する垂直方向へ移動させることができる駆動軸を意味する。また、第2駆動軸選択処理は、検出されたドラッグ操作の操作方向がタッチパネル上において縦方向に直交する横方向又は円周方向である場合に、第1群の駆動軸以外の駆動軸の中から駆動させる一の駆動軸を選択する処理である。
請求項8に記載のロボット操作装置において、駆動軸選択処理は、ドラッグ操作の指の本数の増加に伴いロボットのベース側の駆動軸から手先側の駆動軸へ移行するようにして、駆動させる駆動軸を決定する。一般に、多関節型のロボットの駆動軸は、ベース側の手先側へ向かって順に、第1軸、第2軸、第3軸・・・と軸の番号が増加するように設定される。この場合、ユーザは、操作に要する指の本数を増加させることで、駆動させる軸の番号を増加させることができる。そのため、ユーザは、操作に要する指の本数と、駆動させる駆動軸との関連を認識し易くなる。
請求項9に記載のロボット操作装置において、駆動軸選択処理は、ドラッグ操作の指の本数の増加に伴いロボットの手先側の駆動軸からベース側の駆動軸へ移行するようにして、駆動させる駆動軸を決定する。すなわち、請求項9に記載の駆動軸選択処理は、請求項7、8に記載の駆動軸選択処理と逆の順番で駆動軸を決定する。ロボットの手動操作は、ロボットの手先の位置の微調整に用いられることが多い。したがって、ロボットの各軸系の手動操作では、ベース側の駆動軸に比べて、ロボットの手先に近い駆動軸の方が、より多く駆動されると予想できる。このロボット操作装置では、ユーザは、駆動させる駆動軸がロボットの手先に近づくほどすなわちより多く駆動される駆動軸ほど、少ない指の本数で精密な操作ができるようになっている。この結果、操作性の更なる向上が図られる。
請求項5に記載のロボット操作装置によれば、動作指令生成部は、タッチ操作された箇所が1つ検出されると、その検出時点から所定の許容遅延時間が経過した後にタッチ操作の指の本数を判断する。ユーザが複数本の指によるタッチ操作を行った場合、それら複数本の指によるタッチのタイミングが完全に一致することは難しい。そのため、例えばある動作を行うべく、2本の指によるタッチ操作が行われたとしても、一方の指によるタッチが行われた時点において、一旦、意図しない他の動作が行われ、その後、他方の指によるタッチが行われた時点において、本来意図する動作が行われることになる。
請求項10に記載のロボット操作装置によれば、動作指令生成部は、複数本の指によるドラッグ操作が、円周方向への操作であるか否かについて次のように判断する。すなわち、動作指令生成部は、複数本の指によるタッチ操作において、その複数本の指のうち指のタッチ位置の距離が最も遠い2本の指を抽出する。そして、動作指令生成部は、その2本の指のいずれかの指の移動に係るベクトルと、その2本の指間のベクトルとが成す角度が判定閾値未満である場合、そのドラッグ操作が円周方向への操作でないと判断し、上記角度が判定閾値以上である場合、そのドラッグ操作が円周方向への操作であると判断する。
請求項6に記載のロボット操作装置によれば、選択操作検出部は、タッチパネルに対するタッチ操作を検出するものである。すなわち、ユーザは、タッチパネルに対してタッチ操作をすることにより、操作対象にするロボットの駆動軸又は動作態様を選択することができる。そして、動作指令生成部は、ドラッグ操作の方向を、駆動軸又は動作態様毎に異なる方向になるように割り振っている。この場合、ロボット操作装置は、各軸系又は手先系の動作が可能である。ロボットの動作態様としては、手先系の動作について、水平移動動作、垂直移動動作、及び手先の回転動作がある。
請求項11に記載のロボット操作装置によれば、動作指令生成部は、ドラッグ操作を検出した場合にそのドラッグ操作が終了するまでの期間そのタッチ操作によるタッチ箇所の近傍における所定範囲内の領域に対するタッチ操作の検出を無効化する。例えば1本指によるドラッグ操作は、右手または左手の人差し指で行われることが多い。そのため、上記操作が行われる際、その操作を行う人差し指と同じ側の手の親指による誤タッチが生じる可能性がある。このような意図しない指による誤タッチを検出してしまうと、複数本の指によるドラッグ操作が行われたと判断されてしまい、その結果、意図しない動作が行われることになる。
請求項12に記載のロボット操作装置は、傾き操作検出部と、動作指令生成部と、を備えている。傾き操作検出部は、タッチパネルの傾きを検出することでユーザからの傾き操作の入力を検出することができる。動作指令生成部は、複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する。また、動作指令生成部は、水平移動動作指令生成処理と、垂直移動動作指令生成処理と、を行うことができる。水平移動動作指令生成処理は、タッチ操作検出部で検出されたタッチ操作に基づいてロボットの手先をロボットの動作基準面に対して水平な平面方向に移動させるための動作指令を生成する処理である。垂直移動動作指令生成処理は、傾き操作検出部で検出された傾き操作に基づいてロボットの手先を動作基準面と直交する垂直軸方向に沿って移動させるための動作指令を生成する処理である。
請求項13に記載のロボット操作装置において、動作指令生成部は、傾き操作検出部で検出された傾き操作の傾き量に応じて、ロボットの移動速度又は移動量を増減する。これによれば、ユーザは、傾き操作によるタッチパネルの傾き量を調整することで、ロボットの移動速度又は移動量を調整することができる。よって、ユーザは、直観的にロボットの垂直方向への移動を操作することができ、その結果、操作性の向上が図られる。
請求項14、15に記載のロボット操作装置において、タッチパネルは、動作選択領域と、移動量決定領域と、を有している。動作選択領域は、操作対象にする前記ロボットの駆動軸又は動作態様を選択するための操作を受け付ける領域である。この場合、各軸系の場合は、駆動軸が選択され、手先系の場合は、動作態様が選択される。また、移動量決定領域は、ロボットの移動量を決定するための操作を受け付ける領域である。この場合、ロボットの移動量には、実際にロボットが移動する量つまりロボットの移動距離のみならず、ロボットの移動速度又は移動時間も含まれる。このようなロボット操作装置によれば、ユーザは、ロボットの動作を選択する場合には、動作選択領域においてタッチ操作をし、ロボットの移動量を決定する場合には、移動量決定領域においてタッチ操作をする。したがって、ユーザは、ロボットの動作を選択するための操作と、ロボットの移動量を決定するための操作とを明確に区別することができる。以上より、操作性の向上が図られ、その結果、安全性の向上が図られるとともに、教示に要する時間を短縮することができる。
請求項14に記載のロボット操作装置は、動作選択領域に対する操作の受け付けを開始するための開始操作を検出する開始操作検出部を更に備えている。開始操作検出部は、例えばタッチパネル上に表示されたボタンに対するタッチ操作を検出するものや、タッチパネルと異なるボタンに対する操作を検出するものである。そして、動作指令生成部は、開始操作検出部で開始操作を検出した後に動作選択領域に対するタッチ操作を受け付けるようにする。
請求項15に記載のロボット操作装置によれば、操作対象にするロボットの駆動軸又は動作態様を選択するための操作は、タッチパネルに対して駆動軸又は動作態様に対応する数字、文字、又は記号を入力する操作である。これによれば、ユーザは、例えば各軸系の操作を行う際、第1軸を操作したい場合には第1軸に対応するアラビア数字の「1」を入力し、第2軸を操作したい場合には第2軸に対応するアラビア数字の「2」を入力する。また、ユーザは、例えば手先系の操作を行う際、ロボットに水平移動動作を行わせる場合には水平移動動作に対応するアルファベットの「H」を入力し、ロボットに垂直移動動作を行わせる場合には垂直移動動作に対応するアルファベットの「V」を入力し、ロボットに手先の回転動作を行わせたい場合には回転動作に対応するアルファベットの「R」を入力する。ちなみに、「H」は、「Horizontal」の頭文字、「V」は「Vertical」の頭文字、「R」は「Rotational」の頭文字である。
請求項16に記載のロボット操作装置によれば、請求項12又は13に記載のロボット操作装置において、動作指令生成部は、動作選択領域に対する操作が検出された場合に、その操作が終了するまでの期間は前記移動量決定領域に対する操作の検出を無効化する。例えば1本指によるタッチ操作は、右手または左手の人差し指で行われることが多い。そのため、動作選択領域に対して数字等を入力する操作が行われる際、例えばその操作を行う人差し指と同じ側の手の親指によって、移動量決定領域に対して誤タッチしてしまう可能性がある。また、ユーザが誤って動作選択領域と移動量決定領域とに跨って操作してしまう可能性もある。このような意図しない操作を検出してしまうと、動作選択領域に対する入力の途中であっても、移動量決定領域に対して操作がされたと判断されてしまい、その結果、意図しない動作が行われることになる。
請求項17に記載のロボット操作装置は、操作判断処理と、速度算出処理と、動作指令生成処理と、を行うことができる。操作判断処理は、タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作による指の移動量を判断する処理である。速度算出処理は、操作判断処理で判断した指の移動量に基づいてロボットの移動速度を算出する処理である。動作指令生成処理は、速度算出処理で算出した移動速度でロボットを移動させるための動作指令を生成する処理である。
請求項18に記載のロボット操作装置によれば、動作指令生成部は、指の移動量に基づいてロボットの移動距離を算出する移動量算出処理を行うことができる。これによれば、ユーザは、ドラッグ操作による指の移動量を調整することにより、ロボットの移動量つまり移動距離を調整することができる。さらに、このロボット操作装置において、速度算出処理は、指の移動量をドラッグ操作の入力に要した時間で除した値に基づいて、ロボットの移動速度を決定する処理である。これによれば、ユーザは、ドラッグ操作の入力に要する時間を調整することで、ロボットの移動速度を調整することができる。
請求項17に記載のロボット操作装置によれば、動作指令生成部は、ドラッグ操作が行われている間は一定の周期で操作判断処理と速度算出処理と動作指令生成処理とを行うことができる。この場合、ドラッグ操作が行われている間とは、ユーザの指がタッチパネルに触れてドラッグ操作が開始してから、ユーザの指がタッチパネルから離れるまでの期間を意味する。ドラッグ操作の終了は、ユーザの指がタッチパネルから離れたときである。これによれば、動作指令生成部は、ドラッグ操作の終了を待つことなく、動作指令を生成することができる。したがって、ロボット操作装置は、ユーザからのドラッグ操作にほぼリアルタイムで、ロボットを動作させることができる。したがって、ユーザは、より直感的な操作が可能になり、その結果、安全性の向上、ひいては教示時間の短縮を図ることができる。
上述したロボット操作装置は、操作入力と出力(ロボットの移動)との間に倍率を設定することがある。例えば、倍率を0.1倍に設定した場合、ユーザは、1mmのドラッグ操作を行うことで、ロボットを0.1mm移動させることができる。これにより、操作入力以上の精密な動作をロボットに行わせることができる。しかし、単純に倍率を設定しただけでは、次のような問題が生じる。すなわち、例えば0.1mm単位の微細な動作(微動)を行いつつ、数〜数十mm単位の大きな動作(粗動)を行いたい場合もある。しかし、例えば倍率を0.1倍に設定した場合、200mm(10インチ画面の長辺の長さに相当)のドラッグ操作でも、僅かに20mmしかロボットを移動させることができない。そのため、ユーザは、例えばロボットに1000mmの移動をさせようとすると、200mmのドラッグ操作を50回も繰り返すことになり、煩雑で操作性が良くない。
請求項20に記載のロボット操作装置によれば、移動量決定処理は、ドラッグ操作の指の移動が第1区間を通過してから第2区間を通過するまでは倍率を第2倍率に設定し、ドラッグ操作の指の移動が第2区間を通過した後は倍率を一定値である第3倍率に設定して、ロボットの移動量を決定する処理である。これによれば、ユーザは、第1区間内でドラッグ操作を繰り返すことにより、1より小さい第1倍率でロボットを動作(微動)させることができる。また、ユーザは、第1区間を超えてドラッグ操作を行うことにより、第1倍率よりも大きい第2倍率又は第3倍率でロボットを動作(粗動)させることができる。
請求項21に記載のロボット操作装置によれば、タッチ操作検出部は、ユーザによる手持ちが可能なケースに設けられたタッチパネルに対するタッチ操作を検出するものである。このような構成の場合、ユーザは、一方の手でケースを把持した上で、他方の手の指により各操作を行うことになる。このとき、ケースを把持する一方の手の指が誤ってタッチパネルに触れてしまう可能性がある。例えば1本指によるドラッグ操作が行われる際に、把持する側の手による誤タッチを検出してしまうと、2本指によるドラッグ操作が行われたと判断されてしまい、その結果、意図しない動作が行われることになる。
請求項22に記載のロボットシステムは、4軸水平多関節型のロボットと、ロボットの動作を制御するコントローラと、請求項1から21のいずれか一項に記載のロボット操作装置とを備えている。4軸水平多関節型のロボットは、手先系の動作又は各軸系の動作を行うことが可能である。手先系の動作とは、ロボットの手先を、ロボットの動作基準面に対して水平な平面方向に移動する動作(平面移動動作)と、動作基準面と直交する垂直軸方向に移動する動作(垂直移動動作)と、及び垂直軸回りに回転する動作(回転動作)と、である。一方、ロボット操作装置は、前述したとおり、ユーザによる手動操作に従い、手先系の動作(平面移動動作、垂直移動動作および回転動作)を行うための動作指令、又は各軸系の動作を行うための動作指令を生成することができる。従って、本手段によれば、操作対象となるロボットに必要な動作について、手動による操作で実現することができる。
請求項23に記載のロボットシステムは、6軸垂直多関節型のロボットと、ロボットの動作を制御するコントローラと、請求項1から21のいずれか一項に記載のロボット操作装置とを備えている。6軸垂直多関節型のロボットは、前述した4軸水平多関節型のロボットが行う得る動作(平面移動動作、垂直移動動作および回転動作)に加え、その手先を、上記垂直軸(Z軸)とは異なる2つの軸回りに回転する動作を行うことが可能である。上記2つの軸とは、動作基準面に対して水平な互いに直交する2つの軸(X軸およびY軸)である。
請求項24〜35に記載のロボット操作プログラムは、それぞれ請求項1、7〜12、14、15、17、19、21に記載のロボット操作装置を実現するものである。これらのロボット操作プログラムを、例えばタッチパネルを備える汎用のタブレットPC等によって実行することで、汎用のタブレットPC等に、上述したロボット操作装置としての機能を付加することができる。
以下、本発明の第1実施形態について図1〜図9を参照しながら説明する。
図1は、一般的な産業用ロボットのシステム構成を示している。図1に示すロボットシステム1は、ロボット2、コントローラ3およびティーチングペンダント4(ロボット操作装置に相当)により構成されている。ロボット2は、例えば4軸の水平多関節型ロボットとして構成されている。ロボット2は、固有のロボット座標系(X軸、Y軸およびZ軸からなる三次元直交座標系)に基づいて動作する。本実施形態では、ロボット座標系は、ベース5の中心を原点Oとし、作業台Pの上面をX−Y平面とし、そのX−Y平面と直交する座標軸をZ軸として定義されている。作業台Pの上面は、ロボット2を設置するための設置面である。この場合、その設置面が動作基準面に相当する。なお、動作基準面としては、設置面に限らずともよく、任意の平面であってもよい。
ティーチングペンダント4は、前述した通信インターフェイス10、表示部12およびキースイッチ13に加え、制御部14、タッチ操作検出部15、動作指令生成部16、選択操作検出部18、および姿勢検出部19を備えている。制御部14は、例えばCPU141や、ROM、RAM、および書き換え可能なフラッシュメモリなどの記憶領域142を有するマイクロコンピュータを主体に構成されており、ティーチングペンダント4の全体を制御する。記憶領域142は、ロボット操作プログラムを記憶している。制御部14は、CPU141においてロボット操作プログラムを実行することにより、タッチ操作検出部15および動作指令生成部16などを、ソフトウェアによって仮想的に実現する。なお、これらタッチ操作検出部15及び動作指令生成部16は、例えば制御部14と一体の集積回路としてハードウェア的に実現してもよい。
(1)水平移動動作
水平移動動作(図3などでは平面動作とも称す)とは、ロボット2の手先を、設置面に対して水平なX−Y平面方向に移動させる動作である。水平移動動作は、第1操作に応じて行われる。第1操作は、1本の指によるドラッグ操作である。この場合、1本の指でのドラッグ操作(第1操作)のドラッグ方向に応じて平面移動の方向が決定され、ドラッグ量に応じて平面移動の移動量(移動距離)が決定される。
垂直移動動作(図3などではZ軸動作とも称す)とは、ロボット2の手先を、動作基準面となる設置面Pと直交するZ軸方向に移動させる動作である。垂直移動動作は、第2操作に応じて行われる。本実施形態において、第2操作は、2本の指による所定の方向への直線的なドラッグ操作である。この場合、第2操作は、2本指を互いに同一の直線状にドラッグする操作である。2本指を直線状にドラッグする操作(第2操作)には、各指間の距離が次第に長くなる操作(いわゆるスプレッド操作またはピンチアウト操作)と、各指間の距離が次第に短くなる操作(いわゆるピンチ操作またはピンチイン操作)とがある。
回転動作(図3などではRZ軸動作と称す)とは、ロボット2の手先を、Z軸回りに回転させる動作である。この場合、回転動作の回転方向は、Rz方向となる。回転動作は、第3操作に応じて行われる。第3操作は、2本の指によるドラッグ操作であって第2操作と異なる方向への操作である。本実施形態において、第3操作は、2本の指による円周方向へのドラッグ操作である。すなわち、本実施形態において、第3操作は、2本指のうち少なくともいずれかの指を曲線状に、つまり円弧を描くようにドラッグする操作(いわゆる回転操作)である。この場合、上記指での回転操作の方向に応じて回転動作の方向(回転方向)が決定され、ドラッグ量に応じて回転量が決定される。
以下、第1実施形態に対し、対象とするロボットの種類を変更した第2実施形態について図10を参照しながら説明する。
図10に示す本実施形態のロボットシステム21は、図1に示した第1実施形態のロボットシステム1に対し、ロボット2に代えてロボット22を備えている点が異なる。
次に、第3実施形態について、図11〜図18を参照して説明する。なお、本実施形態は、上述した4軸の水平多関節型ロボット2を備えるロボットシステム1及び6軸の垂直多関節型ロボット22を備えるロボットシステム21のいずれにも適用することができる。この場合、4軸の水平多関節型ロボット2は、図11に示すように、フランジ9が設置面P側(この場合、下方)へ向いた姿勢を基本姿勢とする。また、6軸の垂直多関節型ロボット22は、図12に示すように、フランジ31が設置面P側(この場合、下方)を向いた姿勢を基本姿勢とする。ロボット2、22は、この基本姿勢を維持したまま、又は基本姿勢に近い姿勢で、水平移動動作、垂直移動動作、又は回転動作が行われる。また、図13及び図14において、白抜きの円はタッチ操作の位置すなわちドラッグ操作の開始位置を示し、白抜きの矢印はドラッグ操作の方向を示している。
次に、第4実施形態について、図19〜図22を参照して説明する。上記各実施形態では、いわゆるジェスチャ操作(指の本数と方向と移動量との組合せによる操作)を、手先系の動作に適用した例について説明した。一方、本実施形態では、いわゆるジェスチャ操作を、各軸系の動作に適用した例について説明する。
次に、第5実施形態について、図18、及び図22〜図25を参照して説明する。本実施形態は、いわゆるジェスチャ操作を、6軸の垂直多関節ロボット22の各軸系の動作に適用するものである。本実施形態において、各軸の駆動は、次のようにして行われる。6軸のロボット22の第1軸J21の駆動は、4軸のロボット2の第1軸J11の駆動と同様にして行われる。すなわち、第1軸J21は、図22(1)に示すように、1本指の横方向へのドラッグ操作に応じて行われる。1本指の横方向へのドラッグ操作が、図22(1)及び図23の矢印B1で示すように、タッチパネル17に対して右方向への操作である場合、動作指令生成部16は、図23の矢印J21Rで示すように、第1軸J21を平面視で反時計回り方向へ回転させる動作指令を生成する。また、1本指の横方向へのドラッグ操作が、図22(1)及び図23の矢印B2で示すように、タッチパネル17に対して左方向への操作である場合、動作指令生成部16は、図23の矢印J21Lで示すように、第1軸J21を平面視で時計回り方向へ回転させる動作指令を生成する。
次に、第6実施形態について、図26を参照して説明する。第6実施形態は、いわゆるジェスチャ操作を、4軸の水平多関節型ロボット2の各軸系の動作に適用した例である。この第6実施形態では、第4軸J14を駆動させるための操作が、上記第4実施形態と異なる。すなわち、第1群の駆動軸J11、J21、J14のうち第4軸J14は、図26(4)に示すように、2本指による円周方向へのドラッグ操作すなわち2本指のいずれかによる回転操作に基づいて行われる。
次に、第7実施形態について、図27を参照して説明する。第7実施形態は、いわゆるジェスチャ操作を、6軸の垂直多関節ロボット22の各軸系の動作に適用した例である。この第7実施形態では、第4軸J24を駆動させるための操作が、上記第5実施形態と異なる。すなわち、第2群の駆動軸J21、J24、J26のうち第4軸J24は、図27(4)に示すように、2本指による円周方向へのドラッグ操作に基づいて行われる。
次に、第8実施形態について、図28及び図29を参照して説明する。第8実施形態は、いわゆるジェスチャ操作を、4軸の水平多関節型ロボット2の各軸系の動作に適用した例である。この第8実施形態では、第4軸J14を駆動させるための操作が、上記第4実施形態及び第6実施形態と異なる。すなわち、第1群の駆動軸J11、J12、J14のうち第4軸J14は、図28(4)に示すように、3本指による円周方向へのドラッグ操作に基づいて行われる。
次に、第9実施形態について、図30を参照して説明する。第9実施形態は、いわゆるジェスチャ操作を、6軸の垂直多関節ロボット22の各軸系の操作に適用した例である。この第9実施形態では、第6軸J26を駆動させるための動作が、上記第5実施形態と異なる。すなわち、第2群の駆動軸J21、J24、J26のうち第6軸J26は、図30(6)に示すように、3本指による円周方向へのドラッグ操作に基づいて行われる。この第6軸J26を駆動させるための操作は、図28(4)に示した上記第8実施形態において第4軸J14を駆動させるための操作と同様である。この場合、3本指による円周方向へのドラッグ操作であるか否かの判断方法は、上記第8実施形態で述べた通りである。また、3本指による円周方向へのドラッグ操作から、第6軸J26の駆動つまり手先(フランジ31)の回転動作が連想されるという根拠は、上記第8実施形態の第4軸J14に関する説明で述べた通りである。
次に、第10実施形態について、図31を参照して説明する。第10実施形態は、いわゆるジェスチャ操作を、6軸の垂直多関節ロボット22の各軸系の操作に適用した例である。この第10実施形態では、図22に示す第4実施形態における各軸の操作に対して、図27(4)に示す第7実施形態における第4軸J24に関する操作、及び図30(6)に示す第9実施形態における第6軸J26に関する操作を適用したものである。すなわち、第4軸J24の駆動は、図31(4)に示すように、2本指による円周方向へのドラッグ操作に基づいて行われる。また、第6軸J26の駆動は、図31(6)に示すように、3本指による円周方向へのドラッグ操作に基づいて行われる。
次に、第11実施形態について、図32を参照して説明する。第11実施形態は、いわゆるジェスチャ操作を、6軸の垂直多関節ロボット22の各軸系の操作に適用した例である。この第11実施形態において、第1軸J21から第5軸J25までは、横方向へのドラッグ操作の指の本数に対応している。この場合、駆動軸選択処理は、ドラッグ操作の指の本数が1本、2本・・・5本と増加することに伴い、駆動させる駆動軸が第1軸J21、第2軸J22・・・第5軸J25と、ロボット22のベース25側から手先側へ移行するようにして、駆動させる駆動軸を決定する。
次に、第12実施形態について、図33を参照して説明する。第12実施形態は、いわゆるジェスチャ操作を、4軸の水平多関節ロボット2の各軸系又は手先系の操作に適用した例である。本実施形態において、ユーザは、ドラッグ操作の方向を変更することで、各軸系又は手先系の操作を行うことができる。本実施形態において、選択操作検出部18は、タッチパネル17に対するタッチ操作を検出するものである。そして、動作指令生成部が実行する決定処理は、選択操作検出部18で検出したタッチ操作がドラッグ操作である場合に、そのドラッグ操作の操作方向に基づいて、操作対象になる駆動軸又は動作態様を決定する処理である。
次に、第13実施形態について、図34を参照して説明する。第13実施形態は、操作対象とするロボットが6軸の垂直多関節ロボット22である点で、上記第12実施形態と異なる。すなわち、第13実施形態は、いわゆるジェスチャ操作を、6軸の垂直多関節ロボット22の各軸系又は手先系の操作に適用した例である。本実施形態においても、ユーザは、ドラッグ操作の方向を変更することで、各軸系又は手先系の操作を行うことができる。この場合、手先系の動作には、第12実施形態におけるX方向、Y方向、Rz方向に加えて、Rx方向及びRy方向が含まれる。
すなわち、各軸系の動作について見ると、第1軸J21及び第6軸J26の操作に、操作のし易い縦方向及び横方向へのドラッグ操作が割り当てられている。第1軸J21の駆動は、手先の移動に対する影響が大きい。第6軸J26は、手動操作の際に頻繁に使用する軸であり、また、第6軸J26の操作には、正確な調整が必要になる。したがって、このような第1軸J21及び第6軸J26に、操作のし易い縦方向及び横方向のドラッグ操作を割り当てることで、操作性の向上が図られる。
次に、第14実施形態について、図35及び図36を参照して説明する。
近年、いわゆるスマートフォンやタブレットPCなどの安価なデバイス(以下、スマートデバイスと称する)が普及している。この安価なスマートデバイスを、ロボットの操作用のデバイス(ティーチングペンダント)として利用することができれば、専用の高価なティーチングペンダントを使用する必要がないため、コスト削減にも繋がる。この様なスマートデバイスは、主なインターフェイスとしてタッチパネルを備えており、ユーザが指でタッチパネルをなぞることで、2次元(X−Y平面)の同時入力を可能にしている。一方、産業界では、上述したような4軸型の水平多関節ロボット2及び6軸型の垂直多関節ロボット22が多用されている。
次に、第15実施形態について、図37及び図38を参照して説明する。
第15実施形態は、手先系の動作において、Z方向(垂直方向)の移動を、ティーチングペンダント4の姿勢に基づいて行うものである。すなわち、本実施形態のティーチングペンダント4は、図2に示す姿勢検出部19を、タッチパネル17の傾きを検出することでユーザからの傾き操作の入力を検出することができる傾き操作検出部として利用している。このティーチングペンダント4の動作指令生成部16は、水平移動動作指令生成処理と、垂直移動動作指令生成処理と、を行うことができる。
次に、第16実施形態について、図39〜図41を参照して説明する。本実施形態のティーチングペンダント4は、ユーザが、駆動軸又は動作態様に対応する文字、数字、又は記号をタッチパネル17に入力することによって、ロボット2、22の駆動軸又は動作態様を決定するものである。以下の説明では、ティーチングペンダント4を上下方向に長い縦長となる姿勢で取り扱った場合について説明する。なお、ティーチングペンダント4の姿勢は、縦長に限られず、水平方向に長い横長であってもよい。
次に、第17実施形態について、図42及び図43を参照して説明する。本実施形態は、いわゆるジェスチャ操作としてドラッグ操作を行った際の、ロボット2、22の移動速度及び移動量の決定に関するものである。本実施形態において、動作指令生成部16は、操作判断処理と、速度算出処理と、動作指令生成処理と、を行うことができる。操作判断処理は、タッチ操作検出部15で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作による指の移動量を判断する処理である。速度算出処理は、操作判断処理で判断した指の移動量に基づいてロボット2、22の移動速度を算出する処理である。動作指令生成処理は、速度算出処理で算出した移動速度でロボット2、22を移動させるための動作指令を生成する処理である。
次に、第18実施形態について、図44及び図45も参照して説明する。本実施形態は、ロボット2、22の動作を、操作入力に対してほぼリアルタイムで実行するための構成である。すなわち、上記第17実施形態では、ドラッグ操作の入力が終了した後に、ロボット2、22の動作が行われる。そのため、ロボット2、22の動作は、ドラッグ操作の終了後になる。したがって、ユーザによるドラッグ操作の入力と、ロボット2、22の実際の動作とに、時間差が生じる。一方、本実施形態において、制御部14は、ドラッグ操作が終了する前であっても、ロボット2、22の動作指令を適宜生成する。したがって、ロボット2、22の実際の動作は、ユーザによるドラッグ操作の入力に対して、ほぼリアルタイムで行われる。
次に、第19実施形態について、図46から図48を参照して説明する。本実施形態は、いわゆるジェスチャ操作としてドラッグ操作を行った際のドラッグ操作の操作量とロボット2、22の移動量との間の倍率に関するものである。なお、図46では、ドラッグ操作の開始地点Spから終了地点Epまでのドラッグ操作の操作量をLとしている。
f2=0.099×(L−50)+0.1・・・(式1)
f2=0.0099×(L−50)+0.01・・・(式2)
なお、本発明は上記し且つ図面に記載した各実施形態に限定されるものではなく、次のような変形または拡張が可能である。
ロボットの手動操作を行う際、敢えて複数の動作を同時にミックスして行うことも少なからずあり得る。このようなケースに対応するためには、各動作を行うための操作の線引きを曖昧にすればよい。つまり、この場合、上記各実施形態において、各動作を行うための操作の切り分けを明確化するために実施した工夫を行わなければよい。
Claims (35)
- ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、
操作対象にする前記ロボットの駆動軸又は動作態様を選択するためのユーザからの選択操作を検出する選択操作検出部と、を備え、
前記動作指令生成部は、
前記選択操作検出部で検出した選択操作に基づいて操作対象にする前記ロボットの駆動軸又は動作態様を決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を行うことができ、
前記選択操作検出部は、前記タッチパネルに対するタッチ操作を検出するものであり、
前記操作判断処理は、前記選択操作検出部で検出したタッチ操作が前記タッチパネルにタッチした指の本数のままその指を移動させるドラッグ操作である場合にそのドラッグ操作の指の本数若しくは操作方向、又は指の本数及び操作方向に基づいて、操作対象になる駆動軸又は動作態様を決定する処理を含んでいる、
ロボット操作装置。 - 前記操作判断処理は、
検出されたタッチ操作が1本指によるドラッグ操作である第1操作であるか否かを判断する第1操作判断処理と、
検出されたタッチ操作が2本指によるドラッグ操作であって所定の方向への操作である第2操作であるか否かを判断する第2操作判断処理と、
検出されたタッチ操作が2本指によるドラッグ操作であって前記第2操作と異なる方向への操作である第3操作であるか否かを判断する第3操作判断処理と、を含み、
前記動作指令生成処理は、
前記第1操作判断処理において前記第1操作であると判断した場合に前記ロボットの手先を前記ロボットの動作基準面に対して水平な平面方向に移動させるための前記動作指令を生成する水平移動動作指令生成処理と、
前記第2操作判断処理において前記第2操作であると判断した場合に前記ロボットの手先を前記動作基準面と直交する垂直軸方向に沿って移動させるための前記動作指令を生成する垂直移動動作指令生成処理と、
前記第3操作判断処理において前記第3操作であると判断した場合に前記ロボットの手先を回転させるための前記動作指令を生成する回転動作指令生成処理と、
を含んでいる請求項1に記載のロボット操作装置。 - 前記第2操作は、2本指による直線方向へのドラッグ操作であって且つ前記ドラッグ操作が行われている期間に各指間の距離が次第に短くなる操作、または次第に長くなる操作であり、
前記第3操作は、2本指による円周方向へのドラッグ操作であり、
前記垂直移動動作指令生成処理は、
前記第2操作が各指間の距離が次第に長くなるものである場合に前記ロボットの手先を前記動作基準面に近づく方向に移動させるための前記動作指令を生成する接近指令生成処理と、
前記第2操作が各指間の距離が次第に短くなるものである場合に前記ロボットの手先を前記動作基準面から離れる方向に移動させるための前記動作指令を生成する離反指令生成処理と、を含む請求項2に記載のロボット操作装置。 - 前記第2操作は、前記タッチパネル上における縦方向への操作であり、
前記第3操作は、前記タッチパネル上において前記縦方向に直交する横方向への操作である、
請求項2に記載のロボット操作装置。 - 前記動作指令生成部は、
タッチ操作された箇所が1つ検出されると、その検出時点から所定の許容遅延時間が経過した後に前記タッチ操作の指の本数を判断する請求項1から4のいずれか一項に記載のロボット操作装置。 - 前記選択操作検出部は、前記タッチパネルに対するタッチ操作を検出するものであり、
前記動作指令生成部は、前記ドラッグ操作の方向を前記ロボットの駆動軸又は動作態様毎に異なる方向になるように割り振っている請求項1に記載のロボット操作装置。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、
操作対象にする前記ロボットの駆動軸又は動作態様を選択するためのユーザからの選択操作を検出する選択操作検出部と、を備え、
前記動作指令生成部は、
前記選択操作検出部で検出した選択操作に基づいて操作対象にする前記ロボットの駆動軸又は動作態様を決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を行うことができ、
前記選択操作検出部は、前記タッチパネルに対するタッチ操作を検出するものであり、
前記動作指令生成処理は、検出されたタッチ操作が指によるドラッグ操作である場合に、そのドラッグ操作の指の本数若しくは操作方向、又は指の本数と操作方向とに基づいて複数の前記駆動軸の中から駆動させる一の駆動軸を選択する駆動軸選択処理を含んでおり、
前記駆動軸選択処理は、
前記ドラッグ操作の操作方向が前記タッチパネル上における縦方向である場合に、前記ロボットの手先を前記動作基準面に対する垂直方向へ移動させる第1群の駆動軸の中から駆動させる一の駆動軸を前記ドラッグ操作の指の本数に基づいて選択する第1駆動軸選択処理と、
前記ドラッグ操作の操作方向が前記タッチパネル上において前記縦方向に直交する横方向又は円周方向である場合に、前記第1群の駆動軸以外の駆動軸の中から駆動させる一の駆動軸を前記ドラッグ操作の指の本数に基づいて選択する第2駆動軸選択処理と、
を含んでいる、
ロボット操作装置。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、
操作対象にする前記ロボットの駆動軸又は動作態様を選択するためのユーザからの選択操作を検出する選択操作検出部と、を備え、
前記動作指令生成部は、
前記選択操作検出部で検出した選択操作に基づいて操作対象にする前記ロボットの駆動軸又は動作態様を決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を行うことができ、
前記選択操作検出部は、前記タッチパネルに対するタッチ操作を検出するものであり、
前記動作指令生成処理は、検出されたタッチ操作が指によるドラッグ操作である場合に、そのドラッグ操作の指の本数若しくは操作方向、又は指の本数と操作方向とに基づいて複数の前記駆動軸の中から駆動させる一の駆動軸を選択する駆動軸選択処理を含んでおり、
前記駆動軸選択処理は、前記ドラッグ操作の指の本数の増加に伴い前記ロボットのベース側の駆動軸から前記手先側の駆動軸へ移行するようにして、駆動させる駆動軸を決定する、
ロボット操作装置。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、
操作対象にする前記ロボットの駆動軸又は動作態様を選択するためのユーザからの選択操作を検出する選択操作検出部と、を備え、
前記動作指令生成部は、
前記選択操作検出部で検出した選択操作に基づいて操作対象にする前記ロボットの駆動軸又は動作態様を決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を行うことができ、
前記選択操作検出部は、前記タッチパネルに対するタッチ操作を検出するものであり、
前記動作指令生成処理は、検出されたタッチ操作が指によるドラッグ操作である場合に、そのドラッグ操作の指の本数若しくは操作方向、又は指の本数と操作方向とに基づいて複数の前記駆動軸の中から駆動させる一の駆動軸を選択する駆動軸選択処理を含んでおり、
前記駆動軸選択処理は、前記ドラッグ操作の指の本数の増加に伴い前記ロボットの手先側の駆動軸から前記ベース側の駆動軸へ移行するようにして、駆動させる駆動軸を決定する、
ロボット操作装置。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、
操作対象にする前記ロボットの駆動軸又は動作態様を選択するためのユーザからの選択操作を検出する選択操作検出部と、を備え、
前記動作指令生成部は、
前記選択操作検出部で検出した選択操作に基づいて操作対象にする前記ロボットの駆動軸又は動作態様を決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を行うことができ、
前記動作指令生成部は、複数本の指によるタッチ操作において、前記複数本の指のうち指のタッチ位置の距離が最も遠い2本の指を抽出し、その2本の指のいずれかの指の移動に係るベクトルと、前記2本の指間のベクトルとが成す角度が判定閾値未満である場合には、そのドラッグ操作が円周方向への操作でないと判断し、前記角度が判定閾値以上である場合には、そのドラッグ操作が円周方向への操作であると判断する、
ロボット操作装置。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、
操作対象にする前記ロボットの駆動軸又は動作態様を選択するためのユーザからの選択操作を検出する選択操作検出部と、を備え、
前記動作指令生成部は、
前記選択操作検出部で検出した選択操作に基づいて操作対象にする前記ロボットの駆動軸又は動作態様を決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を行うことができ、
前記動作指令生成部は、ドラッグ操作を検出した場合にそのドラッグ操作が終了するまでの期間そのドラッグ操作に係る指によるタッチ箇所の近傍における所定範囲内の領域に対するタッチ操作の検出を無効化する、
ロボット操作装置。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチパネルの傾きを検出することでユーザからの傾き操作の入力を検出することができる傾き操作検出部と、
複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、を備え、
前記動作指令生成部は、
前記タッチ操作検出部で検出されたタッチ操作に基づいて前記ロボットの手先を前記ロボットの動作基準面に対して水平な平面方向に移動させるための前記動作指令を生成する水平移動動作指令生成処理と、
前記傾き操作検出部で検出された傾き操作に基づいて前記ロボットの手先を前記動作基準面と直交する垂直軸方向に沿って移動させるための前記動作指令を生成する垂直移動動作指令生成処理と、
を行うことができるロボット操作装置。 - 前記動作指令生成部は、前記傾き操作検出部で検出された傾き操作の傾き量に応じて前記ロボットの移動速度又は移動量を増減する請求項12に記載のロボット操作装置。
- ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、を備え、
前記タッチパネルは、操作対象にする前記ロボットの駆動軸又は動作態様を選択するための操作を受け付ける動作選択領域と、前記ロボットの移動量を決定するための操作を受け付ける移動量決定領域と、を有し、
前記動作選択領域に対する操作の受け付けを開始するための開始操作を検出する開始操作検出部を更に備え、
前記動作指令生成部は、前記開始操作検出部で前記開始操作を検出した後に前記動作選択領域に対するタッチ操作を受け付けるようにする、
ロボット操作装置。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、を備え、
前記タッチパネルは、操作対象にする前記ロボットの駆動軸又は動作態様を選択するための操作を受け付ける動作選択領域と、前記ロボットの移動量を決定するための操作を受け付ける移動量決定領域と、を有し、
前記ロボットの動作を選択するための操作は、前記タッチパネルに対して前記駆動軸又は前記動作態様に対応する数字、文字、又は記号を描いて入力する操作である、
ロボット操作装置。 - 前記動作指令生成部は、
前記動作選択領域に対する操作が検出された場合に、その操作が終了するまでの期間は前記移動量決定領域に対する操作の検出を無効化する請求項14又は15に記載のロボット操作装置。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、
操作対象にする前記ロボットの駆動軸又は動作態様を選択するためのユーザからの選択操作を検出する選択操作検出部と、を備え、
前記動作指令生成部は、
前記選択操作検出部で検出した選択操作に基づいて操作対象にする前記ロボットの駆動軸又は動作態様を決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断した指の移動量に基づいて前記ロボットの移動速度を算出する速度算出処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様でかつ前記速度算出処理で算出した移動速度で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を行うことができ、
前記動作指令生成部は、前記ドラッグ操作が行われている間は一定の周期で前記操作判断処理と前記速度算出処理と前記動作指令生成処理とを行うことができる、
ロボット操作装置。 - 前記動作指令生成部は、前記指の移動量に基づいて前記ロボットの移動距離を算出する移動量算出処理を行うことができ、
前記速度算出処理は、前記指の移動量を前記ドラッグ操作の入力に要した時間で除した値に基づいて前記ロボットの移動速度を決定する処理である請求項17に記載のロボット操作装置。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、
操作対象にする前記ロボットの駆動軸又は動作態様を選択するためのユーザからの選択操作を検出する選択操作検出部と、を備え、
前記動作指令生成部は、
前記選択操作検出部で検出した選択操作に基づいて操作対象にする前記ロボットの駆動軸又は動作態様を決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を行うことができ、
前記動作指令生成部は、
前記タッチ操作検出部で検出したドラッグ操作の指の移動量を判断する操作判断処理と、
前記操作判断処理で判断した前記ドラッグ操作の指の移動量を拡大又は縮小して前記ロボットの移動量を決定するための倍率について、前記ドラッグ操作が操作開始地点から第1区間を通過するまでは前記倍率を1より小さい一定の値である第1倍率に設定し、前記ドラッグ操作が前記第1区間を通過した後は前記倍率を前記第1倍率より大きい値に設定して、前記ロボットの移動量を決定する移動量決定処理と、
を行うことができる、
ロボット操作装置。 - 前記移動量決定処理は、前記ドラッグ操作の指の移動が前記第1区間を通過してから第2区間を通過するまでは前記倍率を第2倍率に設定し、前記ドラッグ操作の指の移動が前記第2区間を通過した後は前記倍率を一定値である第3倍率に設定して、前記ロボットの移動量を決定する処理であり、
前記第2倍率は、前記第1倍率から前記第3倍率までの範囲で、前記ドラッグ操作の指の移動量に応じて連続的に増加する値である、
請求項19に記載のロボット操作装置。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型のロボットを動作させるための動作指令を生成する動作指令生成部と、
操作対象にする前記ロボットの駆動軸又は動作態様を選択するためのユーザからの選択操作を検出する選択操作検出部と、を備え、
前記動作指令生成部は、
前記選択操作検出部で検出した選択操作に基づいて操作対象にする前記ロボットの駆動軸又は動作態様を決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を行うことができ、
前記タッチ操作検出部は、ユーザによる手持ちが可能なケースに設けられたタッチパネルに対するタッチ操作を検出するものであり、
前記タッチパネルのうち、ユーザが前記ケースを手持ちする際に把持することが想定される把持部に隣接する所定範囲の領域であって親指の付け根が位置する可能性が高い位置を中心とした半径50mm以内の領域又は親指の付け根が位置する可能性が高い位置を中心とした半径50mm以内でかつ65度の扇形状の領域に対するタッチ操作については検出対象から除外する、
ロボット操作装置。 - 4軸水平多関節型のロボットと、
前記ロボットの動作を制御するコントローラと、
請求項1から21のいずれか一項に記載のロボット操作装置と、
を備えていることを特徴とするロボットシステム。 - 6軸垂直多関節型のロボットと、
前記ロボットの動作を制御するコントローラと、
請求項1から21のいずれか一項に記載のロボット操作装置と、
を備えていることを特徴とするロボットシステム。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチパネルに設けられユーザからの選択操作を検出する選択操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
複数の駆動軸を有する多関節型のロボットの操作対象になる駆動軸又は動作態様を前記選択操作検出部で検出した操作に基づいて決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を実行させることができ、
前記操作判断処理は、前記選択操作検出部で検出したタッチ操作が前記タッチパネルにタッチした指の本数のままその指を移動させるドラッグ操作である場合にそのドラッグ操作の指の本数若しくは操作方向、又は指の本数及び操作方向に基づいて、操作対象になる駆動軸又は動作態様を決定する処理を含む、
ロボット操作プログラム。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチパネルに設けられユーザからの選択操作を検出する選択操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
複数の駆動軸を有する多関節型のロボットの操作対象になる駆動軸又は動作態様を前記選択操作検出部で検出した操作に基づいて決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を実行させることができ、
前記動作指令生成処理は、検出されたタッチ操作が指によるドラッグ操作である場合に、そのドラッグ操作の指の本数若しくは操作方向、又は指の本数と操作方向とに基づいて複数の前記駆動軸の中から駆動させる一の駆動軸を選択する駆動軸選択処理を含んでおり、
前記駆動軸選択処理は、
前記ドラッグ操作の操作方向が前記タッチパネル上における縦方向である場合に、前記ロボットの手先を前記動作基準面に対する垂直方向へ移動させる第1群の駆動軸の中から駆動させる一の駆動軸を前記ドラッグ操作の指の本数に基づいて選択する第1駆動軸選択処理と、
前記ドラッグ操作の操作方向が前記タッチパネル上において前記縦方向に直交する横方向又は円周方向である場合に、前記第1群の駆動軸以外の駆動軸の中から駆動させる一の駆動軸を前記ドラッグ操作の指の本数に基づいて選択する第2駆動軸選択処理と、
を含んでいる、
ロボット操作プログラム。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチパネルに設けられユーザからの選択操作を検出する選択操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
複数の駆動軸を有する多関節型のロボットの操作対象になる駆動軸又は動作態様を前記選択操作検出部で検出した操作に基づいて決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を実行させることができ、
前記動作指令生成処理は、検出されたタッチ操作が指によるドラッグ操作である場合に、そのドラッグ操作の指の本数若しくは操作方向、又は指の本数と操作方向とに基づいて複数の前記駆動軸の中から駆動させる一の駆動軸を選択する駆動軸選択処理を含んでおり、
前記駆動軸選択処理は、前記ドラッグ操作の指の本数の増加に伴い前記ロボットのベース側の駆動軸から前記手先側の駆動軸へ移行するようにして、駆動させる駆動軸を決定する処理を含む、
ロボット操作プログラム。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチパネルに設けられユーザからの選択操作を検出する選択操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
複数の駆動軸を有する多関節型のロボットの操作対象になる駆動軸又は動作態様を前記選択操作検出部で検出した操作に基づいて決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を実行させることができ、
前記動作指令生成処理は、検出されたタッチ操作が指によるドラッグ操作である場合に、そのドラッグ操作の指の本数若しくは操作方向、又は指の本数と操作方向とに基づいて複数の前記駆動軸の中から駆動させる一の駆動軸を選択する駆動軸選択処理を含んでおり、
前記駆動軸選択処理は、前記ドラッグ操作の指の本数の増加に伴い前記ロボットの手先側の駆動軸から前記ベース側の駆動軸へ移行するようにして、駆動させる駆動軸を決定する処理を含む、
ロボット操作プログラム。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチパネルに設けられユーザからの選択操作を検出する選択操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
複数の駆動軸を有する多関節型のロボットの操作対象になる駆動軸又は動作態様を前記選択操作検出部で検出した操作に基づいて決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を実行させることができ、
前記動作指令生成処理は、複数本の指によるタッチ操作において、前記複数本の指のうち指のタッチ位置の距離が最も遠い2本の指を抽出し、その2本の指のいずれかの指の移動に係るベクトルと、前記2本の指間のベクトルとが成す角度が判定閾値未満である場合には、そのドラッグ操作が円周方向への操作でないと判断し、前記角度が判定閾値以上である場合には、そのドラッグ操作が円周方向への操作であると判断する処理を含む、
ロボット操作プログラム。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチパネルに設けられユーザからの選択操作を検出する選択操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
複数の駆動軸を有する多関節型のロボットの操作対象になる駆動軸又は動作態様を前記選択操作検出部で検出した操作に基づいて決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を実行させることができ、
前記動作指令生成処理は、ドラッグ操作を検出した場合にそのドラッグ操作が終了するまでの期間そのドラッグ操作に係る指によるタッチ箇所の近傍における所定範囲内の領域に対するタッチ操作の検出を無効化する処理を含む、
ロボット操作プログラム。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチパネルの傾きを検出することでユーザからの傾き操作の入力を検出することができる傾き操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
前記タッチ操作検出部で検出されたタッチ操作に基づいて複数の駆動軸を有する多関節型のロボットの手先を前記ロボットの動作基準面に対して水平な平面方向に移動させるための前記動作指令を生成する水平移動動作指令生成処理と、
前記傾き操作検出部で検出された傾き操作に基づいて前記ロボットの手先を前記動作基準面と直交する垂直軸方向に沿って移動させるための前記動作指令を生成する垂直移動動作指令生成処理と、
を実行させるロボット操作プログラム。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型ロボットを動作させるための動作指令を生成する動作指令生成処理と、
前記タッチパネルに、操作対象にする前記ロボットの駆動軸又は動作態様を選択するための操作の入力を受け付ける動作選択領域と、前記ロボットの移動量を決定するための操作の入力を受け付ける移動量決定領域と、を形成する処理と、
前記動作選択領域に対する操作の受け付けを開始するための開始操作を検出する開始操作検処理と、
を実行させることができ、
前記動作指令生成処理は、前記開始操作検出処理によって前記開始操作を検出した後に前記動作選択領域に対するタッチ操作を受け付けるようにする処理を含む、
ロボット操作プログラム。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
前記タッチ操作検出部の検出結果に基づいて複数の駆動軸を有する多関節型ロボットを動作させるための動作指令を生成する動作指令生成処理と、
前記タッチパネルに、操作対象にする前記ロボットの駆動軸又は動作態様を選択するための操作であって前記タッチパネルに対して前記駆動軸又は前記動作態様に対応する数字、文字、又は記号を描いて入力する操作の入力を受け付ける動作選択領域と、前記ロボットの移動量を決定するための操作の入力を受け付ける移動量決定領域と、を形成する処理と、
を実行させるロボット操作プログラム。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチパネルに設けられユーザからの選択操作を検出する選択操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
複数の駆動軸を有する多関節型のロボットの操作対象になる駆動軸又は動作態様を前記選択操作検出部で検出した操作に基づいて決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断した指の移動量に基づいて前記ロボットの移動速度を算出する速度算出処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様でかつ前記速度算出処理で算出した移動速度で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を実行させることができ、
前記ドラッグ操作が行われている間は一定の周期で前記操作判断処理と前記速度算出処理と前記動作指令生成処理とを行われる、
ロボット操作プログラム。 - ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチパネルに設けられユーザからの選択操作を検出する選択操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
複数の駆動軸を有する多関節型のロボットの操作対象になる駆動軸又は動作態様を前記選択操作検出部で検出した操作に基づいて決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
を実行させることができ、
前記動作指令生成処理は、前記操作判断処理で判断した前記ドラッグ操作の指の移動量を拡大又は縮小して前記ロボットの移動量を決定するための倍率について、前記ドラッグ操作が操作開始地点から第1区間を通過するまでは前記倍率を1より小さい一定の値である第1倍率に設定し、前記ドラッグ操作が前記第1区間を通過した後は前記倍率を前記第1倍率より大きい値に設定して、前記ロボットの移動量を決定する移動量決定処理、を含んでいる、
ロボット操作プログラム。 - ユーザによる手持ちが可能なケースに設けられ、ユーザからタッチ操作の入力を受けるタッチパネルと、
前記タッチパネルに入力された平面方向のタッチ操作を検出することができるタッチ操作検出部と、
前記タッチパネルに設けられユーザからの選択操作を検出する選択操作検出部と、
を備えるロボット操作装置に組み込まれたコンピュータに実行されるロボット操作プログラムであって、
前記コンピュータに、
複数の駆動軸を有する多関節型のロボットの操作対象になる駆動軸又は動作態様を前記選択操作検出部で検出した操作に基づいて決定するとともに、前記タッチ操作検出部で検出したタッチ操作がドラッグ操作である場合にそのドラッグ操作の移動量を判断する操作判断処理と、
前記操作判断処理で判断したドラッグ操作の移動量に基づいて前記ロボットの移動量を決定し、その移動量分、操作対象の駆動軸又は動作態様で前記ロボットを移動させるための動作指令を生成する動作指令生成処理と、
前記タッチパネルのうち、ユーザが前記ケースを手持ちする際に把持することが想定される把持部に隣接する所定範囲の領域であって親指の付け根が位置する可能性が高い位置を中心とした半径50mm以内の領域又は親指の付け根が位置する可能性が高い位置を中心とした半径50mm以内でかつ65度の扇形状の領域に対するタッチ操作については検出対象から除外する処理と、
を実行させるロボット操作プログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014175753A JP6476662B2 (ja) | 2013-09-20 | 2014-08-29 | ロボット操作装置、ロボットシステム、及びロボット操作プログラム |
CN201480062089.2A CN105722650B (zh) | 2013-09-20 | 2014-09-19 | 机器人操作装置及机器人系统 |
TW103132582A TWI654055B (zh) | 2013-09-20 | 2014-09-19 | Robot operating device and robot operating program |
US15/023,622 US10076839B2 (en) | 2013-09-20 | 2014-09-19 | Robot operation apparatus, robot system, and robot operation program |
PCT/JP2014/074891 WO2015041332A1 (ja) | 2013-09-20 | 2014-09-19 | ロボット操作装置、ロボットシステム、及びロボット操作プログラム |
DE112014004307.9T DE112014004307B4 (de) | 2013-09-20 | 2014-09-19 | Roboterbedienungsvorrichtung, Robotersystem, und Roboterbedienungsprogramm |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013195423 | 2013-09-20 | ||
JP2013195423 | 2013-09-20 | ||
JP2014175753A JP6476662B2 (ja) | 2013-09-20 | 2014-08-29 | ロボット操作装置、ロボットシステム、及びロボット操作プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015083331A JP2015083331A (ja) | 2015-04-30 |
JP6476662B2 true JP6476662B2 (ja) | 2019-03-06 |
Family
ID=52688979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014175753A Active JP6476662B2 (ja) | 2013-09-20 | 2014-08-29 | ロボット操作装置、ロボットシステム、及びロボット操作プログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10076839B2 (ja) |
JP (1) | JP6476662B2 (ja) |
CN (1) | CN105722650B (ja) |
DE (1) | DE112014004307B4 (ja) |
TW (1) | TWI654055B (ja) |
WO (1) | WO2015041332A1 (ja) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2875914A1 (en) * | 2012-07-20 | 2015-05-27 | Kabushiki Kaisha Yaskawa Denki | Robot simulator, robot teaching device and robot teaching method |
US10768708B1 (en) * | 2014-08-21 | 2020-09-08 | Ultrahaptics IP Two Limited | Systems and methods of interacting with a robotic tool using free-form gestures |
JP6497021B2 (ja) * | 2014-10-01 | 2019-04-10 | 株式会社デンソーウェーブ | ロボット操作装置、ロボットシステム、及びロボット操作プログラム |
EP3866174A1 (en) * | 2014-11-13 | 2021-08-18 | Intuitive Surgical Operations, Inc. | Interaction between user-interface and master controller |
US10123846B2 (en) | 2014-11-13 | 2018-11-13 | Intuitive Surgical Operations, Inc. | User-interface control using master controller |
JP6690265B2 (ja) * | 2015-03-19 | 2020-04-28 | 株式会社デンソーウェーブ | ロボット操作装置、ロボット操作方法 |
US20180111711A1 (en) * | 2015-05-26 | 2018-04-26 | Ishida Co., Ltd. | Production line configuration apparatus |
JP6643776B2 (ja) * | 2015-06-11 | 2020-02-12 | 株式会社バンダイナムコエンターテインメント | 端末装置及びプログラム |
WO2017033353A1 (ja) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | 遠隔操作ロボットシステム |
JP6710919B2 (ja) * | 2015-09-08 | 2020-06-17 | 株式会社デンソーウェーブ | ロボット操作装置 |
CN108366835B (zh) | 2015-12-10 | 2021-07-27 | 柯惠Lp公司 | 具有独立的侧倾、俯仰和偏摆缩放的机器人外科手术系统 |
JP2017211956A (ja) * | 2016-05-27 | 2017-11-30 | ファナック株式会社 | マルチタッチジェスチャによる機械操作が可能な数値制御装置 |
JP6591941B2 (ja) * | 2016-07-21 | 2019-10-16 | ファナック株式会社 | 容易に軸移動量の倍率設定が可能な手動ハンドル送り機能を備えた数値制御装置 |
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
JPWO2018051435A1 (ja) * | 2016-09-14 | 2018-09-13 | 三菱電機株式会社 | 数値制御装置 |
CN107636551B (zh) * | 2016-09-22 | 2021-11-30 | 深圳市大疆创新科技有限公司 | 一种飞行控制方法、装置及智能终端 |
CN106484182B (zh) * | 2016-09-29 | 2019-06-18 | 北京小米移动软件有限公司 | 触控识别方法及装置 |
CN107077280B (zh) * | 2016-12-30 | 2019-05-28 | 深圳市大疆创新科技有限公司 | 一种可移动设备的控制方法、控制设备及控制系统 |
EP3585568B1 (en) | 2017-02-24 | 2022-03-30 | ABB Schweiz AG | Method and apparatus for selecting initial point for industrial robot commissioning |
US20200012239A1 (en) * | 2017-03-31 | 2020-01-09 | Sony Corporation | Information processing apparatus and information processing method, computer program, and program manufacturing method |
JP6469162B2 (ja) | 2017-04-17 | 2019-02-13 | ファナック株式会社 | ロボットのオフライン教示装置 |
JP6526098B2 (ja) | 2017-04-26 | 2019-06-05 | ファナック株式会社 | ロボットを操作するための操作装置、ロボットシステム、および操作方法 |
JP6953778B2 (ja) * | 2017-04-28 | 2021-10-27 | オムロン株式会社 | 協調ロボット、コントローラ、および方法 |
JP6936081B2 (ja) * | 2017-08-30 | 2021-09-15 | パナソニック株式会社 | ロボット |
JP6907853B2 (ja) * | 2017-09-21 | 2021-07-21 | 株式会社デンソー | ロボットの教示システム |
JP7087316B2 (ja) * | 2017-09-27 | 2022-06-21 | オムロン株式会社 | 情報処理装置、情報処理方法およびプログラム |
EP3474125A1 (en) * | 2017-10-23 | 2019-04-24 | Koninklijke Philips N.V. | Medical image visualization |
JP6784660B2 (ja) * | 2017-11-28 | 2020-11-11 | ファナック株式会社 | 入力装置およびロボットの制御システム |
KR102239469B1 (ko) * | 2018-01-19 | 2021-04-13 | 한국과학기술원 | 객체 제어 방법 및 객체 제어 장치 |
WO2019190487A1 (en) * | 2018-03-27 | 2019-10-03 | Productive Robotics, Inc. | Collaborative robot system incorporating enhanced human interface |
TWI712475B (zh) * | 2018-04-03 | 2020-12-11 | 台達電子工業股份有限公司 | 機械手臂之作動教導方法及其適用之手勢教導裝置 |
CN110340866A (zh) | 2018-04-03 | 2019-10-18 | 台达电子工业股份有限公司 | 机械手臂的作动教导方法及其适用的手势教导装置 |
JP6693538B2 (ja) * | 2018-05-16 | 2020-05-13 | 株式会社安川電機 | 操作用デバイス、制御システム、制御方法及びプログラム |
US11279044B2 (en) * | 2018-08-03 | 2022-03-22 | Yaskawa America, Inc. | Robot instructing apparatus, teaching pendant, and method of instructing a robot |
EP3875230A4 (en) * | 2018-11-01 | 2022-07-27 | Canon Kabushiki Kaisha | EXTERNAL INPUT DEVICE, ROBOT SYSTEM, CONTROL METHOD FOR ROBOT SYSTEM, CONTROL PROGRAM AND RECORDING MEDIA |
CN112917470A (zh) * | 2019-12-06 | 2021-06-08 | 鲁班嫡系机器人(深圳)有限公司 | 一种机械手的示教方法、装置、系统、存储介质及设备 |
DE102020201375B3 (de) * | 2020-02-05 | 2021-06-24 | Magna Steyr Fahrzeugtechnik Ag & Co Kg | Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters |
US20230294300A1 (en) * | 2020-07-30 | 2023-09-21 | Abb Schweiz Ag | Diffractive Visual-Tactile Sensing in Robotic Grippers |
CN111958611B (zh) * | 2020-07-31 | 2021-10-08 | 华中科技大学 | 考虑轮廓误差最小的铣削加工机器人姿态优化方法及设备 |
JP2022092831A (ja) * | 2020-12-11 | 2022-06-23 | セイコーエプソン株式会社 | ソフトウェアスイッチプログラム、選択肢の選択方法および情報処理装置 |
CN112706148A (zh) * | 2020-12-25 | 2021-04-27 | 珠海新天地科技有限公司 | 一种机器人操作装置及方法 |
CN114911401A (zh) * | 2021-02-08 | 2022-08-16 | 华为技术有限公司 | 电子设备及其触摸操作的分析方法和可读介质 |
WO2023062796A1 (ja) * | 2021-10-14 | 2023-04-20 | ファナック株式会社 | 複数の構成部材を含むロボットを制御する制御装置、制御装置を備えるロボット装置、およびパラメータを設定する操作装置 |
CN115429444A (zh) * | 2022-09-26 | 2022-12-06 | 深圳市爱博医疗机器人有限公司 | 一种介入机器人及多种模式控制方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6088628A (en) * | 1996-07-24 | 2000-07-11 | Fanuc, Ltd. | Jog feeding method for robots |
JPH11262883A (ja) * | 1998-03-19 | 1999-09-28 | Denso Corp | ロボットのマニュアル操作装置 |
JP4850995B2 (ja) * | 2000-04-20 | 2012-01-11 | 株式会社東海理化電機製作所 | タッチ操作入力装置 |
JP4347313B2 (ja) | 2006-02-23 | 2009-10-21 | ファナック株式会社 | ロボット教示操作盤 |
JP2008084158A (ja) * | 2006-09-28 | 2008-04-10 | Toyota Motor Corp | 入力装置 |
JP2009142941A (ja) * | 2007-12-14 | 2009-07-02 | Toyota Motor Corp | 制御装置及び制御方法 |
EP2124117B1 (de) * | 2008-05-21 | 2012-05-02 | Siemens Aktiengesellschaft | Bedieneinrichtung zur Bedienung einer Werkzeugmaschine |
JP4676544B2 (ja) | 2009-05-29 | 2011-04-27 | ファナック株式会社 | 工作機械に対してワークの供給及び取り出しを行うロボットを制御するロボット制御装置 |
JP5669169B2 (ja) * | 2009-07-28 | 2015-02-12 | Necカシオモバイルコミュニケーションズ株式会社 | 端末装置及びプログラム |
WO2012062374A1 (en) | 2010-11-12 | 2012-05-18 | Abb Technology Ag | A control system and an operating device for controlling an industrial robot comprising a touch -screen |
JP5649169B2 (ja) | 2010-11-22 | 2015-01-07 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム |
JP5722696B2 (ja) * | 2011-05-10 | 2015-05-27 | 京セラ株式会社 | 電子機器、制御方法及び制御プログラム |
JP2013154410A (ja) * | 2012-01-26 | 2013-08-15 | Canon Inc | 教示装置 |
JP5994300B2 (ja) * | 2012-03-12 | 2016-09-21 | ブラザー工業株式会社 | 入力装置及び入力プログラム |
DE102012103032B3 (de) | 2012-04-05 | 2013-07-04 | Reis Group Holding Gmbh & Co. Kg | Verfahren zur Bedienung eines Industrieroboters |
JP5716769B2 (ja) * | 2013-02-21 | 2015-05-13 | 株式会社安川電機 | ロボットシミュレータ、ロボット教示装置およびロボット教示方法 |
US9283674B2 (en) * | 2014-01-07 | 2016-03-15 | Irobot Corporation | Remotely operating a mobile robot |
-
2014
- 2014-08-29 JP JP2014175753A patent/JP6476662B2/ja active Active
- 2014-09-19 DE DE112014004307.9T patent/DE112014004307B4/de active Active
- 2014-09-19 US US15/023,622 patent/US10076839B2/en active Active
- 2014-09-19 CN CN201480062089.2A patent/CN105722650B/zh active Active
- 2014-09-19 WO PCT/JP2014/074891 patent/WO2015041332A1/ja active Application Filing
- 2014-09-19 TW TW103132582A patent/TWI654055B/zh active
Also Published As
Publication number | Publication date |
---|---|
DE112014004307T5 (de) | 2016-07-07 |
US10076839B2 (en) | 2018-09-18 |
WO2015041332A1 (ja) | 2015-03-26 |
CN105722650A (zh) | 2016-06-29 |
TWI654055B (zh) | 2019-03-21 |
DE112014004307B4 (de) | 2022-01-20 |
US20160229052A1 (en) | 2016-08-11 |
JP2015083331A (ja) | 2015-04-30 |
CN105722650B (zh) | 2017-09-22 |
TW201532760A (zh) | 2015-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6476662B2 (ja) | ロボット操作装置、ロボットシステム、及びロボット操作プログラム | |
JP6497021B2 (ja) | ロボット操作装置、ロボットシステム、及びロボット操作プログラム | |
US9857962B2 (en) | Robot operation apparatus and robot operation program product | |
JP6642054B2 (ja) | ロボット操作装置、及びロボット操作プログラム | |
US10048851B2 (en) | Apparatus for operating robots | |
US20200310561A1 (en) | Input device for use in 2d and 3d environments | |
EP2923806A1 (en) | Robot control device, robot, robotic system, teaching method, and program | |
JP6690265B2 (ja) | ロボット操作装置、ロボット操作方法 | |
JP6631279B2 (ja) | ロボット操作装置、ロボット操作プログラム | |
JP6866566B2 (ja) | ロボット操作装置、及びロボット操作プログラム | |
CN108981567B (zh) | 位置测量装置的操作方法 | |
JP2016175132A (ja) | ロボット操作装置、ロボット操作方法 | |
JP6379902B2 (ja) | ロボット操作装置、ロボットシステム、及びロボット操作プログラム | |
JP6710919B2 (ja) | ロボット操作装置 | |
JP6379921B2 (ja) | ロボット操作装置、ロボットシステム、及びロボット操作プログラム | |
US20160349987A1 (en) | Input method and input device | |
JP2011020218A (ja) | 衣料折り畳みシステム、衣料折り畳み指示装置 | |
JP6435940B2 (ja) | ロボット操作装置、及びロボット操作プログラム | |
JP2005342891A (ja) | 産業用ロボットの手持操作器およびロボット制御システム | |
JP5062535B2 (ja) | 産業用ロボットの手持操作器およびロボット制御システム | |
Brookes et al. | Gesture-based control of ImageJ using Leap sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6476662 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |