JP7483420B2 - ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体 - Google Patents
ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体 Download PDFInfo
- Publication number
- JP7483420B2 JP7483420B2 JP2020043049A JP2020043049A JP7483420B2 JP 7483420 B2 JP7483420 B2 JP 7483420B2 JP 2020043049 A JP2020043049 A JP 2020043049A JP 2020043049 A JP2020043049 A JP 2020043049A JP 7483420 B2 JP7483420 B2 JP 7483420B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- worker
- information
- input
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 75
- 230000010365 information processing Effects 0.000 title claims description 11
- 238000003672 processing method Methods 0.000 title claims 5
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000033001 locomotion Effects 0.000 claims description 390
- 238000001514 detection method Methods 0.000 claims description 81
- 238000003860 storage Methods 0.000 claims description 48
- 238000012545 processing Methods 0.000 claims description 38
- 230000006854 communication Effects 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 17
- 230000009471 action Effects 0.000 claims description 15
- 230000001133 acceleration Effects 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 claims description 4
- 230000005856 abnormality Effects 0.000 claims 1
- 238000003825 pressing Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 58
- 238000010586 diagram Methods 0.000 description 24
- 238000004458 analytical method Methods 0.000 description 23
- 239000003638 chemical reducing agent Substances 0.000 description 22
- 241000282412 Homo Species 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000005498 polishing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1651—Programme controls characterised by the control loop acceleration, rate control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/409—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39319—Force control, force as reference, active compliance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40414—Man robot interface, exchange of information between operator and robot
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
Description
ロボットに対して動作指示を行う例として、特許文献1には、音声による動作指令に基づいてロボットと周辺機器とを協働させ、ワークに対して作業を行うロボットシステムが提案されている。
しかし、特に産業用ロボットの場合には、周囲に配置された他の産業用機械が発生する騒音、ロボット自身が発する動作音、ロボットが行う作業(例えば機械加工)に伴う作業音などが存在するため、音声による動作指令が正確に認識されない場合がある。音声入力による動作指令を確実に行うために、人が極めて高い音量の声を発する必要が生じたり、ロボット近傍から静粛な位置まで移動して発声する必要があるとすれば、協働作業の効率が低下してしまう。
尚、以下の実施形態の説明において参照する図面では、特に但し書きがない限り、同一の参照番号を付して示す要素は、同一の機能を有するものとする。
(ロボット装置)
実施形態1として、6軸制御のロボットアームを備えた産業用ロボット装置について説明する。ただし、本発明の実施形態はこのタイプのロボット装置に限るわけではなく、近接した位置で人と協働作業を行うロボット装置であれば、種々のタイプのロボット装置において本発明の実施が可能である。例えば、本発明を実施するうえでロボット装置の関節数や軸数に制限はなく、垂直多関節ロボット、スカラロボット、パラレルリンクロボット、直交ロボット、双腕ロボット、等において実施が可能である。また、人との協働作業の内容に応じて、ロボット装置は種々のアクチュエータやセンサを装備することができる。
図2において、101は電源装置、200は制御装置、300はシステム制御盤、111~116は関節である。
図3(a)に示すように、制御装置200は、電源回路、通信制御器、軌道生成器、周辺I/O制御部、メモリ、CPU等を備えている。更に、制御装置200は、ユーザモーション解析部501、ユーザモーション記憶部502、ユーザモーション/動作指令関連付け処理部503、動作指令記憶部504、を備えている。これらの機能ブロックの動作については、後にユーザモーションによるロボット動作制御と関連付けて説明する。
関節116は、関節制御部109と、位置検出器30aと、モータ30と、モータ30の出力を減速する減速機31と、関節116にかかるトルクを検出するトルク検出器20を備えている。
関節制御部109は、電源回路、通信制御器、演算機、シリアル通信器、ADコンバータ、電流検出器、モータドライバ等を含む制御回路である。
ロボット装置500は、演算部としてのCPU1201と、ROM1202と、RAM1203と、HDD(記憶部)1204と、記録ディスクドライブ1205と、各種のインタフェース211~216と、を備えている。
また、インタフェース212には、トルク検出器20が接続されており、トルク検出値をインタフェース212及びバス217を介してCPU1201に出力する。更に、インタフェース213には、位置検出器30aが接続されており、位置検出に係る出力信号をインタフェース213及びバス217を介してCPU1201に出力する。
更に、インタフェース214、215には、各種画像が表示される表示部311や書き換え可能な不揮発性メモリや外付けHDD等の外部記憶装置312が接続されている。また、インタフェース216にはサーボ制御装置313が接続されている。
ロボット装置500においては、例えば教示済の所定の動作を実行すべく、制御装置200の軌道生成器が制御情報を生成し、制御情報に基づいて関節111~116が駆動されてロボットアーム100の位置姿勢が制御される。
ここで、ユーザモーションとは、人がロボット装置500の本体(典型的にはロボットアーム100)に接触する際の接触状態の規則性、様式、類型、等を表している。例えばロボット筐体に人が手で接触する際の接触時間の長さ、力の強さ、力の方向、周期、所定時間内に接触する回数、接触位置、接触位置の変化、等に応じてその規則性、様式、類型、等が解析され、ユーザモーションとして識別される。すなわち、接触における、接触時間の長さ、接触する力の強さ、接触により加えられた力の方向、接触の周期、所定時間内に接触する回数、接触位置、接触位置の軌跡、の中の少なくとも1つが解析されて、ユーザモーションは検知される。
ユーザモーションに応じて動作を変更する制御を可能とするため、本実施形態のロボット装置500の制御装置200は、以下の手順に従って処理を行う。
人がロボット装置500と接触することにより動作指令を出す際の接触の仕方(ユーザモーション)を解析して学習し、解析したユーザモーションの類型を、ユーザモーション記憶部502が記憶する。尚、ユーザモーションを解析して学習する際には、ニューラルネット等を用いた、いわゆる機械学習の手法を用いることも可能である。
人がロボット装置500と接触することにより発令する動作指令の各々について、その内容を動作指令記憶部504が記憶する。前述したように、動作指令の内容とは、例えば、減速、加速、停止、再始動、位置制御開始、力制御開始、エラーリセット開始、等の中の一つあるいは組み合わせである。
また、ユーザモーション/動作指令関連付け処理部503は、ユーザモーションの類型の各々と動作指令の各々との対応関係を記憶する。
協働作業中に人がロボット装置500に接触した際は、各関節のトルク検出器20の出力信号と、ユーザモーション記憶部502に記憶されたユーザモーションに係る情報とを用いて、ユーザモーション解析部501がユーザモーションを検出する。尚、ユーザモーションの検出には、ニューラルネット等を用いた、いわゆる学習済モデルを用いることも可能である。
制御装置200は、特定された情報を動作指令として受付け、以後はその動作指令に基づいてロボット装置500の動作を制御する。
まず、手順1と手順2について、図5及び図6に示すフローチャートを参照して説明する。図5は、手順1と手順2の全体に係るフローチャートであり、図6は、手順1に含まれるユーザモーション解析処理に係るフローチャートである。
次に、自乗演算処理としてのS403処理において、オフセット除去処理後の各関節のトルク検出信号のそれぞれについて、自乗演算を行う。
次に、積算処理としてのS404処理において、S403処理にて自乗演算処理した各関節のトルク検出信号を積算する処理を行う。本実施形態の場合には、自乗演算処理した後の6つの関節のトルク検出信号を積算する。
積算処理した結果をモーション解析波形と呼び、図10にモーション解析波形のグラフを例示する。
そして、M1について求めた積S1、およびM2について求めた積S2は、このユーザモーションに関する特徴量としてユーザモーション記憶部502に記憶される。すなわち、システム制御盤300の表示部311のモーション登録番号表示部202に表示された識別番号と対応付けられて、ユーザモーション記憶部502に記憶される。
S305処理では、人がユーザモーション(所定の仕方によりロボット装置に接触する動作)を実行することによりロボット装置に入力しようとする動作指令を、制御装置200の動作指令記憶部504に記憶する。動作指令とは、例えば、減速、加速、停止、再始動、位置制御開始、力制御開始、エラーリセット開始、等の中の一つあるいは組み合わせである。
S306処理は、どのユーザモーションが、どの動作指令に対応するかを設定して記憶する処理である。具体的には、ユーザモーションと動作指令の対応関係を記憶したテーブルを、ユーザモーション/動作指令関連付け処理部503内に生成する。操作者は、システム制御盤300を用いて、ユーザモーションと動作指令の対応関係を登録することができる。
ロボット装置500は、例えば教示された動作プログラムに従って所定の動作を実行している際には、制御装置200の軌道生成器が制御情報を生成し、制御情報に基づいて関節111~116が駆動されてロボットアーム100の位置姿勢が制御されている。本実施形態では、ロボット装置500が動作中に各関節のトルク検出器20から送られてくるトルク検出信号を、ユーザモーション解析部501がモニターしている。ユーザモーション解析部501は、ユーザモーション記憶部502に記憶されたユーザモーションに係る情報を用いて、ユーザモーションの検出を行う。ユーザモーションが検出されると、ユーザモーション/動作指令関連付け処理部503は、動作指令記憶部504に記憶された動作指令の中から、検出されたユーザモーションに対応する動作指令を特定する。制御装置200は、特定された動作指令を受付け、その動作指令に基づいてロボット装置500の動作を変更する。
まず、ロボット装置500は、起動後にシステム初期化処理としてのS501処理を実行する。システム初期化処理には、内部処理にて内部変数の初期化をしたり、装置内外の通信確立を自動的に実行したり、各種電源を立ち上げるシーケンス制御が含まれる。
ユーザモーションが検知されなかった場合(S504処理:NO)には、S502処理にて内部変数ExecCmdにセットされていた制御コマンドを維持したままS506処理に進み、その制御コマンドを実行する。すなわち、ユーザモーションが存在していないため、動作変更は行なわずに、現在実行中であるコマンド処理を続行する。
実施形態1では、ロボットアームの各関節に設けられたトルク検出器を用いて、人が協働作業中にロボット装置に接する際のユーザモーションを解析したが、本発明の実施形態はこれに限られるわけではない。
以下に説明する実施形態2においては、実施形態1と異なり、ロボットアームに装着されたタッチパネルを用いて、人が協働作業中にロボット装置の本体に接する際のユーザモーションを解析する。すなわち、本実施形態では、タッチパネルは、ロボット本体への作業者の接触を検知する接触検知部として機能し、モーション検知部としてのユーザモーション解析部はタッチパネルの出力信号を用いて作業者のモーションを検知する。以下、実施形態1と共通する部分の説明は省略し、実施形態1とは異なる部分を中心に説明してゆく。
図16(a)および図16(a)は、動作指令を入力する際に、人がタッチパネル904に接触して行うユーザモーションについての例を示すための図で、各々は異なるユーザモーションを示している。
尚、本発明は、以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で多くの変形や組み合わせが可能である。
例えば、実施形態1では、図5に示したフローチャートにおいて、S303処理では、所望の種類のユーザモーションについてトルク検出信号の記憶が完了したかを判定したが、異なる観点から判定を行ってもよい。例えば、ユーザモーションについての学習精度を向上させるため、1つの種類のユーザモーションについて操作者に複数回の動作を行わせ、所定数の計測サンプル(学習用データ)を収集すべき場合がある。その際には、S303処理では、同一種類のユーザモーションについての記憶回数が所定数に達したかを判定するようにしてもよい。その場合には、ユーザモーション解析・記憶処理としてのS303処理において、例えばニューラルネットを用いてユーザモーションについての学習済モデルを形成し、記憶してもよい。
Claims (39)
- ロボットへの作業者からの入力を検出する入力検出部と、
前記入力検出部を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
前記モーション検出部により検出されたモーションと対応づけられた動作指令を実行する制御部と、を備え、
前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報が表示され、
前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができる、
ことを特徴とするロボットシステム。 - 前記入力検出部は、前記ロボットが備えるトルク検出器を用いて前記入力を検出する、
ことを特徴とする請求項1に記載のロボットシステム。 - 前記作業者が前記ロボットに接触することで前記入力を行う、
ことを特徴とする請求項2に記載のロボットシステム。 - 前記入力検出部は、前記ロボットに装着されたタッチパネルを用いて前記入力を検出する、
ことを特徴とする請求項1に記載のロボットシステム。 - 前記タッチパネルは、前記ロボットに脱着可能に装着されている、
ことを特徴とする請求項4に記載のロボットシステム。 - 前記タッチパネルは、赤外通信、無線LAN、ブルートゥース(登録商標)、コネクタによる有線、の少なくとも1つにより前記ロボットと接続されている、
ことを特徴とする請求項4または5に記載のロボットシステム。 - 前記作業者の操作により、前記表示部に、前記モーションに関する情報と共に前記モーションに対応付けられた前記動作指令に関する情報が一覧で表示される、
ことを特徴する請求項6に記載のロボットシステム。 - ロボットへの作業者からの入力を検出する入力検出部と、
前記入力検出部を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
前記モーション検出部により検出されたモーションと対応づけられた動作指令を実行する制御部と、を備え、
前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報が表示され、
前記表示部に、前記モーションに関する情報に矢印を付して表示することで、前記モーションの詳細を表示する、
ことを特徴とするロボットシステム。 - 前記表示部にはモーション編集ボタンが表示され、
前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が前記モーション編集ボタンを押下することで前記作業者が選択した前記モーションに関する情報を編集することができる、
ことを特徴とする請求項1乃至8のいずれか1項に記載のロボットシステム。 - 前記表示部には、モーション番号表示部が表示され、
前記作業者が前記モーション編集ボタンを押下すると前記モーション番号表示部が点滅する、
ことを特徴とする請求項9に記載のロボットシステム。 - ロボットへの作業者からの入力を検出する入力検出部と、
前記入力検出部を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
前記モーション検出部により検出されたモーションと対応づけられた動作指令を実行する制御部と、を備え、
前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報が表示され、
前記表示部には番号送り/戻りボタンが表示され、
前記作業者による前記番号送り/戻りボタンの押下により、前記表示部に、前記モーションに関する情報が順次表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報が順次表示される、
ことを特徴とするロボットシステム。 - 前記表示部には、モーション番号表示部が表示され、
前記モーション番号表示部が点滅した状態で、前記作業者により前記番号送り/戻りボタンが押下されると、モーション登録番号に対応したモーションが順次表示される、
ことを特徴とする請求項11に記載のロボットシステム。 - ロボットへの作業者からの入力を検出する入力検出部と、
前記入力検出部を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
前記モーション検出部により検出されたモーションと対応づけられた動作指令を実行する制御部と、を備え、
前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報が表示され、
前記表示部には、
モーション登録解除ボタンと、
モーション格納ボタンと、が表示されている、
ことを特徴とするロボットシステム。 - 前記作業者により前記モーション登録解除ボタンが押下されると、登録解除の実行の確認を前記作業者に行うポップアップが前記表示部に表示される、
ことを特徴とする請求項13に記載のロボットシステム。 - 前記モーション検出部は、前記入力における、入力時間の長さ、入力する力の強さ、入力により加えられた力の方向、入力の周期、所定時間内に入力する回数、入力位置、入力位置の軌跡、の中の少なくとも1つを解析して、前記作業者によって入力されたモーションを検出する、
ことを特徴とする請求項1乃至14のいずれか1項に記載のロボットシステム。 - 前記モーションの特徴に係る情報が格納された第1格納部を備え、
前記モーション検出部は、前記第1格納部に格納された情報と、前記入力検出部とを用いて、前記作業者のモーションを検出する、
ことを特徴とする請求項1乃至15のいずれか1項に記載のロボットシステム。 - 前記第1格納部は、複数パターンのモーションについて、各々の特徴に係る情報が格納されており、
前記モーション検出部は、前記入力における前記作業者のモーションが、前記複数パターンのモーションの中のいずれであるかを識別し、
前記制御部は、識別されたパターンのモーションと対応づけられた動作指令を実行する、
ことを特徴とする請求項16に記載のロボットシステム。 - 前記複数パターンは、長押し、短押し、繰り返し押し、フリック、スワイプ、ピンチ、ライン描画、の中の少なくとも1つを含む、
ことを特徴とする請求項17に記載のロボットシステム。 - 前記制御部は、前記モーション検出部によりモーションが検出された場合に実行する動作指令が格納された第2格納部を備え、
前記動作指令には、減速、加速、停止、再始動、位置制御開始、力制御開始、エラーリセット開始の中の少なくとも1つが含まれる、
ことを特徴とする請求項1乃至18のいずれか1項に記載のロボットシステム。 - 前記再始動の指令は、前記ロボットの所定部位が、予め設定された所定位置に移動するように前記ロボットを制御する指令である、
ことを特徴とする請求項19に記載のロボットシステム。 - 前記所定位置は復帰位置であり、前記再始動の指令は、前記ロボットが異常により停止した状態から復帰させるように前記ロボットを制御する指令である、
ことを特徴とする請求項20に記載のロボットシステム。 - 前記力制御開始の指令は、力の値に基づき前記ロボットを制御する指令である、
ことを特徴とする請求項19に記載のロボットシステム。 - 前記位置制御開始の指令は、前記ロボットがワークを搬送するように制御する指令である、
ことを特徴とする請求項19に記載のロボットシステム。 - 前記制御部は、前記モーションの特徴量をモデル波形による最小二乗法によるフィッティング後の残差判定、または機械学習による波形パターン認識を用いて取得する、
ことを特徴とする請求項1乃至23のいずれか1項に記載のロボットシステム。 - ロボットへの作業者からの入力を検出する入力検出部と、
前記作業者によって入力されたモーションを検出するモーション検出部と、
前記モーション検出部により検出されたモーションと対応づけられた動作指令を前記ロボットに実行させる制御部と、を備え、
前記制御部は、
前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができるようにする、
ことを特徴とする制御装置。 - ロボットへの作業者からの入力を検出する入力検出部と、
前記作業者によって入力されたモーションを検出するモーション検出部と、
前記モーション検出部により検出されたモーションと対応づけられた動作指令を前記ロボットに実行させる制御部と、を備え、
前記制御部は、
前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に、前記モーションに関する情報に矢印を付して表示することで、前記モーションの詳細を表示する、
ことを特徴とする制御装置。 - ロボットへの作業者からの入力を検出する入力検出部と、
前記作業者によって入力されたモーションを検出するモーション検出部と、
前記モーション検出部により検出されたモーションと対応づけられた動作指令を前記ロボットに実行させる制御部と、を備え、
前記制御部は、
前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に番号送り/戻りボタンを表示し、
前記作業者による前記番号送り/戻りボタンの押下により、前記表示部に、前記モーションに関する情報を順次表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を順次表示する、
ことを特徴とする制御装置。 - ロボットへの作業者の入力を検出し、
前記作業者によって入力されたモーションを検出し、
検出された前記モーションと対応付けられた動作指令を前記ロボットに実行させ、
前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができるようにする、
ことを特徴とする制御方法。 - ロボットへの作業者の入力を検出し、
前記作業者によって入力されたモーションを検出し、
検出された前記モーションと対応付けられた動作指令を前記ロボットに実行させ、
前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に、前記モーションに関する情報に矢印を付して表示することで、前記モーションの詳細を表示する、
ことを特徴とする制御方法。 - ロボットへの作業者の入力を検出し、
前記作業者によって入力されたモーションを検出し、
検出された前記モーションと対応付けられた動作指令を前記ロボットに実行させ、
前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に番号送り/戻りボタンを表示し、
前記作業者による前記番号送り/戻りボタンの押下により、前記表示部に、前記モーションに関する情報を順次表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を順次表示する、
ことを特徴とする制御方法。 - 作業者からの入力を検出する入力検出部の出力信号を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
前記モーション検出部により検出されたモーションと動作指令の対応づけを行わせることができる処理部と、を備え、
前記処理部は、
前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができるようにする、
ことを特徴とする情報処理装置。 - 作業者からの入力を検出する入力検出部の出力信号を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
前記モーション検出部により検出されたモーションと動作指令の対応づけを行わせることができる処理部と、を備え、
前記処理部は、
前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に、前記モーションに関する情報に矢印を付して表示することで、前記モーションの詳細を表示する、
ことを特徴とする情報処理装置。 - 作業者からの入力を検出する入力検出部の出力信号を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
前記モーション検出部により検出されたモーションと動作指令の対応づけを行わせることができる処理部と、を備え、
前記処理部は、
前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に番号送り/戻りボタンを表示し、
前記作業者による前記番号送り/戻りボタンの押下により、前記表示部に、前記モーションに関する情報を順次表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を順次表示する、
ことを特徴とする情報処理装置。 - 作業者からの入力を検出し、
前記作業者によって入力されたモーションを検出し、
検出された前記モーションと動作指令の対応付けを行わせることができ、
前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができるようにする、
ことを特徴とする情報処理方法。 - 作業者からの入力を検出し、
前記作業者によって入力されたモーションを検出し、
検出された前記モーションと動作指令の対応付けを行わせることができ、
前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に、前記モーションに関する情報に矢印を付して表示することで、前記モーションの詳細を表示する、
ことを特徴とする情報処理方法。 - 作業者からの入力を検出し、
前記作業者によって入力されたモーションを検出し、
検出された前記モーションと動作指令の対応付けを行わせることができ、
前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
前記表示部に番号送り/戻りボタンを表示し、
前記作業者による前記番号送り/戻りボタンの押下により、前記表示部に、前記モーションに関する情報を順次表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を順次表示する、 ことを特徴とする情報処理方法。 - 請求項1乃至24のいずれか1項に記載のロボットシステムを用いて物品の製造を行うことを特徴とする物品の製造方法。
- 請求項28から30のいずれか1項に記載の制御方法、または請求項34から36のいずれか1項に記載の情報処理方法を、コンピュータに実行させるためのプログラム。
- 請求項38に記載のプログラムを記憶したコンピュータにより読み取り可能な記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020043049A JP7483420B2 (ja) | 2020-03-12 | 2020-03-12 | ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体 |
US17/178,616 US11731272B2 (en) | 2020-03-12 | 2021-02-18 | Robot, control device, and information processing device |
CN202110249417.1A CN113386125B (zh) | 2020-03-12 | 2021-03-08 | 机器人、控制装置、信息处理装置、方法及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020043049A JP7483420B2 (ja) | 2020-03-12 | 2020-03-12 | ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021142608A JP2021142608A (ja) | 2021-09-24 |
JP2021142608A5 JP2021142608A5 (ja) | 2023-03-22 |
JP7483420B2 true JP7483420B2 (ja) | 2024-05-15 |
Family
ID=77617348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020043049A Active JP7483420B2 (ja) | 2020-03-12 | 2020-03-12 | ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11731272B2 (ja) |
JP (1) | JP7483420B2 (ja) |
CN (1) | CN113386125B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105446350B (zh) * | 2014-09-26 | 2018-05-29 | 科沃斯机器人股份有限公司 | 自移动机器人移动界限划定方法 |
JP6838017B2 (ja) * | 2018-08-31 | 2021-03-03 | ファナック株式会社 | レーザ加工のための教示装置、教示方法、及び教示プログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011240468A (ja) | 2010-05-21 | 2011-12-01 | Toyota Motor Corp | ロボットの接触種類判別システム |
JP2015182142A (ja) | 2014-03-20 | 2015-10-22 | セイコーエプソン株式会社 | ロボット、ロボットシステム及び教示方法 |
WO2017033366A1 (ja) | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | 遠隔操作ロボットシステム |
US20180043525A1 (en) | 2016-08-12 | 2018-02-15 | Industrial Technology Research Institute | Control device of robot arm and teaching system and method using the same |
JP2018039086A (ja) | 2016-09-08 | 2018-03-15 | ファナック株式会社 | 人間協調型ロボット |
JP2018187697A (ja) | 2017-04-28 | 2018-11-29 | オムロン株式会社 | 産業用ロボット、コントローラ、および方法 |
JP2019025623A (ja) | 2017-08-02 | 2019-02-21 | ファナック株式会社 | ロボットシステム及びロボット制御装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5839806B2 (ja) | 2011-02-02 | 2016-01-06 | キヤノン株式会社 | ロボット制御装置及びロボット制御方法 |
KR102631147B1 (ko) * | 2016-10-07 | 2024-01-31 | 엘지전자 주식회사 | 공항용 로봇 및 그의 동작 방법 |
JP6392910B2 (ja) | 2017-01-13 | 2018-09-19 | ファナック株式会社 | ロボットの安全確保動作機能を備えた人間協働ロボットシステム |
JP2018176288A (ja) * | 2017-04-03 | 2018-11-15 | ファナック株式会社 | ロボットの教示装置 |
JP6526098B2 (ja) | 2017-04-26 | 2019-06-05 | ファナック株式会社 | ロボットを操作するための操作装置、ロボットシステム、および操作方法 |
JP7049069B2 (ja) | 2017-05-19 | 2022-04-06 | 川崎重工業株式会社 | ロボットシステム及びロボットシステムの制御方法 |
JP6958091B2 (ja) | 2017-08-08 | 2021-11-02 | セイコーエプソン株式会社 | ロボットシステム、及びロボット制御方法 |
JP7095980B2 (ja) | 2017-11-27 | 2022-07-05 | 川崎重工業株式会社 | ロボットシステム |
WO2019190487A1 (en) | 2018-03-27 | 2019-10-03 | Productive Robotics, Inc. | Collaborative robot system incorporating enhanced human interface |
JP6882249B2 (ja) * | 2018-11-29 | 2021-06-02 | ファナック株式会社 | ロボット用操作装置 |
JP6810173B2 (ja) * | 2019-01-29 | 2021-01-06 | 日本金銭機械株式会社 | 物体把持システム |
US11376742B2 (en) * | 2019-05-15 | 2022-07-05 | Lg Electronics Inc. | Robot and method of controlling the same |
US12042928B2 (en) * | 2019-08-09 | 2024-07-23 | Medtech S.A. | Robotic controls for a surgical robot |
JP2021133470A (ja) * | 2020-02-28 | 2021-09-13 | セイコーエプソン株式会社 | ロボットの制御方法およびロボットシステム |
-
2020
- 2020-03-12 JP JP2020043049A patent/JP7483420B2/ja active Active
-
2021
- 2021-02-18 US US17/178,616 patent/US11731272B2/en active Active
- 2021-03-08 CN CN202110249417.1A patent/CN113386125B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011240468A (ja) | 2010-05-21 | 2011-12-01 | Toyota Motor Corp | ロボットの接触種類判別システム |
JP2015182142A (ja) | 2014-03-20 | 2015-10-22 | セイコーエプソン株式会社 | ロボット、ロボットシステム及び教示方法 |
WO2017033366A1 (ja) | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | 遠隔操作ロボットシステム |
US20180043525A1 (en) | 2016-08-12 | 2018-02-15 | Industrial Technology Research Institute | Control device of robot arm and teaching system and method using the same |
JP2018039086A (ja) | 2016-09-08 | 2018-03-15 | ファナック株式会社 | 人間協調型ロボット |
JP2018187697A (ja) | 2017-04-28 | 2018-11-29 | オムロン株式会社 | 産業用ロボット、コントローラ、および方法 |
JP2019025623A (ja) | 2017-08-02 | 2019-02-21 | ファナック株式会社 | ロボットシステム及びロボット制御装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113386125B (zh) | 2024-01-16 |
US11731272B2 (en) | 2023-08-22 |
JP2021142608A (ja) | 2021-09-24 |
US20210283774A1 (en) | 2021-09-16 |
CN113386125A (zh) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6778198B2 (ja) | 遠隔操作ロボットシステム | |
CN110977931B (zh) | 使用了增强现实和混合现实的机器人控制装置及显示装置 | |
CN108789457B (zh) | 工业用机器人、控制器及控制方法 | |
US9393687B2 (en) | Method for programming an industrial robot and industrial robot | |
US9063539B2 (en) | Method and device for command input in a controller of a manipulator | |
JP4167940B2 (ja) | ロボットシステム | |
JP6450960B2 (ja) | ロボット、ロボットシステム及び教示方法 | |
CN110709211B (zh) | 机器人系统和机器人系统的控制方法 | |
JP7483420B2 (ja) | ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体 | |
JPH10111707A (ja) | 作業領域操作方法及びベンディングプレス機に隷属するロボット | |
CN109382823B (zh) | 机器人系统及机器人控制装置 | |
KR101474778B1 (ko) | 다관절 로봇의 동작인식을 통한 제어장치 및 그 방법 | |
WO2023162248A1 (ja) | 教示操作盤およびロボット制御システム | |
KR20110060319A (ko) | 커뮤니케이션이 가능한 로봇 및 이의 조작방법 | |
WO2023112342A1 (ja) | 教示装置、制御装置、及び機械システム | |
US20240109188A1 (en) | Operation apparatus, robot system, manufacturing method, control method, and recording medium | |
JP2024052515A (ja) | 操作装置、ロボットシステム、製造方法、制御方法、制御プログラムおよび記録媒体 | |
WO2023218536A1 (ja) | ロボット制御装置、ロボットシステム、及び教示装置 | |
JP4213990B2 (ja) | ロボットの教示装置 | |
JP7185749B2 (ja) | ロボットシステム及びロボットシステムの制御方法 | |
CN117798956A (zh) | 操作装置、机器人系统、制造方法、控制方法和记录介质 | |
JP2022049897A (ja) | ロボットの制御方法およびロボットシステム | |
TW202432318A (zh) | 數值控制裝置及數值控制系統 | |
JPH1058364A (ja) | ロボットのティーチング方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230310 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240501 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7483420 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |