JP6669714B2 - 教示操作盤およびロボット制御システム - Google Patents

教示操作盤およびロボット制御システム Download PDF

Info

Publication number
JP6669714B2
JP6669714B2 JP2017227509A JP2017227509A JP6669714B2 JP 6669714 B2 JP6669714 B2 JP 6669714B2 JP 2017227509 A JP2017227509 A JP 2017227509A JP 2017227509 A JP2017227509 A JP 2017227509A JP 6669714 B2 JP6669714 B2 JP 6669714B2
Authority
JP
Japan
Prior art keywords
operation panel
camera
teaching operation
robot
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017227509A
Other languages
English (en)
Other versions
JP2019093535A (ja
Inventor
徳光 上村
徳光 上村
正明 上松
正明 上松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2017227509A priority Critical patent/JP6669714B2/ja
Priority to DE102018129292.9A priority patent/DE102018129292B4/de
Priority to US16/197,925 priority patent/US10766135B2/en
Priority to CN201811401565.5A priority patent/CN109834697B/zh
Publication of JP2019093535A publication Critical patent/JP2019093535A/ja
Application granted granted Critical
Publication of JP6669714B2 publication Critical patent/JP6669714B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/24Pc safety
    • G05B2219/24162Biometric sensor, fingerprint as user access password
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36167Use camera of handheld device, pda, pendant, head mounted display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39001Robot, manipulator control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39443Portable, adapted to handpalm, with joystick, function keys, display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45104Lasrobot, welding robot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Resistance Welding (AREA)

Description

本発明は、ロボットの教示操作盤およびロボット制御システムに関する。
産業用ロボットの使用環境下では、治具やワークの誤差、生産ラインとロボットの位置関係のずれ等を要因として、ロボットの加工位置や動作軌跡に予めオフラインで作成した位置からのずれが生じる場合があるため、教示操作盤を用いた現場での修正作業が必要となる。このような動作教示の操作におけるオペレータの負担を減らすための技術として、オペレータの身体座標系での動作指示をロボットの動作を規定する座標系に変換する技術が知られている(例えば、特許文献1参照)。
特開2009−119579号公報
しかしながら、生産ラインの現場では、ロボットが照明が落とされた暗い環境下で使用される場合があり、このような現場でオペレータがロボットの加工位置や動作軌跡を目視確認しながら教示操作盤を用いて修正指示を行うことは、オペレータにとって負担が大きく作業に時間を要することとなる。また、例えば、ワークによっては、ロボットによる加工位置がオペレータが覗き込まなければ目視することができない部位にある場合がある。このような状況下でオペレータが加工位置を目視確認しながら教示操作盤を用いて修正指示を行うのは、オペレータにとって負担が大きい。これらの場面でも、確認や修正指示の作業の負担を軽減し作業効率を向上させることが望まれる。
本開示の一態様は、ロボットの教示を行う教示操作盤であって、前記教示操作盤の第1の面に配置された、操作入力を行うための操作部と、前記教示操作盤における前記第1の面と反対側の第2の面に配置されたカメラと、前記第1の面に配置され、前記カメラで撮像された画像を表示する表示部と、ワークに対する前記ロボットの加工点に関する情報と、前記ワークの形状モデルに関する情報とに基づいて、前記カメラで撮影されている前記ワークの部分の撮影画像の前記形状モデル内での位置を特定すると共に、前記撮影画像内に含まれる加工点に最も近い位置にある未修正の加工点であって前記撮影画像の範囲外に存在する加工点の位置を示す情報を前記撮影画像に表示する画像処理部と、を備える教示操作盤である。
また、本開示の他の態様は、上記教示操作盤と、教示操作盤と接続されたロボット制御装置と、ロボット制御装置と接続され、ロボット制御装置の制御下で動作するロボットと、を備えるロボット制御システムである。
上記構成によれば、オペレータによる加工点の確認や修正の作業負担を軽減し、作業効率を向上させることができる。
添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれらの目的、特徴および利点ならびに他の目的、特徴および利点がさらに明確になるであろう。
一実施形態に係る教示操作盤1の正面図である。 図1の教示操作盤を側面側からみた場合の模式図である。 ロボット制御システムの全体構成を表すブロック図である。 図1の教示操作盤のハードウェア構成の一例を示す図である。 スポット溶接の打点修正を行う場合の動作を表すフローチャートである。 オペレータの打点確認・修正の作業をアシストする画像の第1の例を示す図である。 オペレータの打点確認・修正の作業をアシストする画像の第2の例を示す図である。 教示操作盤の前面にカメラを配置した構成例を表す図である。 教示操作盤にカメラインタフェースを設け、外部カメラを装着した場合の構成を表す参考図である。
次に、本開示の実施形態について図面を参照して説明する。参照する図面において、同様の構成部分または機能部分には同様の参照符号が付けられている。理解を容易にするために、これらの図面は縮尺を適宜変更している。また、図面に示される形態は本発明を実施するための一つの例であり、本発明は図示された形態に限定されるものではない。
図1は一実施形態に係る教示操作盤1の正面図である。図1に示すように、教示操作盤1は、オペレータが各種操作入力を行うための操作部10と、グラフィック表示を行うことのできる液晶表示装置(LCD)20とを有する。オペレータは、操作部10を操作することによって教示点の指定などの各種操作入力を行うことができる。本実施形態に係る教示操作盤1は、操作部10およびLCD20が設けられた面を前面と定義すると、背面側にカメラ30を有する。なお、カメラ30は被写体を照明する照明機能、およびズーム機能を有するように構成されていても良い。
図2は、教示操作盤1を側面側からみた場合の模式図であり背面側に配置されたカメラ30の位置を示している。図2に示すように、カメラ30は、教示操作盤1の背面側の被写体Sを撮像することができる。カメラ30によって撮影された画像は、LCD20に表示される。カメラ30は、教示操作盤1の背面上の、上側の位置に配置されている。操作部10は、教示操作盤1の前面において下側に配置されているので、オペレータが教示操作盤1を手で把持して各種操作入力を行う際に、カメラ30の視野がオペレータの手で遮られることがないようになっている。また、カメラ30は、LCD20の真裏に配置されているので、カメラ30の視界とオペレータの視界を概ね一致させることができ、オペレータとっての利便性を高めることができる構成となっている。
教示操作盤1の代表的な使用例は、自動車生産ラインにおけるスポット溶接ロボットの打点修正の作業である。自動車生産ラインでは、通常はスポット溶接ロボットは照明が暗く落とされた環境下で使用されるため、スポット溶接ロボットの打点修正の作業では、オペレータは暗い環境での作業を強いられる。従来は、このような環境でのスポット溶接ロボットの打点修正の作業は、オペレータが打点を直接、目視確認して修正指示を入力するというものであった。それに対し、本実施形態の教示操作盤1を用いることで、オペレータはワークの打点付近を、認識しやすい画像としてLCD20に表示させた上で打点が正しいかの確認を行うことができるので、オペレータの負担が減ると共に、いっそう確実に打点の確認及び修正を行うことができるようになる。スポット溶接の部位は、ワークにおけるヒトの頭が入りにくいような箇所にある場合も少なくないが、本実施形態によれば、このような場合にも、オペレータは教示操作盤1をヒトの頭が入りにくいような場所に手で持って進入させて打点付近の画像を表示させて、確実に打点の確認を行うことができる。
図3は、上述のような生産ラインで使用されるスポット溶接ロボット等の制御を行うロボット制御システム100の全体構成を表すブロック図である。図3に示すようにロボット制御システム100は、ロボット制御装置50にロボット70と教示操作盤1とが接続された構成となっている。ロボット制御装置50には、ロボット70の動作を制御するロボットプログラムやワークの形状データ等の各種データが記憶装置内に格納されており、このロボットプログラムを実行することでロボット70の制御が行われる。また、教示操作盤1を用いて入力された打点位置等の各種動作教示データは、ロボット制御装置50側に送られてロボット70の制御に反映される。なお、ロボット制御装置50は、CPU、ROM、RAM、ハードディスク等の記憶装置、通信インタフェース等を有するコンピュータによって構成されていても良い。
図4は、教示操作盤1のハードウェア構成の一例を示す図である。図4に示すように、教示操作盤1は、CPU11と、ROM12と、RAM13と、フラッシュメモリ14と、ICカード15aを装着する為のPCMCIA(Personal Computer Memory Card International Association)規格のPCMCIAソケット15と、液晶表示装置(LCD)インタフェース16と、タッチパネルインタフェース17と、ロボット制御装置50と接続する為の通信インタフェース18と、操作部インタフェース19とを備え、これらの構成要素はそれぞれバス21を介して接続されている。教示操作盤1は、さらに、LCDインタフェース16に接続されたLCD20と、LCD20の表示面に装着され、タッチパネルインタフェース17に接続されたタッチパネル20aと、操作部インタフェース19に接続された操作部10とを備えている。
さらに、本実施形態の教示操作盤1では、バス21にカメラインタフェース31が接続され、このカメラインタフェース31にカメラ30が接続されている。カメラ30は、カメラ制御部32と、ズーム機能付きの撮影レンズ33と、撮像素子34と、照明装置35例えば、LEDライト)とを有する。撮影レンズ33と撮像素子34は、カメラ制御部32に接続され、カメラ制御部32によって駆動制御される。カメラ制御部32は、撮影レンズ33と撮像素子34を駆動制御することによって、オートフォーカス、ズーミング、リアルタイム映像の取り込み、静止画取り込み等の各種動作を実行する。この構成において、オペレータが操作部10を操作することで、操作入力したカメラ30に対する各種の操作命令(カメラ30の起動、静止画の取り込み、ズーミング等)が、CPU11を介してカメラ制御部32に入力され、操作命令に応じた動作が実行される。
次に、図5を参照して、ロボット制御システム100においてロボット70として溶接ロボットが用いられる場合にスポット溶接の打点修正を行う場合の動作フローの例について説明する。図5は、スポット溶接の打点修正の動作フローを示している。例えば、自動車の生産ラインを例として取りあげると、新しい車種をラインで流す場合には、各種治具やワークの誤差、生産ラインとロボットの位置関係を要因として、打点や姿勢についての教示修正を行う必要が生じる。また、溶接ロボットのメンテナンスにより、モータや減速機が交換された場合にもロボットの原点位置の偏差等に伴い、打点や姿勢についての教示修正を行う必要が生じる。図5の打点修正処理は、このような場合に実行される。
はじめに、ステップS1では、ワークのモデルデータ等に基づいてシミュレーションにより作成された、打点や動作軌跡のデータを含むプログラムをロボット制御装置50にロードする。これにより、ロボット70は、ロードされたプログラムに従って動作可能となる。次に、オペレータは、教示操作盤1を操作して極低速でロボット70を動作させ、ロボット70のスポット溶接ガンを打点の位置まで移動させ、打点やスポット溶接ガンを閉じる前の姿勢が正しいかを確認し、必要であれば教示操作盤1を用いて打点位置、姿勢の調整を行う(ステップS2)。この場合、オペレータは、教示操作盤1のカメラ30でスポット溶接ガンのチップ近辺の画像を撮像しLCD20上に表示させて確認を行うことができる。また、オペレータは、必要に応じ、カメラ30のズーム機能を用いてスポット溶接ガンのチップ近辺を拡大表示させたり、照明機能を用いて明るく撮影することで、打点や溶接ガンの姿勢を見やすい画像で確認することができる。また、オペレータが覗き込まなければ目視することができないような部位の打点に関しても、オペレータが教示操作盤1を手で持ってその打点に接近させることで打点付近の画像をLCD20上に表示させて打点や姿勢の確認を行うことができ、オペレータの負担を軽減することができる。
打点の確認及び修正が終了すると、ガンを閉じて試し打ち(スポット溶接)を行う(ステップS3)。次に、ワーク(ボディ)をラインから取り出してスポットの品質確認(ズレ量等の確認)を行い(ステップS4)、品質に問題があれば(S5:NO)、打点修正(ステップS2)からの処理を繰り返す。溶接品質に問題がなければ(S5:YES)、本処理を終了する。
以上説明した教示操作盤1を用いた打点修正処理によれば、オペレータはLCD20に表示された認識しやすい画像を見ながら打点や姿勢の確認と修正を行うことができるので、打点修正のオペレータへの負担が軽減して作業効率が上がり、作業時間短縮も達成することができる。
次に、オペレータが打点や姿勢の確認を行う際に、オペレータをアシストする為にLCD20上に表示する情報(以下、アシスト情報ともいう)の例について説明する。
アシスト情報の第1の例は、オペレータが一つの溶接スポット(打点)について確認と修正の処理を終了した際に、その打点の近辺にある打点であって次に処理すべきものについてのガイダンス情報を表示する例である。ガイダンスの例としては、次に処理すべき打点の方向(すなわち、次にカメラ30を向けるべき方向)を示すアイコン(矢印等)を表示することが挙げられる。この機能を実現するために、教示操作盤1には、ロボット70による打点や動作軌跡を含んだロボットプログラムや、ワーク(ボディ)のモデルデータが例えばRAM13に予め格納される。例えばオペレータが操作部10に対して所定の操作を行うことによってアシスト情報を表示する動作モードが指定されると、カメラ30から取り込まれてLCD20上に表示されているワーク(ボディ)の一部の二次元画像と、教示操作盤1内に格納されているワーク(ボディ)のモデルデータとの照合が行われ、表示画像のワークモデル内での位置が特定され、それにより表示画像上での打点の位置が特定される。なお、カメラ30から取り込まれた2次元画像とワークのモデルデータとを照合して2次元画像のワークモデル内での位置を特定する画像処理としては、2次元画像とワークモデルデータからそれぞれの特徴(エッジ、輪郭等)を抽出して照合を行う当技術分野で一般に知られた画像照合の技術が用いられても良い。特定された打点の位置は表示画像上にアイコン等により重畳して表示されても良い。そして、オペレータが修正を終了した打点を例えば表示画面のタッチ操作によって指定すると、一例としてその打点に最も近い位置にある未修正の打点(例えば、表示画像の範囲外にあるもの)が次に作業すべき打点として特定される。そして、現在表示されている表示画像における次の打点の位置を示す情報が例えば矢印アイコンとして表示画像上に重畳表示される。
図6は、ガイダンス情報の表示例である。図6において、ワークW上の打点SPは修正作業が終了した打点であり、ユーザが打点SPを修正作業が終了した打点としてタッチ操作で指定すると、次に作業をすべき打点(図6の表示画像の範囲外にある打点)のある方向を示す矢印アイコンKが表示画像上に重畳表示される。以上の動作は、教示操作盤1のCPU11によって実行される画像処理プログラムとして実現することができる。
アシスト情報の第2の例は、実際のスポット溶接跡の位置とデータ上のスポット溶接位置(目標加工点)とのずれ量に関する情報を画像上に重畳表示する例である。この機能を実現するためにも、上述の第1の例の場合と同様に、教示操作盤1にはロボット70による打点や動作軌跡を含んだロボットプログラムや、ワーク(ボディ)のモデルデータが例えばRAM13に予め格納される。オペレータが操作部10に対して所定の操作を行うことによってこの動作モードが指定されると、カメラ30から取り込まれてLCD20上に表示されているワーク(ボディ)の一部の二次元画像と、教示操作盤1内に格納されているワーク(ボディ)との照合が行われ、表示画像のワークモデル内での位置が特定され、表示画像上での打点の位置が特定される。さらに、表示画像を解析して実際のスポット溶接跡の位置が特定され、その実際のスポット溶接跡の位置(図7において符合301を付している)とデータ上でのスポット位置(図7において符合401を付している)とのずれ量に関する情報が表示画像上に重畳表示される(図7において“ずれ量=1mm”との表示)。図7は、上記動作の表示画面例である。図7において、符号301は実際のスポット溶接の位置を示し、符号401は本来のスポット溶接の位置に表示されたアイコンを示している。また、実際のスポット溶接の位置301と本来のスポット溶接の位置401間のずれ量に関する情報410が表示画像上に重畳表示されている。以上のようなオペレータによる打点の確認・修正作業をアシストする画像を表示することで打点の修正の作業効率を一層高めることができる。以上の動作は、教示操作盤1のCPU11によって実行される画像処理プログラムとして実現することができる。
以上、典型的な実施形態を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、上述の各実施形態に変更及び種々の他の変更、省略、追加を行うことができるのを理解できるであろう。
上述の実施形態における教示操作盤1は、背面にカメラを有するものであったが、背面のカメラ30に加えて前面側にもカメラを具備する構成も考えられる。図8は、背面側のカメラ30に加えて前面側にもカメラ130を具備する構成とした教示操作盤1Aの正面図である。前面側のカメラ130は、例えば、オペレータの顔認証の為に用いられても良い。この構成により、セキュリティ性能を向上させることができる。なお、顔認証処理としては、一例として、カメラ130の撮影画像中のオペレータの顔の画像の特徴(輪郭、目鼻の位置関係等)を画像データベースと照合して人物を特定する当分野で一般的な技術が用いられても良い。このような顔認証処理は、教示操作盤1のCPU11が実行するプログラムとして構成することができる。
また、本開示の課題を解決するために、以下のような各種の態様とその効果を提供することができる。なお、以下の態様の説明文における括弧内の番号は本開示の図面の参照符号に対応する。
例えば、本開示の第一態様は、ロボットの教示を行う教示操作盤(1)であって、前記教示操作盤の第1の面に配置された、操作入力を行うための操作部(10)と、前記第1の面に配置された表示部(20)と、前記教示操作盤(1)における前記第1の面と反対側の第2の面に配置されたカメラ(30)と、を備える。前記カメラ(30)で撮像された画像は前記表示部(20)に表示される。
上記第一態様によれば、オペレータによる加工点の確認や修正の作業負担を軽減し、作業効率を向上させることができる。
また、本開示の第二態様は、上記第一態様の教示操作盤であって、前記操作部(10)は前記教示操作盤(1)の操作状態において前記第1の面の下側に配置され、前記カメラ(30)は前記操作状態において前記第2の面の上側に配置されている。
また、本開示の第三態様は、上記第一又は第二態様の教示操作盤であって、前記カメラ(30)はズーム機能を有する。
また、本開示の第四態様は、上記第一から第三態様のいずれかの教示操作盤であって、前記カメラ(30)は照明機能を有する。
また、本開示の第五態様は、上記第一から第四態様のいずれかの教示操作盤であって、前記第1の面に配置された第1面側カメラ(130)をさらに備える。前記第1面側カメラ(130)は、オペレータの顔認証を行うために使用される。
また、本開示の第六態様は、上記第五態様の教示操作盤であって、前記第1画面カメラで撮像された画像に基づいて顔認証処理を実行する顔認証処理部(11)をさらに備える。
また、本開示の第七態様は、上記第一から第六態様のいずれかの教示操作盤(1)であって、ワークに対する前記ロボットの加工点に関する情報と前記ワークの形状モデルに関する情報とに基づいて、前記カメラ(30)で撮影されている前記ワークの部分の撮影画像の前記形状モデル内での位置を特定すると共に、前記撮影画像内に含まれる加工点に隣接する加工点であって前記撮影画像の範囲外に存在する加工点の位置を示す情報を前記撮影画像に表示する画像処理部(11)と、をさらに備える。
また、本開示の第八態様は、上記第一から第六態様のいずれかの教示操作盤(1)であって、ワークに対する前記ロボットによる加工点に関する情報と前記ワークの形状モデルに関する情報とに基づいて、前記カメラ(30)で撮影されている前記ワークの部分の撮影画像の前記形状モデル内での位置を特定すると共に、前記撮影画像に含まれる実際の加工点跡の位置と、前記実際の加工点跡に対応する目標加工点の位置とのずれに関する情報を、前記撮影画像に表示する画像処理部(11)と、をさらに備える。
また、本開示の第九態様は、上記第一から第八態様のいずれかの教示操作盤(1)と、前記教示操作盤(1)と接続されたロボット制御装置(50)と、前記ロボット制御装置(50)と接続され前記ロボット制御装置(50)の制御下で動作するロボット(70)と、を備えるロボット制御システム(100)である。
次に、本発明の実施例を構成するものではないが、教示操作盤が外部カメラを接続するためのカメラインタフェースを有するように構成された構成例を参考例として説明する。図9は、このような教示操作盤1Bの構成を表す正面図である。図9に示すように、教示操作盤1Bは、カメラインタフェース231を備えている。このカメラインタフェース231に外部カメラ250が接続されている。外部カメラ250は、例えば、教示操作盤1Bの背面側の映像を撮像するように構成されている。このような構成の場合にも、上述の実施形態の場合と同様の効果を達成することができる。
1 教示操作盤
10 操作部
11 CPU
12 ROM
13 RAM
14 フラッシュメモリ
15 PCMCIAソケット
15a ICカード
16 LCDインタフェース
17 タッチパネルインタフェース
18 通信インタフェース
19 操作部インタフェース
20 LCD
20a タッチパネル
30 カメラ
31 カメラインタフェース
32 カメラ制御部
33 撮影レンズ
34 撮像素子
35 照明装置
50 ロボット制御装置
70 ロボット

Claims (7)

  1. ロボットの教示を行う教示操作盤であって、
    前記教示操作盤の第1の面に配置された、操作入力を行うための操作部と、
    前記教示操作盤における前記第1の面と反対側の第2の面に配置されたカメラと、
    前記第1の面に配置され、前記カメラで撮像された画像を表示する表示部と、
    ワークに対する前記ロボットの加工点に関する情報と、前記ワークの形状モデルに関する情報とに基づいて、前記カメラで撮影されている前記ワークの部分の撮影画像の前記形状モデル内での位置を特定すると共に、前記撮影画像内に含まれる加工点に最も近い位置にある未修正の加工点であって前記撮影画像の範囲外に存在する加工点の位置を示す情報を前記撮影画像に表示する画像処理部と、を備える教示操作盤。
  2. 前記操作部は前記教示操作盤の操作状態において前記第1の面の下側に配置され、
    前記カメラは前記操作状態において前記第2の面の上側に配置されている、請求項1に記載の教示操作盤。
  3. 前記カメラはズーム機能を有する、請求項1又は2に記載の教示操作盤。
  4. 前記カメラは照明機能を有する、請求項1から3のいずれか一項に記載の教示操作盤。
  5. 前記第1の面に配置された第1面側カメラをさらに備える、請求項1から4のいずれか一項に記載の教示操作盤。
  6. 前記第1面側カメラで撮像された画像に基づいて顔認証処理を実行する顔認証処理部をさらに備える、請求項5に記載の教示操作盤。
  7. 請求項1からのいずれか一項に記載の教示操作盤と、
    前記教示操作盤と接続されたロボット制御装置と、
    前記ロボット制御装置と接続され前記ロボット制御装置の制御下で動作するロボットと、を備えるロボット制御システム。
JP2017227509A 2017-11-28 2017-11-28 教示操作盤およびロボット制御システム Active JP6669714B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017227509A JP6669714B2 (ja) 2017-11-28 2017-11-28 教示操作盤およびロボット制御システム
DE102018129292.9A DE102018129292B4 (de) 2017-11-28 2018-11-21 Handprogrammiergerät und Robotersteuersystem
US16/197,925 US10766135B2 (en) 2017-11-28 2018-11-21 Teach pendant and robot control system
CN201811401565.5A CN109834697B (zh) 2017-11-28 2018-11-22 示教操作盘以及机器人控制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017227509A JP6669714B2 (ja) 2017-11-28 2017-11-28 教示操作盤およびロボット制御システム

Publications (2)

Publication Number Publication Date
JP2019093535A JP2019093535A (ja) 2019-06-20
JP6669714B2 true JP6669714B2 (ja) 2020-03-18

Family

ID=66442559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017227509A Active JP6669714B2 (ja) 2017-11-28 2017-11-28 教示操作盤およびロボット制御システム

Country Status (4)

Country Link
US (1) US10766135B2 (ja)
JP (1) JP6669714B2 (ja)
CN (1) CN109834697B (ja)
DE (1) DE102018129292B4 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190126490A1 (en) * 2017-10-26 2019-05-02 Ca, Inc. Command and control interface for collaborative robotics
JP1623072S (ja) * 2018-01-16 2019-01-28
JP7441047B2 (ja) * 2020-01-10 2024-02-29 三菱重工業株式会社 経路生成装置、制御装置、検査システム、経路生成方法およびプログラム
TWI757108B (zh) * 2021-03-03 2022-03-01 所羅門股份有限公司 操作路徑產生方法及系統
CN113414482B (zh) * 2021-06-15 2023-05-16 中国第一汽车股份有限公司 一种检测机器人点焊电极位置补偿功能的装置和方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064759A (en) * 1996-11-08 2000-05-16 Buckley; B. Shawn Computer aided inspection machine
JP2001121458A (ja) 1999-10-22 2001-05-08 Denso Corp ロボットコントローラ
JP4288843B2 (ja) * 2000-10-25 2009-07-01 沖電気工業株式会社 遠隔作業支援システム
JP5022868B2 (ja) 2007-11-16 2012-09-12 キヤノン株式会社 情報処理装置、情報処理方法
JP2010025615A (ja) * 2008-07-16 2010-02-04 Central Motor Co Ltd 自動スポット溶接検査システム
JP5813931B2 (ja) * 2010-07-15 2015-11-17 ユタカ電機株式会社 教示データの修正システム
JP5067768B2 (ja) * 2010-08-04 2012-11-07 株式会社スプリング プログラム作成支援システム、及び、そのコンピュータプログラム
JP2012223859A (ja) * 2011-04-20 2012-11-15 Daihen Corp 溶接ロボットシステム及び可搬式教示操作装置
KR101321601B1 (ko) * 2013-02-12 2013-10-28 주식회사 아진엑스텍 무선 티칭 펜던트를 이용한 다중로봇 제어장치 및 그 제어방법
JP5729404B2 (ja) * 2013-02-21 2015-06-03 株式会社安川電機 ティーチングシステムおよびティーチング方法
CN104635651A (zh) * 2013-11-13 2015-05-20 沈阳新松机器人自动化股份有限公司 一种多功能编程示教盒
US20150242605A1 (en) 2014-02-23 2015-08-27 Qualcomm Incorporated Continuous authentication with a mobile device
US10032008B2 (en) * 2014-02-23 2018-07-24 Qualcomm Incorporated Trust broker authentication method for mobile devices
JP6531007B2 (ja) * 2015-08-07 2019-06-12 シャープ株式会社 マーク処理装置、プログラム
JP6420229B2 (ja) * 2015-12-10 2018-11-07 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP6658054B2 (ja) 2016-02-16 2020-03-04 トヨタ車体株式会社 車体部品の施工部位判定システム及び施工部位判定方法
JP2018012188A (ja) * 2016-06-03 2018-01-25 ファナック アメリカ コーポレイション 複数のロボットによる動的レーザタッチセンシング及び動的ユーザ座標系
WO2018050307A1 (en) * 2016-09-13 2018-03-22 Abb Schweiz Ag Method of programming an industrial robot
US10556347B2 (en) * 2016-11-01 2020-02-11 Brachium, Inc. Vision guided robot path programming
JP6549644B2 (ja) * 2017-06-27 2019-07-24 ファナック株式会社 機械学習装置、ロボット制御システム及び機械学習方法
EP3492214B1 (en) * 2017-12-01 2020-09-23 Shanghai Evertec Robot Technology Co., Ltd. Automatic car body welding spot inspection and control method

Also Published As

Publication number Publication date
US10766135B2 (en) 2020-09-08
CN109834697B (zh) 2021-01-19
US20190160655A1 (en) 2019-05-30
JP2019093535A (ja) 2019-06-20
DE102018129292A1 (de) 2019-05-29
DE102018129292B4 (de) 2022-04-28
CN109834697A (zh) 2019-06-04

Similar Documents

Publication Publication Date Title
JP6669714B2 (ja) 教示操作盤およびロボット制御システム
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP4167940B2 (ja) ロボットシステム
WO2020090809A1 (ja) 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
US10413994B2 (en) Laser processing robot system for performing laser processing using robot
US20190202058A1 (en) Method of programming an industrial robot
JP4844453B2 (ja) ロボットの教示装置及び教示方法
JP5850958B2 (ja) ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
US20050065653A1 (en) Robot and robot operating method
US10427298B2 (en) Robot system displaying information for teaching robot
US20190160671A1 (en) Robot control device for setting jog coordinate system
JP2018051653A (ja) ロボット用の表示システム
JP2014065100A (ja) ロボットシステム、及びロボットのティーチング方法
JP7517803B2 (ja) ロボット教示システム、画像生成方法、及びプログラム
JP2006026790A (ja) 教示モデル生成装置
JP2020019127A (ja) 協調動作支援装置
JP3940998B2 (ja) ロボット装置
WO2022092168A1 (ja) ロボット制御装置及びロボットシステム
JPH0299802A (ja) ハンドアイを用いた視覚センサにおける座標系設定方法
US11926065B2 (en) Vision-based operation for robot
JPS6334093A (ja) 視覚装置
JP6939003B2 (ja) ロボットシステム
KR101467898B1 (ko) 레이저 포인터를 이용한 마킹 보조 장치 및 방법
WO2023248439A1 (ja) ロボットシステム、ロボット制御装置およびロボット制御プログラム
JP5047104B2 (ja) アーク溶接の監視装置及びアーク溶接の監視方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190415

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190619

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200227

R150 Certificate of patent or registration of utility model

Ref document number: 6669714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150