WO2013150596A1 - ロボットシステム及び作業設備 - Google Patents

ロボットシステム及び作業設備 Download PDF

Info

Publication number
WO2013150596A1
WO2013150596A1 PCT/JP2012/058982 JP2012058982W WO2013150596A1 WO 2013150596 A1 WO2013150596 A1 WO 2013150596A1 JP 2012058982 W JP2012058982 W JP 2012058982W WO 2013150596 A1 WO2013150596 A1 WO 2013150596A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
robot
unit
analysis
work
Prior art date
Application number
PCT/JP2012/058982
Other languages
English (en)
French (fr)
Inventor
太郎 難波
智広 上野
吉田 修
Original Assignee
株式会社安川電機
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社安川電機 filed Critical 株式会社安川電機
Priority to EP12873509.9A priority Critical patent/EP2835233A1/en
Priority to PCT/JP2012/058982 priority patent/WO2013150596A1/ja
Priority to CN201280072197.9A priority patent/CN104203503A/zh
Priority to JP2014508940A priority patent/JPWO2013150596A1/ja
Publication of WO2013150596A1 publication Critical patent/WO2013150596A1/ja
Priority to US14/499,245 priority patent/US20150019011A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36404Adapt teached position as function of deviation 3-D, 2-D position workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40032Peg and hole insertion, mating and joining, remote center compliance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45091Screwing robot, tighten or loose bolt

Definitions

  • the disclosed embodiment relates to a robot system and work equipment.
  • Patent Document 1 discloses a picking system that performs a picking operation by controlling a robot having a robot hand.
  • the robot, camera, image processing device, control device, and the like are provided as work facilities.
  • the image processing apparatus obtains the position information of the workpiece using the image data of the workpiece imaged by the camera.
  • the control device controls the robot using the workpiece position information obtained by the image processing device to execute the picking operation.
  • a camera as a sensor and an image processing device as an information processing device that analyzes image data as detection information of the camera are provided at a site where a robot performs work, and a control device as a robot control device
  • the operation of the robot is controlled based on the analysis information of the image data by the image processing apparatus.
  • work can be accurately and reliably performed by the robot.
  • an information processing apparatus is expensive, and there is a problem that it takes a relatively large amount of time to teach (program) processing contents.
  • the present invention has been made in view of such problems, and an object of the present invention is to provide a robot system and work equipment that can perform work more suitably by a robot using detection information of a sensor.
  • the robot includes a robot that performs a predetermined operation, a robot control device that controls the operation of the robot, and a sensor that is provided corresponding to the robot. And a central information processing apparatus connected to each of the one or more work equipments so that data communication is possible. The central information processing apparatus receives detection information of the sensors of each work equipment.
  • An information receiving unit that receives information, an algorithm storage unit that stores a processing algorithm for the detection information in each work facility, and the detection information that is received by the information receiving unit based on the processing algorithm that is stored in the algorithm storage unit
  • An analysis unit that analyzes the analysis information of the detection information by the information analysis unit, and the robot of the corresponding work equipment
  • An analysis information output unit that outputs to the control device, and the robot control device is applied with a robot system that controls the operation of the robot based on the analysis information output from the analysis information output unit.
  • FIG. 1 is a system configuration diagram schematically illustrating an overall configuration of a robot system according to an embodiment. It is explanatory drawing showing another example of a center image processing apparatus. It is a schematic diagram which represents typically the structure of the work equipment of one site. It is a functional block diagram showing the functional structure of the robot controller and camera of one site, and a central image processing apparatus. It is a sequence diagram showing the control procedure performed between the robot controller and camera of one site, and a central image processing apparatus.
  • the robot system 1 of the present embodiment includes, for example, a plurality of sites such as a factory equipped with a production line (“site A”, “site B”, “site C”, “site D”, “ And a plurality of work facilities 100 (not shown in FIG. 1; see FIG. 3 to be described later) and a central image processing apparatus 200 (central information processing apparatus). is doing.
  • the central image processing apparatus 200 is an image processing apparatus that is shared (shared) among the work facilities 100 at a plurality of sites.
  • the central image processing apparatus 200 is configured as an aggregate of one or more arithmetic devices and storage devices connected by a network cloud NW1 (network), and is connected to each of the plurality of work facilities 100 so that data communication is possible. ing.
  • NW1 network cloud
  • the central image processing apparatus 200 a single arithmetic device connected to each work facility 100 via an appropriate network NW2 may be used.
  • the central image processing apparatus 200 is installed in, for example, a building of a management company of the robot system 1.
  • a robot 110 As shown in FIG. 3, as a work facility 100, a robot 110, a robot controller 120 (robot control device), a camera 130 (image sensor, sensor) including a lens 131, and an interface device 140 ( Hereinafter, abbreviated as “IF device 140”).
  • IF device 140 interface device 140
  • FIG. 3 only one site is shown, but the same applies to other sites.
  • the robot controller 120 at each site and the central image processing apparatus 200 are connected to each other via the network cloud NW1 so as to be able to communicate with each other.
  • the robot 110 performs, as a predetermined operation, a bolt tightening operation including an operation of screwing the bolt 2 into a bolt hole 3 (operation target) provided in a work W that is conveyed by a conveyor (not shown) and disposed at a predetermined position, for example. I do.
  • the robot 110 includes an arm 111 and actuators Ac1, Ac2, Ac3, Ac4, Ac5, and Ac6 each having a servo motor for driving the arm 111.
  • a tool 112 (for example, an electric screwdriver or a nut runner) for screwing the bolt 2 into the bolt hole 3 is attached to the distal end side of the arm 111.
  • the robot controller 120 is connected to the servo motors of the actuators Ac1 to Ac6 provided on the arm 111 so as to be able to communicate with each other, and controls the drive of each servo motor. Thus, the overall operation of each of the actuators Ac1 to Ac6, that is, the operation of the robot 110 is controlled. In addition, the robot controller 120 controls the operation of the tool 112 (for example, turning on / off an electric driver or the like).
  • the camera 130 is fixed to the distal end side of the arm 111 via an appropriate connecting member.
  • the camera 130 may be provided at a position other than this (for example, above the conveyance path of the workpiece W).
  • the camera 130 images the bolt hole 3 through the lens 131 and generates image information including an image of the captured bolt hole 3.
  • the generated image information is output as detection information to the robot controller 120 and transmitted to the central image processing apparatus 200 via the network cloud NW1 by the transmission unit 122a of the communication control unit 122 described later.
  • the camera 130 may directly transmit the image information to the central server 200.
  • the IF device 140 includes a personal computer, a teaching pendant, and the like, and includes a display device that displays various information, an input device that receives input of various information by an operator, and the like (all not shown). .
  • Information (described later) to the central image processing apparatus 200 input by the operator via the IF device 140 is output to the robot controller 120, and the central image processing is performed via the network cloud NW1 by the transmission unit 122a of the communication control unit 122 described later. Transmitted to the device 200.
  • the IF device 140 may directly transmit information to the central image processing device 200 to the central image processing device 200.
  • the central image processing apparatus 200 receives the image information transmitted from the robot controller 120 at each site, analyzes the received image information, and detects the position of the bolt hole 3 (details will be described later).
  • the detected position information of the bolt hole 3 is transmitted (returned) to the corresponding robot controller 120 at the site via the network cloud NW1 as image analysis information of the image information.
  • the camera 130 of the work facility 100 provided at one site includes the lens 131, the control unit 132, and the input / output unit 133 as a functional configuration.
  • the control unit 132 controls the entire camera 130. For example, the control unit 132 generates image information including an image of the bolt hole 3 captured through the lens 131.
  • the input / output unit 133 controls information communication performed with the robot controller 120.
  • the input / output unit 133 controls information communication when the image information generated by the control unit 132 is output to the robot controller 120.
  • the robot controller 120 includes a control unit 121, a communication control unit 122, an input / output unit 123, and a storage device 124 as functional configurations.
  • the control unit 121 controls the entire robot controller 120.
  • the input / output unit 123 controls information communication performed between the robot 110, the camera 130, and the IF device 140.
  • the input / output unit 123 controls information communication when inputting image information output from the camera 130.
  • the communication control unit 122 includes a transmission unit 122a (transmitter) and a reception unit 122b (receiver), and controls information communication performed with the central image processing apparatus 200 via the network cloud NW1.
  • the transmission unit 122a receives the image information input from the input / output unit 123 from the camera 130 and information (described later) from the IF device 140 to the central image processing device 200 via the network cloud NW1. Control of information communication when transmitting to the apparatus 200 is performed.
  • the receiving unit 122b controls information communication when receiving the position information of the bolt hole 3 transmitted from the central image processing apparatus 200 via the network cloud NW1.
  • the storage device 124 is configured by, for example, an HDD (Hard Disk Drive) or the like, and stores various types of information.
  • the storage device 124 stores teaching information including information on the operation of the robot 110 relating to actual bolt tightening work, which is taught in advance by a teacher who operates the robot 110 by operating the IF device 140. .
  • the central image processing apparatus 200 includes a control unit 201, a communication control unit 202 (information reception unit, analysis information output unit), and a mass storage device 203 as functional configurations.
  • the control unit 201 controls the entire central image processing apparatus 200.
  • the control unit 201 has a configuration as an information analysis unit that analyzes the image information received by the communication control unit 202 and detects the position of the bolt hole 3 as described later.
  • the communication control unit 202 is configured to control information communication with the robot controller 120 at each site via the network cloud NW1.
  • the communication control unit 202 corresponds to the configuration as an information receiving unit that receives (receives) image information transmitted from the robot controller 120 at each site and the position information of the bolt hole 3 detected by the control unit 201. And an analysis information output unit that transmits (outputs) the data to the robot controller 120 on site.
  • the large-capacity storage device 203 is configured as a set of a plurality of storage media existing in the network cloud NW1, and the storage capacity and the like can be variably set.
  • the large-capacity storage device 203 includes an algorithm storage unit 203a.
  • the algorithm storage unit 203a stores a plurality of types of processing algorithms associated with the shape pattern of the detection target object.
  • a circular area is cut out from the image information received by the communication control unit 202, and position information of each cut out area is output (suitable for detecting an object with a circular hole opened). ) And the one that detects the length and position / orientation of the long axis of each object from image information (suitable for detecting an elongated object such as a bolt). Also included are those that simply binarize image information according to conditions, and those that only perform region division based on image information, and one processing algorithm is configured by a combination of a plurality of processing algorithms Also included.
  • the control unit 201 has a configuration as an algorithm configuration unit. That is, the control unit 201 transmits information from the IF device 140 to the central image processing apparatus 200 transmitted from each site, specifically, information indicating a processing algorithm of image processing (hereinafter referred to as “instruction information” as appropriate).
  • the processing algorithm used for the image processing is selected from a plurality of types of processing algorithms stored in the algorithm storage unit 203a, and parameters used for the processing algorithm are set.
  • the control unit 201 configures a processing algorithm that detects the position of the bolt hole 3 with respect to image information from the site.
  • the processing algorithm configured by the control unit 201 is used as a common processing algorithm for image information from each site (hereinafter referred to as “common image processing algorithm” as appropriate). It is done.
  • the work facility 100 at one site has been described.
  • the robot 110, the robot controller 120, the camera 130, and the IF device 140 are also used as the work facility 100 at other sites. It may be of a type having a structure / configuration different from that of the site).
  • each procedure is basically shown as a time series change from the upper side to the lower side in the drawing.
  • step SA2 when the operator operates the IF device 140 to input the instruction information, first, in step SA2, the control unit 121 of the robot controller 120 receives the instruction information from the IF device 140 as the input / output unit 123. Enter with.
  • step SA4 the control unit 121 of the robot controller 120 transmits the instruction information input in step SA2 to the central image processing apparatus 200 via the network cloud NW1 by the transmission unit 122a.
  • step SC2 the control unit 201 of the central image processing apparatus 200 receives the instruction information transmitted from the transmission unit 122a of the robot controller 120 in step SA4 by the communication control unit 202.
  • step SC4 the control unit 201 of the central image processing apparatus 200 uses it for image processing from a plurality of types of processing algorithms stored in the algorithm storage unit 203a in accordance with the instruction information received in step SC2.
  • a processing algorithm is selected to configure the common image processing algorithm.
  • the procedure of step SC4 functions as an algorithm configuration unit.
  • step SA10 the control unit 121 of the robot controller 120 causes the robot 110 to perform a previously taught operation by playback control based on the teaching information stored in the storage device 124.
  • the robot 110 assumes a previously taught posture (a posture in which the bolt hole 3 of the workpiece W placed at a predetermined position can be imaged by the camera 130 on the distal end side of the arm 112).
  • control unit 132 of the camera 130 images the bolt hole 3 of the workpiece W via the lens 131 in step SB10.
  • step SB20 the control unit 132 of the camera 130 generates image information including the image of the bolt hole 3 captured in step SB10.
  • step SB30 the control unit 132 of the camera 130 outputs the image information generated in step SB20 to the robot controller 120 through the input / output unit 133.
  • step SA12 the control unit 121 of the robot controller 120 inputs the image information output from the camera 130 in step SB30 through the input / output unit 123.
  • step SA14 the control unit 121 of the robot controller 120 transmits the image information input in step SA12 to the central image processing apparatus 200 via the network cloud NW1 by the transmission unit 122a.
  • step SC10 the control unit 201 of the central image processing apparatus 200 receives the image information transmitted from the transmission unit 122a of the robot controller 120 in step SA14 by the communication control unit 202.
  • step SC20 the control unit 201 of the central image processing apparatus 200 performs image analysis on the image information received in step SC10 based on the common image processing algorithm configured in step SC4, and the bolt hole 3
  • the position of is detected.
  • the position of the bolt hole 3 is detected by, for example, a known appropriate pattern matching (normalized correlation) process using a registered model (image pattern of the bolt hole 3) registered in the mass storage device 203 at the time of teaching. Is done.
  • the procedure of step SC20 functions as an information analysis unit.
  • step SC30 the control unit 201 of the central image processing apparatus 200 uses the communication control unit 202 to transmit the position information of the bolt hole 3 detected in step SC20 via the network cloud NW1 to the corresponding on-site robot controller. 120.
  • step SA20 the control unit 121 of the robot controller 120 receives the position information of the bolt hole 3 transmitted from the communication control unit 202 of the central image processing apparatus 200 in step SC30 by the receiving unit 122b.
  • step SA30 the control unit 121 of the robot controller 120 determines the actual position of the bolt hole 3 and the reference position (the bolt 3 at the time of teaching) based on the position information of the bolt hole 3 received in step SA20. (Position) is calculated. Then, a position correction amount for compensating the positional deviation amount is calculated. Based on the position correction amount, the position where the robot 110 performs the screwing operation of the bolt 2 using the tool 112 in the teaching information stored in the storage device 124 is corrected to the actual position of the bolt hole 3.
  • step SA40 the control unit 121 of the robot controller 120 performs a bolting operation including an operation of screwing the bolt 2 into the bolt hole 3 using the tool 112 by the control based on the teaching information corrected in step SA30.
  • the robot 110 is made to execute. Thereby, the sequence shown in FIG. 5 is completed.
  • an image processing apparatus that analyzes the image information generated by the camera 130 and outputs the position information of the bolt hole 3 to the robot controller 120 is provided in each of a plurality of sites.
  • a central image processing apparatus 200 is provided which is an image processing apparatus shared between the plurality of work facilities 100 on site.
  • the bolt tightening operation can be more suitably performed by the robot 110 using the image information generated by the camera 130.
  • the operation frequency of the processing algorithm increases, and it can be expected to improve the processing algorithm based on the operation results at each site.
  • the embodiment is not limited to the above contents, and various modifications can be made without departing from the spirit and technical idea of the embodiment.
  • the case where the bolting operation is performed by the robot 110 has been described.
  • the present invention is not limited to this. .
  • handling of the workpiece, painting of the workpiece, welding of the workpiece, and the like correspond to a predetermined operation.
  • communication including a conversation with a person using a robot having a microphone as a sensor for example, reception of a visitor at a company building or venue, service in the real world or virtual world, etc. It is also applicable when performing the above. In this case, communication including a conversation with the person corresponds to a predetermined work.
  • the camera 130 and the microphone are provided as part of the on-site work facility.
  • FIG. 5 is not limited to the procedure illustrating the embodiment, and the procedure may be added / deleted or the order may be changed without departing from the spirit and technical idea. .
  • Robot System 100 Work Equipment 110 Robot 120 Robot Controller (Robot Controller) 121 Control unit 122a Transmitter (transmitter) 122b Receiver (receiver) 130 Camera (Image sensor, sensor) 132 Control unit 140 IF device (interface device) 200 Central image processing device (central information processing device) 201 control unit 202 communication control unit (information receiving unit, analysis information output unit) 203a Algorithm storage unit NW1 Network cloud (network)

Abstract

【課題】センサの検出情報を用いてロボットにより作業をより好適に行う。 【解決手段】ロボットシステム1は、複数の作業設備100と、中央画像処理装置200とを有している。各作業設備100は、ボルト穴3に対しボルト2をねじ込む動作を含むボルト締め作業を行うロボット110、ロボットコントローラ120、及び、カメラ130を有している。中央画像処理装置100は、各作業設備100のカメラ130で生成された画像情報を受け付ける。そして、アルゴリズム記憶部203aに記憶された処理アルゴリズムに基づいて、上記受け付けた画像情報を画像解析する。そして、上記受け付けた画像情報に含まれるボルト穴3の位置情報を、対応する作業設備100のロボットコントローラ120へ送信する。ロボットコントローラ120は、中央画像処理装置100から送信されたボルト穴3の位置情報に基づいて、ロボット110の動作を制御する。

Description

ロボットシステム及び作業設備
 開示の実施形態は、ロボットシステム及び作業設備に関する。
 特許文献1には、ロボットハンドを有するロボットを制御してピッキング作業を行うピッキングシステムが開示されている。このピッキングシステムには、作業設備として、上記ロボット、カメラ、画像処理装置、及び、制御装置等が設けられている。画像処理装置は、カメラが撮像したワークの画像データを用いてワークの位置情報を求める。制御装置は、画像処理装置が求めたワークの位置情報を用いてロボットを制御して、ピッキング作業を実行させる。
特開2010-240785号公報
 上記従来技術では、ロボットにより作業を行う現場に、センサとしてのカメラと、このカメラの検出情報としての画像データを解析する情報処理装置としての画像処理装置とを設け、ロボット制御装置としての制御装置が、画像処理装置による画像データの解析情報に基づいて、ロボットの動作を制御している。これにより、ロボットにより作業を精度よく確実に行うことができる。しかしながら、一般に情報処理装置は高価である上、処理内容を教示(プログラム)するのに比較的大きな手間がかかるという課題がある。
 本発明はこのような問題に鑑みてなされたものであり、センサの検出情報を用いてロボットにより作業をより好適に行うことができるロボットシステム及び作業設備を提供することを目的とする。
 上記課題を解決するため、本発明の一の観点によれば、所定の作業を行うロボット、前記ロボットの動作を制御するロボット制御装置、及び、前記ロボットに対応して設けられるセンサ、を有する1以上の作業設備と、前記1以上の作業設備のそれぞれに対しデータ通信可能に接続された中央情報処理装置と、を有し、前記中央情報処理装置は、各作業設備の前記センサの検出情報を受け付ける情報受付部と、各作業設備における前記検出情報に対する処理アルゴリズムが記憶されたアルゴリズム記憶部と、前記アルゴリズム記憶部に記憶された前記処理アルゴリズムに基づいて、前記情報受付部が受け付けた前記検出情報を解析する情報解析部と、前記情報解析部による前記検出情報の解析情報を、対応する前記作業設備の前記ロボット制御装置に対し出力する解析情報出力部と、を有し、前記ロボット制御装置は、前記解析情報出力部から出力された前記解析情報に基づいて、前記ロボットの動作を制御するロボットシステムが適用される。
 本発明によれば、センサの検出情報を用いてロボットにより作業をより好適に行うことができる。
一実施の形態のロボットシステムの全体構成を模式的に表すシステム構成図である。 中央画像処理装置の別の例を表す説明図である。 一現場の作業設備の構成を模式的に表す模式図である。 一現場のロボットコントローラ及びカメラと中央画像処理装置との機能的構成を表す機能ブロック図である。 一現場のロボットコントローラ及びカメラと中央画像処理装置との間で実行される制御手順を表すシーケンス図である。
 以下、一実施の形態について図面を参照しつつ説明する。
 図1に示すように、本実施形態のロボットシステム1は、例えば生産ラインを備えた工場等の複数の現場(図1中では「現場A」「現場B」「現場C」「現場D」「現場E」・・・と記載)のそれぞれに設けられた複数の作業設備100(図1中では図示省略。後述の図3参照)と、中央画像処理装置200(中央情報処理装置)とを有している。中央画像処理装置200は、複数の現場の作業設備100間で共通(共有)化された画像処理装置である。この中央画像処理装置200は、ネットワーククラウドNW1(ネットワーク)で連結された1以上の演算装置及び記憶装置の集合体として構成されており、複数の作業設備100のそれぞれに対しデータ通信可能に接続されている。なお、図2に示すように、中央画像処理装置200として、各作業設備100と適宜のネットワークNW2を介して接続される単一の演算装置を用いることもできる。この場合、中央画像処理装置200は、例えばロボットシステム1の管理会社の社屋等に設置される。
 図3に示すように、一現場には、作業設備100として、ロボット110と、ロボットコントローラ120(ロボット制御装置)と、レンズ131を備えたカメラ130(画像センサ、センサ)と、インターフェイス装置140(以下、「IF装置140」と略記する)とが設けられている。なお、図3中では、一現場だけを図示しているが、他の現場についてもこれと同様である。各現場のロボットコントローラ120と、上記中央画像処理装置200とは、上記ネットワーククラウドNW1を介しそれぞれ相互にデータ通信可能に接続されている。
 ロボット110は、所定の作業として、例えば図示しないコンベアにより搬送され所定の位置に配置されたワークW、に設けられたボルト穴3(作業目標)に対し、ボルト2をねじ込む動作を含むボルト締め作業を行う。このロボット110は、アーム111と、このアーム111を駆動するためのサーボモータをそれぞれ備えたアクチュエータAc1,Ac2,Ac3,Ac4,Ac5,Ac6とを有している。アーム111の先端側には、ボルト穴3に対しボルト2をねじ込むためのツール112(例えば電動ドライバやナットランナ等)が取り付けられている。
 ロボットコントローラ120は、上記アーム111に設けられた各アクチュエータAc1~Ac6のサーボモータと相互通信可能に接続されており、これら各サーボモータの駆動制御を行う。これにより、各アクチュエータAc1~Ac6の全体の動作、すなわちロボット110の動作を制御する。また、ロボットコントローラ120は、上記ツール112の動作(例えば電動ドライバ等のオン・オフ等)を制御する。
 カメラ130は、上記アーム111の先端側に適宜の連結部材を介し固定されている。なお、カメラ130をこれ以外の位置(例えばワークWの搬送経路上方等)に設けてもよい。このカメラ130は、上記ボルト穴3をレンズ131を介し撮像し、その撮像したボルト穴3の画像を含む画像情報を生成する。生成された画像情報は、検出情報として、ロボットコントローラ120へ出力され、後述の通信制御部122の送信部122aにより上記ネットワーククラウドNW1を介し中央画像処理装置200へ送信される。なお、カメラ130が画像情報を中央サーバ200へ直接送信してもよい。
 IF装置140は、パーソナルコンピュータやティーチングペンダント等で構成されており、各種情報を表示する表示装置、及び、操作者による各種情報の入力を受け付ける入力装置等(いずれも図示省略)を有している。操作者がIF装置140を介し入力した中央画像処理装置200への情報(後述)は、ロボットコントローラ120へ出力され、後述の通信制御部122の送信部122aにより上記ネットワーククラウドNW1を介し中央画像処理装置200へ送信される。なお、IF装置140が上記中央画像処理装置200への情報を中央画像処理装置200へ直接送信してもよい。
 中央画像処理装置200は、各現場のロボットコントローラ120から送信された画像情報をそれぞれ受け付け、受け付けた画像情報を画像解析して、上記ボルト穴3の位置を検知する(詳細は後述)。検知されたボルト穴3の位置情報は、画像情報の画像解析情報として、上記ネットワーククラウドNW1を介し、対応する現場のロボットコントローラ120へ送信される(戻される)。
 図4に示すように、一現場に設けられた作業設備100のカメラ130は、機能的構成として、上記レンズ131と、制御部132と、入出力部133とを備えている。
 制御部132は、カメラ130全体の制御を行う。例えば、制御部132は、レンズ131を介し撮像した上記ボルト穴3の画像を含む画像情報を生成する。
 入出力部133は、ロボットコントローラ120との間で行われる情報通信の制御を行う。例えば、入出力部133は、制御部132により生成された画像情報をロボットコントローラ120へ出力する際の情報通信の制御を行う。
 ロボットコントローラ120は、機能的構成として、制御部121と、通信制御部122と、入出力部123と、記憶装置124とを備えている。
 制御部121は、ロボットコントローラ120全体の制御を行う。
 入出力部123は、ロボット110、カメラ130、IF装置140との間で行われる情報通信の制御を行う。例えば、入出力部123は、カメラ130から出力された画像情報を入力する際の情報通信の制御を行う。
 通信制御部122は、送信部122a(送信機)及び受信部122b(受信機)を備えており、中央画像処理装置200との間でネットワーククラウドNW1を介し行われる情報通信の制御を行う。例えば、送信部122aは、入出力部123で入力された、カメラ130からの画像情報や、IF装置140からの中央画像処理装置200への情報(後述)を、ネットワーククラウドNW1を介し中央画像処理装置200へ送信する際の情報通信の制御を行う。受信部122bは、中央画像処理装置200から送信された上記ボルト穴3の位置情報をネットワーククラウドNW1を介し受信する際の、情報通信の制御を行う。
 記憶装置124は、例えばHDD(Hard Disk Drive)等で構成されており、各種情報等を記憶する。例えば、記憶装置124には、予め教示者がIF装置140を操作してロボット110を動作させることにより教示した、実際のボルト締め作業に関するロボット110の動作情報等を含む教示情報が記憶されている。
 中央画像処理装置200は、機能的構成として、制御部201と、通信制御部202(情報受付部、解析情報出力部)と、大容量記憶装置203とを備えている。
 制御部201は、中央画像処理装置200全体の制御を行う。例えば、制御部201は、後述のように通信制御部202で受信された画像情報を画像解析して、上記ボルト穴3の位置を検知する情報解析部としての構成を有している。
 通信制御部202は、各現場のロボットコントローラ120との間でネットワーククラウドNW1を介し行われる情報通信の制御を行うように構成されている。この通信制御部202は、各現場のロボットコントローラ120から送信された画像情報を受け付ける(受信する)情報受付部としての構成と、制御部201により検知された上記ボルト穴3の位置情報を、対応する現場のロボットコントローラ120へ送信(出力)する解析情報出力部としての構成とを有している。
 大容量記憶装置203は、ネットワーククラウドNW1内に存在する複数の記憶媒体の集合として構成されており、記憶容量等を可変に設定することができる。この大容量記憶装置203には、アルゴリズム記憶部203aが構成されている。アルゴリズム記憶部203aには、被検出対象物の形状パターンが関連付けられた複数種類の処理アルゴリズムが記憶されている。
 処理アルゴリズムとしては、通信制御部202で受信された画像情報から円形の領域を切り出して、その切り出された各領域の位置情報を出力するもの(円形の穴が開いた対象を検出する場合に適する)や、画像情報から各物体の長軸の長さ及び位置姿勢を検出するもの(ボルト等の細長い対象を検出する場合に適する)が含まれる。また、単純に画像情報を条件に沿って2値化するだけのものや、画像情報に基づいて領域分割をするだけのものも含まれ、複数の処理アルゴリズムの組み合わせにより1つの処理アルゴリズムを構成するものも含まれる。
 本実施形態では、制御部201がアルゴリズム構成部としての構成を有している。すなわち、制御部201は、各現場から送信されたIF装置140からの中央画像処理装置200への情報、具体的には、画像処理の処理アルゴリズムを指示する情報(以下適宜、「指示情報」と称する)に応じて、アルゴリズム記憶部203aに記憶された複数種類の処理アルゴリズムから、画像処理に用いる処理アルゴリズムを選択して構成すると共に、処理アルゴリズムに用いるパラメータ等を設定する。特に、本実施形態では、制御部201は、現場からの画像情報に対し上記ボルト穴3の位置を検知する処理アルゴリズムを構成する。なお、各現場において同様の処理を行う場合、制御部201により構成された処理アルゴリズムが、各現場からの画像情報に対し共通の処理アルゴリズム(以下適宜、「共通画像処理アルゴリズム」と称する)として用いられる。
 なお、以上では、一現場の作業設備100について説明したが、他の現場についてもこれと同様に、作業設備100として、ロボット110、ロボットコントローラ120、カメラ130、及び、IF装置140(いずれも上記現場とは異なる構造・構成を備えたタイプでもよい)が少なくとも設けられている。
 以下、図5を用いて、一現場のロボットコントローラ120及びカメラ130と中央画像処理装置200との間で実行される制御手順を説明する。なお、図5中では、基本的に図中上側から下側に向かっての時系列変化で各手順を示している。
 図5に示すように、操作者がIF装置140を操作して上記指示情報を入力すると、まずステップSA2で、ロボットコントローラ120の制御部121は、IF装置140からの指示情報を入出力部123により入力する。
 その後、ステップSA4で、ロボットコントローラ120の制御部121は、上記ステップSA2で入力された指示情報を、送信部122aによりネットワーククラウドNW1を介し中央画像処理装置200へ送信する。
 これにより、ステップSC2で、中央画像処理装置200の制御部201は、上記ステップSA4でロボットコントローラ120の送信部122aから送信された指示情報を、通信制御部202により受信する。
 そして、ステップSC4に移り、中央画像処理装置200の制御部201は、上記ステップSC2で受信された指示情報に応じて、アルゴリズム記憶部203aに記憶された複数種類の処理アルゴリズムから、画像処理に用いる処理アルゴリズムを選択して、上記共通画像処理アルゴリズムを構成する。このステップSC4の手順が、アルゴリズム構成部として機能する。
 そして、ステップSA10で、ロボットコントローラ120の制御部121は、記憶装置124に記憶された教示情報に基づくプレイバック制御により、予め教示された動作をロボット110に実行させる。これにより、ロボット110は、予め教示された姿勢(アーム112の先端側のカメラ130により、所定の位置に配置されるワークWのボルト穴3を撮像可能な姿勢)となる。
 そして、ワークWが所定の位置に配置されると、ステップSB10で、カメラ130の制御部132は、レンズ131を介しそのワークWのボルト穴3を撮像する。
 その後、ステップSB20で、カメラ130の制御部132は、上記ステップSB10で撮像されたボルト穴3の画像を含む画像情報を生成する。
 そして、ステップSB30に移り、カメラ130の制御部132は、上記ステップSB20で生成された画像情報を、入出力部133によりロボットコントローラ120へ出力する。
 これにより、ステップSA12で、ロボットコントローラ120の制御部121は、上記ステップSB30でカメラ130から出力された画像情報を、入出力部123により入力する。
 その後、ステップSA14で、ロボットコントローラ120の制御部121は、上記ステップSA12で入力された画像情報を、送信部122aによりネットワーククラウドNW1を介し中央画像処理装置200へ送信する。
 これにより、ステップSC10で、中央画像処理装置200の制御部201は、上記ステップSA14でロボットコントローラ120の送信部122aから送信された画像情報を、通信制御部202により受信する。
 その後、ステップSC20で、中央画像処理装置200の制御部201は、上記ステップSC4で構成された共通画像処理アルゴリズムに基づいて、上記ステップSC10で受信された画像情報を画像解析して、ボルト穴3の位置を検知する。ボルト穴3の位置を検知は、例えば、教示の際に大容量記憶装置203に登録された登録モデル(ボルト穴3の画像パターン)を用いて、公知の適宜のパターンマッチング(正規化相関)処理により行われる。このステップSC20の手順が、情報解析部として機能する。
 そして、ステップSC30に移り、中央画像処理装置200の制御部201は、上記ステップSC20で検知されたボルト穴3の位置情報を、通信制御部202によりネットワーククラウドNW1を介し、対応する現場のロボットコントローラ120へ送信する。
 これにより、ステップSA20で、ロボットコントローラ120の制御部121は、上記ステップSC30で中央画像処理装置200の通信制御部202から送信されたボルト穴3の位置情報を、受信部122bにより受信する。
 その後、ステップSA30で、ロボットコントローラ120の制御部121は、上記ステップSA20で受信されたボルト穴3の位置情報に基づいて、実際のボルト穴3の位置と基準位置(教示の際のボルト3の位置)との位置ずれ量を算出する。そして、その位置ずれ量を補償するための位置補正量を算出する。そして、その位置補正量に基づいて、記憶装置124に記憶された教示情報における、ロボット110がツール112を用いてボルト2のねじ込み動作を行う位置を、実際のボルト穴3の位置に補正する。
 その後、ステップSA40で、ロボットコントローラ120の制御部121は、上記ステップSA30で補正された教示情報に基づく制御により、ツール112を用いてボルト穴3に対しボルト2をねじ込む動作を含むボルト締め作業をロボット110に実行させる。これにより、図5に示すシーケンスが終了する。
 以上説明した本実施形態のロボットシステム1においては、カメラ130が生成した画像情報を画像解析してボルト穴3の位置情報をロボットコントローラ120へ出力する画像処理装置を複数の現場のそれぞれに設けるのではなく、これら複数の現場の作業設備100間で共通化された画像処理装置である中央画像処理装置200を設けている。これにより、各現場に高能力の演算装置を設置することや、各現場で画像処理のための処理アルゴリズムの設定を行うという手間を省くことができる。したがって、本実施形態によれば、カメラ130で生成された画像情報を用いてロボット110によりボルト締め作業をより好適に行うことができる。また、複数の現場において共通の処理アルゴリズムを実行することにより、処理アルゴリズムの運用頻度が増大することによって、各現場での運用結果に基づいて処理アルゴリズムの改善を促すことも期待できる。
 なお、実施の形態は、上記内容に限られるものではなく、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。例えば、上記実施形態においては、ロボット110によりボルト締め作業を行う場合を説明したが、これに限られず、ロボットによりワークのハンドリング、ワークの塗装、ワークの溶接等を行う場合にも適用可能である。この場合、上記ワークのハンドリング、ワークの塗装、ワークの溶接等が、所定の作業に相当する。
 また、上記以外にも、センサとしてのマイクを備えたロボットにより人との会話を含むコミュニケーション(例えば、会社の社屋や会場等での来訪者の受付や、現実世界又は仮想世界でのサービス等)を行う場合にも適用可能である。この場合、上記人との会話を含むコミュニケーションが、所定の作業に相当する。
 また以上では、現場の作業設備の一部としてカメラ130やマイク等を設けていたが、これに限られず、その他のセンサ(例えば触覚センサ等)を設けてもよい。
 また、前述の図5に示すシーケンスは実施の形態を図示する手順に限定するものではなく、趣旨及び技術的思想を逸脱しない範囲内で手順の追加・削除又は順番の変更等をしてもよい。
 また、以上既に述べた以外にも、上記実施形態等による手法を適宜組み合わせて利用してもよい。
 その他、一々例示はしないが、上記実施形態等は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。
 1      ロボットシステム
 100    作業設備
 110    ロボット
 120    ロボットコントローラ(ロボット制御装置)
 121    制御部
 122a   送信部(送信機)
 122b   受信部(受信機)
 130    カメラ(画像センサ、センサ)
 132    制御部
 140    IF装置(インターフェイス装置)
 200    中央画像処理装置(中央情報処理装置)
 201    制御部
 202    通信制御部(情報受付部、解析情報出力部)
 203a   アルゴリズム記憶部
 NW1    ネットワーククラウド(ネットワーク)

Claims (5)

  1.  所定の作業を行うロボット、前記ロボットの動作を制御するロボット制御装置、及び、前記ロボットに対応して設けられるセンサ、を有する1以上の作業設備と、
     前記1以上の作業設備のそれぞれに対しデータ通信可能に接続された中央情報処理装置と、
    を有し、
     前記中央情報処理装置は、
     各作業設備の前記センサの検出情報を受け付ける情報受付部と、
     各作業設備における前記検出情報に対する処理アルゴリズムが記憶されたアルゴリズム記憶部と、
     前記アルゴリズム記憶部に記憶された前記処理アルゴリズムに基づいて、前記情報受付部が受け付けた前記検出情報を解析する情報解析部と、
     前記情報解析部による前記検出情報の解析情報を、対応する前記作業設備の前記ロボット制御装置に対し出力する解析情報出力部と、
    を有し、
     前記ロボット制御装置は、
     前記解析情報出力部から出力された前記解析情報に基づいて、前記ロボットの動作を制御する
    ことを特徴とする、ロボットシステム。
  2.  前記センサは、
     前記検出情報として、前記ロボットの作業目標の画像情報を生成する画像センサであり、
     前記中央情報処理装置の前記情報受付部は、
     各作業設備の前記画像センサにより生成された前記画像情報を受け付け、
     前記アルゴリズム記憶部には、
     各作業設備における前記画像情報に対する処理アルゴリズムが記憶され、
     前記情報解析部は、
     前記アルゴリズム記憶部に記憶された前記処理アルゴリズムに基づいて、前記情報受付部が受け付けた前記画像情報を画像解析し、
     前記解析情報出力部は、
     前記情報解析部による前記画像情報の画像解析情報を、対応する前記作業設備の前記ロボット制御装置に対し出力し、
     前記ロボット制御装置は、
     前記解析情報出力部から出力された前記画像解析情報に基づいて、前記ロボットの動作を制御する
    ことを特徴とする、請求項1に記載のロボットシステム。
  3.  前記中央情報処理装置は、
     ネットワークで連結された1以上の演算装置及び記憶装置の集合体として構成される
    ことを特徴とする、請求項1又は2に記載のロボットシステム。
  4.  前記作業設備は、
     前記中央情報処理装置への情報を入力するためのインターフェイス装置を有し、
     前記中央情報処理装置は、
     前記インターフェイス装置からの前記情報に応じて、前記アルゴリズム記憶部に記憶された前記処理アルゴリズムから、前記情報解析部において実行される処理アルゴリズムを構成するアルゴリズム構成部を有し、
     前記情報解析部は、
     前記アルゴリズム構成部により構成された前記処理アルゴリズムに基づいて、前記検出情報を解析する
    ことを特徴とする、請求項1乃至3のいずれか1項に記載のロボットシステム。
  5.  所定の作業を行うロボット、前記ロボットの動作を制御するロボット制御装置、及び、前記ロボットに対応して設けられるセンサ、を有する、請求項1乃至4のいずれか1項に記載のロボットシステムに用いられる作業設備であって、
     前記センサの検出情報をネットワークを介し当該検出情報を解析する中央情報処理装置へ送信する送信機と、
     前記中央情報処理装置から送信された前記検出情報の解析情報をネットワークを介し受信する受信機と、
    を有し、
     前記ロボット制御装置は、
     前記受信機により受信された前記解析情報に基づいて、前記ロボットの動作を制御する
    ことを特徴とする、作業設備。
PCT/JP2012/058982 2012-04-02 2012-04-02 ロボットシステム及び作業設備 WO2013150596A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP12873509.9A EP2835233A1 (en) 2012-04-02 2012-04-02 Robot system and work facility
PCT/JP2012/058982 WO2013150596A1 (ja) 2012-04-02 2012-04-02 ロボットシステム及び作業設備
CN201280072197.9A CN104203503A (zh) 2012-04-02 2012-04-02 机器人系统及作业设备
JP2014508940A JPWO2013150596A1 (ja) 2012-04-02 2012-04-02 ロボットシステム及び作業設備
US14/499,245 US20150019011A1 (en) 2012-04-02 2014-09-29 Robot system and work facility

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/058982 WO2013150596A1 (ja) 2012-04-02 2012-04-02 ロボットシステム及び作業設備

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/499,245 Continuation US20150019011A1 (en) 2012-04-02 2014-09-29 Robot system and work facility

Publications (1)

Publication Number Publication Date
WO2013150596A1 true WO2013150596A1 (ja) 2013-10-10

Family

ID=49300123

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/058982 WO2013150596A1 (ja) 2012-04-02 2012-04-02 ロボットシステム及び作業設備

Country Status (5)

Country Link
US (1) US20150019011A1 (ja)
EP (1) EP2835233A1 (ja)
JP (1) JPWO2013150596A1 (ja)
CN (1) CN104203503A (ja)
WO (1) WO2013150596A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3039450B1 (fr) * 2015-07-29 2017-08-11 Airbus Operations Sas Systeme de support-outil
US10363661B2 (en) * 2016-07-27 2019-07-30 Seiko Epson Corporation Control device, robot, and robot system
JP6680720B2 (ja) * 2017-04-10 2020-04-15 ファナック株式会社 ロボットの動作軌跡を自動で生成する装置、システム、および方法
FR3090445B1 (fr) * 2018-12-21 2020-11-27 Psa Automobiles Sa Système de fixation automatisée d’écrans aérauliques sous des planchers de véhicules, pour une chaîne de montage

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH079373A (ja) * 1993-06-30 1995-01-13 Nippei Toyama Corp 溶接ロボットおよびそのトラッキングセンサ
JP2010240785A (ja) 2009-04-07 2010-10-28 Kanto Auto Works Ltd ピッキングシステム
JP2011201007A (ja) * 2010-03-05 2011-10-13 Fanuc Ltd 視覚センサを備えたロボットシステム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049420A (ja) * 2000-08-03 2002-02-15 Mitsubishi Heavy Ind Ltd 多地点の機器稼動用データ通信装置
US6658325B2 (en) * 2001-01-16 2003-12-02 Stephen Eliot Zweig Mobile robotic with web server and digital radio links
US6491566B2 (en) * 2001-03-26 2002-12-10 Intel Corporation Sets of toy robots adapted to act in concert, software and methods of playing with the same
US6687571B1 (en) * 2001-04-24 2004-02-03 Sandia Corporation Cooperating mobile robots
CN1289270C (zh) * 2001-11-09 2006-12-13 中国科学院自动化研究所 开放式工业机器人视觉控制平台
JP4087104B2 (ja) * 2001-11-20 2008-05-21 シャープ株式会社 群ロボットシステム
JP2005515903A (ja) * 2001-11-28 2005-06-02 エヴォリューション ロボティクス インコーポレイテッド ロボット用センサおよびアクチュエータのハードウェア抽象化層内における抽象化および集合化
US6836701B2 (en) * 2002-05-10 2004-12-28 Royal Appliance Mfg. Co. Autonomous multi-platform robotic system
CN1218806C (zh) * 2002-12-27 2005-09-14 中国科学院自动化研究所 具有视觉焊缝自动跟踪功能的弧焊机器人控制平台
CN1233514C (zh) * 2003-03-14 2005-12-28 南开大学 国际互联网的网上遥操作机器人对弈的控制系统
JP2004351533A (ja) * 2003-05-27 2004-12-16 Fanuc Ltd ロボットシステム
JP2005059075A (ja) * 2003-08-18 2005-03-10 Matsushita Electric Ind Co Ltd 生産システム
US7765038B2 (en) * 2005-02-16 2010-07-27 Lockheed Martin Corporation Mission planning system for vehicles with varying levels of autonomy
CN100484726C (zh) * 2006-05-12 2009-05-06 上海大学 基于虚拟现实机器人灵巧手遥操作平台
KR101408657B1 (ko) * 2007-12-18 2014-06-17 삼성전자주식회사 원격 제어 로봇 시스템의 사용자 인터페이스 장치 및 방법
US8961695B2 (en) * 2008-04-24 2015-02-24 Irobot Corporation Mobile robot for cleaning
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
KR101178847B1 (ko) * 2008-12-08 2012-08-31 한국전자통신연구원 가상공간과 연계된 다중 로봇 제어 장치 및 방법
CN101913076B (zh) * 2010-06-23 2012-09-05 中国科学院自动化研究所 基于工业机器人的活塞、活塞销和连杆装配方法及装置
KR20120055142A (ko) * 2010-11-23 2012-05-31 한국과학기술연구원 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법
JP5306313B2 (ja) * 2010-12-20 2013-10-02 株式会社東芝 ロボット制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH079373A (ja) * 1993-06-30 1995-01-13 Nippei Toyama Corp 溶接ロボットおよびそのトラッキングセンサ
JP2010240785A (ja) 2009-04-07 2010-10-28 Kanto Auto Works Ltd ピッキングシステム
JP2011201007A (ja) * 2010-03-05 2011-10-13 Fanuc Ltd 視覚センサを備えたロボットシステム

Also Published As

Publication number Publication date
JPWO2013150596A1 (ja) 2015-12-14
US20150019011A1 (en) 2015-01-15
EP2835233A1 (en) 2015-02-11
CN104203503A (zh) 2014-12-10

Similar Documents

Publication Publication Date Title
JP6871857B2 (ja) ロボットシステム
WO2013150599A1 (ja) ロボットシステム及び作業設備
US9701023B2 (en) Teleoperation of machines having at least one actuated mechanism and one machine controller comprising a program code including instructions for transferring control of the machine from said controller to a remote control station
US11045954B2 (en) Robot system and method of controlling the same
CN106737662B (zh) 机器人系统
JP7068059B2 (ja) 遠隔操作方法及び遠隔操作システム
WO2019116891A1 (ja) ロボットシステム及びロボット制御方法
WO2013150596A1 (ja) ロボットシステム及び作業設備
JP6677198B2 (ja) ロボットの故障診断支援システム及び故障診断支援方法
JP2003340758A (ja) ロボットの駆動制御方法と、その装置
CN109421049A (zh) 机器人系统
JP2020179484A (ja) 振動表示装置、動作プログラム作成装置、およびシステム
JP2008183690A (ja) ロボット制御装置及びロボット制御システム
CN109414820B (zh) 机器人的运转方法、储存部、及机器人系统
KR102420896B1 (ko) 용접 로봇 제어시스템 및 그의 로봇 인식방법
JP6758915B2 (ja) 自律作業制御システムおよび自律作業制御方法
JP2004258855A (ja) 作業品質管理システム及び作業品質管理方法
Deák et al. Smartphone–controlled industrial robots: Design and user performance evaluation
KR20140086486A (ko) 제어기 일체형 포터블 용접로봇 시스템
WO2020155178A1 (zh) 机器人示教编程的方法和装置、机器人控制器和计算机可读介质
KR20150042427A (ko) 로봇제어기와 단말장치간의 인터페이스 장치 및 그 방법
KR20160068434A (ko) 다축 포지셔너 제어 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12873509

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012873509

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014508940

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE