JP2019093529A - Pointer device - Google Patents

Pointer device Download PDF

Info

Publication number
JP2019093529A
JP2019093529A JP2017227226A JP2017227226A JP2019093529A JP 2019093529 A JP2019093529 A JP 2019093529A JP 2017227226 A JP2017227226 A JP 2017227226A JP 2017227226 A JP2017227226 A JP 2017227226A JP 2019093529 A JP2019093529 A JP 2019093529A
Authority
JP
Japan
Prior art keywords
light
light emitter
unit
robot arm
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017227226A
Other languages
Japanese (ja)
Inventor
岩下 純久
Sumihisa Iwashita
純久 岩下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2017227226A priority Critical patent/JP2019093529A/en
Priority to PCT/JP2018/040813 priority patent/WO2019102822A1/en
Publication of JP2019093529A publication Critical patent/JP2019093529A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

To teach an imaging position without imaging aiming at confirmation of the imaging position by an imaging apparatus.SOLUTION: A pointer device includes a light emitter 6 capable of emitting light into a visual field range of an imaging apparatus 3 moving following movement of a robot arm 1, and a control part 7 for controlling emission of light by the light emitter 6.SELECTED DRAWING: Figure 1

Description

この発明は、撮影装置が搭載されたロボットアームの撮影位置をティーチングする際に用いられるポインタ装置に関する。   The present invention relates to a pointer device used when teaching a shooting position of a robot arm on which a shooting device is mounted.

従来から、ロボットアームの先端に画像処理用の撮影装置が設置された構成が実用されている(例えば特許文献1,2参照)。この構成により、トレイ等でワークの位置を限定せずに、撮影装置による画像処理結果に基づいてワークのピックアップ等を行うことができる。   Conventionally, a configuration in which an imaging device for image processing is installed at the tip of a robot arm has been put to practical use (see, for example, Patent Documents 1 and 2). With this configuration, the work can be picked up based on the image processing result by the imaging device without limiting the position of the work by a tray or the like.

特開平6−278070号公報Japanese Patent Laid-Open No. 6-278070 特開2017−87325号公報JP, 2017-87325, A

しかしながら、このような撮影装置を用いる場合、一般的に、ユーザは、事前準備として、撮影位置(撮影装置による撮影で得られる画像の中心位置、角度及び範囲等が所望の状態になるようなロボットアームの位置及び姿勢)のティーチングを行う必要がある。撮影位置のティーチングでは、まず、ユーザは、ロボットアームをティーチングペンダント又はダイレクトティーチング等によって操作し、ロボットアームの先端に設置された撮影装置が対象となるエリアの上方に位置するように位置合わせを行う。そして、ユーザは、撮影装置による撮影を実行する。そして、ユーザは、撮影装置による撮影で得られた画像からワーク等の目印の画像上での位置、回転角度及び撮影範囲と実際に置いてあるワーク等の目印の位置及び回転角度とを確認すること等で、撮影位置が適切であるかを判定する。つまり、前述した撮影のためのロボットアームの位置及び姿勢が適切であるかを判定する。そして、ユーザは、撮影位置が不適切であると判定した場合には上記動作を繰り返し、適切であると判定した場合にはその撮影位置を教示位置としてロボットアームに反映させる。   However, when using such an imaging device, in general, as a preparation, the user is required to set a position where the imaging position (a center position, an angle, a range, etc. of an image obtained by imaging with the imaging device It is necessary to teach the position and attitude of the arm). In teaching of the imaging position, first, the user operates the robot arm by teaching pendant or direct teaching, etc., and performs alignment so that the imaging device installed at the tip of the robot arm is positioned above the target area . Then, the user performs shooting by the shooting device. Then, the user confirms the position on the image of the mark such as the work, the rotation angle and the photographing range, and the position and the rotation angle of the mark such as the work actually placed from the image obtained by the photographing by the photographing device. Therefore, it is determined whether the shooting position is appropriate. That is, it is determined whether the position and posture of the robot arm for the above-described photographing are appropriate. When the user determines that the imaging position is inappropriate, the user repeats the above operation. When the user determines that the imaging position is appropriate, the user reflects the imaging position on the robot arm as a teaching position.

このように、従来構成では、撮影装置が搭載されたロボットアームの撮影位置のティーチングを行う際に、撮影装置の位置合わせを行った後、撮影装置による撮影を行って画像を確認する必要があり、作業が煩雑であるという課題があった。つまり、撮影位置を確認する目的であるにもかかわらず、撮影装置による撮影を行って画像を確認するという付加的な作業が必要であるという課題があった。一方、撮影装置による撮影で得られる画像はロボットアームの動作を決定する重要な情報となるため、撮影位置のティーチングを的確に行うための利便性の向上が望まれている。   As described above, in the conventional configuration, when teaching the photographing position of the robot arm on which the photographing device is mounted, after the positioning of the photographing device is performed, it is necessary to perform photographing by the photographing device to check the image And the task was complicated. That is, despite the purpose of confirming the photographing position, there is a problem that an additional operation of photographing with the photographing device and confirming the image is required. On the other hand, since an image obtained by photographing with the photographing device is important information for determining the operation of the robot arm, improvement of convenience for performing teaching at the photographing position is desired.

この発明は、上記のような課題を解決するためになされたもので、撮影装置による撮影位置の確認を目的とした撮影を行うことなく、撮影位置のティーチングを可能とするポインタ装置を提供することを目的としている。   The present invention has been made to solve the above-described problems, and provides a pointer device that enables teaching of a photographing position without performing photographing for the purpose of confirming the photographing position by the photographing device. It is an object.

この発明に係るポインタ装置は、ロボットアームの移動に伴って移動する撮影装置の視野範囲内に光を発光可能な発光器と、発光器による光の発光を制御する制御部とを備えたことを特徴とする。   The pointer device according to the present invention includes a light emitter capable of emitting light within the field of view range of the imaging device moving with the movement of the robot arm, and a control unit for controlling light emission by the light emitter. It features.

この発明によれば、上記のように構成したので、撮影装置による撮影位置の確認を目的とした撮影を行うことなく、撮影位置のティーチングが可能となる。   According to the present invention, as configured as described above, teaching of the imaging position can be performed without performing imaging for the purpose of confirming the imaging position by the imaging device.

この発明の実施の形態1に係るポインタ装置の構成例を示す斜視図である。It is a perspective view which shows the structural example of the pointer apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係るポインタ装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the pointer apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係るポインタ装置を用いた撮影位置のティーチングを説明するための図である。It is a figure for demonstrating teaching of the imaging | photography position using the pointer apparatus which concerns on Embodiment 1 of this invention.

以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1はこの発明の実施の形態1に係るポインタ装置の構成例を示す斜視図である。図1では、ポインタ装置の他に、ロボットアーム1、ロボットハンド(エンドエフェクタ)2、撮影装置3、取付け部4及びロボットコントローラ5も図示している。
ポインタ装置は、撮影装置3が搭載されたロボットアーム1の撮影位置をティーチングする際に用いられる装置である。図1では、ロボットアーム1の先端に取付け部4を介して接続されるロボットハンド2が示され、撮影装置3は取付け部4に取付けられている。また、撮影装置3は、ロボットアーム1の移動に伴って移動し、ロボットアーム1による作業先を撮影可能であればよく、例えば、画像処理用の撮影装置、又は、遠隔地から確認を行うためのテレビカメラのような撮影装置等でもよく、同様の効果が得られる。なお、ロボットコントローラ5は、ロボットアーム1の動作を制御する。
ポインタ装置は、図1,2に示すように、発光器6及び制御部7を備えている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1
FIG. 1 is a perspective view showing a configuration example of a pointer device according to Embodiment 1 of the present invention. In FIG. 1, in addition to the pointer device, a robot arm 1, a robot hand (end effector) 2, an imaging device 3, an attachment unit 4 and a robot controller 5 are also illustrated.
The pointer device is a device used when teaching the shooting position of the robot arm 1 on which the shooting device 3 is mounted. In FIG. 1, the robot hand 2 connected to the tip of the robot arm 1 via the mounting unit 4 is shown, and the imaging device 3 is mounted on the mounting unit 4. In addition, the photographing device 3 may move as the robot arm 1 moves, and it may be possible to photograph the work destination by the robot arm 1, for example, to check from a photographing device for image processing or a remote place. An imaging device such as a television camera may be used, and similar effects can be obtained. The robot controller 5 controls the operation of the robot arm 1.
The pointer device comprises a light emitter 6 and a control unit 7 as shown in FIGS.

発光器6は、撮影装置3の視野範囲内に光を発光可能である。この発光器6は、撮影装置3に対して相対的に位置変化がない箇所に取付けられ、図1ではロボットハンド2に取付けられている。
発光器6としては、例えば、ユーザが撮影装置3の視野範囲の位置を認識可能な形状(例えば点又は丸等)の光を発光する発光器を用いることができる。この場合、発光器6により発光される光の位置と撮影装置3の視野範囲の位置との関係は事前に設定される。
The light emitter 6 can emit light within the visual field range of the imaging device 3. The light emitter 6 is attached at a position where there is no change in position relative to the photographing device 3 and is attached to the robot hand 2 in FIG.
As the light emitter 6, for example, a light emitter that emits light of a shape (for example, a point or a circle) that allows the user to recognize the position of the field of view of the imaging device 3 can be used. In this case, the relationship between the position of the light emitted by the light emitter 6 and the position of the visual field range of the photographing device 3 is set in advance.

また、発光器6として、例えば、ユーザが撮影装置3の視野範囲の位置及び角度を認識可能な形状(例えば十字形状又は四角形状等)の光を発光する発光器を用いることができる。この場合、発光器6により発光される光の位置及び角度と撮影装置3の視野範囲の位置及び角度との関係は事前に設定される。
なお、発光器6により発光される光が四角形状である場合、ユーザに対し、撮影装置3の視野範囲の位置及び角度に加え、範囲も認識可能とさせることができる。
Further, as the light emitter 6, for example, a light emitter which emits light of a shape (for example, a cross shape or a square shape) which allows the user to recognize the position and the angle of the field of view of the photographing device 3 can be used. In this case, the relationship between the position and angle of the light emitted by the light emitter 6 and the position and angle of the field of view of the photographing device 3 is set in advance.
When the light emitted by the light emitter 6 is square, the user can recognize the range in addition to the position and the angle of the view range of the photographing device 3.

制御部7は、発光器6による光の発光を制御する。この制御部7は、図2に示すように、判定部71及び出力部72を有している。なお、制御部7は、システムLSI等の処理回路、又はメモリ等に記憶されたプログラムを実行するCPU等により実現される。なお、制御部7は、独立した構成とされてもよいし、また、ロボットコントローラ5に内蔵されてもよい。   The control unit 7 controls the emission of light by the light emitter 6. The control unit 7 has a determination unit 71 and an output unit 72, as shown in FIG. The control unit 7 is realized by a processing circuit such as a system LSI or a CPU that executes a program stored in a memory or the like. The control unit 7 may be configured independently or may be incorporated in the robot controller 5.

判定部71は、発光器6により光を発光させるか否かを判定する。
出力部72は、判定部71による判定結果に基づいて、発光器6に対して出力信号を出力する。そして、発光器6は、出力部72により出力された出力信号に基づいて、光の発光を行う。
The determination unit 71 determines whether to cause the light emitter 6 to emit light.
The output unit 72 outputs an output signal to the light emitter 6 based on the determination result by the determination unit 71. The light emitter 6 emits light based on the output signal output from the output unit 72.

例えば、判定部71は、ロボットアーム1の動作モードがティーチングを行うモード(ティーチングモード)となった場合に、発光器6により光を発光させるよう設定されてもよい。
また、例えば、判定部71は、ロボットアーム1の動作モードがティーチングモードとなり且つ発光指令が有った場合に、発光器6により光を発光させるよう設定されてもよい。この場合、例えば、ポインタ装置には、発光器6に対して発光指令を入力するためのスイッチ等の入力部が追加され、また、制御部7には、入力部に対する入力を受付ける入力受付部が追加される。そして、判定部71は、入力受付部による受付け結果から発光器6に対する発光指令の有無を判定する。
For example, the determination unit 71 may be set to cause the light emitter 6 to emit light when the operation mode of the robot arm 1 becomes a mode (teaching mode) in which teaching is performed.
Also, for example, the determination unit 71 may be set to cause the light emitter 6 to emit light when the operation mode of the robot arm 1 is in the teaching mode and the light emission command is given. In this case, for example, an input unit such as a switch for inputting a light emission command to the light emitter 6 is added to the pointer device, and the control unit 7 has an input reception unit for receiving an input to the input unit. Is added. And the determination part 71 determines the presence or absence of the light emission instruction | command with respect to the light-emitting device 6 from the reception result by an input reception part.

次に、実施の形態1に係るポインタ装置を用いた撮影位置のティーチングについて、図3を参照しながら説明する。以下では、制御部7は、ロボットアーム1の動作モードがティーチングモードとなった場合に発光器6により光を発光させるものとする。また以下では、撮影装置3の視野範囲の位置及び角度に基づきティーチングする場合を示し、発光器6により発光される光は十字形状であるとする。   Next, teaching of the photographing position using the pointer device according to the first embodiment will be described with reference to FIG. In the following, the control unit 7 causes the light emitter 6 to emit light when the operation mode of the robot arm 1 becomes the teaching mode. Moreover, below, the case where teaching is performed based on the position and angle of the visual field range of the imaging device 3 is shown, and it is assumed that light emitted by the light emitter 6 has a cross shape.

まず、ユーザ操作によりロボットアーム1の動作モードがティーチングモードとされると、制御部7は、発光器6を消光状態から発光状態へと切替える。そして、発光器6は図3に示すように十字形状の光61を発光する。図3では、発光器6により発光される十字形状の光61の中心位置が、撮影装置3の視野範囲31の中心位置に対して一定量だけオフセットされている。また図3では、光61の位置及び角度と視野範囲31の位置及び角度との関係を示すため視野範囲31が示されているが、実際には、この視野範囲31は見えない。   First, when the operation mode of the robot arm 1 is set to the teaching mode by the user operation, the control unit 7 switches the light emitter 6 from the extinction state to the light emission state. Then, the light emitter 6 emits cross-shaped light 61 as shown in FIG. In FIG. 3, the center position of the cross-shaped light 61 emitted by the light emitter 6 is offset from the center position of the visual field range 31 of the photographing device 3 by a fixed amount. In addition, although the visual field range 31 is shown in FIG. 3 in order to show the relationship between the position and angle of the light 61 and the position and angle of the visual field range 31, this visual field range 31 can not actually be seen.

次いで、ユーザは、ロボットアーム1をティーチングペンダント又はダイレクトティーチング等によって操作し、撮影装置3が対象となるエリアの上方に位置するように位置合わせを行う。
そして、ユーザは、発光器6により発光されている光61の位置及び角度から撮影装置3の視野範囲31の位置及び角度を認識し、当該視野範囲31の位置及び角度が適切であるかを判定する。そして、ユーザは、視野範囲31が不適切であると判定した場合には上記動作を繰り返し、視野範囲31が適切であると判定した場合にはその撮影位置を教示位置としてロボットアーム1に反映させる。
Next, the user operates the robot arm 1 by means of a teaching pendant, direct teaching, or the like, and performs alignment so that the imaging device 3 is positioned above the target area.
Then, the user recognizes the position and angle of the visual field range 31 of the photographing device 3 from the position and angle of the light 61 emitted by the light emitter 6, and determines whether the position and angle of the visual field range 31 is appropriate. Do. When the user determines that the field of view range 31 is inappropriate, the user repeats the above operation. When the user determines that the field of view range 31 is appropriate, the user reflects the shooting position on the robot arm 1 as a teaching position. .

ここで、実施の形態1では、ユーザが、発光器6により発光された光の位置(及び角度)から、撮影装置3の視野範囲の位置(及び角度)を認識可能となるようにしている。これにより、ユーザは、撮影装置3による撮影を行うことなく、撮影位置を確認できる。よって、ユーザは、撮影位置のティーチングを行う際に、従来構成のように画像による確認を行う必要が無くなり、撮影位置のティーチングを容易に実施可能となる。   Here, in the first embodiment, the user can recognize the position (and angle) of the field of view of the imaging device 3 from the position (and angle) of the light emitted by the light emitter 6. As a result, the user can confirm the shooting position without shooting with the shooting device 3. Therefore, when teaching the photographing position, the user does not have to check the image as in the conventional configuration, and teaching of the photographing position can be easily performed.

なお上記では、発光器6が単一である場合を示したが、これに限らず、発光器6を複数用いてもよい。例えば、点形状の光を発光する複数の発光器6を用い、それぞれの光の位置を撮影装置3の視野範囲の角の位置に合わせることで、ユーザに対して、視野範囲の位置、角度及び範囲を認識可能とさせることができる。   In addition, although the case where the light emitter 6 was single was shown above, you may use not only this but multiple light emitters 6. FIG. For example, by using the plurality of light emitters 6 emitting point-shaped light and aligning the position of each light with the position of the angle of the field of view of the photographing device 3, the position, angle and The range can be made recognizable.

なお図1では、ロボットアーム1の先端に取付け部4を介してロボットハンド2が接続された場合を示したが、このロボットハンド2は必須の構成ではない。例えば、実施の形態1に係るポインタ装置は、画像を用いて検査を行うロボットアーム1にも適用可能であるが、この場合にはロボットハンド2は無くてもよい。   Although FIG. 1 shows the case where the robot hand 2 is connected to the end of the robot arm 1 via the attachment portion 4, the robot hand 2 is not an essential component. For example, although the pointer device according to the first embodiment is applicable to the robot arm 1 that performs an inspection using an image, in this case, the robot hand 2 may be omitted.

以上のように、この実施の形態1によれば、ロボットアーム1の移動に伴って移動する撮影装置3の視野範囲内に光を発光可能な発光器6と、発光器6による光の発光を制御する制御部7とを備えたので、撮影装置3による撮影位置の確認を目的とした撮影を行うことなく、撮影位置のティーチングが可能となる。   As described above, according to the first embodiment, the light emitting device 6 capable of emitting light within the field of view range of the photographing device 3 moving along with the movement of the robot arm 1, and the light emission of the light emitting device 6 Since the control unit 7 to control is provided, teaching of the imaging position can be performed without performing imaging for the purpose of confirming the imaging position by the imaging device 3.

なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, modifications of optional components of the embodiment or omission of optional components of the embodiment is possible.

1 ロボットアーム
2 ロボットハンド
3 撮影装置
4 取付け部
5 ロボットコントローラ
6 発光器
7 制御部
71 判定部
72 出力部
DESCRIPTION OF SYMBOLS 1 robot arm 2 robot hand 3 imaging device 4 attaching part 5 robot controller 6 light emitter 7 control part 71 determination part 72 output part

Claims (6)

ロボットアームの移動に伴って移動する撮影装置の視野範囲内に光を発光可能な発光器と、
前記発光器による光の発光を制御する制御部と
を備えたポインタ装置。
A light emitter capable of emitting light within the field of view of the imaging device that moves with the movement of the robot arm;
A control unit that controls light emission by the light emitter.
前記発光器により発光される光は、前記撮影装置の視野範囲の位置を認識可能な形状である
ことを特徴とする請求項1記載のポインタ装置。
The pointer device according to claim 1, wherein the light emitted by the light emitter has a shape capable of recognizing a position of a visual field range of the imaging device.
前記発光器により発光される光は、前記撮影装置の視野範囲の位置及び角度を認識可能な形状である
ことを特徴とする請求項1記載のポインタ装置。
The pointer device according to claim 1, wherein the light emitted by the light emitter has a shape capable of recognizing a position and an angle of a visual field range of the imaging device.
前記制御部は、
前記発光器により光を発光させるか否かを判定する判定部と、
前記判定部による判定結果に基づいて、前記発光器に対して出力信号を出力する出力部とを有し、
前記発光器は、前記出力部により出力された出力信号に基づいて、光の発光を行う
ことを特徴とする請求項1から請求項3のうちの何れか1項記載のポインタ装置。
The control unit
A determination unit that determines whether to emit light by the light emitter;
And an output unit that outputs an output signal to the light emitter based on the determination result by the determination unit.
The pointer apparatus according to any one of claims 1 to 3, wherein the light emitter emits light based on an output signal output from the output unit.
前記判定部は、前記ロボットアームの動作モードがティーチングを行うモードとなった場合に、前記発光器により光を発光させる
ことを特徴とする請求項4記載のポインタ装置。
5. The pointer device according to claim 4, wherein the determination unit causes the light emitter to emit light when the operation mode of the robot arm becomes a mode for performing teaching.
前記発光器に対して発光指令を入力するための入力部を備え、
前記制御部は、前記入力部に対する入力を受付ける入力受付部を有し、
前記判定部は、前記ロボットアームの動作モードがティーチングを行うモードとなり、且つ、前記入力受付部による受付け結果から前記発光器に対する発光指令が有ったと判定した場合に、前記発光器により光を発光させる
ことを特徴とする請求項4記載のポインタ装置。
And an input unit for inputting a light emission command to the light emitter.
The control unit has an input receiving unit for receiving an input to the input unit,
The light emitting unit emits light when the determining unit determines that the operation mode of the robot arm is in a teaching mode and the light emitting command to the light emitting unit is received from the result of reception by the input receiving unit. The pointer device according to claim 4, characterized in that:
JP2017227226A 2017-11-27 2017-11-27 Pointer device Pending JP2019093529A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017227226A JP2019093529A (en) 2017-11-27 2017-11-27 Pointer device
PCT/JP2018/040813 WO2019102822A1 (en) 2017-11-27 2018-11-02 Pointer device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017227226A JP2019093529A (en) 2017-11-27 2017-11-27 Pointer device

Publications (1)

Publication Number Publication Date
JP2019093529A true JP2019093529A (en) 2019-06-20

Family

ID=66630800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017227226A Pending JP2019093529A (en) 2017-11-27 2017-11-27 Pointer device

Country Status (2)

Country Link
JP (1) JP2019093529A (en)
WO (1) WO2019102822A1 (en)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62282880A (en) * 1986-05-27 1987-12-08 株式会社東芝 Three-dimensional teaching device for robot
JP2004276151A (en) * 2003-03-13 2004-10-07 Yaskawa Electric Corp Transfer robot and teaching method for transfer robot
JP3732494B2 (en) * 2003-10-31 2006-01-05 ファナック株式会社 Simulation device
JP4508252B2 (en) * 2008-03-12 2010-07-21 株式会社デンソーウェーブ Robot teaching device
JP2010152664A (en) * 2008-12-25 2010-07-08 Nissei Corp Sensorless motor-driven robot using image
JP2012135781A (en) * 2010-12-24 2012-07-19 Kawasaki Heavy Ind Ltd Method and device for teaching laser machining robot
JP5447483B2 (en) * 2011-10-04 2014-03-19 株式会社安川電機 Robot system and method of manufacturing workpiece
JP6123307B2 (en) * 2013-01-23 2017-05-10 株式会社デンソーウェーブ Surveillance system and method for monitoring the intrusion of an object around a robot
JP2014186588A (en) * 2013-03-25 2014-10-02 Seiko Epson Corp Simulation apparatus, program, and image generating method
JP6184827B2 (en) * 2013-10-03 2017-08-23 アルパイン株式会社 Electronic device, gesture input method, and program

Also Published As

Publication number Publication date
WO2019102822A1 (en) 2019-05-31

Similar Documents

Publication Publication Date Title
US10786906B2 (en) Robot system
JP6966582B2 (en) Systems and methods for automatic hand-eye calibration of vision systems for robot motion
US10754307B2 (en) Teaching device and control information generation method
EP2993002B1 (en) Robot apparatus and method for controlling robot apparatus
JP2002172575A (en) Teaching device
JP2016185572A (en) Robot, robot control device, and robot system
US9001202B2 (en) Component mounting apparatus and component detection method
JP2014180720A (en) Robot system and calibration method
JP2018043307A (en) Robot system provided with teaching operation panel communicating with robot control part
JP2008254150A (en) Teaching method and teaching device of robot
WO2020252632A1 (en) Coordinate system calibration method, device, and computer readable medium
US11312029B2 (en) Three-dimensional measuring apparatus, robot, and robot system
JPWO2018043525A1 (en) Robot system, robot system control apparatus, and robot system control method
JP7395877B2 (en) Robot system and control method
JP2021062463A (en) Robot system
JP2019063955A (en) Robot system, operation control method and operation control program
JP2017100202A (en) Robot system, control device, control method, and program
US20110128553A1 (en) Optical-type position detecting device, hand apparatus, and touch panel
JP2022136216A (en) Reflection target
WO2012023250A1 (en) Component-mounting device and component-detection method
KR102658278B1 (en) Mobile robot and method of aligning robot arm thereof
WO2019102822A1 (en) Pointer device
RU2685831C1 (en) Manipulator control method
JP2006297559A (en) Calibration system and robot's calibration method
JP2018138318A (en) Electronic equipment manufacturing device and electronic equipment manufacturing method