JP2019093529A - Pointer device - Google Patents
Pointer device Download PDFInfo
- Publication number
- JP2019093529A JP2019093529A JP2017227226A JP2017227226A JP2019093529A JP 2019093529 A JP2019093529 A JP 2019093529A JP 2017227226 A JP2017227226 A JP 2017227226A JP 2017227226 A JP2017227226 A JP 2017227226A JP 2019093529 A JP2019093529 A JP 2019093529A
- Authority
- JP
- Japan
- Prior art keywords
- light
- light emitter
- unit
- robot arm
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
Description
この発明は、撮影装置が搭載されたロボットアームの撮影位置をティーチングする際に用いられるポインタ装置に関する。 The present invention relates to a pointer device used when teaching a shooting position of a robot arm on which a shooting device is mounted.
従来から、ロボットアームの先端に画像処理用の撮影装置が設置された構成が実用されている(例えば特許文献1,2参照)。この構成により、トレイ等でワークの位置を限定せずに、撮影装置による画像処理結果に基づいてワークのピックアップ等を行うことができる。 Conventionally, a configuration in which an imaging device for image processing is installed at the tip of a robot arm has been put to practical use (see, for example, Patent Documents 1 and 2). With this configuration, the work can be picked up based on the image processing result by the imaging device without limiting the position of the work by a tray or the like.
しかしながら、このような撮影装置を用いる場合、一般的に、ユーザは、事前準備として、撮影位置(撮影装置による撮影で得られる画像の中心位置、角度及び範囲等が所望の状態になるようなロボットアームの位置及び姿勢)のティーチングを行う必要がある。撮影位置のティーチングでは、まず、ユーザは、ロボットアームをティーチングペンダント又はダイレクトティーチング等によって操作し、ロボットアームの先端に設置された撮影装置が対象となるエリアの上方に位置するように位置合わせを行う。そして、ユーザは、撮影装置による撮影を実行する。そして、ユーザは、撮影装置による撮影で得られた画像からワーク等の目印の画像上での位置、回転角度及び撮影範囲と実際に置いてあるワーク等の目印の位置及び回転角度とを確認すること等で、撮影位置が適切であるかを判定する。つまり、前述した撮影のためのロボットアームの位置及び姿勢が適切であるかを判定する。そして、ユーザは、撮影位置が不適切であると判定した場合には上記動作を繰り返し、適切であると判定した場合にはその撮影位置を教示位置としてロボットアームに反映させる。 However, when using such an imaging device, in general, as a preparation, the user is required to set a position where the imaging position (a center position, an angle, a range, etc. of an image obtained by imaging with the imaging device It is necessary to teach the position and attitude of the arm). In teaching of the imaging position, first, the user operates the robot arm by teaching pendant or direct teaching, etc., and performs alignment so that the imaging device installed at the tip of the robot arm is positioned above the target area . Then, the user performs shooting by the shooting device. Then, the user confirms the position on the image of the mark such as the work, the rotation angle and the photographing range, and the position and the rotation angle of the mark such as the work actually placed from the image obtained by the photographing by the photographing device. Therefore, it is determined whether the shooting position is appropriate. That is, it is determined whether the position and posture of the robot arm for the above-described photographing are appropriate. When the user determines that the imaging position is inappropriate, the user repeats the above operation. When the user determines that the imaging position is appropriate, the user reflects the imaging position on the robot arm as a teaching position.
このように、従来構成では、撮影装置が搭載されたロボットアームの撮影位置のティーチングを行う際に、撮影装置の位置合わせを行った後、撮影装置による撮影を行って画像を確認する必要があり、作業が煩雑であるという課題があった。つまり、撮影位置を確認する目的であるにもかかわらず、撮影装置による撮影を行って画像を確認するという付加的な作業が必要であるという課題があった。一方、撮影装置による撮影で得られる画像はロボットアームの動作を決定する重要な情報となるため、撮影位置のティーチングを的確に行うための利便性の向上が望まれている。 As described above, in the conventional configuration, when teaching the photographing position of the robot arm on which the photographing device is mounted, after the positioning of the photographing device is performed, it is necessary to perform photographing by the photographing device to check the image And the task was complicated. That is, despite the purpose of confirming the photographing position, there is a problem that an additional operation of photographing with the photographing device and confirming the image is required. On the other hand, since an image obtained by photographing with the photographing device is important information for determining the operation of the robot arm, improvement of convenience for performing teaching at the photographing position is desired.
この発明は、上記のような課題を解決するためになされたもので、撮影装置による撮影位置の確認を目的とした撮影を行うことなく、撮影位置のティーチングを可能とするポインタ装置を提供することを目的としている。 The present invention has been made to solve the above-described problems, and provides a pointer device that enables teaching of a photographing position without performing photographing for the purpose of confirming the photographing position by the photographing device. It is an object.
この発明に係るポインタ装置は、ロボットアームの移動に伴って移動する撮影装置の視野範囲内に光を発光可能な発光器と、発光器による光の発光を制御する制御部とを備えたことを特徴とする。 The pointer device according to the present invention includes a light emitter capable of emitting light within the field of view range of the imaging device moving with the movement of the robot arm, and a control unit for controlling light emission by the light emitter. It features.
この発明によれば、上記のように構成したので、撮影装置による撮影位置の確認を目的とした撮影を行うことなく、撮影位置のティーチングが可能となる。 According to the present invention, as configured as described above, teaching of the imaging position can be performed without performing imaging for the purpose of confirming the imaging position by the imaging device.
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1はこの発明の実施の形態1に係るポインタ装置の構成例を示す斜視図である。図1では、ポインタ装置の他に、ロボットアーム1、ロボットハンド(エンドエフェクタ)2、撮影装置3、取付け部4及びロボットコントローラ5も図示している。
ポインタ装置は、撮影装置3が搭載されたロボットアーム1の撮影位置をティーチングする際に用いられる装置である。図1では、ロボットアーム1の先端に取付け部4を介して接続されるロボットハンド2が示され、撮影装置3は取付け部4に取付けられている。また、撮影装置3は、ロボットアーム1の移動に伴って移動し、ロボットアーム1による作業先を撮影可能であればよく、例えば、画像処理用の撮影装置、又は、遠隔地から確認を行うためのテレビカメラのような撮影装置等でもよく、同様の効果が得られる。なお、ロボットコントローラ5は、ロボットアーム1の動作を制御する。
ポインタ装置は、図1,2に示すように、発光器6及び制御部7を備えている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1
FIG. 1 is a perspective view showing a configuration example of a pointer device according to Embodiment 1 of the present invention. In FIG. 1, in addition to the pointer device, a robot arm 1, a robot hand (end effector) 2, an
The pointer device is a device used when teaching the shooting position of the robot arm 1 on which the
The pointer device comprises a
発光器6は、撮影装置3の視野範囲内に光を発光可能である。この発光器6は、撮影装置3に対して相対的に位置変化がない箇所に取付けられ、図1ではロボットハンド2に取付けられている。
発光器6としては、例えば、ユーザが撮影装置3の視野範囲の位置を認識可能な形状(例えば点又は丸等)の光を発光する発光器を用いることができる。この場合、発光器6により発光される光の位置と撮影装置3の視野範囲の位置との関係は事前に設定される。
The
As the
また、発光器6として、例えば、ユーザが撮影装置3の視野範囲の位置及び角度を認識可能な形状(例えば十字形状又は四角形状等)の光を発光する発光器を用いることができる。この場合、発光器6により発光される光の位置及び角度と撮影装置3の視野範囲の位置及び角度との関係は事前に設定される。
なお、発光器6により発光される光が四角形状である場合、ユーザに対し、撮影装置3の視野範囲の位置及び角度に加え、範囲も認識可能とさせることができる。
Further, as the
When the light emitted by the
制御部7は、発光器6による光の発光を制御する。この制御部7は、図2に示すように、判定部71及び出力部72を有している。なお、制御部7は、システムLSI等の処理回路、又はメモリ等に記憶されたプログラムを実行するCPU等により実現される。なお、制御部7は、独立した構成とされてもよいし、また、ロボットコントローラ5に内蔵されてもよい。
The control unit 7 controls the emission of light by the
判定部71は、発光器6により光を発光させるか否かを判定する。
出力部72は、判定部71による判定結果に基づいて、発光器6に対して出力信号を出力する。そして、発光器6は、出力部72により出力された出力信号に基づいて、光の発光を行う。
The
The
例えば、判定部71は、ロボットアーム1の動作モードがティーチングを行うモード(ティーチングモード)となった場合に、発光器6により光を発光させるよう設定されてもよい。
また、例えば、判定部71は、ロボットアーム1の動作モードがティーチングモードとなり且つ発光指令が有った場合に、発光器6により光を発光させるよう設定されてもよい。この場合、例えば、ポインタ装置には、発光器6に対して発光指令を入力するためのスイッチ等の入力部が追加され、また、制御部7には、入力部に対する入力を受付ける入力受付部が追加される。そして、判定部71は、入力受付部による受付け結果から発光器6に対する発光指令の有無を判定する。
For example, the
Also, for example, the
次に、実施の形態1に係るポインタ装置を用いた撮影位置のティーチングについて、図3を参照しながら説明する。以下では、制御部7は、ロボットアーム1の動作モードがティーチングモードとなった場合に発光器6により光を発光させるものとする。また以下では、撮影装置3の視野範囲の位置及び角度に基づきティーチングする場合を示し、発光器6により発光される光は十字形状であるとする。
Next, teaching of the photographing position using the pointer device according to the first embodiment will be described with reference to FIG. In the following, the control unit 7 causes the
まず、ユーザ操作によりロボットアーム1の動作モードがティーチングモードとされると、制御部7は、発光器6を消光状態から発光状態へと切替える。そして、発光器6は図3に示すように十字形状の光61を発光する。図3では、発光器6により発光される十字形状の光61の中心位置が、撮影装置3の視野範囲31の中心位置に対して一定量だけオフセットされている。また図3では、光61の位置及び角度と視野範囲31の位置及び角度との関係を示すため視野範囲31が示されているが、実際には、この視野範囲31は見えない。
First, when the operation mode of the robot arm 1 is set to the teaching mode by the user operation, the control unit 7 switches the
次いで、ユーザは、ロボットアーム1をティーチングペンダント又はダイレクトティーチング等によって操作し、撮影装置3が対象となるエリアの上方に位置するように位置合わせを行う。
そして、ユーザは、発光器6により発光されている光61の位置及び角度から撮影装置3の視野範囲31の位置及び角度を認識し、当該視野範囲31の位置及び角度が適切であるかを判定する。そして、ユーザは、視野範囲31が不適切であると判定した場合には上記動作を繰り返し、視野範囲31が適切であると判定した場合にはその撮影位置を教示位置としてロボットアーム1に反映させる。
Next, the user operates the robot arm 1 by means of a teaching pendant, direct teaching, or the like, and performs alignment so that the
Then, the user recognizes the position and angle of the
ここで、実施の形態1では、ユーザが、発光器6により発光された光の位置(及び角度)から、撮影装置3の視野範囲の位置(及び角度)を認識可能となるようにしている。これにより、ユーザは、撮影装置3による撮影を行うことなく、撮影位置を確認できる。よって、ユーザは、撮影位置のティーチングを行う際に、従来構成のように画像による確認を行う必要が無くなり、撮影位置のティーチングを容易に実施可能となる。
Here, in the first embodiment, the user can recognize the position (and angle) of the field of view of the
なお上記では、発光器6が単一である場合を示したが、これに限らず、発光器6を複数用いてもよい。例えば、点形状の光を発光する複数の発光器6を用い、それぞれの光の位置を撮影装置3の視野範囲の角の位置に合わせることで、ユーザに対して、視野範囲の位置、角度及び範囲を認識可能とさせることができる。
In addition, although the case where the
なお図1では、ロボットアーム1の先端に取付け部4を介してロボットハンド2が接続された場合を示したが、このロボットハンド2は必須の構成ではない。例えば、実施の形態1に係るポインタ装置は、画像を用いて検査を行うロボットアーム1にも適用可能であるが、この場合にはロボットハンド2は無くてもよい。
Although FIG. 1 shows the case where the
以上のように、この実施の形態1によれば、ロボットアーム1の移動に伴って移動する撮影装置3の視野範囲内に光を発光可能な発光器6と、発光器6による光の発光を制御する制御部7とを備えたので、撮影装置3による撮影位置の確認を目的とした撮影を行うことなく、撮影位置のティーチングが可能となる。
As described above, according to the first embodiment, the
なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, modifications of optional components of the embodiment or omission of optional components of the embodiment is possible.
1 ロボットアーム
2 ロボットハンド
3 撮影装置
4 取付け部
5 ロボットコントローラ
6 発光器
7 制御部
71 判定部
72 出力部
DESCRIPTION OF SYMBOLS 1
Claims (6)
前記発光器による光の発光を制御する制御部と
を備えたポインタ装置。 A light emitter capable of emitting light within the field of view of the imaging device that moves with the movement of the robot arm;
A control unit that controls light emission by the light emitter.
ことを特徴とする請求項1記載のポインタ装置。 The pointer device according to claim 1, wherein the light emitted by the light emitter has a shape capable of recognizing a position of a visual field range of the imaging device.
ことを特徴とする請求項1記載のポインタ装置。 The pointer device according to claim 1, wherein the light emitted by the light emitter has a shape capable of recognizing a position and an angle of a visual field range of the imaging device.
前記発光器により光を発光させるか否かを判定する判定部と、
前記判定部による判定結果に基づいて、前記発光器に対して出力信号を出力する出力部とを有し、
前記発光器は、前記出力部により出力された出力信号に基づいて、光の発光を行う
ことを特徴とする請求項1から請求項3のうちの何れか1項記載のポインタ装置。 The control unit
A determination unit that determines whether to emit light by the light emitter;
And an output unit that outputs an output signal to the light emitter based on the determination result by the determination unit.
The pointer apparatus according to any one of claims 1 to 3, wherein the light emitter emits light based on an output signal output from the output unit.
ことを特徴とする請求項4記載のポインタ装置。 5. The pointer device according to claim 4, wherein the determination unit causes the light emitter to emit light when the operation mode of the robot arm becomes a mode for performing teaching.
前記制御部は、前記入力部に対する入力を受付ける入力受付部を有し、
前記判定部は、前記ロボットアームの動作モードがティーチングを行うモードとなり、且つ、前記入力受付部による受付け結果から前記発光器に対する発光指令が有ったと判定した場合に、前記発光器により光を発光させる
ことを特徴とする請求項4記載のポインタ装置。 And an input unit for inputting a light emission command to the light emitter.
The control unit has an input receiving unit for receiving an input to the input unit,
The light emitting unit emits light when the determining unit determines that the operation mode of the robot arm is in a teaching mode and the light emitting command to the light emitting unit is received from the result of reception by the input receiving unit. The pointer device according to claim 4, characterized in that:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017227226A JP2019093529A (en) | 2017-11-27 | 2017-11-27 | Pointer device |
PCT/JP2018/040813 WO2019102822A1 (en) | 2017-11-27 | 2018-11-02 | Pointer device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017227226A JP2019093529A (en) | 2017-11-27 | 2017-11-27 | Pointer device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019093529A true JP2019093529A (en) | 2019-06-20 |
Family
ID=66630800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017227226A Pending JP2019093529A (en) | 2017-11-27 | 2017-11-27 | Pointer device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2019093529A (en) |
WO (1) | WO2019102822A1 (en) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62282880A (en) * | 1986-05-27 | 1987-12-08 | 株式会社東芝 | Three-dimensional teaching device for robot |
JP2004276151A (en) * | 2003-03-13 | 2004-10-07 | Yaskawa Electric Corp | Transfer robot and teaching method for transfer robot |
JP3732494B2 (en) * | 2003-10-31 | 2006-01-05 | ファナック株式会社 | Simulation device |
JP4508252B2 (en) * | 2008-03-12 | 2010-07-21 | 株式会社デンソーウェーブ | Robot teaching device |
JP2010152664A (en) * | 2008-12-25 | 2010-07-08 | Nissei Corp | Sensorless motor-driven robot using image |
JP2012135781A (en) * | 2010-12-24 | 2012-07-19 | Kawasaki Heavy Ind Ltd | Method and device for teaching laser machining robot |
JP5447483B2 (en) * | 2011-10-04 | 2014-03-19 | 株式会社安川電機 | Robot system and method of manufacturing workpiece |
JP6123307B2 (en) * | 2013-01-23 | 2017-05-10 | 株式会社デンソーウェーブ | Surveillance system and method for monitoring the intrusion of an object around a robot |
JP2014186588A (en) * | 2013-03-25 | 2014-10-02 | Seiko Epson Corp | Simulation apparatus, program, and image generating method |
JP6184827B2 (en) * | 2013-10-03 | 2017-08-23 | アルパイン株式会社 | Electronic device, gesture input method, and program |
-
2017
- 2017-11-27 JP JP2017227226A patent/JP2019093529A/en active Pending
-
2018
- 2018-11-02 WO PCT/JP2018/040813 patent/WO2019102822A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2019102822A1 (en) | 2019-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10786906B2 (en) | Robot system | |
JP6966582B2 (en) | Systems and methods for automatic hand-eye calibration of vision systems for robot motion | |
US10754307B2 (en) | Teaching device and control information generation method | |
EP2993002B1 (en) | Robot apparatus and method for controlling robot apparatus | |
JP2002172575A (en) | Teaching device | |
JP2016185572A (en) | Robot, robot control device, and robot system | |
US9001202B2 (en) | Component mounting apparatus and component detection method | |
JP2014180720A (en) | Robot system and calibration method | |
JP2018043307A (en) | Robot system provided with teaching operation panel communicating with robot control part | |
JP2008254150A (en) | Teaching method and teaching device of robot | |
WO2020252632A1 (en) | Coordinate system calibration method, device, and computer readable medium | |
US11312029B2 (en) | Three-dimensional measuring apparatus, robot, and robot system | |
JPWO2018043525A1 (en) | Robot system, robot system control apparatus, and robot system control method | |
JP7395877B2 (en) | Robot system and control method | |
JP2021062463A (en) | Robot system | |
JP2019063955A (en) | Robot system, operation control method and operation control program | |
JP2017100202A (en) | Robot system, control device, control method, and program | |
US20110128553A1 (en) | Optical-type position detecting device, hand apparatus, and touch panel | |
JP2022136216A (en) | Reflection target | |
WO2012023250A1 (en) | Component-mounting device and component-detection method | |
KR102658278B1 (en) | Mobile robot and method of aligning robot arm thereof | |
WO2019102822A1 (en) | Pointer device | |
RU2685831C1 (en) | Manipulator control method | |
JP2006297559A (en) | Calibration system and robot's calibration method | |
JP2018138318A (en) | Electronic equipment manufacturing device and electronic equipment manufacturing method |