JPH0421105A - Stereoscopic teaching device for manipulator - Google Patents

Stereoscopic teaching device for manipulator

Info

Publication number
JPH0421105A
JPH0421105A JP12411290A JP12411290A JPH0421105A JP H0421105 A JPH0421105 A JP H0421105A JP 12411290 A JP12411290 A JP 12411290A JP 12411290 A JP12411290 A JP 12411290A JP H0421105 A JPH0421105 A JP H0421105A
Authority
JP
Japan
Prior art keywords
stereoscopic
manipulator
teaching
image
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP12411290A
Other languages
Japanese (ja)
Inventor
Taro Iwamoto
太郎 岩本
Hiroshi Yamamoto
広志 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP12411290A priority Critical patent/JPH0421105A/en
Publication of JPH0421105A publication Critical patent/JPH0421105A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To attain teaching within a short period by means of a visual system by transmitting output information from a spatial position sensor to a stereoscopic animation forming computer and a manipulator control device. CONSTITUTION:Television cameras 1, 2 are arranged approximately in parallel and a stereoscopic image is displayed on a stereoscopic monitor 4 through a stereoscopic controller 3. An observer puts on electronic shutter spectacles 5 to observe the stereoscopic image. The controller 3 synthesizes a stereoscopic animation formed by a rapid image forming device 6 with the image photographed by the cameras 1, 2 and displays the synthesized image on the monitor 4. When the observer moves a magnetic detecting coil 8, the position and direction of a stereoscopic pointer displayed on the monitor 4 can be optionally changed and a manipulator 14 is driven along a track set up based upon the information through a computer 12 and the manipulator controller 13. Consequently, the moving track of the manipulator can be intuitively and rapidly teached even in an unknown environment.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はマニピュレータの教示装置に係り、特に、視覚
を用いた教示装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Field of Application] The present invention relates to a teaching device for a manipulator, and particularly to a teaching device using vision.

〔従来の技術〕[Conventional technology]

ロボットに作業を行わせるには作業対象物の位置や腕の
先端の運動軌跡を何らかの方法で教示することが必要で
ある。従来、このティーチング作業は実際にロボットを
インチング操縦により目標点に誘導し、その位置での各
関節の角度あるいは位置を覚えるという方法をとるのが
一般的で、産業用ロボットに広く用いられている。
In order to make a robot perform a task, it is necessary to teach the position of the work object and the movement trajectory of the tip of the arm in some way. Traditionally, this teaching process has been widely used in industrial robots by actually guiding the robot to a target point using inching maneuvers and memorizing the angles or positions of each joint at that position. .

ロボットを用いて、直接、教示する上記の方法ではロボ
ットが生産活動を行っている間は教示が行えず、また教
示を行っている間は生産活動を停止しなければならない
ため、生産の能率が低下する。このため、ロボットを用
いず教示を行うオフラインティーチングが行われる。こ
の場合には計算機の中に作業対象物やロボットのモデル
を持ち、二数をCRT画面上に表示して教示を行う。こ
のようなオフラインティーチングは日本ロボット学会誌
第3巻2号の第59頁から第73頁において論じられて
いる。しかし、この場合には計算機の中のモデルとロボ
ットの位置関係と、実際の作業対象物とロボットの位置
関係に微妙な差があり、作業実行前に位置誤差を修正す
るための調整を行う必要がある。
In the above method of using a robot to teach directly, the robot cannot teach while it is performing production activities, and production must be stopped while the robot is teaching, which reduces production efficiency. descend. For this reason, offline teaching is performed in which teaching is performed without using a robot. In this case, a model of the object to be worked on or a robot is held in the computer, and the two numbers are displayed on the CRT screen for teaching. Such offline teaching is discussed in the Journal of the Robotics Society of Japan, Vol. 3, No. 2, pages 59 to 73. However, in this case, there is a slight difference between the positional relationship between the model in the computer and the robot and the actual positional relationship between the workpiece and the robot, and adjustments must be made to correct the positional error before performing the work. There is.

一方、特殊な環境の作業を遠隔操作で行うために用いる
マスタ・スレーブマニピュレータは人間が操縦して動か
すので、教示は必要なかったが、最近、このようなマニ
ピュレータでは操縦の負担が大きいため、これに計算機
制御を導入して知能化し、自律的に作業を行わせる知能
型マニピュレータが開発されている。このようなものの
−例が、計測自動制御学会論文集、第20巻第1号、第
78頁から第85頁に論じられている。このようなマニ
ピュレータでは、一般に、作業場所には人が立入ること
ができない場合が多く、マニピュレータを用いて、直接
、教示することは困難である。
On the other hand, master/slave manipulators, which are used to perform tasks in special environments by remote control, are operated by humans and do not require any instruction. Intelligent manipulators have been developed that use computer control to make them intelligent and perform tasks autonomously. Examples of such are discussed in Proceedings of the Society of Instrument and Control Engineers, Vol. 20, No. 1, pp. 78-85. Generally, with such a manipulator, people are not allowed to enter the work place in many cases, and it is difficult to teach directly using the manipulator.

また、マニピュレータは未知の環境に持込まれ、その場
で作業を行うことが要求される。このため、作業場所の
情景を写し比すテレビ映像を見ながら、その場で環境や
作業対象物のモデルを作成し、自律作業を行わせるため
のマニピュレータの動作を教示することが必要になる。
Additionally, the manipulator is brought into an unknown environment and required to perform work on the spot. For this reason, it is necessary to create a model of the environment and work object on the spot while watching a TV video showing the scene of the work place, and to teach the operation of the manipulator to perform autonomous work.

この場合、平面のテレビ画面を用いた場合は、奥行き情
報が無いため、三次元の位置を同定することは容易では
無い。従来の方法は、すでに計算機の中に保有している
モデルを用いて、これを実際の環境と合わせる調整を行
う方法は示されているが、この方法は未知の環境で使わ
れる場合は適用できない。また、レーザレンジファイン
ダを用いる方法や、レーザスポットの位置をテレビカメ
ラで見る方法がある。
In this case, when a flat television screen is used, it is not easy to identify the three-dimensional position because there is no depth information. Conventional methods have shown how to use a model already stored in a computer and adjust it to match the actual environment, but this method cannot be applied when used in an unknown environment. . There is also a method of using a laser range finder and a method of observing the position of the laser spot with a television camera.

一方、−台のモニタで奥行感覚が得られる立体視システ
ムが開発されている。これは、第2図に示すように、映
像信号が同期した二台のテレビカメラ1,2を用い、こ
の映像信号をフレーム毎、または、フィールド毎に交互
にはめ込んだ合成映像を立体視コントローラ3により作
成して一台のモニタ4に表示すると、モニタ4には二台
のテレビカメラの映像が交互に映るが、これと同期して
電子シャッタ眼鏡5の電子シャッタを交互に切換えれば
、観察者の眼には二台のテレビカメラ1゜2の映像が右
眼と左眼に分離して見える。従って、二台のテレビカメ
ラ1,2を並列に配置すると、視差のある映像を観察す
ることができ、視差に基づく立体感覚を得ることができ
る。また、コンピュータグラフィクス装W6によりアニ
メーション画像をリアルタイムで作成し、ビデオフレー
ムメモリを用いてテレビカメラでとらえた実画像とコン
ピュータで作成したアニメーションを合成してモニタに
立体視表示することもできる。立体視技術についてはS
、1.D、の会議録、第19巻2号(1978)の第1
頁から第5頁(Proceeding ofthe S
、 I 、D、、 Vof219/ 2 5econd
 Quarter(1978)pp、1−5に記載され
ている。この立体視システムをマニピュレータの教示に
用いたものは無かった。
On the other hand, a stereoscopic vision system that can provide a sense of depth using two monitors has been developed. As shown in FIG. 2, this uses two television cameras 1 and 2 whose video signals are synchronized, and a stereoscopic controller 33 generates a composite image in which the video signals are alternately inserted frame by frame or field by field. When created and displayed on a single monitor 4, images from the two television cameras are alternately displayed on the monitor 4, but if the electronic shutters of the electronic shutter glasses 5 are alternately switched in synchronization with this, the observation To the human eye, the images from the two television cameras 1°2 appear to be separated into the right and left eyes. Therefore, when the two television cameras 1 and 2 are arranged in parallel, images with parallax can be observed, and a stereoscopic sensation based on the parallax can be obtained. It is also possible to create an animation image in real time using the computer graphics device W6, and use the video frame memory to synthesize the real image captured by the television camera and the animation created by the computer, and display it stereoscopically on the monitor. For stereoscopic technology, see S.
, 1. D. Conference Minutes, Volume 19, No. 2 (1978), No. 1
Proceedings of the S
,I,D,,Vof219/ 2 5econd
Quarter (1978) pp. 1-5. No one has used this stereoscopic vision system to teach a manipulator.

三次元立体位置を非接触で検出するセンサとして、人工
磁場と検出コイルを組合せたものが開発されている。こ
れは第3図に示すように、人工磁場9を発生させるソー
ス7と磁気を検出するセンサ8とソースのドライズ回路
10とセンサの検出回路11と、コンピュータ12で構
成され、ソースを励磁することによってセンサが磁気を
検出するもので、磁力の強さと方向によりセンサの空間
位置を計算で求めることができる。
A sensor that combines an artificial magnetic field and a detection coil has been developed as a sensor that detects a three-dimensional three-dimensional position in a non-contact manner. As shown in FIG. 3, this system is composed of a source 7 that generates an artificial magnetic field 9, a sensor 8 that detects magnetism, a source drying circuit 10, a sensor detection circuit 11, and a computer 12, which excites the source. The sensor detects magnetism, and the spatial position of the sensor can be calculated based on the strength and direction of the magnetic force.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記従来技術のうち、ロボットを用いて、直接、教示を
行う方法は、ロボットの動作領域に人が立入ることにな
るので、安全上望ましくない。一方、平面のテレビ映像
を用いて教示を行う方法では、画像が平面であるため、
立体位置を検出することは困難である。
Among the above-mentioned conventional techniques, the method of directly teaching the robot using a robot is undesirable from a safety standpoint because a person enters the operating area of the robot. On the other hand, in the method of teaching using flat TV images, since the images are flat,
Detecting stereoposition is difficult.

レーザレンジファインダを用いる方法や、レーザスポッ
トの位置をテレビカメラで見る方法の場合は環境の全体
をスキャンする必要があり、データ量が増えて処理時間
がかかる他、作業の対象物を背景と分離して特定するこ
とが困難である。
In the case of using a laser range finder or observing the position of the laser spot with a TV camera, it is necessary to scan the entire environment, which increases the amount of data and takes processing time, and it is necessary to separate the work target from the background. It is difficult to identify the

マニピュレータの作業では教示の手続きが複雑であった
り、処理時間が長くかかる場合は自律化する利点が損わ
れ、マスタスレーブ方式で、逐一作業を行った方が能率
が良いことになる。従って、未知の環境に置かれた状態
でいかにすばやく、簡単、かつ、容易に教示が行えるか
がマニピュレータを自律化する利点が生じるか否かの分
れ目となる。
If the teaching procedure is complicated or the processing time is long in manipulator work, the advantage of autonomy will be lost, and it will be more efficient to perform the work one by one using a master-slave system. Therefore, the difference between whether or not there is an advantage in making the manipulator autonomous depends on how quickly, simply, and easily teaching can be performed in an unknown environment.

本発明は視覚システムを用いて短時間に教示が行える教
示方法を提供することにある。
An object of the present invention is to provide a teaching method that allows teaching to be performed in a short time using a visual system.

〔課題を解決するための手段〕[Means to solve the problem]

上記目的を達成するために、コンピュータグラフィクス
による立体視アニメーションと二台のテレビカメラでと
らえた立体視実画像を合成表示する視覚表示システムと
、空間位置を検出する空間位置センサと、マニピュレー
タ、及び、マニピュレータ制御システムで構成され、空
間位置センサの出力情報が立体視アニメーション作成用
コンピュータ及びマニピュレータ制御装置に伝達される
ように構成したものである。
In order to achieve the above object, a visual display system that synthesizes and displays a stereoscopic animation created by computer graphics and a stereoscopic real image captured by two television cameras, a spatial position sensor that detects a spatial position, a manipulator, and This system is composed of a manipulator control system, and is configured so that output information from a spatial position sensor is transmitted to a stereoscopic animation creation computer and a manipulator control device.

〔作用〕[Effect]

アニメーション作成用コンピュータは空間位置を表現す
るため視差をもつ二枚の空間ポインタ用映像を作成し、
これを立体視表示システムにより観察者に提示する。一
方、観察者は空間位置センサを持ち、これを動かすと、
その位置変化に対応した空間位置情報の変化を示す圧力
信号が得られる。この信号はアニメーション作画用コン
ピュータに送られる。コンピュータはこの空間位置情報
に基づき空間ポインタの立体像の位置が変化するように
アニメーションを変化させる。従って、観察者は上記の
空間位置センサを用いて空間ポインタの位置を任意に変
えることができる。また、マニピュレータ制御装置も同
じく空間位置情報を受けとり、教示点として記憶する。
The animation creation computer creates two spatial pointer images with parallax to express the spatial position.
This is presented to the viewer using a stereoscopic display system. On the other hand, the observer holds a spatial position sensor, and when he moves it,
A pressure signal indicating a change in spatial position information corresponding to the position change is obtained. This signal is sent to the animation drawing computer. Based on this spatial position information, the computer changes the animation so that the position of the three-dimensional image of the spatial pointer changes. Therefore, the observer can arbitrarily change the position of the spatial pointer using the above spatial position sensor. Further, the manipulator control device similarly receives spatial position information and stores it as a teaching point.

従って、I!察者は空間位置センサを用いてマニピュレ
ータの教示を行うことができる。キャリブレーション等
によって立体像の上の空間位置と実際の作業空間での空
間位置が正しく対応するように各要素が調整されていれ
ば、観察者は立体視映像上の対象物を見ながら立体ポイ
ンタを対象物の特徴を表す点に一致させ、そのときの空
間位置データを用いて対象物のモデルをマニピュレータ
制御装置に教示することができ、また、作業場所に至る
空間経路を空間ポインタを用いて教示することもできる
Therefore, I! The observer can teach the manipulator using the spatial position sensor. If each element is adjusted through calibration etc. so that the spatial position on the 3D image corresponds correctly to the spatial position in the actual work space, the observer can move the 3D pointer while looking at the object on the 3D image. can be matched with points representing the characteristics of the object, and the spatial position data at that time can be used to teach a model of the object to the manipulator control device, and the spatial path to the work place can be determined using the spatial pointer. It can also be taught.

〔実施例〕〔Example〕

以下、本発明の一実施例の構成と動作の説明を第1図に
示す。作業場所には二台のテレビカメラ1.2が略平行
に配置されており、立体コントローラ3を介して立体モ
ニタ4に立体視映像が表示される。観察者は電子シャッ
タ眼[5を装着してこの立体像を観察する。立体コント
ローラ3には高速作画装置6が結合されており、この高
速作画装置6が作成した立体視用アニメーションは立体
視コントローラ3の内部でテレビカメラ1,2で撮影し
た映像と合成され、立体モニタ4に表示される。さらに
、高速作画装置6には磁気センサを用いた空間位置測定
システムが接続されている。
The configuration and operation of an embodiment of the present invention will be explained below with reference to FIG. Two television cameras 1.2 are arranged substantially parallel to each other in the work place, and stereoscopic images are displayed on a stereoscopic monitor 4 via a stereoscopic controller 3. An observer wears electronic shutter eyes [5 to observe this stereoscopic image. A high-speed drawing device 6 is connected to the stereoscopic controller 3, and the stereoscopic animation created by this high-speed drawing device 6 is synthesized with images shot by the television cameras 1 and 2 inside the stereoscopic controller 3, and then displayed on the stereoscopic monitor. 4 will be displayed. Furthermore, a spatial position measurement system using a magnetic sensor is connected to the high-speed drawing device 6.

この位置測定システムは、第3図に示すように、人工磁
場をつくるソース7と磁気検出コイル8とソースインタ
フェース装置10と磁気検出コイルインタフェース装置
11と計算機12で構成され、計算機12は磁気検出コ
イル8の信号より磁気検出コイルの立体位置と方向を求
め、第1図に示すようにその情報を高速作画装置6に送
る。高速作画装置はこの立体位置情報を基に、後述の立
体ポインタの立体視映像を作画し、立体視コントローラ
3を介して立体モニタ4に表示する。I!察者が磁気検
出コイル8を持ち、これを動かすと、その位置の変化に
応じて立体モニタ4に表示されている立体ポインタの立
体像の位置が変化する。従って、磁気検出コイル4を用
いて立体ポインタの位置と方向を任意に変えることがで
きる。また、この磁気検出コイル4の位置情報、または
、立体ポインタの空間位置情報は計算機12.または、
高速作画装置6よりマニピュレータコントローラ13に
送られ、マニピュレータ13はこの情報を基に設定され
た軌道に沿って動かされる。
As shown in FIG. 3, this position measurement system is composed of a source 7 that creates an artificial magnetic field, a magnetic detection coil 8, a source interface device 10, a magnetic detection coil interface device 11, and a computer 12. The three-dimensional position and direction of the magnetic detection coil are obtained from the signal 8, and the information is sent to the high-speed drawing device 6 as shown in FIG. Based on this stereoscopic position information, the high-speed drawing device draws a stereoscopic image of a stereoscopic pointer, which will be described later, and displays it on the stereoscopic monitor 4 via the stereoscopic controller 3. I! When the observer holds the magnetic detection coil 8 and moves it, the position of the stereoscopic image of the stereoscopic pointer displayed on the stereoscopic monitor 4 changes in accordance with the change in its position. Therefore, the position and direction of the three-dimensional pointer can be changed arbitrarily using the magnetic detection coil 4. Further, the position information of the magnetic detection coil 4 or the spatial position information of the three-dimensional pointer is transmitted to the computer 12. or
The information is sent from the high-speed drawing device 6 to the manipulator controller 13, and the manipulator 13 is moved along the trajectory set based on this information.

第4図は立体モニタ4の表示例を示す。画面上には作業
の対象物15と、作業には、直接、関係のない背景物体
16が映っている。ただし、本図では立体視の表現が不
可能なので1通常の平面像として描かれているが、立体
モニタ上の図は全て立体視表現されているものとする。
FIG. 4 shows an example of the display on the stereoscopic monitor 4. On the screen, a work object 15 and a background object 16 not directly related to the work are shown. However, since stereoscopic representation is not possible in this figure, it is drawn as a normal two-dimensional image, but it is assumed that all the figures on the stereoscopic monitor are expressed stereoscopically.

ここで、作業対象物15に取付けられているボルト17
を緩める作業をマニピュレータが自動的に行うように教
示するものと仮定する。観察者は磁気検出コイルを持ち
、立体ポインタ18を動かす。ここでは立体ポインタ1
8は傘の形をしており、その先端で空間位置を、柄の向
きで方向を表すものとする。
Here, the bolt 17 attached to the work object 15
Assume that the manipulator is taught to automatically perform the task of loosening the . The observer holds the magnetic detection coil and moves the three-dimensional pointer 18. Here, 3D pointer 1
8 is in the shape of an umbrella, and its tip represents the spatial position, and the orientation of the handle represents the direction.

am者は磁気検出コイルを把持し、立体ポインタ18を
動かして作業対象物の教示しようとする場所に立体ポイ
ンタ18の先端を合せ、高速作画装置6に付属のキーボ
ード等から教示信号を送ると、立体ポインタ18の先端
の位置に立体教示点19がマークされる。教示点の間は
直線や円弧やスプライン曲線等の接続線20で連結する
。このようにして、作業に必要な部分のみ環境モデルを
作成していく。次に、マニピュレータ14の先端の運動
軌跡を教示する。目標とするボルト17に至るまでの通
過点21を立体ポインタ18を用いて教示し、その間を
線22で結ぶ。これにより、マニピュレータの先端の運
動軌跡を立体的に教示することができる。
The operator grasps the magnetic detection coil, moves the 3D pointer 18, aligns the tip of the 3D pointer 18 with the desired location on the work object, and sends a teaching signal from the keyboard attached to the high-speed drawing device 6. A three-dimensional teaching point 19 is marked at the tip of the three-dimensional pointer 18. The teaching points are connected by a connecting line 20 such as a straight line, circular arc, or spline curve. In this way, the environment model is created only for the parts necessary for the work. Next, the motion trajectory of the tip of the manipulator 14 is taught. Passage points 21 leading to the target bolt 17 are taught using the three-dimensional pointer 18, and the points 21 are connected with lines 22. Thereby, the movement locus of the tip of the manipulator can be taught three-dimensionally.

第5図に教示の手順を示す、まず、教示しようと思う教
示点に立体ポインタを合せ、キーボードより教示を示す
キーを入力する。アニメーション作画用コンピュータは
立体ポインタの先端の位置に教示点マーク(第4図では
黒丸)を立体視表示する。作業対象物、及び、マニピュ
レータ先端の運動軌跡に対して必要な教示点を教示した
後、直線補間の場合は二点、曲線補間の場合は三点の教
示点を立体ポインタで指定し、その間を直線又は曲線で
結んで立体視表示する。教示すべき点がまだ残されてい
る間、この作業を繰返し、教示終了後、教示及び補間デ
ータをマニピュレータコントローラへ転送する。マニピ
ュレータコントローラはこの教示データを基に自律作業
を行う。全ての作業が完了するまで、この手順を繰返す
。ここで、教示データの転送はまとめて行わず、各点を
教示する度に教示データをマニピュレータコントローラ
へ転送しても良い。また、教示点を結ぶ線は教示点の教
示を行った直後に緩和曲線等で前の教示点と結んでも良
い。
The teaching procedure is shown in FIG. 5. First, the three-dimensional pointer is placed on the teaching point to be taught, and a key indicating the teaching is inputted from the keyboard. The animation drawing computer stereoscopically displays a teaching point mark (black circle in FIG. 4) at the tip of the three-dimensional pointer. After teaching the required teaching points for the workpiece and the motion trajectory of the manipulator tip, specify two teaching points for linear interpolation or three teaching points for curved interpolation with the 3D pointer, and move between them. Connect them with straight lines or curves for stereoscopic display. This operation is repeated while there are still points to be taught, and after the teaching is completed, the teaching and interpolation data are transferred to the manipulator controller. The manipulator controller performs autonomous work based on this teaching data. Repeat this step until all work is completed. Here, the teaching data may not be transferred all at once, but may be transferred to the manipulator controller each time each point is taught. Further, the line connecting the teaching points may be connected to the previous teaching point by a transition curve or the like immediately after teaching the teaching point.

第6図には他の実施例を示す。この実施例では、空間位
置を検出し、立体ポインタ18の位置を移動する手段と
して、磁気センサではなく、操縦アーム23を用いる。
FIG. 6 shows another embodiment. In this embodiment, the control arm 23 is used instead of a magnetic sensor as means for detecting the spatial position and moving the position of the three-dimensional pointer 18.

この操縦アーム23はマニピュレータ14の操縦に兼用
しても良い。操縦アームの各関節には関節角を検出する
角度センサ24が備えられており、操縦アームコントロ
ーラ25は各関節の角度を、随時、読み取ることができ
る。
This control arm 23 may also be used to control the manipulator 14. Each joint of the control arm is equipped with an angle sensor 24 that detects the joint angle, and the control arm controller 25 can read the angle of each joint at any time.

操縦アームコントローラ25は演算処理機能を備えてお
り、産業用ロボットで行われているように、操縦アーム
23を構成している各リンクの寸法と関節角からアーム
先端部の位置と姿勢を計算し、これを立体ポインタ18
の位置と姿勢を決めるデータとして高速作画袋W6、お
よび、マニピュレータコントローラ13に送る。他は第
1図に示す実施例と同様である。この場合は操縦アーム
23を立体ポインタ18とマニピュレータ14の操縦に
共用できる利点がある他、操縦アームが各関節にモータ
をもち、力を発生できるものであれば作業対象物との接
触を反力として提示できる利点がある。例えば、作業対
象物の輪郭を教示した後、その輪郭の内部を立体ポイン
タ18の侵入禁止領域とする。立体ポインタ18がこの
禁止領域に入っていないことを常に確認しておき、禁止
領域への侵入が発生したら、侵入直前の位置に戻るよう
に操縦アームの位置を制御する。従って、操縦者が操縦
アームに力を加えても反力が発生し、立体ポインタ18
はこの輪郭で囲まれた領域より内側へは侵入できない。
The control arm controller 25 is equipped with an arithmetic processing function, and calculates the position and orientation of the arm tip from the dimensions and joint angles of each link that makes up the control arm 23, as is done in industrial robots. , this is the three-dimensional pointer 18
The data is sent to the high-speed drawing bag W6 and the manipulator controller 13 as data for determining the position and orientation of the image forming apparatus. The rest is the same as the embodiment shown in FIG. In this case, there is an advantage that the control arm 23 can be used in common to control the three-dimensional pointer 18 and the manipulator 14, and if the control arm has a motor at each joint and can generate force, the contact with the work object can be caused by a reaction force. There are advantages that can be presented as For example, after teaching the contour of the workpiece, the inside of the contour is set as a prohibited area for the three-dimensional pointer 18. It is always confirmed that the three-dimensional pointer 18 does not enter this prohibited area, and when an intrusion into the prohibited area occurs, the position of the control arm is controlled so as to return to the position immediately before the intrusion. Therefore, even if the operator applies force to the control arm, a reaction force is generated and the three-dimensional pointer 18
cannot penetrate inside the area enclosed by this outline.

このため、作業教示はより容易になる。Therefore, work instruction becomes easier.

第7図は立体ポインタの表示例である。立体ポインタ2
6は矢印を立体化したもので、先端で位置を示し、矢の
方向で向きを示す。立体ポインタ27は円の中の十字線
の交点で位置を示し、円の形と十字線の方向で向きを示
す。立体ポインタ28はハンドを模式図として表したも
のである。
FIG. 7 is a display example of a three-dimensional pointer. 3D pointer 2
6 is a three-dimensional arrow, with the tip indicating the position and the direction of the arrow indicating the direction. The three-dimensional pointer 27 indicates the position by the intersection of the crosshairs in the circle, and indicates the direction by the shape of the circle and the direction of the crosshairs. The three-dimensional pointer 28 is a schematic representation of a hand.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、未知の環境でも直感的に、かつ、迅速
に計算機内に環境または作業対象物の環境モデルをつく
ることができ、かつ、マニピュレ−タの移動軌跡を教示
することができるので、マニピュレータに自律的に作業
を行わせることが可能になる。また、教示を直感的に行
えるので、教示作業による疲労を軽減することができ、
また、教示に要する時間が短いので、逐一、操縦する場
合に対し大幅に作業時間が増加することは無く、自律化
の有用性を高めることができる。
According to the present invention, it is possible to intuitively and quickly create an environment model of the environment or work object in a computer even in an unknown environment, and the movement trajectory of the manipulator can be taught. , it becomes possible to have the manipulator perform work autonomously. In addition, since teaching can be performed intuitively, fatigue caused by teaching work can be reduced.
Further, since the time required for teaching is short, the working time does not increase significantly compared to the case where the robot is operated one by one, and the usefulness of autonomy can be increased.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例を示すブロック図、第2図は
従来の立体視システムのブロック図、第3図は従来の磁
気センサを示すブロック図、第4図は本発明の立体視表
示例を示す正面図、第5図は本発明の手順を示す作業フ
ローチャート、第6図は本発明の他の実施例を示すブロ
ック図、第7図は本発明の立体ポインタの表示例を示す
説明図である。 1.2・・・テレビカメラ、3・・・立体コントローラ
、4・・・モニタ、5・・・シャッタ眼鏡、6・・・高
速作画装置、8・・・磁気センサ、12・・・計算機、
13・・・マニピュレータコントローラ、14・・・マ
ニピュレータ。 18・・・立体ポインタ、19・・・立体教示点、20
・・接続線、21・・・通過線、23・・・操縦アーム
、24・・・角センサ、25・・・操縦アームコントロ
ーラ、第 区 華 第 凶 拓 カ 31J 羊 図 箔 乙 菌
Fig. 1 is a block diagram showing an embodiment of the present invention, Fig. 2 is a block diagram of a conventional stereoscopic vision system, Fig. 3 is a block diagram showing a conventional magnetic sensor, and Fig. 4 is a block diagram of a conventional stereoscopic vision system. 5 is a work flow chart showing the procedure of the present invention; FIG. 6 is a block diagram showing another embodiment of the present invention; and FIG. 7 is a display example of the three-dimensional pointer of the present invention. It is an explanatory diagram. 1.2...TV camera, 3...3D controller, 4...Monitor, 5...Shutter glasses, 6...High speed drawing device, 8...Magnetic sensor, 12...Computer,
13... Manipulator controller, 14... Manipulator. 18... Three-dimensional pointer, 19... Three-dimensional teaching point, 20
...Connection line, 21... Passing line, 23... Control arm, 24... Angle sensor, 25... Control arm controller, 31J Sheep drawing foil Otobacterium

Claims (1)

【特許請求の範囲】[Claims] 1、マニピュレータと、マニピュレータ制御システムと
、前記マニピュレータの作業状況を映し出す立体視映像
表示システムと、コンピュータアニメーションを作成し
立体視映像に重ねて表示する高速作画システムと、三次
元位置を検出するセンサシステムを備え、センサシステ
ムの検出データに基づいて立体位置を表示する立体ポイ
ンタを前記高速作画システムで作画し、前記立体視映像
システムにより表示し、また、前記センサシステムの検
出データに基づき前記マニピュレータの運動および作業
対象物の位置や形状を教示することを特徴とするマニピ
ュレータの立体教示装置。
1. A manipulator, a manipulator control system, a stereoscopic video display system that displays the working status of the manipulator, a high-speed drawing system that creates computer animation and displays it superimposed on the stereoscopic video, and a sensor system that detects three-dimensional positions. , the high-speed drawing system draws a three-dimensional pointer that displays a three-dimensional position based on the detection data of the sensor system, the stereoscopic pointer is displayed by the stereoscopic video system, and the manipulator moves based on the detection data of the sensor system. and a three-dimensional teaching device for a manipulator, which is characterized by teaching the position and shape of a work object.
JP12411290A 1990-05-16 1990-05-16 Stereoscopic teaching device for manipulator Pending JPH0421105A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12411290A JPH0421105A (en) 1990-05-16 1990-05-16 Stereoscopic teaching device for manipulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12411290A JPH0421105A (en) 1990-05-16 1990-05-16 Stereoscopic teaching device for manipulator

Publications (1)

Publication Number Publication Date
JPH0421105A true JPH0421105A (en) 1992-01-24

Family

ID=14877221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12411290A Pending JPH0421105A (en) 1990-05-16 1990-05-16 Stereoscopic teaching device for manipulator

Country Status (1)

Country Link
JP (1) JPH0421105A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216015A (en) * 2000-01-31 2001-08-10 Iwate Prefecture Operation teaching device for robot
KR100483790B1 (en) * 2002-03-22 2005-04-20 한국과학기술연구원 Multi-degree of freedom telerobotic system for micro assembly
JP2006260271A (en) * 2005-03-17 2006-09-28 Fanuc Ltd Off-line instruction device
US7601119B2 (en) 2006-04-25 2009-10-13 Hrayr Kamig Shahinian Remote manipulator with eyeballs
JP2013111728A (en) * 2011-11-30 2013-06-10 Ihi Corp Gripping operation setting method, device and program
US9713419B2 (en) 2011-09-27 2017-07-25 California Institute Of Technology Programmable spectral source and design tool for 3D imaging using complementary bandpass filters
US9861261B2 (en) 2014-03-14 2018-01-09 Hrayr Karnig Shahinian Endoscope system and method of operation thereof
US10278568B2 (en) 2007-12-18 2019-05-07 Harish M. MANOHARA Endoscope and system and method of operation thereof
WO2020050179A1 (en) * 2018-09-03 2020-03-12 川崎重工業株式会社 Robot system
JP2020075325A (en) * 2018-11-08 2020-05-21 株式会社Ihi Tool center point setting method and setting device
WO2021137276A1 (en) * 2019-12-30 2021-07-08 公立大学法人公立諏訪東京理科大学 Drilling device, drilling method, and fixing mechanism
US11375884B2 (en) 2011-09-27 2022-07-05 California Institute Of Technology Multi-angle rear-viewing endoscope and method of operation thereof
US11529042B2 (en) 2009-11-13 2022-12-20 Hrayr Karnig Shahinian Stereo imaging miniature endoscope with single imaging and conjugated multi-bandpass filters

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216015A (en) * 2000-01-31 2001-08-10 Iwate Prefecture Operation teaching device for robot
KR100483790B1 (en) * 2002-03-22 2005-04-20 한국과학기술연구원 Multi-degree of freedom telerobotic system for micro assembly
JP2006260271A (en) * 2005-03-17 2006-09-28 Fanuc Ltd Off-line instruction device
US7601119B2 (en) 2006-04-25 2009-10-13 Hrayr Kamig Shahinian Remote manipulator with eyeballs
US10278568B2 (en) 2007-12-18 2019-05-07 Harish M. MANOHARA Endoscope and system and method of operation thereof
US11529042B2 (en) 2009-11-13 2022-12-20 Hrayr Karnig Shahinian Stereo imaging miniature endoscope with single imaging and conjugated multi-bandpass filters
US11375884B2 (en) 2011-09-27 2022-07-05 California Institute Of Technology Multi-angle rear-viewing endoscope and method of operation thereof
US9713419B2 (en) 2011-09-27 2017-07-25 California Institute Of Technology Programmable spectral source and design tool for 3D imaging using complementary bandpass filters
JP2013111728A (en) * 2011-11-30 2013-06-10 Ihi Corp Gripping operation setting method, device and program
US9861261B2 (en) 2014-03-14 2018-01-09 Hrayr Karnig Shahinian Endoscope system and method of operation thereof
JP2020037145A (en) * 2018-09-03 2020-03-12 川崎重工業株式会社 Robot system
WO2020050179A1 (en) * 2018-09-03 2020-03-12 川崎重工業株式会社 Robot system
JP2020075325A (en) * 2018-11-08 2020-05-21 株式会社Ihi Tool center point setting method and setting device
WO2021137276A1 (en) * 2019-12-30 2021-07-08 公立大学法人公立諏訪東京理科大学 Drilling device, drilling method, and fixing mechanism

Similar Documents

Publication Publication Date Title
Kim et al. Visual enhancements in pick-and-place tasks: Human operators controlling a simulated cylindrical manipulator
US7714895B2 (en) Interactive and shared augmented reality system and method having local and remote access
JP4167954B2 (en) Robot and robot moving method
Buss et al. Development of a multi-modal multi-user telepresence and teleaction system
JPH0421105A (en) Stereoscopic teaching device for manipulator
JP2017100234A (en) Teaching result display system
Drascic Stereoscopic video and augmented reality
Lawson et al. Augmented reality as a tool to aid the telerobotic exploration and characterization of remote environments
JPH06131442A (en) Three-dimensional virtual image modeling device
JP3482228B2 (en) Manipulator control system by gaze detection
Rastogi et al. Telerobotic control with stereoscopic augmented reality
Mallem et al. Computer-assisted visual perception in teleoperated robotics
JP2837393B2 (en) Object processing method and apparatus
JPS5916912B2 (en) Idohou Koukiyoujisouchi
Rezeck et al. An immersion enhancing robotic head-like device for teleoperation
Tachi et al. Tele-existence visual display for remote manipulation with a real-time sensation of presence
JPS6133878A (en) Controller for manipulator
WO2020203819A1 (en) Remote operating device
JP2533590B2 (en) Manipulator operation guidance 3D display device
Yamada et al. Construction Tele-Robotic System with Virtual Reality (CG presentation of virtual robot and task object using stereo vision system)
US20230010302A1 (en) Generation of image for robot operation
Liu et al. Visual factors affecting human operator performance with a helmet-mounted display
JPS60126985A (en) Working state display device for remote control operation
Grodski et al. Real and virtual world stereoscopic displays for teleoperation
JPH06292240A (en) Remote control aid stereoscopic display device