JPH0665472B2 - Visual device - Google Patents

Visual device

Info

Publication number
JPH0665472B2
JPH0665472B2 JP61178197A JP17819786A JPH0665472B2 JP H0665472 B2 JPH0665472 B2 JP H0665472B2 JP 61178197 A JP61178197 A JP 61178197A JP 17819786 A JP17819786 A JP 17819786A JP H0665472 B2 JPH0665472 B2 JP H0665472B2
Authority
JP
Japan
Prior art keywords
camera
visual
moving
stereoscopic
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61178197A
Other languages
Japanese (ja)
Other versions
JPS6334094A (en
Inventor
健 粕渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP61178197A priority Critical patent/JPH0665472B2/en
Publication of JPS6334094A publication Critical patent/JPS6334094A/en
Publication of JPH0665472B2 publication Critical patent/JPH0665472B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、視覚装置に関し、特に、産業用ロボットの視
覚センサとして有用である。
TECHNICAL FIELD The present invention relates to a visual device, and is particularly useful as a visual sensor for an industrial robot.

従来技術 従来、産業用ロボットに用いられる視覚装置としては、
1つのテレビカメラから得られた二次元画像を微分法や
領域法により処理したり、濃淡処理するものなどが知ら
れている。
BACKGROUND ART Conventionally, as a visual device used for an industrial robot,
It is known that a two-dimensional image obtained from one television camera is processed by a differentiation method or a region method, or a gradation process is performed.

又、1つのカメラと特殊な形状の光(例えばスリット状
の光)の投射装置とを用いていわゆる射光法により三次
元的情報を得る視覚装置が知られている。
There is also known a visual device that obtains three-dimensional information by a so-called light emitting method using one camera and a projection device of light having a special shape (for example, slit light).

更に、2つのテレビカメラを用いて、各カメラで得られ
る二次元画面上の対応点と両カメラの配置から立体視を
行う視覚装置も知られている。
Further, a visual device is known in which two television cameras are used to perform stereoscopic vision from corresponding points on a two-dimensional screen obtained by each camera and the arrangement of both cameras.

従来技術の問題点 近年の産業用ロボットの高度化に伴い、視覚装置として
も高度化が求められるようになっている。
Problems of Prior Art With the sophistication of industrial robots in recent years, sophistication has also been required as a visual device.

例えば組立ロボットの場合には、従来は、一定の場合に
置かれた一種類の部品を取り上げて目的物に取り付ける
比較的単純な作業を行うものであったから、視覚装置も
単純なもので足りていた。
For example, in the case of an assembly robot, conventionally, since a relatively simple work is performed in which a single type of part placed in a certain case is picked up and attached to an object, a simple visual system is sufficient. It was

しかし、最近では、ランダムに置かれた異種の部品の中
から特定の部品を探し出しそれを取り上げて目的物に取
り付けるといったロボットの高度化が行われており、視
覚装置としても、異種の部品群の中から特定の部品を見
つけ出すことができるような高度性が要求されるように
なってきている。
However, recently, robots have been advanced so that specific parts can be searched from randomly placed disparate parts, and they can be picked up and attached to a target object. There is a demand for a high degree of sophistication so that specific components can be found out from inside.

また、その他にも、教示された環境モデルとのマッチン
グや障害回避センシングを必要とする移動ロボットの場
合等においても、視覚装置の高度性が要求されるように
なってきている。
In addition, in the case of a mobile robot that requires matching with a taught environment model and obstacle avoidance sensing, the sophistication of a visual device is also required.

また、ラインで流されるために対象物の位置のバラツキ
が大きな場合においても対象物に対する所定の対象位置
から対象物を観察しうる検査システムに適用できるよう
な視覚装置の高度性が要求されるようになってきてい
る。
In addition, even if the position of the object varies greatly because it is flown on the line, it is required to have a sophisticated visual device that can be applied to an inspection system that can observe the object from a predetermined target position with respect to the object. Is becoming.

しかし、従来の視覚装置では、かかる高度性の要求に十
分対応できないという問題点がある。
However, there is a problem in that the conventional visual device cannot sufficiently meet such a demand for sophistication.

発明の目的 本発明の目的とするところは、1つのカメラ手段によっ
て立体視を行うことができると共に、その立体視に加え
て、異なる視覚から見たり、所望の部分を拡大したり、
隠れた部分を見る等の多面的な視覚認識を行うことがで
き、高度のロボット作業に対応することができる視覚装
置を提供することにある。
Object of the invention It is an object of the present invention that stereoscopic viewing can be performed by one camera means, and in addition to the stereoscopic viewing, it can be viewed from different eyes, or a desired portion can be enlarged.
It is an object of the present invention to provide a visual device capable of performing multifaceted visual recognition such as seeing a hidden part and capable of handling advanced robot work.

発明の構成 本発明の視覚装置は、カメラ手段、そのカメラ手段の移
動手段、その移動手段により前記カメラ手段を第1位置
と第2位置とに移動して立体視を行う立体視認手段、前
記立体視でのデータに基づき対象物の基準特徴部を抽出
・選定する基準特徴部選定手段、および前記基準特徴部
の位置に基づき補助的位置を算出する補助的位置演算
部、および、前記カメラ手段を移動させて前記補助的位
置からの視認を行う補助的視認手段を具備してなること
を構成上の特徴とするものである。
The visual device of the present invention includes a camera means, a moving means of the camera means, a stereoscopic visual recognizing means for performing stereoscopic vision by moving the camera means to a first position and a second position by the moving means, and the stereoscopic means. A reference feature selecting means for extracting and selecting a reference feature of an object based on visual data; an auxiliary position calculating part for calculating an auxiliary position based on the position of the reference feature; and the camera means. It is a structural feature that it is provided with an auxiliary visual recognition means which is moved and visually recognized from the auxiliary position.

実施例 以下、図に示す実施例に基づいて本発明を更に詳しく説
明する。ここに第1図は本発明の視覚装置の一実施例の
模式的ブロック図、第2図及び第3図は第1図に示す視
覚装置によって立体視を行う状況の斜視図、第4図は第
1図に示す視覚装置によって異なる視角から視認する状
況を示す斜視図、第5図は第4図の状態において得られ
る二次元画像の例示図、第6図は本発明装置による視角
の概念説明図、第7図は同立体視および移動視の概念説
明図である。尚、図に示す実施例により本発明が限定さ
れるものではない。
Examples Hereinafter, the present invention will be described in more detail based on the examples shown in the drawings. Here, FIG. 1 is a schematic block diagram of an embodiment of the visual device of the present invention, FIGS. 2 and 3 are perspective views of a situation in which stereoscopic vision is performed by the visual device shown in FIG. 1, and FIG. FIG. 1 is a perspective view showing a situation in which the visual device is viewed from different viewing angles, FIG. 5 is an illustrative view of a two-dimensional image obtained in the state of FIG. 4, and FIG. 6 is a conceptual explanation of the viewing angle by the device of the present invention. FIG. 7 and FIG. 7 are conceptual explanatory views of the stereoscopic view and the moving view. The present invention is not limited to the embodiments shown in the drawings.

第1図に示すように、視覚装置1は、カメラ3と、その
カメラ3の移動を行うカメラアーム4と、カメラ制御部
5と、前処理部7と、アドレス指定部8と、画像メモリ
ー9と、マイクロプロセッサ10と、視角設定部11と、環
境モデルパターン記憶部12と、アーム制御部13とを具備
して基本的になっている。尚、14はコントロールバス、
15はデータバスである。
As shown in FIG. 1, the visual device 1 includes a camera 3, a camera arm 4 for moving the camera 3, a camera control unit 5, a preprocessing unit 7, an addressing unit 8, and an image memory 9. It is basically provided with a microprocessor 10, a viewing angle setting unit 11, an environment model pattern storage unit 12, and an arm control unit 13. 14 is a control bus,
15 is a data bus.

カメラ3は、カメラアーム4によって移動することがで
きる。
The camera 3 can be moved by the camera arm 4.

カメラ3から得られた画像データは、前処理部7で空間
微分,平滑化,エッジ強調等の前処理が行われ、アドレ
ス指定部8によって指定された画像メモリー9の所定場
所に取り込まれる。
The image data obtained from the camera 3 is subjected to preprocessing such as spatial differentiation, smoothing and edge enhancement in the preprocessing unit 7, and is taken into a predetermined location of the image memory 9 designated by the address designating unit 8.

画像取り込みのための制御は、マイクロプロセッサ10が
コントロールバス14を介して与える指令に基づき、カメ
ラ制御部5が行う。
The control for capturing an image is performed by the camera control unit 5 based on a command given by the microprocessor 10 via the control bus 14.

マイクロプロセッサ10は、データバス15を介して画像メ
モリー9から画像データを読み込み、特徴抽出、距離計
算等の画像処理を行う。
The microprocessor 10 reads image data from the image memory 9 via the data bus 15 and performs image processing such as feature extraction and distance calculation.

視角設定部11は、立体視を行うため及び特別な視角から
の視認を行うために、作業目的に応じて予め教示された
データに基づき、或いは、環境モデルパターン記憶部12
に予め設定された環境モデルパターン(或いは視覚モデ
ルパターン)とカメラ3から得られる画像データの比較
照合を行うなどの条件判断に基づいて、カメラの移動位
置や姿勢(視線方向)の設定を行う。
The viewing angle setting unit 11 uses the environment model pattern storage unit 12 or the environment model pattern storage unit 12 based on data taught in advance according to the purpose of work in order to perform stereoscopic viewing and visual recognition from a special viewing angle.
The moving position and posture (line-of-sight direction) of the camera are set based on the condition judgment such as comparing and collating the environment model pattern (or visual model pattern) set in advance with the image data obtained from the camera 3.

アーム制御部13は、視角設定部11からの出力に基づき、
必要な座標変換,駆動制御等を行い、カメラアーム4を
駆動する。
Arm control unit 13, based on the output from the viewing angle setting unit 11,
The camera arm 4 is driven by performing necessary coordinate conversion and drive control.

さて具体例として、異種のパーツが置かれた中から特定
のパーツをロボットにより取り出す場合を想定し、その
ロボットの視覚センサとしての視覚装置1の作動につい
て説明する。すなわち、第2図に示すように、異種のパ
ーツa,b,c,dが無秩序に置かれており、その中からパー
ツaをロボットRによって取り出す作業を考える。
Now, as a specific example, assuming the case where a specific part is taken out by a robot from among parts of different types placed, the operation of the visual device 1 as the visual sensor of the robot will be described. That is, as shown in FIG. 2, consider a work in which parts a, b, c, d of different types are randomly placed, and the part a is taken out by the robot R from them.

マイクロプロセッサ10は、視角設定部11およびアーム制
御部13を介してカメラアーム4を駆動し、第2図〜第5
図に示す第1の位置にカメラ3を位置せしめ、第1の画
像データを得る。次に、第3図に示すように、第1の位
置F1から所定の距離だけ離れた第2の位置にカメラ3を
位置せしめ、第1の位置Fから視野と重複した視野を観
測する。
The microprocessor 10 drives the camera arm 4 via the view angle setting unit 11 and the arm control unit 13, and the camera arm 4 is driven by the microprocessor 10 as shown in FIGS.
The camera 3 is positioned at the first position shown in the figure to obtain the first image data. Next, as shown in FIG. 3, the camera 3 is positioned at a second position separated from the first position F 1 by a predetermined distance, and a field of view overlapping the field of view is observed from the first position F.

両位置からの視野が重複しているため、一つの対応部分
が両位置で得られた各画像データに含まれているが、所
定の位置差があるために視差を生じている。そこで、こ
の視差に基づいて、マイクロプロセッサ10は、パーツa,
b,c,dの三次元的な視認即ち立体視を行う。
Since the visual fields from both positions overlap, one corresponding part is included in each image data obtained at both positions, but there is a parallax due to a predetermined positional difference. Therefore, based on this parallax, the microprocessor 10 uses the parts a,
Three-dimensional visual observation, that is, stereoscopic vision of b, c, and d is performed.

マイクロプロセッサ10は、あらかじめ所望のパーツaの
形状データを与えられているため、必要な形状データが
画像データから得られれば、目的のパーツaを認識でき
るが、第2図に示すように、各パーツa〜dは互いに他
を隠しあっているために、必要なデータが上記立体視に
よって得られるとは限らない。
Since the microprocessor 10 is given the shape data of the desired part a in advance, if the necessary shape data is obtained from the image data, the target part a can be recognized, but as shown in FIG. Since the parts a to d hide each other from each other, necessary data is not always obtained by the stereoscopic view.

かかる場合は、マイクロプロセッサ10は、得られた画像
データから目的パーツaの基準特徴部を抽出・選定する
ことによって目的パーツaの位置と姿勢とを計算上で推
定する。これは目的パーツaが部分的に隠されていても
可能である。基準特徴部は、例えば微分法により抽出で
き、例えばカメラとの遠近や、面の屈曲度合を基準とし
て選定できる。そして、予め教示された目的パーツaに
対する相対位置から目的パーツaを観察可能な補助的位
置を算出する。そして、移動視を行う指示を視角設定部
11に出力する。
In such a case, the microprocessor 10 calculates and estimates the position and orientation of the target part a by extracting and selecting the reference characteristic part of the target part a from the obtained image data. This is possible even if the target part a is partially hidden. The reference feature portion can be extracted by, for example, a differential method, and can be selected, for example, based on the perspective of the camera and the degree of bending of the surface. Then, the auxiliary position at which the target part a can be observed is calculated from the relative position with respect to the target part a taught in advance. Then, the viewing angle setting unit gives an instruction to perform the moving view.
Output to 11.

視角設定部11は、その指示によりカメラアーム4を駆動
し、前記補助的位置にカメラ3を移動する。
The viewing angle setting unit 11 drives the camera arm 4 according to the instruction, and moves the camera 3 to the auxiliary position.

これによりマイクロプロセッサ10は、所定の相対位置か
ら見た画像データを得る。
As a result, the microprocessor 10 obtains image data viewed from a predetermined relative position.

第4図はこの状態を示したものであり、カメラ3は、カ
メラアーム4によって移動され、パーツa〜dを真上か
ら観測している。
FIG. 4 shows this state, in which the camera 3 is moved by the camera arm 4 and the parts a to d are observed from directly above.

第4図に示す位置から得られる画像データは、例えば第
5図に示すようであり、第2図及び第3図のカメラ位置
からの立体視では得られなかった部分のデータが得られ
るようになっている。例えば、パーツbで隠されていた
ために見えなかったパーツaの部分を実際に視認できる
ようになっている。
The image data obtained from the position shown in FIG. 4 is, for example, as shown in FIG. 5, so that the data of the portion which cannot be obtained by the stereoscopic view from the camera position shown in FIGS. 2 and 3 can be obtained. Has become. For example, the part of the part a that was not visible because it was hidden by the part b can actually be visually recognized.

かくして、マイクロプロセッサ10は、パーツa〜dにつ
いての必要十分なデータを得、パーツaを認識し、その
視認結果に基づいて、ロボットRを駆動し、目的のパー
ツaを誤りなく取り出すことができる。
Thus, the microprocessor 10 can obtain necessary and sufficient data on the parts a to d, recognize the part a, drive the robot R based on the result of the visual recognition, and take out the target part a without error. .

例の実施例としては、立体視によって対象物上の基準特
徴部を抽出・選定し、予めその基準特徴点に対する対象
位置で教示されていた対象物の目的部分の立体視におけ
る位置を算出し、その位置へカメラを接近させて、拡大
視を行うものが挙げられる。この場合、まず目的部分を
画面の中央にとらえるようにカメラの位置を変え、次い
でカメラを前進させてもよいし、前進させながら姿勢を
変えるようにしてもよい。
As an example of the example, by extracting and selecting the reference feature portion on the object by stereoscopic vision, calculate the position in stereoscopic view of the target portion of the object that was previously taught at the target position for the reference feature point, An example is one in which a camera is brought close to the position to perform a magnified view. In this case, first, the position of the camera may be changed so as to capture the target portion in the center of the screen, and then the camera may be moved forward, or the posture may be changed while moving forward.

さらに他の実施例としては、立体視における得られるデ
ータと予め教示しておいたデータとを、時間またはカメ
ラの位置を基準として比較し、所定以下の相関しか得ら
れないときは視野内に何らかの異常があると判定し、カ
メラを移動して補助的視認を行うものが挙げられる。こ
の場合、警報を出力したり、ロボットやラインの作動を
停止させて安全を図るようにしてもよい。
As still another embodiment, the data obtained in stereoscopic vision and the data taught in advance are compared with reference to time or the position of the camera, and when only a correlation less than a predetermined value is obtained, a certain amount is present in the visual field. One that determines that there is an abnormality and moves the camera to perform auxiliary visual recognition is included. In this case, an alarm may be output or the operation of the robot or line may be stopped for safety.

第6図及び第7図は、上記立体視と移動視を一般的に説
明したものである。
6 and 7 generally describe the stereoscopic view and the moving view.

対象物の例として中空で一面のあいた四面体があり、こ
れを当初設定したカメラの位置F1と所定の距離移動した
カメラ位置F2の2つの位置から捉えたとき、F1,F2の視
野平面V1,V2に四面体の画像が得られ、画像メモリーに
とりこまれる。
As an example of the object, there is a hollow tetrahedron with one face, and when this is captured from two positions, the camera position F 1 initially set and the camera position F 2 moved by a predetermined distance, F 1 and F 2 An image of a tetrahedron is obtained on the visual field planes V 1 and V 2 and is stored in the image memory.

F1,F2間の距離が既知で、四面体上の基準特徴点Pの画
像上における対応点P1,P2を同定すれば、距離計測を含
む立体視が可能となる。このことは公知である。
If the distance between F 1 and F 2 is known and the corresponding points P 1 and P 2 on the image of the reference feature point P on the tetrahedron are identified, stereoscopic vision including distance measurement becomes possible. This is known.

基準位置F1で四面体の主たる像を捉え、次にカメラを、
例えばロボットアームやXYステージ,マニピュレータ等
の移動機構によって、例えば四面体を側方より見るとき
は図のF3の位置に、或る視線方向で詳細に拡大視すると
きは図のF4の位置に移動する。また、移動ロボットのよ
うに所期の環境モデルを視るとか障害回避のための方向
確認を行うときの視線回転等を行う。
Capture the main image of the tetrahedron at the reference position F 1 and then turn the camera
For example, with a moving mechanism such as a robot arm, an XY stage, or a manipulator, for example, when a tetrahedron is viewed from the side, it is at the position F 3 in the figure, and when it is magnified in detail in a certain viewing direction, it is the position F 4 in the figure. Move to. In addition, like the mobile robot, the line-of-sight rotation is performed when looking at the desired environment model or confirming the direction for avoiding obstacles.

これらのカメラの移動制御は予め教示した位置に移動す
るか、或いは条件付判断機能をプログラム化して作業目
的に応じた所要視覚像が得られる位置まで移動すること
により行われる。
The movement control of these cameras is performed by moving to a position taught in advance, or moving to a position where a required visual image according to a work purpose is obtained by programming a conditional judgment function.

例えば、カメラの移動は、基準位置F1をロボット座標系
の原点として、所定の移動先の位置・姿勢を設定してア
ームを制御して行う。
For example, the camera is moved by controlling the arm by setting a predetermined position / posture of the movement destination with the reference position F 1 as the origin of the robot coordinate system.

位置の設定は、F2(若しくはF1)の画面上で特徴点P
1(もしくはP2)を基準として、所望の視線方向,視覚
距離を定める。
To set the position, select the feature point P on the screen of F 2 (or F 1 ).
Determine the desired line-of-sight direction and visual distance based on 1 (or P 2 ).

この視線方向は、二次元画面で直接三次元方向の設定が
できないため、画面で設定した二次元の位置・姿勢に進
んで対応点P3を確認し、更にF3画面より方向設定を行
う。
Since this gaze direction cannot be directly set in the 3D direction on the 2D screen, the user proceeds to the 2D position / orientation set on the screen to check the corresponding point P 3 , and further sets the direction on the F 3 screen.

視線方向は、基準の対応点を視野内に確認しつつ行うの
で、移動視覚の情報フィードバックによるアーム制御と
することもできる。
The line-of-sight direction is performed while confirming the corresponding points of the reference in the visual field, so that the arm control can be performed by the information feedback of the moving vision.

このようにアーム座標(X,Y,Z,θ)は、基準点(x2,
y2)、所望視覚位置(視線方向,視覚距離)の視覚情報
により設定し、アームの移動を制御できるが、基準特徴
点が得られない場合、例えば円筒,球体が対象であると
きは、視覚距離を設定し、予測される陰影画像パターン
の記憶と比較する視覚情報フィードバックによりアーム
制御を行うことになる。
Thus arm coordinates (X, Y, Z, θ ) is a reference point (x 2,
y 2 ), the movement of the arm can be controlled by setting the visual information of the desired visual position (gaze direction, visual distance), but when the reference feature point cannot be obtained, for example, when the target is a cylinder or a sphere, the visual Arm control is provided by visual information feedback that sets the distance and compares it to the storage of the predicted shadow image pattern.

以上の説明から理解されるように、上記視覚装置1によ
れば、カメラの移動により立体視を得られ、その立体視
により全体状況を把握し、次いで立体視以外の位置での
移動視により前記立体視では得られない視覚情報を得、
それによりロボットRを制御できることとなるので、ロ
ボットRの高度の作業にも対応できる高度の視覚機能を
有するものとなる。
As can be understood from the above description, according to the visual device 1, a stereoscopic view can be obtained by moving the camera, the overall situation can be grasped by the stereoscopic view, and then the stereoscopic view can be performed by the moving view at a position other than the stereoscopic view. Obtaining visual information that cannot be obtained by stereoscopic vision,
As a result, since the robot R can be controlled, the robot R has an advanced visual function capable of coping with the advanced work of the robot R.

発明の効果 本発明によれば、カメラ手段、そのカメラ手段の移動手
段、その移動手段により前記カメラ手段を第1位置と第
2位置とに移動して立体視を行う立体視認手段、前記立
体視でのデータに基づき対象物の基準特徴部を抽出・選
定する基準特徴部選定手段、および前記基準特徴部の位
置に基づき補助的位置を算出する補助的位置演算部、お
よび、前記カメラ手段を移動させて前記補助的位置から
の視認を行う補助的視認手段を具備してなることを特徴
とする視覚装置が提供され、これにより立体視を行うこ
とができると共に、それに加えて異なる視角からの画像
データ,拡大視,隠れた場所の画像データ等を得ること
ができるので、高度のロボット用の視覚装置として極め
て有用である。
EFFECTS OF THE INVENTION According to the present invention, a camera means, a moving means of the camera means, a stereoscopic vision means for performing stereoscopic vision by moving the camera means to a first position and a second position by the moving means, and the stereoscopic vision. The reference feature part selecting means for extracting and selecting the reference feature part of the object based on the data in step 1, the auxiliary position calculating part for calculating the auxiliary position based on the position of the reference feature part, and the camera means are moved. There is provided a visual device characterized by comprising auxiliary visual recognition means for visually recognizing from the auxiliary position, whereby stereoscopic vision can be performed, and in addition, images from different viewing angles are provided. Since it is possible to obtain data, magnified view, image data of hidden places, etc., it is extremely useful as a visual device for advanced robots.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の視覚装置の一実施例の模式的ブロック
図、第2図および第3図はは第1図に示す視覚装置によ
って立体視を行う状況の斜視図、第4図は第1図に示す
視覚装置によって異なる視角から視認する状況を示す斜
視図、第5図は第4図の状態において得られる二次元画
像の例示図、第6図は本発明装置による視角の概念説明
図、第7図は同立体視および移動視の概念説明図であ
る。 (符号の説明) 1……視覚装置 3……カメラ、4……カメラアーム 9……画像メモリー 10……マイクロプロセッサ 11……視角設定部 13……アーム制御部。
FIG. 1 is a schematic block diagram of an embodiment of the visual device of the present invention, FIGS. 2 and 3 are perspective views of a situation in which stereoscopic vision is performed by the visual device shown in FIG. 1, and FIG. FIG. 1 is a perspective view showing a situation in which the visual device shown in FIG. 1 visually recognizes from different viewing angles, FIG. 5 is an exemplary view of a two-dimensional image obtained in the state of FIG. 4, and FIG. 6 is a conceptual explanatory view of the viewing angle by the device of the present invention. , FIG. 7 is a conceptual explanatory view of the stereoscopic view and the moving view. (Explanation of symbols) 1 ... Vision device 3 ... Camera, 4 ... Camera arm 9 ... Image memory 10 ... Microprocessor 11 ... Viewing angle setting unit 13 ... Arm control unit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】カメラ手段、そのカメラ手段の移動手段、
その移動手段により前記カメラ手段を第1位置と第2位
置とに移動して立体視を行う立体視認手段、前記立体視
でのデータに基づき対象物の基準特徴部を抽出・選定す
る基準特徴部選定手段、および前記基準特徴部の位置に
基づき補助的位置を算出する補助的位置演算部、およ
び、前記カメラ手段を移動させて前記補助的位置からの
視認を行う補助的視認手段を具備してなることを特徴と
する視覚装置。
1. Camera means, means for moving the camera means,
A stereoscopic visual recognition means for moving the camera means to the first position and the second position by the moving means for stereoscopic vision, and a reference characteristic part for extracting and selecting a reference characteristic part of the object based on the data in the stereoscopic vision. It comprises a selection means, an auxiliary position calculation part for calculating an auxiliary position based on the position of the reference characteristic part, and an auxiliary visual recognition means for moving the camera means for visual recognition from the auxiliary position. A visual device characterized by being.
JP61178197A 1986-07-29 1986-07-29 Visual device Expired - Lifetime JPH0665472B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61178197A JPH0665472B2 (en) 1986-07-29 1986-07-29 Visual device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61178197A JPH0665472B2 (en) 1986-07-29 1986-07-29 Visual device

Publications (2)

Publication Number Publication Date
JPS6334094A JPS6334094A (en) 1988-02-13
JPH0665472B2 true JPH0665472B2 (en) 1994-08-24

Family

ID=16044279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61178197A Expired - Lifetime JPH0665472B2 (en) 1986-07-29 1986-07-29 Visual device

Country Status (1)

Country Link
JP (1) JPH0665472B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007319938A (en) * 2006-05-30 2007-12-13 Toyota Motor Corp Robot device and method of obtaining three-dimensional shape of object
JP6747665B2 (en) * 2016-06-07 2020-08-26 トヨタ自動車株式会社 robot

Also Published As

Publication number Publication date
JPS6334094A (en) 1988-02-13

Similar Documents

Publication Publication Date Title
US8234011B2 (en) Movable robot
CN107914272B (en) Method for grabbing target object by seven-degree-of-freedom mechanical arm assembly
EP1215017B1 (en) Robot teaching apparatus
JP5471355B2 (en) 3D visual sensor
US11040451B2 (en) Teaching device and teaching method
Stavnitzky et al. Multiple camera model-based 3-D visual servo
JP4167954B2 (en) Robot and robot moving method
JP2016099257A (en) Information processing device and information processing method
JP2005106825A (en) Method and apparatus for determining position and orientation of image receiving device
JP3208953B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP2014188617A (en) Robot control system, robot, robot control method, and program
CN114341930A (en) Image processing device, imaging device, robot, and robot system
JP2006026790A (en) Teaching model production device
CN114347015A (en) Robot grabbing control method, system, device and medium
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
JPS6334093A (en) Visual device
JP2007171018A (en) Object position recognition method and device
JPH0665472B2 (en) Visual device
CN107363831B (en) Teleoperation robot control system and method based on vision
Walck et al. Automatic observation for 3d reconstruction of unknown objects using visual servoing
Vollmann et al. Manipulator control by calibration-free stereo vision
JPH0430981A (en) Control unit for television camera of remote control type robot
JPH05134737A (en) Teaching device of robot
WO2024048491A1 (en) Robot system, and method for controlling robot system
CN111612843A (en) Mobile robot vision stabilization control without expected image