WO1995017995A1 - Position and attitude detecting method, apparatus for practicing the same, and flexible production system using the same apparatus - Google Patents

Position and attitude detecting method, apparatus for practicing the same, and flexible production system using the same apparatus

Info

Publication number
WO1995017995A1
WO1995017995A1 PCT/JP1994/002212 JP9402212W WO9517995A1 WO 1995017995 A1 WO1995017995 A1 WO 1995017995A1 JP 9402212 W JP9402212 W JP 9402212W WO 9517995 A1 WO9517995 A1 WO 9517995A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
scene
posture
work environment
camera
Prior art date
Application number
PCT/JP1994/002212
Other languages
French (fr)
Japanese (ja)
Inventor
Shiyuki Sakaue
Shi-Yu Wang
Hideo Yonemura
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Publication of WO1995017995A1 publication Critical patent/WO1995017995A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Abstract

This invention aims at providing a production system of a high autonomy, which is constructed as follows. A simulated work environment scene generating means (20) is adapted to simulatively synthesize, when a visual robot (15) and a working robot (14) are in designed positions, a scene, which should be photographed by the visual robot (15), on the basis of the data stored in a work environment data storage means (29), and the visual robot (15) is adapted to actually photograph the scene of a work environment (1). A work environment scene comprehension means (22) is adapted to compare the real image with the simulated scene and detect deviations between the positions and attitudes of the working robot (14) and visual robot (15). Accordingly, even when an absolute reference point is not imaged on the visual robot (15), the position and attitude of an object of the work can be detected and corrected, and a production system of a high autonomy can be implemented.

Description

位 ίι?( · 姿勢検出方法およびその装置と 二れを用いたフレキシブル生産システム 技術分野  Position 方法 ι? (· Flexible production system using posture detection method and device
本発明は、 製品の組立作業を自動化するためにコンピュータを活用す る生産システムの分野で、 ティ明ーチングレスでロボッ トシステムに作業 を行わせる被撮像物の位置 · 姿勢検出方法およびその装置と、 これを用 いたフ レキシブル生産システムに関する書。特に、製品設計データ、加工 · 組立装匱データ、 周辺機器データをもとにコンピュータ ' グラフィ ック スで作成した擬似作業環境モデルとテレビカメラを用いた視覚装置で得 られた実作業環境とを対比して、 自律的に作業を行える機能を実現する のに好適な位置 · 姿勢検出方法およびその装置と、 これを用いたフレキ シブル生産システムに関する。 背景技術  The present invention relates to a field of a production system that utilizes a computer to automate a product assembling operation, and a method and an apparatus for detecting a position and a posture of an object to be operated by a robot system without tees. A book on flexible production systems using this. In particular, a pseudo-work environment model created by computer graphics based on product design data, machining / assembly equipment data, and peripheral device data, and an actual work environment obtained by a visual device using a TV camera were compared. In contrast, the present invention relates to a position / posture detection method and apparatus suitable for realizing a function capable of autonomous work, and a flexible production system using the same. Background art
これまでの生産システムにおいては、 均一な製品を大量に供給するた めの少品種大量生産システムであった。 ところが、 現在では多様な顧客 ニーズに応えるために、 製品に対する差別化、 個性化へと価値の重点が 移ろよ うになり、 製品の多様化、 多機能化、 製品寿命の短命化に伴い、 多品稱少量生産に対応する生産システムの開発が要求されてきている。 そこで、 顧客のニーズにあった製品をタイムリーに供給するためには、 受注、 設計、 製造の全体システムを結んだ多品種少量生産に対応した柔 市) t'l:.の高いフ レキシブル生産システムが要求されてきている。 更に、 家 - m化製品の総組立ェ程は人手作業が主体であるが、 季節ごとの需要の に ^わせて ¾者数を 減することが困難なため、 これを自動化し たいとの要求が iff',レ、。 Until now, the production system was a low-mix, high-volume production system for supplying large quantities of uniform products. However, in order to meet diverse customer needs, the emphasis on value has shifted to product differentiation and individualization, and with the diversification of products, multifunctionality, and shortened product life, many products There is a demand for the development of a production system for small-lot production. Therefore, in order to supply products that meet the needs of customers in a timely manner, orders, design, connecting the whole of the manufacturing system of diversified soft city corresponding to the production) t'l:. High off Rekishiburu production Systems are being demanded. In addition, the total assembly process for home-m products is mainly manual work, However, it is difficult to reduce the number of people, so the demand for automating this is iff ', レ,.
従來の少 稗人 ¾ ^鹿方式では、 ロボッ 卜はティーチングプレイバッ ク 式で 業を Πつている。 ロボッ トの動作シーケンスはオフライ ンで 決 rするこ とが w能となってきているが、 位 (^H f報についてはォンラィ ンティ一チングが一般的であり、 ティ一チング中は生産ラインを長時問 停止する必要があると ともに、 ロボッ 卜の操作に熟練した作業者も必要 である。 また、 多く のロボッ トを使用する場合には生産ライン全体の立 ち上げに長時間を要する。  In the traditional deer method, robots work in a teaching playback style. Although it is becoming increasingly possible to determine the robot's operation sequence offline, it is common practice to perform online positioning for ^ H f reports. In addition to the need to stop for a long time, it also requires skilled workers to operate the robot, and if many robots are used, it takes a long time to start up the entire production line.
10 一方、 フ レキシブル生産システムを実現するためには、 作業計画都門 からの指示に基づいて設備構成を変更したり、 ロボッ 卜の位置を変更す る必要がある。 このためには正確な位置にロボッ トを持っていく のでは なく 、 不正確な位置にいるなりにロボッ トを自律的に行動させる必要が ある。 かかる構成の従来例と して、 特開平 3— 7 3 2 8 4号公報 (以下、 On the other hand, in order to realize a flexible production system, it is necessary to change the equipment configuration and the position of the robot based on instructions from the work planning gate. For this purpose, it is necessary not to bring the robot to the correct position, but to make the robot autonomously act as if it is at the incorrect position. As a conventional example of such a configuration, Japanese Patent Laid-Open Publication No.
15 第一の従来技術と云う) に記 おされた方法がある。 この第一の従来技術 による口ボッ ト制御方法は、 作業環境內に存在する運動物体に関する情 報をロボッ トに与えて、 口ポッ トに的確な行動をさせることを目的にし たものである。 そのために、 知識データベースと して、 行動の手順や、 いろいろの状況に応じた動作などの知識を格納していた。 15 The first prior art). The mouth control method according to the first prior art is intended to give information about a moving object existing in the work environment に to the robot and to cause the mouth pot to perform an appropriate action. For this purpose, a knowledge database was used to store knowledge such as action procedures and actions according to various situations.
?0 また、 作業環境の模擬繭像をリ アルタイムで表示して、 実環境とシミ ュ レー.ショ ン環境とをオーバーレイ表示し、 シミ ュ レーショ ン環境モデ ルの位厫 · 姿勢が実環境のそれと違ってしまったよ うな場合に. シ ュ レーショ ン環境モデルの位置 · 姿勢データを実環境のそれと一致するよ うに人が ί?π に修正を行えるようにするという従来例が、 特開平 3— 5 ? 0 In addition, a simulated cocoon image of the working environment is displayed in real time, and the real environment and the simulation environment are displayed as overlays, and the position and posture of the simulation environment model are displayed in real environment. A conventional example in which a person can modify the position and orientation data of a simulation environment model to ί? Π so that it matches that of a real environment is disclosed in Japanese Unexamined Patent Publication No. - Five
2Γ, ■Γ) I 9 '1 号公報 (以下、 第二の従来技術と云う) に記載されている。 こ の笫一の従来技術は口ボッ トの遠隔操作が目的であり、 画像解析自体は 人が行つていた。 2Γ, ■ Γ) I 9 ' 1 JP (hereinafter, described in the second referred to as the prior art). This first conventional technique aims at remote control of a mouth bot, and image analysis itself is not performed. People were going.
さ に、 \\- 物の 'ii像が、 1¾作 ffl手先の画像で隠れる場合でも換 ^対象の認識を可能と し、 あるいは操作対象物と操作用手先との相対位 i^ ra係の認識を、 人が可能とする ϋπί像を表示するという従来例が特^平A ' - β 0 9 8 号公報 (以下、 第三の従来技術と云う) に記黻されてい る。 この ½來 も M J¾作が 1=1的であり、 画像解析自体は人が行ってい た。  In addition, even if the image of the object 'ii' is hidden by the image of the first operation ffl, the object can be recognized, or the relative position between the operation object and the operation hand can be determined. A conventional example of displaying a {π} image that enables human recognition is described in Japanese Patent Application Laid-Open No. H08-108 (hereinafter referred to as a third prior art). Again, MJ's work was 1 = 1, and image analysis itself was done by humans.
ところで、 ある地点で広く情報が欲しいという場合もある。 その場合 にテレビカメ ラの向きを捩ることでそれを可能とすることができる。 こ の従来例が特開平 2— 8 3 1 9 4号公報(以下、第四の従来技術と云う) に記載されている。 しかしこの従来技術は、 ロボッ トを遠隔操縦する人 問に対して見やすいように表示するためのもので、 画像解析に関しては 考慮されていなかった。  By the way, you may want information widely at a certain point. In that case, it can be made possible by twisting the direction of the TV camera. This prior art is described in Japanese Patent Application Laid-Open No. 2-83194 (hereinafter, referred to as a fourth prior art). However, this conventional technique is intended to display a robot that can be easily viewed by a person who remotely controls a robot, and has not been considered in image analysis.
卜-述の如く 、 顧客のニーズにあった製品を、 タイムリ一に供給可能な、 受注、 設計、 製造の全体システムを結ぶ多品種少量生産に対応した柔軟 性の高いフレキシブル生産システムを実現するためには、 生産設備の構 成を変更したり、 ロボッ トの位置を変更したり しなければならない。 こ のよ うな条件のもとで製造するためには、 設備全体の信頼性を高くする こ とが必 ftである。 このためには、 作業計画通りに作業対象が所期の位 置に存往することを確認することや、 所期の位置からずれている場合に はそのずれを知ってそのずれに対応した動作を行う 自律性を生産システ ムにもたせる必要がある。  As described above, in order to realize a flexible production system that can supply products that meet customer needs in a timely manner and that is compatible with low-volume, high-mix, low-volume production that links the entire system of orders, design, and manufacturing. To do so, the configuration of production equipment must be changed, and the position of the robot must be changed. In order to manufacture under these conditions, it is necessary to increase the reliability of the entire equipment. To do this, confirm that the work target is in the expected position according to the work plan, and if there is a deviation from the expected position, know the deviation and take action to respond to the deviation It is necessary to give autonomy to production systems.
しかしながら、 上記に示す第 第四の従来技術は何れも、 この生産 システムの I :性を実現することについて配虚されていなかった。 特に、 η· の従來 術では、 知識データベースにロボッ トの行動手順やいろい ろの状況に ) じた動作などの知識を格納しておき、 作業環境内に存在す 物 " に miする情報をもとに、 口ボッ 卜に的確な行動をさせるもの )、 iff jf と して iiらえた作業環 を解祈するためには、 情景入力装置が どこにあれば^ j がどのよ うに见ぇるかが前もってわかっていなければ ならない。 " ·の従来技術では、 作業対象はどう見えるか、 周辺装置は •r ど Μえるか、 口ボッ 卜はどう見える力、、 部分的にどこがどう見えるか ':、 w 的にわかる-丁ニ段がなく 、 実作業環境を解析することについて配 慮していなかった。 However, none of the above-mentioned fourth prior arts has been neglected to realize the I: characteristic of this production system. In particular, in the conventional technique of η ·, the knowledge database stores the knowledge such as the robot's action procedure and the action based on various situations, and exists in the work environment. The thing that makes the mouthbot do the correct action based on the information that mimics the object)), and where to find the scene input device ^ j to pray the work cycle obtained as iff jf but what good sea urchin glance Eru must be known in advance. "in the prior art, and how visible the work object, the peripheral device • r etc. or obtain Μ, if the mouth box Bok visible force ,, part What does it look like in ' : w, I understand it-there are no steps, and I did not consider analyzing the actual working environment.
また、 実作業環境を解析するには、 できる限り広範囲の情報をできる 限り密度高く利川する必要がある。 第四の従来技術では、 テレビカメ ラ In order to analyze the actual work environment, it is necessary to use the widest possible range of information as densely as possible. In the fourth prior art, a TV camera
10 の向きをふることで、 広範囲の情報を利用するようにしたものである力';、 その際、 情報と して捕らえた作業環境を、 ただ単にスク リーンに表示し ているだけであるため、 作業環境の解析と して使用することができない。 木発明は、 上記のような従来技術の問題点に鑑み、 作業環境を解析す ると と もに、 解析した結朵に基づいてロボッ ト等の位置 · 姿勢ずれを正The ability to use a wide range of information by turning 10 directions', because at that time, the work environment captured as information is simply displayed on the screen However, it cannot be used as work environment analysis. In view of the above-mentioned problems of the prior art, the tree invention analyzes the working environment and corrects the position / posture deviation of the robot or the like based on the analyzed results.
1 Γ 確に把握し、 以て位置 · 姿勢ずれの修正を精度よく 自動的に行う ことの できる、 被撮影物の位置 · 姿勢検出方法を提供することにある。 また、 他の目的は、 上記方法を的確に実施し得る位置 , 姿勢検出装置を提供す ることにあり、 さらに他の目的は、 多品種少量生産に対応し得る柔軟性 の高いフレキシブル生産システムを提供することにある。 1) An object of the present invention is to provide a method of detecting a position and a posture of a photographed object, which can accurately grasp the position and the posture of the object and automatically correct the deviation. Another object is to provide a position / posture detecting device capable of accurately implementing the above method, and another object is to provide a flexible production system having high flexibility capable of coping with high-mix low-volume production. To provide.
20  20
発明の開示  Disclosure of the invention
木発明方法では、 情景検出手段による作業環境中の被撮影物の撮影を、 該情景検出手段におけるカメラ レンズの主点位置を中心に変更して行い, -' ら iした複数の ίιΠί像を -枚の平而へ投影して一枚の広画角画像に合成し, :,'厂' に f fi'f JI j 出丁: J¾および上 fi' 被扳影物が、 予め定められた設計上の位 ^ · 姿勢にあつたと仮定した場合、 上記情景検出手段が撮影しているで 7) Ί ill像を疑似 Ι'1'Jに { 成し、 該疑似的画像上における上記被撮影物In the tree invention method, shooting of the object in the working environment by the scene detecting means is performed by changing the position of the principal point of the camera lens in the scene detecting means as a center, and a plurality of し た ιΠί images obtained from-' The image is projected onto a plane and synthesized into one wide-angle image, and: fi, f JI j is output to 'Factory': J¾ and upper fi ' Upper position ^ · Assuming that you are in the posture, the above scene detection means is shooting 7) The Ίill image is formed into a pseudo Ι'1'J, and the object to be photographed on the pseudo image is
I '.の各特 m κの位 ^と、 — li'f ¾検出^段が実際に撮影して得た上記合The position of each characteristic m κ of I '. ^ And — li'f ¾ detection ^ stage
| :闽像 ににおける 該被 ttUお物上の上記各特徴点と対応する各特徴点の (、',: "νί. ί:のず i I .'Ϊ を ili出し、 該ずれ . に基づき上記情景検出手段および上 r) ,ϋ', w \h\ ' ) ί、ν. 1;'.': · ¾ 、 v. 対 ^物を · にして修 1 すること と、 ii!i iiiずれ に !'ί;じた分だけ上 ti'i: 検出手段および被撮影物を移動する 設計データを修正することの何れか一方を行う ことを特徴とする。 |: In the image, the (, ',: " ν ί. Ί: no i i .'Ϊ” of each feature point corresponding to the above feature points on the ttU object in the image is extracted, and the based on the above-mentioned scene detection means and the upper r), ϋ ', w \ h \') ί, ν 1;. '.':.! · ¾, v and that Osamu to 1 by the pair ^ things to ·, ii i iii) The deviation is increased by the amount corresponding to! 'ί;ti'i: Either the detection means or the design data for moving the object is corrected.
また、 本発明方法では、 予め、 作業対象物と該作業対象を加工処理す る加工装 ( とこれらの周辺装置とを撮像し得る少なく とも 2台の情景検0 查手段を設置しておき、 これら 2台の情景検査手段, 作業対象物, 加工 装置, 周辺装置からなる作業環境の各々の予測された時間での位置 · 姿 勢を、 予め設計されたデータに基づいて画像と して疑似的に生成し、 次 いで、 作業環^がその疑似的画像を生成した時間軸に達したとき、 実際 の作業環境を各情景検査手段によって撮像すると共に、 該実際に撮像し た作業環境のデータ と疑似的画像を生成したデータとを比較して両者に ずれがあつたとき、 該ずれに ¾づいて作業環境内の各々の位置 · 姿勢を 修 IEすること と前記ずれの分だけ作業環境內の対応する各々の設計デ一 タを修正すること との何れか一方を実行することを有することを特徴と する。 Further, in the method of the present invention, at least two scene inspection means capable of capturing an image of an object to be processed and a processing device for processing the object (and their peripheral devices) are installed in advance. The positions and postures of each of the working environments consisting of these two scene inspection means, the work object, the processing equipment, and the peripheral equipment at the predicted time are simulated as images based on pre-designed data. Then, when the working ring reaches the time axis at which the pseudo image was generated, the actual working environment is imaged by each scene inspection means, and the data of the actually shot working environment and If there is a discrepancy between the two and the data that generated the pseudo image, correct the position and orientation in the work environment based on the discrepancy and IE. Modify each corresponding design data And having to perform one of the possible.
0 木発明の位 ft · 姿勢検出装 i :では、 被撮影物を撮影する情景検出手段 と、 該情 :検出手段の実際の位置を示す実データと、 上記被撮影物につ いての設計上の位置 · 姿勢を示す設計データを格納された記憶手段と、 上記被撮影物が上記設計上の位置 . 姿勢にあつたと仮定した場合、 上記 li'f 出^段が撮影しているであろう画像を、 上記実データおよび上記r, 設 i lデ -ノメを川いて疑似的に作成し、 該疑似的に作成した両像上におけ る被撮影物上の各特徴点の位遛と、 上記被撮影物を上記情景検出手段が ■H際に Ι/ιί!'おした inn'像.ににおける当該被撮影物上の上記各特徴点と対応す る ί 'ι:徴点 ί、'/: ,':とのずれを求め、 該ずれに基づいて上記被撮影物の位 · ^勢を^ I すること と i i記ずれの分だけ作業環境内の対応する各々 の設計デ一タを修正すること との何れか一方を実行する手段とを有する 二 とを特徴とする。 0 The position of the tree invention ft · Attitude detection device i: scene detection means for photographing the object, the information: actual data indicating the actual position of the detection means, and the design of the object Assuming that the object to be photographed is in the design position and posture described above, and that the object to be photographed is in the design position and posture described above, the li'f output stage will be photographing. An image is pseudo-created using the actual data and the r, set-il data, and the position of each feature point on the object in both the pseudo-images, and The scene detection means detects the object to be photographed. ■ H / ί / ιί! The deviation between the above-mentioned feature points on the object to be photographed and the corresponding に お け る 'ι: point ί,' /:, ': in the' removed inn 'image is calculated, and the deviation is calculated based on the deviation. The position of the object to be photographed; andii) a means for performing either of ii) correcting the corresponding design data in the working environment by the amount of the deviation. Features.
また、 木発 の位^ · 姿勢検出装置では、 作業対象物, 該作業対象物 を加工処现する加工装置, これらの周辺装匱, 該作業対象物と加工装置 と周辺装置とを撮像し得る少なく と も 2台の情景検査手段を有する作業 環境と、 作業対象物, 加工装置, 周辺装匱, 各情景検査手段の形状ゃ特 徴点に関する情報を格納した設計データ記憶装置と、 作業対象物, 加工 装置, 周辺装置, 各情景検查手段に対する作業手順データ, 作業工程デ ータ, 動作経路データを夫々格納した作業計画データ記憶装置と、 設計 データ記憶装置及び作業計画データ記憶装置に格納されたデータに基づ き、 作業環境内の各々の予め予測された時問での位置 · 姿勢情景を疑似 的に生成し、 その疑似的に生成した時間軸に達したとき、 実際の作業環 境を各情景検査手段によって撮像すると共に、 該撮像データを疑似的に 生成した作業環境の各々の位置 . 姿勢情景と比較して作業環境の各々の 位置 · 姿勢のずれを検出し、 その検出したずれを吸収する方向に作業環 垸內の各々の位蹬 · 姿勢を修正する組立ステーショ ン制御手段とを有す ることを特徴とする。  In addition, the position detection device for detecting the position of the tree can process the work object, the processing device for processing the work object, these peripheral equipment, the work object, the processing device, and the peripheral device. A work environment having at least two scene inspection means, a work object, a processing device, a peripheral equipment, a design data storage device storing information on the shape of each scene inspection means and characteristic points, and a work object , Machining equipment, peripheral equipment, work procedure data for each scene inspection means, work process data, and operation plan data, which are stored in the design data storage and work plan data storage, respectively. Based on the data obtained, the position and orientation scenes at each predicted time in the working environment are simulated, and when the simulated time axis is reached, the actual working environment Each scene In addition to imaging by the inspection means, each position and orientation of the work environment is detected by comparing the position and posture scene of the work environment in which the image data is generated in a pseudo manner, and the detected deviation is absorbed. And an assembling station control means for correcting the position and posture of each of the working wheels in the direction.
木発明のフ レキシブル生産システムでは、 作業対象物, 該作業対象物 を加工処 |!する加工装置, これらの周辺装置, 該作業対象物と加工装置 と周辺装贋とを撮像し得る少なく とも 2台の情景検査手段を有する作業 環 ½と、 作業対象物, 加工装置, 周辺装置, 各情景検査手段の形状ゃ特 徴点に 1 する情報を格納した設計データ記憶装置と、 作業対象物, 加工 , 周辺装蹬, 各情景検 段に対する作業手順データ, 作業工程デ 一 'へ !1¾ Π·: 路データを火々格納した作業計画データ記憶装置と、 設計 -マ -タ t£ ¾ ^及び Π;桨計 データ記 It装蹬に格納されたデータに基づ き 、 (V· m ¾ )>-)の ^々 の予め予測された時 ίίίΐでの位置 . 姿勢情景を疑似 的に -成し、 その疑似的に生成した時 軸に達したとき、 実際の作業環 ½を各佶 in検 ¾手段によつて撮像すると共に、 該撮像データを疑似的に ^成した作槳環境の各々の位置 · 姿勢情景と比較して作業環境の各々の 位匱 · 姿勢のずれを検出し、 その検出したずれを吸収する方向に作業環 境内の各々の位置 · 姿勢を修正する組立ステーション制御手段とを有す る位置 · 姿勢検出装置を備えている。 自律的なフレキシブル生産シスIn the flexible production system of the invention of wood, the work object and the work object are processed |! A working device having at least two scene inspection means capable of imaging the work object, the peripheral device, the work object, the processing device, and the peripheral forgery; and a work object, the processing device, the peripheral device, A design data storage device that stores the information that corresponds to the shape and characteristic points of each scene inspection means, and the work procedure data and work process data for the work object, machining, peripheral equipment, and each scene inspection stage. To 1 '! 1¾ Π ·: Work plan data storage device that stores road data in a flash, and design-data t £ ¾ ^ and Π; total data record It is based on the data stored in the device. , (Vm ¾)>-) at the position of the predicted time ^. At the time when the posture scene was pseudo-generated and the pseudo-generated position reached the axis, the actual work was performed. The environment is imaged by each of the inspection means, and the image data is compared with the position / posture scenes of the simulated work environment to compare the position / posture of the work environment. A position / posture detection device is provided which has assembly station control means for detecting a deviation and correcting each position / posture in the working environment in a direction to absorb the detected deviation. Autonomous flexible production system
10 テムでは、 作業計画通りに作業がなされているか、 そして次の作業が予 定通りに行えるかを、 各作業ごとに確認する必要がある。 そのためには、 まず、 情景入力センサによって得られる 2次元的な映像から、 作業対象 物の 3次元的な位匱および姿勢を検出することが必要となる。 また、 情 景入力センサによって、 常に、 確認したい作業点等を見るためには、 必For each system, it is necessary to confirm whether the work has been performed according to the work plan and whether the next work can be performed as planned for each work. For that purpose, it is necessary to first detect the three-dimensional position and posture of the work object from the two-dimensional image obtained by the scene input sensor. In addition, it is necessary to always use the scene input sensor to see the work point or the like that you want to check.
15 要に応じて情景入力センサの位置を適切な位置に変更し、 いわゆる 「の ぞき込み」 動作を行う必要がある。 そして、 そのためには、 該情景入力 センサの位置を正確に検出 · 修正することが必要となる。 この場合、 特 定の基'準点を設け常に該基準点を用いて位置を検出することはできない, なぜならば、 該情景入力セィサは、 必要に応じて移動等するものだから 20 である。 15 It is necessary to change the position of the scene input sensor to an appropriate position as necessary, and to perform a so-called “looking-in” operation. For that purpose, it is necessary to accurately detect and correct the position of the scene input sensor. In this case, a specific reference point is provided, and the position cannot always be detected using the reference point. This is because the scene input sensor moves as needed and is 20.
そこで、 木発明においては以下に述べる手法によって、 情景入力セン サ、 対象物の実際の位置 ' 姿勢の検出および修正を行っており、 それら の概要について説明する。  Therefore, in the tree invention, the scene input sensor and the actual position and orientation of the object are detected and corrected by the method described below, and their outlines will be described.
まず、 ji 入力センサが、 作業計面で指定された位置に指定された方 '入' を^いている 業計阿迎りの場合には、 作業環境がどのように見える かを設計データと作業計购'データをもとに、 コンピュータグラフィ ック スで疑 i 業^境 ί ίΐιΐ しとて生成する。 ここで、 情景入力センサは、 ズ 一ム機能付きが奵.ま しい。 First, when the ji input sensor is in the specified position 'on' at the position specified on the work plan, in the case of the work plan, the design data and the work Computer graphics based on total data ス ίΐ ΐ ίΐ ΐ ΐ ίΐ 生成 生成 生成 生成 生成Here, the scene input sensor preferably has a zoom function.
続いて、 nii i I:成した疑似作業 内で、 色やエッジなどの期待 される特徴点の候 iiliを選択し、 実作業環境内において前記候補に対応す π ' I '、(を 1!す。 この ¾ 、 においては作 ^垸は既お Iである。 Then, nii i: in the performed pseudo work, select a feature iili of the expected feature point such as a color or an edge, and in a real work environment, π′I ′, ( 1 ! In this ¾, the work ^ 垸 is already I.
また、 生 ライン等の製造設備も既知のものが多い。 したがって、 常時 闹像処现容易な ffi準となる特徴点を用意しておく ことが可能である。 ズーム機能付きの情景入力センサを広角にして情景を取り込むことに よ り、 前記特徴点の何個かを識別できる。 この空間座標が既知である特0 徴点の疑似作業環境画面位置と、 情景入力センサにより取り込んだ実作 業環境画面位置との差異から、 情景入力センサの空間內の粗位置を決定 することができる。 また、 必要に応じて、 ズーム機能をさらに拡大にし た情景入力センサで情景を取り込めば、 精密な三次元空間位置を決定す ることができる。 Many production facilities such as production lines are also known. Therefore, it is possible to always prepare a feature point that can be easily processed. By capturing the scene by widening the scene input sensor with the zoom function, it is possible to identify some of the feature points. From the difference between the simulated work environment screen position of the characteristic point whose spatial coordinates are known and the actual work environment screen position captured by the scene input sensor, it is possible to determine the coarse position of the space の of the scene input sensor. it can. If necessary, if a scene is captured by a scene input sensor with a further enlarged zoom function, a precise three-dimensional spatial position can be determined.
5 最後に、 前記実作業環境画面と疑似作業画面を重ね合わせて、 両者が 一致するかどうかを確認する。 全情景が一致して、 作業計画と異なると ころがなければ作業計画通りに作業が行われていることになる。 一方、 異なるところがあれば、 どの部分が異なるのかを設計データや作業計画 データをもとに、 一部品毎または組部品毎にパターンマツチング処理し0 て調べ、 例えば作業対象や周辺装置の位置 · 姿勢が異なる場合にはデー タベースの中の該当するデータを変更したり、 作業ロボッ 卜の位置 . 姿 勢のみ異なる場合には作業ロボッ トの位置 · 姿勢を変更する。 また、 情 景全休や作業ロボッ 卜の背景がずれていた場合は、 情景入力装置の位置 や 向を変 し、 実作業環境の情景がコンピュータグラフィ ックスの情n ¾と 致するよ うに修正され、 作業計画 '通りの作業が行われる。 5 Finally, superimpose the actual work environment screen and the pseudo work screen to check whether they match. If all scenes match and there is no difference from the work plan, the work has been performed according to the work plan. On the other hand, if there is a difference, the pattern matching process is performed for each part or each assembly part based on the design data and work plan data to determine which part is different. If the posture is different, change the corresponding data in the database. If only the posture of the work robot is different. If only the posture is different, change the position and posture of the work robot. In addition, when the background of the entire scene or the work robot is out of alignment, the position and orientation of the scene input device are changed, and the scene of the actual work environment is modified to match the scene of the computer graphics. Work plan The work is performed as per the 'work plan'.
次に、 佶 ill人力センサによって得られる 2次元的な映像に基づいて、 該映像を¾ ^している 'li'i jil:人力センサ (テレビカメ ラ) 自身や、 撮影さ れている作業対象物の 次元的な位置 · 姿勢を検出する方法について詳 細に説叨する。 Next, based on the two-dimensional image obtained by the human sensor, 'Li'i jil: The human-power sensor (television camera), which is displaying the image, and the method of detecting the dimensional position and orientation of the work object being photographed will be explained in detail. .
木究 においては、 予め与えられた位匱データ等から作成される疑似 「、 (1: :Ϋ; Γ'ίϋ¾ ρΐίϋΓιί t 、 Ίίίϋ 入力センサによって得られる実作樂環 ¾両而位^ の莲¾から三次元空問上における位匱および姿勢を決定している。 まず、 第 4図にこれ以降の説明の前提となる作業環境のモデルを示す。 ここでは、 説明上ロボッ トやワークを長方体と して示し、 単に Γ対象物 j と呼ぶことにする。 この作業環境内には、 情景入力センサと しての 1台In KiKiwamu pseudo created from pre-given position coffer data such as ", (1:: Ϋ; Γ'ίϋ¾ ρΐίϋΓιί t, from the real work樂環¾ lotus ¾ of both而位^ obtained by Ίίίϋ input sensor Figure 4 shows a model of the working environment that is the basis of the following explanations.The robot and the work are assumed to be rectangular in the explanation. In this work environment, one unit as a scene input sensor is referred to as “object j”.
10 のテレビカメ ラを装備した自走ロボッ トと、 4つの対象物がある。 テレ ビカメ ラは対象物が見える位置および、 姿勢に設定しておく。 There is a self-propelled robot equipped with 10 TV cameras and 4 objects. The TV camera should be set to the position and posture where the object can be seen.
第 4図に示すように作業環境内には、 各個別の対象物とは独立した静 止座標系が設けられている。 この諍止座標系を導入したのは、 単に、 座 標変換などの処理を容易にするためである。 一方、 テレビカメラは、 独 As shown in Fig. 4, a static coordinate system independent of each individual object is provided in the work environment. This conflict coordinate system was introduced simply to facilitate processing such as coordinate transformation. On the other hand, TV cameras are
1 の視覚座標系を有している。 また、 4つの対象物も、 それぞれ独立し た対象物座標系をもっており、 各対象物の特徴点 (たとえば頂点) の座 標は、 対象物座標系上において定義されている。 その一方で、 視覚座標 系および対象物座標系 (以下、 視覚座標系および対象物座標系を総称し て、 「ローカル座標系」 という場合がある。 ) の物体についての各座標It has a visual coordinate system of 1. The four objects also have independent object coordinate systems, and the coordinates of the feature points (vertexes) of each object are defined on the object coordinate system. On the other hand, each coordinate of an object in the visual coordinate system and the object coordinate system (hereinafter, the visual coordinate system and the object coordinate system are sometimes collectively referred to as “local coordinate system”).
20 系向体の原点は、 諍止座標系上において定義されるのが一般的である。 In general, the origin of the 20-kind is defined on the coordinate system of conflict.
このよ うに、 対象物座標系の原点を静止座標系上において定義する一方 で、 対象物の頂点などの座標は、 対象物座標系上において定義したこと によ り、 「対象物」 の動きを、 単に、 静止座標系上において 「対象物座 標系」 の g¾き と して、 と らえることができる。 このため、 対象物座標系 ? にお L、て定 された対 ^物上の頂点のよ う.に、 各対象物の特徴点の座標 は全く変化せず、 演算処理を単純化することができる。 これら各座標系 の 1¾係を 5図に示す。 図巾、 Sが静止座標系の原点、 Cは視覚座標 系の原点、 は対象物座標系の ^点である。 As described above, while the origin of the object coordinate system is defined on the stationary coordinate system, the coordinates of the vertices of the object are defined on the object coordinate system, so that the movement of the "object" is defined. However, it can be simply grasped as g of the “object coordinate system” on the stationary coordinate system. Therefore, the object coordinate system? The coordinates of the feature points of each object do not change at all, as in the case of the vertices defined on the object. Each of these coordinate systems Figure 5 shows the relationship between the two. The width of the figure, S is the origin of the stationary coordinate system, C is the origin of the visual coordinate system, and is the ^ point of the object coordinate system.
た、 次儿空 iし I:. (この ¾合、 ^止座標系上) において、 前記ロー 力ル座標系の位置: · 姿勢を特定するためには、 6個のパラメータを必要 In addition, in the next child space I :. (in this case, on the stop coordinate system), the position of the roll coordinate system: · Six parameters are required to specify the posture
Π とする„ つま り 、 位 ^のパラメータと して、 各ローカル座標系の原点の ?>止座標系上における位^ ( x 、 y 、 z ) が必要であり、 また、 姿勢の パラメータと して、 静止座標系の X 、 y、 z軸まわりの、 各口一カル座 標系の回転角度 0 x、 0 y、 0 zが必要となる。 したがって、 以下の説明 においては、 静止座標系上における視覚座標系の原点 Cの位匱を (C x、In other words, as the parameter of the position ^, the origin of each local coordinate system must be?> The position on the stationary coordinate system ^ (x, y, z). Therefore, the rotation angles 0x, 0y, and 0z of each oral coordinate system around the X, y, and z axes of the stationary coordinate system are required. The origin C of the visual coordinate system in (C x,
10 C y、 C z ) と して、 また、 静止座標系の X軸、 y軸、 z軸まわりにおけ る視覚座標系の姿勢を G 1、 0 2、 6 3、 と して示す。 同様に、 静止座標 系上における対象物座標系の原点 Pの位置を (P x、 P y、 P z) と して、 また、 静止座標系の x軸、 y軸、 z軸まわりにおける対象物座標系の姿 勢を 0 α、 θ β 、 0 γ と して示す。 10 C y, C z), and the orientations of the visual coordinate system around the X, y, and z axes of the stationary coordinate system are denoted by G 1, 0 2, 63. Similarly, let the position of the origin P of the object coordinate system on the stationary coordinate system be (P x, P y, P z), and the object around the x, y, and z axes of the stationary coordinate system. The attitude of the coordinate system is shown as 0α, θβ, and 0γ.
15 つぎに、 疑似作業環境画面の作成について説明する。 疑似作業環境画 面の作成は、 対象物の形状や特徴点、 対象物の置かれているべき位置お よび姿勢等に関する予め与えられた 3次元的データの全てを、 一旦、 静 止座標系に変換し、 (この場合変換は、 静止座標系に限定されるもので はなく 、 いずれか --つの座標系に変換すればよい。 ) その後、 改めてこ 15 Next, creation of the pseudo work environment screen will be described. To create the simulated work environment screen, all of the previously given three-dimensional data on the shape and feature points of the object, the position and orientation where the object should be placed, etc. are temporarily stored in the static coordinate system. (In this case, the conversion is not limited to the stationary coordinate system, but may be converted to any one of the coordinate systems.)
20 れを視覚座標系上に変換し、 さらに、 テレビカメラにより撮影される 2 次元画而へ変換することによ り行われる。 This is done by transforming them into a visual coordinate system and then into a two-dimensional image captured by a television camera.
上記視覚座標系上で定義されている座標を諍止座標系へ変換するには, まず、 (「 x 、 C y 、 C z ) だけ平行移動を行い、 その後、 静止座標系 の y軸、 X軸、 z軸について、 それぞれ、 (? 2、 Θ 1、 0 3、 だけ回転さ To convert the coordinates defined on the above visual coordinate system to the conflict coordinate system, first, translate by “x, Cy, Cz”, and then move the y-axis, X The axis and z axis are rotated by (? 2, Θ1, 03, respectively)
^ せればよい。 対象物座標系上で定義されている座標を静止座標系へ変換 する場合に 同搽に、 まず、 ( P x 、 P y 、 P z ) だけ平行移動を行い、 ) }¾、 jVf. I Κ 系の y 、 x ¾、 z liについて、 それぞれ、 0 /3 、 0 n 、 ί) γ 、 だけ ΙΓΊ させればよい。 ^ You can do it. To convert the coordinates defined on the object coordinate system to the stationary coordinate system, first, translate by (P x, P y, P z) )} ¾, jVf. For y, x¾, and zli in the IΚ system, only 0/3, 0n, ί) γ should be applied.
こ E E E  This E E E
Z X Y n :  Z X Y n:
C c c ¾ Λ化して したのが数 1 、 数 2である。 なお、 ここでは Equations 1 and 2 show C c c ¾ Λ. Note that here
Λを Di '1.化す ために、 5 ; 11 () 1 を 8 。 0 5 0 1を。 iで表わすこ 丁 To convert 化 to Di ' 1 , 5; 11 () 1 to 8. 0 5 0 1. This is denoted by i
hにすろ。 SC 系上の,':、(を^止 I ^ 系上に変換する座標変換行列 τ c sは、  h. The coordinate transformation matrix τ c s for converting, ':, (on the SC
'(: - T""" (CX,C)..CZ) R(,T(y,G2) ()T(X.O,) ΐ Πζ.θ·)) '(: -T """(C X , C) .. C Z ) R ( , T (y, G 2 ) () T (XO,) ΐ Πζ.θ ·))
Figure imgf000013_0001
Figure imgf000013_0001
C2C3+S,S2S3 S,S2C3-C2S3 c,s2 cx\ C 2 C 3 + S, S 2 S3 S, S 2 C 3 -C 2 S3 c, s 2 c x \
C)S3 C,C.、 -Si Cy S二 O ϋ C) S 3 C, C., -Si Cy S2 O ϋ
S,C2S.vS2C3 S2S iS,C2C C,C2 c7. (数 1 ) o o S, C 2 S.vS 2 C3 S 2 S iS, C 2 CC, C 2 c 7. ( Number 1) oo
と表せる。 該式中の T ransは平行移動変換行列である。 また、 R otは 回転移動変換行列であり、 R ot ( y 、 θ 2) は y軸回 c s ooりに 0 2回転する Can be expressed as Trans in the equation is a translation transformation matrix. R ot is a rotation-transformation transformation matrix, and R ot (y, θ 2) rotates 0 2 times around the y-axis c s oo
15 ことを意味する。 o ool 15 means that o ool
同搽に、 諍止座樑系に対する対象物座標系上の点を静止座 OOOL標系上に変 換する座標変換行列 T p Sは、  Similarly, a coordinate transformation matrix T p S that transforms a point on the object coordinate system for the controversial coordinate system into a stationary coordinate OOOL coordinate system is
if' = Trnm
Figure imgf000013_0002
(数 2 ) と表せる。
if '= Trnm
Figure imgf000013_0002
(Equation 2) can be expressed.
20 したがって、 諍止座標系上の任意の点 E (E x、 E y、 E z、 1 ) を、 m ft座標系上に変換した場合の座標 E cは、  20 Therefore, if any point E (E x, E y, E z, 1) on the controversial coordinate system is transformed into the m ft coordinate system,
E (数 3) E (number 3)
'2·Γ, と なる。 に、 対象物^標系上の任意点の位置べク トル O (O Xp、 O Yp、 Ο I ) を、 ¾党^標系上に変換した場合の座標 o cは, '2 · Γ , In addition, the position vector O (O Xp, O Yp, 任意 I) is transformed into the ¾ party ^ coordinate system, the coordinates o c are
(A: o (数 )
Figure imgf000014_0001
と ¾せる。
(A: o (number)
Figure imgf000014_0001
And
十.「 数〗 〜数 4の変換式を川いて視覚^標系上に集められた座標デー 夕は、 上述したとおり 2次元画而 (テレビカメラにより撮影される画面 に相当する) へ変換される。  10. “Coordinate data collected on the visual target system by using the conversion formulas of several to four are converted to two-dimensional images (corresponding to screens captured by a TV camera) as described above. You.
ここでは、 前記視覚座標系上に変換された任意の点 Eの座標 E cを、 該 2次元画而上に変換する場合の画面位置座標の求め方について説明す る。  Here, a description will be given of a method of obtaining screen position coordinates when converting the coordinates Ec of an arbitrary point E converted on the visual coordinate system into the two-dimensional image.
視覚座標系上における任意点の座標 E cは、 第 6図に示すとおり、 レ ンズを介して撮像 ΠΠの点 Gに結像する。 なお、 視覚座摞系は、 その原点 がレンズの中心に位置するよ うに設定される。 該図中の点 1 と点 2は、 視覚座標系の Z c籼に垂直な平面内にある。 また、 点 3 と点 4も、 同様 に、 視覚座標系の z c軸に垂直な平面内にある。 従って、 図中の点 0、 点 1 、 点 2の形成する三角形と、 点 0、 点 3、 点 4の成す三角形とは相 似である。 従って、 撮像面上の点 Gは、
Figure imgf000014_0002
…… (数5 ) と して求まる。
The coordinates Ec of an arbitrary point on the visual coordinate system form an image on the point G of the image pickup し て through the lens as shown in FIG. The visual coordinate system is set so that its origin is located at the center of the lens. Points 1 and 2 in the figure are on a plane perpendicular to Z c 座標 in the visual coordinate system. Similarly, points 3 and 4 are also in a plane perpendicular to the zc axis of the visual coordinate system. Therefore, the triangle formed by points 0, 1 and 2 in the figure is similar to the triangle formed by points 0, 3 and 4. Therefore, point G on the imaging surface is
Figure imgf000014_0002
…… (Equation 5 )
ここで、 S Xは X方向の見かけの焦点距離を表す係数、 S yは y方向 の ¾かけの 点 !)" 離を表す係数である。 ここで、 S x , S yを見かけの ,'.'Α ·· ί/| i I と I' -ぶのは、 これが、 レンズ主点からテレビカメラの撮像而ま での 離ではなく、 テレビカメ ラの撮像面に結像した被対象物の映像信 を、 ァつ · >·' グ /デジタル変换で Π I·算機で処现できる画素列に変換して ί',}ら iした If I \k)の ί'ϋι' ϊίϋまでの、 レンズ主点からの見かけの距離を意味 するからである。 Here, SX is a coefficient representing the apparent focal length in the X direction, and S y is a coefficient representing the apparent point in the y direction!) "Where S x and S y are apparent, '. 'Α · · ί / | i I and I'-This is not the distance from the principal point of the lens to the imaging position of the TV camera, but the image of the object imaged on the imaging surface of the TV camera. Faith The, 'I is converted into pixel columns can be punished Present in grayed / digital Hen换at [pi I-calculation machines'Atsu-> -, until ί'ϋι' ϊίϋ of If I \ k) was} et i, This is because it means the apparent distance from the principal point of the lens.
同 にして、 対象物座標系上の任意の点 oの画面上の点 G pは、  Similarly, a point G p on the screen of an arbitrary point o on the object coordinate system is
- = (数 6 ) |,丫/ 、EYC, Syj 0/.c と して求ま 。 -= (Equation 6) |, 丫 /, EYC, Syj 0 / .c.
上述した数 1 〜数 6からなる各閱係式を用いれば、 設計データをもと By using the above-mentioned equations consisting of Equations (1) to (6), based on the design data,
10 に対象物がテレビカメ ラでどう見えるかを計算できる。 なお、 同じ画面 位置に複数のものがある場合には、 O Z cで表す距離情報に基づいてテ レビカメラ との距離を判定し、 手前側に位匱するもののみを表示するこ とができる。 このようにして疑似作業環境画面を生成することができる。 次に、 テレビカメ ラが実際の作業環境を撮影することによって得た二Figure 10 shows how the object looks on the TV camera. When there are multiple objects at the same screen position, the distance to the television camera can be determined based on the distance information represented by OZc, and only the object that is positioned on the near side can be displayed. In this way, a pseudo work environment screen can be generated. Second, the TV camera obtained the two images obtained by shooting the actual working environment.
1 次元画面位置情報を川いて、 三次元空問位匱情報を求める方法について 説明する。 This section describes how to obtain three-dimensional space information by using one-dimensional screen position information.
該三次元空問位置情報は、 前記処理によって得た疑似作業環境画面と、 テレビカメラによって実際に撮影して得た作業画面とを比較し、 両画面 The three-dimensional space position information is obtained by comparing the simulated work environment screen obtained by the above processing with the work screen actually obtained by shooting with the TV camera.
ΙϊΠのずれを iili出することによって得ることができる。 この場合、 検出さず れ can be obtained by using iili. In this case,
20 れた両 ΪΠίί ίΤίί ίΙΠのずれを、 テレビカメラ自体の位置 · 姿勢のずれと して抽 lliする場合と、 撮影された対象物等の位置 · 姿勢のずれと して抽出する 場合とで、 処现內 ^等が なる。 そのため、 以下においては、 両処理を 分けて説明を行う。 The difference between the two is extracted as the deviation of the position and orientation of the TV camera itself, and the difference is extracted as the deviation of the position and orientation of the captured object, etc. Processing ^ etc. Therefore, in the following, both processes will be described separately.
まず、 初に、 テレビカメラ Ιίΐ体の位置 ' 姿勢のずれと して扱う場合 First, the case where the TV camera is treated as a shift
'ノ '「) の ' について説 する。 この場合には、 対象物の実際の位匱 . 姿勢が 了'めわかっていることを Πίί捉とする。 また、 疑似作業画面と しては、 上 liLテ レビ力メ ラが T'め ¾!·められた設計通りの位置および姿勢にあった場 、 該 G Gテレビ力メ ラの iii ίίιί上において対象物がどのように見えている力 す両 ί を作成する。 そして、 この作成された疑似画像と実颐面とを J匕蛟処现することによ りテレビカメ ラの位置 · 姿勢を決定する。 そして、 比敉処 は、 ¾際には以下のよ うな数学的な演算を行う ことによって なされる。 In this case, it is assumed that the actual position of the object is known and that the posture is known. If the liL television force camera is in the position and attitude as designed, the force that the object can see on iii テ レ ビ ι メ of the GG television force camera Create ί. Then, the position and orientation of the television camera are determined by processing the created pseudo image and the execution surface by J-Dagger. The comparison process is performed by performing the following mathematical operation.
ϊΐίί記式数 3および数 5からわかるように、 数 5の Gの成分 G X と G y は、 静止座標系上における、 視覚座標系の原点 Cの位置 (C x、 C y、 C z ) と、 姿勢 0 1 、 0 2、 0 3、 見かけの焦点距離 S x, S yの 8つ のパラメータで表わすことができる。 静止座標系上において、 視覚座標 系 (テ レビカメ ラ) を移動した場合、テレビカメラの実際の位置(C X 、 C y ' 、 C z ' 、 θ 1 ' 、 0 2' 、 6 3' 、 S x ' 、 S y ' ) と、 設計 位置 (C x、 C y、 C z、 0 1、 0 2、 0 3、 S x , S y ) との間に、 ずれ (AC x、 Δ C y Δ C z Δ Θ 1 , 厶ひ 2、 厶 0 3、 厶 S x, Δ S y )が生じていたとする。この時パラメータの実際の値 C x ' 、 C y' 、 C 7, ' 、 θ 1 ' 、 0 2' 、 0 3 ' 、 S χ ' 、 S y ' との間には、  わ か る As can be seen from Equations 3 and 5, the G components GX and G y in Equation 5 are the position (C x, C y, C z) of the origin C of the visual coordinate system on the stationary coordinate system. , Postures 0 1, 0 2, 0 3, and apparent focal lengths S x, S y. When the visual coordinate system (television camera) is moved on the stationary coordinate system, the actual position of the TV camera (CX, Cy ', Cz', θ1 ', 02', 63 ', Sx ', S y') and the design position (C x, C y, C z, 01, 02, 03, S x, S y). z Θ Θ 1, ひ 厶 2, 0 0 3, S S x, S S y). At this time, the actual values of the parameters C x ′, C y ′, C 7, ′, θ 1 ′, 0 2 ′, 0 3 ′, S χ ′, S y ′
Q = C-, + 厶 Cj i = x , y , z  Q = C-, + m Cj i = x, y, z
θ j θ』 + 厶 9j j = し 2 , 3 (数 7)θ j θ '' + m 9j j = shi 2, 3 (Equation 7)
Sk = Sk + ASk k = x , y の関係が成り立つている。 この時、 画面上に写る点 の位置は S k = Sk + ASk k = x, and the relationship of y holds. At this time, the position of the point on the screen is
GX + AGX G X + AG X
G (数 8)  G (number 8)
GY+ AGY/ となる。 ここで、 A G x、 Δ G yは実位置と設計位置の差で生じた画面 上の位 である。 パラメ一タの誤差△ C χ、 Δ C y , Δ C ζ , 厶 θ 1 、 △ 0 2、 厶 fl 3、 厶 S x、 Δ S yが十分に小さい時には、 位置差厶 Gは Z G Y + AG Y / Here, AGx and ΔGy are positions on the screen generated by the difference between the actual position and the design position. When the parameter errors △ C χ, ΔC y, Δ C ζ, mm θ 1, △ 0 2, mm fl 3, mm S x, Δ S y are sufficiently small, the position difference G is Z
(数 9)
Figure imgf000017_0001
(Number 9)
Figure imgf000017_0001
と表すことができる で、 例えば厶 G Xの第一項は数 5より、 - S Exc Exc 3EZC、 △CX (数 10) dCx ¾c \ dcx ¾c acx と表せる。 また該数 1 0に含まれている、 5 E x c / S C x、 δ E z c / δ C Xは数 3および数 1 より、 For example, the first term of the mumm GX can be expressed as -S Exc Exc 3E ZC , ΔC X (Equation 10) dCx ¾c \ dc x ¾c ac x from Equation 5. Further, 5 E xc / SC x, δ E zc / δ CX included in the equation 10 are, according to equations 3 and 1,
3CX 3C X
cEyc  cEyc
3EC OCx ^c)-' 3E C OCx ^ c)-'
E  E
^Cx cEZc 3Cx ^ Cx cE Z c 3Cx
acx  acx
1  1
- Κο (ζ,-03') RoT(x,-Oi)Ro (y,-02 Tra"s('Cx'"Cy,'C/) . Ε - (数 11) と求まる 他の項についても同搽にして求まる。 ο (ζ, -0 3 ') RoT (x, -Oi) Ro ( y , -0 2 Tra " s ( ' Cx '" Cy, ' C /) . The same applies to the term.
上記式数 9 よ り、 一つの特徴点で 2つの関係式が成り立つ。 n俾の特 徴点の ϋϋί而位 i 差 Δ G nを From equation (9) above, two relational expressions hold for one feature point. n boku The metaphysical i-difference Δ G n
AG,, = Rn · X (数 12) と ί く ことにする。 ここで、 Δ Ο η 、 X、 R nは、 特徴点の画面位置差 ί】列、 バラメータ誤差行列及び偏微分係数行列で、 それぞれ下記の数 1 Λ ' 〜数 1 5で示されるものである。 AG ,, = R n · X (Equation 12). Here, Δ Ο η, X, and R n are the screen position difference の] column of the feature point, the parameter error matrix, and the partial differential coefficient matrix, which are expressed by the following Equations 1 Λ ′ to 15, respectively. .
= (AGxi .AGy.AGxn.AGY,,)' (数 13)  = (AGxi .AGy.AGxn.AGY ,,) '(Equation 13)
X = (ACX,厶 CY'ACz'At 'AG^'AC .ASx,厶 SY) ······ (数 14) dG i 9Gx X = (AC X , mu CY'ACz'At 'AG ^' AC .ASx, mu S Y ) (Equation 14) dG i 9Gx
3sx as dS y (数 15) 3s x as dS y (number 15)
9GYn 3GYn 9G Yn 3G Yn
Figure imgf000018_0001
asx asy
Figure imgf000018_0001
as x as y ;
ところで、 数 1 3の A G nは疑似画像と実画像との特徴点の画面位置 整から求まる。 また、 設計データを数 1 5に代入すれば偏微分係数行列 R n も計算できる。 したがって、 数 1 3よりパラメータ誤差 Xは次式に よ り求まる。  By the way, A G n in Equation 13 is obtained from the screen positions of the feature points of the pseudo image and the real image. By substituting the design data into Equation 15, the partial differential coefficient matrix R n can be calculated. Therefore, the parameter error X can be obtained by the following equation from Equation 13.
X = (Ri · R,,)'1 ' Rj ' AGn (数 16) これは疑似逆行列を /πいて最小 2乗法で連立方程式を解いたことにな り、 特徴点の数が多いほど精度が高くなる。 逆に、 最低 4点の特徴点が あれば、 数 6中 X = (Ri R ,,) ' 1 ' Rj 'AG n (Equation 16) This means that simultaneous equations are solved by the least-squares method using the pseudo-inverse matrix as / π. Accuracy increases. Conversely, if there are at least 4 feature points,
- 1  -1
の ( R η Τ · R η ) が計算でき、 パラメータ誤差 Xを求めることがで きる。 なお、  (R η Τ · R η) can be calculated, and the parameter error X can be obtained. In addition,
R η Τは R ηの転置行列である。 と ころで、 前記数 1 2はパラメータ誤差が十分に小さいと したときの 近似式であり、 数 1 6はその近似式の解である。 実際の解はこの近似解 を数 7に代入して設計値を更新し、 これを数 1 5に代入し、 数 1 6を求 め す跺り返し演算をし、 ある範囲内に収束させる方法で求める。 この 演算によ り、 静止座標系上における視覚座標系 (テレビカメ ラ) の位置 と姿勢および見かけの焦点距離を決定できる。 以降これを単に 「テレビ カメ ラ位置決定法」 と呼ぶヒとにする。 R η Τ is the transpose of R η. Here, Equation 12 is an approximate equation when the parameter error is assumed to be sufficiently small, and Equation 16 is a solution of the approximate equation. The actual solution is to substitute the approximate solution into Equation 7 to update the design value, substitute this into Equation 15 and perform a repeat operation to find Equation 16 to converge within a certain range Ask for. By this calculation, the position and orientation of the visual coordinate system (television camera) on the stationary coordinate system and the apparent focal length can be determined. Hereinafter, this is simply referred to as “TV camera positioning method”.
つぎに、 作業画面と、 疑似作業画面との間のずれを、 対象物の位置 · 姿勢のずれと して极ぅ場合の処理について説明する。 この場合には、 テ レビカメ ラの実際の位置 ' 姿勢が予めわかっていることを前提とする。 また、 疑似作業画面と しては、 上記対象物が予め定められた設計どおり の位置 · 姿勢にあった場合、 テレビカメラの画面上においてこの対象物 がどのよ うに見えているかを示す画像を作成する。 そして、 該画像と、 実画面とを比較することによって対象物の位置 · 姿勢を決定する。 なお、 該比較処理は、 実際には以下のよ うな数学的な演算を行う ことによって なされる。  Next, a process will be described in which a difference between the work screen and the simulated work screen is defined as a shift in the position and orientation of the target object. In this case, it is assumed that the actual position and orientation of the television camera are known in advance. In addition, as the simulated work screen, when the above-mentioned object is in the position and orientation according to the predetermined design, an image showing how this object looks on the screen of the TV camera is created. I do. Then, the position and orientation of the object are determined by comparing the image with the actual screen. The comparison process is actually performed by performing the following mathematical operation.
前記数 6の G pの成分 G p X と G p yは、 静止座標系上における、 対 象物座標系の原点 Pの位置 ( P x、 P y、 P z ) と、 姿勢 Θ な、 θ β、 0 yおよびテレビカメラの見かけの焦点距離 S X , S yの 8つのパラメ —タで表すことができる。  The components G p X and G py of G p in Equation 6 are the position (P x, P y, P z) of the origin P of the object coordinate system on the stationary coordinate system, and the posture Θ, θ β , 0 y and the apparent focal length of the TV camera SX, S y, which can be represented by eight parameters.
静止座標系上において、 対象物座標系 (対象物) を移動した場合、 該 対象物の実際の位置 (P x '、 P y '、 P z 、 θ α ' , θ β 、 θ γ ' 、 S χ ' , S y ' ) と、 設計位置 (P x、 P y、 P z、 Θ a、 θ β、 Θ y , S x、 S y ) との間に、 ずれ ( Δ Ρ χ、 厶 P y、 厶 P z、 Δ 0 α、 A Θ ft、 Δ 0 γ , Δ S χ , Δ S y ) が生じていたとすると、 疑似作業画 面と、 実際に撮影した画面との問には、 該ずれに相当する差が生じる。 そこで、 前述したテレビカメ ラ位置決定方法と同様に、 この画面位置差 と偏微分係数行列からパラメータ誤差を求めれば、 静止座標系上におけ る対象物の実際の位置、 姿勢および見かけの焦点距離を決定することが できる。 以降これを単に 「対象物位置決定法」 と呼ぶことにする。 When the object coordinate system (object) is moved on the stationary coordinate system, the actual position of the object (P x ′, P y ′, P z, θ α ′, θ β, θ γ ′, S χ ', S y') and the design position (P x, P y, P z, Θ a, θ β, Θ y, S x, S y) , Pz, Δ0α, AΘft, Δ0γ, ΔSχ, ΔSy), the difference between the pseudo work screen and the screen actually shot is Is generated. Therefore, in the same way as the TV camera position determination method described above, if the parameter error is obtained from the screen position difference and the partial differential coefficient matrix, the actual position, posture, and apparent focal length of the object on the stationary coordinate system can be obtained. Can be determined. Hereinafter, this is simply referred to as “object position determination method”.
前述のテレビカメ ラ位置決定法とこの対象物位置決定法との違いは、 上述したとおり、 前者が画面内にある複数の対象物の特徴点情報に基づ いて自己 (テレビカメ ラ) の位置を決定するものであるのに対し、 後者 は、 対象物の特徴点情報に基づいて対象物そのものの位置 · 姿勢を決定 する点である。 - ここまでの説明において述べてきた対象物位置決定法は、 その原理上、 テレビカメラの実際の位置 · 姿勢が正確にわかっていることが前提とな る。 正確な位置がわかっていなければ、 実際のテレビカメラとは異なる レンズ主点から見た疑似画像を作成することになり、 その結果、 対象物 位置決定の精度が悪く なつてしま うからである。 同様の理由から、 前述 のテレビカメラ位置決定法も、 対象物位置の実際の位置 . 姿勢が正確に わかっていることが前提になる。 つまり、 両者は、 互いに依存し合って おり、 テレビカメラ と、 全ての対象物とのうち、 どちらかの実際の位置 が予め正確にわかっていなければ、 正確な位置検出等は行うことができ ない。  As described above, the difference between the above-described TV camera position determination method and this object position determination method is that the former is based on the feature point information of a plurality of objects on the screen, and the position of the self (TV camera) is determined. Whereas, the latter is a point in which the position and orientation of the target object itself are determined based on the feature point information of the target object. -The principle of the object position determination method described in the above description is based on the assumption that the actual position and orientation of the TV camera are accurately known. If the exact position is not known, a pseudo image viewed from the lens principal point different from the actual TV camera will be created, and as a result, the accuracy of the object position determination will be degraded. For the same reason, the above-mentioned TV camera position determination method is based on the premise that the actual position and orientation of the object position are accurately known. In other words, the two depend on each other, and accurate position detection etc. cannot be performed unless the actual position of either the TV camera or all the objects is accurately known in advance. .
しかし、 移動するロボッ トのアームにテレビカメラが設置されている よ うな場合には、 テレビカメラと対象物の何個かが同時に設計位置から ずれていることが予想される。 従って、 上記対象物位置決定法等の適用 には、 たとえば、 テレビカメラが固定されているような特定の状況の場 合に限定ざれるという不便な問題が残っている。 そこで、 本願発明者は、 〜の問題についても、 以下において述べる第 1および第 2の 2種類の手 法によって実用上問題がない程度にまで解決することができた。 ここで、 テレビカメ ラの位置決定の精度は、 対象物位置の正しさに依 存しているから、 設計位置にない位置データに基づいて決定したテレビ カメラ位置により対象物位置を決定すれば、 当然精度が悪くなる。 そこ で対象物の正確な位置を決定するため、 まず、 位置ずれしている対象物 を捜し出し、 次に、 残りの設計位置通りの対象物の特徴点情報を用いて、 もう一回テレビカメラの位置を決定する。 However, when a TV camera is installed on the arm of the moving robot, it is expected that the TV camera and some of the objects will be off the design position at the same time. Therefore, there remains an inconvenient problem that the application of the object position determination method or the like is limited to a specific situation where the television camera is fixed, for example. Therefore, the inventor of the present application has also been able to solve the problem (1) to the extent that there is no practical problem by the first and second two methods described below. Here, the accuracy of determining the position of the TV camera depends on the correctness of the position of the object, so if the position of the object is determined based on the position of the TV camera determined based on position data that is not at the design position, Of course, the accuracy will be worse. Then, in order to determine the exact position of the object, first find the object that is misaligned, and then use the feature point information of the object as the rest of the design position, and once again use the TV camera Determine the position.
さらに、 このテレビカメラ'の決定位置で位置ずれしている対象物の位 置 · 姿勢を決定する。 Further, the position / posture of the object that is displaced at the determined position of the TV camera 'is determined.
まず、 本発明の第 1の手法の概要を説明する。  First, the outline of the first technique of the present invention will be described.
最初に、 複数の対象物を用いて、 暫定的に、 テレビカメラの位置を決 定する。 そして、 これらの対象物のうち位置ずれしているものを捜し出 す。 その後、 設計位置通りの位置にあった対象物の特徴点情報を用いて、 改めて、 テレビカメラの位置を再決定する。 さらに、 この後、 今度はテ レビカメラの再決定された位置で、 位置ずれしている対象物の位置姿勢 を決定する。  First, the position of the TV camera is temporarily determined using multiple objects. Then, those objects that are out of position are searched for. Then, the position of the TV camera is determined again using the feature point information of the object located at the design position. After that, the position and orientation of the object whose position has been shifted are determined this time at the re-determined position of the TV camera.
以下、 第 7図を用いて該手法を詳しく説明する。 この場合、 初期状態 において、 4個の対象物 P 0, P l, P 2, P 3のうち P 0, P l, P 2は、 設計位置通りの正しい位置にあるが、 対象物 P 3およびテレビ力 メラは、 設計位置からずれているものとする。  Hereinafter, the method will be described in detail with reference to FIG. In this case, in the initial state, among the four objects P 0, P 1, P 2, and P 3, P 0, P 1, and P 2 are in the correct positions as designed, but the objects P 3 and P 3 It is assumed that the TV camera is out of the design position.
[ステップ a 1 ]  [Step a 1]
4個の対象物 P O , P 1 , P 2 , P 3 と、 テレビカメラとの全てが、 設計位置にあった場合に見えるであろう画面を、 予め有する設計データ を用いて疑似的に作成する。 そして、 作成した疑似画像と、 実際にテレ ビカメラによつて撮影された画像とを用いて、 前述のテレビカメラ位置 決定法によって (この場合、 対象物 P 0〜 P 3の位置 . 姿勢は、 全て正 しい位置にあるものとみなして行う。 ) テレビカメラの位置および姿勢、 つまり、 静止座標系上における視覚座標系の原点の位置および視覚座標 系の姿勢を求める。 以下、 ここで求めたテレビカメラの位置および姿勢 を、 単に 「推定カメラ位置」 という。 Creates a screen that can be seen when all four objects PO, P 1, P 2, P 3, and the TV camera are at the design position, using the design data that we have in advance. . Then, using the created pseudo image and the image actually taken by the TV camera, the TV camera position determination method described above (in this case, the positions and postures of the objects P0 to P3 are all Perform assuming that the camera is in the correct position.) That is, the position of the origin of the visual coordinate system on the stationary coordinate system and the posture of the visual coordinate system are obtained. Hereinafter, the position and orientation of the television camera obtained here will be simply referred to as “estimated camera position”.
しかし、 位置ずれしている対象物 P 3の特徴点情報をも用いているた め、 ここで求めたテレビカメラの位置 ' 姿勢、 つまり、 推定カメラ位置 は、 静止座標系上における実際の位置とは完全には一致していないこと になる。  However, since the feature point information of the object P 3 whose position is displaced is also used, the position テ レ ビ attitude of the TV camera obtained here, that is, the estimated camera position is different from the actual position on the stationary coordinate system. Are not exactly the same.
[ステップ a 2 ]  [Step a 2]
続いて、 前記ステップ a 1で求めた推定力.メラ位置にテレビカメラが あり、 かつ各対象物が設計位置にあった場合に見えるであろう画面を、 予め有している設計データを用いて疑似的に作成する。 そして、 作成し た疑似画像と、 実際にテレビカメラによって撮影された画像とを用いて、 前述の対象物位置決定法により (この場合、 上記推定カメラ位置に、 実 際にテレビカメラがあるものとみなして行う。 ) 静止座標系上における 各対象物 P 0〜 P 3の位置および姿勢、 つまり、 静止座標系上における 各対象物座標系の原点の位置および各対象物座標系の姿勢を暫定的に決 定する。 以下、 ここで求めた対象物の位置および姿勢を、 単に 「推定対 象物位置 J という。  Subsequently, the estimated power obtained in step a. Using a design data which has a television camera at the camera position, and which can be seen when each object is at the design position, using the design data which has in advance. Create a pseudo. Then, using the created pseudo image and the image actually taken by the TV camera, the above-described object position determination method is used (in this case, it is assumed that a TV camera is actually present at the estimated camera position). The position and orientation of each object P0 to P3 on the stationary coordinate system, that is, the position of the origin of each object coordinate system and the orientation of each object coordinate system on the stationary coordinate system are provisional. Is decided. Hereinafter, the position and orientation of the object obtained here are simply referred to as “estimated object position J”.
しかし、 このようにして得た推定対象物位置が、 静止座標系上におけ る対象物 P 0〜 P 3の実際の位置 · 姿勢と一致しているとは限らない。 これは前記対象物位置決定法を行う際に仮定した推定カメラ位置と、 テ レビカメ ラの実際の位置との一致が、 本当に成立しているとは限らない からである。  However, the position of the estimated object obtained in this way does not always match the actual position and orientation of the objects P0 to P3 on the stationary coordinate system. This is because the coincidence between the estimated camera position assumed when performing the object position determination method and the actual position of the television camera is not always true.
[ステップ a 3 ]  [Step a 3]
静止座標系上の三次元空間上において、 各対象物を上記推定対象物位 置に設定すると ともに、 テレビカメラを推定カメラ位置に設定する。 た だし、 この 合の設 ϋίτは疑似的に行う ものであり 、 テレビカメラや各対 ¾物を: 際に設^するものではない。 この後、 上記各対象物を設計位置 ίこまで 似 Ι'1-Jに移 υ¾させる。 この場合、 該各対象物の移動と共に、 上記 m ΐ\ΐ \ 物 ^と カメ ラ位^との〖ί!πこ成り立っていた相対的な位置 r, i系を ったまま、 テレビカメラも疑似的に移動し、 各対象物が上記設 in- (、'/: にあると きのテレビカメ ラの位置 ' 姿勢を求める。 ここで求めた テレビカ メ ラの位^を、 以下 「 ;二次推定カメラ位匱 j という。 In the three-dimensional space on the stationary coordinate system, each object is set to the above-mentioned estimated object position, and the television camera is set to the estimated camera position. Was However, the setting in this case is performed in a simulated manner, and is not a setting in which a television camera or each object is particularly set. After that, the above objects are moved to the similar position '1-J up to the design position. In this case, along with the movement of each of the objects, the TV camera also moves while maintaining the relative position r, i system of m! Π between the mΐ \ ΐ \ object ^ and the camera position ^. The camera moves in a simulated manner, and the position of the TV camera when each object is at the above-mentioned setting in- (, '/:' Attitude. The position of the TV camera obtained here is referred to as “; The next estimated camera position is called j.
上記処理を実際行う場合の具体的な演算処理の內容を以下に説明する。 上述のステッブ a 1 で得た推定力メラ位置を、 C 2 x、 C 2 y 、 C 20 z 、 0 2 1 、 fl 2 2 、 0 2 3 とすると、 諍止座標系上で定義されている 座標を、 静止座標系へ座標変換するための行列は、 数 1 より、 下記数 1 7のように表すことができる。  The details of the specific arithmetic processing when the above processing is actually performed will be described below. Assuming that the estimated force position obtained in step a 1 above is C 2 x, C 2 y, C 20 z, 0 2 1, fl 2 2, 0 2 3, it is defined on the controversial coordinate system The matrix for converting the coordinates into the stationary coordinate system can be expressed as shown in the following Expression 17 from Expression 1.
'1 2= Tras (C2x,C2y,C27.) · R0T(y,G22) · 0T(x,e2i) - RoT(z,623) …… (数 Π) また、 前記ステップ a 2で得た対象物 P 0についての推定対象物位置 を、 P O x 、 P O y 、 Ρ Ο ζ 、 0 0 α、 6 0 0 、 0 Ο γ とすると、 対象 物^標系上で ^義されている座標を、 静止座標系へ座標変換するための 行列は、 前記数 2 より、 下記数 1 8のように表すことができる。 '1 2 = T ra "s (. C 2x, C 2y, C 27) · R 0 T (y, G 22) · 0 T (x, e 2 i) - RoT (z, 6 23) ...... ( (Equation Π) Also, assuming that the estimated object position for the object P 0 obtained in the step a2 is PO x, PO y, Ρ Ο 0, 0 0 α, 600, 0 γ γ, the object A matrix for transforming the coordinates defined on the ^ coordinate system into the stationary coordinate system can be expressed by the following equation (18) from equation (2).
Figure imgf000023_0001
· R0T(x,e0a) · R0T(z,e0J …… (数 18) 前記対象物 P 0上の特徴点列 X nを、 視覚座標系上に変換したものを 0 Y n とすると、 Y nは、 数 1 9のよ うに表される。
Figure imgf000023_0001
· R 0 T (x, e 0a ) · R 0 T (z, e 0 J …… (Equation 18) The feature point sequence X n on the object P 0 is converted to a visual coordinate system by 0. Assuming that Y n, Y n is expressed as in Equation 19.
Υη
Figure imgf000023_0002
· Χη …… (数 19) 一方、 ί)ίί記対象物 Ρ 0が設計位置にあった場合の位置 . 姿勢、 つまり、 対象物 P 0の設計位置を、 P t 0 x 、 P t O y 、 P t 0 z 、 0 t O a、 Π ί 0 β ヽ ί) t Ο γ とすると、 諍止座標系への座標変換行列は、 前記数 よ り、 下記数 2 0のよ うに表すことができる。
Υη
Figure imgf000023_0002
· Χ η …… (Equation 19) On the other hand, ί) the position when the target object Ρ 0 is at the design position. Attitude, that is, the design position of the target object P 0 is represented by P t 0 x, P t O y, P t 0 z, 0 t O a, ί ί 0 β ί ί) t Ο γ, the coordinate transformation matrix to the controversial coordinate system is expressed by the following equation (20) from the above number. Can be.
'if
Figure imgf000023_0003
- o (y,el0[]() · RoT(x,0lOa) - R。T . θι0γ) …"- (数 20) 二こで、 し、 テ レビカ メ ラの実際の位 [1 · 姿勢が、 C 3 X 、 C 3 y、 C :? 7. 、 0 Λ - J 3 2、 0 3 3であったとする。 また、 この視覚座標 系. I·.で定義されている) 標を、 ^止座標系へ座標変換するための行列は、 下記数 2 1 のよ うに表すことができる。
'if
Figure imgf000023_0003
-o (y, e l0 [ ] () · RoT (x, 0 lO a) -R.T . θ ι0γ )… ”-( Equation 20) The actual position of the telecamera [1 · Assume that the posture is C3X, C3y, C:? 7, 0Λ-J32, 033. In addition, a matrix for transforming the target (defined in the visual coordinate system I.) into the stationary coordinate system can be expressed as in the following Equation 21.
'ic3= rais (c3x,C3Y,c3z) - Ro'r(y.e32') , R0T(x,e3l) . R0T(z,e33) …… (数 21) また、 Πίί記対象物 Ρ 0上の特徴点列 X ηを、 実際の視覚座標系上に変 換したものを Υ η ' とすると、 Υ η ' は、 数 2 2のよ うに表される。 'ic3 = rais (c 3 x, C3Y, c 3 z)-Ro'r (ye 32 '), R 0 T (x, e 3l ). R 0 T (z, e 33 ) …… (Equation 21) Also, assuming that the feature point sequence X η on Πίίtarget object Ρ 0 is transformed into an actual visual coordinate system as Υ η ′, Υ η ′ is expressed as in Equation 22.
Υη = ( )1 · if · Xn …… (数 22) ここで、 この時、 画面に全く同じ情景が写っているとすると、 つまり、 Y n = Y n ' と考えると、 下記数 2 3の関係が成り立つはずである。 Υη = () 1 · if · X n …… (Equation 22) Here, if it is assumed that the exact same scene is shown on the screen, that is, if Y n = Y n ', then the following equation 2 3 The relationship should hold.
(も) . · Xn = 1 · T · Xn …… (数 23) 従って、 次式である数 2 4の関係が成り立つ。 )-1 · 丁 = ( . 'If …… (数24) いま、 C 2 x、 C 2 y、 C 2 z、 0 2 1、 0 2 2、 0 2 3、 P O x、· X n = 1 · T · X n …… (Equation 23) Therefore, the following equation (2 4) holds. ) -1 · = = (. 'If …… (Equation 24 ) Now, C 2 x, C 2 y, C 2 z, 0 2, 0 2 2, 0 2 3, PO x,
P 0 y、 P O z、 0 0 a、 0 0 β , 0 Ο γ、 P t O x、 P t O y、 P tP 0 y, P O z, 0 0 a, 0 0 β, 0 γ γ, P t O x, P t O y, P t
0 z 、 0 t 0 α 0 t 0 /3 , 0 t 0 7 , はそれぞれ既知であるから、 前 記数 1 9、 数 2 0、 数 2 2は、 一意に求まる。 そして、 この結果と、 前 記数 2 4 とを用いれば、 前記数 2 1は、 下記数 2 5、 数 2 6のよ うに求 めることができる。 い C3 - \ lC2l · Γθ · I1! J a21 a22 «23 つ 、 ϋ 0 0 1 / …… (数 26)
Figure imgf000025_0001
Since 0 z, 0 t 0 α 0 t 0/3, and 0 t 07, are already known, Equations 19, 20 and 22 are uniquely obtained. Then, by using this result and Equation 24 above, Equation 21 can be obtained as Equations 25 and 26 below. I C3-\ l C2l · Γθ · I 1 ! J a21 a 22 «23, ϋ 0 0 1 / ...... (number 26)
Figure imgf000025_0001
[ステップ a 4 ]  [Step a 4]
つぎに、 fiii記各対象物について求めた第 2次推定力メラ位匱間の距離 を算出する。  Next, the distance between the secondary estimated powers of each object is calculated.
[ステップ a 5 ]  [Step a 5]
ここで、 各々の対象物毎に求めた第 2次推定力メラ位置の一致性を見 れば、 いずれの対象物の位匱がずれているかを判断することができる。 すなわち、 実際の位置と設計位置とがー致している対象物 P 0, p i , P 2を用いて算出した第 2次推定力メラ位置は、 全て一致するはずであ る。 一方、 設計位置からずれた位置にある対象物 P 3を用いて算出した 第 2次推定カメラ位置は、 他と一致しないはずである。 したがって、 量 子化誤差の許容範囲外の距離を持つ対象物を判別すれば、 設計位置にな い対象物を割り出すことができる。  Here, it is possible to judge which object is out of position by checking the coincidence of the secondary estimated force position obtained for each object. In other words, the second estimated force mera positions calculated using the objects P 0, p i, and P 2 where the actual position and the design position match should all coincide. On the other hand, the second estimated camera position calculated using the object P3 located at a position deviated from the design position should not match the other. Therefore, if an object having a distance outside the permissible range of the quantization error is determined, an object that is not at the design position can be determined.
[ステップ a 6 ]  [Step a 6]
実際に設計位置上にあることが判明した対象物 P 0, P 1 , P 2の特 徴点情報を用いて、 改めて、 正確にテレビカメラの位置を決定する。  Using the characteristic point information of the objects P 0, P 1, and P 2 that have been found to be actually at the design position, the position of the TV camera is determined accurately again.
[ステップ a 7 ]  [Step a 7]
上記ステップ a 6で決定された正確なテレビカメラの位置を用いて、 許容範閥外にあった対象物 P 3の位置および姿勢を決定する。  Using the exact position of the television camera determined in step a6 above, the position and orientation of the object P3 outside the allowable range are determined.
以上の手順により設計位置にない対象物とテレビカメラとの位匱を、 精度高く決定することができる。  By the above procedure, the position of the TV camera and the object not at the design position can be determined with high accuracy.
次ぎに第 2の手法について説明する。  Next, the second method will be described.
この手法においては、 各対象物毎にテレビカメラ位匱決定法を適用し、 テレビカメ ラの位置を決定する。 以下、 ここで求めたテレビカメラの位 置を 「暫定位置」 という。 In this method, a TV camera position determination method is applied to each object, Determine the position of the TV camera. Hereinafter, the position of the TV camera obtained here is referred to as “provisional position”.
そして、 この後は、 上記第 1の手法の [ステップ a 5 ] 〜 [ステップ a 7 ] と同様の処理を行う。 つまり、 ここで求めた各対象物毎の各暫定 位置の一致性を見ることによって、 設計位置にない対象物を判別するこ とができる。 なお、 この場合の一致性の判断の手法と しては、 上記ステ ップ a 4、 a 5で示した方法に限定されるものではない。  After that, the same processing as [Step a5] to [Step a7] of the first method is performed. That is, it is possible to determine an object that is not at the design position by checking the consistency of each provisional position for each object obtained here. In this case, the method of determining the consistency is not limited to the method described in steps a4 and a5.
なお、 上記第 1 の手法および第 2の手法とも、 対象物を 3個以上使用 することが、 その原理上必要である。 これは、 対象物が 1個では比較す る相手がなく、 また、 対象物が 2個では、 どちらが正確であるかを判定 できないからである。 また、 上述の説明中、 各所において疑似画像を作 成する旨を述べてきたが、 これは概念的な意味で述べたものであって、 必ずしも実際に 「画像」 とする必要はない。  In addition, in both the first and second methods, it is necessary in principle to use three or more objects. This is because there is no partner to compare with one object, and it is not possible to determine which is more accurate with two objects. Also, in the above description, it has been described that a pseudo image is created in each place, but this is a conceptual description, and does not necessarily need to be actually an “image”.
つぎに、 テレビカメラと対象物とを用いて、 テレビカメラあるいは対 象物の位置を決定する他の方法について説明する。  Next, another method for determining the position of the television camera or the object using the television camera and the object will be described.
まず、 1台のテレビカメラと 1個の対象物を用いたときの関係につい て説明する。 静止座標系において、 視覚座標系を移動した場合、 テレビ カメラの実際の位置 (C x '、 C y '、 C z '、 0 1 '、 0 2 '、 θ 3 、 S χ ' , S y ' ) および対象物の実際の位置 ( P X ' 、 P y ' , P 、 0 ひ ' 、 θ β 、 θ γ ' ) と、 テレビカメラの設計位置 (C X 、 C y、 C z、 0 1 、 0 2、 0 3、 S x、 S y ) および対象物の設計位置 ( P x、 P y、 Ρ ζ、 Θ a、 θ 0、 θ γ ) どの間に、 それぞれずれ ( Δ C x、 A C y、 厶 C z、 厶 0 1 、 厶 0 2、 厶 Θ 3、 厶 S x、 厶 S y ) お よび (Δ Ρ χ、 Δ P y , Δ Ρ ζ、 Δ 0 ひ 、 Α θ β、 厶 0 y ) が生じてレヽ たとする。 この時、 バラメータの実際の位置と設計位置及びずれとの間 には、 G G First, the relationship when one TV camera and one object are used will be described. In the stationary coordinate system, when the visual coordinate system is moved, the actual position of the TV camera (Cx ', Cy', Cz ', 01', 02 ', θ3, Sχ', Sy ' ) And the actual position of the object (PX ', Py', P, 0h, θβ, θγ ') and the design position of the TV camera (CX, Cy, Cz, 01, 02) , 03, Sx, Sy) and the design position of the object (Px, Py, Ρ ζ, Θa, θ0, θγ) C z, m 0 1, m 0 2, m 3, m S x, m S y) and (Δ Ρ, Δ P y, Δ Ρ ζ, Δ 0, Α θ β, 0 0 y) It is assumed that a problem has occurred. At this time, between the actual position of the parameter and the design position and deviation, GG
Γ P X y  Γ P X y
. . (数 27)
Figure imgf000027_0001
の |¾係が成り立つている。 この時、 画面上に移る点 G ρ ' の位置は、
.. (Number 27)
Figure imgf000027_0001
| The relationship holds. At this time, the position of the point G ρ 'on the screen is
G X + Δϋρχ (数 28) G X + Δϋρχ (Equation 28)
となも こで、 パラメータのずれが十分に小さいときには位置差厶 G は、 Therefore, when the parameter deviation is sufficiently small, the position difference G is
Figure imgf000027_0002
Figure imgf000027_0002
AS, asy AS, as y
(数 29) dsx(Number 29) ds x no
と表すことができる。 対象物上のこの特徴点の画面位置差 Δ G p nを、 AG „ = Rpn · Xp ....  It can be expressed as. The screen position difference ΔG pn of this feature point on the object is expressed as AG „= RpnXp ....
…… (数 30) と書く ことにする で、 Δ G p nは特徴点の画面位置差ベク トルで、 …… (Equation 30) where Δ G pn is the screen position difference vector of the feature points,
Λ(;ι'„ = (AGPXI ,厶 G|,Y| ,·'·■, AG x„ , Δΰ γη) (数 31) で示されるものである。 また、 X pはパラメ一タ誤差ベク トルで、 Λ (; ι '„= (AGPXI, mu G |, Y |, ·' · ■, AG x„, Δΰ γη) (Equation 31) It is shown by. X p is a parameter error vector, and
Xi' = (cXP , οΧρ , sXP)T : ' Xi '= (cX P , οΧρ, sX P ) T :'
(数 32) で示されるものである。 この中の s X p、 c X p、 o X pはパラメータ ¾の う ちの見かけの焦点距離のパラメータ誤差べク トル、 カメ ラの位 {P:姿勢のパラメータ誤差べク トル、 対象物のパラメータ誤差べク トルで、 それぞれ下記の数式  (Equation 32). Where sXp, cXp, oXp are the parameter error vector of the apparent focal length of the parameter ¾, the position of the camera (P: the parameter error vector of the posture, the parameter of the object In the error vector,
sXi> = (Δδχ , ASy)1 (数 33) sXi> = (Δδχ, ASy) 1 (Equation 33)
CXP - (ACX, ACy , ACZ, Δθ, , Δ02 , Δθ3, SX , ASy)丁 (数 34) ()X1, = (Δ?χ '△ , ΔΡ, , Δθα , Δθρ , Δθγ)Τ (数 35) で示されるものである。 CXP-(AC X , AC y , AC Z , Δθ,, Δ0 2 , Δθ 3 , S X , AS y ) (Equation 34) () X1, = ( Δ? Χ '△, ΔΡ,, Δθ α , Derutashitaro, is represented by the [Delta] [theta] gamma) T (number 35).
さらに、 R ρ ηは偏微分係数行列で、
Figure imgf000028_0001
θϋ χι 9Gpxi
Further, R ρ η is a partial derivative matrix,
Figure imgf000028_0001
θϋ χι 9Gpxi
dCx dC 3Θ、 3SX お、 dC x dC 3Θ, 3S X ,
(数 36) (Number 36)
3GpYn 9GpYn )GpYn 3G|,Yn 9GpYr 3GpYn 9GpYn) GpYn 3G |, Y n 9GpY r
DC, DCv 3Θ、 dSx as. で示されるものである。 ところで、 前記数 3 1の A G p nは、 疑似画像 と実画像との特徴点の画面位置差から求まる。 また、 設計データを上記 数 3 6に代入すれば偏微分係数行列 R p nも計算できる。 したがって、 前記数 3 0よ りパラメータ誤差 X pは、 次式で求まる。 DC, DCv 3Θ, dS x as. By the way, AG pn in Equation 31 is obtained from the screen position difference between the feature points of the pseudo image and the real image. Also, by substituting the design data into Equation 36 above, the partial differential coefficient matrix R pn can be calculated. Therefore, the parameter error X p can be obtained from the following equation from the equation (30).
(数 37) つぎに、 複数のテレビカメラと複数の対象物の位置決定法を、 2台の テレビカメ ラ と 2俩の対象物を例に説明する。 この説明の前に、 前述し た 1 台のテレビカメラと 1個の対象物に関する関係を次のように整理す る (Equation 37) Next, a method for determining the positions of a plurality of television cameras and a plurality of objects will be described with reference to two television cameras and an object of 2 俩 as an example. Before this explanation, the relationship between one TV camera and one object described above is summarized as follows. To
^微分係数行列 R p nを  ^ Derivative matrix R pn
1.1 1,1 1.1 1,1
Rr,、 = cR oR Ριι sR 1," (数 38) とおく。  Rr ,, = cR oR Ριι sR 1, ”(Equation 38).
ここで、 c R p n 、 o R p n、 s R p nは、 それぞれテレビカメラの 位 · 姿勢バラメータに I する偏微分係数行列、 対象物の位置 · 姿勢パ ラメータに閥する偏微分係数行列、 テレビカメラの見かけの焦点距離パ ラメータに関する偏微分係数行列である。 また、 パラメータ誤差べク ト ノレ X pを、  Here, c R pn, o R pn, and s R pn are the partial differential coefficient matrix related to the position and attitude parameters of the TV camera, the partial differential coefficient matrix related to the position and attitude parameters of the object, and the TV camera, respectively. 7 is a partial derivative matrix related to an apparent focal length parameter of FIG. Also, the parameter error vector Xp is
XP = (cX,1, , oXv l , sX,1. ] (数 39) とおく。 XP = (cX, 1 ,, oX v l , sX, 1. ] (Equation 39).
ここで、 c X p、 o X p、 s X pはそれぞれテレビカメラの位置 ' 姿 勢パラメータベク トル、 対象物の位置 . 姿勢パラメータベク トル、 テレ ビカメ ラの倍率パラメータベク トルである。  Here, c X p, o X p, and s X p are the position and attitude parameter vector of the TV camera, the position of the object and the attitude parameter vector, and the magnification parameter vector of the television camera, respectively.
つぎに、 2台のテレビカメラと 2個の対象物を用いた場合における、 対象物上の特徴点の画面位置差べク トル Δ G a 1 】 とパラメータに関す る偏微分係数行列 R a 1 1 とパラメータ誤差べク ト ノレ X a 1 1 との関係 は、  Next, when two TV cameras and two objects are used, the screen position difference vector ΔG a 1] of the feature points on the object and the partial differential coefficient matrix R a 1 relating to the parameters are used. The relationship between 1 and the parameter error vector X a 1 1 is
AGa|| = Ra„ · Xaii …… (数 40) 次式となる。 ここで、 A G a l l 、 R a i l , X a 1 1 をそれぞれ、 AG a || = a R a "· Xaii ...... (number 40) the following equation. Here, AG all, R ail, X a 1 1 , respectively,
AGall = (AGpn , AGpn 2 , AGp'1 , Δΰί …… (数 41) AG all = (AGpn, AGp n 2, AGp '1, Δΰί ...... ( number 41)
、 1 (数 42)
Figure imgf000029_0001
2\T
, 1 (number 42)
Figure imgf000029_0001
2 \ T
M = (cXi, , cX?> , oX{>, oXf, , sX{, , sX, (数 43)  M = (cXi,, cX?>, OX {>, oXf,, sX {,, sX, (Equation 43)
ように しなおす。 式屮 1, 1、 1 , 2等の右肩の指数 i、 j は、 i 1 1 テ レ ビ力メ ラに対する 〗 桥 |:|の対象物に関するものであることを 怠 ¾している。 Do it again. The exponents i, j on the right shoulder of expressions 1, 1, 1, 2, etc. negate that they relate to the object of 桥 桥 |: | for the i 11 television force camera.
Γίί記数 4 0は、 パラメータが冗長なので、 このままではパラメータ誤 羌で解く ことができない。 そこで、 つぎの対象物のいずれか 1個を静止 座標系に固定して解く例について説明する。 対象物 1個目を諍止座標系 に固定すると、 数 4 2の偏微分係数行列 R a 1 1 と、 数 4 3のパラメ一 タ誤差べク トノレ X a 1 1 は、  Γίί Since the parameter number 40 has redundant parameters, it cannot be solved with parameter errors as it is. Therefore, an example in which one of the following objects is fixed in a stationary coordinate system and solved is described. When the first object is fixed to the controversial coordinate system, the partial differential coefficient matrix Ra1 1 of Equation 42 and the parameter error vector Xa1 1 of Equation 43 are
(数 44) (Number 44)
Figure imgf000030_0001
(数 45) となる。 したがって、 前記数 4 0は、
Figure imgf000030_0001
(Equation 45). Therefore, the above equation 40 is
A、'all = Ra|| . A ai| (数 46) と表せ、 これより数 4 5はパラメータ誤差 X a 1 1 は、 A, ' a ll = R a ||. A a i | (Equation 46) From this, Equation 4 5 shows that the parameter error X a 1 1 is
、丁 , Ding
X all = URallj · Rail) · Rpn · 厶 Gall (数 47) で求まる。 ここで、 数 4 6はパラメ一タ誤差が十分に小さいと したとき の近似式であり、 数 4 7はその近似式の解である。 前記テレビカメラ位 置決定法と同搽に、 収束演算することによ り、 複数のテレビカメラの位 ^と対象物の位置を決 することができる。  X all = URallj · Rail) · Rpn · mum Gall (Equation 47). Here, Equation 46 is an approximate equation when the parameter error is sufficiently small, and Equation 47 is a solution of the approximate equation. By performing the convergence calculation in the same manner as the TV camera position determination method, the positions of the plurality of TV cameras and the position of the object can be determined.
次に、 複数のテ レビカメ ラの問に、 予め決められた拘束関係がある場 ^のテ レビカメ ラ と対象物の位置の決定法について、 2台のテレビカメ ラ と 2 fl.'ilの対象物を川レ、た例で説明する。 Next, when two or more TV cameras have a predetermined constraint relationship, how to determine the position of the TV camera and the object is described below. La and 2 fl.'il will be explained using an example.
2台のテ レビカメ ラは拘來されているので、 ここでは 1 台目のテレビ 力メ ラの ί、'/: ί?¾ · 姿勢をパラメータ と して使用し、 一個目の対象物を静止 l¾ i 系に W定して解く例について説明する。 2台目のテレビカメラの位 Since two TV cameras are in custody, the で は, '/: ί? ¾ attitude of the first TV camera is used as a parameter here, and the first object is stationary. An example of solving for l¾i system is described. Second TV camera position
· 姿勢をパラメータは、 1 台 のテレビカメラの位置 · 姿勢をパラメ 一タに拘 されているので、 この時の偏微分係数行列 R a 1 1 は、 · The posture parameter is the position of one TV camera. · The posture is limited by the parameter.Therefore, the partial differential coefficient matrix Ra1 1 at this time is
Rail (数 48)
Figure imgf000031_0001
と表せる。 また、 このときのパラメータ誤差 X a 1 1 は.
Rail (number 48)
Figure imgf000031_0001
Can be expressed as And the parameter error X a 1 1 at this time is.
ΧΛΗ == (cX , θΧ , sX , sX / (数 49) であり、 対象物上の特徴点の画面位置差べク トル A G a 1 1 と、 パラメ ータに関する偏微分係数行列 R a 1 1 およびパラメータ誤差ベク トル X a 1 1 の関係は、 C Λ Η == (cX, θΧ, sX, sX / (Equation 49)), the screen position difference vector AG a 11 1 of the feature point on the object, and the partial differential coefficient matrix Ra The relationship between 1 1 and the parameter error vector X a 1 1 is
A ja" = Ka1| · A -all (数 50) となる。 ところで、 対象物上の特徴点の画面位置差ベク トル Δ G a 1 1 は疑似両像と実画像との特徴点の画面位置差から求まる。 また、 設計デ 一タを前記数 4 8に代入すれば、 パラメータに関する偏微分係数行列 R a 1 】 も計算できる。 したがって、 パラメータ誤差ベク トル X a 1 1 は、 ,ΙΙ - ( . l|T - Rail )' · Rail - AGa" (数 51 ) によ り求まる。 こ こで、 数 5 0はパラメータ誤差が十分に小さいと した と きの近似式であり、 数 5 〗 はその近似式の解である。 前記 「テレビ力 メ ラ位置決-定法」 と同様に、 収束演算することにより、 複数のテ レビ力 メ ラの ηπに予め決められた拘朿関係がある場合のテレビカメラと対象物 の位置を決定することができる。 A j a "= K a 1 | · A -all (Equation 50) By the way, the screen position difference vector Δ G a 11 of the feature point on the object is the feature point between the pseudo-two images and the real image. By substituting the design data into the above equation (4), the partial differential coefficient matrix R a 1] for the parameters can be calculated. Therefore, the parameter error vector X a 11 1 is expressed as ΙΙ-(. L | T -Rail) '· Rail-AG a "(Equation 51). Here, Equation 50 is the approximate equation when the parameter error is sufficiently small, and Equation 5 5 is the solution of the approximate equation. As in the case of the above-mentioned “TV power camera positioning-common method”, multiple convergence The position of the television camera and the object can be determined when there is a predetermined relationship between ηπ of the camera and the camera.
図面の節単な説明 Brief description of drawings
第;! 図は、 本発明の一実施例の基本構成図である。 第 2図は、 第 1図 に示す組立ステーショ ン制御装置のハー ドウエア構成例を示す図である c 第 3図は、 第.1 図に示す作業環境の 1例の説明図である。 第 4図は、 本発明の作業環境モデルの説明図である。 第 5図は、 第 4図における各 座標系間の関係の説明図である。 No.! FIG. 1 is a basic configuration diagram of an embodiment of the present invention. FIG. 2, c 3 Figure illustrates a hard Douea configuration example of the assembling stations the control system shown in FIG. 1 is an illustration of one example of a working environment shown in .1 FIG. FIG. 4 is an explanatory diagram of a work environment model according to the present invention. FIG. 5 is an explanatory diagram of the relationship between the coordinate systems in FIG.
第 6図は、 視覚座標系上の任意の点 E cの撮 ί象面への透視変換を示す 説明図である。  FIG. 6 is an explanatory diagram showing a perspective transformation of an arbitrary point Ec on the visual coordinate system to an imaging surface.
第 7図は、 テレビカメラ及び対象物の位置 · 姿勢を決定する処理を示 すフローチャー トである。 第 8図は、 2つの回転軸を有する姿勢変更装 置を示す説明図である。  FIG. 7 is a flowchart showing a process for determining the position and orientation of the television camera and the object. FIG. 8 is an explanatory view showing a posture changing device having two rotation axes.
第 9図は、 3つの回転軸を有する姿勢変更装置を示す説明図である。 第 1 0図は、 2つの回転軸と 1つの直線移動手段を有する姿勢変更装置 を示す説明図である。  FIG. 9 is an explanatory diagram showing a posture changing device having three rotation axes. FIG. 10 is an explanatory diagram showing a posture changing device having two rotation axes and one linear moving means.
第 1 1 図は、 3つの回転軸と 1つの直線移動手段を有する姿勢変更装 置を示す説明図である。  FIG. 11 is an explanatory view showing a posture changing device having three rotation axes and one linear moving means.
第 1 2図は、 カメラ レンズの回転中心と主点との位置が一致しない場 合の姿勢変更装置を示す説明図である。  FIG. 12 is an explanatory view showing a posture changing device when the position of the rotation center of the camera lens does not coincide with the position of the principal point.
第 1 3図は、 姿勢変更装置におけるカメラレンズの回転中心と主点と の位置が一致しない場合、 撮像された特徴点を同一平面上に投影すると きの説明図である。  FIG. 13 is an explanatory diagram for projecting the imaged feature points on the same plane when the position of the rotation center of the camera lens and the position of the principal point in the posture changing device do not match.
第 1 4図は、 主点位置に対し複数台数のテレビカメ ラを同一半径位置 に配置した説明図である。  FIG. 14 is an explanatory diagram in which a plurality of television cameras are arranged at the same radial position with respect to the principal point position.
第 1 5図は、 主点位置を中心に.配置された複数台のテレビカメ ラを主 点位置から見た場合の説明図である。 Fig. 15 shows the arrangement of multiple TV cameras arranged around the principal point. It is explanatory drawing when it sees from a point position.
第 1 6図は、 対象物の各特徴点を撮像したとき、 その各特徴点の位置 を計測するときの説明図である。  FIG. 16 is an explanatory diagram when measuring the position of each feature point when capturing each feature point of the object.
第 ] 7阅は、 夫々が情景検出手段を有する 2台の姿勢変更装匱を用い、 対象物の一つの特徴点の位置を計測する説明図である。  7th] is an explanatory diagram of measuring the position of one feature point of an object using two attitude change equipment each having a scene detecting means.
第 1 8図は、 既知の曲面上の 1点を一つの情景検出手段で求める場合 の説明図である。  FIG. 18 is an explanatory diagram in the case where one point on a known curved surface is obtained by one scene detecting means.
第 1 9図は、 同じく既知の曲面上の 1点を情景検出手段で求める場合 の座標系の説明図である。  FIG. 19 is an explanatory diagram of a coordinate system in the case where one point on a known curved surface is similarly obtained by scene detection means.
発明を実施するための最良の形態 BEST MODE FOR CARRYING OUT THE INVENTION
以下、 本発明による位置 · 姿勢検出方法を実施するために被撮像物の 位置 · 姿勢検出装置を適用したフ レキシブル生産システムの一実施例を 添付図面によ り説明する。 まず、 フ レキシブル生産システムの基本構成 を説明する。  Hereinafter, an embodiment of a flexible production system to which a position / posture detection device of an object to be imaged is applied to implement a position / posture detection method according to the present invention will be described with reference to the accompanying drawings. First, the basic configuration of a flexible production system will be described.
本実施例のフ レキシブル生産システムは大別すると、 第 1図に示すよ うに、 作業環境 1 と、 組立ステーショ ン制御装置 2 と、 設計データ記憶 装置 3 と、 作業計画データ記憶装置 4 とを備えて構成されている。  As shown in FIG. 1, the flexible production system according to the present embodiment includes a work environment 1, an assembly station control device 2, a design data storage device 3, and a work plan data storage device 4, as shown in FIG. It is configured.
作業環境 1 は、 ワーク と しての作業対象 1 2 , 周辺装置 1 3, 加工装 置と しての作業ロボッ ト 1 4のほ力 視覚ロボッ ト 1 5、 テレビカメ ラ 3 4を有する姿勢変更装置 3 3及びその他の構造物等からなっている。 そして、 視覚ロボッ ト 1 5によ り、 作業対象 1 2 と周辺装置 1 3 と作業 ロボッ ト 1 4 とテレビカメ ラ 3 4 とを撮像すると共に、 テレビカメラ 3 4によ り 、 作業対象 1 2 と周辺装置 1 3 と作業ロボッ ト 1 4 と視覚ロボ ッ ト ] 5 とを撮像するよ うになっており、 以下これらの撮像した映像を 全て 「被撮影物」 と云う。 なお、 周辺装置 1 3は、 作業環境 1 の中で作 業対象 1 2を支持 · 搬送等するものであり、 詳細は第 3図にて述べる。 作業'ロボッ ト 1 4は、 作業対象 1 2に働きかける手先効果器、 いわゆ る口ボッ トハン ドやその他の加工器具等を有し、 これを用いて作業対象 1 2の組立等を行う。 そして、 該作業ロボッ ト 1 4はそれ自身が移動可 能に構成されている。 視覚ロボッ ト 1 5は、 作業環境 1の被撮像物を画 像データと して取り込むため、 テレビカメ ラ 3 4 と同様のテレビカメ ラ をなす情景検出.手段を有し、 しかも作業ロボッ ト 1 4 と同様に移動可能 に構成されている。 The work environment 1 is a work object 12 as a work, peripheral devices 13, a work robot 14 as a processing device, the power of the work robot 14, a posture change having a visual robot 15, and a television camera 34. Apparatus 33 consists of 3 and other structures. The visual robot 15 captures images of the work object 12, the peripheral device 13, the work robot 14, and the television camera 34, and the television camera 34 captures the work object 12. , The peripheral device 13, the working robot 14, and the visual robot 5], and all of the captured images are hereinafter referred to as “objects”. The peripheral device 13 supports and transports the work object 12 in the work environment 1, and the details will be described with reference to FIG. The work robot 14 has a hand effector that works on the work object 12, so-called mouth bot hand and other processing tools, and assembles the work object 12 using these. The work robot 14 itself is configured to be movable. The visual robot 15 has a means of detecting a scene similar to a television camera 34 to capture an object to be photographed in the work environment 1 as image data. It is configured to be movable as in 4.
姿勢変更装置 3 3は、 テレビカメラ 3 4の姿勢を変更する装置である。 そして、 テレビカメラ 3 4は、 視覚ロボッ ト 1 5のビテオカメラと同様 に、 作業環境 1 を画像データと して取り込むための情景検出手段である。 組立ステーショ ン制御装置 2は、 視覚ロボッ ト 1 5及びテレビカメラ 3 4によって撮像された作業環境のデータと、 設計データ記憶装置 3 と 作業計画データ記憶装置 4 とに基づいて被撮影物の位置 · 姿勢のずれを 検出し、 その検出したずれを吸収する方向に被撮影物を移動し、 修正さ せるよ うにしており、 詳細は後述する。 また組立ステーション制御装置 2は、 被撮影物の位置 · 姿勢のずれを検出したとき、 そのずれの分だけ 設計データを変更し、 修正するよ うにもなつている。  The posture changing device 33 is a device that changes the posture of the television camera 34. The TV camera 34 is a scene detection means for taking in the work environment 1 as image data, like the video camera of the visual robot 15. The assembly station control device 2 determines the position of the object based on the work environment data captured by the visual robot 15 and the television camera 34 and the design data storage device 3 and the work plan data storage device 4. The posture shift is detected, and the object is moved and corrected in a direction to absorb the detected shift. The details will be described later. Further, when detecting a shift in the position and orientation of the object to be photographed, the assembly station control device 2 changes and corrects the design data by the amount of the shift.
設計データ記憶装置 3は、 製品やロボッ ト等の形状, これらの大きさ 及び特徴点等に関する情報を格納し、 つまり製品設計データ, ロボッ ト 設計データ, 周辺機器設計データを格納している。  The design data storage device 3 stores information on the shapes of products and robots, their sizes, feature points, and the like, that is, stores product design data, robot design data, and peripheral device design data.
作業計画データ記憶装置 4は、 作業対象 1 2 と作業ロボッ ト 1 4 と周 辺装置 1 3 と視覚ロボッ ト 1 5 と姿勢変更装置 3 3に対する作業手順デ ータ, 作業工程データ, 動作経路データを格納している。  The work plan data storage device 4 stores work procedure data, work process data, and operation route data for the work object 12, the work robot 14, the peripheral device 13, the visual robot 15, and the posture change device 33. Is stored.
つぎに、 前記組立ステーショ ン制御装置 2の構成について、 さ らに詳 しく説明すると、 該組立ステーショ ン制御装置 2は、 第 1図に示すよ う に、 擬似作業環境情景生成手段 2 0、 画像処理手段 2 1 、 作業環境情景 现解手段 2 2、 周辺装置制御手段 2 3、 作業ロボッ ト制御手段 2 4、 視 党ロボッ ト制御手段 2 5、 動作指令生成手段 2 6、 作業環境データべ一 ス構築^段 2 8、 作業環境データ記憶手段 2 9、 画像データ記憶手段 3 0、 両像合成手段 3 1 、 姿勢変更装置制御手段 3 2を有して構成されて いる。 Next, the structure of the assembling station control device 2 will be described in more detail. As shown in FIG. 1, the assembling station control device 2 includes, as shown in FIG. Processing means 2 1, working environment scene Solution 22, Peripheral device control 23, Work robot control 24, Visual robot control 25, Operation command generation 26, Work environment database construction ^ Stage 28, Work It comprises environmental data storage means 29, image data storage means 30, both-image combining means 31, and attitude changing device control means 32.
作業環境データベース構築手段 2 8は、 設計データ記憶装置 3および 作業計画データ記憶装置 4に格納されたデータ と、 作業環境情景理解手 段 2 2で得られた情報とから作業環境に関するデータベースを構築する ものである。 ここで構築したデータは、 作業環境データ記憶手段 2 9に 格納される構成となっている。  The work environment database construction means 28 constructs a work environment database from the data stored in the design data storage device 3 and the work plan data storage device 4 and the information obtained by the work environment scene understanding means 22. Things. The data constructed here is configured to be stored in the work environment data storage means 29.
そして、 擬似作業環境情景生成手段 2 0は、 作業環境データ記憶手段 2 9に格納されたデータを用いることによ り、 作業中における特定時間 での作業環境情景を擬似的に生成する機能を有する。 なお、 これ以降の 説明においては、 このようにデータに基づいて、 疑似的に生成された作 業環境情景を、 「疑似情景画像」 という。  The simulated work environment scene generation means 20 has a function of simulating a work environment scene at a specific time during the work by using the data stored in the work environment data storage means 29. . In the following description, the work environment scene generated simulated based on the data in this manner is referred to as a “pseudo scene image”.
画像処理手段 2 1 は、 視覚ロボッ ト 1 5の情景検出手段と してのテレ ビカメラ及び姿勢変更装置 3 3のテレビカメラ 3 4で得た実際の作業環 境の画像データを処理し、 作業環境情景理解手段 2 2に出力する機能を 有する。 また、 画像処理手段 2 1 は、 複数の画像データを画像データ記 憶手段 3 0に格納する機能も有する。 なお、 これ以降の説明においては、 情景検出手段を通じて得た実際の作業環境の画像を、 前記疑似情景画像 に対応して 「実情景画像」 という。  The image processing means 21 processes the image data of the actual working environment obtained by the television camera and the television camera 34 of the attitude changing device 33 as the scene detecting means of the visual robot 15 and the working environment. It has a function of outputting to the scene understanding means 22. The image processing means 21 also has a function of storing a plurality of image data in the image data storage means 30. In the following description, an image of the actual working environment obtained through the scene detecting means is referred to as a “real scene image” corresponding to the pseudo scene image.
また、 両像合成手段 3 1 は、 画像データ記憶手段 3 0に格納された複 数の画像データに基づき、 一枚の高精細画像や広角度の高精細画像を合 成する機能を有し、 これら一枚の高精細画像や広角度の高精細画像は、 後述する作業環境情景理解手段 2 2からの支持により選択的に実行され る。 これ以降の説明においては、 視覚ロボッ ト 1 5, テレビカメ ラ 3 4 を通じて得た実際の作業環境の複数の画像に基づいて一枚の高精細画像 またはに合成した画像を、 「高精細の合成画像」 または 「広角の合成画 像」 と呼ぶが、 これらも実情景画像とみなす。 The two-image combining means 31 has a function of combining a single high-definition image or a wide-angle high-definition image based on a plurality of image data stored in the image data storage means 30. These single high-definition images and wide-angle high-definition images are selectively executed with the support of the work environment scene understanding means 22 described later. You. In the following description, a single high-definition image or an image synthesized on a single high-definition image based on multiple images of the actual working environment obtained through the visual robot 15 and the TV camera 34 will be referred to as “high-definition synthesis”. These are referred to as “images” or “wide-angle composite images”, but these are also considered real scene images.
作業環境情景现解手段 2 2は、 擬似作業環境情景生成手段 2 0が生成 した擬似情景画像と、 視覚ロボッ ト 1 5等により得た実情景画像とを比 較することにより、 作業対象 1 2等の位置 · 姿勢のずれを検出するよ う になっている。  The work environment scene analysis means 22 compares the pseudo scene image generated by the pseudo work environment scene generation means 20 with the real scene image obtained by the visual robot 15 or the like, thereby obtaining the work object 1 2 It is designed to detect misalignment of the position and posture of the etc.
さ らに、 動作指令生成手段 2 6は、 作業環境情景理解手段 2 2で得た 情報に基づいて、 動作指令を生成する機能を有し、 その生成された動作 指令に基づき、 周辺装置制御手段 2 3が私有辺装置 1 3を、 作業ロボッ ト制御手段 2 4が作業ロボッ ト 1 4を、 視覚ロボッ ト制御手段 2 5が視 覚ロボッ ト 1 5 を、 姿勢変更装置制御手段 3 2が姿勢変更装置 3 3を 夫々制御するよ う に している。  Further, the operation command generation means 26 has a function of generating an operation command based on the information obtained by the work environment scene understanding means 22, and, based on the generated operation command, a peripheral device control means. 23 is a private edge device 13, a work robot control means 24 is a work robot 14, a visual robot control means 25 is a visual robot 15, and a posture changing device control means 32 is a posture. The change devices 33 are controlled individually.
つぎに、 第 2図を参照して、 組立ステーショ ン制御装置 2を実現する ための具体的なハー ドウェア構成について説明する。  Next, a specific hardware configuration for implementing the assembly station control device 2 will be described with reference to FIG.
組立ステーショ ン制御装置 2は、 システムバス 1 0 1 、 バス制御装置 1 0 2、 中央処理装置 1 0 3 a 、 主記憶装置 1 0 3 b、 磁気ディスク装 置 1 0 4、 キーボー ド 1 0 5、 ディスプレイ 1 0 6、 画像生成装置 1 0 7、 画像処理装置 1 0 8、 テレビカメ ラ 1 0 9、 ズームモータ ' フォー カスモータ · アイ リ スモータ制御装置 1 1 0、 ズームモータ . フォー力 スモータ ' アイ リ スモータ付きのレンズシステム 1 1 1 、 モータ 1 1 6、 パルスジェネ レータ 1 1 3 、 カ ウンタ 1 1 2、 モータ駆動装置 1 1 5 、 D A変換機 (デジタル . アナ口グ変換機) 1 1 4 、 A D変換機 (アナ口 グ ' デジタル変換機) 1 1 7、 センサ 1 1 8、 ネッ トワーク 1 1 9から 構成されている。 なお、 これらは市場にて一般に使用されているものと 同じであるため、 各々の詳細については説明を省略する。 The assembly station control device 2 includes a system bus 101, a bus control device 102, a central processing unit 103a, a main storage device 103b, a magnetic disk device 104, and a keyboard 105. , Display 106, image generation device 107, image processing device 108, TV camera 109, zoom motor 'focus motor / iris motor control device 110, zoom motor. Lens system with lens motor 1 1 1, motor 1 1 6, pulse generator 1 1 3, counter 1 1 2, motor drive 1 1 5, DA converter (digital / analog converter) 1 1 4 It consists of an AD converter (analog-to-digital converter) 117, a sensor 118, and a network 119. These are generally used in the market. Since they are the same, the description of each detail is omitted.
ここで、 組立ステーショ ン制御装置 2の各構成要素のうち、 前記作業 環境データベース構築手段 2 8, 作業環境データ記憶手段 2 9, 画像デ —タ記憶手段 3 0 , 画像合成手段 3 1, 作業環境情景理解手段 2 2, 周 辺装置制御手段 2 3, 作業ロボッ ト制御手段 2 4, 視覚ロボッ ト制御手 段 2 5, 動作指令生成手段 2 6及び姿勢変更装置制御手段 3 2は、 主と して中央処理装置 1 0 3 a とその主記憶装置 1 0 3 b及び磁気ディスク 装匱 1 0 4によ り実現されるものである。 そして、 疑似作業環境情景生 成手段 2 0は、 主と して画像生成装置 1 0 7によ り実現されるものであ る。 また、 画像処理手段 2 1 は、 主と して画像処理装置 1 0 8により実 現されるものである。 ただし、 各構成要素は単独でこれらの機能を有し ているのではなく 、 他と密接に連携しつつこれら機能を達成しているた め、 ここで上げた対応関係は必ずしも厳密なものではない。  Here, among the components of the assembly station control device 2, the work environment database construction means 28, the work environment data storage means 29, the image data storage means 30, the image synthesis means 31, the work environment The scene understanding means 22, peripheral device control means 23, work robot control means 24, visual robot control means 25, motion command generation means 26, and attitude change device control means 32 are mainly composed of This is realized by the central processing unit 103a, its main storage unit 103b, and the magnetic disk unit 104. The pseudo working environment scene generating means 20 is realized mainly by the image generating device 107. Further, the image processing means 21 is mainly realized by the image processing device 108. However, since each component does not have these functions independently, but achieves these functions in close cooperation with others, the correspondences raised here are not necessarily strict. .
なお、 前記第 1図における設計データ記憶装置 3及び作業計画データ 記憶装置 4 とは、 ネッ トワーク 1 1 9を介してデータの授受を行ってい る。 また、 第 2図に示すテレビカメラ 1 0 9及びレンズシステム 1 1 1 は、 前記第 1 図に示す組立ステーショ ン制御装置 2ではなく視覚ロボッ ト 1 5や姿勢変更装置 3 3に搭載されるものである。 モータ 1 1 6につ いても同様に、 前記第 1図に示す周辺装置 1 3や作業ロボッ ト 1 4等に 搭載され、 これらを駆動するものである。  It should be noted that the design data storage device 3 and the work plan data storage device 4 in FIG. 1 exchange data with each other via a network 119. The television camera 109 and the lens system 111 shown in FIG. 2 are mounted on the visual robot 15 and the posture changing device 33 instead of the assembly station control device 2 shown in FIG. It is. Similarly, the motor 116 is mounted on the peripheral device 13 or the working robot 14 shown in FIG. 1 and drives them.
次に、 作業環境 1 の詳細を第 3図によ り説明する。  Next, details of the working environment 1 will be described with reference to FIG.
同図において、 テーブル形のロボッ ト 3 0 1 a, 3 0 1 bは、 作業対 象 1 2を載置するためのものであって、 第 1 図に示す周辺装置 1 3をな している。 これら各ロボッ ト 3 0 1 a , 3 0 1 bは、 必要に応じて自走 して移動する構成となっている。  In the figure, table-shaped robots 301a and 301b are for mounting the work object 12 and constitute peripheral devices 13 shown in FIG. . Each of the robots 301a and 301b is configured to move by itself as needed.
また、 アーム形のロボッ ト 3 0 2 a , 3 0 2 b , 3 0 2 cは、 各々が その動きを 在に制御可能なアームを有している。 そして、 各ロボッ ト のアームの先端部には、 作業対象 1 2に対してなんらかの加工 · 組立等 の作業を行うための手先効果器 3 0 2 1 a, 3 0 2 1 b, テ レビカメ ラ 3 0 2 2が設けられている。 ここで、 手先効果器 3 0 2 1 a , 3 0 2 1 h を有するロボッ ト 3 0 2 a, 3 0 2 bは、 第 1図に示す作業ロボッ ト 1 4であり、 テレビカメ ラ 3 0 2 2を有するロボッ ト 3 0 2 cは第 1 図 に示す視覚ロボッ ト 1 5である。 The arm-shaped robots 302a, 302b, and 302c are each It has an arm that can control its movement. At the end of the arm of each robot, there are hand effectors 30 21 a, 30 21 b, and a telecamera 3 for performing some work such as machining and assembling on the work 12. 0 2 2 is provided. Here, the robots 32 0 2 a and 30 2 b having the hand effectors 30 21 a and 30 21 b are the working robots 14 shown in FIG. The robot 302c having 22 is the visual robot 15 shown in FIG.
なお、 テレビカメラ 3 0 2 2は、 前記第 2図におけるテレビカメラ 1 0 9及びレンズシステム 1 1 1 に該当するものである。 そして、 これら 各ロボッ ト 3 0 2 a〜 3 0 2 c もテーブノレ形のロボッ ト 3 0 1 a, 3 0 1 b と同様に、 必要に応じて自走して移動する構成となっている。  The television camera 302 corresponds to the television camera 109 and the lens system 111 in FIG. Each of the robots 302a to 302c also has a configuration in which it travels by itself as necessary, similarly to the robots 301a and 301b in the form of the Tabnoke type.
—方、 前記各ロボッ 卜の近傍位置にはこれらを撮像し得るようにテレ ビカメラ 3 4が配置されている。 該テレビカメラ 3 4は姿勢変更装置 3 5に設置されている。 このテレビカメラ 3 4 も、 前記第 2図におけるテ レビカメラ 1 0 9及び.レンズシステム 1 1 1 に該当するものである。 また、 ワーク搬送ロボッ ト 3 0 3 a , 3 0 3 bは、 作業対象 1 2を載 せて、 各工程間を移動するためのものであり、 ロボッ ト 3 0 1 a, 3 0 1 b と同様に周辺装置 1 3をなしている。  On the other hand, a television camera 34 is arranged at a position near each of the robots so that they can be imaged. The television camera 34 is installed in a posture changing device 35. This television camera 34 also corresponds to the television camera 109 and the lens system 111 in FIG. The work transfer robots 303a and 303b are for mounting the work object 12 and moving between the processes. Similarly, peripheral devices 13 are formed.
次に前記構成からなるフレキシブ生産システムの動作について説明す る。  Next, the operation of the flexible production system having the above configuration will be described.
フ レキシブル生産システムでは、 製品の設計情報及び製品の種類, 数 量に合わせて設備構成をダイナミ ックに変更し、 作業計画通りに作業計 画部署からのオンライ ン指令にしたがって加工, 組立を行う。 各工程に おいて、 前記第 1図に示す周辺装置 1 3, 作業ロボッ ト 1 4., 視覚ロボ ッ ト 〗 5, 姿勢変更装置 3 3は、 動作指令生成手段 2 6が生成した動作 指令に基づき、 周辺装置制御手段 2 3, 作業ロボッ ト制御手段 2 4, 視 覚口ボッ ト制御手段 2 5 , 姿勢変更装置制御手段 3 2によ り制御される。 これを第 2図及び第 3図に即して具体的に述べると、 中央処理装置 1 0 3 a が動作指令 (デジタル信号) を生成する。 該動作指令は、 システ ムバス 1 0 1 を介して D Λ変換器 1 1 4に送られ、 ここでアナログ信号 に変換され、 その後、 モータ駆動装置 1 1 5へ送られる。 モータ駆動装 置 1 1 5は、 該動作指令 (アナログ信号) に従ってモータ 1 1 6を動か し、 周辺装置 1 3 と してのロボッ ト 3 0 1 a - 3 0 1 b , 作業ロボッ ト 1 4 と してのロボッ ト 3 0 2 a - 3 0 2 b , 視覚ロボッ ト 1 5 と しての ロボッ ト 3 0 2 c, 姿勢変更装置 3 5を動作させる。 これらの動作に対 応し、 カウンタ 1 1 2, ノ ノレスジェネレータ 1 1 3 も作動し、 各ロボッ ト 3 0 1 a , 3 0 1 b, 3 0 2 a , 3 0 2 b , 3 0 2 cや姿勢変更装置 3 5の制御に使用される。 In the flexible production system, the equipment configuration is changed dynamically according to the product design information and the type and quantity of the product, and processing and assembly are performed according to the online instructions from the work planning department as per the work plan. . In each process, the peripheral device 13, the work robot 14, the visual robot〗 5, and the posture changing device 33 shown in FIG. Based on the peripheral device control means 23, the work robot control means 24, It is controlled by the sensation bot control means 25 and the attitude change device control means 32. This will be described in detail with reference to FIGS. 2 and 3. The central processing unit 103a generates an operation command (digital signal). The operation command is sent to the D / A converter 114 via the system bus 101, where it is converted into an analog signal, and then sent to the motor driving device 115. The motor drive unit 115 drives the motor 116 in accordance with the operation command (analog signal), and the robot 310 as a peripheral device 13 0 a-3 0 1 b and the work robot 14 The robot 302a-302b as the robot, the robot 302c as the visual robot 15 and the posture changing device 35 are operated. In response to these operations, the counters 112 and the noiseless generator 113 also operate, and the robots 310a, 310b, 302a, 302b, and 302b, respectively. Used to control the c and attitude changer 35.
これにより、 例えばロボッ ト 3 0 2 a , 3 0 2 bは手先効果器 3 0 2 l a 、 3 0 2 l bを用い、 ロボッ ト 3 0 1 b上に載置された作業対象 1 2の組立を行う こと となる。 その際、 テレビカメラ 3 0 2 2を有する視 覚ロボッ ト 3 0 2 c と、 姿勢変更装置 3 5に設置されたテレビカメラ 3 4 とは、 この組立作業を監視している。  Thus, for example, the robots 302a and 302b use the hand effectors 302la and 302lb to assemble the work object 12 placed on the robot 301b. Will be done. At this time, the visual robot 300c having the television camera 302 and the television camera 34 installed in the posture changing device 35 monitor the assembling work.
上記テレビカメラ 3 0 2 2や 3 4は、 ズームモータ · フォーカスモ一 タ ' ァイ リ スモータ制御装置 1 1 0で制御されるズームモータ ' フォー カスモータ ' アイ リスモータ付きのレンズシステム 1 1 1 を持っており、 前記監視している作業を精密に見たい場合は、 ロボッ ト 3 0 2 c及び姿 勢変更装置 3 5によりテレビカメ ラ 3 0 2 2や 3 4の向きを所望位置に 変えると共に、 レンズシステム 1 1 1 を望遠にすることにより、 高精細 の合成画像を得る。  The above-mentioned television cameras 302, 34 have a zoom motor, a focus motor, and a lens system 1 1 1 with an iris motor controlled by a zoom motor control device 110. If you want to see the work being monitored precisely, change the orientation of the TV cameras 302 and 34 to the desired positions using the robot 302c and the posture change device 35, A high-definition composite image is obtained by making the lens system 1 1 1 telephoto.
なお、 該作業に際して必要となる組立対象の部品の形状や大きさを示 すデータは、 磁気ディスク 1 0 4に格納されているものを使用する。 ま た、 同様に、 各ロボッ ト 3 0 2 a · 3 0 2 b, 3 0 1 a · 3 0 1 bや手 先効果器 3 0 2 1 a, 3 0 2 1 bへの動作指令と しては、 たとえば、 移 動経路, 配置, 組立作業手順データ, 作業工程データ等も磁気ディスク 1 0 4に格納されているものを使用する。 Note that data stored in the magnetic disk 104 is used as data indicating the shape and size of the parts to be assembled necessary for the work. Ma Similarly, as an operation command to each of the robots 302a · 302b, 310a · 301b and the hand effector 3002a / 302b. For example, the moving path, arrangement, assembling work procedure data, work process data and the like stored on the magnetic disk 104 are used.
上述の如き動作に際しては、 同一部品であっても、 途中の機械加工ェ 程におけるバラツキなどによ り各個体毎に差がある。 従って、 組付けら れる部品点数が多いほど位置ずれの程度は大きくなりがちとなり、 それ だけ誤差が生じること となる。 この誤差は、 各ロボッ トが制御データ通 りに動作したと しても、 避けることのできないものである。  In the operation as described above, even for the same part, there is a difference between each individual due to a variation in a machining process in the middle. Therefore, the larger the number of parts to be assembled, the larger the degree of positional deviation tends to be, and an error occurs accordingly. This error is unavoidable even if each robot operates according to the control data.
本実施例においては、 各作業ロボッ ト 1 4等の位置 . 姿勢を、 視覚口 ボッ ト 1 5ゃテレビカメラ 3 4により監視することにより、 その位置 · 姿勢を修正している。 以下に、 該位置 · 姿勢の監視及びその修正の手順 について述べる。  In this embodiment, the position and posture of each work robot 14 and the like are monitored by the visual port robot 15 and the television camera 34 to correct the position and posture. The procedure for monitoring the position / posture and correcting it will be described below.
まず、 前記第 1図に示す作業環境データベース構築手段 2 8によ り、 設計データ記憶装置 3及び作業計画データ記憶装置 4に格納されている データのなかから、 作業環境を解析するのに必要なデータを作業環境デ ータ と して読み出し、 その読み出したデータを作業環境データ記憶手段 2 9 (第 2図では、 磁気ディスク 1 0 4になる) に登録する。  First, the work environment database construction means 28 shown in FIG. 1 is used to analyze the work environment from the data stored in the design data storage device 3 and the work plan data storage device 4. The data is read as work environment data, and the read data is registered in work environment data storage means 29 (in FIG. 2, it becomes magnetic disk 104).
次いで、 疑似作業環境情景生成手段 2 0によ り、 作業環境データ記憶 手段 2 9に格納された前記作業環境データに基づいて、 作業ロボッ ト 1 4等が該作業環境データ通りの位置 · 姿勢にあった場合に視覚ロボッ ト 1 5が捕らえるであろう情景を、 疑似的に生成する、 即ち、 作業中の特 定時間における疑似情景画像を生成する。 この処理内容は、 第 2図にお いて、 中央処理装置 1 0 3 a, 主記憶装置 1 0 3 b及び画像生成装置 1 0 7によ り、 磁気ディスク 1 0 4に格納されている作業環境データを用 いて疑似情景画像を生成することである。 そして、 疑似作業環境情景生成手段 2 0は、 生成した該疑似情景を第 1図に示す作業環境情景理解手段 2 2に出力する。 なお、 この疑似情景 の生成処理については、 前記作用の欄において既に記述したため、 ここ では説明を省略する。 Then, based on the work environment data stored in the work environment data storage means 29, the work robot 14 and the like are set to the position and orientation according to the work environment data by the pseudo work environment scene generation means 20. A pseudo-scene is generated, that is, a pseudo-scene image at a specific time during the work, which would be captured by the visual robot 15 in the event that there was. In FIG. 2, the processing environment stored in the magnetic disk 104 by the central processing unit 103a, the main storage device 103b, and the image generating device 107 in FIG. This is to generate a pseudo scene image using the data. Then, the pseudo working environment scene generating means 20 outputs the generated pseudo scene to the working environment scene understanding means 22 shown in FIG. Since the pseudo scene generation processing has already been described in the section of the operation, the description thereof is omitted here.
一方、 両像処现手段 2 1 は、 視覚ロボッ ト ] 5やテレビカメラ 3 4が 前記生成した疑似情景画像と同一時間軸の画像を撮影したとき、 該撮影 した画像に所定の処理を行った後、 実情景画像と して作業環境情景理解 手段 2 2に出力する一方、 実情景画像と しての複数の画像データを画像 データ記憶手段 3 0に格納する。 これは第 2図において、 画像処理装置 1 0 8がテレビカメラ 1 0 9で得た画像を処理し、 中央処理装置 1 0 3 aに出力する。  On the other hand, when the visual robot 5 and the television camera 34 take an image on the same time axis as the pseudo scene image generated above, the two image processing means 21 perform predetermined processing on the taken image. Then, while outputting to the working environment scene understanding means 22 as a real scene image, a plurality of image data as a real scene image are stored in the image data storage means 30. In FIG. 2, the image processing device 108 processes an image obtained by the television camera 109 and outputs the processed image to the central processing device 103a.
画像合成手段 3 1では、 前記画像データ記憶手段 3 0に格納された複 数の画像データを、 一枚の合成画像に合成した後、 該合成画像を作業環 境情景理解手段 2 2に出力する。 これは第 2図において、 中央処理装置 1 0 3 aで処理されることになる。  The image combining means 31 combines the plurality of image data stored in the image data storage means 30 into one composite image, and outputs the combined image to the working environment scene understanding means 22. . This is to be processed by the central processing unit 103a in FIG.
作業環境情景理解手段 2 2においては、 疑似作業環境情景生成手段 2 0によって生成された疑似情景画像と、 視覚ロボッ ト 1 5 , テレビカメ ラ 3 4により得た作業環境 1の実情景画像 (広角の合成画像、 あるいは 高精細の合成画像を含む) とを比較し、 その相違を抽出する。 つまり、 実情景画像から作業対象 1 2, 周辺装置 1 3, 作業ロボッ ト 1 4 , 視覚 ロボッ ト 1 5, テレビカメラ 3 4の各々の特徴点に関する情報を抽出し、 該特徴点に関する情報と疑似情景画像とを比較することにより、 それら 各部 1 2〜 1 5, 3 4の位置 ' 姿勢を特定して、 該位置 · 姿勢ずれを検 出する。 該位置 · 姿勢の特定等の処理は、 前記作用の欄において既に記 述したため、 ここでの説明は省略する。 ·  The work environment scene understanding means 22 includes a pseudo scene image generated by the pseudo work environment scene generation means 20 and a real scene image of the work environment 1 obtained by the visual robot 15 and the television camera 34 (wide-angle image). (Including high-definition composite images or high-definition composite images) and extract the differences. In other words, information about the feature points of each of the work object 12, peripheral device 13, work robot 14, visual robot 15, and television camera 34 is extracted from the actual scene image, and the information about the feature points and the pseudo information are extracted. By comparing with the scene image, the positions and postures of the respective parts 12 to 15 and 34 are specified, and the position / posture deviation is detected. The processing for specifying the position / posture has already been described in the section of the operation, and a description thereof will be omitted. ·
上記処理結果、 疑似情景画像と実情景画像とに相違がある場合、 両者 がー致するよ う、 作業環境情景理解手段 2 2は、 疑似情景画像のもとに なった作業環境データ記憶手段 2 9內の作業環境データそのものを変更 する。 これによ り、 各部 1 2〜 ] 5, 3 4の以降の動作においては、 疑 似情景画像と実情景画像とが一致すること となる。 As a result of the above processing, if there is a difference between the pseudo scene image and the real scene image, The work environment scene understanding means 22 changes the work environment data itself of the work environment data storage means 29 內 based on the pseudo scene image so as to match. As a result, in the subsequent operations of the parts 12 to 5 and 34, the pseudo scene image and the real scene image match.
あるいは、 作業対象 ] 2, 周辺装置 1 3 , 作業ロボッ ト 1 4 , 視覚口 ボッ ト 1 5, テレビカメラ 3 4のうち、 位置 · 姿勢ずれが発生している もののずれを修正すべく、 動作指令生成手段 2 6に指令を送る。 これに よ り、 動作指令生成手段 2 6は、 該指令に応じた動作指令を発し、 各部 1 2〜 1 5, 3 4が疑似情景画像と一致するように動作させる。  Or, the operation target] 2, peripheral device 13, work robot 14, visual port robot 15, and television camera 34, an operation command is issued to correct the displacement of the position / posture displacement. Send a command to generation means 26. As a result, the operation command generating means 26 issues an operation command corresponding to the command, and operates each of the units 12 to 15 and 34 so as to match the pseudo scene image.
以上の処理は、 作業対象 1 2 , 周辺装置 1 3, 作業ロボッ ト 1 4 ( 3 O l a , 3 0 1 b ) , 視覚ロボッ ト 1 5 , テレビカメラ 3 4が各工程の 作業時において、 移動を行う毎に、 即ち、 一つの特定作業を行う毎に実 行する。 これにより、 作業対象 1 2 と周辺装置 1 3 と作業ロボッ ト 1 4 と ¾覚ロボッ ト 1 5 とテレビカメラ 3 4 とが作業位置を動作する度に確 認しながら遂行するので、 作業計画通りに作業を実施することができる。 なお、 各対象物 (作業ロボッ ト 1 4等) 毎に、 上述の対象物位置決定法 を実行すれば、 これらの間の相対的な位置関係、 距離をも知ることがで さる。  In the above processing, the work target 12, peripheral device 13, work robot 14 (3 O la, 30 1 b), visual robot 15, and TV camera 34 move during the work of each process. It is performed every time a specific operation is performed, that is, each time one specific operation is performed. As a result, the work target 12, the peripheral device 13, the work robot 14, the visual robot 15, and the television camera 34 are performed while checking the work position each time the work position is moved, so that the work is performed according to the work plan. Work can be carried out. In addition, if the above-described object position determination method is executed for each object (the work robot 14 etc.), it is possible to know the relative positional relationship and distance between them.
以上説明したとおり、 上記実施例においては、 作業環境 1 と しての作 業対象 1 2 と周辺装置 1 3 と作業ロボッ ト 1 4 と視覚ロボッ ト 1 5 とテ レビカメ ラ 3 4 との各々の位置 · 姿勢を、 作業環境データに基づいて予 測すると共に、 その予測した各部 1 2〜 1 5, 3 4の疑似情景画像を求 め、 求めた疑似情景画像と、 実際に撮像された各部 1 2〜 1 5, 3 4の 実情景画像との両者を比較し、 該比較結果、 疑似情景画像と実情景画像 とにずれがある場合には、 対応する各部 1 2〜 1 5, 3 4を、 前記ずれ を吸収する方向に修正し、 あるいはずれた分だけ作業環境データを修正 するので、 実作業環境を明確に解析することができる。 また、 これらの 修; Ϊ · 変更を行う際の作業環境の分析等をも自動的に行うため、 数値デ ータだけで各部 1 2〜 1 5, 3 を正確に動作させることができる結果、 オンライ ンティーチングの必要がなく なる。 As described above, in the above embodiment, each of the work object 12 as the work environment 1, the peripheral device 13, the work robot 14, the visual robot 15, and the television camera 34 is provided. The position and orientation are predicted based on the work environment data, and the pseudo scene images of the predicted parts 12 to 15 and 34 are obtained, and the obtained pseudo scene image and the actual captured parts 1 are obtained. The actual scene images 2 to 15 and 34 are compared, and if there is a difference between the pseudo scene image and the actual scene image, the corresponding parts 12 to 15 and 34 are compared. Correct the direction to absorb the deviation, or correct the work environment data by the deviation Therefore, the actual work environment can be clearly analyzed. In addition, these repairs;; · Since the analysis of the working environment when making changes is also performed automatically, each unit 12 to 15 and 3 can be operated accurately using only numerical data. Eliminates the need for online teaching.
従って、 生産システムを自律的に運用できる。 また、 作業対象やロボ ッ トの設置を高精度にする必要がなくなるので、 設備を安価に作ること ができる。 さ らに、 長時間生産ラインを止める必要がなく経済的である ばかりでなく 、 製造時間を短縮することができる。  Therefore, the production system can be operated autonomously. In addition, since it is not necessary to set the work objects and the robots with high precision, the equipment can be manufactured at low cost. Furthermore, it is not only economical to stop the production line for a long time, but also the production time can be shortened.
この他、 視覚ロボッ ト 1 5及びテレビカメ.ラ 3 4からなる情景検出手 段が、 作業ロボッ ト 1 4 , 周辺装置 1 3から独立きせ、 作業ロボッ トゃ 周辺装置を動作させながら作業環境を取り込むことにより情景を正確に 判断できるので、 製造時間を可及的に短縮することができる。  In addition, the scene detection means consisting of the visual robot 15 and the TV camera 34 is independent of the work robot 14 and the peripheral devices 13, and the work environment is controlled while operating the work robot and the peripheral devices. By taking in the scene, the scene can be accurately judged, so that the manufacturing time can be reduced as much as possible.
また、 情景検出手段で得られた作業環境内の特徴点をもとに情景検出 手段の位置を正確に求めることができるので、 作業環境内のうちの任意 の 2者間の相対関係を正確に求めることができる。  In addition, since the position of the scene detection means can be accurately determined based on the feature points in the work environment obtained by the scene detection means, the relative relationship between any two persons in the work environment can be accurately determined. You can ask.
つぎに、 第 8図乃至第 1 1図に姿勢変更装置 3 3の実施例を示す。 まず、 第 8図を参照して、 姿勢変更装置 3 3を実現するための具体的 な構成を説明する。  Next, FIGS. 8 to 11 show an embodiment of the posture changing device 33. FIG. First, a specific configuration for realizing the posture changing device 33 will be described with reference to FIG.
この姿勢変更装置 3 3は、 ベース 4 0 1 , 1番目の回転軸 4 0 2, 2 番目の回転軸 4 0 3, テレビカメラ 4 0 4から構成されている。 即ち、 ベース 4 0 1 上に第 1 の回転軸 4 0 2が取付けられ、 その出力部 4 0 2 a が垂直軸周り に回転するよ うにしている。 この出力部 4 0 2 a の先端 には台座 4 0 6 a を介して第 2 の回転軸 4 0 3が取付けられ、 該回転軸 4 0 :3 の L字状をなす出力部 4 0 3 aが水平軸周りに回転するよ うにし ている。 そして、 出力部 4 0 3 a の先端部にはテレビカメラ 4 0 4が固 定されている。 この場合、 笫 1 の回転軸 4 0 2の出力部 4 0 2 a の延長線 Yと、 第 2 の回転軸 4 0 3 の出力部 4 0 3 a の延長線 Xとは互いに直交し、 それら 延長線上の互いに直交する位置 Dにテレビカメラ 4 0 4における力メ ラ レンズ 4 0 5 の中心軸 Zを位置させると共に、 カメラレンズ 4 0 5 の回 転中心が一致し、 しかも、 その一致する位置 Dにカメラレンズ 4 0 5の 主点も一致するよ うに配置されている。 従って、 第 1 の回転軸 4 0 2上 と第 2の回転軸 4 0 3上とカメ ラ レンズ 4 0 5 の中心軸 Zは力メ ラ レン ズ 4 0 5の主点 (D ) で一点に交わるように配置されている。 The attitude changing device 33 includes a base 401, a first rotation axis 402, a second rotation axis 400, and a television camera 404. That is, the first rotating shaft 402 is mounted on the base 401, and the output section 402a is rotated about the vertical axis. A second rotating shaft 400 is attached to the tip of this output unit 402 via a base 400a, and the rotating shaft 40: 3 has an L-shaped output unit 4003a. Rotate around the horizontal axis. Then, a television camera 404 is fixed to the tip of the output section 403a. In this case, the extension Y of the output section 402 a of the rotation axis 402 of 笫 1 and the extension line X of the output section 400 a of the second rotation axis 400 are orthogonal to each other. The center axis Z of the force camera lens 405 in the TV camera 404 is located at a position D perpendicular to each other on the extension line, and the rotation center of the camera lens 405 coincides, and the coincident position D is arranged so that the principal point of camera lens 405 also coincides with D. Therefore, the center axis Z of the first rotation axis 402 and the second rotation axis 400 and the center axis Z of the camera lens 405 are at one point at the principal point (D) of the force camera lens 405. They are arranged to intersect.
なお、 第 1, 第 2の回転軸 4 0 2, 4 0 3は共に減速機付きのモータ から構成され、 高分解能のエンコーダを直結している。 モータの回転は 減速機を介して伝えられるので、 減速機出力軸側の 1回転はモータ側で 1 0 0回転相当であり、 モータ 1回転を 4 0 0 0分割するエンコーダを 用いると、 減速機出力軸での 1回転を 4 0万分割するほどの高い精度が 得られる。  The first and second rotating shafts 402, 403 are both composed of motors with reduction gears, and are directly connected to high-resolution encoders. Since the rotation of the motor is transmitted via the reduction gear, one rotation on the output shaft side of the reduction gear is equivalent to 100 rotations on the motor side, and if an encoder that divides one rotation of the motor into 400 rotations is used, the reduction gear High accuracy can be obtained such that one rotation of the output shaft is divided into 400,000.
回転軸 4 0 2, 4 0 3は第 1図に示す如く、 組立ステーショ ン制御装 置 2の姿勢変更装置制御手段 3 2に接続され、 また第 2図に示す如く 、 モータ駆動装置 1 1 5で駆動される。 回転軸 4 0 2 , 4 0 3に取付けら れたパルスエンコーダは、 カウンタ 1 1 2で計数され、 テレビカメラ 4 0 4の位置 . 姿勢を判定するのに用いられる。  The rotating shafts 402, 403 are connected to the attitude changing device control means 32 of the assembling station control device 2 as shown in FIG. 1, and the motor driving device 115 as shown in FIG. Driven by The pulse encoders attached to the rotating shafts 402 and 403 are counted by the counter 112 and used to determine the position and orientation of the television camera 404.
この実施例では、 姿勢変更装置 3 3が上述の如く、 第 1 の回転軸 4 0 2, 第 2の回転軸 4 0 3を有し、 しかも第 1 の回転軸 4 0 2の出力部 4 0 2 a の延長線 Yと第 2の回転軸 4 0 3の出力部 4 0 3 a の延長線 Xと の直交する位置 Dにテ レビカメ ラ 4 0 4のカメラ レンズ 4 0 5の回転中 心が一致するように配置し、 第 1 , 第 2の回転軸 4 0 2, 4 0 3を選択 的に駆動したとき、 カメラ レンズ 4 0 5の回転中心を中心と してテレビ カメ ラ 4 0 4が回動移動する首振り機能をもつので、 該首振り機能によ り 、 被撮影物を検出するときの検出精度を上げることができる。 In this embodiment, as described above, the posture changing device 33 has the first rotating shaft 402 and the second rotating shaft 400, and furthermore, the output section 400 of the first rotating shaft 402. The center of rotation of the camera lens of the television camera is located at a position D perpendicular to the extension line Y of the 2a and the output section of the second rotation axis 400. When the first and second rotating axes 402, 403 are selectively driven, the TV camera 404 is centered on the rotation center of the camera lens 405. It has a swing function that rotates and moves. Thus, the detection accuracy when detecting the object to be photographed can be improved.
しかも、 互いに一致した位置 Dが力メ ラレンズ 4 0 5の主点をなすの で、 カメ ラ レンズ 4 0 5のゆがみ等のよ うなレンズ特性に影響されるこ とがなく 、 よ り正確な検出が可能となる。  In addition, since the position D coincident with each other forms the principal point of the power camera lens 405, it is not affected by lens characteristics such as distortion of the camera lens 405, and more accurate detection is possible. Becomes possible.
第 9図に示す実施例は、 第 8図の実施例に回転軸 4 0 6を 1軸付加し たものである。 即ち、 この場合は、 第 2の回転軸 4 0 3の出力部 4 0 3 a に、 取付板 4 0 7, 該取付板に設けられた L字形の支持部 4 0 8を介 し第 3の回転軸 4 0 6が設置されると共に、 その回転軸 4 0 6の出力部 (符号せず) にテレビカメラ 4 0 4が取付けられ、 第 3の回転軸 4 0 6 の駆動によりテレビカメラ 4 0 4が取付板 4 0 7, 支持部 4 0 8上で、 第 2の回転軸 4 0 3 と直交する水平軸周り、 即ち、 カメラレンズ 4 0 5 の回転中心の周りを回転するよ うにしている。 この場合、 第 1の回転軸 4 0 2の出力部 4 0 2 aの延長線 Yと第 2の回転軸 4 0 3の出力部 4 0 3 a の延長線 Xとの交差位置 Dに力メラレンズ 4 0 5の回転中心を一致 させると共に、 その回転中心と延長線 Yと Xとの交点位置 Dにカメラレ ンズ 4 0 5の主点を位置させている。  The embodiment shown in FIG. 9 is obtained by adding one rotating shaft 406 to the embodiment shown in FIG. That is, in this case, the output portion 400 a of the second rotating shaft 403 is connected to the third mounting portion 407 via the mounting plate 407 and the L-shaped support portion 408 provided on the mounting plate. A rotation axis 406 is installed, and a television camera 404 is attached to an output section (not shown) of the rotation axis 406. The television camera 406 is driven by driving a third rotation axis 406. 4 rotates around the horizontal axis orthogonal to the second rotation axis 400 on the mounting plate 407 and the support section 408, that is, around the rotation center of the camera lens 405. I have. In this case, the force lens is located at the intersection D between the extension Y of the output section 402 of the first rotation axis 402 and the extension X of the output section 400 of the second rotation axis 400. The center of rotation of the camera lens 405 is matched with the center of rotation of the camera lens 405, and the principal point of the camera lens 405 is located at the intersection D of the center of rotation and the extension lines Y and X.
この実施例によれば、 第 1 〜第 3の回転軸 4 0 2, 4 0 3 , 4 0 6を 有し、 これらの駆動により、 テレビカメラ 4 0 5を微妙に回動移動させ ることができるので、 第 8図に示す実施例に比較し、 被撮影物を検出す るときの検出精度をいつそう上げることができる。  According to this embodiment, the television camera 400 has the first to third rotating shafts 402, 403, and 406, and by these driving, the television camera 405 can be subtly rotated. Therefore, as compared with the embodiment shown in FIG. 8, it is possible to improve the detection accuracy when detecting an object to be photographed.
第 1 0図は第 8図の実施例の姿勢変更装置 3 3に平行移動軸を付加し たものである。 即ち、 第 2の回転軸 4 0 3の出力部 4 0 3 a に取付板 4 1 0が取付けられ、 該取付板 4 1 0の一端部にシリ ンダからなる平行移 動軸 4 0 9が設置され、 該移動軸 4 0 9の平行移動部 4 0 9 a にテレビ カメ ラ 4 0 4が連結されている。 従って、 テレビカメラ 4 0 4は、 平行 移動軸 4 0 9の駆動により、 第 2の回転軸 4 0 3 と同一平面内において 該回転軸 4 0 3 と直交する方向に直線移動できるよ うにしている。 FIG. 10 is a view in which a translation axis is added to the posture changing device 33 of the embodiment of FIG. That is, a mounting plate 410 is attached to the output section 400 a of the second rotating shaft 400, and a parallel translation shaft 409 made of a cylinder is installed at one end of the mounting plate 410. A television camera 404 is connected to the parallel moving section 409a of the moving axis 409. Accordingly, the television camera 404 is driven in the same plane as the second rotation axis 403 by driving the translation axis 409. It can be moved linearly in a direction orthogonal to the rotation axis 400.
そ して、 テ レビカメ ラ 4 0 4 のカメ ラ レンズ 4 0 5 は、 その中心軸 Z が第 1 の回転軸 4 0 2 の出力部 4 0 2 a の延長線 Yと第 2の回転軸 4 0 3 の出力部 4 0 3 a の延長線 Xとの交差する位置 Dに配置され、 しかも その屮心軸 Z上に主点が位置するよ うにしている。  Further, the camera lens 400 of the television camera 400 has a center axis Z having an extension Y of the output section 402 a of the first rotation axis 402 and a second rotation axis 4. It is arranged at the position D where it crosses with the extension X of the output part 40 3 a of 0 3, and the principal point is located on the sub-axis Z.
この実施例によれば、 第 1 , 第 2の回転軸 4 0 2, 4 0 3の駆動によ つてテ レビカメ ラ 4 0 4を回動移動できる他、 テレビカメラ 4 0 4の力 メラ レンズ 4 0 5が第 2の回転軸 4 0 3 と同一平面内で該回転軸 4 0 3 と直交する方向に直線移動するので、 カメラ レンズ 4 0 5の焦点位置を 容易にかつ短時問で合わせることができる。  According to this embodiment, the television camera 404 can be rotated by driving the first and second rotating shafts 402, 403, and the force of the television camera 404, the lens 4 05 moves linearly in the same plane as the second rotation axis 4003 in the direction orthogonal to the rotation axis 4003, so that the focal position of the camera lens 400 can be easily and quickly adjusted. Can be.
第 1 1図は第 1 0図の実施例に第 9図の実施例と同様の回転軸 4 0 6 を付加したものである。 即ち、 第 2の回転軸 4 0 3に取付けられた取付 板 4 1 0上に、 支持部 4 0 8を介し第 3の回転軸 4 0 6が設置され、 該 回転軸 4 0 6 の駆動により、 テレビカメラ 4 0 4が支持部 4 0 8に対し、 カメラレンズ 4 0 5の回転中心を中心と して回転するよ うにしている。 従って、 この実施例によれば、 第 1 0図に示す実施例に比較し、 テレ ビカメ ラ 4 0 4が第 2の回転軸 4 0 3 と同一平面上で該回転軸 4 0 3 と 直交する方向に直線移動する他、 カメラレンズ 4 0 5の中心軸 Z周り に 回動移動するので、 よりいつそうに精緻に検出することができる。  FIG. 11 is obtained by adding a rotating shaft 406 similar to the embodiment of FIG. 9 to the embodiment of FIG. That is, on the mounting plate 410 attached to the second rotating shaft 403, the third rotating shaft 406 is installed via the supporting portion 408, and by the driving of the rotating shaft 406 The television camera 404 rotates about the rotation center of the camera lens 405 with respect to the support portion 408. Therefore, according to this embodiment, as compared with the embodiment shown in FIG. 10, the television camera 404 is orthogonal to the second rotation axis 400 on the same plane as the second rotation axis 400. In addition to the linear movement in the direction, it also rotates around the center axis Z of the camera lens 405, so that the detection can be performed more precisely at any time.
ところで、 通常では、 カメラ レンズ 4 0 5の回転中心と主点とが一致 しないことが多い。 そこで、 カメラ レンズ 4 0 5の主点と回転中心とが 一致できない場合には、 特徴点を画面内の特定の位置、 例えば画面中心 に姿勢変更装置を用いて合わせ、 このときの姿勢変更装置の回転軸の角 度データを用いる。 第 8図のような 2軸を用いた姿勢変更装置を、 第 1 2図を用いて具体的に述べると、 まず、 姿勢変更装置の座標系と して、 垂直方向下向きの軸を Y , 水平方向の軸を X, これら両軸の交差する位 ίί'(にあつてかつこれらと 交する舢を Ζ とする。 また、 第 1 , 第 2の回 >b\ ΐΙΐ A 0 2 , Λ 0 Λ ' の Ιϊϊΐ i|£ ί を-夫々 φ 1 , φ 2 とする。 このとき、 レン ズの屮心線の力 Ί Κ ο 1 (Υ, 1 ) R o t (X , φ 2 ) Ζは、 以下の 式となる。 By the way, usually, the rotation center of the camera lens 405 and the principal point often do not coincide. Therefore, when the principal point of the camera lens 405 and the center of rotation cannot be matched, the feature point is aligned with a specific position in the screen, for example, the center of the screen using the posture changing device. The rotation axis angle data is used. A posture changing device using two axes as shown in Fig. 8 will be specifically described with reference to Fig. 12. First, as a coordinate system of the posture changing device, a vertically downward axis is defined as Y, horizontal. The axis of direction is X, the intersection of these two axes Let 舢 be the 舢 '(and 舢 that intersect with them. Let 、 i | £ of the first and second rounds> b \ ΐΙΐ A 0 2, Λ 0 Λ' be φ 1, In this case, the force of the lens core wire Ί ο ο 1 (Υ, 1) R ot (X, φ 2) Ζ is given by the following equation.
ROT (y . t , ) ROT (x. ^ 2) z ROT (y .t,) ROT (x. ^ 2 ) z
Figure imgf000047_0001
Figure imgf000047_0001
となる。 これを平面の画像情報と して用いる場合、 例えば第 1 3図に示 すよ うに、 X, Y平面に平行な平面 Z = 1へ投影し直せばよい。 投影さ れた平面上の座標を G X, G Yとすると、 G X, GYは以下のように求 まる。 s 1 η ψ i c o s φ  Becomes When this is used as image information of a plane, for example, as shown in FIG. 13, it is sufficient to re-project the image onto a plane Z = 1 parallel to the X and Y planes. Assuming that the projected coordinates on the plane are G X and G Y, G X and GY are obtained as follows. s 1 η ψ i c o s φ
Gx = ·= t Ά n ψ (数 53 )G x = · = t Ά n ψ (number 53)
Figure imgf000047_0002
Figure imgf000047_0002
Gv= - (数 54 ) Gv =-(number 54)
C O S i C O S 2  C O S i C O S 2
二の ¾ 、 使川する特徴点の数だけ同様にして求め、 全てを同一の平 ifli I八 Jに投 ];:; i -る。 この ϊίΐίのデータを一枚の画像データ と して使用する < 次に、 姿勢変更装置を用いて、 特徴点を画面上の任意の点に合わせる こ との利点について説明すると、 カメラ レンズ 4 0 5にズームレンズを 川いて望遠を使用した場合、 焦点を合わせなければ特徴点がボケてしま う。 また焦点をずら しただけでレンズの主点位置はずれてしま う。 しか し、 特徴点を画而上の任意の点に合わせると、 レンズの主点の位置を知 る必要がなく なる。 従って、 計測すべきパラメータの項を減少できる利 点がある。 また、 一般にゆがみのないレンズを製作することは困難と さ れており、 画像内の全面を利用することは計測精度の低下につながると されているので、 その点でも特徴点だけを投影する姿勢変更装置に利点 がある。 In the same way, the number of feature points to be used is calculated in the same way, and all of them are cast on the same flat ifli I eight J]; :: i-ru. Use this デ ー タ data as one image data < Next, the advantage of using a posture changing device to set a feature point to an arbitrary point on the screen will be described. If a telephoto camera is used with a zoom lens mounted on the camera lens 405, focus cannot be achieved. If the feature points are blurred. Also, simply shifting the focus will cause the principal point of the lens to shift. However, if the feature point is set to an arbitrary point on the metaphor, it is not necessary to know the position of the principal point of the lens. Therefore, there is an advantage that the parameter term to be measured can be reduced. In addition, it is generally difficult to manufacture a lens without distortion, and it is said that using the entire surface of an image will lead to a reduction in measurement accuracy. The change device has advantages.
つぎに、 テレビカメ ラを複数立体的に配置して、 高倍率のカメラレン ズを用いて広範囲を同時に映像と して取り込み、 1枚の高精細画像に処 理し、 姿勢変更装置での移動時間をなく したものである。 この 1例を、 第 1 4図, 第 1 5図を用いて説明する。 第 1 4図は、 テレビカメ ラを円 弧上に並べたものであり、 それぞれのカメラレンズの主点位置を 1点に あわせたものである。 第 1 3図は、 テレビカメラを球面上に配置したも ので、 中央のカメラの中心線方向からみたものである。  Next, a plurality of TV cameras are arranged in three dimensions, a wide area is simultaneously captured as images using a high-power camera lens, processed into one high-definition image, and moved by a posture changing device. It is time-consuming. An example of this will be described with reference to FIGS. 14 and 15. Fig. 14 shows TV cameras arranged in an arc, with the principal points of each camera lens aligned to one point. Fig. 13 shows a television camera arranged on a spherical surface, viewed from the center line of the camera at the center.
次に、 撮像したデータの特徴点を計測する手順について第 1 6図を用 いて説明する。 図中の姿勢計測対象物は、 ィ, 口, ハの 3個の箱から構 成されているとすると、 これら 3個の箱には、 コン トランスがはっき り した特徴点がついている。 図中にはこれを 「 +」 マークで表している。 これらの特徴点は予め 3個の箱夫々の座標系で計測されている。 ワーク の加工が設計通りになされている場合、 計測値の代わり に設計値を使用 してもよいのは当然である。  Next, the procedure for measuring the characteristic points of the captured data will be described with reference to FIG. Assuming that the posture measurement object in the figure is composed of three boxes, i, mouth, and c, these three boxes have feature points with clear transformers. This is indicated by a “+” mark in the figure. These feature points are measured in advance in the coordinate system of each of the three boxes. If the workpiece is machined as designed, it is natural that the design values may be used instead of the measured values.
ィ, 口, ハの箱がでたらめになされている。 この場合、 計測と しては、 -桥人きな箱ィに対して箱口, 箱ハの位置姿勢がどうなっているかを知 ることである。 図中の姿勢変更装匱 3 3は、 各箱ィ, 口, ハの特徴点が 画面上の特定の位置、 例えば画面中心にく るよ うに駆動し、 そのときの 回転角を検出する。 次いで、 その回転角を用いて先に述べた数 5 3, 数 5 4によ り同一平面上の点に投影し直す、 即ち、 箱ィを原点と して姿勢 変更装置 3 3の位置姿勢と、 箱口, ハの位匱姿勢パラメータを先に述べ た手順で求めるのである。 The mouth, the box of c, and the box of c are made random. In this case, the measurement is to know the position and orientation of the box entrance and the box c with respect to-桥 Is Rukoto. The posture changing device 33 in the figure is driven so that the characteristic points of each box, mouth, and c come to a specific position on the screen, for example, the center of the screen, and detect the rotation angle at that time. Next, using the rotation angle, the projection is re-projected to a point on the same plane according to Equations 53 and 54 described above. That is, the position and orientation of the attitude changing device 33 are set with the box as the origin. Then, the parameters of the box mouth and the crocodile posture are obtained by the procedure described above.
ところで、 姿勢変更装置' 3 3を用いたときに、 最低限必要な特徴点の 数について説明すると、 ある対象物、 例えば第 1 6図中の箱ィに対する 姿勢変更装置 3 3の求める必要のあるパラメータは、 姿勢変更装匱 3 3 の原点の位置 (C X , C y, C z ) と座標軸の向きに関する姿勢 ( 0 1, Θ 2 , 0 3 ) の 6個である。 一方、 特徴点の画像情報と しては、 各特徴 点の同一平面上での座標値の 2個である。 従って、 特徴点が 3個あれば、 対象物に対する姿勢変更装置 3 3の位置 · 姿勢のパラメータ 6個を求め ることができる。  By the way, when using the posture changing device '33, the minimum number of required feature points will be described. It is necessary to find the posture changing device 33 for a certain object, for example, the box in Fig. 16. There are six parameters: the position of the origin (CX, Cy, Cz) of the posture change equipment 33 and the posture (01, Θ2, 03) related to the direction of the coordinate axes. On the other hand, the image information of feature points is two coordinate values of each feature point on the same plane. Therefore, if there are three feature points, six parameters of the position / posture of the posture changing device 33 with respect to the object can be obtained.
これを数式を用いて詳しく説明する。 第 1 6図の姿勢変更装置 3 3は 第 1 2図に示したものと同様の 2軸タイプと し、 またその座標系も第 1 2図と同様とする。 第 1, 第 2の回転軸 4 0 2, 4 0 3の回転角を夫々 Φ 1 , </> 2 とする。 このとき、 カメラ レンズ 4 0 5の中心軸の方向は、 前記数 5 2 と表せる。 これを平面の画像情報とするために、 X c Y c平 面に平行な平面 Z c = 1へ投影し直す。 投影された平面上の座標を G X, G Yとすると、 G X, G Yは、 数 5 3, 数 5 4 と して求まる。  This will be described in detail using mathematical expressions. The attitude changing device 33 shown in FIG. 16 is a two-axis type similar to that shown in FIG. 12, and its coordinate system is also the same as that shown in FIG. The rotation angles of the first and second rotating shafts 402 and 403 are denoted by Φ 1 and </> 2, respectively. At this time, the direction of the central axis of the camera lens 405 can be expressed by the above equation (52). In order to use this as image information of a plane, reprojection is performed on a plane Zc = 1 parallel to the XcYc plane. Assuming that the coordinates on the projected plane are G X and G Y, G X and G Y are obtained as Equations 53 and 54.
静止座標系上における姿勢変更装置の座標系の原点 Cの位置を (C X, C Y, C Z ) 、 姿勢を静止座標系の X軸, Y軸, Z軸周りの回転角 6 1 , 0 2 , 0 3で表す。  The position of the origin C of the coordinate system of the posture changing device on the stationary coordinate system is (CX, CY, CZ), and the posture is the rotation angle around the X, Y, and Z axes of the stationary coordinate system. Represented by 3.
また、 静止座標系上における位置姿勢対象物の座標系の原点 Pの位置 を ( P x, P y , Ρ ζ ) 、 姿勢を静止座標系の X軸, Υ軸, Ζ軸周りの 0 a , 0 β , で表す。 一方、 姿勢変更装置の見かけ上の焦点/1 · i s x , s γは、 χ c, γ c ψ ίπίに φ行な- 面を Ζ c = 1 と とってレ、 るので、 S X = 】 , S Y = 1 と して固定された値となる。 Also, the position of the origin P of the coordinate system of the position / posture object on the stationary coordinate system is (Px, Py, Ρ ζ), and the posture is around the X, Υ, and Ζ axes of the stationary coordinate system. 0 a, 0 β,. On the other hand, the apparent focal point of the attitude changing device / 1 · isx, s γ is given by Ζ c = 1, taking φ-plane of 行 c, γ c ψ ίπί, so SX =], SY = 1 is a fixed value.
ここで決めたパラメータは作川の中で説明した一台のテレビカメ ラ と The parameters decided here are the one TV camera described in Sakugawa and
• (ハ対4 { 物を川 V、たとき と |司じにしている。 従つて、 特徴点の画而位 i' は、 数 2 9で表せる。 但し、 画面位置差の生じる原因が位置姿勢計 測対象物の方のみであれば数 2 9は下記の数 5 5 と変更される。 • (Cv. 4 {The object is a river V, when it is | and the lord. Therefore, the meta position i 'of the feature point can be expressed by Equation 29. However, the cause of the screen position difference is the position If only the attitude measurement object, Equation 29 is changed to Equation 55 below.
Figure imgf000050_0001
Figure imgf000050_0001
(数 5 5 )  (Number 5 5)
++
Figure imgf000050_0002
この 6個のパラメ一タが該差要因であり、 位置姿勢計測対象物上の特 徴点が最低限 3点あれば、 計測できることになる。
Figure imgf000050_0002
These six parameters are the difference factors, and measurement can be performed if there are at least three characteristic points on the position and orientation measurement object.
以上では、 各々の特徴点を同一平面上で計測する場合について述べた が、 今度は、 対象物の一つの特徴点の位置の計測方法について説明する s 一つの特徴点の位置は (X , Υ , Z ) の 3個のパラメータをもっている。 これに対して一台の情景検出手段のもつパラメータは、 平面画像である ので (G x , G y ) の 2個である。 従って、 情景検出手段は 2台以上な いと一つの特徴点の位置を計測することができない。 2台以上の情景検 出センサを使う場合、 その 2台の位置関係を求める方法について第 1 7 Iによ り説叨する。 The above has dealt with the case of measuring each of the feature points on the same plane, in turn, the position of the measuring method s one feature point will be described in the position of one feature point of the object (X, Upsilon , Z). On the other hand, the parameters of one scene detection means are (G x, G y) because they are plane images. Therefore, the scene detecting means cannot measure the position of one feature point unless there are two or more. When two or more scene detection sensors are used, the method for determining the positional relationship between the two is described in Section 17I.
第 1 7図において、 2台の姿勢変更装置 3 3 1, 3 3 2に夫々取付け ら i lた 'Ιι'ί Π1·
Figure imgf000051_0001
出 Τ·段 (テレビカメ ラ) Λ, Βの 2台と、 キヤ リブレ一シ ン川リーク 3 3 及び計測対象物 3 3 4がある。 2台の姿勢変更装置 :! 1 , ] ] 2は 8図に示す如き 2つの回 軸をもっている。 一方、 キヤ リ ブレーシヨ ン用ワーク 3 3 3にはキヤ リブレーシヨ ン用マーク 3 ■Λ a が ίί:怠の位 に複数 ;り付けられてあり、 各マーク 3 3 3 a は予 め 次元測 ΪΪ機によ り ワーク座標系で測定されることにより、 それらの 相対的位置がデータ と して取り込まれている。
In Fig. 17, the two attitude changers 3 3 1 and 3 3 2 are attached respectively. Ilta 'Ιι'ί Π1 ·
Figure imgf000051_0001
Output stage (television camera) There are two units, Λ and キ, and the Caribbean River leak 33 and the object to be measured 334. Two attitude change devices:! 1,]] 2 have two axes as shown in Fig. 8. On the other hand, the workpiece 3 for the calibration 3 3 3 has a plurality of calibration marks 3 Λ Λ a at the position of 怠: negligible; each mark 3 3 3 a is a dimension measuring machine in advance. By measuring in the work coordinate system, their relative positions are captured as data.
各情景検出手段 Λ, Bは、 キャ リブレーショ ン用ワーク 3 3 3上のマ ーク 3 3 3 a を検出して静止座標系、 例えば情景検出手段 Aの座標系で 情景検出手段 B とキヤ リブレーショ ン用ワーク 3 3 3の三次元の位置 · 姿勢を計測する。 この操作によ り、 2台の情景検出手段 A , Bの相対的 位匱が定まる。  Each of the scene detecting means Λ and B detects the mark 33 33 a on the calibration work 33 33 and detects the mark 33 33 a on the work coordinate 33, for example, the scene detecting means B and the calibration means in the coordinate system of the scene detecting means A. The three-dimensional position and orientation of the workpiece 3 3 3 are measured. By this operation, the relative position of the two scene detecting means A and B is determined.
次に、 図屮の計測対象物 3 3 4の 2点 P と Qとの長さ Lを求めること について説明する。 情景検出手段 A, B夫々で計測対象物 3 3 4の P点 を両而中央に合わせ、 そのときの姿勢変更装置 3 3 1 , 3 3 2における 回転軸の角度を求める。 この角度から、 夫々の平面上の一点を求め、 前 述した方法により三次元の座標を求める。 同様にして Q点についても求 める。 この点 P , Qの三次元の座標から両点 P , Q間の距離 Lを求める。 ここで、 三次元の位置の求め方についてさらに詳細に説明する。  Next, how to find the length L between the two points P and Q of the measurement object 3 3 4 of the block will be described. The P point of the measurement object 3334 is set to the center of both sides by the scene detection means A and B, respectively, and the angle of the rotation axis in the posture changing devices 331 and 332 at that time is obtained. From this angle, one point on each plane is obtained, and three-dimensional coordinates are obtained by the method described above. In the same way, find the Q point. From the three-dimensional coordinates of the points P and Q, the distance L between the points P and Q is determined. Here, a method of obtaining the three-dimensional position will be described in more detail.
例えば、 点 Pの座標を求める場合、 情景検出手段 Aが点 Pを画面内の 特定位置に合わせたときの姿勢変更装置 3 3 1 の回転軸の角度を φ 1 A , 2 Λとすれば、 次の数 5 6, 数 5 7により、  For example, when obtaining the coordinates of the point P, if the angle of the rotation axis of the posture changing device 331 when the scene detection means A matches the point P with a specific position on the screen is φ 1 A, 2Λ, From the following Equations 5 6 and 5 7,
G X Λ = t a η φ 1 Λ (数 5 6 ) GX Λ = ta η φ 1 Λ ( Equation 5 6)
^> Υ ^ = — t a 11 ψ i Λ / C O S ψ Ι Λ (数 5 7 ) と して ψ-而上の痤標 G X Λ, G Υ Αは求まる 同様に、 情景検出手段 Bの回転軸の角度 (姿勢変更装置 3 3 2の回転 ¾liの A度) を 1 13, φ 2 B とすると、 ^> Υ ^ = — ta 11 ψ i Λ / COS ψ Ι 数 (Equation 5 7) and the meta-targets GX Λ and G Υ ま る are obtained Similarly, assuming that the angle of the rotation axis of the scene detection means B (A degree of rotation ¾li of the posture changing device 332) is 1 13 and φ 2 B,
G X „ = t a η ψ ,„ … (数 5 8 )G X „= t a η ψ,„… (Equation 5 8)
G y B = - t a n </) 1 B ' c o s … (数 5 <7 ) と して Ψ- iTii上の座標 G X B, G Y Bが求まる。 G y B =-tan </) 1 B 'cos… (Equation 5 <7), and the coordinates GXB and GYB on Ψ-iTii are obtained.
点 Pの静止座標系での設計位置を P X , P y, P z と し、 実際の位置 を P x ' , P y ' , P z ' とする。 そのときの位置ずれを Δ P X , 厶 P y , Δ P z とすると、 以下の関係式となる。  Let P X, P y, and P z be the design positions of point P in the stationary coordinate system, and let P x ′, P y ′, and P z ′ be the actual positions. If the displacement at that time is ΔP X, mm P y, ΔP z, the following relational expression is obtained.
Δ Ρ χ = Ρ ' χ - Ρ χ … (数 6 0)Δ Ρ χ = Ρ ' χ - Ρ χ … ( Equation 6 0)
A P y = P ' y - P y … (数 6 AP y = P 'y- P y … (Equation 6
Δ P z = P ' z - p z … (数 6 2 ) ここで、 設計上での画面位置と実際の画面位置との差を A G XA, 厶 G X B , A G Y B とすると、 以下の関係式が成り立つ。 Δ P z = P 'z - in p z ... (6 2) Here, the difference of the AG XA between the actual screen position and screen position in the design,厶GXB, When AGYB, holds the following equation .
a V ^ 厶 3 … (》
Figure imgf000052_0001
C
a V ^厶3 ... ( "
Figure imgf000052_0001
C
X一 一 き … (数 厶 " d ' Um X one… (a few um " d '
そして、 これら数 6 3〜数 6 6を Δ P x, Δ P y , Δ Ρ ζの連立方程 式と して解く。 この Δ Ρ χ, Δ P y , Δ Ρ ζは近似値であり、 前述した 数式 6 0〜 6 2の関係から次式  Then, Equations 63 to 66 are solved as simultaneous equations of ΔP x, ΔP y, and Δ Ρ ζ. These Δ Ρ χ, ΔP y, and Δ Ρ 近似 are approximate values, and from the relationship of the aforementioned equations 60 to 62, the following equation is obtained.
Ρ ' χ = Ρ χ + Δ Ρ χ … (数 6 7 ) Ρ 'χ = Ρ χ + Δ Ρ χ… (Equation 6 7)
P ' y = P y + A P y … (数 6 8 )P 'y = P y + A P y… (Equation 6 8)
Ρ ' ζ = Ρ ζ + Δ Ρ ζ … (数 6 9 ) の閲係を用いることにより、 Ρ χ ' , P yへ , P z ' を更新する。 この Τ·ΙιΙΠを跺り返すこ とによ り、 ¾際の位置 Ρ X ' , P y ' , P z ' を得る ことができる。 , このよ うに、 特徴点 1 点ずつの三次元座標がわかれば、 これを組み合 わせることで、 空問上の物体がどこにあるかを定義できることは自明で あり 、 従って、 立体地図を作成することもできる。 Ρ 'ζ = Ρ ζ + Ρ Ρ……… (閲… (………… 数 (数 (………………… ((((… (………………… 数 数 数 P 数 数 P 数 数 数 数 数By returning this Τ · ΙιΙΠ, we get the exact positions Ρ X ', P y', P z ' be able to. Thus, if the three-dimensional coordinates of each feature point are known, it is self-evident that by combining the three-dimensional coordinates, it is possible to define where the object in the air is located. You can also.
次に、 予め既知の illi而上の 1 点を情景検出手段 1つで求める方法につ いて第 1 8図によ り説明する。 予め既知の曲面を Ζ = f ( X, y ) で表 すこと とする。 また、 情景検出手段の曲線に対する位置 , 姿勢は既に求 まっているものと して以下に説明する。  Next, a method of obtaining a known point on the illi meta by one scene detecting means will be described with reference to FIG. A known surface is represented by Ζ = f (X, y). The following description is based on the assumption that the position and orientation of the scene detection means with respect to the curve have already been determined.
第 1 8図において、 今、 情景検出手段 1 8 0から点 Bに向かうベタ ト ルが姿勢変更装置 3 3 1 の値からわかっている。 このときの点 Bの座標 を求めるには、 第 1 9図に示すよ うに、 A点の座標 ( X 0, y 0, z 0 ) 中の ( x O, y 0 ) で表される曲面上の点 Cを求める。 次に、 この点 C の近傍、 例えば ( χ Ο + Δ χ Ο, y 0 ) , ( χ 0 - Δ χ 0 , y 0 ) で得 られる曲面上の点どう しをつなぐベク トル a を求める。 同様にして ( X 0 , y 0 + Δ y 0 ) , ( x O, y O— A y O ) で得られる曲面上の点ど う しをつなぐべク トノレ bを求める。 このべク トノレ a, bの外積で C点の 接平面が定義できる。 この接平面と Aから Bに向かうベク トルの交点を D ( X 1 , y 1 , z 1 ) とする。 この ( x l, y l, z 1 ) で表される 曲線上の点 Eに接する平面を求め、 この平面と Aから Bに向かうべク ト ルの交点 Fを求める。 この操作を繰り返すことで曲面上の B点の座標を 得ることが可能となる。  In FIG. 18, it is now known from the value of the posture changing device 331 that the solid going from the scene detecting means 180 to the point B is known. To obtain the coordinates of point B at this time, as shown in Fig. 19, on the surface represented by (xO, y0) in the coordinates (X0, y0, z0) of point A, Find point C of Next, a vector a that connects points on a curved surface obtained in the vicinity of the point C, for example, (χ Ο + Δχ Ο, y0), (χ0-Δχ0, y0) is obtained. In the same manner, the vector b connecting the points on the surface obtained by (X0, y0 + Δy0), (xO, yO—AyO) is obtained. The tangent plane of point C can be defined by the outer product of these vectors a and b. Let the intersection of this tangent plane and the vector from A to B be D (X 1, y 1, z 1). Find the plane tangent to the point E on the curve represented by (xl, yl, z1), and find the intersection F of this plane and the vector from A to B. By repeating this operation, the coordinates of point B on the curved surface can be obtained.
ところで、 第 1 8図に示すよ うに、 曲面上のあるエリアを情景検出手 段 1 8 0を用いて定義したければ、 図中の斜線のエリアに沿った線を情 景検出手段 1 8 0で得られた画面上で定義し、 前述した方法で画面上の 画素 1 点について曲面上の対応点を求めることで、 三次元自由曲面上の 領域を定義することができる。 産業上の利用可能性 By the way, as shown in FIG. 18, if it is desired to define a certain area on the curved surface by using the scene detection means 180, a line along the hatched area in the figure is used as the scene detection means 180. The area on the three-dimensional free-form surface can be defined by defining on the screen obtained in step 1 and finding the corresponding point on the surface for one pixel on the screen by the method described above. Industrial applicability
以上説明したよ うに、 本発明の請求項 1〜 4によれば、 実際の作業環 境情景と設計上の疑似的な作業情景とを解析すると共に、 解析した結果 に基づいて作業環境内の各々の位置 . 姿勢を把握し、 実際の制御データ を変更したり、 設計値と一致するよ うに作業環境内の各々の位置 · 姿勢 を修正できるよ うに構成し'たので、 、 作業環境内の位置 · 姿勢ずれの修 正を精度よく 自動的に行う ことができる効果があり、 また修正 · 変更を 行う際の作業環境の分析等をも自動的に行う ことにより、 加工装置のォ ンラインティーチングする必要がなく なる等の効果もある。  As described above, according to claims 1 to 4 of the present invention, the actual work environment scene and the pseudo work scene in design are analyzed, and each work environment in the work environment is analyzed based on the analysis result. The position and posture in the work environment are configured so that the actual control data can be changed and each position and posture in the work environment can be corrected to match the design values. · It has the effect of automatically correcting the position deviation with high accuracy.In addition, it is necessary to conduct online teaching of the processing equipment by automatically analyzing the work environment when making corrections and changes. There is also an effect such as disappearance.
また、 本発明の請求項 5〜 1 1 によれば、 請求項 1〜4の方法を的確 に実施することができる効果があり、 特に請求項 8〜 1 1 によれば、 情 景検出手段と してのテレビカメラにおけるカメラレンズが主点位置を中 心と して姿勢を変更できるで、 カメラレンズのゆがみ等のようなレンズ 特性に影響されることがなく、 より正確な検出が可能となる効果があり、 テレビカメラを市販の安価なもので広角度で高精細画像を容易に得るこ とができ、 経済的である。  Further, according to claims 5 to 11 of the present invention, there is an effect that the method according to claims 1 to 4 can be appropriately performed. Particularly, according to claims 8 to 11, the scene detecting means and The camera lens of a typical TV camera can change its attitude with its principal point at the center, enabling more accurate detection without being affected by lens characteristics such as camera lens distortion. It is effective, and it is economical because a commercially available and inexpensive television camera can easily obtain high-definition images at a wide angle.
さ らに、本発明の請求項 1 2〜 1 7によれば、請求項 5 ~ 1 1の位置 · 姿勢検出装置を備えるので、 生産システムを自立的に運用することがで き、 また作業環境内の各々を高精度に製作する必要がなくなるので、 そ れだけ設備を安価にすることができ、 さらに生産ラインを長時間止める 必要もない結果、 多品種少量生産に対応し得る柔軟性の高くかつ経済的 なシステムを提供することができる。  Furthermore, according to claims 12 to 17 of the present invention, since the position / posture detection device according to claims 5 to 11 is provided, the production system can be operated independently, and the work environment can be improved. It is not necessary to manufacture each part with high precision, so the equipment can be made cheaper, and there is no need to stop the production line for a long time. It can provide an economical system.

Claims

請 求 の 範 囲 The scope of the claims
1 . 情景検出手段および被撮影物が、 予め定められた設計上の位置 · 姿 勢からずれているとき、 そのずれを修正する位置 · 姿勢検出方法におい て、 上記情景検出手段による作業環境中の被撮影物の撮影を、 該情景検 π M i 段におけるカメ ラ レンズの主点位置を屮心に変更して行い、 得られ た複数の画像を一枚の平面へ投影して一枚の広画角画像に合成し、 上記 情景検出手段および上記被撮影物が、 予め定められた設計上の位置 · 姿 勢にあつたと仮定した場合、 上記情景検出手段が撮影しているであろう 画像を疑似的に作成し、 該疑似的画像上における上記被撮影物上の各特0 徴点の位置と、 上記情景検出手段が実際に撮影してえた上記合成画像上 における当該被撮影物上の上記各特徴点と対応する各特徴点の位置との ずれ量を求め、 該ずれ量に基づき上記情景検出手段および上記被撮影物 の位置 · 姿勢を、 上記被撮像物を基準にして修正すること と、 前記ずれ 量に応じた分だけ上記情景検出手段および被撮影物を移動する設計デー5 タを修正することの何れか一方を行う ことを特徴とする位置 · 姿勢検出 方法。  1. When the scene detecting means and the object to be photographed deviate from a predetermined design position / posture, the position / posture detecting method corrects the deviation. The subject is photographed by changing the principal point position of the camera lens in the scene detection π M i stage to a sub-center, and projecting the obtained images onto a single plane to obtain one image. When the scene detection means and the object to be photographed are assumed to be in a predetermined design position / posture, the image which would be photographed by the scene detection means is synthesized with the angle of view image. A position of each feature point on the object on the pseudo image, the position of each feature point on the object on the pseudo image, and the position on the object on the composite image actually captured by the scene detection means. Calculate the amount of deviation between each feature point and the position of each corresponding feature point Correcting the position and orientation of the scene detecting means and the object based on the shift amount based on the object; and correcting the position and orientation of the scene detecting means and the object by an amount corresponding to the shift amount. A position / posture detection method characterized by performing one of correction of design data for moving an object.
2 . 予め、 作業対象物と該作業対象物を加工処理する加工装置とこれら の周辺装置とを撮像し得る少なく とも 2台の情景検査手段を設置してお き、 これら 2台の情景検査手段, 作業対象物, 加工装置, 周辺装置から0 なる作業環境の各々の予測された時間での位置 . 姿勢を、 予め設計され たデータに基づいて画像と して疑似的に生成し、 次いで、 作業環境がそ の疑似的画像を生成した時間軸に達したとき、 実際の作業環境を各情景 検査手段によって撮像すると共に、 該実際に撮像した作業環境のデータ と疑似的画像を生成したデータとを比較して両者にずれがあったとき、5 該ずれに基づいて作業環境内の各々の位置 · 姿勢を修正すること と、 前 記ずれに応じた分だけ作業環境内の対応する各々の設計データを修正す ること との何れか一方を行う ことを特徴とする位置 · 姿勢検出方法。 2. In advance, at least two scene inspection means capable of imaging the work object, the processing apparatus for processing the work object, and these peripheral devices are installed, and these two scene inspection means are installed. The position at the predicted time of each of the working environments consisting of the work object, the processing device, and the peripheral device at each predicted time. The posture is artificially generated as an image based on the data designed in advance. When the environment reaches the time axis at which the pseudo image was generated, the actual work environment was imaged by each scene inspection means, and the data of the actually captured work environment and the data at which the pseudo image was generated were compared. If there is a difference between the two, 5 correct each position / posture in the work environment based on the difference, and adjust the corresponding design data in the work environment by the amount corresponding to the difference. Fix A position / posture detection method characterized by performing any one of the following.
3 . 予め、 作業対象物と該作業対象物を加工処理する加工装置と これら の周辺装置とを撮像し得る少なく と も 2台の情景検査手段を設置してお き、 これら 2台の情景検査手段, 作業対象物, 加工装置, 周辺装置から なる作業環境の各々の予測された時間での位置 · 姿勢情景を、 予め設計 されたデータに基づいて画像と して疑似的に生成し、 次いで、 作業環境 がその疑似的画像を生成した時間軸に達したとき、 実際の作業環境を各 情景検査手段によって撮像すると共に、 該実際に撮像した作業環境のデ ータ と疑似的画像を生成したデータを比較して両者にずれがあったとき , 該ずれに基づいて作業環境内の各々の位置 , 姿勢を修正すること と、 前 記ずれの分だけ作業環境内の対応する各々の設計データを修正すること との何れか一方を行い、 以下、 上記疑似的に生成する処理と作業環境内 の各々の位置 · 姿勢を修正する処理とを作業環境內の各々のが一つの特 定動作を行う ごとに実行することを特徴とする位置 · 姿勢検出方法。 3. At least two scene inspection means capable of imaging the work object, the processing device for processing the work object, and these peripheral devices are installed in advance, and these two scene inspection devices are installed. The position / posture scene at each predicted time of the working environment consisting of the means, the work object, the processing device, and the peripheral device is pseudo-generated as an image based on the previously designed data, and then, When the work environment reaches the time axis at which the pseudo image was generated, the actual work environment is imaged by each scene inspection means, and the data of the actually imaged work environment and the pseudo image are generated. When there is a difference between the two, the respective positions and postures in the work environment are corrected based on the difference, and each corresponding design data in the work environment is corrected by the difference described above. To do In the following, it is assumed that the above-described pseudo-generation process and the process of correcting each position and orientation in the work environment are performed each time each of the work environments 內 performs one specific operation. Characteristic position / posture detection method.
4 . 前記実際に撮像した作業環境のデータは、 一枚の広角度かつ高精度 画像であることを特徴とする請求項 1〜 3の何れか一項であることを特 徴とする位置 · 姿勢検出方法。 4. The position / posture characterized in that the actually captured work environment data is a single wide-angle and high-precision image. Detection method.
5 . 作業環境中にある被撮影物の位置 · 姿勢を決定する位置 , 姿勢検出 装置において、  5. In the position / posture detection device that determines the position / posture of the object in the work environment,
上記被撮影物を撮影する情景検出手段と、 該情景検出手段の実際の位 置を示す実データと、 上記被撮影物についての設計上の位置 · 姿勢を示 す設計データを格納された記憶手段と、 上記被撮影物が上記設計上の位 置 · 姿勢にあつたと仮定した場合、 上記情景検出手段が撮影しているで あろう画像を、 上記実データおよび上記設計データを用いて疑似的に作 成し、 該疑似的に作成した画像上における被撮影物上の各特徴点の位置 と、 上記被撮影物を上記情景検出手段が実際に撮影した画像上における 当該被撮影物上の上記各特徴点と対応する各特徴点の位置とのずれを抽 出し、 該ずれに基づいて上記被撮影物の位置 · 姿勢を修正すること と前 記ずれの分だけ上記被撮影物の設計データを修正すること との何れか一 方を実行する手段とを有することを特徴とする位置 · 姿勢検出装置。 Scene detection means for photographing the object, actual data indicating the actual position of the scene detection means, and storage means for storing design data indicating the design position and orientation of the object. Assuming that the object to be photographed is in the design position / posture, the image that would be taken by the scene detection means is simulated using the actual data and the design data. A position of each feature point on the object on the pseudo-created image, and a position on the image of the scene detection means actually photographing the object. The shift between the above-mentioned feature points on the object and the positions of the corresponding feature points is extracted, and the position and orientation of the object are corrected based on the shift. Means for performing either one of correcting design data of an object to be photographed.
6 . 作業対象物, 該作業対象物を加工処理する加工装置, これらの周辺 装置, 該作業対象物と加工装置と周辺装置とを撮像し得る少なく とも 2 台の情景検査手段を有する作業環境と、 作業対象物, 加工装置, 周辺装 置, 各情景検査手段の形状や特徴点に関する情報を格納した設計データ 記憶装置と、 作業対象物, 加工装置, 周辺装置, 各情景検査手段に対す る作業手順データ, 作業工程データ, 動作経路データを夫々格納した作 業計画データ記憶装置と、 設計データ記憶装置及び作業計画データ記億 装置に格納されたデータに基づき、 作業環境内の各々の予め予測された 時間での位置 · 姿勢情景を疑似的に生成し、 その疑似的に生成した時間 軸に達したとき、 実際の作業環境を各情景検査手段によって撮像すると 共に、 該撮像データを疑似的に生成した作業環境の各々の位置 · 姿勢情 景と比較して作業環境の各々の位置 · 姿勢のずれを検出し、 その検出し たずれを吸収する方向に作業環境内の各々の位置 · 姿勢を修正する組立 ステ一ショ ン制御手段とを有することを特徴とする位置 ·姿勢検出装置。 6. A work environment having at least two scene inspection means capable of imaging the work object, a processing device for processing the work object, peripheral devices thereof, and the work object, the processing device, and the peripheral device. A design data storage device that stores information on the shape and characteristic points of the work object, processing equipment, peripheral equipment, and each scene inspection means, and work on the work object, processing equipment, peripheral equipment, and each scene inspection means. Based on the work plan data storage device storing the procedure data, the work process data, and the operation route data, and the data stored in the design data storage device and the work plan data storage device, each of the work environment data is predicted in advance. The position / posture scene at the time that was generated is artificially generated, and when the artificially generated time axis is reached, the actual work environment is imaged by each scene inspection means, and The position and posture of the work environment are compared with the position and posture scenes of the work environment in which the image data was generated in a simulated manner, and the position and posture deviations of the work environment are detected. A position / posture detection device comprising: an assembling station control means for correcting each position / posture.
7 . 作業対象物, 該作業対象物を加工処理する加工装置, これらの周辺 装置, 該作業対象物と加工装置と周辺装置とを撮像し得る少なく とも 2 台の情景検査手段を有する作業環境と、 作業対象物, 加工装置, 周辺装 置, 各情景検査手段の形状や特徴点に関する情報を格納した設計データ 記憶装置と、 作業対象物, 加工装置, 周辺装置, 各情景検査手段に対す る作業手順データ, 作業工程データ, 動作経路データを夫々格納した作 業計画データ記憶装置と、 設計データ記憶装置及び作業計画データ記憶 装置に格納されたデータに基づき、 作業環境内の各々の予め予測された 時 での位置 · 姿勢情景を疑似的に生成し、 その疑似的に生成した時問 籼に達したとき、 実際の作業墚境を各情景検査手段によって撮像すると 共に、 該撮像データを疑似的に生成した作業環境の各々の位置 · 姿勢情 景と比較して作業環境の各々の位置 · 姿勢のずれを検出し、 その検出し たずれを吸収する方向に作業環境内の各々の位置 · 姿勢を修正する組立 ステーショ ン制御手段とを有し、 かつ該組立ステーショ ン制御手段は、 設計データ記憶装置及び作業計画データ記憶装置に基づいて作業中の特 定時間における作業環境情景を疑似的に生成する疑似作業環境情景生成 部と、 作業中の特定時間と同一時間軸に達したとき、 各情景検査手段に よって撮像された実際の撮像データに基づいて一枚の高精度画像を合成 する画像合成部と、 疑似作業環境情景生成部による疑似的作業環境情景 及び画像合成部による高精度画像とを比較し、 作業環境内の各々の位 匱 · 姿勢のずれを検出する作業環境情景理解部と、 該作業環境情景理解 部からの指令により作業環境内の位置ずれを吸収すべく作業対象物, 加 ェ装置, 周辺装置, 各情景検査手段を選択的に駆動する動作指令生成部 とを有することを特徴とする位置 · 姿勢検出装置。 7. A work environment having at least two scene inspection means capable of imaging the work object, a processing device for processing the work object, peripheral devices thereof, and the work object, the processing device, and the peripheral device. A design data storage device that stores information on the shape and characteristic points of the work object, processing equipment, peripheral equipment, and each scene inspection means, and work on the work object, processing equipment, peripheral equipment, and each scene inspection means. A work plan data storage device that stores procedure data, work process data, and operation route data, respectively, and a data stored in the design data storage device and the work plan data storage device, each of which is predicted in advance in the work environment. The position / posture scene at the time is simulated, and when the simulated time is reached, the actual work environment is imaged by each scene inspection means, and the image data is simulated. Each position and posture of the work environment is compared with the generated position and posture of the work environment, and the position and posture of the work environment are detected, and each position and posture in the work environment is detected in a direction to absorb the detected deviation. Assembly station control means for correcting, and the assembly station control means artificially generates a work environment scene at a specific time during the work based on the design data storage device and the work plan data storage device. Simulated work environment scene generation unit and image synthesis for synthesizing one high-precision image based on actual image data captured by each scene inspection unit when the same time axis as a specific time during work is reached A work environment scene understanding unit that compares the pseudo work environment scene generated by the pseudo work environment scene generation unit and the high-precision image obtained by the image synthesis unit, and detects a shift in each of the positions and postures in the work environment; It has an operation command generation unit that selectively drives the work object, processing equipment, peripheral devices, and each scene inspection means in order to absorb positional shifts in the work environment in response to a command from the work environment scene understanding unit. Position and attitude detection device.
8 . 前記作業環境内の各情景検出手段のうち、 少なく とも一方が姿勢変 更装置に設置されたテレビカメラで構成され、 かつ該姿勢変更装置は、 軸周りに回転可能な第 1 の回転軸と、 出力部が第 1 の回転軸の出力部に 直交して配置されると共に、 前記テレビカメラを取付けた第 2の回転軸 とを有し、 第 1 の回転軸出力部の中心線と第 2の回転軸出力部の中心線 との互いに交差する位置にテレビカメ ラにおけるカメラレンズの中心軸 を配置すると共に、 カメ ラ レンズの回転中心を一致させ、 しかも、 その —致する位置にカメラレンズの主点が一致するよ うに配置されているこ とを特徴とする請求項 6または 7記載の位置 · 姿勢検出装置。  8. At least one of the scene detecting means in the working environment is constituted by a television camera installed in a posture changing device, and the posture changing device has a first rotation axis rotatable around the axis. And an output section is disposed orthogonal to the output section of the first rotation axis, and has a second rotation axis to which the television camera is attached, and a center line of the first rotation axis output section and a second rotation axis. The center axis of the camera lens of the TV camera is arranged at a position that intersects with the center line of the rotation axis output unit of 2, and the rotation center of the camera lens is matched with the camera lens. 8. The position / posture detecting device according to claim 6, wherein the principal points are arranged so as to coincide with each other.
9 . 前記作業環境内の各情景検出手段のうち、 少なく とも一方が姿勢変 更装置に設置されたテレビカメ ラで構成され、 かつ該姿勢変更装置は、 軸周りに回転可能な第 1 の回転軸と、 出力部が第 1 の回転軸の出力部に 直交して配置された第 2の回転軸と、 出力部が第 2の回転軸の出力部に 対し該第 2の回転軸及び第 1 の回転軸と直交して取付けられると共に、 前記テ レビカ メ ラを取付けた第 3 の回転軸とを有し、 第 1 の回転軸出力 部の中心線と第 2の回転軸出力部の中心線と第 3の回転軸出力部の中心 線との互いに交差する位置に、 テレビカメ ラにおけるカメラレンズの中 心軸を配置すると共に、 カメラレンズの回転中心を一致させ、 しかも、 その一致する位置にカメ ラレンズの主点が一致するように配置し、 カメ ラレンズが主点位置を中心に姿勢変更するよ うに構成したことを特徴と する請求項 6または 7記載の位置 · 姿勢変更装置。 9. At least one of the scene detection means in the work environment changes posture. The attitude changing device comprises a first rotation axis rotatable around an axis, and an output section orthogonally arranged to the output section of the first rotation axis. A second rotating shaft, and an output unit mounted orthogonal to the second rotating shaft and the first rotating shaft with respect to an output unit of the second rotating shaft, and a second rotating shaft to which the television camera is attached. And a television set at a position where the center line of the first rotation axis output unit, the center line of the second rotation axis output unit, and the center line of the third rotation axis output unit intersect each other. The center axis of the camera lens in the camera is arranged, the center of rotation of the camera lens is matched, and the principal point of the camera lens is located at the coincident position. Claim 6 characterized in that the posture is changed to the center. Or the position / posture changing device according to 7.
1 0 . 前記作業環境内の各情景検出手段のうち、 少なく とも一方が姿勢 変更装置に設置されたテレビカメラで構成され、 かつ該姿勢変更装置は、 軸周りに回転可能な第 1 の回転軸と、 出力部が第 1の回転軸の出力部に 直交して配置された第.2の回転軸と、 出力部が第 2の回転軸の出力部に 対し該第 2の回転軸及び第 1 の回転軸と直交する方向に直線移動可能に 取付けられると共に、 移動方向に沿い前記テレビカメラを取付けた直線 移動軸とを有し、 第 1 の回転軸出力部の中心線と第 2の回転軸出力部の 中心線との互いに交差する位置にテレビカメラにおけるカメラレンズの 中心軸を配置すると共に、 カメラレンズの回転中心を一致させ、 しかも、 その一致する位置に力メラレンズの主点が一致するよ うに配置し、 力メ ラ レンズが主点位置を中心に姿勢変更するように構成したことを特徴と する請求項 6または 7記載の位置 · 姿勢変更装置。  10. At least one of the scene detecting means in the working environment is constituted by a television camera installed in a posture changing device, and the posture changing device is a first rotation axis rotatable around an axis. A second rotating shaft whose output section is arranged orthogonally to the output section of the first rotating shaft; and an output section corresponding to the second rotating shaft and the first rotating shaft with respect to the output section of the second rotating shaft. A linear movement axis attached to the television camera along the movement direction, the center line of the first rotation axis output unit, and the second rotation axis. The center axis of the camera lens of the TV camera is arranged at a position that intersects with the center line of the output unit, the center of rotation of the camera lens is matched, and the principal point of the force lens matches the matched position. The main lens is mainly Position position and orientation changing device according to claim 6 or 7, wherein the configured such that the posture change around the.
1 1 . 前記作業環境内の各情景検出手段のうち、 少なく とも一方が姿勢 変更装置に設置されたテ レビカメ ラで構成され、 かつ該姿勢変更装置は、 軸周り に回転可能な第 1 の回転軸と、 出力部が第 1 の回転軸の出力部に 直交して配置された第 2の回転軸と、 出力部が第 2の回転軸の出力部に 対し該第 2の回転軸及び第 1 の回転軸と直交する方向に直線移動可能に 取付けられた直線移動軸と、 出力部が直線移動軸の出力部に対し該出力 部の直線移動方向に沿って配置されると共に、 前記テレビカメ ラを取付 けた第 3の回転軸とを有し、 第 1 の回転軸出力部の中心線と第 2の回転 軸出力部の中心線と第 3の回転出力部の中心線どの互いに交差する位置 に、 テ レビカメ ラにおけるカメラ レンズの中心軸を配置すると共に、 力 メラレンズの回転中心を一致させ、 しかも、 その一致する位置にカメラ レンズの主点が一致するように配置し、 カメラレンズが主点位置を中心 に姿勢変更するように構成したことを特徴とする請求項 6または 7記載 の位置 · 姿勢変更装置。 At least one of the scene detecting means in the working environment is constituted by a television camera installed in a posture changing device, and the posture changing device is a first rotation rotatable around an axis. Shaft and the output section to the output section of the first rotary axis A second rotating shaft arranged orthogonally, and the output unit is attached to the output unit of the second rotating shaft so as to be linearly movable in a direction orthogonal to the second rotating shaft and the first rotating shaft. A first linear movement axis; and a third rotation axis, the output section being disposed along the linear movement direction of the output section with respect to the output section of the linear movement axis, and having the television camera mounted thereon, The center axis of the camera lens of the television camera is arranged at a position where the center line of the rotation axis output section of the second rotation axis output section and the center line of the third rotation output section cross each other. The center of rotation of the camera lens is matched, and the principal point of the camera lens is arranged so that it coincides with the coincident position, and the camera lens is configured to change its attitude around the principal point position. Change of position and posture according to claim 6 or 7 apparatus.
1 2 . 作業対象物, 該作業対象物を加工処理する加工装置, これらの周 辺装置, 該作業対象物と加工装置と周辺装置とを撮像し得る少なく と も 2台の情景検査手段を有する作業環境と、 作業対象物, 加工装置, 周辺 装置, 各情景検査手段の形状や特徴点に関する情報を格納した設計デー タ記憶装置と、 作業対象物, 加工装置, 周辺装置, 各情景検査手段に対 する作業手順データ, 作業工程データ, 動作経路データを夫々格納した 作業計画データ記憶装置と、 設計データ記憶装置及び作業計画データ記 憶装置に格納されたデータに基づき、 作業環境内の各々の予め予測され た時間での位置 · 姿勢情景を疑似的に生成し、 その疑似的に生成した時 間軸に達したとき、 実際の作業環境を各情景検査手段によって撮像する と共に、 該撮像データを疑似的に生成した作業環境の各々の位置 · 姿勢 情景と比較して作業環境の各々の位置 · 姿勢のずれを検出し、 その検出 したずれを吸収する方向に作業環境内の各々の位置 · 姿勢を修正する組 立ステーショ ン制御手段とを有する位置 · 姿勢検出装置を備えたことを 特徴とするフ レキシブル生産システム。 12. The work object, a processing device for processing the work object, peripheral devices thereof, and at least two scene inspection means capable of imaging the work object, the processing device, and peripheral devices. The work environment and the design data storage device that stores information on the shape and characteristic points of the work object, processing equipment, peripheral devices, and scene inspection means, and the work object, processing device, peripheral devices, and scene inspection means Based on the work plan data storage device that stores the work procedure data, work process data, and operation route data, and the data stored in the design data storage device and the work plan data storage device, each of the work environment data is stored in advance. A position / posture scene at the predicted time is artificially generated, and when the artificially generated time axis is reached, the actual work environment is imaged by each scene inspection means, and Each position and posture of the work environment in which the imaging data was generated in a simulated manner.The position and posture of each work environment were compared with the scene, and the displacement of each position and posture of the work environment was detected. A flexible production system comprising: a position / posture detection device having assembly station control means for correcting the position / posture.
1 . 作業対象物, 該作業対象物を加工処理する加工装置, これらの周 辺装 if: , 該作業対象物と加工装置と周辺装置とを撮像し得る少なく とも 2台の情景検査手段を有する作業環境と、 作業対象物, 加工装置, 周辺 装- :, 各情景検査手段の形状や特徴点に関する情報を格納した設計デー タ記憶装置と、 作業対象物, 加工装置, 周辺装置, 各情景検査手段に対 する作業手順データ, 作業工程データ, 動作経路データを夫々格納した 作業計画データ記憶装置と、 設計データ記憶装置及び作業計画データ記 憶装置に格納されたデータに基づき、 作業環境内の各々の予め予測され た時問での位置 · 姿勢情景を疑似的に生成し、 その疑似的に生成した時 間軸に達したとき、 実際の作業環境を各情景検査手段によって撮像する と共に、 該撮像データを疑似的に生成した作業環境の各々の位置 ·姿勢 情景と比較して作業環境の各々の位置 · 姿勢のずれを検出し、 その検出 したずれを吸収する方向に作業環境内の各々の位置 · 姿勢を修正する組 立ステーショ ン制御手段とを有し、 かつ該組立ステーショ ン制御手段は、 設計データ記憶装置及び作業計画データ記憶装置に基づいて作業中の特 定時間における作業環境情景を疑似的に生成する疑似作業環境情景生成 部と、 作業中の特定時間と同一時間軸に達したとき、 各情景検査手段に よって撮像された実際の撮像データに基づいて一枚の高精度画像を合成 する画像合成部と、 疑似作業環境情景生成部による疑似的作業環境情景 及び画像合成部による高精度画像とを比較し、 作業環.境内の各々の位 置 · 姿勢のずれを検出する作業環境情景理解部と、 該作業環境情景理解 部からの指令により作業環境内の位置ずれを吸収すべく作業対象物, 加 ェ装置, 周辺装置, 各情景検査手段を選択的に駆動する動作指令生成部 とを有する位置 · 姿勢検出装置を備えたことを特徴とするフ レキシブル 生産システム。 1. A work object, a processing device for processing the work object, a peripheral device thereof: if, and at least two scene inspection means capable of imaging the work object, the processing device, and peripheral devices. Work environment, work object, processing equipment, peripheral equipment: Design data storage device that stores information on the shape and characteristic points of each scene inspection means, work object, processing equipment, peripheral equipment, each scene inspection Based on data stored in the work plan data storage device, which stores the work procedure data, work process data, and operation route data for the means, and the design data storage device and the work plan data storage device, each of the work environment The position / posture scene at the time predicted in advance is artificially generated, and when the artificially generated time axis is reached, the actual work environment is imaged by each scene inspection means. The position and orientation of each work environment in which the image data was generated in a simulated manner.The position and orientation of each work environment were compared with the scene, and the displacement of each position and posture of the work environment was detected. Assembling station control means for correcting the position and orientation, and the assembling station control means stores a work environment scene at a specific time during the work based on the design data storage device and the work plan data storage device. A simulated work environment scene generation unit that generates a simulated work environment, and, when the same time axis as a specific time during work is reached, a single high-precision image is generated based on actual image data captured by each scene inspection unit. By comparing the image synthesis unit to be synthesized with the simulated work environment scene generated by the simulated work environment scene generation unit and the high-precision image obtained by the image synthesis unit, the deviation of the work environment and the position and orientation in the environment is detected. A work environment scene understanding unit and an operation command for selectively driving a work object, a processing device, a peripheral device, and each scene inspection means in order to absorb a positional shift in the work environment according to a command from the work environment scene understanding unit. A flexible production system comprising a position / posture detection device having a generation unit.
1 . 前記位置 ·姿勢検出装置における作業環境内の各情景検出手段の うち、 少なく と も一方が姿勢変更装置に設置されたテレビカメ ラで構成 され、 かつ該姿勢変更装置は、 軸周り に回転可能な第 1 の回転軸と、 出 力部が第 1 の回転軸の出力部に直交して配置されると共に、 前記テレビ カメ ラを取付けた第 2の回転軸とを有し、 第 1 の回転軸出力部の中心線 と第 2の回転軸出力部の中心線との互いに交差する位置にテレビカメ ラ におけるカメ ラ.レンズの中心軸を配置すると共に、 カメラレンズの回転 中心を一致させ、 しかも、 その一致する位置にカメラレンズの主点が一 致するよ うに配置されていることを特徴とする請求項 1 2または 1 3記 載のフ レキシブル生産システム。 1. The position / posture detection device uses a means for detecting each scene in the work environment. At least one of them is composed of a television camera installed in a posture changing device, and the posture changing device has a first rotation shaft rotatable around an axis, and an output portion having a first rotation shaft. A second rotation axis to which the television camera is attached, and a center line of the first rotation axis output section and a center line of the second rotation axis output section. The center of the camera lens is located at the position where the camera lens intersects with the camera, and the center of rotation of the camera lens is matched with the camera lens so that the principal point of the camera lens coincides with the matching position. 14. The flexible production system according to claim 12, wherein the flexible production system is arranged.
1 5 . 前記位置 · 姿勢検出装置における作業環境内の各情景検出手段の うち、 少なく とも一方が姿勢変更装置に設置されたテレビカメラで構成 され、 かつ該姿勢変更装置は、 軸周りに回転可能な第 1 の回転軸と、 出 力部が第 1 の回転軸の出力部に直交して配置された第 2の回転軸と、 出 力部が第 2の回転軸の出力部に対し該第 2の回転軸及び第 1 の回転軸と 直交して取付けられると共に、 前記テレビカメ ラを取付けた第 3の回転 軸とを有し、 第 1 の回転軸出力部の中心線と第 2の回転軸出力部の中心 線と第 3の回転軸出力部の中心線との互いに交差する位置に、 テレビ力 メラにおけるカメ ラレンズの中心軸を配置すると共に、 カメラレンズの 回転中心を一致させ、 しかも、 その一致する位置にカメラレンズの主点 がー致するよ うに配置し、 カメラレンズが主点位置を中心に姿勢変更す るよ うに構成したことを特徴とする請求項 1 2または 1 3記載のフレキ シブル生産システム。 15. At least one of the scene detecting means in the working environment in the position / posture detecting device is constituted by a television camera installed in the posture changing device, and the posture changing device is rotatable around an axis. A first rotating shaft, a second rotating shaft having an output section orthogonal to the output section of the first rotating shaft, and an output section having a second rotating shaft with respect to the output section of the second rotating shaft. A second rotation axis and a first rotation axis, and a third rotation axis to which the television camera is mounted, and a center line of the first rotation axis output unit and a second rotation axis. The center axis of the camera lens in the television camera is arranged at a position where the center line of the shaft output section and the center line of the third rotation axis output section intersect with each other, and the rotation centers of the camera lenses are matched with each other. Make sure that the principal point of the camera lens matches the corresponding position Disposed to claim 1 2 or 1 3 flex reluctant production system wherein the camera lens is characterized in that the center due urchin configured to change the posture to the main point position.
1 6 . 前記位置 · 姿勢検出装置における作業環境内の各情景検出手段の うち、 少なく とも一方が姿勢変更装置に設置されたテレビ力メラで構成 され、 かつ該姿勢変更装置は、 軸周りに回転可能な第 1 の回転軸と、 出 力部が第 1 の回転軸の出力部に直交して配置された第 2の回転軸と、 出 力部が第 2の回転軸の出力部に対し該第 2の回転軸及び第 1 の回転軸と K交する方向に直線移動可能に取付けられると共に、 移動方向に沿い前 テレビカメ ラを取付けた直線移動軸とを有し、 第 1 の回転軸出力部の 中心線と第 2の回転軸出力部の中心線との互いに交差する位置にテ レビ カメ ラにおけるカメ ラ レンズの中心軸を配置すると共に、 カメラ レンズ の回転中心を一致させ、 しかも、 その一致する位置にカメラレンズの主 点が一致するよ うに配置し、 カメ ラ レンズが主点位置を中心に姿勢変更 するように構成したことを特徴とする請求項 1 2または 1 3記載のフレ キシブル生産システム。 16. At least one of the scene detecting means in the working environment of the position / posture detecting device is constituted by a television camera mounted on the posture changing device, and the posture changing device rotates around the axis. A possible first rotary axis; a second rotary axis, the output of which is arranged orthogonal to the output of the first rotary axis; The force unit is attached to the output unit of the second rotating shaft so as to be linearly movable in a direction intersecting the second rotating shaft and the first rotating shaft, and the front television camera is attached along the moving direction. A center axis of the camera lens of the television camera at a position where the center line of the first rotating shaft output section and the center line of the second rotating shaft output section intersect each other. In addition, the rotation center of the camera lens is matched, and the principal point of the camera lens is arranged so as to coincide with the coincident position, and the camera lens is configured to change its attitude around the principal point position. 14. The flexible production system according to claim 12, wherein:
1 7 . 前記位置 · 姿勢検出装置における作業環境内の各情景検出手段の うち、 少なく とも一方が姿勢変更装置に設置されたテレビ力メラで構成 され、 かつ該姿勢変更装置は、 軸周りに回転可能な第 1 の回転軸と、 出 力部が第 1の回転軸の出力部に直交して配置された第 2の回転軸と、 出 力部が第 2の回転軸の出力部に対し該第 2の回転軸及び第 1 の回転軸と 直交する方向に直線移動可能に取付けられた直線移動軸と、 出力部が直 線移動軸の出力部に対し該出力部の直線移動方向に沿って配置されると 共に、 前記テレビカメ ラを取付けた第 3の回転軸とを有し、 第 1 の回転 軸出力部の中心線と第 2の回転軸出力部の中心線と第 3の回転出力部の 中心線との互いに交差する位置に、 テレビカメラにおける力メラレンズ の中心軸を配置すると共に、 カメラレンズの回転中心を一致させ、 しか も、 その一致する位置にカメラレンズの主点が一致するよ うに配置し、 カメ ラ レンズが主点位置を中心に姿勢変更するように構成したことを特 徴とする請求項 1 2または 1 3記載のフレキシブル生産システム。  17. At least one of the scene detection means in the work environment in the position / posture detection device is constituted by a television force lens installed in the posture change device, and the posture change device rotates around an axis. A possible first rotating shaft, a second rotating shaft whose output section is arranged orthogonal to the output section of the first rotating shaft, and an output section corresponding to the output section of the second rotating shaft. A linear movement axis mounted so as to be linearly movable in a direction orthogonal to the second rotation axis and the first rotation axis; and an output section extending along the linear movement direction of the output section with respect to the output section of the linear movement axis. And a third rotation axis to which the television camera is attached, and a center line of a first rotation axis output section, a center line of a second rotation axis output section, and a third rotation output. The center axis of the power lens in the TV camera at a position that intersects with the center line of the part In both cases, the center of rotation of the camera lens is matched, and the camera lens is arranged so that the principal point of the camera lens coincides with the coincident position, and the camera lens is configured to change its attitude around the principal point position. The flexible production system according to claim 12 or 13, characterized in that:
PCT/JP1994/002212 1993-12-28 1994-12-26 Position and attitude detecting method, apparatus for practicing the same, and flexible production system using the same apparatus WO1995017995A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP5/335362 1993-12-28
JP33536293 1993-12-28

Publications (1)

Publication Number Publication Date
WO1995017995A1 true WO1995017995A1 (en) 1995-07-06

Family

ID=18287685

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1994/002212 WO1995017995A1 (en) 1993-12-28 1994-12-26 Position and attitude detecting method, apparatus for practicing the same, and flexible production system using the same apparatus

Country Status (1)

Country Link
WO (1) WO1995017995A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8335666B2 (en) 2006-09-01 2012-12-18 Intelligent Manufacturing Systems International Three-dimensional model data generating method, and three dimensional model data generating apparatus
CN110794773A (en) * 2019-09-26 2020-02-14 青岛海信智慧家居系统股份有限公司 Click-type scene creating method and device
CN112947424A (en) * 2021-02-01 2021-06-11 国网安徽省电力有限公司淮南供电公司 Distribution network operation robot autonomous operation path planning method and distribution network operation system
CN114385002A (en) * 2021-12-07 2022-04-22 达闼机器人有限公司 Intelligent equipment control method, device, server and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63288695A (en) * 1987-05-22 1988-11-25 株式会社東芝 Positional displacement detector
JPH03166077A (en) * 1989-11-22 1991-07-18 Agency Of Ind Science & Technol Leg walking control device and control method thereof
JPH04348673A (en) * 1991-05-27 1992-12-03 Matsushita Electric Ind Co Ltd Tracking universal head

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63288695A (en) * 1987-05-22 1988-11-25 株式会社東芝 Positional displacement detector
JPH03166077A (en) * 1989-11-22 1991-07-18 Agency Of Ind Science & Technol Leg walking control device and control method thereof
JPH04348673A (en) * 1991-05-27 1992-12-03 Matsushita Electric Ind Co Ltd Tracking universal head

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8335666B2 (en) 2006-09-01 2012-12-18 Intelligent Manufacturing Systems International Three-dimensional model data generating method, and three dimensional model data generating apparatus
CN110794773A (en) * 2019-09-26 2020-02-14 青岛海信智慧家居系统股份有限公司 Click-type scene creating method and device
CN112947424A (en) * 2021-02-01 2021-06-11 国网安徽省电力有限公司淮南供电公司 Distribution network operation robot autonomous operation path planning method and distribution network operation system
CN112947424B (en) * 2021-02-01 2023-04-25 国网安徽省电力有限公司淮南供电公司 Autonomous operation path planning method of distribution network operation robot and distribution network operation system
CN114385002A (en) * 2021-12-07 2022-04-22 达闼机器人有限公司 Intelligent equipment control method, device, server and storage medium

Similar Documents

Publication Publication Date Title
JP5852364B2 (en) Information processing apparatus, information processing apparatus control method, and program
CN110076277B (en) Nail matching method based on augmented reality technology
EP3011362B1 (en) Systems and methods for tracking location of movable target object
CN102135776B (en) Industrial robot control method based on visual positioning
JP4508252B2 (en) Robot teaching device
CN104864807B (en) A kind of manipulator hand and eye calibrating method based on active binocular vision
WO2018076154A1 (en) Spatial positioning calibration of fisheye camera-based panoramic video generating method
US20210187745A1 (en) Automated calibration system and method for a workpiece coordinate frame of a robot
JP2006329903A (en) Three-dimensional measuring method and three-dimensional measuring system
CN110370316A (en) It is a kind of based on the robot TCP scaling method vertically reflected
CN111476909B (en) Teleoperation control method and teleoperation control system for compensating time delay based on virtual reality
WO2022000713A1 (en) Augmented reality self-positioning method based on aviation assembly
CN112894209A (en) Automatic plane correction method for intelligent tube plate welding robot based on cross laser
CN106737859A (en) The method for calibrating external parameters of sensor and robot based on invariable plane
CN110686595A (en) Laser beam space pose calibration method of non-orthogonal axis system laser total station
CN105374067A (en) Three-dimensional reconstruction method based on PAL cameras and reconstruction system thereof
JP2021146499A (en) System and method for three-dimensional calibration of vision system
JPH07237158A (en) Position-attitude detecting method and device thereof and flexible production system
Ji et al. Self-calibration of a rotating camera with a translational offset
JPH0790494B2 (en) Calibration method of visual sensor
WO1995017995A1 (en) Position and attitude detecting method, apparatus for practicing the same, and flexible production system using the same apparatus
JP2021507209A (en) Machine vision system with computer-generated reference objects
JPH06134691A (en) Positional detection and flexible production system using the same
Tenhumberg et al. Self-contained calibration of an elastic humanoid upper body using only a head-mounted rgb camera
CN114750160A (en) Robot control method, robot control device, computer equipment and storage medium

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase