JPH07237158A - Position-attitude detecting method and device thereof and flexible production system - Google Patents

Position-attitude detecting method and device thereof and flexible production system

Info

Publication number
JPH07237158A
JPH07237158A JP6318607A JP31860794A JPH07237158A JP H07237158 A JPH07237158 A JP H07237158A JP 6318607 A JP6318607 A JP 6318607A JP 31860794 A JP31860794 A JP 31860794A JP H07237158 A JPH07237158 A JP H07237158A
Authority
JP
Japan
Prior art keywords
work
scene
work environment
orientation
rotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6318607A
Other languages
Japanese (ja)
Inventor
Muneyuki Sakagami
志之 坂上
Shiyakuyuu Ou
錫裕 王
Hideo Yonemura
秀雄 米村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP6318607A priority Critical patent/JPH07237158A/en
Publication of JPH07237158A publication Critical patent/JPH07237158A/en
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Control By Computers (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Multi-Process Working Machines And Systems (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Machine Tool Sensing Apparatuses (AREA)
  • General Factory Administration (AREA)

Abstract

PURPOSE:To provide a highly autonomous production system. CONSTITUTION:When a visually sensing robot 15 or a work robot 14 on the like is situated in a position according to a design, a pseudo-work environment scene creating means 20 pseudo-synthesized a scene supposed to be photographed by the visually sensing robot 15 according to data stored in a work environment data storage means 29, on the one hand, the visually sensing robot 15 actually photographs a scene of a work environment 1. A work environment scene understanding means 22 compares an actual image and a pseudo-scene with each other, and detects dislocation of a position and an attitude of the visually sensing robot 15 or the like. Thereby, even in a condition where an absolute reference point is not reflected on the visually sensing robot 15, since a position and an attitude of a work object or the like can be detected and corrected, a highly autonomous production system can be realized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、製品の組立作業を自動
化するためにコンピュータを活用する生産システムの分
野で、ティーチングレスでロボットシステムに作業を行
わせる被撮像物の位置・姿勢検出方法およびその装置
と、これを用いたフレキシブル生産システムに関する。
特に、製品設計データ、加工・組立装置データ、周辺機
器データをもとにコンピュータ・グラフィックスで作成
した擬似作業環境モデルとテレビカメラを用いた視覚装
置で得られた実作業環境とを対比して、自律的に作業を
行える機能を実現するのに好適な位置・姿勢検出方法お
よびその装置と、これを用いたフレキシブル生産システ
ムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a field of a production system utilizing a computer for automating a product assembling work, and a method for detecting a position / orientation of an object to be imaged which causes a robot system to work without teaching. The apparatus and a flexible production system using the apparatus.
In particular, compare the simulated work environment model created by computer graphics based on product design data, processing / assembly device data, and peripheral device data with the actual work environment obtained with a visual device using a TV camera. The present invention relates to a position / orientation detection method and apparatus suitable for realizing a function capable of autonomous work, and a flexible production system using the same.

【0002】[0002]

【従来の技術】これまでの生産システムにおいては、均
一な製品を大量に供給するための少品種大量生産システ
ムであった。ところが、現在では多様な顧客ニーズに応
えるために、製品に対する差別化、個性化へと価値の重
点が移るようになり、製品の多様化、多機能化、製品寿
命の短命化に伴い、多品種少量生産に対応する生産シス
テムの開発が要求されてきている。そこで、顧客のニー
ズにあった製品をタイムリーに供給するためには、受
注、設計、製造の全体システムを結んだ多品種少量生産
に対応した柔軟性の高いフレキシブル生産システムが要
求されてきている。更に、家庭電化製品の総組立工程は
人手作業が主体であるが、季節ごとの需要の変動に合わ
せて作業者数を増減することが困難なため、これを自動
化したいとの要求が高い。
2. Description of the Related Art Conventional production systems have been small-item mass-production systems for supplying a large amount of uniform products. However, in order to meet diverse customer needs, the importance of value is shifting to product differentiation and individualization, and with the diversification of products, the increase in functionality, and the shortening of product life, a wide variety of products have been developed. Development of a production system corresponding to small-volume production has been required. Therefore, in order to supply products that meet the needs of customers in a timely manner, a flexible production system with high flexibility has been demanded that is compatible with small-lot production of a wide variety of products by connecting an overall system of orders, design, and manufacturing. . Further, although the total assembling process of home electric appliances mainly involves manual labor, it is difficult to increase or decrease the number of workers according to the seasonal demand fluctuation, and therefore, there is a strong demand for automation.

【0003】従来の少品種大量生産方式では、ロボット
はティーチングプレイバック方式で作業を行っている。
ロボットの動作シーケンスはオフラインで決定すること
が可能となってきているが、位置情報についてはオンラ
インティーチングが一般的であり、ティーチング中は生
産ラインを長時間停止する必要があるとともに、ロボッ
トの操作に熟練した作業者も必要である。また、多くの
ロボットを使用する場合には生産ライン全体の立ち上げ
に長時間を要する。
In the conventional small-volume mass-production method, the robot operates by the teaching playback method.
It has become possible to determine the robot operation sequence offline, but online teaching is generally used for position information, and it is necessary to stop the production line for a long time during teaching, and robot operation is not possible. Skilled workers are also required. Further, when many robots are used, it takes a long time to start up the entire production line.

【0004】一方、フレキシブル生産システムを実現す
るためには、作業計画部門からの指示に基づいて設備構
成を変更したり、ロボットの位置を変更する必要があ
る。このためには正確な位置にロボットを持っていくの
ではなく、不正確な位置にいるなりにロボットを自律的
に行動させる必要がある。かかる構成の従来例として、
特開平3−73284号公報(以下、第一の従来技術と
云う)に記載された方法がある。この第一の従来技術に
よるロボット制御方法は、作業環境内に存在する運動物
体に関する情報をロボットに与えて、ロボットに的確な
行動をさせることを目的にしたものである。そのため
に、知識データベースとして、行動の手順や、いろいろ
の状況に応じた動作などの知識を格納していた。
On the other hand, in order to realize a flexible production system, it is necessary to change the equipment structure or the position of the robot based on an instruction from the work planning department. For this purpose, it is necessary not to bring the robot to an accurate position but to make the robot autonomously act when it is in an incorrect position. As a conventional example of such a configuration,
There is a method described in Japanese Patent Laid-Open No. 3-73284 (hereinafter, referred to as a first conventional technique). The robot control method according to the first prior art is intended to give the robot information about a moving object existing in the work environment to cause the robot to make an appropriate action. Therefore, as a knowledge database, knowledge of action procedures and actions according to various situations was stored.

【0005】また、作業環境の模擬画像をリアルタイム
で表示して、実環境とシミュレーション環境とをオーバ
ーレイ表示し、シミュレーション環境モデルの位置・姿
勢が実環境のそれと違ってしまったような場合に、シミ
ュレーション環境モデルの位置・姿勢データを実環境の
それと一致するように人が簡単に修正を行えるようにす
るという従来例が、特開平3−55194号公報(以
下、第二の従来技術と云う)に記載されている。この第
二の従来技術はロボットの遠隔操作が目的であり、画像
解析自体は人が行っていた。
Further, the simulated image of the work environment is displayed in real time, the real environment and the simulation environment are overlaid, and the simulation is performed when the position / orientation of the simulation environment model is different from that of the real environment. A conventional example in which a person can easily correct the position / orientation data of an environment model so as to match that of an actual environment is disclosed in Japanese Patent Laid-Open No. 3-55194 (hereinafter, referred to as second prior art). Have been described. The second prior art is intended for remote control of a robot, and the image analysis itself is performed by a person.

【0006】さらに、操作対象物の画像が、操作用手先
の画像で隠れる場合でも操作対象の認識を可能とし、あ
るいは操作対象物と操作用手先との相対位置関係の認識
を、人が可能とする画像を表示するという従来例が特開
平3−60989号公報(以下、第三の従来技術と云
う)に記載されている。この従来例も遠隔操作が目的で
あり、画像解析自体は人が行っていた。
Further, even when the image of the operation object is hidden by the image of the operation hand, the operation object can be recognized, or a person can recognize the relative positional relationship between the operation object and the operation hand. A conventional example of displaying an image is described in Japanese Patent Laid-Open No. 3-60989 (hereinafter, referred to as a third conventional technique). This conventional example is also intended for remote operation, and the image analysis itself was performed by a person.

【0007】ところで、ある地点で広く情報が欲しいと
いう場合もある。その場合にテレビカメラの向きを振る
ことでそれを可能とすることができる。この従来例が特
開平2−83194号公報(以下、第四の従来技術と云
う)に記載されている。しかしこの従来技術は、ロボッ
トを遠隔操縦する人間に対して見やすいように表示する
ためのもので、画像解析に関しては考慮されていなかっ
た。
By the way, there are cases where information is desired widely at a certain point. In that case, it can be made possible by swinging the direction of the TV camera. This conventional example is described in Japanese Patent Application Laid-Open No. 2-83194 (hereinafter referred to as the fourth conventional technique). However, this conventional technique is for displaying the robot so that it can be easily seen by a human who remotely controls the robot, and is not considered for image analysis.

【0008】[0008]

【発明が解決しようとする課題】上述の如く、顧客のニ
ーズにあった製品を、タイムリーに供給可能な、受注、
設計、製造の全体システムを結ぶ多品種少量生産に対応
した柔軟性の高いフレキシブル生産システムを実現する
ためには、生産設備の構成を変更したり、ロボットの位
置を変更したりしなければならない。このような条件の
もとで製造するためには、設備全体の信頼性を高くする
ことが必須である。このためには、作業計画通りに作業
対象が所期の位置に存在することを確認することや、所
期の位置からずれている場合にはそのずれを知ってその
ずれに対応した動作を行う自律性を生産システムにもた
せる必要がある。
As described above, it is possible to supply products that meet the needs of customers in a timely manner and to receive orders.
In order to realize a highly flexible production system that is compatible with small-lot production of a wide variety of products that connects the entire design and manufacturing system, it is necessary to change the configuration of the production equipment and the position of the robot. In order to manufacture under such conditions, it is essential to increase the reliability of the entire equipment. To do this, make sure that the work target exists at the desired position according to the work plan, and if it deviates from the desired position, know the deviation and perform the operation corresponding to the deviation. It is necessary to give autonomy to the production system.

【0009】しかしながら、上記に示す第一〜第四の従
来技術は何れも、この生産システムの自律性を実現する
ことについて配慮されていなかった。特に、第一の従来
技術では、知識データベースにロボットの行動手順やい
ろいろの状況に応じた動作などの知識を格納しておき、
作業環境内に存在する運動物体に関する情報をもとに、
ロボットに的確な行動をさせるものの、情景として捕ら
えた作業環境を解析するためには、情景入力装置がどこ
にあれば情景がどのように見えるかが前もってわかって
いなければならない。第一の従来技術では、作業対象は
どう見えるか、周辺装置はどう見えるか、ロボットはど
う見えるか、部分的にどこがどう見えるか等、具体的に
わかる手段がなく、実作業環境を解析することについて
配慮していなかった。
However, none of the above-mentioned first to fourth prior arts considers the realization of the autonomy of this production system. In particular, in the first conventional technology, the knowledge database stores the knowledge such as the action procedure of the robot and the motion according to various situations,
Based on information about moving objects existing in the work environment,
It is necessary to know in advance where the scene input device is and what the scene looks like in order to analyze the work environment captured as the scene, although the robot is caused to make an appropriate action. In the first conventional technology, there is no specific way to understand what the work target looks like, what peripheral devices look like, what the robot looks like, what part it looks like, etc. I didn't consider it.

【0010】また、実作業環境を解析するには、できる
限り広範囲の情報をできる限り密度高く利用する必要が
ある。第四の従来技術では、テレビカメラの向きをふる
ことで、広範囲の情報を利用するようにしたものである
が、その際、情報として捕らえた作業環境を、ただ単に
スクリーンに表示しているだけであるため、作業環境の
解析として使用することができない。
Further, in order to analyze the actual work environment, it is necessary to use information in the widest possible range with high density. In the fourth conventional technology, a wide range of information is used by changing the direction of the TV camera. At that time, the work environment captured as information is simply displayed on the screen. Therefore, it cannot be used as an analysis of the work environment.

【0011】本発明は、上記のような従来技術の問題点
に鑑み、作業環境を解析するとともに、解析した結果に
基づいてロボット等の位置・姿勢ずれを正確に把握し、
以て位置・姿勢ずれの修正を精度よく自動的に行うこと
のできる、被撮影物の位置・姿勢検出方法を提供するこ
とにある。また、他の目的は、上記方法を的確に実施し
得る位置・姿勢検出装置を提供することにあり、さらに
他の目的は、多品種少量生産に対応し得る柔軟性の高い
フレキシブル生産システムを提供することにある。
In view of the above problems of the prior art, the present invention analyzes the work environment and accurately grasps the position / orientation deviation of the robot or the like based on the analysis result.
Accordingly, it is an object of the present invention to provide a position / orientation detection method for an object to be photographed, which can automatically correct the position / orientation deviation with high accuracy. Another object is to provide a position / orientation detecting device that can accurately implement the above method, and yet another object is to provide a flexible manufacturing system with high flexibility capable of supporting high-mix low-volume production. To do.

【0012】[0012]

【課題を解決するための手段】本発明方法では、情景検
出手段による作業環境中の被撮影物の撮影を、該情景検
出手段におけるカメラレンズの主点位置を中心に変更し
て行い、得られた複数の画像を一枚の平面へ投影して一
枚の広画角画像に合成し、上記情景検出手段および上記
被撮影物が、予め定められた設計上の位置・姿勢にあっ
たと仮定した場合、上記情景検出手段が撮影しているで
あろう画像を疑似的に合成し、 該疑似的画像上におけ
る上記被撮影物上の各特徴点の位置と、上記情景検出手
段が実際に撮影して得た上記合成画像上における当該被
撮影物上の上記各特徴点と対応する各特徴点の位置との
ずれ量を抽出し、該ずれ量に基づき上記情景検出手段お
よび上記被撮影物の位置・姿勢を、上記被対象物を基準
にして修正することと、前記ずれ量に応じた分だけ上記
情景検出手段および被撮影物を移動する設計データを修
正することの何れか一方を行うことを特徴とする。
According to the method of the present invention, an object to be photographed in the work environment is photographed by the scene detecting means by changing the position of the principal point of the camera lens in the scene detecting means. It is assumed that the plurality of images are projected onto one plane and combined into one wide-angle image, and that the scene detection means and the object are in a predetermined design position / orientation. In this case, the images that would have been captured by the scene detection means are pseudo-synthesized, and the position of each feature point on the object to be photographed on the pseudo image and the scene detection means actually capture the image. The amount of deviation between each of the characteristic points on the object and the position of the corresponding characteristic point on the obtained composite image is extracted, and the scene detection means and the position of the object are extracted based on the amount of deviation.・ Correct the posture with reference to the above object Then, either one of the scene detection means and the design data for moving the object to be photographed is corrected by an amount corresponding to the shift amount.

【0013】また、本発明方法では、予め、作業対象物
と該作業対象を加工処理する加工装置とこれらの周辺装
置とを撮像し得る少なくとも2台の情景検査手段を設置
しておき、これら2台の情景検査手段,作業対象物,加
工装置,周辺装置からなる作業環境の各々の予測された
時間での位置・姿勢を、予め設計されたデータに基づい
て画像として疑似的に生成し、次いで、作業環境がその
疑似的画像を生成した時間軸に達したとき、実際の作業
環境を各情景検査手段によって撮像すると共に、該実際
に撮像した作業環境のデータと疑似的画像を生成したデ
ータとを比較して両者にずれがあったとき、該ずれに基
づいて作業環境内の各々の位置・姿勢を修正することと
前記ずれの分だけ作業環境内の対応する各々の設計デー
タを修正することとの何れか一方を実行することを有す
ることを特徴とする。
Further, in the method of the present invention, at least two scene inspection means capable of picking up an image of the work object, the processing device for processing the work object, and these peripheral devices are installed in advance. The position / orientation of the work environment including the scene inspection means of the table, the work object, the processing device, and the peripheral device at each predicted time is pseudo-generated as an image based on predesigned data, and then, , When the work environment reaches the time axis at which the pseudo image is generated, the actual work environment is imaged by each scene inspection means, and the data of the work environment actually imaged and the data that generated the pseudo image are When there is a deviation between the two, the respective positions / postures in the working environment are corrected based on the deviation, and the corresponding design data in the working environment is corrected by the amount of the deviation. And having to perform any one of the.

【0014】本発明の位置・姿勢検出装置では、被撮影
物を撮影する情景検出手段と、該情景検出手段の実際の
位置を示す実データと、上記被撮影物についての設計上
の位置・姿勢を示す設計データを格納された記憶手段
と、上記被撮影物が上記設計上の位置・姿勢にあったと
仮定した場合、上記情景検出手段が撮影しているであろ
う画像を、上記実データおよび上記設計データを用いて
疑似的に作成し、該疑似的に作成した画像上における被
撮影物上の各特徴点の位置と、上記被撮影物を上記情景
検出手段が実際に撮影した画像上における当該被撮影物
上の上記各特徴点と対応する各特徴点の位置とのずれを
求め、該ずれに基づいて上記被撮影物の位置・姿勢を修
正することと前記ずれの分だけ作業環境内の対応する各
々の設計データを修正することとの何れか一方を実行す
る手段とを有することを特徴とする。
In the position / orientation detecting apparatus of the present invention, the scene detecting means for photographing the object, the actual data indicating the actual position of the scene detecting means, and the designed position / orientation of the object. Assuming that the storage means storing the design data indicating the above and the object to be photographed are in the designed position / orientation, the image that the scene detection means is likely to capture is The position of each characteristic point on the object to be photographed is pseudo-created using the design data, and the image of the object actually photographed by the scene detection means is displayed on the image. Finding a deviation between each feature point on the object and the position of each corresponding feature point, correcting the position / orientation of the object on the basis of the deviation, and within the work environment by the amount of the deviation. Modify each corresponding design data of And having a means for executing one of the be.

【0015】また、本発明の位置・姿勢検出装置では、
作業対象物,該作業対象物を加工処理する加工装置,こ
れらの周辺装置,該作業対象物と加工装置と周辺装置と
を撮像し得る少なくとも2台の情景検査手段を有する作
業環境と、作業対象物,加工装置,周辺装置,各情景検
査手段の形状や特徴点に関する情報を格納した設計デー
タ記憶装置と、作業対象物,加工装置,周辺装置,各情
景検査手段に対する作業手順データ,作業工程データ,
動作経路データを夫々格納した作業計画データ記憶装置
と、設計データ記憶装置及び作業計画データ記憶装置に
格納されたデータに基づき、作業環境内の各々の予め予
測された時間での位置・姿勢情景を疑似的に生成し、そ
の疑似的に生成した時間軸に達したとき、実際の作業環
境を各情景検査手段によって撮像すると共に、該撮像デ
ータを疑似的に生成した作業環境の各々の位置・姿勢情
景と比較して作業環境の各々の位置・姿勢のずれを検出
し、その検出したずれを吸収する方向に作業環境内の各
々の位置・姿勢を修正する組立ステーション制御手段と
を有することを特徴とする。
In the position / orientation detecting device of the present invention,
Work object, processing device for processing the work object, peripheral devices thereof, work environment having at least two scene inspection means capable of imaging the work object, the processing device and the peripheral device, and the work object Design data storage device that stores information about the shapes and characteristic points of objects, processing devices, peripheral devices, and each scene inspection means, and work procedure data, work process data for work objects, processing devices, peripheral devices, and each scene inspection means. ,
Based on the work plan data storage device that stores the movement path data, and the data stored in the design data storage device and the work plan data storage device, the position / orientation scene at each pre-predicted time in the work environment is calculated. Pseudo-generated, when reaching the pseudo-generated time axis, the actual work environment is imaged by each scene inspection means, and each position / orientation of the work environment in which the imaged data is pseudo-generated Assembling station control means for detecting a deviation of each position / orientation of the work environment in comparison with the scene and correcting each position / orientation in the work environment in a direction to absorb the detected deviation. And

【0016】本発明のフレキシブル生産システムでは、
作業対象物,該作業対象物を加工処理する加工装置,こ
れらの周辺装置,該作業対象物と加工装置と周辺装置と
を撮像し得る少なくとも2台の情景検査手段を有する作
業環境と、作業対象物,加工装置,周辺装置,各情景検
査手段の形状や特徴点に関する情報を格納した設計デー
タ記憶装置と、作業対象物,加工装置,周辺装置,各情
景検査手段に対する作業手順データ,作業工程データ,
動作経路データを夫々格納した作業計画データ記憶装置
と、設計データ記憶装置及び作業計画データ記憶装置に
格納されたデータに基づき、作業環境内の各々の予め予
測された時間での位置・姿勢情景を疑似的に生成し、そ
の疑似的に生成した時間軸に達したとき、実際の作業環
境を各情景検査手段によって撮像すると共に、該撮像デ
ータを疑似的に生成した作業環境の各々の位置・姿勢情
景と比較して作業環境の各々の位置・姿勢のずれを検出
し、その検出したずれを吸収する方向に作業環境内の各
々の位置・姿勢を修正する位置・姿勢検出装置を備えて
いる。
In the flexible production system of the present invention,
Work object, processing device for processing the work object, peripheral devices thereof, work environment having at least two scene inspection means capable of imaging the work object, the processing device and the peripheral device, and the work object Design data storage device that stores information about the shapes and characteristic points of objects, processing devices, peripheral devices, and each scene inspection means, and work procedure data, work process data for work objects, processing devices, peripheral devices, and each scene inspection means. ,
Based on the work plan data storage device that stores the movement path data, and the data stored in the design data storage device and the work plan data storage device, the position / orientation scene at each pre-predicted time in the work environment is calculated. Pseudo-generated, when reaching the pseudo-generated time axis, the actual work environment is imaged by each scene inspection means, and each position / orientation of the work environment in which the imaged data is pseudo-generated A position / orientation detecting device is provided which detects a deviation of each position / orientation of the work environment as compared with the scene and corrects each position / orientation in the work environment in a direction of absorbing the detected deviation.

【0017】そして、上記フレキシブル生産システムに
おいては、前記位置・姿勢検出装置における作業環境内
の各情景検出手段のうち、少なくとも一方が姿勢変更装
置に設置されたテレビカメラで構成され、かつ該姿勢変
更装置は、軸周りに回転可能な第1の回転軸と、出力部
が第1の回転軸の出力部に直交して配置されると共に、
前記テレビカメラを取付けた第2の回転軸とを有し、第
1の回転軸出力部の中心線と第2の回転軸出力部の中心
線との互いに交差する位置にテレビカメラにおけるカメ
ラレンズの中心軸を配置すると共に、カメラレンズの回
転中心を一致させ、しかも、その一致する位置にカメラ
レンズの主点が一致するように配置されている。
In the flexible production system, at least one of the scene detecting means in the working environment of the position / orientation detecting device is composed of a television camera installed in the attitude changing device, and the attitude changing device is used. The device has a first rotating shaft rotatable about an axis, an output unit arranged orthogonal to the output unit of the first rotating shaft, and
A second rotating shaft to which the television camera is attached, and a camera lens of the television camera at a position where a center line of the first rotating shaft output portion and a center line of the second rotating shaft output portion intersect each other. The center axis is arranged, the rotation centers of the camera lenses are aligned, and the principal points of the camera lenses are aligned at the matching positions.

【0018】[0018]

【作用】自律的なフレキシブル生産システムでは、作業
計画通りに作業がなされているか、そして次の作業が予
定通りに行えるかを、各作業ごとに確認する必要があ
る。そのためには、まず、情景入力センサによって得ら
れる2次元的な映像から、作業対象物の3次元的な位置
および姿勢を検出することが必要となる。また、情景入
力センサによって、常に、確認したい作業点等を見るた
めには、必要に応じて情景入力センサの位置を適切な位
置に変更し、いわゆる「のぞき込み」動作を行う必要が
ある。そして、そのためには、該情景入力センサの位置
を正確に検出・修正することが必要となる。この場合、
特定の基準点を設け常に該基準点を用いて位置を検出す
ることはできない。なぜならば、該情景入力セイサは、
必要に応じて移動等するものだからである。
In the autonomous flexible production system, it is necessary to confirm for each work whether or not the work is performed according to the work plan and whether the next work can be performed as scheduled. For that purpose, first, it is necessary to detect the three-dimensional position and orientation of the work target from the two-dimensional image obtained by the scene input sensor. Further, in order to always see the work point or the like to be confirmed by the scene input sensor, it is necessary to change the position of the scene input sensor to an appropriate position and perform a so-called "peek" operation, if necessary. For that purpose, it is necessary to accurately detect and correct the position of the scene input sensor. in this case,
It is not possible to set a specific reference point and always use the reference point to detect the position. Because the scene input seisa is
This is because they are moved as necessary.

【0019】そこで、本発明においては以下に述べる手
法によって、情景入力センサ、対象物の実際の位置・姿
勢の検出および修正を行っており、それらの概要につい
て説明する。
Therefore, in the present invention, the scene input sensor and the actual position / orientation of the object are detected and corrected by the method described below, and the outline thereof will be described.

【0020】まず、情景入力センサが、作業計画で指定
された位置に指定された方向を向いている作業計画通り
の場合には、作業環境がどのように見えるかを設計デー
タと作業計画データをもとに、コンピュータグラフィッ
クスで疑似作業環境画面しとて生成する。ここで、情景
入力センサは、ズーム機能付きが好ましい。
First, when the scene input sensor is directed to the position designated in the work plan in the direction specified, the design environment and work plan data are used to determine what the work environment looks like. Originally, a pseudo work environment screen is created using computer graphics. Here, the scene input sensor preferably has a zoom function.

【0021】続いて、前記生成した疑似作業環境画面内
で、色やエッジなどの期待される特徴点の候補を選択
し、実作業環境内において前記候補に対応する特徴点を
探す。この場合、生産現場においては作業環境は既知で
ある。また、生産ライン等の製造設備も既知のものが多
い。したがって、常時画像処理容易な基準となる特徴点
を用意しておくことが可能である。
Subsequently, expected feature point candidates such as colors and edges are selected in the generated pseudo work environment screen, and feature points corresponding to the candidates are searched for in the actual work environment. In this case, the work environment is known at the production site. Also, many manufacturing facilities such as production lines are known. Therefore, it is possible to always prepare a characteristic point that serves as a reference for easy image processing.

【0022】ズーム機能付きの情景入力センサを広角に
して情景を取り込むことにより、前記特徴点の何個かを
識別できる。この空間座標が既知である特徴点の疑似作
業環境画面位置と、情景入力センサにより取り込んだ実
作業環境画面位置との差異から、情景入力センサの空間
内の粗位置を決定することができる。また、必要に応じ
て、ズーム機能をさらに拡大にした情景入力センサで情
景を取り込めば、精密な三次元空間位置を決定すること
ができる。
By making the scene input sensor with a zoom function wide-angle and capturing the scene, some of the feature points can be identified. The rough position in the space of the scene input sensor can be determined from the difference between the pseudo work environment screen position of the feature point whose spatial coordinates are known and the actual work environment screen position captured by the scene input sensor. Further, if necessary, if a scene is captured by a scene input sensor having a zoom function further expanded, a precise three-dimensional spatial position can be determined.

【0023】最後に、前記実作業環境画面と疑似作業画
面を重ね合わせて、両者が一致するかどうかを確認す
る。全情景が一致して、作業計画と異なるところがなけ
れば作業計画通りに作業が行われていることになる。一
方、異なるところがあれば、どの部分が異なるのかを設
計データや作業計画データをもとに、一部品毎または組
部品毎にパターンマッチング処理して調べ、例えば作業
対象や周辺装置の位置・姿勢が異なる場合にはデータベ
ースの中の該当するデータを変更したり、作業ロボット
の位置・姿勢のみ異なる場合には作業ロボットの位置・
姿勢を変更する。また、情景全体や作業ロボットの背景
がずれていた場合は、情景入力装置の位置や方向を変更
し、実作業環境の情景がコンピュータグラフィックスの
情景と一致するように修正され、作業計画通りの作業が
行われる。次に、情景入力センサによって得られる2次
元的な映像に基づいて、該映像を撮影している情景入力
センサ(テレビカメラ)自身や、撮影されている作業対
象物の3次元的な位置・姿勢を検出する方法について詳
細に説明する。
Finally, the actual work environment screen and the pseudo work screen are overlapped and it is confirmed whether or not they coincide with each other. If all the scenes match and there is no difference from the work plan, it means that the work is being performed according to the work plan. On the other hand, if there is a difference, which part is different is checked by performing pattern matching processing for each part or assembled part based on the design data and work plan data. If it is different, change the corresponding data in the database, or if only the position / orientation of the work robot is different,
Change your posture. If the entire scene or the background of the work robot is out of alignment, the position and direction of the scene input device are changed, and the scene in the actual work environment is corrected to match the scene in computer graphics. Work is done. Next, based on the two-dimensional image obtained by the scene input sensor, the three-dimensional position / orientation of the scene input sensor (television camera) itself capturing the image or the work target being captured. The method of detecting the is described in detail.

【0024】本発明においては、予め与えられた位置デ
ータ等から作成される疑似作業環境画面と、情景入力セ
ンサによって得られる実作業環境画面位置との差異から
三次元空間上における位置および姿勢を決定している。
In the present invention, the position and orientation in the three-dimensional space are determined from the difference between the pseudo work environment screen created from the position data given in advance and the actual work environment screen position obtained by the scene input sensor. is doing.

【0025】まず、図4にこれ以降の説明の前提となる
作業環境のモデルを示す。ここでは、説明上ロボットや
ワークを長方体として示し、単に「対象物」と呼ぶこと
にする。この作業環境内には、情景入力センサとしての
1台のテレビカメラを装備した自走ロボットと、4つの
対象物がある。テレビカメラは対象物が見える位置およ
び、姿勢に設定しておく。
First, FIG. 4 shows a model of a work environment on which the following description will be based. Here, for the sake of explanation, the robot or the work is shown as a rectangular parallelepiped and simply referred to as an “object”. In this work environment, there is a self-propelled robot equipped with one TV camera as a scene input sensor and four objects. The TV camera should be set in such a position and posture that the object can be seen.

【0026】図4に示すように作業環境内には、各個別
の対象物とは独立した静止座標系が設けられている。こ
の静止座標系を導入したのは、単に、座標変換などの処
理を容易にするためである。一方、テレビカメラは、独
自の視覚座標系を有している。また、4つの対象物も、
それぞれ独立した対象物座標系をもっており、各対象物
の特徴点(たとえば頂点)の座標は、対象物座標系上に
おいて定義されている。その一方で、視覚座標系および
対象物座標系(以下、視覚座標系および対象物座標系を
総称して、「ローカル座標系」という場合がある。)の
物体についての各座標系自体の原点は、静止座標系上に
おいて定義されるのが一般的である。このように、対象
物座標系の原点を静止座標系上において定義する一方
で、対象物の頂点などの座標は、対象物座標系上におい
て定義したことにより、「対象物」の動きを、単に、静
止座標系上において「対象物座標系」の動きとして、と
らえることができる。このため、対象物座標系において
定義された対象物上の頂点のように、各対象物の特徴点
の座標は全く変化せず、演算処理を単純化することがで
きる。これら各座標系間の関係を図5に示す。図中、S
が静止座標系の原点、Cは視覚座標系の原点、Pは対象
物座標系の原点である。
As shown in FIG. 4, a static coordinate system independent of each individual object is provided in the work environment. This static coordinate system is introduced simply to facilitate processing such as coordinate conversion. On the other hand, TV cameras have their own visual coordinate system. Also, the four objects
Each has an independent object coordinate system, and the coordinates of the feature points (for example, vertices) of each object are defined on the object coordinate system. On the other hand, the origin of each coordinate system itself for an object in the visual coordinate system and the object coordinate system (hereinafter, the visual coordinate system and the object coordinate system may be collectively referred to as "local coordinate system") is , Is generally defined on a stationary coordinate system. In this way, the origin of the object coordinate system is defined on the stationary coordinate system, while the coordinates such as the vertices of the object are defined on the object coordinate system. , Can be regarded as the movement of the “object coordinate system” on the stationary coordinate system. Therefore, like the vertices on the object defined in the object coordinate system, the coordinates of the feature points of each object do not change at all, and the arithmetic processing can be simplified. The relationship between these coordinate systems is shown in FIG. In the figure, S
Is the origin of the stationary coordinate system, C is the origin of the visual coordinate system, and P is the origin of the object coordinate system.

【0027】また、三次元空間上(この場合、静止座標
系上)において、前記ローカル座標系の位置・姿勢を特
定するためには、6個のパラメータを必要とする。つま
り、位置のパラメータとして、各ローカル座標系の原点
の静止座標系上における位置(x、y、z)が必要であ
り、また、姿勢のパラメータとして、静止座標系のx、
y、z軸まわりの、各ローカル座標系の回転角度θx、
θy、θzが必要となる。したがって、以下の説明におい
ては、静止座標系上における視覚座標系の原点Cの位置
を(Cx、Cy、Cz)として、また、静止座標系のx
軸、y軸、z軸まわりにおける視覚座標系の姿勢をθ
1、θ2、θ3、として示す。同様に、静止座標系上にお
ける対象物座標系の原点Pの位置を(Px、Py、Pz)
として、また、静止座標系のx軸、y軸、z軸まわりに
おける対象物座標系の姿勢をθα、θβ、θγとして示
す。
Further, in the three-dimensional space (in this case, on the stationary coordinate system), six parameters are required to specify the position / orientation of the local coordinate system. In other words, the position parameter requires the position (x, y, z) of the origin of each local coordinate system on the stationary coordinate system, and the attitude parameter x, the stationary coordinate system.
Rotation angle θx of each local coordinate system around y and z axes,
θy and θz are required. Therefore, in the following description, the position of the origin C of the visual coordinate system on the stationary coordinate system is (Cx, Cy, Cz), and x of the stationary coordinate system is used.
The orientation of the visual coordinate system around the axes, y-axis, and z-axis is θ
Shown as 1, θ2, θ3. Similarly, the position of the origin P of the object coordinate system on the stationary coordinate system is (Px, Py, Pz)
Further, the postures of the object coordinate system around the x-axis, the y-axis, and the z-axis of the stationary coordinate system are shown as θα, θβ, and θγ.

【0028】つぎに、疑似作業環境画面の作成について
説明する。疑似作業環境画面の作成は、対象物の形状や
特徴点、対象物の置かれているべき位置および姿勢等に
関する予め与えられた3次元的データの全てを、一旦、
静止座標系に変換し、(この場合変換は、静止座標系に
限定されるものではなく、いずれか一つの座標系に変換
すればよい。)その後、改めてこれを視覚座標系上に変
換し、さらに、テレビカメラにより撮影される2次元画
面へ変換することにより行われる。
Next, the creation of the pseudo work environment screen will be described. The creation of the pseudo work environment screen is performed by once temporarily collecting all of the three-dimensional data given in advance regarding the shape and characteristic points of the target object, the position and the posture where the target object should be placed, etc.
Convert to a static coordinate system (in this case, the conversion is not limited to the static coordinate system, but it is sufficient to convert to any one coordinate system.) After that, convert this again to the visual coordinate system, Furthermore, it is performed by converting into a two-dimensional screen imaged by a television camera.

【0029】上記視覚座標系上で定義されている座標を
静止座標系へ変換するには、まず、(Cx、Cy、C
z)だけ平行移動を行い、その後、静止座標系のy軸、
x軸、z軸について、それぞれ、θ2、θ1、θ3、だけ
回転させればよい。対象物座標系上で定義されている座
標を静止座標系へ変換する場合にも同様に、まず、(P
x、Py、Pz)だけ平行移動を行い、その後、静止座
標系のy軸、x軸、z軸について、それぞれ、θβ、θ
α、θγ、だけ回転させればよい。
To convert the coordinates defined on the visual coordinate system to the stationary coordinate system, first, (Cx, Cy, C
z) and then the y-axis of the stationary coordinate system,
It is only necessary to rotate the x-axis and the z-axis by θ2, θ1, and θ3, respectively. Similarly, when converting the coordinates defined on the object coordinate system to the stationary coordinate system, first, (P
(x, Py, Pz), and then θβ, θ for the y-axis, x-axis, and z-axis of the stationary coordinate system, respectively.
It is sufficient to rotate only α and θγ.

【0030】この処理を数式化して示したのが数1、数
2である。なお、ここでは式を簡単化するために、si
nθiをsi、cosθiをciで表わすことにする。
Equations 1 and 2 show this processing as a mathematical expression. In order to simplify the formula, si
Let nθi be represented by si and cos θi be represented by ci.

【0031】視覚座標系上の点を静止座標系上に変換す
る座標変換行列TcSは、
The coordinate conversion matrix TcS for converting the point on the visual coordinate system to the stationary coordinate system is

【0032】[0032]

【数1】 [Equation 1]

【0033】と表せる。該式中のTransは平行移動変換
行列である。また、RoTは回転移動変換行列であり、
RoT(y、θ2)はy軸回りにθ2回転することを意味
する。
Can be expressed as Trans in the equation is a translation transformation matrix. Also, RoT is a rotation movement conversion matrix,
Rot (y, θ2) means rotating by θ2 around the y-axis.

【0034】同様に、静止座標系に対する対象物座標系
上の点を静止座標系上に変換する座標変換行列TpS
は、
Similarly, a coordinate transformation matrix TpS for transforming a point on the object coordinate system with respect to the stationary coordinate system to the stationary coordinate system.
Is

【0035】[0035]

【数2】 [Equation 2]

【0036】と表せる。Can be expressed as

【0037】したがって、静止座標系上の任意の点E
(Ex、Ey、Ez、1)を、視覚座標系上に変換した場
合の座標Ecは、
Therefore, an arbitrary point E on the stationary coordinate system
Coordinates Ec when (Ex, Ey, Ez, 1) are transformed on the visual coordinate system are

【0038】[0038]

【数3】 [Equation 3]

【0039】となる。It becomes

【0040】同様に、対象物座標系上の任意点の位置ベ
クトルO(OXp、OYp、OZp、1)を、視覚座標系上に
変換した場合の座標Ocは、
Similarly, the coordinate Oc when the position vector O (OXp, OYp, OZp, 1) of an arbitrary point on the object coordinate system is converted on the visual coordinate system is

【0041】[0041]

【数4】 [Equation 4]

【0042】と表せる。It can be expressed as

【0043】上記数1〜数4の変換式を用いて視覚座標
系上に集められた座標データは、上述したとおり2次元
画面(テレビカメラにより撮影される画面に相当する)
へ変換される。ここでは、前記視覚座標系上に変換され
た任意の点Eの座標Ecを、該2次元画面上に変換する
場合の画面位置座標の求め方について説明する。
The coordinate data collected on the visual coordinate system using the conversion formulas of the above equations 1 to 4 is the two-dimensional screen (corresponding to the screen photographed by the television camera) as described above.
Is converted to. Here, a method of obtaining screen position coordinates when the coordinates Ec of the arbitrary point E converted on the visual coordinate system is converted on the two-dimensional screen will be described.

【0044】視覚座標系上における任意点の座標Ec
は、図6に示すとおり、レンズを介して撮像面の点Gに
結像する。なお、視覚座標系は、その原点がレンズの中
心に位置するように設定される。該図中の点1と点2
は、視覚座標系のzc軸に垂直な平面内にある。また、
点3と点4も、同様に、視覚座標系のzc軸に垂直な平
面内にある。従って、図中の点0、点1、点2の形成す
る三角形と、点0、点3、点4の成す三角形とは相似で
ある。従って、撮像面上の点Gは、
Coordinates Ec of an arbitrary point on the visual coordinate system
Forms an image at a point G on the imaging surface via a lens, as shown in FIG. The visual coordinate system is set so that its origin is located at the center of the lens. Point 1 and point 2 in the figure
Is in the plane perpendicular to the zc axis of the visual coordinate system. Also,
The points 3 and 4 are also in the plane perpendicular to the zc axis of the visual coordinate system. Therefore, the triangle formed by the points 0, 1, and 2 in the figure is similar to the triangle formed by the points 0, 3, and 4. Therefore, the point G on the imaging surface is

【0045】[0045]

【数5】 [Equation 5]

【0046】として求まる。ここで、Sxはx方向の見
かけの焦点距離を表す係数、Syはy方向の見かけの焦
点距離を表す係数である。ここで、Sx,Syを見かけ
の焦点距離と呼ぶのは、これが、レンズ主点からテレビ
カメラの撮像面までの距離ではなく、テレビカメラの撮
像面に結像した被対象物の映像信号を、アナログ/デジ
タル変換で計算機で処理できる画素列に変換して得られ
た計算機内の画面までの、レンズ主点からの見かけの距
離を意味するからである。
Is obtained as Here, Sx is a coefficient representing an apparent focal length in the x direction, and Sy is a coefficient representing an apparent focal length in the y direction. Here, what is called the apparent focal lengths of Sx and Sy is that this is not the distance from the principal point of the lens to the image pickup surface of the TV camera, but the video signal of the object formed on the image pickup surface of the TV camera. This is because it means the apparent distance from the principal point of the lens to the screen in the computer obtained by converting into a pixel array that can be processed by the computer by analog / digital conversion.

【0047】同様にして、対象物座標系上の任意の点O
の画面上の点Gpは、
Similarly, an arbitrary point O on the object coordinate system
The point Gp on the screen is

【0048】[0048]

【数6】 [Equation 6]

【0049】として求まる。Is obtained as

【0050】上述した数1〜数6からなる各関係式を用
いれば、設計データをもとに対象物がテレビカメラでど
う見えるかを計算できる。なお、同じ画面位置に複数の
ものがある場合には、OZcで表す距離情報に基づいて
テレビカメラとの距離を判定し、手前側に位置するもの
のみを表示することができる。このようにして疑似作業
環境画面を生成することができる。
By using each of the above-mentioned relational expressions 1 to 6, it is possible to calculate how the object looks on the television camera based on the design data. When there are a plurality of objects at the same screen position, the distance to the television camera can be determined based on the distance information represented by OZc, and only the object on the front side can be displayed. In this way, the pseudo work environment screen can be generated.

【0051】次に、テレビカメラが実際の作業環境を撮
影することによって得た二次元画面位置情報を用いて、
三次元空間位置情報を求める方法について説明する。
Next, using the two-dimensional screen position information obtained by the television camera photographing the actual work environment,
A method for obtaining the three-dimensional spatial position information will be described.

【0052】該三次元空間位置情報は、前記処理によっ
て得た疑似作業環境画面と、テレビカメラによって実際
に撮影して得た作業画面とを比較し、両画面間のずれを
抽出することによって得ることができる。この場合、検
出された両画面間のずれを、テレビカメラ自体の位置・
姿勢のずれとして抽出する場合と、撮影された対象物等
の位置・姿勢のずれとして抽出する場合とで、処理内容
等が異なる。そのため、以下においては、両処理を分け
て説明を行う。
The three-dimensional spatial position information is obtained by comparing the pseudo work environment screen obtained by the above processing with the work screen actually obtained by the television camera and extracting the shift between the two screens. be able to. In this case, the detected deviation between the two screens is
The processing content and the like are different between the case of extracting as the posture deviation and the case of extracting as the position / orientation deviation of the photographed object or the like. Therefore, in the following, both processes will be described separately.

【0053】まず、最初に、テレビカメラ自体の位置・
姿勢のずれとして扱う場合の処理について説明する。こ
の場合には、対象物の実際の位置・姿勢が予めわかって
いることを前提とする。また、疑似作業画面としては、
上記テレビカメラが予め定められた設計通りの位置およ
び姿勢にあった場合、該テレビカメラの画面上において
対象物がどのように見えているかを示す画像を作成す
る。そして、この作成された疑似画像と実画面とを比較
処理することによりテレビカメラの位置・姿勢を決定す
る。そして、該比較処理は、実際には以下のような数学
的な演算を行うことによってなされる。
First, the position of the TV camera itself,
The processing when it is handled as a posture shift will be described. In this case, it is assumed that the actual position / orientation of the object is known in advance. Also, as a pseudo work screen,
When the television camera is in a predetermined position and posture as designed, an image showing how an object looks on the screen of the television camera is created. Then, the position / orientation of the television camera is determined by comparing the created pseudo image with the actual screen. Then, the comparison process is actually performed by performing the following mathematical operation.

【0054】前記式数3および数5からわかるように、
数5のGの成分GxとGyは、静止座標系上における、
視覚座標系の原点Cの位置(Cx、Cy、Cz)と、姿
勢θ1、θ2、θ3、見かけの焦点距離Sx,Syの8
つのパラメータで表わすことができる。静止座標系上に
おいて、視覚座標系(テレビカメラ)を移動した場合、
テレビカメラの実際の位置(Cx′、Cy′、Cz′、
θ1′、θ2′、θ3′、Sx′、Sy′)と、設計位
置(Cx、Cy、Cz、θ1、θ2、θ3、Sx,S
y)との間に、ずれ(△Cx、△Cy、△Cz、△θ
1、△θ2、△θ3、△Sx,△Sy)が生じていたと
する。この時パラメータの実際の値Cx′、Cy′、C
z′、θ1′、θ2′、θ3′、Sx′、Sy′との間
には、
As can be seen from the equations (3) and (5),
The G components Gx and Gy of the equation 5 are on the stationary coordinate system,
The position (Cx, Cy, Cz) of the origin C of the visual coordinate system, the postures θ1, θ2, θ3, and the apparent focal lengths Sx, Sy of 8
It can be represented by one parameter. When the visual coordinate system (TV camera) is moved on the stationary coordinate system,
Actual position of TV camera (Cx ', Cy', Cz ',
θ1 ′, θ2 ′, θ3 ′, Sx ′, Sy ′) and design positions (Cx, Cy, Cz, θ1, θ2, θ3, Sx, S)
y), the deviation (ΔCx, ΔCy, ΔCz, Δθ
1, Δθ2, Δθ3, ΔSx, ΔSy) have occurred. At this time, the actual values of the parameters Cx ', Cy', C
Between z ', θ1', θ2 ', θ3', Sx 'and Sy',

【0055】[0055]

【数7】 [Equation 7]

【0056】の関係が成り立っている。この時、画面上
に写る点G′の位置は
The following relationship holds. At this time, the position of the point G'on the screen is

【0057】[0057]

【数8】 [Equation 8]

【0058】となる。ここで、ΔGx、ΔGyは実位置
と設計位置の差で生じた画面上の位置差である。パラメ
ータの誤差△Cx、△Cy、△Cz、△θ1、△θ2、
△θ3、△Sx、△Syが十分に小さい時には、位置差
ΔGは
It becomes Here, ΔGx and ΔGy are position differences on the screen caused by the difference between the actual position and the design position. Parameter error ΔCx, ΔCy, ΔCz, Δθ1, Δθ2,
When Δθ3, ΔSx, and ΔSy are sufficiently small, the position difference ΔG is

【0059】[0059]

【数9】 [Equation 9]

【0060】と表すことができる。ここで、例えばΔG
xの第一項は数5より、
It can be expressed as Here, for example, ΔG
From the equation 5, the first term of x is

【0061】[0061]

【数10】 [Equation 10]

【0062】と表せる。また該数10に含まれている、
δExc/δCx、δEzc/δCxは数3および数1
より、
It can be expressed as Also included in the number 10,
δExc / δCx and δEzc / δCx are equations 3 and 1
Than,

【0063】[0063]

【数11】 [Equation 11]

【0064】と求まる。他の項についても同様にして求
まる。
Is obtained. The same applies to the other terms.

【0065】上記式数9より、一つの特徴点で2つの関
係式が成り立つ。n個の特徴点の画面位置差ΔGnを
From the above equation (9), two relational expressions hold at one feature point. The screen position difference ΔGn of n feature points

【0066】[0066]

【数12】 [Equation 12]

【0067】と書くことにする。ここで、ΔGn,X,
Rnは、特徴点の画面位置差行列、パラメータ誤差行列
及び偏微分係数行列で、それぞれ下記の数13〜数15
で示されるものである。
Will be written. Where ΔGn, X,
Rn is a screen position difference matrix of feature points, a parameter error matrix, and a partial differential coefficient matrix, each of which is expressed by the following equations 13 to 15:
It is shown by.

【0068】[0068]

【数13】 [Equation 13]

【0069】[0069]

【数14】 [Equation 14]

【0070】[0070]

【数15】 [Equation 15]

【0071】ところで、数13のΔGnは疑似画像と実
画像との特徴点の画面位置差から求まる。また、設計デ
ータを数15に代入すれば偏微分係数行列Rnも計算で
きる。したがって、数13よりパラメータ誤差Xは次式
により求まる。
By the way, ΔGn in the equation 13 is obtained from the screen position difference between the characteristic points of the pseudo image and the real image. Also, the partial differential coefficient matrix Rn can be calculated by substituting the design data into the equation 15. Therefore, the parameter error X is obtained from the following equation 13 by the following equation.

【0072】[0072]

【数16】 [Equation 16]

【0073】これは疑似逆行列を用いて最小2乗法で連
立方程式を解いたことになり、特徴点の数が多いほど精
度が高くなる。逆に、最低4点の特徴点があれば、数1
6中の(RnT・Rn)-1が計算でき、パラメータ誤差
Xを求めることができる。なお、RnTはRnの転置行
列である。
This means that the simultaneous equations are solved by the least square method using the pseudo inverse matrix, and the accuracy increases as the number of feature points increases. On the contrary, if there are at least 4 characteristic points, the number 1
(RnT · Rn) −1 in 6 can be calculated, and the parameter error X can be obtained. Note that RnT is a transposed matrix of Rn.

【0074】ところで、前記数12はパラメータ誤差が
十分に小さいとしたときの近似式であり、数16はその
近似式の解である。実際の解はこの近似解を数7に代入
して設計値を更新し、これを数15に代入し、数16を
求め直す繰り返し演算をし、ある範囲内に収束させる方
法で求める。この演算により、静止座標系上における視
覚座標系(テレビカメラ)の位置と姿勢および見かけの
焦点距離を決定できる。以降これを単に「テレビカメラ
位置決定法」と呼ぶことにする。
By the way, the equation 12 is an approximate expression when the parameter error is sufficiently small, and the equation 16 is a solution of the approximate expression. The actual solution is obtained by substituting this approximate solution into Equation 7 to update the design value, substituting this into Equation 15 and re-obtaining Equation 16 by iterative calculation to converge within a certain range. By this calculation, the position and orientation of the visual coordinate system (television camera) on the stationary coordinate system and the apparent focal length can be determined. Hereinafter, this will be simply referred to as the "television camera position determination method".

【0075】つぎに、作業画面と、疑似作業画面との間
のずれを、対象物の位置・姿勢のずれとして扱う場合の
処理について説明する。この場合には、テレビカメラの
実際の位置・姿勢が予めわかっていることを前提とす
る。また、疑似作業画面としては、上記対象物が予め定
められた設計どおりの位置・姿勢にあった場合、テレビ
カメラの画面上においてこの対象物がどのように見えて
いるかを示す画像を作成する。そして、該画像と、実画
面とを比較することによって対象物の位置・姿勢を決定
する。なお、該比較処理は、実際には以下のような数学
的な演算を行うことによってなされる。
Next, description will be made regarding the processing in the case where the deviation between the work screen and the pseudo work screen is treated as the deviation of the position / orientation of the object. In this case, it is assumed that the actual position / orientation of the TV camera is known in advance. Further, as the pseudo work screen, an image showing how the target object looks on the screen of the television camera is created when the target object is in the predetermined position and posture as designed. Then, the position / orientation of the object is determined by comparing the image with the actual screen. The comparison process is actually performed by performing the following mathematical operation.

【0076】前記数6のGpの成分GpxとGpyは、
静止座標系上における、対象物座標系の原点Pの位置
(Px、Py、Pz)と、姿勢θα、θβ、θγおよび
テレビカメラの見かけの焦点距離Sx,Syの8つのパ
ラメータで表すことができる。静止座標系上において、
対象物座標系(対象物)を移動した場合、該対象物の実
際の位置(Px´、Py´、Pz´、θα´、θβ´、
θγ´、Sx´、Sy´)と、設計位置(Px、Py、
Pz、θα、θβ、θγ、Sx、Sy)との間に、ずれ
(ΔPx、ΔPy、ΔPz、Δθα、Δθβ、Δθγ、
ΔSx、ΔSy)が生じていたとすると、疑似作業画面
と、実際に撮影した画面との間には、該ずれに相当する
差が生じる。そこで、前述したテレビカメラ位置決定方
法と同様に、この画面位置差と偏微分係数行列からパラ
メータ誤差を求めれば、静止座標系上における対象物の
実際の位置、姿勢および見かけの焦点距離を決定するこ
とができる。以降これを単に「対象物位置決定法」と呼
ぶことにする。
The Gp components Gpx and Gpy of the equation 6 are
It can be represented by eight parameters of the position (Px, Py, Pz) of the origin P of the object coordinate system on the stationary coordinate system, the postures θα, θβ, θγ and the apparent focal lengths Sx, Sy of the television camera. . On the stationary coordinate system,
When the object coordinate system (object) is moved, the actual position of the object (Px ′, Py ′, Pz ′, θα ′, θβ ′,
θγ ′, Sx ′, Sy ′) and design positions (Px, Py,
Pz, θα, θβ, θγ, Sx, Sy), deviations (ΔPx, ΔPy, ΔPz, Δθα, Δθβ, Δθγ,
If ΔSx, ΔSy) has occurred, a difference corresponding to the deviation occurs between the pseudo work screen and the screen actually photographed. Therefore, similar to the above-described television camera position determination method, if the parameter error is obtained from the screen position difference and the partial differential coefficient matrix, the actual position, orientation, and apparent focal length of the object on the stationary coordinate system are determined. be able to. Hereinafter, this will be simply referred to as "object position determining method".

【0077】前述のテレビカメラ位置決定法とこの対象
物位置決定法との違いは、上述したとおり、前者が画面
内にある複数の対象物の特徴点情報に基づいて自己(テ
レビカメラ)の位置を決定するものであるのに対し、後
者は、対象物の特徴点情報に基づいて対象物そのものの
位置・姿勢を決定する点である。
As described above, the difference between the TV camera position determining method and the object position determining method is that the former position of the self (TV camera) is determined based on the feature point information of a plurality of objects in the screen. On the other hand, the latter is a point that determines the position / orientation of the object itself based on the feature point information of the object.

【0078】ここまでの説明において述べてきた対象物
位置決定法は、その原理上、テレビカメラの実際の位置
・姿勢が正確にわかっていることが前提となる。正確な
位置がわかっていなければ、実際のテレビカメラとは異
なるレンズ主点から見た疑似画像を作成することにな
り、その結果、対象物位置決定の精度が悪くなってしま
うからである。同様の理由から、前述のテレビカメラ位
置決定法も、対象物位置の実際の位置・姿勢が正確にわ
かっていることが前提になる。つまり、両者は、互いに
依存し合っており、テレビカメラと、全ての対象物との
うち、どちらかの実際の位置が予め正確にわかっていな
ければ、正確な位置検出等は行うことができない。
The object position determining method described in the above description is based on the principle that the actual position / orientation of the television camera is accurately known. This is because if the exact position is not known, a pseudo image viewed from the lens principal point different from the actual TV camera will be created, and as a result, the accuracy of the object position determination will deteriorate. For the same reason, the TV camera position determination method described above also requires that the actual position / orientation of the object position is accurately known. That is, the two are dependent on each other, and accurate position detection and the like cannot be performed unless the actual position of either the television camera or all the objects is known in advance.

【0079】しかし、移動するロボットのアームにテレ
ビカメラが設置されているような場合には、テレビカメ
ラと対象物の何個かが同時に設計位置からずれているこ
とが予想される。従って、上記対象物位置決定法等の適
用には、たとえば、テレビカメラが固定されているよう
な特定の状況の場合に限定されるという不便な問題が残
っている。そこで、本願発明者は、この問題について
も、以下において述べる第1および第2の2種類の手法
によって実用上問題がない程度にまで解決することがで
きた。
However, in the case where a TV camera is installed on the arm of the moving robot, it is expected that some of the TV camera and the object are displaced from the designed positions at the same time. Therefore, there remains an inconvenient problem that the application of the object position determining method and the like is limited to a specific situation where the television camera is fixed, for example. Therefore, the inventor of the present application was able to solve this problem to the extent that there is no practical problem by the first and second types of methods described below.

【0080】ここで、テレビカメラの位置決定の精度
は、対象物位置の正しさに依存しているから、設計位置
にない位置データに基づいて決定したテレビカメラ位置
により対象物位置を決定すれば、当然精度が悪くなる。
そこで対象物の正確な位置を決定するため、まず、位置
ずれしている対象物を捜し出し、次に、残りの設計位置
通りの対象物の特徴点情報を用いて、もう一回テレビカ
メラの位置を決定する。さらに、このテレビカメラの決
定位置で位置ずれしている対象物の位置・姿勢を決定す
る。
Since the accuracy of determining the position of the TV camera depends on the correctness of the position of the object, if the position of the object is determined by the position of the TV camera determined based on the position data not in the designed position. , Of course, the accuracy becomes worse.
Therefore, in order to determine the accurate position of the target object, first, the target object that is out of position is searched for, and then the position of the TV camera is checked again using the feature point information of the target object according to the remaining design position. To decide. Further, the position / orientation of the target object that is displaced at the determined position of this television camera is determined.

【0081】まず、本発明の第1の手法の概要を説明す
る。
First, the outline of the first method of the present invention will be described.

【0082】最初に、複数の対象物を用いて、暫定的
に、テレビカメラの位置を決定する。そして、これらの
対象物のうち位置ずれしているものを捜し出す。その
後、設計位置通りの位置にあった対象物の特徴点情報を
用いて、改めて、テレビカメラの位置を再決定する。さ
らに、この後、今度はテレビカメラの再決定された位置
で、位置ずれしている対象物の位置姿勢を決定する。
First, the position of the television camera is provisionally determined using a plurality of objects. Then, one of these objects that is out of position is searched for. After that, the position of the television camera is re-determined again using the feature point information of the target object that is located at the designed position. Further, after this, the position and orientation of the displaced object is determined at the re-determined position of the television camera.

【0083】以下、図7を用いて該手法を詳しく説明す
る。この場合、初期状態において、4個の対象物P0,
P1,P2,P3のうちP0,P1,P2は、設計位置
通りの正しい位置にあるが、対象物P3およびテレビカ
メラは、設計位置からずれているものとする。
The method will be described in detail below with reference to FIG. In this case, in the initial state, the four objects P0,
It is assumed that P0, P1, and P2 of P1, P2, and P3 are at the correct positions according to the designed positions, but the object P3 and the television camera are displaced from the designed positions.

【0084】[ステップa1]4個の対象物P0,P
1,P2,P3と、テレビカメラとの全てが、設計位置
にあった場合に見えるであろう画面を、予め有する設計
データを用いて疑似的に作成する。そして、作成した疑
似画像と、実際にテレビカメラによって撮影された画像
とを用いて、前述のテレビカメラ位置決定法によって
(この場合、対象物P0〜P3の位置・姿勢は、全て正
しい位置にあるものとみなして行う。)テレビカメラの
位置および姿勢、つまり、静止座標系上における視覚座
標系の原点の位置および視覚座標系の姿勢を求める。以
下、ここで求めたテレビカメラの位置および姿勢を、単
に「推定カメラ位置」という。
[Step a1] Four objects P0, P
1, P2, P3, and the television camera are all created in a pseudo manner using the design data that they have in advance, which screens would appear when they were in the design position. Then, using the created pseudo image and the image actually shot by the television camera, the above-described television camera position determination method is used (in this case, the positions and orientations of the objects P0 to P3 are all in correct positions). The position and orientation of the TV camera, that is, the position of the origin of the visual coordinate system on the stationary coordinate system and the orientation of the visual coordinate system are obtained. Hereinafter, the position and orientation of the TV camera obtained here will be simply referred to as “estimated camera position”.

【0085】しかし、位置ずれしている対象物P3の特
徴点情報をも用いているため、ここで求めたテレビカメ
ラの位置・姿勢、つまり、推定カメラ位置は、静止座標
系上における実際の位置とは完全には一致していないこ
とになる。
However, since the feature point information of the displaced object P3 is also used, the position / orientation of the television camera obtained here, that is, the estimated camera position is the actual position on the stationary coordinate system. Is not a perfect match.

【0086】[ステップa2]続いて、前記ステップa
1で求めた推定カメラ位置にテレビカメラがあり、かつ
各対象物が設計位置にあった場合に見えるであろう画面
を、予め有している設計データを用いて疑似的に作成す
る。そして、作成した疑似画像と、実際にテレビカメラ
によって撮影された画像とを用いて、前述の対象物位置
決定法により(この場合、上記推定カメラ位置に、実際
にテレビカメラがあるものとみなして行う。)静止座標
系上における各対象物P0〜P3の位置および姿勢、つ
まり、静止座標系上における各対象物座標系の原点の位
置および各対象物座標系の姿勢を暫定的に決定する。以
下、ここで求めた対象物の位置および姿勢を、単に「推
定対象物位置」という。
[Step a2] Subsequently, the above step a
A screen that will be seen when the TV camera is located at the estimated camera position obtained in 1 and each object is located at the design position is artificially created using the design data that is stored in advance. Then, using the created pseudo image and the image actually shot by the TV camera, the object position determination method described above is used (in this case, it is assumed that the TV camera is actually present at the estimated camera position). The position and orientation of each object P0 to P3 on the stationary coordinate system, that is, the position of the origin of each object coordinate system on the stationary coordinate system and the attitude of each object coordinate system are provisionally determined. Hereinafter, the position and orientation of the object obtained here will be simply referred to as “estimated object position”.

【0087】しかし、このようにして得た推定対象物位
置が、静止座標系上における対象物P0〜P3の実際の
位置・姿勢と一致しているとは限らない。これは前記対
象物位置決定法を行う際に仮定した推定カメラ位置と、
テレビカメラの実際の位置との一致が、本当に成立して
いるとは限らないからである。
However, the estimated object position thus obtained does not always match the actual position / orientation of the objects P0 to P3 on the stationary coordinate system. This is the estimated camera position assumed when performing the object position determination method,
This is because the match with the actual position of the TV camera is not always established.

【0088】[ステップa3]静止座標系上の三次元空
間上において、各対象物を上記推定対象物位置に設定す
るとともに、テレビカメラを推定カメラ位置に設定す
る。ただし、この場合の設定は疑似的に行うものであ
り、テレビカメラや各対象物を実際に設置するものでは
ない。この後、上記各対象物を設計位置にまで疑似的に
移動させる。この場合、該各対象物の移動と共に、上記
推定対象物位置と推定カメラ位置との間に成り立ってい
た相対的な位置関係を保ったまま、テレビカメラも疑似
的に移動し、各対象物が上記設計位置にあるときのテレ
ビカメラの位置・姿勢を求める。ここで求めたテレビカ
メラの位置を、以下「第二次推定カメラ位置」という。
[Step a3] In the three-dimensional space on the stationary coordinate system, each object is set to the estimated object position and the television camera is set to the estimated camera position. However, the setting in this case is performed in a pseudo manner, and the TV camera and each object are not actually installed. After that, each of the above-mentioned objects is pseudo moved to the design position. In this case, the television camera also moves in a pseudo manner while maintaining the relative positional relationship established between the estimated object position and the estimated camera position as the respective objects move. The position / orientation of the TV camera when it is in the design position is obtained. The position of the TV camera obtained here is hereinafter referred to as "secondary estimated camera position".

【0089】上記処理を実際行う場合の具体的な演算処
理の内容を以下に説明する。
Specific contents of arithmetic processing when the above processing is actually performed will be described below.

【0090】上述のステップa1で得た推定カメラ位置
を、C2x、C2y、C2z、θ21、θ22、θ23
とすると、静止座標系上で定義されている座標を、静止
座標系へ座標変換するための行列は、数1より、下記数
17のように表すことができる。
The estimated camera position obtained in step a1 is set to C2x, C2y, C2z, θ21, θ22, θ23.
Then, the matrix for coordinate conversion of the coordinates defined on the stationary coordinate system to the stationary coordinate system can be expressed by the following Expression 17 from Expression 1.

【0091】[0091]

【数17】 [Equation 17]

【0092】また、前記ステップa2で得た対象物P0
についての推定対象物位置を、P0x、P0y、P0
z、θ0α、θ0β、θ0γとすると、対象物座標系上
で定義されている座標を、静止座標系へ座標変換するた
めの行列は、前記数2より、下記数18のように表すこ
とができる。
Further, the object P0 obtained in the step a2
The estimated object position for P0x, P0y, P0
If z, θ0α, θ0β, and θ0γ, the matrix for converting the coordinates defined on the object coordinate system to the stationary coordinate system can be expressed by the following Expression 18 from Expression 2 above. .

【0093】[0093]

【数18】 [Equation 18]

【0094】前記対象物P0上の特徴点列Xnを、視覚
座標系上に変換したものをYnとすると、Ynは、数1
9のように表される。
When Yn is a transformation of the feature point sequence Xn on the object P0 on the visual coordinate system, Yn is given by
It is represented as 9.

【0095】[0095]

【数19】 [Formula 19]

【0096】一方、前記対象物P0が設計位置にあった
場合の位置・姿勢、つまり、対象物P0の設計位置を、
Pt0x、Pt0y、Pt0z、θt0α、θt0β、
θt0γとすると、静止座標系への座標変換行列は、前
記数2より、下記数20のように表すことができる。
On the other hand, the position / orientation when the object P0 is at the design position, that is, the design position of the object P0,
Pt0x, Pt0y, Pt0z, θt0α, θt0β,
When θt0γ, the coordinate conversion matrix to the stationary coordinate system can be expressed by the following Expression 20 from Expression 2 above.

【0097】[0097]

【数20】 [Equation 20]

【0098】ここで、もし、テレビカメラの実際の位置
・姿勢が、C3x、C3y、C3z、θ31、θ32、
θ33であったとする。また、この視覚座標系上で定義
されている座標を、静止座標系へ座標変換するための行
列は、下記数21のように表すことができる。
Here, if the actual position / orientation of the television camera is C3x, C3y, C3z, θ31, θ32,
It is assumed that it is θ33. Further, a matrix for converting the coordinates defined on the visual coordinate system into the stationary coordinate system can be expressed by the following Expression 21.

【0099】[0099]

【数21】 [Equation 21]

【0100】また、前記対象物P0上の特徴点列Xn
を、実際の視覚座標系上に変換したものをYn′とする
と、Yn′は、数22のように表される。
Also, the characteristic point sequence Xn on the object P0.
Let Yn ′ be the result of conversion on the actual visual coordinate system, and Yn ′ is expressed as in Eq.

【0101】[0101]

【数22】 [Equation 22]

【0102】ここで、この時、画面に全く同じ情景が写
っているとすると、つまり、Yn=Yn′と考えると、
下記数23の関係が成り立つはずである。
At this time, if the same scene is displayed on the screen, that is, if Yn = Yn 'is considered,
The relationship of the following Expression 23 should be established.

【0103】[0103]

【数23】 [Equation 23]

【0104】従って、次式である数24の関係が成り立
つ。
Therefore, the relationship of the following equation (24) is established.

【0105】[0105]

【数24】 [Equation 24]

【0106】いま、C2x、C2y、C2z、θ21、
θ22、θ23、P0x、P0y、P0z、θ0α、θ
0β、θ0γ、Pt0x、Pt0y、Pt0z、θt0
α、θt0β、θt0γ、はそれぞれ既知であるから、
前記数19、数20、数22は、一意に求まる。そし
て、この結果と、前記数24とを用いれば、前記数21
は、下記数25、数26のように求めることができる。
Now, C2x, C2y, C2z, θ21,
θ22, θ23, P0x, P0y, P0z, θ0α, θ
0β, θ0γ, Pt0x, Pt0y, Pt0z, θt0
Since α, θt0β, and θt0γ are known,
The above equations 19, 20, and 22 are uniquely obtained. Then, using this result and the equation 24, the equation 21
Can be obtained as in the following Expressions 25 and 26.

【0107】[0107]

【数25】 [Equation 25]

【0108】[0108]

【数26】 [Equation 26]

【0109】[ステップa4]つぎに、前記各対象物に
ついて求めた第2次推定カメラ位置間の距離を算出す
る。
[Step a4] Next, the distance between the secondary estimated camera positions obtained for each of the objects is calculated.

【0110】[ステップa5]ここで、各々の対象物毎
に求めた第2次推定カメラ位置の一致性を見れば、いず
れの対象物の位置がずれているかを判断することができ
る。すなわち、実際の位置と設計位置とが一致している
対象物P0,P1,P2を用いて算出した第2次推定カ
メラ位置は、全て一致するはずである。一方、設計位置
からずれた位置にある対象物P3を用いて算出した第2
次推定カメラ位置は、他と一致しないはずである。した
がって、量子化誤差の許容範囲外の距離を持つ対象物を
判別すれば、設計位置にない対象物を割り出すことがで
きる。
[Step a5] Here, by observing the coincidence of the secondary estimated camera positions obtained for each object, it is possible to determine which object is displaced. That is, all the second-order estimated camera positions calculated using the objects P0, P1, and P2 whose actual position and design position match should match. On the other hand, the second calculated using the object P3 located at a position deviated from the design position
The next estimated camera position should not match the others. Therefore, if an object having a distance outside the allowable range of the quantization error is discriminated, an object that is not at the design position can be determined.

【0111】[ステップa6]実際に設計位置上にある
ことが判明した対象物P0,P1,P2の特徴点情報を
用いて、改めて、正確にテレビカメラの位置を決定す
る。
[Step a6] Using the characteristic point information of the objects P0, P1 and P2 which are actually found on the design position, the position of the television camera is accurately determined again.

【0112】[ステップa7]上記ステップa6で決定
された正確なテレビカメラの位置を用いて、許容範囲外
にあった対象物P3の位置および姿勢を決定する。
[Step a7] Using the accurate position of the television camera determined in step a6, the position and orientation of the object P3 outside the allowable range are determined.

【0113】以上の手順により設計位置にない対象物と
テレビカメラとの位置を、精度高く決定することができ
る。
With the above procedure, the positions of the object not located at the designed position and the television camera can be determined with high accuracy.

【0114】次ぎに第2の手法について説明する。この
手法においては、各対象物毎にテレビカメラ位置決定法
を適用し、テレビカメラの位置を決定する。以下、ここ
で求めたテレビカメラの位置を「暫定位置」という。
Next, the second method will be described. In this method, the position of the TV camera is determined by applying the TV camera position determination method for each object. Hereinafter, the position of the TV camera obtained here will be referred to as a “provisional position”.

【0115】そして、この後は、上記第1の手法の[ス
テップa5]〜[ステップa7]と同様の処理を行う。
つまり、ここで求めた各対象物毎の各暫定位置の一致性
を見ることによって、設計位置にない対象物を判別する
ことができる。なお、この場合の一致性の判断の手法と
しては、上記ステップa4、a5で示した方法に限定さ
れるものではない。
After that, the same processing as [Step a5] to [Step a7] of the first method is performed.
That is, it is possible to discriminate an object that is not at the design position by checking the coincidence of each provisional position for each object obtained here. Note that the method of determining the matching in this case is not limited to the method shown in steps a4 and a5.

【0116】なお、上記第1の手法および第2の手法と
も、対象物を3個以上使用することが、その原理上必要
である。これは、対象物が1個では比較する相手がな
く、また、対象物が2個では、どちらが正確であるかを
判定できないからである。また、上述の説明中、各所に
おいて疑似画像を作成する旨を述べてきたが、これは概
念的な意味で述べたものであって、必ずしも実際に「画
像」とする必要はない。
In both the first method and the second method, it is necessary in principle to use three or more objects. This is because if there is one target object, there is no other party to compare with, and if there are two target objects, it is not possible to determine which is more accurate. Further, in the above description, it has been described that pseudo images are created at various places, but this is a conceptual meaning, and does not necessarily have to be an "image".

【0117】つぎに、テレビカメラと対象物とを用い
て、テレビカメラあるいは対象物の位置を決定する他の
方法について説明する。
Next, another method for determining the position of the television camera or the object using the television camera and the object will be described.

【0118】まず、1台のテレビカメラと1個の対象物
を用いたときの関係について説明する。静止座標系にお
いて、視覚座標系を移動した場合、テレビカメラの実際
の位置(Cx´、Cy´、Cz´、θ1´、θ2´、θ
3´、Sx´、Sy´)および対象物の実際の位置(P
x´、Py´、Pz´、θα´、θβ´、θγ´)と、
テレビカメラの設計位置(Cx、Cy、Cz、θ1、θ
2、θ3、Sx、Sy)および対象物の設計位置(P
x、Py、Pz、θα、θβ、θγ)との間に、それぞ
れずれ(ΔCx、ΔCy、ΔCz、Δθ1、Δθ2、Δ
θ3、ΔSx、ΔSy)および(ΔPx、ΔPy、ΔP
z、Δθα、Δθβ、Δθγ)が生じていたとする。こ
の時、バラメータの実際の位置と設計位置及びずれとの
間には、
First, the relationship when one TV camera and one object are used will be described. In the stationary coordinate system, when the visual coordinate system is moved, the actual position of the television camera (Cx ′, Cy ′, Cz ′, θ1 ′, θ2 ′, θ
3 ', Sx', Sy ') and the actual position of the object (P
x ′, Py ′, Pz ′, θα ′, θβ ′, θγ ′),
TV camera design position (Cx, Cy, Cz, θ1, θ
2, θ3, Sx, Sy) and design position (P
x, Py, Pz, θα, θβ, θγ), deviations (ΔCx, ΔCy, ΔCz, Δθ1, Δθ2, Δ).
θ3, ΔSx, ΔSy) and (ΔPx, ΔPy, ΔP
z, Δθα, Δθβ, Δθγ) has occurred. At this time, between the actual position of the parameter and the design position and deviation,

【0119】[0119]

【数27】 [Equation 27]

【0120】の関係が成り立っている。この時、画面上
に移る点Gp´の位置は、
The following relationship holds. At this time, the position of the point Gp 'on the screen is

【0121】[0121]

【数28】 [Equation 28]

【0122】となる。ここで、パラメータのずれが十分
に小さいときには位置差ΔGpは、
It becomes: Here, when the deviation of the parameters is sufficiently small, the position difference ΔGp is

【0123】[0123]

【数29】 [Equation 29]

【0124】と表すことができる。対象物上のこの特徴
点の画面位置差ΔGpnを、
It can be expressed as The screen position difference ΔGpn of this feature point on the object is

【0125】[0125]

【数30】 [Equation 30]

【0126】と書くことにする。ここで、ΔGpnは特
徴点の画面位置差ベクトルで、
We will write Here, ΔGpn is the screen position difference vector of the feature point,

【0127】[0127]

【数31】 [Equation 31]

【0128】で示されるものである。また、Xpはパラ
メータ誤差ベクトルで、
It is shown by. Xp is a parameter error vector,

【0129】[0129]

【数32】 [Equation 32]

【0130】で示されるものである。この中のsXp、
cXp、oXpはパラメータ誤差のうちの見かけの焦点
距離のパラメータ誤差ベクトル、カメラの位置姿勢のパ
ラメータ誤差ベクトル、対象物のパラメータ誤差ベクト
ルで、それぞれ下記の数式
It is shown by. SXp in this,
Among the parameter errors, cXp and oXp are the parameter error vector of the apparent focal length, the parameter error vector of the position and orientation of the camera, and the parameter error vector of the object.

【0131】[0131]

【数33】 [Expression 33]

【0132】[0132]

【数34】 [Equation 34]

【0133】[0133]

【数35】 [Equation 35]

【0134】で示されるものである。It is shown by.

【0135】さらに、Rpnは偏微分係数行列で、Further, Rpn is a partial differential coefficient matrix,

【0136】[0136]

【数36】 [Equation 36]

【0137】で示されるものである。ところで、前記数
31のΔGpnは、疑似画像と実画像との特徴点の画面
位置差から求まる。また、設計データを上記数36に代
入すれば偏微分係数行列Rpnも計算できる。したがっ
て、前記数30よりパラメータ誤差Xpは、次式で求ま
る。
It is shown by. By the way, the ΔGpn of the equation 31 is obtained from the screen position difference between the feature points of the pseudo image and the real image. Further, the partial differential coefficient matrix Rpn can also be calculated by substituting the design data into the above equation 36. Therefore, the parameter error Xp is obtained by the following equation from the equation (30).

【0138】[0138]

【数37】 [Equation 37]

【0139】つぎに、複数のテレビカメラと複数の対象
物の位置決定法を、2台のテレビカメラと2個の対象物
を例に説明する。この説明の前に、前述した1台のテレ
ビカメラと1個の対象物に関する関係を次のように整理
する。
Next, a method for determining the positions of a plurality of television cameras and a plurality of objects will be described by taking two television cameras and two objects as an example. Prior to this description, the relationship between one TV camera and one object described above will be summarized as follows.

【0140】偏微分係数行列RpnをThe partial differential coefficient matrix Rpn is

【0141】[0141]

【数38】 [Equation 38]

【0142】とおく。ここで、cRpn、oRpn、s
Rpnは、それぞれテレビカメラの位置・姿勢パラメー
タに関する偏微分係数行列、対象物の位置・姿勢パラメ
ータに関する偏微分係数行列、テレビカメラの見かけの
焦点距離パラメータに関する偏微分係数行列である。ま
た、パラメータ誤差ベクトルXpを、
Let us say that. Where cRpn, oRpn, s
Rpn is a partial differential coefficient matrix related to the position / orientation parameter of the TV camera, a partial differential coefficient matrix related to the position / orientation parameter of the object, or a partial differential coefficient matrix related to the apparent focal length parameter of the TV camera. In addition, the parameter error vector Xp is

【0143】[0143]

【数39】 [Formula 39]

【0144】とおく。ここで、cXp、oXp、sXp
はそれぞれテレビカメラの位置・姿勢パラメータベクト
ル、対象物の位置・姿勢パラメータベクトル、テレビカ
メラの倍率パラメータベクトルである。
Let us say that. Where cXp, oXp, sXp
Are the position / orientation parameter vector of the TV camera, the position / orientation parameter vector of the object, and the magnification parameter vector of the TV camera, respectively.

【0145】つぎに、2台のテレビカメラと2個の対象
物を用いた場合における、対象物上の特徴点の画面位置
差ベクトルΔGallとパラメータに関する偏微分係数
行列Rallとパラメータ誤差ベクトルXallとの関
係は、
Next, in the case of using two TV cameras and two objects, the screen position difference vector ΔGall of the feature points on the object, the partial differential coefficient matrix Rall regarding the parameters, and the parameter error vector Xall Relationship is

【0146】[0146]

【数40】 [Formula 40]

【0147】次式となる。ここで、ΔGall、Ral
l、Xallをそれぞれ、
The following equation is obtained. Where ΔGall, Ral
l and Xall,

【0148】[0148]

【数41】 [Formula 41]

【0149】[0149]

【数42】 [Equation 42]

【0150】[0150]

【数43】 [Equation 43]

【0151】のように表しなおす。式中1,1、1,2
等の右肩の指数i、jは、i番目のテレビカメラに対す
るj番目の対象物に関するものであることを意味してい
る。
It is re-expressed as follows. Where 1,1,1,2
The right shoulder indices i, j of etc. are meant for the jth object for the ith television camera.

【0152】前記数40は、パラメータが冗長なので、
このままではパラメータ誤差で解くことができない。そ
こで、つぎの対象物のいずれか1個を静止座標系に固定
して解く例について説明する。対象物1個目を静止座標
系に固定すると、数42の偏微分係数行列Rallと、
数43のパラメータ誤差ベクトルXallは、
In the equation 40, since the parameters are redundant,
As it is, it cannot be solved due to parameter error. Therefore, an example will be described in which any one of the following objects is fixed in the stationary coordinate system and solved. When the first object is fixed to the stationary coordinate system, the partial differential coefficient matrix Rall of the equation 42 and
The parameter error vector Xall of the equation 43 is

【0153】[0153]

【数44】 [Equation 44]

【0154】[0154]

【数45】 [Equation 45]

【0155】となる。したがって、前記数40は、It becomes: Therefore, the number 40 is

【0156】[0156]

【数46】 [Equation 46]

【0157】と表せ、これより数45はパラメータ誤差
Xallは、
From this, the equation (45) gives the parameter error Xall as

【0158】[0158]

【数47】 [Equation 47]

【0159】で求まる。ここで、数46はパラメータ誤
差が十分に小さいとしたときの近似式であり、数47は
その近似式の解である。前記テレビカメラ位置決定法と
同様に、収束演算することにより、複数のテレビカメラ
の位置と対象物の位置を決定することができる。
It can be obtained with. Here, Expression 46 is an approximate expression when the parameter error is sufficiently small, and Expression 47 is a solution of the approximate expression. Similar to the TV camera position determining method, the positions of the plurality of TV cameras and the position of the object can be determined by performing the convergence calculation.

【0160】次に、複数のテレビカメラの間に、予め決
められた拘束関係がある場合のテレビカメラと対象物の
位置の決定法について、2台のテレビカメラと2個の対
象物を用いた例で説明する。
Next, regarding the method of determining the positions of the TV camera and the object when there is a predetermined constraint relationship between the plurality of TV cameras, two TV cameras and two objects are used. An example will be explained.

【0161】2台のテレビカメラは拘束されているの
で、ここでは1台目のテレビカメラの位置・姿勢をパラ
メータとして使用し、一個目の対象物を静止座標系に固
定して解く例について説明する。2台目のテレビカメラ
の位置・姿勢をパラメータは、1台目のテレビカメラの
位置・姿勢をパラメータに拘束されているので、この時
の偏微分係数行列Rallは、
Since the two TV cameras are constrained, an example in which the position / orientation of the first TV camera is used as a parameter and the first object is fixed in the stationary coordinate system and solved is described here. To do. Since the position / orientation of the second TV camera is constrained by the position / orientation of the first TV camera, the partial differential coefficient matrix Rall at this time is

【0162】[0162]

【数48】 [Equation 48]

【0163】と表せる。また、このときのパラメータ誤
差Xallは、
It can be expressed as Further, the parameter error Xall at this time is

【0164】[0164]

【数49】 [Equation 49]

【0165】であり、対象物上の特徴点の画面位置差ベ
クトルΔGallと、パラメータに関する偏微分係数行
列Rallおよびパラメータ誤差ベクトルXallの関
係は、
The relationship between the screen position difference vector ΔGall of the feature points on the object and the partial differential coefficient matrix Rall regarding the parameters and the parameter error vector Xall is as follows:

【0166】[0166]

【数50】 [Equation 50]

【0167】となる。ところで、対象物上の特徴点の画
面位置差ベクトルΔGallは疑似画像と実画像との特
徴点の画面位置差から求まる。また、設計データを前記
数48に代入すれば、パラメータに関する偏微分係数行
列Rallも計算できる。したがって、パラメータ誤差
ベクトルXallは、
It becomes: By the way, the screen position difference vector ΔGall of the feature points on the object is obtained from the screen position difference of the feature points between the pseudo image and the real image. Further, by substituting the design data into the equation (48), the partial differential coefficient matrix Rall regarding the parameter can be calculated. Therefore, the parameter error vector Xall is

【0168】[0168]

【数51】 [Equation 51]

【0169】により求まる。ここで、数50はパラメー
タ誤差が十分に小さいとしたときの近似式であり、数5
1はその近似式の解である。前記「テレビカメラ位置決
定法」と同様に、収束演算することにより、複数のテレ
ビカメラの間に予め決められた拘束関係がある場合のテ
レビカメラと対象物の位置を決定することができる。
It is obtained by Here, Equation 50 is an approximate expression when the parameter error is sufficiently small, and Equation 5
1 is a solution of the approximate expression. Similar to the “TV camera position determination method”, the positions of the TV camera and the object can be determined by performing the convergence calculation when there is a predetermined constraint relationship between the plurality of TV cameras.

【0170】[0170]

【実施例】以下、本発明による位置・姿勢検出方法を実
施するために被撮像物の位置・姿勢検出装置を適用した
フレキシブル生産システムの一実施例を添付図面により
説明する。まず、フレキシブル生産システムの基本構成
を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a flexible production system to which a position / orientation detecting device for an object to be imaged is applied in order to carry out the position / orientation detecting method according to the present invention will be described below with reference to the accompanying drawings. First, the basic configuration of the flexible manufacturing system will be described.

【0171】本実施例のフレキシブル生産システムは大
別すると、図1に示すように、作業環境1と、組立ステ
ーション制御装置2と、設計データ記憶装置3と、作業
計画データ記憶装置4とを備えて構成されている。
The flexible production system of this embodiment is roughly divided into a work environment 1, an assembly station control device 2, a design data storage device 3, and a work plan data storage device 4, as shown in FIG. Is configured.

【0172】作業環境1は、ワークとしての作業対象1
2,周辺装置13,加工装置としての作業ロボット14
のほか、視覚ロボット15、テレビカメラ34を有する
姿勢変更装置33及びその他の構造物等からなってい
る。そして、視覚ロボット15により、作業対象12と
周辺装置13と作業ロボット14とテレビカメラ34と
を撮像すると共に、テレビカメラ34により、作業対象
12と周辺装置13と作業ロボット14と視覚ロボット
15とを撮像するようになっており、以下これらの撮像
した映像を全て「被撮影物」と云う。なお、周辺装置1
3は、作業環境1の中で作業対象12を支持・搬送等す
るものであり、詳細は図3にて述べる。
The work environment 1 is a work target 1 as a work.
2, peripheral device 13, work robot 14 as a processing device
In addition to the above, the visual robot 15, a posture changing device 33 having a television camera 34, and other structures are included. Then, the visual robot 15 images the work target 12, the peripheral device 13, the work robot 14, and the television camera 34, and the TV camera 34 detects the work target 12, the peripheral device 13, the work robot 14, and the visual robot 15. It is designed to capture images, and hereinafter, all of these captured images will be referred to as “objects”. In addition, peripheral device 1
The reference numeral 3 supports and conveys the work target 12 in the work environment 1, the details of which will be described with reference to FIG.

【0173】作業ロボット14は、作業対象12に働き
かける手先効果器、いわゆるロボットハンドやその他の
加工器具等を有し、これを用いて作業対象12の組立等
を行う。そして、該作業ロボット14はそれ自身が移動
可能に構成されている。視覚ロボット15は、作業環境
1の被撮像物を画像データとして取り込むため、テレビ
カメラ34と同様のテレビカメラをなす情景検出手段を
有し、しかも作業ロボット14と同様に移動可能に構成
されている。
The work robot 14 has a hand effector that acts on the work target 12, a so-called robot hand, other processing tools, and the like, and uses this to assemble the work target 12. The work robot 14 is configured to be movable itself. The visual robot 15 has a scene detection unit that forms a TV camera similar to the TV camera 34 in order to capture an object to be imaged in the work environment 1 as image data, and is configured to be movable like the work robot 14. .

【0174】姿勢変更装置33は、テレビカメラ34の
姿勢を変更する装置である。そして、テレビカメラ34
は、視覚ロボット15のビテオカメラと同様に、作業環
境1を画像データとして取り込むための情景検出手段で
ある。
The posture changing device 33 is a device for changing the posture of the television camera 34. Then, the TV camera 34
Is a scene detection means for capturing the work environment 1 as image data, like the video camera of the visual robot 15.

【0175】組立ステーション制御装置2は、視覚ロボ
ット15及びテレビカメラ34によって撮像された作業
環境のデータと、設計データ記憶装置3と作業計画デー
タ記憶装置4とに基づいて被撮影物の位置・姿勢のずれ
を検出し、その検出したずれを吸収する方向に被撮影物
を移動し、修正させるようにしており、詳細は後述す
る。また組立ステーション制御装置2は、被撮影物の位
置・姿勢のずれを検出したとき、そのずれの分だけ設計
データを変更し、修正するようにもなっている。
The assembling station control device 2 determines the position / orientation of the object to be photographed based on the work environment data picked up by the visual robot 15 and the television camera 34, and the design data storage device 3 and the work plan data storage device 4. Deviation is detected, and the object to be photographed is moved and corrected in a direction to absorb the detected deviation. The details will be described later. Further, when the assembly station control device 2 detects a deviation of the position / orientation of the object to be photographed, it changes the design data by the amount of the deviation and corrects it.

【0176】設計データ記憶装置3は、製品やロボット
等の形状,これらの大きさ及び特徴点等に関する情報を
格納し、つまり製品設計データ,ロボット設計データ,
周辺機器設計データを格納している。
The design data storage device 3 stores information on the shapes of products, robots, etc., their sizes and characteristic points, that is, product design data, robot design data,
Stores peripheral device design data.

【0177】作業計画データ記憶装置4は、作業対象1
2と作業ロボット14と周辺装置13と視覚ロボット1
5と姿勢変更装置33に対する作業手順データ,作業工
程データ,動作経路データを格納している。
The work plan data storage device 4 is the work target 1
2, work robot 14, peripheral device 13, visual robot 1
5, work procedure data, work process data, and motion path data for the posture changing device 33 are stored.

【0178】つぎに、前記組立ステーション制御装置2
の構成について、さらに詳しく説明すると、該組立ステ
ーション制御装置2は、図1に示すように、擬似作業環
境情景生成手段20、画像処理手段21、作業環境情景
理解手段22、周辺装置制御手段23、作業ロボット制
御手段24、視覚ロボット制御手段25、動作指令生成
手段26、作業環境データベース構築手段28、作業環
境データ記憶手段29、画像データ記憶手段30、画像
合成手段31、姿勢変更装置制御手段32を有して構成
されている。
Next, the assembly station controller 2
More specifically, the configuration of the assembly station control device 2, as shown in FIG. 1, the assembly station control device 2, the pseudo work environment scene generation means 20, the image processing means 21, the work environment scene understanding means 22, the peripheral device control means 23, The work robot control means 24, the visual robot control means 25, the motion command generation means 26, the work environment database construction means 28, the work environment data storage means 29, the image data storage means 30, the image synthesis means 31, and the posture changing device control means 32. It is configured to have.

【0179】作業環境データベース構築手段28は、設
計データ記憶装置3および作業計画データ記憶装置4に
格納されたデータと、作業環境情景理解手段22で得ら
れた情報とから作業環境に関するデータベースを構築す
るものである。ここで構築したデータは、作業環境デー
タ記憶手段29に格納される構成となっている。
The work environment database construction means 28 constructs a database relating to the work environment from the data stored in the design data storage device 3 and the work plan data storage device 4 and the information obtained by the work environment scene understanding means 22. It is a thing. The data constructed here is stored in the work environment data storage means 29.

【0180】そして、擬似作業環境情景生成手段20
は、作業環境データ記憶手段29に格納されたデータを
用いることにより、作業中における特定時間での作業環
境情景を擬似的に生成する機能を有する。なお、これ以
降の説明においては、このようにデータに基づいて、疑
似的に生成された作業環境情景を、「疑似情景画像」と
いう。
Then, the pseudo work environment scene generation means 20.
Has a function of artificially generating a work environment scene at a specific time during work by using the data stored in the work environment data storage means 29. In the following description, the work environment scene pseudo-generated based on the data in this way is referred to as a “pseudo scene image”.

【0181】画像処理手段21は、視覚ロボット15の
情景検出手段としてのテレビカメラ及び姿勢変更装置3
3のテレビカメラ34で得た実際の作業環境の画像デー
タを処理し、作業環境情景理解手段22に出力する機能
を有する。また、画像処理手段21は、複数の画像デー
タを画像データ記憶手段30に格納する機能も有する。
なお、これ以降の説明においては、情景検出手段を通じ
て得た実際の作業環境の画像を、前記疑似情景画像に対
応して「実情景画像」という。
The image processing means 21 is a television camera as the scene detection means of the visual robot 15 and the posture changing device 3.
3 has a function of processing the image data of the actual work environment obtained by the TV camera 34 of No. 3 and outputting it to the work environment scene understanding unit 22. The image processing means 21 also has a function of storing a plurality of image data in the image data storage means 30.
In the following description, the image of the actual work environment obtained by the scene detecting means will be referred to as "actual scene image" in correspondence with the pseudo scene image.

【0182】また、画像合成手段31は、画像データ記
憶手段30に格納された複数の画像データに基づき、一
枚の高精細画像や広角度の高精細画像を合成する機能を
有し、これら一枚の高精細画像や広角度の高精細画像
は、後述する作業環境情景理解手段22からの支持によ
り選択的に実行される。これ以降の説明においては、視
覚ロボット15,テレビカメラ34を通じて得た実際の
作業環境の複数の画像に基づいて一枚の高精細画像また
はに合成した画像を、「高精細の合成画像」または「広
角の合成画像」と呼ぶが、これらも実情景画像とみな
す。
The image synthesizing means 31 has a function of synthesizing one high-definition image or a wide-angle high-definition image based on a plurality of image data stored in the image data storage means 30. The single high-definition image and the wide-angle high-definition image are selectively executed by the support from the work environment / scene understanding means 22 described later. In the following description, one high-definition image or an image combined into one high-definition image based on a plurality of images of the actual work environment obtained through the visual robot 15 and the TV camera 34 is referred to as a “high-definition combined image” or “high-definition combined image”. Although they are called "wide-angle composite images", these are also considered as real scene images.

【0183】作業環境情景理解手段22は、擬似作業環
境情景生成手段20が生成した擬似情景画像と、視覚ロ
ボット15等により得た実情景画像とを比較することに
より、作業対象12等の位置・姿勢のずれを検出するよ
うになっている。
The work environment scene understanding means 22 compares the pseudo scene image generated by the pseudo work environment scene generation means 20 with the real scene image obtained by the visual robot 15 or the like to determine the position / position of the work target 12 or the like. The deviation of the posture is detected.

【0184】さらに、動作指令生成手段26は、作業環
境情景理解手段22で得た情報に基づいて、動作指令を
生成する機能を有し、その生成された動作指令に基づ
き、周辺装置制御手段23が私有辺装置13を、作業ロ
ボット制御手段24が作業ロボット14を、視覚ロボッ
ト制御手段25が視覚ロボット15を、姿勢変更装置制
御手段32が姿勢変更装置33を夫々制御するようにし
ている。
Further, the operation command generation means 26 has a function of generating an operation command based on the information obtained by the work environment scene understanding means 22, and the peripheral device control means 23 based on the generated operation command. , The work robot control means 24 controls the work robot 14, the visual robot control means 25 controls the visual robot 15, and the posture changing device control means 32 controls the posture changing device 33.

【0185】つぎに、図2を参照して、組立ステーショ
ン制御装置2を実現するための具体的なハードウエア構
成について説明する。
Next, with reference to FIG. 2, a specific hardware configuration for realizing the assembly station control device 2 will be described.

【0186】組立ステーション制御装置2は、システム
バス101、バス制御装置102、中央処理装置103
a、主記憶装置103b、磁気ディスク装置104、キ
ーボード105、ディスプレイ106、画像生成装置1
07、画像処理装置108、テレビカメラ109、ズー
ムモータ・フォーカスモータ・アイリスモータ制御装置
110、ズームモータ・フォーカスモータ・アイリスモ
ータ付きのレンズシステム111、モータ116、パル
スジェネレータ113、カウンタ112、モータ駆動装
置115、DA変換機(デジタル・アナログ変換機)1
14、AD変換機(アナログ・デジタル変換機)11
7、センサ118、ネットワーク119から構成されて
いる。なお、これらは市場にて一般に使用されているも
のと同じであるため、各々の詳細については説明を省略
する。
The assembly station controller 2 includes a system bus 101, a bus controller 102, and a central processing unit 103.
a, main storage device 103b, magnetic disk device 104, keyboard 105, display 106, image generation device 1
07, image processing device 108, television camera 109, zoom motor / focus motor / iris motor control device 110, lens system 111 with zoom motor / focus motor / iris motor, motor 116, pulse generator 113, counter 112, motor drive device 115, DA converter (digital / analog converter) 1
14, AD converter (analog / digital converter) 11
7, a sensor 118, and a network 119. Since these are the same as those generally used in the market, the detailed description of each is omitted.

【0187】ここで、組立ステーション制御装置2の各
構成要素のうち、前記作業環境データベース構築手段2
8,作業環境データ記憶手段29,画像データ記憶手段
30,画像合成手段31,作業環境情景理解手段22,
周辺装置制御手段23,作業ロボット制御手段24,視
覚ロボット制御手段25,動作指令生成手段26及び姿
勢変更装置制御手段32は、主として中央処理装置10
3aとその主記憶装置103b及び磁気ディスク装置1
04により実現されるものである。そして、疑似作業環
境情景生成手段20は、主として画像生成装置107に
より実現されるものである。また、画像処理手段21
は、主として画像処理装置108により実現されるもの
である。ただし、各構成要素は単独でこれらの機能を有
しているのではなく、他と密接に連携しつつこれら機能
を達成しているため、ここで上げた対応関係は必ずしも
厳密なものではない。
Among the constituent elements of the assembly station control device 2, the work environment database construction means 2 is used.
8, work environment data storage means 29, image data storage means 30, image composition means 31, work environment scene understanding means 22,
The peripheral device control means 23, the work robot control means 24, the visual robot control means 25, the motion command generation means 26, and the attitude changing device control means 32 are mainly the central processing unit 10.
3a and its main storage device 103b and magnetic disk device 1
It is realized by 04. The pseudo work environment scene generation means 20 is mainly realized by the image generation device 107. Further, the image processing means 21
Are mainly realized by the image processing device 108. However, each component does not have these functions by itself, but achieves these functions in close cooperation with others, so the correspondence relationship described here is not necessarily strict.

【0188】なお、前記図1における設計データ記憶装
置3及び作業計画データ記憶装置4とは、ネットワーク
119を介してデータの授受を行っている。また、図2
に示すテレビカメラ109及びレンズシステム111
は、前記図1に示す組立ステーション制御装置2ではな
く視覚ロボット15や姿勢変更装置33に搭載されるも
のである。モータ116についても同様に、前記図1に
示す周辺装置13や作業ロボット14等に搭載され、こ
れらを駆動するものである。
Data is exchanged with the design data storage device 3 and the work plan data storage device 4 in FIG. 1 via the network 119. Also, FIG.
The TV camera 109 and the lens system 111 shown in FIG.
Is mounted on the visual robot 15 or the posture changing device 33 instead of the assembly station control device 2 shown in FIG. Similarly, the motor 116 is mounted on the peripheral device 13 and the work robot 14 shown in FIG. 1 and drives them.

【0189】次に、作業環境1の詳細を図3により説明
する。同図において、テーブル形のロボット301a,
301bは、作業対象12を載置するためのものであっ
て、図1に示す周辺装置13をなしている。これら各ロ
ボット301a,301bは、必要に応じて自走して移
動する構成となっている。
Details of the work environment 1 will be described below with reference to FIG. In the figure, a table type robot 301a,
Reference numeral 301b is for mounting the work target 12, and constitutes the peripheral device 13 shown in FIG. Each of these robots 301a and 301b is configured to move and move as needed.

【0190】また、アーム形のロボット302a,30
2b,302cは、各々がその動きを自在に制御可能な
アームを有している。そして、各ロボットのアームの先
端部には、作業対象12に対してなんらかの加工・組立
等の作業を行うための手先効果器3021a,3021
b,テレビカメラ3022が設けられている。ここで、
手先効果器3021a,3021bを有するロボット3
02a,302bは、図1に示す作業ロボット14であ
り、テレビカメラ3022を有するロボット302cは
図1に示す視覚ロボット15である。
In addition, the arm-shaped robots 302a, 30
Each of 2b and 302c has an arm whose movement can be controlled freely. Then, at the tip of the arm of each robot, the hand effectors 3021a and 3021 for performing work such as processing and assembling on the work target 12 are performed.
b, a television camera 3022 is provided. here,
Robot 3 having hand effectors 3021a and 3021b
02a and 302b are the work robots 14 shown in FIG. 1, and the robot 302c having the television camera 3022 is the visual robot 15 shown in FIG.

【0191】なお、テレビカメラ3022は、前記図2
におけるテレビカメラ109及びレンズシステム111
に該当するものである。そして、これら各ロボット30
2a〜302cもテーブル形のロボット301a,30
1bと同様に、必要に応じて自走して移動する構成とな
っている。
Note that the television camera 3022 is the same as that shown in FIG.
TV camera 109 and lens system 111 in
It corresponds to. And each of these robots 30
2a to 302c are also table-shaped robots 301a and 30
Similar to 1b, it is configured to move by itself when necessary.

【0192】一方、前記各ロボットの近傍位置にはこれ
らを撮像し得るようにテレビカメラ34が配置されてい
る。該テレビカメラ34は姿勢変更装置35に設置され
ている。このテレビカメラ34も、前記図2におけるテ
レビカメラ109及びレンズシステム111に該当する
ものである。また、ワーク搬送ロボット303a,30
3bは、作業対象12を載せて、各工程間を移動するた
めのものであり、ロボット301a,301bと同様に
周辺装置13をなしている。
On the other hand, a television camera 34 is arranged at a position near each of the robots so as to be able to image them. The television camera 34 is installed in the posture changing device 35. The television camera 34 also corresponds to the television camera 109 and the lens system 111 in FIG. In addition, the work transfer robots 303a, 30
3b is for carrying the work target 12 and moving between each process, and forms the peripheral device 13 like the robots 301a and 301b.

【0193】次に前記構成からなるフレキシブ生産シス
テムの動作について説明する。フレキシブル生産システ
ムでは、製品の設計情報及び製品の種類,数量に合わせ
て設備構成をダイナミックに変更し、作業計画通りに作
業計画部署からのオンライン指令にしたがって加工,組
立を行う。各工程において、前記図1に示す周辺装置1
3,作業ロボット14,視覚ロボット15,姿勢変更装
置33は、動作指令生成手段26が生成した動作指令に
基づき、周辺装置制御手段23,作業ロボット制御手段
24,視覚ロボット制御手段25,姿勢変更装置制御手
段32により制御される。
Next, the operation of the flexible production system having the above configuration will be described. In the flexible manufacturing system, the equipment configuration is dynamically changed according to the product design information and the type and quantity of the product, and processing and assembling are performed according to an online command from the work planning department according to the work plan. In each process, the peripheral device 1 shown in FIG.
3, the work robot 14, the visual robot 15, and the attitude changing device 33, based on the operation command generated by the operation command generating means 26, the peripheral device control means 23, the work robot control means 24, the visual robot control means 25, the attitude changing device. It is controlled by the control means 32.

【0194】これを図2及び図3に即して具体的に述べ
ると、中央処理装置103aが動作指令(デジタル信
号)を生成する。該動作指令は、システムバス101を
介してDA変換器114に送られ、ここでアナログ信号
に変換され、その後、モータ駆動装置115へ送られ
る。モータ駆動装置115は、該動作指令(アナログ信
号)に従ってモータ116を動かし、周辺装置13とし
てのロボット301a・301b,作業ロボット14と
してのロボット302a・302b,視覚ロボット15
としてのロボット302c,姿勢変更装置35を動作さ
せる。これらの動作に対応し、カウンタ112,パルス
ジェネレータ113も作動し、各ロボット301a,3
01b,302a,302b,302cや姿勢変更装置
35の制御に使用される。
This will be described concretely with reference to FIGS. 2 and 3. The central processing unit 103a generates an operation command (digital signal). The operation command is sent to the DA converter 114 via the system bus 101, converted into an analog signal here, and then sent to the motor drive device 115. The motor drive device 115 moves the motor 116 according to the operation command (analog signal), and the robots 301a and 301b as the peripheral device 13, the robots 302a and 302b as the work robot 14, and the visual robot 15
The robot 302c and the posture changing device 35 are operated. Corresponding to these operations, the counter 112 and the pulse generator 113 also operate and the robots 301a, 3a
01b, 302a, 302b, 302c and the posture changing device 35 are used for control.

【0195】これにより、例えばロボット302a,3
02bは手先効果器3021a、3021bを用い、ロ
ボット301b上に載置された作業対象12の組立を行
うこととなる。その際、テレビカメラ3022を有する
視覚ロボット302cと、姿勢変更装置35に設置され
たテレビカメラ34とは、この組立作業を監視してい
る。
Thus, for example, the robots 302a, 302
02b uses the hand effectors 3021a and 3021b to assemble the work target 12 placed on the robot 301b. At that time, the visual robot 302c having the TV camera 3022 and the TV camera 34 installed in the posture changing device 35 monitor the assembling work.

【0196】上記テレビカメラ3022や34は、ズー
ムモータ・フォーカスモータ・アイリスモータ制御装置
110で制御されるズームモータ・フォーカスモータ・
アイリスモータ付きのレンズシステム111を持ってお
り、前記監視している作業を精密に見たい場合は、ロボ
ット302c及び姿勢変更装置35によりテレビカメラ
3022や34の向きを所望位置に変えると共に、レン
ズシステム111を望遠にすることにより、高精細の合
成画像を得る。
The television cameras 3022 and 34 are provided with zoom motors, focus motors, focus motors, iris motors controlled by the controller 110.
If the user has a lens system 111 with an iris motor and wants to see the monitored work precisely, the robot 302c and the posture changing device 35 change the direction of the television cameras 3022 and 34 to a desired position, and the lens system By setting 111 to the telephoto position, a high-definition composite image is obtained.

【0197】なお、該作業に際して必要となる組立対象
の部品の形状や大きさを示すデータは、磁気ディスク1
04に格納されているものを使用する。また、同様に、
各ロボット302a・302b,301a・301bや
手先効果器3021a,3021bへの動作指令として
は、たとえば、移動経路,配置,組立作業手順データ,
作業工程データ等も磁気ディスク104に格納されてい
るものを使用する。
The data indicating the shape and size of the parts to be assembled which are necessary for the work are the magnetic disk 1
The one stored in 04 is used. Also, similarly,
The operation command to each of the robots 302a, 302b, 301a, 301b and the hand effectors 3021a, 3021b includes, for example, movement route, placement, assembly work procedure data,
The work process data and the like stored in the magnetic disk 104 are also used.

【0198】上述の如き動作に際しては、同一部品であ
っても、途中の機械加工工程におけるバラツキなどによ
り各個体毎に差がある。従って、組付けられる部品点数
が多いほど位置ずれの程度は大きくなりがちとなり、そ
れだけ誤差が生じることとなる。この誤差は、各ロボッ
トが制御データ通りに動作したとしても、避けることの
できないものである。
In the operation as described above, even if the same parts are used, there are differences among the individual parts due to variations in the machining process in the middle. Therefore, the greater the number of parts to be assembled, the greater the degree of positional deviation, and the more errors there are. This error cannot be avoided even if each robot operates according to the control data.

【0199】本実施例においては、各作業ロボット14
等の位置・姿勢を、視覚ロボット15やテレビカメラ3
4により監視することにより、その位置・姿勢を修正し
ている。以下に、該位置・姿勢の監視及びその修正の手
順について述べる。
In this embodiment, each work robot 14
The position and orientation of the visual robot 15 and the TV camera 3
The position / orientation is corrected by monitoring with 4. The procedure for monitoring the position / orientation and correcting it will be described below.

【0200】まず、前記図1に示す作業環境データベー
ス構築手段28により、設計データ記憶装置3及び作業
計画データ記憶装置4に格納されているデータのなかか
ら、作業環境を解析するのに必要なデータを作業環境デ
ータとして読み出し、その読み出したデータを作業環境
データ記憶手段29(図2では、磁気ディスク104に
なる)に登録する。
First, the data necessary for analyzing the work environment from the data stored in the design data storage device 3 and the work plan data storage device 4 by the work environment database construction means 28 shown in FIG. Is read as work environment data, and the read data is registered in the work environment data storage means 29 (in FIG. 2, it becomes the magnetic disk 104).

【0201】次いで、疑似作業環境情景生成手段20に
より、作業環境データ記憶手段29に格納された前記作
業環境データに基づいて、作業ロボット14等が該作業
環境データ通りの位置・姿勢にあった場合に視覚ロボッ
ト15が捕らえるであろう情景を、疑似的に生成する、
即ち、作業中の特定時間における疑似情景画像を生成す
る。この処理内容は、図2において、中央処理装置10
3a,主記憶装置103b及び画像生成装置107によ
り、磁気ディスク104に格納されている作業環境デー
タを用いて疑似情景画像を生成することである。
Then, when the work robot 14 or the like is in the position / posture according to the work environment data based on the work environment data stored in the work environment data storage means 29 by the pseudo work environment scene generation means 20. Artificially generate a scene that the visual robot 15 will capture.
That is, a pseudo-scene image at a specific time during work is generated. This processing content is shown in FIG.
3a, the main storage device 103b, and the image generation device 107 generate a pseudo-scene image using the work environment data stored in the magnetic disk 104.

【0202】そして、疑似作業環境情景生成手段20
は、生成した該疑似情景を図1に示す作業環境情景理解
手段22に出力する。なお、この疑似情景の生成処理に
ついては、前記作用の欄において既に記述したため、こ
こでは説明を省略する。
Then, the pseudo work environment scene generation means 20
Outputs the generated pseudo scene to the work environment scene understanding unit 22 shown in FIG. The process of generating the pseudo-scene has already been described in the section of the above-mentioned action, and the description thereof will be omitted here.

【0203】一方、画像処理手段21は、視覚ロボット
15やテレビカメラ34が前記生成した疑似情景画像と
同一時間軸の画像を撮影したとき、該撮影した画像に所
定の処理を行った後、実情景画像として作業環境情景理
解手段22に出力する一方、実情景画像としての複数の
画像データを画像データ記憶手段30に格納する。これ
は図2において、画像処理装置108がテレビカメラ1
09で得た画像を処理し、中央処理装置103aに出力
する。
On the other hand, when the visual robot 15 or the television camera 34 captures an image on the same time axis as the generated pseudo-scene image, the image processing means 21 performs a predetermined process on the captured image and then executes the actual processing. While outputting to the work environment scene understanding means 22 as a scene image, a plurality of image data as an actual scene image are stored in the image data storage means 30. In FIG. 2, the image processing device 108 is the television camera 1
The image obtained at 09 is processed and output to the central processing unit 103a.

【0204】画像合成手段31では、前記画像データ記
憶手段30に格納された複数の画像データを、一枚の合
成画像に合成した後、該合成画像を作業環境情景理解手
段22に出力する。これは図2において、中央処理装置
103aで処理されることになる。
The image synthesizing means 31 synthesizes a plurality of image data stored in the image data storage means 30 into one synthetic image, and then outputs the synthetic image to the work environment / scene understanding means 22. This will be processed by the central processing unit 103a in FIG.

【0205】作業環境情景理解手段22においては、疑
似作業環境情景生成手段20によって生成された疑似情
景画像と、視覚ロボット15,テレビカメラ34により
得た作業環境1の実情景画像(広角の合成画像、あるい
は高精細の合成画像を含む)とを比較し、その相違を抽
出する。つまり、実情景画像から作業対象12,周辺装
置13,作業ロボット14,視覚ロボット15,テレビ
カメラ34の各々の特徴点に関する情報を抽出し、該特
徴点に関する情報と疑似情景画像とを比較することによ
り、それら各部12〜15,34の位置・姿勢を特定し
て、該位置・姿勢ずれを検出する。該位置・姿勢の特定
等の処理は、前記作用の欄において既に記述したため、
ここでの説明は省略する。
In the work environment scene understanding means 22, the pseudo scene image generated by the pseudo work environment scene generation means 20 and the real scene image of the work environment 1 obtained by the visual robot 15 and the television camera 34 (a wide-angle composite image). , Or a high-definition composite image is included), and the difference is extracted. That is, information on the feature points of each of the work target 12, the peripheral device 13, the work robot 14, the visual robot 15, and the television camera 34 is extracted from the real scene image, and the information on the feature points and the pseudo scene image are compared. Thus, the position / orientation of each of these parts 12 to 15 and 34 is specified, and the position / orientation deviation is detected. Since the processing such as the identification of the position / orientation has already been described in the above-mentioned action column,
The description here is omitted.

【0206】上記処理結果、疑似情景画像と実情景画像
とに相違がある場合、両者が一致するよう、作業環境情
景理解手段22は、疑似情景画像のもとになった作業環
境データ記憶手段29内の作業環境データそのものを変
更する。これにより、各部12〜15,34の以降の動
作においては、疑似情景画像と実情景画像とが一致する
こととなる。
As a result of the above processing, when there is a difference between the pseudo scene image and the real scene image, the work environment scene understanding means 22 causes the work environment data storage means 29 which is the source of the pseudo scene image so that they coincide with each other. Change the work environment data itself. As a result, in the subsequent operations of the respective units 12 to 15 and 34, the pseudo scene image and the real scene image match each other.

【0207】あるいは、作業対象12,周辺装置13,
作業ロボット14,視覚ロボット15,テレビカメラ3
4のうち、位置・姿勢ずれが発生しているもののずれを
修正すべく、動作指令生成手段26に指令を送る。これ
により、動作指令生成手段26は、該指令に応じた動作
指令を発し、各部12〜15,34が疑似情景画像と一
致するように動作させる。
Alternatively, the work target 12, the peripheral device 13,
Work robot 14, visual robot 15, TV camera 3
Among the four items, a command is sent to the motion command generating means 26 in order to correct the position / orientation deviation that has occurred. As a result, the motion command generation means 26 issues a motion command in accordance with the command and causes the respective units 12 to 15 and 34 to operate so as to match the pseudo scene image.

【0208】以上の処理は、作業対象12,周辺装置1
3,作業ロボット14(301a,301b),視覚ロ
ボット15,テレビカメラ34が各工程の作業時におい
て、移動を行う毎に、即ち、一つの特定作業を行う毎に
実行する。これにより、作業対象12と周辺装置13と
作業ロボット14と視覚ロボット15とテレビカメラ3
4とが作業位置を動作する度に確認しながら遂行するの
で、作業計画通りに作業を実施することができる。な
お、各対象物(作業ロボット14等)毎に、上述の対象
物位置決定法を実行すれば、これらの間の相対的な位置
関係、距離をも知ることができる。
The above processing is performed by the work target 12 and the peripheral device 1.
3. The work robot 14 (301a, 301b), the visual robot 15, and the television camera 34 are executed each time the work is performed, that is, each time one specific work is performed. As a result, the work target 12, the peripheral device 13, the work robot 14, the visual robot 15, and the television camera 3
Since 4 and the work are performed while checking the work position each time the work is performed, the work can be performed according to the work plan. If the above-described object position determining method is executed for each object (work robot 14 or the like), it is possible to know the relative positional relationship and distance between them.

【0209】以上説明したとおり、上記実施例において
は、作業環境1としての作業対象12と周辺装置13と
作業ロボット14と視覚ロボット15とテレビカメラ3
4との各々の位置・姿勢を、作業環境データに基づいて
予測すると共に、その予測した各部12〜15,34の
疑似情景画像を求め、求めた疑似情景画像と、実際に撮
像された各部12〜15,34の実情景画像との両者を
比較し、該比較結果、疑似情景画像と実情景画像とにず
れがある場合には、対応する各部12〜15,34を、
前記ずれを吸収する方向に修正し、あるいはずれた分だ
け作業環境データを修正するので、実作業環境を明確に
解析することができる。また、これらの修正・変更を行
う際の作業環境の分析等をも自動的に行うため、数値デ
ータだけで各部12〜15,34を正確に動作させるこ
とができる結果、オンラインティーチングの必要がなく
なる。
As described above, in the above embodiment, the work target 12 as the work environment 1, the peripheral device 13, the work robot 14, the visual robot 15, and the television camera 3 are used.
4 and the position / orientation of each of the parts 4 and 4 are predicted based on the work environment data, and the predicted pseudo-scene images of the respective parts 12 to 15 and 34 are calculated, and the calculated pseudo-scene image and the parts 12 that are actually imaged are acquired. ~ 15, 34 of the real scene images are compared with each other, and as a result of the comparison, if there is a deviation between the pseudo scene image and the real scene image, the corresponding units 12 to 15, 34 are
The actual work environment can be clearly analyzed because the work environment data is corrected by correcting the deviation so as to absorb the deviation or by the deviation. Further, since the work environment is automatically analyzed when these corrections / changes are made, the respective parts 12 to 15 and 34 can be accurately operated only by the numerical data, so that the online teaching is not necessary. .

【0210】従って、上記の如き位置・姿勢検出装置を
生産システムに利用すれば、該生産システムを自律的に
運用することができる。また、作業対象やロボットの設
置を高精度にする必要がなくなるので、設備を安価に作
ることができる。さらに、長時間生産ラインを止める必
要がなく経済的であるばかりでなく、製造時間を短縮す
ることができる。
Therefore, if the position / orientation detecting device as described above is used in a production system, the production system can be operated autonomously. Further, since it is not necessary to install the work target and the robot with high accuracy, the equipment can be manufactured at low cost. Furthermore, not only is it unnecessary to stop the production line for a long time, it is economical, and the manufacturing time can be shortened.

【0211】この他、視覚ロボット15及びテレビカメ
ラ34からなる情景検出手段が、作業ロボット14,周
辺装置13から独立させ、作業ロボットや周辺装置を動
作させながら作業環境を取り込むことにより情景を正確
に判断できるので、製造時間を可及的に短縮することが
できる。
In addition to this, the scene detecting means including the visual robot 15 and the television camera 34 is made independent of the work robot 14 and the peripheral device 13, and the work environment is taken in while operating the work robot and the peripheral device so that the scene is accurately obtained. Since it can be determined, the manufacturing time can be shortened as much as possible.

【0212】また、情景検出手段で得られた作業環境内
の特徴点をもとに情景検出手段の位置を正確に求めるこ
とができるので、作業環境内のうちの任意の2者間の相
対関係を正確に求めることができる。
Also, since the position of the scene detecting means can be accurately obtained based on the feature points in the work environment obtained by the scene detecting means, the relative relationship between any two persons in the work environment can be obtained. Can be accurately determined.

【0213】つぎに、図8乃至図11に姿勢変更装置3
3の実施例を示す。まず、図8を参照して、姿勢変更装
置33を実現するための具体的な構成を説明する。この
姿勢変更装置33は、ベース401,1番目の回転軸4
02,2番目の回転軸403,テレビカメラ404から
構成されている。即ち、ベース401上に第1の回転軸
402が取付けられ、その出力部402aが垂直軸周り
に回転するようにしている。この出力部402aの先端
には台座406aを介して第2の回転軸403が取付け
られ、該回転軸403のL字状をなす出力部403aが
水平軸周りに回転するようにしている。そして、出力部
403aの先端部にはテレビカメラ404が固定されて
いる。
Next, the posture changing device 3 is shown in FIGS.
Example 3 will be described. First, a specific configuration for realizing the attitude changing device 33 will be described with reference to FIG. The posture changing device 33 includes a base 401 and a first rotary shaft 4
02, a second rotary shaft 403, and a television camera 404. That is, the first rotation shaft 402 is mounted on the base 401, and the output portion 402a thereof is configured to rotate around the vertical axis. A second rotary shaft 403 is attached to the tip of the output unit 402a via a pedestal 406a, and the L-shaped output unit 403a of the rotary shaft 403 is rotated about a horizontal axis. A television camera 404 is fixed to the tip of the output unit 403a.

【0214】この場合、第1の回転軸402の出力部4
02aの延長線Yと、第2の回転軸403の出力部40
3aの延長線Xとは互いに直交し、それら延長線上の互
いに直交する位置Dにテレビカメラ404におけるカメ
ラレンズ405の中心軸Zを位置させると共に、カメラ
レンズ405の回転中心が一致し、しかも、その一致す
る位置Dにカメラレンズ405の主点も一致するように
配置されている。従って、第1の回転軸402上と第2
の回転軸403上とカメラレンズ405の中心軸Zはカ
メラレンズ405の主点(D)で一点に交わるように配
置されている。
In this case, the output unit 4 of the first rotary shaft 402
02a extension line Y and the output unit 40 of the second rotation shaft 403.
The central axis Z of the camera lens 405 in the television camera 404 is located at a position D orthogonal to the extension line X of 3a, and is orthogonal to each other on the extension line, and the rotation center of the camera lens 405 is coincident with that. The principal point of the camera lens 405 is arranged so as to coincide with the coincident position D. Therefore, on the first rotary shaft 402 and the second
The rotation axis 403 of the camera lens 405 and the central axis Z of the camera lens 405 are arranged so as to intersect at a principal point (D) of the camera lens 405.

【0215】なお、第1,第2の回転軸402,403
は共に減速機付きのモータから構成され、高分解能のエ
ンコーダを直結している。モータの回転は減速機を介し
て伝えられるので、減速機出力軸側の1回転はモータ側
で100回転相当であり、モータ1回転を4000分割
するエンコーダを用いると、減速機出力軸での1回転を
40万分割するほどの高い精度が得られる。
The first and second rotary shafts 402 and 403
Both are composed of a motor with a reduction gear, and are directly connected to a high-resolution encoder. Since the rotation of the motor is transmitted through the reduction gear, one rotation on the reduction gear output shaft side is equivalent to 100 rotations on the motor side, and if an encoder that divides one rotation of the motor into 4000 is used, one rotation on the reduction gear output shaft is performed. It is possible to obtain a precision as high as dividing the rotation into 400,000.

【0216】回転軸402,403は図1に示す如く、
組立ステーション制御装置2の姿勢変更装置制御手段3
2に接続され、また図2に示す如く、モータ駆動装置1
15で駆動される。回転軸402,403に取付けられ
たパルスエンコーダは、カウンタ112で計数され、テ
レビカメラ404の位置・姿勢を判定するのに用いられ
る。
The rotary shafts 402 and 403 are as shown in FIG.
Attitude changing device control means 3 of the assembly station control device 2
2 and also as shown in FIG.
Driven at 15. The pulse encoders attached to the rotary shafts 402 and 403 are counted by the counter 112 and used to determine the position / orientation of the television camera 404.

【0217】この実施例では、姿勢変更装置33が上述
の如く、第1の回転軸402,第2の回転軸403を有
し、しかも第1の回転軸402の出力部402aの延長
線Yと第2の回転軸403の出力部403aの延長線X
との直交する位置Dにテレビカメラ404のカメラレン
ズ405の回転中心が一致するように配置し、第1,第
2の回転軸402,403を選択的に駆動したとき、カ
メラレンズ405の回転中心を中心としてテレビカメラ
404が回動移動する首振り機能をもつので、該首振り
機能により、被撮影物を検出するときの検出精度を上げ
ることができる。
In this embodiment, the posture changing device 33 has the first rotary shaft 402 and the second rotary shaft 403 as described above, and the extension Y of the output portion 402a of the first rotary shaft 402 is used. Extension line X of the output portion 403a of the second rotation shaft 403
The rotation center of the camera lens 405 of the television camera 404 is arranged at a position D orthogonal to the rotation center of the television camera 404, and when the first and second rotation axes 402 and 403 are selectively driven, the rotation center of the camera lens 405. Since the television camera 404 has a swinging function of rotating around, the detection accuracy when detecting an object to be photographed can be increased by the swinging function.

【0218】しかも、互いに一致した位置Dがカメラレ
ンズ405の主点をなすので、カメラレンズ405のゆ
がみ等のようなレンズ特性に影響されることがなく、よ
り正確な検出が可能となる。
Moreover, since the coincident positions D are the main points of the camera lens 405, the lens characteristics such as the distortion of the camera lens 405 are not affected, and more accurate detection can be performed.

【0219】図9に示す実施例は、図8の実施例に回転
軸406を1軸付加したものである。即ち、この場合
は、第2の回転軸403の出力部403aに、取付板4
07,該取付板に設けられたL字形の支持部408を介
し第3の回転軸406が設置されると共に、その回転軸
406の出力部(符号せず)にテレビカメラ404が取
付けられ、第3の回転軸406の駆動によりテレビカメ
ラ404が取付板407,支持部408上で、第2の回
転軸403と直交する水平軸周り、即ち、カメラレンズ
405の回転中心の周りを回転するようにしている。こ
の場合、第1の回転軸402の出力部402aの延長線
Yと第2の回転軸403の出力部403aの延長線Xと
の交差位置Dにカメラレンズ405の回転中心を一致さ
せると共に、その回転中心と延長線YとXとの交点位置
Dにカメラレンズ405の主点を位置させている。
The embodiment shown in FIG. 9 is obtained by adding one rotary shaft 406 to the embodiment shown in FIG. That is, in this case, the mounting plate 4 is attached to the output portion 403a of the second rotating shaft 403.
07, the third rotation shaft 406 is installed through the L-shaped support portion 408 provided on the mounting plate, and the television camera 404 is installed at the output portion (not shown) of the rotation shaft 406. The television camera 404 is rotated on the mounting plate 407 and the supporting portion 408 by driving the rotation shaft 406 of the third rotation axis 406 around the horizontal axis orthogonal to the second rotation axis 403, that is, around the rotation center of the camera lens 405. ing. In this case, the rotation center of the camera lens 405 is aligned with the intersection position D between the extension line Y of the output portion 402a of the first rotation shaft 402 and the extension line X of the output portion 403a of the second rotation shaft 403, and The principal point of the camera lens 405 is located at the intersection position D between the rotation center and the extension lines Y and X.

【0220】この実施例によれば、第1〜第3の回転軸
402,403,406を有し、これらの駆動により、
テレビカメラ405を微妙に回動移動させることができ
るので、図8に示す実施例に比較し、被撮影物を検出す
るときの検出精度をいっそう上げることができる。
According to this embodiment, the first to third rotary shafts 402, 403 and 406 are provided, and by driving these,
Since the television camera 405 can be delicately rotated, the detection accuracy when detecting the object to be photographed can be further improved as compared with the embodiment shown in FIG.

【0221】図10は図8の実施例の姿勢変更装置33
に平行移動軸を付加したものである。即ち、第2の回転
軸403の出力部403aに取付板410が取付けら
れ、該取付板410の一端部にシリンダからなる平行移
動軸409が設置され、該移動軸409の平行移動部4
09aにテレビカメラ404が連結されている。従っ
て、テレビカメラ404は、平行移動軸409の駆動に
より、第2の回転軸403と同一平面内において該回転
軸403と直交する方向に直線移動できるようにしてい
る。
FIG. 10 shows a posture changing device 33 of the embodiment shown in FIG.
The parallel movement axis is added to. That is, the mounting plate 410 is attached to the output portion 403a of the second rotating shaft 403, the parallel movement shaft 409 including a cylinder is installed at one end of the attachment plate 410, and the parallel movement portion 4 of the movement shaft 409 is installed.
The television camera 404 is connected to 09a. Therefore, the television camera 404 can be linearly moved in a direction orthogonal to the rotation axis 403 in the same plane as the second rotation axis 403 by driving the translation shaft 409.

【0222】そして、テレビカメラ404のカメラレン
ズ405は、その中心軸Zが第1の回転軸402の出力
部402aの延長線Yと第2の回転軸403の出力部4
03aの延長線Xとの交差する位置Dに配置され、しか
もその中心軸Z上に主点が位置するようにしている。
The central axis Z of the camera lens 405 of the television camera 404 is the extension line Y of the output section 402a of the first rotary shaft 402 and the output section 4 of the second rotary shaft 403.
It is arranged at a position D intersecting with the extension line X of 03a, and the principal point is located on the central axis Z thereof.

【0223】この実施例によれば、第1,第2の回転軸
402,403の駆動によってテレビカメラ404を回
動移動できる他、テレビカメラ404のカメラレンズ4
05が第2の回転軸403と同一平面内で該回転軸40
3と直交する方向に直線移動するので、カメラレンズ4
05の焦点位置を容易にかつ短時間で合わせることがで
きる。
According to this embodiment, the television camera 404 can be rotated by driving the first and second rotating shafts 402 and 403, and the camera lens 4 of the television camera 404 can be moved.
05 is in the same plane as the second rotary shaft 403,
Since it moves linearly in a direction orthogonal to 3, the camera lens 4
The focus position of 05 can be adjusted easily and in a short time.

【0224】図11は図10の実施例に図9の実施例と
同様の回転軸406を付加したものである。即ち、第2
の回転軸403に取付けられた取付板410上に、支持
部408を介し第3の回転軸406が設置され、該回転
軸406の駆動により、テレビカメラ404が支持部4
08に対し、カメラレンズ405の回転中心を中心とし
て回転するようにしている。
FIG. 11 shows the embodiment of FIG. 10 with a rotary shaft 406 similar to that of the embodiment of FIG. That is, the second
A third rotating shaft 406 is installed on a mounting plate 410 attached to the rotating shaft 403 of the supporting unit 408 via a supporting unit 408.
08, the camera lens 405 is rotated about the center of rotation.

【0225】従って、この実施例によれば、図10に示
す実施例に比較し、テレビカメラ404が第2の回転軸
403と同一平面上で該回転軸403と直交する方向に
直線移動する他、カメラレンズ405の中心軸Z周りに
回動移動するので、よりいっそうに精緻に検出すること
ができる。
Therefore, according to this embodiment, as compared with the embodiment shown in FIG. 10, the television camera 404 moves linearly in a direction orthogonal to the second rotation axis 403 on the same plane as the second rotation axis 403. Since the camera lens 405 is pivotally moved around the central axis Z, more precise detection can be performed.

【0226】ところで、通常では、カメラレンズ405
の回転中心と主点とが一致しないことが多い。そこで、
カメラレンズ405の主点と回転中心とが一致できない
場合には、特徴点を画面内の特定の位置、例えば画面中
心に姿勢変更装置を用いて合わせ、このときの姿勢変更
装置の回転軸の角度データを用いる。図8のような2軸
を用いた姿勢変更装置を、図12を用いて具体的に述べ
ると、まず、姿勢変更装置の座標系として、垂直方向下
向きの軸をY,水平方向の軸をX,これら両軸の交差す
る位置にあってかつこれらと直交する軸をZとする。ま
た、第1,第2の回転軸402,403の回転角を夫々
ψ1,ψ2とする。このとき、レンズの中心線の方向R
ot(y,ψ1)Rot(x,ψ2)Zは、以下の式と
なる。
By the way, normally, the camera lens 405
Often the center of rotation and the principal point do not match. Therefore,
When the principal point of the camera lens 405 and the rotation center cannot match, the characteristic point is aligned with a specific position in the screen, for example, the center of the screen by using the posture changing device, and the angle of the rotation axis of the posture changing device at this time. Use the data. A posture changing device using two axes as shown in FIG. 8 will be specifically described with reference to FIG. 12. First, as a coordinate system of the posture changing device, a vertically downward axis is Y and a horizontal axis is X. , Z is the axis that intersects these two axes and is orthogonal to them. Further, the rotation angles of the first and second rotation shafts 402 and 403 are ψ1 and ψ2, respectively. At this time, the direction R of the center line of the lens
ot (y, ψ1) Rot (x, ψ2) Z is given by the following formula.

【0227】[0227]

【数52】 [Equation 52]

【0228】となる。これを平面の画像情報として用い
る場合、例えば図13に示すように、X,Y平面に平行
な平面Z=1へ投影し直せばよい。投影された平面上の
座標をGX,GYとすると、GX,GYは以下のように求ま
る。
[0228] When this is used as image information of a plane, for example, as shown in FIG. 13, it may be re-projected onto a plane Z = 1 parallel to the X and Y planes. When the projected coordinates on the plane are G X and G Y , G X and G Y are obtained as follows.

【0229】[0229]

【数53】 [Equation 53]

【0230】[0230]

【数54】 [Equation 54]

【0231】この場合、使用する特徴点の数だけ同様に
して求め、全てを同一の平面内に投影する。この平面の
データを一枚の画像データとして使用する。
In this case, the number of feature points to be used is determined in the same manner, and all the feature points are projected on the same plane. The data of this plane is used as one image data.

【0232】次に、姿勢変更装置を用いて、特徴点を画
面上の任意の点に合わせることの利点について説明する
と、カメラレンズ405にズームレンズを用いて望遠を
使用した場合、焦点を合わせなければ特徴点がボケてし
まう。また焦点をずらしただけでレンズの主点位置はず
れてしまう。しかし、特徴点を画面上の任意の点に合わ
せると、レンズの主点の位置を知る必要がなくなる。従
って、計測すべきパラメータの項を減少できる利点があ
る。また、一般にゆがみのないレンズを製作することは
困難とされており、画像内の全面を利用することは計測
精度の低下につながるとされているので、その点でも特
徴点だけを投影する姿勢変更装置に利点がある。
Next, the advantage of aligning a feature point to an arbitrary point on the screen using the posture changing device will be described. When a telephoto lens is used for the camera lens 405, the focus must be adjusted. If so, the feature points will be blurred. In addition, the principal point position of the lens will deviate just by shifting the focus. However, if the characteristic points are aligned with arbitrary points on the screen, it is not necessary to know the position of the principal point of the lens. Therefore, there is an advantage that the number of parameters to be measured can be reduced. In addition, it is generally considered difficult to produce a lens without distortion, and using the entire surface of an image is said to lead to a decrease in measurement accuracy. The device has advantages.

【0233】つぎに、テレビカメラを複数立体的に配置
して、高倍率のカメラレンズを用いて広範囲を同時に映
像として取り込み、1枚の高精細画像に処理し、姿勢変
更装置での移動時間をなくしたものである。この1例
を、図14,15を用いて説明する。図14は、複数の
テレビカメラ501〜505を円弧上に並べたものであ
り、それぞれのカメラレンズの主点Dの位置を1点にあ
わせたものである。図15は、テレビカメラを球面上に
配置したもので、図14において中央のカメラの中心線
方向からみたものである。
Next, by arranging a plurality of television cameras three-dimensionally, capturing a wide range simultaneously as an image using a high-magnification camera lens, processing it into one high-definition image, and changing the movement time in the posture changing device. I lost it. An example of this will be described with reference to FIGS. In FIG. 14, a plurality of television cameras 501 to 505 are arranged in an arc, and the position of the principal point D of each camera lens is adjusted to one point. FIG. 15 shows a television camera arranged on a spherical surface, as seen from the center line direction of the central camera in FIG.

【0234】次に、撮像したデータの特徴点を計測する
手順について図16を用いて説明する。図中の姿勢計測
対象物は、イ,ロ,ハの3個の箱から構成されていると
すると、これら3個の箱には、コントランスがはっきり
した特徴点がついている。図中にはこれを「+」マーク
で表している。これらの特徴点は予め3個の箱夫々の座
標系で計測されている。ワークの加工が設計通りになさ
れている場合、計測値の代わりに設計値を使用してもよ
いのは当然である。
Next, the procedure for measuring the characteristic points of the imaged data will be described with reference to FIG. Assuming that the posture measurement object in the figure is composed of three boxes a, b, and c, these three boxes have distinctive feature points with a contrast. This is indicated by a "+" mark in the figure. These characteristic points are measured in advance in the coordinate system of each of the three boxes. When the workpiece is machined as designed, it goes without saying that the design value may be used instead of the measured value.

【0235】イ,ロ,ハの箱がでたらめになされてい
る。この場合、計測としては、一番大きな箱イに対して
箱ロ,箱ハの位置姿勢がどうなっているかを知ることで
ある。図中の姿勢変更装置33は、各箱イ,ロ,ハの特
徴点が画面上の特定の位置、例えば画面中心にくるよう
に駆動し、そのときの回転角を検出する。次いで、その
回転角を用いて先に述べた数53,数54により同一平
面上の点に投影し直す、即ち、箱イを原点として姿勢変
更装置33の位置姿勢と、箱ロ,ハの位置姿勢パラメー
タを先に述べた手順で求めるのである。
The boxes of A, B, and C are random. In this case, the measurement is to know what the position and orientation of the box B and the box C are with respect to the largest box a. The posture changing device 33 in the drawing is driven so that the characteristic points of the boxes A, B, and C are located at a specific position on the screen, for example, the center of the screen, and the rotation angle at that time is detected. Then, using the rotation angle, the image is re-projected to a point on the same plane by the above-mentioned equations 53 and 54, that is, the position and orientation of the posture changing device 33 and the positions of the boxes B and C with box A as the origin. The attitude parameter is obtained by the procedure described above.

【0236】ところで、姿勢変更装置33を用いたとき
に、最低限必要な特徴点の数について説明すると、ある
対象物、例えば図16中の箱イに対する姿勢変更装置3
3の求める必要のあるパラメータは、姿勢変更装置33
の原点の位置(Cx,Cy,Cz)と座標軸の向きに関
する姿勢(θ1,θ2,θ3)の6個である。一方、特
徴点の画像情報としては、各特徴点の同一平面上での座
標値の2個である。従って、特徴点が3個あれば、対象
物に対する姿勢変更装置33の位置・姿勢のパラメータ
6個を求めることができる。
By the way, when the posture changing device 33 is used, the minimum required number of feature points will be described. The posture changing device 3 for a certain object, for example, box A in FIG.
The parameters that need to be calculated by 3 are the posture changing device 33
There are six positions of the origin (Cx, Cy, Cz) and postures (θ1, θ2, θ3) related to the directions of the coordinate axes. On the other hand, the image information of the feature points is two coordinate values of each feature point on the same plane. Therefore, if there are three feature points, six position / posture parameters of the posture changing device 33 with respect to the object can be obtained.

【0237】これを数式を用いて詳しく説明する。図1
6の姿勢変更装置33は図12に示したものと同様の2
軸タイプとし、またその座標系も図12と同様とする。
第1,第2の回転軸402,403の回転角を夫々ψ
1,ψ2とする。このとき、カメラレンズ405の中心
軸の方向は、前記数52と表せる。これを平面の画像情
報とするために、XcYc平面に平行な平面Zc=1へ
投影し直す。投影された平面上の座標をGX,GYとする
と、GX,GYは、数53,数54として求まる。
This will be described in detail using mathematical expressions. Figure 1
The posture changing device 33 of 6 is the same as that shown in FIG.
The axis type is used, and the coordinate system is the same as in FIG.
The rotation angles of the first and second rotation shafts 402 and 403 are respectively ψ
1 and ψ2. At this time, the direction of the central axis of the camera lens 405 can be expressed by the above equation 52. In order to use this as plane image information, the image is re-projected onto the plane Zc = 1 parallel to the XcYc plane. If the projected coordinates on the plane are G X and G Y , then G X and G Y can be obtained as equations 53 and 54.

【0238】静止座標系上における姿勢変更装置の座標
系の原点Cの位置を(CX,CY,CZ)、姿勢を静止座
標系のX軸,Y軸,Z軸周りの回転角θ1,θ2,θ3
で表す。
The position of the origin C of the coordinate system of the posture changing device on the stationary coordinate system is (C X , C Y , C Z ), and the posture is a rotation angle θ1 around the X, Y, and Z axes of the stationary coordinate system. , Θ2, θ3
It is represented by.

【0239】また、静止座標系上における位置姿勢対象
物の座標系の原点Pの位置を(Px,Py,Pz)、姿
勢を静止座標系のX軸,Y軸,Z軸周りの回転角θα,
θβ,θγで表す。一方、姿勢変更装置の見かけ上の焦
点距離SX,SYは、Xc,Yc平面に平行な平面をZc
=1ととっているので、SX=1,SY=1として固定さ
れた値となる。
Further, the position of the origin P of the position / orientation object coordinate system on the stationary coordinate system is (Px, Py, Pz), and the orientation is a rotation angle θα around the X, Y, and Z axes of the stationary coordinate system. ,
It is represented by θβ and θγ. On the other hand, the apparent focal lengths S X and S Y of the posture changing device are Zc on the plane parallel to the Xc and Yc planes.
Since = 1 is set, S X = 1 and S Y = 1 are fixed values.

【0240】ここで決めたパラメータは作用の中で説明
した一台のテレビカメラと一個の対象物を用いたときと
同じにしている。従って、特徴点の画面位置差は、数2
9で表せる。但し、画面位置差の生じる原因が位置姿勢
計測対象物の方のみであれば数29は下記の数55と変
更される。
The parameters determined here are the same as when one television camera and one object described in the operation are used. Therefore, the screen position difference of the feature points is
It can be represented by 9. However, if the cause of the screen position difference is only the position / orientation measurement object, the expression 29 is changed to the following expression 55.

【0241】[0241]

【数55】 [Equation 55]

【0242】この6個のパラメータが該差要因であり、
位置姿勢計測対象物上の特徴点が最低限3点あれば、計
測できることになる。
These 6 parameters are the difference factors,
If there are at least three characteristic points on the position / orientation measurement target, measurement can be performed.

【0243】以上では、各々の特徴点を同一平面上で計
測する場合について述べたが、今度は、対象物の一つの
特徴点の位置の計測方法について説明する。一つの特徴
点の位置は(X,Y,Z)の3個のパラメータをもって
いる。これに対して一台の情景検出手段のもつパラメー
タは、平面画像であるので(Gx,Gy)の2個であ
る。従って、情景検出手段は2台以上ないと一つの特徴
点の位置を計測することができない。2台以上の情景検
出センサを使う場合、その2台の位置関係を求める方法
について図17により説明する。
Although the case where each feature point is measured on the same plane has been described above, a method of measuring the position of one feature point of the object will now be described. The position of one feature point has three parameters (X, Y, Z). On the other hand, one scene detection unit has two parameters (Gx, Gy) because it is a plane image. Therefore, the position of one feature point cannot be measured unless there are two or more scene detecting means. A method of obtaining the positional relationship between two or more scene detection sensors will be described with reference to FIG.

【0244】図17において、2台の姿勢変更装置33
1,332に夫々取付けられた情景検出手段(テレビカ
メラ)A,Bの2台と、キャリブレーション用ワーク3
33及び計測対象物334がある。2台の姿勢変更装置
331,332は図8に示す如き2つの回転軸をもって
いる。一方、キャリブレーション用ワーク333にはキ
ャリブレーション用マーク333aが任意の位置に複数
貼り付けられてあり、各マーク333aは予め三次元測
定機によりワーク座標系で測定されることにより、それ
らの相対的位置がデータとして取り込まれている。
In FIG. 17, two posture changing devices 33 are provided.
Two scene detection means (television cameras) A and B respectively attached to 1 and 332, and a calibration work 3
33 and a measurement object 334. The two posture changing devices 331 and 332 have two rotation axes as shown in FIG. On the other hand, a plurality of calibration marks 333a are pasted at arbitrary positions on the calibration work 333, and each mark 333a is measured in advance in the work coordinate system by a coordinate measuring machine, and the relative marks The position is captured as data.

【0245】各情景検出手段A,Bは、キャリブレーシ
ョン用ワーク333上のマーク333aを検出して静止
座標系、例えば情景検出手段Aの座標系で情景検出手段
Bとキャリブレーション用ワーク333の三次元の位置
・姿勢を計測する。この操作により、2台の情景検出手
段A,Bの相対的位置が定まる。
Each of the scene detection means A and B detects the mark 333a on the calibration work 333 and detects the tertiary coordinate of the scene detection means B and the calibration work 333 in the stationary coordinate system, for example, the coordinate system of the scene detection means A. Measure the original position and orientation. By this operation, the relative positions of the two scene detection means A and B are determined.

【0246】次に、図中の計測対象物334の2点Pと
Qとの長さLを求めることについて説明する。情景検出
手段A,B夫々で計測対象物334のP点を画面中央に
合わせ、そのときの姿勢変更装置331,332におけ
る回転軸の角度を求める。この角度から、夫々の平面上
の一点を求め、前述した方法により三次元の座標を求め
る。同様にしてQ点についても求める。この点P,Qの
三次元の座標から両点P,Q間の距離Lを求める。ここ
で、三次元の位置の求め方についてさらに詳細に説明す
る。
Next, obtaining the length L between the two points P and Q of the measurement object 334 in the figure will be described. Each of the scene detection means A and B aligns the point P of the measurement object 334 with the center of the screen, and obtains the angle of the rotation axis in the posture changing devices 331 and 332 at that time. From this angle, one point on each plane is obtained, and three-dimensional coordinates are obtained by the method described above. Similarly, the Q point is also obtained. The distance L between the points P and Q is obtained from the three-dimensional coordinates of the points P and Q. Here, how to obtain the three-dimensional position will be described in more detail.

【0247】例えば、点Pの座標を求める場合、情景検
出手段Aが点Pを画面内の特定位置に合わせたときの姿
勢変更装置331の回転軸の角度をψ1 A,ψ2 Aとすれ
ば、次の数56,数57により、
For example, when the coordinates of the point P are obtained, the angles of the rotation axes of the posture changing device 331 when the scene detecting means A aligns the point P with a specific position on the screen are ψ 1 A and ψ 2 A. For example, according to the following equations 56 and 57,

【0248】[0248]

【数56】 [Equation 56]

【0249】[0249]

【数57】 [Equation 57]

【0250】として平面上の座標GX A,GY Aは求まる。As a result, the coordinates G X A and G Y A on the plane are obtained.

【0251】同様に、情景検出手段Bの回転軸の角度
(姿勢変更装置332の回転軸の角度)をψ1 B,ψ2 B
すると、
Similarly, if the angles of the rotation axes of the scene detecting means B (angles of the rotation axis of the posture changing device 332) are ψ 1 B and ψ 2 B ,

【0252】[0252]

【数58】 [Equation 58]

【0253】[0253]

【数59】 [Equation 59]

【0254】として平面上の座標GX B,GY Bが求まる。As a result, the coordinates G X B and G Y B on the plane are obtained.

【0255】点Pの静止座標系での設計位置をPx,P
y,Pzとし、実際の位置をPx′,Py′,Pz′と
する。そのときの位置ずれをΔPx,ΔPy,ΔPzと
すると、以下の関係式となる。
The design position of the point P in the stationary coordinate system is represented by Px, P
Let y, Pz, and the actual positions be Px ', Py', Pz '. If the positional deviations at that time are ΔPx, ΔPy, and ΔPz, the following relational expressions are obtained.

【0256】[0256]

【数60】 [Equation 60]

【0257】[0257]

【数61】 [Equation 61]

【0258】[0258]

【数62】 [Equation 62]

【0259】ここで、設計上での画面位置と実際の画面
位置との差をΔGX A,ΔGX B,ΔG Y Bとすると、以下の
関係式が成り立つ。
Here, the screen position on the design and the actual screen
The difference from the position is ΔGX A, ΔGX B, ΔG Y BThen,
The relational expression holds.

【0260】[0260]

【数63】 [Equation 63]

【0261】[0261]

【数64】 [Equation 64]

【0262】[0262]

【数65】 [Equation 65]

【0263】[0263]

【数66】 [Equation 66]

【0264】そして、これら数63〜数66をΔPx,
ΔPy,ΔPzの連立方程式として解く。このΔPx,
ΔPy,ΔPzは近似値であり、前述した数式60〜6
2の関係から次式
Then, these equations 63 to 66 are expressed by ΔPx,
Solve as a simultaneous equation of ΔPy and ΔPz. This ΔPx,
ΔPy and ΔPz are approximate values, and the above-mentioned formulas 60 to 6
From the relationship of 2

【0265】[0265]

【数67】 [Equation 67]

【0266】[0266]

【数68】 [Equation 68]

【0267】[0267]

【数69】 [Equation 69]

【0268】の関係を用いることにより、Px′,P
y′,Pz′を更新する。この手順を繰り返すことによ
り、実際の位置Px′,Py′,Pz′を得ることがで
きる。
By using the relation of Px ', Px
Update y'and Pz '. By repeating this procedure, the actual positions Px ', Py', Pz 'can be obtained.

【0269】このように、特徴点1点ずつの三次元座標
がわかれば、これを組み合わせることで、空間上の物体
がどこにあるかを定義できることは自明であり、従っ
て、立体地図を作成することもできる。
As described above, if the three-dimensional coordinates of each feature point are known, it is obvious that by combining these, it is possible to define where an object in space is. Therefore, it is necessary to create a three-dimensional map. You can also

【0270】次に、予め既知の曲面上の1点を情景検出
手段1つで求める方法について図18により説明する。
予め既知の曲面をZ=f(x,y)で表すこととする。
また、情景検出手段の曲線に対する位置・姿勢は既に求
まっているものとして以下に説明する。
Next, a method of obtaining one point on a known curved surface in advance by one scene detecting means will be described with reference to FIG.
A known curved surface is represented by Z = f (x, y) in advance.
Further, the following description will be given on the assumption that the position / orientation of the scene detection means with respect to the curve has already been obtained.

【0271】図18において、今、情景検出手段180
から点Bに向かうベクトルが姿勢変更装置331の値か
らわかっている。このときの点Bの座標を求めるには、
図19に示すように、A点の座標(x0,y0,z0)
中の(x0,y0)で表される曲面上の点Cを求める。
次に、この点Cの近傍、例えば(x0+Δx0,y
0),(x0−Δx0,y0)で得られる曲面上の点ど
うしをつなぐベクトルaを求める。同様にして(x0,
y0+Δy0),(x0,y0−Δy0)で得られる曲
面上の点どうしをつなぐベクトルbを求める。このベク
トルa,bの外積でC点の接平面が定義できる。この接
平面とAからBに向かうベクトルの交点をD(x1,y
1,z1)とする。この(x1,y1,z1)で表され
る曲線上の点Eに接する平面を求め、この平面とAから
Bに向かうベクトルの交点Fを求める。この操作を繰り
返すことで曲面上のB点の座標を得ることが可能とな
る。
Referring now to FIG. 18, the scene detection means 180 is now available.
A vector from the point to the point B is known from the value of the posture changing device 331. To obtain the coordinates of point B at this time,
As shown in FIG. 19, coordinates of point A (x0, y0, z0)
The point C on the curved surface represented by (x0, y0) is obtained.
Next, in the vicinity of this point C, for example (x0 + Δx0, y
0), (x0-Δx0, y0), a vector a connecting points on the curved surface is obtained. Similarly, (x0,
A vector b connecting points on the curved surface obtained by (y0 + Δy0), (x0, y0−Δy0) is obtained. The tangent plane at the point C can be defined by the outer product of the vectors a and b. The intersection of this tangent plane and the vector from A to B is D (x1, y
1, z1). A plane in contact with a point E on the curve represented by (x1, y1, z1) is obtained, and an intersection F of a vector from this plane and A to B is obtained. By repeating this operation, the coordinates of point B on the curved surface can be obtained.

【0272】ところで、図18に示すように、曲面上の
あるエリアを情景検出手段180を用いて定義したけれ
ば、図中の斜線のエリアに沿った線を情景検出手段18
0で得られた画面上で定義し、前述した方法で画面上の
画素1点について曲面上の対応点を求めることで、三次
元自由曲面上の領域を定義することができる。
By the way, as shown in FIG. 18, if a certain area on a curved surface is to be defined by using the scene detecting means 180, a line along the diagonally shaded area in the figure is drawn as the scene detecting means 18.
It is possible to define a region on a three-dimensional free-form surface by defining on the screen obtained with 0 and finding the corresponding point on the curved surface for one pixel on the screen by the method described above.

【0273】[0273]

【発明の効果】以上説明したように、本発明の請求項1
〜4によれば、実際の作業環境情景と設計上の疑似的な
作業情景とを解析すると共に、解析した結果に基づいて
作業環境内の各々の位置・姿勢を把握し、実際の制御デ
ータを変更したり、設計値と一致するように作業環境内
の各々の位置・姿勢を修正できるように構成したの
で、、作業環境内の位置・姿勢ずれの修正を精度よく自
動的に行うことができる効果があり、また修正・変更を
行う際の作業環境の分析等をも自動的に行うことによ
り、加工装置のオンラインティーチングする必要がなく
なる等の効果もある。
As described above, according to the first aspect of the present invention.
According to 4, the actual work environment scene and the pseudo work scene in the design are analyzed, and each position / orientation in the work environment is grasped based on the analyzed result to obtain the actual control data. Since it is configured so that it can be changed or each position / orientation in the work environment can be corrected to match the design value, the position / orientation deviation in the work environment can be automatically corrected with high accuracy. There is an effect, and there is also an effect that it is not necessary to perform online teaching of the processing apparatus by automatically analyzing the work environment when making corrections and changes.

【0274】また、本発明の請求項5〜11によれば、
請求項1〜4の方法を的確に実施することができる効果
があり、特に請求項8〜11によれば、情景検出手段と
してのテレビカメラにおけるカメラレンズが主点位置を
中心として姿勢を変更できるで、カメラレンズのゆがみ
等のようなレンズ特性に影響されることがなく、より正
確な検出が可能となる効果があり、テレビカメラを市販
の安価なもので広角度で高精細画像を容易に得ることが
でき、経済的である。
According to claims 5 to 11 of the present invention,
There is an effect that the method according to claims 1 to 4 can be carried out accurately, and particularly according to claims 8 to 11, the camera lens in the television camera as the scene detection means can change its attitude around the principal point position. Therefore, there is an effect that more accurate detection can be performed without being affected by lens characteristics such as distortion of the camera lens, and it is possible to easily obtain a high-definition image in a wide angle with an inexpensive TV camera on the market. It is affordable and economical.

【0275】さらに、本発明の請求項12〜17によれ
ば、請求項5〜11の位置・姿勢検出装置を備えるの
で、生産システムを自立的に運用することができ、また
作業環境内の各々を高精度に製作する必要がなくなるの
で、それだけ設備を安価にすることができ、さらに生産
ラインを長時間止める必要もない結果、多品種少量生産
に対応し得る柔軟性の高くかつ経済的なシステムを提供
することができる。
Further, according to the twelfth to seventeenth aspects of the present invention, since the position / orientation detecting device according to the fifth to eleventh aspects is provided, the production system can be operated independently, and each of the working environment can be operated. Since it is not necessary to manufacture with high precision, the equipment can be made less expensive, and there is no need to stop the production line for a long time, resulting in a flexible and economical system that can handle high-mix low-volume production. Can be provided.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の基本構成図である。FIG. 1 is a basic configuration diagram of an embodiment of the present invention.

【図2】図1に示す組立ステーション制御装置のハード
ウエア構成例を示す図である。
FIG. 2 is a diagram showing a hardware configuration example of an assembly station control device shown in FIG.

【図3】図1に示す作業環境の1例の説明図である。FIG. 3 is an explanatory diagram of an example of the work environment shown in FIG.

【図4】本発明の作業環境モデルの説明図である。FIG. 4 is an explanatory diagram of a work environment model of the present invention.

【図5】図4における各座標系間の関係の説明図であ
る。
5 is an explanatory diagram of a relationship between each coordinate system in FIG.

【図6】視覚座標系上の任意の点Ecの撮像面への透視
変換を示す説明図である。
FIG. 6 is an explanatory diagram showing perspective transformation of an arbitrary point Ec on the visual coordinate system onto an imaging surface.

【図7】テレビカメラ及び対象物の位置・姿勢を決定す
る処理を示すフローチャートである。
FIG. 7 is a flowchart showing a process of determining the position / orientation of a television camera and an object.

【図8】2つの回転軸を有する姿勢変更装置を示す説明
図である。
FIG. 8 is an explanatory diagram showing a posture changing device having two rotation axes.

【図9】3つの回転軸を有する姿勢変更装置を示す説明
図である。
FIG. 9 is an explanatory diagram showing a posture changing device having three rotation axes.

【図10】2つの回転軸と1つの直線移動手段を有する
姿勢変更装置を示す説明図である。
FIG. 10 is an explanatory view showing a posture changing device having two rotating shafts and one linear moving means.

【図11】3つの回転軸と1つの直線移動手段を有する
姿勢変更装置を示す説明図である。
FIG. 11 is an explanatory diagram showing a posture changing device having three rotation axes and one linear movement unit.

【図12】カメラレンズの回転中心と主点との位置が一
致しない場合の姿勢変更装置を示す説明図。
FIG. 12 is an explanatory diagram showing a posture changing device when the positions of the rotation center of the camera lens and the principal point do not match.

【図13】姿勢変更装置におけるカメラレンズの回転中
心と主点との位置が一致しない場合、撮像された特徴点
を同一平面上に投影するときの説明図。
FIG. 13 is an explanatory diagram for projecting the imaged feature points on the same plane when the positions of the rotation center of the camera lens and the principal point in the posture changing device do not match.

【図14】主点位置に対し複数台数のテレビカメラを同
一半径位置に配置した説明図である。
FIG. 14 is an explanatory diagram in which a plurality of television cameras are arranged at the same radial position with respect to the principal point position.

【図15】主点位置を中心に配置された複数台のテレビ
カメラを主点位置から見た場合の説明図である。
FIG. 15 is an explanatory diagram when a plurality of television cameras arranged around the principal point position are viewed from the principal point position.

【図16】対象物の各特徴点を撮像したとき、その各特
徴点の位置を計測するときの説明図である。
FIG. 16 is an explanatory diagram for measuring the position of each feature point when the feature point of an object is imaged.

【図17】夫々が情景検出手段を有する2台の姿勢変更
装置を用い、対象物の一つの特徴点の位置を計測する説
明図である。
FIG. 17 is an explanatory diagram for measuring the position of one feature point of an object by using two posture changing devices each having a scene detection unit.

【図18】既知の曲面上の1点を一つの情景検出手段で
求める場合の説明図である。
FIG. 18 is an explanatory diagram in the case of obtaining one point on a known curved surface by one scene detection means.

【図19】同じく既知の曲面上の1点を情景検出手段で
求める場合の座標系の説明図である。
FIG. 19 is an explanatory diagram of a coordinate system in the case of similarly obtaining one point on a known curved surface by the scene detection means.

【符号の説明】[Explanation of symbols]

1…作業環境、 2…組立ステーション制御装置、3…
設計データ記憶装置、4…作業計画データ記憶装置、1
2…作業対象、13…周辺装置、14…作業ロボット、
15…視覚ロボット、20…擬似作業環境情景生成手
段、21…画像処理手段、22…作業環境情景理解手
段、23…周辺装置制御手段、24…作業ロボット制御
手段、25…視覚ロボット制御手段、26…動作指令生
成手段、28…作業環境データベース構築手段、29…
作業環境データ記憶手段、30…画像データ記憶手段、
31…画像合成手段、32…姿勢変更装置制御手段、3
3,331,332…姿勢変更装置、34,180,4
04…テレビカメラ、405…カメラレンズ、101…
システムバス、102…バス制御装置、103a…中央
処理装置、103b…主記憶装置、104…磁気ディス
ク装置、105…キーボード、106…ディスプレイ、
107…画像生成装置、108…画像処理装置、109
…テレビカメラ、110…ズームモータ・フォーカスモ
ータ・アイリスモータ制御装置、111…レンズシステ
ム、112…カウンタ、113…パルスジェネレータ、
114…DA変換器、115…モータ駆動装置、116
…モータ、117…AD変換器、118…センサ、11
9…ネットワーク、301a,301b…テーブル形ロ
ボット、302a,302b,302c…アーム形ロボ
ット、3021a,3021b…手先効果器、3022
…テレビカメラ、303a,303b…ワーク搬送ロボ
ット、401,411,421,431…ベース、40
2,403,412,413,414,422,42
3,432,433,436…回転軸、402a,40
3a,409a…出力部、425,435…平行移動
軸、424,434…平行移動軸用駆動モータ。
1 ... Work environment, 2 ... Assembly station control device, 3 ...
Design data storage device, 4 ... Work plan data storage device, 1
2 ... Work target, 13 ... Peripheral device, 14 ... Work robot,
Reference numeral 15 ... Visual robot, 20 ... Pseudo work environment scene generation means, 21 ... Image processing means, 22 ... Work environment scene understanding means, 23 ... Peripheral device control means, 24 ... Work robot control means, 25 ... Visual robot control means, 26 ... operation command generation means, 28 ... work environment database construction means, 29 ...
Work environment data storage means, 30 ... image data storage means,
31 ... Image synthesizing means, 32 ... Posture changing device control means, 3
3, 331, 332 ... Attitude changing device, 34, 180, 4
04 ... TV camera, 405 ... Camera lens, 101 ...
System bus, 102 ... Bus control device, 103a ... Central processing unit, 103b ... Main storage device, 104 ... Magnetic disk device, 105 ... Keyboard, 106 ... Display,
107 ... Image generating device, 108 ... Image processing device, 109
... TV camera, 110 ... Zoom motor / focus motor / iris motor control device, 111 ... Lens system, 112 ... Counter, 113 ... Pulse generator,
114 ... DA converter, 115 ... Motor drive device, 116
... Motor, 117 ... AD converter, 118 ... Sensor, 11
9 ... Network, 301a, 301b ... Table type robot, 302a, 302b, 302c ... Arm type robot, 3021a, 3021b ... Hand effector, 3022
... TV cameras, 303a, 303b ... Work transfer robots, 401, 411, 421, 431 ... Base, 40
2,403,412,413,414,422,42
3, 432, 433, 436 ... Rotating shafts, 402a, 40
3a, 409a ... Output unit, 425, 435 ... Parallel movement shaft, 424, 434 ... Parallel movement shaft drive motor.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 B25J 13/08 A G01B 11/00 H 11/26 H G05B 19/418 G06T 7/00 1/00 G06F 15/64 M ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location B25J 13/08 A G01B 11/00 H 11/26 H G05B 19/418 G06T 7/00 1/00 G06F 15/64 M

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 情景検出手段および被撮影物が、予め定
められた設計上の位置・姿勢からずれているとき、その
ずれを修正する位置・姿勢検出方法において、上記情景
検出手段による作業環境中の被撮影物の撮影を、該情景
検出手段におけるカメラレンズの主点位置を中心に変更
して行い、得られた複数の画像を一枚の平面へ投影して
一枚の広画角画像に合成し、上記情景検出手段および上
記被撮影物が、予め定められた設計上の位置・姿勢にあ
ったと仮定した場合、上記情景検出手段が撮影している
であろう画像を疑似的に作成し、該疑似的画像上におけ
る上記被撮影物上の各特徴点の位置と、上記情景検出手
段が実際に撮影してえた上記合成画像上における当該被
撮影物上の上記各特徴点と対応する各特徴点の位置との
ずれ量を求め、該ずれ量に基づき上記情景検出手段およ
び上記被撮影物の位置・姿勢を、上記被撮像物を基準に
して修正することと、前記ずれ量に応じた分だけ上記情
景検出手段および被撮影物を移動する設計データを修正
することの何れか一方を行うことを特徴とする位置・姿
勢検出方法。
1. A position / orientation detecting method for correcting the deviation when the scene detecting means and the object to be photographed are deviated from a predetermined designed position / orientation, in the work environment by the scene detecting means. The subject is photographed by changing the position of the principal point of the camera lens in the scene detection means as a center, and the obtained plurality of images are projected onto one plane to form one wide-angle image. Assuming that the scene detection means and the object to be photographed are in a predetermined designed position / orientation, a pseudo image is created by the scene detection means. The positions of the respective feature points on the object to be photographed on the pseudo image, and the characteristic points on the object to be photographed on the composite image actually photographed by the scene detection means. The amount of deviation from the position of the feature point is calculated and Correcting the position / orientation of the scene detection means and the object to be photographed based on the amount of displacement based on the object to be photographed, and moving the scene detection means and the object to be photographed by an amount corresponding to the amount of deviation. A position / orientation detection method characterized by performing either one of modifying design data.
【請求項2】 予め、作業対象物と該作業対象物を加工
処理する加工装置とこれらの周辺装置とを撮像し得る少
なくとも2台の情景検査手段を設置しておき、これら2
台の情景検査手段,作業対象物,加工装置,周辺装置か
らなる作業環境の各々の予測された時間での位置・姿勢
を、予め設計されたデータに基づいて画像として疑似的
に生成し、次いで、作業環境がその疑似的画像を生成し
た時間軸に達したとき、実際の作業環境を各情景検査手
段によって撮像すると共に、該実際に撮像した作業環境
のデータと疑似的画像を生成したデータとを比較して両
者にずれがあったとき、該ずれに基づいて作業環境内の
各々の位置・姿勢を修正することと、前記ずれに応じた
分だけ作業環境内の対応する各々の設計データを修正す
ることとの何れか一方を行うことを特徴とする位置・姿
勢検出方法。
2. At least two scene inspection means capable of picking up an image of a work object, a processing device for processing the work object, and peripheral devices thereof are installed in advance.
The position / orientation of the work environment including the scene inspection means of the table, the work object, the processing device, and the peripheral device at each predicted time is pseudo-generated as an image based on predesigned data, and then, , When the work environment reaches the time axis at which the pseudo image is generated, the actual work environment is imaged by each scene inspection means, and the data of the work environment actually imaged and the data that generated the pseudo image are When there is a deviation between the two, the respective positions and orientations in the work environment are corrected based on the deviation, and the corresponding design data in the work environment corresponding to the deviation are corrected. A position / orientation detection method characterized by performing either one of correction and correction.
【請求項3】 予め、作業対象物と該作業対象物を加工
処理する加工装置とこれらの周辺装置とを撮像し得る少
なくとも2台の情景検査手段を設置しておき、これら2
台の情景検査手段,作業対象物,加工装置,周辺装置か
らなる作業環境の各々の予測された時間での位置・姿勢
情景を、予め設計されたデータに基づいて画像として疑
似的に生成し、次いで、作業環境がその疑似的画像を生
成した時間軸に達したとき、実際の作業環境を各情景検
査手段によって撮像すると共に、該実際に撮像した作業
環境のデータと疑似的画像を生成したデータを比較して
両者にずれがあったとき、該ずれに基づいて作業環境内
の各々の位置・姿勢を修正することと、前記ずれの分だ
け作業環境内の対応する各々の設計データを修正するこ
ととの何れか一方を行い、以下、上記疑似的に生成する
処理と作業環境内の各々の位置・姿勢を修正する処理と
を作業環境内の各々のが一つの特定動作を行うごとに実
行することを特徴とする位置・姿勢検出方法。
3. At least two scene inspection means capable of imaging a work target, a processing device for processing the work target, and peripheral devices thereof are installed in advance, and these 2
The position / orientation scene at each predicted time of the work environment including the scene inspection means of the table, the work object, the processing device, and the peripheral device is pseudo-generated as an image based on predesigned data. Then, when the work environment reaches the time axis at which the pseudo image was generated, the actual work environment is imaged by each scene inspection means, and the data of the work environment actually imaged and the data that generated the pseudo image are generated. If there is a deviation between the two, the respective positions / postures in the work environment are corrected based on the deviation, and the corresponding design data in the work environment is corrected by the amount of the deviation. Either of the above is performed, and thereafter, the pseudo generation process and the process of correcting each position / orientation in the work environment are executed each time each of the work environments performs one specific operation. Characterized by Position and orientation detection method.
【請求項4】 前記実際に撮像した作業環境のデータ
は、一枚の広角度かつ高精度画像であることを特徴とす
る請求項1〜3の何れか一項であることを特徴とする位
置・姿勢検出方法。
4. The position according to claim 1, wherein the data of the work environment actually captured is one wide-angle and high-accuracy image. -Attitude detection method.
【請求項5】 作業環境中にある被撮影物の位置・姿勢
を決定する位置・姿勢検出装置において、 上記被撮影物を撮影する情景検出手段と、該情景検出手
段の実際の位置を示す実データと、上記被撮影物につい
ての設計上の位置・姿勢を示す設計データを格納された
記憶手段と、上記被撮影物が上記設計上の位置・姿勢に
あったと仮定した場合、上記情景検出手段が撮影してい
るであろう画像を、上記実データおよび上記設計データ
を用いて疑似的に作成し、該疑似的に作成した画像上に
おける被撮影物上の各特徴点の位置と、上記被撮影物を
上記情景検出手段が実際に撮影した画像上における当該
被撮影物上の上記各特徴点と対応する各特徴点の位置と
のずれを抽出し、該ずれに基づいて上記被撮影物の位置
・姿勢を修正することと前記ずれの分だけ上記被撮影物
の設計データを修正することとの何れか一方を実行する
手段とを有することを特徴とする位置・姿勢検出装置。
5. A position / orientation detecting device for determining the position / orientation of an object to be photographed in a work environment, wherein a scene detecting means for photographing the object to be photographed and an actual position indicating the actual position of the scene detecting means. If it is assumed that the data and design data indicating the design position / orientation of the object to be photographed are stored, and the object to be photographed is in the design position / orientation, the scene detection means An image that is likely to be captured by using the actual data and the design data is pseudo-created, and the position of each feature point on the object to be captured on the pseudo-created image and the A shift between the position of each feature point corresponding to each feature point on the subject and the position of each feature point on the image actually captured by the scene detection means on the subject is extracted, and the subject is photographed based on the shift. Correcting the position / posture and the above Amount corresponding position and posture detecting device, characterized in that it comprises a means for executing one of the modifying the design data of the object to be photographed of.
【請求項6】 作業対象物,該作業対象物を加工処理す
る加工装置,これらの周辺装置,該作業対象物と加工装
置と周辺装置とを撮像し得る少なくとも2台の情景検査
手段を有する作業環境と、作業対象物,加工装置,周辺
装置,各情景検査手段の形状や特徴点に関する情報を格
納した設計データ記憶装置と、作業対象物,加工装置,
周辺装置,各情景検査手段に対する作業手順データ,作
業工程データ,動作経路データを夫々格納した作業計画
データ記憶装置と、設計データ記憶装置及び作業計画デ
ータ記憶装置に格納されたデータに基づき、作業環境内
の各々の予め予測された時間での位置・姿勢情景を疑似
的に生成し、その疑似的に生成した時間軸に達したと
き、実際の作業環境を各情景検査手段によって撮像する
と共に、該撮像データを疑似的に生成した作業環境の各
々の位置・姿勢情景と比較して作業環境の各々の位置・
姿勢のずれを検出し、その検出したずれを吸収する方向
に作業環境内の各々の位置・姿勢を修正する組立ステー
ション制御手段とを有することを特徴とする位置・姿勢
検出装置。
6. A work having a work target, a processing device for processing the work target, peripheral devices thereof, and at least two scene inspection means capable of imaging the work target, the processing device, and the peripheral device. A design data storage device that stores information about the environment, the work object, the processing device, the peripheral device, the shape and characteristic points of each scene inspection means, the work object, the processing device,
A work environment based on a work plan data storage device that stores work procedure data, work process data, and motion path data for peripheral devices and each scene inspection means, and data stored in the design data storage device and work plan data storage device. The position / orientation scene at each of the pre-predicted times of the inside is pseudo-generated, and when the pseudo-generated time axis is reached, the actual work environment is imaged by each scene inspection means, and Each position / posture of the work environment is compared with each position / orientation scene of the work environment in which the imaging data is artificially generated.
A position / orientation detecting device comprising: an assembly station control means for detecting a deviation of the attitude and correcting each position / orientation in the work environment in a direction to absorb the detected deviation.
【請求項7】 作業対象物,該作業対象物を加工処理す
る加工装置,これらの周辺装置,該作業対象物と加工装
置と周辺装置とを撮像し得る少なくとも2台の情景検査
手段を有する作業環境と、作業対象物,加工装置,周辺
装置,各情景検査手段の形状や特徴点に関する情報を格
納した設計データ記憶装置と、作業対象物,加工装置,
周辺装置,各情景検査手段に対する作業手順データ,作
業工程データ,動作経路データを夫々格納した作業計画
データ記憶装置と、設計データ記憶装置及び作業計画デ
ータ記憶装置に格納されたデータに基づき、作業環境内
の各々の予め予測された時間での位置・姿勢情景を疑似
的に生成し、その疑似的に生成した時間軸に達したと
き、実際の作業環境を各情景検査手段によって撮像する
と共に、該撮像データを疑似的に生成した作業環境の各
々の位置・姿勢情景と比較して作業環境の各々の位置・
姿勢のずれを検出し、その検出したずれを吸収する方向
に作業環境内の各々の位置・姿勢を修正する組立ステー
ション制御手段とを有し、かつ該組立ステーション制御
手段は、設計データ記憶装置及び作業計画データ記憶装
置に基づいて作業中の特定時間における作業環境情景を
疑似的に生成する疑似作業環境情景生成部と、作業中の
特定時間と同一時間軸に達したとき、各情景検査手段に
よって撮像された実際の撮像データに基づいて一枚の高
精度画像を合成する画像合成部と、疑似作業環境情景生
成部による疑似的作業環境情景及び画像合成部による高
精度画像とを比較し、作業環境内の各々の位置・姿勢の
ずれを検出する作業環境情景理解部と、該作業環境情景
理解部からの指令により作業環境内の位置ずれを吸収す
べく作業対象物,加工装置,周辺装置,各情景検査手段
を選択的に駆動する動作指令生成部とを有することを特
徴とする位置・姿勢検出装置。
7. A work having a work object, a processing device for processing the work object, peripheral devices thereof, and at least two scene inspection means capable of imaging the work object, the processing device and the peripheral device. A design data storage device that stores information about the environment, the work object, the processing device, the peripheral device, the shape and characteristic points of each scene inspection means, the work object, the processing device,
A work environment based on a work plan data storage device that stores work procedure data, work process data, and motion path data for peripheral devices and each scene inspection means, and data stored in the design data storage device and work plan data storage device. The position / orientation scene at each of the pre-predicted times of the inside is pseudo-generated, and when the pseudo-generated time axis is reached, the actual work environment is imaged by each scene inspection means, and Each position / posture of the work environment is compared with each position / orientation scene of the work environment in which the imaging data is artificially generated.
An assembly station control means for detecting a deviation of the posture and correcting each position / posture in the work environment in a direction to absorb the detected deviation, and the assembly station control means comprises a design data storage device and A pseudo work environment scene generation unit for pseudo generating a work environment scene at a specific time during work based on the work plan data storage device, and when each scene inspecting means reaches the same time axis as the specific time during work The image combining unit that combines one high-precision image based on the actual captured image data is compared with the high-precision image by the pseudo-work environment scene and image combining unit by the pseudo-work environment scene generating unit, and the work is performed. A work environment scene understanding unit that detects each position / orientation deviation in the environment, and a work object that absorbs the position deviation in the work environment according to a command from the work environment scene understanding unit, Engineering system, peripheral device, the position and posture detecting device characterized by having an operation command generating unit for selectively driving each scene inspection means.
【請求項8】 前記作業環境内の各情景検出手段のう
ち、少なくとも一方が姿勢変更装置に設置されたテレビ
カメラで構成され、かつ該姿勢変更装置は、軸周りに回
転可能な第1の回転軸と、出力部が第1の回転軸の出力
部に直交して配置されると共に、前記テレビカメラを取
付けた第2の回転軸とを有し、第1の回転軸出力部の中
心線と第2の回転軸出力部の中心線との互いに交差する
位置にテレビカメラにおけるカメラレンズの中心軸を配
置すると共に、カメラレンズの回転中心を一致させ、し
かも、その一致する位置にカメラレンズの主点が一致す
るように配置されていることを特徴とする請求項6また
は7記載の位置・姿勢検出装置。
8. At least one of the scene detection means in the work environment is composed of a television camera installed in an attitude changing device, and the attitude changing device is a first rotation rotatable about an axis. An axis and an output part disposed orthogonally to the output part of the first rotation shaft and having a second rotation shaft to which the television camera is attached, and a center line of the first rotation shaft output part. The center axis of the camera lens in the television camera is arranged at a position intersecting with the center line of the second rotation axis output section, the rotation center of the camera lens is made to coincide, and the main position of the camera lens is made to coincide with the center. The position / orientation detection device according to claim 6 or 7, wherein the points are arranged so as to coincide with each other.
【請求項9】 前記作業環境内の各情景検出手段のう
ち、少なくとも一方が姿勢変更装置に設置されたテレビ
カメラで構成され、かつ該姿勢変更装置は、軸周りに回
転可能な第1の回転軸と、出力部が第1の回転軸の出力
部に直交して配置された第2の回転軸と、出力部が第2
の回転軸の出力部に対し該第2の回転軸及び第1の回転
軸と直交して取付けられると共に、前記テレビカメラを
取付けた第3の回転軸とを有し、第1の回転軸出力部の
中心線と第2の回転軸出力部の中心線と第3の回転軸出
力部の中心線との互いに交差する位置に、テレビカメラ
におけるカメラレンズの中心軸を配置すると共に、カメ
ラレンズの回転中心を一致させ、しかも、その一致する
位置にカメラレンズの主点が一致するように配置し、カ
メラレンズが主点位置を中心に姿勢変更するように構成
したことを特徴とする請求項6または7記載の位置・姿
勢変更装置。
9. At least one of the scene detection means in the work environment is composed of a television camera installed in the attitude changing device, and the attitude changing device is a first rotation rotatable about an axis. An axis, a second rotating shaft whose output part is arranged orthogonal to the output part of the first rotating shaft, and an output part which is the second rotating shaft.
And a third rotary shaft to which the television camera is mounted, the first rotary shaft having a second rotary shaft and a third rotary shaft which are mounted orthogonal to the second rotary shaft and the first rotary shaft. The center axis of the camera lens of the television camera is arranged at a position where the center line of the camera section, the center line of the second rotation axis output section, and the center line of the third rotation axis output section intersect with each other. 7. The constitution is such that the rotation centers are made to coincide with each other, and the principal points of the camera lens are arranged so as to coincide with each other so that the camera lens changes its posture around the principal point position. Or the position / orientation changing device described in 7.
【請求項10】 前記作業環境内の各情景検出手段のう
ち、少なくとも一方が姿勢変更装置に設置されたテレビ
カメラで構成され、かつ該姿勢変更装置は、軸周りに回
転可能な第1の回転軸と、出力部が第1の回転軸の出力
部に直交して配置された第2の回転軸と、出力部が第2
の回転軸の出力部に対し該第2の回転軸及び第1の回転
軸と直交する方向に直線移動可能に取付けられると共
に、移動方向に沿い前記テレビカメラを取付けた直線移
動軸とを有し、第1の回転軸出力部の中心線と第2の回
転軸出力部の中心線との互いに交差する位置にテレビカ
メラにおけるカメラレンズの中心軸を配置すると共に、
カメラレンズの回転中心を一致させ、しかも、その一致
する位置にカメラレンズの主点が一致するように配置
し、カメラレンズが主点位置を中心に姿勢変更するよう
に構成したことを特徴とする請求項6または7記載の位
置・姿勢変更装置。
10. At least one of the scene detection means in the work environment is composed of a television camera installed in an attitude changing device, and the attitude changing device is a first rotation rotatable about an axis. An axis, a second rotating shaft whose output part is arranged orthogonal to the output part of the first rotating shaft, and an output part which is the second rotating shaft.
And a linear movement shaft on which the television camera is attached along the movement direction, the linear movement shaft being attached so as to be linearly movable in a direction orthogonal to the second rotation axis and the first rotation axis with respect to the output portion of the rotation axis. , The center axis of the camera lens in the television camera is arranged at a position where the center line of the first rotary shaft output portion and the center line of the second rotary shaft output portion intersect with each other,
It is characterized in that the center of rotation of the camera lens is made to coincide with each other, and the principal points of the camera lens are arranged so as to coincide with each other, and the camera lens is changed in posture about the principal point position. The position / orientation changing device according to claim 6.
【請求項11】 前記作業環境内の各情景検出手段のう
ち、少なくとも一方が姿勢変更装置に設置されたテレビ
カメラで構成され、かつ該姿勢変更装置は、軸周りに回
転可能な第1の回転軸と、出力部が第1の回転軸の出力
部に直交して配置された第2の回転軸と、出力部が第2
の回転軸の出力部に対し該第2の回転軸及び第1の回転
軸と直交する方向に直線移動可能に取付けられた直線移
動軸と、出力部が直線移動軸の出力部に対し該出力部の
直線移動方向に沿って配置されると共に、前記テレビカ
メラを取付けた第3の回転軸とを有し、第1の回転軸出
力部の中心線と第2の回転軸出力部の中心線と第3の回
転出力部の中心線との互いに交差する位置に、テレビカ
メラにおけるカメラレンズの中心軸を配置すると共に、
カメラレンズの回転中心を一致させ、しかも、その一致
する位置にカメラレンズの主点が一致するように配置
し、カメラレンズが主点位置を中心に姿勢変更するよう
に構成したことを特徴とする請求項6または7記載の位
置・姿勢変更装置。
11. At least one of the scene detection means in the work environment is composed of a television camera installed in an attitude changing device, and the attitude changing device is a first rotation rotatable about an axis. An axis, a second rotating shaft whose output part is arranged orthogonal to the output part of the first rotating shaft, and an output part which is the second rotating shaft.
A linear movement shaft mounted so as to be linearly movable in a direction orthogonal to the second rotation axis and the first rotation axis with respect to the output section of the rotation axis, and the output section outputs the output to the output section of the linear movement axis. And a third rotation shaft to which the television camera is attached, the center line of the first rotation shaft output part and the center line of the second rotation shaft output part being arranged along the linear movement direction of the part. And the center axis of the camera lens in the TV camera is arranged at a position where the center line of the third rotation output section and the center line of the third rotation output section intersect with each other.
It is characterized in that the center of rotation of the camera lens is made to coincide with each other, and the principal points of the camera lens are arranged so as to coincide with each other, and the camera lens is changed in posture about the principal point position. The position / orientation changing device according to claim 6.
【請求項12】 作業対象物,該作業対象物を加工処理
する加工装置,これらの周辺装置,該作業対象物と加工
装置と周辺装置とを撮像し得る少なくとも2台の情景検
査手段を有する作業環境と、作業対象物,加工装置,周
辺装置,各情景検査手段の形状や特徴点に関する情報を
格納した設計データ記憶装置と、作業対象物,加工装
置,周辺装置,各情景検査手段に対する作業手順デー
タ,作業工程データ,動作経路データを夫々格納した作
業計画データ記憶装置と、設計データ記憶装置及び作業
計画データ記憶装置に格納されたデータに基づき、作業
環境内の各々の予め予測された時間での位置・姿勢情景
を疑似的に生成し、その疑似的に生成した時間軸に達し
たとき、実際の作業環境を各情景検査手段によって撮像
すると共に、該撮像データを疑似的に生成した作業環境
の各々の位置・姿勢情景と比較して作業環境の各々の位
置・姿勢のずれを検出し、その検出したずれを吸収する
方向に作業環境内の各々の位置・姿勢を修正する組立ス
テーション制御手段とを有する位置・姿勢検出装置を備
えたことを特徴とするフレキシブル生産システム。
12. A work having a work target, a processing device for processing the work target, peripheral devices thereof, and at least two scene inspection means capable of imaging the work target, the processing device and the peripheral device. Design data storage device that stores information about the environment and the work object, processing device, peripheral device, shape and feature points of each scene inspection means, and work procedure for the work object, processing device, peripheral device, and each scene inspection means Based on the work plan data storage device that stores data, work process data, and motion path data, and the data stored in the design data storage device and the work plan data storage device, at each predicted time in the work environment. The position / orientation scene of the above is pseudo-generated, and when the pseudo-generated time axis is reached, the actual work environment is imaged by each scene inspection means, and Of each position / orientation of the work environment by comparing each position / orientation scene of the work environment in which the simulated data is generated, and each position in the work environment in the direction of absorbing the detected misalignment. A flexible production system comprising a position / attitude detection device having an assembly station control means for correcting the attitude.
【請求項13】 作業対象物,該作業対象物を加工処理
する加工装置,これらの周辺装置,該作業対象物と加工
装置と周辺装置とを撮像し得る少なくとも2台の情景検
査手段を有する作業環境と、作業対象物,加工装置,周
辺装置,各情景検査手段の形状や特徴点に関する情報を
格納した設計データ記憶装置と、作業対象物,加工装
置,周辺装置,各情景検査手段に対する作業手順デー
タ,作業工程データ,動作経路データを夫々格納した作
業計画データ記憶装置と、設計データ記憶装置及び作業
計画データ記憶装置に格納されたデータに基づき、作業
環境内の各々の予め予測された時間での位置・姿勢情景
を疑似的に生成し、その疑似的に生成した時間軸に達し
たとき、実際の作業環境を各情景検査手段によって撮像
すると共に、該撮像データを疑似的に生成した作業環境
の各々の位置・姿勢情景と比較して作業環境の各々の位
置・姿勢のずれを検出し、その検出したずれを吸収する
方向に作業環境内の各々の位置・姿勢を修正する組立ス
テーション制御手段とを有し、かつ該組立ステーション
制御手段は、設計データ記憶装置及び作業計画データ記
憶装置に基づいて作業中の特定時間における作業環境情
景を疑似的に生成する疑似作業環境情景生成部と、作業
中の特定時間と同一時間軸に達したとき、各情景検査手
段によって撮像された実際の撮像データに基づいて一枚
の高精度画像を合成する画像合成部と、疑似作業環境情
景生成部による疑似的作業環境情景及び画像合成部によ
る高精度画像とを比較し、作業環境内の各々の位置・姿
勢のずれを検出する作業環境情景理解部と、該作業環境
情景理解部からの指令により作業環境内の位置ずれを吸
収すべく作業対象物,加工装置,周辺装置,各情景検査
手段を選択的に駆動する動作指令生成部とを有する位置
・姿勢検出装置を備えたことを特徴とするフレキシブル
生産システム。
13. A work having a work target, a processing device for processing the work target, peripheral devices thereof, and at least two scene inspection means capable of imaging the work target, the processing device and the peripheral device. Design data storage device that stores information about the environment and the work object, processing device, peripheral device, shape and feature points of each scene inspection means, and work procedure for the work object, processing device, peripheral device, and each scene inspection means Based on the work plan data storage device that stores data, work process data, and motion path data, and the data stored in the design data storage device and the work plan data storage device, at each predicted time in the work environment. The position / orientation scene of the above is pseudo-generated, and when the pseudo-generated time axis is reached, the actual work environment is imaged by each scene inspection means, and Of each position / orientation of the work environment by comparing each position / orientation scene of the work environment in which the simulated data is generated, and each position in the work environment in the direction of absorbing the detected misalignment. And an assembly station control means for correcting the posture, and the assembly station control means artificially generates a work environment scene at a specific time during work based on the design data storage device and the work plan data storage device. A pseudo work environment scene generation unit, and an image composition unit that composes one high-precision image based on the actual imaging data imaged by each scene inspection means when the same time axis as the specific time during work is reached. , A work environment scene understanding unit that detects the deviation of each position / posture in the work environment by comparing the pseudo work environment scene generated by the pseudo work environment scene generation unit and the high-precision image by the image synthesis unit. Position / orientation including a work object, a processing device, a peripheral device, and an operation command generation unit that selectively drives each scene inspection means in order to absorb a positional deviation in the work environment according to a command from the work environment scene understanding unit. A flexible production system including a detection device.
【請求項14】 前記位置・姿勢検出装置における作業
環境内の各情景検出手段のうち、少なくとも一方が姿勢
変更装置に設置されたテレビカメラで構成され、かつ該
姿勢変更装置は、軸周りに回転可能な第1の回転軸と、
出力部が第1の回転軸の出力部に直交して配置されると
共に、前記テレビカメラを取付けた第2の回転軸とを有
し、第1の回転軸出力部の中心線と第2の回転軸出力部
の中心線との互いに交差する位置にテレビカメラにおけ
るカメラレンズの中心軸を配置すると共に、カメラレン
ズの回転中心を一致させ、しかも、その一致する位置に
カメラレンズの主点が一致するように配置されているこ
とを特徴とする請求項12または13記載のフレキシブ
ル生産システム。
14. At least one of the scene detecting means in the work environment in the position / orientation detecting device is composed of a television camera installed in the attitude changing device, and the attitude changing device rotates about an axis. A possible first axis of rotation,
The output unit is arranged orthogonal to the output unit of the first rotation shaft, and has a second rotation shaft on which the television camera is attached, and the center line of the first rotation shaft output unit and the second rotation shaft are provided. The center axis of the camera lens of the TV camera is placed at a position that intersects with the center line of the rotation axis output section, the rotation center of the camera lens is made to coincide, and the principal point of the camera lens is made to coincide with that position. The flexible production system according to claim 12 or 13, wherein the flexible production system is arranged as follows.
【請求項15】 前記位置・姿勢検出装置における作業
環境内の各情景検出手段のうち、少なくとも一方が姿勢
変更装置に設置されたテレビカメラで構成され、かつ該
姿勢変更装置は、軸周りに回転可能な第1の回転軸と、
出力部が第1の回転軸の出力部に直交して配置された第
2の回転軸と、出力部が第2の回転軸の出力部に対し該
第2の回転軸及び第1の回転軸と直交して取付けられる
と共に、前記テレビカメラを取付けた第3の回転軸とを
有し、第1の回転軸出力部の中心線と第2の回転軸出力
部の中心線と第3の回転軸出力部の中心線との互いに交
差する位置に、テレビカメラにおけるカメラレンズの中
心軸を配置すると共に、カメラレンズの回転中心を一致
させ、しかも、その一致する位置にカメラレンズの主点
が一致するように配置し、カメラレンズが主点位置を中
心に姿勢変更するように構成したことを特徴とする請求
項12または13記載のフレキシブル生産システム。
15. At least one of the scene detecting means in the work environment in the position / orientation detecting device is composed of a television camera installed in the attitude changing device, and the attitude changing device rotates about an axis. A possible first axis of rotation,
A second rotary shaft having an output portion arranged orthogonal to the output portion of the first rotary shaft, and the output portion having the second rotary shaft and the first rotary shaft relative to the output portion of the second rotary shaft. And a third rotation shaft on which the television camera is mounted, the center line of the first rotation shaft output unit, the center line of the second rotation shaft output unit, and the third rotation shaft. The center axis of the camera lens in the TV camera is placed at a position that intersects with the center line of the axis output section, the center of rotation of the camera lens is aligned, and the principal point of the camera lens is aligned at the aligned position. 14. The flexible production system according to claim 12, wherein the camera lens is arranged so as to change the posture around the principal point position.
【請求項16】 前記位置・姿勢検出装置における作業
環境内の各情景検出手段のうち、少なくとも一方が姿勢
変更装置に設置されたテレビカメラで構成され、かつ該
姿勢変更装置は、軸周りに回転可能な第1の回転軸と、
出力部が第1の回転軸の出力部に直交して配置された第
2の回転軸と、出力部が第2の回転軸の出力部に対し該
第2の回転軸及び第1の回転軸と直交する方向に直線移
動可能に取付けられると共に、移動方向に沿い前記テレ
ビカメラを取付けた直線移動軸とを有し、第1の回転軸
出力部の中心線と第2の回転軸出力部の中心線との互い
に交差する位置にテレビカメラにおけるカメラレンズの
中心軸を配置すると共に、カメラレンズの回転中心を一
致させ、しかも、その一致する位置にカメラレンズの主
点が一致するように配置し、カメラレンズが主点位置を
中心に姿勢変更するように構成したことを特徴とする請
求項12または13記載のフレキシブル生産システム。
16. At least one of the scene detecting means in the work environment in the position / orientation detecting device is composed of a television camera installed in the attitude changing device, and the attitude changing device rotates about an axis. A possible first axis of rotation,
A second rotary shaft having an output portion arranged orthogonal to the output portion of the first rotary shaft, and the output portion having the second rotary shaft and the first rotary shaft relative to the output portion of the second rotary shaft. And a linear movement shaft on which the television camera is attached along the movement direction, and the center line of the first rotation shaft output unit and the second rotation shaft output unit are provided. The center axis of the camera lens in the TV camera is placed at the position where it intersects with the center line, the rotation center of the camera lens is aligned, and the principal point of the camera lens is aligned at the aligned position. 14. The flexible production system according to claim 12, wherein the camera lens is configured to change its posture around the principal point position.
【請求項17】 前記位置・姿勢検出装置における作業
環境内の各情景検出手段のうち、少なくとも一方が姿勢
変更装置に設置されたテレビカメラで構成され、かつ該
姿勢変更装置は、軸周りに回転可能な第1の回転軸と、
出力部が第1の回転軸の出力部に直交して配置された第
2の回転軸と、出力部が第2の回転軸の出力部に対し該
第2の回転軸及び第1の回転軸と直交する方向に直線移
動可能に取付けられた直線移動軸と、出力部が直線移動
軸の出力部に対し該出力部の直線移動方向に沿って配置
されると共に、前記テレビカメラを取付けた第3の回転
軸とを有し、第1の回転軸出力部の中心線と第2の回転
軸出力部の中心線と第3の回転出力部の中心線との互い
に交差する位置に、テレビカメラにおけるカメラレンズ
の中心軸を配置すると共に、カメラレンズの回転中心を
一致させ、しかも、その一致する位置にカメラレンズの
主点が一致するように配置し、カメラレンズが主点位置
を中心に姿勢変更するように構成したことを特徴とする
請求項12または13記載のフレキシブル生産システ
ム。
17. At least one of the scene detecting means in the work environment in the position / orientation detecting device is composed of a television camera installed in the attitude changing device, and the attitude changing device rotates about an axis. A possible first axis of rotation,
A second rotary shaft having an output portion arranged orthogonal to the output portion of the first rotary shaft, and the output portion having the second rotary shaft and the first rotary shaft relative to the output portion of the second rotary shaft. A linear movement shaft mounted so as to be linearly movable in a direction orthogonal to the output unit, and an output unit arranged along the linear movement direction of the output unit with respect to the output unit of the linear movement shaft, The television camera has three rotation shafts, and the center line of the first rotation shaft output unit, the center line of the second rotation shaft output unit, and the center line of the third rotation output unit intersect with each other. In addition to arranging the central axis of the camera lens in, the center of rotation of the camera lens is made to coincide, and the principal point of the camera lens is made to coincide with the coincident position. 13. The structure according to claim 12, wherein the structure is changed. 3 flexible manufacturing system according.
JP6318607A 1993-12-28 1994-12-21 Position-attitude detecting method and device thereof and flexible production system Pending JPH07237158A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6318607A JPH07237158A (en) 1993-12-28 1994-12-21 Position-attitude detecting method and device thereof and flexible production system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP33536293 1993-12-28
JP5-335362 1993-12-28
JP6318607A JPH07237158A (en) 1993-12-28 1994-12-21 Position-attitude detecting method and device thereof and flexible production system

Publications (1)

Publication Number Publication Date
JPH07237158A true JPH07237158A (en) 1995-09-12

Family

ID=26569428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6318607A Pending JPH07237158A (en) 1993-12-28 1994-12-21 Position-attitude detecting method and device thereof and flexible production system

Country Status (1)

Country Link
JP (1) JPH07237158A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104576A (en) * 2002-09-11 2004-04-02 Mitsubishi Heavy Ind Ltd Wearable device for working, and device, method and program for remotely indicating working
JP2004354134A (en) * 2003-05-28 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional position detector, three-dimensional position detecting method, and three-dimensional position detection program
JP2007136574A (en) * 2005-11-16 2007-06-07 Yaskawa Electric Corp Station, robot control device and robot system
WO2008026722A1 (en) * 2006-09-01 2008-03-06 Mori Seiki Co., Ltd. Three-dimensional model data generating method, and three-dimensional model data generating apparatus
JP2012133817A (en) * 2012-03-27 2012-07-12 Denso Wave Inc Image data generation device of simulation device
JP2013083505A (en) * 2011-10-07 2013-05-09 National Institute Of Information & Communication Technology Three-dimensional coordinate position estimating device, method and program thereof, three-dimensional coordinate estimating system, and camera calibration informative generator
WO2015108071A1 (en) * 2014-01-20 2015-07-23 正実 森 Three-dimensional data generation device, formed object production system, and three-dimensional data generation method
JP2018073377A (en) * 2016-11-04 2018-05-10 台湾國際物業管理顧問有限公司 Application system of total sensing positioning technique based on 3d information model
JP2019030925A (en) * 2017-08-07 2019-02-28 三菱重工業株式会社 Work system and working method of work system
JP2020097084A (en) * 2018-12-18 2020-06-25 ファナック株式会社 Robot system and adjustment method of the same
CN112276935A (en) * 2019-07-22 2021-01-29 发那科株式会社 Position and orientation determination device, position and orientation determination method, and position and orientation determination program
CN113205561A (en) * 2021-05-20 2021-08-03 清华大学 Rotating shaft pose detection method and device based on vision
US11373263B2 (en) 2018-11-26 2022-06-28 Canon Kabushiki Kaisha Image processing device capable of assisting with setting of work restoration, method of controlling the same, and recording medium

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104576A (en) * 2002-09-11 2004-04-02 Mitsubishi Heavy Ind Ltd Wearable device for working, and device, method and program for remotely indicating working
JP2004354134A (en) * 2003-05-28 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional position detector, three-dimensional position detecting method, and three-dimensional position detection program
JP2007136574A (en) * 2005-11-16 2007-06-07 Yaskawa Electric Corp Station, robot control device and robot system
US8335666B2 (en) 2006-09-01 2012-12-18 Intelligent Manufacturing Systems International Three-dimensional model data generating method, and three dimensional model data generating apparatus
WO2008026722A1 (en) * 2006-09-01 2008-03-06 Mori Seiki Co., Ltd. Three-dimensional model data generating method, and three-dimensional model data generating apparatus
JPWO2008026722A1 (en) * 2006-09-01 2010-01-21 株式会社森精機製作所 3D model data generation method and 3D model data generation apparatus
JP5049975B2 (en) * 2006-09-01 2012-10-17 株式会社森精機製作所 3D model data generation method and 3D model data generation apparatus
JP2013083505A (en) * 2011-10-07 2013-05-09 National Institute Of Information & Communication Technology Three-dimensional coordinate position estimating device, method and program thereof, three-dimensional coordinate estimating system, and camera calibration informative generator
JP2012133817A (en) * 2012-03-27 2012-07-12 Denso Wave Inc Image data generation device of simulation device
WO2015108071A1 (en) * 2014-01-20 2015-07-23 正実 森 Three-dimensional data generation device, formed object production system, and three-dimensional data generation method
JPWO2015108071A1 (en) * 2014-01-20 2017-03-23 正実 森 Three-dimensional data generation apparatus, three-dimensional object manufacturing system, and three-dimensional data generation method
JP2018073377A (en) * 2016-11-04 2018-05-10 台湾國際物業管理顧問有限公司 Application system of total sensing positioning technique based on 3d information model
JP2019030925A (en) * 2017-08-07 2019-02-28 三菱重工業株式会社 Work system and working method of work system
US11373263B2 (en) 2018-11-26 2022-06-28 Canon Kabushiki Kaisha Image processing device capable of assisting with setting of work restoration, method of controlling the same, and recording medium
JP2020097084A (en) * 2018-12-18 2020-06-25 ファナック株式会社 Robot system and adjustment method of the same
CN112276935A (en) * 2019-07-22 2021-01-29 发那科株式会社 Position and orientation determination device, position and orientation determination method, and position and orientation determination program
CN113205561A (en) * 2021-05-20 2021-08-03 清华大学 Rotating shaft pose detection method and device based on vision

Similar Documents

Publication Publication Date Title
US11396100B2 (en) Robot calibration for AR and digital twin
JP4021413B2 (en) Measuring device
CN106873550B (en) Simulation device and simulation method
JP6280525B2 (en) System and method for runtime determination of camera miscalibration
CN105073348B (en) Robot system and method for calibration
JP5852364B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2511246B2 (en) Robot control method
JP5670416B2 (en) Robot system display device
CN103302666A (en) Information processing apparatus and information processing method
JPH07237158A (en) Position-attitude detecting method and device thereof and flexible production system
Kim Computer vision assisted virtual reality calibration
WO2018043524A1 (en) Robot system, robot system control device, and robot system control method
CN107953333A (en) A kind of control method and system of arm end tool calibration
JP2682763B2 (en) Automatic measurement method of operation error of robot body
KR20130075712A (en) A laser-vision sensor and calibration method thereof
Schneider et al. Optical 3-D measurement systems for quality control in industry
Cauchois et al. Calibration of the omnidirectional vision sensor: SYCLOP
JPH06134691A (en) Positional detection and flexible production system using the same
Cauchois et al. Reconstruction with the calibrated syclop sensor
JPH0774964B2 (en) Robot positioning error correction method
JPH012104A (en) Robot positioning error correction method
JP2003271993A (en) Monitor image processing method, image monitoring system, and maintenance work system
CN116619350A (en) Robot error calibration method based on binocular vision measurement
Cagnoni et al. Hybrid stereo sensor with omnidirectional vision capabilities: Overview and calibration procedures
WO1995017995A1 (en) Position and attitude detecting method, apparatus for practicing the same, and flexible production system using the same apparatus