JP5204575B2 - Position measuring method and position measuring apparatus - Google Patents

Position measuring method and position measuring apparatus Download PDF

Info

Publication number
JP5204575B2
JP5204575B2 JP2008194321A JP2008194321A JP5204575B2 JP 5204575 B2 JP5204575 B2 JP 5204575B2 JP 2008194321 A JP2008194321 A JP 2008194321A JP 2008194321 A JP2008194321 A JP 2008194321A JP 5204575 B2 JP5204575 B2 JP 5204575B2
Authority
JP
Japan
Prior art keywords
data
master data
measurement
circle
position data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008194321A
Other languages
Japanese (ja)
Other versions
JP2010032339A (en
Inventor
正樹 房間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Priority to JP2008194321A priority Critical patent/JP5204575B2/en
Publication of JP2010032339A publication Critical patent/JP2010032339A/en
Application granted granted Critical
Publication of JP5204575B2 publication Critical patent/JP5204575B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B13/00Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00
    • B05B13/02Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work
    • B05B13/04Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work the spray heads being moved during spraying operation
    • B05B13/0431Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work the spray heads being moved during spraying operation with spray heads moved by robots or articulated arms, e.g. for applying liquid or other fluent material to 3D-surfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B12/00Arrangements for controlling delivery; Arrangements for controlling the spray area
    • B05B12/08Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means
    • B05B12/12Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus
    • B05B12/122Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus responsive to presence or shape of target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B13/00Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00
    • B05B13/02Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work
    • B05B13/0221Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work characterised by the means for moving or conveying the objects or other work, e.g. conveyor belts
    • B05B13/0264Overhead conveying means, i.e. the object or other work being suspended from the conveying means; Details thereof, e.g. hanging hooks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B13/00Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00
    • B05B13/02Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work
    • B05B13/04Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work the spray heads being moved during spraying operation
    • B05B13/0447Installation or apparatus for applying liquid or other fluent material to conveyed separate articles
    • B05B13/0452Installation or apparatus for applying liquid or other fluent material to conveyed separate articles the conveyed articles being vehicle bodies
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • G01B11/007Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines feeler heads therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/045Correction of measurements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45013Spraying, coating, painting

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Numerical Control (AREA)

Description

本発明は、対象物の位置を測定するための方法及び装置に関する。   The present invention relates to a method and apparatus for measuring the position of an object.

自動車の生産現場では、所定箇所まで搬送されて停止した車体に、防錆、防振、防音用のシーラ剤が塗装される。通常、この塗装作業はロボットアームに搭載されたシーリングガンを用いることによって自動化され、シーリングガンから吐出されるシーラ剤が車体の所定部位に塗布されるようロボットアームの駆動制御が実行されている。   At automobile production sites, a sealer for rust, vibration, and soundproofing is applied to a car body that has been transported to a predetermined location and stopped. Usually, this painting operation is automated by using a sealing gun mounted on the robot arm, and the drive control of the robot arm is executed so that the sealer discharged from the sealing gun is applied to a predetermined part of the vehicle body.

適切な部位にシーラ剤を塗装すべく車体の搬送や停止の制御を精密に実行すると多大なイニシャルコスト及びメンテナンスコストを要するため、車体の停止位置の精度は塗装作業で要求される精度よりも低くなりがちである。このため、ロボットアームを制御する装置は、まず停止した車体に設けられている基準点の位置を測定し、予め記憶されたマスターデータを測定された位置のずれ量に相当する補正値を算出する。ロボットアームの駆動制御はマスターデータをこの補正値を用いて補正することにより得られる位置データに基づいて実行され、これにより車体の停止位置の精度を過度に高くすることなくシーラ剤が適切な部位に塗布され得る(例えば、特許文献1参照)。   The precision of the vehicle stop position is lower than the accuracy required for the painting work because precise initial control and maintenance costs are required if the control of the transport and stop of the car body is performed precisely in order to apply the sealant to the appropriate part. It tends to be. For this reason, the apparatus for controlling the robot arm first measures the position of the reference point provided on the stopped vehicle body, and calculates a correction value corresponding to the measured position deviation amount from the master data stored in advance. . The drive control of the robot arm is executed based on the position data obtained by correcting the master data using this correction value, so that the sealer agent can be applied to an appropriate part without excessively increasing the accuracy of the stop position of the vehicle body. (For example, refer patent document 1).

特許文献1には、CAD値やCAM値等の理想的ではあるが机上の設計データをマスターデータとして利用し、このマスターデータを測定された三次元の位置データに応じて補正するよう構成された位置測定装置が開示されている。また、この位置測定装置は、6本のロボットアームの各々に1台ずつカメラが設けられて構成されている。これら6台のカメラは3組に分けられ、各組2台のカメラがステレオ視により基準点を撮像する。この撮像結果に基づいて3つの基準点の三次元の位置データを取得するようになっている。
特許第2767417号公報
Patent Document 1 is configured to use desk-top design data such as CAD values and CAM values as master data, but correct the master data according to the measured three-dimensional position data. A position measuring device is disclosed. In addition, this position measuring apparatus is configured such that one camera is provided for each of the six robot arms. These six cameras are divided into three groups, and two cameras in each group capture the reference point by stereo vision. Based on the imaging result, three-dimensional position data of the three reference points is acquired.
Japanese Patent No. 2767417

しかし、実際には、複数の鋼板を溶接してなる車体を設計データどおりに生産することは困難であるため、実際に生産された車体の寸法と設計データの寸法との間には不可避的な偏差がある。このため、特許文献1のように設計データをマスターデータとして利用すると、補正後のデータには実際の寸法と設計上の寸法との偏差が残ったままとなる。このようにマスターデータとして設計データを利用した場合には、特異解が発生して補正値を精度よく算出することが困難となり、シーラ剤の塗布位置がずれる場合がある。   However, in practice, it is difficult to produce a car body made by welding a plurality of steel plates according to the design data, so it is unavoidable between the dimensions of the car body actually produced and the dimensions of the design data. There is a deviation. For this reason, when the design data is used as master data as in Patent Document 1, the deviation between the actual dimension and the designed dimension remains in the corrected data. In this way, when design data is used as master data, it is difficult to accurately calculate a correction value due to the generation of a unique solution, and the application position of the sealer may be shifted.

しかも、特許文献1によると、ロボットアーム1台につきカメラが1台設けられており、別個のロボットアームに取り付けられた2台のカメラでステレオ視による画像を生成する構成となっている。ロボットアームにはカメラの重量や自重に基づいて鉛直下向きの撓みが不可避的に発生するため、この各ロボットアームの撓みによってステレオベースや挟角が所望の値から外れ、基準点の位置測定を高精度に行うことが困難となっている。ロボットアームの撓みを予め考慮したロボットアームの駆動制御を実行するとなると、制御内容が煩雑になってカメラのセッティングに要する時間が長くなる。このため、塗装作業に要する時間が長くなり、自動車の生産性に影響を及ぼすおそれがある。   In addition, according to Patent Document 1, one camera is provided for each robot arm, and a stereo image is generated by two cameras attached to separate robot arms. Since the robot arm inevitably bends downward in the vertical direction based on the weight of the camera and its own weight, the deflection of each robot arm causes the stereo base and the included angle to deviate from the desired values, thereby increasing the position measurement of the reference point. It has become difficult to perform accurately. If the robot arm drive control is performed in consideration of the bending of the robot arm in advance, the control content becomes complicated and the time required for setting the camera becomes longer. For this reason, the time required for the painting work becomes longer, which may affect the productivity of the automobile.

そこで本発明は、対象物の位置の測定を精度よく行うこと、さらには対象物の位置データの補正を精度よく行うことを目的としている。   Therefore, an object of the present invention is to accurately measure the position of an object and further to accurately correct position data of the object.

本発明に係る位置測定方法は、対象物を実測して得た位置データに基づき該対象物の位置の基準となるマスターデータに対する補正値を算出し、該マスターデータに補正値を加味した補正位置データに基づいて前記対象物の所定部位に作業を行う構成の装置に適用される位置測定方法であって、対象物の複数のサンプル各々に設けられている複数の基準点の位置を測定して基準点の位置データを取得する事前測定ステップと、該事前測定ステップで取得された前記各サンプルの複数の基準点の位置データに基づいて該複数の基準点の各々について前記マスターデータを事前に算出する事前算出ステップと、対象物に設けられている複数の基準点の位置を測定して基準点の位置データを取得する実測ステップと、該実測ステップで取得された前記位置データに基づいて前記事前算出ステップで算出されたマスターデータに対する補正値を算出する補正値算出ステップとを有し、前記補正値算出ステップが、前記マスターデータ間の位置関係を、前記各マスターデータが通る第1の円によって定義するステップと、前記実測ステップで測定された各基準点間の位置関係を、各基準点が通る第2の円によって定義するステップと、前記第1の円を規定する第1の座標系を前記第2の円を規定する第2の座標系に変換するための座標変換量を算出するステップと、式L1(φ) +L2(φ) +……+Ln(φ) が最小値をとるときの角度φを求めるステップとを有し、ここで、φは、前記第1の円の法線周りに回転したときの回転角、Ln(φ)は、前記第1の円が角度φだけ法線回りに回転したときの、n個目のマスターデータと該n個目のマスターデータと対応する基準点の位置データとの間の距離であり、更に、前記座標変換量及び前記角度φを前記補正値として算出するステップを有することを特徴としている。 The position measurement method according to the present invention calculates a correction value for master data serving as a reference for the position of the object based on position data obtained by actually measuring the object, and a correction position in which the correction value is added to the master data. A position measurement method applied to an apparatus configured to work on a predetermined part of the object based on data, wherein the position of a plurality of reference points provided in each of a plurality of samples of the object is measured. A pre-measurement step for acquiring position data of each reference point, and the master data for each of the plurality of reference points in advance based on the position data of the plurality of reference points of each sample acquired in the pre-measurement step and pre-calculating step of calculating, the measured steps of measuring the positions of a plurality of reference points provided on the object to obtain position data of each reference point, obtained in said actual measuring step Have a correction value calculation step of calculating a correction value for the master data calculated by the pre-calculation step on the basis of the position data, the correction value calculation step, the positional relationship between the master data, each Defining a first circle through which the master data passes, defining a positional relationship between each reference point measured in the actual measurement step with a second circle through which each reference point passes, and the first circle Calculating a coordinate conversion amount for converting the first coordinate system that defines the second circle into the second coordinate system that defines the second circle, and the expression L1 (φ) 2 + L2 (φ) 2 +. + Ln (φ) 2 to obtain an angle φ when 2 takes a minimum value, where φ is a rotation angle when rotating around the normal of the first circle, and Ln (φ) is The first circle is normal times by an angle φ Is the distance between the n-th master data and the position data of the reference point corresponding to the n-th master data, and the coordinate transformation amount and the angle φ are the correction values. It is characterized in that have a step of calculating a.

かかる構成によれば、対象物のサンプルを利用して対象物の基準点の位置の基準となるマスターデータが作成され、実測された位置データに基づいて該マスターデータを補正するための補正値が算出される。このように、理想的な設計データをマスターデータとして用いるのではなく、実測によって取得したデータをマスターデータとして利用し、同じく実測された位置データに基づいて補正値を算出し、この補正値に従ってマスターデータを補正して取得されたデータに基づいて対象物に対する作業を行うようになっている。このため、対象物に対する作業を正確に行うことができるようになる。また、最小二乗法を利用して補正値が算出されており、複数の基準点それぞれについてバランスよく補正することができるようになる。 According to this configuration, master data serving as a reference for the position of the reference point of the object is created using the sample of the object, and a correction value for correcting the master data based on the actually measured position data is provided. Calculated. In this way, ideal design data is not used as master data, but data obtained by actual measurement is used as master data, and a correction value is calculated based on position data that is also actually measured. Work is performed on the object based on the data obtained by correcting the data. For this reason, the operation | work with respect to a target object can be performed correctly. In addition, the correction value is calculated using the least square method, and correction can be performed with a good balance for each of the plurality of reference points.

前記事前測定ステップにおいて、ステレオ視により前記サンプルを撮影した一対の画像に基づいて、三次元の前記位置データが取得され、前記実測ステップにおいて、ステレオ視により前記対象物を撮影した一対の画像に基づいて、三次元の前記位置データが取得されてもよい。かかる構成によれば、三次元の位置データが取得され、高度な位置測定が実現される。   In the preliminary measurement step, the three-dimensional position data is acquired based on a pair of images obtained by photographing the sample by stereo vision. In the actual measurement step, the pair of images obtained by photographing the object by stereo vision is obtained. Based on this, the three-dimensional position data may be acquired. According to this configuration, three-dimensional position data is acquired, and advanced position measurement is realized.

前記事前算出ステップにおいて、前記マスターデータが各サンプルの基準点の位置データを平均することによって算出されてもよい。かかる構成によれば、マスターデータの算出を平易に行うことができるとともに、サンプル数を増やすことによって信頼性の高いデータを作成することができるようになる。   In the pre-calculation step, the master data may be calculated by averaging position data of reference points of each sample. According to such a configuration, it is possible to easily calculate master data, and it is possible to create highly reliable data by increasing the number of samples.

本発明に係る位置測定装置は、測定対象物の位置の基準となるマスターデータを記憶する記憶部と、対象物に設けられた複数の基準点の位置を測定して位置データを取得する測定部と、該測定部で取得された位置データに基づいて前記マスターデータを補正するための補正値算出部とを有する位置測定装置であって、測定対象物の実測の事前に、前記測定部により前記測定対象物の複数のサンプルの各々に設けられた複数の基準点の位置が測定されて各サンプルの複数の基準点の位置データが取得され、前記記憶部に該取得された各位置データに基づいて算出された前記マスターデータが記憶され、測定対象物の実測時に、前記補正値算出部が、前記記憶部に記憶された前記マスターデータを、実測された測定対象物の基準点の位置データに基づいて補正する構成であり、前記補正値算出部は、前記マスターデータ間の位置関係を、前記各マスターデータが通る第1の円によって定義し、実測された各基準点間の位置関係を各基準点が通る第2の円によって定義し、前記第1の円を規定する第1の座標系を前記第2の円を規定する第2の座標系に変換するための座標変換量を算出し、式L1(φ) +L2(φ) +……+Ln(φ) が最小値をとるときの角度φを求め、前記座標変換量及び前記角度φを補正値として算出し、ここで、φは、前記第1の円の法線周りに回転したときの回転角、Ln(φ)は、前記第1の円が角度φだけ法線回りに回転したときの、n個目のマスターデータと該n個目のマスターデータと対応する基準点の位置データとの間の距離であることを特徴としている。かかる装置においても上記同様の作用を生じる。 A position measuring device according to the present invention includes a storage unit that stores master data that serves as a reference for the position of a measurement object, and a measurement unit that measures position of a plurality of reference points provided on the object to obtain position data. And a correction value calculation unit for correcting the master data based on the position data acquired by the measurement unit, the measurement unit by the measurement unit prior to actual measurement of the measurement object The position of a plurality of reference points provided in each of the plurality of samples of the measurement object is measured, and the position data of the plurality of reference points of each sample is acquired. Based on the acquired position data in the storage unit The calculated master data is stored, and at the time of actual measurement of the measurement object, the correction value calculation unit converts the master data stored in the storage unit into the position data of the reference point of the measured measurement object. Ri configuration der for correcting Zui, the correction value calculation unit, a positional relationship between said master data, said defined by a first circle which each master data passes, the positional relationship between the reference points is measured Defined by a second circle through which each reference point passes, and calculates a coordinate conversion amount for converting the first coordinate system defining the first circle to the second coordinate system defining the second circle Then, the angle L when the expression L1 (φ) 2 + L2 (φ) 2 +... + Ln (φ) 2 takes the minimum value is obtained, and the coordinate transformation amount and the angle φ are calculated as correction values. , Φ is the rotation angle when rotating around the normal of the first circle, and Ln (φ) is the nth master when the first circle is rotated around the normal by the angle φ the distance der Rukoto between data and said of n-th master data and the position data of the corresponding reference points characterized ing. Even in such a device, the same operation as described above occurs.

前記基準点をステレオ視により撮影する第1及び第2のカメラを備え、前記測定部は該第1及び第2のカメラで撮影された一対の画像に基づいて基準点の位置データを測定するよう構成されており、該第1及び第2のカメラが、単一のロボットアームに取り付けられていることが好ましい。かかる構成によれば、同一のロボットアームにステレオ視するカメラが取り付けられることにより、ロボットアームに撓みが発生してもステレオベースや挟角が変更されることはない。したがって、ステレオ視により撮影した画像に基づく位置測定を高精度に行うことができるようになる。   First and second cameras for photographing the reference point by stereo vision are provided, and the measurement unit measures position data of the reference point based on a pair of images photographed by the first and second cameras. Preferably, the first and second cameras are attached to a single robot arm. According to such a configuration, the stereo base and the included angle are not changed even if the robot arm is bent by attaching the stereo camera to the same robot arm. Therefore, position measurement based on an image captured by stereo vision can be performed with high accuracy.

前記ロボットアームに、前記補正部により補正された位置データに基づいて対象物に所定の作業を行う作業装置が搭載されていることを特徴とする請求項7に記載の位置測定装置。かかる構成によれば、撮像結果に基づく位置の測定及び位置データの補正処理の終了後ただちに所定の作業に移行することができ、位置計測を利用した作業に要する時間の短縮化を図ることができる。   The position measuring device according to claim 7, wherein a working device that performs a predetermined work on an object based on the position data corrected by the correction unit is mounted on the robot arm. According to such a configuration, it is possible to shift to a predetermined operation immediately after the measurement of the position based on the imaging result and the correction process of the position data is completed, and it is possible to shorten the time required for the operation using the position measurement. .

このように本発明によれば、特異解を発生することなく対象物の位置データの補正を精度よく行うことができる。   As described above, according to the present invention, it is possible to accurately correct the position data of an object without generating a singular solution.

以下、添付する図面を参照して本発明に係る実施の形態について説明する。   Embodiments according to the present invention will be described below with reference to the accompanying drawings.

ここでは、本発明に係る対象物の実施例を自動車の車体として説明する。図1は自動車の生産現場の一部概要を平面視で模式的に示す説明図、図2はそれを背面視で模式的に示す説明図である。図1及び図2に示す生産現場には、多数の鋼板を溶接してなる車体100の搬送経路をなすレール1が設けられている。レール1には走行ユニット2を介して複数のハンガー3が吊るされており、各ハンガー3は車体100の側方の窓枠部101に係合している。このようにハンガー3によって吊り下げられた車体100は、走行ユニット2の動作に基づいてレール1に沿って搬送される。   Here, an example of an object according to the present invention will be described as a vehicle body. FIG. 1 is an explanatory diagram schematically showing a partial outline of a vehicle production site in a plan view, and FIG. 2 is an explanatory diagram schematically showing it in a rear view. The production site shown in FIGS. 1 and 2 is provided with a rail 1 that forms a conveyance path for a vehicle body 100 formed by welding a large number of steel plates. A plurality of hangers 3 are suspended from the rail 1 via a traveling unit 2, and each hanger 3 is engaged with a window frame portion 101 on the side of the vehicle body 100. The vehicle body 100 suspended by the hanger 3 in this way is conveyed along the rail 1 based on the operation of the traveling unit 2.

この搬送経路中には、車体100の床裏部102や鋼板の合わせ目に防錆用、防音用、防振用のシーラ剤をシーリング塗布したりスプレー塗装するための塗装エリア5が設定されている。この塗装エリア5には、複数台の多関節型のロボット6a,6b,6c,6dが設けられている。各ロボット6a,6b,6c,6dは、複数のアーム7と、アーム同士を揺動可能に連結する関節8とを有してなる。ロボット6a,6b,6cの先端アーム9には、後述する車体に防錆及び防水用のシーラ材を塗布するために用いるシーリングガン25や、搬送されて停止した車体の位置を計測するために用いるカメラ33等が搭載されており、ロボット6dにはシーリングガン25が搭載されている。なお、図3は、ロボット6a,6b,6cの全体の外観を参照するための左側面図であり、その先端アーム9には、1台のシーリングガン25と、左右に並ぶ2台のカメラ33が搭載されている。   In this conveyance path, a coating area 5 for sealing and spray-coating a sealant for rust prevention, soundproofing, and vibration proofing is set at the joint of the floor portion 102 of the vehicle body 100 and the steel plate. Yes. In the painting area 5, a plurality of articulated robots 6a, 6b, 6c, 6d are provided. Each robot 6a, 6b, 6c, 6d has a plurality of arms 7 and a joint 8 that connects the arms so as to be swingable. The tip arm 9 of the robot 6a, 6b, 6c is used to measure the position of a sealing gun 25 used to apply a rust-proof and waterproof sealer material to the vehicle body, which will be described later, and the position of the vehicle body that has been transported and stopped. A camera 33 and the like are mounted, and a sealing gun 25 is mounted on the robot 6d. FIG. 3 is a left side view for referring to the overall appearance of the robots 6a, 6b, and 6c. The tip arm 9 has one sealing gun 25 and two cameras 33 arranged side by side. Is installed.

この塗装エリア5は掘割状になっており、一対の上床面10の相互間を車体100が搬送される。各上床面10,10及び下床面11のそれぞれには、車体100の搬送方向に延在するスライドレール12が設けられている。ロボット6a,6b,6cは、上床面に設けられたスライドレール12に沿ってスライド可能になっており、ロボット6dは下床面に設けられたスライドレール12に沿ってスライド可能になっている。   The painting area 5 has a cut shape, and the vehicle body 100 is conveyed between the pair of upper floor surfaces 10. Each of the upper floor surfaces 10, 10 and the lower floor surface 11 is provided with slide rails 12 extending in the conveyance direction of the vehicle body 100. The robots 6a, 6b, and 6c are slidable along the slide rail 12 provided on the upper floor surface, and the robot 6d is slidable along the slide rail 12 provided on the lower floor surface.

また、この塗装エリア5には、後述する原点位置の確認のために利用され、キャリブレーション孔13aが形成されたキャリブレーションスタンド13が設けられている。   Further, the painting area 5 is provided with a calibration stand 13 which is used for confirming an origin position which will be described later and in which a calibration hole 13a is formed.

図4は先端アーム9の正面斜視図、図5はその背面斜視図、図6はその正面図、図7はその背面図、図8はその平面図、図9はその底面図、図10はその右側面図、図11はその左側面図、図12はその正面視断面図である。以下のロボットハンド9についての方向は、便宜上カメラの光軸を水平に向けた場合にカメラの被写体側を前側、その反対側を後側としている。但し、この方向の概念は、上記塗装エリア内でのロボットの動作に応じて適宜変更されるものである。   4 is a front perspective view of the tip arm 9, FIG. 5 is a rear perspective view thereof, FIG. 6 is a front view thereof, FIG. 7 is a rear view thereof, FIG. 8 is a plan view thereof, FIG. FIG. 11 is a left side view thereof, and FIG. 12 is a front sectional view thereof. The direction of the following robot hand 9 is such that when the optical axis of the camera is oriented horizontally, the subject side of the camera is the front side and the opposite side is the rear side for convenience. However, the concept of this direction is appropriately changed according to the operation of the robot in the painting area.

図4乃至図12に示すように、先端アーム9は関節8に揺動可能に取り付けられた基部ブラケット21を有し、この基部ブラケット21には先端側に延びるブラケット23が締結されている。   As shown in FIGS. 4 to 12, the distal arm 9 has a base bracket 21 swingably attached to the joint 8, and a bracket 23 extending to the distal end side is fastened to the base bracket 21.

ブラケット23の先端面には更に先端側に延びるステー24が締結されている。このステー24の先端部にはブラケット23の延在方向に対して傾斜する傾斜面24aが形成されており、この傾斜面24aにシーリングガン25が締結されている。シーリングガン25は上記シーラ剤を車体100(図1,図2,図15参照)に噴射する装置であり、シーリングガン25にはシーラ剤を供給するホース26が接続されている。ブラケット23にはこのホース26を固定するためのホースブラケット27が外側に締結されている。   A stay 24 extending further toward the distal end side is fastened to the distal end surface of the bracket 23. An inclined surface 24a that is inclined with respect to the extending direction of the bracket 23 is formed at the tip of the stay 24, and a sealing gun 25 is fastened to the inclined surface 24a. The sealing gun 25 is a device that injects the sealing agent onto the vehicle body 100 (see FIGS. 1, 2, and 15), and a hose 26 that supplies the sealing agent is connected to the sealing gun 25. A hose bracket 27 for fixing the hose 26 is fastened to the bracket 23 on the outside.

また、ブラケット23にはカメラブラケット28が締結されている。カメラブラケット28は、ブラケット23から起立するように設けられた起立部29と、起立部29の上端面に締結されてブラケット23と平行に延びる取付部30とを有し、起立部29と取付部30とは正面視でT字形状をなしている。   A camera bracket 28 is fastened to the bracket 23. The camera bracket 28 includes an upright portion 29 provided so as to stand up from the bracket 23, and an attachment portion 30 that is fastened to the upper end surface of the upright portion 29 and extends in parallel with the bracket 23, and the upright portion 29 and the attachment portion. 30 is T-shaped in a front view.

取付部30は、起立部29に対して先端側に延在している。このため、起立部29の先端面には、先端側に突出して取付部30の裏面に固定されたリブ31が接合されており、このリブ31によって取付部30に固定される部材の重量が支えられている。これにより取付部30の撓みが防止される。   The attachment portion 30 extends toward the distal end side with respect to the standing portion 29. Therefore, a rib 31 that protrudes toward the tip side and is fixed to the back surface of the mounting portion 30 is joined to the tip surface of the standing portion 29, and the weight of the member fixed to the mounting portion 30 is supported by the rib 31. It has been. Thereby, bending of attachment part 30 is prevented.

取付部30は起立部29に対して左右方向に延在しており、この取付部30の上面の左右各端部には、カメラホルダ32が1つずつ締結され、各カメラホルダ32によって円筒状の鏡筒34を有したカメラ33が保持されている。このカメラ33は、CCDやCMOS等の光電変換素子を備え、撮像結果をこの光電変換素子において電気信号に変換して外部に出力する構成となっている。カメラ33の焦点距離や倍率等は、鏡筒34の外面に設けられたダイヤル35によって撮影するのに適切な所定値に設定されている。なお、カメラ33が取り付けられた取付部30の鉛直下向きの撓みを防止するため、取付部30の裏面に、リブ31から取付部30の延在方向に延びるブラケットを設けてもよい。   The mounting portion 30 extends in the left-right direction with respect to the standing portion 29, and one camera holder 32 is fastened to each of the left and right end portions of the upper surface of the mounting portion 30, and each camera holder 32 has a cylindrical shape. A camera 33 having a lens barrel 34 is held. The camera 33 includes a photoelectric conversion element such as a CCD or a CMOS, and is configured to convert an imaging result into an electrical signal in the photoelectric conversion element and output it to the outside. The focal length, magnification, and the like of the camera 33 are set to predetermined values appropriate for photographing with the dial 35 provided on the outer surface of the lens barrel 34. Note that a bracket extending from the rib 31 in the extending direction of the mounting portion 30 may be provided on the back surface of the mounting portion 30 in order to prevent the downward bending of the mounting portion 30 to which the camera 33 is mounted.

また、取付部30にはカメラカバー36が締結され、このカメラカバー36によってカメラ33の表面全体が覆われている。これら一対のカメラ33は、ステレオ視による画像処理を可能にすべく、互いの光軸が交わるようにして配置されている。このように、同一のカメラブラケット28にステレオ視する2台のカメラ33を設置したことにより、アーム7(図1参照)の動作、および該アーム7の鉛直下向きの撓み量に関わらず、ステレオベースδ及び挟角θが一定になる。したがって、いわゆるハンドアイタイプにおいて、ステレオ視による画像に基づいた位置計測を精巧に行うことができるようになる。   A camera cover 36 is fastened to the attachment portion 30, and the entire surface of the camera 33 is covered by the camera cover 36. The pair of cameras 33 are arranged so that their optical axes intersect to enable image processing by stereo vision. As described above, the two cameras 33 that are viewed in stereo are installed on the same camera bracket 28, so that the stereo base can be used regardless of the operation of the arm 7 (see FIG. 1) and the vertical downward deflection of the arm 7. δ and the included angle θ are constant. Therefore, in a so-called hand-eye type, position measurement based on a stereo image can be performed with precision.

取付部30の前端面には、一対のカメラカバー36の相互間において、ランプカバー37が締結されており、このランプカバー37によってリング蛍光ランプ等の照明光源38が取り付けられている。   A lamp cover 37 is fastened to the front end surface of the mounting portion 30 between the pair of camera covers 36, and an illumination light source 38 such as a ring fluorescent lamp is attached by the lamp cover 37.

ホース26はカメラ33に対して下側に配置されており、ランプカバー37はカメラ33の対物レンズの後方に配置されており、シーリングガン25は一対のカメラ33の相互間に配置されている。このため、ブラケット23に対して多種の部品が固定されているが、カメラの視野内にこれらの部品が位置することはなく、その上でこれら部品の集約配置が実現されている。   The hose 26 is disposed below the camera 33, the lamp cover 37 is disposed behind the objective lens of the camera 33, and the sealing gun 25 is disposed between the pair of cameras 33. For this reason, various components are fixed to the bracket 23. However, these components are not located in the field of view of the camera, and the collective arrangement of these components is realized thereon.

図13は上記カメラ33により撮像された画像を処理するとともにシーリングガン25の動作を制御する制御系の構成を説明するブロック図である。図13に示す制御装置40は、CPU41、ROM42、RAM43及び入出力インターフェイス(以下、I/F)44を備えたマイクロコンピュータであり、これら各要素41〜44はバス45を介して接続されている。CPU41は、I/F44を介して入力された情報やRAM43に記憶されている情報に基づいてROM42に記憶されたプログラムを実行し、I/F44を介して接続される機器の動作制御を行う。   FIG. 13 is a block diagram illustrating the configuration of a control system that processes the image captured by the camera 33 and controls the operation of the sealing gun 25. A control device 40 shown in FIG. 13 is a microcomputer including a CPU 41, a ROM 42, a RAM 43, and an input / output interface (hereinafter referred to as I / F) 44, and these elements 41 to 44 are connected via a bus 45. . The CPU 41 executes a program stored in the ROM 42 based on information input via the I / F 44 and information stored in the RAM 43, and controls operation of devices connected via the I / F 44.

I/F44には、入力装置として6台のカメラ33が接続されている。これらカメラ33は3組に分けられ、各組はステレオ視する2台のカメラ33から構成されている。これら各組を構成する2台のカメラ33は、前述したように、同一のカメラブラケット28(先端アーム9)に取り付けられている。このため、前述したように、各組の2台のカメラ33によってステレオ視による画像に基づいた位置計測を精巧に行うことができる。   Six cameras 33 are connected to the I / F 44 as input devices. These cameras 33 are divided into three groups, and each group includes two cameras 33 that are viewed in stereo. The two cameras 33 constituting each set are attached to the same camera bracket 28 (tip arm 9) as described above. For this reason, as described above, position measurement based on an image obtained by stereo viewing can be performed with precision by the two cameras 33 in each group.

I/F44には、出力装置として、複数の上記シーリングガン25、複数の走行軸モータ46、複数のアーム駆動モータ47が接続されている。走行軸モータ46は各ロボット6a,6b,6c,6d(図1,図2参照)をスライドレール12(図1,図2参照)に沿って走行させる駆動源である。アーム駆動モータ28は各ロボット6a,6b,6c,6dの関節8を駆動してアーム7(図1,図2参照)を揺動させる駆動源である。なお、ここでは、複数のロボット6a,6b,6c,6dの動作を単一の制御装置によって制御する形態を例示したが、各ロボット6a,6b,6c,6dに対して個別のコントローラを分散して設けるようなシステム構成であってもよい。   A plurality of the sealing guns 25, a plurality of travel shaft motors 46, and a plurality of arm drive motors 47 are connected to the I / F 44 as output devices. The travel axis motor 46 is a drive source that causes each robot 6a, 6b, 6c, 6d (see FIGS. 1 and 2) to travel along the slide rail 12 (see FIGS. 1 and 2). The arm drive motor 28 is a drive source that drives the joint 8 of each robot 6a, 6b, 6c, 6d to swing the arm 7 (see FIGS. 1 and 2). In addition, although the form which controlled the operation | movement of the several robot 6a, 6b, 6c, 6d by the single control apparatus was illustrated here, a separate controller is distributed with respect to each robot 6a, 6b, 6c, 6d. The system configuration may be provided.

以下、上記ロボット6a,6b,6c,6dの動作と上記制御装置40により実行される制御の内容とについて説明する。   Hereinafter, the operation of the robots 6a, 6b, 6c, and 6d and the contents of the control executed by the control device 40 will be described.

まず、各ロボットの可動範囲内において共通の座標系を使用可能なようにする。この処理自体は公知であるため、その概要を簡単に説明する。各ロボット6a,6b,6c,6dにニードルバー(図示せず)を取り付ける。このニードルバーは、カメラ33(図2参照)は取り付けたままとしてシーリングガン25(図2参照)に替えて設けられる。次に、ロボットの動作範囲内の任意の接触点を設定する。この接触点は、単一でもよいが複数であることが好ましい。また、この接触点は隣接するロボットの姿勢が同じ姿勢をとったときに互いのニードルバーが接触するものと予め想定される点に設定されていることが好ましい。これは、アームの撓みによる影響を極力避けるためである。   First, a common coordinate system can be used within the movable range of each robot. Since this process itself is publicly known, its outline will be briefly described. A needle bar (not shown) is attached to each robot 6a, 6b, 6c, 6d. This needle bar is provided in place of the sealing gun 25 (see FIG. 2) while the camera 33 (see FIG. 2) remains attached. Next, an arbitrary contact point within the movement range of the robot is set. This contact point may be single or preferably plural. Moreover, it is preferable that this contact point is set to a point that is presumed that the needle bars come into contact with each other when the postures of adjacent robots are the same. This is to avoid the influence of arm deflection as much as possible.

次に、隣接する2つのロボットに取り付けられたニードルバーの先端が上記のように設定された任意の接触点に移動するよう、2つのロボットを駆動する。そして、一方のニードルバーの所定部位と、他方のニードルバーの所定部位とを点接触させる。そのときのロボットの座標値とロボットの座標値を出力する。2つの座標値に基づいて、一方のロボットの座標値を他方の座標値に変換するための変換行列を算定する。任意の接触点が複数設定されている場合には、この手順が接触点ごとに繰り返し行われることとなる。   Next, the two robots are driven so that the tips of the needle bars attached to the two adjacent robots move to an arbitrary contact point set as described above. Then, the predetermined part of one needle bar and the predetermined part of the other needle bar are brought into point contact. The robot coordinate value and the robot coordinate value at that time are output. Based on the two coordinate values, a conversion matrix for converting the coordinate value of one robot into the other coordinate value is calculated. When a plurality of arbitrary contact points are set, this procedure is repeated for each contact point.

このようにして算定された変換行列を用いることにより、あるロボットの座標を隣接するロボットの座標域に拡張可能となる。なお、複数の接触点を設定した場合には、接触点ごとに変換行列が算定されることとなる。このため、これら複数の変換行列を平均して得られた平均変換行列を、座標の拡張に使用することもできる。上記の処理は、隣接するロボットの組の全てに対して行われる。   By using the conversion matrix calculated in this way, the coordinates of a certain robot can be extended to the coordinate area of an adjacent robot. When a plurality of contact points are set, a conversion matrix is calculated for each contact point. For this reason, an average transformation matrix obtained by averaging the plurality of transformation matrices can also be used for the extension of coordinates. The above processing is performed for all of the adjacent robot sets.

次に、カメラ33のキャリブレーション処理が行われる。この処理自体は公知であるため、その概要を簡単に説明する。まず、上記のニードルバーを用いてキャリブレーションスタンド13(図2参照)の座標位置を測定する。上記のとおりキャリブレーションスタンド13は、塗装エリア5の適当な位置に設置されており、所定の孔13aが形成されている。この座標位置は、例えばニードルバーをキャリブレーションスタンド13の孔13a内に挿入し、ニードルバーが孔13a内に挿入されたときのロボットの座標値を座標位置として特定することにより測定される。このようにキャリブレーションスタンド13の座標位置の測定後には、カメラ33(図2参照)を用いてキャリブレーションスタンド13の孔13aを撮影し、この孔13aの撮像結果に基づいてカメラ寸法の校正を行う。このキャリブレーションの処理は、後述する基準点の測定に用いるカメラ33が搭載される予定の全てのロボット6a,6b,6cについて行われる。   Next, the calibration process of the camera 33 is performed. Since this process itself is publicly known, its outline will be briefly described. First, the coordinate position of the calibration stand 13 (see FIG. 2) is measured using the needle bar. As described above, the calibration stand 13 is installed at an appropriate position in the painting area 5 and has a predetermined hole 13a. This coordinate position is measured, for example, by inserting a needle bar into the hole 13a of the calibration stand 13 and specifying the coordinate value of the robot when the needle bar is inserted into the hole 13a as the coordinate position. Thus, after measuring the coordinate position of the calibration stand 13, the camera 33 (see FIG. 2) is used to photograph the hole 13a of the calibration stand 13, and the camera dimensions are calibrated based on the imaging result of the hole 13a. Do. This calibration process is performed for all the robots 6a, 6b, and 6c that are to be equipped with a camera 33 that is used to measure a reference point, which will be described later.

次に、本制御装置40は、ある車種に対して実際に塗装作業を行う前に、この実際の作業時に実行される処理で必要とするマスターデータの作成を行う。マスターデータの作成に際しては、生産現場において今後実際に塗装作業を行う予定の車種の車体100のサンプルを複数台(例えば3乃至10台)用意しておき、この生産現場においてこれらサンプルをハンガー3に吊り下げる。すなわち、このマスターデータは、理想的であるが机上の設計値であるCAD値やCAM値等に基づいて作成されるものではなく、実際に塗装作業を行う生産現場での事前トレーニングを通じて車種ごとに1つずつ作成される。   Next, before actually performing a painting operation on a certain vehicle type, the present control device 40 creates master data necessary for processing executed during the actual operation. When creating the master data, a plurality of samples (for example, 3 to 10) of the vehicle body 100 of the vehicle type that will be actually subjected to painting work in the production site are prepared, and these samples are put on the hanger 3 at the production site. Be suspended. In other words, this master data is ideal, but it is not created based on CAD values or CAM values that are design values on the desk, but for each vehicle type through pre-training at the production site where actual painting work is performed. Created one by one.

図14はマスターデータを作成する手順を説明するフローチャートである。図14に示すように、まず、生産現場においてハンガー3に吊り下げられた車体100のサンプルをレール1に沿って搬送し、塗装エリア5で停止させる(ステップS1)。次いで、車体100のカメラ群33を用いてサンプルを撮像し(ステップS2)、カメラ群33から入力した画像データに基づいて、車体100に適宜定義される基準点の位置を測定する(ステップS3)。   FIG. 14 is a flowchart illustrating a procedure for creating master data. As shown in FIG. 14, first, a sample of the vehicle body 100 suspended from the hanger 3 at the production site is transported along the rail 1 and stopped in the painting area 5 (step S1). Next, a sample is imaged using the camera group 33 of the vehicle body 100 (step S2), and the position of a reference point appropriately defined in the vehicle body 100 is measured based on the image data input from the camera group 33 (step S3). .

図15はこの車体100の撮像処理及び基準点の位置測定処理の概念図である。ここでは、いわゆるフロントエンジンタイプの車体(サンプルを含む)100を例示している。車体100の床裏部102には多数の貫通孔が形成されており、例えば、リアトランクに浸入した水を抜くための小孔103、フロントボンネットに収容されるべきエンジンを車体100に固定する際に利用される小孔104,105が形成されている。ここでは、これら小孔103,104,105をそれぞれ、カメラ33の撮像対象であってその後の位置測定の対象である基準点P1,P2,P3として利用している。   FIG. 15 is a conceptual diagram of the imaging process of the vehicle body 100 and the reference point position measurement process. Here, a so-called front engine type vehicle body (including a sample) 100 is illustrated. A large number of through holes are formed in the floor portion 102 of the vehicle body 100. For example, when fixing the engine to be accommodated in the front bonnet to the vehicle body 100, a small hole 103 for draining water that has entered the rear trunk. Small holes 104 and 105 used for the above are formed. Here, these small holes 103, 104, and 105 are used as reference points P 1, P 2, and P 3 that are imaging targets of the camera 33 and are targets for subsequent position measurement, respectively.

図14中ステップS2においては、例えばロボット6aに取り付けられた2台のカメラ33で基準点P1に対応する小孔103を、ロボット6bに取り付けられた2台のカメラ33で基準点P2に対応する小孔104を、ロボット6cに取り付けられた2台のカメラ33で基準点P3に対応する小孔105をそれぞれステレオ視で撮像する。   In step S2 in FIG. 14, for example, the small holes 103 corresponding to the reference point P1 with the two cameras 33 attached to the robot 6a correspond to the reference point P2 with the two cameras 33 attached to the robot 6b. The small holes 104 corresponding to the reference point P3 are imaged in stereo, respectively, by the two cameras 33 attached to the robot 6c.

図14中ステップS3においては、各組の2台のカメラ33が撮像した2つの画像から小孔の像103,104,105をパターンマッチングによって特定し、特定した像位置について三角測量の原理を利用した計算式から基準点P1,P2,P3としての三次元位置を検出する。基準点P1,P2,P3の位置は三次元座標系において定義される。なお、このステップS3には、二値化処理などの他の画像処理を適宜追加してもよい。   In step S3 in FIG. 14, the small hole images 103, 104, and 105 are identified by pattern matching from the two images captured by the two cameras 33 of each set, and the principle of triangulation is used for the identified image positions. The three-dimensional positions as the reference points P1, P2, P3 are detected from the calculated formula. The positions of the reference points P1, P2, P3 are defined in the three-dimensional coordinate system. In addition, you may add other image processes, such as a binarization process, to this step S3 suitably.

図14に戻り、位置検出の処理(ステップS3)が終了すると、次いでこの検出した位置情報をRAM43(図13参照)に記憶する(ステップS4)。そして、位置データを取得したサンプルの台数が所定値に達したか否かが判断され(ステップS5)、所定値に達していない場合は、次のサンプルに対してステップS1〜S4の処理が再び行われる。   Returning to FIG. 14, when the position detection process (step S3) is completed, the detected position information is then stored in the RAM 43 (see FIG. 13) (step S4). Then, it is determined whether or not the number of samples for which position data has been acquired has reached a predetermined value (step S5). If the predetermined value has not been reached, the processing of steps S1 to S4 is performed again for the next sample. Done.

所定台数のサンプルの位置データを取得した場合には、これら位置データに基づいて各基準点P1,P2,P3の位置のマスターデータが作成される(ステップS6)。各マスターデータは、基準点P1,P2,P3ごとに取得された複数の位置データを平均することによって作成される。このとき適宜外れ値を除外した上でマスターデータを作成するようにしてもよい。この外れ値を選定するために、CAD値やCAM値を利用することも可能である。そして、このように作成された各基準点P1,P2,P3についてのマスターデータがRAM43に記憶される(ステップS7)。   When the position data of a predetermined number of samples is acquired, master data of the positions of the reference points P1, P2, P3 is created based on these position data (step S6). Each master data is created by averaging a plurality of position data acquired for each of the reference points P1, P2, P3. At this time, master data may be created after appropriately removing outliers. In order to select this outlier, it is also possible to use a CAD value or a CAM value. Then, the master data for the reference points P1, P2, P3 created in this way is stored in the RAM 43 (step S7).

次に、上記事前トレーニングを通じて作成されたマスターデータを利用して行われる実際の塗装作業を行う手順について図16に基づいて説明する。図16に示すように、まず、事前トレーニングと同様にして車体100を搬送して塗装エリア5で停止させ(ステップS11)、停止した車体100に形成されている小孔103、104,105をステレオ視により撮像し(ステップS12)、入力された画像データに基づいて基準点P1′,P2′,P3′の位置を測定し(ステップS13)、測定されたデータに基づいてマスターデータを補正するための補正値を算出する(ステップS14)。   Next, a procedure for performing an actual painting operation performed using the master data created through the prior training will be described with reference to FIG. As shown in FIG. 16, first, the vehicle body 100 is transported and stopped in the painting area 5 in the same manner as in the pre-training (step S11), and the small holes 103, 104, 105 formed in the stopped vehicle body 100 are stereo. In order to correct the master data based on the measured data (step S12), measure the positions of the reference points P1 ′, P2 ′, P3 ′ based on the input image data (step S13). Is calculated (step S14).

図17はこの補正の手順を説明するフローチャートであり、図18はこの補正処理の概念図である。図17及び図18に示すように、まず、マスターデータによって定義される基準点P1をX軸上に位置させる座標系を規定し、その座標系の原点を中心Oとして基準点P1,P2,P3を通る円Cを求める。また、計測された基準点P1′をX′軸上に位置させる座標系を設定し、その座標系の原点を中心O′として基準点P1′,P2′,P3′を通る円C′を求める(ステップS41)。すなわち、ステップS41においては、基準点P1を基準にした3つの基準点P1,P2,P3間の位置関係と、基準点P1′を基準にした3つの基準点P1′,P2′,P3′間の位置関係とをそれぞれ、二次元座標系に規定される円によって定義する処理が実行されている。   FIG. 17 is a flowchart for explaining the correction procedure, and FIG. 18 is a conceptual diagram of the correction process. As shown in FIGS. 17 and 18, first, a coordinate system for positioning the reference point P1 defined by the master data on the X axis is defined, and the reference points P1, P2, P3 are set with the origin O of the coordinate system as the center O. A circle C passing through is obtained. In addition, a coordinate system for setting the measured reference point P1 ′ on the X ′ axis is set, and a circle C ′ passing through the reference points P1 ′, P2 ′, P3 ′ is obtained with the origin of the coordinate system as the center O ′. (Step S41). That is, in step S41, the positional relationship between the three reference points P1, P2 and P3 with reference to the reference point P1, and between the three reference points P1 ', P2' and P3 'with reference to the reference point P1'. Are defined by circles defined in a two-dimensional coordinate system.

次いで、マスターデータ側の円Cの中心が計測値側の円C′の中心O′と一致するように円Cを平行移動させる(ステップS42)。そして、この平行移動後の円Cを規定する平面を計測値側の円C′を規定する平面と一致させるため、円Cを規定する平面を回転移動させる(ステップS43)。すなわち、ステップS42,S43においては、基準点P1を基準にして設定された座標系を、基準点P1′を基準にして設定された座標系に変換する処理が実行されている。   Next, the circle C is translated so that the center of the circle C on the master data side coincides with the center O ′ of the circle C ′ on the measurement value side (step S42). Then, in order to make the plane defining the circle C after the parallel movement coincide with the plane defining the circle C ′ on the measurement value side, the plane defining the circle C is rotated (step S43). That is, in steps S42 and S43, processing for converting a coordinate system set with reference to the reference point P1 into a coordinate system set with reference to the reference point P1 ′ is executed.

そして、この回転移動後の面内で規定される円Cを、中心O′を通る法線回りに角度φだけ回転したときに、L1(φ)2+L2(φ)2+L3(φ)2が最小値をとる角度φを求める(ステップS44)。ここで、L1(φ)は、角度φだけ回転した後の基準点P1と測定値P1′との距離、L2(φ)は、同基準点P2と測定値P2′との距離、L3(φ)は、同基準点P3と測定値P3′との距離である。すなわち、ステップS44においては、最小二乗法の原理を利用して、マスターデータにおける基準点間の位置関係を定義する円Cを、測定された基準点間の位置関係を定義する円C′に近似させる処理が実行されている。 When the circle C defined in the plane after the rotational movement is rotated by an angle φ around the normal line passing through the center O ′, L1 (φ) 2 + L2 (φ) 2 + L3 (φ) 2 becomes An angle φ that takes the minimum value is obtained (step S44). Here, L1 (φ) is the distance between the reference point P1 after rotation by the angle φ and the measured value P1 ′, L2 (φ) is the distance between the reference point P2 and the measured value P2 ′, and L3 (φ ) Is the distance between the reference point P3 and the measured value P3 ′. That is, in step S44, using the principle of the least square method, the circle C that defines the positional relationship between the reference points in the master data is approximated to the circle C ′ that defines the positional relationship between the measured reference points. The process to be executed is executed.

そして、ステップS42〜S44を経て円Cが移動した量を補正値として算出する(ステップS45)。   Then, the amount of movement of the circle C through steps S42 to S44 is calculated as a correction value (step S45).

図16に戻り、このようにして算出された補正値を用いてマスターデータを補正し、補正されたデータ(補正位置データ)に基づいて車体100の所定部位に塗装作業が行われる(ステップS15)。図15を参照して、この塗装作業によって、フェンダー106にシーラ剤が塗布されるとともに、車体100の床裏部102に複数条のシーリングビード107が形成される。シーリングビード107の形成は窓枠部101を通じて車体100内にオペレートされたシーリングガン25により行われる。本実施形態では、このように室内シーリングを行うロボット6a,6b、6cにカメラ33を搭載していることから、位置計測を終了した後直ちに塗装作業に移行することができる。また、カメラを持たないロボット6dの駆動制御も、ロボット6a,6b,6cを利用して算出された補正位置データに基づいて実行するようにしている。このように、カメラ33が搭載されたロボット6a,6b,6cをマスターロボット、シーリングガン25のような作業装置のみを搭載したロボット6dをスレーブロボットとするシステム構成によって塗装作業を行うこともできる。   Returning to FIG. 16, the master data is corrected using the correction value calculated in this way, and a painting operation is performed on a predetermined portion of the vehicle body 100 based on the corrected data (correction position data) (step S15). . Referring to FIG. 15, by this painting operation, a sealer is applied to fender 106 and a plurality of sealing beads 107 are formed on floor back 102 of vehicle body 100. The sealing bead 107 is formed by the sealing gun 25 operated in the vehicle body 100 through the window frame portion 101. In this embodiment, since the camera 33 is mounted on the robots 6a, 6b, and 6c that perform indoor sealing in this way, it is possible to shift to the painting work immediately after the position measurement is finished. Further, the drive control of the robot 6d without the camera is also executed based on the corrected position data calculated using the robots 6a, 6b, 6c. In this way, the painting operation can also be performed by a system configuration in which the robot 6a, 6b, 6c on which the camera 33 is mounted is a master robot, and the robot 6d on which only a working device such as the sealing gun 25 is mounted is a slave robot.

このようにCPU41の処理内容に基づけば、CPU41は、カメラ33から入力した撮像結果を示す画像信号に基づいて車体100の基準点の三次元位置を測定する測定部と、測定部により測定された基準点の位置データに基づいてマスターデータを補正するための補正値を算出する補正値算出部と、補正値算出部により補正された車体の補正位置データに基づいてアーム7(図1参照)の揺動制御とシーリングガン25の揺動制御を実行する作業制御部とを機能的に有することとなる。該測定部においては事前トレーニングでのサンプルの基準点の位置の測定が行われ、CPU41は更にこの測定部によって事前測定されたサンプルの位置データに基づいて車体の基準点のマスターデータを算出するマスターデータ算出部を機能的に有することとなる。   Based on the processing content of the CPU 41 as described above, the CPU 41 is measured by the measurement unit that measures the three-dimensional position of the reference point of the vehicle body 100 based on the image signal indicating the imaging result input from the camera 33 and the measurement unit. A correction value calculation unit that calculates a correction value for correcting the master data based on the position data of the reference point, and the arm 7 (see FIG. 1) based on the correction position data of the vehicle body corrected by the correction value calculation unit. The work control unit that performs the swing control and the swing control of the sealing gun 25 is functionally provided. In the measurement unit, the position of the reference point of the sample is measured in advance training, and the CPU 41 further calculates a master data of the reference point of the vehicle body based on the position data of the sample measured in advance by the measurement unit. It will have a data calculation part functionally.

以上のように、本実施形態によれば、事前トレーニングで作成されたマスターデータに基づいて測定された基準点P1′,P2′,P3′の位置を補正している。このため、現実の生産過程に即した補正値を得ることができ、塗装作業を適切に行うことができるようになる。より具体的には、設計データと実際に生産された車体のデータとの間の公差をなくすことができ、また、この公差を生み出す車体100を形成するときに利用される溶接ロボットの動作の癖や、走行ユニット2の停止動作の癖などをマスターデータ側に吸収することができ、補正誤差を小さくすることができるようになっている。また、ロボット6a,6b,6cのアーム7の撓みも事前トレーニングによってマスターデータ内に吸収することができ、補正誤差を小さくすることができる。アーム7の撓みはカメラ33の解像度に比べて大きいことが一般的であるため、位置計測を正確に行う上で、この撓みを吸収することができることは特に有効である。   As described above, according to the present embodiment, the positions of the reference points P1 ′, P2 ′, P3 ′ measured based on the master data created in the prior training are corrected. For this reason, a correction value adapted to the actual production process can be obtained, and the painting operation can be performed appropriately. More specifically, the tolerance between the design data and the actually produced vehicle body data can be eliminated, and the operation of the welding robot used when forming the vehicle body 100 that generates this tolerance is reduced. In addition, it is possible to absorb the trap of the stopping operation of the traveling unit 2 on the master data side, and to reduce the correction error. Further, the deflection of the arm 7 of the robot 6a, 6b, 6c can be absorbed in the master data by the prior training, and the correction error can be reduced. Since the deflection of the arm 7 is generally larger than the resolution of the camera 33, it is particularly effective to be able to absorb this deflection for accurate position measurement.

なお、カメラ33を搭載したロボット6a,6b,6cは噴霧されたシーラ剤が付着して汚れ易い下床面11には配置されていない。このため、カメラ33にはシーラ剤の付着を防護するシャッター機構を設ける必要がなくなり、カメラの周辺構造及び制御系の構成を簡略化することができる。また、シャッター機構の開閉時間を確保する必要がなくなるため、塗装作業に要する時間の短縮化にも繋がる。照明光源38も同様にして下床面11から除かれるため、照明光源38の汚れも防ぐことができるようになる。   The robots 6a, 6b, and 6c equipped with the camera 33 are not arranged on the lower floor surface 11 where the sprayed sealer agent adheres and is easily soiled. For this reason, it is not necessary to provide the camera 33 with a shutter mechanism for protecting the adhesion of the sealer agent, and the peripheral structure of the camera and the configuration of the control system can be simplified. Moreover, since it is not necessary to secure the opening / closing time of the shutter mechanism, the time required for the painting work can be shortened. Since the illumination light source 38 is similarly removed from the lower floor surface 11, contamination of the illumination light source 38 can be prevented.

このように下床面11には撮像に関係する多数の部品が省略されているため、複数車種に対応するカメラ及び照明光源の点数の削減を図ることができるとともに、ここに塗装専用のロボットを多数配置することができるようになる。このため、コンベア長やブース長の短縮化及び全工程時間の短縮化を図ることができ、初期設備投資額を少なくすることができる。また、生産現場の保全作業を安価に行うことができるようになる。   In this way, since many parts related to imaging are omitted on the lower floor surface 11, the number of cameras and illumination light sources corresponding to a plurality of vehicle types can be reduced, and a painting dedicated robot is provided here. A large number can be arranged. For this reason, shortening of the conveyor length and the booth length and the shortening of the entire process time can be achieved, and the initial capital investment can be reduced. In addition, maintenance work at the production site can be performed at a low cost.

また、同一の生産現場において異なる車種を作業対象として取り扱ういわゆる混流生産を実施する場合には、追加される車種に対して実際に作業を行う事前にトレーニングを行ってマスターデータを作成することとなる。このように車種ごとにマスターデータを作成しておくだけで、容易に混流生産に対応することができる。   In addition, when carrying out so-called mixed-flow production in which different vehicle types are handled as work objects at the same production site, master data is created by performing training prior to actually performing operations on the added vehicle types. . Thus, it is possible to easily cope with mixed flow production only by creating master data for each vehicle type.

さらに、本実施形態ではロボット6a,6b,6cにカメラ33を搭載しているため、車種間で基準点の位置が大幅に変更されることがあっても、ロボット6a,6b,6cの動作に基づいて容易に各車種の基準点を視野内に収めることができる。また、スライドレール12に沿って各ロボット6a〜6dは移動可能になっている。したがって、混流生産が実施される場合であっても、カメラ33及び照明光源38の台数を増加させる必要はない。最終的に塗装エリア5をコンパクトに建設でき、環境面からも良好である。   Furthermore, in this embodiment, since the cameras 33 are mounted on the robots 6a, 6b, and 6c, even if the position of the reference point is significantly changed between the vehicle types, the operations of the robots 6a, 6b, and 6c can be performed. Based on this, the reference point of each vehicle type can be easily within the field of view. Further, the robots 6 a to 6 d are movable along the slide rail 12. Therefore, even if mixed flow production is performed, it is not necessary to increase the number of cameras 33 and illumination light sources 38. Finally, the paint area 5 can be constructed in a compact manner, which is good from the environmental aspect.

次に、マスターデータの補正処理の別の手順を説明する。図19はその手順を説明するフローチャートであり、図20はこの補正処理の概念図である。図19及び図20に示すように、まず、基準点P1についてのマスターデータを原点とし、基準点P2についてのマスターデータをP軸上にとり、基準点P3をPQ平面上に位置させるようなPQ座標系を設定し、測定された基準点P1′を原点とし、基準点P2′をP′軸上にとり、基準点P3′をP′Q′平面上に位置させるようなP′Q′座標系を設定する(ステップS141)。このように、本実施形態においては、基準点P3を基準点P1,P2を基準にした二次元座標系に位置させることによって基準点P1,P2,P3間の位置関係を定義し、基準点P3′を基準点P1′,P2′を基準にした二次元座標系に位置させることによって基準点P1′,P2′,P3′間の位置関係を定義している。   Next, another procedure for correcting the master data will be described. FIG. 19 is a flowchart for explaining the procedure, and FIG. 20 is a conceptual diagram of this correction processing. As shown in FIGS. 19 and 20, first, PQ coordinates are set such that the master data for the reference point P1 is the origin, the master data for the reference point P2 is on the P axis, and the reference point P3 is positioned on the PQ plane. A P′Q ′ coordinate system is set such that the measured reference point P1 ′ is the origin, the reference point P2 ′ is on the P ′ axis, and the reference point P3 ′ is positioned on the P′Q ′ plane. Set (step S141). As described above, in this embodiment, the positional relationship between the reference points P1, P2, and P3 is defined by positioning the reference point P3 in the two-dimensional coordinate system based on the reference points P1 and P2, and the reference point P3. 'Is positioned in a two-dimensional coordinate system with reference points P1' and P2 'as a reference, thereby defining the positional relationship between the reference points P1', P2 'and P3'.

次に、基準点P1についてのマスターデータの座標をP1′上に平行移動し(ステップS142)、P軸をP′軸に一致させるように変換し(ステップS143)、Q軸をQ′軸に一致させるように変換する(ステップS144)。そして、ステップS142〜S143における座標の変換量を補正値として算出する(ステップS145)。すなわち、ステップS142〜S143においては座標を定義する軸の移動によって基準点間の位置関係を互いに近似させる処理が実行されている。   Next, the coordinates of the master data for the reference point P1 are translated on P1 ′ (step S142), the P axis is converted to coincide with the P ′ axis (step S143), and the Q axis is changed to the Q ′ axis. Conversion is performed so as to match (step S144). Then, the coordinate conversion amount in steps S142 to S143 is calculated as a correction value (step S145). That is, in steps S142 to S143, processing for approximating the positional relationship between the reference points is performed by moving the axes defining the coordinates.

このように本変更例においても、事前トレーニングにおいて作成されたマスターデータに基づいて測定値が補正されるため、この補正後の補正位置データに基づいて適切に塗布作業を行うことができるようになる。   As described above, also in the present modified example, the measurement value is corrected based on the master data created in the pre-training, so that the coating operation can be appropriately performed based on the corrected position data after the correction. .

しかも、この補正方法は、簡単な座標変換のみで行うことができるため、上記実施形態と比べて簡便に補正値を算出することができる点で有利となっている。但し、この変更例においては、ステップS142〜S144の手順の順番に応じた重み付けがなされてしまうため、基準点P3の補正精度は基準点P1の補正精度に比べて低くなる。上記の実施形態は、最小二乗法を利用することによってこのような基準点相互間での重み付けが解消され、基準点の位置関係をバランスよく補正することができる点で本変更例に対して有利となっている。   In addition, since this correction method can be performed only with simple coordinate transformation, it is advantageous in that the correction value can be easily calculated as compared with the above embodiment. However, in this modified example, weighting is performed according to the order of steps S142 to S144, so that the correction accuracy of the reference point P3 is lower than the correction accuracy of the reference point P1. The above embodiment is advantageous over the present modification in that the weighting between the reference points is eliminated by using the least square method, and the positional relationship between the reference points can be corrected in a balanced manner. It has become.

これまで、本発明に係る実施の形態について説明したが、本発明の範囲は上記の構成に限られず、適宜変更可能である。例えば、カメラの焦点距離は固定であっても可変であっても良い。さらに、取付部30上に設置されるカメラ33が、そのステレオベースδや挟角θが変化するよう可動に構成されていてもよい。   Although the embodiments according to the present invention have been described so far, the scope of the present invention is not limited to the above-described configuration, and can be changed as appropriate. For example, the focal length of the camera may be fixed or variable. Furthermore, the camera 33 installed on the attachment portion 30 may be configured to be movable so that the stereo base δ and the included angle θ change.

なお、本実施形態においては、多関節型ロボットを例示したが、ロボットの形態はこれに限られず、円筒座標型ロボットや直交座標型ロボット等の他の形態のロボットにも好適に適用される。また、塗装作業に限らず、他の用途においても本位置計測方法を適宜適用することができる。   In the present embodiment, an articulated robot is exemplified, but the form of the robot is not limited to this, and the present invention is also suitably applied to other forms of robots such as a cylindrical coordinate type robot and an orthogonal coordinate type robot. Further, the position measurement method can be appropriately applied not only to the painting work but also to other uses.

本発明は、対象物の位置の測定を行う技術分野において広く適用することができる。   The present invention can be widely applied in the technical field of measuring the position of an object.

自動車の生産現場の一部概要を平面視で模式的に示す説明図である。It is explanatory drawing which shows typically the one part outline | summary of the production site of a motor vehicle by planar view. 自動車の生産現場の一部概要を背面視で模式的に示す説明図である。It is explanatory drawing which shows typically the one part outline | summary of the production site of a motor vehicle in back view. ロボットの全体の外観を示す右側面図である。It is a right view which shows the external appearance of the whole robot. 先端アームの正面斜視図である。It is a front perspective view of a tip arm. 先端アームの背面斜視図である。It is a back perspective view of a tip arm. 先端アームの正面図である。It is a front view of a tip arm. 先端アームの背面図である。It is a rear view of a tip arm. 先端アームの平面図である。It is a top view of a tip arm. 先端アームの底面図である。It is a bottom view of a tip arm. 先端アームの右側面図である。It is a right view of a tip arm. 先端アームの左側面図である。It is a left side view of a tip arm. 先端アームの正面断面図である。It is a front sectional view of a tip arm. カメラにより撮像された画像の処理とシーリングガンの駆動制御を実行する制御系の構成を説明するブロック図である。It is a block diagram explaining the structure of the control system which performs the process of the image imaged with the camera, and drive control of a sealing gun. マスターデータの作成手順を説明するフローチャートである。It is a flowchart explaining the creation procedure of master data. 図14及び図16に示す撮像処理及び基準点の位置測定処理の概念図である。FIG. 17 is a conceptual diagram of imaging processing and reference point position measurement processing shown in FIGS. 14 and 16. 塗装作業の手順を説明するフローチャートである。It is a flowchart explaining the procedure of a painting operation. 補正処理の手順を説明するフローチャートである。It is a flowchart explaining the procedure of a correction process. 図17に示す補正処理の概念図である。It is a conceptual diagram of the correction process shown in FIG. 補正処理の変更例の手順を説明するフローチャートである。It is a flowchart explaining the procedure of the example of a change of a correction process. 図19に示す補正処理の変更例の概念図である。It is a conceptual diagram of the example of a change of the correction process shown in FIG.

符号の説明Explanation of symbols

6a,6b,6c,6d ロボット
25 シーリングガン
28 カメラブラケット
33 カメラ
100 車体(サンプル含む)
6a, 6b, 6c, 6d Robot 25 Sealing gun 28 Camera bracket 33 Camera 100 Car body (including sample)

Claims (6)

対象物を実測して得た位置データに基づき該対象物の位置の基準となるマスターデータに対する補正値を算出し、該マスターデータに補正値を加味した補正位置データに基づいて前記対象物の所定部位に作業を行う構成の装置に適用される位置測定方法であって、
対象物の複数のサンプル各々に設けられている複数の基準点の位置を測定して基準点の位置データを取得する事前測定ステップと、
該事前測定ステップで取得された前記各サンプルの複数の基準点の位置データに基づいて該複数の基準点の各々について前記マスターデータを事前に算出する事前算出ステップと、
対象物に設けられている複数の基準点の位置を測定して基準点の位置データを取得する実測ステップと、
該実測ステップで取得された前記位置データに基づいて前記事前算出ステップで算出されたマスターデータに対する補正値を算出する補正値算出ステップとを有し、
前記補正値算出ステップが、
前記マスターデータ間の位置関係を、前記各マスターデータが通る第1の円によって定義するステップと、
前記実測ステップで測定された各基準点間の位置関係を、各基準点が通る第2の円によって定義するステップと、
前記第1の円を規定する第1の座標系を前記第2の円を規定する第2の座標系に変換するための座標変換量を算出するステップと、
式L1(φ) +L2(φ) +……+Ln(φ) が最小値をとるときの角度φを求めるステップとを有し、
ここで、φは、前記第1の円の法線周りに回転したときの回転角、Ln(φ)は、前記第1の円が角度φだけ法線回りに回転したときの、n個目のマスターデータと該n個目のマスターデータと対応する基準点の位置データとの間の距離であり、
更に、前記座標変換量及び前記角度φを前記補正値として算出するステップを有することを特徴とする位置測定方法。
Based on the position data obtained by actually measuring the object, a correction value for the master data serving as a reference for the position of the object is calculated, and the predetermined value of the object is determined based on the correction position data obtained by adding the correction value to the master data. A position measurement method applied to an apparatus configured to work on a site,
A pre-measurement step of measuring the position of a plurality of reference points provided in each of a plurality of samples of the object to obtain position data of each reference point;
A pre-calculation step for pre-calculating the master data for each of the plurality of reference points based on the position data of the plurality of reference points of each sample acquired in the preliminary measurement step;
An actual measurement step of measuring the positions of a plurality of reference points provided on the object and obtaining position data of each reference point;
Have a correction value calculation step of calculating a correction value for the master data calculated by the pre-calculating step based on the positional data obtained by said actual measurement step,
The correction value calculating step includes:
Defining a positional relationship between the master data by a first circle through which each of the master data passes;
Defining a positional relationship between each reference point measured in the actual measurement step by a second circle through which each reference point passes;
Calculating a coordinate conversion amount for converting the first coordinate system defining the first circle into the second coordinate system defining the second circle;
Calculating the angle φ when the expression L1 (φ) 2 + L2 (φ) 2 +... + Ln (φ) 2 takes the minimum value,
Here, φ is the rotation angle when rotating around the normal line of the first circle, and Ln (φ) is the nth rotation angle when the first circle rotates around the normal line by the angle φ. And the position data of the reference point corresponding to the n-th master data and the n-th master data,
Furthermore, the position measuring method characterized by have a step of calculating the coordinate conversion amount and the angle φ as the correction value.
前記事前測定ステップにおいて、ステレオ視により前記サンプルを撮影した一対の画像に基づいて、三次元の前記位置データが取得され、
前記実測ステップにおいて、ステレオ視により前記対象物を撮影した一対の画像に基づいて、三次元の前記位置データが取得されることを特徴とする請求項1に記載の位置測定方法。
In the preliminary measurement step, based on a pair of images obtained by photographing the sample by stereo vision, the three-dimensional position data is acquired,
The position measurement method according to claim 1, wherein in the actual measurement step, the three-dimensional position data is acquired based on a pair of images obtained by photographing the object by stereo vision.
前記事前算出ステップにおいて、前記マスターデータが各サンプルの基準点の位置データを平均することによって算出されることを特徴とする請求項1または2に記載の位置測定方法。   3. The position measuring method according to claim 1, wherein in the pre-calculation step, the master data is calculated by averaging position data of reference points of each sample. 測定対象物の位置の基準となるマスターデータを記憶する記憶部と、
対象物に設けられた複数の基準点の位置を測定して位置データを取得する測定部と、
該測定部で取得された位置データに基づいて前記マスターデータを補正するための補正値算出部とを有する位置測定装置であって、
測定対象物の実測の事前に、前記測定部により前記測定対象物の複数のサンプルの各々に設けられた複数の基準点の位置が測定されて各サンプルの複数の基準点の位置データが取得され、前記記憶部に該取得された各位置データに基づいて算出された前記マスターデータが記憶され、
測定対象物の実測時に、前記補正値算出部が、前記記憶部に記憶された前記マスターデータを、実測された測定対象物の基準点の位置データに基づいて補正する構成であり、
前記補正値算出部は、前記マスターデータ間の位置関係を、前記各マスターデータが通る第1の円によって定義し、実測された各基準点間の位置関係を各基準点が通る第2の円によって定義し、前記第1の円を規定する第1の座標系を前記第2の円を規定する第2の座標系に変換するための座標変換量を算出し、式L1(φ) +L2(φ) +……+Ln(φ) が最小値をとるときの角度φを求め、前記座標変換量及び前記角度φを補正値として算出し、
ここで、φは、前記第1の円の法線周りに回転したときの回転角、Ln(φ)は、前記第1の円が角度φだけ法線回りに回転したときの、n個目のマスターデータと該n個目のマスターデータと対応する基準点の位置データとの間の距離であることを特徴とする位置測定装置。
A storage unit for storing master data serving as a reference for the position of the measurement object;
A measurement unit that measures the positions of a plurality of reference points provided on the object and obtains position data;
A position measurement device having a correction value calculation unit for correcting the master data based on the position data acquired by the measurement unit,
Prior to actual measurement of the measurement object, the measurement unit measures the positions of a plurality of reference points provided on each of the plurality of samples of the measurement object, and acquires position data of the plurality of reference points of each sample. , The master data calculated based on the acquired position data is stored in the storage unit,
When measured of the measuring object, the correction value calculation unit, the master data stored in the storage unit, Ri configuration der to correct based on the position data of the reference points of the actually measured measurement object,
The correction value calculation unit defines a positional relationship between the master data by a first circle through which the master data passes, and a second circle through which each reference point passes through a measured positional relationship between the reference points. And a coordinate transformation amount for transforming the first coordinate system defining the first circle into the second coordinate system defining the second circle is calculated, and the expression L1 (φ) 2 + L2 (Φ) 2 +... + Ln (φ) 2 is obtained as an angle φ when the minimum value is obtained, and the coordinate transformation amount and the angle φ are calculated as correction values,
Here, φ is the rotation angle when rotating around the normal line of the first circle, and Ln (φ) is the nth rotation angle when the first circle rotates around the normal line by the angle φ. position measuring device according to claim distance der Rukoto between the master data and said n-th master data and the position data of the corresponding reference point.
前記基準点をステレオ視により撮影する第1及び第2のカメラを備え、前記測定部は該第1及び第2のカメラで撮影された一対の画像に基づいて基準点の位置データを取得する構成であり、
該第1及び第2のカメラが、単一のロボットアームに取り付けられていることを特徴とする請求項に記載の位置測定装置。
A first and second camera that captures the reference point by stereo vision, and the measurement unit acquires position data of the reference point based on a pair of images captured by the first and second cameras And
The position measuring apparatus according to claim 4 , wherein the first and second cameras are attached to a single robot arm.
前記ロボットアームに、前記補正部により補正された位置データに基づいて測定対象物に所定の作業を行う作業装置が搭載されていることを特徴とする請求項に記載の位置測定装置。 The position measuring device according to claim 5 , wherein a working device for performing a predetermined work on the measurement object based on the position data corrected by the correcting unit is mounted on the robot arm.
JP2008194321A 2008-07-29 2008-07-29 Position measuring method and position measuring apparatus Expired - Fee Related JP5204575B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008194321A JP5204575B2 (en) 2008-07-29 2008-07-29 Position measuring method and position measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008194321A JP5204575B2 (en) 2008-07-29 2008-07-29 Position measuring method and position measuring apparatus

Publications (2)

Publication Number Publication Date
JP2010032339A JP2010032339A (en) 2010-02-12
JP5204575B2 true JP5204575B2 (en) 2013-06-05

Family

ID=41736992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008194321A Expired - Fee Related JP5204575B2 (en) 2008-07-29 2008-07-29 Position measuring method and position measuring apparatus

Country Status (1)

Country Link
JP (1) JP5204575B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4344887A1 (en) * 2022-09-30 2024-04-03 The Boeing Company Robotics for inkjet printing vehicle livery

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5686279B2 (en) * 2010-09-16 2015-03-18 いすゞ自動車株式会社 Work posture detection device, work processing execution device, and work posture detection method
JP5973863B2 (en) * 2012-10-02 2016-08-23 住友ゴム工業株式会社 Inspection method for core assembly
JP6416456B2 (en) * 2012-10-16 2018-10-31 Jfeスチール株式会社 Car body stiffness test apparatus and car body stiffness test method
JP2019076854A (en) * 2017-10-26 2019-05-23 トヨタ自動車株式会社 Paint apparatus
CN112077862A (en) * 2020-09-29 2020-12-15 广汽本田汽车有限公司 Vision photographing robot

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62226308A (en) * 1986-03-28 1987-10-05 Fanuc Ltd Control system for robot having visual sensor
JP2767417B2 (en) * 1986-08-29 1998-06-18 ファナック 株式会社 Robot control device
JP2782959B2 (en) * 1991-01-31 1998-08-06 日産自動車株式会社 Automatic mounting device with visual function
JPH06246436A (en) * 1993-02-25 1994-09-06 Sharp Corp Brazing equipment
JP3665353B2 (en) * 1993-09-14 2005-06-29 ファナック株式会社 3D position correction amount acquisition method of robot teaching position data and robot system
JPH0944218A (en) * 1995-08-02 1997-02-14 Nippon Telegr & Teleph Corp <Ntt> Position and attitude correcting method for object and taught course correcting method for robot
JPH11296218A (en) * 1998-04-09 1999-10-29 Hitachi Ltd Method for off line teaching of robot
JP3950805B2 (en) * 2003-02-27 2007-08-01 ファナック株式会社 Teaching position correction device
JP4830444B2 (en) * 2005-10-21 2011-12-07 パナソニック株式会社 Laser processing apparatus and laser processing method
JP2007240342A (en) * 2006-03-09 2007-09-20 Tokyo Electric Power Co Inc:The Flaw inspection apparatus and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4344887A1 (en) * 2022-09-30 2024-04-03 The Boeing Company Robotics for inkjet printing vehicle livery

Also Published As

Publication number Publication date
JP2010032339A (en) 2010-02-12

Similar Documents

Publication Publication Date Title
JP7153085B2 (en) ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD
JP5204575B2 (en) Position measuring method and position measuring apparatus
JP6423848B2 (en) Method for determining the three-dimensional coordinates of an object
US8346392B2 (en) Method and system for the high-precision positioning of at least one object in a final location in space
JP4827744B2 (en) Inspection path setting and inspection area determination method
CA2765626C (en) Calibration method for a measuring system
CN102448679B (en) Method and system for extremely precise positioning of at least one object in the end position in space
JP6661028B2 (en) Work position correction method
CN108827264B (en) Mobile workbench and its mechanical arm optics target positioning device and localization method
JP6922204B2 (en) Controls, robots and robot systems
JP5811327B2 (en) Camera calibration device
CN111707189B (en) Laser displacement sensor light beam direction calibration method based on binocular vision
JP5686279B2 (en) Work posture detection device, work processing execution device, and work posture detection method
TW201900316A (en) Laser processing device
JPH08132373A (en) Coordinate system coupling method in robot-sensor system
JP2007533963A (en) Non-contact optical measuring method and measuring apparatus for 3D position of object
JP7427370B2 (en) Imaging device, image processing device, image processing method, calibration method for imaging device, robot device, method for manufacturing articles using robot device, control program, and recording medium
JP2007533963A5 (en)
KR20200127751A (en) System and method for teaching sealing robots
JPH0545117A (en) Optical method for measuring three-dimensional position
JP2016187851A (en) Calibration device
KR20060036331A (en) The automotive position measuring system on a continuously moving conveyor and method thereof
JP7035902B2 (en) Measurement system, measurement method, and measurement program
WO2020051748A1 (en) Calibration method and calibration apparatus
CN116803627A (en) Method and device for detecting object with correction function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees