KR19990082673A - Automated Methodology for 3D Image Measurement Systems - Google Patents

Automated Methodology for 3D Image Measurement Systems Download PDF

Info

Publication number
KR19990082673A
KR19990082673A KR1019980706419A KR19980706419A KR19990082673A KR 19990082673 A KR19990082673 A KR 19990082673A KR 1019980706419 A KR1019980706419 A KR 1019980706419A KR 19980706419 A KR19980706419 A KR 19980706419A KR 19990082673 A KR19990082673 A KR 19990082673A
Authority
KR
South Korea
Prior art keywords
targets
images
auto
identifiable
measurement
Prior art date
Application number
KR1019980706419A
Other languages
Korean (ko)
Inventor
호어스트 아 바이어
Original Assignee
바이에르 호르스트 아
이메트릭 소시에떼아노님
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이에르 호르스트 아, 이메트릭 소시에떼아노님 filed Critical 바이에르 호르스트 아
Publication of KR19990082673A publication Critical patent/KR19990082673A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)

Abstract

표적들 및/또는 표적들의 패턴들 또는 그룹들로 구성된 화상들의 외부 방위를 결정함으로써, 자동 확인가능 표적들을 이용하는 3D 화상 계측 방법.3D image metrology method using auto-verifiable targets by determining the external orientation of images composed of targets and / or patterns or groups of targets.

Description

3D 화상 계측 시스템을 위한 자동화 방법론Automated Methodology for 3D Image Measurement Systems

본 발명의 배경은 지금까지의 3D 화상 계측 시스템에서의 수동 작업의 자동화를 위한 방법론이다.Background of the invention is a methodology for the automation of manual tasks in a 3D image metrology system to date.

예컨대, 오늘날 로봇들은 오프라인으로 프로그램되며, 이것은 컴퓨터 시뮬레이션 프로그램을 이용하여 로봇을 학습시키는 것을 의미한다. 로봇 팔의 (robot arm) 역학적 이동에 있어서의 기술적 한계 때문에, 로봇 팔의 프로그램된 위치와 실제 위치 사이에 차이가 있다. 이러한 차이는 로봇 교정 시스템 (robot calibration system) 으로 측정되고, 다른 앵클들 (ankles) 을 위한 보정 다항식 (polynoms) 이 유도된다. 시뮬레이션을 위한 상기 보정을 이용하여, 실제 로봇 이동의 정밀도를 높일 수 있다. 3 개 또는 4 개의 CCD 카메라들이 측정 부피 (measurement volume) 를 관찰하기 위하여 로봇 주위에 장착된다. 카메라들은 도구 중심점 (tool center point) 과 특정한 관계를 가지며, 그 위에 장착된 자동 인식가능 표적들을 탐지한다. 이러한 탐지들에 따라 교정 과정 (calibration process) 이 활성화되고, 시뮬레이션을 위한 보정이 확립된다.For example, today robots are programmed offline, which means using a computer simulation program to train the robot. Due to technical limitations in the mechanical movement of the robot arm, there is a difference between the programmed and actual position of the robot arm. This difference is measured with a robot calibration system and calibration polynoms for different ankles are derived. By using the correction for the simulation, it is possible to increase the accuracy of the actual robot movement. Three or four CCD cameras are mounted around the robot to observe the measurement volume. Cameras have a specific relationship to the tool center point and detect auto-recognizable targets mounted thereon. These detections activate the calibration process and establish calibration for the simulation.

표적들은 자동 탐지 및 확인을 용이하게 하도록 설계된다. 예컨대, 표적들은 검은 바탕에 동심원의 흰 원으로 설계될 수 있다. 동심원 주위에 10 비트의 표적 확인이 코드되는 라벨 영역으로써 또다른 동심원이 있다. 동심원은 수동 측정을 용이하게 하기 위해 중앙에 흑점 (black dot) 을 갖는다. 검은 색과 흰 색은 최대 대조 효과를 얻기 위해 선택된 색이다.Targets are designed to facilitate automatic detection and verification. For example, the targets can be designed as concentric white circles on a black background. There is another concentric circle as the label region where 10 bits of target identification is coded around the concentric circle. Concentric circles have a black dot in the center to facilitate manual measurement. Black and white are the colors chosen for maximum contrast.

따라서, 본 발명의 부분 즉, 자동 인식가능 표적이 이미 사용되었다.Thus, part of the invention, that is, an auto-recognizable target, has already been used.

자동화의 상기 목적에 도달하기 위한 다수의 시도들이 실행되었다. 현재까지 모든 시도들이 부분적인 결과들만을 얻을 수 있었으며, 광범한 사용에는 적절하지 못하다.Many attempts have been made to reach this purpose of automation. To date, all attempts have yielded partial results and are not suitable for widespread use.

각 표적들을 자동 확인하는 한 접근법은 표적들의 상이한 폼 및 형태들에 의존한다. 원, 직사각형 및 십자형 등과 같은 다양한 기하학적인 형태로 구성된 표적들은 표적들의 2D 패턴들을 구별하는데 사용된다. 상기 접근법은 상대적으로 큰 표적을 요구하며, 다수의 상이한 패턴들에는 허용할 수 없다.One approach to automatically identifying each target relies on different forms and forms of targets. Targets composed of various geometric shapes such as circles, rectangles and crosses are used to distinguish 2D patterns of targets. This approach requires a relatively large target and is unacceptable for many different patterns.

또다른 접근법은 원형 표적들 주위에 부가된 선형 패턴 영역을 갖는 표적을 사용하였다. 상기 패턴은 전형적인 바코드와 유사하였다. 상기 코드는 표적 자체만으로 집적되지 못하고 상대적으로 더 넓은 공간을 필요로 한다. 상기 표적들은 소위 "코드된" 표적들이라고 불리며, 그 당시 수 개의 그룹에 의해 개발되었다.Another approach used a target with a linear pattern region added around circular targets. The pattern was similar to a typical barcode. The code is not integrated with the target itself and requires a relatively wider space. These targets are called "coded" targets and were developed by several groups at the time.

코드된 표적들을 이용한 또다른 접근법은 표적 주위의 비트 패턴을 이용한다. 상기 패턴은 표적의 회전에 무관하게 설계된 2 진 비트 패턴이었다. 두 가지의 주요 단점은 상기 표적들에게 공통적이다. CCD 카메라들을 사용할 때, 표적과 코드 사이의 거리가 너무 짧고, 예컨대, 전형적으로, 문자숫자식 (alphanumeric) 라벨들이 아닌 1, 2, 3 과 같은 숫자의 코드로 제공되는 라벨들만을 이용할 수 있다. 표적 및 코드 사이의 불충분한 양의 공간은 표적의 측정 정밀도를 떨어뜨린다. 수백 개의 표적들을 갖는 그룹들이 상기 접근법으로 확인되었다. 모든 코드들은, 표적의 라벨링 영역 내에서 인코드된 라벨과 동일한, 표적을 위한 라벨만을 사용하도록 제공되었다.Another approach with coded targets uses a bit pattern around the target. The pattern was a binary bit pattern designed independent of the rotation of the target. Two major drawbacks are common to these targets. When using CCD cameras, the distance between the target and the code is too short and it is possible, for example, to use only labels provided with numerical codes such as 1, 2, 3, typically not alphanumeric labels. Insufficient amount of space between the target and the cord degrades the measurement accuracy of the target. Groups with hundreds of targets were identified with this approach. All codes were provided to use only the label for the target, which is the same as the label encoded within the labeling area of the target.

게다가, 어떤 시스템들은 표적 그룹들을 사용하여 하나의 특정 그룹을 확인하고, 상기 그룹을 통하여 상기 그룹의 개개의 표적들을 확인한다. 상기 기술들은, 화상 및/또는 3D 공간에서 확인될 수 있는, 그룹 내의 모든 표적들의 특정 기하학적 관계에 의존한다.In addition, some systems use target groups to identify one particular group and through that group identify individual targets of the group. The techniques rely on the specific geometric relationship of all targets in the group, which can be identified in the image and / or 3D space.

요소를 확인하는 다른 접근법은 서로 특정한 기하학적 관계를 갖고, 화상 혹은 심지어 3D 공간 내에서 다른 표적들과 식별되는 표적의 그룹을 이용하는 것이다. 상기 기술들의 단점은 하나가 항상 수 개의 표적들을 필요로 하고, 그 기술이 합리적인 경제적 노력과 합리적인 공간 여건으로는 다수의 상이한 그룹들을 허용할 수 없다는 사실에 있다.Another approach to identifying elements is to use groups of targets that have specific geometric relationships with each other and are identified with other targets in the image or even in 3D space. The disadvantage of the above techniques lies in the fact that one always requires several targets and that the technique cannot tolerate many different groups with reasonable economic effort and reasonable space conditions.

게다가 상기 접근법은, 확인가능한 표적의 수를 증가시키기 위해, 색의 사용과 결합되었다.In addition the approach has been combined with the use of color to increase the number of identifiable targets.

자동화의 또다른 면은 라벨, 색, 형태 등과 같은 특정한 개개의 특성들을 통해 확인되지 않는 표적들의 일치성을 확립하는 것이다. 2 가지의 기본적인 기술들이 개발되어 상기 문제를 극복하였다. 하나는 기하학적 조건들을 유도할 수 있는 화상들 사이의 기하학적 관계, 즉 에피폴라 라인 (epipolar line) 을 이용한다. 상기 기술을 이용하면, 다수의 표적들 사이의 일치성을 자동으로 확립할 수 있게 된다. 화상 및 물체 공간 사이의 기하학적 관계가 사용되는 유사한 접근법이 멀티포토 기하학적 제한 매칭법 (Multiphoto Geometrically Constrained Matching) 이다. 또다른 접근법에서는, 점들의 3D 관계가 직접 이용된다. 상기 기술들은 화상들의 외부 방위, 상대적인 방위 혹은 그 양자를 미리 알아야하는 것을 요구하기 때문에, 상기 기술들은 둘 다 상기 문제의 일부만을 다루었다.Another aspect of automation is to establish consistency of unidentified targets through specific individual characteristics such as label, color, shape, and the like. Two basic techniques have been developed to overcome this problem. One uses a geometric relationship between images that can derive geometric conditions, namely epipolar line. Using this technique, it is possible to automatically establish correspondence between multiple targets. A similar approach in which the geometric relationship between image and object space is used is Multiphoto Geometrically Constrained Matching. In another approach, the 3D relationship of the points is used directly. Since the techniques require knowing in advance the outer orientation, relative orientation of the images or both, the techniques both addressed only part of the problem.

화상들 내의 대응점들의 일치성 확립은 점들의 3D 관계를 이용하는 것 뿐만 아니라, 에피폴라 기하 (epipolar geometry) 를 이용하여 수행될 수 있다.Establishing correspondence of corresponding points in the images can be performed using epipolar geometry as well as using the 3D relationship of the points.

자동으로 각각의 표적을 확인할 수 있는 상기 공지 해법은 다소 제한되며, 다음의 단점들이 나타난다:The known solutions that can automatically identify each target are somewhat limited, with the following disadvantages:

1. 충분한 정밀도로 표적들을 측정할 수 없다 (모든 기술들에 대해서는 아님).1. Can't measure targets with sufficient precision (not for all techniques).

2. 많은 응용에 있어서 문자숫자 라벨이 요구되어도, 단지 숫자 라벨들만이 표적들과 연관되어 있다.2. Although alphanumeric labels are required in many applications, only numeric labels are associated with targets.

3. 표적들의 그룹은, 관련된 라벨 영역을 갖는 표적보다 더 많은 공간을 요구한다.3. A group of targets requires more space than a target with an associated label area.

4. 다수의 표적들을 갖는 응용에서 표적들의 그룹을 다른 표적들과 충분히 확인할 수 없다.4. In applications with multiple targets, the group of targets may not be sufficiently identified with other targets.

자동 확인가능 표적들은 필름 베이스드 3D 화상 계측 시스템 (film based 3D image metrology systems) 으로 이전에 구상되었다. 그들은 CCD 센서 또는 다른 디지털 화상 시스템의 이미징 특성들을 중요하게 다루지 못했다.Auto-identifiable targets were previously envisioned as film based 3D image metrology systems. They did not address the imaging characteristics of CCD sensors or other digital imaging systems.

일치성 확립은 자동 확인 표적들을 사용하지 않고 초기 화상 방위를 확립했다. 완전한 시스템에 대해, 그들은 자동으로 물체를 확인하는 것을 허용하지 않았다.Consistent establishment established initial image orientation without the use of automatic identification targets. For the complete system, they did not allow to check the object automatically.

1. 특정 응용을 위해 관련된 모든 데이터를 자동으로 로드하는 메커니즘을 위해 제공되지 않았다.1. Not provided for a mechanism to automatically load all relevant data for a particular application.

2, 높은 측정 정밀도, 폐색 면제 (immunity to occlusions), 및 문자숫자 라벨들을 위해 제공되지 않았다.2, not provided for high measurement precision, immunity to occlusions, and alphanumeric labels.

3. 그들의 공간적 위치에 대한 인지와 무관한 어댑터들의 자동 확인을 위해 제공되지 않았다.3. It is not provided for automatic identification of adapters that are irrelevant to their spatial location.

전체적으로, 현행 방법들은 지금까지 단지 문제의 일부분만을 다루고 있었다.Overall, current methods have only addressed part of the problem so far.

발명의 목적Purpose of the Invention

본 발명의 목적은 부분적으로 또는 전체적으로, 화상 계측을 이용한 치수 측정을 위해 부분적 및/또는 완전한 자동화를 제공하는 것이다. 로봇 또는 다른 제조 시스템 예컨대, 기계 가공 (machining), 피팅 (fitting), 움직임 (moving) 등을 위해 관리되는 자동화된 생산 시스템들 내에서, 3D 화상 계측이 완전 자동으로 수행되는 시스템이 가장 중요하다.It is an object of the present invention, in part or in whole, to provide partial and / or complete automation for dimensional measurements using image metrology. In automated production systems managed for robotic or other manufacturing systems such as machining, fitting, moving, etc., the system in which 3D image metrology is performed fully automatically is of paramount importance.

본 발명의 또다른 목적은 상기 시스템들이 사용되는 다른 응용 및/또는 3D 화상 계측에서 더 높은 정도 또는 더욱 완전한 자동화를 제공하는 것이다.It is another object of the present invention to provide a higher degree or more complete automation in 3D image metrology and / or other applications in which the systems are used.

발명의 요약Summary of the Invention

본 발명은 다음의 종속 작업들에 적용된다:The invention applies to the following dependent tasks:

- 화상의 외부 방위를 자동 결정하기 위한 표적들을 조사.Investigating targets for automatically determining the external orientation of the image.

- 상기 화상들 내의 일치점들을 설립하기 위하여 수 개의 화상들 내에서 표적들을 조사.Search for targets in several pictures to establish matches in the pictures.

- 그들의 관계를 설립하기 위하여, 전기광학 시스템 내의 상이한 시야에서 표적들을 발견.Find targets in different fields of view in the electro-optic system to establish their relationship.

- 좌표계의 정의를 위해 기준으로 사용되는 표적 확인.Identification of the target used as a reference for the definition of the coordinate system.

- 특정 어댑터 및 그의 기하학적 및/또는 다른 특성들을 확인하기 위한 측정 어댑터들을 확인.Identifying the measuring adapters for identifying the particular adapter and its geometric and / or other properties.

상기 어댑터들에 대한 예들은:Examples for the adapters are:

- 소정의 오프셋들 및 다른 기하학적 매개변수들을 알고 있는 각각의 표적들.Respective targets knowing certain offsets and other geometric parameters.

- 그들이 참고할 다른 공간 위치와 일직선을 이루는 2 개 이상의 표적들.Two or more targets in line with other spatial locations for their reference.

- 하나 이상의 다른 공간 위치들과 공간 관계 내에 있는 3 개 이상의 표적들.Three or more targets in spatial relationship with one or more other spatial locations.

그 예들은:Examples are:

- 3 개 이상의 가시 표적들과 물체 표면상에 있는 3 개 이상의 반구들로 구성된 어댑터들. 가시 표적들 및 다른 위치들은 공지된 상대적인 공간 관계에 있다.Adapters consisting of three or more visible targets and three or more hemispheres on the object surface. Visible targets and other positions are in a known relative spatial relationship.

- 하나 이상의 위치와 관계가 있는 3 개 이상의 가시 표적들로 구성된 어댑터들. 상기 가시 표적들 및 다른 위치들은 공지된 상대적인 공간 관계 내에 있다. 물리적인 예들은, 이메트릭 시스템 (Imetric system) 의 터치프로브 (touchprobe) 인 디지펜 (DigiPen) 또는 TI2시스템 내의 스핀들 및 상기 스핀들 홀더 상의 표적들이다.Adapters consisting of three or more visible targets associated with one or more locations. The visible targets and other positions are within known relative spatial relationships. Physical examples are spindles in a DigiPen or TI 2 system, which is a touchprobe of an Imetric system, and targets on the spindle holder.

- LUTLUT

본 발명은 3D 화상 계측 시스템의 미래의 향상에 일부가 될 것이다.The present invention will be part of the future enhancement of 3D image metrology systems.

다른 시스템들에도 응용가능하다. 산업상의 제조 시스템에서도 역시 이용될 수 있다.It is also applicable to other systems. It can also be used in industrial manufacturing systems.

본 발명은 사진 측량법을 이용한 3D 화상 계측에 관한 것이다.The present invention relates to 3D image measurement using photogrammetry.

본 발명은 3D 화상 계측에 적용되지만, 그 이외의 전기 광학 시스템에도 적용될 수 있다. 3D 화상 계측은, 3D 기하학적 정보 및 다른 정보가, 이미징 레이더 (imaging radar) 또는 수중 음파 탐지기 (sonar) 등과 같은 표준 이미징 시스템 또는 다른 장치들을 통해 얻어진 화상 (imagery) 으로부터 추출되는 모든 영역들에 대해 적용할 수 있다. 전형적인 적용 영역은 설계, 개발, 생산에서 품질 관리에 이르는 산업상의 공정, 공학 뿐만 아니라 예술 및 의학 등과 같은 영역에서도 수행될 수 있는 치수 측정들이다.The present invention applies to 3D image measurement, but can also be applied to other electro-optical systems. 3D image metrology applies to all areas where 3D geometric information and other information are extracted from imagery obtained through standard imaging systems or other devices such as imaging radar or sonar, etc. can do. Typical areas of application are dimensional measurements that can be performed in areas such as the arts and medicine as well as industrial processes, from design, development and production to quality control.

본 발명은 개개의 원리 또는 개개 기술들의 임의의 결합에 따른 현재의 실행에서 다음의 단계들을 이용한다.The present invention utilizes the following steps in the current implementation in accordance with any combination of individual principles or individual techniques.

1. 측정 정밀도: 중앙 표적이 배치될 수 있는 정밀도를 감소시키지 않기 위해서, 자동 확인가능 표적의 설계는 표적을 확인하는데 사용되는 중앙 표적 및 라벨 영역, 즉 2 진 코드 또는 다른 코드를 갖는 영역 사이의 거리가 충분히 크다. 중앙 표적이 최적 측정 정밀도를 위해 주어지도록, 즉 일반적으로 6 픽셀의 지름 상에 촬상되도록 설계되었을 때, 상기 거리는 중앙 표적의 지름 이상으로 정해졌다.1. Measurement accuracy: In order not to reduce the accuracy with which the central target can be placed, the design of the auto-identifiable target is carried out between the central target and the label area, ie the area with the binary or other code, used to identify the target. The distance is big enough When the central target was designed to be given for optimal measurement accuracy, i.e., to be imaged generally on a diameter of 6 pixels, the distance was set to be greater than the diameter of the central target.

2. 라벨 영역의 부분적 폐색 면제: 많은 응용들에서, 라벨을 포함한 영역 부분은 이미징 시스템 및 라벨 영역 사이에 있는 다른 물체들로부터 폐색될 수 있다. 코드 내의 여분과, 라벨 주변 경계 등과 같은 부가 영역과, 자동 확인가능 표적이 이용되었던 선험적 지식들을 이용한 기술들이 개개 또는 결합되어 상기 문제들을 피할 수 있다.2. Partial Occlusion of Label Regions: In many applications, the region portion containing a label may be occluded from other objects between the imaging system and the label region. The above problems can be avoided by combining or combining extra areas in the code, additional areas such as label perimeters, and a priori knowledge using auto-identifiable targets.

3. 라벨링 자유: 특정 표적들을, 상이하게 라벨하고 싶은 특정 점들 상에 적용해야 하는 문제를 극복하기 위해, 표적의 라벨과 물리적 라벨 사이의 번역이 이용된다. 라벨 "11" 을 갖는 상기 자동 확인가능 표적은 라벨 "A" 를 갖는 표적으로 이용될 수 있다. 이것은 예컨대, "사용자 (user)" 라벨이 표적의 각 물리적 라벨과 접속된 룩업테이블 (look up table) 을 이용하여 수행될 수 있다. 상기 룩업테이블은 사용자가 정의할 수 있거나, 고정될 수 있다. 또한, 이중 룩업테이블 (double look up table) 이 이용될 수 있는데 즉, 라벨 영역에 의해 제공된 라벨이 먼저 다른 라벨로 번역되고, 후에 그 이상의 프로세싱에서 사용되는 라벨과 최종적으로 관련된다. 예컨대, 표적 상의 라벨이 라벨 "11" 을 포함한다. 표적 상에서, 이름 "A" 가 사람을 확인하는데 사용될 수 있지만, 특정 응용에서 표적은 그 표적 "X" 와 같이 사용될 수 있다. 이것은 다수의 상이한 응용을 이행하기 위해 물리적으로 요구되는 자동 인식가능 표적들의 수를 감소시키는 것을 도와준다.3. Labeling Freedom: In order to overcome the problem of applying specific targets on specific points that would like to be labeled differently, a translation between the label of the target and the physical label is used. The auto-identifiable target with label "11" can be used as a target with label "A". This can be done, for example, using a look up table in which a "user" label is associated with each physical label of the target. The lookup table may be user defined or may be fixed. In addition, a double look up table can be used, that is, the label provided by the label area is first translated into another label and then finally associated with the label used in further processing. For example, the label on the target includes the label "11". On the target, the name "A" may be used to identify a person, but in certain applications the target may be used like that target "X". This helps to reduce the number of automatically recognizable targets that are physically required to implement many different applications.

4. 물체 측정 확인: 여기서, 하나 이상의 자동 확인가능 표적들의 라벨들이 특정 물체를 확인하는데 사용된다. 예컨대, 자동차의 모델 "A" 의 후드 (hood) 가 라벨 "K" 를 갖는 자동 확인가능 표적들을 가지고, 자동차의 모델 B 의 후드가 라벨 "Y" 를 갖는 자동 확인가능 표적을 가질 것이다. 하나 이상의 라벨들이 사용될 수 있다. 상기 정보에 기초하여, 특정 물체와 관련된 데이터가 자동 선택될 수 있다. 안전 장치 (예컨대, 제조에 있어서, 품질 정밀 검사를 수행할 때) 로서 상기 물체 확인을 이용하여, 특정 물체와 관련된 데이터를 부하시킨다.4. Object Measurement Verification: Here, labels of one or more automatically verifiable targets are used to identify the specific object. For example, the hood of the model "A" of the car would have auto-identifiable targets with the label "K", and the hood of the model B of the car would have the auto-identifiable target with the label "Y". One or more labels may be used. Based on the information, data associated with the particular object can be automatically selected. The object identification is used as a safety device (eg in manufacturing, when performing a quality overhaul) to load data associated with a particular object.

5. 디폴트 프로젝트 방법: 특정 작업에 속한 데이터 (예컨대, 기준 위치들의 좌표계, 어댑터들을 위한 보상, 수행된 치수) 가 "디폴트 프로젝트" 내에 수집된 자동 확인가능 표적들과 관련하여 이용되는 방법론. 이것은 관련 데이터를 포함한 파일들의 집합 또는 데이터 베이스로의 특정 액세스 또는 관련 데이터에 액세스하고 저장하는 어떤 다른 기술일 수 있다.5. Default Project Method: Methodology in which data pertaining to a particular task (eg, coordinate system of reference positions, compensation for adapters, dimensions performed) is used in connection with the automatically identifiable targets collected in the "default project". This may be a collection of files containing related data or any other technique of accessing and storing a particular access to a database or related data.

6. 자동화된 방위:6. Automated Bearings:

측정 시스템의 배치에서 자동 확인가능 표적들이 외부 방위 및/또는 하나 이상의 카메라/화상들의 상대적인 방위를 자동으로 계산하는 프로시져 (procedure).A procedure where automatically identifiable targets in the placement of the measurement system automatically calculate the external orientation and / or the relative orientation of one or more cameras / images.

측정하는 동안, 자동 확인가능 표적들이 고정된 물체들 및 카메라(들) 사이의 관계의 최후 변화를 설명하기 위해 및/또는 다른 측정을 수행하기 위해, 자동 확인가능 표적들이 이용되어 하나 이상의 카메라/화상들의 외부 방위를 자동으로 계산하는 프로시져.During the measurement, the auto-identifiable targets are used to describe one or more cameras / images in order to account for the last change in the relationship between the fixed objects and the camera (s) and / or to perform other measurements. A procedure for automatically calculating the external bearing of a person.

3 개 이상의 자동 확인가능 표적들이 사용되어 특정 좌표계를 확립하는 임의의 프로시져.Any procedure wherein three or more automatically verifiable targets are used to establish a particular coordinate system.

상기 모든 프로시져들에서, 3 개 이상의 자동 확인가능 표적들이 반드시 알려져야만 한다.In all of the above procedures, three or more auto-identifiable targets must be known.

7. 자동화된 측정:7. Automated Measurement:

2 개 이상의 화상들 내의 표준 표적들 사이의 일치성을 확립할 수 있기 위해, 자동 확인가능 표적들 (외부 방위) 또는 어떤 임의의 좌표계 예컨대, 하나 이상의 카메라/화상들 (상대적인 방위) 에 관련된 좌표계에 대해서 화상들의 기하학적 관계를 확립하는데 이용되는 프로시져.In order to be able to establish a correspondence between standard targets in two or more images, it is possible to establish a coordinate system associated with auto-identifiable targets (external orientation) or any arbitrary coordinate system such as one or more cameras / images (relative orientation). A procedure used to establish the geometric relationship of the images with respect.

어떤 3D 좌표계 내의 3D 공간 좌표가 측정 시작 전에 알려지거나, 또는 측정 중에 결정되는 3 개 이상의 자동 확인가능 표적들을 위해 이용되는 각각의 화상들의 외부 방위을 결정.3D spatial coordinates in a certain 3D coordinate system are determined prior to the start of the measurement, or determine the external orientation of each image used for three or more auto-identifiable targets determined during the measurement.

화상들 내에서 일치점들을 결정. 이것은 예컨대 상기 이미지들의 상대적인 방위을 계산하는데 이용될 수 있다.Determine matches in the pictures. This can be used, for example, to calculate the relative orientation of the images.

자동 확인가능 표적 및 표준 표적들의 결합. 상기 기술은 화상들의 공간 기하학적 관계 즉, 확인되지 않았지만, 이미 화상들 내에 배치된 최후의 다른 표적들 및 자동 확인가능 표적들을 통해 그들의 외부 방위들 또는 그들의 상대적인 방위들을 결정하는 것 (즉, 화상 내의 특정 표적과 물체 공간 및/또는 다른 화상 내에서 그의 해당 화상 내에 있는 그의 원점 사이의 관계가 알려지지 않는다.) 을 허용하고, 상기 화상들 (즉, 그들의 외부 방위 또는 그들의 상대적인 방위들) 및/또는 그들이 이미지된 화상들의 기하학적 관계를 이용하여, 계산이 가능하게 되어, 확인할 수 있는 표적들의 3D 기하의 기하학적 관계를 이용하여 상이한 화상들 내에 이미지된 일치 표적들 사이의 일치성을 확립하는 것을 허용한다.Combination of auto-identifiable targets and standard targets. The technique determines the spatial geometry of the images, ie their external orientations or their relative orientations, through unidentified but last other targets and auto-identifiable targets already placed within the images (ie, specific within the image). The relationship between the target and its origin in the object space and / or other image thereof within that image is unknown.) And the images (ie their external orientation or their relative orientations) and / or they are images Using the geometric relationship of the images taken, calculations are made possible, allowing the establishment of a correspondence between coincident targets imaged in different images using the 3D geometry of the identifiable targets.

표적들은 되돌림 반사하는 (retro-reflective) 표적일 수 있지만 또한, 화상 또는 화상 그룹 내에 배치될 수 있는 물체의 어떤 다른 특징을 가질 수 있다.Targets can be retro-reflective targets, but can also have some other feature of an object that can be placed within a picture or group of pictures.

8. 스케일 바 (Scale Bar): 교정된 거리 또는 거리들 (2 이상의 점들이 스케일 바 상에 배치될 경우) 을 얻기 위해 특정 스케일 바를 확인하는 하나 이상의 자동 확인가능 표적들을 이용. 이하의 요소들은 기술의 일부이다.8. Scale Bar: Use one or more auto-identifiable targets to identify a particular scale bar to obtain a calibrated distance or distances (if two or more points are placed on the scale bar). The following elements are part of the description.

1) 특정 스케일 바를 확인한다.1) Check the specific scale bar.

2) 스케일 바 상의 다른 표적들을 찾는 것을 돕는다.2) Help to find other targets on the scale bar.

3) 향상된 정밀도 및 신뢰도를 위해, 하나의 스케일 바 상의 수 개의 공지된 거리를 이용한다.3) Use several known distances on one scale bar for improved precision and reliability.

그들은 각각으로 또는 결합되어 응용될 수 있다.They can be applied individually or in combination.

9. 그런 후, 특정 어댑터들 또는 물체들이 하나 이상의 라벨들을 이용하여 확인된다. 단일 또는 그룹의 어댑터들을 이용하는 것이 차례로 이용된다.9. Specific adapters or objects are then identified using one or more labels. Using a single or group of adapters is used in turn.

하나 이상의 라벨들이 특정 물체를 확인하기 위해 이용된다. 상기 물체는 :One or more labels are used to identify a particular object. The object is:

- 방위를 위해 XYZ - 좌표 등과 같은 어떤 주어진 특성들이 있거나, 없는 개개의 점들일 수 있다. 라벨을 이용하여, 외부 방위들을 계산하기 위해, 데이터 베이스로부터 점의 3D 공간 좌표를 얻어서, 공간 유사 변환을 통해 어떤 좌표계에 대해 물체의 공간적 위치를 계산한다.XYZ for orientation can be individual points with or without any given properties, such as coordinates. Using the label, to calculate the external orientations, we obtain the 3D spatial coordinates of the point from the database, and calculate the spatial position of the object relative to some coordinate system through a spatial like transformation.

- 어댑터를 그 특성으로 확인하는 각각의 라벨일 수 있다. 이들은 예컨대, 버튼 표적의 오프셋, 이중 벡터 표적들의 감소를 위한 벡터 거리 또는 감춰진 포인트 바 (point bar) 들이 될 수 있다.Each label may identify an adapter by its characteristics. These can be, for example, offset of the button target, vector distance for reduction of double vector targets or hidden point bars.

- 라벨이 가시 표적들 및 또다른 포인트 사이의 기하학적 관계를 발견하는데 이용되는 다중점 어댑터 또는 표적들과 특정 기하학적 관계를 갖는 또다른 포인트일 수 있다.The label may be a multipoint adapter or another point having a specific geometric relationship with the targets used to find the geometric relationship between the visible targets and another point.

- 특정 스케일 바일 수 있다.May be a specific scale bar.

- 특정 터치프로브 또는, 스핀들 등과 같은 다른 장치 또는 다른 제조 장치 및 다른 확인될 물체들일 수 있다.Specific touch probes or other devices such as spindles or other manufacturing devices and other objects to be identified.

어댑터들은 임의의 종류의 어댑터 상에서 하나 이상의 자동 확인가능 표적들이Adapters may have one or more auto-identifiable targets on any type of adapter.

- 상기 어댑터의 기하학적 매개 변수들을 유도하는 특정 어댑터를 확인하는 임의의 기술이며,Any technique of identifying a particular adapter that derives geometric parameters of the adapter,

- 그 공간 좌표들을 데이터 베이스 또는 다른 저장 메커니즘으로부터 되찾는 특정 어댑터를 확인하는 임의의 기술이며,Any technique for identifying a particular adapter that retrieves its spatial coordinates from a database or other storage mechanism,

- 특정 측정 시퀀스 또는 다른 프로세스를 수행하는 소프트웨어를 제어하는 특정 어댑터를 확인하는 임의의 기술이다.Any technique that identifies a particular adapter controlling software that performs a particular measurement sequence or other process.

예들:Examples:

a) 시스템은 이중 벡터 표적을 발견하고, 두 개의 광 표적과 관련된 역학적 지점을 자동으로 계산한다.a) The system finds a double vector target and automatically calculates the mechanical points associated with the two optical targets.

b) 시스템은 특정 표적 그룹을 발견하고 로봇이 가서 조각을 잡도록 명령한다.b) The system finds a specific target group and commands the robot to go and grab the pieces.

다음은 먼저 다수의 어댑터들을 정의하고 난 후, 상기 어댑터들을 이용하여, 자동 확인가능 표적들의 이용을 정의한다.The following first defines a number of adapters and then uses the adapters to define the use of auto-identifiable targets.

단일점 어댑터: "단일점 어댑터" 는 하나의 광학적 가시 표적 예컨대, 재반사 표적 또는 LED, 및 하나 이상의 역학적 지점들 예컨대, 섕크 (shank) 의 위치, 광학적 및 역학적 표적들이 알려져서 일반적으로 고정된 구의 중심으로 구성된 장치이다.Single point adapter: A "single point adapter" refers to a single optically visible target such as a re-reflective target or LED, and one or more mechanical points such as the position of a shank, the center of the sphere where the optical and mechanical targets are generally known and fixed. It consists of a device.

전형적인 예들은:Typical examples are:

툴링 홀들 (tooling holes) 에 적합한 섕크를 갖는 기계 조각 상에 장착된 하나의 광학적 표적으로 구성된 "버튼 표적". 상기 표적은 섕크 축의 중심에 있으나, 역학적 인터페이스로부터 어떤 일정한 거리에 있다."Button target" consisting of one optical target mounted on a piece of machine with a shank suitable for tooling holes. The target is at the center of the shank axis, but at some constant distance from the mechanical interface.

- 부분적인 구로 집적되는 표적, 예컨대 테일러 홉슨 구 (Taylor Hobson sphere) 로 집적되는 표적들.Targets that accumulate in partial spheres, such as the Taylor Hobson sphere.

자동 확인가능 표적은 "단일점 어댑터" 각각을 확인하고, 일반적으로 어떤 기하학적 특성들을 데이터 베이스로부터 이끌어 내는데 이용된다. 상기 정보는 광학 표적의 오프셋 및 하나 이상의 역학 지점들일 수 있다. 이것은 한 번의 측정 작업에서, 사용자에게 어댑터를 확인 요구 없이, 특수 위치들에 대한 특정 오프셋을 갖는 하나의 특정 어댑터를 적용하는데 의존하지 않고, 다양한 오프셋을 갖는 어댑터들을 이용하는 것을 허용한다.Auto-identifiable targets are used to identify each of the "single point adapters" and generally derive certain geometrical characteristics from the database. The information may be an offset of the optical target and one or more dynamic points. This allows in one measurement operation to use adapters with various offsets without requiring the user to confirm the adapter, without resorting to applying one particular adapter with a specific offset to special locations.

자동 확인가능 표적은 "단일점 어댑터" 의 3D 기준 좌표, 예컨대 광학적 표적 또는 기준 위치를 발견하는데 사용된다.Auto-identifiable targets are used to find the 3D reference coordinates of an "single point adapter" such as an optical target or reference position.

"2 점 어댑터" 는 2 개 이상의 광학적 가시 표적들과 하나 이상의 역학적 또는 가상의 지점들로 구성된 장치이다. "2 점 어댑터들" 과 "다중점 어댑터들" 이 구별되는 것은 전자가 광학적 가시 표적과 역학적 또는 가상의 지점들 사이의 3D 관계를 "2 점 어댑터" 의 공간 위치에 대한 부가적 지식없이 확립하는 것을 허용하지 않는다는 사실에 있다. 기하학적인 관점에서, "2 점 어댑터" 의 점들은 6 개의 매개 변수들을 갖는 3D 공간 유사 변환을 결정하는데 이용될 수 없다. 일반적으로 "2 점 어댑터" 를 이용하여 계산될 점(들)은 2 개의 광학 표적들을 갖는 3D 선 상에 있다.A "two point adapter" is a device consisting of two or more optically visible targets and one or more mechanical or virtual points. The distinction between "two point adapters" and "multipoint adapters" means that the electron establishes a 3D relationship between the optically visible target and mechanical or virtual points without additional knowledge about the spatial location of the "two point adapter". It is in the fact that it does not allow. From a geometric point of view, the points of the "two point adapter" cannot be used to determine the 3D space-like transformation with six parameters. In general, the point (s) to be calculated using a "two point adapter" is on a 3D line with two optical targets.

"2 점 어댑터들" 의 전형적인 예들은:Typical examples of "two point adapters" are:

"이중 벡터 표적들" 이다. 상기 어댑터는 전형적으로 2 개의 광학적 가시 표적들로 구성된다. 중요한 역학적 또는 가상의 지점은 2 개의 광학적 가시 표적들을 갖는 공간선 상에 있고, 하나 또는 2 개 모두의 표적들로부터의 (공간적) 거리가 알려져 있거나, 그것이 2 개의 광학적 가시 표적들의 기하학적 중앙에 있을 수도 있다."Double vector targets". The adapter typically consists of two optically visible targets. An important mechanical or imaginary point is on a space line with two optically visible targets, the (spatial) distance from one or both targets is known, or it may be at the geometric center of the two optically visible targets. have.

- 어댑터를 확인하고, 그 기하학적 매개변수들 및/또는 계산될 하나 이상의 점들을 위한 명칭 관습 (naming convention) 을 얻거나,Identify the adapter, obtain its naming convention for its geometric parameters and / or one or more points to be calculated,

- 하나 이상의 광학 표적 및/또는 어댑터의 하나 이상의 기준 위치들의 공간 좌표를 되찾는 어댑터를 확인하고,Identifying the adapter regaining the spatial coordinates of one or more reference positions of the one or more optical targets and / or adapters,

- 특정 소프트웨어 기능을 제어하거나, 시스템에 의한 어떤 작용을 지시하는 어댑터를 확인하기 위하여To identify adapters that control certain software functions or indicate some action by the system

하나 이상의 자동 확인가능 표적들이 특정 "2 점 어댑터" 를 확인하는데 이용된다One or more auto-identifiable targets are used to identify a particular "two point adapter"

"다중점 어댑터" 는 물체 및/또는 하나 이상의 역학적 또는 가상의 지점들과 기하학적 관계가 있는 3 개 이상의 광학 가시 표적들로 구성된 장치이다. "다중점 어댑터" 는 예컨대 어댑터 또는 상기 어댑터와 물리적으로 접속된 물체의 공간 위치 및 방위을 결정하는데 이용될 수 있다. 또한, 어댑터 또는 상기 어댑터와 물리적으로 접속된 다른 물체 상에 있는 하나 이상의 점의 공간적 위치를 유도하는데 이용될 수 있다.A "multipoint adapter" is a device consisting of three or more optically visible targets that are geometrically related to an object and / or one or more mechanical or virtual points. A "multipoint adapter" can be used, for example, to determine the spatial position and orientation of an adapter or an object physically connected with said adapter. It may also be used to derive the spatial location of one or more points on an adapter or other object physically connected with the adapter.

"다중점 어댑터들" 의 예들은:Examples of "multipoint adapters" are:

- V 플레이트: 3 개의 광학 표적 및 3 개의 반구로 구성된 장치.V plate: device consisting of three optical targets and three hemispheres.

- 로봇 교정 설비: 로봇을 교정하기 위해 로봇에 고정된 장치-Robot calibration facility: a device fixed to the robot to calibrate the robot

- 디지펜 등과 같은 터치프로브 및 프로브의 3D 공간 좌표를 결정하기 위해 CMM 터치프로브와 접속된 3 개 이상의 광학 표적들로 구성된 다른 장치Another device consisting of a touch probe, such as a digit pen, and three or more optical targets connected to the CMM touch probe to determine the 3D spatial coordinates of the probe.

- 툴링 설비 (tooling fixtures) : 제품 제조 프로세스에서 조각의 위치를 정하는 도구상의 임의의 장치. 어댑터들은 툴링 설비의 위치를 정하도록 설치된다.Tooling fixtures: Any device on a tool that locates pieces in the product manufacturing process. Adapters are installed to locate the tooling facility.

- 도구 홀더 또는 도구(드릴, 그리퍼, 절단기 및 다른 엔드 이펙터 (end effectors)) : 이것들은 로봇 또는 로봇 팔, CNC 기계 등과 같은 제조 시스템 상에 장착될 수 있지만, 또한 휴대용 장치 상에 장착될 수 있다.Tool holders or tools (drills, grippers, cutters and other end effectors): These can be mounted on manufacturing systems such as robots or robotic arms, CNC machines, etc., but also on portable devices. .

- 그 기하학적 특성들을 되찾고, 및/또는 그 공간 기준 좌표를 되찾도록 특정 어댑터를 확인하고,Identify a particular adapter to retrieve its geometric properties and / or its spatial reference coordinates,

- 보이지 않는 표적들을 자동으로 계산하는 것과 같이 수행되는 계산들 또는 특정 작용들을 초기화하는 특정 어댑터를 확인하기 위한 자동 확인가능 표적(들) 의 이용:Use of auto-identifiable target (s) to identify a specific adapter that initiates certain actions or calculations performed, such as automatically calculating invisible targets:

주의:caution:

- 자동적으로 확인되고, 라벨되고, 컴퓨터 프로그램으로 측정될 수 있는 표적을 갖고, 툴링 홀 또는 다른 장소들에 장착된 표적들.Targets with targets that can be automatically identified, labeled and measured with a computer program and mounted in tooling holes or other locations.

- 카메라의 방위를 맞추기 위해, 하나 이상의 카메라의 방위를 자동으로 결정하기 위하여 표적을 자동으로 측정.Automatically measure the target to automatically determine the orientation of one or more cameras to orient the camera.

- 방위 갱신.-Defense update.

- 자동으로 카메라들의 방위를 정하는 3 개 또는 4 개의 표적들을 갖는 도구.A tool with three or four targets that automatically orient the cameras.

- 자동으로 확인가능하고,-Can be checked automatically

1. 공간 내에 부착되어 있는 장치의 위치 및/또는 자세와1. The position and / or posture of the device attached to the space;

2. 공간 내의 상기 점들과 물리적으로 접속된 하나 이상의 다른 점들의 위치를 유도하는데 이용되는 3 개 이상의 점들을 갖는 장치.2. An apparatus having three or more points used to derive the location of one or more other points that are physically connected to the points in space.

자동으로 방위를 정하고, 물체점들 (object points) 을 위한 근사를 자동으로 계산하는 도구.A tool that automatically orients and automatically calculates approximations for object points.

점들이 단지 하나의 화상 내에 그들의 라벨을 표시함으로써 라벨되는 방법.The points are labeled by simply marking their labels in one image.

로봇들, CMM들, CNC 기계들 등과 같은 다른 장치들을 배치하는 코드된 표적들.Coded targets to place other devices such as robots, CMMs, CNC machines and the like.

Claims (26)

표적들 및/또는 표적들의 패턴들 또는 그룹들로 구성된 화상들의 외부 방위를 결정하는 것을 특징으로 하는 자동 확인가능 표적들을 이용한 3D 화상 계측 방법.A method of 3D image metrology using auto-identifiable targets, characterized in that it determines the external orientation of the images consisting of targets and / or patterns or groups of targets. 제 1 항에 있어서, 수 개의 화상들 내의 자동 확인가능 표적들을 발견하고, 상기 화상들 내의 일치점들을 확립하는 것을 특징으로 하는 3D 화상 계측 방법.The method of claim 1, wherein auto-identifiable targets in several images are found and matching points in the images are established. 제 1 항 내지 제 2 항 중 어느 한 항에 있어서, 상이한 시야로부터의 자동 확인가능 표적들을 발견하고, 그들의 상대적 관계를 확립하는 것을 특징으로 하는 3D 화상 계측 방법.The method of any one of claims 1 to 2, characterized by finding auto-identifiable targets from different fields of view and establishing their relative relationship. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서, 좌표계의 정의의 기준으로 정의된 자동 확인가능 표적들을 확인하는 것을 특징으로 하는 3D 화상 계측 방법Method according to any one of the preceding claims, characterized in that the identification of automatically identifiable targets defined as reference of the definition of the coordinate system. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서, 그 특성으로 특정 어댑터를 확인하기 위한 측정 어댑터를 확인하는 것을 특징으로 하는 3D 화상 계측 방법.The 3D image measuring method according to any one of claims 1 to 4, wherein the characteristic identifies a measuring adapter for identifying a specific adapter. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서, 중앙 표적이 배치될 수 있는 정밀도를 감소시키지 않기 위해서 중앙 표적으로부터 거리가 떨어진 라벨 영역을 충분히 크게 하는 것을 특징으로 하는 라벨 영역 및 중앙 영역을 구비하는 3D 화상 계측 방법.6. A label area and a center area according to any one of claims 1 to 5, wherein the label area and the center area are sufficiently enlarged so as not to reduce the precision with which the center target can be placed. 3D image measurement method. 제 6 항에 있어서, 상기 중앙 표적이 최적의 측정 정밀도로 설계될 때, 상기 거리가 적어도 상기 중앙 표적의 지름 이상으로 조절되는 것을 특징으로 하는 3D 화상 계측 방법.7. The method of claim 6, wherein when the center target is designed with optimal measurement accuracy, the distance is adjusted to at least the diameter of the center target. 제 7 항에 있어서, 상기 거리는 일반적으로 지름 내에 6 픽셀이 그려지는 상기 중앙 표적의 결과로 결정되는 것을 특징으로 하는 3D 화상 계측 방법.8. The method of claim 7, wherein the distance is determined as a result of the central target, which is generally drawn 6 pixels within diameter. 제 1 항 내지 제 8 항 중 어느 한 항에 있어서, 코드 내의 여분과, 라벨 주변 경계 등과 같은 부가 영역, 또는 자동 확인가능 표적이 이용되는 선험적 지식들을 이용한 기술들이 개개 또는 결합되어 이용되는 등과 같이, 라벨 영역의 부분적 폐색에 대한 면제를 확립하는 것을 특징으로 하는 3D 화상 계측 방법.The method according to any one of claims 1 to 8, wherein techniques using a priori knowledge, such as redundancy in the code, additional areas such as perimeters around labels, or auto-identifiable targets are used individually or in combination, 3. A method of metrology, characterized by establishing an exemption for partial occlusion of the label area. 제 1 항 내지 제 9 항 중 어느 한 항에 있어서, 상이하게 라벨링하기를 원하는 특정 지점들에 특정 표적들을 적용하도록 라벨링 자유를 확립하기 위하여, 상기 표적의 라벨과 그의 물리적 라벨 사이에서 번역이 이루어지는 것을 특징으로 하는 3D 화상 계측 방법.The method according to any one of claims 1 to 9, wherein a translation is made between the label of the target and its physical label in order to establish labeling freedom to apply specific targets at specific points where they want to be labeled differently. 3D image measuring method characterized by the above-mentioned. 제 1 항 내지 제 10 항 중 어느 한 항에 있어서, 특정 물체를 확인하기 위하여 하나 이상의 자동 확인가능 표적들의 라벨들을 이용하는 것을 특징으로 하는 3D 화상 계측 방법.The method of claim 1, wherein the labels of one or more automatically identifiable targets are used to identify a particular object. 제 1 항 내지 제 11 항 중 어느 한 항에 있어서, 특정 작업에 속하는 기준 위치들의 좌표, 어댑터들을 위한 보상, 수행된 치수 등과 같은 데이터를 디폴트 프로젝트 내에 수집하는 것을 특징으로 하는 3D 화상 계측 방법.12. The method of any one of claims 1 to 11, wherein data such as coordinates of reference positions belonging to a particular task, compensation for adapters, performed dimensions, etc. are collected in a default project. 제 1 항 내지 제 12 항 중 어느 한 항에 있어서, 3 개 이상의 자동 확인가능 표적들의 3D 좌표들이 알려지면, 측정 시스템의 셋업에서 자동 확인가능 표적들이 하나 이상의 카메라/화상들의 외부 방위 및/또는 상대적인 방위를 자동으로 계산하는데 이용되는 프로시져에 의해 자동화된 방위을 확립하는 것을 특징으로 하는 3D 화상 계측 방법.13. The method according to any one of claims 1 to 12, wherein if the 3D coordinates of the three or more auto-identifiable targets are known, the auto-identifiable targets in the setup of the measurement system are the external orientation and / or relative of one or more cameras / images. 3D image measurement method, characterized by establishing an automated orientation by a procedure used to automatically calculate the orientation. 제 1 항 내지 제 13 항 중 어느 한 항에 있어서, 자동 확인가능 표적들이 고정된 물체들 및 카메라(들) 사이의 관계의 최후 변화를 설명하기 위해 및/또는 다른 측정을 수행하기 위해, 측정하는 동안, 자동 확인가능 표적들이 이용되어 하나 이상의 카메라/화상들의 외부 방위를 자동으로 계산하는 프로시져에 의해 자동화된 방위를 확립하는 것을 특징으로 하는 3D 화상 계측 방법.The method according to claim 1, wherein the auto-identifiable targets are measured to account for the last change in the relationship between the fixed objects and the camera (s) and / or to perform other measurements. During which the auto-identifiable targets are used to establish an automated orientation by a procedure to automatically calculate the external orientation of the one or more cameras / images. 제 1 항 내지 제 14 항 중 어느 한 항에 있어서, 3 개 이상의 자동 확인가능 표적들이 사용되어 특정 좌표계를 확립하는 프로시져에 의해 자동화된 방위를 확립하는 것을 특징으로 하는 3D 화상 계측 방법.15. The method of any one of claims 1 to 14, wherein three or more automatically verifiable targets are used to establish an automated orientation by a procedure to establish a particular coordinate system. 제 1 항 내지 제 15 항 중 어느 한 항에 있어서, 2 개 이상의 화상들 내의 표준 표적들 사이에서 일치성을 확립할 수 있기 위하여, 자동 식별 가능 표적들에 관련된 좌표계 또는 어떤 임의의 좌표계 예컨대, 하나 이상의 카메라/화상들에 관련된 임의의 좌표계에 대해서 화상들의 기하 관계를 확립하는 프로시져에 의해 자동 측정이 이루어지는 것을 특징으로 하는 3D 화상 계측 방법.16. The coordinate system according to any one of claims 1 to 15, or any arbitrary coordinate system such as one associated with auto-identifiable targets, in order to be able to establish a correspondence between standard targets in two or more images. A 3D image measurement method characterized in that automatic measurement is performed by a procedure for establishing a geometric relationship of images with respect to any coordinate system related to the above cameras / images. 제 1 항 내지 제 16 항 중 어느 한 항에 있어서, 어떤 3D 좌표계에서 3D 공간 좌표가 측정 시작 전에 알려지거나, 또는 측정 중에 결정되는, 3 개 이상의 자동 확인가능 표적들을 이용하여 각각의 화상들의 외부 방위을 결정함으로써 자동 측정이 이루어지는 것을 특징으로 하는 3D 화상 계측 방법.17. The external orientation of each image according to any one of claims 1 to 16, wherein the 3D spatial coordinates in a certain 3D coordinate system are known before the start of the measurement or determined during the measurement using the three or more auto-identifiable targets. 3D image measurement method characterized in that automatic measurement is performed by determining. 제 1 항 내지 제 17 항 중 어느 한 항에 있어서, 화상들 내에서 일치점들을 결정함으로써 자동화된 측정이 이루어지는 것을 특징으로 하는 3D 화상 계측 방법.18. The method according to any one of the preceding claims, wherein automated measurements are made by determining matching points in the images. 제 1 항 내지 제 18 항 중 어느 한 항에 있어서, 확인되지 않았지만, 이미 화상들 내에 배치된 자동 확인가능 표적들 및 최후의 다른 표적들을 통해 화상들의 공간 기하학적 관계를 확립하고, 상기 화상들 및/또는 이미지된 화상들의 기하학적 관계를 이용하여 계산이 가능하게 된, 확인할 수 있는 표적들의 3D 기하의 기하학적 관계를 이용하여, 상이한 화상들 내에 이미지된 일치 표적들 사이의 일치성을 확립함으로써 자동화된 측정이 이루어지는 것을 특징으로 하는 3D 화상 계측 방법.19. The method according to any one of claims 1 to 18, which establishes the spatial geometric relationship of the images via unidentifiable but already auto-identifiable targets and last other targets already disposed within the images, and the images and / or Or automated measurement by establishing the correspondence between coincident targets imaged in different images, using the geometric relationship of the 3D geometry of the identifiable targets, which can be calculated using the geometric relationship of the imaged images. 3D image measurement method characterized by the above-mentioned. 제 1 항 내지 제 19 항 중 어느 한 항에 있어서, 교정 거리 또는 거리들을 얻기 위해 특정 스케일 바를 확인하는 것을 특징으로 하는 3D 화상 계측 방법.20. The method of any one of claims 1 to 19, wherein the particular scale bar is identified to obtain a calibration distance or distances. 제 1 항 내지 제 20 항 중 어느 한 항에 있어서, 임의의 종류의 어댑터 상에 하나 이상의 자동 확인 표적들을 적용하는 것을 특징으로 하는 3D 화상 계측 방법.21. A method according to any one of the preceding claims, wherein one or more automatic confirmation targets are applied on any kind of adapter. 제 1 항 내지 제 21 항 중 어느 한 항에 있어서, 상기 어댑터의 기하학적 매개 변수를 유도하기 위하여 특정 어댑터들을 확인하는 것을 특징으로 하는 3D 화상 계측 방법.22. A method according to any one of the preceding claims, wherein specific adapters are identified to derive the geometric parameters of the adapter. 제 1 항 내지 제 22 항 중 어느 한 항에 있어서, 데이터 베이스 또는 다른 저장 매커니즘으로부터 그 공간 좌표들을 되찾기 위하여 특정 어댑터를 확인하는 것을 특징으로 하는 3D 화상 계측 방법.23. A method according to any one of the preceding claims, wherein the particular adapter is identified to retrieve its spatial coordinates from a database or other storage mechanism. 제 1 항 내지 제 23 항 중 어느 한 항에 있어서, 특정 측정 시퀀스 또는 어떤 다른 프로세스를 수행하도록 소프트웨어를 제어하는 특정 어댑터를 확인하는 것을 특징으로 하는 3D 화상 계측 방법.24. The method according to any one of the preceding claims, wherein the particular adapter is identified which controls the software to perform a particular measurement sequence or any other process. 표적들 및/또는 표적들의 패턴들 또는 그룹들로 구성된 화상들의 외부 방위를 결정하는 장치를 특징으로 하는 3D 화상 계측 자동 확인가능 표적들을 이용한 장치.A device using 3D image metrology auto-identifiable targets, characterized by a device for determining the external orientation of images composed of targets and / or patterns or groups of targets. 제 25 항에 있어서, 제 1 항 내지 제 24 항 중 어느 한 항에서 청구된 특성들의 결합 또는 임의의 특성들로 구성되는 것을 특징으로 하는 장치.26. The device of claim 25, wherein the device consists of a combination of features claimed in any one of claims 1 to 24 or any features.
KR1019980706419A 1996-02-20 1997-02-17 Automated Methodology for 3D Image Measurement Systems KR19990082673A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
SE9600623-4 1996-02-20
SE9600623A SE9600623L (en) 1996-02-20 1996-02-20 Automation methodology for metrology systems in 3D images

Publications (1)

Publication Number Publication Date
KR19990082673A true KR19990082673A (en) 1999-11-25

Family

ID=20401459

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980706419A KR19990082673A (en) 1996-02-20 1997-02-17 Automated Methodology for 3D Image Measurement Systems

Country Status (11)

Country Link
EP (1) EP0882276A1 (en)
JP (1) JP2000505548A (en)
KR (1) KR19990082673A (en)
CN (1) CN1212064A (en)
AU (1) AU2226397A (en)
BR (1) BR9707593A (en)
CA (1) CA2245175A1 (en)
DE (1) DE882276T1 (en)
RU (1) RU98117236A (en)
SE (1) SE9600623L (en)
WO (1) WO1997031336A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2166275B1 (en) * 1999-07-30 2003-04-01 Univ Zaragoza OPTICAL VEHICLE CHASSIS MEASUREMENT SYSTEM.
US7113633B2 (en) 2001-07-02 2006-09-26 Photoinaphoto.Com, Inc. System and method for discovering and categorizing attributes of a digital image
US7173691B2 (en) * 2003-12-22 2007-02-06 Qed Technologies International, Inc. Method for calibrating the geometry of a multi-axis metrology system
US8341848B2 (en) * 2005-09-28 2013-01-01 Hunter Engineering Company Method and apparatus for vehicle service system optical target assembly
CN105976366B (en) * 2016-04-29 2019-03-26 浙江大华技术股份有限公司 A kind of method and device of scoring ring line positioning

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2270435A (en) * 1992-09-05 1994-03-09 Ibm Stereogrammetry
DE19502459A1 (en) * 1995-01-28 1996-08-01 Wolf Henning Three dimensional optical measurement of surface of objects

Also Published As

Publication number Publication date
DE882276T1 (en) 1999-08-19
RU98117236A (en) 2000-06-27
SE9600623D0 (en) 1996-02-20
WO1997031336A1 (en) 1997-08-28
CN1212064A (en) 1999-03-24
CA2245175A1 (en) 1997-08-28
SE9600623L (en) 1997-08-21
EP0882276A1 (en) 1998-12-09
AU2226397A (en) 1997-09-10
JP2000505548A (en) 2000-05-09
BR9707593A (en) 2000-01-04

Similar Documents

Publication Publication Date Title
US7003892B2 (en) Spatial coordinate-based method for identifying work pieces
JP4982493B2 (en) Optomechanical position measuring instrument
US7557936B2 (en) Digitizer adapter
US20030090682A1 (en) Positioning in computer aided manufacturing by measuring both parts (cameras, retro reflectors)
US4638232A (en) Method and apparatus for calibrating a positioning system
CN114355953B (en) High-precision control method and system of multi-axis servo system based on machine vision
TWI704028B (en) Tool path location compensation system based on offset of fixture
US4937766A (en) Acquiring dimensions of a large object
Liu et al. Binocular-vision-based error detection system and identification method for PIGEs of rotary axis in five-axis machine tool
US20080123110A1 (en) Multifaceted digitizer adapter
Liu et al. A three-dimensional triangular vision-based contouring error detection system and method for machine tools
Zhuang et al. Robot calibration by mobile camera systems
JP2018522240A (en) Method for measuring artifacts
JP2002532268A (en) Method for robot tool cell alignment, identification, and calibration
KR19990082673A (en) Automated Methodology for 3D Image Measurement Systems
Pajor et al. Intelligent machine tool–vision based 3D scanning system for positioning of the workpiece
CN111768383A (en) Three-dimensional target and method for recovering working function of visual sensor by using same
Nashman et al. Unique sensor fusion system for coordinate-measuring machine tasks
CN113670223A (en) 3D vision detection system and method thereof
Bauer et al. Accuracy Analysis of Alignment Methods based on Reference Features for Robot-Based Optical Inspection Systems
Marchewka et al. An approach to an intelligent scanning of the machine tool workspace
Che et al. Modeling and calibration of a structured-light optical CMM via skewed frame representation
Wang et al. The use of a machine vision system in a flexible manufacturing cell incorporating an automated coordinate measuring machine
CN109062138A (en) A kind of five shaft platform system calibrating schemes based on stereo calibration block
KR100266805B1 (en) Method for measuring the position and arrangement state of a sub-assembly member in a shipbuilding process via two-step vision system

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid