KR20200097778A - 컴퓨터로 생성된 가상 기준 물체를 구비한 머신 비전 시스템 - Google Patents

컴퓨터로 생성된 가상 기준 물체를 구비한 머신 비전 시스템 Download PDF

Info

Publication number
KR20200097778A
KR20200097778A KR1020207020234A KR20207020234A KR20200097778A KR 20200097778 A KR20200097778 A KR 20200097778A KR 1020207020234 A KR1020207020234 A KR 1020207020234A KR 20207020234 A KR20207020234 A KR 20207020234A KR 20200097778 A KR20200097778 A KR 20200097778A
Authority
KR
South Korea
Prior art keywords
virtual reference
computer
reference object
generated virtual
image
Prior art date
Application number
KR1020207020234A
Other languages
English (en)
Inventor
에사 레이카스
Original Assignee
오와이 맵비젼 엘티디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오와이 맵비젼 엘티디 filed Critical 오와이 맵비젼 엘티디
Priority to KR1020247004631A priority Critical patent/KR20240023209A/ko
Publication of KR20200097778A publication Critical patent/KR20200097778A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

컴퓨터로 생성된 가상 기준 물체를 사용하는 머신 비전 시스템이 개시된다. 가상 기준 물체의 정확한 측정치가 알려졌을 때 머신 비전 시스템은 절대 축척으로 차이를 측정할 수 있다. 머신 비전 시스템에서, 가상 기준 물체는 컴퓨터 도면에 기초하여 생성된다. 컴퓨터로 생성된 가상 기준 물체는 높은 사실적인 정확도를 달성하기 위해서 추가 처리된다. 처리는 제조된 물체의 이미지로부터 일부를 조합하거나 측정된 물체처럼 보이는 이미지를 계산적으로 생성하는 것을 포함할 수 있다. 컴퓨터로 생성된 가상 기준 물체가 모델 도면을 기초로 할 때 제조 공차로 인한 부정확성을 포함하지 않는다.

Description

컴퓨터로 생성된 가상 기준 물체를 구비한 머신 비전 시스템
다음의 개시는 머신 비전 시스템(machine vision system)에 관한 것이다. 특히, 본 개시는 품질 관리 또는 물체의 측정을 요구하는 다른 유사한 작업에 사용되는 측정 머신 비전 시스템에 관한 것이다. 더 구체적으로, 본 개시는 기준 물체를 사용하는 머신 비전 시스템에 관한 것이다.
컴퓨터 제어 머신 비전 시스템은 다양한 용례에서 사용된다. 하나의 전형적인 용례는 제조 산업에서 제조된 물체의 품질 관리이다. 하나 이상의 카메라를 사용하여 제조된 물체를 이미징(imaging)함으로써 물체의 다양한 특성을 측정하는 것이 가능하다. 측정은 전체 물체 또는 물체의 선택된 일부 특징을 측정하는 것을 포함할 수 있다. 따라서, 측정은 1 차원, 2 차원 또는 3 차원일 수 있거나, 심지어 선택된 특징에 따라서 치수의 조합으로 수행될 수 있다. 크기 및 형상 이외에도, 색상, 거칠기 또는 다른 그러한 특징과 같은 다른 특성을 측정하는 것이 또한 가능하다. 머신 비전 시스템의 측정은 전형적으로, 제조된 물체를 모델 물체와 비교함으로써 수행된다. 달성된 결과는 전형적으로, 측정된 물체와 사용된 모델 물체의 상대적인 차이를 제공한다.
3 차원 좌표를 측정하기 위해서, 측정된 지점이 두 이미지에서 보일 수 있다면 3 차원 좌표가 2 개의 2 차원 이미지로부터 계산될 수 있기 때문에, 2 개의 카메라만이 요구된다. 그러나 전형적으로, 카메라 수는 더 많다. 이는 카메라 수가 많을수록 측정 범위와 정확도가 증가하기 때문이다. 카메라는 전형적으로, 측정 물체의 모든 특징 또는 적어도 가능한 한 많은 특징을 볼 수 있도록 위치된다. 이에 따라, 측정 기능이 모든 카메라에 의해 보이지 않는 것이 일반적이다. 카메라의 수를 증가시키는 것 이외에도, 정밀한 교정 및 이미지 처리 알고리즘과 같은 복수의 다른 개념이 측정 정확도를 향상시키는 것으로 공지되어 있다. 또한, 특정 물체에 대한 카메라 위치를 계획하거나 더욱 정확한 카메라 또는 특정 조명을 사용하여 원하는 특징으로부터 획득된 이미지의 품질을 향상시키는 것이 가능하다.
측정 머신 비전 시스템은 상이한 조건하에서 측정된 특징을 유사하게 인식한다는 점에서 특히 양호하다. 따라서 물체를 측정할 때, 조건이 변경되더라도 에지 및 구멍과 같은 특징이 유사하게 검출될 것이다. 이 때문에, 물체의 위치 또는 형상의 작은 변화조차도 정확하게 측정하는 것이 가능하다. 획득한 이미지로부터 파생된 측정 결과가 정확하더라도, 이들은 좌표 측정 머신과 같은 다른 측정 공구로 측정된 측정 결과와 비교될 수 없다. 이는 예를 들어, 종래의 머신 비전 시스템 및 방법을 사용함으로써 에지의 절대 위치를 측정하는 것이 어렵기 때문이다. 측정된 물체의 크기, 위치 또는 다른 변화의 상대적인 변화를 정확하게 측정하는 것이 가능하더라도, 상대적인 차이 대신에 절대 축척으로 동일한 변화를 측정하는 것은 어렵다.
종래의 해결책에서, 이들 측정은 측정된 물체의 위치를 정확하게 측정함으로써 또는 측정된 물체를 측정 지그(measurement jig)에 배치하여 정확한 위치가 공지되게 함으로써 때때로 보완된다. 위치가 정확하게 알려졌을 때, 측정될 물체의 절대 척도 중 적어도 일부를 측정하는 것이 가능하다. 한 가지 방법은 물체의 공칭 치수를 충족시키기 위해 가능한 한 정확하게 제조되는 기준 물체("골든 물체(golden object)")를 만드는 것이다. 다른 방법은 절대 기준 측정 시스템으로 기준 부분을 정확하게 측정하고 기준 부분 값에 측정된 차이를 추가하여, 절대 축척과 비교 가능한 결과를 얻는 것이다.
그러나 이들 접근 방식은 다른 유형의 물체 또는 다수의 물체를 측정할 필요가 있다면 문제가 될 수 있다. 측정을 수행할 수 있기 전에 측정된 물체가 정확하게 위치될 필요가 있다면 측정은 느려질 것이다. 그에 따라, 상이한 유형의 물체를 측정할 필요가 있다면, 측정 사이에서 변경될 필요가 있을 수 있는 상이한 유형의 지그 또는 다른 위치 결정 수단에 대한 필요가 있을 수 있다. 이들 모든 기계적 방법은 고가이며 마모 및 인열된다. 적합한 수학적 또는 광학적 위치 결정 방법에 의해 기계적 지그의 사용을 피할 수 있더라도, 구매 및 사용 비용이 저렴한 절대 기준 측정 시스템에 대한 필요성은 여전히 있을 것이다.
컴퓨터로 생성된 가상 기준 물체를 사용하는 머신 비전 시스템이 개시된다. 가상 기준 물체의 정확한 측정치가 알려졌을 때, 머신 비전 시스템은 절대 축척으로 차이를 측정할 수 있다. 머신 비전 시스템에서, 가상 기준 물체는 컴퓨터 도면에 기초하여 생성된다. 컴퓨터로 생성된 가상 기준 물체는 높은 사실적(photorealistic)인 정확도를 달성하기 위해서 추가로 처리된다. 처리는 제조된 실제 물체의 이미지로부터 부분을 조합하거나 실제 측정된 물체처럼 보이는 이미지를 계산적으로 생성하는 것을 포함할 수 있다. 컴퓨터로 생성된 가상 기준 물체가 모델 도면을 기초로 할 때, 이는 제조 공차로 인한 부정확성을 포함하지 않지만 설계시 물체의 모든 특징과 특성을 포함한다.
양태에서, 물체의 측정 방법이 개시된다. 상기 방법은 3 차원의 컴퓨터로 생성된 가상 기준 물체를 수신하는 단계로서, 수신된 가상 기준 물체가 물체의 모델 도면에 기초하여 생성되며 가상 기준 물체가 물체의 정확한 좌표를 포함하며, 정확한 좌표가 적어도 하나의 개별 지점의 좌표를 포함하는, 단계; 물체의 적어도 두 개의 이미지를 획득하는 단계로서, 획득된 적어도 두 개의 이미지가 적어도 두 개의 상이한 뷰잉 센서(viewing sensor)로 획득되는, 단계; 획득된 이미지에 기초하여 물체 상의 적어도 하나의 개별 지점의 3 차원 위치를 결정하는 단계로서, 결정된 3 차원 위치가 3 차원의 컴퓨터로 생성된 가상 기준 물체와 동일한 좌표계에 있는, 단계; 가상 기준 물체 상의 대응하는 개별 지점 좌표를 결정하는 단계; 및 획득된 이미지 상의 적어도 하나의 개별 지점의 결정된 위치 및 가상 기준 물체 상의 대응하는 정확한 좌표에 기초하여, 물체 상의 적어도 하나의 개별 지점의 절대 축척 위치를 계산하는 단계를 포함한다.
전술한 바와 같은 방법은 정확하게 제조된 기준 물체를 갖지 않고 절대 축척으로 물체를 측정하는 것을 용이하게 한다. 전술한 방법은 기준 물체의 착용과 관련된 모든 문제를 제거한다. 상기 방법은 또한, 측정 공차로 인한 부정확성을 제거하는데 도움을 준다. 이들은 감소된 비용으로 향상된 측정 품질을 제공한다.
실시예에서, 상기 방법은 물체의 모델 도면에 기초하여 컴퓨터로 생성된 가상 기준 물체를 생성하는 단계를 더 포함한다. 실시예에서, 생성하는 단계는 조명 설정 정보, 물체 재료 정보, 물체 색상 정보 또는 뷰잉 센서 매개변수 중 적어도 하나를 포함한 추가의 정보를 수신하는 단계를 더 포함한다. 뷰잉 센서 매개변수는 카메라 좌표 및 카메라 방위를 포함한다. 다른 실시예에서, 생성하는 단계는 제조된 물체의 적어도 하나의 이미지를 획득하는 단계; 모델 도면에 기초하여 투사 뷰를 생성하는 단계로서, 투사 뷰가 제조된 물체의 적어도 하나의 이미지를 획득하는 방향에 대응하는, 단계; 및 획득된 적어도 하나의 이미지의 적어도 일부를 생성된 투사 뷰에 정렬시키는 단계를 더 포함한다.
다른 실시예에서, 생성하는 단계는 모델 도면 및 수신된 추가 정보에 기초하여 물체의 사실적 이미지를 생성하는 단계를 더 포함한다.
실시예에서, 전술한 방법은 컴퓨터 프로그램이 컴퓨팅 장치에서 실행될 때 전술한 바와 같은 방법을 수행하도록 구성된 컴퓨터 프로그램 코드를 포함하는 컴퓨터 프로그램으로서 구현된다.
실시예에서, 적어도 하나의 프로세서 및 적어도 하나의 메모리를 포함하는 제어기가 개시된다. 적어도 하나의 프로세서는 전술한 바와 같은 방법을 수행하도록 구성된다. 추가의 실시예에서, 머신 비전 시스템이 개시된다. 머신 비전 시스템은 하우징; 하우징 내부에 복수의 카메라를 포함한 카메라 시스템; 하우징 내부에 복수의 조명 장치를 포함한 조명 시스템; 및 머신 비전 시스템에 연결되고 전술한 바와 같은 방법을 수행하도록 구성되는, 전술한 바와 같은 제어기를 포함한다.
컴퓨터로 생성된 가상 기준 물체를 사용하면 여러 이점을 제공한다. 컴퓨터 생성은 제조 공차를 포함하지 않고 수행될 수 있다. 따라서 컴퓨터로 생성된 가상 기준 물체는 물체의 계획과 정확히 일치한다. 이는 고가의 기준 물체를 제조하지 않고 제조된 기준 물체를 정확히 측정하지 않고 달성된다. 따라서, 컴퓨터로 생성된 가상 기준 물체의 사용은 측정 정확성을 증가시킨다.
컴퓨터로 생성된 가상 기준 물체를 사용하는 추가의 이점은 절대 축척으로 정확한 측정치가 알려졌을 때, 측정에서 관찰된 차이를 절대 축척으로 쉽게 계산할 수 있다는 점이다. 이의 추가의 이점은 기준 물체를 측정할 필요가 없을 때 측정 공차로 인한 부정확성을 또한 피할 수 있다는 점이다.
종래의 실제 기준 물체는 또한, 제조 현장 환경에 대한 노출에 의해 야기되는 기계적 마모 및 다른 문제가 발생하기 쉽다. 예를 들어, 측정을 수행하는 사람은 기준 물체를 떨어뜨려 긁힘 및 다른 기계적 결함을 초래할 수 있다. 또한, 때때로 먼지 및 다른 불순물로 인해 물체가 상이하게 보일 수 있다. 몇몇 경우에, 심지어 햇빛에 대한 균일한 노출은 기준 물체에 눈에 띄는 변화의 원천이 될 수 있다. 이들 노출과 관련된 모든 결함은 컴퓨터로 생성된 가상 기준 물체를 사용하여 피할 수 있다.
머신 비전 시스템에 대한 추가의 이해를 제공하고 본 명세서의 일부를 구성하도록 포함되는 첨부 도면은 실시예를 예시하고 설명과 함께 머신 비전 시스템의 원리를 설명하는데 도움을 준다. 도면에서,
도 1은 머신 비전 시스템의 예이며,
도 2는 머신 비전 시스템의 방법의 예이며,
도 3은 컴퓨터로 생성된 가상 기준 물체를 생성하기 위한 방법의 예이며,
도 4는 컴퓨터로 생성된 가상 기준 물체를 생성하기 위한 방법의 예이다.
첨부 도면에 그 예를 예시하는 실시예들에 대한 참조가 이제 상세히 이루어질 것이다.
다음에, 컴퓨터로 생성된 가상 기준 물체를 포함하는 제 1 측정이 논의될 것이다. 이어서, 컴퓨터로 생성된 가상 기준 물체를 준비하기 위한 2 가지 선택적인 방법이 논의될 것이다. 컴퓨터로 생성된 가상 기준 물체는 가상 기준 물체의 컴퓨터로 생성된 뷰(view)인, 기준 뷰로 또한 불리는 하나 이상의 기준 이미지로서 이해되어야 한다. 따라서, 컴퓨터로 생성된 가상 기준 물체는 하나의 기준 뷰로서가 아닌 다양한 각도에서 그리고 가능하면 상이한 매개변수로부터 물체를 보여주는 하나 이상의 기준 뷰를 포함하는 세트로서 이해되어야 한다. 또한, 컴퓨터로 생성된 기준 모델은 또한, 상이한 조명 또는 다른 설정을 갖는 동일한 각도로부터 여러 기준 뷰를 가질 수 있다. 또한, 당업자는 컴퓨터로 생성된 가상 기준 물체가 완전한 물체일 필요는 없음을 이해한다. 이는 측정될 특징(관심 구역)이 포함되어 있으면 충분하다.
이하의 설명에서, 복수의 카메라를 포함한 머신 비전 시스템이 논의된다. 그러나, 종래의 디지털 카메라가 전형적으로 목적에 적합하기 때문에, 표현 "카메라"는 이해를 제공하기 위해서만 사용된다. 종래의 카메라 대신에, 비교에 적합한 이미지를 생성할 수 있는 다른 유형의 뷰잉 센서가 또한 사용될 수 있다. 이들은 상이한 유형의 특수 목적 카메라, 예를 들어 열 카메라(heat camera), 스캐너 장치, 디지털 x-선 이미징 장치, 굽힘 가능한 이미징 유닛, 3 차원 카메라 등을 포함한다.
도 1에서, 머신 비전 시스템의 예를 예시하는 블록도가 개시된다. 도 1에서 측정 스테이션(102)이 개시된다. 측정 스테이션(102)은 4 개의 카메라(100a 내지 100d) 및 3 개의 조명 장치(101a 내지 101c)를 포함한다. 카메라 및 조명 장치의 수는 4 개 및 3 개로 제한되지 않고 자유롭게 선택될 수 있다. 전형적으로, 카메라 및 조명 장치 수는 더 많다. 카메라 및 조명 장치는 측정 스테이션(102)에 추가로 부착되는 하나 이상의 프레임에 부착될 수 있다. 프레임 대신에, 카메라 및 조명 장치는 또한, 측정 스테이션(102)의 벽에 직접 부착될 수 있다. 카메라 및 필요하다면 조명 장치도 종래의 교정 방법을 사용하여 선택된 좌표계로 교정된다.
측정 스테이션(102)은 측정 스테이션 내부에서 측정될 물체(103)를 가져오는데 사용되는 컨베이어(104)를 더 포함한다. 컨베이어는 단지 예일 뿐이며; 측정된 물체는 또한, 산업용 로봇과 같은 다른 수단을 사용하여 가져올 수 있거나, 측정을 수행하는 사람에 의해 배치될 수 있다.
이러한 설명에서 주변 광은 측정 스테이션이 위치되는 홀(hall) 또는 건물의 조명 조건으로 가정된다. 주변 광은 건물 내 창문으로부터의 자연광 또는 건물 내 조명 장치로부터의 인공광일 수 있다. 주변 광이 측정을 방해하지 않도록 측정 스테이션(102)이 폐쇄될 수 있는 것이 유리하지만, 이는 항상 필요한 것은 아니다. 예를 들어, 정확하게 정의된 조명 배열로부터의 측정이 유리하다면, 주변 광은 보상될 수 있다. 강력한 조명 배열을 사용하면 일부 누출된 주변 광이 측정 조건에 약간의 변동을 일으킬 수 있더라도 측정 스테이션(102)을 사용하는 것이 가능하다. 측정 스테이션(102)의 폐쇄는 예를 들어, 컨베이어가 사용되는 경우 도어 또는 커튼을 컨베이어 개구에 사용함으로써 제공될 수 있다. 측정된 물체가 사람에 의해 측정 플랫폼에 배치되면, 주변 광이 완전히 제거되는 엄격한 측정 스테이션을 제조하는 것이 쉽다. 주변 광을 완전히 제거할 수 없다면 주변 광을 보상하는데 사용되는 추가의 조명 장치가 사용될 수 있다.
측정 스테이션(102)은 네트워크 연결(108)을 사용함으로써 제어기(105)에 연결된다. 네트워크 연결은 유선 또는 무선일 수 있다. 제어기는 측정 스테이션에 배열되거나 원격 위치에 있을 수 있다. 제어기(105)가 측정 스테이션(102)에 위치되면, 예를 들어, 제조 현장의 여러 시스템을 제어하기 위한 제어실로부터 원격 작동될 수 있다. 제어기(105)는 적어도 하나의 프로세서(106) 및 적어도 하나의 메모리(107)를 포함한다. 프로세서는 측정을 수행하기 위해서 컴퓨터 프로그램 코드를 실행하도록 구성된다. 적어도 하나의 메모리(107)는 컴퓨터 프로그램 코드 및 관련 데이터, 예를 들어 획득된 측정 이미지 및 기준 뷰를 저장하도록 구성된다. 제어기(105)는 전형적으로, 예를 들어 측정 이미지 및 측정 조건의 가능한 장기 저장을 위해 추가 컴퓨팅 장치에 연결된다.
측정 스테이션(102)은 도 2 내지 도 4를 참조하여 아래의 예에서 설명되는 바와 같이 사용될 수 있다. 도 2는 컴퓨터로 생성된 가상 기준 물체를 사용하는 방법의 예를 개시한다. 도 3 및 도 4는 기준 뷰를 생성하기 위한 방법의 2 가지 예를 개시한다. 컴퓨터로 생성된 가상 기준 물체를 사용하는 이점은 기준의 크기가 정확히 만입 크기(indented size)라는 점이다. 이는 가상 기준 물체가 만들어지지 않고, 따라서 제조 공차로 인한 부정확성이 없기 때문이다. 당업자는 제시된 예가 단지 예일 뿐이고 다른 유사한 원리가 컴퓨터로 생성된 가상 기준 물체에 대한 측정에 사용될 수 있다는 것을 이해한다.
도 2에서 방법의 예가 개시된다. 이 방법에서, 도 1의 측정 스테이션 또는 이와 유사한 측정 스테이션이 사용될 수 있다. 측정에서, 우선 적어도 하나의 컴퓨터로 생성된 가상 기준 물체가 수신된다(단계 200). 컴퓨터로 생성된 가상 기준 물체는 종래의 카메라를 사용하여 획득된 이미지와 용이하게 비교될 수 있는 2 차원 투사 뷰의 형태로 수신될 수 있다. 그러나, 모델은 또한, 2 차원 투사 뷰가 3 차원 모델로부터 생성되거나 비교된 개별 특징의 3 차원 위치가 먼저 계산된 다음 컴퓨터로 생성된 기준 물체와 비교되도록 3 차원일 수 있다. 2 이상의 렌즈를 포함한 카메라에도 유사한 원리가 사용될 수 있다. 이들 카메라는 3 차원 카메라 또는 스테레오 카메라로 종종 지칭된다. 이 방법에서, 컴퓨터로 생성된 가상 기준 물체의 필요한 뷰만이 수신될 필요가 있다. 예를 들어, 하나의 특징만이 측정될 때 하나의 기준만을 갖는 것으로 충분할 수 있다. 그러나, 전형적으로 상이한 카메라 뷰 및 가능한 물체 방위에 대응하는 복수의 기준 뷰가 존재한다.
컴퓨터로 생성된 가상 기준 물체는 또한 수신되는 관련된 선택적인 설정과 관련될 수 있다( 단계(201)). 예를 들어, 컴퓨터로 생성된 가상 기준 물체가 예를 들어, 이용 가능한 조명 장치의 서브세트를 사용하는 특정 조명 설정을 포함하면, 선택적인 설정을 수신할 때 조명의 서브세트가 활성화될 수 있다. 컴퓨터로 생성된 가상 기준 물체는 특정 조명 장치를 사용하여 생성될 수 있으며 비교된 이미지들 사이에 양호한 대응성을 제공할 것이기 때문에 측정시 동일한 조명 장치를 사용하는 것이 유리하다.
기준 뷰 및 가능한 선택적인 설정이 수신된 후에 측정 스테이션은 측정될 제 1 물체를 수신할 준비가 된다(단계 202). 이는 예를 들어, 컨베이어 벨트, 측정 사람, 로봇 장치 또는 측정 스테이션의 측정 플랫폼에 물체를 배치하기 위한 임의의 다른 수단을 사용하여 수행될 수 있다.
물체는 복수의 이미지를 획득함으로써 측정된다(단계 203). 그 후 이미지는 각각의 기준 뷰와 비교된다(단계 204). 비교는 종래의 비교와 유사할 수 있으며, 달성된 결과는 상대적인 차이이다. 그러나, 컴퓨터로 생성된 가상 기준 물체의 정확한 측정치가 알려지므로, 측정된 물체의 절대 측정치를 계산하는 것이 또한 가능하다.
본 출원에서, 절대 축척 또는 절대 척도는 어레인지먼트(arrangement)일 수 있음을 의미하며, 여기서 척도는 미터법의 나노 미터, 밀리미터 또는 미터와 같은 정확한 단위로 표현될 수 있다.
물체를 측정할 때 물체 상의 개별 지점의 위치가 결정되고 컴퓨터로 생성된 가상 기준 물체와 비교된다. 본 출원에서 개별 지점은 물체 상의 지점 또는 특징을 의미한다. 이들은 예를 들어, 구멍, 홈, 에지, 코너 및 물체의 정확한 위치를 가지는 유사한 지점을 포함하며 정확한 위치는 설계자에 의해 결정된다. 종래의 머신 비전 시스템은 물체에 투사된 지점 군(point clouds)을 사용한다. 이들 지점 군은 그들 위치가 물체와 관련하여 공지되지 않고 물체의 일부가 아니기 때문에 물체 상의 개별 지점이 아니다.
개별 지점이 컴퓨터로 생성된 가상 기준 물체에서 파생될 때 이상적으로 정확한 위치에 있는 것으로 공지되는데, 이는 제조 공차로 인해 임의의 편차가 있을 수 없기 때문이다.
다음에, 컴퓨터로 생성된 가상 기준 물체를 제공하기 위한 2 개의 상이한 방법이 개시된다. 그러나, 다음의 방법은 방법의 예로서 고려되어야 하고 컴퓨터로 생성된 가상 기준 물체를 생성하기 위한 임의의 다른 방법이 사용될 수 있다.
도 3에서 컴퓨터로 생성된 가상 기준 물체를 제공하기 위한 방법이 개시된다.
컴퓨터로 생성된 가상 기준 물체를 생성하기 위한 시작 지점은 측정될 물체의 모델 도면을 수신한다(단계 300). 전형적으로, 이러한 도면은 CAD 도면 또는 다른 유사한 컴퓨터 보조 설계 툴(design tool) 도면이다. 측정될 물체는 컴퓨터 제어 머신 비전 시스템을 사용하여 측정될 수 있는 임의의 물체일 수 있다. 전형적으로 이들 기계 부품은 자동차, 휴대폰, 가정용 장치(household devices) 및 기계 부품을 포함하는 임의의 다른 장치를 위한 부품으로 사용된다. 모델 도면은 물체의 좌표를 포함한다. 도면의 좌표는 2 차원 또는 3 차원일 수 있다. 좌표는 측정에 사용된 좌표계에 대응하는 좌표계의 크기를 정확하게 정의한다.
그 후, 모델 도면에 따라서 제조된 물체가 수신된다(단계(301)). 물체는 소위 골든 물체가 아닌 제조 공정의 부정확성을 갖는 보통 물체일 필요가 있다. 따라서, 물체는 이상적이지 않으며 도면에 도시되는 이상적인 측정치로부터 편차를 갖는 것으로 공지되어 있다.
물체의 수신된 도면은 투사 모델을 생성하는데 사용된다(단계 302). 이러한 투사는 전형적으로 물체의 2 차원 뷰이다. 투사 뷰를 생성하기 위해서 뷰 방향 및 다른 뷰잉 센서 관련 매개변수가 공지되어야 한다. 이들은 예를 들어, 뷰잉 센서 위치, 회전 각도, 초점 길이, 렌즈 오류 및 카메라 이미지에 대응하는 뷰를 생성하는데 필요할 수 있는 다른 매개 변수를 포함한다. 동일한 매개변수가 이미지를 획득하고 뷰를 생성하기 위한 것일 때, 최종 결과는 동일한 좌표계에 있고 임의의 추가 처리없이 서로 비교될 수 있다. 그러나 추가의 이미지 처리가 몇몇 용례에서 사용될 수 있다.
공정은 생성된 투사 모드에 대응하는 이미지 또는 복수의 이미지를 획득하는 것을 더 포함한다(단계 303). 획득된 이미지는 바람직하게, 실제 측정 조건에 대응하는 조건에서 물체를 포함한다.
최종적으로 획득된 이미지와 투사 모델은 이미지의 적어도 일부가 선택되어 투사 모델에 정확하게 정렬되도록 조합된다. 정렬은 완전 자동화될 수 있지만, 손에 의해 수동으로 필요한 부분을 정렬시키는 것이 또한 가능하다. 충분히 정확하게 하기 위해서 획득된 이미지와 투사 모델은 정렬 공정이 매우 정확하게 수행될 수 있도록 확대될 수 있다. 조합의 결과는 컴퓨터로 생성된 가상 기준 물체로서 사용될 수 있다.
위에서 측정 설정은 논의되지 않았지만, 이들은 컴퓨터로 생성된 가상 기준 물체와 함께 저장될 수 있다. 따라서, 컴퓨터로 생성된 가상 기준 물체를 생성하기 위해 이미지를 획득하는데 사용되는 것과 같이 동일한 조명을 측정할 때 사용하는 것이 가능하다.
도 4에서 컴퓨터로 생성된 가상 기준 물체를 생성하기 위한 다른 방법이 개시된다. 이 방법은 측정될 물체의 모델 도면을 수신함으로써 개시된다(단계 400). 이는 도 3의 단계(300)와 적어도 부분적으로 유사하다. 수신된 모델 도면은 물체를 생성하기 위해서 서로 상호 연결되는 좌표에 의해 표시된 일련의 지점들일 수 있다.
컴퓨터로 생성된 가상 기준 물체를 제공하기 위해서, 추가 물체 특성이 수신된다(단계 401). 이들 추가 특성은 예를 들어, 제조 재료 또는 재료들, 물체의 색상 및 유사한 것을 포함한다. 따라서, 물체가 어떻게 빛을 반사하고 카메라에서 보이는 지를 결정하는 것이 가능하다.
전술한 바와 같이, 전형적인 측정 스테이션은 전형적으로, 복수의 독립적으로 제어 가능한 조명 장치를 포함한다. 빛의 세기, 파장 및 다른 특성을 또한 제어할 수 있는 것이 가능하다. 카메라로 촬영된 이미지와 비교될 수 있는 컴퓨터로 생성된 기준 모델을 생성하기 위해서 어떤 조명 설정이 사용되는지를 아는 것이 유리하다. 따라서, 사용될 조명 설정을 수신하는 것이 유리하다(단계 402).
컴퓨터로 생성된 가상 기준 물체를 생성할 때 시야각을 알 필요가 있다. 따라서, 도 3의 방법에서와 같이, 측정된 물체를 이미징하는데 사용되는 카메라의 정보를 알 필요가 있다. 이는 예를 들어, 카메라 위치 및 방위를 검색하는데 사용될 수 있는 카메라 식별을 수신함으로써 달성될 수 있다(단계 403).
모델 도면 및 추가 특성이 공지될 때, 컴퓨터로 생성된 가상 기준 물체를 생성하는 것이 가능하다(단계 404). 컴퓨터로 생성된 가상 기준 물체는 가능한 시각적으로 사실적이어야 한다. 이는 가시적인 표면 결정을 위한 방법인 스캔라인 렌더링(scanline rendering) 또는 레이트레이싱(raytracing)과 같은 렌더링 기술을 사용하여 달성될 수 있다. 레이트레이싱은 이미지 평면의 픽셀을 통해 빛의 경로를 추적하고 가상 물체와 그의 충돌 효과를 시뮬레이션함으로써 컴퓨터로 생성된 가상 기준 물체로서 사용될 수 있는 이미지를 생성하는 기술이다. 레이트 레이싱은 매우 높은 수준의 시각적 현실감을 생성할 수 있고 그 목적에 적합하다. 레이트레이싱 기술은 계산이 까다롭지만, 컴퓨터로 생성된 가상 기준 물체 및 컴퓨터로 생성된 가상 기준 물체를 나타내는 이미지가 미리 계산될 수 있기 때문에, 비용이 많이 드는 계산은 컴퓨팅 센터나 그와 유사한 곳에서 수행될 수 있고 측정 스테이션에 의해 수행될 필요는 없다. 따라서, 종래의 해결책과 비교할 때 컴퓨팅 성능을 증가시킬 필요없이 모델 물체의 매우 높은 정확도가 달성될 수 있다.
위의 예에서, 카메라 및 조명 장치는 종래의 카메라 및 조명 장치일 수 있지만, 이는 반드시 그럴 필요는 없다. 따라서, 특정 파장용으로 설계된 특수 카메라 및 특수 조명 장치가 사용될 수 있다. 따라서 빛은 사람의 눈에 보일 필요는 없다. 따라서, 컴퓨터로 생성된 가상 기준 물체는 이들이 카메라에 의해 보일 때 제공된다는 것을 당업자는 이해한다. 예를 들어, 몇몇 측정에서 육안으로는 보이지 않는 자외선 또는 적외선 파장을 사용하는 것이 유용할 수 있다. 유사한 원리는 스캐너, 또는 컴퓨터로 생성된 가상 기준 물체와 비교될 수 있는 이미지나 측정값을 생성하는 다른 측정 장치와 같은 다른 뷰잉 센서 유형에 적용된다. 따라서, 표현 "이미지"는 물체를 다르게 볼 수 있는 다양한 이미지 생성 장치로 생성된 이미지를 포함하도록 넓게 이해되어야 한다.
위의 예에서, 컴퓨터로 생성된 가상 기준 물체의 사용이 개시된다. 측정에서 컴퓨터로 생성된 가상 기준 물체는 종래의 기준 물체와 같이 사용된다.
k x 3 차원 행렬(V)에 대한 컴퓨터로 생성된 가상 기준 물체의 3 차원 개별 지점을 측정할 때, k는 측정 지점의 수를 나타낸다. 측정된 실제 물체는 유사한 행렬(R)을 갖지만, 이들 행렬은 위치 결정 없이 동일한 위치 또는 심지어 동일한 좌표계에 있지 않다. 따라서 차이는 R - V를 계산함으로써 직접 계산될 수 없다. 그러나, 당연히 이용 가능한 측정 공차 내에서, 행렬(R)의 형태로 절대 축척 결과를 달성하려는 것이 의도이므로, 예를 들어, 다음의 또는 임의의 다른 적합한 유사한 접근 방식을 사용함으로써 R을 달성하는 것으로 충분하다.
위치 결정의 문제는 종래의 위치 결정 방법을 사용함으로써 해결될 수 있다. 하나의 예는 종래의 3-2-1 방법이다. 일반적으로 사용되는 다른 옵션은 최적 맞춤 방법(best fit method)을 사용하는 것이다. 이들 위치 결정 방법은 예일 뿐이며 다른 방법이 또한 이용될 수 있다. 이용 가능한 방법은 정확도가 상이할 수 있으며 이는 방법을 선택할 때 고려될 필요가 있다.
하나의 계산 방법을 더 잘 이해하기 위해서 좌표가 다음 문단에서 개시된다. 획득된 2 차원 이미지에서 개별 측정 지점 또는 특징의 좌표는 다음과 같이 가정한다:
Vk = {x1vk, y1vk, x2vk, y2vk,… xnvk, ynvk}
여기서, n은 카메라의 수이고 k는 측정 지점의 수이다. 따라서, k x 2n 차원 행렬(V)을 형성하는 것이 가능하며, 여기서 k는 또한 측정 지점의 수이고 n은 카메라의 수이다. 이에 따라, 동일한 차원의 행렬(D)을 생성하는 것이 가능하며, 여기서 각각의 행은 다음과 같은 형태이다:
{x1dk, y1dk, x2dk, y2dk,… xndk, yndk}
여기서 n은 또한 카메라의 수이고 각각의 값은 2 차원 평면에서 실제 측정 지점과 가상 측정 지점의 차이를 나타낸다. 그에 따라 측정된 2 차원 좌표의 좌표는 M = V + D의 행렬 형태로 도면에 도시되며, 여기서 M은 V 및 D와 동일한 차원이고, 각각의 행은 동일한 형태이다{x1mk, y1mk, x2mk, y2mk,… xnmk, ynmk}. 절대 축척 3 차원 행렬은 R이 k x 3 행렬이고, 여기서 각각의 행(Xk, Yk 및 Zk)은 행렬 M 행의 함수이다:
Rk = {Xk Yk Zk} = fk (x1mk, y1mk, x2mk, y2mk,… xnmk, ynmk)
따라서,
R = f (M)
전술한 방법은 외부 장치와 통신할 수 있는 컴퓨팅 장치에서 실행되는, 컴퓨터 프로그램 코드를 포함한 컴퓨터 소프트웨어로서 구현될 수 있다. 소프트웨어가 컴퓨팅 장치에서 실행될 때, 이는 전술한 본 발명의 방법을 수행하도록 구성된다. 소프트웨어는 컴퓨터 판독 가능한 매체에서 구현되어서 도 1의 제어기(105)와 같은 컴퓨팅 장치에 제공될 수 있다.
전술한 바와 같이, 예시적인 실시예의 구성요소는 본 발명의 교시에 따라 프로그램된 명령을 유지하고 본 명세서에서 설명된 데이터 구조, 테이블, 기록 및/또는 다른 데이터를 유지하기 위한 컴퓨터 판독 가능한 매체 또는 메모리를 포함할 수 있다. 컴퓨터 판독 가능한 매체는 실행을 위해 프로세서에 명령을 제공하는데 참여하는 임의의 적합한 매체를 포함할 수 있다. 컴퓨터 판독 가능한 매체의 일반적인 형태는 예를 들어, 플로피 디스크, 가요성 디스크, 하드 디스크, 자기 테이프, 임의의 다른 적합한 자기 매체, CD-ROM, CD±R, CD±RW, DVD, DVD-RAM, DVD±RW, DVD±R, HD DVD, HD DVD-R, HD DVD-RW, HD DVD-RAM, Blu-ray 디스크, 임의의 다른 적합한 광학 매체, RAM, PROM, EPROM, FLASH-EPROM, 임의의 다른 적합한 메모리 칩 또는 카트리지, 반송파 또는 컴퓨터가 읽을 수 있는 임의의 다른 적합한 매체를 포함할 수 있다.
기술의 진보에 따라서 머신 비전 시스템의 기본 아이디어가 다양한 방식으로 구현될 수 있다는 것은 당업자에게 자명하다. 따라서 머신 비전 시스템 및 그의 실시예는 전술한 예에 제한되지 않으며; 대신에 이들은 청구범위의 범주 내에서 달라질 수 있다.

Claims (9)

  1. 물체의 측정 방법으로서,
    3 차원의 컴퓨터로 생성된 가상 기준 물체를 수신하는 단계로서, 수신된 가상 기준 물체가 물체의 모델 도면에 기초하여 생성되며 가상 기준 물체가 물체의 정확한 좌표를 포함하며, 정확한 좌표가 적어도 하나의 개별 지점의 좌표를 포함하는, 단계;
    물체의 적어도 두 개의 이미지를 획득하는 단계로서, 획득된 적어도 두 개의 이미지가 적어도 두 개의 상이한 뷰잉 센서로 획득되는, 단계;
    획득된 이미지에 기초하여 물체 상의 적어도 하나의 개별 지점의 3 차원 위치를 결정하는 단계로서, 결정된 3 차원 위치가 3 차원의 컴퓨터로 생성된 가상 기준 물체와 동일한 좌표계에 있는, 단계;
    가상 기준 물체 상의 대응하는 개별 지점 좌표를 결정하는 단계; 및
    획득된 이미지 상의 적어도 하나의 개별 지점의 결정된 위치 및 가상 기준 물체 상의 대응하는 정확한 좌표에 기초하여,
    물체 상의 적어도 하나의 개별 지점의 절대 축척 위치를 계산하는 단계를 포함하는,
    물체의 측정 방법.
  2. 제 1 항에 있어서,
    상기 방법은 물체의 모델 도면에 기초하여 컴퓨터로 생성된 가상 기준 물체를 생성하는 단계를 더 포함하는,
    물체의 측정 방법.
  3. 제 2 항에 있어서,
    상기 생성하는 단계는 조명 설정 정보, 물체 재료 정보, 물체 색상 정보 또는 뷰잉 센서 매개변수 중 적어도 하나를 포함한 추가 정보를 수신하는 단계를 더 포함하는,
    물체의 측정 방법.
  4. 제 3 항에 있어서,
    상기 뷰잉 센서 매개변수는 카메라 좌표 및 카메라 방위를 포함하는,
    물체의 측정 방법.
  5. 제 2 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 생성하는 단계는:
    제조된 물체의 적어도 하나의 이미지를 획득하는 단계;
    모델 도면에 기초하여 투사 뷰를 생성하는 단계로서, 투사 뷰가 제조된 물체의 적어도 하나의 이미지를 획득하는 방향에 대응하는, 단계; 및
    획득된 적어도 하나의 이미지의 적어도 일부를 생성된 투사 뷰에 정렬시키는 단계를 더 포함하는,
    물체의 측정 방법.
  6. 제 2 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 생성하는 단계는 모델 도면 및 수신된 추가 정보에 기초하여 물체의 사실적(photorealistic) 이미지를 생성하는 단계를 더 포함하는,
    물체의 측정 방법.
  7. 컴퓨터 프로그램으로서,
    컴퓨터 프로그램이 컴퓨팅 장치에서 실행될 때 제 1 항 내지 제 6 항 중 어느 한 항에 따른 방법을 수행하도록 구성된 컴퓨터 프로그램 코드를 포함하는,
    컴퓨터 프로그램.
  8. 제어기로서,
    적어도 하나의 프로세서(106) 및 적어도 하나의 메모리(107)를 포함하며, 적어도 하나의 프로세서는 제 1 항 내지 제 6 항 중 어느 한 항에 따른 방법을 수행하도록 구성되는,
    제어기.
  9. 머신 비전 시스템으로서,
    하우징(102);
    하우징(102) 내부에 복수의 카메라(100a 내지 100d)를 포함한 카메라 시스템;
    하우징(102) 내부에 복수의 조명 장치(101a 내지 101c)를 포함한 조명 시스템; 및
    제 1 항 내지 제 6 항 중 어느 한 항에 따른 방법을 수행하도록 구성된 제어기(105)를 포함하는,
    머신 비전 시스템.
KR1020207020234A 2017-12-15 2018-12-14 컴퓨터로 생성된 가상 기준 물체를 구비한 머신 비전 시스템 KR20200097778A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020247004631A KR20240023209A (ko) 2017-12-15 2018-12-14 컴퓨터로 생성된 가상 기준 물체를 구비한 머신 비전 시스템

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI20176126 2017-12-15
FI20176126A FI129042B (en) 2017-12-15 2017-12-15 Computer vision system with a computer-generated virtual reference object
PCT/FI2018/050915 WO2019115881A1 (en) 2017-12-15 2018-12-14 Machine vision system with a computer generated virtual reference object

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020247004631A Division KR20240023209A (ko) 2017-12-15 2018-12-14 컴퓨터로 생성된 가상 기준 물체를 구비한 머신 비전 시스템

Publications (1)

Publication Number Publication Date
KR20200097778A true KR20200097778A (ko) 2020-08-19

Family

ID=65010798

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020247004631A KR20240023209A (ko) 2017-12-15 2018-12-14 컴퓨터로 생성된 가상 기준 물체를 구비한 머신 비전 시스템
KR1020207020234A KR20200097778A (ko) 2017-12-15 2018-12-14 컴퓨터로 생성된 가상 기준 물체를 구비한 머신 비전 시스템

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020247004631A KR20240023209A (ko) 2017-12-15 2018-12-14 컴퓨터로 생성된 가상 기준 물체를 구비한 머신 비전 시스템

Country Status (8)

Country Link
US (1) US11443418B2 (ko)
EP (1) EP3724599A1 (ko)
JP (1) JP7330970B2 (ko)
KR (2) KR20240023209A (ko)
CN (1) CN111480050A (ko)
CA (1) CA3083414A1 (ko)
FI (1) FI129042B (ko)
WO (1) WO2019115881A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7294927B2 (ja) * 2019-07-23 2023-06-20 ファナック株式会社 相違点抽出装置
CN111283664B (zh) * 2020-03-24 2023-03-28 青岛理工大学 一种面向机器人增强现实示教的注册系统和方法
DE102020129792B4 (de) * 2020-11-11 2023-03-09 Volume Graphics Gmbh Computerimplementiertes Verfahren zum Ermitteln eines Werts eines geometrischen Parameters

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL82569A (en) * 1987-05-18 1991-11-21 Israel Aircraft Ind Ltd Apparatus for automatic tracking and contour measurement
US5488479A (en) 1992-12-17 1996-01-30 The United States Of America As Represented By The Secretary Of Agriculture Machine vision system for inspection of agricultural commodities
US6064759A (en) 1996-11-08 2000-05-16 Buckley; B. Shawn Computer aided inspection machine
DE19757773A1 (de) 1997-12-24 1999-07-01 Bernward Maehner Verfahren zur dreidimensionalen, detaillierten Simulation plastischer Veränderungen an menschlichen Körperpartien
US6173070B1 (en) * 1997-12-30 2001-01-09 Cognex Corporation Machine vision method using search models to find features in three dimensional images
JP2005031045A (ja) 2003-07-11 2005-02-03 Olympus Corp 情報呈示装置及び情報呈示システム
US7327857B2 (en) 2004-03-09 2008-02-05 General Electric Company Non-contact measurement method and apparatus
EP1723605A1 (en) * 2004-03-12 2006-11-22 Bracco Imaging, S.P.A. Accuracy evaluation of video-based augmented reality enhanced surgical navigation systems
EP2048599B1 (en) 2007-10-11 2009-12-16 MVTec Software GmbH System and method for 3D object recognition
JP5158007B2 (ja) * 2009-04-28 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP5746477B2 (ja) 2010-02-26 2015-07-08 キヤノン株式会社 モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
ES2747432T3 (es) 2011-01-27 2020-03-10 Wabtec Control Systems Pty Ltd Conjunto de cámara para la extracción de discontinuidad de profundidad de imagen y procedimiento de uso
US8849620B2 (en) * 2011-11-18 2014-09-30 Nike, Inc. Automated 3-D modeling of shoe parts
US20130201210A1 (en) * 2012-01-13 2013-08-08 Qualcomm Incorporated Virtual ruler
JP5899951B2 (ja) 2012-01-18 2016-04-06 セイコーエプソン株式会社 ロボット装置および位置姿勢検出方法
JP5999679B2 (ja) 2012-01-18 2016-09-28 株式会社日立製作所 設備保守管理システム
JP2014020969A (ja) * 2012-07-19 2014-02-03 Keihin Corp 平面度および異物検査装置
US9508146B2 (en) 2012-10-31 2016-11-29 The Boeing Company Automated frame of reference calibration for augmented reality
JP5818857B2 (ja) * 2013-10-24 2015-11-18 キヤノン株式会社 情報処理装置およびその制御方法
US9489765B2 (en) * 2013-11-18 2016-11-08 Nant Holdings Ip, Llc Silhouette-based object and texture alignment, systems and methods
US9747680B2 (en) * 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
EP3040941B1 (en) * 2014-12-29 2017-08-02 Dassault Systèmes Method for calibrating a depth camera
JP6594052B2 (ja) 2015-06-08 2019-10-23 矢崎総業株式会社 組み立て設備検査方法
US10094650B2 (en) * 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
CN105180817B (zh) * 2015-08-06 2018-08-10 联想(北京)有限公司 一种数据处理方法及电子设备
JP6797556B2 (ja) 2016-05-13 2020-12-09 株式会社トプコン 管理装置、管理方法および管理用プログラム
CN106127758B (zh) * 2016-06-21 2019-08-23 四川大学 一种基于虚拟现实技术的视觉检测方法及装置
EP3336801A1 (en) * 2016-12-19 2018-06-20 Thomson Licensing Method and apparatus for constructing lighting environment representations of 3d scenes

Also Published As

Publication number Publication date
US20200311909A1 (en) 2020-10-01
CA3083414A1 (en) 2019-06-20
JP7330970B2 (ja) 2023-08-22
WO2019115881A1 (en) 2019-06-20
CN111480050A (zh) 2020-07-31
US11443418B2 (en) 2022-09-13
FI129042B (en) 2021-05-31
JP2021507209A (ja) 2021-02-22
KR20240023209A (ko) 2024-02-20
EP3724599A1 (en) 2020-10-21
FI20176126A1 (en) 2019-06-16

Similar Documents

Publication Publication Date Title
KR102129103B1 (ko) 적어도 3개의 이산 평면에 따른 머신 비젼 카메라의 보정을 위한 시스템 및 방법
CN107505324B (zh) 基于双目协同激光的3d扫描装置及扫描方法
KR102235632B1 (ko) 머신 비전 시스템
CN101821579A (zh) 相位分析测量装置和方法
JP7330970B2 (ja) コンピュータ生成された参照物体を有するマシンビジョンシステム
EP3049756B1 (en) Modeling arrangement and method and system for modeling the topography of a three-dimensional surface
CN108700408A (zh) 三维形状数据及纹理信息生成系统、拍摄控制程序、以及三维形状数据及纹理信息生成方法
US20180156601A1 (en) Method and apparatus for determining the 3d coordinates of an object
de La Bourdonnaye et al. Practical experience with distance measurement based on single visual camera
Valigi et al. A new automated 2 DOFs 3D desktop optical scanner
US11259000B2 (en) Spatiotemporal calibration of RGB-D and displacement sensors
Cajal et al. Simulation of laser triangulation sensors scanning for design and evaluation purposes
Karaszewski et al. Automated full-3D digitization system for documentation of paintings
JP6237032B2 (ja) 色と三次元形状の計測方法及び装置
Manthey et al. Calibration of a laser range-finding coordinate-measuring machine
CN102538707A (zh) 一种对工件进行三维定位的装置及方法
Borrmann et al. Spatial projection of thermal data for visual inspection
KR102080506B1 (ko) 광학 3d 스캐너
Gräter et al. Photometric laser scanner to camera calibration for low resolution sensors
WO2005073669A1 (en) Semi and fully-automatic camera calibration tools using laser-based measurement devices
US11538183B2 (en) 3D object sensing system
Tyris et al. Interactive view planning exploiting standard machine vision in structured light scanning of engineering parts
CN110081863A (zh) 一种基于双目视觉的物体3d建模装置及方法
Uyanik et al. A method for determining 3D surface points of objects by a single camera and rotary stage
Bleier et al. Towards robust self-calibration for handheld 3D line laser scanning

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination
J201 Request for trial against refusal decision