KR20040009550A - 역공학의 센서융합에 의한 데이터 획득방법 - Google Patents

역공학의 센서융합에 의한 데이터 획득방법 Download PDF

Info

Publication number
KR20040009550A
KR20040009550A KR1020020043546A KR20020043546A KR20040009550A KR 20040009550 A KR20040009550 A KR 20040009550A KR 1020020043546 A KR1020020043546 A KR 1020020043546A KR 20020043546 A KR20020043546 A KR 20020043546A KR 20040009550 A KR20040009550 A KR 20040009550A
Authority
KR
South Korea
Prior art keywords
data
measurement
probe
contact
point
Prior art date
Application number
KR1020020043546A
Other languages
English (en)
Inventor
고태조
김창일
Original Assignee
고태조
김창일
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고태조, 김창일 filed Critical 고태조
Priority to KR1020020043546A priority Critical patent/KR20040009550A/ko
Publication of KR20040009550A publication Critical patent/KR20040009550A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/70Software maintenance or management
    • G06F8/74Reverse engineering; Extracting design information from source code
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Abstract

본 발명은 역공학의 센서융합에 의한 데이터 획득방법에 관한 것으로서;
역공학에서의 가공데이터를 획득하기 위하여; 비접촉식센서의 비젼시스템을 접촉식 센서인 터치프로브에 캘리브레이션 함으로써 비접촉식 센서는 측정대상인 임의 위치에 있는 물체를 인식하여 거친 데이터를 측정, 획득하고, 접촉식 센서는 비젼 시스템으로 측정한 거친 데이터를 이용하여 만들어진 측정점에 대해 정밀한 측정을 하여; 더욱 상세히는 비젼시스템과 접촉식 시스템의 프로브를 캘리브레이션하여 좌표점을 일치시킴으로써, 광학적인 비젼 시스템으로서 측정하여 3D 점데이터를 얻고(100), 실제 가공하는 가공기에 부착된 접촉식센서인 스캐닝프로브를 이용하여 데이터를 얻으며(101), 상기 접촉식센서의 측정경로를 디플렉션 값을 반영하여 설정(103)하여, 정확한 점데이터를 측정하여 실제 가공기에서 이 점데이터로서 가공을 수행(104)하게 하는 것을 특징으로 한다.

Description

역공학의 센서융합에 의한 데이터 획득방법{Efficient digitizing in reverse engineering by sensor fusion}
본 발명은 역공학의 센서융합에 의한 데이터 획득방법에 관한 것으로서, 더욱 상세히는 다차원적인 물체의 성형가공을 위한 데이터의 획득방법의 개선에 관한 것이다.
자유곡면 형상을 갖는 제품을 제조하기 위한 제조법으로 최근 역공학(逆工學:reverse engineering)이 대두되어 현재 상당한 연구가 진행되고 있고, 이를 위해서는 신속하고 정확하게 실물모형에 대한 점 데이터를 획득하여야 한다. 이러한 점 데이터를 획득하는 방법은 사용하는 센서의 종류에 따라서 크게 빛을 이용한 비접촉식 측정법과 접촉 변형량을 이용한 접촉식 측정법이 알려져 있다.
이는 가공할 대상의 데이터가 정형적으로 주어지지 아니하는 3차원물체의 가공에 유용하게 적용되도록 안출되어 있다.
일반적으로 잘 알려진 바와 같이, 접촉식은 측정 속도가 느린 반면 정밀하게 데이터를 측정할 수가 있으며, 비접촉식은 일반적으로는 그와 반대이다. 특히, 역공학을 목적으로 측정할 때는 많은 점 데이터를 획득하여야 하고, 이때, 접촉식의 경우는 작업자가 터치 프로브를 움직이면서 교시(teaching and playback)하여 측정하든지 아니면 스캐닝 프로브를 이용하여 자동으로 측정하는 방법을 선택한다.
비접촉식에 비해서는 정밀한 측정은 가능할지 몰라도 너무 많은 작업자의 개입이 필요하여 비능률적이다.
이러한 관점에서 3차원 측정기나 디지타이징 머신 등에서 물체의 측정 시, 측정의 신속 및 자동화를 위하여 센서융합에 대한 연구가 상당히 진행되고 있으며 다케우치 등은 적외선 카메라와 터치 프로브를 이용하여 3차원 측정기 위의 임의 위치에 놓여진 물체를 CAD 데이터에서 미리 만들어진 측정경로를 따라서 측정할 수있는 방법을 제시하였다. 그 이후 3차원 측정기상의 임의 위치에 놓여진 물체를 작업자의 간섭을 최소화하면서 측정하기 위하여 물체를 먼저 인식하기 위한 다양한 방안들이 강구되었는데, CCD카메라를 이용하여 스테레오 비젼 시스템과 Z-layer를 이용하는 방안도 발표되었다.
이상과 같이 접촉식 센서를 사용할 때 이 센서의 단점인 측정속도와 너무 많은 작업자의 개입을 방지하기 위한 자동화의 개념은 보다 신속하고 정확하게 데이터를 획득할 수 있게 하는 중요한 요소 중의 하나이다.
이러한 목적으로 본 발명에서는 접촉식과 비접촉식 센서를 센서융합 함에 의해 데이터를 신속하고 정확하게 획득하는 방법을 제안하고 있다.
도 1 은 본 발명의 센서융합에 의한 데이터획득방법을 설명하는 기본적인 개념의 블록다이아그램.
도 2 는 본 발명의 센서융합에 의한 데이터획득방법을 구현하기 위한 전체 시스템을 도시하는 측정장비의 구성도.
도 3 은 본 발명의 센서융합에 의한 데이터획득방법을 구현하기 위한 비젼시스템을 도시하는 구성도.
도 4 는 본 발명의 센서융합에 의한 데이터획득방법을 구현하기 위한 캘리브레이션평면상의 캘리브레이션 점을 표시하는 설명도.
도 5 는 CCD카메라 상의 2 D 캘리브레이션 점을 도시하는 설명도.
도 6 는 캘리브레이션 점 1 상에 투사된 슬릿빔의 CCD이미지.
도 7 은 부분캘리브레이션 평면1,2 상에 투영된 슬릿빔도.
도 8 은 테이블 상의 부분캘리브레이션 평면1,2.
도 9 는 CCD카메라의 투영선.
도 10 은 터치프로브를 가지는 접촉식 측정시스템의 구성도.
도 11 은 스타일러스의 접촉변위의 설명도.
도 12 는 반구의 중심측정 설명도.
도 13 은 CNC 머신의 센서의 상대적인 이동을 도시하는 그림.
도 14 A,B 는 반구로부터의 스타일러서 3D점의 취득을 설명하는 그림.
도 15 A,B 는 목적이미지의 처리와 취득을 설명하는 설명도.
도 16 은 비젼시스템을 사용한 측정점 데이터.
도 17 A,B,C 는 점데이터의 자동화된 측정을 설명하는 설명도.
도 18 은 스캐닝프로브를 사용한 측정점 데이터.
도 19 는 가공된 가공물과 진흙모델의 비교도.
도 20 은 본 발명의 역공학의 센서융합에 의한 데이터 획득방법의 해석 및 보정에 사용되는 각종의 식.
* 도면의 주요부분에 대한 부호의 설명 *
1: 영상처리용피시
2: 접촉변형량계측피시
3: 슬릿빔생성피시
4: 프로젝터
5: CCD카메라
상기하는 목적을 달성하기 위하여 안출된 본 발명의 역공학의 센서융합에 의한 데이터 획득방법은;
역공학에서의 가공데이터를 획득하기 위하여;
비접촉식센서의 비젼시스템을 접촉식 센서인 터치프로브에 캘리브레이션 함으로써;
비접촉식 센서는 측정대상인 임의 위치에 있는 물체를 인식하여 거친 데이터를 신속하게 측정, 획득하고,
접촉식 센서는 비젼 시스템으로 측정한 거친 데이터를 이용하여 만들어진 측정점에 대해 정밀한 측정을 하는 것을 특징으로 하며 더욱 구체적으로는;
비젼 시스템과 접촉식 시스템의 프로브를 캘리브레이션하여 좌표점을 일치시킴으로써,
광학적인 비젼 시스템으로서 측정하여 3D 점데이터를 얻고,
실제 가공하는 가공기에 부착된 접촉식센서인 스캐닝프로브를 이용하여 데이터를 얻으며,
상기 접촉식센서의 측정경로를 디플렉션 값을 반영하여 설정하여,
정확한 점데이터를 측정하여 실제 가공기에서 이 점데이터로서 가공을 수행하게 한다.
이하의 부수된 도면과 함께 본 발명의 역공학의 센서융합에 의한 데이터 획득방법을 더욱 상세하게 설명한다.
도 1 은 본 발명의 센서융합에 의한 데이터획득방법을 설명하는 기본적인 개념의 블록다이아그램, 도 2 는 전체 시스템을 도시하는 측정장비의 구성도, 도 3 은 데이터획득방법을 구현하기 위한 비젼시스템을 도시하는 구성도, 도 4 는 본 발명의 센서융합에 의한 데이터획득방법을 구현하기 위한 캘리브레이션평면상의 캘리브레이션 점을 표시하는 설명도, 도 5 는 CCD카메라 상의 2 D 캘리브레이션 점을 도시하는 설명도, 도 6 는 캘리브레이션 점 1 상에 투사된 슬릿빔의 CCD이미지, 도 7 은 부분캘리브레이션 평면1,2 상에 투영된 슬릿빔도, 도 8 은 테이블 상의 부분캘리브레이션 평면1,2, 도 9 는 CCD카메라의 투영선, 도 10 은 터치프로브를 가지는 접촉식 측정시스템의 구성도, 도 11 은 스타일러스의 접촉변위의 설명도, 도 12는 반구의 중심측정 설명도, 도 13 은 CNC 머신의 센서의 상대적인 이동을 도시하는 그림, 도 14 A,B 는 반구로부터의 스타일러서 3D점의 취득을 설명하는 그림, 도 15 A,B 는 목적이미지의 처리와 취득을 설명하는 설명도, 도 16 은 비젼시스템을 사용한 측정점 데이터, 도 17 A,B,C 는 점데이터의 자동화된 측정을 설명하는 설명도, 도 18 은 스캐닝프로브를 사용한 측정점 데이터, 도 19 는 가공된 가공물과 진흙모델의 비교도, 도 20 은 본 발명의 역공학의 센서융합에 의한 데이터 획득방법의 해석 및 보정에 사용되는 각종의 식이다.
본 발명에서 비접촉식 센서는 측정용 장비 테이블 상의 임의 위치에 있는 물체를 인식하며, 거칠게 데이터를 측정하게 된다. 그리고 접촉식 센서는 비젼 시스템으로 측정한 거친 데이터를 이용하여 만들어진 측정점에 대해 정밀한 측정을 하는데 사용이 된다.
이러한 방식의 센서융합에 있어서 중요한 것은 비젼시스템의 캘리브레이션, 즉, 임의위치에 장착되는 비젼용 카메라와 측정기의 좌표를 일치시키는 것이다. 즉, 도 1 과 같은 방법으로 비접촉식과 접촉식의 센서를 융합한다.
즉, 우선 하술하는 비젼 시스템으로서 측정하여 3D 점데이터를 얻는다.(100)
또한 실제 가공하는 가공기에 부착된 스캐닝프로브를 이용하여 데이터를 얻은(101)후, 이를 캘리브레이션(102)한다. 이때 스캐닝 프로브의 위치는 이미 알고 있기 때문에 이를 이용하여 캘리브레이션하는 방법은 매우 효과적이며, 이후 비젼 시스템과 측정기의 좌표계가 일치되기 때문에 측정경로의 시작점을 맞추기 위한 작업자의 수작업을 없앨 수가 있다.
이렇게 해서 얻어진 거칠은 점 데이터를 이용하여 터치 프로브의 측정경로를 디플렉션 값을 반영하여 설정하여(103) 줌으로써 정확한 점 데이터를 무인으로 측정하여 공작기계상(104)에서 실제적인 정확한 측정이 구현되는 것이다.
도 2 에 본 발명에서 수행한 센서 융합 점 데이터 측정 시스템이 도시된다.
도 2 의 센서 융합 측정 시스템은 비접촉식 측정 장비인 CCD 카메라와 접촉식 측정 장비인 스캐닝 프로브를 장착하고 있으며 비젼시스템 구성 요소에 대한 개략적인 구성은 하기의 장비로써 이루어진다.
비젼시스템은 TV 수신 카드를 장착한 PC (CCD로부터 24 비트맵 파일 영상 획득)로서 영상처리용피시(1), 프로브의 위치 제어와 탐침봉의 접촉 변형량 획득을 위한 PC로서 접촉변형량계측피시(2), 프로젝터와 연결되어 슬릿빔을 생성하는 슬릿빔생성피시(3), 슬릿 빔을 투사하는 프로젝터(4), 영상을 획득하는 흑백 CCD 카메라(5)로서 구성된다.
상기의 비젼시스템에 부가하여 실제 가공되는 CNC공작기 등의 가공주축에 장착되는 3D 점 데이터를 측정하는 SP2-1 프로브 등의 접촉식센서(6), 점토로 만든 실물 모형인 측정물체(7)를 포함한다.
상기와 같은 CCD카메라(5)와 프로젝터(4)로 구성된 비젼 시스템과,
접촉식센서(6)로서 공작기계 주축에 장착된 스캐닝 프로브(SP2-1, Renishaw:도 10의 8)로 크게 구분 구성된다.
비젼 시스템은 임의의 위치에 존재해 있는 공작물에 대해 그 위치를 파악하여 프로브를 자동적으로 구동시키기 위한 초기 정보인 거친 점 데이터를 획득하며, 스캐닝 프로브는 비젼 시스템의 보정, 그리고 정밀측정용 센서로 각각 이용된다.
보정을 하는 방법은 측정기의 테이블 위에 위치를 미리 알고 있는 기준구를 이용하는 방법이 일반적이지만, 본 발명의 실시예에서는 스캐닝 프로브의 탐침봉 위치를 기계좌표로부터 알 수 있기 때문에 이를 이용하는 방법을 제시한다.
따라서, 두 측정 센서 시스템이 상호 유기적으로 정보를 교환하면서 신속하고 정확하게 3D 점 데이터를 측정하는 시스템을 구성하였다.
본 발명에 적용된 비젼 시스템은 구조광으로서 일반적으로 사용하는 레이저 광 대신에 빔 프로젝터에서 투사되는 슬릿광을 사용하였다. 카메라 보정 기법으로는 카메라를 핀홀 모델로 가정한 복잡한 보정법 대신 카메라 렌즈의 왜곡을 쉽게 고려할 수 있는 다중 보정면을 이용한 카메라 보정 기법을 적용하였다.
도 3 의 개략구성을 보면 프로젝터(4)에서 투사되는 슬릿빔은 공간상에서 평면이며, CCD카메라(5) 영상면에 맺힌 영상점과 측정 물체 상의 측정점을 연결한 투영선은 공간상에서 직선이 된다. 따라서 측정 물체의 3D 점 데이터는 슬릿빔의 평면과 CCD카메라(5)의 투영선이 만나는 교점을 구함으로써 간단히 얻을 수 있다. 이러한 시스템은 다음과 같은 순서로 측정이 이루어진다.
① 두 보정면을 이용한 카메라 보정
② 프로젝터(4)의 보정
③ CCD카메라(5)의 투영선 계산
④ 슬릿빔과 투영선의 교점 계산
CCD카메라(5)의 왜곡에 대한 보정을 위해서는 먼저 도 4 와 같이 3D 정보를 알고 있는 보정면 상의 보정점들을 이용하여 각 보정면에 대한 보정행렬(A1,A2)을 구해야 한다.
보정면은 실제로 정밀하게 제작된 보정판이 아니라 공간상을 이동하는 탐침봉이 만드는 평면이다. 이 중에서 보정면2는 가상의 보정면1을 Y축 방향으로 테이블을 이송했을 경우의 위치이다.
도 4 의 보정면1에 대한 3D 보정점(P11-Pmm)과 CCD카메라(5)에 잡힌 영상인 도 5 의 2D영상점(Q11-Qmm) 사이의 관계는 도 20 의 식 (1)과 같이 나타낼 수 있다. 여기서 보정행렬(A1,A2)은 각각 보정면1,2의 영상좌표 변환 관계를 나타낸다.
본 발명에서는 보정면에 대한 보정점을 실제적으로는 공간상에서 스캐닝 프로브를 각각의 점으로 이동시킨 후 영상을 획득하는 방법을 취함으로써, 기준구가 부착된 면판을 사용하는 방법에 비하여 면판 그 자체의 보정 등의 부수적인 일을 제거하였다.
도 20 의 식 (1)의 보정행렬은 식 (2)와 같이 최소 자승법으로 구할 수 있고 식 2 와 같이 된다.
빔 프로젝터 보정은 보정이 완료된 CCD카메라(5)를 이용하여 프로젝트(4)에서 방사되는 슬릿 빔에 대해 평면 방정식을 구하는 과정이다. 먼저, 식 (2)에서 구한 보정행렬을 이용하여 도 6 과 같이 정밀하게 제작된 보정면(F1)에 투사된 빔 프로젝터의 영상에 대해 도 7 과 같은 빔의 3D 위치 정보를 CCD카메라(5)로 획득한 후 도 20 의 (3)을 이용하여 얻을 수 있다.
한편, 도 8 과 같이 보정면1을 y축 방향으로 일정량 이동시킨 보정면 2에 대해서도 동일한 방법을 적용하여 빔의 3D 위치 정보(B2)를 구할 수 있다.
도 20 의 식 (3)으로부터 보정면 1, 2에 대해 각각 구한 3D 점 데이터( p_1, p_2, … , p_k+i )로부터 슬릿빔의 평면 방정식을 구할 수 있는데, 공간상에서 평면은 식 (4)와 같이 표현된다.
평면 방정식의 계수 a 를 1로 두고 식 (4)를 행렬식으로 표현하면 식 (5)와 같다.
식 (5)에 k+i 개의 점 데이터를 대입하면 식 (6)과 같이 된다.
식 (6)에 있는 평면 방정식의 계수는 식 (7)과 같이 최소 자승법을 적용하여 구할 수 있다.
도 9 의 이미지 평면상의 빔은 보정면 1과 2 사이에 측정 물체가 있을 경우 슬릿빔(프로젝터 빔)이 측정 물체에 비쳐서 생긴 곡선이며, 빔상에 있는 Q점은 카메라에 내장된 CCD 배열 가운데 임의의 한 점에서 렌즈를 투과하여 물체로 투사된 투영선이 측정 물체와 만난 점이다.
따라서 각 보정면 상에 있는 P1,P2는 CCD 배열 가운데 임의의 한점에서 물체로 투사된 투영선이 각 보정면 1, 2와 만난 점들이다. 따라서 P1,P2는 식(2)에서 이미 구한 각 보정면에 대한 보정행렬을 이용하여 식 (8)과 같이 구할 수 있다.
공간상에 있는 측정 물체에서 임의의 3D 측정점과 이 측정점이 영상으로 맺힌 CCD 배열 가운데 한 점을 선으로 연결한 투영선은 식 (8)에서 구한 P1,P2 로부터 식(9)와 같은 공간상의 직선 방정식으로 표현할 수 있다.
슬릿빔과 투영선의 교점 계산:
실제 측정 물체의 3D 점 데이터는 슬릿빔의 평면과 CCD 투영선의 직선이 만나는 교점을 계산함으로써 구해진다. 따라서 슬릿빔의 평면 방정식인 식 (4)와 CCD TV 투영선의 직선 방정식인 식 (9)의 공통근을 식 (10)과 같이 구하여 측정 물체의 3D 점 데이터를 구한다.
식 (10)을 적용하여 측정 물체의 3D 점 데이터를 구하기 위해서는 먼저 카메라와 프로젝터 보정을 실시하여 슬릿빔의 평면 방정식을 구해야 하며, 그 다음부터는 측정 물체의 한 점을 측정할 때마다 매번 식 (9)의 CCD 투영선을 구하여야 한다. 즉, 도 9 의 Q 점은 측정하고자 하는 물체의 한 점에 해당하기 때문에 다른 위치의 점 데이터를 측정하기 위해서는 다른 위치의 CCD 소자에 의해 생성되는 투영선 방정식을 매번 구하여 측정을 해야한다.
본 발명에서는 스캐닝프로브(8)를 CNC 공작기계 주축에 장착해서 프로브가 측정 물체와 접촉할 때 발생하는 접촉 변형량을 이용하여 3D 점 데이터를 측정한다. 그리고 이 센서는 센서 융합 측정시 프로브의 탐침봉 센터의 위치 정보를 가지고 보정면 상의 보정점으로 이용된다.
측정 시스템의 구성 : 본 발명에서 사용한 접촉식 측정 시스템은 도 10 과 같이 다음으로 구성되어 있다.
⊙ SP2-1 probe : 탐침봉(stylus)을 장착한 스캐닝용 프로브
⊙ Probe Interface Card : 탐침봉의 접촉 변형량을 카운트(count)
⊙ RS232C Cable : NC 코드 전송
⊙ CNC Machine Tool : 주축에 프로브를 장착하고 DNC로 PC에 의해 구동
⊙ PC : 프로브 인터페이스 카드 장착
본 발명에서는 CNC 공작기계를 PC로 구동하며, 공작기계 주축에 장착된 프로브가 기계 원점에서부터 이동된 거리, 즉 탐침봉의 3D 위치 정보 (x, y, z)와 PC에 장착된 프로브 인터페이스 카드로부터 얻은 탐침봉의 접촉 변형량(δ)을 이용하여 탐침봉이 접촉한 측정 물체의 접촉 위치를 계산한다.
프로브를 이용한 3D 측정에서는 프로브에 장착된 탐침봉의 반경 보정이 측정 정밀도를 크게 좌우한다. 이를 위해서는 측정물체 표면의 법선벡터를 알아야 하고, 측정도 법선방향으로 이루어지는 것이 바람직하다. 그러나, 본 연구에서는 측정 물체의 형상을 무시하고 Z축 방향으로 탐침봉을 접촉시켜서 얻은 탐침봉의 접촉 변형량(δ)을 접촉점에 대한 법선 벡터로 가정하여 탐침봉의 반경 보정을 실시하였다.
그러나 좀더 정확한 측정을 하기 위해서는 비젼 시스템에서 측정한 측정 물체의 초기 정보로부터 곡면의 법선을 구한 다음 각 측정점의 법선 방향으로 탐침봉을 접촉시켜 측정을 수행해야 한다. 측정순서는 다음과 같다.
① 프로브의 좌표축 보정
② 프로브 인터페이스 카드로부터 접촉 변형량 획득(DNC로 위치 제어)
③ 프로브의 위치와 탐침봉의 접촉 변형량으로부터 탐침봉의 센터 계산
④ 탐침봉의 반경 보정으로 접촉점 계산
프로브 좌표축과 탐침봉 반경 보정: 측정을 하기에 앞서 먼저 프로브의 보정과 탐침봉의 반경 보정을 실시해야 한다. 프로브의 보정은 엔드밀로 자체가공한 지그를 이용하여 주축 중심과의 센터변위(center shift), 평행축에 대한 회전을 계산하였다.
다음으로 측정 물체와 접촉한 접촉점 위치()는 탐침봉의 센터()와 도 11 에서 프로브가 접촉면에 수직한 접촉 변형 벡터()를 사용하여 식 (11)과 같이 얻을 수 있다.
접촉 변형 벡터()는 접촉한 곡면에서의 접촉변형량(δ)를 법선 벡터로 사용하여 탐침봉의 반경 보정을 실시한다. 따라서 측정 물체와 탐침봉이 접촉한 위치()는 식 (12)와 같이 측정할 수 있다.
3D 점 데이터 측정실험: 본 발명에서 사용한 센서 융합 측정 시스템은 두 보정면을 이용하여 카메라와 프로젝터 보정을 실시하였다. 보정할 때 공작기계 주축에 장착된 프로브의 탐침봉 센터 위치는 도 4 에 있는 보정면 상의 보정점들(P11-Pnm)로 이용한다.
그러나 이때 실제로 보정판은 존재하지 않아도 된다. 또한 도 12 에서 공작기계 테이블 위에 설치된 수직 평판을 도 6 의 빔 프로젝터 보정면으로 사용하였다. 그러나 본 발명에 사용된 공작기계는 프로브를 장착한 주축이 Z축 방향으로만 이동이 가능하기 때문에(X, Y축 방향은 테이블이 이동) 탐침봉 센터를 보정점으로사용하기 위해서는 도 12 와 같이 수평면에 박힌 반구의 센터 좌표를 측정한 다음 이를 영상 이미지의 기준점으로 잡고 영상 이미지에서 프로브의 상대 좌표를 찾아야 한다.
따라서 도 13 과 같은 상대적 위치 정보를 이용하여 비젼 시스템의 보정을 실시하는데, 보정 절차는 다음과 같다.
① 도 12 와 같이 수평면에 박힌 구슬의 센터 3D 좌표 측정 및 CCD 영상 획득
② 도 12 에 있는 수직 평면의 y좌표 측정
③ 공간상의 XZ 평면상에 일정 간격으로 탐침봉 센터 이동(3D 정보 획득)
④ 각 이동 위치에서 구슬이 포함되게 CCD 영상 획득(2D 정보 획득)
⑤ y축으로 일정량 테이블을 이동시킴
⑥ ③, ④번 절차 반복
⑦ 식 (2)를 이용하여 보정면 1, 2의 보정행렬 계산(카메라 보정)
⑧ ②에서 측정한 y값(보정면 1)으로 테이블 이동
⑨ 도 12에 있는 수직 평면에 투사한 슬릿빔 영상 획득(Fig. 6 참조)
⑤번과 동일하게 테이블 이동(Fig. 8 참조)
y축으로 이동된 상태에서 ⑨번 절차 반복
식 (3)과 (7)을 이용하여 빔의 평면 방정식 계산(프로젝터 보정)
탐침봉 센터의 위치 정보를 이용한 보정: 센서 융합 측정 시스템은 도 4에 있는 보정점들 대신 프로브의 탐침봉 센터의 위치 정보를 이용하여 보정을 실시하는데, 도14 는 CCD 카메라에서 획득한 24 비트맵 영상으로부터 탐침봉 센터의 상대위치 정보를 찾아내는 절차이다.
① CCD TV로부터 24 비트맵 영상 이미지 획득
② 24 비트 영상을 이진화
③ 소벨 연산자를 적용하여 에지 검출
④ 1 비트 영상으로 전환하여 반전
⑤ 허프 변환을 적용하여 반구의 센터 계산
⑥ 허프 변환을 적용하여 탐침봉의 센터 계산
이상과 같이 도 14 의 과정을 통해서 테이블 상에 있는 반구에 대한 탐침봉의 상대 위치를 찾아서 두 보정면을 이용한 보정을 실시한다.
센서 융합 점 데이터 측정: 비젼 시스템을 통한 측정 물체의 초기 정보 획득은 도 15 (a) 와 같이 공작기계의 테이블을 X축 방향으로 일정량 이동시키면서 측정 물체에 슬릿빔을 투사한 영상을 매 단계마다 획득한 후 5.1에서 기술한 영상처리를 한 도15 (b)의 2D 영상 정보를 식 (10)에 대입함으로 이루어진다.
도 16 은 비젼 시스템으로 측정한 물체의 좌표점이다.
도 16 에서 획득한 초기 정보로부터 NC 코드를 생성하여 도 17 과 같이 자동적으로 공작기계에 장착된 프로브를 구동시키면서 측정 물체의 3D 점 데이터를 측정한다.
이때 측정을 하기 위한 점의 수는 모델링이 편리하도록 등간격으로 임의로 지정한 점 들이다. 이 과정은 실제로 점 데이터를 이용하여 모델링한 후 CAD 모델로부터 측정경로를 생성할 수도 있으나 본 연구에서는 비젼으로 측정한 점을 직접 사용하는 방법을 선택하였다.
이렇게 하여 측정된 점 데이터가 도 18 이다. 한편 본 연구는 공작기계 상에서 이루어졌기 때문에 정밀도의 관점에서 평가를 실시하지는 않고, 다만 비젼 시스템과 접촉식 프로브를 이용하여 유기적으로 측정공정을 자동화할 수 있는가에 초점이 맞추어져 있다
측정된 물체의 3D 점 데이터를 본 발명에서는 스키닝메소드(scinning method)를 적용한 NURBS 곡선 근사로 측정 물체의 형상을 모델링하였다. 그리고 생성된 측정 물체의 합성 곡면은 IGES 파일로 전환된 후 상용 CAD/CAM 소프트웨어에서 가공 경로를 얻어 실제 가공을 수행할 수 있으며, 도 19는 점토로 만든 측정 물체와 상기 기술된 역공학으로 최종 가공된 제품이다.
본 발명에서는 비접촉식과 접촉식의 특징을 융합한 센서 융합 디지타이징 시스템을 연구하였다.
측정기 상의 임의 위치에 놓여진 물체를 인식하고, 거칠은 점 데이터를 얻음으로써 접촉식 센서의 측정에 있어서 보다 자동화를 이룰 수 있어서 디지타이징에 있어서도 센서융합에 의한 자동화가 가능함을 보였다. 그러나, 이 시스템을 이용하면 작업자의 개입을 보다 줄이면서 정확한 점 데이터를 신속하게 측정할 수 있다.
역공학을 수행하는데 있어서 미지의 물체가 측정기상의 임의의 위치에 놓였을 때, 비젼시스템을 이용하여 거치른 전역좌표를 신속하게 획득하고, 이 데이터를이용하여 터치 프로브와 같은 정밀한 접촉식 센서를 구동할 수 있도록 하여 최종적으로 정확한 점 데이터를 자동으로 획득할 수 있는 유용성을 가진다.

Claims (2)

  1. 역공학에서의 가공데이터를 획득하기 위하여;
    비접촉식센서의 비젼시스템을 접촉식 센서인 터치 프로브에 캘리브레이션 함으로써,
    비접촉식 센서는 측정대상인 임의 위치에 있는 물체를 인식하여 거친 데이터를 측정, 획득하고,
    접촉식 센서는 비젼 시스템으로 측정한 거친 데이터를 이용하여 만들어진 측정점에 대해 정밀한 측정을 함으로써;
    측정기상의 임의의 위치에 놓인 미지의 물체를 신속하고, 정확하게 자동으로 측정할 수 있도록 하는 역공학의 센서융합에 의한 데이터 획득방법.
  2. 상기 접촉식센서의 측정데이터를 상기 비젼시스템으로 얻은 비접촉식측정데 이이터와 캘리브레이션으로 보정하여(102),
    광학적인 비젼 시스템으로서 측정하여 3D 점데이터를 얻고(100),
    실제 가공하는 가공기에 부착된 접촉식센서인 스캐닝프로브를 이용하여 데이터를 얻으며(101),
    비젼시스템과 접촉식 시스템의 프로브를 캘리브레이션하여 좌표점을 일치시킴으로써,
    상기 접촉식센서의 측정경로를 디플렉션 값을 반영하여 설정(103)하여,
    정확한 점데이터를 측정하여 실제 가공기에서 이 점데이터로서 가공을 수행(104)하게 하는 것을 특징으로 하는 역공학의 센서융합에 의한 데이터 획득방법.
KR1020020043546A 2002-07-24 2002-07-24 역공학의 센서융합에 의한 데이터 획득방법 KR20040009550A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020020043546A KR20040009550A (ko) 2002-07-24 2002-07-24 역공학의 센서융합에 의한 데이터 획득방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020020043546A KR20040009550A (ko) 2002-07-24 2002-07-24 역공학의 센서융합에 의한 데이터 획득방법

Publications (1)

Publication Number Publication Date
KR20040009550A true KR20040009550A (ko) 2004-01-31

Family

ID=37318457

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020043546A KR20040009550A (ko) 2002-07-24 2002-07-24 역공학의 센서융합에 의한 데이터 획득방법

Country Status (1)

Country Link
KR (1) KR20040009550A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100748405B1 (ko) * 2005-02-17 2007-08-10 성균관대학교산학협력단 입자 샘플링 방법과 센서 융합 및 필터링 방법
KR100762958B1 (ko) * 2005-06-27 2007-10-02 주식회사 나인티시스템 3차원 측정기의 충돌 시뮬레이션 방법
CN115609113A (zh) * 2022-09-14 2023-01-17 湘潭大学 一种应用于整流器的tig焊视觉、接触双传感融合传感器
KR102571702B1 (ko) * 2022-08-31 2023-08-29 한전케이피에스 주식회사 이미지 분석 장치 및 방법
CN115609113B (zh) * 2022-09-14 2024-04-12 湘潭大学 一种应用于整流器的tig焊视觉、接触双传感融合传感器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06229726A (ja) * 1993-01-29 1994-08-19 Nippon Steel Corp 機械部品の寸法測定方法及びその装置
KR19980702065A (ko) * 1995-12-05 1998-07-15 조안 에스. 카토 물체 표면에 대한 데이터 생성 방법
KR20000002941A (ko) * 1998-06-24 2000-01-15 블라드 미르 블라스킨 비접촉식 3차원 형상 측정장치
CA2278108A1 (en) * 1999-07-20 2001-01-20 The University Of Western Ontario Three-dimensional measurement method and apparatus
KR20010104458A (ko) * 2000-04-28 2001-11-26 조명우 3차원 형상물 재생방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06229726A (ja) * 1993-01-29 1994-08-19 Nippon Steel Corp 機械部品の寸法測定方法及びその装置
KR19980702065A (ko) * 1995-12-05 1998-07-15 조안 에스. 카토 물체 표면에 대한 데이터 생성 방법
KR20000002941A (ko) * 1998-06-24 2000-01-15 블라드 미르 블라스킨 비접촉식 3차원 형상 측정장치
CA2278108A1 (en) * 1999-07-20 2001-01-20 The University Of Western Ontario Three-dimensional measurement method and apparatus
KR20010104458A (ko) * 2000-04-28 2001-11-26 조명우 3차원 형상물 재생방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100748405B1 (ko) * 2005-02-17 2007-08-10 성균관대학교산학협력단 입자 샘플링 방법과 센서 융합 및 필터링 방법
KR100762958B1 (ko) * 2005-06-27 2007-10-02 주식회사 나인티시스템 3차원 측정기의 충돌 시뮬레이션 방법
KR102571702B1 (ko) * 2022-08-31 2023-08-29 한전케이피에스 주식회사 이미지 분석 장치 및 방법
CN115609113A (zh) * 2022-09-14 2023-01-17 湘潭大学 一种应用于整流器的tig焊视觉、接触双传感融合传感器
CN115609113B (zh) * 2022-09-14 2024-04-12 湘潭大学 一种应用于整流器的tig焊视觉、接触双传感融合传感器

Similar Documents

Publication Publication Date Title
JP6280525B2 (ja) カメラのミスキャリブレーションの実行時決定のためのシステムと方法
CN102607457B (zh) 基于惯性导航技术的大尺寸三维形貌测量装置及方法
Luna et al. Calibration of line-scan cameras
US11403780B2 (en) Camera calibration device and camera calibration method
Santolaria et al. A one-step intrinsic and extrinsic calibration method for laser line scanner operation in coordinate measuring machines
CN112781496B (zh) 一种非接触测量系统的测头位姿标定方法
CN111707189B (zh) 基于双目视觉的激光位移传感器光束方向标定方法
Wang et al. An efficient calibration method of line structured light vision sensor in robotic eye-in-hand system
de Araujo et al. Computer vision system for workpiece referencing in three-axis machining centers
CN112082477A (zh) 基于结构光的万能工具显微镜三维测量装置及方法
JP2021193400A (ja) アーチファクトを測定するための方法
Bösemann Industrial photogrammetry-accepted metrology tool or exotic niche
Contri et al. Quality of 3D digitised points obtained with non-contact optical sensors
Cheng et al. Integrated laser/CMM system for the dimensional inspection of objects made of soft material
Zexiao et al. A novel approach for the field calibration of line structured-light sensors
Tai et al. Noncontact profilometric measurement of large-form parts
CN115289997B (zh) 一种双目相机三维轮廓扫描仪及其使用方法
KR20040009550A (ko) 역공학의 센서융합에 의한 데이터 획득방법
Bösemann Industrial photogrammetry: challenges and opportunities
CN113888693A (zh) 一种高精度点云数据重构方法
Wu et al. A unified calibration method of 3d laser profile measurement with different of laser-line lengths
Nashman et al. The use of vision and touch sensors for dimensional inspection tasks
CN111028298A (zh) 一种用于刚体坐标系空间变换标定的汇聚式双目系统
Shi et al. Development of an automatic optical measurement system for automotive part surface inspection
Guo et al. A Globe Calibration Method for Optical Multisensor in 3D Complex Surface Measurement System

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application