KR102634535B1 - 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법 - Google Patents

포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법 Download PDF

Info

Publication number
KR102634535B1
KR102634535B1 KR1020160183115A KR20160183115A KR102634535B1 KR 102634535 B1 KR102634535 B1 KR 102634535B1 KR 1020160183115 A KR1020160183115 A KR 1020160183115A KR 20160183115 A KR20160183115 A KR 20160183115A KR 102634535 B1 KR102634535 B1 KR 102634535B1
Authority
KR
South Korea
Prior art keywords
point
points
vector
row
touch teaching
Prior art date
Application number
KR1020160183115A
Other languages
English (en)
Other versions
KR20180078097A (ko
Inventor
정성균
안준수
김진욱
Original Assignee
한화오션 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화오션 주식회사 filed Critical 한화오션 주식회사
Priority to KR1020160183115A priority Critical patent/KR102634535B1/ko
Publication of KR20180078097A publication Critical patent/KR20180078097A/ko
Application granted granted Critical
Publication of KR102634535B1 publication Critical patent/KR102634535B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/02Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to soldering or welding
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Abstract

본 발명은 용접로봇에 의한 작업대상물의 터치교시점을 검출하는 방법에 있어서: (A) 작업대상물을 측정하고 직각 좌표계의 포인트로 변환하는 단계; (B) 상기 포인트 집단에서 특정의 면을 분리하고 각 포인트의 벡터를 행별로 추출하는 단계; 및 (C) 각 행별로 인접된 포인트 간의 벡터 변동이 최대로 나타나는 경계점의 좌표를 추출하여 터치교시점을 연산하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.
이에 따라, 조선 선체 블록의 용접에서 대상물에 대한 용접선 정보를 생성함에 있어 작업자의 개입이나 부가적인 수단 없이 대상물 인식으로 터치교시점 정보를 로봇에 입력하여 생산성을 향상하는 효과가 있다.

Description

포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법{Method for recognizing touch teaching point of workpiece using point cloud analysis}
본 발명은 용접작업 대상물의 인식에 관한 것으로서, 보다 구체적으로는 조선 선체 블록의 용접에서 대상물에 대한 정보를 획득하는 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법에 관한 것이다.
조선 선체 블록 구조에서 트랜스(Transverse), 론지(Longitudinal), 주판(Bottom Floor)의 세면이 붙는 U자형 형상(이하 U셀이라 칭함)의 용접 작업 대상은 조선 로봇용접 작업의 대표적인 작업구역이다. 선종, 선체, 구역마다 U셀의 형상과 크기는 각 작업대상별로 다르므로 로봇작업을 하기 위해서는 로봇에 작업대상물에 대한 정보를 입력해 주어야 한다.
종래의 로봇작업은 로봇 작업자가 형상에 대한 정보, 용접부재의 크기를 직접 측정하여 로봇 교시조작기에 입력하거나 CAD 데이터의 정보를 활용하여 데이터를 로봇에 전송하는 방식을 사용하여 로봇의 작업 프로그램을 생성하고 로봇의 작업을 진행하는 방식이 보편적이다.
작업자가 대상에 대한 정보를 일일이 입력하게 될 경우 작업 준비시간이 소요되어 작업 효율이 떨어지고, 설계데이터를 받을 경우 부가시스템을 구축하여 연동함으로써 시스템이 거대해지고 복잡하게 되어 시스템의 구축 비용이 증가하며 유지보수의 관리 포인트가 증가하는 단점이 존재한다.
이에 대한 대책과 관련하여 하기의 한국 공개특허공보 제2006-0010389호, 한국 등록특허공보 제1604037호 등의 선행기술문헌을 참조할 수 있다.
전자는 작업자에 의한 작업 대상물의 형상판단 및 원점위치 측정과정을 생략하고 3D 계측장치와 자동마커생성장치를 이용하여 작업 대상물을 용이하게 계측하고 상기 계측결과로부터 가상의 작업 대상물을 형성하며 상기 형성된 작업 대상물을 인식하여 이를 로봇 자동화를 위한 작업 프로그램으로 생성 가능하다.
후자는 대형 콘크리트 구조물과 같은 대상물에 대한 기존 결함 검사를 하면서 포인트 클라우드 데이터를 직접 분석하여 결함을 확정하기 위해 수많은 3차원 데이터 프로세싱 작업을 하는 부담을 고화질 이미지 획득 및 분석을 통해 줄이므로 보다 신속하면서도 안정적이고 정확하게 수행한다.
다만, 상기한 선행문헌에 의하면 비교적 협소한 선박 블록의 용접작업에 투입되는 로봇에 경박단소 구조로 탑재하여 작업대상물 터치교시점 인식의 정확성과 신속성을 높이기에 한계성을 드러낸다.
1. 한국 공개특허공보 제2006-0010389호 "3차원 계측방법을 이용한 용접 자동화 작업 대상물의 인식방법" (공개일자 : 2006.02.02.) 2. 한국 등록특허공보 제1604037호 "카메라와 레이저 스캔을 이용한 3차원 모델 생성 및 결함 분석 방법" (공개일자 : 2015.11.18.)
상기와 같은 종래의 문제점들을 개선하기 위한 본 발명의 목적은, 거리센서를 이용하여 U셀 형상의 작업대상물에 대한 3차원 군집화된 포인트를 수집/생성하고 이러한 포인트 데이터들을 가공/분석하여 작업대상물의 칼라 플레이트(Collar Plate)를 인식하는 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법을 제공하는 데 있다.
본 발명의 또 다른 목적은 수집된 포인트 그룹(집단)의 분포 및 포인트 사이의 벡터 관계를 분석하여 칼라 플레이트의 위치 및 크기를 파악하며 이 정보를 토대로 로봇작업 프로그램을 생성하는데 있다.
상기 목적을 달성하기 위하여, 본 발명은 용접로봇에 의한 작업대상물의 터치교시점을 검출하는 방법에 있어서: (A) 작업대상물을 측정하고 직각 좌표계의 포인트로 변환하는 단계; (B) 상기 포인트 집단에서 특정의 면을 분리하고 각 포인트의 벡터를 행별로 추출하는 단계; 및 (C) 각 행별로 인접된 포인트 간의 벡터 변동이 최대로 나타나는 경계점의 좌표를 추출하여 터치교시점을 연산하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 작업대상물은 주판, 론지, 트랜스를 포함하는 선체 블록이고, 터치교시점은 트랜스 상의 칼라에 대한 용접선에 연계되는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (A)는 거리센서의 자세 변동 과정에서 획득되는 포인트 집단의 좌표가 용접로봇의 베이스를 기준으로 하는 좌표로 변환되는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 데이터 포인트 집단의 각 점 P를 기준으로 근접한 임의의 점 Q, R을 추출하고(KD-Tree 알고리즘), 벡터 , 에서 생성되는 법선벡터 을 평균화(normalization)한 유니트 벡터로 특정 면을 분리하는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 특정 축의 좌표값이 동일한 포인트를 동일한 행으로 구분하고, 각 행별로 순차적인 벡터 크기와 각도를 계산하는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (C)는 순차적으로 인접된 포인트 Pn 및 Pn+1 간의 벡터에서 산출된 각도 θ의 변동으로 경계점을 추출하는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (C)는 각 행별로 추출된 경계점의 좌표에 대한 산술적인 평균값을 연산하여 상단 및 하단의 터치교시점을 생성하는 것을 특징으로 한다.
이상과 같이 본 발명에 의하면, 조선 선체 블록의 용접에서 대상물에 대한 용접선 정보를 생성함에 있어 작업자의 개입이나 부가적인 수단 없이 대상물 인식으로 터치교시점 정보를 로봇에 입력하여 생산성을 향상하는 효과가 있다.
도 1은 본 발명에 따른 방법이 적용되는 상태를 나타내는 모식도
도 2는 본 발명에 따른 방법의 주요 단계를 나타내는 플로우차트
도 3 내지 도 8은 도 2의 주요 단계를 상세하게 나타내는 도표
이하, 첨부된 도면에 의거하여 본 발명의 실시예를 상세하게 설명하면 다음과 같다.
본 발명은 용접로봇에 의한 작업대상물의 터치교시점을 검출하는 방법에 관하여 제안한다. 선박의 선체를 작업대상물로 예시하지만 반드시 이에 국한되는 것은 아니다. 특히 선체 블록의 용접 작업에 있어서 다수의 아암(22)을 지닌 다관절 구조의 용접로봇(20)이 적합하다.
본 발명의 세부 구성으로서, 상기 작업대상물은 주판(11), 론지(12), 트랜스(15)를 포함하는 선체 블록이고, 터치교시점은 트랜스(15) 상의 칼라(16)에 대한 용접선에 연계되는 것을 특징으로 한다. 도 1(a)에서 주판(11) 상에 횡으로 배열되는 론지(12)에 트랜스(15)가 수직으로 교차하는 상태를 나타낸다. 칼라 플레이트는 칼라(16)로 약칭하며, 트랜스(15)의 좌측 또는 우측에 중첩적으로 부착된다.
도 1(b)를 참조하면, 칼라(16)의 부착을 위해 작업자가 직접 부재의 길이를 측정하고 교시조작기를 이용한 수동 입력을 진행해야 한다. 즉, 상단의 PU 및 하단의 PL에서 각각 Y축 방향으로 이동하여 칼라(16)의 측면을 터치하고 X축 방향으로 이동하여 트랜스(15)의 전면을 터치한다. 이와 같이 터치교시점(PU , PL)을 센서 데이터로부터 얻고 터치센싱을 통하여 용접선의 좌표 (x, y, z)를 생성하는 방식은 작업대상물에 대한 정보를 용접로봇(20)에 직접 입력하거나 부가 시스템과 연동하여 설계 데이터에 대한 정보를 입력 받는 번거로움이 수반된다.
본 발명에 따른 단계 (A)는 작업대상물을 측정하고 직각 좌표계의 포인트로 변환하는 과정으로 진행된다. 용접로봇(20)을 이용하여 작업대상물의 주판(11), 론지(12), 플랜지(13), 트랜스(15) 등에 대한 포인트 좌표 정보를 획득하는 과정이다. 단계 (A)는 도 2에서 단계 S10 및 S20으로 구현된다.
본 발명의 세부 구성으로서, 상기 단계 (A)는 거리센서(25)의 자세 변동 과정에서 획득되는 포인트 집단의 좌표가 용접로봇(20)의 베이스를 기준으로 하는 좌표로 변환되는 것을 특징으로 한다. 거리센서(25)는 전방 평면의 연속적 거리 측정이 가능한 레이저 거리센서 또는 2D-라이다(LiDAR)센서를 사용하며, 센서의 모션을 위한 부가축을 선택적으로 개재하여 아암(22)에 장착한다.
도 3(a)는 거리센서(25)가 로봇 조인트에 의한 특정 평면상에서 설정된 각도 범위로 회전하면서 기준점에서 벌어진 각도와 거리(d)의 좌표로 포인트 집단의 정보를 수집한다. 거리센서(25)의 회전 각도는 용접대상물에서 트랜스(15)와 칼라(16)를 중심으로 하는 영역으로 한정한다. 도 3(a)처럼 각 행에서 획득되는 포인트 좌표 (x,y)가 포인트 좌표(x, y, φ)의 집단으로 생성된다. 도 3(b)와 같이 각 포인트 집단의 군집화된 데이터를 분석하여 용접대상물에서 트랜스(15)와 칼라(16)를 중심으로 하는 부분의 치수정보를 획득할 수 있다. 도 3(b)의 포인트 정보는 후술하는 도 5(c)의 분리 과정을 거쳐 원천 데이터로 활용된다.
도 4에서 아암(22)의 조인트를 각도 φ 만큼 상방향 또는 하방향로 회전하면서 2D-라이다센서에서 포인트 정보를 수집하는 상태를 예시한다. 2D-라이다센서의 경우 평면상의 2차원 각도와 거리값만 출력되나 로봇의 아암(22) 또는 부가축을 움직이면 1차로 극좌표계로 출력된 센서의 출력값이 삼각함수를 이용하여 직각좌표계로 변환이 가능하고, 이러한 포인트들이 다시 로봇의 조인트 각도값과 기구학을 이용한 변환을 거치게 되면 로봇 중심의 3차원 직각좌표계의 데이터로 변환된다. 즉, 거리센서(25)의 데이터, 거리센서(25)의 설치 오프셋 L(거리, 회전 정보), 아암(22)의 조인트 회전값 φ으로부터 획득되는 좌표 가 용접로봇(20)의 베이스를 기준으로 하는 좌표 로 변환된다.
본 발명에 따른 단계 (B)는 상기 포인트 집단에서 특정의 면을 분리하고 각 포인트의 벡터를 행별로 추출하는 과정을 거친다. 단계 (B)는 도 2에서 단계 S30 및 S40으로 구현된다. 특정의 면은 용접대상물에서 칼라(16)가 부착되는 트랜스(15)를 예시한다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 데이터 포인트 집단의 각 점 P를 기준으로 근접한 임의의 점 Q, R을 추출하고(KD-Tree 알고리즘), 벡터 , 에서 생성되는 법선벡터 을 평균화(normalization)한 유니트 벡터로 특정 면을 분리하는 것을 특징으로 한다.
도 5(a)에서 데이터 점군(포인터 집단)의 각 점 P를 기준으로 근접한 임의의 점 Q, R을 추출하고(KD-Tree 알고리즘), 벡터 , 에서 생성되는 법선벡터 을 평균화(normalization)한다. 평균화된 모든 포인트 들을 이용하여 가장 가까운 주변의 포인트들과의 벡터로부터 포인트 집단의 각 점 P를 기준으로 하는 법선벡터 와 유니트 벡터를 생성한다. 도 5(b)에서 법선벡터의 방향으로 주판(11), 트랜스(15) 등을 구분하고, 도 5(c)에서 유니트 벡터의 절대값 크기와 방향으로 트랜스(15)의 평면을 분리하여 획득된 평면 모델의 좌표를 원천 데이터로 추출한다. 트랜스(15)의 경우 법선 벡터를 평균화할 경우 각 x, y, z 벡터의 절대값 크기 중에서 x 방향의 성분이 제일 크다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 특정 축의 좌표값이 동일한 포인트를 동일한 행으로 구분하고, 각 행별로 순차적인 벡터 크기와 각도를 계산하는 것을 특징으로 한다. 도 6(a)에서 점군 데이터의 수집 방향을 행마다 좌측에서 우측으로, 상측 행에서 하측 행으로 나타낸다. 도 6(b)에서 황색 박스로 나타내는 특정의 행에 대한 점군 데이터는 후속된 도 7 및 도 8에서 활용된다. 이러한 점군 데이터의 벡터 계산을 이용하여 트랜스(15)와 칼라(16)를 구분할 수 있다.
본 발명에 따른 단계 (C)는 각 행별로 인접된 포인트 간의 벡터 변동이 최대로 나타나는 경계점의 좌표를 추출하여 터치교시점을 연산하는 과정으로 진행된다. 단계 (C)는 도 2에서 단계 S50으로 구현된다. 도 7(a)는 트랜스(15)의 좌측에 칼라(16)가 위치하는 경우를 예시하고, 도 7(b)는 트랜스(15)의 우측에칼라(16)가 위치하는 경우를 예시한다. 트랜스(15) 상에서 칼라(16)가 위치하는 경계선 정보는 각 행마다 점군의 벡터 변동을 비교하는 과정을 거쳐 생성된다. 연속된 점군에 대하여 순차적으로 벡터값을 연산, 그 크기와 각도를 정리하여 최대값을 찾는다.
본 발명의 세부 구성으로서, 상기 단계 (C)는 순차적으로 인접된 포인트 Pn 및 Pn+1 간의 벡터에서 산출된 각도 θ의 변동으로 경계점을 추출하는 것을 특징으로 한다. 도 6(b)에서 황색 박스로 표시한 행의 점군 P에 대하여 인접한 벡터 P1P2, P2P3, P3P4, … PnPn+1 을 구하면, 도 7(a)의 경우 벡터값 에서 도 7(b)의 경우 벡터값 에서 최대의 θ 변동이 확인된다. θ 값이 양이면 좌측의 칼라(16)로 음이면 우측의 칼라(16)로 구분할 수 있다. 이와 같이 급격한 θ의 변동이 유발되는 것은 칼라(16)의 두께에 의한 단차에 기인한다.
본 발명의 세부 구성으로서, 상기 단계 (C)는 각 행별로 추출된 경계점의 좌표에 대한 산술적인 평균값을 연산하여 상단 및 하단의 터치교시점을 생성하는 것을 특징으로 한다. 도 8(a)는 도 7(a)에서 벡터 P3P4의 중간점 좌표를 연산하는 과정을 예시하고, 도 8(b)는 도 7(b)에서 벡터 P8P9의 중간점 좌표를 연산하는 과정을 예시한다. 어느 경우에나 중간점 좌표는 산술적 평균으로 산출되며, 다만 z축 좌표는 P3z 또는 P4z로 변동이 없다. 이러한 중간점 좌표에 의하여 상단 및 하단의 터치교시점(PU , PL)이 생성된다.
본 발명의 전반적 작동에 있어서, 용접로봇(20)에 경박단소 구조로 장착된 거리센서(25)를 이용하여 U셀 형상의 작업대상물에 대한 3차원 군집화된 점 군을 수집/생성하고, 이러한 점 데이터들을 가공/분석하여 작업대상물의 트랜스(15) 상에서 칼라(16)를 인식하고, 수집된 점 군의 분포 및 점 사이의 관계(벡터의 크기, 방향)를 분석하여 칼라(16)의 위치 및 크기를 파악하며, 이 정보를 토대로 로봇작업 프로그램 생성을 위한 대상물 인식과 터치교시점(PU , PL)의 연산이 가능하다.
마지막 단계 S60에서, 작업자의 개입이나 부가적인 시스템 없이 추출된 터치교시점(PU , PL)을 이용하여 터치센싱과 용접선을 계산하는 것이 가능하다.
본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음이 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서 그러한 변형예 또는 수정예들은 본 발명의 특허청구범위에 속한다 해야 할 것이다.
11: 주판 12: 론지
13: 플랜지 15: 트랜스
16: 칼라 20: 용접로봇
22: 아암 25: 거리센서

Claims (7)

  1. 용접로봇에 의한 작업대상물의 터치교시점을 검출하는 방법에 있어서:
    (A) 작업대상물을 측정하고 직각 좌표계의 포인트로 변환하는 단계;
    (B) 상기 포인트 집단에서 특정의 면을 분리하고 각 포인트의 벡터를 행별로 추출하는 단계; 및
    (C) 각 행별로 인접된 포인트 간의 벡터 변동이 최대로 나타나는 경계점의 좌표를 추출하여 터치교시점을 연산하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법.
  2. 청구항 1에 있어서,
    상기 작업대상물은 주판(11), 론지(12), 트랜스(15)를 포함하는 선체 블록이고, 터치교시점은 트랜스(15) 상의 칼라(16)에 대한 용접선에 연계되는 것을 특징으로 하는 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법.
  3. 청구항 1에 있어서,
    상기 단계 (A)는 거리센서(25)의 자세 변동 과정에서 획득되는 포인트 집단의 좌표가 용접로봇(20)의 베이스를 기준으로 하는 좌표로 변환되는 것을 특징으로 하는 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법.
  4. 청구항 1에 있어서,
    상기 단계 (B)는 데이터 포인트 집단의 각 점 P를 기준으로 근접한 임의의 점 Q, R을 추출하고(KD-Tree 알고리즘), 벡터 , 에서 생성되는 법선벡터 을 평균화(normalization)한 유니트 벡터로 특정 면을 분리하는 것을 특징으로 하는 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법.
  5. 청구항 1에 있어서,
    상기 단계 (B)는 특정 축의 좌표값이 동일한 포인트를 동일한 행으로 구분하고, 각 행별로 순차적인 벡터 크기와 각도를 계산하는 것을 특징으로 하는 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법.
  6. 청구항 1에 있어서,
    상기 단계 (C)는 순차적으로 인접된 포인트 Pn 및 Pn+1 간의 벡터에서 산출된 각도 θ의 변동으로 경계점을 추출하는 것을 특징으로 하는 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법.
  7. 청구항 1에 있어서,
    상기 단계 (C)는 각 행별로 추출된 경계점의 좌표에 대한 산술적인 평균값을 연산하여 상단 및 하단의 터치교시점을 생성하는 것을 특징으로 하는 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법.
KR1020160183115A 2016-12-29 2016-12-29 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법 KR102634535B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160183115A KR102634535B1 (ko) 2016-12-29 2016-12-29 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160183115A KR102634535B1 (ko) 2016-12-29 2016-12-29 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법

Publications (2)

Publication Number Publication Date
KR20180078097A KR20180078097A (ko) 2018-07-09
KR102634535B1 true KR102634535B1 (ko) 2024-02-07

Family

ID=62918936

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160183115A KR102634535B1 (ko) 2016-12-29 2016-12-29 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법

Country Status (1)

Country Link
KR (1) KR102634535B1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110132975B (zh) * 2019-03-28 2022-04-12 中核建中核燃料元件有限公司 一种用于核燃料棒包壳表面检测的方法、装置
CN110455187B (zh) * 2019-08-21 2020-06-09 哈尔滨工业大学 一种基于三维视觉的盒体工件焊缝的检测方法
CN112318226A (zh) * 2020-11-02 2021-02-05 芜湖哈特机器人产业技术研究院有限公司 圆形工件表面打磨方法
CN114240944B (zh) * 2022-02-25 2022-06-10 杭州安脉盛智能技术有限公司 一种基于点云信息的焊接缺陷检测方法
CN114872020B (zh) * 2022-06-30 2022-09-30 西安奕斯伟材料科技有限公司 对机械手相对于承载空间取放硅片进行示教的系统及方法
CN116690046B (zh) * 2023-08-04 2023-09-29 中国电力科学研究院有限公司 焊缝位置指示器、角焊缝的端点定位方法和焊接方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007275952A (ja) 2006-04-10 2007-10-25 Universal Shipbuilding Corp 溶接線の非接触自動検出方法及びその装置
JP2008126338A (ja) 2006-11-17 2008-06-05 Nissan Motor Co Ltd 形状加工方法および形状加工システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5798627A (en) * 1995-01-04 1998-08-25 Gilliland; Malcolm T. Method for simultaneous operation of robot welders
KR20050039350A (ko) * 2003-10-24 2005-04-29 현대자동차주식회사 차체 패널 용접용 로봇의 위치 보정 방법
KR20060010389A (ko) 2004-07-28 2006-02-02 대우조선해양 주식회사 3차원 계측방법을 이용한 용접 자동화 작업 대상물의인식방법
KR101604037B1 (ko) 2014-05-09 2016-03-16 한국건설기술연구원 카메라와 레이저 스캔을 이용한 3차원 모델 생성 및 결함 분석 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007275952A (ja) 2006-04-10 2007-10-25 Universal Shipbuilding Corp 溶接線の非接触自動検出方法及びその装置
JP2008126338A (ja) 2006-11-17 2008-06-05 Nissan Motor Co Ltd 形状加工方法および形状加工システム

Also Published As

Publication number Publication date
KR20180078097A (ko) 2018-07-09

Similar Documents

Publication Publication Date Title
KR102634535B1 (ko) 포인트 집단 분석을 이용한 작업대상물의 터치교시점 인식방법
Kim et al. SLAM-driven robotic mapping and registration of 3D point clouds
CN105865344A (zh) 一种基于机器视觉的工件尺寸测量方法和装置
CN112419429B (zh) 一种基于多视角的大型工件表面缺陷检测标定方法
Zhang et al. Stud pose detection based on photometric stereo and lightweight YOLOv4
CN109341532A (zh) 一种面向自动装配的基于结构特征的零件坐标标定方法
CN107796373B (zh) 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法
US11816754B2 (en) Measurement parameter optimization method and device, and computer control program stored on computer-readable storage medium
CN104102173A (zh) 数控装置
Ahmed et al. Pothole 3D reconstruction with a novel imaging system and structure from motion techniques
JP5913903B2 (ja) 形状検査方法およびその装置
Hsu et al. Development of a faster classification system for metal parts using machine vision under different lighting environments
CN115619738A (zh) 一种模组侧缝焊焊后检测方法
CN103644894B (zh) 一种复杂曲面目标识别及三维位姿测量的方法
KR20180076966A (ko) 용접로봇의 작업대상물 용접선 검출방법
CN116909208B (zh) 基于人工智能的壳体加工路径优化方法及系统
KR101093793B1 (ko) 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
CN116309882A (zh) 一种面向无人叉车应用的托盘检测和定位方法及系统
Peng et al. Real time and robust 6D pose estimation of RGBD data for robotic bin picking
Rashd et al. Open-box target for extrinsic calibration of LiDAR, camera and industrial robot
US20220230459A1 (en) Object recognition device and object recognition method
JP2022166662A (ja) ワークの基準座標を設定する方法および工作機械
Mawas et al. Automatic Geometric Inspection in Digital Fabrication
Takubo et al. Welding Line Detection Using Point Clouds from Optimal Shooting Position

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right