KR102634601B1 - 3차원 깊이센서를 활용한 부재 용접방법 - Google Patents

3차원 깊이센서를 활용한 부재 용접방법 Download PDF

Info

Publication number
KR102634601B1
KR102634601B1 KR1020180168095A KR20180168095A KR102634601B1 KR 102634601 B1 KR102634601 B1 KR 102634601B1 KR 1020180168095 A KR1020180168095 A KR 1020180168095A KR 20180168095 A KR20180168095 A KR 20180168095A KR 102634601 B1 KR102634601 B1 KR 102634601B1
Authority
KR
South Korea
Prior art keywords
work object
welding
sensor
members
work
Prior art date
Application number
KR1020180168095A
Other languages
English (en)
Other versions
KR20200078840A (ko
Inventor
김진욱
강성원
아미트
Original Assignee
한화오션 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화오션 주식회사 filed Critical 한화오션 주식회사
Priority to KR1020180168095A priority Critical patent/KR102634601B1/ko
Publication of KR20200078840A publication Critical patent/KR20200078840A/ko
Application granted granted Critical
Publication of KR102634601B1 publication Critical patent/KR102634601B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/02Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to soldering or welding
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 작업대상물인 부재의 위치를 지정하여 용접하는 방법에 있어서: (A) 3D 깊이 카메라/센서(30)와 PC(42)를 이용하여 다수의 부재의 이미지 정보를 획득하는 단계; (B) PC(42) 상으로 다수의 부재에서 작업대상물을 택일하고, 작업대상물에 복수의 가상마커(35)를 부여하는 단계; (C) 작업대상물의 위치ㆍ자세 보정을 거쳐 작업자가 선택 가능한 후보군을 PC(42) 상으로 출력하는 단계; 및 (D) 후보군에서 선택된 부재의 위치와 자세가 확인되면 용접로봇을 가동하여 용접을 수행하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.
이에 따라, 작업자는 오직 컨트롤 룸에서 PC로 작업을 진행하므로 근골격계 질환을 예방하고, 작업 속도 개선과 불필요한 시간 절약이 가능하며, 마커 이미지 처리시 발생되던 에러를 줄일 수 있는 효과가 있다.

Description

3차원 깊이센서를 활용한 부재 용접방법 {Method for welding members using 3D depth sensor}
본 발명은 각종 부재의 용접방법에 관한 것으로서, 보다 구체적으로는 선박 건조 현장에서 각종 부재를 용접하는 공정에 활용되는 3차원 깊이센서를 활용한 부재 용접방법에 관한 것이다.
선박의 건조 과정에서 다양한 형태와 크기를 지닌 작업대상물(workpiece) 부재를 용접하는 공정은 인력 소요가 많아 용접로봇 기반의 자동화를 위한 개선의 여지가 크다. 우선 용접 공정에 앞서 정반에 임의로 로딩된 다수의 부재를 인식하는 것이 자동화의 출발점이다. 이를 위해 영상처리 방식과 연계되도록 부재에 바코드를 부여하는 방안이 검토될 수 있으나 선박 부재의 크기, 형태, 종류를 고려할 때 현실적으로 경제성과 생력화를 높이기 한계성을 보인다.
이에 대한 대책과 관련되는 선행기술문헌으로서 한국 등록특허공보 제0823549호가 알려져 있다.
이는 영상처리부에서 촬영된 영상을 처리하고 소벨 오퍼레이터를 이용하여 에지들을 검출하는 단계; 검출된 직선 그룹핑(Blob Center) 좌표로부터 거리값을 산출하고 부재의 외곽선을 판단하여 두 직선의 부재 꼭지점의 위치를 측정하는 단계; 등을 포함한다. 이에, 용접선의 좌표값을 알아내어 작업의 정확성이 향상되는 효과를 기대한다.
그러나, 카메라에 연결되는 영상처리부는 경우 환경의 영향을 받기 쉬워 흐린날 등에 위치 인식의 에러가 발생하므로 고가의 3차원 비전카메라와 마커(physical marker)를 활용해야 한다.
이와 관련되는 선행기술문헌으로서 한국 등록특허공보 제0914857호를 참조할 수 있다.
이는 작업 대상물에 존재하는 수직 부재들의 모서리들 중에서 3개의 위치 값을 계측하는 제1과정으로부터, 최종적으로 작업 대상물의 캐드 데이터와 3차원 측정 결과를 매칭하여 위치를 인식하고 작업 데이터의 위치를 검출하는 제6과정까지 진행된다. 이에, 작업 대상물 및 대상물의 위치, 방향에 대한 정밀한 데이터 추출 및 생성이 가능한 효과를 기대한다.
다만, 이러한 방식에 의하면 작업자가 정반에 임의로 올려놓은 부재에 마커를 부착하는 등의 사전 준비작업에 많은 시간이 소요된다.
한국 등록특허공보 제0823549호 "조선소 소조립 용접부재 위치 인식 방법" (공개일자 : 2008.04.16.) 한국 등록특허공보 제0914857호 "3차원 비전 카메라 시스템을 이용한 작업 대상물 위치 인식 … 시스템" (공개일자 : 2009.06.11.)
상기와 같은 종래의 문제점들을 개선하기 위한 본 발명의 목적은, 작업부재 위치/자세 인식을 위해 작업대상 부재마다 마커(marker)를 일일이 부착/탈거해야 하는 작업에 따른 시간손실을 상당 부분 줄이고 이미지처리 에러를 없애 전체 시스템의 안정성 및 생산성을 높이는 3차원 깊이센서를 활용한 부재 용접방법을 제공하는 데 있다.
상기 목적을 달성하기 위하여, 본 발명은 작업대상물인 부재의 위치를 지정하여 용접하는 방법에 있어서: (A) 3D 깊이 카메라/센서와 PC를 이용하여 다수의 부재의 이미지 정보를 획득하는 단계; (B) PC 상으로 다수의 부재에서 작업대상물을 택일하고, 작업대상물에 복수의 가상마커를 부여하는 단계; (C) 작업대상물의 위치ㆍ자세 보정을 거쳐 작업자가 선택 가능한 후보군을 PC 상으로 출력하는 단계; 및 (D) 후보군에서 선택된 부재의 위치와 자세가 확인되면 용접로봇을 가동하여 용접을 수행하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (A)는 3D 깊이 카메라/센서가 탑재된 갠트리를 이동시키면서 3차원 포인트 클라우드(point cloud)를 생성하는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 PC 상에서 폐곡선으로 선택되는 작업대상물에 인식용 부호를 부여하고 롤/요/피치의 방향전환을 확인하는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 작업대상물을 회전시키면서 스티프너(stiffener) 상에 3점의 가상마커를 부여하는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (C)는 가상마커가 이루는 3각형 면적을 기준으로 서버의 캐드 데이터에서 유사한 면적의 후보군을 산출하는 것을 특징으로 한다.
이상과 같이 본 발명에 의하면, 작업자는 오직 컨트롤 룸에서 PC로 작업을 진행하므로 근골격계 질환을 예방하고, 작업 속도 개선과 불필요한 시간 절약이 가능하며, 마커 이미지 처리시 발생되던 에러를 줄일 수 있는 효과가 있다.
도 1은 종래의 방법을 구현하는 일예를 나타내는 모식도
도 2는 본 발명에 따른 방법을 구현하기 위한 시스템의 모식도
도 3 내지 도 5는 본 발명에 따른 방법의 흐름을 나타내는 모식도
이하, 첨부된 도면에 의거하여 본 발명의 실시예를 상세하게 설명하면 다음과 같다.
본 발명은 작업대상물인 부재의 위치를 지정하여 용접하는 방법에 관하여 제안한다. 접합을 위한 각종 부재를 인식하고 위치를 지정하여 용접하는 공정을 대상으로 하지만 반드시 이에 국한되는 것은 아니다.
본 발명의 설명에서 작업대상물과 부재는 동일한 의미로 사용되나, 작업대상물이 현재 용접 대상의 부재로 한정되는 의미도 가능하다.
본 발명에 따른 단계 (A)는 3D 깊이 카메라/센서(30)와 PC(42)를 이용하여 다수의 부재의 이미지 정보를 획득하는 과정으로 진행된다. 도 1을 참조하면, 종래의 경우 정반위에 놓인 다수의 부재(10) 및 부재(10)에 부착된 다수의 마커(15)를 갠트리(11) 상의 3차원 카메라(12)로 촬영하여 이미지 정보를 획득한다. 도 2를 참조하면, 본 발명의 경우 3D 깊이 카메라/센서(30)가 용접로봇(20)에 인접하게 설치되어 이미지 정보를 획득한다. 3D 깊이 카메라/센서(30)는 RGB 센서와 달리 센서와 피사체 간의거리를 측정하여 깊이값을 깊이영상으로 저장한다.
한편, 본 발명은 PC(42)와 서버(45)를 구비하는 제어수단(40)이 용접로봇(20), 3D 깊이 카메라/센서(30)와 연결된다. 작업자는 PC(42)의 모니터 상에서 마커(15)가 있어야 할 위치에 마우스로 클릭하는 작업을 수행한다. 종래에 사용하던 마커(15)를 배제하여 발명의 목적을 효과적으로 달성할 수 있다.
본 발명의 세부 구성으로서, 상기 단계 (A)는 3D 깊이 카메라/센서(30)가 탑재된 갠트리(11)를 이동시키면서 3차원 포인트 클라우드(point cloud)를 생성하는 것을 특징으로 한다. 도 3을 참조하면, 용접로봇(20)이 투입된 작업장의 정반에 임의로 부재(10)가 놓이면, 갠트리(11)의 이동으로 3D 깊이 카메라/센서(30)의 위치를 변동하면서 부재(10)를 촬영한다. 3D 깊이 카메라/센서(30)로 획득되는 데이터는 3차원 포인트 클라우드(point cloud) 형태로 나타난다.
본 발명에 따른 단계 (B)는 PC(42) 상으로 다수의 부재에서 작업대상물을 택일하고, 작업대상물에 복수의 가상마커(35)를 부여하는 과정을 거친다. 도 4를 참조하면, PC(42)의 모니터 상에 다수의 부재(10)가 표시되므로 작업자는 촬영된 3D(point) 및 영상(image)을 보면서 하나의 작업대상물을 선택할 수 있다. 이 경우 작업대상물은 현재 용접로봇(20)으로 용접할 특정의 부재(10)에 대한 영상 이미지(31)이다. 복수의 가상마커(35)는 모니터 상에 마우스를 이용하여 부여되는 것으로서 종래의 마커(15)를 대체한다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 PC(42) 상에서 폐곡선으로 선택되는 작업대상물에 인식용 부호를 부여하고 롤/요/피치의 방향전환을 확인하는 것을 특징으로 한다. 도 4는 모니터 상에서 적색 폐곡선으로 선택된 영상 이미지(32)에 인식용 부호인 ABB**가 부여된 상태를 예시한다. 선택된 이미지(32)는 마우스를 이용하여 롤(roll), 요(yaw), 피치(pitch)의 방향으로 회전시켜 노이즈, 해상도 등을 확인한다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 작업대상물을 회전시키면서 스티프너(stiffener) 상에 3점의 가상마커(35)를 부여하는 것을 특징으로 한다. 도 3 및 도 4에서 작업대상물의 소블록이 판재와 스티프너로 구성된 상태를 예시한다. 종래의 카메라(12) 이미지처리 과정 중 에러가 발생되기 쉬어 가상마커(35)의 부여가 곤란하다. 본 발명은 3D 깊이 카메라/센서(30)의 점 정보를 활용하여 모니터 상에서 가상마커(35)를 부여하기 용이하다. 도 4에서 부호 MK#1, MK#2, MK#3으로 나타내는 3점의 가상마커(35)가 대향하는 스티프너의 꼭지점에 분산적으로 표시됨을 알 수 있다. 선박의 각종 블록에 있어서 스티프너는 보편적으로 존재하면서 가상마커(35)의 부여가 용이한 부분이다.
본 발명에 따른 단계 (C)는 작업대상물의 위치ㆍ자세 보정을 거쳐 작업자가 선택 가능한 후보군을 PC(42) 상으로 출력하는 과정으로 진행된다. 단계 (C)의 주요 알고리즘은 본 출원인에 의하여 제안된 선행문헌 2를 참고한다. 가상마커(35)가 설정된 위치를 기준으로 가장 긴 선분(V1)과 짧은 선분(V2) 간의 벡터식을 이용하여 부재의 자세와 위치값을 계산할 수 있다.
본 발명의 세부 구성으로서, 상기 단계 (C)는 가상마커(35)가 이루는 3각형 면적을 기준으로 서버(45)의 캐드 데이터에서 유사한 면적의 후보군을 산출하는 것을 특징으로 한다. PC(42) 상에서 3점의 가상마커(35)에 의한 3각형 면적이 산출되면 기 작성되어 서버(45)에 저장된 캐드 데이터와 매칭시키는 과정이다. 매칭된 후보군이 하나인 경우 즉시 후속 작업을 진행하지만, 복수인 경우 작업자의 수동적 선택으로 결정될 수 있다.
본 발명에 따른 단계 (D)는 후보군에서 선택된 부재의 위치와 자세가 확인되면 용접로봇을 가동하여 용접을 수행하는 과정으로 진행된다. 용접 대상의 부재(10)에 대한 순차적인 인식을 거치고, 해당 작업대상물의 위치ㆍ자세가 확인되면 용접로봇(20)을 가동하고, 터치센싱을 통하여 세부적인 오프셋을 인식하고 용접을 진행한다.
본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음이 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서 그러한 변형예 또는 수정예들은 본 발명의 특허청구범위에 속한다 해야 할 것이다.
10: 부재 11: 갠트리
12: 카메라 15: 마커
20: 용접로봇 30: 3D 깊이 카메라/센서
31, 32: 이미지 35: 가상마커
40: 제어수단 42: PC
45: 서버

Claims (5)

  1. 작업대상물인 부재의 위치를 지정하여 용접하는 방법에 있어서:
    (A) 3D 깊이 카메라/센서(30)와 PC(42)를 이용하여 다수의 부재의 이미지 정보를 획득하는 단계;
    (B) PC(42) 상으로 다수의 부재에서 작업대상물을 택일하고, 작업대상물에 복수의 가상마커(35)를 부여하는 단계;
    (C) 작업대상물의 위치ㆍ자세 보정을 거쳐 작업자가 선택 가능한 후보군을 PC(42) 상으로 출력하는 단계; 및
    (D) 후보군에서 선택된 부재의 위치와 자세가 확인되면 용접로봇을 가동하여 용접을 수행하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 3차원 깊이센서를 활용한 부재 용접방법.
  2. 청구항 1에 있어서,
    상기 단계 (A)는 3D 깊이 카메라/센서(30)가 탑재된 갠트리(11)를 이동시키면서 3차원 포인트 클라우드(point cloud)를 생성하는 것을 특징으로 하는 3차원 깊이센서를 활용한 부재 용접방법.
  3. 청구항 1에 있어서,
    상기 단계 (B)는 PC(42) 상에서 폐곡선으로 선택되는 작업대상물에 인식용 부호를 부여하고 롤/요/피치의 방향전환을 확인하는 것을 특징으로 하는 3차원 깊이센서를 활용한 부재 용접방법.
  4. 청구항 1에 있어서,
    상기 단계 (B)는 작업대상물을 회전시키면서 스티프너(stiffener) 상에 3점의 가상마커(35)를 부여하는 것을 특징으로 하는 3차원 깊이센서를 활용한 부재 용접방법.
  5. 청구항 1에 있어서,
    상기 단계 (C)는 가상마커(35)가 이루는 3각형 면적을 기준으로 서버(45)의 캐드 데이터에서 유사한 면적의 후보군을 산출하는 것을 특징으로 하는 3차원 깊이센서를 활용한 부재 용접방법.
KR1020180168095A 2018-12-24 2018-12-24 3차원 깊이센서를 활용한 부재 용접방법 KR102634601B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180168095A KR102634601B1 (ko) 2018-12-24 2018-12-24 3차원 깊이센서를 활용한 부재 용접방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180168095A KR102634601B1 (ko) 2018-12-24 2018-12-24 3차원 깊이센서를 활용한 부재 용접방법

Publications (2)

Publication Number Publication Date
KR20200078840A KR20200078840A (ko) 2020-07-02
KR102634601B1 true KR102634601B1 (ko) 2024-02-08

Family

ID=71599537

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180168095A KR102634601B1 (ko) 2018-12-24 2018-12-24 3차원 깊이센서를 활용한 부재 용접방법

Country Status (1)

Country Link
KR (1) KR102634601B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220147443A (ko) 2021-04-27 2022-11-03 대우조선해양 주식회사 임의 지지된 소부재 자동용접 방법
KR20230043705A (ko) * 2021-09-24 2023-03-31 가부시키가이샤 다이헨 용접선 검출 시스템
JP7176148B1 (ja) * 2021-09-24 2022-11-21 株式会社ダイヘン 溶接線検出システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001318715A (ja) 2000-05-12 2001-11-16 Daihen Corp 溶接用ロボットの教示方法及び装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060104304A (ko) * 2005-03-30 2006-10-09 대우조선해양 주식회사 3차원 마커 계측방법을 이용한 용접 자동화 작업대상물의인식방법
KR100823549B1 (ko) 2006-10-11 2008-04-21 삼성중공업 주식회사 조선소 소조립 용접부재 위치 인식 방법
KR100914857B1 (ko) 2007-12-07 2009-09-02 대우조선해양 주식회사 3차원 비전 카메라 시스템을 이용한 작업 대상물 위치 인식및 캐드 데이터 매칭 방법과 그 시스템
KR20180076964A (ko) * 2016-12-28 2018-07-06 대우조선해양 주식회사 3d 인식 기능을 지닌 용접로봇

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001318715A (ja) 2000-05-12 2001-11-16 Daihen Corp 溶接用ロボットの教示方法及び装置

Also Published As

Publication number Publication date
KR20200078840A (ko) 2020-07-02

Similar Documents

Publication Publication Date Title
US10060857B1 (en) Robotic feature mapping and motion control
KR102634601B1 (ko) 3차원 깊이센서를 활용한 부재 용접방법
US10026164B2 (en) Method of performing and monitoring a processing step on a workpiece
US11504853B2 (en) Robotic system architecture and control processes
US9529945B2 (en) Robot simulation system which simulates takeout process of workpieces
US10191470B2 (en) Welding machine and control method therefor
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
US20150209963A1 (en) Robot programming apparatus for creating robot program for capturing image of workpiece
JP6703812B2 (ja) 3次元物体検査装置
CN108907526A (zh) 一种具有高鲁棒性的焊缝图像特征识别方法
US10708479B2 (en) Optical measurement of object location in three dimensions
Liu et al. Precise initial weld position identification of a fillet weld seam using laser vision technology
TWI607814B (zh) 即時三維建模之雷射飛行打標系統及其方法
JP2016091053A (ja) 情報処理装置および容器形状の推定方法、ワークピッキングシステム、プログラム
JP6653572B2 (ja) 変形加工支援システムおよび変形加工支援方法
US20190255706A1 (en) Simulation device that simulates operation of robot
KR20180020458A (ko) 도로의 차선을 재도색하는 장치 및 방법
KR20180076966A (ko) 용접로봇의 작업대상물 용접선 검출방법
KR20170142379A (ko) 영상처리를 이용한 용접로봇의 용접선 인식장치
KR102174035B1 (ko) 증강 현실을 이용한 대상물 검사 방법
JP2018176185A (ja) 変形加工支援システムおよび変形加工支援方法
KR20230081963A (ko) 딥러닝을 이용한 용접 자동화 시스템 및 이의 용접 자동화 방법
JP2020071739A (ja) 画像処理装置
CN112975222B (zh) 基于多线结构光焊缝跟踪传感器的焊枪末端位姿识别方法
Nakhaeinia et al. Adaptive robotic contour following from low accuracy RGB-D surface profiling and visual servoing

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right