KR20200078840A - 3차원 깊이센서를 활용한 부재 용접방법 - Google Patents
3차원 깊이센서를 활용한 부재 용접방법 Download PDFInfo
- Publication number
- KR20200078840A KR20200078840A KR1020180168095A KR20180168095A KR20200078840A KR 20200078840 A KR20200078840 A KR 20200078840A KR 1020180168095 A KR1020180168095 A KR 1020180168095A KR 20180168095 A KR20180168095 A KR 20180168095A KR 20200078840 A KR20200078840 A KR 20200078840A
- Authority
- KR
- South Korea
- Prior art keywords
- welding
- sensor
- present
- work object
- candidate group
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000003466 welding Methods 0.000 title claims abstract description 35
- 238000012937 correction Methods 0.000 claims abstract description 4
- 239000003351 stiffener Substances 0.000 claims description 7
- 239000003550 marker Substances 0.000 abstract description 8
- 208000023178 Musculoskeletal disease Diseases 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23K—SOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
- B23K31/00—Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
- B23K31/02—Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to soldering or welding
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1684—Tracking a line or surface by means of sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Abstract
본 발명은 작업대상물인 부재의 위치를 지정하여 용접하는 방법에 있어서: (A) 3D 깊이 카메라/센서(30)와 PC(42)를 이용하여 다수의 부재의 이미지 정보를 획득하는 단계; (B) PC(42) 상으로 다수의 부재에서 작업대상물을 택일하고, 작업대상물에 복수의 가상마커(35)를 부여하는 단계; (C) 작업대상물의 위치ㆍ자세 보정을 거쳐 작업자가 선택 가능한 후보군을 PC(42) 상으로 출력하는 단계; 및 (D) 후보군에서 선택된 부재의 위치와 자세가 확인되면 용접로봇을 가동하여 용접을 수행하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.
이에 따라, 작업자는 오직 컨트롤 룸에서 PC로 작업을 진행하므로 근골격계 질환을 예방하고, 작업 속도 개선과 불필요한 시간 절약이 가능하며, 마커 이미지 처리시 발생되던 에러를 줄일 수 있는 효과가 있다.
이에 따라, 작업자는 오직 컨트롤 룸에서 PC로 작업을 진행하므로 근골격계 질환을 예방하고, 작업 속도 개선과 불필요한 시간 절약이 가능하며, 마커 이미지 처리시 발생되던 에러를 줄일 수 있는 효과가 있다.
Description
본 발명은 각종 부재의 용접방법에 관한 것으로서, 보다 구체적으로는 선박 건조 현장에서 각종 부재를 용접하는 공정에 활용되는 3차원 깊이센서를 활용한 부재 용접방법에 관한 것이다.
선박의 건조 과정에서 다양한 형태와 크기를 지닌 작업대상물(workpiece) 부재를 용접하는 공정은 인력 소요가 많아 용접로봇 기반의 자동화를 위한 개선의 여지가 크다. 우선 용접 공정에 앞서 정반에 임의로 로딩된 다수의 부재를 인식하는 것이 자동화의 출발점이다. 이를 위해 영상처리 방식과 연계되도록 부재에 바코드를 부여하는 방안이 검토될 수 있으나 선박 부재의 크기, 형태, 종류를 고려할 때 현실적으로 경제성과 생력화를 높이기 한계성을 보인다.
이에 대한 대책과 관련되는 선행기술문헌으로서 한국 등록특허공보 제0823549호가 알려져 있다.
이는 영상처리부에서 촬영된 영상을 처리하고 소벨 오퍼레이터를 이용하여 에지들을 검출하는 단계; 검출된 직선 그룹핑(Blob Center) 좌표로부터 거리값을 산출하고 부재의 외곽선을 판단하여 두 직선의 부재 꼭지점의 위치를 측정하는 단계; 등을 포함한다. 이에, 용접선의 좌표값을 알아내어 작업의 정확성이 향상되는 효과를 기대한다.
그러나, 카메라에 연결되는 영상처리부는 경우 환경의 영향을 받기 쉬워 흐린날 등에 위치 인식의 에러가 발생하므로 고가의 3차원 비전카메라와 마커(physical marker)를 활용해야 한다.
이와 관련되는 선행기술문헌으로서 한국 등록특허공보 제0914857호를 참조할 수 있다.
이는 작업 대상물에 존재하는 수직 부재들의 모서리들 중에서 3개의 위치 값을 계측하는 제1과정으로부터, 최종적으로 작업 대상물의 캐드 데이터와 3차원 측정 결과를 매칭하여 위치를 인식하고 작업 데이터의 위치를 검출하는 제6과정까지 진행된다. 이에, 작업 대상물 및 대상물의 위치, 방향에 대한 정밀한 데이터 추출 및 생성이 가능한 효과를 기대한다.
다만, 이러한 방식에 의하면 작업자가 정반에 임의로 올려놓은 부재에 마커를 부착하는 등의 사전 준비작업에 많은 시간이 소요된다.
상기와 같은 종래의 문제점들을 개선하기 위한 본 발명의 목적은, 작업부재 위치/자세 인식을 위해 작업대상 부재마다 마커(marker)를 일일이 부착/탈거해야 하는 작업에 따른 시간손실을 상당 부분 줄이고 이미지처리 에러를 없애 전체 시스템의 안정성 및 생산성을 높이는 3차원 깊이센서를 활용한 부재 용접방법을 제공하는 데 있다.
상기 목적을 달성하기 위하여, 본 발명은 작업대상물인 부재의 위치를 지정하여 용접하는 방법에 있어서: (A) 3D 깊이 카메라/센서와 PC를 이용하여 다수의 부재의 이미지 정보를 획득하는 단계; (B) PC 상으로 다수의 부재에서 작업대상물을 택일하고, 작업대상물에 복수의 가상마커를 부여하는 단계; (C) 작업대상물의 위치ㆍ자세 보정을 거쳐 작업자가 선택 가능한 후보군을 PC 상으로 출력하는 단계; 및 (D) 후보군에서 선택된 부재의 위치와 자세가 확인되면 용접로봇을 가동하여 용접을 수행하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (A)는 3D 깊이 카메라/센서가 탑재된 갠트리를 이동시키면서 3차원 포인트 클라우드(point cloud)를 생성하는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 PC 상에서 폐곡선으로 선택되는 작업대상물에 인식용 부호를 부여하고 롤/요/피치의 방향전환을 확인하는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 작업대상물을 회전시키면서 스티프너(stiffener) 상에 3점의 가상마커를 부여하는 것을 특징으로 한다.
본 발명의 세부 구성으로서, 상기 단계 (C)는 가상마커가 이루는 3각형 면적을 기준으로 서버의 캐드 데이터에서 유사한 면적의 후보군을 산출하는 것을 특징으로 한다.
이상과 같이 본 발명에 의하면, 작업자는 오직 컨트롤 룸에서 PC로 작업을 진행하므로 근골격계 질환을 예방하고, 작업 속도 개선과 불필요한 시간 절약이 가능하며, 마커 이미지 처리시 발생되던 에러를 줄일 수 있는 효과가 있다.
도 1은 종래의 방법을 구현하는 일예를 나타내는 모식도
도 2는 본 발명에 따른 방법을 구현하기 위한 시스템의 모식도
도 3 내지 도 5는 본 발명에 따른 방법의 흐름을 나타내는 모식도
도 2는 본 발명에 따른 방법을 구현하기 위한 시스템의 모식도
도 3 내지 도 5는 본 발명에 따른 방법의 흐름을 나타내는 모식도
이하, 첨부된 도면에 의거하여 본 발명의 실시예를 상세하게 설명하면 다음과 같다.
본 발명은 작업대상물인 부재의 위치를 지정하여 용접하는 방법에 관하여 제안한다. 접합을 위한 각종 부재를 인식하고 위치를 지정하여 용접하는 공정을 대상으로 하지만 반드시 이에 국한되는 것은 아니다.
본 발명의 설명에서 작업대상물과 부재는 동일한 의미로 사용되나, 작업대상물이 현재 용접 대상의 부재로 한정되는 의미도 가능하다.
본 발명에 따른 단계 (A)는 3D 깊이 카메라/센서(30)와 PC(42)를 이용하여 다수의 부재의 이미지 정보를 획득하는 과정으로 진행된다. 도 1을 참조하면, 종래의 경우 정반위에 놓인 다수의 부재(10) 및 부재(10)에 부착된 다수의 마커(15)를 갠트리(11) 상의 3차원 카메라(12)로 촬영하여 이미지 정보를 획득한다. 도 2를 참조하면, 본 발명의 경우 3D 깊이 카메라/센서(30)가 용접로봇(20)에 인접하게 설치되어 이미지 정보를 획득한다. 3D 깊이 카메라/센서(30)는 RGB 센서와 달리 센서와 피사체 간의거리를 측정하여 깊이값을 깊이영상으로 저장한다.
한편, 본 발명은 PC(42)와 서버(45)를 구비하는 제어수단(40)이 용접로봇(20), 3D 깊이 카메라/센서(30)와 연결된다. 작업자는 PC(42)의 모니터 상에서 마커(15)가 있어야 할 위치에 마우스로 클릭하는 작업을 수행한다. 종래에 사용하던 마커(15)를 배제하여 발명의 목적을 효과적으로 달성할 수 있다.
본 발명의 세부 구성으로서, 상기 단계 (A)는 3D 깊이 카메라/센서(30)가 탑재된 갠트리(11)를 이동시키면서 3차원 포인트 클라우드(point cloud)를 생성하는 것을 특징으로 한다. 도 3을 참조하면, 용접로봇(20)이 투입된 작업장의 정반에 임의로 부재(10)가 놓이면, 갠트리(11)의 이동으로 3D 깊이 카메라/센서(30)의 위치를 변동하면서 부재(10)를 촬영한다. 3D 깊이 카메라/센서(30)로 획득되는 데이터는 3차원 포인트 클라우드(point cloud) 형태로 나타난다.
본 발명에 따른 단계 (B)는 PC(42) 상으로 다수의 부재에서 작업대상물을 택일하고, 작업대상물에 복수의 가상마커(35)를 부여하는 과정을 거친다. 도 4를 참조하면, PC(42)의 모니터 상에 다수의 부재(10)가 표시되므로 작업자는 촬영된 3D(point) 및 영상(image)을 보면서 하나의 작업대상물을 선택할 수 있다. 이 경우 작업대상물은 현재 용접로봇(20)으로 용접할 특정의 부재(10)에 대한 영상 이미지(31)이다. 복수의 가상마커(35)는 모니터 상에 마우스를 이용하여 부여되는 것으로서 종래의 마커(15)를 대체한다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 PC(42) 상에서 폐곡선으로 선택되는 작업대상물에 인식용 부호를 부여하고 롤/요/피치의 방향전환을 확인하는 것을 특징으로 한다. 도 4는 모니터 상에서 적색 폐곡선으로 선택된 영상 이미지(32)에 인식용 부호인 ABB**가 부여된 상태를 예시한다. 선택된 이미지(32)는 마우스를 이용하여 롤(roll), 요(yaw), 피치(pitch)의 방향으로 회전시켜 노이즈, 해상도 등을 확인한다.
본 발명의 세부 구성으로서, 상기 단계 (B)는 작업대상물을 회전시키면서 스티프너(stiffener) 상에 3점의 가상마커(35)를 부여하는 것을 특징으로 한다. 도 3 및 도 4에서 작업대상물의 소블록이 판재와 스티프너로 구성된 상태를 예시한다. 종래의 카메라(12) 이미지처리 과정 중 에러가 발생되기 쉬어 가상마커(35)의 부여가 곤란하다. 본 발명은 3D 깊이 카메라/센서(30)의 점 정보를 활용하여 모니터 상에서 가상마커(35)를 부여하기 용이하다. 도 4에서 부호 MK#1, MK#2, MK#3으로 나타내는 3점의 가상마커(35)가 대향하는 스티프너의 꼭지점에 분산적으로 표시됨을 알 수 있다. 선박의 각종 블록에 있어서 스티프너는 보편적으로 존재하면서 가상마커(35)의 부여가 용이한 부분이다.
본 발명에 따른 단계 (C)는 작업대상물의 위치ㆍ자세 보정을 거쳐 작업자가 선택 가능한 후보군을 PC(42) 상으로 출력하는 과정으로 진행된다. 단계 (C)의 주요 알고리즘은 본 출원인에 의하여 제안된 선행문헌 2를 참고한다. 가상마커(35)가 설정된 위치를 기준으로 가장 긴 선분(V1)과 짧은 선분(V2) 간의 벡터식을 이용하여 부재의 자세와 위치값을 계산할 수 있다.
본 발명의 세부 구성으로서, 상기 단계 (C)는 가상마커(35)가 이루는 3각형 면적을 기준으로 서버(45)의 캐드 데이터에서 유사한 면적의 후보군을 산출하는 것을 특징으로 한다. PC(42) 상에서 3점의 가상마커(35)에 의한 3각형 면적이 산출되면 기 작성되어 서버(45)에 저장된 캐드 데이터와 매칭시키는 과정이다. 매칭된 후보군이 하나인 경우 즉시 후속 작업을 진행하지만, 복수인 경우 작업자의 수동적 선택으로 결정될 수 있다.
본 발명에 따른 단계 (D)는 후보군에서 선택된 부재의 위치와 자세가 확인되면 용접로봇을 가동하여 용접을 수행하는 과정으로 진행된다. 용접 대상의 부재(10)에 대한 순차적인 인식을 거치고, 해당 작업대상물의 위치ㆍ자세가 확인되면 용접로봇(20)을 가동하고, 터치센싱을 통하여 세부적인 오프셋을 인식하고 용접을 진행한다.
본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음이 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서 그러한 변형예 또는 수정예들은 본 발명의 특허청구범위에 속한다 해야 할 것이다.
10: 부재
11: 갠트리
12: 카메라 15: 마커
20: 용접로봇 30: 3D 깊이 카메라/센서
31, 32: 이미지 35: 가상마커
40: 제어수단 42: PC
45: 서버
12: 카메라 15: 마커
20: 용접로봇 30: 3D 깊이 카메라/센서
31, 32: 이미지 35: 가상마커
40: 제어수단 42: PC
45: 서버
Claims (5)
- 작업대상물인 부재의 위치를 지정하여 용접하는 방법에 있어서:
(A) 3D 깊이 카메라/센서(30)와 PC(42)를 이용하여 다수의 부재의 이미지 정보를 획득하는 단계;
(B) PC(42) 상으로 다수의 부재에서 작업대상물을 택일하고, 작업대상물에 복수의 가상마커(35)를 부여하는 단계;
(C) 작업대상물의 위치ㆍ자세 보정을 거쳐 작업자가 선택 가능한 후보군을 PC(42) 상으로 출력하는 단계; 및
(D) 후보군에서 선택된 부재의 위치와 자세가 확인되면 용접로봇을 가동하여 용접을 수행하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 3차원 깊이센서를 활용한 부재 용접방법. - 청구항 1에 있어서,
상기 단계 (A)는 3D 깊이 카메라/센서(30)가 탑재된 갠트리(11)를 이동시키면서 3차원 포인트 클라우드(point cloud)를 생성하는 것을 특징으로 하는 3차원 깊이센서를 활용한 부재 용접방법. - 청구항 1에 있어서,
상기 단계 (B)는 PC(42) 상에서 폐곡선으로 선택되는 작업대상물에 인식용 부호를 부여하고 롤/요/피치의 방향전환을 확인하는 것을 특징으로 하는 3차원 깊이센서를 활용한 부재 용접방법. - 청구항 1에 있어서,
상기 단계 (B)는 작업대상물을 회전시키면서 스티프너(stiffener) 상에 3점의 가상마커(35)를 부여하는 것을 특징으로 하는 3차원 깊이센서를 활용한 부재 용접방법. - 청구항 1에 있어서,
상기 단계 (C)는 가상마커(35)가 이루는 3각형 면적을 기준으로 서버(45)의 캐드 데이터에서 유사한 면적의 후보군을 산출하는 것을 특징으로 하는 3차원 깊이센서를 활용한 부재 용접방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180168095A KR102634601B1 (ko) | 2018-12-24 | 2018-12-24 | 3차원 깊이센서를 활용한 부재 용접방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180168095A KR102634601B1 (ko) | 2018-12-24 | 2018-12-24 | 3차원 깊이센서를 활용한 부재 용접방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200078840A true KR20200078840A (ko) | 2020-07-02 |
KR102634601B1 KR102634601B1 (ko) | 2024-02-08 |
Family
ID=71599537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180168095A KR102634601B1 (ko) | 2018-12-24 | 2018-12-24 | 3차원 깊이센서를 활용한 부재 용접방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102634601B1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220147443A (ko) | 2021-04-27 | 2022-11-03 | 대우조선해양 주식회사 | 임의 지지된 소부재 자동용접 방법 |
JP2023047279A (ja) * | 2021-09-24 | 2023-04-05 | 株式会社ダイヘン | 溶接線検出システム |
EP4166267A1 (en) * | 2021-09-24 | 2023-04-19 | DAIHEN Corporation | Welding line detection system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001318715A (ja) * | 2000-05-12 | 2001-11-16 | Daihen Corp | 溶接用ロボットの教示方法及び装置 |
KR20060104304A (ko) * | 2005-03-30 | 2006-10-09 | 대우조선해양 주식회사 | 3차원 마커 계측방법을 이용한 용접 자동화 작업대상물의인식방법 |
KR100823549B1 (ko) | 2006-10-11 | 2008-04-21 | 삼성중공업 주식회사 | 조선소 소조립 용접부재 위치 인식 방법 |
KR100914857B1 (ko) | 2007-12-07 | 2009-09-02 | 대우조선해양 주식회사 | 3차원 비전 카메라 시스템을 이용한 작업 대상물 위치 인식및 캐드 데이터 매칭 방법과 그 시스템 |
KR20180076964A (ko) * | 2016-12-28 | 2018-07-06 | 대우조선해양 주식회사 | 3d 인식 기능을 지닌 용접로봇 |
-
2018
- 2018-12-24 KR KR1020180168095A patent/KR102634601B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001318715A (ja) * | 2000-05-12 | 2001-11-16 | Daihen Corp | 溶接用ロボットの教示方法及び装置 |
KR20060104304A (ko) * | 2005-03-30 | 2006-10-09 | 대우조선해양 주식회사 | 3차원 마커 계측방법을 이용한 용접 자동화 작업대상물의인식방법 |
KR100823549B1 (ko) | 2006-10-11 | 2008-04-21 | 삼성중공업 주식회사 | 조선소 소조립 용접부재 위치 인식 방법 |
KR100914857B1 (ko) | 2007-12-07 | 2009-09-02 | 대우조선해양 주식회사 | 3차원 비전 카메라 시스템을 이용한 작업 대상물 위치 인식및 캐드 데이터 매칭 방법과 그 시스템 |
KR20180076964A (ko) * | 2016-12-28 | 2018-07-06 | 대우조선해양 주식회사 | 3d 인식 기능을 지닌 용접로봇 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220147443A (ko) | 2021-04-27 | 2022-11-03 | 대우조선해양 주식회사 | 임의 지지된 소부재 자동용접 방법 |
JP2023047279A (ja) * | 2021-09-24 | 2023-04-05 | 株式会社ダイヘン | 溶接線検出システム |
EP4166267A1 (en) * | 2021-09-24 | 2023-04-19 | DAIHEN Corporation | Welding line detection system |
Also Published As
Publication number | Publication date |
---|---|
KR102634601B1 (ko) | 2024-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9529945B2 (en) | Robot simulation system which simulates takeout process of workpieces | |
US10060857B1 (en) | Robotic feature mapping and motion control | |
JP6465789B2 (ja) | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 | |
JP4763074B2 (ja) | ロボットのツール先端点の位置の計測装置および計測方法 | |
US10026164B2 (en) | Method of performing and monitoring a processing step on a workpiece | |
JP4492654B2 (ja) | 3次元計測方法および3次元計測装置 | |
KR20200078840A (ko) | 3차원 깊이센서를 활용한 부재 용접방법 | |
EP1766580A2 (en) | Method and apparatus for machine-vision | |
CN104802186A (zh) | 制作用于拍摄工件的机器人程序的机器人程序设计装置 | |
JP2017033429A (ja) | 3次元物体検査装置 | |
JP6653572B2 (ja) | 変形加工支援システムおよび変形加工支援方法 | |
JP6859164B2 (ja) | 変形加工支援システムおよび変形加工支援方法 | |
US12011827B2 (en) | Robot teaching with scans in and out of robot workspace | |
Lee et al. | Implementation of a robotic arm with 3D vision for shoes glue spraying system | |
JP2020086759A (ja) | 3次元モデル作成装置、加工シミュレーション装置、工具経路自動生成装置 | |
JP2021072012A (ja) | 表示装置 | |
US20220410394A1 (en) | Method and system for programming a robot | |
US20200250893A1 (en) | Augmented reality-based ply layups on a composite part layup tool | |
Alcover et al. | A piecewise affine warping algorithm for image rectification in an industrial application for ship hull repair | |
CN113297952B (zh) | 一种复杂环境下绳驱柔性机器人的测量方法和系统 | |
JP2013010160A (ja) | ロボット制御システム、ロボットシステム及びマーカー処理方法 | |
WO2022249295A1 (ja) | ロボットシミュレーション装置 | |
JP7098486B2 (ja) | 作業支援システムおよび作業支援方法 | |
CN114888794B (zh) | 一种机器人人机交互运行路径标记方法及装置 | |
WO2024042619A1 (ja) | 装置、ロボットの制御装置、ロボットシステム、方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |