KR102665372B1 - Gantry-mounted 3D shape scanning apparatus and scanning method using same - Google Patents

Gantry-mounted 3D shape scanning apparatus and scanning method using same Download PDF

Info

Publication number
KR102665372B1
KR102665372B1 KR1020220061805A KR20220061805A KR102665372B1 KR 102665372 B1 KR102665372 B1 KR 102665372B1 KR 1020220061805 A KR1020220061805 A KR 1020220061805A KR 20220061805 A KR20220061805 A KR 20220061805A KR 102665372 B1 KR102665372 B1 KR 102665372B1
Authority
KR
South Korea
Prior art keywords
unit
information
imaging unit
coordinate information
imaging
Prior art date
Application number
KR1020220061805A
Other languages
Korean (ko)
Other versions
KR20230162209A (en
Inventor
조용현
권대용
박상동
Original Assignee
주식회사 위드포인츠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 위드포인츠 filed Critical 주식회사 위드포인츠
Priority to KR1020220061805A priority Critical patent/KR102665372B1/en
Publication of KR20230162209A publication Critical patent/KR20230162209A/en
Application granted granted Critical
Publication of KR102665372B1 publication Critical patent/KR102665372B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 대상물을 촬영하는 촬상부 및 촬영된 대상물에 관한 좌표정보 및 시각정보를 획득하고 획득한 좌표정보 및 시각정보를 대응시켜 촬영된 대상물의 형상정보를 획득하는 제어부를 포함하는 스캐닝 장치를 제공한다. 또한, 본 발명은 미리 지정된 기준부 및 촬상부의 초기 위치를 확인하는 제1준비단계, 촬상부가 기준부를 대상으로 이동 및 촬영하고 촬상부의 좌표정보 및 촬상부가 이동된 위치를 기준으로 촬영된 기준부의 시각정보를 획득하며 획득한 촬상부의 좌표정보 및 기준부의 시각정보를 대응시켜 기준부를 대상으로 하는 영점을 조정하는 조정단계, 촬상부를 미리 지정된 시작 좌표로 이동시키는 제2준비단계 및 미리 지정된 단위 시간마다 기준부를 기준으로 촬상부의 상대좌표 정보를 획득하고 촬상부가 이동하며 촬영하는 대상물의 좌표정보 및 시각정보를 획득하며 대상물의 좌표정보 및 시각정보를 대응시켜 형상정보를 획득하는 스캐닝 단계를 포함하는 스캐닝 방법을 제공한다.
본 발명의 실시예에 따르면, 다수의 스캐닝 장비를 갖추지 않아도 용이하게 대상물을 스캔할 수 있고 다수의 정보 처리 과정을 생략할 수 있으며, 대상물의 크기에 제한받지 않고 보다 용이하고 정교한 품질의 3D 스캔이 가능하고, 초기 영점조정 이후 별도의 추가 영점조정이 요구되지 않아 스캔 과정에서의 오류 발생을 미연에 차단하고, 신속한 스캐닝을 실시할 수 있다.
The present invention provides a scanning device including an imaging unit for photographing an object and a control unit for acquiring coordinate information and visual information about the photographed object and obtaining shape information of the photographed object by correlating the obtained coordinate information and visual information. do. In addition, the present invention includes a first preparation step of confirming the initial position of the pre-designated reference unit and the imaging unit, the imaging unit moving and photographing the reference unit, and the coordinate information of the imaging unit and the time of the reference unit photographed based on the position to which the imaging unit was moved. An adjustment step of adjusting the zero point targeting the reference unit by matching the coordinate information of the imaging unit obtained while acquiring information and the visual information of the reference unit, a second preparation step of moving the imaging unit to a pre-designated start coordinate, and a reference at each pre-designated unit time. A scanning method including a scanning step of obtaining relative coordinate information of the imaging unit based on the unit, acquiring coordinate information and visual information of the object being photographed while the imaging unit moves, and obtaining shape information by matching the coordinate information and visual information of the object. to provide.
According to an embodiment of the present invention, an object can be easily scanned without having to use a large number of scanning devices, a number of information processing steps can be omitted, and 3D scanning of easier and more precise quality can be performed without being limited by the size of the object. This is possible, and since no additional zero-point adjustment is required after the initial zero-point adjustment, errors in the scanning process can be prevented and rapid scanning can be performed.

Description

겐트리 탑재형 3D 형상 스캐닝 장치 및 이를 이용한 스캐닝 방법{Gantry-mounted 3D shape scanning apparatus and scanning method using same}Gantry-mounted 3D shape scanning apparatus and scanning method using same {Gantry-mounted 3D shape scanning apparatus and scanning method using same}

본 발명은 겐트리 탑재형 3D 형상 스캐닝 장치 및 이를 이용한 스캐닝 방법에 관한 것이다. 상세하게, 본 발명의 다양한 실시예는 겐트리에 탑재된 상태에서 1회 영점 조정 이후 대상물의 형상을 보다 용이하고 정밀하게 스캔할 수 있는 기술에 관한 것이다.The present invention relates to a gantry-mounted 3D shape scanning device and a scanning method using the same. In detail, various embodiments of the present invention relate to a technology that can more easily and precisely scan the shape of an object after one-time zero point adjustment while mounted on a gantry.

최근 건설, 조선 등의 산업 현장에서는 생산성 향상, 안전 및 품질관리 향상을 위한 다양한 기술이 도입되고 있으며, 이 중 3D 비전을 이용한 자동화 기술이 대두되고 있다. 특히, 각종 산업 현장에서 물체의 가공 등을 위해서는 해당 물체의 스캐닝이 필수이다. 이를 위해, 기존의 숙련자가 물체의 형상, 도면을 확인하고 줄자 등의 측정수단으로 데이터를 추출하는 것과 달리, 최근 촬상용 카메라를 활용한 다양한 스캐닝 수단이 사용되고 있다. 하지만, 상기와 같은 스캐닝 수단은 크기가 작은 물체의 촬영은 용이하지만 형상이 복잡하거나 크기가 매우 큰 물체의 스캐닝에는 적합하지 않다는 문제점을 갖는다. 아울러, 스캐닝 수단이 여러 개 설치되어야 하기 때문에 각각의 스캐닝 장비를 운영하고 정보를 취합해야 하는 번거로움이 있으며, 정확도가 비교적 낮은 문제점이 있다.Recently, various technologies have been introduced to improve productivity, safety, and quality management in industrial sites such as construction and shipbuilding, and among these, automation technology using 3D vision is emerging. In particular, scanning of objects is essential for processing objects in various industrial sites. For this purpose, unlike the existing skilled person checking the shape and drawing of the object and extracting data using measuring means such as a tape measure, various scanning methods using imaging cameras have recently been used. However, the above-mentioned scanning means is easy to photograph small objects, but has a problem in that it is not suitable for scanning objects that have complex shapes or are very large in size. In addition, since multiple scanning means must be installed, there is the inconvenience of operating each scanning equipment and collecting information, and there is a problem of relatively low accuracy.

위와 같은 문제점을 해결하고자, 각종 산업현장의 자동화 생산라인에서 공정간 소재의 신속한 이송을 목적으로 하는 소재 이송용 겐트리(Gantry)에 촬상용 카메라를 설치한 다음, 겐트리를 이동시키면서 카메라의 촬상을 지속적으로 실시하여 물체의 형상에 관한 정보를 얻는 방법을 접목하되, 정확성 및 신속성을 극대화할 수 있는 장치 및 방법을 개시하고자 한다.In order to solve the above problems, an imaging camera is installed on a material transfer gantry for the purpose of rapid transfer of materials between processes in automated production lines at various industrial sites, and then the camera captures images while moving the gantry. We intend to continuously implement a method of obtaining information about the shape of an object and disclose a device and method that can maximize accuracy and speed.

본 발명의 다양한 실시예는 상기와 같은 문제점을 해결하기 위한 것으로서, 보다 적은 수의 스캐닝수단으로도 대형 물체를 용이하게 스캔하는 것을 목적으로 한다.Various embodiments of the present invention are intended to solve the above problems and aim to easily scan large objects using fewer scanning means.

또한, 본 발명이 해결하고자 하는 과제는 스캐닝 과정에서 획득할 수 있는 시각정보의 정확도를 높이는 것이다.Additionally, the problem that the present invention aims to solve is to increase the accuracy of visual information that can be obtained during the scanning process.

또한, 본 발명은 스캐닝 과정에서 발생할 수 있는 이물질 등에 의한 부정확한 시각정보의 획득을 미연에 방지하는 것을 목적으로 한다.Additionally, the purpose of the present invention is to prevent the acquisition of inaccurate visual information due to foreign substances that may occur during the scanning process.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

이를 위해, 본 발명은 대상물을 촬영하는 촬상부 및 촬영된 대상물에 관한 좌표정보 및 시각정보를 획득하고 획득한 좌표정보 및 시각정보를 대응시켜 촬영된 대상물의 형상정보를 획득하는 제어부를 포함하는 스캐닝 장치를 제공한다.For this purpose, the present invention is a scanning device that includes an imaging unit that photographs an object and a control unit that acquires coordinate information and visual information about the photographed object and obtains shape information of the photographed object by correlating the obtained coordinate information and visual information. Provides a device.

또한, 본 발명은 미리 지정된 기준부 및 촬상부의 초기 위치를 확인하는 제1준비단계, 촬상부가 기준부를 대상으로 이동 및 촬영하고 촬상부의 좌표정보 및 촬상부가 이동된 위치를 기준으로 촬영된 기준부의 시각정보를 획득하며 획득한 촬상부의 좌표정보 및 기준부의 시각정보를 대응시켜 기준부를 대상으로 하는 영점을 조정하는 조정단계, 촬상부를 미리 지정된 시작 좌표로 이동시키는 제2준비단계 및 미리 지정된 단위 시간마다 기준부를 기준으로 촬상부의 상대좌표 정보를 획득하고 촬상부가 이동하며 촬영하는 대상물의 좌표정보 및 시각정보를 획득하며 대상물의 좌표정보 및 시각정보를 대응시켜 형상정보를 획득하는 스캐닝 단계를 포함하는 스캐닝 방법을 제공한다.In addition, the present invention includes a first preparation step of confirming the initial position of the pre-designated reference unit and the imaging unit, the imaging unit moving and photographing the reference unit, and the coordinate information of the imaging unit and the time of the reference unit photographed based on the position to which the imaging unit was moved. An adjustment step of adjusting the zero point targeting the reference unit by matching the coordinate information of the imaging unit obtained while acquiring information and the visual information of the reference unit, a second preparation step of moving the imaging unit to a pre-designated start coordinate, and a reference at each pre-designated unit time. A scanning method that includes a scanning step of acquiring relative coordinate information of the imaging unit based on the unit, acquiring coordinate information and visual information of the object being photographed while the imaging unit moves, and obtaining shape information by matching the coordinate information and visual information of the object. to provide.

본 발명의 실시예에 따르면, 다수의 스캐닝 장비를 갖추지 않아도 용이하게 대상물을 스캔할 수 있고, 다수의 정보 처리 과정을 생략할 수 있다.According to an embodiment of the present invention, an object can be easily scanned without having to use a large number of scanning devices, and a large number of information processing steps can be omitted.

또한, 본 발명을 통해 대상물의 크기에 제한받지 않고 보다 용이하고 정교한 품질의 3D 스캔이 가능하다.Additionally, through the present invention, 3D scanning with easier and more precise quality is possible without being limited by the size of the object.

또한, 본 발명은 초기 영점조정 이후 별도의 추가 영점조정이 요구되지 않아 스캔 과정에서의 오류 발생을 미연에 차단하고, 신속한 스캐닝을 실시할 수 있다.In addition, the present invention does not require additional zero-point adjustment after the initial zero-point adjustment, thereby preventing errors in the scanning process and enabling rapid scanning.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시예에 따른 스캐닝 장치를 전체적으로 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 대상물의 스캔을 위해 구비되는 작업부 및 촬상부를 나타내는 사시도이다.
도 3은 본 발명의 실시예에 따른 조정영역 및 스캔영역을 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 스캐닝 장치를 이용한 대상물의 스캐닝 방법을 전체적으로 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 제1준비단계를 나타내는 도면이다.
도 6은 본 발명의 실시예에 따른 제1준비단계에 대응하여 촬상부가 기준부에 대응하도록 이동하는 것을 나타내는 도면이다.
도 7은 본 발명의 실시예에 따른 조정단계를 나타내는 도면이다.
도 8은 본 발명의 실시예에 따른 제2준비단계를 나타내는 도면이다.
도 9는 본 발명의 실시예에 따른 제2준비단계에 대응하여 촬상부가 대상물로 이동하는 것을 나타내는 도면이다.
도 10은 본 발명의 실시예에 따른 스캐닝 단계를 나타내는 도면이다.
도 11은 본 발명의 실시예에 따른 스캐닝 단계에서 촬상부의 이동 경로를 나타내는 도면이다.
도 12는 본 발명의 실시예에 따른 노이즈가 포함 및 제거된 형성정보를 나타내는 도면이다.
도 13은 본 발명의 실시예에 따른 제1모드 및 제2모드를 나타내는 도면이다.
도 14는 본 발명의 실시예에 따른 제1모드를 나타내는 순서도이다.
도 15는 본 발명의 실시예에 따른 제2모드를 나타내는 순서도이다.
도 16은 본 발명의 실시예에 따른 제1모드 및 제2모드에 따라 각각 획득되는 형상정보에 관한 도면이다.
도 17은 본 발명의 실시예에 따른 촬상부 및 감지부를 나타내는 도면이다.
도 18은 본 발명의 실시예에 따른 감지부를 통한 스캐닝 과정을 나타내는 도면이다.
1 is an overall diagram of a scanning device according to an embodiment of the present invention.
Figure 2 is a perspective view showing a working unit and an imaging unit provided for scanning an object according to an embodiment of the present invention.
Figure 3 is a diagram showing an adjustment area and a scan area according to an embodiment of the present invention.
Figure 4 is a diagram generally showing a method of scanning an object using a scanning device according to an embodiment of the present invention.
Figure 5 is a diagram showing the first preparation step according to an embodiment of the present invention.
Figure 6 is a diagram showing that the imaging unit moves to correspond to the reference unit in response to the first preparation step according to an embodiment of the present invention.
Figure 7 is a diagram showing an adjustment step according to an embodiment of the present invention.
Figure 8 is a diagram showing the second preparation step according to an embodiment of the present invention.
Figure 9 is a diagram showing the image capture unit moving to an object in response to the second preparation step according to an embodiment of the present invention.
Figure 10 is a diagram showing a scanning step according to an embodiment of the present invention.
Figure 11 is a diagram showing the movement path of the imaging unit in the scanning step according to an embodiment of the present invention.
Figure 12 is a diagram showing formation information with noise included and removed according to an embodiment of the present invention.
Figure 13 is a diagram showing a first mode and a second mode according to an embodiment of the present invention.
Figure 14 is a flowchart showing the first mode according to an embodiment of the present invention.
Figure 15 is a flowchart showing the second mode according to an embodiment of the present invention.
Figure 16 is a diagram relating to shape information obtained respectively according to the first mode and the second mode according to an embodiment of the present invention.
Figure 17 is a diagram showing an imaging unit and a sensing unit according to an embodiment of the present invention.
Figure 18 is a diagram showing a scanning process through a detection unit according to an embodiment of the present invention.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as "... unit" and "module" used in the specification refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .

본 발명을 설명하기에 앞서, “대상물(m)”은 스캐닝의 대상이 되는 주체로서, 다양한 크기 및 형상으로 구비될 수 있으며, 후술할 촬상부(200)에 의해 촬영되어 시각정보가 형성된다.Before explaining the present invention, the “object (m)” is a subject that is the subject of scanning, and may be provided in various sizes and shapes, and is photographed by the imaging unit 200, which will be described later, to form visual information.

또한, 좌표정보는 특정 개체에 관한 x, y, z축으로의 3차원 위치를 의미하는 3차원 좌표를 의미하고, 시각정보는 촬상부(200)에 의해 촬영된 객체에 관한 시각적인 화상정보를 의미한다.In addition, coordinate information refers to three-dimensional coordinates indicating the three-dimensional position of a specific object in the x, y, and z axes, and visual information refers to visual image information about the object captured by the imaging unit 200. it means.

아울러, 본 명세서에서의 특별한 언급이 없는 한, 방향을 지시하는 용어는 본 발명에 따른 작업부(100)가 직립하도록 배치될 경우를 배치하거나, 도면을 기반으로 본 발명 내 구성에 관한 위치를 설명하도록 한다.In addition, unless otherwise specified in this specification, terms indicating direction refer to the case where the working unit 100 according to the present invention is arranged to stand upright, or to describe the position of the configuration within the present invention based on the drawings. Let's do it.

도 1은 본 발명의 실시예에 따른 스캐닝 장치를 전체적으로 나타내는 도면이다. 본 발명에 따른 겐트리 탑재형 3D 형상 스캐닝 장치는 제어부에 의해 구동 및 스캐닝이 제어된다.1 is an overall diagram of a scanning device according to an embodiment of the present invention. The gantry-mounted 3D shape scanning device according to the present invention is driven and scanned by a control unit.

제어부는 상기와 같은 제어를 통해, 작업부(100)에 설치된 촬상부(200)를 이동시키며 좌표정보 및 시각정보를 획득하고, 획득한 좌표정보 및 시각정보가 서로 대응되도록 정합하여 형상정보를 획득한다. 이를 위해, 제어부는 촬상부(200)를 이동시키는 작업부(100), 좌표정보 및 시각정보의 정합 기준을 제시하는 기준부(a), 촬상부(200)와의 통신을 중개하는 통신부(310), 시각정보를 기반으로 좌표정보 및 시각정보를 획득하는 연산부(320) 및 형상정보를 획득하는 연동부(330)를 포함한다. 또한, 제어부에 포함된 연산부, 연동부 및 저장부는 제어부에 기설정된 하나 이상의 프로세서에 기반한 하나 이상의 인스트럭션의 실행을 통해 각각의 기능을 구현할 수 있으며, 상기 구현되는 기능은 제어부에 포함된 각각의 구성이 수행하거나 제어부가 통합 수행할 수도 있다.Through the above control, the control unit moves the imaging unit 200 installed on the work unit 100 to obtain coordinate information and time information, and matches the obtained coordinate information and time information so that they correspond to each other to obtain shape information. do. For this purpose, the control unit includes a working unit 100 that moves the imaging unit 200, a standard unit (a) that presents matching standards for coordinate information and visual information, and a communication unit 310 that mediates communication with the imaging unit 200. , It includes a calculation unit 320 that acquires coordinate information and visual information based on visual information, and a linking unit 330 that acquires shape information. In addition, the operation unit, linkage unit, and storage unit included in the control unit can implement each function through execution of one or more instructions based on one or more processors preset in the control unit, and the implemented functions are implemented by each configuration included in the control unit. It can be performed or the control unit can perform it in an integrated manner.

도 2는 본 발명의 실시예에 따른 대상물(m)의 스캔을 위해 구비되는 작업부(100) 및 촬상부(200)를 나타내는 사시도이다.Figure 2 is a perspective view showing the working unit 100 and the imaging unit 200 provided for scanning the object m according to an embodiment of the present invention.

밑판부(b)는 작업부(100)에 대한 이동 공간 및 작업 공간을 제공하는 구성으로서, 판 형태로 구비되어 작업부(100)의 하측 방향에 위치한다. 작업부(100)는 제1수평이동부(101)가 밑판부(b)의 길이 방향을 따라 가이드 이동함으로써 대상물(m)에 관한 작업 및 촬상부(200)의 이동을 유도할 수 있다.The bottom plate (b) is a structure that provides a movement space and work space for the working unit 100, and is provided in the form of a plate and located below the working unit 100. The working unit 100 can induce work on the object m and movement of the imaging unit 200 by guiding the first horizontal moving unit 101 to move along the longitudinal direction of the bottom plate part (b).

작업부(100)는 밑판부(b) 상에 위치한 대상물(m)의 촬상을 위해 촬상부(200)를 위치 이동시키는 구성으로서 제1수평이동부(101), 제2수평이동부(102), 승하강부(103), 작업암을 포함한다. 또한, 작업부(100)가 복수 개로 구비될 경우, 각각의 스캔영역의 범위 내에서 이동될 수 있다.The working unit 100 is a component that moves the imaging unit 200 to capture an object (m) located on the bottom plate (b), and includes a first horizontal moving unit (101) and a second horizontal moving unit (102). , a lifting and lowering unit (103), and a working arm. Additionally, when a plurality of working units 100 are provided, they can be moved within the range of each scan area.

제1수평이동부(101)는 촬상부(200)를 제1수평이동시키는 구성이다. 상세하게, 제1수평이동부(101)는 촬상부(200)를 밑판부(b)의 길이방향(도 2의 좌하측 방향 및 우상측 방향)으로 이동시켜 밑판부(b) 상의 대상물(m)을 지속 촬영할 수 있도록 한다. 제1수평이동부(101)는 밑판부(b)와 계합되는 형태로 구비되어 가이드 이동이 가능하고, 레일 등의 별도의 경로제공수단을 통해 별도로 가이드 이동할 수도 있다. 한편, 상기와 같은 제1수평이동부(101)는 별도의 구동수단에 의해 이동되되 제어부에 의해 구동이 제어된다.The first horizontal movement unit 101 is configured to first horizontally move the imaging unit 200. In detail, the first horizontal moving unit 101 moves the imaging unit 200 in the longitudinal direction of the bottom plate portion (b) (lower left direction and upper right direction in FIG. 2) to detect an object (m) on the bottom plate portion (b). ) to enable continuous shooting. The first horizontal moving part 101 is provided in a form engaged with the bottom plate part (b) to enable guided movement, and can also be guided separately through a separate path providing means such as a rail. Meanwhile, the first horizontal moving unit 101 as described above is moved by a separate driving means, and the driving is controlled by a control unit.

제2수평이동부(102)는 촬상부(200)를 제2수평이동시킨다. 상세하게, 제2수평이동부(102)는 촬상부(200)를 밑판부(b)의 길이방향에 수직하는 방향(도 2의 좌상측 방향 및 우하측 방향)으로 이동시킨다. 즉, 제1수평이동부(101)의 이동방향 및 제2수평이동부(102)의 이동방향이 서로 직교함에 따라, 촬상부(200)는 제1수평이동부(101) 및 제2수평이동부(102)에 의해 동일 평면 상에서 x축 이동 및 y축 이동할 수 있다. 제2수평이동부(102)는 제1수평이동부(101)와 연결된 상태에서 제2수평이동하되, 상기 제1수평이동부(101)와 동일하게 제어부에 의해 구동이 제어될 수 있다.The second horizontal movement unit 102 moves the imaging unit 200 in a second horizontal direction. In detail, the second horizontal moving unit 102 moves the imaging unit 200 in a direction perpendicular to the longitudinal direction of the bottom plate part (b) (upper left direction and lower right direction in FIG. 2). That is, as the moving direction of the first horizontal moving part 101 and the moving direction of the second horizontal moving part 102 are orthogonal to each other, the imaging unit 200 is configured to move the first horizontal moving part 101 and the second horizontal moving part 102 The eastern part 102 can move the x-axis and y-axis on the same plane. The second horizontal movement unit 102 moves horizontally while connected to the first horizontal movement unit 101, and its driving may be controlled by a control unit in the same way as the first horizontal movement unit 101.

승하강부(103)는 촬상부(200)를 수직 이동시키는 구성이다. 상세하게, 승하강부(103)는 촬상부(200)를 상하 방향으로 이동시켜 촬상되는 대상물(m)의 배율이 조정되도록 유도한다. 이를 위해, 승하강부(103)는 제2수평이동하는 제2수평이동부(102)의 하측 방향에 위치하고 전기, 유압 등으로 구동력을 발휘하여 상하 방향으로 이동한다. 이 과정에서 승하강부(103)의 하측 방향에 배치된 촬상부(200)는 승하강부(103)과 일체로 상측 방향 및 하측 방향으로의 위치가 조정될 수 있다.The elevating and lowering unit 103 is configured to vertically move the imaging unit 200. In detail, the raising and lowering unit 103 moves the imaging unit 200 in the vertical direction to adjust the magnification of the imaged object m. For this purpose, the elevating and lowering unit 103 is located in the lower direction of the second horizontal moving unit 102 and moves in the vertical direction by exerting driving force using electricity, hydraulics, etc. In this process, the position of the imaging unit 200 disposed in the lower direction of the elevating and lowering unit 103 may be adjusted in the upper and lower directions as one body with the elevating and lowering unit 103.

촬상부(200)는 대상물(m)을 촬영하는 구성으로서, 보다 상세하게는 후술할 기준부의 촬영을 통해 영점 조정을 위한 시각정보를 형성하여 제어부로 전달한다. 영점 조정이 완료된 이후에는 대상물(m)을 대상으로 촬영을 실시하여 시각정보를 형성하고, 이를 제어부로 전달함으로써 후술할 연산부(320) 및 연동부(330)가 각각 좌표정보 및 시각정보를 획득하고 이를 정합할 수 있도록 기초 자료를 제공한다. 여기서, 촬상부(200)는 3D 점군 데이터(Point cloud) 형태의 시각 정보를 획득하기 위한 TOF(Time of Flight) 카메라 등의 촬상수단으로 구비되어, 제어부에 의해 미리 지정된 단위 시간마다 기준부 및 대상물(m)을 촬상할 수 있다.The imaging unit 200 is a component that photographs the object m. More specifically, it forms visual information for zero point adjustment through photographing a reference portion, which will be described in more detail later, and transmits it to the control unit. After zero point adjustment is completed, the object (m) is photographed to form visual information, and this is transmitted to the control unit, so that the calculation unit 320 and linkage unit 330, which will be described later, obtain coordinate information and visual information, respectively. Basic data is provided to enable this to be reconciled. Here, the imaging unit 200 is equipped with an imaging means such as a TOF (Time of Flight) camera for acquiring visual information in the form of 3D point cloud data, and captures the reference unit and the object every unit time predetermined by the control unit. (m) can be imaged.

기준부(a)는 대상물(m)로부터 보다 정확한 시각정보를 최종 획득하기 위한 기준이 되는 구성이다. 상세하게, 기준부(a)는 촬상부(200)가 대상물(m)을 대상으로 촬영하여 획득한 시각정보 및 이에 대응하는 좌표정보를 정합하는 과정에서, 보다 정확한 형상정보의 획득을 위한 영점 조정의 목적으로 구비된다. 즉, 기준부(a)는 촬상부(200)가 대상물(m)을 대상으로 이동하며 촬영할 때, 촬상부의 상대좌표 정보를 결정하기 위한 기준으로 사용된다.The reference unit (a) is a configuration that serves as a standard for finally obtaining more accurate visual information from the object (m). In detail, the reference unit (a) adjusts the zero point to obtain more accurate shape information in the process of matching the visual information and the corresponding coordinate information obtained by the imaging unit 200 by photographing the object (m). It is provided for the purpose of. That is, the reference unit (a) is used as a reference for determining relative coordinate information of the imaging unit 200 when the imaging unit 200 moves toward and photographs the object m.

이를 위해, 기준부(a)는 밑판부(b)와 근접하여 촬상부(200)와 인접한 위치에 구비되되, 작업부(100)의 이동을 통해 촬상부(200)가 촬영 가능한 위치에 구비되어야 함이 바람직하다. 도 2를 일례로, 기준부(a)는 밑판부(b)의 전방(도 2의 우하측 방향)에 배치된 별도의 고정공간 상에 배치되되, 별도의 고정지그에 의해 고정 상태를 지속적으로 유지한다. 상기와 같은 기준부(a)를 통해, 기준부(a)의 좌표정보가 고정된 상태에서 기준부(a)의 시각정보와 촬상부(200)의 좌표정보를 정합하여 영점을 조정할 수 있다. 한편, 기준부(a)는 구, 다면체 등의 다양한 형태로 구비될 수 있다.For this purpose, the reference part (a) must be provided in a position adjacent to the bottom plate part (b) and adjacent to the imaging unit 200, and must be provided in a position where the imaging unit 200 can capture images through movement of the working unit 100. It is desirable to do so. Taking Figure 2 as an example, the reference part (a) is placed on a separate fixing space located in front of the bottom plate part (b) (lower right direction in Figure 2), and is continuously fixed by a separate fixing jig. maintain Through the reference unit (a) as described above, the zero point can be adjusted by matching the visual information of the reference unit (a) with the coordinate information of the imaging unit 200 while the coordinate information of the reference unit (a) is fixed. Meanwhile, the reference part (a) may be provided in various shapes such as a sphere or polyhedron.

본 발명의 또다른 실시예로서, 중심부(b)를 더 포함할 수 있다. 중심부(b)는 기준부(a)의 중심에 배치되어 고정된 좌표값을 갖음으로써, 영점 조정에 대한 기준으로 제시될 수 있다. 상세하게, 중심부(b)는 기준부(a)를 대체하여 보다 정확한 좌표정보에 관한 정보를 갖도록 구비되며, 상기 좌표정보에 관한 정보는 제어부에 입력될 수 있다. 중심부(b)는 기준부(a)와 동일하게 고정 상태를 유지할 수 있다. 상기와 같은 중심부(b)가 구비되어 제어부가 촬상부(200)의 좌표정보 및 촬영된 중심부(b)에 관한 시각정보를 대응시킴으로써, 기준부(a)가 구 외의 형태를 갖는 경우 보다 정확한 좌표를 제시할 수 있어, 영점 조정 관련 정확도를 현저히 높일 수 있다. 즉, 중심부를 통해 기준부의 형상이 변경되더라도 용이한 영점 조정이 가능하다.As another embodiment of the present invention, it may further include a center (b). The center (b) is placed at the center of the reference portion (a) and has fixed coordinate values, so it can be presented as a reference for zero point adjustment. In detail, the center (b) is provided to have more accurate coordinate information by replacing the reference portion (a), and the coordinate information can be input to the control unit. The center portion (b) can remain fixed in the same state as the reference portion (a). Since the center (b) as described above is provided and the control unit matches the coordinate information of the imaging unit 200 with the visual information about the captured center (b), more accurate coordinates are obtained when the reference portion (a) has a shape other than a sphere. can be presented, which can significantly increase the accuracy related to zero point adjustment. In other words, easy zero point adjustment is possible even if the shape of the reference part changes through the center.

도 3은 본 발명의 실시예에 따른 조정영역 및 스캔영역을 나타내는 도면이다. 도 3에서는 복수의 작업부(100) 간 혼동을 방지하기 위해, 일시적으로 작업부(100)의 명칭 및 스캔영역의 명칭을 각각 달리하여 설명하도록 한다. 또한, 도 3에서는 복수의 스캔영역 중 어느 하나의 스캔영역에만 대상물(m)이 구비되는 것으로 설명하지만, 크기가 큰 대상물(m)의 경우 복수의 스캔영역에 걸쳐 배치되는 것이 바람직하다.Figure 3 is a diagram showing an adjustment area and a scan area according to an embodiment of the present invention. In FIG. 3 , in order to prevent confusion between the plurality of work units 100, the names of the work units 100 and the names of the scan areas will be temporarily described differently. In addition, in FIG. 3, the object (m) is described as being provided in only one scan area among the plurality of scan areas, but in the case of a large object (m), it is preferable to be placed across a plurality of scan areas.

조정영역(d)은 기준부(a)가 배치되는 구역으로서, 기준부(a) 및 촬상부(200) 간의 상호 작용을 통해 촬상부(200)를 이동시키는 작업부(100)의 이동 변위를 제어하여 영점을 조정한다. 즉, 조정영역(d)에서는 촬상부(200)의 촬영 위치에 관한 정확도를 높여 이를 보장하는 작업을 실시한다.The adjustment area (d) is an area where the reference unit (a) is placed, and the movement displacement of the work unit 100 that moves the imaging unit 200 through the interaction between the reference unit (a) and the imaging unit 200 is adjusted. Control and adjust the zero point. That is, in the adjustment area (d), work is performed to ensure the accuracy of the shooting position of the imaging unit 200 by increasing it.

스캔영역(s)은 대상물(m)이 배치되는 구역으로서, 작업부(100) 내 구성에 따른 제1수평이동(도 3의 좌우방향), 제2수평이동(도 3의 상하방향) 및 수직이동을 통해 밑판부(b) 상의 대상물(m)을 스캔하는 공간이다.The scan area (s) is an area where the object (m) is placed, and the first horizontal movement (left and right directions in FIG. 3), second horizontal movement (up and down directions in FIG. 3) and vertical movement are performed according to the configuration of the working unit 100. This is a space where the object (m) on the bottom plate (b) is scanned through movement.

도 3을 일례로, 스캔영역 A(s1) 내지 스캔영역 C(s3)가 밑판부(b)의 길이방향을 따라 설정되고 대상물(m)이 스캔영역 A(s1) 내에만 배치될 시, 스캔영역 A(s1)에 대응하는 작업부A는 조정영역으로 이동하여 영점조정을 실시한 뒤 재차 스캔영역 A(s1)로 이동 후 대상물(m)의 형상을 따라 추적 이동하며 촬상부(200)가 시각정보를 획득할 수 있도록 유도한다. 반면, 스캔영역 B(s2) 및 스캔영역 C(s3) 내에는 대상물(m)이 위치하지 않기 때문에, 구동이 중지된 상태를 유지한다.3 as an example, when scan area A (s1) to scan area C (s3) are set along the longitudinal direction of the bottom plate (b) and the object (m) is placed only within scan area A (s1), scan The working unit A corresponding to area A(s1) moves to the adjustment area, performs zero-point adjustment, and then moves again to the scan area A(s1), then moves tracking along the shape of the object (m), and the imaging unit 200 detects the visual Encourage them to obtain information. On the other hand, since the object (m) is not located in scan area B (s2) and scan area C (s3), the driving remains stopped.

만약, 복수의 스캔영역에 걸쳐 대상물(m)이 형성 및 배치된 경우, 제어부에 미리 저장된 제1모드 또는 제2모드를 통해 기준부(a)와의 영점조정 및 대상물(m)의 촬상을 실시하며, 이에 대한 보다 상세한 설명은 도 13 내지 도 16에서 설명하도록 한다.If the object (m) is formed and arranged across multiple scan areas, zero point adjustment with the reference unit (a) and imaging of the object (m) are performed through the first or second mode pre-stored in the control unit. , A more detailed description of this will be provided in FIGS. 13 to 16.

도 4는 본 발명의 실시예에 따른 스캐닝 장치를 이용한 대상물(m)의 스캐닝 방법을 전체적으로 나타내는 도면이다.Figure 4 is a diagram generally showing a scanning method of an object (m) using a scanning device according to an embodiment of the present invention.

본 발명에 따른 스캐닝 장치를 통한 스캐닝 방법은 미리 지정된 기준부(a) 및 촬상부(200)의 초기 위치를 확인하는 제1준비단계(s110), 기준부를 대상으로 영점을 조정하는 조정단계(s120), 상기 촬상부(200)를 미리 지정된 시작 좌표에서 이동시키는 제2준비단계(s130) 및 미리 지정된 단위 시간마다 대상물의 좌표정보 및 시각정보를 획득하고 이를 대응시켜 형상정보를 획득하는 스캐닝 단계(s140)를 포함하며, 각 단계는 촬상부 또는 제어부에 의해 순차적으로 진행된다.The scanning method using a scanning device according to the present invention includes a first preparation step (s110) of confirming the initial position of the pre-designated reference unit (a) and the imaging unit 200, and an adjustment step (s120) of adjusting the zero point for the reference unit. ), a second preparation step (s130) of moving the imaging unit 200 from a predetermined starting coordinate, and a scanning step of acquiring coordinate information and visual information of the object at each predetermined unit time and obtaining shape information by correlating them ( s140), and each step is performed sequentially by the imaging unit or control unit.

도 5는 본 발명의 실시예에 따른 제1준비단계(s110)를 나타내는 도면이고, 도 6은 본 발명의 실시예에 따른 제1준비단계(s110)에 대응하여 촬상부(200)가 기준부(a)에 대응하도록 이동하는 것을 나타내는 도면이다. 여기서, 기준부(a)는 선술한 중심부(b)로 대체될 수도 있으며, 본 명세서에서는 영점 조정의 기준이 기준부(a)인 것으로 설명하지만 기준부(a)가 복잡한 형상을 갖는 경우 구 형태의 중심부(b)가 영점 조정의 기준이 될 수 있다.Figure 5 is a diagram showing the first preparation step (s110) according to an embodiment of the present invention, and Figure 6 is a diagram showing the image capture unit 200 corresponding to the first preparation step (s110) according to an embodiment of the present invention. This is a diagram showing movement to correspond to (a). Here, the reference part (a) may be replaced by the above-mentioned center (b), and in this specification, the standard for zero point adjustment is explained as the reference part (a). However, if the reference part (a) has a complex shape, it is spherical. The center (b) of can be the standard for zero point adjustment.

제1준비단계(s110)는 영점 조정을 위한 준비 단계로서, 기준부(a) 및 촬상부(200)의 위치를 파악하는 단계이다. 이를 위해, 제1준비단계(s110)는 제1입력단계(s111), 제2입력단계(s112) 및 좌표 접수단계(s113)를 포함함으로써, 제어부가 기준부(a) 및 촬상부(200)의 초기 위치를 확인하고 촬상부(200)의 이동에 따라 기준부에 대한 좌표정보 및 시각정보를 접수하도록 설정된다.The first preparation step (s110) is a preparation step for zero point adjustment and is a step of determining the positions of the reference unit (a) and the imaging unit 200. To this end, the first preparation step (s110) includes a first input step (s111), a second input step (s112), and a coordinate reception step (s113), so that the control unit uses the reference unit (a) and the imaging unit 200. It is set to confirm the initial position of and receive coordinate information and time information about the reference unit according to the movement of the imaging unit 200.

제1입력단계(s111)는 기준부(a)의 위치를 파악하기 위해 구비된다. 상세하게, 제1입력단계(s111)에서 제어부는 기준부(a)에 관한 좌표정보에 관한 정보를 수집 또는 입력한다. 기준부(a)에 관한 좌표정보가 미리 지정되어 있을 시 상기 좌표정보는 제어부에 저장되고, 상기 좌표정보가 확보되지 않을 시 제어부는 좌표정보에 관한 정보를 수집 및 저장한다. 여기서, 기준부(a)에 관한 좌표정보는 별도 연결된 입력수단으로 작업자가 입력하여 저장될 수도 있다.The first input step (s111) is provided to determine the position of the reference unit (a). In detail, in the first input step (s111), the control unit collects or inputs information about coordinate information about the reference unit (a). When coordinate information about the reference unit (a) is pre-designated, the coordinate information is stored in the control unit, and when the coordinate information is not secured, the control unit collects and stores information about the coordinate information. Here, the coordinate information regarding the reference unit (a) may be input by the operator using a separately connected input means and stored.

제2입력단계(s112)는 촬상부(200)의 위치를 파악하는 것으로서, 제어부는 작업부(100)와 연결된 촬상부(200)의 좌표정보를 수집한다. 여기서, 촬상부(200)에는 위치 좌표를 획득할 수 있는 별도의 매핑수단이 더 구비될 수도 있다.The second input step (s112) determines the location of the imaging unit 200, and the control unit collects coordinate information of the imaging unit 200 connected to the working unit 100. Here, the imaging unit 200 may be further equipped with a separate mapping means capable of obtaining location coordinates.

좌표 접수단계(s113)는 제1준비단계(s110) 및 제1입력단계(s111)의 완료 이후에 실시되는 것으로서 촬상부(200)에 관한 좌표정보를 획득한다. 상세하게, 제2입력단계(s112) 완료 이후 촬상부(200)가 기준부(a)를 향해 이동하는 과정에서 촬상부(200)에 관한 복수의 좌표정보를 획득한다.The coordinate reception step (s113) is performed after completion of the first preparation step (s110) and the first input step (s111) and acquires coordinate information about the imaging unit 200. In detail, after completing the second input step (s112), a plurality of coordinate information about the imaging unit 200 is acquired while the imaging unit 200 moves toward the reference unit (a).

도 7은 본 발명의 실시예에 따른 조정단계(s120)를 나타내는 도면이다.Figure 7 is a diagram showing an adjustment step (s120) according to an embodiment of the present invention.

조정단계(s120)는 영점 조정 준비가 완료된 이후 본격적으로 기준부(a)에 관한 영점 조정을 실시하는 단계이다. 이를 위해, 조정단계(s120)는 제1인지단계(s122), 비교단계(s123), 제1획득단계(s124), 제1촬상단계(s125), 제2획득단계(s127) 및 연동단계(s128)를 포함한다. 또한, 조정단계(s120)는 촬상부(200), 연산부(320) 및 연동부(330)에 의해 수행된다.The adjustment step (s120) is a step in which zero point adjustment for the reference part (a) is performed in earnest after the preparation for zero point adjustment is completed. For this purpose, the adjustment step (s120) includes the first recognition step (s122), comparison step (s123), first acquisition step (s124), first imaging step (s125), second acquisition step (s127), and linkage step ( s128). Additionally, the adjustment step (s120) is performed by the imaging unit 200, the calculation unit 320, and the linking unit 330.

제1인지단계(s122)는 촬상부(200)에 의해 형성된 시각정보를 인지 및 획득하는 단계이다. 상세하게, 제어부는 촬상부(200)가 촬영한 기준부(a)에 관한 시각정보를 전달받아 접수한다.The first recognition step (s122) is a step of recognizing and acquiring visual information formed by the imaging unit 200. In detail, the control unit receives and receives visual information regarding the reference unit (a) photographed by the imaging unit 200.

제1인지단계(s122)에서 촬상부(200)는 미리 지정된 단위 시간마다 기준부(a)를 촬영하여 시각정보를 획득한다. 단위 시간에 관한 정보는 제어부에 미리 지정되어 저장되고 1초, 3초, 5초 등으로 다양하게 설계될 수 있다. 단위 시간마다 제어부는 촬상부(200)에 관한 좌표정보 및 촬상부(200)가 촬영한 기준부(a)에 대한 시각정보를 획득한다.In the first recognition step (s122), the imaging unit 200 obtains visual information by photographing the reference unit (a) at predetermined unit times. Information about unit time is pre-specified and stored in the control unit and can be designed in various ways, such as 1 second, 3 seconds, or 5 seconds. Every unit of time, the control unit acquires coordinate information about the imaging unit 200 and visual information about the reference unit (a) photographed by the imaging unit 200.

비교단계(s123)는 제1인지단계(s122)를 통한 시각정보의 획득 이후 실시된다. 상세하게, 제어부는 촬상부(200)가 기준부(a)를 탐지한 횟수를 기준부 촬영 횟수와 비교한다. 기준부 촬영 횟수는 제어부에 미리 저장된 것으로서, 기준부(a)에 관한 촬상부(200)의 시각정보 수집이 충분히 이루어졌는지 판별하기 위한 기준이다. 여기서, 기준부(a)가 영점조정의 대상이 될 경우 탐지 횟수는 기준부(a)의 중심 부분을 촬상부(200)가 촬영한 경우에 해당되고, 중심부(b)가 더 구비될 시 탐지 횟수는 중심부(b)의 중심 부분에 관한 촬상이 이루어진 경우로 한정하여 취급할 수 있다. 일례로, 기준 탐지 회수는 3회, 5회 등으로 다양하게 설정되어 제어부에 저장될 수 있으며 이에 한정되지 않는다.The comparison step (s123) is performed after obtaining visual information through the first recognition step (s122). In detail, the control unit compares the number of times the imaging unit 200 detects the reference unit (a) with the number of times the reference unit is photographed. The number of times the reference unit is photographed is pre-stored in the control unit and is a standard for determining whether the visual information collection by the imaging unit 200 regarding the reference unit (a) has been sufficiently collected. Here, when the reference part (a) is the target of zero point adjustment, the number of detections corresponds to the case where the center part of the reference part (a) is photographed by the imaging unit 200, and detection occurs when the center part (b) is further provided. The number of times can be limited to cases where imaging of the central portion of the center (b) is performed. For example, the standard detection number can be set variously, such as 3 times, 5 times, etc., and stored in the control unit, but is not limited to this.

제1인지단계(s122)의 완료 시 제어부는 해당 시각정보의 탐지 횟수를 1회로 산정하고, 누적된 탐지 횟수를 기준부 촬영 횟수와 비교한 결과에 따라 후술할 제1획득단계(s124)의 진행을 결정한다.Upon completion of the first recognition step (s122), the control unit calculates the number of detections of the relevant visual information as 1, and proceeds with the first acquisition step (s124), which will be described later, according to the result of comparing the accumulated number of detections with the number of standard shots. decide.

기준부(a)를 대상으로 하는 촬상부(200)의 탐지 횟수가 기준부 촬영 횟수보다 적은 경우, 제어부는 작업부(100)의 구동을 통해 촬상부(200)가 지속적으로 이동하며 단위 시간마다 기준부(a)를 촬상하도록 제어한다. 이에 따라, 촬상부(200)의 좌표정보 및 기준부(a)를 대상으로 하는 시각정보가 제어부로 추가 저장되고, 탐지 횟수는 누적된다.If the number of detections of the imaging unit 200 targeting the reference unit (a) is less than the number of recordings of the reference unit, the control unit continuously moves the imaging unit 200 by driving the working unit 100 and detects the Control to capture the reference portion (a). Accordingly, the coordinate information of the imaging unit 200 and the visual information targeting the reference unit (a) are additionally stored in the control unit, and the number of detections is accumulated.

반면, 촬상부(200)의 탐지 횟수가 기준부 촬영 횟수와 동일할 시, 제어부는 기준부(a)에 대한 촬상부(200)의 촬영을 중단하도록 제어한다. 또한, 기준부 촬영 횟수만큼 저장된 촬상부(200)의 좌표정보 및 기준부(a) 관련 시각정보는 촬상부(200)에서 제어부에 포함된 연산부(320)로 전송된다.On the other hand, when the number of detections of the imaging unit 200 is equal to the number of times of photographing the reference unit, the control unit controls the imaging unit 200 to stop photographing the reference unit (a). In addition, the coordinate information of the imaging unit 200 and the visual information related to the reference unit (a) stored as many times as the number of times the reference unit has been photographed are transmitted from the imaging unit 200 to the calculation unit 320 included in the control unit.

일례로, 기준부 촬영 횟수가 3회일 시, 획득한 (1, 1, 1), (1, 4, 1), (2, 4, 1)의 형태로 구비되는 촬상부(200)의 좌표정보 및 각각의 좌표정보마다 촬상한 기준부(a)의 시각정보는 연산부(320)로 전달한다.For example, when the number of reference unit shots is 3, the coordinate information of the imaging unit 200 is obtained in the form of (1, 1, 1), (1, 4, 1), (2, 4, 1). And the visual information of the reference unit (a) captured for each coordinate information is transmitted to the calculation unit 320.

제1획득단계(s124)는 비교단계(s123) 이후에 실시되는 것으로서 제어부에 포함된 연산부(320)에 의해 진행된다. 상세하게, 제1획득단계(s124)는 기준부의 좌표정보 및 시각정보를 획득하기 위한 단계이다. 서로 다른 시점에 기준부(a)를 촬영한 촬상부(200)에 관한 좌표정보 및 이에 대응하는 기준부(a)의 시각정보가 시점별로 나열될 수 있다. 제1획득단계(s124)를 통해, 촬상부(200)가 기준부(a)의 중점을 보다 정확하고 신속하게 촬상할 수 있도록 기준부(a)에 근접이동 시킬 수 있다.The first acquisition step (s124) is performed after the comparison step (s123) and is performed by the calculation unit 320 included in the control unit. In detail, the first acquisition step (s124) is a step for acquiring coordinate information and visual information of the reference unit. Coordinate information about the imaging unit 200 that photographed the reference unit (a) at different viewpoints and the corresponding visual information of the reference unit (a) may be listed for each viewpoint. Through the first acquisition step (s124), the imaging unit 200 can be moved closer to the reference unit (a) so that the midpoint of the reference unit (a) can be captured more accurately and quickly.

제1촬상단계(s125)는 제1획득단계(s124) 이후에 실시되는 것으로서 다시 기준부(a)를 촬상하는 단계이다. 제어부는 정지된 상태의 작업부(100)를 다시 구동시켜 촬상부(200)를 이동시킨다. 이에 따라, 촬상부(200)는 기준부(a)에 관한 시각정보를 획득하여 재차 제어부에 전달한다.The first imaging step (s125) is performed after the first acquisition step (s124) and is a step of imaging the reference portion (a) again. The control unit drives the stopped working unit 100 again to move the imaging unit 200. Accordingly, the imaging unit 200 acquires visual information regarding the reference unit (a) and transmits it to the control unit again.

제2인지단계(s126)는 제어부를 통해 기준부(a)를 다시 이동 및 촬영하는 촬상부(200)를 인지하는 단계이다. 상세하게, 제어부는 제1촬상단계(s125)에서 형성된 시각정보를 전달받고, 해당 촬상부(200)에 관한 좌표정보에 관한 정보를 제공받는다. 이후 수집된 시각정보 및 좌표정보에 관한 정보는 재차 연산부(320)로 이동한다.The second recognition step (s126) is a step of recognizing the imaging unit 200 that moves and photographs the reference unit (a) again through the control unit. In detail, the control unit receives the visual information formed in the first imaging step (s125) and is provided with information regarding coordinate information regarding the corresponding imaging unit 200. Afterwards, the collected information regarding visual information and coordinate information is moved to the calculation unit 320 again.

제2획득단계(s127)는 연산부(320)에 의해 실시되는 것으로서, 연산부(320)는 선술한 제1획득단계(s124)와 동일하게 기준부(a)의 시각정보 및 촬상부(200)의 좌표정보를 획득하고, 획득된 시각정보 및 좌표정보를 연동부(330)로 전달한다.The second acquisition step (s127) is performed by the calculation unit 320, and the calculation unit 320 collects the visual information of the reference unit (a) and the imaging unit 200 in the same way as the first acquisition step (s124) described above. Coordinate information is acquired, and the obtained visual information and coordinate information are transmitted to the linking unit 330.

연동단계(s128)는 연동부(330)에 의해 실시되는 것으로서 기준부(a) 및 촬상부(200)에 관한 영점 조정을 최종 완료하는 단계이다. 상세하게, 연동단계(s128)에서 연동부(330)는 수신받은 기준부(a)의 시각정보 및 촬상부(200)의 좌표정보를 정합한다. 즉, 연동부(330)를 통해 촬상부(200)의 좌표정보 및 기준부(a)의 시각정보를 대응시킨다. 단위 시간마다 수집된 기준부(a)의 시각정보는 기준부(a)의 상대좌표를 기준으로 촬상부(200)의 좌표정보에 대응하여 이동 및 저장된다. 이와 같은 과정에서 기준부(a)의 상대좌표 데이터가 산출됨에 따라, 영점 조정이 완료된다.The linking step (s128) is performed by the linking unit 330 and is a step in which zero point adjustment for the reference unit (a) and the imaging unit 200 is finally completed. In detail, in the linking step (s128), the linking unit 330 matches the received visual information of the reference unit (a) and the coordinate information of the imaging unit 200. That is, the coordinate information of the imaging unit 200 and the visual information of the reference unit (a) are matched through the linking unit 330. The visual information of the reference unit (a) collected every unit of time is moved and stored in response to the coordinate information of the imaging unit 200 based on the relative coordinates of the reference unit (a). In this process, as the relative coordinate data of the reference part (a) is calculated, zero point adjustment is completed.

일례로, 1초에 (1, 1, 1)에 획득한 시각정보 A, 2초에 (2, 2, 2)에 수집한 시각정보 B 및 3초에 (3, 3, 3)에서 획득한 시각정보 C가 존재할 시, 시각정보 A 내지 시각정보 C는 연동부(330)에 의해 변환행렬이 적용되어 각각의 좌표정보에 대응되어 위치가 지정된다. For example, visual information A acquired at (1, 1, 1) at 1 second, visual information B acquired at (2, 2, 2) at 2 seconds, and visual information B acquired at (3, 3, 3) at 3 seconds. When visual information C exists, a transformation matrix is applied by the linkage unit 330 to visual information A to visual information C, and the positions are specified in correspondence with each coordinate information.

상기와 같이 변환행렬을 적용하여 좌표정보 및 시각정보가 서로 대응되도록 정합하는 연동단계(s128)를 통해, 스캐닝의 영점 기준이 되는 기준부(a)를 대상으로 보다 신속하고 정확한 스캐닝을 실시할 수 있다. 또한, 본 발명은 대상물(m)의 스캔 과정에서 오차가 발생하는 것을 미연에 방지할 수 있다. 아울러, 본 발명은 대상물(m)의 스캔 과정에서 시각정보의 이질적 배치를 보정하는 것이 아니라, 대상물(m)의 스캔 전에 기준부(a)를 대상으로 시각정보 및 좌표정보가 서로 대응하도록 변환행렬을 적용하여 정합하기 때문에, 수시로 대상물(m)에 관한 촬상 결과를 교정해야 하는 번거로움을 미연에 방지할 수 있다.Through the linking step (s128) in which the coordinate information and visual information are matched to correspond to each other by applying the transformation matrix as described above, faster and more accurate scanning can be performed targeting the reference portion (a), which is the zero point standard for scanning. there is. Additionally, the present invention can prevent errors from occurring during the scanning process of the object (m). In addition, the present invention does not correct the heterogeneous arrangement of visual information during the scanning process of the object (m), but rather creates a transformation matrix so that the visual information and coordinate information correspond to each other for the reference part (a) before scanning the object (m). Since registration is performed by applying , it is possible to prevent the inconvenience of having to frequently correct the imaging results regarding the object (m).

또한, 제어부는 기준부를 대상으로 하는 조정단계(s120)에서 촬상부(200)의 이동 속도에 관한 정보를 획득하고, 이를 기반으로 촬상부(200)가 대상물(m)을 촬영할 때 획득한 이동 속도로 이동하도록 제어할 수 있다. 따라서, 촬상부(200)가 대상물(m)을 촬영하면서 상기 대상물(m)의 시각정보를 획득하는 과정에서 기준부(a)의 위치를 기준으로 촬상부(200)의 상대좌표 정보를 보다 정확하게 결정할 수 있다. 또한, 촬상부(200)의 상대좌표 정보에 대응하여 획득하는 대상물의 시각정보에 관한 정확도를 높일 수 있다.In addition, the control unit acquires information about the moving speed of the imaging unit 200 in the adjustment step (s120) targeting the reference unit, and based on this, the moving speed obtained when the imaging unit 200 photographs the object (m) You can control it to move to . Therefore, in the process of acquiring the visual information of the object (m) while the imaging unit 200 photographs the object (m), the relative coordinate information of the imaging unit 200 is more accurately based on the position of the reference unit (a). You can decide. In addition, the accuracy of the visual information of the object obtained in response to the relative coordinate information of the imaging unit 200 can be improved.

한편, 상기와 같은 조정단계(s120)가 완료된 후, 제2준비단계(s130)를 통해 대상물(m)을 대상으로 하는 촬영을 준비한다.Meanwhile, after the above-described adjustment step (s120) is completed, the second preparation step (s130) prepares for shooting the object (m).

도 8은 본 발명의 실시예에 따른 제2준비단계(s130)를 나타내는 도면이고, 도 9는 본 발명의 실시예에 따른 제2준비단계(s130)에 대응하여 촬상부(200)가 대상물(m)로 이동하는 것을 나타내는 도면이다.Figure 8 is a diagram showing the second preparation step (s130) according to an embodiment of the present invention, and Figure 9 is a diagram showing the image capture unit 200 corresponding to the second preparation step (s130) according to an embodiment of the present invention. This is a drawing showing movement to m).

제2준비단계(s130)는 대상물(m)의 촬상을 준비하는 단계이다. 상세하게, 제2준비단계(s130)는 제1파악단계(s131), 제2파악단계(s132), 시점 지정단계(s133) 및 이동단계(s134)를 통해 대상물(m) 및 촬상부(200)의 위치를 순차 파악하고 시작 작표를 설정하여 촬상부(200)의 이동 및 촬영을 유도한다.The second preparation step (s130) is a step of preparing for imaging the object (m). In detail, the second preparation step (s130) is the object (m) and the imaging unit 200 through the first grasping step (s131), the second grasping step (s132), the viewpoint designation step (s133), and the moving step (s134). ) are sequentially determined and a starting point is set to induce movement and shooting of the imaging unit 200.

제1파악단계(s131)는 대상물(m)의 위치를 확인하는 단계로서, 제어부는 대상물(m)로부터 좌표정보에 관한 정보를 획득한다. 이는 대상물(m)을 미리 지정된 마킹 포인트(p)에 배치하거나, 작업자가 선배치된 대상물(m)의 좌표정보를 원점 등의 특정 좌표로 설정하여 제어부에 입력하는 방법으로 구현될 수 있다. The first identification step (s131) is a step of confirming the location of the object (m), and the control unit obtains information about coordinate information from the object (m). This can be implemented by placing the object (m) at a pre-designated marking point (p) or by having the operator set the coordinate information of the previously placed object (m) to specific coordinates such as the origin and input it to the control unit.

제2파악단계(s132)는 촬상부(200)의 위치를 파악하는 단계로서, 제1파악단계(s131) 이후에 실시된다. 이를 위해, 제어부는 촬상부(200)의 좌표정보에 관한 정보를 제공받는다. 본 발명의 또다른 실시예로서, 제어부는 촬상부(200)의 좌표정보 외에도 상기 촬상부(200)에 의해 수집되는 직하 방향에 관한 시각정보도 동반으로 제공받음으로써, 추후 진행되는 스캐닝 단계(s140)에서 좌표정보 및 시각정보의 정합 과정에서 기준점으로 참고할 수도 있다.The second identification step (s132) is a step of determining the location of the imaging unit 200, and is performed after the first identification step (s131). For this purpose, the control unit receives information regarding the coordinate information of the imaging unit 200. As another embodiment of the present invention, in addition to the coordinate information of the imaging unit 200, the control unit also receives visual information about the direct direction collected by the imaging unit 200, thereby controlling the scanning step (s140) to be performed later. ) can also be referred to as a reference point in the process of matching coordinate information and visual information.

시점 지정단계(s133)는 촬상부(200)의 스캐닝 위치를 정하는 것으로서, 제1파악단계(s131) 및 제2파악단계(s132) 이후에 실시된다. 상세하게, 시점 지정단계(s133)는 촬상부(200)를 미리 지정된 시작 좌표로 이동시키는 것으로서, 제어부 또는 저장부에 미리 저장된 시작 좌표에 관한 정보에 기반하여 수행된다. 이를 통해, 촬상부(200)는 무작위의 위치에서 시작 좌표로 이동한다. 여기서, 시작 좌표가 선술한 대상물(m)의 마킹 포인트(p)로 지정되는 경우, 보다 정교하고 용이한 대상물(m)의 촬상이 가능하다. 또한, 시작 좌표는 기준부의 좌표정보로부터 기설정된 거리만큼 이격되도록 설정될 수도 있다. 이를 통해, 후술할 대상물(m)의 촬영 과정에서 기준부의 좌표정보 및 시작좌표에 기반한 대상물의 좌표정보를 보다 정확하게 획득할 수 있어, 대상물을 대상으로 하는 스캐닝 과정에서 오류 발생으로 인한 재작업을 생략하는 효과를 갖는다.The viewpoint designation step (s133) determines the scanning position of the imaging unit 200 and is performed after the first grasping step (s131) and the second grasping step (s132). In detail, the viewpoint designation step s133 moves the imaging unit 200 to a pre-designated start coordinate and is performed based on information about the start coordinate previously stored in the control unit or the storage unit. Through this, the imaging unit 200 moves from a random position to the starting coordinate. Here, when the starting coordinate is designated as the marking point (p) of the object (m) described above, more precise and easy imaging of the object (m) is possible. Additionally, the starting coordinates may be set to be spaced apart from the coordinate information of the reference unit by a preset distance. Through this, in the process of photographing the object (m), which will be described later, the coordinate information of the object based on the coordinate information of the reference unit and the starting coordinate can be obtained more accurately, thereby eliminating rework due to errors in the scanning process for the object. It has the effect of

이동단계(s134)는 제어부를 통해 촬상부(200)가 이동하도록 지시하는 것으로서, 보다 구체적으로는 제어부가 작업부(100)에 구동을 지시하여 시작 좌표에 정지한 상태에서 위치 이동하도록 제어한다.The movement step (s134) instructs the imaging unit 200 to move through the control unit. More specifically, the control unit instructs the working unit 100 to drive and controls the operation unit 100 to move from a stop position at the start coordinate.

도 10은 본 발명의 실시예에 따른 스캐닝 단계(s140)를 나타내는 도면이고, 도 11은 본 발명의 실시예에 따른 스캐닝 단계(s140)에서 촬상부(200)의 이동 경로를 나타내는 도면이며, 도 12는 본 발명의 실시예에 따른 노이즈가 포함 및 제거된 형성정보를 나타내는 도면이다.FIG. 10 is a diagram showing the scanning step (s140) according to an embodiment of the present invention, and FIG. 11 is a diagram showing the movement path of the imaging unit 200 in the scanning step (s140) according to an embodiment of the present invention. 12 is a diagram showing formation information with noise included and removed according to an embodiment of the present invention.

스캐닝 단계(s140)는 대상물(m)을 대상으로 하는 형성정보를 획득하기 위한 단계이다. 상세하게, 스캐닝 단계(s140)는 대상물(m)을 대상으로 하는 시각정보 및 촬상부(200)의 좌표정보를 정합하여 형성정보를 형성하고, 추가로 노이즈를 제거하여 보다 정확한 화질을 갖도록 한다. 이를 위해, 스캐닝 단계(s140)는 촬상단계(s141), 인식단계(s142), 획득단계(s143), 형상정보 형성단계(s144), 초기 저장단계(s145) 및 제거단계(s146)를 포함한다.The scanning step (s140) is a step for acquiring formation information targeting the object (m). In detail, the scanning step (s140) forms formation information by matching the visual information targeting the object m and the coordinate information of the imaging unit 200, and further removes noise to have more accurate image quality. For this purpose, the scanning step (s140) includes an imaging step (s141), a recognition step (s142), an acquisition step (s143), a shape information forming step (s144), an initial storage step (s145), and a removal step (s146). .

촬상단계(s141)는 대상물(m)을 촬상하는 것으로서, 시작 좌표 상에 배치된 촬상부(200)를 이동시켜 대상물(m)에 관한 시각정보를 형성한다. 여기서, 시작 좌표가 대상물(m)이 배치된 마킹 포인트(p)의 직상방향에 있거나 상기 마킹 포인트(p)와 대응될 시, 촬상부(200)는 보다 용이한 시각정보 형성이 가능하다. 한편, 형성된 시각정보는 촬상부(200)에서 제어부로 전달되되 미리 지정한 단위 시간마다 순차적으로 해당 시각정보를 전송한다. 이 과정에서 촬상부(200)에 관한 좌표정보에 관한 정보도 제어부로 이동된다.The imaging step s141 involves capturing an object m, and forms visual information about the object m by moving the imaging unit 200 disposed on the starting coordinates. Here, when the starting coordinates are directly above the marking point (p) where the object (m) is placed or correspond to the marking point (p), the imaging unit 200 can more easily form visual information. Meanwhile, the formed visual information is transmitted from the imaging unit 200 to the control unit, and the visual information is sequentially transmitted at predetermined unit times. In this process, information regarding coordinate information regarding the imaging unit 200 is also moved to the control unit.

인식단계(s142)는 촬상단계(s141)를 통해 형성된 시각정보를 기반으로 촬상부(200)의 대상물(m)에 관한 촬영을 인식하는 단계이다. 상세하게, 제어부는 단위 시간마다 시각정보 및 촬상부(200)의 좌표정보에 관한 정보를 수신 받는다. 상기 시각정보 및 좌표정보에 관한 정보는 이후 연산부(320)로 이동된다.The recognition step (s142) is a step of recognizing a shot of the object (m) of the imaging unit 200 based on the visual information formed through the imaging step (s141). In detail, the control unit receives information about time information and coordinate information of the imaging unit 200 every unit time. The information regarding the time information and coordinate information is then moved to the calculation unit 320.

획득단계(s143)는 연산부(320)에 의해 실시되는 것으로서, 좌표정보 및 시각정보를 획득하기 위한 목적으로 구비된다. 제어부에 포함된 연산부(320)는 미리 지정된 단위 시간마다 기준부의 위치를 기준으로 촬상부의 상대좌표 정보를 획득한다. 상세하게, 제어부는 단위 시간의 경과 시마다 기준부의 좌표정보를 기준으로 이격 또는 근접하는 촬상부의 상대좌표를 결정한다. 이후, 연산부(320)는 촬상부(200)의 상대좌표 정보에 대응하여 상기 촬상부(200)가 획득한 대상물(m)의 시각정보를 단위 시간마다 획득한다. 획득된 대상물(m)의 시각정보 및 좌표정보는 연산부(320)에서 연동부(330)로 전달된다.The acquisition step (s143) is performed by the calculation unit 320 and is provided for the purpose of acquiring coordinate information and time information. The calculation unit 320 included in the control unit acquires relative coordinate information of the imaging unit based on the position of the reference unit every predetermined unit time. In detail, the control unit determines the relative coordinates of the imaging unit that is spaced apart or approaching based on the coordinate information of the reference unit every time a unit of time elapses. Thereafter, the calculation unit 320 acquires the visual information of the object (m) acquired by the imaging unit 200 every unit of time in response to the relative coordinate information of the imaging unit 200. The acquired visual information and coordinate information of the object (m) are transmitted from the calculation unit 320 to the linking unit 330.

형상정보 형성단계(s144)는 형상정보를 형성하기 위해 구비된다. 형상정보 형성단계(s144)는 선술한 연동단계(s128)와 동일한 원리로 수행되되, 고정된 기준부(a)의 좌표정보 대비 단위 시간마다 획득한 촬상부(200)의 상대좌표 정보를 통해 획득할 수 있는 대상물(m)의 좌표정보 및 시각정보가 서로 매칭되도록 정합하는 변환행렬 방법으로 구현된다.The shape information forming step (s144) is provided to form shape information. The shape information forming step (s144) is performed on the same principle as the linking step (s128) described above, but is obtained through the relative coordinate information of the imaging unit 200 acquired every unit time compared to the coordinate information of the fixed reference unit (a). It is implemented using a transformation matrix method that matches the coordinate information and visual information of the object (m) so that they match each other.

즉, 제어부에 미리 저장된 계획 경로로 이동하며 대상물(m)을 촬상하는 과정에서, 매 촬영 시점에서의 촬영부에 관한 좌표정보와 대상물(m)에 관한 시각정보를 정합한다. 이를 통해, 서로 다른 촬영 시점마다 획득한 대상물(m)의 시각정보가 좌표정보에 대응하여 이동되어 배치됨으로써 형상정보가 형성된다.That is, in the process of moving along a planned path previously stored in the control unit and capturing an object (m), the coordinate information on the imaging unit at each shooting point is matched with the visual information on the object (m). Through this, shape information is formed by moving and arranging the visual information of the object (m) acquired at different shooting times in response to the coordinate information.

초기 저장단계(s145)는 형상정보를 일차 보관을 실시하는 단계로서, 보정 전의 형상정보를 저장함으로써 추후 보정 전후를 비교하거나 형상정보의 복원 등에 사용되기 위한 목적으로 구비된다. 이를 위해, 초기 저장단계(s145)에서 저장부(340)는 형상정보를 초기 정보로 저장한다. 초기 정보는 저장부(340)에 로컬 저장되거나, 별도 통신 연결된 클라우드 서버 등의 저장수단에 저장될 수도 있다.The initial storage step (s145) is a step of primary storage of shape information, and is provided for the purpose of storing shape information before correction for later comparison or restoration of shape information. To this end, in the initial storage step (s145), the storage unit 340 stores shape information as initial information. The initial information may be stored locally in the storage unit 340, or may be stored in a storage means such as a cloud server separately connected to communication.

제거단계(s146)는 형상정보로부터 노이즈(x)를 제거하는 것으로서, 보다 선명하고 이물질이 반영되지 않은 형상정보의 확보를 위해 구비된다. 이를 위해, 제거단계(s146)는 연동부(330)에 의해 실시되며 선술한 형상정보 형성단계(s144) 이후 실시된다.The removal step (s146) removes noise (x) from shape information and is provided to secure shape information that is clearer and does not reflect foreign substances. To this end, the removal step (s146) is performed by the linking unit 330 and is performed after the shape information forming step (s144) described above.

여기서, 노이즈(x)는 대상물(m)의 검출에 불필요한 요소로서, 대상물(m)의 주변에 위치하여 3D 스캐닝을 방해하는 요소이다. 일례로, 노이즈(x)는 대상물(m)에 인접하여 위치하는 먼지, 대상물(m) 외 객체 등으로 구비되며 이에 한정되지 않는다.Here, noise (x) is an element unnecessary for detection of the object (m), and is an element located around the object (m) that interferes with 3D scanning. For example, noise (x) includes dust located adjacent to the object (m), objects other than the object (m), etc., but is not limited thereto.

연동부(330)는 형상정보로부터 노이즈(x)를 검출한다. 도 12를 참조하면, 노이즈(x)는 대상물(m) 외 식별된 물체로서, 대상물(m) 주변의 이물질, 간섭물, 밑판부(b) 및 작업부(100) 중 적어도 하나 이상을 포함할 수 있다. 연동부(330)가 노이즈를 식별하는 것은 작업자가 제어부에 노이즈에 관한 정보를 입력하거나, 대상물의 형태에 관한 정보를 입력한 후 상기 대상물의 형태와 일치하지 않는 객체를 삭제하는 프로세서를 설정하거나, 딥러닝 등 기계학습을 통해 가능하며 이에 한정되지 않는다.The linking unit 330 detects noise (x) from shape information. Referring to FIG. 12, noise (x) is an identified object other than the object (m), and may include at least one of foreign matter, interference, the bottom plate (b), and the work unit 100 around the object (m). You can. The linking unit 330 identifies noise when the operator inputs information about the noise into the control unit, inputs information about the shape of the object, and then sets a processor to delete objects that do not match the shape of the object. This is possible through machine learning such as deep learning, but is not limited to this.

상기와 같은 스캐닝 단계(s140)를 통해, 단일의 촬상부(200) 만으로도 대상물(m)을 용이하게 스캔할 수 있어, 다수의 스캐닝 장비의 운용이 불필요하고 이에 따른 비용 및 정보 처리 과정을 간소화할 수 있다.Through the scanning step (s140) as described above, the object (m) can be easily scanned with only a single imaging unit 200, eliminating the need for operation of multiple scanning equipment and simplifying the cost and information processing process. You can.

또한, 미리 기준부(a)를 사용하여 촬상부(200)가 획득하는 시각정보에 관한 영점조정이 완료된 상태에서 대상물(m)의 스캐닝을 실시하기 때문에 위치 오류에 따른 오차 보정 과정을 최소화할 수 있다. 아울러, 본 발명에 따른 스캐닝 단계(s140)는 촬상부(200)의 대상물(m) 스캐닝뿐만 아니라 로봇 용접 환경 등 다양한 산업 분야에 활용할 수 있다. 따라서, 작업자의 교시나 시스템 설정 없이 용이하면서도 정밀한 산업 로봇 등의 운용이 가능하여 범용성을 현저히 높일 수 있다.In addition, since the scanning of the object (m) is performed with the zero point adjustment for the visual information acquired by the imaging unit 200 using the reference unit (a) in advance, the error correction process due to position error can be minimized. there is. In addition, the scanning step (s140) according to the present invention can be used not only for scanning the object (m) of the imaging unit 200 but also for various industrial fields such as a robot welding environment. Therefore, it is possible to operate industrial robots easily and precisely without operator instruction or system settings, thereby significantly increasing versatility.

도 13은 본 발명의 실시예에 따른 제1모드 및 제2모드를 나타내는 도면이고, 도 14는 본 발명의 실시예에 따른 제1모드를 나타내는 순서도이며, 도 15는 본 발명의 실시예에 따른 제2모드를 나타내는 순서도이고, 도 16은 본 발명의 실시예에 따른 제1모드 및 제2모드에 따라 각각 획득되는 형상정보에 관한 도면이다.FIG. 13 is a diagram showing a first mode and a second mode according to an embodiment of the present invention, FIG. 14 is a flowchart showing a first mode according to an embodiment of the present invention, and FIG. 15 is a diagram showing a first mode according to an embodiment of the present invention. It is a flowchart showing the second mode, and Figure 16 is a diagram related to shape information obtained according to the first mode and the second mode, respectively, according to an embodiment of the present invention.

크기가 큰 대상물(m)의 경우, 밑판부(b) 상에 배치 시 복수의 스캔영역에 걸쳐 위치한다. 이 경우 보다 정밀한 형상정보의 확보 및 스캐닝 시간의 단축을 위해, 제어부는 미리 저장된 제1모드 및 제2모드를 통해 해당 대상물(m)의 스캐닝을 제어한다.In the case of a large object (m), it is located over a plurality of scan areas when placed on the bottom plate (b). In this case, in order to secure more precise shape information and shorten the scanning time, the control unit controls scanning of the object (m) through the first and second modes stored in advance.

제1모드는 복수의 작업부(100)가 순차 이동하여 대상물(m)에 관한 시각정보의 획득, 정합 및 보정이 순차 진행되는 모드이고, 제2모드는 복수의 작업부(100)가 동시 이동하여 대상물(m)에 관한 스캐닝을 실시하는 모드이다. 제1모드 및 제2모드는 선술한 제2준비단계(s130) 내 이동단계(s134)가 상이하고, 서로 다른 획득단계(s143) 및 형상정보 형성단계(s144)를 갖는다.The first mode is a mode in which a plurality of working units 100 move sequentially to acquire, match, and correct visual information about the object m, and the second mode is a mode in which a plurality of working units 100 move simultaneously. This is a mode in which scanning is performed on the object (m). The first mode and the second mode have different movement steps (s134) within the aforementioned second preparation step (s130), and different acquisition steps (s143) and shape information forming steps (s144).

도 14를 참조하면, 제1모드는 시점 지정단계(s133) 이후 진행되는 이동단계(s134)에서 촬상부(200)를 순차 이동시킨다. 상세하게, 제1모드에서 제어부는 복수의 작업부(100) 중에서 기준부(a)와 최근접한 어느 하나의 작업부(100) 또는 임의의 작업부(100)부터 이동시켜, 해당 작업부(100)에 배치된 촬상부(200)부터 스캐닝 단계(s140)를 수행하도록 제어한다. 도 14에 따른 일례의 경우 촬상부(200) A부터 순차 이동 및 대상물(m)을 촬상한다. 이후, 제1모드에서는 제1정합단계, 제2정합단계 및 통합단계를 거쳐 형상정보를 형성한다.Referring to FIG. 14, the first mode sequentially moves the imaging unit 200 in the movement step (s134) that follows the viewpoint designation step (s133). In detail, in the first mode, the control unit moves from any one work unit 100 or any work unit 100 closest to the reference unit (a) among the plurality of work units 100, and moves the corresponding work unit 100. ) is controlled to perform the scanning step (s140) starting from the imaging unit 200 disposed in ). In the case of FIG. 14 , the imaging unit 200 sequentially moves and images the object (m) starting from A. Afterwards, in the first mode, shape information is formed through a first matching step, a second matching step, and an integration step.

제1정합단계는 복수의 촬상부(200) 중 가장 먼저 대상물(m)의 촬상을 시작한 어느 하나의 촬상부(200)에 대한 좌표정보 및 해당 촬상부(200)가 획득한 시각정보를 기반으로 좌표정보 및 시각정보를 획득하고, 연동부(330)를 통해 정합하는 것이다. 촬상부(200) A의 이동 및 촬상에 따른 대상물(m)의 시각정보 및 촬상부(200) A의 좌표정보가 단위 시간마다 획득된 후, 제1정합이 완료됨으로써 형상정보가 형성된다.The first matching step is based on the coordinate information for the one imaging unit 200 that first started capturing the object (m) among the plurality of imaging units 200 and the visual information acquired by the corresponding imaging unit 200. Coordinate information and visual information are acquired and matched through the linkage unit 330. After the visual information of the object (m) and the coordinate information of the imaging unit 200 A according to the movement and imaging of the imaging unit 200 A are acquired per unit time, the first registration is completed, thereby forming shape information.

제2정합단계는 제1정합단계에 해당하는 어느 하나의 촬상부(200)의 이동 다음 위치 이동하는 또다른 촬상부(200)에 관한 좌표정보 및 시각정보를 획득한 후 정합을 실시한다. 즉, 촬상부(200) A 다음에 위치 이동하는 촬상부(200) B를 대상으로 좌표정보 및 대상물(m)의 시각정보가 단위 시간마다 획득하고, 이를 기반으로 제2정합을 완료하여 형상정보를 형성한다.In the second matching step, matching is performed after obtaining coordinate information and visual information about another imaging unit 200 that moves to a position following the movement of one imaging unit 200 corresponding to the first matching step. In other words, coordinate information and visual information of the object (m) are acquired every unit time targeting the imaging unit 200 B, which moves next to the imaging unit 200 A, and the second registration is completed based on this to obtain shape information. forms.

통합단계는 제1정합단계 및 제2정합단계 이후에 실시되는 것으로서, 각각 정합된 형상정보를 연동부(330)를 통해 통합한다. 통합된 형상정보는 저장부(340)로 이동되고, 이후 도 10에서 선술한 제거단계(s146)가 진행된다.The integration step is performed after the first matching step and the second matching step, and each matched shape information is integrated through the linkage unit 330. The integrated shape information is moved to the storage unit 340, and then the removal step (s146) described above in FIG. 10 is performed.

도 15를 참조하면, 제2모드에서는 시점 지정단계(s133) 이후 진행되는 이동단계(s134)에서 대상물(m)이 배치된 모든 스캔영역에 대응하는 촬상부(200)가 동시 이동한다. 도 15를 일례로, 촬상부(200) A 및 촬상부(200) B는 동시에 이동을 실시한다. 이후, 복수의 촬상부(200)가 획득한 모든 좌표정보 및 시각정보는 연산부(320)로 이동하고, 연동부(330)에서 한꺼번에 정합되는 제3정합단계가 실시된다. 이를 통해, 부득이하게 복수의 촬상부(200)를 사용하여 한꺼번에 대상물(m)을 스캔할 시, 제2모드를 사용하여 보다 빠른 형상정보의 형성이 가능하다.Referring to FIG. 15, in the second mode, the imaging unit 200 corresponding to all scan areas where the object m is placed moves simultaneously in the movement step s134 that proceeds after the viewpoint designation step s133. Using Figure 15 as an example, the imaging unit 200 A and the imaging unit 200 B move simultaneously. Afterwards, all coordinate information and time information acquired by the plurality of imaging units 200 are moved to the calculation unit 320, and a third matching step is performed in which they are all matched at once in the linking unit 330. Through this, when the object (m) is inevitably scanned at once using a plurality of imaging units 200, shape information can be formed more quickly using the second mode.

제1모드를 통해 각각 형성된 형상정보의 비교가 가능하여 오류 상황을 신속히 파악할 수 있고, 제2모드를 통해 스캐닝 시간을 단축할 수 있다.Through the first mode, it is possible to compare each formed shape information, so that error situations can be quickly identified, and through the second mode, scanning time can be shortened.

도 17은 본 발명의 실시예에 따른 촬상부(200) 및 감지부(800)를 나타내는 도면이고, 도 18은 본 발명의 실시예에 따른 감지부(800)를 통한 스캐닝 과정을 나타내는 도면이다.FIG. 17 is a diagram showing the imaging unit 200 and the sensing unit 800 according to an embodiment of the present invention, and FIG. 18 is a diagram showing a scanning process through the sensing unit 800 according to an embodiment of the present invention.

감지부(800)는 식별이 어려운 이물질 등의 노이즈를 제거하기 위해 구비된다. 상세하게, 감지부(800)는 대상물(m) 및 대상물(m)의 주변 환경에 관한 촬상을 실시하고, 감지부(800)로부터 전달된 시각정보를 기반으로 제거정보를 형성함으로써, 보다 명확하고 신속한 노이즈의 제거를 유도한다. 이를 위해, 감지부(800)는 촬상부(200)와 대응되는 작업부(100)에 설치된다. 도 17을 일례로, 감지부(800)는 촬영부가 전방에 설치되는 작업부(100)의 후방에 위치할 수 있으며, 감지부(800)의 위치는 이에 한정되지 않는다. 또한, 감지부(800)는 촬상부(200)와 동일하게 3D 점군 데이터 획득을 위한 카메라 등으로 구비될 수 있다.The detection unit 800 is provided to remove noise such as foreign substances that are difficult to identify. In detail, the detection unit 800 captures images of the object m and the surrounding environment of the object m, and forms removal information based on the visual information transmitted from the detection unit 800, thereby providing clearer and Leads to rapid noise removal. For this purpose, the sensing unit 800 is installed in the working unit 100 corresponding to the imaging unit 200. 17 as an example, the sensing unit 800 may be located at the rear of the working unit 100 in which the imaging unit is installed in the front, but the location of the sensing unit 800 is not limited to this. Additionally, the sensing unit 800, like the imaging unit 200, may be equipped with a camera for acquiring 3D point cloud data.

도 18을 참조하면, 감지부(800)는 제2준비단계(s130) 이후 보정단계(s150)를 통해 제거정보의 형성을 실시한다. 보정단계(s150)는 촬영단계(s151), 수신단계(s152), 산정단계(s153), 제거정보 형성단계(s154) 및 동기화단계(s155)를 포함한다. 상기와 같은 보정단계(s150)는 선술한 스캐닝 단계(s140)와 병행될 수 있다.Referring to FIG. 18, the detection unit 800 forms removal information through a correction step (s150) after the second preparation step (s130). The correction step (s150) includes a photographing step (s151), a receiving step (s152), a calculating step (s153), a removal information forming step (s154), and a synchronization step (s155). The above correction step (s150) may be performed in parallel with the previously described scanning step (s140).

촬영단계(s151)는 촬상단계(s141)와 동일하게 수행되되, 감지부(800)가 대상물(m)을 포함한 주변 환경에 관한 촬상을 전부 실시한다. 이에 따라 형성된 시각정보는 제어부로 이동한다.The imaging step (s151) is performed in the same manner as the imaging step (s141), except that the sensing unit 800 captures all images of the surrounding environment including the object (m). The visual information formed accordingly moves to the control unit.

수신단계(s152)는 제어부가 감지부(800)를 통해 대상물(m)의 주변 환경에 관한 시각정보 및 좌표정보에 관한 정보를 제공받는 단계이다.The receiving step (s152) is a step in which the control unit receives information about visual information and coordinate information about the surrounding environment of the object (m) through the sensing unit 800.

산정단계(s153)는 선술한 획득단계(s143)와 동일하게 실시되되, 수신단계(s152)에서 제어부에 의해 전송된 일련의 정보를 기반으로 대상물(m)의 주변 환경에 관한 시각정보 및 감지부(800)의 좌표정보를 획득한다.The calculation step (s153) is performed in the same manner as the above-mentioned acquisition step (s143), except that the visual information and detection unit regarding the surrounding environment of the object (m) are based on a series of information transmitted by the control unit in the reception step (s152). Acquire coordinate information of (800).

제거정보 형성단계(s154)는 산정단계(s153) 이후 실시되며, 연동부(330)는 산정단계(s153)에서의 시각정보 및 좌표정보를 정합하여 제거정보를 형성한다. 정합에 따른 제거정보의 형성 과정은 선술한 형상정보 형성단계(s144)와 동일하며, 형상정보 형성단계(s144)와 동시에 실시되거나 미리 지정된 시간차를 두고 수행될 수도 있다.The removal information forming step (s154) is performed after the calculation step (s153), and the linkage unit 330 forms removal information by matching the time information and coordinate information in the calculation step (s153). The process of forming removal information according to matching is the same as the shape information forming step (s144) described above, and may be performed simultaneously with the shape information forming step (s144) or may be performed at a predetermined time interval.

동기화단계(s155)는 스캐닝 단계(s140)에서 저장부(340)가 저장한 초기 정보 및 제거정보를 차연산하는 것으로서, 저장부(340) 및 연동부(330)에 의해 실시된다. 상세하게, 저장부(340)는 초기 저장단계(s145)를 통해 저장된 초기 정보를 연동부(330)에 전송하고, 연동부(330)는 초기 정보 및 연산부(320)를 통해 전달된 제거정보에 관한 차연산을 실시한다. The synchronization step (s155) is a difference calculation of the initial information and removal information stored by the storage unit 340 in the scanning step (s140), and is performed by the storage unit 340 and the linking unit 330. In detail, the storage unit 340 transmits the initial information stored through the initial storage step (s145) to the linking unit 330, and the linking unit 330 transmits the initial information and the removal information transmitted through the calculation unit 320. Carry out the difference calculation.

제거정보 내 대상물(m)을 포함한 주변 환경에서 초기 정보에 포함된 대상물(m)을 제외함에 따라, 대상물(m) 만이 제거된 주변 환경에 관한 데이터가 형성된다.By excluding the object (m) included in the initial information from the surrounding environment including the object (m) in the removal information, data regarding the surrounding environment from which only the object (m) has been removed is formed.

이후, 형상정보에서 대상물(m) 만이 제거된 주변 환경에 관한 데이터에 관한 차연산을 실시함에 따라, 오직 대상물(m)에 관한 형상정보가 형성된다.Afterwards, as a difference operation is performed on data about the surrounding environment in which only the object (m) is removed from the shape information, shape information only about the object (m) is formed.

상기와 같은 감지부(800) 및 보정단계(s150)를 통해, 선술한 제거단계(s146)에서 식별되지 않은 노이즈에 관한 용이한 제거가 가능하다. 또한, 노이즈를 식별하기 위한 작업자의 선별 작업을 생략할 수 있어 번거로움을 덜 수 있다.Through the detection unit 800 and the correction step (s150) as described above, it is possible to easily remove noise that was not identified in the above-described removal step (s146). Additionally, the operator's screening process to identify noise can be omitted, thereby reducing inconvenience.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of the method or algorithm described in connection with embodiments of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. The software module may be RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Above, embodiments of the present invention have been described with reference to the attached drawings, but those skilled in the art will understand that the present invention can be implemented in other specific forms without changing its technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

m: 대상물 a: 기준부
b: 밑판부 100: 작업부
101: 제1수평이동부 102: 제2수평이동부
103: 승하강부 200: 촬상부
310: 통신부 320: 연산부
330: 연동부 340: 저장부
s110: 제1준비단계 s120: 조정단계
s130: 제2준비단계 s140: 스캐닝 단계
s150: 보정단계
m: object a: reference part
b: bottom plate part 100: working part
101: first horizontal moving part 102: second horizontal moving part
103: elevating and lowering unit 200: imaging unit
310: communication unit 320: calculation unit
330: linking unit 340: storage unit
s110: First preparation stage s120: Adjustment stage
s130: second preparation step s140: scanning step
s150: Correction stage

Claims (9)

대상물을 촬영하는 촬상부;
상기 촬영된 대상물에 관한 좌표정보 및 시각정보를 획득하고, 상기 획득한 좌표정보 및 시각정보를 대응시켜 상기 촬영된 대상물의 형상정보를 획득하는 제어부; 및
상기 획득한 대상물의 형상정보를 초기 정보로 저장하는 저장부;를 포함하고,
상기 제어부는,
미리 지정된 기준부 및 상기 촬상부의 초기 위치를 확인하고,
상기 촬상부의 이동에 따라 상기 촬상부의 좌표정보 및 상기 촬상부가 이동된 위치를 기준으로 촬영된 상기 기준부의 시각정보를 획득하며,
상기 촬상부의 좌표정보 및 획득한 상기 기준부의 시각정보를 대응시켜 상기 기준부를 대상으로 영점을 조정하고,
상기 초기 정보의 저장 이후, 상기 제어부는 미리 정해진 주기에 따라 상기 저장부에 저장된 형상정보로부터 노이즈를 제거하여 상기 저장부에 재 저장하는, 겐트리 탑재형 3D 형상 스캐닝 장치.
An imaging unit that photographs an object;
a control unit that acquires coordinate information and time information about the photographed object, and obtains shape information of the photographed object by correlating the obtained coordinate information and time information; and
It includes a storage unit that stores the shape information of the obtained object as initial information,
The control unit,
Confirm the initial position of the pre-designated reference unit and the imaging unit,
As the imaging unit moves, coordinate information of the imaging unit and visual information of the reference unit captured based on the position at which the imaging unit was moved are acquired,
Adjusting the zero point for the reference unit by matching the coordinate information of the imaging unit and the acquired visual information of the reference unit,
After storing the initial information, the control unit removes noise from the shape information stored in the storage unit at a predetermined period and re-stores it in the storage unit.
제 1 항에 있어서,
상기 제어부는,
미리 지정된 기준부 촬영 횟수에 기초하여 상기 촬상부를 미리 정해진 위치로 이동시키고,
상기 촬상부가 이동된 위치를 기준으로 상기 미리 정해진 횟수만큼 촬영된 상기 기준부의 좌표정보 및 시각정보를 획득하며,
상기 촬상부가 이동된 위치의 좌표정보에 기초하여 상기 촬영된 기준부의 상대좌표 데이터를 산출하는, 겐트리 탑재형 3D 형상 스캐닝 장치.
According to claim 1,
The control unit,
Moving the imaging unit to a predetermined position based on a predetermined number of reference unit shots,
Obtaining coordinate information and time information of the reference unit photographed a predetermined number of times based on the position to which the imaging unit was moved,
A gantry-mounted 3D shape scanning device that calculates relative coordinate data of the photographed reference unit based on coordinate information of the position where the imaging unit was moved.
제 1 항에 있어서,
상기 촬상부에 근접하여 마련된 상기 기준부의 중심에 구비된 중심부;를 더 포함하고,
상기 제어부는,
상기 기준부의 형상이 변경됨에 따라 상기 기준부의 중심에 구비된 중심부의 좌표값을 획득하고,
상기 촬상부의 좌표정보 및 상기 중심부의 시각정보를 대응시키는, 겐트리 탑재형 3D 형상 스캐닝 장치.
According to claim 1,
It further includes a center provided at the center of the reference portion provided close to the imaging portion,
The control unit,
As the shape of the reference part changes, the coordinate value of the center provided at the center of the reference part is acquired,
A gantry-mounted 3D shape scanning device that corresponds coordinate information of the imaging unit and visual information of the center.
제 1 항에 있어서,
상기 제어부는,
상기 기준부를 촬영하는 상기 촬상부의 이동 속도에 관한 정보를 획득하고,
획득한 상기 촬상부의 이동 속도에 관한 정보에 기반하여, 상기 촬상부가 상기 대상물을 촬영하도록 제어하는, 겐트리 탑재형 3D 형상 스캐닝 장치.
According to claim 1,
The control unit,
Obtaining information about the moving speed of the imaging unit that photographs the reference unit,
A gantry-mounted 3D shape scanning device that controls the imaging unit to photograph the object based on the acquired information about the moving speed of the imaging unit.
제 1 항에 있어서,
상기 촬상부는 미리 지정된 시작 좌표를 시작으로 이동하여 상기 대상물을 촬상하고,
상기 미리 지정된 시작 좌표는 영점조정이 완료된 상기 기준부의 좌표정보로부터 기설정된 거리만큼 이격되어 설정된 것을 특징으로 하는, 겐트리 탑재형 3D 형상 스캐닝 장치.
According to claim 1,
The imaging unit moves from a pre-designated starting coordinate and captures the object,
A gantry-mounted 3D shape scanning device, characterized in that the pre-designated starting coordinates are set to be spaced apart from the coordinate information of the reference unit for which zero point adjustment has been completed by a preset distance.
제 5 항에 있어서,
상기 제어부는,
미리 지정된 단위 시간마다 상기 기준부의 위치를 기준으로 결정되는 상기 촬상부의 상대좌표 정보에 대응하여, 상기 촬상부가 이동하며 촬영하는 상기 대상물의 좌표정보 및 시각정보를 획득하는, 겐트리 탑재형 3D 형상 스캐닝 장치.
According to claim 5,
The control unit,
Gantry-mounted 3D shape scanning that acquires coordinate information and visual information of the object being photographed while the imaging unit moves in response to the relative coordinate information of the imaging unit determined based on the position of the reference unit every predetermined unit time. Device.
삭제delete 삭제delete 미리 지정된 기준부 및 촬상부의 초기 위치를 확인하는 제1준비단계;
상기 촬상부가 상기 기준부를 대상으로 이동 및 촬영하고, 상기 촬상부의 좌표정보 및 상기 촬상부가 이동된 위치를 기준으로 촬영된 상기 기준부의 시각정보를 획득하며, 획득한 상기 촬상부의 좌표정보 및 상기 기준부의 시각정보를 대응시켜 상기 기준부를 대상으로 하는 영점을 조정하는 조정단계;
상기 촬상부를 미리 지정된 시작 좌표로 이동시키는 제2준비단계; 및
미리 지정된 단위 시간마다 상기 기준부를 기준으로 상기 촬상부의 상대좌표 정보를 획득하고, 상기 촬상부가 이동하며 촬영하는 대상물의 좌표정보 및 시각정보를 획득하며, 상기 대상물의 좌표정보 및 시각정보를 대응시켜 형상정보를 획득하는 스캐닝 단계;를 포함하고,
저장부에 상기 획득한 대상물의 형상정보를 초기 정보로 저장하고,
상기 초기 정보의 저장 이후, 미리 정해진 주기에 따라 상기 저장부에 저장된 형상정보로부터 노이즈를 제거하여 상기 저장부에 재 저장하는, 겐트리 탑재형 3D 형상 스캐닝 장치를 이용한 스캐닝 방법.
A first preparation step of confirming the initial positions of the pre-designated reference unit and the imaging unit;
The imaging unit moves and photographs the reference unit as a target, acquires coordinate information of the imaging unit and visual information of the reference unit photographed based on the position at which the imaging unit was moved, and obtains coordinate information of the imaging unit and the reference unit. An adjustment step of adjusting the zero point targeting the reference unit by matching visual information;
A second preparation step of moving the imaging unit to a predetermined starting coordinate; and
At each predetermined unit time, relative coordinate information of the imaging unit is acquired based on the reference unit, coordinate information and time information of the object being photographed while the imaging unit moves are acquired, and the coordinate information and time information of the object are matched to form a shape. It includes a scanning step of obtaining information,
Store the shape information of the acquired object as initial information in the storage unit,
A scanning method using a gantry-mounted 3D shape scanning device in which, after storing the initial information, noise is removed from the shape information stored in the storage unit at a predetermined period and re-stored in the storage unit.
KR1020220061805A 2022-05-20 2022-05-20 Gantry-mounted 3D shape scanning apparatus and scanning method using same KR102665372B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220061805A KR102665372B1 (en) 2022-05-20 2022-05-20 Gantry-mounted 3D shape scanning apparatus and scanning method using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220061805A KR102665372B1 (en) 2022-05-20 2022-05-20 Gantry-mounted 3D shape scanning apparatus and scanning method using same

Publications (2)

Publication Number Publication Date
KR20230162209A KR20230162209A (en) 2023-11-28
KR102665372B1 true KR102665372B1 (en) 2024-05-13

Family

ID=88957839

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220061805A KR102665372B1 (en) 2022-05-20 2022-05-20 Gantry-mounted 3D shape scanning apparatus and scanning method using same

Country Status (1)

Country Link
KR (1) KR102665372B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038590A (en) * 2004-07-26 2006-02-09 Teruaki Yogo Three-dimensional shape measuring method and its device
US20060109481A1 (en) 2004-11-23 2006-05-25 Kevin Gallup Method and apparatus for creating cavities in packaging materials for artifacts, art objects and fragile or other valuable items
US20090150108A1 (en) 2005-12-22 2009-06-11 Hexagon Metrology, Inc. Hysteresis compensation in a coordinate measurement machine
JP2017083234A (en) * 2015-10-26 2017-05-18 オムロン株式会社 Three-dimensional shape measurement device, three-dimensional shape measurement system, program, computer-readable recording medium, and three-dimensional shape measurement method
US20180374239A1 (en) 2015-11-09 2018-12-27 Cognex Corporation System and method for field calibration of a vision system imaging two opposite sides of a calibration object
US10323927B2 (en) 2017-06-22 2019-06-18 Hexagon Technology Center Gmbh Calibration of a triangulation sensor
US20200160555A1 (en) 2018-11-20 2020-05-21 Carl Zeiss Industrielle Messtechnik Gmbh Variable measuring object dependent camera setup and calibration thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100886655B1 (en) * 2007-04-10 2009-03-04 삼성중공업 주식회사 The automatic calibration method in robot based multi-laser vision system
KR20090017748A (en) * 2007-08-16 2009-02-19 삼성중공업 주식회사 Method for scanning iron plates formed round in multi lasers vision system
KR102528433B1 (en) * 2019-04-02 2023-05-02 삼성중공업 주식회사 Apparatus for manufacturing curved surface of plate using gantry mounted type camera

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038590A (en) * 2004-07-26 2006-02-09 Teruaki Yogo Three-dimensional shape measuring method and its device
US20060109481A1 (en) 2004-11-23 2006-05-25 Kevin Gallup Method and apparatus for creating cavities in packaging materials for artifacts, art objects and fragile or other valuable items
US20090150108A1 (en) 2005-12-22 2009-06-11 Hexagon Metrology, Inc. Hysteresis compensation in a coordinate measurement machine
JP2017083234A (en) * 2015-10-26 2017-05-18 オムロン株式会社 Three-dimensional shape measurement device, three-dimensional shape measurement system, program, computer-readable recording medium, and three-dimensional shape measurement method
US20180374239A1 (en) 2015-11-09 2018-12-27 Cognex Corporation System and method for field calibration of a vision system imaging two opposite sides of a calibration object
US10323927B2 (en) 2017-06-22 2019-06-18 Hexagon Technology Center Gmbh Calibration of a triangulation sensor
US20200160555A1 (en) 2018-11-20 2020-05-21 Carl Zeiss Industrielle Messtechnik Gmbh Variable measuring object dependent camera setup and calibration thereof

Also Published As

Publication number Publication date
KR20230162209A (en) 2023-11-28

Similar Documents

Publication Publication Date Title
JP6280525B2 (en) System and method for runtime determination of camera miscalibration
CN107891414B (en) Robot system
EP2543483B1 (en) Information processing apparatus and information processing method
US9604363B2 (en) Object pickup device and method for picking up object
JP4021413B2 (en) Measuring device
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
KR100693262B1 (en) Image processing apparatus
EP3421930B1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
US20160086343A1 (en) Contour line measurement apparatus and robot system
EP2444210A1 (en) Shape measuring system and shape measuring method
JP6210748B2 (en) Three-dimensional position measurement apparatus and calibration deviation determination method for three-dimensional position measurement apparatus
WO2018143263A1 (en) Photographing control device, photographing control method, and program
TW201618913A (en) Robot and robot system
EP2729060A2 (en) Calibration and transformation of a camera system's coordinate system
CN110926330B (en) Image processing apparatus, image processing method, and program
CN109489558A (en) Range Measurement System and distance measurement method
JP6621351B2 (en) Image processing apparatus and image processing method for laser processing
JP7353757B2 (en) Methods for measuring artifacts
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
JP2004239791A (en) Position measuring method by zooming
KR102665372B1 (en) Gantry-mounted 3D shape scanning apparatus and scanning method using same
JP6565367B2 (en) Position correction system
CN115239811A (en) Positioning method, system, computer and storage medium based on binocular vision detection
JP2004354320A (en) Recognition verification system for imaging object
CN116323103A (en) Calibration device and automatic setting method for calibration

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant