KR101567476B1 - Method for assembly a part using 3D sensor - Google Patents

Method for assembly a part using 3D sensor Download PDF

Info

Publication number
KR101567476B1
KR101567476B1 KR1020140122605A KR20140122605A KR101567476B1 KR 101567476 B1 KR101567476 B1 KR 101567476B1 KR 1020140122605 A KR1020140122605 A KR 1020140122605A KR 20140122605 A KR20140122605 A KR 20140122605A KR 101567476 B1 KR101567476 B1 KR 101567476B1
Authority
KR
South Korea
Prior art keywords
area
photographing
dimensional sensor
component
sensing
Prior art date
Application number
KR1020140122605A
Other languages
Korean (ko)
Inventor
이광준
Original Assignee
주식회사 디월드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디월드 filed Critical 주식회사 디월드
Priority to KR1020140122605A priority Critical patent/KR101567476B1/en
Application granted granted Critical
Publication of KR101567476B1 publication Critical patent/KR101567476B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D65/00Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23PMETAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
    • B23P19/00Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Manufacturing & Machinery (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Automatic Assembly (AREA)

Abstract

The present invention provides a part assembling method using a three-dimensional sensor, checking an assembling process of a part by detecting the movement of a worker assembling the part through the three-dimensional sensor. The part assembling method comprises: a first photographing step; a first detecting step; a second photographing step; a first position checking step; a third photographing step; a second detecting step; a fourth photographing step; a second position checking step; and a position determining step. In the first photographing step, a first area is photographed before the part is extracted from the first area. The worker entering the first area is detected using the three-dimensional sensor to extract the part from the first area in the first detecting step. In the second photographing step, a signal detected in the first detecting step is received, and the first area is photographed after the part is extracted from the first area. In the first position checking step, a position of the part extracted from the first area is checked by comparing an image photographed in the first photographing step with an image photographed in the second photographing step. In the third photographing step, a second area is photographed before the part is arranged in the second area. In the second detecting step, the worker entering the second area is detected using the three-dimensional sensor to arrange the part in the second area. In the fourth photographing step, a signal detected in the second detecting step is received, and the second area is photographed after the part is arranged in the second area. In the second position checking step, a position of the part arranged in the second area is confirmed by comparing an image photographed in the third photographing step with an image photographed in the fourth photographing step. In the position determining step, whether the position checked in the first position checking step corresponds to the position checked in the second position checking step is determined.

Description

삼차원 센서를 이용한 부품 조립방법{ Method for assembly a part using 3D sensor}TECHNICAL FIELD [0001] The present invention relates to a component assembly method using a three-dimensional sensor,

본 발명은 삼차원 센서를 이용한 부품 조립방법에 관한 것으로서, 보다 상세하게는 삼차원 센서를 통해 부품을 조립하는 작업자의 움직임을 감지하여 부품의 조립 공정을 확인하는 삼차원 센서를 이용한 부품 조립방법에 관한 것이다.The present invention relates to a method of assembling parts using a three-dimensional sensor, and more particularly, to a method of assembling parts using a three-dimensional sensor that senses the movement of an operator assembling a part through a three-dimensional sensor and confirms the assembling process of the part.

일반적으로, 자동차, 로봇 등과 같은 제품을 제작하기 위하여 수많은 부품이 필요하다. 위와 같은 제품들을 제작하기 위하여 부품을 조립하는 공정이 필요한데 부품을 조립하는 공정 중에서 부품의 조립 상태 등을 확인하는 과정이 필요하다.In general, a number of components are required to manufacture products such as automobiles, robots, and the like. In order to manufacture the above products, it is necessary to assemble the parts, and it is necessary to confirm the assembly state of the parts in the process of assembling the parts.

그러나, 자동차, 로봇 등과 같은 제품을 조립하는 공정에는 수많은 부품이 사용되기 때문에 부품의 상태나 부품이 정확하게 조립되었는지 여부를 작업자가 일일이 확인하기 어렵다.However, since a large number of parts are used in assembling products such as automobiles, robots, etc., it is difficult for the operator to check individually whether the state of the parts or the parts are correctly assembled.

종래에는, 부품의 조립 상태를 확인하기 위하여 2D 센서를 이용하여 작업자의 신체를 감지하면서 작업자의 동작 여부에 따라 부품의 조립 상태를 판단했다. 그러나, 2D 센서는 작업자의 정확한 신체 위치를 감지할 수 없어 2D 센서를 이용하여 작업자의 움직임을 감지하는데 한계가 있다.Conventionally, in order to confirm the assembled state of parts, a 2D sensor was used to sense the body of the worker and to judge the assembled state of the part according to whether the worker is operating. However, the 2D sensor can not detect the accurate body position of the worker, so there is a limitation in detecting the movement of the worker using the 2D sensor.

이와 같이, 자동차 또는 로봇 등과 같은 제품을 조립하는 과정에서 조립 상태를 확인하지 않으면 여러 가지 문제가 발생한다.As described above, various problems arise if the assembled state is not confirmed during the assembly of a product such as an automobile or a robot.

우선, 부품의 조립을 정확하게 하지 않으면 부품을 재조립하기 위하여 조립된 부품을 해체해야되기 때문에 공정 효율이 저하되는 문제가 있다. 또한, 잘못 조립된 제품을 사용하면 제품이 작동되지 않는 경우가 발생할 수 있고, 특히, 자동차 같은 경우 잘못된 조립으로 부품이 분해되어 사고가 발생하는 등 큰 사고로 이어질 수 있는 문제가 있다.First, unless the parts are assembled accurately, the assembled parts must be disassembled in order to reassemble the parts. In addition, there is a problem that a product may not be operated if a wrongly assembled product is used, and in particular, in the case of an automobile, a component may be disassembled due to erroneous assembly, leading to a serious accident such as an accident.

따라서, 본 발명이 해결하고자 하는 과제는 이와 같은 종래의 문제점을 해결하기 위한 것으로서, 삼차원 센서를 통해 작업자의 동작에 따른 움직임을 감지하여 작업자에 의해 수행되는 부품 조립 공정을 확인함으로써, 부품의 조립 불량을 방지하며 공정 효율을 증가시킬 수 있는 삼차원 센서를 이용한 부품 조립방법을 제공함에 있다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art, and it is an object of the present invention to provide a three-dimensional sensor capable of detecting a movement of an operator, And a method of assembling parts using a three-dimensional sensor capable of increasing process efficiency.

상기와 같은 목적을 달성하기 위하여 본 발명의 삼차원 센서를 이용한 부품 조립방법은, 부품이 제1영역에서 추출되기 전 상기 제1영역을 촬영하는 제1촬영단계; 상기 부품을 상기 제1영역에서 추출하기 위하여, 상기 제1영역으로 진입하는 작업자를 삼차원 센서를 이용하여 감지하는 제1감지단계; 상기 제1감지단계에서 감지된 신호를 입력받아, 상기 부품이 상기 제1영역에서 추출된 후 상기 제1영역을 촬영하는 제2촬영단계; 상기 제1촬영단계에서 촬영된 영상과 상기 제2촬영단계에서 촬영된 영상을 비교하여, 상기 제1영역에서 추출된 부품의 위치를 확인하는 제1위치확인단계; 상기 부품이 제2영역에 배치되기 전 상기 제2영역을 촬영하는 제3촬영단계; 상기 부품을 상기 제2영역에 배치하기 위하여, 상기 제2영역으로 진입하는 작업자를 상기 삼차원 센서를 이용하여 감지하는 제2감지단계; 상기 제2감지단계에서 감지된 신호를 입력받아, 상기 부품이 상기 제2영역에 배치된 후 상기 제2영역을 촬영하는 제4촬영단계; 상기 제3촬영단계에서 촬영된 영상과 상기 제4촬영단계에서 촬영된 영상을 비교하여, 상기 제2영역에 배치된 부품의 위치를 확인하는 제2위치확인단계; 및 상기 제1위치확인단계에서 확인된 위치와 상기 제2위치확인단계에서 확인된 위치가 서로 대응하는지 판단하는 위치판단단계;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of assembling parts using a three-dimensional sensor, comprising: a first photographing step of photographing the first area before a part is extracted in a first area; A first sensing step of sensing, using a three-dimensional sensor, an operator entering the first area to extract the part from the first area; A second photographing step of taking a signal sensed in the first sensing step and photographing the first area after the component is extracted in the first area; A first position checking step of comparing the image photographed in the first photographing step and the image photographed in the second photographing step to check the position of the part extracted in the first area; A third photographing step of photographing the second area before the component is placed in the second area; A second sensing step of sensing, using the three-dimensional sensor, an operator entering the second area to place the part in the second area; A fourth photographing step of receiving a signal sensed in the second sensing step and photographing the second area after the component is arranged in the second area; A second position checking step of comparing the image photographed in the third photographing step with the image photographed in the fourth photographing step and confirming the position of the parts arranged in the second area; And a position determining step of determining whether the position identified in the first positioning step and the position identified in the second positioning step correspond to each other.

본 발명에 따른 삼차원 센서를 이용한 부품 조립방법에 있어서, 구체적으로는, 상기 부품이 상기 제1영역에서 상기 제2영역으로 이동되는 동안, 상기 삼차원 센서를 통해 상기 작업자의 신체 부위의 상대적인 움직임을 감지하여 상기 작업자가 상기 부품의 조립 상태를 확인하는지 여부를 판단하는 상태판단단계;를 포함한다.In the method of assembling a part using a three-dimensional sensor according to the present invention, it is possible to detect the relative movement of the body part of the worker through the three-dimensional sensor while the part moves from the first area to the second area And determining whether the operator confirms the assembled state of the component.

본 발명에 따른 삼차원 센서를 이용한 부품 조립방법에 있어서, 구체적으로는, 상기 부품은, 제1부재와, 상기 제1부재에 회동 가능하게 결합되는 제2부재를 포함하고, 상기 상태판단단계는, 상기 삼차원 센서를 통해 상기 작업자의 한 팔이 고정되고 상기 작업자의 다른 팔이 움직이는지 여부를 감지함으로써, 상기 작업자가 상기 제1부재에 대하여 상기 제2부재의 회동 상태를 확인하는지 여부를 판단한다.In the method of assembling a part using a three-dimensional sensor according to the present invention, specifically, the component includes a first member and a second member rotatably coupled to the first member, The operator determines whether the operator confirms the turning state of the second member with respect to the first member by detecting whether the one arm of the operator is fixed and the other arm of the operator is moving through the three-dimensional sensor.

본 발명에 따른 삼차원 센서를 이용한 부품 조립방법에 있어서, 구체적으로는, 상기 부품은, 제1부재와, 상기 제1부재에 서로 다른 방향으로 결합되는 복수의 제2부재를 포함하고, 상기 상태판단단계는, 상기 삼차원 센서를 통해 상기 작업자의 머리와 손 사이의 거리를 감지함으로써, 상기 작업자가 상기 제1부재에 대하여 상기 제2부재의 결합 방향을 확인하는지 여부를 판단한다.In the method of assembling a component using a three-dimensional sensor according to the present invention, the component may include a first member and a plurality of second members coupled to the first member in different directions, The step of determining whether the operator confirms the direction of engagement of the second member with respect to the first member by sensing the distance between the head and the hand of the operator via the three-dimensional sensor.

삭제delete

삭제delete

본 발명의 삼차원 센서를 이용한 부품 조립방법에 따르면, 작업자의 동작에 따른 정확한 움직임을 파악할 수 있다.According to the method of assembling parts using the three-dimensional sensor of the present invention, it is possible to grasp the accurate movement according to the operation of the operator.

또한, 본 발명의 삼차원 센서를 이용한 부품 조립방법에 따르면, 부품이 잘못 조립되는 것을 방지하여 조립 공정의 효율을 증가시킬 수 있다.Further, according to the component assembly method using the three-dimensional sensor of the present invention, it is possible to prevent the components from being assembled incorrectly, thereby increasing the efficiency of the assembly process.

또한, 본 발명의 삼차원 센서를 이용한 부품 조립방법에 따르면, 부품의 불량 상태를 확인할 수 있어 불량 부품으로 조립되는 것을 방지할 수 있다.Further, according to the component assembly method using the three-dimensional sensor of the present invention, it is possible to check the defective state of the component, and it is possible to prevent the defective component from being assembled with the defective component.

또한, 본 발명의 삼차원 센서를 이용한 부품 조립방법에 따르면, 부품 조립과정에서 어느 하나의 부품이 탈락 되어 조립되는 것을 방지할 수 있고, 조립되는 부품이 정확한 위치에 결합되어 조립되도록 할 수 있다.In addition, according to the method of assembling parts using the three-dimensional sensor of the present invention, it is possible to prevent one of the parts from being assembled and assembled in the course of assembling parts, and the assembled parts can be assembled at the correct positions.

도 1은 본 발명의 일 실시예에 따른 삼차원 센서를 이용한 부품 조립방법의 순서를 도시한 도면이고,
도 2는 도 1의 삼차원 센서를 이용한 부품 조립방법에서 제1영역과 제2영역에 배치되는 부품의 위치를 도시한 도면이고,
도 3은 도 1의 삼차원 센서를 이용한 부품 조립방법에서 부품의 회동 상태를 확인하는지 여부를 판단하는 것을 도시한 도면이고,
도 4는 도 1의 삼차원 센서를 이용한 부품 조립방법에서 부품의 결합 방향을 확인하는지 여부를 판단하는 것을 도시한 도면이고,
도 5는 본 발명의 다른 실시예에 따른 삼차원 센서를 이용한 부품 조립방법의 순서를 도시한 도면이고,
도 6은 도 5의 삼차원 센서를 이용한 부품 조립방법에서 제1부품과 제2부품의 조립 상태를 도시한 도면이고,
도 7은 도 5의 삼차원 센서를 이용한 부품 조립방법에서 제1부품과 제2부품의 잘못 조립된 상태를 도시한 도면이다.
1 is a diagram illustrating a procedure of a component assembly method using a three-dimensional sensor according to an embodiment of the present invention,
FIG. 2 is a view showing positions of parts arranged in the first area and the second area in the method of assembling parts using the three-dimensional sensor of FIG. 1,
FIG. 3 is a view showing the determination of whether or not the turning state of the parts is confirmed in the method of assembling parts using the three-dimensional sensor of FIG. 1,
FIG. 4 is a view showing the determination of whether or not to confirm the direction of engagement of parts in the method of assembling parts using the three-dimensional sensor of FIG. 1,
5 is a view illustrating a procedure of a component assembly method using a three-dimensional sensor according to another embodiment of the present invention,
FIG. 6 is a view showing an assembled state of the first part and the second part in the method of assembling parts using the three-dimensional sensor of FIG. 5,
FIG. 7 is a view showing a mis assembled state of the first part and the second part in the method of assembling parts using the three-dimensional sensor of FIG. 5;

이하, 본 발명에 따른 삼차원 센서를 이용한 부품 조립방법의 실시예들을 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments of a component assembly method using a three-dimensional sensor according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 삼차원 센서를 이용한 부품 조립방법의 순서를 도시한 도면이고, 도 2는 도 1의 삼차원 센서를 이용한 부품 조립방법에서 제1영역과 제2영역에 배치되는 부품의 위치를 도시한 도면이고, 도 3은 도 1의 삼차원 센서를 이용한 부품 조립방법에서 부품의 회동 상태를 확인하는지 여부를 판단하는 것을 도시한 도면이고, 도 4는 도 1의 삼차원 센서를 이용한 부품 조립방법에서 부품의 결합 방향을 확인하는지 여부를 판단하는 것을 도시한 도면이다.FIG. 1 is a diagram illustrating a procedure of a component assembly method using a three-dimensional sensor according to an embodiment of the present invention. FIG. 2 is a schematic view of a component assembly method using the three- FIG. 3 is a view showing how to confirm the turning state of the parts in the method of assembling parts using the three-dimensional sensor of FIG. 1, and FIG. 4 is a view And determining whether or not to confirm the joining direction of the parts in the component assembly method.

도 1 내지 도 4를 참조하면, 본 실시예에 따른 삼차원 센서를 이용한 부품 조립방법은 삼차원 센서를 통해 부품을 조립하는 작업자의 움직임을 감지하여 부품의 조립 공정을 확인하는 것으로서, 제1촬영단계(S110)와, 제1감지단계(S120)와, 제2촬영단계(S130)와, 제1위치확인단계(S140)와, 제3촬영단계(S150)와, 제2감지단계(S160)와, 제4촬영단계(S170)와, 제2위치확인단계(S180)와, 위치판단단계(S190)와, 상태판단단계를 포함한다.Referring to FIGS. 1 to 4, a method for assembling parts using a three-dimensional sensor according to an embodiment of the present invention includes sensing a movement of an operator assembling a part through a three-dimensional sensor, The first sensing step S120, the second sensing step S130, the first positioning step S140, the third sensing step S150, the second sensing step S160, A fourth photographing step S170, a second position checking step S180, a position determining step S190, and a state determining step.

상기 제1촬영단계(S110)는 부품(10)이 제1영역(A)에서 추출되기 전 제1영역(A)을 촬영한다.The first photographing step S110 photographs the first area A before the part 10 is extracted from the first area A. [

도 2의 (a)를 참조하면, 제1영역(A)에는 제1부품(10a), 제2부품(10b), 제3부품(10c)이 배치되지만 제1영역(A)에 배치되는 부품(10)의 수는 필요에 따라 다양하게 변할 수 있다.2 (a), the first part 10a, the second part 10b and the third part 10c are disposed in the first area A, (10) may vary as needed.

이때, 제1영역(A)의 부품(10)을 촬영하는 촬영수단(120)으로는 일정 영역을 촬영할 수 있는 에어리어 카메라가 이용될 수 있으며, 제1영역(A)을 커버할 수 있는 정도의 시야 범위(FOV, Field Of View)를 가진 카메라를 사용하는 것이 바람직하다.An area camera capable of photographing a predetermined area may be used as the photographing unit 120 for photographing the part 10 of the first area A and may be an area camera capable of covering the first area A It is desirable to use a camera with a field of view (FOV).

상기 제1감지단계(S120)는 부품(10)을 제1영역(A)에서 제2영역(B)으로 추출하기 위하여, 제1영역(A)으로 진입하는 작업자를 삼차원 센서(110)를 이용하여 감지한다. 예를 들어, 제1부품(10a)을 추출하기 위하여 제1영역(A)으로 진입하는 작업자의 신체 중 일부인 팔, 다리, 머리 등을 감지할 수 있다.The first sensing step S120 is a step of sensing an operator entering the first area A by using the three-dimensional sensor 110 to extract the part 10 from the first area A to the second area B . For example, an arm, a leg, a head, etc., which are part of the body of the worker entering the first area A, can be detected to extract the first part 10a.

여기서, 삼차원 센서(110)는 컨트롤러 없이 작업자의 골격에 따라 작업자의 동작을 인식할 수 있는 키넥트(Kinect)가 이용될 수 있다. 삼차원 센서(110)를 이용하여 작업자의 움직임을 감지함으로써, 작업자의 동작에 따른 정확한 움직임을 파악할 수 있다.Here, the three-dimensional sensor 110 may be a Kinect that can recognize the operation of the operator according to the skeleton of the operator without a controller. By sensing the movement of the operator using the three-dimensional sensor 110, accurate movement according to the movement of the operator can be grasped.

상기 제2촬영단계(S130)는 제1감지단계(S120)에서 감지된 신호를 입력받아, 부품(10)이 제1영역(A)에서 추출된 후 제1영역(A)을 촬영한다.The second photographing step S130 receives the signal sensed in the first sensing step S120 and photographs the first area A after the component 10 is extracted from the first area A. [

여기서, 감지된 신호란 작업자가 제1영역(A)에서 제1부품(10a)을 추출하기 위하여 제1영역(A)으로 진입하는 작업자의 신체 중 일부인 팔, 다리, 머리 등이 감지되면, 제1영역(A)에서 작업자가 제1부품(10a)을 추출했다는 신호이다. 위와 같이, 감지된 신호를 통하여 제1영역(A)에서 제1부품(10a)이 추출된 것을 알 수 있고, 감지된 신호를 입력받아 제1영역(A)을 촬영한다.Here, the sensed signal means that when an operator's arms, legs, hair, etc., which are part of the body of the worker entering the first region A, are extracted for extracting the first component 10a from the first region A, Is a signal that the operator has extracted the first component 10a in the first region A of FIG. As described above, it can be seen that the first part 10a is extracted from the first area A through the sensed signal, and the first area A is photographed by receiving the sensed signal.

도 2의 (b)를 참조하면, 제1영역(A)에서 제1부품(10a)이 추출된 위치와, 제2영역(B)에서 제1부품(10a)이 배치된 위치를 알 수 있다. 여기서, 제2촬영단계(S130)는 제1영역(A)에서 제1부품(10a)이 추출된 후, 제1영역(A)을 촬영한다.Referring to FIG. 2B, the position where the first part 10a is extracted in the first area A and the position where the first part 10a is disposed in the second area B can be known . Here, the second photographing step S130 photographs the first area A after the first part 10a is extracted in the first area A.

상기 제1위치확인단계(S140)는 제1촬영단계(S110)에서 촬영된 영상과 제2촬영단계(S130)에서 촬영된 영상을 비교하여, 제1영역(A)에서 추출된 부품(10)의 위치를 확인한다.The first position determining step S140 compares the image photographed in the first photographing step S110 with the image photographed in the second photographing step S130 to determine whether the component 10 extracted from the first area A, .

도 2의 (a)를 참조하면, 제1촬영단계(S110)에서 촬영된 영상은 제1부품(10a)이 제1영역(A)에서 제2영역(B)으로 이동되기 전, 제1부품(10a)이 배치된 상태의 제1영역(A)을 촬영한 영상이다. 그리고, 도 2의 (b)를 참조하면, 제2촬영단계(S130)에서 촬영된 영상은 제1부품(10a)이 제1영역(A)에서 제2영역(B)으로 이동된 후, 제1부품(10a)이 추출된 상태의 제1영역(A)을 촬영한 영상이다.Referring to FIG. 2A, the image photographed in the first photographing step S110 is displayed on the first area 10a before the first part 10a is moved from the first area A to the second area B, (A) in a state where the first area (10a) is arranged. Referring to FIG. 2B, after the first part 10a is moved from the first area A to the second area B, the image photographed in the second photographing step S130 1 is an image of the first area A in which the one part 10a is extracted.

즉, 제1촬영단계(S110)에서 촬영된 영상과 제2촬영단계(S130)에서 촬영된 영상을 비교하여 제1영역(A)에서 제1부품(10a)의 추출 여부를 확인하고, 추출된 제1부품(10a)의 위치를 확인한다.That is, it is checked whether the first part 10a is extracted in the first area A by comparing the image photographed in the first photographing step S110 with the image photographed in the second photographing step S130, The position of the first component 10a is confirmed.

그리고, 제1부품(10a)의 추출 여부를 확인한 후, 제1부품(10a)이 추출되지 않은 경우 알람을 통하여 작업자에게 알린다.After confirming whether or not the first part 10a is extracted, if the first part 10a is not extracted, the operator is informed via the alarm.

상기 제3촬영단계(S150)는 부품(10)이 제1영역(A)에서 제2영역(B)으로 이동되기 전 제2영역(B)을 촬영한다. 구체적으로, 제2영역(B)에 제1부품(10a)이 배치되지 않은 상태를 촬영한다.The third photographing step S150 photographs the second area B before the part 10 is moved from the first area A to the second area B. [ Specifically, a state in which the first part 10a is not disposed in the second area B is photographed.

상기 제2감지단계(S160)는 부품(10)을 제2영역(B)에 배치하기 위하여, 제2영역(B)으로 진입하는 작업자를 삼차원 센서(110)를 이용하여 감지한다. 예를 들어, 작업자의 신체 중 일부인 팔, 다리, 머리 등을 감지할 수 있다.The second sensing step S160 senses an operator entering the second area B by using the three-dimensional sensor 110 in order to place the part 10 in the second area B. For example, it can detect arms, legs, head, etc., which are part of the body of the worker.

상기 제4촬영단계(S170)는 제2감지단계(S160)에서 감지된 신호를 입력받아, 부품(10)이 제2영역(B)에 배치된 후 제2영역(B)을 촬영한다.The fourth photographing step S170 receives the signal sensed in the second sensing step S160 and photographs the second area B after the component 10 is disposed in the second area B. [

여기서, 감지된 신호란, 작업자가 제2영역(B)으로 제1부품(10a)을 배치하기 위하여 제2영역(B)으로 진입하는 작업자의 신체 중 일부인 팔, 다리, 머리 등이 감지되면, 제2영역(B)으로 제1부품(10a)을 배치했다는 신호이다. 위와 같이, 감지된 신호를 통하여 제2영역(B)으로 제1부품(10a)이 배치된 것을 알 수 있고, 감지된 신호를 입력받아 제2영역(B)을 촬영한다.Here, the sensed signal means that when an operator's arms, legs, head, etc., which are part of the body of the worker entering the second region B to detect the placement of the first component 10a in the second region B are detected, And that the first part 10a is arranged in the second area B. [ As described above, it can be seen that the first part 10a is arranged in the second area B through the sensed signal, and the second area B is photographed by receiving the sensed signal.

도 2의 (b)를 참조하면, 제1영역(A)에서 제1부품(10a)이 추출된 위치와, 제2영역(B)에서 제1부품(10a)이 배치된 위치를 알 수 있다. 여기서, 제4촬영단계(S170)는 제2영역(B)에서 제1부품(10a)이 배치된 후, 제2영역(B)을 촬영한다.Referring to FIG. 2B, the position where the first part 10a is extracted in the first area A and the position where the first part 10a is disposed in the second area B can be known . Here, the fourth photographing step S170 photographs the second area B after the first part 10a is disposed in the second area B.

상기 제2위치확인단계(S180)는 제3촬영단계(S150)에서 촬영된 영상과 제4촬영단계(S170)에서 촬영된 영상을 비교하여, 제2영역(B)에 배치된 부품(10)의 위치를 확인한다.The second position determining step S180 compares the image photographed in the third photographing step S150 with the image photographed in the fourth photographing step S170 to determine whether the component 10 disposed in the second area B .

도 2의 (a)를 참조하면, 제3촬영단계(S150)에서 촬영된 영상은 제1영역(A)에서 제2영역(B)으로 제1부품(10a)이 이동되기 전, 제1부품(10a)이 배치되지 않은 상태의 제2영역(B)을 촬영한 영상이다. 도 2의 (b)를 참조하면, 제4촬영단계(S170)에서 촬영된 영상은 제1영역(A)에서 제2영역(B)으로 제1부품(10a)이 이동된 후, 제1부품(10a)이 배치된 상태의 제2영역(B)을 촬영한 영상이다.2 (a), the image photographed in the third photographing operation S150 is displayed before the first component 10a is moved from the first area A to the second area B, (B) in a state in which the first area (10a) is not disposed. Referring to FIG. 2B, after the first part 10a is moved from the first area A to the second area B in the image photographed in the fourth photographing step S170, (B) in a state in which the first region (10a) is arranged.

즉, 제3촬영단계(S150)에서 촬영된 영상과 제4촬영단계(S170)에서 촬영된 영상을 비교하여 제2영역(B)에서 제1부품(10a)의 배치 여부를 확인하고, 배치된 제1부품(10a)의 위치를 확인한다.That is, it is checked whether the first part 10a is arranged in the second area B by comparing the image photographed in the third photographing step S150 with the image photographed in the fourth photographing step S170, The position of the first component 10a is confirmed.

그리고, 제1부품(10a)의 배치 여부를 확인한 후, 제1부품(10a)이 제2영역(B)에 제대로 배치되지 않은 경우 알람을 통하여 작업자에게 알린다.After confirming whether or not the first part 10a is arranged, if the first part 10a is not properly positioned in the second area B, the operator is informed via the alarm.

상기 위치판단단계(S190)는 제1위치확인단계(S140)에서 확인된 위치(P1)와 제2위치확인단계(S180)에서 확인된 위치(P1')가 서로 대응하는지 판단한다.The position determining step S190 determines whether the position P1 identified in the first positioning step S140 corresponds to the position P1 'determined in the second positioning step S180.

구체적으로, 제1촬영단계(S110)에서 촬영된 영상과 제2촬영단계(S130)에서 촬영된 영상을 비교하여 확인된 위치(P1)와, 제3촬영단계(S150)에서 촬영된 영상과 제4촬영단계(S170)에서 촬영된 영상을 비교하여 확인된 위치(P1')가 서로 동일한지 판단한다. Specifically, the position P1 detected by comparing the image photographed in the first photographing step S110 with the image photographed in the second photographing step S130, the position P1 photographed in the third photographing step S150, In the fourth photographing step S170, the photographed images are compared to determine whether the identified positions P1 'are identical to each other.

그리고, 제1위치확인단계(S140)에서 확인된 위치(P1)와 제2위치확인단계(S180)에서 확인된 위치(P1')를 비교하여, 두 위치가 동일하지 않은 경우 알람을 통하여 작업자에게 알린다.If the two positions are not identical to each other, the position P1 determined in the first position determining step S140 is compared with the position P1 'confirmed in the second position confirming step S180. It informs.

조립되는 부품(10)이 정확한 위치에 배치되도록 판단함으로써, 부품(10)이 잘못 조립되는 것을 방지하여 조립 공정의 효율을 증가시킬 수 있다.By determining that the part to be assembled 10 is located at the correct position, it is possible to prevent the part 10 from being assembled incorrectly, thereby increasing the efficiency of the assembling process.

상기 상태판단단계는 부품(10)이 제1영역(A)에서 제2영역(B)으로 이동되는 동안, 삼차원 센서(110)를 통해 작업자(1)의 신체 부위의 상대적인 움직임을 감지하여 작업자(1)가 부품(10)의 조립 상태를 확인하는지 여부를 판단한다.The state determination step may detect the relative movement of the body part of the worker 1 through the three-dimensional sensor 110 while the part 10 is moving from the first area A to the second area B, 1 confirms the assembled state of the component 10.

본 실시예에서, 상태판단단계는 삼차원 센서(110)를 통해 작업자(1)의 한 팔(1a)이 고정되고 작업자(1)의 다른 팔(1b)이 움직이는지 여부를 감지함으로써, 작업자(1)가 제1부재(11)에 대하여 제2부재(12)의 회동 상태를 확인하는지 여부를 판단한다. In this embodiment, the state determination step determines whether or not one arm 1a of the worker 1 is fixed and the other arm 1b of the worker 1 is moving through the three-dimensional sensor 110, ) Confirms the turning state of the second member (12) with respect to the first member (11).

도 3의 (a)를 참조하면, 부품은, 제1부재(11)와, 제1부재(11)에 회동 가능하게 결합되는 제2부재(12)로 이루어진다. 예를 들어, 제1부재(11)는 피스톤 헤드이고 제2부재(12)는 피스톤 헤드에 회동 가능하게 결합되는 암이다.Referring to Fig. 3 (a), the component is composed of a first member 11 and a second member 12 rotatably coupled to the first member 11. For example, the first member 11 is a piston head and the second member 12 is an arm rotatably coupled to the piston head.

도 3의 (b)를 참조하면, 작업자(1)가 한 팔(1a)로 제1부재(11)를 고정시키고 다른 한 팔(1b)로 제1부재(11)에 결합되는 제2부재(12)를 회동시키면 삼차원 센서(110)가 작업자(1)의 움직임을 감지하여 제1부재(11)에 대하여 제2부재(12)의 회동 상태를 확인하는지 여부를 판단한다. 여기서, 삼차원 센서(110)는 작업자(1)의 신체를 관절 단위로 감지할 수 있기 때문에, 작업자(1)의 신체 구조를 골격 구조로 변환하여 표시할 수 있다.3 (b), a worker 1 fixes a first member 11 to one arm 1a and a second member 11b which is coupled to the first member 11 with another arm 1b The three-dimensional sensor 110 senses the movement of the worker 1 and determines whether or not the rotation of the second member 12 with respect to the first member 11 is confirmed. Here, since the three-dimensional sensor 110 can sense the body of the worker 1 on a joint basis, the body structure of the worker 1 can be converted into a skeletal structure and displayed.

한편, 상태판단단계는 삼차원 센서(110)를 통해 작업자(1)의 머리(1c)와 손(1d) 사이의 거리(d)를 감지함으로써, 작업자(1)가 제1부재(11')에 대하여 제2부재(12', 13')의 결합 방향을 확인하는지 여부를 판단할 수도 있다.In the state determining step, the operator 1 senses the distance d between the head 1c and the hand 1d of the worker 1 via the three-dimensional sensor 110, , It may be determined whether or not the direction of engagement of the second member 12 ', 13' is confirmed.

도 4의 (a)를 참조하면, 부품(10')은, 제1부재(11')와, 제1부재(11')에 서로 다른 방향으로 결합되는 복수의 제2부재(12', 13')를 포함한다. 예를 들어, 제1부재(11')가 피스톤이고 제2부재(12', 13')가 피스톤 링이라면, 피스톤 링은 개방된 부분이 서로 반대 방향을 향하도록 피스톤에 결합되어야 한다.4 (a), the component 10 'includes a first member 11' and a plurality of second members 12 ', 13' coupled in different directions to the first member 11 ' '). For example, if the first member 11 'is a piston and the second member 12', 13 'is a piston ring, then the piston ring must be coupled to the piston such that the open portions are opposite to each other.

도 4의 (b)를 참조하면, 작업자(1)의 머리(1c)와 손(1d) 사이의 거리(d)가 일정 거리만큼 가까워지면 삼차원 센서(110)가 작업자(1)의 움직임을 감지하여 제1부재(11')에 대하여 제2부재(11', 12')의 결합 방향을 확인하는지 여부를 판단한다.Referring to FIG. 4B, when the distance d between the head 1c and the hand 1d of the worker 1 approaches a certain distance, the three-dimensional sensor 110 detects the movement of the worker 1 To determine whether or not the direction of engagement of the second member 11 ', 12' with respect to the first member 11 'is confirmed.

따라서, 작업자(1)가 부품(10)의 회동 여부 및 결합 방향을 확인하는지 여부를 삼차원 센서(110)를 이용하여 판단함으로써, 부품(10)의 불량 상태를 확인할 수 있어 불량 부품으로 조립되는 것을 방지할 수 있다.Therefore, whether or not the worker 1 confirms whether or not the part 10 is rotated and the direction in which the part 10 is rotated can be determined by using the three-dimensional sensor 110, so that the defective state of the part 10 can be confirmed, .

제2부품(10b), 제3부품(10c) 또한 위의 공정을 반복하는 조립 과정이 진행될 수 있다. 제2부품(10b), 제3부품(10c)에 대한 조립 과정은 제1부품(10a)에 대한 조립 과정과 동일하므로 구체적인 설명은 생략한다.The second component 10b, and the third component 10c may also be subjected to an assembling process in which the above process is repeated. The assembling process for the second part 10b and the third part 10c is the same as the assembling process for the first part 10a, so a detailed description thereof will be omitted.

한편, 도 5 내지 도 7을 참조하여 본 발명의 다른 실시예에 따른 삼차원 센서를 이용한 부품 조립방법을 설명한다.5 to 7, a method for assembling parts using a three-dimensional sensor according to another embodiment of the present invention will be described.

도 5는 본 발명의 다른 실시예에 따른 삼차원 센서를 이용한 부품 조립방법의 순서를 도시한 도면이고, 도 6은 도 5의 삼차원 센서를 이용한 부품 조립방법에서 제1부품과 제2부품의 조립 상태를 도시한 도면이고, 도 7은 도 5의 삼차원 센서를 이용한 부품 조립방법에서 제1부품과 제2부품의 잘못 조립된 상태를 도시한 도면이다.FIG. 5 is a view showing a procedure of a method of assembling a part using a three-dimensional sensor according to another embodiment of the present invention, FIG. 6 is a view showing a assembled state of a first part and a second part in a method of assembling parts using the three- And FIG. 7 is a view showing a misassembled state of the first part and the second part in the method of assembling parts using the three-dimensional sensor of FIG.

도 5 내지 도 7을 참조하면, 본 발명의 다른 실시예에 따른 삼차원 센서를 이용한 부품 조립방법은 제1감지단계(S210)와, 제1촬영단계(S220)와, 제1조립판단단계(S230)와, 제2감지단계(S240)와, 제2촬영단계(S250)와, 제2조립판단단계(S260)를 포함한다.5 to 7, a method of assembling a component using a three-dimensional sensor according to another embodiment of the present invention includes a first sensing step S210, a first sensing step S220, a first assembly determination step S230 A second sensing step S240, a second sensing step S250, and a second sensing determination step S260.

상기 제1감지단계(S210)는 제1영역(a)에 배치된 제1부품(21)을 추출하기 위하여 제1영역(a)으로 진입하는 작업자를 삼차원 센서(110)를 이용하여 감지한다. 예를 들어, 제1부품(21)을 추출하기 위하여 제1영역(a)으로 진입하는 작업자의 신체 중 일부인 팔, 다리, 머리 등을 감지할 수 있다.The first sensing step S210 senses an operator entering the first region a using the three-dimensional sensor 110 to extract the first component 21 disposed in the first region a. For example, an arm, a leg, a head, etc., which are part of the body of the worker entering the first region (a) can be sensed to extract the first part 21.

여기서, 삼차원 센서(110)는 컨트롤러 없이 작업자의 골격에 따라 작업자의 동작을 인식할 수 있는 키넥트(Kinect)가 이용될 수 있다.Here, the three-dimensional sensor 110 may be a Kinect that can recognize the operation of the operator according to the skeleton of the operator without a controller.

상기 제1촬영단계(S220)는 제1감지단계(S210)에서 감지된 신호를 입력받아, 제1영역(a)에서 조립영역(c)으로 이동된 제1부품(21)을 촬영한다.The first photographing step S220 receives the signal sensed in the first sensing step S210 and photographs the first component 21 moved from the first region a to the assembly region c.

도 6의 (a)를 참조하면, 제1영역(a)에는 다수의 부품이 배치되어 있으며, 다수의 부품 중 제1부품(21)을 제1영역(a)에서 조립영역(c)으로 이동시킨다. 6A, a plurality of parts are arranged in the first area a, and the first part 21 of the plurality of parts is moved from the first area a to the assembly area c .

이때, 조립영역(c)으로 이동된 제1부품(21)을 촬영하는 촬영수단(120)으로는 일정 영역을 촬영할 수 있는 에어리어 카메라가 이용될 수 있으며, 조립영역을(c)을 커버할 수 있는 정도의 시야 범위(FOV, Field Of View)를 가진 카메라를 사용하는 것이 바람직하다.An area camera capable of photographing a certain area may be used as the photographing unit 120 for photographing the first part 21 moved to the assembly area c, It is preferable to use a camera having a field-of-view (FOV) of a certain degree.

상기 제1조립판단단계(S230)는 미리 저장된 제1부품(21)의 영상(I1)과 제1촬영단계에서(S220) 촬영된 영상(I2)을 비교하여 제1부품(21)의 정상 조립 여부를 판단한다.The first assembly determination step S230 compares the image I1 of the first component 21 stored in advance with the image I2 captured in the first imaging step S220, .

도 6의 (b)를 참조하면, 미리 저장된 제1부품(21)의 영상(I1)과 제1영역(a)에서 조립영역(c)으로 이동된 후 제1부품(21)을 촬영한 영상(I2)을 비교하여 두 영상이 일치하면 제1부품(21)이 정상적으로 조립된 것으로 판단한다. 그리고, 미리 저장된 제1부품(21)의 영상(I1)과 제1영역(a)에서 조립영역(c)으로 이동된 후 제1부품(21)을 촬영한 영상(I2)을 비교하여 두 영상이 불일치하면 제1부품(21)이 정상적으로 조립되지 않은 것으로 판단한다.6B, the image I1 of the previously stored first component 21 and the image I1 of the first component 21 after moving to the assembly region c in the first region a, (I2). If the two images coincide with each other, it is determined that the first part 21 is assembled normally. The image I1 of the first component 21 stored in advance and the image I2 of the first component 21 captured after moving to the assembly region c in the first region a are compared with each other, It is determined that the first component 21 is not normally assembled.

또한, 제1조립판단단계(S230)는 제1부품(21)이 조립영역(c)에 존재하는지 여부를 판단한다.In addition, the first assembly determination step S230 determines whether the first component 21 exists in the assembly region c.

도 7의 (a)를 참조하면, 미리 저장된 제1부품(21)의 영상(I1)은 조립영역(c)에 제1부품(21)이 존재하는 것을 알 수 있다. 그러나, 제1부품(21)이 제1영역(a)에서 조립영역(c)으로 이동된 후, 조립영역(c)을 촬영한 영상(I2')은 제1부품(21)이 조립영역(c)에 존재하지 않는 것을 확인할 수 있다.Referring to FIG. 7A, it can be seen that the image I1 of the previously stored first component 21 includes the first component 21 in the assembly region c. However, after the first part 21 is moved from the first area a to the assembly area c, the image I2 'obtained by photographing the assembly area c is formed by the first part 21, c). < / RTI >

상기 제2감지단계(S240)는 제2영역(b)에 배치된 제2부품(22)을 추출하기 위하여 제2영역(b)으로 진입하는 작업자를 삼차원 센서(110)를 이용하여 감지한다. 예를 들어, 제1부품(21)을 추출하기 위하여 제1영역(a)으로 진입하는 작업자의 신체 중 일부인 팔, 다리, 머리 등을 감지할 수 있다.The second sensing step S240 senses an operator entering the second region b using the three-dimensional sensor 110 to extract the second component 22 disposed in the second region b. For example, an arm, a leg, a head, etc., which are part of the body of the worker entering the first region (a) can be sensed to extract the first part 21.

상기 제2촬영단계(S250)는 제2감지단계(S240)에서 감지된 신호를 입력받아, 제2영역(b)에서 조립영역(c)으로 이동되어 제1부품(21)과 조립된 제2부품(22)을 촬영한다.The second photographing step S250 receives the signal sensed in the second sensing step S240 and moves to the assembly region c in the second region b to form a second image The component 22 is photographed.

도 6의 (c)를 참조하면, 제2영역(b)에는 다수의 부품이 배치되어 있으며 조립영역(c)에서 제1부품(21)과 조립하기 위하여, 다수의 부품 중 제2부품(22)을 제2영역(b)에서 조립영역(c)으로 이동시킨다.6 (c), in order to assemble the first part 21 in the assembly area c, a plurality of parts are disposed in the second area b, and the second part 22 Is moved from the second region (b) to the assembly region (c).

상기 제2조립판단단계(S260)는 미리 저장된 제1부품(21)과 제2부품(22)이 조립된 상태의 영상(I3)과 제2촬영단계(S250)에서 촬영된 영상(I4)을 비교하여 제2부품(22)의 정상 조립 여부를 판단한다.The second assembly determination step S260 may include determining whether the image I3 in which the first component 21 and the second component 22 stored in advance are assembled and the image I4 captured in the second imaging step S250 It is determined whether or not the second component 22 is assembled normally.

도 6의 (d)를 참조하면, 미리 저장된 제1부품(21)과 제2부품(22)이 조립된 상태의 영상(I3)과 제2영역(b)에서 조립영역(c)으로 이동되어 제1부품(21)과 조립된 제2부품(22)을 촬영한 영상(I4)을 비교하여 두 영상이 일치하면 제1부품(21)과 제2부품(22)이 정상적으로 조립된 것으로 판단한다. 그리고, 미리 저장된 제1부품(21)과 제2부품(22)이 조립된 상태의 영상(I3)과 제2영역(b)에서 조립영역(c)으로 이동되어 제1부품(21)과 조립된 제2부품(22)을 촬영한 영상(I4)을 비교하여 두 영상이 불일치하면 제1부품(21)과 제2부품(22)이 정상적으로 조립되지 않은 것으로 판단한다.6D, the image I3 in which the first component 21 and the second component 22 stored in advance are assembled and the assembly region c in the second region b are moved The image I4 of the first part 21 and the assembled second part 22 are compared to determine that the first part 21 and the second part 22 are assembled normally . The image I3 in which the first component 21 and the second component 22 stored in advance are assembled and the assembled region c in the second region b are assembled with the first component 21, The first part 21 and the second part 22 are compared with each other to determine that the first part 21 and the second part 22 are not assembled normally.

또한, 제2조립판단단계(S260)는 제2부품(22)이 조립영역(c)에 존재하는지 여부 및 제2부품(22)이 제1부품(21)과 결합된 위치를 판단한다.The second assembly determination step S260 determines whether the second component 22 is present in the assembly region c and the position where the second component 22 is combined with the first component 21.

도 7의 (b)를 참조하면, 미리 저장된 제1부품(21)과 제2부품(22)이 조립된 상태의 영상(I3)은 조립영역(c)에 제2부품(22)이 존재하는 것을 알 수 있다. 그러나, 제2부품(22)이 제2영역(b)에서 조립영역(c)으로 이동된 후 조립영역(c)을 촬영한 영상(I4')은 조립영역(c)에 제2부품(22)이 존재하지 않는 것을 확인할 수 있다. Referring to FIG. 7B, the image I3 in which the first component 21 and the second component 22 stored in advance are assembled has the second component 22 in the assembly region c . However, after the second component 22 is moved from the second region b to the assembly region c, the image I4 'taken of the assembly region c is transferred to the assembly region c through the second component 22 ) Does not exist.

도 7의 (c)를 참조하면, 미리 저장된 제1부품(21)과 제2부품(22)이 조립된 상태의 영상(I3)은 제2부품(22)이 제1부품(21)의 중앙부에 결합되는 것을 확인할 수 있다. 그러나, 제2부품(22)이 제2영역(b)에서 조립영역(c)으로 이동되어 제1부품(21)과 조립된 제2부품(22)을 촬영한 영상(I4'')은 제2부품(22)이 제1부품(21)의 가장자리에 결합되는 것을 확인할 수 있다.7C, the image I3 in a state in which the first component 21 and the second component 22 stored in advance are assembled is formed so that the second component 22 is located at the center of the first component 21 . ≪ / RTI > However, the image I4 " obtained by moving the second component 22 from the second region b to the assembly region c and photographing the second component 22 assembled with the first component 21, It can be confirmed that the two parts 22 are coupled to the edge of the first part 21.

따라서, 조립영역(c)에 제1부품(21) 및 제2부품(22)이 존재하는지 여부와 제1부품(21) 및 제2부품(22)이 결합되는 위치를 확인함으로써, 부품 조립과정에서 어느 하나의 부품이 탈락 되어 조립되는 것을 방지할 수 있고, 조립되는 부품이 정확한 위치에 결합되어 조립되도록 할 수 있다.Therefore, by confirming whether the first part 21 and the second part 22 are present in the assembly area c and the position where the first part 21 and the second part 22 are engaged, It is possible to prevent one of the components from being assembled and assembled, and to assemble the components to be assembled at the correct positions.

상술한 바와 같이 구성된 삼차원 센서를 이용한 부품 조립방법은, 삼차원 센서를 이용하여 작업자의 움직임을 감지함으로써, 작업자의 동작에 따른 정확한 움직임을 파악할 수 있는 효과를 얻을 수 있다.In the component assembly method using the three-dimensional sensor configured as described above, accurate motion according to the motion of the operator can be obtained by sensing the movement of the operator using the three-dimensional sensor.

또한, 상술한 바와 같이 구성된 삼차원 센서를 이용한 부품 조립방법은, 조립되는 부품이 정확한 위치에 배치되도록 판단함으로써, 부품이 잘못 조립되는 것을 방지하여 조립 공정의 효율을 증가시킬 수 있는 효과를 얻을 수 있다.In addition, the component assembly method using the three-dimensional sensor configured as described above can prevent the components from being assembled improperly by judging that the parts to be assembled are disposed at the correct positions, thereby increasing the efficiency of the assembly process .

또한, 상술한 바와 같이 구성된 삼차원 센서를 이용한 부품 조립방법은, 작업자가 부품의 회동 여부 및 결합 방향을 확인하는지 여부를 판단함으로써, 부품의 불량 상태를 확인할 수 있어 불량 부품으로 조립되는 것을 방지할 수 있는 효과를 얻을 수 있다.Further, in the component assembly method using the three-dimensional sensor configured as described above, it is possible to check the defective state of the component by judging whether the operator confirms whether the component is rotating or not, The effect can be obtained.

또한, 상술한 바와 같이 구성된 삼차원 센서를 이용한 부품 조립방법은, 조립영역에 제1부품 및 제2부품 존재하는지 여부와 제1부품 및 제2부품이 결합되는 위치를 확인함으로써, 부품 조립과정에서 어느 하나의 부품이 탈락 되어 조립되는 것을 방지할 수 있고, 조립되는 부품이 정확한 위치에 결합되어 조립되도록 할 수 있는 효과를 얻을 수 있다.Further, in the component assembly method using the three-dimensional sensor configured as described above, whether or not the first component and the second component exist in the assembly region and the position where the first component and the second component are coupled are checked, It is possible to prevent one component from falling out and to assemble it, and it is possible to obtain an effect that the assembled component can be assembled at a precise position.

본 발명의 권리범위는 상술한 실시예 및 변형례에 한정되는 것이 아니라 첨부된 특허청구범위 내에서 다양한 실시예로 구현될 수 있다. 특허 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 변형 가능한 다양한 범위까지 본 발명의 청구범위 기재의 범위 내에 있는 것으로 본다.The scope of the present invention is not limited to the above-described embodiments and modifications, but can be implemented in various embodiments within the scope of the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the appended claims.

A : 제1영역
B : 제2영역
1 : 작업자
10 : 부품
110 : 삼차원 센서
120 : 촬영수단
A:
B: second region
1: Operator
10: Parts
110: three-dimensional sensor
120: photographing means

Claims (6)

부품이 제1영역에서 추출되기 전 상기 제1영역을 촬영하는 제1촬영단계;
상기 부품을 상기 제1영역에서 추출하기 위하여, 상기 제1영역으로 진입하는 작업자를 삼차원 센서를 이용하여 감지하는 제1감지단계;
상기 제1감지단계에서 감지된 신호를 입력받아, 상기 부품이 상기 제1영역에서 추출된 후 상기 제1영역을 촬영하는 제2촬영단계;
상기 제1촬영단계에서 촬영된 영상과 상기 제2촬영단계에서 촬영된 영상을 비교하여, 상기 제1영역에서 추출된 부품의 위치를 확인하는 제1위치확인단계;
상기 부품이 제2영역에 배치되기 전 상기 제2영역을 촬영하는 제3촬영단계;
상기 부품을 상기 제2영역에 배치하기 위하여, 상기 제2영역으로 진입하는 작업자를 상기 삼차원 센서를 이용하여 감지하는 제2감지단계;
상기 제2감지단계에서 감지된 신호를 입력받아, 상기 부품이 상기 제2영역에 배치된 후 상기 제2영역을 촬영하는 제4촬영단계;
상기 제3촬영단계에서 촬영된 영상과 상기 제4촬영단계에서 촬영된 영상을 비교하여, 상기 제2영역에 배치된 부품의 위치를 확인하는 제2위치확인단계; 및
상기 제1위치확인단계에서 확인된 위치와 상기 제2위치확인단계에서 확인된 위치가 서로 대응하는지 판단하는 위치판단단계;를 포함하는 것을 특징으로 하는 삼차원 센서를 이용한 부품 조립방법.
A first photographing step of photographing the first area before the part is extracted from the first area;
A first sensing step of sensing, using a three-dimensional sensor, an operator entering the first area to extract the part from the first area;
A second photographing step of taking a signal sensed in the first sensing step and photographing the first area after the component is extracted in the first area;
A first position checking step of comparing the image photographed in the first photographing step and the image photographed in the second photographing step to check the position of the part extracted in the first area;
A third photographing step of photographing the second area before the component is placed in the second area;
A second sensing step of sensing, using the three-dimensional sensor, an operator entering the second area to place the part in the second area;
A fourth photographing step of receiving a signal sensed in the second sensing step and photographing the second area after the component is arranged in the second area;
A second position checking step of comparing the image photographed in the third photographing step with the image photographed in the fourth photographing step and confirming the position of a part arranged in the second area; And
And a position determining step of determining whether the position identified in the first positioning step and the position identified in the second positioning step correspond to each other.
제1항에 있어서,
상기 부품이 상기 제1영역에서 상기 제2영역으로 이동되는 동안, 상기 삼차원 센서를 통해 상기 작업자의 신체 부위의 상대적인 움직임을 감지하여 상기 작업자가 상기 부품의 조립 상태를 확인하는지 여부를 판단하는 상태판단단계;를 포함하는 것을 특징으로 하는 삼차원 센서를 이용한 부품 조립방법.
The method according to claim 1,
A state determination unit that detects relative movement of the body part of the worker through the three-dimensional sensor while the worker is moving from the first area to the second area to determine whether the worker confirms the assembled state of the part, The method of claim 1, further comprising:
제2항에 있어서,
상기 부품은, 제1부재와, 상기 제1부재에 회동 가능하게 결합되는 제2부재를 포함하고,
상기 상태판단단계는, 상기 삼차원 센서를 통해 상기 작업자의 한 팔이 고정되고 상기 작업자의 다른 팔이 움직이는지 여부를 감지함으로써, 상기 작업자가 상기 제1부재에 대하여 상기 제2부재의 회동 상태를 확인하는지 여부를 판단하는 것을 특징으로 하는 삼차원 센서를 이용한 부품 조립방법.
3. The method of claim 2,
The component includes a first member and a second member rotatably coupled to the first member,
Wherein the state determining step determines whether or not an operator's arm is fixed and the other arm of the worker moves through the three-dimensional sensor so that the operator confirms the turning state of the second member with respect to the first member And determining whether or not the three-dimensional sensor is used.
제2항에 있어서,
상기 부품은, 제1부재와, 상기 제1부재에 서로 다른 방향으로 결합되는 복수의 제2부재를 포함하고,
상기 상태판단단계는, 상기 삼차원 센서를 통해 상기 작업자의 머리와 손 사이의 거리를 감지함으로써, 상기 작업자가 상기 제1부재에 대하여 상기 제2부재의 결합 방향을 확인하는지 여부를 판단하는 것을 특징으로 하는 삼차원 센서를 이용한 부품 조립방법.
3. The method of claim 2,
The component includes a first member and a plurality of second members coupled to the first member in different directions,
Wherein the state determining step determines whether or not the operator confirms the direction of engagement of the second member with respect to the first member by sensing a distance between the head and the hand of the operator through the three-dimensional sensor A method of assembling parts using a three-dimensional sensor.
삭제delete 삭제delete
KR1020140122605A 2014-09-16 2014-09-16 Method for assembly a part using 3D sensor KR101567476B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140122605A KR101567476B1 (en) 2014-09-16 2014-09-16 Method for assembly a part using 3D sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140122605A KR101567476B1 (en) 2014-09-16 2014-09-16 Method for assembly a part using 3D sensor

Publications (1)

Publication Number Publication Date
KR101567476B1 true KR101567476B1 (en) 2015-11-12

Family

ID=54609999

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140122605A KR101567476B1 (en) 2014-09-16 2014-09-16 Method for assembly a part using 3D sensor

Country Status (1)

Country Link
KR (1) KR101567476B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102322745B1 (en) * 2020-07-07 2021-11-09 주식회사 에치디엘 Method for manufacturing process of automobile fuel tank based on smart factory and apparatus therefor
KR102594114B1 (en) * 2023-02-14 2023-10-25 (주)한진에프에이에스 A Multi-jig device monitoring system and monitoring method using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009269110A (en) 2008-05-02 2009-11-19 Olympus Corp Assembly equipment
JP2011077095A (en) * 2009-09-29 2011-04-14 Nec Corp System, method and program for monitoring facility

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009269110A (en) 2008-05-02 2009-11-19 Olympus Corp Assembly equipment
JP2011077095A (en) * 2009-09-29 2011-04-14 Nec Corp System, method and program for monitoring facility

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102322745B1 (en) * 2020-07-07 2021-11-09 주식회사 에치디엘 Method for manufacturing process of automobile fuel tank based on smart factory and apparatus therefor
KR102594114B1 (en) * 2023-02-14 2023-10-25 (주)한진에프에이에스 A Multi-jig device monitoring system and monitoring method using the same

Similar Documents

Publication Publication Date Title
US9279661B2 (en) Information processing apparatus and information processing method
CN107852482B (en) Calibration device, calibration method, and computer-readable recording medium
US20160086343A1 (en) Contour line measurement apparatus and robot system
US20170028561A1 (en) Information processing apparatus, information processing method, robot control apparatus, and robot system
US20160279800A1 (en) Robot, robot control device, and robotic system
US9713870B2 (en) System and method for locating vehicle components relative to each other
JP5893695B1 (en) Article transport system
KR101672732B1 (en) Apparatus and method for tracking object
US9916512B2 (en) Information processing apparatus, processing system, object moving system, and object moving method
EP1574300A2 (en) Measuring system
US10909720B2 (en) Control device for robot, robot, robot system, and method of confirming abnormality of robot
JP5946884B2 (en) Position detection system that detects the position of an object
JP2011133313A (en) Method of measuring sensor position and attitude
JP6871220B2 (en) Control system
KR101567476B1 (en) Method for assembly a part using 3D sensor
JP5093591B2 (en) 3D position and orientation measurement method and apparatus
KR101535801B1 (en) Process inspection device, method and system for assembling process in product manufacturing using depth map sensors
Jokesch et al. Generic algorithm for peg-in-hole assembly tasks for pin alignments with impedance controlled robots
JP6424560B2 (en) Abnormality cause estimation device, picking device, and abnormality cause estimation method in picking device
JP2006224291A (en) Robot system
JP5858773B2 (en) Three-dimensional measurement method, three-dimensional measurement program, and robot apparatus
WO2018130605A1 (en) Method for calibrating a camera for a motor vehicle considering a calibration error, camera as well as motor vehicle
JP2017087337A (en) Method for causing robot to fit male component in female component
US20100262290A1 (en) Data matching apparatus, data matching method and mobile robot
CN113165188A (en) Aligning device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181022

Year of fee payment: 4