KR20230103788A - System for mounting room mirror on vehicle glass - Google Patents

System for mounting room mirror on vehicle glass Download PDF

Info

Publication number
KR20230103788A
KR20230103788A KR1020220013061A KR20220013061A KR20230103788A KR 20230103788 A KR20230103788 A KR 20230103788A KR 1020220013061 A KR1020220013061 A KR 1020220013061A KR 20220013061 A KR20220013061 A KR 20220013061A KR 20230103788 A KR20230103788 A KR 20230103788A
Authority
KR
South Korea
Prior art keywords
robot
room mirror
vehicle glass
scanning
arm
Prior art date
Application number
KR1020220013061A
Other languages
Korean (ko)
Other versions
KR102598336B1 (en
Inventor
류항기
우경행
도반푸
마재민
Original Assignee
주식회사 에이티엠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이티엠 filed Critical 주식회사 에이티엠
Publication of KR20230103788A publication Critical patent/KR20230103788A/en
Application granted granted Critical
Publication of KR102598336B1 publication Critical patent/KR102598336B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D65/00Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
    • B62D65/02Joining sub-units or components to, or positioning sub-units or components with respect to, body shell or other sub-units or components
    • B62D65/14Joining sub-units or components to, or positioning sub-units or components with respect to, body shell or other sub-units or components the sub-units or components being passenger compartment fittings, e.g. seats, linings, trim, instrument panels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/04Rear-view mirror arrangements mounted inside vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D65/00Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
    • B62D65/02Joining sub-units or components to, or positioning sub-units or components with respect to, body shell or other sub-units or components
    • B62D65/022Transferring or handling sub-units or components, e.g. in work stations or between workstations and transportation systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Manufacturing & Machinery (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Automatic Assembly (AREA)

Abstract

본 발명은 차량 글라스 룸미러 장착 시스템에 관한 것이다. 본 발명에 따르면, 다관절 로봇의 암부에 제1 3D스캔모듈과 그리퍼를 장착하며, 룸미러의 후면을 스캐닝하여 얻은 제1 위치편차를 바탕으로 기 설정된 제품피킹용 로봇 자세를 변경하여 변경된 로봇 자세로 암부를 제어하여 룸미러를 파지하는 제1 협동로봇과, 제1 협동로봇으로부터 전달받은 룸미러를 파지한 제2 협동로봇의 암부가 정면에 접근 시에 룸미러의 후면에 위치한 로드 끝단의 단부면을 정밀 스캐닝하는 제2 3D스캔모듈과, 다관절 로봇의 암부에 그리퍼를 장착하며, 룸미러를 파지한 암부를 제2 3D스캔모듈로 접근시켜 정밀 스캐닝되게 한 다음 암부를 제어하여 룸미러를 차량 글라스에 장착하되, 로드의 단부면을 스캐닝하여 얻은 제2 위치편차를 바탕으로 기 설정된 제품장착용 로봇 자세를 변경하여 변경된 로봇 자세로 암부를 제어하여 룸미러의 단부면이 차량 글라스의 고정편에 장착되게 하는 제2 협동로봇, 및 제1, 제2 협동로봇과 제1, 제2 3D스캔모듈을 제어하며, 제1, 제2 3D스캔모듈의 스캐닝 결과로부터 각 위치편차를 분석하여 제1, 제2 협동로봇으로 전달하는 제어모듈을 포함한다.
본 발명에 따르면, 3D 스캔모듈과 연동하는 복수의 협동 로봇을 이용하여 차량 글라스를 내측의 체결부에 룸미러의 로드 끝단을 정확하게 장착할 수 있다.
The present invention relates to a vehicle glass room mirror mounting system. According to the present invention, a first 3D scan module and a gripper are mounted on the arm of an articulated robot, and the changed robot posture is changed by changing a preset robot posture for product picking based on a first position deviation obtained by scanning the rear surface of a room mirror. The end of the rod located at the rear of the room mirror when the arm of the first cooperating robot that controls the arm part with the furnace and grips the room mirror and the arm part of the second cobot that grasps the room mirror received from the first cobot approaches the front The second 3D scan module that precisely scans the side surface and the gripper are attached to the arm of the articulated robot, and the arm that holds the room mirror approaches the second 3D scan module to be precisely scanned, and then controls the arm to move the room mirror. It is mounted on the vehicle glass, but based on the second position deviation obtained by scanning the end surface of the rod, the preset product mounting robot posture is changed and the arm part is controlled with the changed robot posture, so that the end surface of the room mirror is the fixing piece of the vehicle glass Controls the second cobot mounted on the robot, and the first and second cobots and the first and second 3D scan modules, and analyzes each positional deviation from the scanning results of the first and second 3D scan modules to determine the first and second cobots. , and a control module that is transmitted to the second cooperative robot.
According to the present invention, it is possible to accurately mount the end of the rod of the room mirror to the fastening part of the inside of the vehicle glass by using a plurality of cooperative robots interlocking with the 3D scan module.

Description

차량 글라스 룸미러 장착 시스템{System for mounting room mirror on vehicle glass}Vehicle glass room mirror mounting system {System for mounting room mirror on vehicle glass}

본 발명은 차량 글라스 룸미러 장착 시스템에 관한 것으로서, 보다 상세하게는 협동 로봇과 3D 스캔모듈을 이용하여 차량 글라스의 룸미러 체결 부위에 룸미러의 로드 끝단을 정확하게 결합 장착할 수 있는 차량 글라스 룸미러 장착 시스템에 관한 것이다.The present invention relates to a vehicle glass room mirror mounting system, and more particularly, to a vehicle glass room mirror capable of accurately coupling and mounting the rod end of the room mirror to the room mirror fastening part of the vehicle glass using a collaborative robot and a 3D scan module. It's about the mounting system.

차량의 룸미러는 차량 전면 글라스 상에 부착된 장착부에 삽입 장착된다. 예를 들어, 차량 전면 글라스의 내측에 부착된 체결 소켓에 룸미러의 로드 끝단부가 삽입 체결된다. The room mirror of the vehicle is inserted and mounted into a mounting portion attached to the front glass of the vehicle. For example, the end of the rod of the room mirror is inserted into and fastened to the fastening socket attached to the inside of the front glass of the vehicle.

현재까지 대부분의 룸미러는 작업자에 의해 수동으로 장착되고 있으나, 로봇에 의한 장착도 일부 이루어지고 있다. Until now, most of the room mirrors have been manually installed by workers, but some of them are also installed by robots.

일반적으로 로봇을 통한 부품 피킹(picking) 작업의 경우 피킹 대상이 되는 대상체 위치의 변화를 산출하고 로봇에 위치 편차를 전달하여 부품 피킹을 수행하고 있다. In general, in the case of a part picking task using a robot, part picking is performed by calculating a change in the position of an object to be picked and transmitting the position deviation to the robot.

그런데 룸미러의 경우 후면에 회동하게 결합되어 있는 로드의 각도 위치가 제각각 다르기 때문에 이 부분에 대한 편차를 구한 후에 이를 보정하여 장착해줄 수 있어야 한다. However, in the case of a room mirror, since the angular positions of the rods pivotally coupled to the rear are different, it is necessary to obtain a deviation for this part and then correct and mount it.

따라서, 룸미러를 피킹한 후에 룸미러 후면에 결합된 로드의 각도나 위치 변화를 고려하여 로드 끝단에 형성된 체결편을 차량 글라스의 장착부에 정확하게 조준하여 장착할 수 있는 자동화 로봇 시스템이 요구된다. Accordingly, there is a need for an automated robot system capable of accurately aiming and mounting a fastening piece formed at an end of a rod to a mounting portion of a vehicle glass in consideration of a change in angle or position of a rod coupled to a rear surface of the room mirror after picking the room mirror.

본 발명의 배경이 되는 기술은 한국공개특허 제2011-0035461호(2011.04.06 공개)에 개시되어 있다.The background technology of the present invention is disclosed in Korean Patent Publication No. 2011-0035461 (published on April 6, 2011).

본 발명은 협동 로봇과 3D 스캔모듈을 이용하여 차량 글라스의 룸미러 체결 부위에 룸미러의 로드 끝단의 체결편을 정확하게 결합 장착할 수 있는 차량 글라스 룸미러 장착 시스템을 제공하는데 목적이 있다.An object of the present invention is to provide a vehicle glass room mirror mounting system capable of accurately coupling and mounting a fastening piece of a rod end of a room mirror to a room mirror fastening portion of a vehicle glass by using a collaborative robot and a 3D scan module.

본 발명은, 다관절 로봇의 암부에 제1 3D스캔모듈과 그리퍼를 장착하며, 암부를 이동시켜 트레이에 대기중인 룸미러의 후면을 스캐닝하고, 기준모델 대비 현재 스캐닝모델의 틀어진 제1 위치편차를 바탕으로 기 설정된 제품피킹용 로봇 자세를 변경하여 변경된 로봇 자세로 암부를 제어하여 상기 룸미러를 파지하는 제1 협동로봇과, 상기 제1 협동로봇으로부터 전달받은 룸미러를 파지한 제2 협동로봇의 암부가 정면에 접근 시에 상기 룸미러의 후면을 스캐닝하되, 차량 글라스에 장착된 상태로 회동하는 룸미러의 로드의 끝단의 단부면을 정밀 스캐닝하는 제2 3D스캔모듈과, 다관절 로봇의 암부에 그리퍼를 장착하며, 룸미러를 파지한 암부를 상기 제2 3D스캔모듈로 접근시켜 정밀 스캐닝되게 한 다음 스캐닝 결과에 따라 암부를 제어하여 상기 룸미러를 차량 글라스에 장착하되, 로드 끝단면 기준모델 대비 현재 로드 끝단면 스캐닝모델의 틀어진 제2 위치편차를 바탕으로 기 설정된 제품장착용 로봇 자세를 변경하여 변경된 로봇 자세로 암부를 제어하여 상기 룸미러의 끝단면이 차량 글라스의 고정편에 장착되게 하는 제2 협동로봇, 및 상기 제1, 제2 협동로봇과 상기 제1, 제2 3D스캔모듈을 제어하며, 상기 제1, 제2 3D스캔모듈의 스캐닝 결과로부터 각 위치편차를 분석하여 상기 제1, 제2 협동로봇으로 전달하는 제어모듈을 포함하는 차량 글라스 룸미러 장착 시스템을 제공한다.In the present invention, a first 3D scan module and a gripper are mounted on the arm of an articulated robot, the arm is moved to scan the back of a room mirror waiting on a tray, and a first position deviation of a current scanning model compared to a reference model is measured. A first collaborative robot that grips the room mirror by changing the posture of the robot for product picking that has been previously set based on the changed robot posture and controlling the arm with the changed robot posture, and a second collaborative robot that grips the room mirror received from the first collaborative robot A second 3D scan module that scans the rear surface of the room mirror when the arm unit approaches the front and precisely scans the end surface of the rod of the room mirror that rotates while mounted on the vehicle glass, and the arm unit of the articulated robot The gripper is mounted on the rearview mirror, and the arm part gripping the room mirror is approached by the second 3D scan module to be precisely scanned, and then the arm part is controlled according to the scanning result to mount the room mirror on the vehicle glass, and the rod end surface reference model Based on the second distorted position deviation of the current rod end surface scanning model, the preset product mounting robot posture is changed to control the arm with the changed robot posture, so that the end surface of the room mirror is mounted on the fixing piece of the vehicle glass. Controls a second cooperative robot, the first and second cooperative robots, and the first and second 3D scan modules, and analyzes positional deviations from scanning results of the first and second 3D scan modules to determine the first and second cooperative robots. , It provides a vehicle glass room mirror mounting system including a control module transmitted to the second cooperative robot.

또한, 상기 제1 위치편차 또는 제2 위치편차는, 기 설정된 기준모델의 기준 위치에 대비한 현재의 스캐닝모델의 3차원 상의 위치 및 회전 이동량을 포함할 수 있다.In addition, the first position deviation or the second position deviation may include the 3D position and rotational movement amount of the current scanning model compared to the reference position of the preset reference model.

또한, 상기 제어모듈은, 상기 제1 3D 스캔모듈을 통해 상기 룸미러의 후면 테두리 모양을 스캐닝한 스캐닝모델과 기 저장된 기준모델을 ICP(Iterative Closest Point) 알고리즘을 이용하여 3D 매칭하여 상기 제1 위치편차를 연산하고, 상기 제2 3D 스캔모듈을 통해 상기 룸미러 후면의 로드 끝단면 모양을 스캐닝한 스캐닝모델과 기 저장된 로드 끝단면 기준모델을 ICP 알고리즘을 이용하여 3D 매칭하여 상기 제2 위치편차를 연산할 수 있다.In addition, the control module performs 3D matching between a scanning model obtained by scanning a rear edge shape of the room mirror through the first 3D scan module and a pre-stored reference model using an Iterative Closest Point (ICP) algorithm to obtain the first position. The deviation is calculated, and the second position deviation is obtained by 3D matching the scanning model obtained by scanning the shape of the end surface of the rod on the rear side of the room mirror through the second 3D scan module and the reference model of the end surface of the rod previously stored using the ICP algorithm. can be computed.

또한, 상기 제1 협동로봇은, 상기 기준모델을 기준으로 생성된 상기 제품피킹용 로봇 자세를 디폴트 자세로 기 저장하고, 상기 제2 협동로봇은, 상기 로드 끝단면 기준모델을 기준으로 생성된 상기 제품장착용 로봇 자세를 디폴트 자세로 기 저장할 수 있다.In addition, the first collaborative robot pre-stores the posture of the robot for product picking generated based on the reference model as a default posture, and the second collaborative robot stores the posture of the robot for product picking generated based on the reference model at the end of the rod. The posture of the robot for product installation can be stored in advance as a default posture.

또한, 상기 제1 협동로봇은, 스캐닝 결과에 따라 암부를 제어하여 상기 룸미러를 파지한 다음, 측면에 이웃하여 배치된 상기 제2 협동로봇으로 전달하고, 상기 제2 협동로봇은, 상기 제1 협동로봇과 서로 암부 간이 마주한 상태로 상기 룸미러를 전달받는 다음, 자세 변경을 통해 암부를 설정 위치의 상기 제2 3D스캔모듈의 정면을 향해 이동시킬 수 있다.In addition, the first cooperative robot controls the arm part according to the scanning result to grip the room mirror, and then transfers the grip to the second cooperative robot disposed adjacent to the side, and the second cooperative robot controls the first cooperative robot. After receiving the room mirror in a state in which the dark parts face each other with the cooperating robot, the dark part may be moved toward the front of the second 3D scan module at the set position through a posture change.

또한, 상기 제1 협동로봇과 상기 제2 협동로봇은, 각각의 그리퍼가 상기 룸미러의 테두리를 파지하되, 룸미러 전달 과정에서 그리퍼 간 간섭이 없도록 상기 룸미러의 서로 다른 테두리 부분을 파지할 수 있다.In addition, the first cooperative robot and the second cooperative robot may each gripper grip the edge of the room mirror, but grip different edge portions of the room mirror so that there is no interference between the grippers in the transfer process of the room mirror. there is.

또한, 상기 차량 글라스는, 상기 제1 및 제2 협동로봇 사이에 마련된 거치대 위에 오목한 면이 위를 향하도록 배치되어 사전에 준비될 수 있다.In addition, the vehicle glasses may be prepared in advance by being placed on a cradle provided between the first and second cooperative robots with a concave surface facing upward.

또한, 상기 제1 협동로봇 또는 제2 협동로봇의 좌표계를 기준으로 상기 제1 협동로봇 또는 제2 협동로봇과 상기 제1 3D스캔모듈 또는 제2 3D스캔모듈 간의 좌표 캘리브레이션이 사전에 이루어져 협동로봇과 3D스캔모듈 간 공통 좌표계를 가질 수 있다.In addition, coordinate calibration between the first cooperative robot or the second cooperative robot and the first 3D scan module or the second 3D scan module is performed in advance based on the coordinate system of the first cooperative robot or the second cooperative robot, and the cooperative robot and the second cooperative robot 3D scan modules may have a common coordinate system.

또한, 상기 제어모듈은, 입체 구조의 캘리브레이션 오브젝트가 제1 또는 제2 협동로봇에 장착된 상태에서 로봇 자세를 변화하면서 상기 제1 또는 제2 3D 스캔모듈을 통해 상기 오브젝트를 스캔하여 획득되는 복수의 로봇 포즈와 복수의 오브젝트 스캔 결과를 바탕으로 상기 캘리브레이션을 수행할 수 있다.In addition, the control module may scan a plurality of objects obtained by scanning the object through the first or second 3D scan module while changing the posture of the robot in a state in which a three-dimensional calibration object is mounted on the first or second cooperative robot. The calibration may be performed based on a result of scanning a robot pose and a plurality of objects.

본 발명에 따르면, 협동 로봇과 3D 스캔모듈을 이용하여 차량 글라스의 룸미러 체결 부위에 룸미러의 로드 끝단면을 정확하게 결합 장착할 수 있다. According to the present invention, the rod end surface of the room mirror can be accurately coupled and mounted to the fastening portion of the room mirror of the vehicle glass using the collaborative robot and the 3D scan module.

또한, 룸미러의 로드 끝단부 형상의 3D 스캐닝을 기반으로 현재 스캔된 모델이 기준모델로부터 틀어진 위치편차를 분석하여 로봇 자세를 변경할 수 있어 로드의 끝단부가 글라스의 체결부에 정확히 정조준되어 체결 가능하다. In addition, based on the 3D scanning of the shape of the end of the rod of the room mirror, the current scanned model analyzes the positional deviation from the reference model to change the robot posture, so that the end of the rod can be precisely aimed at the fastening part of the glass and fastened. .

이에 따르면, 룸미러 제품 별로 룸미러에 대해 로드 끝단부의 위치 편차가 존재하더라도 해당 제품의 틀어진 상태에 맞게 룸미러 장착 과정에서 로봇 자세가 적응적으로 변경될 수 있어 장착 작업의 정확도를 높일 수 있다. According to this, even if there is a positional deviation of the end of the rod with respect to the room mirror for each room mirror product, the posture of the robot can be adaptively changed during the installation process of the room mirror according to the distorted state of the product, thereby increasing the accuracy of the mounting operation.

도 1은 본 발명의 실시예에 따른 차량 글라스 룸미러 장착 시스템의 구성을 나타낸 도면이다.
도 2는 도 1에 도시된 룸미러 장착 시스템을 구체적으로 나타낸 도면이다.
도 3은 도 2의 실제 구현 모습을 예시적으로 나타낸 도면이다.
도 4는 일반적인 룸미러의 구조를 예시한 도면이다.
도 5는 본 발명의 실시예에 따른 제1 협동로봇의 제품피킹 작업을 설명한 도면이다.
도 6은 본 발명의 실시예에 따른 제2 협동로봇의 제품장착 작업을 설명한 도면이다.
도 7은 본 발명의 실시예에서 캘리브레이션 오브젝트를 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 캘리브레이션 개념도이다.
도 9는 본 발명의 실시예에서 피킹 작업 알고리즘의 개념도이다.
도 10은 본 발명의 실시예에서 장착 작업 알고리즘의 개념도이다.
도 11은 본 발명의 실시예에 따른 차량 글라스 룸미러 장착 과정을 예시적으로 설명한 도면이다.
1 is a diagram showing the configuration of a vehicle glass room mirror mounting system according to an embodiment of the present invention.
FIG. 2 is a view showing the room mirror mounting system shown in FIG. 1 in detail.
3 is a diagram showing an actual implementation of FIG. 2 by way of example.
4 is a diagram illustrating the structure of a general room mirror.
5 is a diagram explaining a product picking operation of the first collaborative robot according to an embodiment of the present invention.
6 is a diagram explaining a product mounting operation of the second collaborative robot according to an embodiment of the present invention.
7 is a diagram showing a calibration object in an embodiment of the present invention.
8 is a conceptual diagram of calibration according to an embodiment of the present invention.
9 is a conceptual diagram of a picking operation algorithm in an embodiment of the present invention.
10 is a conceptual diagram of a mounting operation algorithm in an embodiment of the present invention.
11 is a view illustrating a process of installing a glass room mirror of a vehicle according to an embodiment of the present invention by way of example.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Then, with reference to the accompanying drawings, an embodiment of the present invention will be described in detail so that those skilled in the art can easily practice it. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a certain component is said to "include", this means that it may further include other components without excluding other components unless otherwise stated.

도 1은 본 발명의 실시예에 따른 차량 글라스 룸미러 장착 시스템의 구성을 나타낸 도면이고, 도 2는 도 1에 도시된 룸미러 장착 시스템을 구체적으로 나타낸 도면이고, 도 3은 도 2의 실제 구현 모습을 나타낸 도면이다. 1 is a diagram showing the configuration of a vehicle glass room mirror mounting system according to an embodiment of the present invention, FIG. 2 is a diagram showing the room mirror mounting system shown in FIG. 1 in detail, and FIG. 3 is an actual implementation of FIG. It is a drawing showing the

도 1 내지 도 3을 참조하면, 본 발명의 실시예에 따른 차량 글라스 룸미러 장착 시스템(100)은 제1 3D스캔모듈(115)이 구비된 제1 협동로봇(110), 제2 3D스캔모듈(120), 제2 협동로봇(130), 제어모듈(140)을 포함한다.1 to 3, the vehicle glass room mirror mounting system 100 according to an embodiment of the present invention includes a first cooperative robot 110 equipped with a first 3D scan module 115, and a second 3D scan module. 120, the second collaborative robot 130, and a control module 140.

제어모듈(140)은 각 협동로봇(110,130) 및 각 3D스캔모듈(115,120)의 동작을 제어할 수 있고, 이들과 각각 유선, 무선 혹은 유무선 혼합 네트워크를 통해 연결되어 서로 통신하고 다양한 정보를 실시간 주고받을 수 있다 The control module 140 can control the operation of each cooperative robot 110 and 130 and each 3D scan module 115 and 120, and is connected to them through a wired, wireless or wired/wireless mixed network to communicate with each other and to give various information in real time. can receive

제1 및 제2 협동로봇(110,130)은 6축 다관절 로봇으로 구현되며, 암부에는 룸미러(10)를 파지하기 위한 그리퍼(111,131)가 각각 장착된다. The first and second cooperative robots 110 and 130 are implemented as 6-axis multi-joint robots, and grippers 111 and 131 for gripping the room mirror 10 are mounted on the arms, respectively.

제1 협동로봇(110)은 앞쪽의 트레이에 준비된 룸미러(10)를 피킹(picking)하여 제2 협동로봇(130) 쪽으로 전달하는 피킹 로봇이고, 제2 협동로봇(110)은 전달받은 룸미러(10)를 일측에 준비된 차량 전면 글라스(20)(이하, 차량 글라스)의 고정편(21) 부위로 장착하기 위한 장착 로봇에 해당한다.The first collaborative robot 110 is a picking robot that picks the room mirror 10 prepared on the front tray and delivers it to the second collaborative robot 130, and the second collaborative robot 110 picks up the room mirror 10 that has been delivered. (10) corresponds to a mounting robot for mounting the fixing piece 21 of the vehicle front glass 20 (hereinafter, vehicle glass) prepared on one side.

제1 3D스캔모듈(115)과 제2 3D스캔모듈(120)은 각각 제1 협동로봇(110)을 통한 피킹 작업과 제2 협동로봇(130)을 통한 장착 작업의 정확도를 높이기 위해 사용된다. 이들 3D스캔모듈은 통상의 3D 스캔센서, 3D 스캐너 장치류에 해당하며 구조광 방식 등의 스캔이 사용될 수 있다.The first 3D scan module 115 and the second 3D scan module 120 are used to increase the accuracy of the picking operation through the first cooperative robot 110 and the mounting operation through the second cooperative robot 130, respectively. These 3D scan modules correspond to general 3D scan sensors and 3D scanner devices, and structured light scanning may be used.

차량 글라스(20)는 작업 전에 사전에 준비되는데, 예를 들어, 도 2 및 도 3과 같이 제1 및 제2 협동로봇(110,130) 사이에 마련된 거치대(22) 위에 오목한 면이 위를 향하도록 배치되어 사전에 준비될 수 있다. 오목한 면의 일측에는 룸미러(10)의 로드(11)의 끝단에 해당한 끝단면이 결합되기 위한 고정편(21)이 마련되어 있다.The vehicle glass 20 is prepared in advance before work. For example, as shown in FIGS. 2 and 3, the concave surface is placed on the cradle 22 provided between the first and second cooperative robots 110 and 130 so that the concave surface faces upward. and can be prepared in advance. On one side of the concave surface, a fixing piece 21 is provided to which the end surface corresponding to the end of the rod 11 of the room mirror 10 is coupled.

본 발명의 실시예에서는 룸미러(10)의 로드(11)의 끝단의 단부면(12)이 차량 글라스(20)의 오목한 내측면에 마련된 고정편(21)에 슬라이드 방식으로 끼워 삽입 장착되는 것을 대표 예시로 한다. 여기서 로드 끝단의 단부면(12)이란 글라스의 고정편(21)에 체결되는 체결편을 의미한다.In the embodiment of the present invention, the end surface 12 of the end of the rod 11 of the room mirror 10 is slidably inserted into the fixing piece 21 provided on the concave inner surface of the vehicle glass 20. as a representative example. Here, the end surface 12 of the end of the rod means a fastening piece fastened to the fixing piece 21 of the glass.

도 4는 일반적인 룸미러의 구조를 예시한 도면이다. 도 4와 같이, 룸미러(10)는 거울이 설치된 전면과 반대되는 후면에 각도 조절이 가능한 로드(11)가 설치된다. 이때 로드의 끝단에 형성된 단부면 즉, 체결편(12)이 차량 글라스(20)의 고정편(21)과 결합되면서 룸미러(10)가 장착된다. 이때 주로 암수 체결, 슬라이딩 결합 방식 등이 적용된다. 4 is a diagram illustrating the structure of a general room mirror. As shown in FIG. 4 , in the room mirror 10, a rod 11 capable of adjusting an angle is installed on the rear side opposite to the front side where the mirror is installed. At this time, the room mirror 10 is mounted while the end surface formed at the end of the rod, that is, the fastening piece 12 is coupled to the fixing piece 21 of the vehicle glass 20. At this time, male and female fastening, sliding coupling method, etc. are mainly applied.

그런데, 룸미러(10)의 후면에 위치한 로드(11) 부분 혹은 그 로드(11) 끝단의 단부면(12)은 외력 등에 의해 각도가 변형될 수 있다. 이러한 이유로, 제조된 완성품의 룸미러(10)들은 로드(11) 혹은 그 끝단부(12)의 꺽인 방향이나 각도가 제각각 상이한 상태로 출고되게 된다.However, the angle of the rod 11 located on the rear surface of the room mirror 10 or the end surface 12 of the end of the rod 11 may be deformed by an external force or the like. For this reason, the finished room mirrors 10 manufactured are shipped in a state in which the rod 11 or the bent direction or angle of the end 12 thereof is different.

이와 같이, 완성된 각 제품마다 룸미러(10)에 대한 로드(11)의 위치 편차가 존재하며 위치 편차는 제각각이기 때문에, 로드(11)의 끝단면이 글라스(20)의 고정편(21)에 정확하게 조준되어 장착되기 위해서는 각 제품마다 그에 맞는 로봇 자세의 보정은 필수적이다. In this way, since there is a positional deviation of the rod 11 with respect to the room mirror 10 for each completed product, and the positional deviation is different, the end surface of the rod 11 is the fixing piece 21 of the glass 20 In order to be accurately aimed and mounted on the robot, it is essential to correct the posture of the robot for each product.

본 발명에 따르면, 복수의 협동로봇이 3D 스캔모듈의 스캔 결과와 연동하여 룸미러(10)의 로드(11)의 끝단부(12)를 차량 글라스 내측의 고정편(21)에 정확하게 접근시켜 장착할 수 있다. 이하에서는 본 발명에 따른 시스템의 동작을 보다 상세히 설명한다.According to the present invention, a plurality of collaborative robots accurately approach and mount the end 12 of the rod 11 of the room mirror 10 to the fixing piece 21 inside the vehicle glass in conjunction with the scan result of the 3D scan module. can do. The operation of the system according to the present invention will be described in more detail below.

도 2 및 도 3과 같이, 제1 협동로봇(110)은 다관절 로봇의 암부에 제1 3D스캔모듈(115)과 그리퍼(111)를 장착하며, 암부를 이동시켜 트레이(30)에 대기중인 룸미러(10)의 후면을 스캐닝하고, 기준모델 대비 현재 스캐닝모델의 틀어진 제1 위치편차를 바탕으로 기 설정된 제품피킹용 로봇 자세를 변경하여 변경된 로봇 자세로 암부를 제어하여 룸미러(10)를 파지한다.As shown in FIGS. 2 and 3 , the first collaborative robot 110 mounts the first 3D scan module 115 and the gripper 111 on the arm of the articulated robot, moves the arm and waits on the tray 30. Scanning the back side of the room mirror 10, and changing the preset posture of the robot for product picking based on the deviation of the first position of the current scanning model compared to the reference model, and controlling the arm part with the changed robot posture to move the room mirror 10 to grip

제품피킹용 로봇 자세는 기준모델을 기준으로 사전 등록된 로봇 자세를 나타내며, 사전에 제1 협동로봇(110)에 등록될 수 있다. 본 발명의 실시예에서, 로봇 자세는 피킹 동작에 필요한 시계열 자세 정보를 포함하며, 자세 정보는 실시간 제어되는 로봇 관절이나 암부의 각도, 위치 등의 정보를 포함한다. The robot posture for product picking represents a robot posture pre-registered based on the reference model, and may be registered in the first cooperative robot 110 in advance. In an embodiment of the present invention, the robot posture includes time-series posture information necessary for a picking operation, and the posture information includes information such as angles and positions of robot joints or arms controlled in real time.

트레이(30)의 상부에는 룸미러(10)의 후면이 상부를 향하도록 뒤집힌 상태로 준비되며 제1 협동로봇(110)은 이러한 룸미러(10)를 향해 암부를 이동시켜 룸미러(10)의 후면을 스캐닝한다. 이에 따라, 룸미러(10)의 후면 형상을 스캔하는데, 후면 테투리 모양을 스캔하고 스캔한 모델을 미리 저장된 기준모델과 비교하여 기준모델 대비 틀어진 정도를 확인할 수 있다. The rear surface of the room mirror 10 is prepared on the top of the tray 30 in an upside down state, and the first collaborative robot 110 moves the arm part toward the room mirror 10 so that the room mirror 10 scan the back Accordingly, when the rear shape of the room mirror 10 is scanned, the shape of the rear border is scanned and the scanned model is compared with a pre-stored reference model to check the degree of distortion compared to the reference model.

제1 협동로봇(110)은 스캐닝 결과에 따라 암부를 제어하여 룸미러를 정위치로 파지한 다음, 측면에 이웃하여 배치된 제2 협동로봇(130)으로 전달한다. 제1 협동로봇(110)은 그리퍼(111)를 통해 룸미러(10)이 테두리 부분을 파지하여 제2 협동로봇(130)으로 전달한다. The first cooperative robot 110 controls the dark part according to the scanning result to hold the room mirror in place, and then transfers the rearview mirror to the second cooperative robot 130 disposed adjacent to the side. The first cooperative robot 110 grips the edge portion of the room mirror 10 through the gripper 111 and transfers it to the second cooperative robot 130 .

여기서, 제1 협동로봇(110)과 제2 협동로봇(130)의 동작 타이밍은 제어모듈(140)에 의해 제어될 수 있으며, 제어모듈(140)은 각 로봇(110,130)과 3D스캔모듈(115,120)와 실시간으로 정보를 교환하여 동작 상태를 파악하고 각종 데이터 처리 및 연산 동작을 수행할 수 있다. Here, the operation timings of the first cooperative robot 110 and the second cooperative robot 130 may be controlled by the control module 140, which controls the robots 110 and 130 and the 3D scan modules 115 and 120. ) and real-time information exchange to determine the operation status and perform various data processing and calculation operations.

제2 협동로봇(130)은 제1 협동로봇(110)으로부터 룸미러(10)를 전달받을 때 제1 협동로봇(110)과 마주한 상태로 그리퍼(131)를 조작하여 룸미러(10)를 전달받는다. 즉, 제1 협동로봇(110)과 제2 협동로봇(130)은 서로 간의 암부가 마주한 상태로 룸미러(10)를 교환한다. When the second collaborative robot 130 receives the room mirror 10 from the first collaborative robot 110, the room mirror 10 is delivered by manipulating the gripper 131 while facing the first collaborative robot 110. receive That is, the first cooperative robot 110 and the second cooperative robot 130 exchange the room mirror 10 in a state where the dark parts face each other.

이때, 제2 협동로봇(130) 역시 룸미러(10)를 건내받는 과정에서 그리퍼(131)가 룸미러(10)의 테두리를 파지하도록 한다. 다만, 전달 받는 과정에서 그리퍼(111,131) 간에 간섭이 없도록 각각의 그리퍼(111,131)는 룸미러(10)를 다른 테두리 부분을 파지한다. 이는 그리퍼의 간격 조절을 통해 가능한데, 예를 들어 제2 협동로봇(130)은 제1 협동로봇(110)보다 넓은 간격으로 그리퍼를 제어하여 룸미러를 파지할 수 있다. At this time, the second cooperative robot 130 also allows the gripper 131 to grip the edge of the room mirror 10 in the process of handing over the room mirror 10 . However, each of the grippers 111 and 131 grips the other edge portion of the room mirror 10 so that there is no interference between the grippers 111 and 131 in the process of receiving the transfer. This is possible through adjusting the distance between the grippers. For example, the second cooperative robot 130 may grip the room mirror by controlling the grippers at a wider distance than the first cooperative robot 110 .

제2 3D스캔모듈(120)은 제1 협동로봇(110)으로부터 전달받은 룸미러(10)를 파지한 제2 협동로봇(130)의 암부가 정면에 접근 시에, 룸미러(10)의 후면을 스캐닝하되, 차량 글라스(20)에 장착된 상태로 회동하는 룸미러(10)의 로드(11)의 끝단면(12)을 정밀 스캐닝한다. When the arm part of the second collaborative robot 130 gripping the room mirror 10 received from the first cooperative robot 110 approaches the front, the second 3D scan module 120 moves the rear surface of the room mirror 10 While scanning, the end face 12 of the rod 11 of the room mirror 10 rotating while mounted on the vehicle glass 20 is precisely scanned.

제2 협동로봇(130)은 다관절 로봇의 암부에 그리퍼(131)를 장착하며, 제1 협동로봇(110)과 암부 간이 마주한 상태로 룸미러(10)를 전달받는다. 따라서, 룸미러(10)의 후면이 외부를 향한다. 그리고, 제2 협동로봇(130)은 룸미러(10)를 파지한 암부를 미리 알고 있는 위치의 제2 3D스캔모듈(120)의 정면에 접근시켜 룸미러(10)의 후면이 정밀 스캐닝되게 한다.The second cooperative robot 130 mounts the gripper 131 on the arm of the articulated robot, and receives the room mirror 10 in a state where the first cooperative robot 110 and the arm face each other. Accordingly, the rear surface of the room mirror 10 faces the outside. Then, the second collaborative robot 130 approaches the front of the second 3D scan module 120 at a previously known position of the arm holding the room mirror 10 so that the back side of the room mirror 10 is precisely scanned. .

이와 같이, 제2 협동로봇(130)은 제1 협동로봇(110)과 암부 간이 마주한 상태로 룸미러(10)를 전달받은 다음, 로봇 자세 변경을 통해 암부를 설정 위치의 제2 3D스캔모듈(120)의 정면을 향해 이동시켜서, 정밀 스캐닝이 이루어지도록 한다. In this way, the second cooperative robot 130 receives the room mirror 10 in a state where the first cooperative robot 110 and the arm part face each other, and then changes the robot posture to move the arm part to the set position of the second 3D scan module ( 120) to achieve precise scanning.

이에 따라, 제2 3D스캔모듈(120)은 룸미러(10)의 후면 형상을 스캔하는데, 특히 후면 후면의 로드 단부면(12) 모양을 스캔하고 스캔한 모델을 미리 저장된 로드 단부면 기준모델과 비교하여 기준모델 대비 틀어진 정도를 확인 가능하게 한다. Accordingly, the second 3D scan module 120 scans the shape of the rear surface of the room mirror 10. In particular, the shape of the rod end surface 12 on the rear surface is scanned, and the scanned model is compared with the pre-stored rod end surface reference model. By comparing, it is possible to check the degree of deviation compared to the reference model.

제2 협동로봇(130)은 제2 3D스캔모듈(120)을 통한 스캐닝 결과에 따라 암부를 제하여 룸미러(10)를 하측에 마련된 차량 글라스(20)에 장착하되, 로드 끝단면 기준모델 대비 현재 로드 끝단면 스캐닝모델의 틀어진 제2 위치편차를 바탕으로 기 설정된 제품장착용 로봇 자세를 변경하여 변경된 로봇 자세로 암부를 제어하여, 룸미러(10)의 로드 끝단면(12)이 차량 글라스(20)의 고정편(21)에 장착되게 한다. The second collaborative robot 130 removes the dark part according to the scanning result through the second 3D scan module 120 and mounts the room mirror 10 on the vehicle glass 20 provided at the lower side, but compares the end surface of the rod to the reference model Based on the second distorted position deviation of the current rod end surface scanning model, the preset product mounting robot posture is changed to control the arm part with the changed robot posture, so that the rod end surface 12 of the room mirror 10 is the vehicle glass ( 20) to be mounted on the fixing piece 21.

즉, 차량 전면 글라스(20)의 내측에 부착된 고정편(21)에 룸미러(10)의 로드 끝단부(12)가 정확하게 조준되어 삽입 체결된다. 여기서 제품장착용 로봇 자세는 로드 끝단면 기준모델을 기준으로 사전 등록된 로봇 자세를 나타내며, 사전에 계산되어 제2 협동로봇(130)에 등록될 수 있다. That is, the rod end 12 of the room mirror 10 is accurately aimed at the fixing piece 21 attached to the inside of the front glass 20 of the vehicle, and then inserted and fastened. Here, the posture of the robot for product mounting indicates a posture of the robot pre-registered based on the reference model of the end surface of the rod, and may be calculated in advance and registered to the second collaborative robot 130 .

제어모듈(140)은 제1 협동로봇(110), 제2 협동로봇(130)과, 제1 3D스캔모듈(115), 제2 3D스캔모듈(120)을 제어하며, 제1 및 제2 3D스캔모듈(115)의 스캐닝 결과로부터 각 위치편차를 분석하여 제1 및 제2 협동로봇(115,120)으로 각각 전달한다.The control module 140 controls the first cooperative robot 110, the second cooperative robot 130, the first 3D scan module 115, and the second 3D scan module 120, and controls the first and second 3D scan modules. Each position deviation is analyzed from the scanning result of the scan module 115 and transmitted to the first and second cooperative robots 115 and 120 respectively.

도 5는 본 발명의 실시예에 따른 제1 협동로봇의 제품피킹 작업을 설명한 도면이다. 5 is a diagram explaining a product picking operation of the first collaborative robot according to an embodiment of the present invention.

도 5에서 룸미러 파트 마스터는 룸미러 기준모델(M1_ref)에 해당한다. 여기서, 기준모델(M1_ref)은 예를들어 미리 지정된 위치(기준 위치)에 놓여진 룸미러를 제1 3D스캔모듈(115)을 통해 스캔하여 획득한 모델 또는 설계도면을 포인트클라우드 데이터로 변환한 모델이며, 이는 작업자에 의해 트레이(30)의 임의 위치에 놓인 룸미러에 대한 미리 지정된 기준위치 대비한 위치편차를 구하기 위해 사용되는 참조모델이다. 여기서 위치편차는 해당 부분의 위치 이동과 회전 이동을 포함하는 개념이다.In FIG. 5 , the room mirror part master corresponds to the room mirror reference model M1_ref. Here, the reference model M1_ref is, for example, a model obtained by scanning a room mirror placed at a predetermined position (reference position) through the first 3D scan module 115 or a model obtained by converting a design drawing into point cloud data. , which is a reference model used to obtain a position deviation compared to a predetermined reference position for a room mirror placed at an arbitrary position on the tray 30 by an operator. Here, the positional deviation is a concept including positional movement and rotational movement of the corresponding part.

제어모듈(140)은 제1 협동로봇(110)의 제1 3D스캔모듈(115)을 통해 룸미러 후면 테두리 모양을 스캔한 스캐닝모델(M1)을 얻고, 이러한 스캐닝모델(M1)과 미리 알고 있는 기 저장된 기준모델(M1_ref)을 ICP(Iterative Closest Point) 알고리즘과 3D 패턴매칭 알고리즘을 통해 3D 매칭하여 기준모델의 기준위치 대비 이동량을 계산하고 이동량에 따른 제1 위치편차를 제1 협동로봇(110)으로 전달한다. 이때 이동량은 위치 및 회전 이동량을 포함한다.The control module 140 obtains a scanning model M1 obtained by scanning the rear edge shape of the room mirror through the first 3D scanning module 115 of the first collaborative robot 110, and obtains a scanning model M1 and a previously known The pre-stored reference model (M1_ref) is 3D matched through an Iterative Closest Point (ICP) algorithm and a 3D pattern matching algorithm to calculate the amount of movement relative to the reference position of the reference model, and the first position deviation according to the amount of movement is calculated by the first collaborative robot 110. forward to At this time, the movement amount includes positional and rotational movement amounts.

즉, 위치편차는 기준모델(M1_ref)의 기준 위치에 대비한 현재의 스캐닝모델(M1)의 3차원 상의 위치 및 회전 이동량을 포함하며, 3축의 위치 편차와 3축의 기울기 편차를 포함한 총 6개의 파라미터(Δx,Δy,Δz,ΔRx,ΔRy,ΔRz)로 이루어질 수 있다. That is, the position deviation includes the 3-dimensional position and rotational movement amount of the current scanning model M1 compared to the reference position of the reference model M1_ref, and includes a total of 6 parameters including 3-axis position deviation and 3-axis tilt deviation. (Δx, Δy, Δz, ΔRx, ΔRy, ΔRz).

여기서 제1 협동로봇(110)은 이러한 기준모델(M1_ref)을 기준으로 기 생성된 제품피킹용 로봇 자세를 디폴트 자세로 기 저장하고 있다. 이러한 디폴트 자세는 기준 모델에 해당한 룸미러의 테두리 부분을 정위치로 피킹하는데 필요한 로봇 자세를 의미할 수 있다.Here, the first collaborative robot 110 pre-stores the pre-created posture of the robot for product picking as a default posture based on the reference model M1_ref. Such a default posture may refer to a robot posture required for picking an edge portion of a room mirror corresponding to a reference model to a proper position.

따라서, 제1 협동로봇(110)은 기준모델(M1_ref)에 대응하여 기 저장된 제품피킹용 로봇 자세를 제1 위치편차를 이용하여 보정함으로써, 현재 놓인 제품의 틀어진 정도에 맞게 로봇 자세를 변경하여 피킹을 수행하게 된다. 이와 같이, 제1 협동로봇(110)은 제품피킹용 로봇 자세에 제1 위치편차를 반영하여 로봇 자세를 변경하고 이를 기반으로 암부를 제어하여 제품의 피킹을 수행하게 된다. Therefore, the first collaborative robot 110 corrects the pre-stored product picking robot posture corresponding to the reference model M1_ref using the first position deviation, thereby changing the robot posture according to the degree of distortion of the currently placed product for picking. will perform In this way, the first collaborative robot 110 changes the robot posture by reflecting the first position deviation in the robot posture for product picking, and controls the arm based on this to perform product picking.

도 6는 본 발명의 실시예에서 제2 협동로봇의 제품장착 작업을 설명한 도면이다. 도 6에 나타낸 마스터는 룸미러의 로드 단부면 기준모델(M2_ref)에 해당한다. 로드 단부면 기준모델(M2_ref)은 제2 협동로봇(130)에서 기준모델을 정위치로 파지한 상태에서 제2 3D스캔모듈(120)로 접근시켜 제2 3D스캔모듈(120)을 통하여 스캔하여 획득된다. 여기서 물론 로드 단부면 기준모델(M2_ref)는 룸미러 본체에 대해 로드 단부면(12)이 각도 틀어짐이 없는 정위치 상태에서 획득된 것에 해당하며, 단부면(12) 부분을 확대하여 스캔한 영상에 해당할 수 있다. 6 is a diagram explaining a product mounting operation of the second collaborative robot according to an embodiment of the present invention. The master shown in FIG. 6 corresponds to the rod end surface reference model M2_ref of the room mirror. The rod end surface reference model (M2_ref) is scanned through the second 3D scan module 120 by approaching it to the second 3D scan module 120 while holding the reference model in the correct position in the second collaborative robot 130. is obtained Here, of course, the rod end surface reference model (M2_ref) corresponds to a rod end surface 12 obtained in an in-position state with no angle distortion with respect to the room mirror body, and the end surface 12 is enlarged to form a scanned image. may apply.

이러한 로드 단부면 기준모델(M2_ref)는 룸미러 후면의 단부면(12)에 대한 미리 지정된 기준위치 대비한 위치편차를 구하기 위해 사용되는 참조모델이다. 위치편차는 해당 부분의 위치 이동과 회전 이동을 포함한다.The rod end surface reference model M2_ref is a reference model used to obtain a positional deviation relative to a predetermined reference position of the end surface 12 on the rear surface of the room mirror. The positional deviation includes positional movement and rotational movement of the corresponding part.

제어모듈(140)은 제2 3D스캔모듈(120)을 통해 룸미러 후면의 로드 단부면(12) 모양을 확대 스캔한 스캐닝모델(M2)을 얻고, 이러한 스캐닝모델(M2)과 기 저장된 기준모델(M2_ref)을 ICP 알고리즘과 3D 패턴 매칭 알고리즘을 통해 3D 매칭하여 기준모델의 기준위치 대비한 이동량을 계산하고, 이동량에 따른 제1 위치편차를 제1 협동로봇(110)으로 전달한다. 이때 이동량은 위치 및 회전 이동량을 포함한다.The control module 140 obtains a scanning model M2 obtained by enlarging and scanning the shape of the rod end surface 12 on the rear surface of the room mirror through the second 3D scanning module 120, and obtains the scanning model M2 and the pre-stored reference model. (M2_ref) is 3D matched through the ICP algorithm and the 3D pattern matching algorithm to calculate the amount of movement relative to the reference position of the reference model, and transmits the first position deviation according to the amount of movement to the first collaborative robot 110. At this time, the movement amount includes positional and rotational movement amounts.

즉, 위치편차는 기준모델(M2_ref)의 기준 위치에 대비한 현재의 스캐닝모델(M2)의 3차원 상의 위치 및 회전 이동량을 포함하며, 이 역시 총 6개의 파라미터(Δx,Δy,Δz,ΔRx,ΔRy,ΔRz)로 이루어질 수 있다. That is, the position deviation includes the 3-dimensional position and rotational movement amount of the current scanning model M2 compared to the reference position of the reference model M2_ref, which also includes a total of six parameters (Δx, Δy, Δz, ΔRx, ΔRy, ΔRz).

여기서, 제2 협동로봇(130)은 로드 단부면 기준모델(M2_ref)을 기준으로 기 생성된 제품장착용 로봇 자세를 디폴트 자세로 기 저장하고 있다. 이러한 디폴트 자세는 기준 모델에 해당한 룸미러의 로드 단부면(12) 부분이 차량 글라스(20)의 고정편(21)에 정위치 조준되어 장착되기 위해 필요한 로봇 자세를 나타낼 수 있다.Here, the second collaborative robot 130 pre-stores the pre-created product mounting robot posture as a default posture based on the rod end face reference model M2_ref. Such a default posture may represent a robot posture required for the rod end face 12 of the room mirror corresponding to the reference model to be mounted on the fixing piece 21 of the vehicle glass 20 while aiming at the correct position.

따라서, 제2 협동로봇(130)은 기준모델(M2_ref)에 대응하여 기 저장된 제품장착용 로봇 자세를 제2 위치편차를 이용하여 보정함으로써, 현재 단부면(12)의 틀어진 정도에 맞게 로봇 자세를 변경하여 차량 글라스(20)의 고정편(21)에 정확하게 장착할 수 있다. 이와 같이, 제2 협동로봇(130)은 기 등록된 제품장착용 로봇 자세에 제2 위치편차를 반영하여 로봇 자세를 변경하고 이를 기반으로 암부를 제어하여 제품의 피킹을 수행하게 된다. Therefore, the second collaborative robot 130 corrects the pre-stored product mounting robot posture corresponding to the reference model M2_ref using the second position deviation, thereby adjusting the robot posture according to the degree of distortion of the current end surface 12. It can be modified and accurately mounted on the fixing piece 21 of the vehicle glass 20. In this way, the second collaborative robot 130 changes the robot posture by reflecting the second position deviation to the pre-registered product mounting robot posture, and controls the arm based on this to perform product picking.

본 발명의 실시예에 따르면, 협동 로봇의 좌표계를 기준으로 전체 구성이 공통 좌표계를 가질 수 있다. 이를 위해, 제1 협동로봇(110) 또는 제2 협동로봇(130)과 제1 3D스캔모듈(115) 또는 제2 3D스캔모듈(120) 간의 좌표 캘리브레이션이 제1 협동로봇(110) 또는 제2 협동로봇(130)의 좌표계를 기준으로 사전에 이루어져, 협동로봇과 3D스캔모듈 간 공통 좌표계를 가질 수 있다. 이에 따라 3D스캔모듈을 통해 얻은 스캐닝 영상의 좌표가 협동로봇의 로봇 베이스 좌표계를 기준으로 변경될 수 있다. According to an embodiment of the present invention, the entire configuration may have a common coordinate system based on the coordinate system of the collaborative robot. To this end, coordinate calibration between the first cooperative robot 110 or the second cooperative robot 130 and the first 3D scan module 115 or the second 3D scan module 120 is performed by the first cooperative robot 110 or the second cooperative robot 110. It is made in advance based on the coordinate system of the cooperative robot 130, and may have a common coordinate system between the cooperative robot and the 3D scan module. Accordingly, the coordinates of the scanning image obtained through the 3D scan module may be changed based on the coordinate system of the robot base of the cooperative robot.

캘리브레이션 과정은 캘리브레이션 오브젝트를 협동로봇에 장착한 상태에서 로봇 자세를 변경해가면서 3D 스캔모듈을 통해 캘리브레션 오브젝트를 스캐닝하는 과정을 통해 수행될 수 있다. 이때, 본 발명의 실시예에서는 입체 구조의 캘리브레이션 오브젝트를 활용한다.The calibration process may be performed through a process of scanning the calibration object through a 3D scan module while changing the posture of the robot while the calibration object is mounted on the cobot. At this time, in the embodiment of the present invention, a three-dimensional structured calibration object is utilized.

구체적으로 제어모듈(140)은 입체 구조의 캘리브레이션 오브젝트가 제1 또는 제2 협동로봇에 장착된 상태에서 로봇 포즈를 변화하면서 제1 또는 제2 3D 스캔모듈을 통해 오브젝트를 스캔하여 획득되는 복수의 로봇 포즈와 복수의 오브젝트 스캔 결과 세트를 바탕으로 캘리브레이션을 수행할 수 있다. Specifically, the control module 140 is a plurality of robots obtained by scanning the object through the first or second 3D scan module while changing the robot pose while the three-dimensional calibration object is mounted on the first or second cooperative robot. Calibration can be performed based on a set of poses and multiple object scan results.

제1 3D스캔모듈(115)은 제1 협동로봇(110)의 로봇 툴에 장착되어 있고, 제2 3D스캔모듈(120)은 별도의 프로파일에 고정되어 있다. 예를 들어, 제1 협동로봇(110)이 캘리브레이션 오브젝트를 장착한 상태에서 로봇 포즈를 변경하면서 제2 3D스캔모듈(120)에 오브젝트를 스캔하여 캘리브레이션을 수행할 수 있고, 제2 협동로봇(130)이 오브젝트를 장착한 상태에서 로봇 포즈를 변경하면서 제2 3D스캔모듈(120)에 오브젝트를 스캔하여 캘리브레이션을 수행할 수 있다.The first 3D scan module 115 is mounted on the robot tool of the first collaborative robot 110, and the second 3D scan module 120 is fixed to a separate profile. For example, the first collaborative robot 110 may perform calibration by scanning the object with the second 3D scan module 120 while changing the robot pose while the calibration object is mounted, and the second collaborative robot 130 ) may perform calibration by scanning an object in the second 3D scan module 120 while changing a robot pose in a state in which the object is mounted.

도 7은 본 발명의 실시예에서 캘리브레이션 오브젝트를 나타낸 도면이다.7 is a diagram showing a calibration object in an embodiment of the present invention.

도 7의 (a)는 캘리브레이션 오브젝트의 실물을 나타내고, (b)는 이를 스캔모듈로 스캐닝한 영상을 나타낸다. 그리고 도 7의 (c)는 오브젝트를 쥔 로봇 포즈를 변경하면서 3D 스캔모듈에 오브젝트를 스캐닝한 이미지를 나타낸다. (a) of FIG. 7 shows the real object of the calibration, and (b) shows an image scanned by the scan module. 7(c) shows an image obtained by scanning an object with a 3D scan module while changing a pose of the robot holding the object.

캘리브레이션 오브젝트는 피라미드 구조와 같이 외곽으로 갈수록 직경이 점차 넓어지며 네 개의 면이 결합된 구조를 가진다. 여기서 네 개의 면은 기울어진 각도가 모두 상이하게 구현되어 캘리브레이션 정확도를 높인다. The calibration object has a structure in which the diameter gradually widens as it goes to the outside like a pyramid structure, and has a structure in which four faces are combined. Here, all four faces are implemented with different inclination angles to increase calibration accuracy.

이와 같이, 복수의 로봇 자세(포즈)와 오브젝트 스캔 결과를 이용하면 로봇의 베이스 좌표(로봇 좌표계)와 3D 스캔모듈의 좌표 사이의 관계가 만들어진다. 이를 통해 3D스캔모듈에서 얻어지는 모든 좌표값을 로봇 좌표계를 기준으로 캘리브레이션할 수 있다. 이와 같이, 제1, 제2 협동로봇과 제1,제2 스캔센서 간에 캘리브레이션이 수행되어 공통좌표계가 생성될 수 있다. 또한 협동로봇들 간에도 캘리브레이션이 이루어지며 캘리브레이션을 통해 얻은 좌표변환 행렬 등을 이용하여 공통좌표계를 가질 수 있다.In this way, when a plurality of robot postures (poses) and object scan results are used, a relationship between the base coordinates of the robot (robot coordinate system) and the coordinates of the 3D scan module is created. Through this, all coordinate values obtained from the 3D scan module can be calibrated based on the robot coordinate system. In this way, calibration may be performed between the first and second cooperative robots and the first and second scan sensors to generate a common coordinate system. In addition, calibration is performed between cobots, and a common coordinate system can be obtained by using a coordinate transformation matrix obtained through calibration.

도 8은 본 발명의 실시예에 따른 캘리브레이션 개념도이다. 이러한 도 8에서 3D스캔 센서는 프로파일에 고정된 제2 3D스캔모듈로 가정하고 로봇1과 로봇2는 각각 제1, 제2 협동로봇으로 가정한다. H는 행렬을 나타내며, 각 구성요소 간의 관계에 따른 변환 행렬에 해당한다. 8 is a conceptual diagram of calibration according to an embodiment of the present invention. In FIG. 8, the 3D scan sensor is assumed to be a second 3D scan module fixed to a profile, and robot 1 and robot 2 are assumed to be first and second cooperative robots, respectively. H represents a matrix and corresponds to a transformation matrix according to the relationship between each component.

Figure pat00001
은 로봇1에서 3D 스캔 센서 간의 회전과 위치이동값을 나타내는 4×4 행렬이며 아래 수학식 1과 같으며, 이러한 회전과 위치이동 좌표를 로봇 포즈값으로
Figure pat00002
로 변환하여 표현할 수도 있다.
Figure pat00003
은 협동로봇2에서 3D 스캔 센서 간의 회전과 위치이동값을 나타내는 4×4 행렬이며 로봇 포즈값이다. 로봇1과 로봇2와의 관계는
Figure pat00004
로 나타낼 수 있다. 일련의 과정을 통하여 로봇간의 공통좌표계 생성이 가능하다.
Figure pat00001
Is a 4 × 4 matrix representing the rotation and displacement values between the 3D scan sensors in robot 1 and is shown in Equation 1 below, and these rotation and displacement coordinates are used as robot pose values.
Figure pat00002
It can also be expressed by converting to .
Figure pat00003
is a 4x4 matrix representing the rotation and position movement values between the 3D scan sensors in the cooperative robot 2 and is the robot pose value. The relationship between robot 1 and robot 2 is
Figure pat00004
can be expressed as Through a series of processes, it is possible to create a common coordinate system between robots.

Figure pat00005
Figure pat00005

캘리브레이션을 통한 좌표계 변환은 전변환 행렬이나 좌표축의 자세를 표현하는 직관적인 방법인 오일러 각도 변환(Euler Angle Transform)을 활용할 수 있다. 이러한 기술은 기 공개된 기술에 해당하므로 상세한 설명은 생략한다.Coordinate system transformation through calibration can utilize a pre-transformation matrix or Euler Angle Transform, which is an intuitive method of expressing the posture of a coordinate axis. Since these technologies correspond to previously disclosed technologies, a detailed description thereof will be omitted.

다음은 협동로봇 연동 알고리즘에 관하여 개략적으로 설명한다. 먼저, 로봇-스캐너 시스템을 이용한 Bin picking 작업의 구성을 설명한다. The following is a brief description of the collaborative robot interlocking algorithm. First, the configuration of bin picking work using the robot-scanner system is explained.

도 9는 본 발명의 실시예에서 피킹 작업 알고리즘의 개념도이다. 이러한 도 9는 빈 피킹 알고리즘의 개념으로, 로봇을 기준으로 위아래 두 개의 경로로 나뉘어져 있는데 위쪽은 기준위치에 놓인 기준모델의 대상물(룸미러)을 피킹하는 경우에 대한 것이고 아래 쪽은 임의 위치에 놓인 대상물을 스캔하여 피킹하는 상황을 나타낸다. 즉, 이러한 도 9는 기준모델에 대한 현재 스캐닝모델의 위치 편차와 관련된다. 9 is a conceptual diagram of a picking operation algorithm in an embodiment of the present invention. 9 is the concept of the bin picking algorithm, which is divided into two paths, up and down, based on the robot. Indicates the situation of scanning and picking an object. That is, this FIG. 9 is related to the position deviation of the current scanning model with respect to the reference model.

도면에서 로봇은 협동로봇1이고 로봇툴은 협동로봇1에서 스캐너가 장착된 툴 부분을 의미하고, 스캐너는 3D 스캔 센서1을 나타낸다. 대상물(트레인)은 트레이에 놓여진 기준위치의 대상물로 기준모델에 대응한다. 그 아래 보이는 대상물(픽킹)은 현재 트레이의 임의 위치에 놓여진 대상물로 스캐닝모델에 대응한다. In the figure, the robot is the cobot 1, the robot tool means a tool part of the cobot 1 on which the scanner is mounted, and the scanner represents the 3D scan sensor 1. An object (train) is an object at a reference position placed on a tray and corresponds to a reference model. The object (picking) shown below corresponds to the scanning model as an object placed at an arbitrary position on the current tray.

먼저, 대상물(트레인)을 스캔하고 이때의 포즈를

Figure pat00006
로 저장한다.
Figure pat00007
로 회전과 위치이동을 포함한
Figure pat00008
행렬이다. 이때 R은 회전(rotation), t는 위치이동(translation)을 나타낸다. 이를 로봇 좌표로 변환하면
Figure pat00009
의 6축 좌표로 나타낼 수 있다. First, the object (train) is scanned and the pose at this time is
Figure pat00006
Save as
Figure pat00007
Including rotation and positioning with
Figure pat00008
it is a matrix At this time, R represents rotation and t represents translation. Converting this to robot coordinates
Figure pat00009
It can be represented by the 6-axis coordinates of

그리고 작업 대상이 되는 대상물(픽킹)과 관련한 포즈

Figure pat00010
는 다음 수학식 2로 표현될 수 있다.And poses related to the object (picking) to be worked on
Figure pat00010
Can be expressed as Equation 2 below.

Figure pat00011
Figure pat00011

여기서

Figure pat00012
는 3D스캐너와 협동로봇1의 엔드이팩터 간의 관계를 나타내는 행렬로 회전과 위치이동으로 구성된
Figure pat00013
행렬이다.
Figure pat00014
는 대상체의 이동 편차를 나타내는 회전과 위치이동으로 구성된 행렬이다.here
Figure pat00012
is a matrix representing the relationship between the 3D scanner and the end-effector of the cobot 1, consisting of rotation and positional movement.
Figure pat00013
it is a matrix
Figure pat00014
is a matrix composed of rotation and positional movement representing the movement deviation of the object.

도 10은 본 발명의 실시예에서 장착 작업 알고리즘의 개념도이다.10 is a conceptual diagram of a mounting operation algorithm in an embodiment of the present invention.

도 10의 상단 그림은 협동로봇2에 그립된 대상물을 3D 스캔센서2로 스캔하는 개념으로, 이때 협동로봇2를 기준으로 로봇툴에 기준모델이 장착된 상태에서 스캔되는 경우와 현재 그립된 대상물의 로드 단부면이 스캐닝되는 경우로 구분되며 상호 간 편차가 존재한다.The upper figure of FIG. 10 is the concept of scanning an object gripped by the cobot 2 with the 3D scan sensor 2. At this time, the case of scanning with the reference model mounted on the robot tool based on the cobot 2 and the currently gripped object It is divided into the case where the rod end face is scanned, and there is a mutual deviation.

도 10의 하단 그림은 협동로봇2에 그립된 대상물을 장착하는 경우에 대한 것이다. 여기서, 기준모델과 대비하여 현재 대상물의 장착에 필요한 포즈는 Hinstall로 표현되며 이는 수학식 3과 같이 정의된다.The lower figure of FIG. 10 is for the case of mounting the gripped object on the cobot 2. Here, in contrast to the reference model, the pose required for mounting the current object is expressed as H install , which is defined as in Equation 3.

Figure pat00015
Figure pat00015

여기서, 수학시 2와 3에 언급된 각 파라미터는 아래 수학식 4와 같이 정의될 수 있다. Here, each parameter mentioned in 2 and 3 in mathematics may be defined as in Equation 4 below.

Figure pat00016
Figure pat00016

Figure pat00017
Figure pat00017

Figure pat00018
Figure pat00018

Figure pat00019
Figure pat00019

이때 사용되는 모든 행렬은 수학식 1과 같은 4×4 행렬의 형태를 가진다. All matrices used at this time have the form of a 4 × 4 matrix as shown in Equation 1.

도 11은 본 발명의 실시예에 따른 차량 글라스 룸미러 장착 과정을 예시적으로 설명한 도면이다.11 is a view illustrating a process of installing a glass room mirror of a vehicle according to an embodiment of the present invention by way of example.

도 11의 상측 그림들은 제1 협동로봇(110)에 장착된 제1 3D스캔모듈(115)을 이용하여 트레이(30)에 놓인 룸미러(10)의 뒤집힌 후면 테두리를 스캔한 다음, 스캐닝 결과에 따라 보정된 로봇 자세를 바탕으로 제품을 그리퍼(111)로 피킹하여 이동하는 모습을 나타낸다. 11 shows the inverted rear edge of the room mirror 10 placed on the tray 30 using the first 3D scan module 115 mounted on the first collaborative robot 110, and then the scanning result is displayed. Based on the corrected robot posture, it shows how the product is picked and moved with the gripper 111.

다음의 그림들은 제1 협동로봇(110)이 제2 협동로봇(130)과 마주보는 상태로 룸미러(10)를 전달하는 모습을 보여준다. 전달 완료 후 제1 협동로봇(110)은 초기 위치로 복귀하여 대기한다.The following figures show how the first cooperative robot 110 delivers the room mirror 10 while facing the second cooperative robot 130. After completion of delivery, the first cooperative robot 110 returns to its initial position and stands by.

하측 그림들은 제2 협동로봇(130)이 룸미러(10)를 그립한 상태로 제2 3D스캔모듈(120)의 전방에 암무를 접근하여 룸미러 후면의 로드 끝단부를 정밀 스캐닝한 후에, 스캐닝 결과에 따라 보정된 로봇 자세를 바탕으로 룸미러(10)를 차량 글라스의 고정편에 장착한 다음 그립을 해제하는 모습을 나타낸다. The lower figures show the scanning results after the second collaborative robot 130 approaches the front of the second 3D scan module 120 with the arm arm while gripping the room mirror 10 and precisely scans the end of the rod on the rear side of the room mirror. Based on the posture of the robot corrected according to Fig. 1, the room mirror 10 is mounted on the fixing piece of the vehicle glass and then the grip is released.

이상과 같은 본 발명에 따르면, 협동 로봇과 3D 스캔모듈을 이용하여 차량 글라스의 룸미러 체결 부위에 룸미러의 로드 끝단면을 정확하게 결합 장착할 수 있다. According to the present invention as described above, the end surface of the rod of the room mirror can be accurately coupled and mounted to the fastening portion of the room mirror of the vehicle glass using the collaborative robot and the 3D scan module.

또한, 룸미러의 로드 끝단부 형상의 3D 스캐닝을 기반으로 현재 스캔된 모델이 기준모델로부터 틀어진 위치편차를 분석하여 로봇 자세를 변경할 수 있어 로드의 끝단부가 글라스의 체결부에 정확히 정조준되어 체결 가능하다. In addition, based on the 3D scanning of the shape of the end of the rod of the room mirror, the current scanned model analyzes the positional deviation from the reference model to change the robot posture, so that the end of the rod can be precisely aimed at the fastening part of the glass and fastened. .

이에 따르면, 룸미러 제품 별로 룸미러에 대해 로드 끝단부의 위치 편차가 존재하더라도 해당 제품의 틀어진 상태에 맞게 룸미러 장착 과정에서 로봇 자세가 적응적으로 변경될 수 있어 장착 작업의 정확도를 높일 수 있다. According to this, even if there is a positional deviation of the end of the rod with respect to the room mirror for each room mirror product, the posture of the robot can be adaptively changed during the installation process of the room mirror according to the distorted state of the product, thereby increasing the accuracy of the mounting operation.

본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical scope of protection of the present invention should be determined by the technical spirit of the appended claims.

100: 차량 글라스 룸미러 장착 시스템
110: 제1 협동로봇 111: 그리퍼
115: 제1 3D스캔모듈 120: 제2 3D스캔모듈
130: 제2 협동로봇 131: 그리퍼
140: 제어모듈
100: vehicle glass room mirror mounting system
110: first collaborative robot 111: gripper
115: first 3D scan module 120: second 3D scan module
130: second collaborative robot 131: gripper
140: control module

Claims (9)

다관절 로봇의 암부에 제1 3D스캔모듈과 그리퍼를 장착하며, 암부를 이동시켜 트레이에 대기중인 룸미러의 후면을 스캐닝하고, 기준모델 대비 현재 스캐닝모델의 틀어진 제1 위치편차를 바탕으로 기 설정된 제품피킹용 로봇 자세를 변경하여 변경된 로봇 자세로 암부를 제어하여 상기 룸미러를 파지하는 제1 협동로봇;
상기 제1 협동로봇으로부터 전달받은 룸미러를 파지한 제2 협동로봇의 암부가 정면에 접근 시에 상기 룸미러의 후면을 스캐닝하되, 차량 글라스에 장착된 상태로 회동하는 룸미러의 로드 끝단의 단부면을 정밀 스캐닝하는 제2 3D스캔모듈;
다관절 로봇의 암부에 그리퍼를 장착하며, 룸미러를 파지한 암부를 상기 제2 3D스캔모듈로 접근시켜 정밀 스캐닝되게 한 다음 스캐닝 결과에 따라 암부를 제어하여 상기 룸미러를 차량 글라스에 장착하되, 로드 단부면 기준모델 대비 현재 로드 단부면 스캐닝모델의 틀어진 제2 위치편차를 바탕으로 기 설정된 제품장착용 로봇 자세를 변경하여 변경된 로봇 자세로 암부를 제어하여 상기 룸미러의 로드 단부면이 차량 글라스의 고정편에 장착되게 하는 제2 협동로봇; 및
상기 제1, 제2 협동로봇과 상기 제1, 제2 3D스캔모듈을 제어하며, 상기 제1, 제2 3D스캔모듈의 스캐닝 결과로부터 각 위치편차를 분석하여 상기 제1, 제2 협동로봇으로 전달하는 제어모듈을 포함하는 차량 글라스 룸미러 장착 시스템.
The first 3D scan module and the gripper are mounted on the arm of the articulated robot, and the arm is moved to scan the back of the room mirror waiting on the tray. a first cooperative robot that changes the position of the robot for product picking and controls the arm part with the changed position of the robot to hold the room mirror;
When the arm of the second collaborative robot holding the room mirror received from the first collaborative robot approaches the front side, scanning the rear surface of the room mirror, the end of the rod end of the room mirror mounted on the vehicle glass and rotating A second 3D scan module that precisely scans the surface;
A gripper is mounted on the arm of the articulated robot, and the arm holding the room mirror is approached with the second 3D scan module to be precisely scanned, and then the arm is controlled according to the scanning result to mount the room mirror on the vehicle glass, Based on the second position deviation of the current rod end surface scanning model compared to the rod end surface reference model, the preset product mounting robot posture is changed and the arm part is controlled with the changed robot posture, so that the rod end surface of the room mirror is of the vehicle glass. a second cooperative robot to be mounted on the fixing piece; and
It controls the first and second cooperative robots and the first and second 3D scan modules, and analyzes each positional deviation from the scanning results of the first and second 3D scan modules to determine the first and second cooperative robots. A vehicle glass room mirror mounting system including a control module that transmits
청구항 1에 있어서,
상기 제1 위치편차 또는 제2 위치편차는,
기 설정된 기준모델의 기준 위치에 대비한 현재의 스캐닝모델의 3차원 상의 위치 및 회전 이동량을 포함하는 차량 글라스 룸미러 장착 시스템.
The method of claim 1,
The first position deviation or the second position deviation,
A vehicle glass room mirror mounting system including the 3D position and rotational movement amount of the current scanning model compared to the reference position of the preset reference model.
청구항 1 또는 청구항 3에 있어서,
상기 제어모듈은,
상기 제1 3D 스캔모듈을 통해 상기 룸미러의 후면 테두리 모양을 스캐닝한 스캐닝모델과 기 저장된 기준모델을 ICP(Iterative Closest Point) 알고리즘을 이용하여 3D 매칭하여 상기 제1 위치편차를 연산하고,
상기 제2 3D 스캔모듈을 통해 상기 룸미러 후면의 로드 단부면 모양을 스캐닝한 스캐닝모델과 기 저장된 로드 단부면 기준모델을 ICP 알고리즘을 이용하여 3D 매칭하여 상기 제2 위치편차를 연산하는 차량 글라스 룸미러 장착 시스템.
According to claim 1 or claim 3,
The control module,
Calculate the first position deviation by 3D matching a scanning model obtained by scanning a rear edge shape of the room mirror through the first 3D scan module and a pre-stored reference model using an Iterative Closest Point (ICP) algorithm;
A vehicle glass room that calculates the second position deviation by 3D matching the scanning model obtained by scanning the shape of the rod end surface on the back side of the room mirror through the second 3D scan module and the previously stored reference model of the rod end surface using an ICP algorithm. mirror mounting system.
청구항 1에 있어서,
상기 제1 협동로봇은,
상기 기준모델을 기준으로 생성된 상기 제품피킹용 로봇 자세를 디폴트 자세로 기 저장하고,
상기 제2 협동로봇은,
상기 로드 단부면 기준모델을 기준으로 생성된 상기 제품장착용 로봇 자세를 디폴트 자세로 기 저장하는 차량 글라스 룸미러 장착 시스템
The method of claim 1,
The first collaborative robot,
Pre-store the posture of the product picking robot generated based on the reference model as a default posture,
The second collaborative robot,
A vehicle glass room mirror mounting system that pre-stores the product mounting robot posture generated based on the rod end surface reference model as a default posture
청구항 1에 있어서,
상기 제1 협동로봇은,
스캐닝 결과에 따라 암부를 제어하여 상기 룸미러를 파지한 다음, 측면에 이웃하여 배치된 상기 제2 협동로봇으로 전달하고,
상기 제2 협동로봇은,
상기 제1 협동로봇과 서로 암부 간이 마주한 상태로 상기 룸미러를 전달받는 다음, 자세 변경을 통해 암부를 설정 위치의 상기 제2 3D스캔모듈의 정면을 향해 이동시키는 차량 글라스 룸미러 장착 시스템.
The method of claim 1,
The first collaborative robot,
According to the scanning result, the dark part is controlled to grip the room mirror, and then transferred to the second cooperative robot disposed next to the side,
The second collaborative robot,
The vehicle glass room mirror mounting system for receiving the room mirror in a state in which the arm parts face each other with the first collaborative robot, and then moving the arm part toward the front of the second 3D scan module at a set position through a posture change.
청구항 1에 있어서,
상기 제1 협동로봇과 상기 제2 협동로봇은,
각각의 그리퍼가 상기 룸미러의 테두리를 파지하되, 룸미러 전달 과정에서 그리퍼 간 간섭이 없도록 상기 룸미러의 서로 다른 테두리 부분을 파지하는 차량 글라스 룸미러 장착 시스템.
The method of claim 1,
The first cooperative robot and the second cooperative robot,
A vehicle glass room mirror mounting system in which each gripper grips an edge of the room mirror, but grips different edge portions of the room mirror so that there is no interference between the grippers in a transfer process of the room mirror.
청구항 1에 있어서,
상기 차량 글라스는,
상기 제1 및 제2 협동로봇 사이에 마련된 거치대 위에 오목한 면이 위를 향하도록 배치되어 사전에 준비된 차량 글라스 룸미러 장착 시스템.
The method of claim 1,
The vehicle glass,
A vehicle glass room mirror mounting system prepared in advance by placing a concave surface facing upward on a cradle provided between the first and second cooperative robots.
청구항 1에 있어서,
상기 제1 협동로봇 또는 제2 협동로봇의 좌표계를 기준으로 상기 제1 협동로봇 또는 제2 협동로봇과 상기 제1 3D스캔모듈 또는 제2 3D스캔모듈 간의 좌표 캘리브레이션이 사전에 이루어져 협동로봇과 3D스캔모듈 간 공통 좌표계를 가지는 차량 글라스 룸미러 장착 시스템.
The method of claim 1,
Coordinate calibration between the first or second cooperative robot and the first 3D scan module or the second 3D scan module is performed in advance based on the coordinate system of the first or second cooperative robot, so that the 3D scan with the cooperative robot A vehicle glass room mirror mounting system that has a common coordinate system between modules.
청구항 8에 있어서,
상기 제어모듈은,
입체 구조의 캘리브레이션 오브젝트가 제1 또는 제2 협동로봇에 장착된 상태에서 로봇 포즈를 변화하면서 상기 제1 또는 제2 3D 스캔모듈을 통해 상기 오브젝트를 스캔하여 획득되는 복수의 로봇 포즈와 복수의 오브젝트 스캔 결과를 바탕으로 상기 캘리브레이션을 수행하는 차량 글라스 룸미러 장착 시스템.
The method of claim 8,
The control module,
A plurality of robot poses and a plurality of object scans acquired by scanning the object through the first or second 3D scan module while changing the robot pose in a state where a three-dimensional calibration object is mounted on the first or second collaborative robot A vehicle glass room mirror mounting system that performs the calibration based on the result.
KR1020220013061A 2021-12-29 2022-01-28 System for mounting room mirror on vehicle glass KR102598336B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210190916 2021-12-29
KR20210190916 2021-12-29

Publications (2)

Publication Number Publication Date
KR20230103788A true KR20230103788A (en) 2023-07-07
KR102598336B1 KR102598336B1 (en) 2023-11-07

Family

ID=87153794

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220013061A KR102598336B1 (en) 2021-12-29 2022-01-28 System for mounting room mirror on vehicle glass

Country Status (1)

Country Link
KR (1) KR102598336B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017035754A (en) * 2015-08-10 2017-02-16 ファナック株式会社 Robot system with visual sensor and multiple robots

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017035754A (en) * 2015-08-10 2017-02-16 ファナック株式会社 Robot system with visual sensor and multiple robots

Also Published As

Publication number Publication date
KR102598336B1 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
CN109397282B (en) Method and system for machining robot arm and computer readable recording medium
JP6415190B2 (en) ROBOT DEVICE, ROBOT CONTROL PROGRAM, RECORDING MEDIUM, AND ROBOT DEVICE CONTROL METHOD
JP7237483B2 (en) Robot system control method, control program, recording medium, control device, robot system, article manufacturing method
CN111331592B (en) Mechanical arm tool center point correcting device and method and mechanical arm system
CN111300481B (en) Robot grabbing pose correction method based on vision and laser sensor
JP6468741B2 (en) Robot system and robot system calibration method
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
JP5606241B2 (en) Visual cognitive system and method for humanoid robot
JP7153085B2 (en) ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD
CN106457562B (en) Method and robot system for calibration machine people
JP6611888B2 (en) Robot device, control method of robot device, program, and recording medium
WO2018043525A1 (en) Robot system, robot system control device, and robot system control method
JP5450242B2 (en) Manipulator calibration method and robot control system
JP6653777B1 (en) Automatic polishing system
CN112045682B (en) Calibration method for solid-state area array laser installation
JPS6358505A (en) Robot controller
KR102598336B1 (en) System for mounting room mirror on vehicle glass
JP7057841B2 (en) Robot control system and robot control method
WO2021019627A1 (en) Calibration method for computer vision system and three-dimensional reference object for use in same
WO2022195944A1 (en) Robot system, and control method for robot system
CN114643577B (en) Universal robot vision automatic calibration device and method
TW202402492A (en) Robot and robot hand-eye callibrating method
CN115958589A (en) Method and device for calibrating hand and eye of robot
CN113492401A (en) Correction method
JP7481432B2 (en) Apparatus for correcting robot teaching position, teaching apparatus, robot system, teaching position correction method, and computer program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant