KR102307047B1 - Apparatus and method for determining picking order of the picking robot - Google Patents

Apparatus and method for determining picking order of the picking robot Download PDF

Info

Publication number
KR102307047B1
KR102307047B1 KR1020200081853A KR20200081853A KR102307047B1 KR 102307047 B1 KR102307047 B1 KR 102307047B1 KR 1020200081853 A KR1020200081853 A KR 1020200081853A KR 20200081853 A KR20200081853 A KR 20200081853A KR 102307047 B1 KR102307047 B1 KR 102307047B1
Authority
KR
South Korea
Prior art keywords
picking
area
dimensional image
information
effector
Prior art date
Application number
KR1020200081853A
Other languages
Korean (ko)
Inventor
강창구
박영천
김승연
Original Assignee
주식회사 두산
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 두산 filed Critical 주식회사 두산
Priority to KR1020200081853A priority Critical patent/KR102307047B1/en
Priority to KR1020210121942A priority patent/KR20220004589A/en
Application granted granted Critical
Publication of KR102307047B1 publication Critical patent/KR102307047B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

A picking priority selection device is provided. The picking priority selection device comprises: an acquisition unit configured to acquire a two-dimensional image and depth information for a setting area on which a plurality of picking objects are placed; a detection unit configured to detect the object using the two-dimensional image and the depth information; an analysis unit that analyzes the two-dimensional image and the object detected in the depth information to calculate at least two pieces of environment information for each object; and a picking priority selection unit configured to select a picking priority of the plurality of picking objects by applying a predetermined weight to the at least two pieces of environment information. An object of the present invention is to provide the picking priority selection device and the picking priority selection method for selecting and giving a priority to be picked by a robot for a plurality of picking objects.

Description

로봇의 피킹 우선 순위 선정 장치 및 방법{Apparatus and method for determining picking order of the picking robot}Apparatus and method for determining picking order of the picking robot

본 발명은 로봇에 의해 피킹되는 대상물의 피킹 순서를 선정하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for selecting a picking order of an object to be picked by a robot.

물건을 가공하거나 처리하는 로봇을 해당 물건에 맞춰 제어하기 위해, 물건을 탐지하는 센서가 이용될 수 있다.In order to control a robot that processes or processes an object according to the object, a sensor for detecting an object may be used.

물건에 대한 로봇의 처리 정확도는 센서의 측정 정밀도에 관련될 수 있다. 로봇의 처리 정확도를 개선하기 위해 센서의 측정 정밀도는 높을수록 유리하다.The processing accuracy of the robot on the object may be related to the measurement precision of the sensor. In order to improve the processing accuracy of the robot, the higher the measurement precision of the sensor, the more advantageous.

하지만, 높은 측정 정밀도를 갖는 센서는 매우 고가이므로 보급화가 어렵다. 또한, 높은 측정 정밀도를 갖는 센서를 마련하는 경우에도, 물건의 종류에 따라 난반사 등을 이유로 측정 정밀도가 저하되는 상황이 발생될 수 있다.However, since a sensor having high measurement accuracy is very expensive, popularization is difficult. Also, even when a sensor having high measurement accuracy is provided, a situation in which measurement accuracy is lowered due to diffuse reflection or the like may occur depending on the type of object.

센서를 이용해서 탐지된 물건에 대한 피킹 작업을 수행할 때, 복수의 물건 중 어떤 물건부터 피킹할지에 대한 선택의 문제가 발생될 수 있다.When performing a picking operation on an object detected by using a sensor, a problem of selecting which object to pick from among a plurality of objects may occur.

한국공개특허공보 제2019-0072285호에는 피킹 조망 카메라를 통해 선택된 파지 대상물의 위치를 파악하고, 파지부를 이용해 파지 대상물을 파지하는 기술이 나타나 있다.Korean Patent Application Laid-Open No. 2019-0072285 discloses a technique of grasping the position of a gripping object selected through a picking view camera and gripping the gripping object using a gripper.

한국공개특허공보 제2019-0072285호Korean Patent Publication No. 2019-0072285

본 발명의 목적은 복수의 피킹 대상물을 대상으로 로봇에 의해 피킹될 순위를 선정하고 부여하는 피킹 우선 순위 선정 장치 및 피킹 우선 순위 선정 방법을 제공하기 위한 것이다.It is an object of the present invention to provide a picking priority selection device and a picking priority selection method for selecting and giving a priority to be picked by a robot for a plurality of picking objects.

본 발명의 실시예에 따르면 피킹 우선 순위 선정 장치가 제공된다. 상기 선정 로봇 제어 장치는, 복수의 피킹 대상물이 놓여있는 설정 영역에 대한 2차원 이미지와 뎁스 정보를 획득하는 획득부; 상기 2차원 이미지와 상기 뎁스 정보를 이용하여 상기 대상물을 탐지하는 탐지부; 상기 2차원 이미지와 상기 뎁스 정보 내에 탐지된 상기 대상물을 분석하여 각 대상물 마다 적어도 2개 이상의 환경 정보를 산출하는 분석부; 상기 적어도 2개 이상의 환경 정보에 소정의 가중치를 적용하여 상기 복수의 피킹 대상물의 피킹 우선 순위를 선정하는 피킹 순위 선정부를 포함할 수 있다.According to an embodiment of the present invention, a picking priority selection apparatus is provided. The selection robot control apparatus may include: an acquisition unit configured to acquire a two-dimensional image and depth information for a setting area on which a plurality of picking objects are placed; a detector configured to detect the object using the two-dimensional image and the depth information; an analysis unit that analyzes the two-dimensional image and the object detected in the depth information and calculates at least two pieces of environment information for each object; and a picking priority selector configured to select a picking priority of the plurality of picking objects by applying a predetermined weight to the at least two or more pieces of environment information.

상기 환경 정보는 상기 대상물이 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도, 상기 대상물이 놓인 위치의 높이, 상기 대상물의 마스킹 영역 넓이, 상기 대상물 중심과 상기 2차원 이미지의 중심 간의 관심 거리 중 적어도 2개 이상을 포함할 수 있다.The environment information includes at least two of an interference degree indicating a rate at which the object is interfered with by another object, a height of a position where the object is placed, an area of a masking area of the object, and a distance of interest between the center of the object and the center of the two-dimensional image. It may contain more than one.

상기 획득부는, 상기 피킹 대상물을 피킹하는 이펙터에 관한 정보를 더 입력받고, 상기 피킹 순위 선정부는 상기 이펙터에 관한 정보에 따라 상기 환경 정보 또는 상기 가중치 중 적어도 어느 하나를 변경할 수 있다.The acquiring unit may further receive information on an effector for picking the picking target, and the picking order selecting unit may change at least one of the environment information and the weight according to the information on the effector.

상기 분석부는, 상기 획득부로부터 받은 이펙터에 관한 정보를 이용하여 상기 간섭도를 보정할 수 있다.The analysis unit may correct the interference degree by using information about the effector received from the acquisition unit.

상기 분석부는 상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출할 수 있다.The analysis unit may extract coordinate information of a segmentation pixel of the object by using a deep learning model targeting the two-dimensional image.

상기 분석부는 상기 좌표 정보의 집합에 해당하는 상기 대상물의 마스킹 영역에 상기 대상물을 피킹하는 로봇의 이펙터의 진입에 필요한 여유분을 추가해서 상기 대상물의 간섭 체크 영역을 설정할 수 있다.The analysis unit may set the interference check area of the object by adding a margin necessary for the entry of the effector of the robot picking the object to the masking area of the object corresponding to the set of coordinate information.

상기 분석부는 특정 대상물의 상기 간섭 체크 영역에 대한 다른 대상물의 침범 비율에 따라 상기 간섭도를 산출할 수 있다.The analysis unit may calculate the degree of interference according to an intrusion ratio of another object to the interference check area of a specific object.

상기 분석부는 상기 좌표 정보를 이용해서 상기 대상물의 영역을 구분할 수 있다.The analyzer may classify the area of the object by using the coordinate information.

상기 분석부는 상기 대상물의 영역 중에서 상기 높이에 해당하는 최고 상단 지점의 뎁스값을 추출할 수 있다.The analyzer may extract a depth value of a topmost point corresponding to the height in the area of the object.

상기 분석부는 상기 대상물을 형성하는 복수의 상기 분할 픽셀 중 중심에 배치된 중심 픽셀의 좌표를 추출할 수 있다.The analyzer may extract coordinates of a central pixel disposed at a center among the plurality of divided pixels forming the object.

상기 분석부는 상기 설정 영역을 촬영하는 카메라에 설정된 ROI(Region Of Interest)의 중점 좌표와 상기 중심 픽셀의 좌표 간의 거리에 해당하는 상기 관심 거리를 산출할 수 있다.The analyzer may calculate the distance of interest corresponding to a distance between the central coordinates of a region of interest (ROI) set in the camera for capturing the set region and the coordinates of the central pixel.

또한, 본 발명의 다른 실시예에 따르면, 암(arm)과 상기 암에 설치된 이펙터를 구비한 로봇이 제공된다. 상기 로봇은, 피킹 우선 순위 선정 장치와; 상기 피킹 우선 순위 선정 장치로부터 받은 피킹 우선 순위에 따라 대상물을 피킹하도록 상기 암과 상기 이펙터를 제어하는 제어장치를 포함할 수 있다.In addition, according to another embodiment of the present invention, there is provided a robot having an arm and an effector installed on the arm. The robot may include: a picking priority selection device; and a control device for controlling the arm and the effector to pick an object according to the picking priority received from the picking priority selection device.

또한, 본 발명의 또 다른 실시예에 따르면, 복수의 피킹 대상물의 피킹 우선 순위를 선정하는 피킹 우선 순위 선정 방법이 제공된다. 상기 피킹 우선 순위 선정 방법은 상기 복수의 피킹 대상물이 놓여있는 설정 영역에 대한 2차원 이미지와 뎁스 정보를 획득하는 단계; 상기 2차원 이미지와 상기 뎁스 정보를 이용하여 상기 대상물을 탐지하는 단계; 상기 2차원 이미지와 상기 뎁스 정보 내에 탐지된 상기 대상물을 분석하여 각 대상물마다 적어도 2개 이상의 환경 정보를 산출하는 단계; 및 상기 적어도 2개 이상의 환경 정보에 소정의 가중치를 적용하여 상기 복수의 피킹 대상물의 피킹 우선 순위를 선정하는 단계를 포함할 수 있다.In addition, according to another embodiment of the present invention, a picking priority selection method for selecting a picking priority of a plurality of picking objects is provided. The picking priority selection method may include: acquiring a two-dimensional image and depth information for a setting area in which the plurality of picking objects are placed; detecting the object using the two-dimensional image and the depth information; calculating at least two pieces of environmental information for each object by analyzing the two-dimensional image and the object detected in the depth information; and selecting a picking priority of the plurality of picking objects by applying a predetermined weight to the at least two pieces of environment information.

상기 환경 정보는 상기 대상물이 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도, 상기 대상물이 놓인 위치의 높이, 상기 대상물의 마스킹 영역 넓이, 상기 대상물 중심과 상기 2차원 이미지의 중심 간의 관심 거리 중 적어도 2개 이상을 포함할 수 있다.The environment information includes at least two of an interference degree indicating a rate at which the object is interfered with by another object, a height of a position where the object is placed, an area of a masking area of the object, and a distance of interest between the center of the object and the center of the two-dimensional image. It may contain more than one.

상기 피킹 대상물을 피킹하는 이펙터에 관한 정보를 더 입력받고, 상기 이펙터에 관한 정보에 따라 상기 환경 정보 또는 상기 가중치 중 적어도 어느 하나를 변경하는 것을 특징으로 하는 피킹 우선 순위 선정 방법이 제공될 수 있다.A picking priority selection method may be provided, wherein information on an effector for picking the picking target is further input, and at least one of the environment information and the weight is changed according to the information on the effector.

상기 이펙터에 관한 정보를 이용하여 상기 간섭도를 보정하는 것을 특징으로 하는 피킹 우선 순위 선정 방법이 제공될 수 있다.A picking priority selection method may be provided, characterized in that the interference degree is corrected using the information on the effector.

상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고, 상기 좌표 정보의 집합에 해당하는 상기 대상물의 마스킹 영역에 상기 대상물을 피킹하는 로봇의 이펙터의 진입에 필요한 여유분을 추가해서 상기 대상물의 간섭 체크 영역을 설정하고, 특정 대상물의 상기 간섭 체크 영역에 대한 다른 대상물의 침범 비율에 따라 상기 간섭도를 산출하는 것을 특징으로 하는 피킹 우선 순위 선정 방법이 제공될 수 있다.A robot that extracts coordinate information of segmentation pixels of the object by using a deep learning model targeting the two-dimensional image, and picks the object in the masking area of the object corresponding to the set of coordinate information Picking priority selection, characterized in that the interference check area of the object is set by adding a margin necessary for the entry of the effector of A method may be provided.

상기 좌표 정보를 이용해서 상기 대상물의 영역을 구분하며, 상기 대상물의 영역 중에서 상기 높이에 해당하는 최고 상단 지점의 뎁스값을 추출하는 것을 특징으로 하는 피킹 우선 순위 선정 방법이 제공될 수 있다.A picking priority selection method may be provided, wherein the area of the object is divided by using the coordinate information, and a depth value of the highest uppermost point corresponding to the height is extracted from the area of the object.

상기 대상물을 형성하는 복수의 상기 분할 픽셀 중 중심에 배치된 중심 픽셀의 좌표를 추출하며, 상기 설정 영역을 촬영하는 카메라에 설정된 ROI(Region Of Interest)의 중점 좌표와 상기 중심 픽셀의 좌표 간의 거리에 해당하는 상기 관심 거리를 산출하는 피킹 우선 순위 선정 방법이 제공될 수 있다.The coordinates of the central pixel arranged in the center of the plurality of divided pixels forming the object are extracted, and the distance between the central coordinates of the ROI (Region Of Interest) set in the camera for photographing the set area and the coordinates of the central pixel. A picking priority selection method for calculating the corresponding distance of interest may be provided.

본 발명에 따르면, 설정 영역에 복수로 배치된 대상물 중에서 피킹(picking)이 용이한 순서에 따라 피킹 우선 순위가 선정될 수 있다. 그 결과, 이후 피킹 포인트, 접점 포인트, 그랩(grab) 포인트를 검색하는 리드 타임이 단축되고 피킹 성공률이 개선될 수 있다.According to the present invention, a picking priority may be selected according to an order in which picking is easy among a plurality of objects arranged in a setting area. As a result, the lead time for later searching for the picking point, the contact point, and the grab point can be shortened and the picking success rate can be improved.

본 발명에 따르면, 피킹 성공율이 높은 순서에 따라 피킹될 후보가 선정될 수 있다. 또한, 본 발명에 따르면, 피킹 성공율의 분석 정확도를 개선하기 위해 가중치 개념이 도입될 수 있다. 특히, 대상물을 피킹하는 이펙터의 종류에 따라 서로 다른 환경 정보마다 적용되는 가중치가 변경될 수 있다.According to the present invention, candidates to be picked may be selected in the order of the highest picking success rate. Further, according to the present invention, a weight concept may be introduced to improve the analysis accuracy of the picking success rate. In particular, the weight applied to each different environmental information may be changed according to the type of the effector for picking the object.

본 발명에 따르면, 복수의 대상물이 혼잡하게 배치된 상태에서 피킹 성공율이 높은 대상물부터 하나씩 처리될 수 있다. 대상물이 하나씩 픽업될 때마다 다른 대상물 픽업에 장애가 되는 요소가 줄어드는 셈이 되므로, 대상물의 픽업 성공율 또는 피킹 성공율은 픽업 회수에 상관없이 설정 확률 이상 유지될 수 있다.According to the present invention, in a state in which a plurality of objects are congested, the objects having a high picking success rate can be processed one by one. Whenever an object is picked up one by one, an obstacle to picking up another object is reduced, so that the pickup success rate or the picking success rate of the object can be maintained above the set probability regardless of the number of pickups.

도 1은 본 발명의 실시예에 따른 피킹 우선 순위 선정 장치를 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 피킹 장치를 나타낸 개략도이다.
도 3은 간섭도를 산출하는 과정을 나타낸 개략도이다.
도 4는 관심 거리를 나타낸 개략도이다.
도 5는 이펙터의 유형에 따른 가중치의 조절을 나타낸 개략도이다.
도 6은 간섭 체크 영역을 고려한 간섭도를 나타낸 개략도이다.
도 7은 본 발명의 실시예에 따른 피킹 우선 순위 선정 방법을 나타낸 흐름도이다.
도 8은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.
1 is a block diagram illustrating an apparatus for selecting a picking priority according to an embodiment of the present invention.
2 is a schematic diagram showing a picking apparatus according to an embodiment of the present invention.
3 is a schematic diagram illustrating a process of calculating an interference degree.
4 is a schematic diagram illustrating a distance of interest.
5 is a schematic diagram illustrating adjustment of weights according to types of effectors.
6 is a schematic diagram illustrating an interference degree considering an interference check area.
7 is a flowchart illustrating a picking priority selection method according to an embodiment of the present invention.
8 is a diagram illustrating a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In the present specification, duplicate descriptions of the same components will be omitted.

또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when it is mentioned that a certain element is 'connected' or 'connected' to another element, it may be directly connected or connected to the other element, but another element in the middle. It should be understood that there may be On the other hand, in this specification, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that the other element does not exist in the middle.

또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다. In addition, the terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention.

또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, the singular expression may include the plural expression unless the context clearly dictates otherwise.

또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.Also in this specification, terms such as 'include' or 'have' are only intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and one or more It should be understood that the existence or addition of other features, numbers, steps, operations, components, parts or combinations thereof is not precluded in advance.

또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. Also in this specification, the term 'and/or' includes a combination of a plurality of listed items or any of a plurality of listed items.

또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.

도 1은 본 발명의 실시예에 따른 피킹 우선 순위 선정 장치를 나타낸 블록도이다.1 is a block diagram illustrating an apparatus for selecting a picking priority according to an embodiment of the present invention.

도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 피킹 우선 순위 선정 장치는 획득부(210), 탐지부(230), 분석부(250), 피킹 순위 선정부(270)를 포함할 수 있다.As shown in the figure, the picking priority selection apparatus according to an embodiment of the present invention may include an acquisition unit 210 , a detection unit 230 , an analysis unit 250 , and a picking priority selection unit 270 . have.

획득부(210)는 설정 영역의 스캔 결과를 획득할 수 있다. 스캔 결과는 설정 영역에 대한 2차원 이미지, 뎁스 정보, 뎁스 이미지 중 적어도 어느 하나를 포함할 수 있다. 여기서, 뎁스 이미지는 각 픽셀의 뎁스 정보를 2차원 이미지 또는 3차원 이미지로 맵핑한 것으로 뎁스 정보를 나타내는 방법 중 하나이다.The acquisition unit 210 may acquire a scan result of the setting area. The scan result may include at least one of a two-dimensional image, depth information, and a depth image of the setting area. Here, the depth image is one of methods for representing depth information by mapping the depth information of each pixel to a 2D image or a 3D image.

탐지부(230)는 스캔 결과를 분석하고, 설정 영역에 배치된 복수의 피킹 대상물(90)을 탐지할 수 있다.The detector 230 may analyze the scan result and detect a plurality of picking objects 90 arranged in the setting area.

분석부(250)는 이펙터(20)가 피킹(picking)할 수 있는 복수의 대상물(90)이 설정 영역에 배치될 때, 복수의 대상물(90) 각각의 환경 정보를 분석할 수 있다.The analyzer 250 may analyze environmental information of each of the plurality of objects 90 when a plurality of objects 90 that the effector 20 can pick are arranged in the setting area.

피킹 순위 선정부(270)는 복수의 대상물(90) 중 피킹 성공율이 높은 피킹 후보를 선정할 수 있다. 일 예로, 피킹 순위 선정부(270)는 분석부(250)에 의해 분석된 각 대상물(90)의 환경 정보를 비교할 수 있다. 피킹 순위 선정부(270)는 각 대상물(90)의 환경 정보의 비교 결과에 따라 피킹 후보 또는 대상물(90)의 피킹 우선 순위를 선정할 수 있다.The picking ranking selecting unit 270 may select a picking candidate having a high picking success rate among the plurality of objects 90 . As an example, the picking ranking selection unit 270 may compare the environmental information of each object 90 analyzed by the analysis unit 250 . The picking priority selection unit 270 may select a picking candidate or a picking priority of the object 90 according to the comparison result of the environmental information of each object 90 .

피킹 순위 선정부(270)는 각 대상물(90)마다 높이, 넓이, 관심 거리, 주변의 간섭도 중 적어도 하나의 환경 정보를 독립적으로 평가할 수 있다. 피킹 순위 선정부(270)는 각 대상물(90)에 대한 상기 환경 정보의 평가 결과에 따라 각 대상물(90)의 피킹 우선 순위를 선정할 수 있다.The picking order selection unit 270 may independently evaluate at least one of environmental information among a height, an area, a distance of interest, and a degree of interference around each object 90 . The picking priority selection unit 270 may select the picking priority of each object 90 according to the evaluation result of the environment information for each object 90 .

피킹 순위 선정부(270)에 의해 선정된 피킹 후보 또는 피킹 우선 순위는 설정 영역에 배치된 대상물(90)을 피킹하도록 동작하는 피킹 장치(100)에 제공될 수 있다. 본 발명의 피킹 우선 순위 선정 장치는 피킹 장치(100)에 일체로 형성되거나, 별개로 형성될 수 있다.The picking candidates or picking priorities selected by the picking priority selection unit 270 may be provided to the picking apparatus 100 that operates to pick the object 90 disposed in the setting area. The picking prioritization apparatus of the present invention may be formed integrally with the picking apparatus 100 or may be formed separately.

도 2는 본 발명의 실시예에 따른 피킹 장치(100)를 나타낸 개략도이다.2 is a schematic diagram illustrating a picking apparatus 100 according to an embodiment of the present invention.

도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 피킹 장치(100)는 촬영 유니트(110, 120), 로봇(10)을 포함할 수 있다.As shown in the drawing, the picking apparatus 100 according to an embodiment of the present invention may include photographing units 110 and 120 and a robot 10 .

촬영 유니트(110, 120)는 설정 영역을 촬영할 수 있다. 일 예로, 설정 영역에 대상물(90)이 담기는 빈(bin)(80)이 배치되면, 촬영 유니트(110, 120)는 빈(80)을 촬영하거나 스캔할 수 있다. 도 2의 빈(80)에는 3개의 대상물 ①, ②, ③이 배치되어 있다. 이때, 설정 영역은 대상물(90)이 수용되거나 지지되는 빈(80)의 바닥면을 포함할 수 있다.The photographing units 110 and 120 may photograph the setting area. For example, when a bin 80 containing the object 90 is disposed in the setting area, the photographing units 110 and 120 may photograph or scan the bin 80 . In the bin 80 of FIG. 2, three objects ①, ②, and ③ are arranged. In this case, the setting area may include a bottom surface of the bin 80 in which the object 90 is accommodated or supported.

촬영 유니트는 스캔(촬영) 능력, 초기 설치 비용 등을 고려하여 단일의 촬영부를 갖거나, 복수의 촬영부를 가질 수 있다.The photographing unit may have a single photographing unit or a plurality of photographing units in consideration of scanning (photographing) capability, initial installation cost, and the like.

일 예로, 설정 영역에 대면하게 배치된 지지대(109)에 설치되고 설정 영역을 촬영하는 제1 촬영부(110), 제1 촬영부(110)와 설정 영역의 사이에서 대상물(90)을 촬영하는 제2 촬영부(120)가 마련될 수 있다.As an example, the first photographing unit 110 installed on the support 109 disposed to face the setting area and photographing the setting area, and the object 90 between the first photographing unit 110 and the setting area. A second photographing unit 120 may be provided.

제1 촬영부(110) 및 제2 촬영부(120)는 각각 RGB-D 센서, 스테레오 카메라, TOF (Time of Flight) 센서, 초음파 센서 등으로 마련될 수 있다. 여기서, RGB-D 센서는 RGB(칼라) 2차원 이미지와 뎁스 정보(Depth)를 센싱할 수 있다. 스테레오 카메라는 2개의 이미지 센서를 병렬로 배치하여 이미지 정보와 뎁스 (Depth) 정보를 센싱할 수 있다. 여기서, RGB-D 센서 및 스테레오 카메라, TOF 센서, 초음파 센서는 일례에 불과하고 제1 촬영부(110) 및 제2 촬영부(120)는 다양한 형태의 센서 또는 그들의 조합으로 구성될 수 있음은 물론이다. 경우에 따라서, 제1 촬영부(110) 및 제2 촬영부(120)는 단일 이미지 센서로 각각 마련되어 상기 대상물(90)의 2차원 이미지만을 촬영할 수도 있다.Each of the first photographing unit 110 and the second photographing unit 120 may be provided as an RGB-D sensor, a stereo camera, a time of flight (TOF) sensor, an ultrasonic sensor, or the like. Here, the RGB-D sensor may sense an RGB (color) two-dimensional image and depth information (Depth). A stereo camera can sense image information and depth information by arranging two image sensors in parallel. Here, the RGB-D sensor, the stereo camera, the TOF sensor, and the ultrasonic sensor are only examples, and the first photographing unit 110 and the second photographing unit 120 may be composed of various types of sensors or combinations thereof. am. In some cases, the first photographing unit 110 and the second photographing unit 120 may each be provided as a single image sensor to photograph only a two-dimensional image of the object 90 .

제1 촬영부(110)는 설정 영역에 대면되는 지지대(109)의 일면 제1 위치 p1에 설치될 수 있다.The first photographing unit 110 may be installed at a first position p1 on one surface of the support 109 facing the setting area.

제1 촬영부(110)의 스캔 결과는 설정 영역에 배치된 대상물(90)을 탐지하거나, 복수의 대상물(90) 중 피킹할 후보를 선정하는데 사용될 수 있다.The scan result of the first photographing unit 110 may be used to detect the object 90 disposed in the setting area or to select a candidate to be picked from among the plurality of objects 90 .

제2 촬영부(120)는 중력 방향 상으로 제1 위치 p1과 설정 영역 사이의 제2 위치 p2에 설치될 수 있다. 일 예로, 제2 촬영부(120)는 제1 위치 p1과 설정 영역 사이에서 움직이는 로봇(10)의 암(11)에 마련될 수 있다.The second photographing unit 120 may be installed at a second position p2 between the first position p1 and the setting area in the direction of gravity. For example, the second photographing unit 120 may be provided on the arm 11 of the robot 10 moving between the first position p1 and the setting area.

제2 촬영부(120)가 로봇(10)과 별개로 형성된 경우, 로봇(10)에 제2 촬영부(120)를 장착시키기 위한 착탈부(180)가 추가로 마련될 수 있다. 예를 들어, 착탈부(180)는 로봇(10)의 암(11)을 감싸는 밴드 형상으로 형성될 수 있다. 로봇(10)의 암(11)을 감싼 상태에서 착탈부(180)의 양단부는 서로 대면 배치되고 볼트 등의 체결 수단(189)에 의해 서로 체결될 수 있다.When the second photographing unit 120 is formed separately from the robot 10 , a detachable unit 180 for mounting the second photographing unit 120 to the robot 10 may be additionally provided. For example, the detachable part 180 may be formed in a band shape surrounding the arm 11 of the robot 10 . In a state in which the arm 11 of the robot 10 is wrapped, both ends of the detachable part 180 are disposed to face each other and may be fastened to each other by a fastening means 189 such as a bolt.

제2 촬영부(120)의 스캔 결과는 피킹 후보로 선정된 대상물(90)의 자세를 추정하고, 해당 대상물(90)에서 피킹이 이루어져야 하는 지점의 지정에 사용될 수 있다.The scan result of the second photographing unit 120 may be used to estimate the posture of the object 90 selected as a picking candidate, and to designate a point at which picking is to be performed on the object 90 .

로봇(10)의 암(11)의 말단에는 대상물(90)을 피킹(picking)하는 이펙터(20)(end effector)가 마련될 수 있다. An effector 20 (end effector) for picking an object 90 may be provided at an end of the arm 11 of the robot 10 .

이펙터(20)는 에어 석션을 이용해서 대상물(90)을 흡착하고 들어올리는 석션부를 포함할 수 있다. 다른 예로, 이펙터(20)는 대상물(90)의 일측과 타측을 각각 집는 복수의 핑거를 포함할 수 있다. 복수의 핑거가 서로 가까워지는 방향으로 조여지면, 복수의 핑거 사이에 배치된 대상물(90)은 핑거에 의해 그랩될 수 있다.The effector 20 may include a suction unit for adsorbing and lifting the object 90 using air suction. As another example, the effector 20 may include a plurality of fingers each gripping one side and the other side of the object 90 . When the plurality of fingers are tightened in a direction approaching each other, the object 90 disposed between the plurality of fingers may be grabbed by the fingers.

이펙터(20)가 초기 위치에 배치된 로봇(10)은 제1 촬영부(110)의 스캔 결과를 분석해서 피킹 후보가 선정되면, 피킹 후보에 대면되는 경유 지점 pr에 이펙터(20)가 위치하도록 움직일 수 있다. 이펙터(20)가 경유 지점 pr에 위치하면, 제2 카메라의 스캔 결과를 분석해서 피킹 후보의 자세 또는 피킹 지점이 분석될 수 있다. 로봇(10)은 피킹 후보의 자세에 대응해서 피킹 후보를 피킹할 확률이 가장 높은 자세를 취하도록 이펙터(20)를 움직일 수 있다. 또는, 로봇(10)은 피킹 후보를 피킹할 확률이 가장 높은 피킹 지점을 향해 이펙터(20)를 움직일 수 있다.When a picking candidate is selected by analyzing the scan result of the first photographing unit 110, the robot 10 in which the effector 20 is disposed at the initial position, the effector 20 is positioned at the passing point pr facing the picking candidate. can move When the effector 20 is located at the passing point pr, the posture or the picking point of the picking candidate may be analyzed by analyzing the scan result of the second camera. The robot 10 may move the effector 20 to take a posture with the highest probability of picking a picking candidate corresponding to the posture of the picking candidate. Alternatively, the robot 10 may move the effector 20 toward a picking point having the highest probability of picking a picking candidate.

다른 예로, 제1 촬영부(110)와 제2 촬영부(120) 중 어느 하나만 마련된 경우, 단일의 촬영부를 이용해서 피킹 후보가 선정되고, 피킹 후보의 자세, 피킹 지점이 결정될 수 있다.As another example, when only one of the first photographing unit 110 and the second photographing unit 120 is provided, a picking candidate may be selected using a single photographing unit, and a posture and a picking point of the picking candidate may be determined.

도 1에 도시된 피킹 우선 순위 선정 장치는 설정 영역에 배치된 복수의 대상물(90) 중 이펙터(20)에 의해 피킹될 피킹 후보를 선정하거나, 각 대상물(90)의 피킹 우선 순위를 선정할 수 있다.The picking priority selection apparatus shown in FIG. 1 selects a picking candidate to be picked by the effector 20 from among a plurality of objects 90 arranged in the setting area, or selects the picking priority of each object 90. have.

획득부(210)는 설정 영역의 스캔 결과를 촬영 유니트(110, 120)로부터 획득할 수 있다.The acquisition unit 210 may acquire the scan result of the setting area from the imaging units 110 and 120 .

상기 획득부(210)는 상기 촬영 유니트(110, 120)가 대상물(90)의 뎁스 정보도 추가적으로 측정 가능한 경우, 상기 촬영 유니트(110, 120)로부터 대상물(90)의 뎁스 정보도 추가적으로 획득할 수 있다.The acquisition unit 210 may additionally acquire depth information of the object 90 from the photographing units 110 and 120 when the photographing units 110 and 120 can additionally measure the depth information of the object 90 . have.

피킹 순위 선정부(270)는 스캔 결과를 통해 각 대상물(90)이 갖는 복수의 환경 정보를 분석할 수 있다. 일 예로, 피킹 순위 선정부(270)는 각 대상물(90)이 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도, 각 대상물(90)의 높이, 각 대상물(90)의 마스킹 영역 넓이, 각 대상물(90)과 관심 영역(Region Of Interest, ROI) 중심 간의 거리 중 적어도 하나를 이용해서 각 대상물(90)의 피킹 우선 순위를 선정할 수 있다. 이때, 해당 간섭도, 대상물(90)의 높이, 마스킹 영역 넓이, 대상물(90) 중심과 ROI 중심 간의 거리 등이 스캔 결과로부터 분석된 환경 정보에 해당될 수 있다. 여기서, 상술한 환경 정보의 예로 든 간섭도, 높이, 대상물(90) 중심과 관심 영역 중심 간의 거리 등은 일례에 불과하고 다양한 종류의 인자(factor)들이 추가되거나 변경될 수 있다. 여기서, 대상물(90)의 높이는 빈(bin, 80)의 바닥면에서 중력방향의 반대방향으로 측정한 것으로 상술한 촬영 유니트(110, 120)로부터 획득된 뎁스 정보로부터 계산될 수 있다.The picking order selection unit 270 may analyze a plurality of pieces of environment information of each object 90 through the scan result. As an example, the picking ranking selecting unit 270 may include an interference degree indicating a rate at which each object 90 is interfered with by another object, the height of each object 90, the masking area width of each object 90, each object ( 90) and the center of a region of interest (ROI) may be used to select the picking priority of each object 90 using at least one of the distances. In this case, the corresponding interference degree, the height of the object 90 , the masking area area, the distance between the center of the object 90 and the center of the ROI, etc. may correspond to the environment information analyzed from the scan result. Here, the degree of interference, the height, and the distance between the center of the object 90 and the center of the ROI as examples of the above-described environment information are merely examples, and various kinds of factors may be added or changed. Here, the height of the object 90 is measured from the bottom surface of the bin 80 in a direction opposite to the direction of gravity, and may be calculated from depth information obtained from the above-described photographing units 110 and 120 .

피킹 순위 선정부(270)는 복수의 환경 정보를 정규화하며, 복수의 환경 정보에 대해 누적 정규 분포 함수 점수를 산출할 수 있다. 피킹 순위 선정부(270)는 각 환경 정보마다 소정의 가중치를 부여하고 가중치를 고려한 각 환경 정보의 종합 점수를 산출할 수 있다. 즉, 선정부(270)는 각 환경 정보마다 해당 환경 정보의 중요도를 고려한 가중치를 부여함으로써 해당 환경 정보들을 튜닝할 수 있다.The picking order selection unit 270 may normalize a plurality of pieces of environment information and calculate cumulative normal distribution function scores for the plurality of pieces of environment information. The picking ranking selecting unit 270 may assign a predetermined weight to each environment information and calculate a total score of each environment information in consideration of the weight. That is, the selector 270 may tune the corresponding environmental information by assigning a weight in consideration of the importance of the corresponding environmental information to each environmental information.

피킹 순위 선정부(270)는 복수의 대상물(90)에 대해 산출된 종합 점수를 비교하여 복수의 대상물(90) 중 우선적으로 피킹해야 할 피킹 우선 순위를 선정할 수 있다. 일 예로, 피킹 순위 선정부(270)는 종합 점수가 높은 순서에 따라 우선 순위를 부여할 수 있다.The picking priority selection unit 270 may select a picking priority to be picked preferentially among the plurality of objects 90 by comparing the calculated overall scores for the plurality of objects 90 . As an example, the picking order selection unit 270 may give priority in order of the highest overall score.

분석부(250)에는 제1 분석 수단(251), 제2 분석 수단(252), 제3 분석 수단(253), 제4 분석 수단(254)이 마련될 수 있다. 여기서, 분석부(250)가 상기 제 1 내지 제4 분석 수단(251, 252, 253, 254)을 모두 포함하는 것으로 설명하였으나 그 중 어느 것을 생략할 수도 있다. 분석부(250)는 상기 제1 내지 제4 분석 수단 (251, 252, 253, 254) 중 적어도 어느 하나를 포함할 수 있다.The analysis unit 250 may include a first analysis unit 251 , a second analysis unit 252 , a third analysis unit 253 , and a fourth analysis unit 254 . Here, it has been described that the analysis unit 250 includes all of the first to fourth analysis means 251 , 252 , 253 , and 254 , but any one of them may be omitted. The analysis unit 250 may include at least one of the first to fourth analysis means 251 , 252 , 253 , and 254 .

제1 분석 수단(251)은 대상물(90)의 마스킹 영역의 넓이를 분석할 수 있다.The first analysis means 251 may analyze the area of the masking area of the object 90 .

제1 분석 수단(251)은 딥러닝 모델을 이용해 스캔 결과를 분석하고, 대상물(90)의 영역을 추정하고 해당 영역을 마스킹할 수 있다.The first analysis means 251 may analyze the scan result using the deep learning model, estimate the area of the object 90, and mask the area.

피킹 순위 선정부(270)는 상기 제1 분석 수단(251)에서 산출한 상기 대상물(90)의 마스킹 영역의 넓이를 이용해서 피킹 후보를 선정할 수 있다. 공기를 흡입해서 대상물(90)을 흡착하는 석션부가 마련된 이펙터(20)의 경우, 피킹이 성공적으로 수행되기 위해서는 대상물(90)의 노출된 부분이 석션부에 의해 흡착될 수 있을 정도로 충분히 노출되어 있어야 한다. 이때, 석션부에 대해 노출된 대상물(90)의 면적이 마스킹 영역의 넓이에 해당될 수 있다. 피킹 대상이 되는 특정 대상물의 마스킹 영역의 넓이는 해당 대상물(90) 위에 다른 대상물이 적층된 경우, 상기 특정 대상물의 마스킹 영역의 넓이는 감소될 수 있다. 즉, 대상물(90)의 마스킹 영역이 넓다는 것은 다른 대상물에 의해 가려지는 정도가 작다는 것을 의미한다.The picking order selection unit 270 may select a picking candidate using the area of the masking area of the object 90 calculated by the first analysis means 251 . In the case of the effector 20 provided with a suction unit for sucking air and adsorbing the object 90, in order for the picking to be performed successfully, the exposed portion of the object 90 must be sufficiently exposed to be adsorbed by the suction unit. do. In this case, the area of the object 90 exposed to the suction unit may correspond to the area of the masking area. The area of the masking area of the specific object to be picked may be reduced when another object is stacked on the corresponding object 90 . That is, the wide masking area of the object 90 means that the degree of being covered by other objects is small.

마스킹 영역의 넓이는 다양하게 파악될 수 있다.The width of the masking area may be variously recognized.

일 예로, 획득부(210)는 촬영 유니트(110, 120) 등으로부터 RGB(red, green, blue) 이미지를 획득할 수 있다. 제1 분석 수단(251)은 RGB 이미지를 대상으로 하는 딥러닝 모델을 이용하여 대상물(90)의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출할 수 있다. 제1 분석 수단(251)은 대상물(90)의 분할 픽셀 개수의 합을 대상물(90)의 마스킹 영역 넓이로 산출할 수 있다. 피킹 순위 선정부(270)는 마스킹 영역 넓이를 이용하여 피킹 후보를 선정할 수 있다.For example, the acquisition unit 210 may acquire an RGB (red, green, blue) image from the photographing units 110 and 120 , and the like. The first analysis means 251 may extract coordinate information of a segmentation pixel of the object 90 by using a deep learning model targeting an RGB image. The first analysis means 251 may calculate the sum of the number of divided pixels of the object 90 as the masking area area of the object 90 . The picking order selection unit 270 may select a picking candidate by using the masking area width.

도 3은 간섭도를 산출하는 과정을 나타낸 개략도이다.3 is a schematic diagram illustrating a process of calculating an interference degree.

설정 영역 g3에 해당하는 빈(bin)(80)에 존재하는 특정 대상물이 설정 영역 g3에 존재하는 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도가 정의될 수 있다.An interference degree indicating a rate at which a specific object existing in a bin 80 corresponding to the setting area g3 is interfered with by other objects existing in the setting area g3 may be defined.

제2 분석 수단(252)은 대상물(90)을 대상으로 간섭도를 분석할 수 있다. 제2 분석 수단(252)은 마스킹 영역 내부 g1의 제1 뎁스 정보 및 마스킹 영역 외부 g2의 제2 뎁스 정보를 이용하여 간섭도를 분석할 수 있다. 제1 뎁스 정보 및 제2 뎁스 정보는 마스킹 영역을 기준으로 하므로, 간섭도 분석 과정에서 마스킹 영역 또는 그 넓이를 분석하는 제1 분석 수단(251)의 산출 결과가 추가로 사용될 수 있다. 피킹 순위 선정부(270)는 간섭도를 이용해서 피킹 후보를 선정할 수 있다.The second analysis means 252 may analyze the degree of interference with respect to the object 90 . The second analysis means 252 may analyze the degree of interference by using the first depth information of g1 inside the masking area and the second depth information of g2 outside the masking area. Since the first depth information and the second depth information are based on the masking area, the calculation result of the first analysis means 251 for analyzing the masking area or its area in the interference analysis process may be additionally used. The picking order selection unit 270 may select a picking candidate using the degree of interference.

제1 뎁스 정보 또는 제2 뎁스 정보의 획득을 위해 획득부(210)는, 상술한 바와 같이, ToF(Time-Of-flight) 카메라, 거리 측정기, 비젼 등으로부터 대상물(90)에 대한 뎁스 정보를 획득할 수 있다. 정리하면, 간섭도의 분석을 위해 획득부(210)는 스캔 결과로서, RGB 이미지 정보와 뎁스(depth) 정보를 모두 획득할 수 있다. 뎁스(depth) 정보는 2차원 이미지 형태로 제공될 수 있으며, 2차원 이미지 형태의 뎁스(depth) 정보를 뎁스(depth) 이미지로 호칭하기로 한다.In order to obtain the first depth information or the second depth information, the acquisition unit 210 obtains, as described above, depth information on the object 90 from a Time-Of-Flight (ToF) camera, a distance measurer, a vision, and the like. can be obtained In summary, for the analysis of the degree of interference, the acquisition unit 210 may acquire both RGB image information and depth information as a scan result. Depth information may be provided in the form of a two-dimensional image, and depth information in the form of a two-dimensional image will be referred to as a depth image.

탐지부(230)는 RGB 이미지 정보와 뎁스 이미지 중 적어도 하나를 이용해서 설정 영역에 존재하는 특정 대상물을 탐지할 수 있다.The detector 230 may detect a specific object existing in the setting area using at least one of RGB image information and a depth image.

피킹 순위 선정부(270)는 특정 대상물이 탐지되면, RGB 이미지를 이용해서 설정 영역 중 특정 대상물이 배치된 제1 영역을 제외한 제2 영역을 추출할 수 있다.When a specific object is detected, the picking order selector 270 may extract a second area from among the set areas except for the first area in which the specific object is disposed by using the RGB image.

피킹 순위 선정부(270)는 뎁스 이미지에서 제1 영역의 대응 영역을 제외하고, 뎁스 이미지에서 오직 제2 영역의 대응 영역에 대한 분석을 통해 특정 대상물을 기준으로 하는 주변의 뎁스 정보 맵을 생성할 수 있다.The picking priority selection unit 270 generates a peripheral depth information map based on a specific object through analysis of only the corresponding area of the second area in the depth image, except for the corresponding area of the first area in the depth image. can

피킹 순위 선정부(270)는 특정 대상물을 기준으로 하는 뎁스 정보 맵을 이용해서 특정 대상물에 대한 주변의 간섭도를 산출하고, 간섭도를 이용해서 피킹 후보를 선정할 수 있다. 예를 들어 피킹 순위 선정부(270)는 간섭도가 낮은 순서에 따라 피킹 우선 순위를 선정할 수 있다, 특정 대상물에 대한 간섭도가 낮다는 것은 특정 대상물을 로봇(10)을 이용해 설정 영역으로부터 들어내기도 쉽고, 들어내더라도 다른 대상물이 변동하지 않을 가능성이 높다는 것을 의미할 수 있다. 특정 대상물의 피킹 과정에서 다른 대상물이 무너져내려 다른 상태로 변경된다면, 현재 시점에서 복수의 대상물(90)에 대해 선정된 피킹 우선 순위가 무용지물이 될 수 있다. 따라서, 간섭도가 낮은 대상물(90)부터 피킹 작업이 수행되는 것이 유리하다.The picking order selection unit 270 may calculate a degree of interference around a specific target by using a depth information map based on the specific target, and select a picking candidate using the degree of interference. For example, the picking priority selection unit 270 may select the picking priority according to the order of the low degree of interference. When the degree of interference for a specific object is low, the specific object is removed from the setting area using the robot 10 It's easy to bet on, and it can mean that it's more likely that other objects won't fluctuate if you lift it. If another object collapses and is changed to a different state during the picking process of a specific object, the picking priority selected for the plurality of objects 90 at the current time point may become useless. Therefore, it is advantageous that the picking operation is performed from the object 90 having a low degree of interference.

제1 분석 수단(251)은 RGB 이미지를 대상으로 하는 딥러닝 모델을 이용하여 대상물(90)의 영역을 마스킹하여 해당 대상물(90)이 세그멘테이션된 영역의 픽셀(segmentation pixel)의 좌표 정보를 추출할 수 있다. 제2 분석 수단(252)은 제1 분석 수단(251)에 의해 추출된 세그멘테이션 영역의 픽셀 좌표 정보와 뎁스 정보를 이용해서 특정 대상물에 대한 다른 대상물의 간섭도를 산출할 수 있다.The first analysis means 251 masks the area of the object 90 using a deep learning model targeting the RGB image to extract the coordinate information of the segmentation pixel of the area in which the object 90 is segmented. can The second analyzing means 252 may calculate the degree of interference of another object with respect to a specific object by using the pixel coordinate information and the depth information of the segmentation area extracted by the first analyzing means 251 .

제2 분석 수단(252)은 좌표 정보의 집합에 해당하는 대상물(90)의 마스킹 영역에 대상물(90)을 피킹하는 로봇(10)의 이펙터(20)의 진입에 필요한 여유분을 추가해서 대상물(90)의 간섭 체크 영역을 설정할 수 있다. 왜냐하면, 이펙터(20)의 유형에 따라서 상기 대상물(90)을 피킹하는데 필요한 여유 공간이 다르기 때문이다. 가령, 이펙터(20)가 손가락(핑거) 형상으로 되어 있는 경우에는 손가락이 상기 대상물(90)의 가장 자리를 집어야 하므로 대상물(90) 주변에 간섭이 없는 여유 공간이 많이 필요하여 간섭 체크 영역이 큰 반면, 이펙터(20)가 대상물(90)의 중앙부위를 공압으로 석션하는 방식인 경우에는 대상물(90)을 피킹하는데 필요한 여유공간이 상대적으로 작아 간섭 체크 영역이 작을 수 있다. 즉, 이펙터(20)의 유형, 종류에 따라서 간섭 체크 영역이 달라질 수 있다.The second analysis means 252 adds a margin necessary for the entry of the effector 20 of the robot 10 picking the object 90 to the masking area of the object 90 corresponding to the set of coordinate information, and the object 90 ) to set the interference check area. This is because, according to the type of the effector 20 , the free space required for picking the object 90 is different. For example, if the effector 20 is in the shape of a finger (finger), since the finger has to pinch the edge of the object 90, a lot of free space without interference is required around the object 90, so that the interference check area is On the other hand, when the effector 20 pneumatically sucks the central portion of the object 90 , the free space required for picking the object 90 is relatively small, so the interference check area may be small. That is, the interference check area may vary according to the type and type of the effector 20 .

도 6은 간섭 체크 영역을 고려한 간섭도를 나타낸 개략도이다.6 is a schematic diagram illustrating an interference degree considering an interference check area.

도 6의 (a)는 간섭 체크 영역 ch를 나타낸 평면도이고, 도 6의 (b)는 간섭 체크 영역 ch를 나타낸 측면도일 수 있다.6A is a plan view illustrating the interference check area ch, and FIG. 6B is a side view illustrating the interference check area ch.

핑거 타입의 이펙터(20)인 경우, 간섭 체크 영역 ch는 마스킹 영역 g1의 외주면 또는 외곽에 추가로 핑거의 두께 g9 및 진입 거리 g8이 추가된 영역을 포함할 수 있다. 일 예로, 핑거의 두께 g9 이내를 만족하고, 진입 거리 g8 이내를 만족하는 범위 또는 영역이 간섭 체크 영역 ch에 해당될 수 있다.In the case of the finger-type effector 20 , the interference check region ch may include a region in which the thickness g9 of the finger and the entry distance g8 are added to the outer peripheral surface or the periphery of the masking region g1 . For example, a range or region satisfying within the thickness g9 of the finger and within the entry distance g8 may correspond to the interference check area ch.

복수의 핑거를 이용해서 대상물(90)을 확실하게 집기 위해, 해당 핑거는 대상물(90) 상단으로부터 대상물(90) 하단을 향해 설정 거리만큼 진입해야 하며, 이때, 해당 설정 거리가 진입 거리 g8에 해당될 수 있다.In order to reliably pick up the object 90 using a plurality of fingers, the corresponding finger must enter a set distance from the upper end of the object 90 toward the lower end of the object 90, and at this time, the set distance corresponds to the entry distance g8 can be

핑거의 두께 g9 및 진입 거리 g8이 추가된 간섭 체크 영역 내에 다른 대상물이 침범하고 있으면, 해당 대상물은 다른 대상물에 의해 피킹 작업이 간섭되는 것으로 판단될 수 있다. 이때, 설정 영역에 배치되고 피킹 대상이 되는 일부 대상물은 특정 대상물의 피킹을 방해하는 장애물(99)로 기능할 수 있다. 피킹 장치(100)는 해당 장애물(99)을 회피하면서 대상물(90)을 피킹하는 것이 좋다.If another object is invading the interference check area to which the thickness g9 of the finger and the entry distance g8 are added, it may be determined that the picking operation is interfered with the corresponding object by the other object. In this case, some objects disposed in the setting area and being picked may function as obstacles 99 that prevent picking of a specific object. It is preferable that the picking apparatus 100 picks the object 90 while avoiding the obstacle 99 .

제2 분석 수단(252)은 간섭 체크 영역에 대한 다른 대상물의 침범 비율에 따라 간섭도를 산출할 수 있다. 예를 들어, 간섭 체크 영역 ch의 면적이 100일 때, 장애물(99)이 간섭 체크 영역 ch의 면적 10을 차지한 경우 침범 비율은 10%로 산정될 수 있다.The second analysis means 252 may calculate the degree of interference according to the intrusion ratio of the other object to the interference check area. For example, when the area of the interference check area ch is 100, when the obstacle 99 occupies the area 10 of the interference check area ch, the invasion rate may be calculated as 10%.

제3 분석 수단(253)은 뎁스 이미지에 포함된 복수의 대상물(90) 각각의 상단 높이를 분석할 수 있다. 대상물(90)의 상단은 중력 방향 상으로 대상물(90)의 가장 높은 부분을 나타낼 수 있다.The third analysis means 253 may analyze the top height of each of the plurality of objects 90 included in the depth image. The upper end of the object 90 may represent the highest portion of the object 90 in the direction of gravity.

피킹 순위 선정부(270)는 환경 정보의 높이에 해당하는 상단 높이를 이용해서 피킹 후보를 선정할 수 있다. 예를 들어, 피킹 순위 선정부(270)는 상단 높이를 이용해서 높은 위치에 배치된 대상물(90)의 순서대로 피킹 우선 순위를 선정할 수 있다. 가장 높은 곳에 배치된 특정 대상물을 들어내더라도, 그 밑에 있는 다른 대상물은 변동 없이 현재 상태를 유지할 수 있다. 또한, 가장 높은 특정 대상물의 피킹 작업 역시 원활하게 수행될 수 있다. The picking ranking selecting unit 270 may select a picking candidate by using an upper height corresponding to the height of the environment information. For example, the picking priority selecting unit 270 may select the picking priority in the order of the objects 90 disposed at a high position using the top height. Even if a specific object placed in the highest position is lifted, other objects below it can maintain their current state without change. In addition, the picking operation of the highest specific object can also be smoothly performed.

대상물(90)의 상단 높이는 구체적으로 다음과 같은 과정을 통해 분석될 수 있다.The height of the upper end of the object 90 may be specifically analyzed through the following process.

피킹 순위 선정부(270)는 RGB 이미지를 대상으로 하는 딥러닝 모델을 이용하여 대상물(90)이 세그멘테이션된 영역의 픽셀(segmentation pixel)의 좌표 정보를 추출하는 제1 분석 수단(251)과, 추출된 좌표 정보를 이용해서 뎁스 이미지 상에서 대상물(90)의 영역을 구분하는 제3 분석 수단(253)을 포함할 수 있다.The picking ranking selecting unit 270 uses a deep learning model targeting an RGB image to extract the coordinate information of the segmentation pixel of the segmented area of the object 90 by using the first analysis means 251 and extraction A third analysis means 253 for classifying the area of the object 90 on the depth image by using the coordinate information may be included.

제3 분석 수단(253)은 대상물(90)의 영역 중에서 최고 상단 지점의 뎁스값을 추출할 수 있다. 피킹 순위 선정부(270)는 최고 상단 지점의 뎁스값을 이용해서 피킹 후보를 선정할 수 있다. 즉, 제3 분석 수단(253)은 상기 대상물의 세그멘테이션 영역의 픽셀 좌표들의 뎁스 값을 이용하여 최고 상단지점의 픽셀 및 해당 픽셀에서의 뎁스 값을 추출할 수 있다. 선정부(270)는 제3 분석 수단(253)이 제공하는 복수의 대상물(90)들 각각의 최고 상단지점의 뎁스값을 비교하여 그 중에서 최고 상단지점에 해당하는 대상물(90)을 우선 순위가 높은 ??킹 후로로서 선정할 수 있다.The third analysis means 253 may extract a depth value of the highest uppermost point in the area of the object 90 . The picking order selection unit 270 may select a picking candidate by using the depth value of the highest point. That is, the third analyzing means 253 may extract the pixel of the highest uppermost point and the depth value of the corresponding pixel by using the depth values of the pixel coordinates of the segmentation region of the object. The selection unit 270 compares the depth value of the highest upper point of each of the plurality of objects 90 provided by the third analysis means 253 and prioritizes the object 90 corresponding to the highest upper point among them. It can be selected as a high ??king-floor.

도 4는 관심 거리를 나타낸 개략도이다.4 is a schematic diagram illustrating a distance of interest.

제4 분석 수단(254)은 로봇(10)의 이펙터(20)에 의해 피킹이 가능한 관심 영역(Region Of Interest, ROI)의 중점 정보와 대상물(90)의 중심 정보를 획득할 수 있다.The fourth analysis means 254 may acquire central information of a region of interest (ROI) that can be picked by the effector 20 of the robot 10 and central information of the object 90 .

제4 분석 수단(254)은 관심 영역(ROI)의 중점 o에서 각 대상물(90)의 중심 간의 거리를 관심 거리로서 측정 또는 산출할 수 있다. 피킹 순위 선정부(270)는 관심 거리를 이용해서 피킹 후보를 선정할 수 있다. 즉, 관심 거리는 관심 영역(ROI)의 중점 o와 각 대상물(90)의 중심 간의 거리를 의미한다. ROI의 중점 o는 상술한 제1 촬영부(110) 또는 제2 촬영부(120)에서 촬영한 RGB 이미지 영역의 중앙점에 해당할 수 있다.The fourth analysis means 254 may measure or calculate the distance between the centers of the respective objects 90 from the midpoint o of the region of interest (ROI) as the distance of interest. The picking ranking selecting unit 270 may select a picking candidate using the distance of interest. That is, the distance of interest means a distance between the midpoint o of the ROI and the center of each object 90 . The midpoint o of the ROI may correspond to the central point of the RGB image area captured by the first imaging unit 110 or the second imaging unit 120 described above.

예를 들어, 로봇(10)에 장착된 제2 촬영부(120)에서 촬영되는 2차원 이미지 영역은 제1 촬영부(110)에서 촬영되는 2차원 이미지 영역보다 작을 수 있다. 이는 제1 촬영부(110)와 제2 촬영부(120)에 사용되는 렌즈의 초점거리, 화각(Field of View)등이 상이한 경우 발생할 수 있다. 이때, 촬영되는 2차원 이미지 영역이 상대적으로 작은 제2 촬영부(120)에서 촬영된 영역을 관심 영역(ROI)으로 삼을 수 있다. 2차원 이미지 영역이 작은 경우, 관심 거리를 계산하는 계산량이 상대적으로 적기 때문에 고속연산이 가능할 수 있다.For example, the 2D image area photographed by the second photographing unit 120 mounted on the robot 10 may be smaller than the 2D image area photographed by the first photographing unit 110 . This may occur when the focal length, field of view, and the like of the lenses used in the first photographing unit 110 and the second photographing unit 120 are different. In this case, the region photographed by the second imaging unit 120 having a relatively small two-dimensional image region may be used as the region of interest (ROI). When the two-dimensional image area is small, high-speed calculation may be possible because the amount of calculation for calculating the distance of interest is relatively small.

한편, 관심 영역(ROI)과 관계된 관심 거리는 로봇(10) 말단에 설치된 이펙터(20)와 대상물(90) 간의 거리와 관련될 수 있다. 즉, 관심 거리가 짧을수록 이펙터(20)와 해당 대상물(90) 간의 거리가 짧은 것을 의미할 수 있다. 따라서, 이펙터(20)가 대상물(90)까지 이동하는 이동 시간을 최소화하여 총 작업 시간을 단축하기 위해서 관심 거리가 짧은 순서에 따라 피킹 후보를 선정하거나 피킹 우선 순위를 부여할 수 있다. 이에 따라, 이동 시간 최소화를 위해 로봇(10) 암에 부착된 제2 촬영부(120)에서 촬영된 이미지를 기초로 관심 거리를 계산할 수도 있다.Meanwhile, the distance of interest related to the region of interest (ROI) may be related to the distance between the effector 20 installed at the end of the robot 10 and the object 90 . That is, as the distance of interest is shorter, it may mean that the distance between the effector 20 and the corresponding object 90 is shorter. Accordingly, in order to shorten the total working time by minimizing the movement time for the effector 20 to move to the object 90 , picking candidates may be selected in the order of the shortest distance of interest or the picking priority may be given. Accordingly, in order to minimize the movement time, the distance of interest may be calculated based on the image captured by the second photographing unit 120 attached to the arm of the robot 10 .

관심 거리는 구체적으로 다음과 같이 분석될 수 있다.The distance of interest can be specifically analyzed as follows.

딥러닝을 이용하는 제1 분석 수단(251)에 의해, 제2 촬영부(120)에 의해 촬영된 이미지로부터 대상물(90)의 분할 픽셀(segmentation pixel)의 좌표 정보가 추출될 수 있다.Coordinate information of segmentation pixels of the object 90 may be extracted from the image photographed by the second photographing unit 120 by the first analysis means 251 using deep learning.

제4 분석 수단(254)은 상기 제2 촬영부(120)에 의해 촬영된 상기 이미지로부터 관심 영역(Region Of Interest, ROI)의 중점 좌표 o를 획득할 수 있다.The fourth analysis means 254 may obtain the midpoint coordinate o of a region of interest (ROI) from the image captured by the second photographing unit 120 .

제4 분석 수단(254)은 각각의 대상물(90)을 형성하는 복수의 분할 픽셀(Segmentation pixel) 중 각 대상물(90)의 중심에 배치된 중심 픽셀의 좌표 w를 추출할 수 있다. 제4 분석 수단(254)은 관심 영역(ROI)의 중점 좌표 o와 중심 픽셀의 좌표 w 간의 거리에 해당하는 관심 거리(U)를 산출하고, 관심 거리를 이용해서 피킹 후보를 선정할 수 있다. 즉, 관심 거리가 작은 중심 픽셀에 해당하는 대상물(90)부터 우선적으로 피킹하도록 피킹 우선 순위를 정할 수 있다.The fourth analysis means 254 may extract the coordinates w of the center pixel disposed at the center of each object 90 among a plurality of segmentation pixels forming each object 90 . The fourth analysis means 254 may calculate a distance of interest U corresponding to a distance between the coordinates o of the center point of the region of interest (ROI) and the coordinates w of the center pixel, and select a picking candidate using the distance of interest. That is, the picking priority may be determined so as to preferentially pick the object 90 corresponding to the central pixel having a small distance of interest.

탐지부(230)가 바운딩 박스(Bounding Box) 방식을 이용해서 촬영된 이미지에서 대상물(90)을 인식하는 경우, 제4 분석 수단은 다각형 형상의 바운딩 박스 BB의 내부 중심과 관심 영역(ROI)의 중점의 거리를 관심 거리로 설정할 수도 있다. 도 4의 경우, 4개의 대상물(90)이 존재하는데, 관심 영역(ROI)의 중점 상에 존재하는 대상물을 배제하면, 3개의 바운딩 박스가 존재할 수 있다. 3개의 바운딩 박스 중 관심 거리 U가 가까운 순서로 피킹 우선 순위 0, 1, 2가 부여될 수 있다.When the detection unit 230 recognizes the object 90 in the image taken using the bounding box method, the fourth analysis means is the inner center of the polygon-shaped bounding box BB and the region of interest (ROI). The distance of the focal point can also be set as the distance of interest. In the case of FIG. 4 , there are four objects 90 , and if an object existing on the midpoint of the region of interest (ROI) is excluded, three bounding boxes may exist. Among the three bounding boxes, picking priorities 0, 1, and 2 may be given in the order of the nearest U of interest.

피킹 순위 선정부(270)는 이펙터(20)와 관련된 이펙터(20) 정보를 획득할 수 있다. 피킹 순위 선정부(270)는 상술한 여러가지 환경 정보에 의해 선정된 피킹 우선 순위를 이펙터(20) 정보에 따라 보정할 수 있다.The picking order selection unit 270 may acquire information about the effector 20 related to the effector 20 . The picking priority selecting unit 270 may correct the picking priority selected by the above-described various environmental information according to the effector 20 information.

일 예로, 피킹 순위 선정부(270)는 이펙터(20) 정보를 기준으로 복수의 환경 정보에 대한 가중치를 설정할 수 있다. 이펙터(20)의 유형이 변경되면 피킹 순위 선정부(270)에 의해 가중치가 변경되고, 변경된 가중치의 적용으로 인해 우선 순위가 변경될 수 있다.As an example, the picking order selection unit 270 may set weights for a plurality of pieces of environment information based on the effector 20 information. When the type of the effector 20 is changed, the weight may be changed by the picking priority selector 270 , and the priority may be changed due to application of the changed weight.

피킹 순위 선정부(270)는 이펙터(20)가 대상물(90)을 사이에 두고 서로 대면하게 배치된 복수의 핑거를 조여서 대상물(90)을 집어올리는 핑거 유형이면, 복수의 환경 정보 중에서 주변 간섭도에 대한 가중치를 가장 높게 설정할 수 있다. 왜냐하면, 주변 간섭도가 보장되지 않으면 이펙터(20)는 대상물(90)에 대한 픽업 자체를 수행할 수 없기 때문이다.If the picking order selection unit 270 is a finger type in which the effector 20 picks up the object 90 by tightening a plurality of fingers disposed to face each other with the object 90 interposed therebetween, the degree of ambient interference among the plurality of environment information can be set to the highest weight. This is because, if the degree of ambient interference is not guaranteed, the effector 20 cannot pick up the object 90 itself.

피킹 순위 선정부(270)는 해당 가중치가 반영된 각 환경 정보에 대한 평가 결과를 이용해서 피킹 우선 순위를 선정할 수 있다.The picking priority selection unit 270 may select the picking priority by using the evaluation result for each environment information to which the corresponding weight is reflected.

일 예로, 피킹 순위 선정부(270)는 각 대상물(90)마다 마스킹 영역 넓이(상술한 바와 같이, 분할 픽셀의 픽셀 개수의 합), 주변의 간섭도를 독립적으로 각각 평가할 수 있다.As an example, the picking priority selector 270 may independently evaluate the masking area area (as described above, the sum of the number of pixels of the divided pixels) and the surrounding interference degree for each object 90 .

피킹 순위 선정부(270)는 이펙터(20)가 에어 프레셔(공압) 석션을 이용해서 대상물(90)을 흡착하고 들어올리는 석션부를 포함하면, 복수의 환경 정보 중에서 대상물(90)의 넓이에 대한 가중치를 간섭도보다 크게 설정할 수 있다. 왜냐하면, 일부 간섭이 존재하더라도, 충분한 면적의 흡착면이 보장된다면 주변의 간섭에도 불구하고 대상물(90)의 픽업(pick up)이 가능하기 때문이다.When the picking order selection unit 270 includes a suction unit that the effector 20 absorbs and lifts the object 90 using air pressure (pneumatic) suction, the weight for the area of the object 90 among a plurality of environmental information can be set to be larger than the interference degree. This is because even in the presence of some interference, if an adsorption surface of a sufficient area is ensured, it is possible to pick up the object 90 in spite of the surrounding interference.

피킹 순위 선정부(270)는 가중치가 반영된 각 환경 정보에 대한 평가 결과를 이용해서 우선 순위를 선정할 수 있다.The picking priority selection unit 270 may select the priority by using the evaluation result for each environment information to which the weight is reflected.

도 5는 이펙터(20)의 유형에 따른 가중치의 조절을 나타낸 개략도이다.5 is a schematic diagram illustrating adjustment of a weight according to the type of the effector 20 .

도 5는 피킹 우선 순위의 선정에 관여하는 환경 정보로서 분석부(250)에 의해 각 대상물(90)마다 높이 A, 주변 간섭도 B, 넓이(마스킹 영역 넓이) C, 관심 거리 D가 분석될 수 있다.5 is environmental information involved in the selection of the picking priority, and the height A, the ambient interference degree B, the area (masking area area) C, and the distance of interest D can be analyzed by the analysis unit 250 for each object 90. have.

여기서, 각 대상물(90)은 상술한 바와 같이, 제1 촬영부(110) 또는 제2 촬영부(120)에 의해 촬영된 이미지 내에서 상기 탐지부(230)에 의해 탐지된 것들이다.Here, as described above, each of the objects 90 is those detected by the detector 230 in the image captured by the first photographing unit 110 or the second photographing unit 120 .

높이 A가 클수록 피킹 우선 순위의 점수가 증가할 수 있다. 즉, 빈(80) 내에 높은 위치에 존재하는 대상물(90)일수록 우선적으로 피킹할 수 있다.As height A increases, the score of the picking priority may increase. That is, the higher the object 90 that exists in the bin 80, the more preferentially it can be picked.

주변 간섭도 B가 낮을수록 우선 순위의 점수가 증가할 수 있다. 즉, 주변의 다른 대상물 등에 의한 간섭이 작을수록 해당 대상물(90)을 우선적을 피킹할 수 있다.The lower the degree of ambient interference B, the higher the priority score may be. That is, as the interference caused by other nearby objects is smaller, the corresponding object 90 may be preferentially picked.

넓이 C가 클수록 우선 순위의 점수가 증가할 수 있다. 즉, 대상물(90)의 크기(정확히는, 촬영된 이미지 내에서 차지하는 분할 픽셀의 영역의 넓이)가 클수록 우선적으로 피킹할 수 있다.As the area C increases, the priority score may increase. That is, the larger the size of the object 90 (to be precise, the area of the divided pixel area occupied in the photographed image) is, the more preferentially the picking can be.

관심 거리 D가 짧을수록 우선 순위의 점수가 증가할 수 있다. 즉, 로봇(10) 암에 가까운 위치에 있는 대상물(90)일수록 우선적으로 피킹할 수 있다.The shorter the distance D of interest, the higher the priority score may be. That is, the object 90 located closer to the arm of the robot 10 can be picked preferentially.

도 5의 (a)는 일반적인 가중치를 나타낸다. 이펙터(20)의 유형이 일반으로 설정되면, 피킹 순위 선정부(270)는 각 환경 정보의 가중치를 모두 1로 조절할 수 있다. 후술할 [표 1]에서 "일반 유형"에 해당하는 가중치에 해당한다.Figure 5 (a) shows a general weight. When the type of the effector 20 is set to normal, the picking order selection unit 270 may adjust all the weights of each environment information to 1. It corresponds to the weight corresponding to "general type" in [Table 1] to be described later.

도 5의 (b)는 핑거 유형의 이펙터(20)에 대한 가중치를 나타낸다. 후술할 [표 1]에서 "핑거 유형"에 해당하는 가중치에 해당한다. 이펙터(20)의 유형이 핑거 유형으로 설정되면, 피킹 순위 선정부(270)는 주변 간섭도 B의 가중치를 가장 높은 2로 조절할 수 있다. 피킹 순위 선정부(270)는 높이 A의 가중치를 1로 조절하고, 넓이 C 및 관심 거리 D의 가중치를 0으로 조절할 수 있다. 핑거 유형의 이펙터(20)가 대상물(90)을 집기 위해 가중 중요한 요소인 주변 간섭도가 가장 크게 반영되는 것을 알 수 있다.FIG. 5B shows weights for the finger-type effector 20 . It corresponds to a weight corresponding to "finger type" in [Table 1] to be described later. When the type of the effector 20 is set to the finger type, the picking order selection unit 270 may adjust the weight of the ambient interference degree B to 2, which is the highest. The picking order selection unit 270 may adjust the weight of the height A to 1 and the weights of the area C and the distance of interest D to 0. It can be seen that the degree of ambient interference, which is an important factor for the finger-type effector 20 to pick up the object 90, is most reflected.

도 5의 (c)는 석션 유형의 이펙터(20)에 대한 가중치를 나타낸다. 후술할 [표 1]에서 "석션 유형"에 해당하는 가중치에 해당한다. 이펙터(20)의 유형이 석션 유형으로 설정되면, 피킹 순위 선정부(270)는 높이 A 및 넓이 C의 가중치를 2로 조절하고, 주변 간섭도 B 및 관심 거리 D의 가중치를 0으로 조절할 수 있다. 석션 유형의 이펙터(20)가 대상물(90)을 집기 위해 가장 중요한 요소인 넓기가 주변 간섭도보다 크게 반영되는 것을 알 수 있다.5 (c) shows the weight of the effector 20 of the suction type. It corresponds to the weight corresponding to the "suction type" in [Table 1] to be described later. When the type of the effector 20 is set to the suction type, the picking order selection unit 270 may adjust the weights of the height A and the width C to 2, and adjust the weights of the ambient interference degree B and the distance of interest D to 0. . It can be seen that the width, which is the most important factor for the suction-type effector 20 to pick up the object 90, is reflected larger than the surrounding interference degree.

이상에서 도 5의 (a), (b), (c)에 설명한 가중치는 일례에 불과하고 대상물(90)의 종류, 이펙터(20)의 형태 등에 의해서 가중치는 다양하게 변경 가능하다.The weights described in (a), (b), and (c) of FIG. 5 above are only examples, and the weights can be variously changed depending on the type of the object 90 , the shape of the effector 20 , and the like.

도 5의 가중치가 적용된 상태에서의 예시 점수를 표 1에 나타내었다.Table 1 shows the example scores in the state in which the weight of FIG. 5 is applied.

표 1은 도 2에 배치된 3개의 대상물 ①, ②, ③을 대상으로 할 수 있다.Table 1 may target the three objects ①, ②, ③ arranged in FIG.

대상물(90) 식별 번호Object (90) identification number A: 높이A: height B: 주변 간섭도B: Ambient Interference Degree C: 넓이C: width D: 관심 거리D: point of interest 일반 유형
(A+B+C+D)
general type
(A+B+C+D)
핑거 유형
(2B+A)
finger type
(2B+A)
석션 유형
(2A+2C)
Suction type
(2A+2C)
6060 6060 3030 8080 230230 180180 180180 6060 9090 4040 1010 200200 240240 200200 9090 1010 6060 1010 170170 110110 300300

표 1에서 A, B, C, D는 분석부(250)에 의해 평가된 점수를 나타낼 수 있다. 분석부(250)에 의해 대상물 ①, ②, ③의 환경 정보 분석 점수가 표 1과 같은 상황에서 핑거 유형이 변경되면, 가중치의 조절로 피킹 우선 순위가 도 5와 같이 달라질 수 있다.일 예로, 이펙터(20)가 일반 유형에 해당되면, 피킹 우선 순위는 제1 대상물 ①, 제2 대상물 ②, 제3 대상물 ③의 순서대로 부여될 수 있다.In Table 1, A, B, C, and D may represent scores evaluated by the analysis unit 250 . When the finger type is changed in the situation where the environmental information analysis scores of the objects ①, ②, and ③ of the objects ①, ②, and ③ by the analysis unit 250 are changed as shown in Table 1, the picking priority may be changed as shown in FIG. 5 by adjusting the weight. If the effector 20 corresponds to the general type, the picking priority may be given in the order of the first object ①, the second object ②, and the third object ③.

이펙터(20)가 핑거 유형에 해당되면, 피킹 우선 순위는 제2 대상물 ②, 제1 대상물 ①, 제3 대상물 ③의 순서대로 부여될 수 있다.If the effector 20 corresponds to the finger type, the picking priority may be given in the order of the second object ②, the first object ①, and the third object ③.

이펙터(20)가 석션 유형에 해당되면, 피킹 우선 순위는 제3 대상물 ③, 제2 대상물 ②, 제3 대상물 ③의 순서대로 부여될 수 있다.If the effector 20 corresponds to the suction type, the picking priority may be given in the order of the third object ③, the second object ②, and the third object ③.

도 7은 본 발명의 실시예에 따른 피킹 우선 순위 선정 방법을 나타낸 흐름도이다.7 is a flowchart illustrating a method for selecting a picking priority according to an embodiment of the present invention.

도 7의 피킹 우선 순위 선정 방법은 도 1에 도시된 피킹 우선 순위 선정 장치에 의해 수행될 수 있다. 해당 피킹 우선 순위 선정 장치는 로봇(10)의 이펙터(20)에 의해 피킹되는 복수의 대상물(90)에 대한 피킹 우선 순위를 선정할 수 있다.The method for selecting a picking priority of FIG. 7 may be performed by the apparatus for selecting a picking priority shown in FIG. 1 . The picking priority selection apparatus may select a picking priority for a plurality of objects 90 picked by the effector 20 of the robot 10 .

본 발명의 피킹 우선 순위 선정 방법은 스캔 단계(S 510), 분석 단계(S 520), 산출 단계(S 530), 선정 단계(S 540)를 포함할 수 있다.The picking priority selection method of the present invention may include a scan step (S510), an analysis step (S520), a calculation step (S530), and a selection step (S540).

스캔 단계(S 510)는 복수의 대상물(90)이 배치된 설정 영역을 스캔할 수 있다. 스캔 단계(S 510)는 촬영 유니트(110, 120) 또는 획득부(210)에 의해 수행되는 동작일 수 있다.In the scanning step ( S510 ), a setting area in which the plurality of objects 90 are disposed may be scanned. The scanning step S 510 may be an operation performed by the imaging units 110 and 120 or the acquisition unit 210 .

분석 단계(S 520)는 해당 스캔 결과를 분석하고, 각 대상물(90)별로 복수의 환경 정보를 분석할 수 있다. 분석 단계(S 520)는 분석부(250)에 의해 수행될 수 있다.In the analysis step ( S520 ), a corresponding scan result may be analyzed, and a plurality of environmental information may be analyzed for each object 90 . The analysis step ( S520 ) may be performed by the analysis unit 250 .

산출 단계(S 530)는 이펙터(20)의 유형에 따라 환경 정보마다 다르게 부여된 가중치를 적용해서 종합 점수를 산출할 수 있다. 여기서, 산출 단계는 상술한 분석부(250)에 의해서 수행될 수 있다.In the calculation step ( S530 ), a total score may be calculated by applying different weights for each environmental information according to the type of the effector 20 . Here, the calculation step may be performed by the above-described analysis unit 250 .

선정 단계(S 540)는 종합 점수를 이용해서 복수의 대상물(90)의 피킹 우선 순위를 선정할 수 있다. 산출 단계(S 530) 및 선정 단계(S 540)는 피킹 순위 선정부(270)에 의해 수행될 수 있다.In the selection step ( S540 ), the picking priority of the plurality of objects 90 may be selected using the overall score. The calculation step ( S530 ) and the selection step ( S540 ) may be performed by the picking rank selection unit 270 .

선정 단계를 통해 선정된 피킹 우선 순위는 대상물(90)을 피킹하는 로봇(10)으로 제공될 수 있다.The picking priority selected through the selection step may be provided to the robot 10 for picking the object 90 .

본 발명의 피킹 우선 순위 선정 방법에 따르면, 이펙터(20)가 핑거 유형이면, 복수의 환경 정보 중 간섭도에 가장 높은 가중치를 적용하여 대상물(90)의 피킹 우선 순위가 선정될 수 있다. 본 발명의 피킹 우선 순위 선정 방법에 따르면, 이펙터(20)가 석션 유형이면, 복수의 환경 정보 중 마스킹 영역에 가장 높은 가중치를 적용하여 대상물(90)의 피킹 우선 순위가 선정될 수 있다.According to the picking priority selection method of the present invention, if the effector 20 is a finger type, the picking priority of the object 90 may be selected by applying the highest weight to the degree of interference among a plurality of environmental information. According to the picking priority selection method of the present invention, if the effector 20 is a suction type, the picking priority of the object 90 may be selected by applying the highest weight to the masking area among the plurality of environmental information.

도 8은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 8의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 피킹 우선 순위 선정 장치 등) 일 수 있다. 도 8의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.8 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 8 may be a device (eg, a picking priority selection device, etc.) described herein. In the embodiment of FIG. 8 , the computing device TN100 may include at least one processor TN110 , a transceiver device TN120 , and a memory TN130 . Also, the computing device TN100 may further include a storage device TN140 , an input interface device TN150 , an output interface device TN160 , and the like. Components included in the computing device TN100 may be connected by a bus TN170 to communicate with each other.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to an embodiment of the present invention are performed. The processor TN110 may be configured to implement procedures, functions, and methods described in connection with an embodiment of the present invention. The processor TN110 may control each component of the computing device TN100 .

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110 . Each of the memory TN130 and the storage device TN140 may be configured as at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of a read only memory (ROM) and a random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transceiver TN120 may transmit or receive a wired signal or a wireless signal. The transceiver TN120 may be connected to a network to perform communication.

한편, 전술한 본 발명의 실시예에 따른 다양한 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.On the other hand, the various methods according to the embodiment of the present invention described above may be implemented in the form of a program readable by various computer means and recorded in a computer readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, etc. alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language wires such as those created by a compiler, but also high-level language wires that can be executed by a computer using an interpreter or the like. Such hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상, 본 발명의 일 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.In the above, although an embodiment of the present invention has been described, those of ordinary skill in the art can add, change, delete or add components within the scope that does not depart from the spirit of the present invention described in the claims. The present invention may be variously modified and changed by, etc., and this will also be included within the scope of the present invention.

10...로봇 11...암(arm)
20...이펙터 80...빈(bin)
90...대상물 99...장애물
100...피킹 장치 110, 120...촬영 유니트
110...제1 촬영부 109...지지대
120...제2 촬영부 210...획득부
230...탐지부 250...분석부
251...제1 분석 수단 252...제2 분석 수단
253...제3 분석 수단 254...제4 분석 수단
270...피킹 순위 선정부
10...Robot 11...arm
20...effector 80...bin
90...object 99...obstacle
100...picking device 110, 120...shooting unit
110... 1st filming unit 109... Support
120...Second Filming Division 210...Acquisition Division
230...detection unit 250...analysis unit
251...first analysis means 252...second analysis means
253...third analysis means 254...fourth analysis means
270...Picking ranking selection unit

Claims (15)

복수의 피킹 대상물이 놓여있는 설정 영역에 대한 2차원 이미지와 뎁스 정보를 획득하는 획득부;
상기 2차원 이미지와 상기 뎁스 정보를 이용하여 상기 대상물을 탐지하는 탐지부;
상기 2차원 이미지와 상기 뎁스 정보 내에 탐지된 상기 대상물을 분석하여 각 대상물 마다 적어도 2개 이상의 환경 정보를 산출하는 분석부; 및
상기 적어도 2개 이상의 환경 정보에 소정의 가중치를 적용하여 상기 복수의 피킹 대상물 중에서 우선적으로 피킹해야 하는 대상물을 선정하기 위한 피킹 우선 순위를 선정하는 피킹 순위 선정부;를 포함하고,
복수의 상기 피킹 대상물 각각에 대해 높이, 주변 간섭도, 넓이, 관심 거리가 분석되고 상기 피킹 대상물을 피킹하는 이펙터가 핑거 유형으로 설정되면,
상기 피킹 순위 선정부는 상기 주변 간섭도의 가중치를 가장 높게 조절하고, 상기 넓이의 가중치를 가장 낮게 조절하며, 상기 높이의 가중치를 상기 주변 간섭도의 가중치와 상기 넓이의 가중치의 사이로 조절하는 것을 특징으로 하는 피킹 우선 순위 선정 장치.
an acquisition unit configured to acquire a two-dimensional image and depth information for a setting area on which a plurality of picking objects are placed;
a detector configured to detect the object using the two-dimensional image and the depth information;
an analysis unit that analyzes the two-dimensional image and the object detected in the depth information and calculates at least two pieces of environment information for each object; and
a picking priority selection unit for selecting a picking priority for selecting an object to be picked preferentially from among the plurality of picking objects by applying a predetermined weight to the at least two or more pieces of environment information; and
If the height, ambient interference degree, area, and distance of interest are analyzed for each of the plurality of picking objects, and the effector for picking the picking object is set as a finger type,
The picking ranking selecting unit adjusts the weight of the ambient interference degree to the highest, adjusts the weight of the area to the lowest, and adjusts the weight of the height between the weight of the ambient interference degree and the weight of the area. Picking prioritization device.
제1항에 있어서,
상기 환경 정보는 상기 대상물이 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도, 상기 대상물이 놓인 위치의 높이, 상기 대상물의 마스킹 영역 넓이, 상기 대상물 중심과 상기 2차원 이미지의 중심 간의 관심 거리 중 적어도 2개 이상을 포함하는 것을 특징으로 하는 피킹 우선 순위 선정 장치.
According to claim 1,
The environmental information includes at least two of an interference degree indicating a rate at which the object is interfered with by another object, a height of a position where the object is placed, an area of a masking area of the object, and a distance of interest between the center of the object and the center of the two-dimensional image. Picking priority selection device, characterized in that it includes more than one.
삭제delete 삭제delete 제2항에 있어서,
상기 분석부는 상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 분석부는 상기 좌표 정보의 집합에 해당하는 상기 대상물의 마스킹 영역에 상기 대상물을 피킹하는 로봇의 이펙터의 진입에 필요한 여유분을 추가해서 상기 대상물의 간섭 체크 영역을 설정하고,
상기 분석부는 특정 대상물의 상기 간섭 체크 영역에 대한 다른 대상물의 침범 비율에 따라 상기 간섭도를 산출하는 것을 특징으로 하는 피킹 우선 순위 선정 장치.
3. The method of claim 2,
The analysis unit extracts coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
The analysis unit sets the interference check area of the object by adding a margin necessary for the entry of the effector of the robot picking the object to the masking area of the object corresponding to the set of coordinate information,
Picking priority selection device, characterized in that the analysis unit calculates the degree of interference according to a ratio of a specific object to the interference check area of another object intrusion.
제2항에 있어서,
상기 분석부는 상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 분석부는 상기 좌표 정보를 이용해서 상기 대상물의 영역을 구분하며,
상기 분석부는 상기 대상물의 영역 중에서 상기 높이에 해당하는 최고 상단 지점의 뎁스값을 추출하는 것을 특징으로 하는 피킹 우선 순위 선정 장치.
3. The method of claim 2,
The analysis unit extracts coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
The analysis unit divides the area of the object by using the coordinate information,
Picking priority selection device, characterized in that the analysis unit extracts the depth value of the highest point corresponding to the height in the area of the object.
제2항에 있어서,
상기 분석부는 상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 분석부는 상기 대상물을 형성하는 복수의 상기 분할 픽셀 중 중심에 배치된 중심 픽셀의 좌표를 추출하며,
상기 분석부는 상기 설정 영역을 촬영하는 카메라에 설정된 ROI(Region Of Interest)의 중점 좌표와 상기 중심 픽셀의 좌표 간의 거리에 해당하는 상기 관심 거리를 산출하는 것을 특징으로 하는 피킹 우선 순위 선정 장치.
3. The method of claim 2,
The analysis unit extracts coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
The analysis unit extracts the coordinates of the central pixel disposed in the center of the plurality of divided pixels forming the object,
and the analysis unit calculates the distance of interest corresponding to a distance between the coordinates of a central point of a region of interest (ROI) set in a camera for capturing the set region and the coordinates of the central pixel.
암(arm)과 상기 암에 설치된 이펙터를 구비한 로봇에 있어서,
제1항 내지 제2항, 제5항 내지 제7항 중 어느 한 항에 따른 피킹 우선 순위 선정 장치; 및
상기 피킹 우선 순위 선정 장치로부터 받은 피킹 우선 순위에 따라 대상물을 피킹하도록 상기 암과 상기 이펙터를 제어하는 제어장치
를 포함하는 로봇.
A robot having an arm and an effector installed on the arm, the robot comprising:
A picking priority selection device according to any one of claims 1 to 2, 5 to 7; and
A control device for controlling the arm and the effector to pick an object according to the picking priority received from the picking priority selection device
A robot comprising a.
복수의 피킹 대상물의 피킹 우선 순위를 선정하는 피킹 우선 순위 선정 방법에 있어서,
상기 복수의 피킹 대상물이 놓여있는 설정 영역에 대한 2차원 이미지와 뎁스 정보를 획득하는 단계;
상기 2차원 이미지와 상기 뎁스 정보를 이용하여 상기 대상물을 탐지하는 단계;
상기 2차원 이미지와 상기 뎁스 정보 내에 탐지된 상기 대상물을 분석하여 각 대상물마다 적어도 2개 이상의 환경 정보를 산출하는 단계; 및
상기 적어도 2개 이상의 환경 정보에 소정의 가중치를 적용하여 상기 복수의 피킹 대상물 중에서 우선적으로 피킹해야 하는 대상물을 선정하기 위한 피킹 우선 순위를 선정하는 단계;를 포함하고,
복수의 상기 피킹 대상물 각각에 대해 높이, 주변 간섭도, 넓이, 관심 거리가 분석되고 상기 피킹 대상물을 피킹하는 이펙터가 핑거 유형으로 설정되면,
상기 피킹 우선 순위를 선정하는 단계는 상기 주변 간섭도의 가중치를 가장 높게 조절하고, 상기 넓이의 가중치를 가장 낮게 조절하며, 상기 높이의 가중치를 상기 주변 간섭도의 가중치와 상기 넓이의 가중치의 사이로 조절하고,
복수의 상기 피킹 대상물 각각에 대해 높이, 주변 간섭도, 넓이, 관심 거리가 분석되고 상기 피킹 대상물을 피킹하는 이펙터가 석션 유형으로 설정되면,
상기 피킹 우선 순위를 선정하는 단계는 상기 주변 간섭도 및 상기 관심 거리를 미사용하고, 상기 높이 및 상기 넓이를 이용하도록 상기 가중치를 조절하는 것을 특징으로 하는 피킹 우선 순위 선정 방법.
In the picking priority selection method for selecting the picking priority of a plurality of picking objects,
acquiring a two-dimensional image and depth information for a setting area in which the plurality of picking objects are placed;
detecting the object using the two-dimensional image and the depth information;
calculating at least two pieces of environmental information for each object by analyzing the two-dimensional image and the object detected in the depth information; and
selecting a picking priority for selecting an object to be picked preferentially from among the plurality of picking objects by applying a predetermined weight to the at least two or more pieces of environmental information;
If the height, ambient interference degree, area, and distance of interest are analyzed for each of the plurality of picking objects, and the effector for picking the picking object is set as a finger type,
The step of selecting the picking priority includes adjusting the weight of the peripheral interference degree to the highest, adjusting the weight of the area to the lowest, and adjusting the weight of the height between the weight of the ambient interference degree and the weight of the area do,
When the height, ambient interference degree, area, and distance of interest are analyzed for each of the plurality of picking objects, and the effector for picking the picking object is set as a suction type,
The selecting of the picking priority comprises not using the ambient interference degree and the distance of interest, and adjusting the weight to use the height and the width.
제9항에 있어서,
상기 환경 정보는 상기 대상물이 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도, 상기 대상물이 놓인 위치의 높이, 상기 대상물의 마스킹 영역 넓이, 상기 대상물 중심과 상기 2차원 이미지의 중심 간의 관심 거리 중 적어도 2개 이상을 포함하는 것을 특징으로 하는 피킹 우선 순위 선정 방법.
10. The method of claim 9,
The environmental information includes at least two of an interference degree indicating a rate at which the object is interfered with by another object, a height of a position where the object is placed, an area of a masking area of the object, and a distance of interest between the center of the object and the center of the two-dimensional image. Picking priority selection method, characterized in that it includes more than one.
삭제delete 삭제delete 제10항에 있어서,
상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 좌표 정보의 집합에 해당하는 상기 대상물의 마스킹 영역에 상기 대상물을 피킹하는 로봇의 이펙터의 진입에 필요한 여유분을 추가해서 상기 대상물의 간섭 체크 영역을 설정하고,
특정 대상물의 상기 간섭 체크 영역에 대한 다른 대상물의 침범 비율에 따라 상기 간섭도를 산출하는 것을 특징으로 하는 피킹 우선 순위 선정 방법.
11. The method of claim 10,
Extracting coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
Setting the interference check area of the object by adding a margin necessary for the entry of the effector of the robot picking the object to the masking area of the object corresponding to the set of coordinate information,
A picking priority selection method, characterized in that the interference degree is calculated according to a ratio of a specific object's intrusion into the interference check area of another object.
제10항에 있어서,
상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 좌표 정보를 이용해서 상기 대상물의 영역을 구분하며,
상기 대상물의 영역 중에서 상기 높이에 해당하는 최고 상단 지점의 뎁스값을 추출하는 것을 특징으로 하는 피킹 우선 순위 선정 방법.
11. The method of claim 10,
Extracting coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
Classifying the area of the object using the coordinate information,
Picking priority selection method, characterized in that extracting the depth value of the highest point corresponding to the height in the area of the object.
제10항에 있어서,
상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 대상물을 형성하는 복수의 상기 분할 픽셀 중 중심에 배치된 중심 픽셀의 좌표를 추출하며,
상기 설정 영역을 촬영하는 카메라에 설정된 ROI(Region Of Interest)의 중점 좌표와 상기 중심 픽셀의 좌표 간의 거리에 해당하는 상기 관심 거리를 산출하는 것을 특징으로 하는 피킹 우선 순위 선정 방법.
11. The method of claim 10,
Extracting coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
extracting the coordinates of the central pixel disposed in the center among the plurality of divided pixels forming the object,
Picking priority selection method, characterized in that calculating the distance of interest corresponding to the distance between the coordinates of the center point of the ROI (Region Of Interest) set in the camera for photographing the set area and the coordinates of the center pixel.
KR1020200081853A 2020-07-03 2020-07-03 Apparatus and method for determining picking order of the picking robot KR102307047B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200081853A KR102307047B1 (en) 2020-07-03 2020-07-03 Apparatus and method for determining picking order of the picking robot
KR1020210121942A KR20220004589A (en) 2020-07-03 2021-09-13 Apparatus and method for determining picking order of the picking robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200081853A KR102307047B1 (en) 2020-07-03 2020-07-03 Apparatus and method for determining picking order of the picking robot

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210121942A Division KR20220004589A (en) 2020-07-03 2021-09-13 Apparatus and method for determining picking order of the picking robot

Publications (1)

Publication Number Publication Date
KR102307047B1 true KR102307047B1 (en) 2021-10-01

Family

ID=78115310

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200081853A KR102307047B1 (en) 2020-07-03 2020-07-03 Apparatus and method for determining picking order of the picking robot
KR1020210121942A KR20220004589A (en) 2020-07-03 2021-09-13 Apparatus and method for determining picking order of the picking robot

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210121942A KR20220004589A (en) 2020-07-03 2021-09-13 Apparatus and method for determining picking order of the picking robot

Country Status (1)

Country Link
KR (2) KR102307047B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230154700A (en) * 2022-05-02 2023-11-09 삼성전자주식회사 Robot and method for calculating a distance to an object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101453234B1 (en) * 2010-11-17 2014-10-22 미쓰비시덴키 가부시키가이샤 Workpiece pick-up apparatus
JP2017042859A (en) * 2015-08-25 2017-03-02 キヤノン株式会社 Picking system, and processing device and method therefor and program
KR20190072285A (en) 2017-12-15 2019-06-25 전자부품연구원 Learning data collection system of robots and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101453234B1 (en) * 2010-11-17 2014-10-22 미쓰비시덴키 가부시키가이샤 Workpiece pick-up apparatus
JP2017042859A (en) * 2015-08-25 2017-03-02 キヤノン株式会社 Picking system, and processing device and method therefor and program
KR20190072285A (en) 2017-12-15 2019-06-25 전자부품연구원 Learning data collection system of robots and method

Also Published As

Publication number Publication date
KR20220004589A (en) 2022-01-11

Similar Documents

Publication Publication Date Title
CN110322457B (en) 2D and 3D vision combined unstacking method
US11797926B2 (en) Robotic system with automated object detection mechanism and methods of operating the same
EP4137992B1 (en) A material handling method, apparatus, and system for identification of a region-of-interest
JP5558585B2 (en) Work picking device
US11763459B2 (en) Method and computing system for object identification
US10692229B2 (en) Recess detection device, transport device, and recess detecting method
US11667036B2 (en) Workpiece picking device and workpiece picking method
JP5383836B2 (en) An image processing apparatus having a function of automatically adjusting a search window
KR102307047B1 (en) Apparatus and method for determining picking order of the picking robot
US20220371200A1 (en) Robotic system for object size measurement
US9361695B2 (en) Method of recognizing a position of a workpiece from a photographed image
CN114170521B (en) Forklift pallet butt joint identification positioning method
CN109658388B (en) Method for detecting and correcting packaging box segmentation errors based on vision and active interaction
US20230297068A1 (en) Information processing device and information processing method
JP2006021300A (en) Predicting device and holding device
WO2021001882A1 (en) Information processing device and information processing method
JP6512852B2 (en) Information processing apparatus, information processing method
JP7191352B2 (en) Method and computational system for performing object detection
US20230389250A1 (en) Component supply device, component supply method, and program
CN115194751A (en) Robot system, control method, image processing apparatus and method, and product manufacturing method
CN115582837A (en) Manipulator vision guiding method for bag material unstacking
JP2019185204A (en) Image processing system, robot system, and image processing method
JP2014174629A (en) Workpiece recognition method
CN116258998A (en) Obstacle recognition method, system and storage medium
CN116630226A (en) Method, device and equipment for grabbing package

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
A107 Divisional application of patent
GRNT Written decision to grant