KR102307047B1 - Apparatus and method for determining picking order of the picking robot - Google Patents
Apparatus and method for determining picking order of the picking robot Download PDFInfo
- Publication number
- KR102307047B1 KR102307047B1 KR1020200081853A KR20200081853A KR102307047B1 KR 102307047 B1 KR102307047 B1 KR 102307047B1 KR 1020200081853 A KR1020200081853 A KR 1020200081853A KR 20200081853 A KR20200081853 A KR 20200081853A KR 102307047 B1 KR102307047 B1 KR 102307047B1
- Authority
- KR
- South Korea
- Prior art keywords
- picking
- area
- dimensional image
- information
- effector
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 로봇에 의해 피킹되는 대상물의 피킹 순서를 선정하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for selecting a picking order of an object to be picked by a robot.
물건을 가공하거나 처리하는 로봇을 해당 물건에 맞춰 제어하기 위해, 물건을 탐지하는 센서가 이용될 수 있다.In order to control a robot that processes or processes an object according to the object, a sensor for detecting an object may be used.
물건에 대한 로봇의 처리 정확도는 센서의 측정 정밀도에 관련될 수 있다. 로봇의 처리 정확도를 개선하기 위해 센서의 측정 정밀도는 높을수록 유리하다.The processing accuracy of the robot on the object may be related to the measurement precision of the sensor. In order to improve the processing accuracy of the robot, the higher the measurement precision of the sensor, the more advantageous.
하지만, 높은 측정 정밀도를 갖는 센서는 매우 고가이므로 보급화가 어렵다. 또한, 높은 측정 정밀도를 갖는 센서를 마련하는 경우에도, 물건의 종류에 따라 난반사 등을 이유로 측정 정밀도가 저하되는 상황이 발생될 수 있다.However, since a sensor having high measurement accuracy is very expensive, popularization is difficult. Also, even when a sensor having high measurement accuracy is provided, a situation in which measurement accuracy is lowered due to diffuse reflection or the like may occur depending on the type of object.
센서를 이용해서 탐지된 물건에 대한 피킹 작업을 수행할 때, 복수의 물건 중 어떤 물건부터 피킹할지에 대한 선택의 문제가 발생될 수 있다.When performing a picking operation on an object detected by using a sensor, a problem of selecting which object to pick from among a plurality of objects may occur.
한국공개특허공보 제2019-0072285호에는 피킹 조망 카메라를 통해 선택된 파지 대상물의 위치를 파악하고, 파지부를 이용해 파지 대상물을 파지하는 기술이 나타나 있다.Korean Patent Application Laid-Open No. 2019-0072285 discloses a technique of grasping the position of a gripping object selected through a picking view camera and gripping the gripping object using a gripper.
본 발명의 목적은 복수의 피킹 대상물을 대상으로 로봇에 의해 피킹될 순위를 선정하고 부여하는 피킹 우선 순위 선정 장치 및 피킹 우선 순위 선정 방법을 제공하기 위한 것이다.It is an object of the present invention to provide a picking priority selection device and a picking priority selection method for selecting and giving a priority to be picked by a robot for a plurality of picking objects.
본 발명의 실시예에 따르면 피킹 우선 순위 선정 장치가 제공된다. 상기 선정 로봇 제어 장치는, 복수의 피킹 대상물이 놓여있는 설정 영역에 대한 2차원 이미지와 뎁스 정보를 획득하는 획득부; 상기 2차원 이미지와 상기 뎁스 정보를 이용하여 상기 대상물을 탐지하는 탐지부; 상기 2차원 이미지와 상기 뎁스 정보 내에 탐지된 상기 대상물을 분석하여 각 대상물 마다 적어도 2개 이상의 환경 정보를 산출하는 분석부; 상기 적어도 2개 이상의 환경 정보에 소정의 가중치를 적용하여 상기 복수의 피킹 대상물의 피킹 우선 순위를 선정하는 피킹 순위 선정부를 포함할 수 있다.According to an embodiment of the present invention, a picking priority selection apparatus is provided. The selection robot control apparatus may include: an acquisition unit configured to acquire a two-dimensional image and depth information for a setting area on which a plurality of picking objects are placed; a detector configured to detect the object using the two-dimensional image and the depth information; an analysis unit that analyzes the two-dimensional image and the object detected in the depth information and calculates at least two pieces of environment information for each object; and a picking priority selector configured to select a picking priority of the plurality of picking objects by applying a predetermined weight to the at least two or more pieces of environment information.
상기 환경 정보는 상기 대상물이 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도, 상기 대상물이 놓인 위치의 높이, 상기 대상물의 마스킹 영역 넓이, 상기 대상물 중심과 상기 2차원 이미지의 중심 간의 관심 거리 중 적어도 2개 이상을 포함할 수 있다.The environment information includes at least two of an interference degree indicating a rate at which the object is interfered with by another object, a height of a position where the object is placed, an area of a masking area of the object, and a distance of interest between the center of the object and the center of the two-dimensional image. It may contain more than one.
상기 획득부는, 상기 피킹 대상물을 피킹하는 이펙터에 관한 정보를 더 입력받고, 상기 피킹 순위 선정부는 상기 이펙터에 관한 정보에 따라 상기 환경 정보 또는 상기 가중치 중 적어도 어느 하나를 변경할 수 있다.The acquiring unit may further receive information on an effector for picking the picking target, and the picking order selecting unit may change at least one of the environment information and the weight according to the information on the effector.
상기 분석부는, 상기 획득부로부터 받은 이펙터에 관한 정보를 이용하여 상기 간섭도를 보정할 수 있다.The analysis unit may correct the interference degree by using information about the effector received from the acquisition unit.
상기 분석부는 상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출할 수 있다.The analysis unit may extract coordinate information of a segmentation pixel of the object by using a deep learning model targeting the two-dimensional image.
상기 분석부는 상기 좌표 정보의 집합에 해당하는 상기 대상물의 마스킹 영역에 상기 대상물을 피킹하는 로봇의 이펙터의 진입에 필요한 여유분을 추가해서 상기 대상물의 간섭 체크 영역을 설정할 수 있다.The analysis unit may set the interference check area of the object by adding a margin necessary for the entry of the effector of the robot picking the object to the masking area of the object corresponding to the set of coordinate information.
상기 분석부는 특정 대상물의 상기 간섭 체크 영역에 대한 다른 대상물의 침범 비율에 따라 상기 간섭도를 산출할 수 있다.The analysis unit may calculate the degree of interference according to an intrusion ratio of another object to the interference check area of a specific object.
상기 분석부는 상기 좌표 정보를 이용해서 상기 대상물의 영역을 구분할 수 있다.The analyzer may classify the area of the object by using the coordinate information.
상기 분석부는 상기 대상물의 영역 중에서 상기 높이에 해당하는 최고 상단 지점의 뎁스값을 추출할 수 있다.The analyzer may extract a depth value of a topmost point corresponding to the height in the area of the object.
상기 분석부는 상기 대상물을 형성하는 복수의 상기 분할 픽셀 중 중심에 배치된 중심 픽셀의 좌표를 추출할 수 있다.The analyzer may extract coordinates of a central pixel disposed at a center among the plurality of divided pixels forming the object.
상기 분석부는 상기 설정 영역을 촬영하는 카메라에 설정된 ROI(Region Of Interest)의 중점 좌표와 상기 중심 픽셀의 좌표 간의 거리에 해당하는 상기 관심 거리를 산출할 수 있다.The analyzer may calculate the distance of interest corresponding to a distance between the central coordinates of a region of interest (ROI) set in the camera for capturing the set region and the coordinates of the central pixel.
또한, 본 발명의 다른 실시예에 따르면, 암(arm)과 상기 암에 설치된 이펙터를 구비한 로봇이 제공된다. 상기 로봇은, 피킹 우선 순위 선정 장치와; 상기 피킹 우선 순위 선정 장치로부터 받은 피킹 우선 순위에 따라 대상물을 피킹하도록 상기 암과 상기 이펙터를 제어하는 제어장치를 포함할 수 있다.In addition, according to another embodiment of the present invention, there is provided a robot having an arm and an effector installed on the arm. The robot may include: a picking priority selection device; and a control device for controlling the arm and the effector to pick an object according to the picking priority received from the picking priority selection device.
또한, 본 발명의 또 다른 실시예에 따르면, 복수의 피킹 대상물의 피킹 우선 순위를 선정하는 피킹 우선 순위 선정 방법이 제공된다. 상기 피킹 우선 순위 선정 방법은 상기 복수의 피킹 대상물이 놓여있는 설정 영역에 대한 2차원 이미지와 뎁스 정보를 획득하는 단계; 상기 2차원 이미지와 상기 뎁스 정보를 이용하여 상기 대상물을 탐지하는 단계; 상기 2차원 이미지와 상기 뎁스 정보 내에 탐지된 상기 대상물을 분석하여 각 대상물마다 적어도 2개 이상의 환경 정보를 산출하는 단계; 및 상기 적어도 2개 이상의 환경 정보에 소정의 가중치를 적용하여 상기 복수의 피킹 대상물의 피킹 우선 순위를 선정하는 단계를 포함할 수 있다.In addition, according to another embodiment of the present invention, a picking priority selection method for selecting a picking priority of a plurality of picking objects is provided. The picking priority selection method may include: acquiring a two-dimensional image and depth information for a setting area in which the plurality of picking objects are placed; detecting the object using the two-dimensional image and the depth information; calculating at least two pieces of environmental information for each object by analyzing the two-dimensional image and the object detected in the depth information; and selecting a picking priority of the plurality of picking objects by applying a predetermined weight to the at least two pieces of environment information.
상기 환경 정보는 상기 대상물이 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도, 상기 대상물이 놓인 위치의 높이, 상기 대상물의 마스킹 영역 넓이, 상기 대상물 중심과 상기 2차원 이미지의 중심 간의 관심 거리 중 적어도 2개 이상을 포함할 수 있다.The environment information includes at least two of an interference degree indicating a rate at which the object is interfered with by another object, a height of a position where the object is placed, an area of a masking area of the object, and a distance of interest between the center of the object and the center of the two-dimensional image. It may contain more than one.
상기 피킹 대상물을 피킹하는 이펙터에 관한 정보를 더 입력받고, 상기 이펙터에 관한 정보에 따라 상기 환경 정보 또는 상기 가중치 중 적어도 어느 하나를 변경하는 것을 특징으로 하는 피킹 우선 순위 선정 방법이 제공될 수 있다.A picking priority selection method may be provided, wherein information on an effector for picking the picking target is further input, and at least one of the environment information and the weight is changed according to the information on the effector.
상기 이펙터에 관한 정보를 이용하여 상기 간섭도를 보정하는 것을 특징으로 하는 피킹 우선 순위 선정 방법이 제공될 수 있다.A picking priority selection method may be provided, characterized in that the interference degree is corrected using the information on the effector.
상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고, 상기 좌표 정보의 집합에 해당하는 상기 대상물의 마스킹 영역에 상기 대상물을 피킹하는 로봇의 이펙터의 진입에 필요한 여유분을 추가해서 상기 대상물의 간섭 체크 영역을 설정하고, 특정 대상물의 상기 간섭 체크 영역에 대한 다른 대상물의 침범 비율에 따라 상기 간섭도를 산출하는 것을 특징으로 하는 피킹 우선 순위 선정 방법이 제공될 수 있다.A robot that extracts coordinate information of segmentation pixels of the object by using a deep learning model targeting the two-dimensional image, and picks the object in the masking area of the object corresponding to the set of coordinate information Picking priority selection, characterized in that the interference check area of the object is set by adding a margin necessary for the entry of the effector of A method may be provided.
상기 좌표 정보를 이용해서 상기 대상물의 영역을 구분하며, 상기 대상물의 영역 중에서 상기 높이에 해당하는 최고 상단 지점의 뎁스값을 추출하는 것을 특징으로 하는 피킹 우선 순위 선정 방법이 제공될 수 있다.A picking priority selection method may be provided, wherein the area of the object is divided by using the coordinate information, and a depth value of the highest uppermost point corresponding to the height is extracted from the area of the object.
상기 대상물을 형성하는 복수의 상기 분할 픽셀 중 중심에 배치된 중심 픽셀의 좌표를 추출하며, 상기 설정 영역을 촬영하는 카메라에 설정된 ROI(Region Of Interest)의 중점 좌표와 상기 중심 픽셀의 좌표 간의 거리에 해당하는 상기 관심 거리를 산출하는 피킹 우선 순위 선정 방법이 제공될 수 있다.The coordinates of the central pixel arranged in the center of the plurality of divided pixels forming the object are extracted, and the distance between the central coordinates of the ROI (Region Of Interest) set in the camera for photographing the set area and the coordinates of the central pixel. A picking priority selection method for calculating the corresponding distance of interest may be provided.
본 발명에 따르면, 설정 영역에 복수로 배치된 대상물 중에서 피킹(picking)이 용이한 순서에 따라 피킹 우선 순위가 선정될 수 있다. 그 결과, 이후 피킹 포인트, 접점 포인트, 그랩(grab) 포인트를 검색하는 리드 타임이 단축되고 피킹 성공률이 개선될 수 있다.According to the present invention, a picking priority may be selected according to an order in which picking is easy among a plurality of objects arranged in a setting area. As a result, the lead time for later searching for the picking point, the contact point, and the grab point can be shortened and the picking success rate can be improved.
본 발명에 따르면, 피킹 성공율이 높은 순서에 따라 피킹될 후보가 선정될 수 있다. 또한, 본 발명에 따르면, 피킹 성공율의 분석 정확도를 개선하기 위해 가중치 개념이 도입될 수 있다. 특히, 대상물을 피킹하는 이펙터의 종류에 따라 서로 다른 환경 정보마다 적용되는 가중치가 변경될 수 있다.According to the present invention, candidates to be picked may be selected in the order of the highest picking success rate. Further, according to the present invention, a weight concept may be introduced to improve the analysis accuracy of the picking success rate. In particular, the weight applied to each different environmental information may be changed according to the type of the effector for picking the object.
본 발명에 따르면, 복수의 대상물이 혼잡하게 배치된 상태에서 피킹 성공율이 높은 대상물부터 하나씩 처리될 수 있다. 대상물이 하나씩 픽업될 때마다 다른 대상물 픽업에 장애가 되는 요소가 줄어드는 셈이 되므로, 대상물의 픽업 성공율 또는 피킹 성공율은 픽업 회수에 상관없이 설정 확률 이상 유지될 수 있다.According to the present invention, in a state in which a plurality of objects are congested, the objects having a high picking success rate can be processed one by one. Whenever an object is picked up one by one, an obstacle to picking up another object is reduced, so that the pickup success rate or the picking success rate of the object can be maintained above the set probability regardless of the number of pickups.
도 1은 본 발명의 실시예에 따른 피킹 우선 순위 선정 장치를 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 피킹 장치를 나타낸 개략도이다.
도 3은 간섭도를 산출하는 과정을 나타낸 개략도이다.
도 4는 관심 거리를 나타낸 개략도이다.
도 5는 이펙터의 유형에 따른 가중치의 조절을 나타낸 개략도이다.
도 6은 간섭 체크 영역을 고려한 간섭도를 나타낸 개략도이다.
도 7은 본 발명의 실시예에 따른 피킹 우선 순위 선정 방법을 나타낸 흐름도이다.
도 8은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.1 is a block diagram illustrating an apparatus for selecting a picking priority according to an embodiment of the present invention.
2 is a schematic diagram showing a picking apparatus according to an embodiment of the present invention.
3 is a schematic diagram illustrating a process of calculating an interference degree.
4 is a schematic diagram illustrating a distance of interest.
5 is a schematic diagram illustrating adjustment of weights according to types of effectors.
6 is a schematic diagram illustrating an interference degree considering an interference check area.
7 is a flowchart illustrating a picking priority selection method according to an embodiment of the present invention.
8 is a diagram illustrating a computing device according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In the present specification, duplicate descriptions of the same components will be omitted.
또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when it is mentioned that a certain element is 'connected' or 'connected' to another element, it may be directly connected or connected to the other element, but another element in the middle. It should be understood that there may be On the other hand, in this specification, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that the other element does not exist in the middle.
또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다. In addition, the terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention.
또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, the singular expression may include the plural expression unless the context clearly dictates otherwise.
또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.Also in this specification, terms such as 'include' or 'have' are only intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and one or more It should be understood that the existence or addition of other features, numbers, steps, operations, components, parts or combinations thereof is not precluded in advance.
또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. Also in this specification, the term 'and/or' includes a combination of a plurality of listed items or any of a plurality of listed items.
또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.
도 1은 본 발명의 실시예에 따른 피킹 우선 순위 선정 장치를 나타낸 블록도이다.1 is a block diagram illustrating an apparatus for selecting a picking priority according to an embodiment of the present invention.
도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 피킹 우선 순위 선정 장치는 획득부(210), 탐지부(230), 분석부(250), 피킹 순위 선정부(270)를 포함할 수 있다.As shown in the figure, the picking priority selection apparatus according to an embodiment of the present invention may include an
획득부(210)는 설정 영역의 스캔 결과를 획득할 수 있다. 스캔 결과는 설정 영역에 대한 2차원 이미지, 뎁스 정보, 뎁스 이미지 중 적어도 어느 하나를 포함할 수 있다. 여기서, 뎁스 이미지는 각 픽셀의 뎁스 정보를 2차원 이미지 또는 3차원 이미지로 맵핑한 것으로 뎁스 정보를 나타내는 방법 중 하나이다.The
탐지부(230)는 스캔 결과를 분석하고, 설정 영역에 배치된 복수의 피킹 대상물(90)을 탐지할 수 있다.The
분석부(250)는 이펙터(20)가 피킹(picking)할 수 있는 복수의 대상물(90)이 설정 영역에 배치될 때, 복수의 대상물(90) 각각의 환경 정보를 분석할 수 있다.The
피킹 순위 선정부(270)는 복수의 대상물(90) 중 피킹 성공율이 높은 피킹 후보를 선정할 수 있다. 일 예로, 피킹 순위 선정부(270)는 분석부(250)에 의해 분석된 각 대상물(90)의 환경 정보를 비교할 수 있다. 피킹 순위 선정부(270)는 각 대상물(90)의 환경 정보의 비교 결과에 따라 피킹 후보 또는 대상물(90)의 피킹 우선 순위를 선정할 수 있다.The picking
피킹 순위 선정부(270)는 각 대상물(90)마다 높이, 넓이, 관심 거리, 주변의 간섭도 중 적어도 하나의 환경 정보를 독립적으로 평가할 수 있다. 피킹 순위 선정부(270)는 각 대상물(90)에 대한 상기 환경 정보의 평가 결과에 따라 각 대상물(90)의 피킹 우선 순위를 선정할 수 있다.The picking
피킹 순위 선정부(270)에 의해 선정된 피킹 후보 또는 피킹 우선 순위는 설정 영역에 배치된 대상물(90)을 피킹하도록 동작하는 피킹 장치(100)에 제공될 수 있다. 본 발명의 피킹 우선 순위 선정 장치는 피킹 장치(100)에 일체로 형성되거나, 별개로 형성될 수 있다.The picking candidates or picking priorities selected by the picking
도 2는 본 발명의 실시예에 따른 피킹 장치(100)를 나타낸 개략도이다.2 is a schematic diagram illustrating a
도면에 도시된 바와 같이, 본 발명의 일 실시예에 따른 피킹 장치(100)는 촬영 유니트(110, 120), 로봇(10)을 포함할 수 있다.As shown in the drawing, the picking
촬영 유니트(110, 120)는 설정 영역을 촬영할 수 있다. 일 예로, 설정 영역에 대상물(90)이 담기는 빈(bin)(80)이 배치되면, 촬영 유니트(110, 120)는 빈(80)을 촬영하거나 스캔할 수 있다. 도 2의 빈(80)에는 3개의 대상물 ①, ②, ③이 배치되어 있다. 이때, 설정 영역은 대상물(90)이 수용되거나 지지되는 빈(80)의 바닥면을 포함할 수 있다.The photographing
촬영 유니트는 스캔(촬영) 능력, 초기 설치 비용 등을 고려하여 단일의 촬영부를 갖거나, 복수의 촬영부를 가질 수 있다.The photographing unit may have a single photographing unit or a plurality of photographing units in consideration of scanning (photographing) capability, initial installation cost, and the like.
일 예로, 설정 영역에 대면하게 배치된 지지대(109)에 설치되고 설정 영역을 촬영하는 제1 촬영부(110), 제1 촬영부(110)와 설정 영역의 사이에서 대상물(90)을 촬영하는 제2 촬영부(120)가 마련될 수 있다.As an example, the first photographing
제1 촬영부(110) 및 제2 촬영부(120)는 각각 RGB-D 센서, 스테레오 카메라, TOF (Time of Flight) 센서, 초음파 센서 등으로 마련될 수 있다. 여기서, RGB-D 센서는 RGB(칼라) 2차원 이미지와 뎁스 정보(Depth)를 센싱할 수 있다. 스테레오 카메라는 2개의 이미지 센서를 병렬로 배치하여 이미지 정보와 뎁스 (Depth) 정보를 센싱할 수 있다. 여기서, RGB-D 센서 및 스테레오 카메라, TOF 센서, 초음파 센서는 일례에 불과하고 제1 촬영부(110) 및 제2 촬영부(120)는 다양한 형태의 센서 또는 그들의 조합으로 구성될 수 있음은 물론이다. 경우에 따라서, 제1 촬영부(110) 및 제2 촬영부(120)는 단일 이미지 센서로 각각 마련되어 상기 대상물(90)의 2차원 이미지만을 촬영할 수도 있다.Each of the first photographing
제1 촬영부(110)는 설정 영역에 대면되는 지지대(109)의 일면 제1 위치 p1에 설치될 수 있다.The first photographing
제1 촬영부(110)의 스캔 결과는 설정 영역에 배치된 대상물(90)을 탐지하거나, 복수의 대상물(90) 중 피킹할 후보를 선정하는데 사용될 수 있다.The scan result of the first photographing
제2 촬영부(120)는 중력 방향 상으로 제1 위치 p1과 설정 영역 사이의 제2 위치 p2에 설치될 수 있다. 일 예로, 제2 촬영부(120)는 제1 위치 p1과 설정 영역 사이에서 움직이는 로봇(10)의 암(11)에 마련될 수 있다.The second photographing
제2 촬영부(120)가 로봇(10)과 별개로 형성된 경우, 로봇(10)에 제2 촬영부(120)를 장착시키기 위한 착탈부(180)가 추가로 마련될 수 있다. 예를 들어, 착탈부(180)는 로봇(10)의 암(11)을 감싸는 밴드 형상으로 형성될 수 있다. 로봇(10)의 암(11)을 감싼 상태에서 착탈부(180)의 양단부는 서로 대면 배치되고 볼트 등의 체결 수단(189)에 의해 서로 체결될 수 있다.When the second photographing
제2 촬영부(120)의 스캔 결과는 피킹 후보로 선정된 대상물(90)의 자세를 추정하고, 해당 대상물(90)에서 피킹이 이루어져야 하는 지점의 지정에 사용될 수 있다.The scan result of the second photographing
로봇(10)의 암(11)의 말단에는 대상물(90)을 피킹(picking)하는 이펙터(20)(end effector)가 마련될 수 있다. An effector 20 (end effector) for picking an
이펙터(20)는 에어 석션을 이용해서 대상물(90)을 흡착하고 들어올리는 석션부를 포함할 수 있다. 다른 예로, 이펙터(20)는 대상물(90)의 일측과 타측을 각각 집는 복수의 핑거를 포함할 수 있다. 복수의 핑거가 서로 가까워지는 방향으로 조여지면, 복수의 핑거 사이에 배치된 대상물(90)은 핑거에 의해 그랩될 수 있다.The
이펙터(20)가 초기 위치에 배치된 로봇(10)은 제1 촬영부(110)의 스캔 결과를 분석해서 피킹 후보가 선정되면, 피킹 후보에 대면되는 경유 지점 pr에 이펙터(20)가 위치하도록 움직일 수 있다. 이펙터(20)가 경유 지점 pr에 위치하면, 제2 카메라의 스캔 결과를 분석해서 피킹 후보의 자세 또는 피킹 지점이 분석될 수 있다. 로봇(10)은 피킹 후보의 자세에 대응해서 피킹 후보를 피킹할 확률이 가장 높은 자세를 취하도록 이펙터(20)를 움직일 수 있다. 또는, 로봇(10)은 피킹 후보를 피킹할 확률이 가장 높은 피킹 지점을 향해 이펙터(20)를 움직일 수 있다.When a picking candidate is selected by analyzing the scan result of the first photographing
다른 예로, 제1 촬영부(110)와 제2 촬영부(120) 중 어느 하나만 마련된 경우, 단일의 촬영부를 이용해서 피킹 후보가 선정되고, 피킹 후보의 자세, 피킹 지점이 결정될 수 있다.As another example, when only one of the first photographing
도 1에 도시된 피킹 우선 순위 선정 장치는 설정 영역에 배치된 복수의 대상물(90) 중 이펙터(20)에 의해 피킹될 피킹 후보를 선정하거나, 각 대상물(90)의 피킹 우선 순위를 선정할 수 있다.The picking priority selection apparatus shown in FIG. 1 selects a picking candidate to be picked by the
획득부(210)는 설정 영역의 스캔 결과를 촬영 유니트(110, 120)로부터 획득할 수 있다.The
상기 획득부(210)는 상기 촬영 유니트(110, 120)가 대상물(90)의 뎁스 정보도 추가적으로 측정 가능한 경우, 상기 촬영 유니트(110, 120)로부터 대상물(90)의 뎁스 정보도 추가적으로 획득할 수 있다.The
피킹 순위 선정부(270)는 스캔 결과를 통해 각 대상물(90)이 갖는 복수의 환경 정보를 분석할 수 있다. 일 예로, 피킹 순위 선정부(270)는 각 대상물(90)이 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도, 각 대상물(90)의 높이, 각 대상물(90)의 마스킹 영역 넓이, 각 대상물(90)과 관심 영역(Region Of Interest, ROI) 중심 간의 거리 중 적어도 하나를 이용해서 각 대상물(90)의 피킹 우선 순위를 선정할 수 있다. 이때, 해당 간섭도, 대상물(90)의 높이, 마스킹 영역 넓이, 대상물(90) 중심과 ROI 중심 간의 거리 등이 스캔 결과로부터 분석된 환경 정보에 해당될 수 있다. 여기서, 상술한 환경 정보의 예로 든 간섭도, 높이, 대상물(90) 중심과 관심 영역 중심 간의 거리 등은 일례에 불과하고 다양한 종류의 인자(factor)들이 추가되거나 변경될 수 있다. 여기서, 대상물(90)의 높이는 빈(bin, 80)의 바닥면에서 중력방향의 반대방향으로 측정한 것으로 상술한 촬영 유니트(110, 120)로부터 획득된 뎁스 정보로부터 계산될 수 있다.The picking
피킹 순위 선정부(270)는 복수의 환경 정보를 정규화하며, 복수의 환경 정보에 대해 누적 정규 분포 함수 점수를 산출할 수 있다. 피킹 순위 선정부(270)는 각 환경 정보마다 소정의 가중치를 부여하고 가중치를 고려한 각 환경 정보의 종합 점수를 산출할 수 있다. 즉, 선정부(270)는 각 환경 정보마다 해당 환경 정보의 중요도를 고려한 가중치를 부여함으로써 해당 환경 정보들을 튜닝할 수 있다.The picking
피킹 순위 선정부(270)는 복수의 대상물(90)에 대해 산출된 종합 점수를 비교하여 복수의 대상물(90) 중 우선적으로 피킹해야 할 피킹 우선 순위를 선정할 수 있다. 일 예로, 피킹 순위 선정부(270)는 종합 점수가 높은 순서에 따라 우선 순위를 부여할 수 있다.The picking
분석부(250)에는 제1 분석 수단(251), 제2 분석 수단(252), 제3 분석 수단(253), 제4 분석 수단(254)이 마련될 수 있다. 여기서, 분석부(250)가 상기 제 1 내지 제4 분석 수단(251, 252, 253, 254)을 모두 포함하는 것으로 설명하였으나 그 중 어느 것을 생략할 수도 있다. 분석부(250)는 상기 제1 내지 제4 분석 수단 (251, 252, 253, 254) 중 적어도 어느 하나를 포함할 수 있다.The
제1 분석 수단(251)은 대상물(90)의 마스킹 영역의 넓이를 분석할 수 있다.The first analysis means 251 may analyze the area of the masking area of the
제1 분석 수단(251)은 딥러닝 모델을 이용해 스캔 결과를 분석하고, 대상물(90)의 영역을 추정하고 해당 영역을 마스킹할 수 있다.The first analysis means 251 may analyze the scan result using the deep learning model, estimate the area of the
피킹 순위 선정부(270)는 상기 제1 분석 수단(251)에서 산출한 상기 대상물(90)의 마스킹 영역의 넓이를 이용해서 피킹 후보를 선정할 수 있다. 공기를 흡입해서 대상물(90)을 흡착하는 석션부가 마련된 이펙터(20)의 경우, 피킹이 성공적으로 수행되기 위해서는 대상물(90)의 노출된 부분이 석션부에 의해 흡착될 수 있을 정도로 충분히 노출되어 있어야 한다. 이때, 석션부에 대해 노출된 대상물(90)의 면적이 마스킹 영역의 넓이에 해당될 수 있다. 피킹 대상이 되는 특정 대상물의 마스킹 영역의 넓이는 해당 대상물(90) 위에 다른 대상물이 적층된 경우, 상기 특정 대상물의 마스킹 영역의 넓이는 감소될 수 있다. 즉, 대상물(90)의 마스킹 영역이 넓다는 것은 다른 대상물에 의해 가려지는 정도가 작다는 것을 의미한다.The picking
마스킹 영역의 넓이는 다양하게 파악될 수 있다.The width of the masking area may be variously recognized.
일 예로, 획득부(210)는 촬영 유니트(110, 120) 등으로부터 RGB(red, green, blue) 이미지를 획득할 수 있다. 제1 분석 수단(251)은 RGB 이미지를 대상으로 하는 딥러닝 모델을 이용하여 대상물(90)의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출할 수 있다. 제1 분석 수단(251)은 대상물(90)의 분할 픽셀 개수의 합을 대상물(90)의 마스킹 영역 넓이로 산출할 수 있다. 피킹 순위 선정부(270)는 마스킹 영역 넓이를 이용하여 피킹 후보를 선정할 수 있다.For example, the
도 3은 간섭도를 산출하는 과정을 나타낸 개략도이다.3 is a schematic diagram illustrating a process of calculating an interference degree.
설정 영역 g3에 해당하는 빈(bin)(80)에 존재하는 특정 대상물이 설정 영역 g3에 존재하는 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도가 정의될 수 있다.An interference degree indicating a rate at which a specific object existing in a
제2 분석 수단(252)은 대상물(90)을 대상으로 간섭도를 분석할 수 있다. 제2 분석 수단(252)은 마스킹 영역 내부 g1의 제1 뎁스 정보 및 마스킹 영역 외부 g2의 제2 뎁스 정보를 이용하여 간섭도를 분석할 수 있다. 제1 뎁스 정보 및 제2 뎁스 정보는 마스킹 영역을 기준으로 하므로, 간섭도 분석 과정에서 마스킹 영역 또는 그 넓이를 분석하는 제1 분석 수단(251)의 산출 결과가 추가로 사용될 수 있다. 피킹 순위 선정부(270)는 간섭도를 이용해서 피킹 후보를 선정할 수 있다.The second analysis means 252 may analyze the degree of interference with respect to the
제1 뎁스 정보 또는 제2 뎁스 정보의 획득을 위해 획득부(210)는, 상술한 바와 같이, ToF(Time-Of-flight) 카메라, 거리 측정기, 비젼 등으로부터 대상물(90)에 대한 뎁스 정보를 획득할 수 있다. 정리하면, 간섭도의 분석을 위해 획득부(210)는 스캔 결과로서, RGB 이미지 정보와 뎁스(depth) 정보를 모두 획득할 수 있다. 뎁스(depth) 정보는 2차원 이미지 형태로 제공될 수 있으며, 2차원 이미지 형태의 뎁스(depth) 정보를 뎁스(depth) 이미지로 호칭하기로 한다.In order to obtain the first depth information or the second depth information, the
탐지부(230)는 RGB 이미지 정보와 뎁스 이미지 중 적어도 하나를 이용해서 설정 영역에 존재하는 특정 대상물을 탐지할 수 있다.The
피킹 순위 선정부(270)는 특정 대상물이 탐지되면, RGB 이미지를 이용해서 설정 영역 중 특정 대상물이 배치된 제1 영역을 제외한 제2 영역을 추출할 수 있다.When a specific object is detected, the picking
피킹 순위 선정부(270)는 뎁스 이미지에서 제1 영역의 대응 영역을 제외하고, 뎁스 이미지에서 오직 제2 영역의 대응 영역에 대한 분석을 통해 특정 대상물을 기준으로 하는 주변의 뎁스 정보 맵을 생성할 수 있다.The picking
피킹 순위 선정부(270)는 특정 대상물을 기준으로 하는 뎁스 정보 맵을 이용해서 특정 대상물에 대한 주변의 간섭도를 산출하고, 간섭도를 이용해서 피킹 후보를 선정할 수 있다. 예를 들어 피킹 순위 선정부(270)는 간섭도가 낮은 순서에 따라 피킹 우선 순위를 선정할 수 있다, 특정 대상물에 대한 간섭도가 낮다는 것은 특정 대상물을 로봇(10)을 이용해 설정 영역으로부터 들어내기도 쉽고, 들어내더라도 다른 대상물이 변동하지 않을 가능성이 높다는 것을 의미할 수 있다. 특정 대상물의 피킹 과정에서 다른 대상물이 무너져내려 다른 상태로 변경된다면, 현재 시점에서 복수의 대상물(90)에 대해 선정된 피킹 우선 순위가 무용지물이 될 수 있다. 따라서, 간섭도가 낮은 대상물(90)부터 피킹 작업이 수행되는 것이 유리하다.The picking
제1 분석 수단(251)은 RGB 이미지를 대상으로 하는 딥러닝 모델을 이용하여 대상물(90)의 영역을 마스킹하여 해당 대상물(90)이 세그멘테이션된 영역의 픽셀(segmentation pixel)의 좌표 정보를 추출할 수 있다. 제2 분석 수단(252)은 제1 분석 수단(251)에 의해 추출된 세그멘테이션 영역의 픽셀 좌표 정보와 뎁스 정보를 이용해서 특정 대상물에 대한 다른 대상물의 간섭도를 산출할 수 있다.The first analysis means 251 masks the area of the
제2 분석 수단(252)은 좌표 정보의 집합에 해당하는 대상물(90)의 마스킹 영역에 대상물(90)을 피킹하는 로봇(10)의 이펙터(20)의 진입에 필요한 여유분을 추가해서 대상물(90)의 간섭 체크 영역을 설정할 수 있다. 왜냐하면, 이펙터(20)의 유형에 따라서 상기 대상물(90)을 피킹하는데 필요한 여유 공간이 다르기 때문이다. 가령, 이펙터(20)가 손가락(핑거) 형상으로 되어 있는 경우에는 손가락이 상기 대상물(90)의 가장 자리를 집어야 하므로 대상물(90) 주변에 간섭이 없는 여유 공간이 많이 필요하여 간섭 체크 영역이 큰 반면, 이펙터(20)가 대상물(90)의 중앙부위를 공압으로 석션하는 방식인 경우에는 대상물(90)을 피킹하는데 필요한 여유공간이 상대적으로 작아 간섭 체크 영역이 작을 수 있다. 즉, 이펙터(20)의 유형, 종류에 따라서 간섭 체크 영역이 달라질 수 있다.The second analysis means 252 adds a margin necessary for the entry of the
도 6은 간섭 체크 영역을 고려한 간섭도를 나타낸 개략도이다.6 is a schematic diagram illustrating an interference degree considering an interference check area.
도 6의 (a)는 간섭 체크 영역 ch를 나타낸 평면도이고, 도 6의 (b)는 간섭 체크 영역 ch를 나타낸 측면도일 수 있다.6A is a plan view illustrating the interference check area ch, and FIG. 6B is a side view illustrating the interference check area ch.
핑거 타입의 이펙터(20)인 경우, 간섭 체크 영역 ch는 마스킹 영역 g1의 외주면 또는 외곽에 추가로 핑거의 두께 g9 및 진입 거리 g8이 추가된 영역을 포함할 수 있다. 일 예로, 핑거의 두께 g9 이내를 만족하고, 진입 거리 g8 이내를 만족하는 범위 또는 영역이 간섭 체크 영역 ch에 해당될 수 있다.In the case of the finger-
복수의 핑거를 이용해서 대상물(90)을 확실하게 집기 위해, 해당 핑거는 대상물(90) 상단으로부터 대상물(90) 하단을 향해 설정 거리만큼 진입해야 하며, 이때, 해당 설정 거리가 진입 거리 g8에 해당될 수 있다.In order to reliably pick up the
핑거의 두께 g9 및 진입 거리 g8이 추가된 간섭 체크 영역 내에 다른 대상물이 침범하고 있으면, 해당 대상물은 다른 대상물에 의해 피킹 작업이 간섭되는 것으로 판단될 수 있다. 이때, 설정 영역에 배치되고 피킹 대상이 되는 일부 대상물은 특정 대상물의 피킹을 방해하는 장애물(99)로 기능할 수 있다. 피킹 장치(100)는 해당 장애물(99)을 회피하면서 대상물(90)을 피킹하는 것이 좋다.If another object is invading the interference check area to which the thickness g9 of the finger and the entry distance g8 are added, it may be determined that the picking operation is interfered with the corresponding object by the other object. In this case, some objects disposed in the setting area and being picked may function as
제2 분석 수단(252)은 간섭 체크 영역에 대한 다른 대상물의 침범 비율에 따라 간섭도를 산출할 수 있다. 예를 들어, 간섭 체크 영역 ch의 면적이 100일 때, 장애물(99)이 간섭 체크 영역 ch의 면적 10을 차지한 경우 침범 비율은 10%로 산정될 수 있다.The second analysis means 252 may calculate the degree of interference according to the intrusion ratio of the other object to the interference check area. For example, when the area of the interference check area ch is 100, when the
제3 분석 수단(253)은 뎁스 이미지에 포함된 복수의 대상물(90) 각각의 상단 높이를 분석할 수 있다. 대상물(90)의 상단은 중력 방향 상으로 대상물(90)의 가장 높은 부분을 나타낼 수 있다.The third analysis means 253 may analyze the top height of each of the plurality of
피킹 순위 선정부(270)는 환경 정보의 높이에 해당하는 상단 높이를 이용해서 피킹 후보를 선정할 수 있다. 예를 들어, 피킹 순위 선정부(270)는 상단 높이를 이용해서 높은 위치에 배치된 대상물(90)의 순서대로 피킹 우선 순위를 선정할 수 있다. 가장 높은 곳에 배치된 특정 대상물을 들어내더라도, 그 밑에 있는 다른 대상물은 변동 없이 현재 상태를 유지할 수 있다. 또한, 가장 높은 특정 대상물의 피킹 작업 역시 원활하게 수행될 수 있다. The picking
대상물(90)의 상단 높이는 구체적으로 다음과 같은 과정을 통해 분석될 수 있다.The height of the upper end of the
피킹 순위 선정부(270)는 RGB 이미지를 대상으로 하는 딥러닝 모델을 이용하여 대상물(90)이 세그멘테이션된 영역의 픽셀(segmentation pixel)의 좌표 정보를 추출하는 제1 분석 수단(251)과, 추출된 좌표 정보를 이용해서 뎁스 이미지 상에서 대상물(90)의 영역을 구분하는 제3 분석 수단(253)을 포함할 수 있다.The picking
제3 분석 수단(253)은 대상물(90)의 영역 중에서 최고 상단 지점의 뎁스값을 추출할 수 있다. 피킹 순위 선정부(270)는 최고 상단 지점의 뎁스값을 이용해서 피킹 후보를 선정할 수 있다. 즉, 제3 분석 수단(253)은 상기 대상물의 세그멘테이션 영역의 픽셀 좌표들의 뎁스 값을 이용하여 최고 상단지점의 픽셀 및 해당 픽셀에서의 뎁스 값을 추출할 수 있다. 선정부(270)는 제3 분석 수단(253)이 제공하는 복수의 대상물(90)들 각각의 최고 상단지점의 뎁스값을 비교하여 그 중에서 최고 상단지점에 해당하는 대상물(90)을 우선 순위가 높은 ??킹 후로로서 선정할 수 있다.The third analysis means 253 may extract a depth value of the highest uppermost point in the area of the
도 4는 관심 거리를 나타낸 개략도이다.4 is a schematic diagram illustrating a distance of interest.
제4 분석 수단(254)은 로봇(10)의 이펙터(20)에 의해 피킹이 가능한 관심 영역(Region Of Interest, ROI)의 중점 정보와 대상물(90)의 중심 정보를 획득할 수 있다.The fourth analysis means 254 may acquire central information of a region of interest (ROI) that can be picked by the
제4 분석 수단(254)은 관심 영역(ROI)의 중점 o에서 각 대상물(90)의 중심 간의 거리를 관심 거리로서 측정 또는 산출할 수 있다. 피킹 순위 선정부(270)는 관심 거리를 이용해서 피킹 후보를 선정할 수 있다. 즉, 관심 거리는 관심 영역(ROI)의 중점 o와 각 대상물(90)의 중심 간의 거리를 의미한다. ROI의 중점 o는 상술한 제1 촬영부(110) 또는 제2 촬영부(120)에서 촬영한 RGB 이미지 영역의 중앙점에 해당할 수 있다.The fourth analysis means 254 may measure or calculate the distance between the centers of the
예를 들어, 로봇(10)에 장착된 제2 촬영부(120)에서 촬영되는 2차원 이미지 영역은 제1 촬영부(110)에서 촬영되는 2차원 이미지 영역보다 작을 수 있다. 이는 제1 촬영부(110)와 제2 촬영부(120)에 사용되는 렌즈의 초점거리, 화각(Field of View)등이 상이한 경우 발생할 수 있다. 이때, 촬영되는 2차원 이미지 영역이 상대적으로 작은 제2 촬영부(120)에서 촬영된 영역을 관심 영역(ROI)으로 삼을 수 있다. 2차원 이미지 영역이 작은 경우, 관심 거리를 계산하는 계산량이 상대적으로 적기 때문에 고속연산이 가능할 수 있다.For example, the 2D image area photographed by the second photographing
한편, 관심 영역(ROI)과 관계된 관심 거리는 로봇(10) 말단에 설치된 이펙터(20)와 대상물(90) 간의 거리와 관련될 수 있다. 즉, 관심 거리가 짧을수록 이펙터(20)와 해당 대상물(90) 간의 거리가 짧은 것을 의미할 수 있다. 따라서, 이펙터(20)가 대상물(90)까지 이동하는 이동 시간을 최소화하여 총 작업 시간을 단축하기 위해서 관심 거리가 짧은 순서에 따라 피킹 후보를 선정하거나 피킹 우선 순위를 부여할 수 있다. 이에 따라, 이동 시간 최소화를 위해 로봇(10) 암에 부착된 제2 촬영부(120)에서 촬영된 이미지를 기초로 관심 거리를 계산할 수도 있다.Meanwhile, the distance of interest related to the region of interest (ROI) may be related to the distance between the
관심 거리는 구체적으로 다음과 같이 분석될 수 있다.The distance of interest can be specifically analyzed as follows.
딥러닝을 이용하는 제1 분석 수단(251)에 의해, 제2 촬영부(120)에 의해 촬영된 이미지로부터 대상물(90)의 분할 픽셀(segmentation pixel)의 좌표 정보가 추출될 수 있다.Coordinate information of segmentation pixels of the
제4 분석 수단(254)은 상기 제2 촬영부(120)에 의해 촬영된 상기 이미지로부터 관심 영역(Region Of Interest, ROI)의 중점 좌표 o를 획득할 수 있다.The fourth analysis means 254 may obtain the midpoint coordinate o of a region of interest (ROI) from the image captured by the second photographing
제4 분석 수단(254)은 각각의 대상물(90)을 형성하는 복수의 분할 픽셀(Segmentation pixel) 중 각 대상물(90)의 중심에 배치된 중심 픽셀의 좌표 w를 추출할 수 있다. 제4 분석 수단(254)은 관심 영역(ROI)의 중점 좌표 o와 중심 픽셀의 좌표 w 간의 거리에 해당하는 관심 거리(U)를 산출하고, 관심 거리를 이용해서 피킹 후보를 선정할 수 있다. 즉, 관심 거리가 작은 중심 픽셀에 해당하는 대상물(90)부터 우선적으로 피킹하도록 피킹 우선 순위를 정할 수 있다.The fourth analysis means 254 may extract the coordinates w of the center pixel disposed at the center of each
탐지부(230)가 바운딩 박스(Bounding Box) 방식을 이용해서 촬영된 이미지에서 대상물(90)을 인식하는 경우, 제4 분석 수단은 다각형 형상의 바운딩 박스 BB의 내부 중심과 관심 영역(ROI)의 중점의 거리를 관심 거리로 설정할 수도 있다. 도 4의 경우, 4개의 대상물(90)이 존재하는데, 관심 영역(ROI)의 중점 상에 존재하는 대상물을 배제하면, 3개의 바운딩 박스가 존재할 수 있다. 3개의 바운딩 박스 중 관심 거리 U가 가까운 순서로 피킹 우선 순위 0, 1, 2가 부여될 수 있다.When the
피킹 순위 선정부(270)는 이펙터(20)와 관련된 이펙터(20) 정보를 획득할 수 있다. 피킹 순위 선정부(270)는 상술한 여러가지 환경 정보에 의해 선정된 피킹 우선 순위를 이펙터(20) 정보에 따라 보정할 수 있다.The picking
일 예로, 피킹 순위 선정부(270)는 이펙터(20) 정보를 기준으로 복수의 환경 정보에 대한 가중치를 설정할 수 있다. 이펙터(20)의 유형이 변경되면 피킹 순위 선정부(270)에 의해 가중치가 변경되고, 변경된 가중치의 적용으로 인해 우선 순위가 변경될 수 있다.As an example, the picking
피킹 순위 선정부(270)는 이펙터(20)가 대상물(90)을 사이에 두고 서로 대면하게 배치된 복수의 핑거를 조여서 대상물(90)을 집어올리는 핑거 유형이면, 복수의 환경 정보 중에서 주변 간섭도에 대한 가중치를 가장 높게 설정할 수 있다. 왜냐하면, 주변 간섭도가 보장되지 않으면 이펙터(20)는 대상물(90)에 대한 픽업 자체를 수행할 수 없기 때문이다.If the picking
피킹 순위 선정부(270)는 해당 가중치가 반영된 각 환경 정보에 대한 평가 결과를 이용해서 피킹 우선 순위를 선정할 수 있다.The picking
일 예로, 피킹 순위 선정부(270)는 각 대상물(90)마다 마스킹 영역 넓이(상술한 바와 같이, 분할 픽셀의 픽셀 개수의 합), 주변의 간섭도를 독립적으로 각각 평가할 수 있다.As an example, the picking
피킹 순위 선정부(270)는 이펙터(20)가 에어 프레셔(공압) 석션을 이용해서 대상물(90)을 흡착하고 들어올리는 석션부를 포함하면, 복수의 환경 정보 중에서 대상물(90)의 넓이에 대한 가중치를 간섭도보다 크게 설정할 수 있다. 왜냐하면, 일부 간섭이 존재하더라도, 충분한 면적의 흡착면이 보장된다면 주변의 간섭에도 불구하고 대상물(90)의 픽업(pick up)이 가능하기 때문이다.When the picking
피킹 순위 선정부(270)는 가중치가 반영된 각 환경 정보에 대한 평가 결과를 이용해서 우선 순위를 선정할 수 있다.The picking
도 5는 이펙터(20)의 유형에 따른 가중치의 조절을 나타낸 개략도이다.5 is a schematic diagram illustrating adjustment of a weight according to the type of the
도 5는 피킹 우선 순위의 선정에 관여하는 환경 정보로서 분석부(250)에 의해 각 대상물(90)마다 높이 A, 주변 간섭도 B, 넓이(마스킹 영역 넓이) C, 관심 거리 D가 분석될 수 있다.5 is environmental information involved in the selection of the picking priority, and the height A, the ambient interference degree B, the area (masking area area) C, and the distance of interest D can be analyzed by the
여기서, 각 대상물(90)은 상술한 바와 같이, 제1 촬영부(110) 또는 제2 촬영부(120)에 의해 촬영된 이미지 내에서 상기 탐지부(230)에 의해 탐지된 것들이다.Here, as described above, each of the
높이 A가 클수록 피킹 우선 순위의 점수가 증가할 수 있다. 즉, 빈(80) 내에 높은 위치에 존재하는 대상물(90)일수록 우선적으로 피킹할 수 있다.As height A increases, the score of the picking priority may increase. That is, the higher the
주변 간섭도 B가 낮을수록 우선 순위의 점수가 증가할 수 있다. 즉, 주변의 다른 대상물 등에 의한 간섭이 작을수록 해당 대상물(90)을 우선적을 피킹할 수 있다.The lower the degree of ambient interference B, the higher the priority score may be. That is, as the interference caused by other nearby objects is smaller, the corresponding
넓이 C가 클수록 우선 순위의 점수가 증가할 수 있다. 즉, 대상물(90)의 크기(정확히는, 촬영된 이미지 내에서 차지하는 분할 픽셀의 영역의 넓이)가 클수록 우선적으로 피킹할 수 있다.As the area C increases, the priority score may increase. That is, the larger the size of the object 90 (to be precise, the area of the divided pixel area occupied in the photographed image) is, the more preferentially the picking can be.
관심 거리 D가 짧을수록 우선 순위의 점수가 증가할 수 있다. 즉, 로봇(10) 암에 가까운 위치에 있는 대상물(90)일수록 우선적으로 피킹할 수 있다.The shorter the distance D of interest, the higher the priority score may be. That is, the
도 5의 (a)는 일반적인 가중치를 나타낸다. 이펙터(20)의 유형이 일반으로 설정되면, 피킹 순위 선정부(270)는 각 환경 정보의 가중치를 모두 1로 조절할 수 있다. 후술할 [표 1]에서 "일반 유형"에 해당하는 가중치에 해당한다.Figure 5 (a) shows a general weight. When the type of the
도 5의 (b)는 핑거 유형의 이펙터(20)에 대한 가중치를 나타낸다. 후술할 [표 1]에서 "핑거 유형"에 해당하는 가중치에 해당한다. 이펙터(20)의 유형이 핑거 유형으로 설정되면, 피킹 순위 선정부(270)는 주변 간섭도 B의 가중치를 가장 높은 2로 조절할 수 있다. 피킹 순위 선정부(270)는 높이 A의 가중치를 1로 조절하고, 넓이 C 및 관심 거리 D의 가중치를 0으로 조절할 수 있다. 핑거 유형의 이펙터(20)가 대상물(90)을 집기 위해 가중 중요한 요소인 주변 간섭도가 가장 크게 반영되는 것을 알 수 있다.FIG. 5B shows weights for the finger-
도 5의 (c)는 석션 유형의 이펙터(20)에 대한 가중치를 나타낸다. 후술할 [표 1]에서 "석션 유형"에 해당하는 가중치에 해당한다. 이펙터(20)의 유형이 석션 유형으로 설정되면, 피킹 순위 선정부(270)는 높이 A 및 넓이 C의 가중치를 2로 조절하고, 주변 간섭도 B 및 관심 거리 D의 가중치를 0으로 조절할 수 있다. 석션 유형의 이펙터(20)가 대상물(90)을 집기 위해 가장 중요한 요소인 넓기가 주변 간섭도보다 크게 반영되는 것을 알 수 있다.5 (c) shows the weight of the
이상에서 도 5의 (a), (b), (c)에 설명한 가중치는 일례에 불과하고 대상물(90)의 종류, 이펙터(20)의 형태 등에 의해서 가중치는 다양하게 변경 가능하다.The weights described in (a), (b), and (c) of FIG. 5 above are only examples, and the weights can be variously changed depending on the type of the
도 5의 가중치가 적용된 상태에서의 예시 점수를 표 1에 나타내었다.Table 1 shows the example scores in the state in which the weight of FIG. 5 is applied.
표 1은 도 2에 배치된 3개의 대상물 ①, ②, ③을 대상으로 할 수 있다.Table 1 may target the three
(A+B+C+D)general type
(A+B+C+D)
(2B+A)finger type
(2B+A)
(2A+2C)Suction type
(2A+2C)
표 1에서 A, B, C, D는 분석부(250)에 의해 평가된 점수를 나타낼 수 있다. 분석부(250)에 의해 대상물 ①, ②, ③의 환경 정보 분석 점수가 표 1과 같은 상황에서 핑거 유형이 변경되면, 가중치의 조절로 피킹 우선 순위가 도 5와 같이 달라질 수 있다.일 예로, 이펙터(20)가 일반 유형에 해당되면, 피킹 우선 순위는 제1 대상물 ①, 제2 대상물 ②, 제3 대상물 ③의 순서대로 부여될 수 있다.In Table 1, A, B, C, and D may represent scores evaluated by the
이펙터(20)가 핑거 유형에 해당되면, 피킹 우선 순위는 제2 대상물 ②, 제1 대상물 ①, 제3 대상물 ③의 순서대로 부여될 수 있다.If the
이펙터(20)가 석션 유형에 해당되면, 피킹 우선 순위는 제3 대상물 ③, 제2 대상물 ②, 제3 대상물 ③의 순서대로 부여될 수 있다.If the
도 7은 본 발명의 실시예에 따른 피킹 우선 순위 선정 방법을 나타낸 흐름도이다.7 is a flowchart illustrating a method for selecting a picking priority according to an embodiment of the present invention.
도 7의 피킹 우선 순위 선정 방법은 도 1에 도시된 피킹 우선 순위 선정 장치에 의해 수행될 수 있다. 해당 피킹 우선 순위 선정 장치는 로봇(10)의 이펙터(20)에 의해 피킹되는 복수의 대상물(90)에 대한 피킹 우선 순위를 선정할 수 있다.The method for selecting a picking priority of FIG. 7 may be performed by the apparatus for selecting a picking priority shown in FIG. 1 . The picking priority selection apparatus may select a picking priority for a plurality of
본 발명의 피킹 우선 순위 선정 방법은 스캔 단계(S 510), 분석 단계(S 520), 산출 단계(S 530), 선정 단계(S 540)를 포함할 수 있다.The picking priority selection method of the present invention may include a scan step (S510), an analysis step (S520), a calculation step (S530), and a selection step (S540).
스캔 단계(S 510)는 복수의 대상물(90)이 배치된 설정 영역을 스캔할 수 있다. 스캔 단계(S 510)는 촬영 유니트(110, 120) 또는 획득부(210)에 의해 수행되는 동작일 수 있다.In the scanning step ( S510 ), a setting area in which the plurality of
분석 단계(S 520)는 해당 스캔 결과를 분석하고, 각 대상물(90)별로 복수의 환경 정보를 분석할 수 있다. 분석 단계(S 520)는 분석부(250)에 의해 수행될 수 있다.In the analysis step ( S520 ), a corresponding scan result may be analyzed, and a plurality of environmental information may be analyzed for each
산출 단계(S 530)는 이펙터(20)의 유형에 따라 환경 정보마다 다르게 부여된 가중치를 적용해서 종합 점수를 산출할 수 있다. 여기서, 산출 단계는 상술한 분석부(250)에 의해서 수행될 수 있다.In the calculation step ( S530 ), a total score may be calculated by applying different weights for each environmental information according to the type of the
선정 단계(S 540)는 종합 점수를 이용해서 복수의 대상물(90)의 피킹 우선 순위를 선정할 수 있다. 산출 단계(S 530) 및 선정 단계(S 540)는 피킹 순위 선정부(270)에 의해 수행될 수 있다.In the selection step ( S540 ), the picking priority of the plurality of
선정 단계를 통해 선정된 피킹 우선 순위는 대상물(90)을 피킹하는 로봇(10)으로 제공될 수 있다.The picking priority selected through the selection step may be provided to the
본 발명의 피킹 우선 순위 선정 방법에 따르면, 이펙터(20)가 핑거 유형이면, 복수의 환경 정보 중 간섭도에 가장 높은 가중치를 적용하여 대상물(90)의 피킹 우선 순위가 선정될 수 있다. 본 발명의 피킹 우선 순위 선정 방법에 따르면, 이펙터(20)가 석션 유형이면, 복수의 환경 정보 중 마스킹 영역에 가장 높은 가중치를 적용하여 대상물(90)의 피킹 우선 순위가 선정될 수 있다.According to the picking priority selection method of the present invention, if the
도 8은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 8의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 피킹 우선 순위 선정 장치 등) 일 수 있다. 도 8의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.8 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 8 may be a device (eg, a picking priority selection device, etc.) described herein. In the embodiment of FIG. 8 , the computing device TN100 may include at least one processor TN110 , a transceiver device TN120 , and a memory TN130 . Also, the computing device TN100 may further include a storage device TN140 , an input interface device TN150 , an output interface device TN160 , and the like. Components included in the computing device TN100 may be connected by a bus TN170 to communicate with each other.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to an embodiment of the present invention are performed. The processor TN110 may be configured to implement procedures, functions, and methods described in connection with an embodiment of the present invention. The processor TN110 may control each component of the computing device TN100 .
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110 . Each of the memory TN130 and the storage device TN140 may be configured as at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of a read only memory (ROM) and a random access memory (RAM).
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transceiver TN120 may transmit or receive a wired signal or a wireless signal. The transceiver TN120 may be connected to a network to perform communication.
한편, 전술한 본 발명의 실시예에 따른 다양한 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.On the other hand, the various methods according to the embodiment of the present invention described above may be implemented in the form of a program readable by various computer means and recorded in a computer readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, etc. alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only machine language wires such as those created by a compiler, but also high-level language wires that can be executed by a computer using an interpreter or the like. Such hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상, 본 발명의 일 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.In the above, although an embodiment of the present invention has been described, those of ordinary skill in the art can add, change, delete or add components within the scope that does not depart from the spirit of the present invention described in the claims. The present invention may be variously modified and changed by, etc., and this will also be included within the scope of the present invention.
10...로봇 11...암(arm)
20...이펙터 80...빈(bin)
90...대상물 99...장애물
100...피킹 장치 110, 120...촬영 유니트
110...제1 촬영부 109...지지대
120...제2 촬영부 210...획득부
230...탐지부 250...분석부
251...제1 분석 수단 252...제2 분석 수단
253...제3 분석 수단 254...제4 분석 수단
270...피킹 순위 선정부10...
20...
90...object 99...obstacle
100...picking
110...
120...
230...
251...first analysis means 252...second analysis means
253...third analysis means 254...fourth analysis means
270...Picking ranking selection unit
Claims (15)
상기 2차원 이미지와 상기 뎁스 정보를 이용하여 상기 대상물을 탐지하는 탐지부;
상기 2차원 이미지와 상기 뎁스 정보 내에 탐지된 상기 대상물을 분석하여 각 대상물 마다 적어도 2개 이상의 환경 정보를 산출하는 분석부; 및
상기 적어도 2개 이상의 환경 정보에 소정의 가중치를 적용하여 상기 복수의 피킹 대상물 중에서 우선적으로 피킹해야 하는 대상물을 선정하기 위한 피킹 우선 순위를 선정하는 피킹 순위 선정부;를 포함하고,
복수의 상기 피킹 대상물 각각에 대해 높이, 주변 간섭도, 넓이, 관심 거리가 분석되고 상기 피킹 대상물을 피킹하는 이펙터가 핑거 유형으로 설정되면,
상기 피킹 순위 선정부는 상기 주변 간섭도의 가중치를 가장 높게 조절하고, 상기 넓이의 가중치를 가장 낮게 조절하며, 상기 높이의 가중치를 상기 주변 간섭도의 가중치와 상기 넓이의 가중치의 사이로 조절하는 것을 특징으로 하는 피킹 우선 순위 선정 장치.
an acquisition unit configured to acquire a two-dimensional image and depth information for a setting area on which a plurality of picking objects are placed;
a detector configured to detect the object using the two-dimensional image and the depth information;
an analysis unit that analyzes the two-dimensional image and the object detected in the depth information and calculates at least two pieces of environment information for each object; and
a picking priority selection unit for selecting a picking priority for selecting an object to be picked preferentially from among the plurality of picking objects by applying a predetermined weight to the at least two or more pieces of environment information; and
If the height, ambient interference degree, area, and distance of interest are analyzed for each of the plurality of picking objects, and the effector for picking the picking object is set as a finger type,
The picking ranking selecting unit adjusts the weight of the ambient interference degree to the highest, adjusts the weight of the area to the lowest, and adjusts the weight of the height between the weight of the ambient interference degree and the weight of the area. Picking prioritization device.
상기 환경 정보는 상기 대상물이 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도, 상기 대상물이 놓인 위치의 높이, 상기 대상물의 마스킹 영역 넓이, 상기 대상물 중심과 상기 2차원 이미지의 중심 간의 관심 거리 중 적어도 2개 이상을 포함하는 것을 특징으로 하는 피킹 우선 순위 선정 장치.
According to claim 1,
The environmental information includes at least two of an interference degree indicating a rate at which the object is interfered with by another object, a height of a position where the object is placed, an area of a masking area of the object, and a distance of interest between the center of the object and the center of the two-dimensional image. Picking priority selection device, characterized in that it includes more than one.
상기 분석부는 상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 분석부는 상기 좌표 정보의 집합에 해당하는 상기 대상물의 마스킹 영역에 상기 대상물을 피킹하는 로봇의 이펙터의 진입에 필요한 여유분을 추가해서 상기 대상물의 간섭 체크 영역을 설정하고,
상기 분석부는 특정 대상물의 상기 간섭 체크 영역에 대한 다른 대상물의 침범 비율에 따라 상기 간섭도를 산출하는 것을 특징으로 하는 피킹 우선 순위 선정 장치.
3. The method of claim 2,
The analysis unit extracts coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
The analysis unit sets the interference check area of the object by adding a margin necessary for the entry of the effector of the robot picking the object to the masking area of the object corresponding to the set of coordinate information,
Picking priority selection device, characterized in that the analysis unit calculates the degree of interference according to a ratio of a specific object to the interference check area of another object intrusion.
상기 분석부는 상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 분석부는 상기 좌표 정보를 이용해서 상기 대상물의 영역을 구분하며,
상기 분석부는 상기 대상물의 영역 중에서 상기 높이에 해당하는 최고 상단 지점의 뎁스값을 추출하는 것을 특징으로 하는 피킹 우선 순위 선정 장치.
3. The method of claim 2,
The analysis unit extracts coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
The analysis unit divides the area of the object by using the coordinate information,
Picking priority selection device, characterized in that the analysis unit extracts the depth value of the highest point corresponding to the height in the area of the object.
상기 분석부는 상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 분석부는 상기 대상물을 형성하는 복수의 상기 분할 픽셀 중 중심에 배치된 중심 픽셀의 좌표를 추출하며,
상기 분석부는 상기 설정 영역을 촬영하는 카메라에 설정된 ROI(Region Of Interest)의 중점 좌표와 상기 중심 픽셀의 좌표 간의 거리에 해당하는 상기 관심 거리를 산출하는 것을 특징으로 하는 피킹 우선 순위 선정 장치.
3. The method of claim 2,
The analysis unit extracts coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
The analysis unit extracts the coordinates of the central pixel disposed in the center of the plurality of divided pixels forming the object,
and the analysis unit calculates the distance of interest corresponding to a distance between the coordinates of a central point of a region of interest (ROI) set in a camera for capturing the set region and the coordinates of the central pixel.
제1항 내지 제2항, 제5항 내지 제7항 중 어느 한 항에 따른 피킹 우선 순위 선정 장치; 및
상기 피킹 우선 순위 선정 장치로부터 받은 피킹 우선 순위에 따라 대상물을 피킹하도록 상기 암과 상기 이펙터를 제어하는 제어장치
를 포함하는 로봇.
A robot having an arm and an effector installed on the arm, the robot comprising:
A picking priority selection device according to any one of claims 1 to 2, 5 to 7; and
A control device for controlling the arm and the effector to pick an object according to the picking priority received from the picking priority selection device
A robot comprising a.
상기 복수의 피킹 대상물이 놓여있는 설정 영역에 대한 2차원 이미지와 뎁스 정보를 획득하는 단계;
상기 2차원 이미지와 상기 뎁스 정보를 이용하여 상기 대상물을 탐지하는 단계;
상기 2차원 이미지와 상기 뎁스 정보 내에 탐지된 상기 대상물을 분석하여 각 대상물마다 적어도 2개 이상의 환경 정보를 산출하는 단계; 및
상기 적어도 2개 이상의 환경 정보에 소정의 가중치를 적용하여 상기 복수의 피킹 대상물 중에서 우선적으로 피킹해야 하는 대상물을 선정하기 위한 피킹 우선 순위를 선정하는 단계;를 포함하고,
복수의 상기 피킹 대상물 각각에 대해 높이, 주변 간섭도, 넓이, 관심 거리가 분석되고 상기 피킹 대상물을 피킹하는 이펙터가 핑거 유형으로 설정되면,
상기 피킹 우선 순위를 선정하는 단계는 상기 주변 간섭도의 가중치를 가장 높게 조절하고, 상기 넓이의 가중치를 가장 낮게 조절하며, 상기 높이의 가중치를 상기 주변 간섭도의 가중치와 상기 넓이의 가중치의 사이로 조절하고,
복수의 상기 피킹 대상물 각각에 대해 높이, 주변 간섭도, 넓이, 관심 거리가 분석되고 상기 피킹 대상물을 피킹하는 이펙터가 석션 유형으로 설정되면,
상기 피킹 우선 순위를 선정하는 단계는 상기 주변 간섭도 및 상기 관심 거리를 미사용하고, 상기 높이 및 상기 넓이를 이용하도록 상기 가중치를 조절하는 것을 특징으로 하는 피킹 우선 순위 선정 방법.
In the picking priority selection method for selecting the picking priority of a plurality of picking objects,
acquiring a two-dimensional image and depth information for a setting area in which the plurality of picking objects are placed;
detecting the object using the two-dimensional image and the depth information;
calculating at least two pieces of environmental information for each object by analyzing the two-dimensional image and the object detected in the depth information; and
selecting a picking priority for selecting an object to be picked preferentially from among the plurality of picking objects by applying a predetermined weight to the at least two or more pieces of environmental information;
If the height, ambient interference degree, area, and distance of interest are analyzed for each of the plurality of picking objects, and the effector for picking the picking object is set as a finger type,
The step of selecting the picking priority includes adjusting the weight of the peripheral interference degree to the highest, adjusting the weight of the area to the lowest, and adjusting the weight of the height between the weight of the ambient interference degree and the weight of the area do,
When the height, ambient interference degree, area, and distance of interest are analyzed for each of the plurality of picking objects, and the effector for picking the picking object is set as a suction type,
The selecting of the picking priority comprises not using the ambient interference degree and the distance of interest, and adjusting the weight to use the height and the width.
상기 환경 정보는 상기 대상물이 다른 대상물에 의해 간섭받는 비율을 나타내는 간섭도, 상기 대상물이 놓인 위치의 높이, 상기 대상물의 마스킹 영역 넓이, 상기 대상물 중심과 상기 2차원 이미지의 중심 간의 관심 거리 중 적어도 2개 이상을 포함하는 것을 특징으로 하는 피킹 우선 순위 선정 방법.
10. The method of claim 9,
The environmental information includes at least two of an interference degree indicating a rate at which the object is interfered with by another object, a height of a position where the object is placed, an area of a masking area of the object, and a distance of interest between the center of the object and the center of the two-dimensional image. Picking priority selection method, characterized in that it includes more than one.
상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 좌표 정보의 집합에 해당하는 상기 대상물의 마스킹 영역에 상기 대상물을 피킹하는 로봇의 이펙터의 진입에 필요한 여유분을 추가해서 상기 대상물의 간섭 체크 영역을 설정하고,
특정 대상물의 상기 간섭 체크 영역에 대한 다른 대상물의 침범 비율에 따라 상기 간섭도를 산출하는 것을 특징으로 하는 피킹 우선 순위 선정 방법.
11. The method of claim 10,
Extracting coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
Setting the interference check area of the object by adding a margin necessary for the entry of the effector of the robot picking the object to the masking area of the object corresponding to the set of coordinate information,
A picking priority selection method, characterized in that the interference degree is calculated according to a ratio of a specific object's intrusion into the interference check area of another object.
상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 좌표 정보를 이용해서 상기 대상물의 영역을 구분하며,
상기 대상물의 영역 중에서 상기 높이에 해당하는 최고 상단 지점의 뎁스값을 추출하는 것을 특징으로 하는 피킹 우선 순위 선정 방법.
11. The method of claim 10,
Extracting coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
Classifying the area of the object using the coordinate information,
Picking priority selection method, characterized in that extracting the depth value of the highest point corresponding to the height in the area of the object.
상기 2차원 이미지를 대상으로 하는 딥러닝 모델을 이용하여 상기 대상물의 분할 픽셀(segmentation pixel)의 좌표 정보를 추출하고,
상기 대상물을 형성하는 복수의 상기 분할 픽셀 중 중심에 배치된 중심 픽셀의 좌표를 추출하며,
상기 설정 영역을 촬영하는 카메라에 설정된 ROI(Region Of Interest)의 중점 좌표와 상기 중심 픽셀의 좌표 간의 거리에 해당하는 상기 관심 거리를 산출하는 것을 특징으로 하는 피킹 우선 순위 선정 방법.11. The method of claim 10,
Extracting coordinate information of segmentation pixels of the object using a deep learning model targeting the two-dimensional image,
extracting the coordinates of the central pixel disposed in the center among the plurality of divided pixels forming the object,
Picking priority selection method, characterized in that calculating the distance of interest corresponding to the distance between the coordinates of the center point of the ROI (Region Of Interest) set in the camera for photographing the set area and the coordinates of the center pixel.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200081853A KR102307047B1 (en) | 2020-07-03 | 2020-07-03 | Apparatus and method for determining picking order of the picking robot |
KR1020210121942A KR20220004589A (en) | 2020-07-03 | 2021-09-13 | Apparatus and method for determining picking order of the picking robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200081853A KR102307047B1 (en) | 2020-07-03 | 2020-07-03 | Apparatus and method for determining picking order of the picking robot |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210121942A Division KR20220004589A (en) | 2020-07-03 | 2021-09-13 | Apparatus and method for determining picking order of the picking robot |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102307047B1 true KR102307047B1 (en) | 2021-10-01 |
Family
ID=78115310
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200081853A KR102307047B1 (en) | 2020-07-03 | 2020-07-03 | Apparatus and method for determining picking order of the picking robot |
KR1020210121942A KR20220004589A (en) | 2020-07-03 | 2021-09-13 | Apparatus and method for determining picking order of the picking robot |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210121942A KR20220004589A (en) | 2020-07-03 | 2021-09-13 | Apparatus and method for determining picking order of the picking robot |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102307047B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230154700A (en) * | 2022-05-02 | 2023-11-09 | 삼성전자주식회사 | Robot and method for calculating a distance to an object |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101453234B1 (en) * | 2010-11-17 | 2014-10-22 | 미쓰비시덴키 가부시키가이샤 | Workpiece pick-up apparatus |
JP2017042859A (en) * | 2015-08-25 | 2017-03-02 | キヤノン株式会社 | Picking system, and processing device and method therefor and program |
KR20190072285A (en) | 2017-12-15 | 2019-06-25 | 전자부품연구원 | Learning data collection system of robots and method |
-
2020
- 2020-07-03 KR KR1020200081853A patent/KR102307047B1/en active IP Right Grant
-
2021
- 2021-09-13 KR KR1020210121942A patent/KR20220004589A/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101453234B1 (en) * | 2010-11-17 | 2014-10-22 | 미쓰비시덴키 가부시키가이샤 | Workpiece pick-up apparatus |
JP2017042859A (en) * | 2015-08-25 | 2017-03-02 | キヤノン株式会社 | Picking system, and processing device and method therefor and program |
KR20190072285A (en) | 2017-12-15 | 2019-06-25 | 전자부품연구원 | Learning data collection system of robots and method |
Also Published As
Publication number | Publication date |
---|---|
KR20220004589A (en) | 2022-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110322457B (en) | 2D and 3D vision combined unstacking method | |
US11797926B2 (en) | Robotic system with automated object detection mechanism and methods of operating the same | |
EP4137992B1 (en) | A material handling method, apparatus, and system for identification of a region-of-interest | |
JP5558585B2 (en) | Work picking device | |
US11763459B2 (en) | Method and computing system for object identification | |
US10692229B2 (en) | Recess detection device, transport device, and recess detecting method | |
US11667036B2 (en) | Workpiece picking device and workpiece picking method | |
JP5383836B2 (en) | An image processing apparatus having a function of automatically adjusting a search window | |
KR102307047B1 (en) | Apparatus and method for determining picking order of the picking robot | |
US20220371200A1 (en) | Robotic system for object size measurement | |
US9361695B2 (en) | Method of recognizing a position of a workpiece from a photographed image | |
CN114170521B (en) | Forklift pallet butt joint identification positioning method | |
CN109658388B (en) | Method for detecting and correcting packaging box segmentation errors based on vision and active interaction | |
US20230297068A1 (en) | Information processing device and information processing method | |
JP2006021300A (en) | Predicting device and holding device | |
WO2021001882A1 (en) | Information processing device and information processing method | |
JP6512852B2 (en) | Information processing apparatus, information processing method | |
JP7191352B2 (en) | Method and computational system for performing object detection | |
US20230389250A1 (en) | Component supply device, component supply method, and program | |
CN115194751A (en) | Robot system, control method, image processing apparatus and method, and product manufacturing method | |
CN115582837A (en) | Manipulator vision guiding method for bag material unstacking | |
JP2019185204A (en) | Image processing system, robot system, and image processing method | |
JP2014174629A (en) | Workpiece recognition method | |
CN116258998A (en) | Obstacle recognition method, system and storage medium | |
CN116630226A (en) | Method, device and equipment for grabbing package |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
AMND | Amendment | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |