KR102537295B1 - Loaded object recognition device and object recognition method - Google Patents

Loaded object recognition device and object recognition method Download PDF

Info

Publication number
KR102537295B1
KR102537295B1 KR1020210014261A KR20210014261A KR102537295B1 KR 102537295 B1 KR102537295 B1 KR 102537295B1 KR 1020210014261 A KR1020210014261 A KR 1020210014261A KR 20210014261 A KR20210014261 A KR 20210014261A KR 102537295 B1 KR102537295 B1 KR 102537295B1
Authority
KR
South Korea
Prior art keywords
angle
image
camera
generating
map
Prior art date
Application number
KR1020210014261A
Other languages
Korean (ko)
Other versions
KR20220111074A (en
Inventor
박성호
정의정
박현준
배종호
김민규
조건래
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020210014261A priority Critical patent/KR102537295B1/en
Publication of KR20220111074A publication Critical patent/KR20220111074A/en
Application granted granted Critical
Publication of KR102537295B1 publication Critical patent/KR102537295B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

객체 인식 장치가 개시된다. 상기 객체 인식 장치는, 적재되어 있는 객체의 컬러 이미지 및 깊이 이미지를 획득하는 카메라와; 상기 깊이 이미지로부터 수집된 포인트 클라우드를 기반으로 상기 객체와 상기 카메라에 사이의 각도에 대한 각도 맵을 생성하는 각도 맵 생성부와; 상기 각도 맵을 기반으로 상기 객체 이외의 배경 공간에 대한 각도를 제거하는 배경 제거부와; 상기 배경 공간이 제거된 각도 맵을 기반으로 상기 객체가 적재된 레이어 별로 깊이 값 히스토그램을 생성하는 히스토그램 생성부와; 상기 깊이 값 히스토그램을 기반으로 상기 레이어 별 마스크를 생성하고, 상기 마스크와 상기 컬러 이미지를 결합하여 상기 레이어 별 객체 이미지를 생성하는 영상 추출부를 포함한다. An object recognition device is disclosed. The object recognizing device may include a camera for acquiring a color image and a depth image of a loaded object; an angle map generating unit generating an angle map for an angle between the object and the camera based on a point cloud collected from the depth image; a background removal unit for removing an angle of a background space other than the object based on the angle map; a histogram generation unit that generates a histogram of depth values for each layer in which the object is loaded based on the angle map from which the background space is removed; and an image extraction unit generating a mask for each layer based on the depth value histogram and generating an object image for each layer by combining the mask and the color image.

Description

적재된 객체 인식 장치 및 객체 인식 방법{LOADED OBJECT RECOGNITION DEVICE AND OBJECT RECOGNITION METHOD}Loaded object recognition device and object recognition method {LOADED OBJECT RECOGNITION DEVICE AND OBJECT RECOGNITION METHOD}

본 발명은 적재된 객체 인식 장치 및 객체 인식 방법에 관한 것이다.The present invention relates to a loaded object recognizing device and an object recognizing method.

온라인 시장의 규모가 커짐에 따라 택배 물량 또한 기하급수적으로 늘어나고 있다. 이에 맞춰 물류 자동화 시스템 또한 크게 발전되고 있다. As the size of the online market grows, the delivery volume is also increasing exponentially. In line with this, logistics automation systems are also greatly developed.

현재, 이러한 물류 하차 작업은 대부분 수작업으로 이뤄지고 있으며, 이 작업은 지속적인 강한 노동 강도를 요구한다. 이를 해결하기 위하여 자동 하차 시스템이 개발되고 있다. 한편, 자동 하차에서 가장 먼저 수행되어야 될 작업은 물류의 적재 상황을 파악하는 것이다. Currently, most of these logistics unloading operations are performed manually, and this operation requires continuous intense labor intensity. In order to solve this problem, an automatic getting off system is being developed. On the other hand, the first task to be performed in automatic unloading is to grasp the loading status of logistics.

상기와 같이, 물류 하차 작업의 자동화를 이루기 위해서 가장 먼저 이루어져야 할 단계는 물류의 적재상황 및 개별 물류를 파악하는 것이다.As described above, the first step to achieve automation of logistics unloading is to grasp the loading status of logistics and individual logistics.

현재 화물의 적재 상황을 파악하기 위하여 3D 카메라 혹은 2D 레이저 스케너를 회전하여 물류 적재 상황을 파악하는 방법과, 물류 모양을 학습하여 적재 상황을 파악하는 방법이 있다. 3D 카메라를 이용하여 물류적재 상황을 파악하는 관심영역 이외의 대상을 제외하지 않으며, 2D 레이저 스케너 역시 그러하다. In order to grasp the current loading status of cargo, there are a method of grasping the loading status by rotating a 3D camera or a 2D laser scanner and a method of grasping the loading status by learning the shape of the distribution. It does not exclude objects other than the area of interest that uses 3D cameras to understand the logistics loading situation, and 2D laser scanners are also the same.

하지만, 물류의 적재상황 및 개별 물류를 파악하기 위하여 먼저 관심 대상인 최전방 물류를 제외한 부분은 영상에서 제거되어야 한다. However, in order to understand the loading status of logistics and individual logistics, parts other than frontline logistics, which is a target of interest, must first be removed from the image.

이에 3D 카메라에서 획득한 포인트 클라우드(point cloud) 정보를 활용하여 영상에서 외벽 및 바닥을 제거하는 기술이 필요하다.Accordingly, a technique for removing exterior walls and floors from an image using point cloud information obtained from a 3D camera is required.

한국등록특허공부 제10-2178013호 (2020.11.06)Korea Patent Registration No. 10-2178013 (2020.11.06)

본 발명이 해결하고자 하는 과제는, 포인트 클라우드 정보를 활용하여 영상에서 외벽 및 바닥을 제거할 수 있는 객체 인식 장치 및 객체 인식 방법을 제공하는 것이다. An object to be solved by the present invention is to provide an object recognition device and object recognition method capable of removing outer walls and floors from an image using point cloud information.

본 발명이 해결하고자 하는 과제는, 제거된 깊이 정보를 활용하여 화물의 각 레이어별 마스크 데이터를 생성할 수 있는 객체 인식 장치 및 객체 인식 방법을 제공하는 것이다. An object to be solved by the present invention is to provide an object recognizing apparatus and object recognizing method capable of generating mask data for each layer of a cargo by utilizing the removed depth information.

본 발명이 해결하고자 하는 과제는, 생성된 마스크 데이터와 적재된 화물 영상을 합하여 화물 레이어별 영상을 추출 할 수 있는 객체 인식 장치 및 객체 인식 방법을 제공하는 것이다.An object to be solved by the present invention is to provide an object recognition device and object recognition method capable of extracting images for each cargo layer by combining generated mask data and loaded cargo images.

본 발명의 실시예에 따르면, 객체 인식 장치가 제공된다. 상기 객체 인식 장치는, 적재되어 있는 객체의 컬러 이미지 및 깊이 이미지를 획득하는 카메라와; 상기 깊이 이미지로부터 수집된 포인트 클라우드를 기반으로 상기 객체와 상기 카메라에 사이의 각도에 대한 각도 맵을 생성하는 각도 맵 생성부와; 상기 각도 맵을 기반으로 상기 객체 이외의 배경 공간에 대한 각도를 제거하는 배경 제거부와; 상기 배경 공간이 제거된 각도 맵을 기반으로 상기 객체가 적재된 레이어 별로 깊이 값 히스토그램을 생성하는 히스토그램 생성부와; 상기 깊이 값 히스토그램을 기반으로 상기 레이어 별 마스크를 생성하고, 상기 마스크와 상기 컬러 이미지를 결합하여 상기 레이어 별 객체 이미지를 생성하는 영상 추출부를 포함한다. According to an embodiment of the present invention, an object recognizing apparatus is provided. The object recognizing device may include a camera for acquiring a color image and a depth image of a loaded object; an angle map generating unit generating an angle map for an angle between the object and the camera based on a point cloud collected from the depth image; a background removal unit for removing an angle of a background space other than the object based on the angle map; a histogram generation unit that generates a histogram of depth values for each layer in which the object is loaded based on the angle map from which the background space is removed; and an image extraction unit generating a mask for each layer based on the depth value histogram and generating an object image for each layer by combining the mask and the color image.

상기 컬러 이미지 및 상기 깊이 이미지의 좌표가 보정될 수 있다.Coordinates of the color image and the depth image may be corrected.

상기 각도 맵 생성부는 상기 포인트 클라우드 내 하나의 좌표와 상기 좌표와 우측으로 인접한 우측 좌표 및 상기 좌표와 하단으로 인접한 하단 좌표를 기반으로 법선 벡터를 도출할 수 있고, 상기 법선 벡터와 상기 카메라의 Z 좌표 사이의 각도를 도출할 수 있다.The angle map generating unit may derive a normal vector based on one coordinate in the point cloud, a right coordinate rightwardly adjacent to the coordinates, and a lower coordinate lowerwise adjacent to the coordinates, and the normal vector and the Z coordinate of the camera. The angle between them can be derived.

상기 배경 제거부는 상기 각도 맵에서 기준 각도를 기준으로 소정 범위 내의 각도에 대응하는 좌표를 상기 각도 맵에서 제거할 수 있다. 상기 기준 각도는 상기 법선 벡터와 상기 카메라의 Z 좌표 사이의 각도가 0도 일 수 있다.The background removal unit may remove a coordinate corresponding to an angle within a predetermined range based on a reference angle in the angle map from the angle map. The reference angle may be 0 degrees between the normal vector and the Z coordinate of the camera.

상기 배경 제거부는 상기 기준 각도에 대한 상기 카메라의 상대 각도를 보정한 후 상기 소정 범위 내의 각도에 대응하는 좌표를 상기 각도 맵에서 제거할 수 있다.The background remover may correct a relative angle of the camera to the reference angle and then remove coordinates corresponding to angles within the predetermined range from the angle map.

상기 영상 추출부는 상기 레이어의 평균 위치 값과 상기 컬러 이미지를 결합하여 상기 객체 이미지를 생성할 수 있다.The image extraction unit may generate the object image by combining the average position value of the layer and the color image.

또한, 본 발명의 다른 실시예에 따르면, 적재된 객체를 인식하는 방법이 제공된다. 상기 객체 인식 방법은, 카메라로부터 적재되어 있는 객체의 컬러 이미지 및 깊이 이미지를 획득하는 이미지 획득 단계와; 상기 깊이 이미지로부터 수집된 포인트 클라우드를 기반으로 상기 객체와 상기 카메라에 사이의 각도에 대한 각도 맵을 생성하는 각도 맵 생성 단계와; 상기 각도 맵을 기반으로 상기 객체 이외의 배경 공간에 대한 각도를 제거하는 배경 제거 단계와; 상기 배경 공간이 제거된 각도 맵을 기반으로 상기 객체가 적재된 레이어 별로 깊이 값 히스토그램을 생성하는 히스토그램 생성 단계와; 상기 깊이 값 히스토그램을 기반으로 상기 레이어 별 마스크를 생성하고, 상기 마스크와 상기 컬러 이미지를 결합하여 상기 레이어 별 객체 이미지를 생성하는 영상 추출 단계를 포함한다.Also, according to another embodiment of the present invention, a method for recognizing a loaded object is provided. The object recognition method may include an image acquisition step of acquiring a color image and a depth image of a loaded object from a camera; generating an angle map for an angle between the object and the camera based on a point cloud collected from the depth image; a background removal step of removing an angle of a background space other than the object based on the angle map; a histogram generating step of generating a histogram of depth values for each layer in which the object is loaded based on the angle map from which the background space is removed; and an image extraction step of generating a mask for each layer based on the depth value histogram and generating an object image for each layer by combining the mask and the color image.

상기 각도 맵 생성 단계는, 상기 포인트 클라우드 내 하나의 좌표와 상기 좌표와 우측으로 인접한 우측 좌표 및 상기 좌표와 하단으로 인접한 하단 좌표를 기반으로 법선 벡터를 도출할 수 있고, 상기 법선 벡터와 상기 카메라의 Z 좌표 사이의 각도를 도출할 수 있다.In the angle map generating step, a normal vector may be derived based on one coordinate in the point cloud, a right coordinate adjacent to the right side of the coordinates, and a bottom coordinate adjacent to the bottom side of the coordinates. The angle between the Z coordinates can be derived.

상기 배경 제거 단계는 상기 각도 맵에서 기준 각도를 기준으로 소정 범위 내의 각도에 대응하는 좌표를 상기 각도 맵에서 제거할 수 있다. 상기 기준 각도는 상기 법선 벡터와 상기 카메라의 Z 좌표 사이의 각도가 0도 일 수 있다.In the removing of the background, a coordinate corresponding to an angle within a predetermined range based on a reference angle in the angle map may be removed from the angle map. The reference angle may be 0 degrees between the normal vector and the Z coordinate of the camera.

상기 배경 제거 단계는 상기 기준 각도에 대한 상기 카메라의 상대 각도를 보정한 후 상기 소정 범위 내의 각도에 대응하는 좌표를 상기 각도 맵에서 제거할 수 있다.The removing of the background may include correcting a relative angle of the camera with respect to the reference angle and then removing coordinates corresponding to an angle within the predetermined range from the angle map.

본 발명의 실시예에 따르면, 포인트 클라우드 정보를 활용하여 영상에서 외벽 및 바닥을 제거할 수 있는 객체 인식 장치 및 객체 인식 방법이 제공된다. According to an embodiment of the present invention, an object recognizing apparatus and object recognizing method capable of removing an outer wall and a floor from an image using point cloud information are provided.

본 발명의 실시예에 따르면, 제거된 깊이 정보를 활용하여 화물의 각 레이어별 마스크 데이터를 생성할 수 있는 객체 인식 장치 및 객체 인식 방법이 제공된다.According to an embodiment of the present invention, an object recognizing apparatus and an object recognizing method capable of generating mask data for each layer of a cargo by utilizing the removed depth information are provided.

본 발명의 실시예에 따르면, 생성된 마스크 데이터와 적재된 화물 영상을 합하여 화물 레이어별 영상을 추출 할 수 있는 객체 인식 장치 및 객체 인식 방법이 제공된다.According to an embodiment of the present invention, an object recognizing apparatus and an object recognizing method capable of extracting images for each cargo layer by combining generated mask data and loaded cargo images are provided.

이로써, 후방에 배치된 물류를 정확하고 빠르게 파악하여 물류 하차의 속도를 높일 수 있다.As a result, it is possible to accurately and quickly grasp logistics disposed in the rear, thereby increasing the speed of disembarking the logistics.

도 1은 본 발명의 일 실시예에 따른 객체 인식 장치의 제어 블록도이다.
도 2는 본 발명의 일 실시예에 따른 컬러 이미지 및 각도 맵을 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 깊이 히스토그램을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 레이어 별 마스크 및 객체 이미지를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 객체 인식 장치의 객체 인식 방법을 설명하기 위한 제어 흐름도이다.
도 6은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.
1 is a control block diagram of an object recognition apparatus according to an embodiment of the present invention.
2 is a diagram illustrating a color image and an angle map according to an embodiment of the present invention.
3 is a diagram illustrating a depth histogram according to an embodiment of the present invention.
4 is a diagram illustrating mask and object images for each layer according to an embodiment of the present invention.
5 is a control flowchart illustrating an object recognizing method of an object recognizing apparatus according to an embodiment of the present invention.
6 is a diagram illustrating a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서 및 도면(이하 '본 명세서')에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In the present specification and drawings (hereinafter referred to as 'this specification'), redundant descriptions of the same components are omitted.

또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, when a component is referred to as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but another component in the middle It should be understood that may exist. On the other hand, in this specification, when a component is referred to as 'directly connected' or 'directly connected' to another component, it should be understood that no other component exists in the middle.

또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다. In addition, terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention.

또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, a singular expression may include a plurality of expressions unless the context clearly indicates otherwise.

또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, terms such as 'include' or 'having' are only intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more It should be understood that the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.

또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of listed items or any item among a plurality of listed items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.

또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the subject matter of the present invention will be omitted.

도 1은 본 발명의 일 실시예에 따른 객체 인식 장치의 제어 블록도이다. 1 is a control block diagram of an object recognition apparatus according to an embodiment of the present invention.

도시된 바와 같이, 본 실시예에 따른 객체 인식 장치는 카메라(10), 각도 맵 생성부(20), 배경 제거부(30), 히스토그램 생성부(40) 및 영상 추출부(50)를 포함할 수 있다. 객체 인식 장치는 카메라 및 이에 대한 영상을 처리할 수 있는 단일 모듈로 구성될 수 있고, 적재된 화물을 로딩 또는 하차하는 로봇에 부착되거나 이러한 로봇과 통신할 수 있는 컴퓨터로 구현될 수 있다. As shown, the object recognition apparatus according to the present embodiment may include a camera 10, an angle map generator 20, a background remover 30, a histogram generator 40, and an image extractor 50. can The object recognition device may be composed of a camera and a single module capable of processing an image thereof, and may be attached to a robot that loads or unloads loaded cargo, or may be implemented as a computer capable of communicating with such a robot.

객체 인식 장치에 포함된 각 구성 요소는 설명의 편의를 위하여 기능적으로 구분하여 기술한 것으로 물리적인 구별을 의미하는 것은 아니다. 상기 구성 요소들은 적어도 하나의 기능을 수행하는 복수의 모듈로 구성될 수도 있고, 하나의 모듈로 구현될 수도 있다. Each component included in the object recognition device is functionally classified and described for convenience of description, and does not mean physical distinction. The components may be composed of a plurality of modules that perform at least one function, or may be implemented as a single module.

카메라(10)는 적재되어 있는 객체의 컬러 이미지 및 깊이 이미지를 획득하고, 객체의 컬러 이미지 및 깊이 이미지를 개별적으로 획득하는 복수의 카메라로 구성될 수도 있고, 객체의 컬러 이미지 및 깊이 이미지를 동시에 촬상하는 3D 센서로 구현될 수도 있다. The camera 10 may be composed of a plurality of cameras that acquire color images and depth images of loaded objects, and individually acquire color images and depth images of objects, and simultaneously capture color images and depth images of objects. It can also be implemented as a 3D sensor that does.

도시하지 않았지만, 카메라(10)로부터 획득된 컬러 이미지 및 깊이 이미지의 켈리브레이션을 통하여 이미지 내 픽셀 정보를 통일하는 영상 보정부를 더 포함할 수 있다. 이러한 영상 보정부는 별도의 구성으로 마련될 수 있고, 카메라(10)와 머지된 하나의 모듈로 구현될 수도 있다. 이러한 영상 보정은 각도 맵 생성부(20)에서 수행될 수도 있다. Although not shown, an image correction unit may be further included to unify pixel information in the image through calibration of the color image and the depth image obtained from the camera 10 . This image correction unit may be provided as a separate component, or may be implemented as a single module merged with the camera 10 . Such image correction may be performed by the angle map generator 20 .

카메라(10)로부터 획득되는 이러한 이미지를 통하여 적재된 화물에 대한 포인트 클라우드 정보가 도출될 수 있다. Point cloud information about the loaded cargo may be derived through such an image obtained from the camera 10 .

포인트 클라우드는 3차원 이미지를 획득할 수 있는 센서(본 실시예에서는 카메라)에서 수집되는 데이터를 의미하며, 3차원 공간 상에 퍼저 있는 여러 포인트의 집합을 일컫는다. 이러한 포인트 클라우드는 2D 이미지와 달리 깊이, 즉 Z 축에 대한 정보를 포함하고 있다. A point cloud refers to data collected by a sensor (a camera in this embodiment) capable of obtaining a 3D image, and refers to a set of several points spread over a 3D space. Unlike 2D images, these point clouds contain depth, that is, Z-axis information.

각도 맵 생성부(20)는 깊이 이미지로부터 수집된 포인트 클라우드를 기반으로 객체와 카메라(10)에 사이의 각도에 대한 각도 맵을 생성할 수 있다. The angle map generator 20 may generate an angle map for an angle between the object and the camera 10 based on the point cloud collected from the depth image.

각도 맵 생성부(20)는 포인트 클라우드 좌표를 이용하여 2개의 벡터를 구한 다음 법센 벡터를 생성한다. 법선 벡터와 카메라(10)의 좌표계와의 각도가 도출될 수 있고, 이를 활용하여 각도맵이 생성될 수 있다. The angle map generation unit 20 obtains two vectors using the point cloud coordinates and then generates a law vector. An angle between the normal vector and the coordinate system of the camera 10 may be derived, and an angle map may be created using this.

Figure 112021012986856-pat00001
Figure 112021012986856-pat00001

상기 수학식 1에서, v(i,j)는 해당 각도맵의 법선 벡터를 나타내며, d(i,j)는 해당 픽셀의 좌표, d(i+1,j)는 d(i,j)의 우측에 위치한 우측 픽셀의 좌표, d(i,j+1)은 d(i,j)의 아래쪽에 위치한 하단 픽셀의 좌표를 나타낸다. In Equation 1, v (i, j) represents the normal vector of the corresponding angle map, d (i, j) is the coordinate of the corresponding pixel, and d (i + 1, j) is d (i, j) The coordinates of the right pixel located on the right, d (i, j + 1), represents the coordinates of the lower pixel located below d (i, j) .

이렇게 도출된 법선벡터와 카메라 좌표계 중 z-축과의 각도를 계산하면, 수학식 2와 같다. Calculating the angle between the derived normal vector and the z-axis of the camera coordinate system is as shown in Equation 2.

Figure 112021012986856-pat00002
Figure 112021012986856-pat00002

수학식 2에서 z는 카메라의 정면에 해당하는 카메라 z-축의 단위 벡터를 나타내고, 이렇게 생성된 각도 맵을 이용하여 외벽과 바닥을 제거할 수 있다. In Equation 2, z represents the unit vector of the camera z-axis corresponding to the front of the camera, and the outer wall and the floor can be removed using the angle map generated in this way.

도 2는 본 발명의 일 실시예에 따른 컬러 이미지 및 각도 맵을 도시한 도면이다. 2 is a diagram illustrating a color image and an angle map according to an embodiment of the present invention.

도 2의 (a)는 카메라(10)에 의해 촬상된 객체, 즉 화물의 컬러 이미지를 도시한 것이고, (b)는 각도 맵 생성부(20)에서 생성된 각도 맵을 도시한 것이다. 2 (a) shows a color image of an object captured by the camera 10, that is, a cargo, and (b) shows an angle map generated by the angle map generator 20.

도 2의 (b)과 같이 각도 맵 생성부(20)에서 생성된 각도 맵에는 외벽 및 바닥 부분이 회색으로 표시되고, 이러한 부분을 제거함으로써 화물에 대한 정확한 관심 영역을 추출할 수 있다. As shown in (b) of FIG. 2, the outer wall and the floor are displayed in gray on the angle map generated by the angle map generator 20, and by removing these parts, an accurate region of interest for the cargo can be extracted.

배경 제거부(30)는 각도 맵을 기반으로 객체 이외의 배경 공간에 대한 각도를 제거할 수 있다. 배경 제거부(30)에 의하여 배경 공간이 제거되면 도 2의 (c)와 같은 각도 맵이 생성될 수 있다. The background removal unit 30 may remove angles of background spaces other than the object based on the angle map. When the background space is removed by the background removal unit 30, an angle map as shown in (c) of FIG. 2 may be generated.

이를 위하여, 배경 제거부(30)는 각도 맵에서 기준 각도를 기준으로 소정 범위 내의 각도에 대응하는 좌표를 각도 맵에서 제거할 수 있다. To this end, the background removal unit 30 may remove coordinates corresponding to angles within a predetermined range based on the reference angle in the angle map from the angle map.

이 때, 기준 각도는 화물에 대한 이미지에서 도출된 법선 벡터와 카메라(10)의 Z 좌표 사이의 각도가 0도인 것으로 설정될 수 있다. In this case, the reference angle may be set to an angle between the normal vector derived from the image of the cargo and the Z coordinate of the camera 10 being 0 degrees.

즉, 배경 제거부(30)는 카메라(10)가 화물과 정면으로 위치하여 기준 각도에서 이미지가 획득된 경우라면, 외벽으로 판단될 수 있는 소정 범위, 예컨대 0~10도 또는 170~180 사이의 각도를 제거할 수 있다. That is, if the camera 10 is located in front of the cargo and the image is obtained at the reference angle, the background removal unit 30 may be determined as an outer wall, for example, between 0 and 10 degrees or 170 and 180 degrees. angle can be removed.

이 때, 배경 제거부(30)는 기준 각도와 카메라의 상대 각도를 반영하여 외벽으로 판단되는 각도를 제거할 수 있다. 예를 들어, 만약 카메라(10)의 회전에 의하여 관심영역인 화물 영역에 대한 상대 각도가 발생되면, 즉 카메라(10)가 기준 각도 위치에 있지 않을 때, 카메라(10)가 틀어진 각도만큼 소정 범위도 변경될 수 있다. At this time, the background removal unit 30 may remove the angle determined to be the outer wall by reflecting the reference angle and the relative angle of the camera. For example, if the rotation of the camera 10 generates a relative angle to the cargo area, which is the region of interest, that is, when the camera 10 is not at the reference angle position, the camera 10 is within a predetermined range by the distorted angle. may also change.

또는, 배경 제거부(30)는 카메라(10)에 부착된 각도 센서를 이용하여 카메라(10)의 위치를 보정하여 각도 맵을 재생성하고, 재생성된 각도 맵에서 화물을 제외한 나머지 배경 부분을 제거할 수 있다.Alternatively, the background removal unit 30 may regenerate an angle map by correcting the position of the camera 10 using an angle sensor attached to the camera 10, and remove the remaining background parts except for cargo from the regenerated angle map. can

상술된 바와 같이, 카메라(10)는 움직이는 로봇에 장착될 수도 있기 때문에고정되어 있지 않아 기준 각도를 만족하지 못할 수 있다. 이 경우, 본 실시예에 따르면 기준 각도와 카메라(10)의 틀어진 각도를 보정하고, 이를 기반으로 외벽과 같은 배경 이미지를 제거할 수 있다.As described above, since the camera 10 may be mounted on a moving robot, it may not satisfy the reference angle because it is not fixed. In this case, according to the present embodiment, the reference angle and the distorted angle of the camera 10 may be corrected, and based on this, a background image such as an outer wall may be removed.

히스토그램 생성부(40)는 배경 공간이 제거된 각도 맵을 기반으로 객체가 적재된 레이어 별로 깊이 값 히스토그램을 생성할 수 있다. The histogram generation unit 40 may generate a depth value histogram for each layer in which objects are loaded based on the angle map from which the background space is removed.

도 3은 본 발명의 일 실시예에 따른 깊이 히스토그램을 도시한 도면이다.3 is a diagram illustrating a depth histogram according to an embodiment of the present invention.

도 3의 (a)는 외벽 제거 전과 후의 깊이 값 히스토그램을 나타내고 있고, 도 3의 (b)는 이렇게 생성된 깊이 갚 데이터를 기반으로 판단된 레이어를 나타낸다. FIG. 3(a) shows a histogram of depth values before and after removing the outer wall, and FIG. 3(b) shows a layer determined based on the generated depth data.

도 3의 (a)와 같이 외벽 데이터가 제거되면 깊이 데이터에서 레이어를 보다 쉽게 판단할 수 있고, 이를 근거로 레이어 별로 깊이 값을 도출할 수 있다. As shown in (a) of FIG. 3 , when the outer wall data is removed, the layer can be more easily determined from the depth data, and based on this, a depth value for each layer can be derived.

이 때, 각 레이어의 평균 위치 값이 연산될 수 있다. At this time, an average position value of each layer may be calculated.

영상 추출부(50)는 깊이 값 히스토그램을 기반으로 레이어 별 마스크를 생성하고, 레이어 별 마스크와 컬러 이미지를 결합하여 레이어 별 객체 이미지를 생성할 수 있다. The image extractor 50 may generate a mask for each layer based on the depth value histogram, and generate an object image for each layer by combining the mask for each layer and the color image.

도 4는 본 발명의 일 실시예에 따른 레이어 별 마스크 및 객체 이미지를 도시한 도면이다. 4 is a diagram illustrating mask and object images for each layer according to an embodiment of the present invention.

도 4의 가장 왼쪽에 나타난 흑백 이미지가 레이어 별 마스크를 나타내고, 가장 오른쪽 이미지가 각 레이어 별로 도출된 객체 이미지를 나타낸다. The black and white image shown on the leftmost side of FIG. 4 represents a mask for each layer, and the rightmost image represents an object image derived for each layer.

영상 추출부(50)는 레이어의 평균 위치 값을 기반으로 레이어 별로 마스크를 생성할 수 있다. 사용자는 자신이 원하는 레이어에 대한 마스크만을 활용할 수도 있고, 레이어 별 마스크를 통하여 적재된 화물을 인식하고 하차의 하역 계획을 세울 수도 있다. The image extraction unit 50 may generate a mask for each layer based on the average position value of the layer. The user can use only the mask for the layer he/she wants, or can recognize the loaded cargo through the mask for each layer and make a loading and unloading plan.

레이어 별로 생성된 마스크와 화물에 대한 컬러 이미지를 합성하면, 도 4와 같은 객체 이미지가 생성된다. An object image as shown in FIG. 4 is generated by synthesizing the mask generated for each layer and the color image of the cargo.

도 4의 가장 마지막 이미지를 통해 현재 화물이 3개의 레이어로 적재된 것으로 판단할 수 있고, 각 레이어 별 화물의 개수, 크기 등이 파악될 수 있다. Through the last image of FIG. 4 , it can be determined that the current cargo is loaded in three layers, and the number and size of cargo for each layer can be identified.

이러한 화물에 대한 파악 결과는 화물 하차를 위한 기계적 시스템에 제공될 수 있고, 이를 바탕으로 기계에 의한 자동 하차가 이루어 질 수 있다. The identification result of these cargoes can be provided to a mechanical system for cargo unloading, and based on this, automatic unloading by the machine can be performed.

일 예에 따라, 각도 맵에서 제거되는 각도의 조절 또는 제어를 통하여 바닥 또는 천장이 제거될 수 있고, 화물이 차량 또는 실내와 같은 갖힌 공간이 아니더라도 컬러 이미지 및 깊이 값 정보에 기초하여 외부의 배경이 삭제될 수 있다. According to an example, the floor or ceiling may be removed by adjusting or controlling the angle removed from the angle map, and even if the cargo is not a confined space such as a vehicle or a room, an external background may be displayed based on the color image and depth value information. may be deleted.

도 5는 본 발명의 일 실시예에 따른 객체 인식 장치의 객체 인식 방법을 설명하기 위한 제어 흐름도이다. 도 5를 참조하여 본 실시예에 따른 객체 인식 방법을 정리하면 다음과 같다. 5 is a control flowchart illustrating an object recognizing method of an object recognizing apparatus according to an embodiment of the present invention. Referring to FIG. 5 , the object recognition method according to the present embodiment is summarized as follows.

우선, 카메라, 예를 들어, 객체의 3차원 이미지를 촬상할 수 있는 3D 카메라 또는 3D 센서로부터 적재되어 있는 객체의 컬러 이미지 및 깊이 이미지를 획득할 수 있다(S510). First, a color image and a depth image of a loaded object may be acquired from a camera, for example, a 3D camera or 3D sensor capable of capturing a 3D image of the object (S510).

일 예에 따라, 객체는 레이어로, 즉 카메라 정면에서 보았을 때 깊이 방향의 레이어를 이루며 적재되어있는 화물일 수 있고, 카메라는 적재된 화물을 다른 곳으로 이동시키거나 하차하기 위하여 적재된 화물을 꺼내는 방향, 즉 레이어의 수직 방향에 설치될 수 있다. According to an example, the object may be cargo that is loaded in layers, that is, a layer in the depth direction when viewed from the front of the camera, and the camera takes out the loaded cargo to move or unload the loaded cargo to another place. direction, that is, it can be installed in the vertical direction of the layer.

이러한 카메라는 화물을 하차하는 로봇에 설치되거나 레이어의 수직 방향에임의로 설치될 수 있다. These cameras can be installed on robots that unload cargo, or they can be installed arbitrarily in the vertical direction of a layer.

이렇게 3D 카메라에 의하여 객체의 영상이 촬상되면, 객체의 컬러 이미지 외에 깊이 정보를 포함하는 깊이 이미지가 획득되고, 이러한 깊이 이미지로부터 각 픽셀 별로 좌표값을 갖는 포인트 클라우드 정보가 도출될 수 있다. When an image of an object is captured by the 3D camera, a depth image including depth information in addition to a color image of the object is obtained, and point cloud information having coordinate values for each pixel may be derived from the depth image.

컬러 이미지와 깊이 이미지는 하나의 카메라를 통하여 도출될 수도 있고, 서로 다른 카메라를 통하여 획득될 수도 있다.The color image and the depth image may be derived through one camera or acquired through different cameras.

이미지 획득 단계에서 컬러 이미지 및 깊이 이미지에 대한 좌표 보정, 즉 각 픽셀에 대한 컬러 이미지 및 깊이 이미지의 좌표를 켈리브레이션 하는 과정이 수행될 수 있다. In the image acquisition step, a process of calibrating the coordinates of the color image and the depth image, that is, calibrating the coordinates of the color image and the depth image for each pixel, may be performed.

이 후, 깊이 이미지로부터 수집된 포인트 클라우드를 기반으로 객체와 카메라에 사이의 각도에 대한 각도 맵이 생성될 수 있다(S520).Thereafter, an angle map for an angle between the object and the camera may be generated based on the point cloud collected from the depth image (S520).

이는 객체 인식 장치의 각도 맵 생성부에 의하여 이루어 질 수 있으며, 각도 맵 생성부는 포인트 클라우드 내 하나의 좌표와, 이 좌표와 우측으로 인접한 우측 좌표 및 좌표와 하단으로 인접한 하단 좌표를 기반으로 법선 벡터를 도출하고, 법선 벡터와 카메라의 Z 좌표 사이의 각도를 도출함으로써 각도 맵을 생성할 수 있다. This can be done by the angle map generator of the object recognition device, and the angle map generator generates a normal vector based on one coordinate in the point cloud, the right coordinate adjacent to the right side of the point cloud, and the lower coordinate adjacent to the lower side of the coordinate. and derive the angle between the normal vector and the Z coordinate of the camera to create an angle map.

이렇게 카메라가 객체를 바라보는 방향에 대한 각도 맵이 생성되면, 각도 맵을 기반으로 객체 이외의 배경 공간에 대한 각도가 제거될 수 있다(S530). When the angle map for the direction in which the camera looks at the object is generated in this way, the angle for the background space other than the object may be removed based on the angle map (S530).

예를 들어, 화물이 화물 차량이나 창고과 같은 외벽, 천장 및 바닥과 같은 공간 내에 적재되어 있다면, 각도 제거 단계에서 해당 부분에 대응하는 이미지가 제거될 수 있다. For example, if cargo is loaded in a space such as an outer wall such as a cargo vehicle or a warehouse, a ceiling, and a floor, an image corresponding to the corresponding portion may be removed in the angle removal step.

배경 제거부는 각도 맵에서 기준 각도를 기준으로 소정 범위 내의 각도에 대응하는 좌표를 각도 맵에서 제거할 수 있으며, 이때, 기준 각도는 각 좌표에 대한 법선 벡터와 카메라의 Z 좌표 사이의 각도가 0도인 것으로 설정될 수 있다. 즉, 카메라가 적재된 화물의 정면에 위치하고 있을 때의 각도가 기준 각도가 될 수 있다.The background removal unit may remove coordinates corresponding to angles within a predetermined range based on the reference angle in the angle map from the angle map. In this case, the reference angle is an angle between the normal vector for each coordinate and the Z coordinate of the camera is 0 degrees. can be set to That is, an angle when the camera is located in front of the loaded cargo may be the reference angle.

이렇게 기준 각도가 정해지면, 배경 제거부는 외벽이라고 판단할 수 있는 0~10, 또는 170~180 사이의 좌표를 각도 맵에서 제거할 수 있다. 즉, 외벽으로 판단된 부분이 제거됨으로써, 적재된 화물을 관심 영역으로 한정할 수 있다. When the reference angle is determined in this way, the background removal unit can remove coordinates between 0 and 10 or 170 and 180 that can be determined as an outer wall from the angle map. That is, by removing the portion determined to be the outer wall, the loaded cargo may be limited to the region of interest.

이 때, 배경 제거부는 기준 각도와 카메라의 상대 각도를 반영하여 특정 각도에 대응하는 좌표를 각도 맵에서 제거할 수 있다. 예를 들어, 카메라가 적재된 화면의 정면이 아닌 약 10도 정도 회전된 방향에서 컬러 이미지 및 깊이 이미지를 획득한 거라면, 배경 제거부는 이러한 상대적인 각도를 반영하여 -10~0 또는 180~190 사이의 좌표를 제거할 수 있다. In this case, the background remover may remove coordinates corresponding to a specific angle from the angle map by reflecting the reference angle and the relative angle of the camera. For example, if a color image and a depth image are acquired from a direction rotated by about 10 degrees, rather than from the front of the screen on which the camera is loaded, the background removal unit reflects these relative angles and adjusts them between -10 and 0 or 180 and 190. coordinates can be removed.

또는 다른 예에 따라, 배경 제거부는 기준 각도에 대한 카메라의 상대 각도를 보정한 후 소정 범위 내의 각도에 대응하는 좌표를 각도 맵에서 제거할 수 있다. 예를 들어, 카메라가 적재된 화면의 정면이 아닌 약 10도 정도 회전된 방향에서 컬러 이미지 및 깊이 이미지를 획득한 거라면, 이를 반영하여 깊이 맵의 좌표를 미리 보정하고, 이후, 0~10, 또는 170~180 사이의 좌표를 각도 맵에서 제거할 수 있다.Alternatively, according to another example, the background remover may correct a relative angle of the camera to the reference angle and then remove coordinates corresponding to angles within a predetermined range from the angle map. For example, if a color image and a depth image are obtained from a direction rotated by about 10 degrees instead of from the front of the screen on which the camera is loaded, the coordinates of the depth map are corrected in advance by reflecting this, and then, 0 to 10, Alternatively, coordinates between 170 and 180 can be removed from the angle map.

이렇게 적재된 화물과 카메라의 방향이 기준 각도를 만족하지 않는 경우, 이를 자동으로 보정하고, 외벽과 같은 배경에 제거될 수 있다. If the direction of the loaded cargo and the camera does not satisfy the reference angle, it is automatically corrected and removed to the background, such as an outer wall.

배경 공간이 제거된 각도 맵을 기반으로 레이어 별 깊이 값 히스토그램이 생성될 수 있다(S540).A histogram of depth values for each layer may be generated based on the angle map from which the background space is removed (S540).

도 3의 히스토그램을 통해 적재된 화물의 레이어를 구분할 수 있다. 이 때, 각 레이터의 평균 위치값이 계산될 수 있다. Layers of loaded cargo can be distinguished through the histogram of FIG. 3 . At this time, an average position value of each radar may be calculated.

이 후, 깊이 값 히스토그램을 기반으로 레이어 별 마스크가 생성되고, 도 4과 같이 마스크와 컬러 이미지를 결합하여 레이어 별 객체 이미지가 생성될 수 있다(S550).Thereafter, a mask for each layer is generated based on the depth value histogram, and an object image for each layer may be generated by combining the mask and the color image as shown in FIG. 4 (S550).

이 때, 객체 이미지는 레이어에 대한 평균 위치 값과 컬러 이미지를 결합함으로써 도출될 수 있다.In this case, the object image may be derived by combining the average position value of the layer and the color image.

이렇게 생성된 객체 이미지를 통하여 가장 앞에 있는 레이어, 즉 제1 레이어에 있는 화물이 직관적으로 인식되고, 화물의 하차를 수행하는 로봇은 이를 근거로 해당 레이어의 화물을 하차시킬 수 있다. Cargo in the foremost layer, that is, the first layer, is intuitively recognized through the object image created in this way, and the robot performing unloading of the cargo can unload the cargo of the corresponding layer based on this.

이렇게 첫 번째 레이어의 하차가 수행되면, 두 번째 레이어에 대한 객체 이미지를 바탕으로 두 번째 레이어의 화물을 하차시킬 수 있다.When the first layer is unloaded in this way, the cargo of the second layer may be unloaded based on the object image for the second layer.

이와 같이, 레이어 별 객체 이미지만을 추출할 수 있고, 적재 화물을 레이어 별로 구분할 수 있다.In this way, only object images for each layer can be extracted, and loaded cargoes can be classified for each layer.

상술된 바와 같이, 본 발명은 3D 카메라를 활용하여, 영상 인식에 방해가 될 수 있는 적재 공간의 외벽을 제거하며, 깊이 데이터를 이용하여 적재 화물에 대한 레이어별로 적재 상황을 파악할 수 있는 객체 인식 장치 및 방법을 제안한다.As described above, the present invention utilizes a 3D camera to remove an outer wall of a loading space that may interfere with image recognition, and an object recognition device capable of grasping the loading situation for each layer of loaded cargo using depth data and suggest a method.

도 6은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 6의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 객체인식장치 등) 일 수 있다. 6 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 6 may be a device (eg, an object recognition device, etc.) described in this specification.

도 6의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 6 , the computing device TN100 may include at least one processor TN110, a transceiver TN120, and a memory TN130. In addition, the computing device TN100 may further include a storage device TN140, an input interface device TN150, and an output interface device TN160. Elements included in the computing device TN100 may communicate with each other by being connected by a bus TN170.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute program commands stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Processor TN110 may be configured to implement procedures, functions, methods, and the like described in relation to embodiments of the present invention. The processor TN110 may control each component of the computing device TN100.

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of read only memory (ROM) and random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다. The transmitting/receiving device TN120 may transmit or receive a wired signal or a wireless signal. The transmitting/receiving device TN120 may perform communication by being connected to a network.

한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. Meanwhile, the embodiments of the present invention are not implemented only through the devices and/or methods described so far, and may be implemented through a program that realizes functions corresponding to the configuration of the embodiments of the present invention or a recording medium in which the program is recorded. And, such implementation can be easily implemented by those skilled in the art from the description of the above-described embodiment.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. belong to the scope of the invention.

Claims (10)

적재되어 있는 객체의 컬러 이미지 및 깊이 이미지를 획득하는 카메라와;
상기 깊이 이미지로부터 수집된 포인트 클라우드를 기반으로 상기 객체와 상기 카메라에 사이의 각도에 대한 각도 맵을 생성하는 각도 맵 생성부와;
상기 각도 맵을 기반으로 상기 객체 이외의 배경 공간에 대한 각도를 제거하는 배경 제거부와;
상기 배경 공간이 제거된 각도 맵을 기반으로 상기 객체가 적재된 레이어 별로 깊이 값 히스토그램을 생성하는 히스토그램 생성부와;
상기 깊이 값 히스토그램을 기반으로 상기 레이어 별 마스크를 생성하고, 상기 마스크와 상기 컬러 이미지를 결합하여 상기 레이어 별 객체 이미지를 생성하는 영상 추출부
를 포함하는 것을 특징으로 하는 객체 인식 장치.
a camera for obtaining a color image and a depth image of the loaded object;
an angle map generating unit generating an angle map for an angle between the object and the camera based on a point cloud collected from the depth image;
a background removal unit for removing an angle of a background space other than the object based on the angle map;
a histogram generating unit generating a histogram of depth values for each layer in which the object is loaded based on the angle map from which the background space is removed;
An image extraction unit generating a mask for each layer based on the depth value histogram, and generating an object image for each layer by combining the mask and the color image.
Object recognition device comprising a.
제1항에 있어서,
상기 컬러 이미지 및 상기 깊이 이미지의 좌표가 보정되는 것을 특징으로 하는 객체 인식 장치.
According to claim 1,
The object recognition device, characterized in that the coordinates of the color image and the depth image are calibrated.
제1항에 있어서,
상기 각도 맵 생성부는 상기 포인트 클라우드 내 하나의 좌표와 상기 좌표와 우측으로 인접한 우측 좌표 및 상기 좌표와 하단으로 인접한 하단 좌표를 기반으로 법선 벡터를 도출하고,
상기 법선 벡터와 상기 카메라의 Z 좌표 사이의 각도를 도출하는 것을 특징으로 하는 객체 인식 장치.
According to claim 1,
The angle map generator derives a normal vector based on one coordinate in the point cloud, a right coordinate adjacent to the right side of the coordinates, and a bottom coordinate adjacent to the bottom side of the coordinates,
The object recognition device, characterized in that for deriving an angle between the normal vector and the Z coordinate of the camera.
제3항에 있어서,
상기 배경 제거부는 상기 각도 맵에서 기준 각도를 기준으로 소정 범위 내의 각도에 대응하는 좌표를 상기 각도 맵에서 제거하고,
상기 기준 각도는 상기 법선 벡터와 상기 카메라의 Z 좌표 사이의 각도가 0도인 것을 특징으로 하는 객체 인식 장치.
According to claim 3,
The background removal unit removes a coordinate corresponding to an angle within a predetermined range based on a reference angle in the angle map from the angle map,
The reference angle is an object recognition device, characterized in that the angle between the normal vector and the Z coordinate of the camera is 0 degree.
제4항에 있어서,
상기 배경 제거부는 상기 기준 각도에 대한 상기 카메라의 상대 각도를 보정한 후 상기 소정 범위 내의 각도에 대응하는 좌표를 상기 각도 맵에서 제거하는 것을 특징으로 하는 객체 인식 장치.
According to claim 4,
The background removing unit corrects the relative angle of the camera with respect to the reference angle and then removes coordinates corresponding to angles within the predetermined range from the angle map.
제3항에 있어서,
상기 영상 추출부는 상기 레이어의 평균 위치 값과 상기 컬러 이미지를 결합하여 상기 객체 이미지를 생성하는 것을 특징으로 하는 객체 인식 장치.
According to claim 3,
The object recognition device, characterized in that the image extraction unit generates the object image by combining the average position value of the layer and the color image.
객체 인식 장치가 적재된 객체를 인식하는 방법에 있어서,
상기 객체 인식 장치에 포함된 카메라가, 적재되어 있는 객체의 컬러 이미지 및 깊이 이미지를 획득하는 이미지 획득 단계와;
상기 객체 인식 장치에 포함된 각도 맵 생성부가, 상기 깊이 이미지로부터 수집된 포인트 클라우드를 기반으로 상기 객체와 상기 카메라 사이의 각도에 대한 각도 맵을 생성하는 각도 맵 생성 단계와;
상기 객체 인식 장치에 포함된 배경 제거부가, 상기 각도 맵을 기반으로 상기 객체 이외의 배경 공간에 대한 각도를 제거하는 배경 제거 단계와;
상기 객체 인식 장치에 포함된 히스토그램 생성부가, 상기 배경 공간이 제거된 각도 맵을 기반으로 상기 객체가 적재된 레이어 별로 깊이 값 히스토그램을 생성하는 히스토그램 생성 단계와;
상기 객체 인식 장치에 포함된 영상 추출부가, 상기 깊이 값 히스토그램을 기반으로 상기 레이어 별 마스크를 생성하고 상기 마스크와 상기 컬러 이미지를 결합하여 상기 레이어 별 객체 이미지를 생성하는 영상 추출 단계
를 포함하는 것을 특징으로 하는 객체 인식 방법.
In the method for recognizing an object loaded with an object recognition device,
an image acquisition step of acquiring, by a camera included in the object recognizing device, a color image and a depth image of the loaded object;
generating an angle map of an angle between the object and the camera based on a point cloud collected from the depth image by an angle map generator included in the object recognition device;
a background removing step of removing, by a background removing unit included in the object recognizing device, an angle of a background space other than the object based on the angle map;
a histogram generating step of generating, by a histogram generator included in the object recognition device, a histogram of depth values for each layer in which the object is loaded based on the angle map from which the background space is removed;
An image extraction step of generating, by an image extraction unit included in the object recognition device, a mask for each layer based on the depth value histogram, and generating an object image for each layer by combining the mask and the color image.
Object recognition method comprising a.
제7항에 있어서,
상기 각도 맵 생성 단계는,
상기 각도 맵 생성부가 상기 포인트 클라우드 내 하나의 좌표와 상기 좌표와 우측으로 인접한 우측 좌표 및 상기 좌표와 하단으로 인접한 하단 좌표를 기반으로 법선 벡터를 도출하고,
상기 법선 벡터와 상기 카메라의 Z 좌표 사이의 각도를 도출하는 것을 특징으로 하는 객체 인식 방법.
According to claim 7,
In the step of generating the angle map,
The angle map generation unit derives a normal vector based on one coordinate in the point cloud, a right coordinate adjacent to the right side of the coordinates, and a bottom coordinate adjacent to the bottom side of the coordinates,
The method of object recognition, characterized in that for deriving an angle between the normal vector and the Z coordinate of the camera.
제8항에 있어서,
상기 배경 제거 단계는
상기 배경 제거부가 상기 각도 맵에서 기준 각도를 기준으로 소정 범위 내의 각도에 대응하는 좌표를 상기 각도 맵에서 제거하는 것을 특징으로 하고,
상기 기준 각도는 상기 법선 벡터와 상기 카메라의 Z 좌표 사이의 각도가 0도인 것을 특징으로 하는 객체 인식 방법.
According to claim 8,
The background removal step is
Characterized in that the background removal unit removes a coordinate corresponding to an angle within a predetermined range based on a reference angle in the angle map from the angle map,
The reference angle is an object recognition method, characterized in that the angle between the normal vector and the Z coordinate of the camera is 0 degree.
제9항에 있어서,
상기 배경 제거 단계는
상기 배경 제거부가 상기 기준 각도에 대한 상기 카메라의 상대 각도를 보정한 후 상기 소정 범위 내의 각도에 대응하는 좌표를 상기 각도 맵에서 제거하는 것을 특징으로 하는 객체 인식 방법.

According to claim 9,
The background removal step is
The object recognition method of claim 1 , wherein the background remover corrects the relative angle of the camera to the reference angle and then removes a coordinate corresponding to an angle within the predetermined range from the angle map.

KR1020210014261A 2021-02-01 2021-02-01 Loaded object recognition device and object recognition method KR102537295B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210014261A KR102537295B1 (en) 2021-02-01 2021-02-01 Loaded object recognition device and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210014261A KR102537295B1 (en) 2021-02-01 2021-02-01 Loaded object recognition device and object recognition method

Publications (2)

Publication Number Publication Date
KR20220111074A KR20220111074A (en) 2022-08-09
KR102537295B1 true KR102537295B1 (en) 2023-05-26

Family

ID=82844624

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210014261A KR102537295B1 (en) 2021-02-01 2021-02-01 Loaded object recognition device and object recognition method

Country Status (1)

Country Link
KR (1) KR102537295B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102556544B1 (en) * 2022-10-05 2023-07-18 주식회사 넥스인테크놀로지 Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101391667B1 (en) 2013-01-31 2014-05-07 한국과학기술연구원 A model learning and recognition method for object category recognition robust to scale changes
JP6782046B1 (en) 2019-07-15 2020-11-11 株式会社Mujin Object detection system and method based on image data

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101731804B1 (en) * 2014-12-30 2017-05-04 순천향대학교 산학협력단 Apparatus and method for recognizing license plate
KR102160196B1 (en) * 2018-10-16 2020-09-25 에스케이텔레콤 주식회사 Apparatus and method for 3d modeling
KR102178013B1 (en) 2019-02-08 2020-11-12 한양대학교 산학협력단 Training data generation method and pose determination method for grasping object

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101391667B1 (en) 2013-01-31 2014-05-07 한국과학기술연구원 A model learning and recognition method for object category recognition robust to scale changes
JP6782046B1 (en) 2019-07-15 2020-11-11 株式会社Mujin Object detection system and method based on image data

Also Published As

Publication number Publication date
KR20220111074A (en) 2022-08-09

Similar Documents

Publication Publication Date Title
US11915502B2 (en) Systems and methods for depth map sampling
CN111797650B (en) Obstacle identification method, obstacle identification device, computer equipment and storage medium
JP5812599B2 (en) Information processing method and apparatus
US9576363B2 (en) Object picking system, object detecting device, object detecting method
CN108508916B (en) Control method, device and equipment for unmanned aerial vehicle formation and storage medium
EP3502958B1 (en) Object recognition processing apparatus, object recognition processing method, and program
CN107016348B (en) Face detection method and device combined with depth information and electronic device
US11748998B1 (en) Three-dimensional object estimation using two-dimensional annotations
JP2022504713A (en) Systems and methods for training machine models with extended data
WO2022183685A1 (en) Target detection method, electronic medium and computer storage medium
WO2024087962A1 (en) Truck bed orientation recognition system and method, and electronic device and storage medium
KR102537295B1 (en) Loaded object recognition device and object recognition method
CN110816522B (en) Vehicle attitude control method, apparatus, and computer-readable storage medium
US20210407113A1 (en) Information processing apparatus and information processing method
CN107767366B (en) A kind of transmission line of electricity approximating method and device
US11457158B2 (en) Location estimation device, location estimation method, and program recording medium
CN110880003B (en) Image matching method and device, storage medium and automobile
KR102538685B1 (en) Method and apparatus for restoring 3d information using multi-view information
EP4210002A1 (en) Pose estimation refinement for aerial refueling
EP4006829A1 (en) Information processing device, data generation method, and non-transitory computer-readable medium having program stored thereon
JP2022106671A (en) Fuel receptacle and boom tip position and pose estimation for aerial refueling
WO2019064457A1 (en) Computer system, position estimation method, and program
WO2023140266A1 (en) Picking device and image generation program
US20210404843A1 (en) Information processing apparatus, control method for information processing apparatus, and storage medium
US20240054612A1 (en) Iinformation processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant