KR20200062770A - Non-contact type recognition apparatus and method of object's attibutes - Google Patents

Non-contact type recognition apparatus and method of object's attibutes Download PDF

Info

Publication number
KR20200062770A
KR20200062770A KR1020180148577A KR20180148577A KR20200062770A KR 20200062770 A KR20200062770 A KR 20200062770A KR 1020180148577 A KR1020180148577 A KR 1020180148577A KR 20180148577 A KR20180148577 A KR 20180148577A KR 20200062770 A KR20200062770 A KR 20200062770A
Authority
KR
South Korea
Prior art keywords
label
attribute
weight
unit
volume
Prior art date
Application number
KR1020180148577A
Other languages
Korean (ko)
Other versions
KR102285625B1 (en
Inventor
김영욱
전세웅
김동엽
신동인
정병진
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020180148577A priority Critical patent/KR102285625B1/en
Priority to PCT/KR2018/014950 priority patent/WO2020111327A1/en
Publication of KR20200062770A publication Critical patent/KR20200062770A/en
Application granted granted Critical
Publication of KR102285625B1 publication Critical patent/KR102285625B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/627
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6201

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

The present invention relates to a non-contact type object attribute recognition apparatus capable of inferring an attribute of an object and performing a necessary operation without directly carrying the object and to a method thereof. To this end, the apparatus of the present invention comprises: an image photographing unit photographing an object; a label generation unit recognizing the object photographed by the image photographing unit, classifying the type of the object, and recognizing a corresponding label; and an attribute estimation unit estimating the attribute corresponding to the label in accordance with the label recognized in the label recognition unit. Therefore, according to the present invention, the object is recognized as an image and grasped, and the behavior of a robot corresponding to the inferred attribute may be appropriately controlled by inferring the attribute of the identified object.

Description

비접촉식 물건속성 인식장치 및 방법{Non-contact type recognition apparatus and method of object's attibutes}Non-contact type recognition apparatus and method of object's attibutes}

본 발명은 비접촉식 물건속성 인식장치 및 방법에 관한 것이며, 구체적으로 직접 물건을 들어보지 않고도 물건의 속성을 추론하여 필요한 작동을 수행하도록 할 수 있는 비접촉식 물건속성 인식장치 및 방법에 관한 것이다.The present invention relates to a non-contact object property recognition device and method, and specifically, to a non-contact object property recognition device and method capable of inferring the property of an object and performing necessary operations without having to directly listen to the object.

사람을 대신하여 일을 시키기 위한 장치, 즉 로봇에 대한 연구 및 개발은 끊임없이 계속되어 오고 있다. 이러한 로봇은 카메라 센서 등을 이용하여 전방을 인식하고, 각종 모터 등을 이용하여 스스로의 움직임을 제어하게 된다.Research and development of a device for working on behalf of a person, that is, a robot, has been continuously performed. The robot recognizes the front using a camera sensor or the like, and controls its own movement using various motors.

최근에는 인공지능의 발달로 인하여 사물에 대한 인식 및 분류를 스스로 학습하게 하는 방법들이 많이 연구되고 있다.Recently, due to the development of artificial intelligence, many methods for self-learning about recognition and classification of objects have been studied.

등록특허 제10-1803471호(컨볼류션 신경망 기반의 영상 패턴화를 이용한 딥러닝 시스템 및 이를 이용한 영상 학습방법)에 의하면, 입력영상을 입력하는 영상입력부, 영상입력부로부터 받은 입력영상을 패턴화된 다수의 패턴영상으로 생성하는 패턴화모듈, 영상입력부로부터 받은 입력영상과 패턴화모듈로부터 수신받은 패턴영상을 학습시키는 컨볼류션 신경망(CNN)을 기반으로 하는 CNN학습부, CNN학습부로부터 학습정보와 영상입력부로부터 받은 입력영상을 전달받는 CNN실행부, CNN실행부로부터 영상정보를 받아 영상정보의 객체를 종류별로 분류하는 최종분류부를 포함한 딥러닝시스템이 기재되어 있다. 이러한 시스템을 이용하여 수신된 영상을 기초로 하여 사물을 분별하도록 학습시킬 수 있다.According to Patent No. 10-1803471 (a deep learning system using a convolutional neural network-based image patterning and an image learning method using the same), the image input unit for inputting an input image and the input image received from the image input unit are patterned CNN learning unit based on the convolutional neural network (CNN) that learns the patterning module generated from multiple pattern images, the input image received from the image input unit and the pattern image received from the patterning module, and learning information from the CNN learning unit And a deep learning system including a CNN execution unit that receives an input image received from the image input unit, and a final classification unit that receives image information from the CNN execution unit and classifies objects of image information by type. Using such a system, it is possible to learn to discern objects based on the received image.

하지만, 이러한 시스템은 단지 사물을 분별할 수 있는 기능만 제공할 뿐 로봇으로 하여금 사물과 관련하여 앞으로 진행될 행동에 대한 추론까지 하는 것은 불가능하여 실제 상용화를 목표로 하는 로봇에 적용시키기에는 한계가 있다.However, such a system only provides a function to discriminate objects, and it is impossible to induce robots to infer about future actions related to objects, and thus there is a limit to apply them to robots targeting actual commercialization.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 물건의 종류를 분류하여 파악하고, 나아가 파악된 물건의 속성을 추론하여 추론된 속성에 따라 로봇의 행동을 적절하게 제어하기 위한 것이다.The present invention is to solve the problems as described above, by classifying and grasping the type of the object, and further inferring the property of the identified object to properly control the behavior of the robot according to the inferred property.

상기한 목적을 달성하기 위하여, 본 발명은 물건을 촬영하는 영상촬영부; 상기 영상촬영부에 의해 촬영된 물건을 인식하여 상기 물건의 종류를 분류하고 대응하는 레이블을 인식하는 레이블생성부; 상기 레이블생성부에서 인식된 레이블에 따라 상기 레이블에 해당하는 속성을 추정하는 속성추정부를 포함하여 구성되는 비접촉식 물건속성 인식장치를 제공한다.In order to achieve the above object, the present invention is an image photographing unit for photographing an object; A label generation unit that recognizes an object photographed by the image photographing unit, classifies the type of the object, and recognizes a corresponding label; It provides a non-contact object property recognition device comprising an attribute estimation unit for estimating an attribute corresponding to the label according to the label recognized by the label generator.

상기 비접촉식 물건속성 인식장치는 상기 레이블에 대응하는 속성이 저장된 속성데이터베이스를 포함하며, 상기 속성추정부는 상기 레이블이 무게가 일정한 레이블인지 판단하고, 무게가 일정한 레이블로 판단되면 촬영된 영상으로부터 상기 물건의 부피를 계산하는 단계, 상기 속성데이터베이스로부터 상기 레이블의 무게속성을 검출하고 상기 계산된 부피를 이용하여 상기 물건의 무게를 추정하는 단계를 수행하는 것이 바람직하다.The non-contact object attribute recognition device includes an attribute database in which attributes corresponding to the label are stored, and the attribute estimator determines whether the label is a constant weight label, and if the weight is determined to be a constant weight label, the object is recognized from the captured image. It is preferable to perform a step of calculating a volume, detecting a weight attribute of the label from the attribute database and estimating the weight of the object using the calculated volume.

상기 속성추정부는 상기 레이블이 무게가 일정한 레이블인지 판단하고, 무게가 일정하지 않은 레이블로 판단되면 촬영된 영상으로부터 상기 물건의 색상차이를 검출하는 단계, 상기 색상차이로부터 내용물의 부피를 추정하는 단계; 상기 추정된 부피로부터 상기 물건의 무게를 추정하는 단계를 수행할 수 있다.The attribute estimator determines whether the label is a constant weight label, and if it is determined that the weight is not constant, detecting the color difference of the object from the captured image, and estimating the volume of the content from the color difference; Estimating the weight of the object from the estimated volume may be performed.

이때, 상기 비접촉식 물건속성 인식장치는 상기 레이블에 대응하는 속성이 저장된 속성데이터베이스를 포함하며, 상기 속성추정부는 상기 속성데이터베이스를 검색하여 상기 추정된 부피에 대응하는 무게를 산출하는 것이 바람직하다.At this time, the non-contact object attribute recognition device preferably includes an attribute database in which attributes corresponding to the label are stored, and the attribute estimator searches the attribute database to calculate the weight corresponding to the estimated volume.

본 발명에 의하면, 또한, 물건을 촬영하는 영상촬영부; 물건을 잡아 이동시키기 위한 이동수행부; 상기 영상촬영부에 의해 촬영된 물건을 인식하여 상기 물건의 종류를 분류하고 대응하는 레이블을 인식하는 레이블생성부; 상기 레이블생성부에서 인식된 레이블에 따라 상기 레이블에 해당하는 무게을 추정하는 속성추정부; 상기 이동수행부를 제어하기 위한 제어부를 포함하여 구성되고, 상기 제어부는 상기 속성추정부에서 추정된 무게에 따라 상기 이동수행부의 제어방법을 변경시키는 물건이동장치를 제공한다.According to the present invention, further, an image photographing unit for photographing an object; A moving unit for grabbing and moving the object; A label generation unit that recognizes an object photographed by the image photographing unit, classifies the type of the object, and recognizes a corresponding label; An attribute estimation unit for estimating the weight corresponding to the label according to the label recognized by the label generator; It is configured to include a control unit for controlling the moving performance unit, the control unit provides an object moving device for changing the control method of the moving performance unit according to the weight estimated by the attribute estimation.

상기 이동수행부는 물건을 잡는 복수 개의 홀딩수단을 구비하며, 상기 물건이동장치는 상기 속성추정부에서 추정된 무게에 따라 상기 홀딩수단을 변경하는 것이 바람직하다.The moving performance unit includes a plurality of holding means for holding the object, and it is preferable that the object moving device changes the holding means according to the weight estimated by the attribute estimation.

그리고, 본 발명에 의하면, 영상촬영부에 의해 물건을 촬영하는 단계; 레이블생성부에 의해 상기 영상촬영부에 의해 촬영된 물건을 인식하여 상기 물건의 종류를 분류하고 대응하는 레이블을 인식하는 단계; 속성추정부에 의해 상기 레이블생성부에서 인식된 레이블에 따라 상기 레이블에 해당하는 속성을 추정하는 단계를 수행하는 비접촉식 물건속성 인식방법을 제공한다.And, according to the present invention, the step of photographing the object by the image taking unit; Recognizing an object photographed by the image photographing unit by a label generator and classifying the type of the object and recognizing a corresponding label; Provided is a method for recognizing a non-contact object property that performs a step of estimating an attribute corresponding to the label according to a label recognized by the label generator by the attribute estimator.

상기 속성추정부는 상기 레이블이 무게가 일정한 레이블인지 판단하고, 무게가 일정한 레이블로 판단되면 촬영된 영상으로부터 상기 물건의 부피를 계산하는 단계, 상기 레이블에 대응하는 속성이 저장된 속성데이터베이스로부터 상기 레이블의 무게속성을 검출하고 상기 계산된 부피를 이용하여 상기 물건의 무게를 추정하는 단계를 수행하는 것이 바람직하다.The attribute estimator determines whether the label is a constant weight label, and if the weight is determined to be a constant label, calculating the volume of the object from the captured image, and the weight of the label from the attribute database storing the attribute corresponding to the label It is preferable to perform the step of detecting an attribute and estimating the weight of the object using the calculated volume.

상기 속성추정부는 상기 레이블이 무게가 일정한 레이블인지 판단하고, 무게가 일정하지 않은 레이블로 판단되면 촬영된 영상으로부터 상기 물건의 색상차이를 검출하는 단계, 상기 색상차이로부터 내용물의 부피를 추정하는 단계; 상기 추정된 부피로부터 상기 물건의 무게를 추정하는 단계를 수행할 수 있다.The attribute estimator determines whether the label is a constant weight label, and if it is determined that the weight is not constant, detecting the color difference of the object from the captured image, and estimating the volume of the content from the color difference; Estimating the weight of the object from the estimated volume may be performed.

상기 속성추정부는 상기 레이블에 대응하는 속성이 저장된속성데이터베이스를 검색하여 상기 추정된 부피에 대응하는 무게를 산출하는 것이 바람직하다.It is preferable that the attribute estimator calculates a weight corresponding to the estimated volume by searching an attribute database storing attributes corresponding to the label.

본 발명에 의하면, 물건을 영상으로 인식하여 파악하고, 파악된 물건의 속성을 추론하여 추론된 속성에 대응하는 로봇의 행동을 적절하게 제어할 수 있다.According to the present invention, it is possible to appropriately control the behavior of the robot corresponding to the inferred attribute by recognizing and grasping the object as an image and inferring the attribute of the identified object.

따라서, 실제 물건을 잡거나 들어야할 필요가 있을 때 처음 인식된 물건이라도 시행착오를 겪지 않아도 자원낭비없이 로봇으로 하여금 적절하게 행동할 수 있도록 하여 준다.Therefore, even when the object first recognized when there is a need to grab or listen to the actual object, the robot can be properly acted without wasting resources without having to undergo trial and error.

도 1은 본 발명에 의한 비접촉식 물건속성 인식장치의 구성을 나타내는 구성도;
도 2는 도 1에서 레이블생성부의 구성을 나타내는 구성도;
도 3은 본 발명에 의한 영상촬영부에서 촬영한 물건 영상을 나타내는 예시도;
도 4는 도 1에서 속성데이터베이스의 예를 나타내는 예시도;
도 5 내지 도 7은 도 1에서 속성추정부에 의한 무게추정과정을 설명하기 위한 설명도;
도 8은 본 발명에 의한 비접촉식 물건속성 인식방법을 설명하기 위한 순서도;
도 9는 본 발명에 의한 물건이동장치의 구성을 나타내는 구성도;
도 10은 도 8에서 홀딩수단의 예를 나타내는 예시도.
1 is a configuration diagram showing the configuration of a non-contact object property recognition apparatus according to the present invention;
Figure 2 is a block diagram showing the configuration of the label generating unit in Figure 1;
3 is an exemplary view showing an object image taken by the image taking unit according to the present invention;
4 is an exemplary view showing an example of an attribute database in FIG. 1;
5 to 7 are explanatory diagrams for explaining the weight estimation process by attribute estimation in FIG. 1;
8 is a flowchart for explaining a method for recognizing a non-contact object property according to the present invention;
9 is a block diagram showing the configuration of an object moving apparatus according to the present invention;
10 is an exemplary view showing an example of a holding means in FIG. 8;

본 발명의 실시예의 구성 및 작용에 대하여 첨부한 도면을 참조하여 상세하게 설명한다.The configuration and operation of the embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1을 참조하면, 본 발명에 의한 비접촉식 물건속성 인식장치(100)는 영상촬영부(110), 레이블생성부(120), 속성추정부(130), 속성데이터베이스(140), 제어부(150), 통신부(160), 저장부(170)를 포함하여 구성된다.Referring to FIG. 1, the non-contact object property recognition apparatus 100 according to the present invention includes an image photographing unit 110, a label generating unit 120, an attribute estimation unit 130, an attribute database 140, and a control unit 150 , It comprises a communication unit 160, a storage unit 170.

상기 영상촬영부(110)는 전방의 영상을 촬영할 수 있는 하나 이상의 센서들을 포함하여 구성될 수 있으며, RGB카메라, RGBD카메라, 라이다(Lidar), 적외선 스캐너, 초음파센서, LRF센서 등을 포함할 수 있다.The image photographing unit 110 may include one or more sensors capable of photographing a front image, and may include an RGB camera, an RGBD camera, a lidar, an infrared scanner, an ultrasonic sensor, and an LRF sensor. Can be.

상기 레이블생성부(120)는 영상촬영부(110)에서 촬영된 영상을 이용하여 영상에 포함된 물건을 인식하여 레이블을 생성한다.The label generator 120 recognizes an object included in the image using the image captured by the image photographing unit 110 to generate a label.

구체적으로, 도 2를 참조하면, 레이블생성부(120)는 영상수신부(121), 특징점추출부(122), 윤곽선추출부(123), 레이블매칭부(124)를 포함한다.Specifically, referring to FIG. 2, the label generation unit 120 includes an image receiving unit 121, a feature point extraction unit 122, a contour extraction unit 123, and a label matching unit 124.

영상수신부(121)는 영상촬영부(110)에서 촬영된 영상을 수신할 수도 있고, 통신부(160)를 통해 외부에서 촬영된 영상을 수신받을 수도 있다. 상기 영상수신부(121)를 통해 수신된 영상은 특징점추출부(122)에서 특징점들이 추출된다. 상기 특징점들은 픽셀(색상 또는 명암)의 변화가 큰 점들이 될 수 있으며, 예를 들어, 물건의 모서리나 꼭지점 등이 될 수 있다.The image receiving unit 121 may receive an image photographed by the image photographing unit 110 or may receive an image photographed from the outside through the communication unit 160. In the image received through the image receiving unit 121, feature points are extracted from the feature point extraction unit 122. The feature points may be points in which a change in pixel (color or contrast) is large, for example, an edge or a vertex of an object.

또한, 윤곽선추출부(123)에서는 촬영된 물건의 외형을 추출하는 역할을 한다. 윤곽선을 추출하는 방법으로 세그멘테이션(segmentation) 기법이 이용될 수 있다.In addition, the outline extraction unit 123 serves to extract the appearance of the photographed object. A segmentation technique may be used as a method of extracting contours.

윤곽선추출부(123)에 의해 분리된 물건의 영상정보는 레이블매칭부(124)에 의해 분류되어 레이블이 생성된다.The image information of the object separated by the contour extraction unit 123 is classified by the label matching unit 124 to generate a label.

상기 레이블매칭부(124)는 입력층, 은닉층, 출력층을 포함한 딥러닝과 같은 인공지능 신경망으로 구성될 수 있으며, 학습된 데이터를 이용하여 은닉층에 가중치정보가 저장되어 있다.The label matching unit 124 may be composed of an artificial intelligence neural network such as a deep learning including an input layer, a hidden layer, and an output layer, and weight information is stored in the hidden layer using the learned data.

예를 들어, 도 3과 같은 물건이 영상수신부(121)에 의해 촬영된 경우 레이블생성부(120)에서는 물건의 윤곽선을 추출한 후 물건을 인식하여 분류하게 된다. 분류된 출력결과에 대응하는 레이블이 '사과' 및 '콜라병'으로 될 수 있으며, 속성데이터베이스(140)에는 레이블 및 상기 레이블에 대응하는 속성정보가 저장되어 있다.For example, when the object shown in FIG. 3 is photographed by the image receiving unit 121, the label generating unit 120 recognizes and classifies the object after extracting the contour of the object. Labels corresponding to the classified output results may be'apples' and'cola bottles', and the attribute database 140 stores labels and attribute information corresponding to the labels.

도 4를 참조하면, 속성데이터베이스(140)에는 레이블생성부(120)에서 생성된 레이블이 속성에 따라 분류되어 저장되며, 각 레이블은 대응하는 속성이 저장된다.Referring to FIG. 4, in the attribute database 140, labels generated by the label generator 120 are classified and stored according to attributes, and each label stores a corresponding attribute.

구체적으로, 레이블은 크게 고정중량레이블과 가변중량레이블로 구분되어 저장된다. 상기 고정중량레이블은 측정된 외관부피에 따라 무게가 바로 추정되며, 상기 가변중량레이블은 외관부피 및 내용물의 부피 측정에 의해 무게가 추정된다.Specifically, the label is largely divided into a fixed weight label and a variable weight label and stored. The weight of the fixed weight label is estimated immediately according to the measured external volume, and the weight of the variable weight label is estimated by measuring the volume of the external volume and contents.

예를 들어, 고정중량레이블은 과일이나 종이 등이 될 수 있으며, 이러한 고정중량레이블은 단지 외부에서 측정되는 크기(또는 부피)에 따라 무게가 바로 추정된다.For example, the fixed weight label may be fruit or paper, and the weight of the fixed weight label is directly estimated based on the size (or volume) measured from the outside.

또한, 가변중량레이블은 생수병, 콜라병 등과 같은 병이 될 수 있으며, 레이블생성부(120)에서 생성된 레이블이 가변중량레이블에 해당하면 외부에서 측정되는 크기(또는 부피)뿐만 아니라, 그 안에 추정되는 내용물의 부피(또는 높이)의 추정이 다시 한번 수행된다.In addition, the variable weight label may be a bottle such as bottled water or coke bottle, and if the label generated by the label generator 120 corresponds to the variable weight label, as well as the size (or volume) measured from the outside, therein The estimation of the volume (or height) of the estimated contents is performed once again.

상기 속성추정부(130)는 레이블생성부(120)에서 생성된 레이블에 대해서 새로운 속성을 추정한다. 이러한 추정은 속성데이터베이스(140)를 이용하여 수행하거나 딥러닝과 같은 인공신경망을 이용한 인공지능 알고리즘을 조합하여 수행할 수도 있다.The attribute estimator 130 estimates a new attribute for the label generated by the label generator 120. The estimation may be performed using the attribute database 140 or may be performed by combining artificial intelligence algorithms using artificial neural networks such as deep learning.

예를 들어, 상기 속성추정부(130)에서는 레이블생성부(120)에서 생성된 레이블에 대한 무게를 추정할 수 있다. For example, the attribute estimator 130 may estimate the weight of the label generated by the label generator 120.

먼저, 도 3에서 생성된 레이블 '사과'의 경우 속성데이터베이스(140)를 참조하면, 고정중량레이블로 분류되고, 사과의 크기에 따라 무게가 추정된다. 이러한 경우, 속성추정부(130)에서는 영상촬영부(110)에서 촬영된 영상을 이용하여 사과의 크기 또는 부피를 추정한다. 이때, 사과의 부피는 360° 입체적인 영상을 필요로 하므로 매우 정밀한 추정이 요구되지 않는 경우에는 2차원 영상의 크기로부터 무게를 추정한다. 즉, 속성추정부에서는 2차원 영상에서 사과의 윤곽선을 추출한 다음 크기를 추정하게 되는데, 이러한 사과의 크기는 영상촬영부와 사과와의 거리를 이용하거나 비교대상이 되는 다른 물체 크기와의 비교를 통해 사과의 크기가 추정될 수 있다. First, in the case of the label'apple' generated in FIG. 3, referring to the attribute database 140, it is classified as a fixed weight label, and the weight is estimated according to the size of the apple. In this case, the attribute estimation unit 130 estimates the size or volume of the apple using the image taken by the image photographing unit 110. At this time, since the volume of the apple requires a 360° stereoscopic image, if a very precise estimation is not required, the weight is estimated from the size of the 2D image. That is, the attribute estimation unit estimates the size of the apple after extracting the contour of the apple from the 2D image. The size of the apple is determined by using the distance between the image capturing unit and the apple or comparing the size of other objects to be compared. The size of the apple can be estimated.

영상촬영부와 물체와의 거리가 멀수록 촬영된 영상에서의 물체 크기가 작아지고, 영상촬영부와 물체와의 거리가 가까울주록 촬영된 영상에서의 물체 크기가 커지므로 일정 거리에서 물체의 크기를 미리 설정해 놓고 영상촬영부와 물체와의 거리를 측정하면 촬영된 영상에서 실제 물체의 크기를 추정할 수 있다.As the distance between the image capturing unit and the object increases, the size of the object in the captured image decreases, and the closer the distance between the image capturing unit and the object increases, the larger the object size in the captured image increases. If the distance between the image capturing unit and the object is set in advance, the size of the real object can be estimated from the captured image.

본 실시예에서 속성데이터베이스(140)에 저장된 사과의 크기는 9단계로 구획되어 저장되며, 1단계부터 9단계는 일정 범위의 크기나 부피가 될 수 있다. 예를 들어, 영상촬영부에 의해 촬영된 영상을 분석하여 측정된 사과의 크기가 5단계에 속한다면 사과의 무게는 210g으로 추정될 수 있다.In this embodiment, the size of the apples stored in the attribute database 140 is divided into 9 steps and stored, and steps 1 to 9 may be a range of sizes or volumes. For example, if the size of the apple measured by analyzing the image photographed by the image photographing unit belongs to step 5, the weight of the apple may be estimated to be 210 g.

한편, 도 3에서 생성된 레이블 '콜라병'의 경우 속성데이터베이스(140)를 참조하면, 가변중량레이블로 분류되고, 콜라병의 외관 크기 및 내용물의 부피를 더 측정하는 과정을 거쳐 무게가 추정된다.On the other hand, in the case of the label'Cola bottle' generated in FIG. 3, referring to the attribute database 140, it is classified as a variable weight label, and the weight is estimated through a process of further measuring the appearance size and volume of the contents of the Cola bottle. .

즉, 속성추정부(130)에서는 영상촬영부에 의해 촬영된 영상으로부터 가변중량레이블로 분류된 콜라병의 외형 크기를 추정한다. 이때, 콜라병의 크기는 정형화되어 있으므로 콜라병의 높이만 측정하여 외형 크기를 추정할 수 있다.That is, the attribute estimation unit 130 estimates the external size of the Coke bottle classified as a variable weight label from the image photographed by the image photographing unit. At this time, since the size of the coke bottle is standardized, the outer size can be estimated by measuring only the height of the coke bottle.

다음, 속성추정부(130)에서는 가변중량레이블에 수용된 내용물의 크기나 부피를 측정한다. 이때, 속성추정부(130)에서는 영상촬영부에 의해 촬영된 영상에서 가변중량레이블의 색상차이를 검출하여 내용물의 크기나 부피를 추정할 수 있다.Next, the attribute estimation unit 130 measures the size or volume of the contents accommodated in the variable weight label. At this time, the attribute estimator 130 may detect the color difference of the variable weight label from the image photographed by the image photographing unit to estimate the size or volume of the contents.

도 5를 참조하면, 속성추정부(130)에서는 콜라병의 색상차이를 이용하여 내용물의 경계(B)를 판정한다. 이때, 경계판정의 조건은 첫째, 경계가 수평방향인지 여부, 둘째, 경계를 기준으로 색상차이가 임계색상차 이상인지 여부로 판정하는 것이 바람직하다.Referring to FIG. 5, the attribute estimation unit 130 determines the boundary B of the contents using the color difference of the Coke bottle. At this time, it is preferable to determine the condition of the boundary determination as first, whether the boundary is in the horizontal direction, and second, whether the color difference is greater than or equal to a threshold color difference based on the boundary.

도 5에서 경계(B) 아래는 검은색에 가까운 색깔이 표시되고 경계(B) 위쪽은 배경색에 가까운 색깔이 표시되므로 색상차이는 임계색상차 이상이고, 경계는 수평방향으로 되어 있다. 따라서, 속성추정부(130)에서는 B라인을 경계로 판단하고 바닥에서 경계까지의 높이(H)를 측정한다. 콜라병은 정형화되어 있으므로 높이를 측정하면 내용물의 부피도 추정될 수 있다. In FIG. 5, since the color close to black is displayed below the boundary B and the color close to the background color is displayed above the boundary B, the color difference is more than a critical color difference, and the boundary is horizontal. Therefore, the attribute estimation unit 130 determines the B line as a boundary and measures the height H from the floor to the boundary. The volume of the contents can also be estimated by measuring the height of the coke bottle because it is standardized.

다만, 정형화되어 있지 않은 병의 경우에는 폭(W)도 측정하여 부피를 추정한다. 그러면, 원통형의 병인 경우 부피는 πW2H/4로 계산될 수 있다.However, in the case of a bottle that is not standardized, the volume is estimated by measuring the width (W). Then, in the case of a cylindrical bottle, the volume can be calculated as πW 2 H/4.

이렇게 내용물의 부피(또는 높이)가 산출되면 속성추정부(130)에서는 가변중량레이블의 외형 크기(부피)와 내용물의 부피를 비교하여 내용물의 부피점유율을 계산한다. 예를 들어, 도 5에서 내용물의 부피점유율은 70%로 계산될 수 있다. When the volume (or height) of the contents is calculated in this way, the attribute estimation unit 130 calculates the volume occupancy of the contents by comparing the external size (volume) of the variable weight label with the contents volume. For example, in Figure 5, the volume occupancy of the content may be calculated as 70%.

그 후, 속성추정부(130)에서는 속성데이터베이스(140)를 참조하여 부피점유율에 해당하는 무게를 추정한다. 이때, 산출된 부피점유율에 해당하는 무게데이터가 정확히 없을 경우에는 보간법을 이용하여 무게를 추정할 수 있다.Then, the attribute estimator 130 estimates the weight corresponding to the volume occupancy by referring to the attribute database 140. At this time, if there is no accurate weight data corresponding to the calculated volume occupancy, the weight can be estimated using an interpolation method.

예를 들어, 선형보간법을 이용하면, 무게를 y, 부피점유율을 x라 하면, 속성데이터베이스(140)에 저장된 콜라병의 부피점유율 50% 및 100% 데이터로부터 y = 11x + 300의 그래프를 얻고, 부피점유율이 70%인 경우 이 그래프를 이용하면 무게는 1,070g으로 추정될 수 있다.For example, using the linear interpolation method, if the weight is y and the volume occupancy is x, a graph of y = 11x + 300 is obtained from 50% and 100% volume occupancy data of the Coke bottle stored in the attribute database 140, If the volume occupancy is 70%, using this graph, the weight can be estimated to be 1,070g.

한편, 도 6을 참조하면, 병의 겉에 커버가 씌워진 경우 속성추정부에서는 이것을 내용물로 인식하여 오류가 발생할 가능성이 있다. 따라서, 속성추정부(130)에서는 영상촬영부(110)에서 촬영된 영상에서 한 가지 조건을 더 부가하여 경계를 결정하는 것이 바람직하다.On the other hand, referring to FIG. 6, when the cover is covered on the outside of the bottle, the attribute estimation unit may recognize this as the content, and an error may occur. Therefore, it is desirable for the attribute estimation unit 130 to determine a boundary by adding one more condition to the image captured by the image photographing unit 110.

즉, 도 7을 참조하면, 속성추정부에서는 경계후보로 판정이 된 부분에 단차(D)가 존재하는지 검출한다. 도 6의 경계를 확대한 도 7을 보면, 경계의 외측 끝단에는 안쪽으로 들어간 홈 또는 단차가 존재함을 알 수 있다. 또한, 이러한 단차보다 아래부분의 색상이 좌우 바깥쪽으로 나와 있다.That is, referring to FIG. 7, the attribute estimator detects whether a step D exists in a portion determined as a boundary candidate. Referring to FIG. 7 in which the boundary of FIG. 6 is enlarged, it can be seen that there is a groove or step in the outer edge of the boundary. In addition, the color of the lower part of the step is outwardly left and right.

따라서, 속성추정부에서는 경계 부근에 단차가 존재하고, 아래부분의 색상이 상기 단차의 외측에 있을 때에는 내용물로 판단하지 않는다.Therefore, in the attribute estimation, a step exists near the boundary, and when the color of the lower portion is outside the step, it is not judged as content.

도 8을 참조하여, 본 발명에 의한 비접촉식 물건속성 인식방법에 대해 설명한다.Referring to Fig. 8, a method for recognizing a non-contact object property according to the present invention will be described.

영상촬영부에 의해 전방의 물건이 촬영되면, 촬영된 물건의 영상을 취득하여 레이블생성부로 전송된다. 이때, 동일한 물건의 영상은 복수 개 촬영될 수 있으며, 다른 각도에서 촬영된 복수 개의 영상이 전송될 수 있다.When an object in front is photographed by the image photographing unit, an image of the photographed object is acquired and transmitted to the label generating unit. At this time, a plurality of images of the same object may be photographed, and a plurality of images photographed from different angles may be transmitted.

레이블생성부에서는 물건영상을 수신하여 특징점 및 윤곽선을 검출하고 딥러닝 등의 인공지능을 이용하여 해당 물건의 레이블을 파악하여 생성한다.The label generator receives the object image, detects feature points and contours, and uses artificial intelligence such as deep learning to identify and create the label of the object.

이후, 속성추정부에서는 속성데이터베이스를 참조하여 생성된 레이블이 고정중량레이블인지 가변중량레이블인지 판단하고, 고정중량레이블이라고 판단되면 촬영된 영상의 크기 또는 부피를 계산하여 무게를 추정한다.Thereafter, the attribute estimator determines whether the label generated by referring to the attribute database is a fixed weight label or a variable weight label, and if it is determined that the label is a fixed weight label, calculates the size or volume of the photographed image to estimate the weight.

한편, 속성추정부에서는 생성된 레이블이 가변중량레이블이라고 판단되면 물건의 카테고리(유형)을 파악한다. 예를 들어, 음료수 병인지 과자봉지인지 등의 유형을 파악한 후, 물건상태를 추정하게 된다. On the other hand, if it is determined that the generated label is a variable weight label, the attribute estimation unit grasps the category (type) of the object. For example, after grasping the type of the beverage bottle or the cookie bag, the state of the object is estimated.

물건상태는 음료수 병의 경우 내용물이 몇%인지를 추정하여 100% 상태의 기본중량 대비 현재중량의 비율을 추정한다. 이때, 속성데이터베이스를 참조하거나 딥러닝 등의 인공지능을 이용하여 현재중량의 비율을 추정할 수 있다.In the case of a drink bottle, the ratio of the present weight to the basic weight of the 100% state is estimated by estimating what percentage of the contents of the beverage bottle. At this time, the ratio of the current weight can be estimated by referring to the attribute database or by using artificial intelligence such as deep learning.

다음으로, 본 발명에 의한 비접촉식 물건속성 인식장치를 이용하여 물건을 이동시킬 수 있는 물건이동장치에 대해 설명한다.Next, an object moving device capable of moving an object using the non-contact object property recognition device according to the present invention will be described.

본 발명에 의한 물건이동장치(300)는 영상촬영부(110), 레이블생성부(120), 속성추정부(130), 이동수행부(310), 제어부(150), 통신부(160), 저장부(170)를 포함하여 구성된다. 앞서 설명한 비접촉식 물건속성 인식장치와 동일한 명칭의 구성요소는 기능이 동일하므로 설명을 생략한다.The object moving apparatus 300 according to the present invention includes an image photographing unit 110, a label generating unit 120, an attribute estimation unit 130, a moving execution unit 310, a control unit 150, a communication unit 160, and storage It comprises a portion 170. The components of the same name as the non-contact object property recognition device described above have the same function, and thus the description is omitted.

상기 이동수행부(310)는 물건을 잡을 수 있도록 로봇팔 형태로 구비되는 것이 바람직하다. 즉, 이동수행부(310)는 복수의 관절을 가진 로봇팔 및 상기 로봇팔의 끝단에 구비되어 물건을 잡을 수 있는 여러가지 형태의 홀딩수단을 포함할 수 있다.It is preferable that the moving performance unit 310 is provided in the form of a robot arm so as to be able to hold an object. That is, the movement performing unit 310 may include a robot arm having a plurality of joints and various types of holding means that are provided at the ends of the robot arm to hold an object.

도 9를 참조하면, 상기 홀딩수단은 다섯 손가락을 흉내낸 로봇손, 진공흡착을 할 수 있는 흡착기, 두 방향으로 구비되어 물건을 집을 수 있는 로봇집게 등 여러가지 형태로 구비될 수 있다.Referring to FIG. 9, the holding means may be provided in various forms, such as a robot hand mimicking five fingers, an adsorber capable of vacuum adsorption, and robot tongs provided in two directions to pick up an object.

상기 홀딩수단은 각각의 특징이 있으며, 본 실시예에서는 비접촉식 물건속성 인식장치에 의해 제어부(150)에서는 상황에 따라 가장 적합한 홀딩수단을 이용하여 물건을 이동시킨다.The holding means have respective features, and in this embodiment, the non-contact object property recognition apparatus moves the object using the most suitable holding means according to the situation.

구체적으로, 상기 로봇집게는 간단한 형태의 물건을 확실하게 잡을 수 있는 장점이 있으나, 파지력이 너무 크면 물건이 부서질 염려가 있어 물건의 강도를 추가적으로 인식해야 하는 단점이 있다. 또한, 복잡한 형태의 물건은 파지점을 잡기가 어려워 물건을 제대로 들 수 없는 염려가 있다.Specifically, the robot tongs have the advantage of reliably holding a simple object, but if the gripping force is too large, there is a fear that the object may break, so that the strength of the object must be additionally recognized. In addition, there is a concern that a complex-shaped object is difficult to grasp the gripping point and cannot lift the object properly.

상기 로봇손은 복잡한 형태의 물건을 잡기 적합하나 역시 물건의 파지점 및 파지력을 판단하기 위해 딥러닝과 같은 인공지능을 이용하거나 별도의 데이터를 이용하여 추가적인 학습과정이 필요한 단점이 있다. 또한, 얇은 종이나 필름 등은 로봇손으로 잡기가 매우 어렵다.The robot hand is suitable for holding a complex object, but there is a disadvantage in that an additional learning process is required by using artificial intelligence such as deep learning or using separate data to determine the gripping point and gripping power of the object. In addition, it is very difficult to hold thin paper or film with a robot hand.

상기 흡착기는 종이나 필름 등과 같이 얇은 물건이나 비교적 가벼운 물건을 부서질 염려없이 이동시킬 수 있는 장점이 있다. 하지만, 무거운 물건이나 엎질러지기 쉬운 물건은 흡착기로 이동시키기 어렵다.The adsorber has an advantage in that a thin object or a relatively light object such as paper or film can be moved without fear of being broken. However, heavy or prone objects are difficult to move to the adsorber.

본 실시예에 의한 물건이동장치는 바퀴나 다리 등의 이동수단에 의해 이동하면서 영상촬영부(110)에서 전방의 물건을 촬영하고, 레이블생성부(120)에서 촬영된 물건의 레이블을 생성한다. 그러면, 속성추정부(130)에서 상기 레이블에 대응하는 물건의 속성을 추정한다. The object moving apparatus according to the present embodiment photographs an object in front of the image photographing unit 110 while moving by a moving means such as a wheel or a leg, and generates a label of the object photographed in the label generating unit 120. Then, the attribute estimator 130 estimates the attribute of the object corresponding to the label.

그러면, 제어부(150)에서는 레이블생성부(120)에서 생성된 레이블 또는 속성추정부에서 추정된 속성에 따라 이동수행부(310)의 물건이동방법을 판단하여 가장 적합한 방법으로 물건을 이동시킬 수 있다. 상기 속성은 물건의 외형, 무게, 종류, 재질 등이 될 수 있다.Then, the control unit 150 determines the object movement method of the movement performing unit 310 according to the label generated by the label generating unit 120 or the attribute estimated by the attribute estimation unit, and then moves the object in the most suitable way. . The attributes may be the appearance, weight, type, material, etc. of the object.

예를 들어, 레이블생성부(120)에서 생성된 레이블이 간단한 원통형 유리병이라면 제어부에서는 로봇집게를 이용하여 물건을 잡게 할 수 있다. 또한, 레이블생성부(120)에서 생성된 레이블이 과자봉지라면 제어부에서는 흡착기를 이용하여 물건을 이동시킬 수 있다.For example, if the label generated by the label generator 120 is a simple cylindrical glass bottle, the control unit may use a robot tongs to hold the object. In addition, if the label generated by the label generating unit 120 is a confectionery bag, the control unit may move the object using an adsorber.

그리고, 제어부에서는 속성추정부(130)에서 추정된 물건의 무게에 의하여 물건이동방법을 제어한다. 예를 들어, 흡착기로 이동시킬 수 있는 물건의 무게상한이 저장부에 저장되며, 상기 속성추정부에서 추정된 물건의 무게가 상기 무게상한을 초과하면 제어부에서는 흡착기를 배제시키고 다른 홀딩수단을 이용한다.In addition, the control unit controls the object moving method according to the weight of the object estimated by the attribute estimation unit 130. For example, the upper limit of the weight of an object that can be moved to the adsorber is stored in the storage unit. If the weight of the object estimated by the attribute estimation exceeds the upper limit of the weight, the controller excludes the adsorber and uses other holding means.

이와 같이, 본 발명에 의한 물건이동장치는 복수의 홀딩수단을 구비하며, 촬영된 영상을 통하여 레이블을 생성하고, 레이블에 따른 속성을 추정하여 가장 적절한 홀딩수단을 선택함으로써 가장 효율적으로 물건을 정리할 수 있는 이점이 있다.As described above, the object moving apparatus according to the present invention includes a plurality of holding means, generates a label through the captured image, estimates attributes according to the label, and selects the most appropriate holding means to organize the objects most efficiently. There is an advantage.

상기에서는 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to the embodiments of the present invention, those skilled in the art can variously modify the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can change it.

100 : 비접촉식 물건속성 인식장치 110 : 영상촬영부
120 : 레이블생성부 130 : 속성추정부
140 : 속성데이터베이스부 150 : 제어부
160 : 통신부 170 : 저장부
300 : 물건이동장치 310 : 이동수행부
100: non-contact object property recognition device 110: image recording unit
120: label generating unit 130: attribute estimation
140: attribute database unit 150: control unit
160: communication unit 170: storage unit
300: object moving device 310: moving unit

Claims (10)

물건을 촬영하는 영상촬영부;
상기 영상촬영부에 의해 촬영된 물건을 인식하여 상기 물건의 종류를 분류하고 대응하는 레이블을 인식하는 레이블생성부;
상기 레이블생성부에서 인식된 레이블에 따라 상기 레이블에 해당하는 속성을 추정하는 속성추정부를 포함하여 구성되는 비접촉식 물건속성 인식장치.
An image photographing unit for photographing objects;
A label generation unit that recognizes an object photographed by the image photographing unit, classifies the type of the object, and recognizes a corresponding label;
And a property estimator for estimating an attribute corresponding to the label according to the label recognized by the label generator.
제1항에 있어서,
상기 비접촉식 물건속성 인식장치는 상기 레이블에 대응하는 속성이 저장된 속성데이터베이스를 포함하며,
상기 속성추정부는 상기 레이블이 무게가 일정한 레이블인지 판단하고, 무게가 일정한 레이블로 판단되면 촬영된 영상으로부터 상기 물건의 부피를 계산하는 단계,
상기 속성데이터베이스로부터 상기 레이블의 무게속성을 검출하고 상기 계산된 부피를 이용하여 상기 물건의 무게를 추정하는 단계를 수행하는 것을 특징으로 하는 비접촉식 물건속성 인식장치.
According to claim 1,
The non-contact object attribute recognition device includes an attribute database in which attributes corresponding to the label are stored,
The attribute estimator determines whether the label is a constant weight label, and when it is determined that the weight is a constant label, calculating the volume of the object from the captured image,
And detecting the weight attribute of the label from the attribute database and estimating the weight of the object using the calculated volume.
제1항에 있어서,
상기 속성추정부는 상기 레이블이 무게가 일정한 레이블인지 판단하고, 무게가 일정하지 않은 레이블로 판단되면 촬영된 영상으로부터 상기 물건의 색상차이를 검출하는 단계,
상기 색상차이로부터 내용물의 부피를 추정하는 단계;
상기 추정된 부피로부터 상기 물건의 무게를 추정하는 단계를 수행하는 것을 특징으로 하는 비접촉식 물건속성 인식장치.
According to claim 1,
The attribute estimator determines whether the label is a constant weight label, and when it is determined that the weight is not constant, detecting the color difference of the object from the captured image.
Estimating the volume of the content from the color difference;
And estimating the weight of the object from the estimated volume.
제3항에 있어서,
상기 비접촉식 물건속성 인식장치는 상기 레이블에 대응하는 속성이 저장된 속성데이터베이스를 포함하며,
상기 속성추정부는 상기 속성데이터베이스를 검색하여 상기 추정된 부피에 대응하는 무게를 산출하는 것을 특징으로 하는 비접촉식 물건속성 인식장치.
According to claim 3,
The non-contact object attribute recognition device includes an attribute database in which attributes corresponding to the label are stored,
The attribute estimator retrieves the attribute database and calculates a weight corresponding to the estimated volume.
물건을 촬영하는 영상촬영부;
물건을 잡아 이동시키기 위한 이동수행부;
상기 영상촬영부에 의해 촬영된 물건을 인식하여 상기 물건의 종류를 분류하고 대응하는 레이블을 인식하는 레이블생성부;
상기 레이블생성부에서 인식된 레이블에 따라 상기 레이블에 해당하는 무게을 추정하는 속성추정부;
상기 이동수행부를 제어하기 위한 제어부를 포함하여 구성되고,
상기 제어부는 상기 속성추정부에서 추정된 무게에 따라 상기 이동수행부의 제어방법을 변경시키는 물건이동장치.
An image photographing unit for photographing objects;
A moving unit for grabbing and moving the object;
A label generation unit that recognizes an object photographed by the image photographing unit, classifies the type of the object, and recognizes a corresponding label;
An attribute estimation unit for estimating the weight corresponding to the label according to the label recognized by the label generator;
It comprises a control unit for controlling the moving performance unit,
The control unit moves the object moving device to change the control method of the moving unit according to the weight estimated by the attribute estimator.
제5항에 있어서,
상기 이동수행부는 물건을 잡는 복수 개의 홀딩수단을 구비하며,
상기 물건이동장치는 상기 속성추정부에서 추정된 무게에 따라 상기 홀딩수단을 변경하는 것을 특징으로 하는 물건이동장치.
The method of claim 5,
The moving performance unit is provided with a plurality of holding means for holding the object,
The object moving device changes the holding means according to the weight estimated by the attribute estimation device.
영상촬영부에 의해 물건을 촬영하는 단계;
레이블생성부에 의해 상기 영상촬영부에 의해 촬영된 물건을 인식하여 상기 물건의 종류를 분류하고 대응하는 레이블을 인식하는 단계;
속성추정부에 의해 상기 레이블생성부에서 인식된 레이블에 따라 상기 레이블에 해당하는 속성을 추정하는 단계를 수행하는 비접촉식 물건속성 인식방법.
Photographing an object by the image photographing unit;
Recognizing an object photographed by the image photographing unit by a label generator and classifying the type of the object and recognizing a corresponding label;
A method for recognizing a property of a non-contact object, comprising estimating an attribute corresponding to the label according to a label recognized by the label generator by the attribute estimator.
제7항에 있어서,
상기 속성추정부는 상기 레이블이 무게가 일정한 레이블인지 판단하고, 무게가 일정한 레이블로 판단되면 촬영된 영상으로부터 상기 물건의 부피를 계산하는 단계,
상기 레이블에 대응하는 속성이 저장된 속성데이터베이스로부터 상기 레이블의 무게속성을 검출하고 상기 계산된 부피를 이용하여 상기 물건의 무게를 추정하는 단계를 수행하는 것을 특징으로 하는 비접촉식 물건속성 인식방법.
The method of claim 7,
The attribute estimator determines whether the label is a constant weight label, and when it is determined that the weight is a constant label, calculating the volume of the object from the captured image,
A method for recognizing a non-contact object property, comprising detecting a weight property of the label from the property database storing the property corresponding to the label and estimating the weight of the object using the calculated volume.
제7항에 있어서,
상기 속성추정부는 상기 레이블이 무게가 일정한 레이블인지 판단하고, 무게가 일정하지 않은 레이블로 판단되면 촬영된 영상으로부터 상기 물건의 색상차이를 검출하는 단계,
상기 색상차이로부터 내용물의 부피를 추정하는 단계;
상기 추정된 부피로부터 상기 물건의 무게를 추정하는 단계를 수행하는 것을 특징으로 하는 비접촉식 물건속성 인식방법.
The method of claim 7,
The attribute estimator determines whether the label is a constant weight label, and when it is determined that the weight is not constant, detecting the color difference of the object from the captured image.
Estimating the volume of the content from the color difference;
And estimating the weight of the object from the estimated volume.
제9항에 있어서,
상기 속성추정부는 상기 레이블에 대응하는 속성이 저장된속성데이터베이스를 검색하여 상기 추정된 부피에 대응하는 무게를 산출하는 것을 특징으로 하는 비접촉식 물건속성 인식방법.
The method of claim 9,
The attribute estimator retrieves an attribute database storing attributes corresponding to the label and calculates a weight corresponding to the estimated volume.
KR1020180148577A 2018-11-27 2018-11-27 Non-contact type recognition apparatus and method of object's attibutes KR102285625B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180148577A KR102285625B1 (en) 2018-11-27 2018-11-27 Non-contact type recognition apparatus and method of object's attibutes
PCT/KR2018/014950 WO2020111327A1 (en) 2018-11-27 2018-11-29 Contactless device and method for recognizing object attribute

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180148577A KR102285625B1 (en) 2018-11-27 2018-11-27 Non-contact type recognition apparatus and method of object's attibutes

Publications (2)

Publication Number Publication Date
KR20200062770A true KR20200062770A (en) 2020-06-04
KR102285625B1 KR102285625B1 (en) 2021-08-04

Family

ID=70853417

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180148577A KR102285625B1 (en) 2018-11-27 2018-11-27 Non-contact type recognition apparatus and method of object's attibutes

Country Status (2)

Country Link
KR (1) KR102285625B1 (en)
WO (1) WO2020111327A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090544A1 (en) * 2021-11-18 2023-05-25 주식회사 아서앤그레이스 Method for providing product manufacturing service by using artificial intelligence, and apparatus using same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111687841B (en) * 2020-06-15 2021-02-23 中山大学 Robot bounce height control method, system, device and storage medium
CN113496229B (en) * 2021-08-02 2023-08-11 上海蜜罐科技有限公司 Self-service mail cabinet express item identification system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170021503A1 (en) * 2012-02-07 2017-01-26 X Development Llc Systems and Methods for Determining a Status of a Component of a Device
US9704054B1 (en) * 2015-09-30 2017-07-11 Amazon Technologies, Inc. Cluster-trained machine learning for image processing

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101247136B1 (en) * 2011-11-03 2013-04-01 한양대학교 산학협력단 Object recognition method of robot
KR101807484B1 (en) * 2012-10-29 2017-12-11 한국전자통신연구원 Apparatus for building map of probability distrubutition based on properties of object and system and method thereof
DE102013220798A1 (en) * 2013-10-15 2015-04-16 Kuka Laboratories Gmbh Method for handling objects by means of at least two industrial robots, and associated industrial robots

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170021503A1 (en) * 2012-02-07 2017-01-26 X Development Llc Systems and Methods for Determining a Status of a Component of a Device
US9704054B1 (en) * 2015-09-30 2017-07-11 Amazon Technologies, Inc. Cluster-trained machine learning for image processing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023090544A1 (en) * 2021-11-18 2023-05-25 주식회사 아서앤그레이스 Method for providing product manufacturing service by using artificial intelligence, and apparatus using same

Also Published As

Publication number Publication date
KR102285625B1 (en) 2021-08-04
WO2020111327A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
CN109483573B (en) Machine learning device, robot system, and machine learning method
KR102285625B1 (en) Non-contact type recognition apparatus and method of object's attibutes
CN111275063B (en) Robot intelligent grabbing control method and system based on 3D vision
CN111590611B (en) Article classification and recovery method based on multi-mode active perception
JP6976350B2 (en) Imaging system for locating and mapping scenes, including static and dynamic objects
CN113351522B (en) Article sorting method, device and system
CN111906782B (en) Intelligent robot grabbing method based on three-dimensional vision
CN114693661A (en) Rapid sorting method based on deep learning
WO2023124734A1 (en) Object grabbing point estimation method, apparatus and system, model training method, apparatus and system, and data generation method, apparatus and system
CN116673962B (en) Intelligent mechanical arm grabbing method and system based on Faster R-CNN and GRCNN
CN115816460A (en) Manipulator grabbing method based on deep learning target detection and image segmentation
US20230245437A1 (en) Model generation apparatus, regression apparatus, model generation method, and computer-readable storage medium storing a model generation program
WO2024067006A1 (en) Disordered wire sorting method, apparatus, and system
Wang et al. GraspFusionNet: a two-stage multi-parameter grasp detection network based on RGB–XYZ fusion in dense clutter
Apicella et al. Container localisation and mass estimation with an RGB-D camera
van Vuuren et al. Towards the autonomous robotic gripping and handling of novel objects
CN111275758A (en) Hybrid 3D visual positioning method and device, computer equipment and storage medium
KR20200063355A (en) Personalized arrangement robot and arrangement method using the same
Lin et al. Inference of 6-DOF robot grasps using point cloud data
Hasan et al. Model-free, vision-based object identification and contact force estimation with a hyper-adaptive robotic gripper
CN116529760A (en) Grabbing control method, grabbing control device, electronic equipment and storage medium
KR20230061612A (en) Object picking automation system using machine learning and method for controlling the same
CN114049318A (en) Multi-mode fusion feature-based grabbing pose detection method
Bergamini et al. Deep learning-based method for vision-guided robotic grasping of unknown objects
Liri et al. Real-time dynamic object recognition and grasp detection for robotic arm using streaming video: A design for visually impaired persons

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant