KR102181815B1 - Personalized arrangement robot and arrangement method using the same - Google Patents

Personalized arrangement robot and arrangement method using the same Download PDF

Info

Publication number
KR102181815B1
KR102181815B1 KR1020180146008A KR20180146008A KR102181815B1 KR 102181815 B1 KR102181815 B1 KR 102181815B1 KR 1020180146008 A KR1020180146008 A KR 1020180146008A KR 20180146008 A KR20180146008 A KR 20180146008A KR 102181815 B1 KR102181815 B1 KR 102181815B1
Authority
KR
South Korea
Prior art keywords
unit
predicted position
location map
image capturing
moving
Prior art date
Application number
KR1020180146008A
Other languages
Korean (ko)
Other versions
KR20200063355A (en
Inventor
김영욱
전세웅
김동엽
신동인
정병진
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020180146008A priority Critical patent/KR102181815B1/en
Priority to PCT/KR2018/015022 priority patent/WO2020105778A1/en
Publication of KR20200063355A publication Critical patent/KR20200063355A/en
Application granted granted Critical
Publication of KR102181815B1 publication Critical patent/KR102181815B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 개인성향을 파악하여 가사물을 정리정돈함으로써 물건정리에 대한 이질감을 줄이며, 사용자가 물건을 용이하게 찾을 수 있도록 도와주는 개인 맞춤형 정리로봇에 관한 것이다. 이를 위하여, 본 발명은, 물건을 촬영하는 영상촬영부; 상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부; 상기 물건을 이동시키기 위한 이동수행부; 상기 물건의 예측위치를 저장하는 물건위치맵부; 및 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되는 개인 맞춤형 정리로봇을 제공한다.
따라서, 본 발명에 의하면, 개인이 사용한 물건을 정리정돈 할 수 있는 정리로봇을 제공할 수 있으며, 개인의 성향을 파악하여 가장 선호하는 위치에 물건을 정리할 수 있는 이점이 있다.
The present invention relates to a personalized organizing robot that recognizes personal preferences and organizes household items, thereby reducing a sense of heterogeneity in organizing things, and helping users find things easily. To this end, the present invention, an image photographing unit for photographing an object; An object recognition unit for recognizing an object photographed through the image capturing unit; A moving unit for moving the object; An object location map unit for storing the predicted position of the object; And a control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit with the actual position of the object photographed by the image capturing unit.
Therefore, according to the present invention, it is possible to provide an organization robot that can organize items used by individuals, and there is an advantage in that items can be arranged in the most preferred location by grasping the personal tendency.

Description

개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법{Personalized arrangement robot and arrangement method using the same}Personalized arrangement robot and arrangement method using the same}

본 발명은 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법에 관한 것이며, 구체적으로 개인성향을 파악하여 가사물을 정리정돈함으로써 물건정리에 대한 이질감을 줄이며, 사용자가 물건을 용이하게 찾을 수 있도록 도와주는 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법에 관한 것이다.The present invention relates to a personalized organizing robot and a method for organizing objects using the same, and specifically, an individual who helps users to find things easily, reducing the sense of disparity in organizing things by identifying personal preferences and organizing household items. It relates to a customized organizing robot and an object organizing method using the same.

로봇기술이 발달하면서 산업용 로봇뿐만 아니라 점차 가정용 로봇도 많은 연구가 진행되고 있다. 특히, 가정용 로봇은 청소로봇이 가장 활발하게 상업화가 되어 있는 분야이다. 이러한 청소로봇은 실내 구조 파악을 위해 실내맵을 저장하고 있으며, 스스로 돌아다니면서 진공흡수기를 이용하여 먼지 등을 흡수하거나 바닥을 닦는 역할을 한다.With the development of robot technology, not only industrial robots but also home robots are increasingly being studied. In particular, household robots are a field in which cleaning robots are most actively commercialized. These cleaning robots store indoor maps to understand the structure of the room, and they move around themselves to absorb dust or wipe the floor using a vacuum absorber.

종래기술로서, 도 1에 나타낸 등록특허 제10-0877072호를 참조하면, 청소를 위한 이동로봇은, 이동로봇의 위치 인식을 위한 특징맵을 생성하는 특징뱁 생성부와, 상기 특징맵을 이용하여 얻어지는 이동로봇의 자세 정보를 바탕으로 복수의 셀을 포함하고 각각의 셀은 장애물 유무정보 및 경로정보를 갖는 경로맵을 생성하는 경로맵생성부와, 상기 장애물 유무정보 및 경로정보에 따라 상기 이동로봇을 이동시키는 이동제어부로 이루어진다.As a prior art, referring to Registration Patent No. 10-0877072 shown in FIG. 1, a mobile robot for cleaning includes a feature generation unit that generates a feature map for recognizing the location of the mobile robot, and the feature map. A path map generation unit that includes a plurality of cells based on the obtained attitude information of the mobile robot, and each cell generates a path map having obstacle presence information and path information, and the mobile robot according to the obstacle presence information and path information. It consists of a movement control unit that moves.

상기 특허에 의하면, 특징맵 및 경로맵을 이용하여 청소경로를 생성하므로 청소시간이 현저히 줄어드는 장점이 있다.According to the patent, since a cleaning path is generated using a feature map and a path map, there is an advantage in that cleaning time is significantly reduced.

하지만, 이러한 종래기술은 정해진 경로대로 바닥을 청소하는 역할에 그칠 뿐 개인의 성향에 따라 물건을 정리할 수 있는 방법이나 구성은 없다.However, such a prior art only serves to clean the floor according to a predetermined path, and there is no method or configuration for organizing objects according to personal preferences.

따라서, 정해진 루트가 아닌 개인의 성향을 파악하여 개인 물건들을 정리할 수 있는 로봇에 대한 연구가 필요한 실정이다.Therefore, there is a need for research on a robot that can organize personal items by grasping the propensity of an individual, not a fixed route.

본 발명은 상기한 문제점을 해결하기 위한 것이며, 개인성향을 스스로 학습하여 개인 물건을 선호하는 위치에 정리,정돈하기 위한 개인 맞춤형 정리로봇을 제공하는 것이 본 발명의 목적이다.The present invention is to solve the above problems, and it is an object of the present invention to provide a personalized organizing robot for organizing and arranging personal objects in a preferred position by self-learning personal preferences.

또한, 개인 물건의 위치파악을 함으로써 사용자가 물건을 찾을 때 도움을 줄 수 있는 정보를 제공하는 것이 본 발명의 또 다른 목적이다.In addition, it is another object of the present invention to provide information that can help a user when searching for an object by locating a personal object.

상기한 목적을 달성하기 위하여, 본 발명은, 물건을 촬영하는 영상촬영부; 상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부; 상기 물건을 이동시키기 위한 이동수행부; 상기 물건의 예측위치를 저장하는 물건위치맵부; 및 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되는 개인 맞춤형 정리로봇을 제공한다.In order to achieve the above object, the present invention, an image photographing unit for photographing an object; An object recognition unit for recognizing an object photographed through the image capturing unit; A moving unit for moving the object; An object location map unit for storing the predicted position of the object; And a control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit with the actual position of the object photographed by the image capturing unit.

상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것이 바람직하다.It is preferable that the object location map unit includes the position and recognition time of the object recognized through the object recognition unit as input data, and includes the predicted position or discarding status of each object as output data to perform machine learning.

상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대하여 상기 물건위치맵부를 참조하여 대응하는 예측위치의 유무를 판별하고, 예측위치가 존재하면 상기 예측위치와 실측위치 사이의 오차거리를 계산하여 상기 오차거리가 일정거리 이상인 경우 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것이 바람직하다.The control unit determines the presence or absence of a corresponding predicted position with respect to the object recognized by the object recognition unit by referring to the object location map unit, and if the predicted position exists, calculates an error distance between the predicted position and the measured position, and the When the error distance is more than a certain distance, it is preferable to control the moving unit to move the object to the predicted position.

상기 개인 맞춤형 정리로봇은 개인성향판단부를 더 포함하며, 상기 개인성향판단부는 상기 오차거리가 일정거리 이상인 이동횟수를 계산하여 상기 이동횟수가 일정횟수 이상이고, 상기 실측위치가 일정 범위 이내인 경우 상기 실측위치를 예측위치로 변경시킬 수 있다.The personalized organizing robot further includes a personal propensity determining unit, and the personal propensity determining unit calculates the number of movements in which the error distance is greater than or equal to a certain distance, and when the number of movements is greater than a certain number and the measured position is within a certain range, the The measured position can be changed to the predicted position.

상기 개인성향판단부는 상기 이동수행부에 의해 이동된 물건에 대한 피드백을 입력받아 상기 물건위치맵부를 업데이트할 수 있다.The personal preference determining unit may update the object location map unit by receiving feedback on the object moved by the moving unit.

상기 개인 맞춤형 정리로봇은 사용자에게 정보를 주기 위한 표시부를 더 포함하며, 제어부는 특정 물건의 위치정보를 요청받은 경우 상기 물건위치맵부를 검색하여 상기 표시부를 통해 상기 물건의 위치정보를 표시하여 주는 것이 바람직하다.The personalized organizing robot further includes a display unit for giving information to a user, and the control unit searches for the object location map unit when the position information of a specific object is requested and displays the position information of the object through the display unit. desirable.

상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 종류를 분류하고, 물건위치맵부는 상기 물건인식부에서 인식된 물건의 종류별로 예측위치를 저장하는 것이 바람직하다.It is preferable that the object recognition unit classifies the types of objects photographed by the image capturing unit, and the object location map unit stores predicted positions for each type of object recognized by the object recognition unit.

상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 촬영날짜를 저장하고, 상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대해 설정날짜와 촬영날짜를 비교하여 상기 촬영날짜가 설정날짜와 같거나 이후이면 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것이 바람직하다.The object recognition unit stores the photographing date of the object photographed by the image photographing unit, and the control unit compares the setting date and the photographing date with respect to the object recognized by the object recognition unit, and the photographing date is equal to or equal to the setting date. After that, it is preferable to control the moving part to move the object to the predicted position.

본 발명에 의하면, 또한, 영상촬영부에 의해 물건을 촬영하는 단계; 물건인식부에 의해 상기 영상촬영부를 통해 촬영된 물건을 인식하는 단계; 상기 물건의 예측위치를 물건위치맵부에 저장하는 단계; 및 제어부는 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 이동수행부를 제어하여 상기 물건을 이동시키는 단계를 수행하는 개인 맞춤형 정리로봇에 의한 물건정리방법을 제공한다.According to the present invention, further, the step of photographing an object by an image photographing unit; Recognizing an object photographed through the image capturing unit by an object recognition unit; Storing the predicted position of the object in an object location map unit; And the control unit compares the predicted position by the object location map unit with the measured position of the object photographed by the image capturing unit, and controls the moving unit to move the object. Provides.

상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것이 바람직하다.It is preferable that the object location map unit includes the position and recognition time of the object recognized through the object recognition unit as input data, and includes the predicted position or discarding status of each object as output data to perform machine learning.

본 발명에 의하면, 개인이 사용한 물건을 정리정돈 할 수 있는 정리로봇을 제공할 수 있으며, 개인의 성향을 파악하여 가장 선호하는 위치에 물건을 정리할 수 있는 이점이 있다.According to the present invention, it is possible to provide an organization robot capable of organizing items used by an individual, and there is an advantage in that items can be arranged in a most preferred location by grasping an individual's tendency.

또한, 본 발명에 의하면, 효율적으로 물건을 정리할 수 있으며, 사용자가 특정 물건을 찾을 경우 해당 물건에 대한 정보를 표시하여 줌으로써 편리하게 이용할 수 있는 이점이 있다.In addition, according to the present invention, it is possible to organize things efficiently, and when a user finds a specific object, it is advantageous in that it can be conveniently used by displaying information on the object.

도 1은 종래기술에 의한 청소로봇의 구성을 나타내는 구성도;
도 2는 본 발명에 의한 개인 맞춤형 정리로봇의 구성을 나타내는 구성도;
도 3은 도 2에서 물건인식부의 구성을 나타내는 구성도;
도 4는 본 발명에 의한 개인 맞춤형 정리로봇의 예를 나타내는 예시도;
도 5는 본 발명에 의한 물건위치맵부의 학습방법을 나타내는 예시도;
도 6은 본 발명에 의한 개인 맞춤형 정리로봇의 정리방법을 나타내는 설명도.
1 is a configuration diagram showing the configuration of a cleaning robot according to the prior art;
Figure 2 is a configuration diagram showing the configuration of a personalized organizing robot according to the present invention;
3 is a block diagram showing the configuration of an object recognition unit in FIG. 2;
4 is an exemplary view showing an example of a personalized organizing robot according to the present invention;
5 is an exemplary view showing a learning method of an object location map unit according to the present invention;
6 is an explanatory diagram showing a method of arranging a personalized organization robot according to the present invention.

본 발명의 실시예의 구성 및 작용에 대하여 첨부한 도면을 참조하여 상세하게 설명한다.The configuration and operation of the embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2 및 도 6을 참조하면, 본 발명에 의한 개인 맞춤형 정리로봇은 영상촬영부(110), 물건인식부(120), 이동수행부(130), 물건위치맵부(140), 개인성향판단부(150), 제어부(160), 통신부(170), 주행부(180)를 포함하여 구성된다.2 and 6, the personalized organizing robot according to the present invention includes an image capturing unit 110, an object recognition unit 120, a movement performing unit 130, an object location map unit 140, and a personal preference determination unit. 150, the control unit 160, the communication unit 170, it is configured to include a driving unit 180.

상기 영상촬영부(110)는 전방의 영상을 촬영할 수 있는 하나 이상의 센서들을 포함하여 구성될 수 있으며, RGB카메라, RGBD카메라, 라이다(Lidar), 적외선 스캐너, 초음파센서, LRF센서 등을 포함할 수 있다.The image capturing unit 110 may be configured to include one or more sensors capable of capturing a front image, and may include an RGB camera, an RGBD camera, a lidar, an infrared scanner, an ultrasonic sensor, an LRF sensor, and the like. I can.

상기 물건인식부(120)는 영상촬영부(110)에서 촬영된 영상을 이용하여 영상에 포함된 물건을 인식하여 레이블을 생성한다.The object recognition unit 120 generates a label by recognizing an object included in the image using an image captured by the image capturing unit 110.

구체적으로, 도 3을 참조하면, 물건인식부(120)는 영상수신부(121), 특징점추출부(122), 윤곽선추출부(123), 레이블매칭부(124)를 포함한다.Specifically, referring to FIG. 3, the object recognition unit 120 includes an image receiving unit 121, a feature point extracting unit 122, an outline extracting unit 123, and a label matching unit 124.

영상수신부(121)는 영상촬영부(110)에서 촬영된 영상을 수신할 수도 있고, 통신부(160)를 통해 외부에서 촬영된 영상을 수신받을 수도 있다. 상기 영상수신부(121)를 통해 수신된 영상은 특징점추출부(122)에서 특징점들이 추출된다. 상기 특징점들은 픽셀(색상 또는 명암)의 변화가 큰 점들이 될 수 있으며, 예를 들어, 물건의 모서리나 꼭지점 등이 될 수 있다.The image receiving unit 121 may receive an image photographed by the image capturing unit 110 or may receive an externally photographed image through the communication unit 160. In the image received through the image receiving unit 121, feature points are extracted from the feature point extracting unit 122. The feature points may be points having a large change in pixel (color or brightness), and may be, for example, corners or vertices of an object.

또한, 윤곽선추출부(123)에서는 촬영된 물건의 외형을 추출하는 역할을 한다. 윤곽선을 추출하는 방법으로 세그멘테이션(segmentation) 기법이 이용될 수 있다.In addition, the outline extracting unit 123 serves to extract the appearance of the photographed object. A segmentation technique may be used as a method of extracting the contour.

윤곽선추출부(123)에 의해 분리된 물건의 영상정보는 레이블매칭부(124)에 의해 분류되어 레이블이 생성된다.The image information of the object separated by the contour extraction unit 123 is classified by the label matching unit 124 to generate a label.

상기 레이블매칭부(124)는 입력층, 은닉층, 출력층을 포함한 딥러닝과 같은 인공지능 신경망으로 구성될 수 있으며, 학습된 데이터를 이용하여 은닉층에 가중치정보가 저장되어 있다.The label matching unit 124 may be composed of an artificial intelligence neural network such as deep learning including an input layer, a hidden layer, and an output layer, and weight information is stored in the hidden layer using the learned data.

상기 물건인식부는 이러한 방법으로 영상촬영부에 의해 촬영된 물건의 종류를 분류할 수 있으며, 영상촬영부에 의해 촬영된 물건의 촬영날짜를 저장할 수 있다.The object recognition unit can classify the types of objects photographed by the image photographing unit in this way, and store the photographing date of the object photographed by the image photographing unit.

상기 이동수행부(130)는 도 4와 같이 본체 전방에 형성되어 영상촬영부(110)로부터 촬영된 물건을 파지하는 역할을 하며, 소프트 그리퍼(soft gripper)로 구비되는 것이 바람직하다. 즉, 상기 이동수행부(130)는 제어부의 제어 하에 영상촬영부(110)로부터 촬영된 물건이 파지 가능한 경우, 물건을 파지하고 주행부(180)에 의해 특정 장소로 이동 후 물건의 파지를 해제할 수 있다. The movement performing unit 130 is formed in front of the main body as shown in FIG. 4 and serves to grip an object photographed from the image capturing unit 110, and is preferably provided with a soft gripper. That is, when the object photographed from the image capturing unit 110 can be grasped under the control of the control unit, the movement performing unit 130 holds the object and releases the gripping of the object after moving to a specific place by the driving unit 180. can do.

상기 이동수행부(130)는 설계조건에 따라 다섯 손가락을 흉내낸 로봇손, 진공흡착을 할 수 있는 흡착기, 두 방향으로 구비되어 물건을 집을 수 있는 로봇집게 등 여러가지 형태로 구비될 수도 있다.The movement performing unit 130 may be provided in various forms, such as a robot hand imitating five fingers, an absorber capable of vacuum adsorption, and robot tongs provided in two directions to pick up objects according to design conditions.

제어부는 영상촬영부로부터 촬영된 물건의 이미지를 통해 파지 가능여부를 판단할 수 있다. 즉, 제어부는 영상촬영부로부터 촬영된 물건의 이미지를 자체적으로 저장부에 저장된 물건의 종류에 대한 데이터베이스와 각 물건의 이미지 정보를 매칭시켜 촬영된 물건의 종류를 분류하고, 분류된 물건의 무게 또는 형상에 따라 이동수행부를 통해 파지가능 여부를 판단한다.The control unit may determine whether gripping is possible through the image of the object captured by the image capturing unit. That is, the control unit classifies the type of the object by matching the image of the object captured by the image capturing unit with the image information of each object with a database of the object type stored in the storage unit, and classifies the weight of the object or According to the shape, it is determined whether the grip is possible through the moving part.

또한, 제어부는 이동수행부에 의해 파지 가능하다고 판단한 경우, 해당 물건을 학습할 수 있다. 여기서 제어부는 GAN 기반의 피킹학습정책 네트워크를 통해 해당 물건을 학습할 수 있다. 예를 들어, 제어부는 생성자(Generator)를 통해 실제 파지할 물건에 대하여 학습하고 이를 바탕으로 거짓 데이터를 생성한다. 그리고, 제어부에서는 감별자(Discriminor)를 통해 생성자가 내놓은 데이터가 실제인지 거짓인지 판별할 수 있도록 학습을 수행한다. 이와 같이 제어부는 대량의 데이터를 정제과정없이 처리할 수 있으며, 스스로 학습함으로써 학습데이터 확보가 쉽지 않은 문제점을 해결할 수 있다.In addition, the control unit can learn the object when it is determined that it can be gripped by the moving unit. Here, the controller can learn the object through the GAN-based picking learning policy network. For example, the control unit learns about an object to be actually gripped through a generator and generates false data based on this. In addition, the control unit performs learning to determine whether the data provided by the creator is real or false through a discriminor. In this way, the controller can process a large amount of data without a purification process, and by learning by itself, it is possible to solve the problem that it is difficult to secure learning data.

본 발명은 관리서버를 따로 두고 상기 관리서버에 데이터베이스를 구축하여 둠으로써 방대한 데이터를 관리할 수 있다. 즉, 관리서버에서는 개인 맞춤형 정리로봇으로부터 전방에 감지된 물건에 대한 이미지를 수신하거나, 서버 제어부에 의해 결정된 물건의 종류나 물건의 종류에 따른 무게 또는 형상을 다시 개인 맞춤형 정리로봇으로 송신하거나, 파지 가능여부에 대한 데이터를 송신할 수 있다.According to the present invention, a large amount of data can be managed by setting a management server separately and establishing a database on the management server. In other words, the management server receives the image of the object detected in front from the personalized organizing robot, or transmits or grips the object type determined by the server control unit or the weight or shape according to the object type back to the personalized organizing robot. You can send data about the availability.

또한, 서버 제어부에서는 개인 맞춤형 정리로봇으로부터 수신한 물건의 이미지를 데이터베이스에 저장된 이미지 정보와 매칭시켜 이미지에 포함된 물건의 종류를 파악할 수 있다.In addition, the server controller may identify the type of the object included in the image by matching the image of the object received from the personalized organizing robot with image information stored in the database.

상기 물건위치맵부(140)는 사용자 물건의 예측위치를 저장하며, 업데이트하는 역할을 한다. 상기 예측위치는 각 물건에 대해 사용자가 선호하는 위치일 수 있으며, 물건이 위치해야 할 장소를 실내의 정해진 위치에 대응시켜 놓은 데이터로 볼 수 있다. 특히, 물건위치맵부(140)는 물건인식부에서 인식된 물건의 종류별로 예측위치를 저장할 수 있다.The object location map unit 140 serves to store and update the predicted location of the user object. The predicted position may be a user's preferred position for each object, and may be viewed as data obtained by matching a place where the object should be located to a predetermined indoor location. In particular, the object location map unit 140 may store the predicted position for each type of object recognized by the object recognition unit.

상기 물건위치맵부(140)는 실내구조를 포함하는 실내맵을 저장하며, 또한, 도 5와 같은 인공신경망 또는 딥러닝 등의 기계학습에 의해 물건의 위치와 포즈등을 학습하여 각 물건의 예측위치정보를 저장하게 된다. 예를 들어, 사물인식부에서 컵을 인식한 경우 상기 컵의 예측위치는 부엌으로 저장될 수 있으며, 옷을 인식한 경우 상기 옷의 예측위치는 세탁실 등으로 저장될 수 있다.The object location map unit 140 stores an indoor map including an indoor structure, and also learns the position and pose of the object through machine learning such as an artificial neural network or deep learning as shown in FIG. 5 to predict the position of each object. It will store the information. For example, when the object recognition unit recognizes the cup, the predicted position of the cup may be stored in the kitchen, and when the clothes are recognized, the predicted position of the clothes may be stored in a laundry room or the like.

상기 실내맵은 방, 거실, 부엌, 화장실의 위치 및 구조정보 등이 저장될 수 있으며, 미리 만들어진 지도정보가 저장되거나 주행부를 통해 획득한 영상정보를 기초로 하여 실내맵을 생성할 수도 있다. 또한, 물건의 예측위치는 실내맵을 기초로 하여 각 물건에 2차원 또는 3차원 좌표를 대응시키거나 방,부엌,화장실 등 기능적인 구획공간에 대응시킬 수도 있다.The indoor map may store location and structure information of a room, living room, kitchen, and toilet, and may store pre-made map information or generate an indoor map based on image information acquired through a driving unit. In addition, the predicted position of an object may correspond to a two-dimensional or three-dimensional coordinate to each object based on an indoor map, or to a functional partition space such as a room, a kitchen, and a toilet.

예측위치를 학습할 때, 입력층에는 영상촬영부(110)를 통해 획득한 물건의 위치 및 인식시간이 입력데이터로 포함될 수 있으며, 출력층에는 각 물건의 예측위치 또는 버림여부가 출력데이터로 포함될 수 있다.When learning the predicted position, the input layer may include the location and recognition time of the object acquired through the image capturing unit 110 as input data, and the output layer may include the predicted position or discarding of each object as output data. have.

예를 들어, 영상촬영부를 통해 병을 인식하였다고 할 때, 상기 병의 색상을 분석하여 내용물의 부피가 추정되고, 내용물의 부피가 일정부피 이하라고 판단되면 버리는 것으로 판단할 수 있다. 또한, 쿠키상자의 경우 영상촬영부를 통해 인식된 상자가 열려 있는 경우 쿠키가 있는 지 없는 지를 판단하여 쿠기가 없는 경우 버리는 것으로 판단할 수 있다.For example, when a bottle is recognized through an imaging unit, the volume of the contents is estimated by analyzing the color of the bottle, and if the volume of the contents is determined to be less than a certain volume, it may be determined to be discarded. In addition, in the case of a cookie box, if the box recognized through the image capturing unit is open, it may be determined whether there is a cookie, and if there is no cookie, it may be determined to be discarded.

상기한 바와 같이 버림으로 판단된 물건의 경우 예측위치는 휴지통으로 저장되어 이동수행부는 상기 물건을 파지하여 휴지통으로 이동시킬 수 있다.As described above, in the case of an object determined to be discarded, the predicted position is stored in the trash, so that the moving unit can grasp the object and move it to the trash.

또한, 동일한 물건이라도 물건인식부(120)에서 인식한 물건의 상태에 따라 예측위치가 달라질 수 있다. 예를 들어, 물건인식부에서 물건이 콜라병으로 인식되었을 때, 콜라병에 콜라가 가득 찬 것으로 인식된 경우 예측위치는 냉장고가 될 수 있으며, 콜라병에 콜라가 비어있는 것으로 인식된 경우 버림으로 판단한다.In addition, even for the same object, the predicted position may vary according to the state of the object recognized by the object recognition unit 120. For example, when an object is recognized as a coke bottle by the object recognition department, if it is recognized that the coke bottle is full of coke, the predicted position may be a refrigerator, and if the coke bottle is recognized as empty, it is discarded. Judge.

상기 주행부(180)는 본체를 이동시키기 위한 구성으로, 본체의 하부에 설치되는 바퀴 및 상기 바퀴를 구동시키기 위한 모터로 구성되거나 걸을 수 있는 다리로 구성될 수 있다.The driving unit 180 is configured to move the main body, and may be composed of a wheel installed under the main body and a motor for driving the wheel, or may be composed of a leg capable of walking.

상기 본체에는 영상촬영부, 물건인식부, 이동수행부 등의 장치나 소프트웨어가 탑재되며, 상기 본체는 어느 정도 높이에 있는 실내의 물건을 인식하고 이동시키기 위하여 높이 조절이 가능하거나 일정 높이를 유지하도록 구성되는 것이 바람직하다.The main body is equipped with devices or software such as an image capturing unit, object recognition unit, and moving unit, and the main body is capable of adjusting height or maintaining a certain height in order to recognize and move indoor objects at a certain height. It is desirable to be configured.

또한, 상기 본체에 구비되는 통신부(170)는 블루투스, 와이파이, LTE와 같은 무선통신을 수행할 수 있도록 구비되며, 통신망을 통해 관리서버와 통신을 수행할 수 있다. 특히, 상기 통신부(170)는 영상촬영부(110)에 의해 촬영된 전방의 물건의 이미지를 관리서버로 전송하거나, 관리서버로부터 전송한 이미지에 대응되는 물건의 종류 또는 물건의 파지 가능여부에 대한 데이터를 수신할 수 있다.In addition, the communication unit 170 provided in the main body is provided to perform wireless communication such as Bluetooth, Wi-Fi, and LTE, and may communicate with a management server through a communication network. In particular, the communication unit 170 transmits the image of the object in front photographed by the image capturing unit 110 to the management server, or the type of object corresponding to the image transmitted from the management server or whether or not the object can be gripped. Data can be received.

그리고, 상기 본체에는 입력부(190) 및 표시부(195)가 구비될 수 있다. 상기 입력부(190)는 하나 이상의 버튼을 포함할 수 있다. 예를 들어, 입력부(190)는 예측위치, 영상정보, 물건위치 등을 확인하는 명령을 입력하거나 상기 명령을 재설정하는 버튼, 삭제버튼, 정리시작버튼, 정지버튼 등을 구비할 수 있다. 또한, 입력부(190)는 예약정보를 설정하거나 삭제하기 위한 버튼을 구비할 수도 있다. 이러한 입력부(190)는 사용자의 터치 또는 조작에 따른 입력신호를 발생하는 키패드와 터치패드 중 적어도 하나를 포함하여 구성될 수 있다. 이때, 입력부는 표시부와 함께 하나의 터치패널의 형태로 구성되어 입력과 표시 기능을 동시에 수행할 수 있다.In addition, an input unit 190 and a display unit 195 may be provided in the main body. The input unit 190 may include one or more buttons. For example, the input unit 190 may include a button for inputting a command for confirming a predicted location, image information, an object location, or the like, or a button for resetting the command, a delete button, a cleanup start button, a stop button, and the like. In addition, the input unit 190 may include a button for setting or deleting reservation information. The input unit 190 may include at least one of a keypad and a touch pad that generate an input signal according to a user's touch or manipulation. In this case, the input unit is configured in the form of a single touch panel together with the display unit to perform input and display functions at the same time.

표시부(195)는 예약정보, 배터리 상태, 정리방식, 주행방식, 예측위치, 물건위치 등을 화면에 표시하여 준다. 상기 표시부는 본체의 각 유닛들의 현재상태와 정리상태 등을 출력할 수 있다. The display unit 195 displays reservation information, battery status, arrangement method, driving method, predicted position, and object position on the screen. The display unit may output a current state and an organized state of each unit of the main body.

제어부(160)는 본체의 각 구성 유닛들의 동작을 제어하는 역할을 한다. 또한, 주행부를 통해 본체가 실내공간을 돌아다니며 주기적으로 또는 설정된 시간에 맞추어 실내의 물건들을 스캔하도록 한다. The controller 160 serves to control the operation of each component unit of the main body. In addition, the main body moves around the indoor space through the driving unit and scans indoor objects periodically or at a set time.

제어부(160)는 영상촬영부를 통해 촬영된 영상을 기초로 하여 물건인식부에서 촬영된 영상을 분석하여 물건을 인식하고, 물건위치맵부를 참조하여 인식된 물건에 대하여 대응하는 예측위치가 있는지 판별한다. The controller 160 recognizes the object by analyzing the image captured by the object recognition unit based on the image captured through the image capture unit, and determines whether there is a predicted position corresponding to the recognized object by referring to the object location map unit. .

이때, 인식된 물건에 대응하는 예측위치가 있는 경우 상기 예측위치와 영상촬영부를 통해 촬영된 실측위치의 사이의 오차거리를 계산한다. 상기 오차거리는 실내맵을 참조하여 직선거리로 계산될 수 있으나, 이에 한정되지는 않고 상황에 맞는 방식으로 계산될 수 있다. 예를 들어, 실내의 벽이나 문을 고려한 최단거리, 좌표의 거리가 아닌 방, 부엌, 화장실과 같은 기능적인 구획공간 사이의 거리 등으로 계산될 수 있다. 상기 기능적인 구획공간은 방 내에서도 침대, 책상, 의자 등의 기능적인 사물별로 나뉠 수 있다. 만약, 인식된 물건의 예측위치와 실측위치가 동일하다면 오차거리는 0으로 계산된다.At this time, when there is a predicted position corresponding to the recognized object, an error distance between the predicted position and the measured position photographed through the image capturing unit is calculated. The error distance may be calculated as a straight line distance with reference to the indoor map, but is not limited thereto and may be calculated in a manner suitable for a situation. For example, it can be calculated as the shortest distance taking into account an indoor wall or door, not the distance of coordinates, but the distance between functional compartments such as rooms, kitchens, and toilets. The functional partition space can be divided into functional objects such as a bed, a desk, and a chair even within a room. If the predicted position and the measured position of the recognized object are the same, the error distance is calculated as 0.

제어부에서는 각 물건마다 위와 같은 방법으로 오차거리를 계산하여 저장부에 저장하며, 오차거리가 일정거리 이상인 경우 이동수행부를 제어하여 상기 물건을 파지한 후, 상기 물건을 예측위치로 이동시킬 수 있다.The control unit calculates the error distance for each object and stores it in the storage unit in the same manner as described above. If the error distance is greater than a certain distance, the moving unit can control the object to hold the object and then move the object to the predicted position.

이때, 오차거리는 일반적인 거리개념과는 다를 수 있다. 예를 들어, 동일한 방에서 침대 옆에 책상이 있는 경우 자로 잰 실측거리는 짧은 거리이더라도 오차거리는 기능적인 구획공간이 달라지면 매우 큰 거리로 저장될 수 있다. 즉, 오차거리는 자로 잰 실측거리에 기능적인 구획공간의 가중치를 곱하여 계산될 수 있다. 기능적인 구획공간이 달라지면 가중치가 커지도록 설정된다. 즉, 예측위치와 실측위치의 기능적인 구획공간이 달라지면 가중치는 1보다 큰 값이 곱해지고, 예측위치와 실측위치의 기능적인 구획공간이 동일하면 가중치는 1보다 작은 값이 곱해질 수 있다.At this time, the error distance may be different from the general distance concept. For example, if there is a desk next to a bed in the same room, even if the measured distance measured by a ruler is a short distance, the error distance may be stored as a very large distance if the functional partition space is changed. That is, the error distance can be calculated by multiplying the weight of the functional partition space by the measured distance measured with a ruler. When the functional partition space changes, the weight is set to increase. That is, if the functional partition space of the predicted position and the measured position is different, the weight may be multiplied by a value greater than 1, and if the functional partition space of the predicted position and the measured position are the same, the weight may be multiplied by a value less than 1.

상기 제어부에서는 전체 실내 스캔을 마치면 오차거리가 가장 큰 물건순으로 정렬한 후 가장 오차거리가 큰 물건부터 정리를 시작할 수 있다.When the entire indoor scan is finished, the control unit sorts the objects with the largest error distances, and then can start organizing the objects with the largest error distance.

한편, 인식된 물건에 따라 설정날짜 또는 설정횟수가 저장될 수 있다. 상기 설정날짜 또는 설정횟수는 해당 물건에 대해 어떠한 조치를 취해야 하는 날짜 또는 횟수이다. 예를 들어, 특정 외투가 인식되었을 때 제어부에서는 설정날짜와 물건인식부에서 인식된 촬영날짜를 비교하여 촬영날짜가 설정날짜와 같거나 이후이면 설정된 동작을 수행할 수 있다. 상기 설정된 동작은 이동수행부를 이용하여 세탁실로 이동시키는 등의 동작이 될 수 있다. 또한, 물건인식부를 통해 특정 음식물이 인식되었을 때, 설정날짜가 되면 상기 음식물을 이동수행부를 통해 휴지통으로 이동시키는 동작을 수행할 수도 있다.On the other hand, the setting date or the setting number of times may be stored according to the recognized object. The setting date or number of times of setting is the date or number of times to take some action on the object. For example, when a specific coat is recognized, the controller may compare a set date with a shooting date recognized by the object recognition unit and perform a set operation if the shooting date is the same as or after the set date. The set operation may be an operation such as moving to the laundry room using the moving unit. In addition, when a specific food item is recognized through the object recognition unit, when a set date is reached, an operation of moving the food item to the trash bin through the moving unit may be performed.

상기 설정횟수는 물건인식부에 의해 인식된 횟수를 나타낸다. 이때, 설정횟수는 촬영날짜가 바뀌어야 설정횟수가 증가하도록 하는 것이 바람직하다.The number of settings indicates the number of times recognized by the object recognition unit. In this case, it is preferable to increase the number of settings when the shooting date is changed.

상기 설정날짜 또는 설정횟수는 사용자에 의해 입력을 받을 수도 있고 자동으로 설정될 수도 있다. 예를 들어, 인식된 물건이 특정 셔츠인 경우 설정횟수가 자동으로 정해지며 상기 셔츠가 인식된 횟수가 설정횟수에 다다르면 제어부는 이동수행부를 이용하여 상기 셔츠를 세탁실로 이동시킨다.The set date or set number may be input by a user or may be set automatically. For example, when the recognized object is a specific shirt, the number of settings is automatically determined, and when the number of times the shirt is recognized reaches the number of settings, the control unit moves the shirt to the laundry room using the movement unit.

상기 개인성향판단부(150)는 일반적인 환경과 달리 가사물에 대해 개인성향을 반영하여 정돈을 하기 위한 것으로서, 영상촬영부에 의해 촬영된 영상을 분석하여 각 물건에 대하여 오차거리가 일정거리 이상인 횟수, 즉 일정 기간동안 이동횟수를 계산하여 상기 이동횟수가 일정횟수 이상이고, 실측위치가 실측오차범위 이내인 경우 제어부를 통해 물건위치맵부에서 상기 실측위치를 예측위치로 변경시킨다.The personal propensity determination unit 150 reflects personal propensity for household objects, unlike a general environment, and analyzes the image captured by the image capturing unit to determine the number of times the error distance for each object is more than a certain distance. That is, when the number of movements is calculated for a certain period of time and the number of movements is greater than or equal to a certain number of movements, and the measured position is within the measured error range, the measured position is changed to the predicted position in the object location map unit through the control unit.

상기 실측오차범위는 저장된 최종실측위치로부터 일정 거리 이내의 범위를 의미할 수 있으며, 이때에도 오차거리와 마찬가지로 기능적인 구획공간에 따라 가중치가 곱해질 수 있다. 즉, 최종실측위치와 현재실측위치가 동일한 기능적인 구획공간인 경우 가중치는 1보다 작게 되고, 최종실측위치와 현재실측위치가 동일한 기능적인 구획공간인 경우 가중치는 1보다 크게 될 수 있다.The measured error range may mean a range within a certain distance from the stored final measured position, and also in this case, the weight may be multiplied according to a functional partition space like the error distance. That is, if the final measured position and the current measured position are the same functional partition space, the weight may be less than 1, and if the final measured position and the current measured position are the same functional partition space, the weight may be greater than 1.

개인성향판단부(150)는 외부 단말기를 통해서도 개인의 선호위치를 입력받을 수 있다. 예를 들어, 스마트폰과 같은 단말기를 통해 특정 물건의 선호위치를 입력받을 수 있으며, 이때, 개인성향판단부는 외부 단말기를 통해 입력받은 선호위치를 해당 물건의 예측위치로 변경시킨다.The personal preference determination unit 150 may also receive a personal preference location through an external terminal. For example, a preferred location of a specific object may be input through a terminal such as a smartphone, and in this case, the personal preference determination unit changes the preferred location received through the external terminal into the predicted location of the corresponding object.

또한, 상기 개인성향판단부(150)는 이동수행부(130)에 의해 이동된 물건에 대한 피드백을 입력받아 기계학습의 입력데이터로 활용함으로써 물건위치맵부를 업데이트할 수 있다. 이때, 기계학습은 GAN(Generative Adversarial Networks)기반 인공지능학습을 이용하는 것이 바람직하다.In addition, the personal preference determination unit 150 may update the object location map unit by receiving feedback on the object moved by the movement performing unit 130 and using it as input data for machine learning. In this case, it is preferable to use artificial intelligence learning based on Generative Adversarial Networks (GAN) for machine learning.

한편, 상기 표시부(195)는 사용자에게 각종 정보를 표시하여 주는데, 제어부는 입력부(190)나 외부 단말기를 통해 입력받은 요청에 대해 상기 표시부를 통해 대응하는 정보를 표시하여 줄 수 있다. Meanwhile, the display unit 195 displays various types of information to the user, and the controller may display corresponding information through the display unit in response to a request received through the input unit 190 or an external terminal.

상기 물건위치맵부(140)에서는 스캔한 물건 또는 이동수행부를 통해 이동시킨 물건의 최종위치를 저장하고 있다. 이때, 특정 물건의 위치정보를 요청받은 경우 제어부에서는 물건위치맵부를 검색하여 표시부를 통해 상기 물건의 위치정보를 표시하여 줄 수 있다.The object location map unit 140 stores the final position of the scanned object or the object moved through the movement performing unit. In this case, when a request for location information of a specific object is received, the control unit may search the object location map unit and display the location information of the object through the display unit.

상기에서는 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments of the present invention, those of ordinary skill in the art can variously modify and modify the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. You will understand that you can change it.

110 : 영상촬영부 120 : 물건인식부
130 : 이동수행부 140 : 물건위치맵부
150 : 개인성향판단부 160 : 제어부
170 : 통신부 180 : 주행부
190 : 입력부 195 : 표시부
110: imaging unit 120: object recognition unit
130: movement performing unit 140: object location map unit
150: personal preference determination unit 160: control unit
170: communication unit 180: driving unit
190: input unit 195: display unit

Claims (10)

삭제delete 물건을 촬영하는 영상촬영부;
상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
상기 물건을 이동시키기 위한 이동수행부;
상기 물건의 예측위치를 저장하는 물건위치맵부; 및
상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되며,
상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것을 특징으로 하는 개인 맞춤형 정리로봇.
An image photographing unit for photographing objects;
An object recognition unit for recognizing an object photographed through the image capturing unit;
A moving unit for moving the object;
An object location map unit for storing the predicted position of the object; And
And a control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit and the actual measured position of the object photographed by the image capturing unit,
The object location map unit includes the position and recognition time of the object recognized through the object recognition unit as input data, and includes the predicted position or discarding of each object as output data to perform machine learning. robot.
물건을 촬영하는 영상촬영부;
상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
상기 물건을 이동시키기 위한 이동수행부;
상기 물건의 예측위치를 저장하는 물건위치맵부; 및
상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되며,
상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대하여 상기 물건위치맵부를 참조하여 대응하는 예측위치의 유무를 판별하고, 예측위치가 존재하면 상기 예측위치와 실측위치 사이의 오차거리를 계산하여 상기 오차거리가 일정거리 이상인 경우 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것을 특징으로 하는 개인 맞춤형 정리로봇.
An image photographing unit for photographing objects;
An object recognition unit for recognizing an object photographed through the image capturing unit;
A moving unit for moving the object;
An object location map unit for storing the predicted position of the object; And
And a control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit and the actual measured position of the object photographed by the image capturing unit,
The control unit determines the presence or absence of a corresponding predicted position with respect to the object recognized by the object recognition unit by referring to the object location map unit, and if the predicted position exists, calculates an error distance between the predicted position and the measured position, and the Personally customized organizing robot, characterized in that when the error distance is more than a certain distance, the object is moved to a predicted position by controlling a moving unit.
제3항에 있어서,
상기 개인 맞춤형 정리로봇은 개인성향판단부를 더 포함하며,
상기 개인성향판단부는 상기 오차거리가 일정거리 이상인 이동횟수를 계산하여 상기 이동횟수가 일정횟수 이상이고, 상기 실측위치가 일정 범위 이내인 경우 상기 실측위치를 예측위치로 변경시키는 것을 특징으로 하는 개인 맞춤형 정리로봇.
The method of claim 3,
The personalized organizing robot further includes a personal preference determination unit,
The personal preference determining unit calculates the number of movements in which the error distance is more than a certain distance, and changes the measured position to a predicted position when the number of movements is more than a certain number and the measured position is within a certain range. Organizing robot.
제4항에 있어서,
상기 개인성향판단부는 상기 이동수행부에 의해 이동된 물건에 대한 피드백을 입력받아 상기 물건위치맵부를 업데이트하는 것을 특징으로 하는 개인 맞춤형 정리로봇.

The method of claim 4,
And the personal preference determining unit receives feedback on the moved object by the moving unit and updates the object location map unit.

물건을 촬영하는 영상촬영부;
상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
상기 물건을 이동시키기 위한 이동수행부;
상기 물건의 예측위치를 저장하는 물건위치맵부; 및
상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부;
사용자에게 정보를 주기 위한 표시부를 포함하여 구성되며,
제어부는 특정 물건의 위치정보를 요청받은 경우 상기 물건위치맵부를 검색하여 상기 표시부를 통해 상기 물건의 위치정보를 표시하여 주는 것을 특징으로 하는 개인 맞춤형 정리로봇.
An image photographing unit for photographing objects;
An object recognition unit for recognizing an object photographed through the image capturing unit;
A moving unit for moving the object;
An object location map unit for storing the predicted position of the object; And
A control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit and the actual measured position of the object photographed by the image capturing unit;
It includes a display to give information to the user,
When a request for location information of a specific object is received, the control unit searches the object location map unit and displays the location information of the object through the display unit.
물건을 촬영하는 영상촬영부;
상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
상기 물건을 이동시키기 위한 이동수행부;
상기 물건의 예측위치를 저장하는 물건위치맵부; 및
상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되며,
상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 종류를 분류하고,
물건위치맵부는 상기 물건인식부에서 인식된 물건의 종류별로 예측위치를 저장하는 것을 특징으로 하는 개인 맞춤형 정리로봇.
An image photographing unit for photographing objects;
An object recognition unit for recognizing an object photographed through the image capturing unit;
A moving unit for moving the object;
An object location map unit for storing the predicted position of the object; And
And a control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit and the actual measured position of the object photographed by the image capturing unit,
The object recognition unit classifies the type of object photographed by the image capturing unit,
The object location map unit, the personalized organizing robot, characterized in that to store the predicted position for each type of object recognized by the object recognition unit.
제3항에 있어서,
상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 촬영날짜를 저장하고, 상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대해 설정날짜와 촬영날짜를 비교하여 상기 촬영날짜가 설정날짜와 같거나 이후이면 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것을 특징으로 하는 개인 맞춤형 정리로봇.
The method of claim 3,
The object recognition unit stores the photographing date of the object photographed by the image photographing unit, and the control unit compares the setting date and the photographing date with respect to the object recognized by the object recognition unit, and the photographing date is equal to or equal to the setting date. Then, by controlling the movement performing unit to move the object to the predicted position personalized personalized organizing robot.
삭제delete 영상촬영부에 의해 물건을 촬영하는 단계;
물건인식부에 의해 상기 영상촬영부를 통해 촬영된 물건을 인식하는 단계;
상기 물건의 예측위치를 물건위치맵부에 저장하는 단계; 및
제어부는 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 이동수행부를 제어하여 상기 물건을 이동시키는 단계를 수행하며,
상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것을 특징으로 하는 개인 맞춤형 정리로봇에 의한 물건정리방법.
Photographing an object by an image capturing unit;
Recognizing an object photographed through the image capturing unit by an object recognition unit;
Storing the predicted position of the object in an object location map unit; And
The control unit performs the step of moving the object by comparing the predicted position by the object location map unit and the actual measured position of the object photographed by the image capturing unit, and controlling the moving unit,
The object location map unit includes the position and recognition time of the object recognized through the object recognition unit as input data, and includes the predicted position or discarding of each object as output data to perform machine learning. How to organize things by robots.
KR1020180146008A 2018-11-23 2018-11-23 Personalized arrangement robot and arrangement method using the same KR102181815B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180146008A KR102181815B1 (en) 2018-11-23 2018-11-23 Personalized arrangement robot and arrangement method using the same
PCT/KR2018/015022 WO2020105778A1 (en) 2018-11-23 2018-11-30 Personalized organizing robot and object organizing method using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180146008A KR102181815B1 (en) 2018-11-23 2018-11-23 Personalized arrangement robot and arrangement method using the same

Publications (2)

Publication Number Publication Date
KR20200063355A KR20200063355A (en) 2020-06-05
KR102181815B1 true KR102181815B1 (en) 2020-11-24

Family

ID=70774540

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180146008A KR102181815B1 (en) 2018-11-23 2018-11-23 Personalized arrangement robot and arrangement method using the same

Country Status (2)

Country Link
KR (1) KR102181815B1 (en)
WO (1) WO2020105778A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022158655A1 (en) * 2021-01-19 2022-07-28 고려대학교 산학협력단 Tidy-up system using tidy-up robot
KR20220127069A (en) 2021-03-10 2022-09-19 한국과학기술연구원 System and method for calculating degree of messiness of space based on characterstics of product in the space

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100811887B1 (en) 2006-09-28 2008-03-10 한국전자통신연구원 Apparatus and method for providing selectively position information having steps accuracy in autonomous mobile robot

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006013829A1 (en) * 2004-08-02 2006-02-09 Matsushita Electric Industrial Co., Ltd. Robot for carrying goods, system for carrying goods and method for carrying goods
JP2007152443A (en) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd Clearing-away robot
KR100711559B1 (en) * 2006-07-26 2007-04-27 김승우 System and implementation method of home mess-cleanup robot
KR100866380B1 (en) * 2007-02-13 2008-11-03 한국과학기술연구원 Method for esrimating location using ObjectionRecognition of a robot
KR100917377B1 (en) * 2007-03-30 2009-09-16 성균관대학교산학협력단 A central information processing system and method for service robot, with layered information structure according to recognition and reasoning level
KR100926783B1 (en) * 2008-02-15 2009-11-13 한국과학기술연구원 Method for self-localization of a robot based on object recognition and environment information around the recognized object
KR100991194B1 (en) * 2008-07-31 2010-11-05 주식회사 유진로봇 System and method for transporting object of mobing robot
KR101134316B1 (en) * 2009-10-09 2012-04-13 한양대학교 산학협력단 Active localization of robot using spatial semantics of objects
KR101145599B1 (en) * 2010-04-14 2012-05-15 순천향대학교 산학협력단 A homemaid robot having lift construction
KR101623414B1 (en) * 2014-09-16 2016-05-23 경상대학교 산학협력단 Arrangement robot
KR102447438B1 (en) * 2015-07-01 2022-09-27 삼성전자주식회사 Alarm device and method for informing location of objects thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100811887B1 (en) 2006-09-28 2008-03-10 한국전자통신연구원 Apparatus and method for providing selectively position information having steps accuracy in autonomous mobile robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022158655A1 (en) * 2021-01-19 2022-07-28 고려대학교 산학협력단 Tidy-up system using tidy-up robot
KR20220127069A (en) 2021-03-10 2022-09-19 한국과학기술연구원 System and method for calculating degree of messiness of space based on characterstics of product in the space

Also Published As

Publication number Publication date
KR20200063355A (en) 2020-06-05
WO2020105778A1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
US11370123B2 (en) Mobile robot and method of controlling the same
CN104737085B (en) Robot for automatically detecting or handling ground and method
US11042783B2 (en) Learning and applying empirical knowledge of environments by robots
US20210131822A1 (en) Exploration of an unknown environment by an autonomous mobile robot
US9751212B1 (en) Adapting object handover from robot to human using perceptual affordances
US20200046169A1 (en) Robot system and control method of the same
CN104794214B (en) A kind of method for designing big data driving cloud robot
JP5142243B2 (en) Robot work teaching system and work teaching method for robot
KR102181815B1 (en) Personalized arrangement robot and arrangement method using the same
KR20190014586A (en) Methods and systems for generating instructions for a robotic system to carry out a task
US11559902B2 (en) Robot system and control method of the same
JP2023554250A (en) Robot system to clear clutter
US20190390396A1 (en) Robot and clothes folding apparatus including the same
CN102772033B (en) Computer control system for lifting type intelligent shoe cabinet (room) capable of selecting shoes by touch screen
KR102285625B1 (en) Non-contact type recognition apparatus and method of object's attibutes
Kubota et al. Topological environment reconstruction in informationally structured space for pocket robot partners
KR20200034025A (en) Cleaning robots and system that can be arranged and arranged
KR101100240B1 (en) System for object learning through multi-modal interaction and method thereof
JP2021160941A (en) Movable body for picking
JP2021160939A (en) Movable body for picking
Neo et al. A natural language instruction system for humanoid robots integrating situated speech recognition, visual recognition and on-line whole-body motion generation
Kobayashi et al. Extending commands embedded in actions for human-robot cooperative tasks
CN109977975B (en) Article recycling system and article recycling method
CN115213885B (en) Robot skill generation method, device and medium, cloud server and robot control system
CN117444956A (en) Robot control method and device, storage medium and electronic equipment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant