KR102181815B1 - Personalized arrangement robot and arrangement method using the same - Google Patents
Personalized arrangement robot and arrangement method using the same Download PDFInfo
- Publication number
- KR102181815B1 KR102181815B1 KR1020180146008A KR20180146008A KR102181815B1 KR 102181815 B1 KR102181815 B1 KR 102181815B1 KR 1020180146008 A KR1020180146008 A KR 1020180146008A KR 20180146008 A KR20180146008 A KR 20180146008A KR 102181815 B1 KR102181815 B1 KR 102181815B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- predicted position
- location map
- image capturing
- moving
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 개인성향을 파악하여 가사물을 정리정돈함으로써 물건정리에 대한 이질감을 줄이며, 사용자가 물건을 용이하게 찾을 수 있도록 도와주는 개인 맞춤형 정리로봇에 관한 것이다. 이를 위하여, 본 발명은, 물건을 촬영하는 영상촬영부; 상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부; 상기 물건을 이동시키기 위한 이동수행부; 상기 물건의 예측위치를 저장하는 물건위치맵부; 및 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되는 개인 맞춤형 정리로봇을 제공한다.
따라서, 본 발명에 의하면, 개인이 사용한 물건을 정리정돈 할 수 있는 정리로봇을 제공할 수 있으며, 개인의 성향을 파악하여 가장 선호하는 위치에 물건을 정리할 수 있는 이점이 있다.The present invention relates to a personalized organizing robot that recognizes personal preferences and organizes household items, thereby reducing a sense of heterogeneity in organizing things, and helping users find things easily. To this end, the present invention, an image photographing unit for photographing an object; An object recognition unit for recognizing an object photographed through the image capturing unit; A moving unit for moving the object; An object location map unit for storing the predicted position of the object; And a control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit with the actual position of the object photographed by the image capturing unit.
Therefore, according to the present invention, it is possible to provide an organization robot that can organize items used by individuals, and there is an advantage in that items can be arranged in the most preferred location by grasping the personal tendency.
Description
본 발명은 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법에 관한 것이며, 구체적으로 개인성향을 파악하여 가사물을 정리정돈함으로써 물건정리에 대한 이질감을 줄이며, 사용자가 물건을 용이하게 찾을 수 있도록 도와주는 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법에 관한 것이다.The present invention relates to a personalized organizing robot and a method for organizing objects using the same, and specifically, an individual who helps users to find things easily, reducing the sense of disparity in organizing things by identifying personal preferences and organizing household items. It relates to a customized organizing robot and an object organizing method using the same.
로봇기술이 발달하면서 산업용 로봇뿐만 아니라 점차 가정용 로봇도 많은 연구가 진행되고 있다. 특히, 가정용 로봇은 청소로봇이 가장 활발하게 상업화가 되어 있는 분야이다. 이러한 청소로봇은 실내 구조 파악을 위해 실내맵을 저장하고 있으며, 스스로 돌아다니면서 진공흡수기를 이용하여 먼지 등을 흡수하거나 바닥을 닦는 역할을 한다.With the development of robot technology, not only industrial robots but also home robots are increasingly being studied. In particular, household robots are a field in which cleaning robots are most actively commercialized. These cleaning robots store indoor maps to understand the structure of the room, and they move around themselves to absorb dust or wipe the floor using a vacuum absorber.
종래기술로서, 도 1에 나타낸 등록특허 제10-0877072호를 참조하면, 청소를 위한 이동로봇은, 이동로봇의 위치 인식을 위한 특징맵을 생성하는 특징뱁 생성부와, 상기 특징맵을 이용하여 얻어지는 이동로봇의 자세 정보를 바탕으로 복수의 셀을 포함하고 각각의 셀은 장애물 유무정보 및 경로정보를 갖는 경로맵을 생성하는 경로맵생성부와, 상기 장애물 유무정보 및 경로정보에 따라 상기 이동로봇을 이동시키는 이동제어부로 이루어진다.As a prior art, referring to Registration Patent No. 10-0877072 shown in FIG. 1, a mobile robot for cleaning includes a feature generation unit that generates a feature map for recognizing the location of the mobile robot, and the feature map. A path map generation unit that includes a plurality of cells based on the obtained attitude information of the mobile robot, and each cell generates a path map having obstacle presence information and path information, and the mobile robot according to the obstacle presence information and path information. It consists of a movement control unit that moves.
상기 특허에 의하면, 특징맵 및 경로맵을 이용하여 청소경로를 생성하므로 청소시간이 현저히 줄어드는 장점이 있다.According to the patent, since a cleaning path is generated using a feature map and a path map, there is an advantage in that cleaning time is significantly reduced.
하지만, 이러한 종래기술은 정해진 경로대로 바닥을 청소하는 역할에 그칠 뿐 개인의 성향에 따라 물건을 정리할 수 있는 방법이나 구성은 없다.However, such a prior art only serves to clean the floor according to a predetermined path, and there is no method or configuration for organizing objects according to personal preferences.
따라서, 정해진 루트가 아닌 개인의 성향을 파악하여 개인 물건들을 정리할 수 있는 로봇에 대한 연구가 필요한 실정이다.Therefore, there is a need for research on a robot that can organize personal items by grasping the propensity of an individual, not a fixed route.
본 발명은 상기한 문제점을 해결하기 위한 것이며, 개인성향을 스스로 학습하여 개인 물건을 선호하는 위치에 정리,정돈하기 위한 개인 맞춤형 정리로봇을 제공하는 것이 본 발명의 목적이다.The present invention is to solve the above problems, and it is an object of the present invention to provide a personalized organizing robot for organizing and arranging personal objects in a preferred position by self-learning personal preferences.
또한, 개인 물건의 위치파악을 함으로써 사용자가 물건을 찾을 때 도움을 줄 수 있는 정보를 제공하는 것이 본 발명의 또 다른 목적이다.In addition, it is another object of the present invention to provide information that can help a user when searching for an object by locating a personal object.
상기한 목적을 달성하기 위하여, 본 발명은, 물건을 촬영하는 영상촬영부; 상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부; 상기 물건을 이동시키기 위한 이동수행부; 상기 물건의 예측위치를 저장하는 물건위치맵부; 및 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되는 개인 맞춤형 정리로봇을 제공한다.In order to achieve the above object, the present invention, an image photographing unit for photographing an object; An object recognition unit for recognizing an object photographed through the image capturing unit; A moving unit for moving the object; An object location map unit for storing the predicted position of the object; And a control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit with the actual position of the object photographed by the image capturing unit.
상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것이 바람직하다.It is preferable that the object location map unit includes the position and recognition time of the object recognized through the object recognition unit as input data, and includes the predicted position or discarding status of each object as output data to perform machine learning.
상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대하여 상기 물건위치맵부를 참조하여 대응하는 예측위치의 유무를 판별하고, 예측위치가 존재하면 상기 예측위치와 실측위치 사이의 오차거리를 계산하여 상기 오차거리가 일정거리 이상인 경우 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것이 바람직하다.The control unit determines the presence or absence of a corresponding predicted position with respect to the object recognized by the object recognition unit by referring to the object location map unit, and if the predicted position exists, calculates an error distance between the predicted position and the measured position, and the When the error distance is more than a certain distance, it is preferable to control the moving unit to move the object to the predicted position.
상기 개인 맞춤형 정리로봇은 개인성향판단부를 더 포함하며, 상기 개인성향판단부는 상기 오차거리가 일정거리 이상인 이동횟수를 계산하여 상기 이동횟수가 일정횟수 이상이고, 상기 실측위치가 일정 범위 이내인 경우 상기 실측위치를 예측위치로 변경시킬 수 있다.The personalized organizing robot further includes a personal propensity determining unit, and the personal propensity determining unit calculates the number of movements in which the error distance is greater than or equal to a certain distance, and when the number of movements is greater than a certain number and the measured position is within a certain range, the The measured position can be changed to the predicted position.
상기 개인성향판단부는 상기 이동수행부에 의해 이동된 물건에 대한 피드백을 입력받아 상기 물건위치맵부를 업데이트할 수 있다.The personal preference determining unit may update the object location map unit by receiving feedback on the object moved by the moving unit.
상기 개인 맞춤형 정리로봇은 사용자에게 정보를 주기 위한 표시부를 더 포함하며, 제어부는 특정 물건의 위치정보를 요청받은 경우 상기 물건위치맵부를 검색하여 상기 표시부를 통해 상기 물건의 위치정보를 표시하여 주는 것이 바람직하다.The personalized organizing robot further includes a display unit for giving information to a user, and the control unit searches for the object location map unit when the position information of a specific object is requested and displays the position information of the object through the display unit. desirable.
상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 종류를 분류하고, 물건위치맵부는 상기 물건인식부에서 인식된 물건의 종류별로 예측위치를 저장하는 것이 바람직하다.It is preferable that the object recognition unit classifies the types of objects photographed by the image capturing unit, and the object location map unit stores predicted positions for each type of object recognized by the object recognition unit.
상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 촬영날짜를 저장하고, 상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대해 설정날짜와 촬영날짜를 비교하여 상기 촬영날짜가 설정날짜와 같거나 이후이면 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것이 바람직하다.The object recognition unit stores the photographing date of the object photographed by the image photographing unit, and the control unit compares the setting date and the photographing date with respect to the object recognized by the object recognition unit, and the photographing date is equal to or equal to the setting date. After that, it is preferable to control the moving part to move the object to the predicted position.
본 발명에 의하면, 또한, 영상촬영부에 의해 물건을 촬영하는 단계; 물건인식부에 의해 상기 영상촬영부를 통해 촬영된 물건을 인식하는 단계; 상기 물건의 예측위치를 물건위치맵부에 저장하는 단계; 및 제어부는 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 이동수행부를 제어하여 상기 물건을 이동시키는 단계를 수행하는 개인 맞춤형 정리로봇에 의한 물건정리방법을 제공한다.According to the present invention, further, the step of photographing an object by an image photographing unit; Recognizing an object photographed through the image capturing unit by an object recognition unit; Storing the predicted position of the object in an object location map unit; And the control unit compares the predicted position by the object location map unit with the measured position of the object photographed by the image capturing unit, and controls the moving unit to move the object. Provides.
상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것이 바람직하다.It is preferable that the object location map unit includes the position and recognition time of the object recognized through the object recognition unit as input data, and includes the predicted position or discarding status of each object as output data to perform machine learning.
본 발명에 의하면, 개인이 사용한 물건을 정리정돈 할 수 있는 정리로봇을 제공할 수 있으며, 개인의 성향을 파악하여 가장 선호하는 위치에 물건을 정리할 수 있는 이점이 있다.According to the present invention, it is possible to provide an organization robot capable of organizing items used by an individual, and there is an advantage in that items can be arranged in a most preferred location by grasping an individual's tendency.
또한, 본 발명에 의하면, 효율적으로 물건을 정리할 수 있으며, 사용자가 특정 물건을 찾을 경우 해당 물건에 대한 정보를 표시하여 줌으로써 편리하게 이용할 수 있는 이점이 있다.In addition, according to the present invention, it is possible to organize things efficiently, and when a user finds a specific object, it is advantageous in that it can be conveniently used by displaying information on the object.
도 1은 종래기술에 의한 청소로봇의 구성을 나타내는 구성도;
도 2는 본 발명에 의한 개인 맞춤형 정리로봇의 구성을 나타내는 구성도;
도 3은 도 2에서 물건인식부의 구성을 나타내는 구성도;
도 4는 본 발명에 의한 개인 맞춤형 정리로봇의 예를 나타내는 예시도;
도 5는 본 발명에 의한 물건위치맵부의 학습방법을 나타내는 예시도;
도 6은 본 발명에 의한 개인 맞춤형 정리로봇의 정리방법을 나타내는 설명도.1 is a configuration diagram showing the configuration of a cleaning robot according to the prior art;
Figure 2 is a configuration diagram showing the configuration of a personalized organizing robot according to the present invention;
3 is a block diagram showing the configuration of an object recognition unit in FIG. 2;
4 is an exemplary view showing an example of a personalized organizing robot according to the present invention;
5 is an exemplary view showing a learning method of an object location map unit according to the present invention;
6 is an explanatory diagram showing a method of arranging a personalized organization robot according to the present invention.
본 발명의 실시예의 구성 및 작용에 대하여 첨부한 도면을 참조하여 상세하게 설명한다.The configuration and operation of the embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 2 및 도 6을 참조하면, 본 발명에 의한 개인 맞춤형 정리로봇은 영상촬영부(110), 물건인식부(120), 이동수행부(130), 물건위치맵부(140), 개인성향판단부(150), 제어부(160), 통신부(170), 주행부(180)를 포함하여 구성된다.2 and 6, the personalized organizing robot according to the present invention includes an
상기 영상촬영부(110)는 전방의 영상을 촬영할 수 있는 하나 이상의 센서들을 포함하여 구성될 수 있으며, RGB카메라, RGBD카메라, 라이다(Lidar), 적외선 스캐너, 초음파센서, LRF센서 등을 포함할 수 있다.The
상기 물건인식부(120)는 영상촬영부(110)에서 촬영된 영상을 이용하여 영상에 포함된 물건을 인식하여 레이블을 생성한다.The
구체적으로, 도 3을 참조하면, 물건인식부(120)는 영상수신부(121), 특징점추출부(122), 윤곽선추출부(123), 레이블매칭부(124)를 포함한다.Specifically, referring to FIG. 3, the
영상수신부(121)는 영상촬영부(110)에서 촬영된 영상을 수신할 수도 있고, 통신부(160)를 통해 외부에서 촬영된 영상을 수신받을 수도 있다. 상기 영상수신부(121)를 통해 수신된 영상은 특징점추출부(122)에서 특징점들이 추출된다. 상기 특징점들은 픽셀(색상 또는 명암)의 변화가 큰 점들이 될 수 있으며, 예를 들어, 물건의 모서리나 꼭지점 등이 될 수 있다.The
또한, 윤곽선추출부(123)에서는 촬영된 물건의 외형을 추출하는 역할을 한다. 윤곽선을 추출하는 방법으로 세그멘테이션(segmentation) 기법이 이용될 수 있다.In addition, the
윤곽선추출부(123)에 의해 분리된 물건의 영상정보는 레이블매칭부(124)에 의해 분류되어 레이블이 생성된다.The image information of the object separated by the
상기 레이블매칭부(124)는 입력층, 은닉층, 출력층을 포함한 딥러닝과 같은 인공지능 신경망으로 구성될 수 있으며, 학습된 데이터를 이용하여 은닉층에 가중치정보가 저장되어 있다.The label matching
상기 물건인식부는 이러한 방법으로 영상촬영부에 의해 촬영된 물건의 종류를 분류할 수 있으며, 영상촬영부에 의해 촬영된 물건의 촬영날짜를 저장할 수 있다.The object recognition unit can classify the types of objects photographed by the image photographing unit in this way, and store the photographing date of the object photographed by the image photographing unit.
상기 이동수행부(130)는 도 4와 같이 본체 전방에 형성되어 영상촬영부(110)로부터 촬영된 물건을 파지하는 역할을 하며, 소프트 그리퍼(soft gripper)로 구비되는 것이 바람직하다. 즉, 상기 이동수행부(130)는 제어부의 제어 하에 영상촬영부(110)로부터 촬영된 물건이 파지 가능한 경우, 물건을 파지하고 주행부(180)에 의해 특정 장소로 이동 후 물건의 파지를 해제할 수 있다. The
상기 이동수행부(130)는 설계조건에 따라 다섯 손가락을 흉내낸 로봇손, 진공흡착을 할 수 있는 흡착기, 두 방향으로 구비되어 물건을 집을 수 있는 로봇집게 등 여러가지 형태로 구비될 수도 있다.The
제어부는 영상촬영부로부터 촬영된 물건의 이미지를 통해 파지 가능여부를 판단할 수 있다. 즉, 제어부는 영상촬영부로부터 촬영된 물건의 이미지를 자체적으로 저장부에 저장된 물건의 종류에 대한 데이터베이스와 각 물건의 이미지 정보를 매칭시켜 촬영된 물건의 종류를 분류하고, 분류된 물건의 무게 또는 형상에 따라 이동수행부를 통해 파지가능 여부를 판단한다.The control unit may determine whether gripping is possible through the image of the object captured by the image capturing unit. That is, the control unit classifies the type of the object by matching the image of the object captured by the image capturing unit with the image information of each object with a database of the object type stored in the storage unit, and classifies the weight of the object or According to the shape, it is determined whether the grip is possible through the moving part.
또한, 제어부는 이동수행부에 의해 파지 가능하다고 판단한 경우, 해당 물건을 학습할 수 있다. 여기서 제어부는 GAN 기반의 피킹학습정책 네트워크를 통해 해당 물건을 학습할 수 있다. 예를 들어, 제어부는 생성자(Generator)를 통해 실제 파지할 물건에 대하여 학습하고 이를 바탕으로 거짓 데이터를 생성한다. 그리고, 제어부에서는 감별자(Discriminor)를 통해 생성자가 내놓은 데이터가 실제인지 거짓인지 판별할 수 있도록 학습을 수행한다. 이와 같이 제어부는 대량의 데이터를 정제과정없이 처리할 수 있으며, 스스로 학습함으로써 학습데이터 확보가 쉽지 않은 문제점을 해결할 수 있다.In addition, the control unit can learn the object when it is determined that it can be gripped by the moving unit. Here, the controller can learn the object through the GAN-based picking learning policy network. For example, the control unit learns about an object to be actually gripped through a generator and generates false data based on this. In addition, the control unit performs learning to determine whether the data provided by the creator is real or false through a discriminor. In this way, the controller can process a large amount of data without a purification process, and by learning by itself, it is possible to solve the problem that it is difficult to secure learning data.
본 발명은 관리서버를 따로 두고 상기 관리서버에 데이터베이스를 구축하여 둠으로써 방대한 데이터를 관리할 수 있다. 즉, 관리서버에서는 개인 맞춤형 정리로봇으로부터 전방에 감지된 물건에 대한 이미지를 수신하거나, 서버 제어부에 의해 결정된 물건의 종류나 물건의 종류에 따른 무게 또는 형상을 다시 개인 맞춤형 정리로봇으로 송신하거나, 파지 가능여부에 대한 데이터를 송신할 수 있다.According to the present invention, a large amount of data can be managed by setting a management server separately and establishing a database on the management server. In other words, the management server receives the image of the object detected in front from the personalized organizing robot, or transmits or grips the object type determined by the server control unit or the weight or shape according to the object type back to the personalized organizing robot. You can send data about the availability.
또한, 서버 제어부에서는 개인 맞춤형 정리로봇으로부터 수신한 물건의 이미지를 데이터베이스에 저장된 이미지 정보와 매칭시켜 이미지에 포함된 물건의 종류를 파악할 수 있다.In addition, the server controller may identify the type of the object included in the image by matching the image of the object received from the personalized organizing robot with image information stored in the database.
상기 물건위치맵부(140)는 사용자 물건의 예측위치를 저장하며, 업데이트하는 역할을 한다. 상기 예측위치는 각 물건에 대해 사용자가 선호하는 위치일 수 있으며, 물건이 위치해야 할 장소를 실내의 정해진 위치에 대응시켜 놓은 데이터로 볼 수 있다. 특히, 물건위치맵부(140)는 물건인식부에서 인식된 물건의 종류별로 예측위치를 저장할 수 있다.The object
상기 물건위치맵부(140)는 실내구조를 포함하는 실내맵을 저장하며, 또한, 도 5와 같은 인공신경망 또는 딥러닝 등의 기계학습에 의해 물건의 위치와 포즈등을 학습하여 각 물건의 예측위치정보를 저장하게 된다. 예를 들어, 사물인식부에서 컵을 인식한 경우 상기 컵의 예측위치는 부엌으로 저장될 수 있으며, 옷을 인식한 경우 상기 옷의 예측위치는 세탁실 등으로 저장될 수 있다.The object
상기 실내맵은 방, 거실, 부엌, 화장실의 위치 및 구조정보 등이 저장될 수 있으며, 미리 만들어진 지도정보가 저장되거나 주행부를 통해 획득한 영상정보를 기초로 하여 실내맵을 생성할 수도 있다. 또한, 물건의 예측위치는 실내맵을 기초로 하여 각 물건에 2차원 또는 3차원 좌표를 대응시키거나 방,부엌,화장실 등 기능적인 구획공간에 대응시킬 수도 있다.The indoor map may store location and structure information of a room, living room, kitchen, and toilet, and may store pre-made map information or generate an indoor map based on image information acquired through a driving unit. In addition, the predicted position of an object may correspond to a two-dimensional or three-dimensional coordinate to each object based on an indoor map, or to a functional partition space such as a room, a kitchen, and a toilet.
예측위치를 학습할 때, 입력층에는 영상촬영부(110)를 통해 획득한 물건의 위치 및 인식시간이 입력데이터로 포함될 수 있으며, 출력층에는 각 물건의 예측위치 또는 버림여부가 출력데이터로 포함될 수 있다.When learning the predicted position, the input layer may include the location and recognition time of the object acquired through the
예를 들어, 영상촬영부를 통해 병을 인식하였다고 할 때, 상기 병의 색상을 분석하여 내용물의 부피가 추정되고, 내용물의 부피가 일정부피 이하라고 판단되면 버리는 것으로 판단할 수 있다. 또한, 쿠키상자의 경우 영상촬영부를 통해 인식된 상자가 열려 있는 경우 쿠키가 있는 지 없는 지를 판단하여 쿠기가 없는 경우 버리는 것으로 판단할 수 있다.For example, when a bottle is recognized through an imaging unit, the volume of the contents is estimated by analyzing the color of the bottle, and if the volume of the contents is determined to be less than a certain volume, it may be determined to be discarded. In addition, in the case of a cookie box, if the box recognized through the image capturing unit is open, it may be determined whether there is a cookie, and if there is no cookie, it may be determined to be discarded.
상기한 바와 같이 버림으로 판단된 물건의 경우 예측위치는 휴지통으로 저장되어 이동수행부는 상기 물건을 파지하여 휴지통으로 이동시킬 수 있다.As described above, in the case of an object determined to be discarded, the predicted position is stored in the trash, so that the moving unit can grasp the object and move it to the trash.
또한, 동일한 물건이라도 물건인식부(120)에서 인식한 물건의 상태에 따라 예측위치가 달라질 수 있다. 예를 들어, 물건인식부에서 물건이 콜라병으로 인식되었을 때, 콜라병에 콜라가 가득 찬 것으로 인식된 경우 예측위치는 냉장고가 될 수 있으며, 콜라병에 콜라가 비어있는 것으로 인식된 경우 버림으로 판단한다.In addition, even for the same object, the predicted position may vary according to the state of the object recognized by the
상기 주행부(180)는 본체를 이동시키기 위한 구성으로, 본체의 하부에 설치되는 바퀴 및 상기 바퀴를 구동시키기 위한 모터로 구성되거나 걸을 수 있는 다리로 구성될 수 있다.The driving
상기 본체에는 영상촬영부, 물건인식부, 이동수행부 등의 장치나 소프트웨어가 탑재되며, 상기 본체는 어느 정도 높이에 있는 실내의 물건을 인식하고 이동시키기 위하여 높이 조절이 가능하거나 일정 높이를 유지하도록 구성되는 것이 바람직하다.The main body is equipped with devices or software such as an image capturing unit, object recognition unit, and moving unit, and the main body is capable of adjusting height or maintaining a certain height in order to recognize and move indoor objects at a certain height. It is desirable to be configured.
또한, 상기 본체에 구비되는 통신부(170)는 블루투스, 와이파이, LTE와 같은 무선통신을 수행할 수 있도록 구비되며, 통신망을 통해 관리서버와 통신을 수행할 수 있다. 특히, 상기 통신부(170)는 영상촬영부(110)에 의해 촬영된 전방의 물건의 이미지를 관리서버로 전송하거나, 관리서버로부터 전송한 이미지에 대응되는 물건의 종류 또는 물건의 파지 가능여부에 대한 데이터를 수신할 수 있다.In addition, the
그리고, 상기 본체에는 입력부(190) 및 표시부(195)가 구비될 수 있다. 상기 입력부(190)는 하나 이상의 버튼을 포함할 수 있다. 예를 들어, 입력부(190)는 예측위치, 영상정보, 물건위치 등을 확인하는 명령을 입력하거나 상기 명령을 재설정하는 버튼, 삭제버튼, 정리시작버튼, 정지버튼 등을 구비할 수 있다. 또한, 입력부(190)는 예약정보를 설정하거나 삭제하기 위한 버튼을 구비할 수도 있다. 이러한 입력부(190)는 사용자의 터치 또는 조작에 따른 입력신호를 발생하는 키패드와 터치패드 중 적어도 하나를 포함하여 구성될 수 있다. 이때, 입력부는 표시부와 함께 하나의 터치패널의 형태로 구성되어 입력과 표시 기능을 동시에 수행할 수 있다.In addition, an
표시부(195)는 예약정보, 배터리 상태, 정리방식, 주행방식, 예측위치, 물건위치 등을 화면에 표시하여 준다. 상기 표시부는 본체의 각 유닛들의 현재상태와 정리상태 등을 출력할 수 있다. The
제어부(160)는 본체의 각 구성 유닛들의 동작을 제어하는 역할을 한다. 또한, 주행부를 통해 본체가 실내공간을 돌아다니며 주기적으로 또는 설정된 시간에 맞추어 실내의 물건들을 스캔하도록 한다. The
제어부(160)는 영상촬영부를 통해 촬영된 영상을 기초로 하여 물건인식부에서 촬영된 영상을 분석하여 물건을 인식하고, 물건위치맵부를 참조하여 인식된 물건에 대하여 대응하는 예측위치가 있는지 판별한다. The
이때, 인식된 물건에 대응하는 예측위치가 있는 경우 상기 예측위치와 영상촬영부를 통해 촬영된 실측위치의 사이의 오차거리를 계산한다. 상기 오차거리는 실내맵을 참조하여 직선거리로 계산될 수 있으나, 이에 한정되지는 않고 상황에 맞는 방식으로 계산될 수 있다. 예를 들어, 실내의 벽이나 문을 고려한 최단거리, 좌표의 거리가 아닌 방, 부엌, 화장실과 같은 기능적인 구획공간 사이의 거리 등으로 계산될 수 있다. 상기 기능적인 구획공간은 방 내에서도 침대, 책상, 의자 등의 기능적인 사물별로 나뉠 수 있다. 만약, 인식된 물건의 예측위치와 실측위치가 동일하다면 오차거리는 0으로 계산된다.At this time, when there is a predicted position corresponding to the recognized object, an error distance between the predicted position and the measured position photographed through the image capturing unit is calculated. The error distance may be calculated as a straight line distance with reference to the indoor map, but is not limited thereto and may be calculated in a manner suitable for a situation. For example, it can be calculated as the shortest distance taking into account an indoor wall or door, not the distance of coordinates, but the distance between functional compartments such as rooms, kitchens, and toilets. The functional partition space can be divided into functional objects such as a bed, a desk, and a chair even within a room. If the predicted position and the measured position of the recognized object are the same, the error distance is calculated as 0.
제어부에서는 각 물건마다 위와 같은 방법으로 오차거리를 계산하여 저장부에 저장하며, 오차거리가 일정거리 이상인 경우 이동수행부를 제어하여 상기 물건을 파지한 후, 상기 물건을 예측위치로 이동시킬 수 있다.The control unit calculates the error distance for each object and stores it in the storage unit in the same manner as described above. If the error distance is greater than a certain distance, the moving unit can control the object to hold the object and then move the object to the predicted position.
이때, 오차거리는 일반적인 거리개념과는 다를 수 있다. 예를 들어, 동일한 방에서 침대 옆에 책상이 있는 경우 자로 잰 실측거리는 짧은 거리이더라도 오차거리는 기능적인 구획공간이 달라지면 매우 큰 거리로 저장될 수 있다. 즉, 오차거리는 자로 잰 실측거리에 기능적인 구획공간의 가중치를 곱하여 계산될 수 있다. 기능적인 구획공간이 달라지면 가중치가 커지도록 설정된다. 즉, 예측위치와 실측위치의 기능적인 구획공간이 달라지면 가중치는 1보다 큰 값이 곱해지고, 예측위치와 실측위치의 기능적인 구획공간이 동일하면 가중치는 1보다 작은 값이 곱해질 수 있다.At this time, the error distance may be different from the general distance concept. For example, if there is a desk next to a bed in the same room, even if the measured distance measured by a ruler is a short distance, the error distance may be stored as a very large distance if the functional partition space is changed. That is, the error distance can be calculated by multiplying the weight of the functional partition space by the measured distance measured with a ruler. When the functional partition space changes, the weight is set to increase. That is, if the functional partition space of the predicted position and the measured position is different, the weight may be multiplied by a value greater than 1, and if the functional partition space of the predicted position and the measured position are the same, the weight may be multiplied by a value less than 1.
상기 제어부에서는 전체 실내 스캔을 마치면 오차거리가 가장 큰 물건순으로 정렬한 후 가장 오차거리가 큰 물건부터 정리를 시작할 수 있다.When the entire indoor scan is finished, the control unit sorts the objects with the largest error distances, and then can start organizing the objects with the largest error distance.
한편, 인식된 물건에 따라 설정날짜 또는 설정횟수가 저장될 수 있다. 상기 설정날짜 또는 설정횟수는 해당 물건에 대해 어떠한 조치를 취해야 하는 날짜 또는 횟수이다. 예를 들어, 특정 외투가 인식되었을 때 제어부에서는 설정날짜와 물건인식부에서 인식된 촬영날짜를 비교하여 촬영날짜가 설정날짜와 같거나 이후이면 설정된 동작을 수행할 수 있다. 상기 설정된 동작은 이동수행부를 이용하여 세탁실로 이동시키는 등의 동작이 될 수 있다. 또한, 물건인식부를 통해 특정 음식물이 인식되었을 때, 설정날짜가 되면 상기 음식물을 이동수행부를 통해 휴지통으로 이동시키는 동작을 수행할 수도 있다.On the other hand, the setting date or the setting number of times may be stored according to the recognized object. The setting date or number of times of setting is the date or number of times to take some action on the object. For example, when a specific coat is recognized, the controller may compare a set date with a shooting date recognized by the object recognition unit and perform a set operation if the shooting date is the same as or after the set date. The set operation may be an operation such as moving to the laundry room using the moving unit. In addition, when a specific food item is recognized through the object recognition unit, when a set date is reached, an operation of moving the food item to the trash bin through the moving unit may be performed.
상기 설정횟수는 물건인식부에 의해 인식된 횟수를 나타낸다. 이때, 설정횟수는 촬영날짜가 바뀌어야 설정횟수가 증가하도록 하는 것이 바람직하다.The number of settings indicates the number of times recognized by the object recognition unit. In this case, it is preferable to increase the number of settings when the shooting date is changed.
상기 설정날짜 또는 설정횟수는 사용자에 의해 입력을 받을 수도 있고 자동으로 설정될 수도 있다. 예를 들어, 인식된 물건이 특정 셔츠인 경우 설정횟수가 자동으로 정해지며 상기 셔츠가 인식된 횟수가 설정횟수에 다다르면 제어부는 이동수행부를 이용하여 상기 셔츠를 세탁실로 이동시킨다.The set date or set number may be input by a user or may be set automatically. For example, when the recognized object is a specific shirt, the number of settings is automatically determined, and when the number of times the shirt is recognized reaches the number of settings, the control unit moves the shirt to the laundry room using the movement unit.
상기 개인성향판단부(150)는 일반적인 환경과 달리 가사물에 대해 개인성향을 반영하여 정돈을 하기 위한 것으로서, 영상촬영부에 의해 촬영된 영상을 분석하여 각 물건에 대하여 오차거리가 일정거리 이상인 횟수, 즉 일정 기간동안 이동횟수를 계산하여 상기 이동횟수가 일정횟수 이상이고, 실측위치가 실측오차범위 이내인 경우 제어부를 통해 물건위치맵부에서 상기 실측위치를 예측위치로 변경시킨다.The personal
상기 실측오차범위는 저장된 최종실측위치로부터 일정 거리 이내의 범위를 의미할 수 있으며, 이때에도 오차거리와 마찬가지로 기능적인 구획공간에 따라 가중치가 곱해질 수 있다. 즉, 최종실측위치와 현재실측위치가 동일한 기능적인 구획공간인 경우 가중치는 1보다 작게 되고, 최종실측위치와 현재실측위치가 동일한 기능적인 구획공간인 경우 가중치는 1보다 크게 될 수 있다.The measured error range may mean a range within a certain distance from the stored final measured position, and also in this case, the weight may be multiplied according to a functional partition space like the error distance. That is, if the final measured position and the current measured position are the same functional partition space, the weight may be less than 1, and if the final measured position and the current measured position are the same functional partition space, the weight may be greater than 1.
개인성향판단부(150)는 외부 단말기를 통해서도 개인의 선호위치를 입력받을 수 있다. 예를 들어, 스마트폰과 같은 단말기를 통해 특정 물건의 선호위치를 입력받을 수 있으며, 이때, 개인성향판단부는 외부 단말기를 통해 입력받은 선호위치를 해당 물건의 예측위치로 변경시킨다.The personal
또한, 상기 개인성향판단부(150)는 이동수행부(130)에 의해 이동된 물건에 대한 피드백을 입력받아 기계학습의 입력데이터로 활용함으로써 물건위치맵부를 업데이트할 수 있다. 이때, 기계학습은 GAN(Generative Adversarial Networks)기반 인공지능학습을 이용하는 것이 바람직하다.In addition, the personal
한편, 상기 표시부(195)는 사용자에게 각종 정보를 표시하여 주는데, 제어부는 입력부(190)나 외부 단말기를 통해 입력받은 요청에 대해 상기 표시부를 통해 대응하는 정보를 표시하여 줄 수 있다. Meanwhile, the
상기 물건위치맵부(140)에서는 스캔한 물건 또는 이동수행부를 통해 이동시킨 물건의 최종위치를 저장하고 있다. 이때, 특정 물건의 위치정보를 요청받은 경우 제어부에서는 물건위치맵부를 검색하여 표시부를 통해 상기 물건의 위치정보를 표시하여 줄 수 있다.The object
상기에서는 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments of the present invention, those of ordinary skill in the art can variously modify and modify the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. You will understand that you can change it.
110 : 영상촬영부 120 : 물건인식부
130 : 이동수행부 140 : 물건위치맵부
150 : 개인성향판단부 160 : 제어부
170 : 통신부 180 : 주행부
190 : 입력부 195 : 표시부110: imaging unit 120: object recognition unit
130: movement performing unit 140: object location map unit
150: personal preference determination unit 160: control unit
170: communication unit 180: driving unit
190: input unit 195: display unit
Claims (10)
상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
상기 물건을 이동시키기 위한 이동수행부;
상기 물건의 예측위치를 저장하는 물건위치맵부; 및
상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되며,
상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것을 특징으로 하는 개인 맞춤형 정리로봇.
An image photographing unit for photographing objects;
An object recognition unit for recognizing an object photographed through the image capturing unit;
A moving unit for moving the object;
An object location map unit for storing the predicted position of the object; And
And a control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit and the actual measured position of the object photographed by the image capturing unit,
The object location map unit includes the position and recognition time of the object recognized through the object recognition unit as input data, and includes the predicted position or discarding of each object as output data to perform machine learning. robot.
상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
상기 물건을 이동시키기 위한 이동수행부;
상기 물건의 예측위치를 저장하는 물건위치맵부; 및
상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되며,
상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대하여 상기 물건위치맵부를 참조하여 대응하는 예측위치의 유무를 판별하고, 예측위치가 존재하면 상기 예측위치와 실측위치 사이의 오차거리를 계산하여 상기 오차거리가 일정거리 이상인 경우 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것을 특징으로 하는 개인 맞춤형 정리로봇.
An image photographing unit for photographing objects;
An object recognition unit for recognizing an object photographed through the image capturing unit;
A moving unit for moving the object;
An object location map unit for storing the predicted position of the object; And
And a control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit and the actual measured position of the object photographed by the image capturing unit,
The control unit determines the presence or absence of a corresponding predicted position with respect to the object recognized by the object recognition unit by referring to the object location map unit, and if the predicted position exists, calculates an error distance between the predicted position and the measured position, and the Personally customized organizing robot, characterized in that when the error distance is more than a certain distance, the object is moved to a predicted position by controlling a moving unit.
상기 개인 맞춤형 정리로봇은 개인성향판단부를 더 포함하며,
상기 개인성향판단부는 상기 오차거리가 일정거리 이상인 이동횟수를 계산하여 상기 이동횟수가 일정횟수 이상이고, 상기 실측위치가 일정 범위 이내인 경우 상기 실측위치를 예측위치로 변경시키는 것을 특징으로 하는 개인 맞춤형 정리로봇.
The method of claim 3,
The personalized organizing robot further includes a personal preference determination unit,
The personal preference determining unit calculates the number of movements in which the error distance is more than a certain distance, and changes the measured position to a predicted position when the number of movements is more than a certain number and the measured position is within a certain range. Organizing robot.
상기 개인성향판단부는 상기 이동수행부에 의해 이동된 물건에 대한 피드백을 입력받아 상기 물건위치맵부를 업데이트하는 것을 특징으로 하는 개인 맞춤형 정리로봇.
The method of claim 4,
And the personal preference determining unit receives feedback on the moved object by the moving unit and updates the object location map unit.
상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
상기 물건을 이동시키기 위한 이동수행부;
상기 물건의 예측위치를 저장하는 물건위치맵부; 및
상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부;
사용자에게 정보를 주기 위한 표시부를 포함하여 구성되며,
제어부는 특정 물건의 위치정보를 요청받은 경우 상기 물건위치맵부를 검색하여 상기 표시부를 통해 상기 물건의 위치정보를 표시하여 주는 것을 특징으로 하는 개인 맞춤형 정리로봇.
An image photographing unit for photographing objects;
An object recognition unit for recognizing an object photographed through the image capturing unit;
A moving unit for moving the object;
An object location map unit for storing the predicted position of the object; And
A control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit and the actual measured position of the object photographed by the image capturing unit;
It includes a display to give information to the user,
When a request for location information of a specific object is received, the control unit searches the object location map unit and displays the location information of the object through the display unit.
상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
상기 물건을 이동시키기 위한 이동수행부;
상기 물건의 예측위치를 저장하는 물건위치맵부; 및
상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되며,
상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 종류를 분류하고,
물건위치맵부는 상기 물건인식부에서 인식된 물건의 종류별로 예측위치를 저장하는 것을 특징으로 하는 개인 맞춤형 정리로봇.
An image photographing unit for photographing objects;
An object recognition unit for recognizing an object photographed through the image capturing unit;
A moving unit for moving the object;
An object location map unit for storing the predicted position of the object; And
And a control unit for controlling the movement performing unit by comparing the predicted position by the object location map unit and the actual measured position of the object photographed by the image capturing unit,
The object recognition unit classifies the type of object photographed by the image capturing unit,
The object location map unit, the personalized organizing robot, characterized in that to store the predicted position for each type of object recognized by the object recognition unit.
상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 촬영날짜를 저장하고, 상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대해 설정날짜와 촬영날짜를 비교하여 상기 촬영날짜가 설정날짜와 같거나 이후이면 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것을 특징으로 하는 개인 맞춤형 정리로봇.
The method of claim 3,
The object recognition unit stores the photographing date of the object photographed by the image photographing unit, and the control unit compares the setting date and the photographing date with respect to the object recognized by the object recognition unit, and the photographing date is equal to or equal to the setting date. Then, by controlling the movement performing unit to move the object to the predicted position personalized personalized organizing robot.
물건인식부에 의해 상기 영상촬영부를 통해 촬영된 물건을 인식하는 단계;
상기 물건의 예측위치를 물건위치맵부에 저장하는 단계; 및
제어부는 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 이동수행부를 제어하여 상기 물건을 이동시키는 단계를 수행하며,
상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것을 특징으로 하는 개인 맞춤형 정리로봇에 의한 물건정리방법.Photographing an object by an image capturing unit;
Recognizing an object photographed through the image capturing unit by an object recognition unit;
Storing the predicted position of the object in an object location map unit; And
The control unit performs the step of moving the object by comparing the predicted position by the object location map unit and the actual measured position of the object photographed by the image capturing unit, and controlling the moving unit,
The object location map unit includes the position and recognition time of the object recognized through the object recognition unit as input data, and includes the predicted position or discarding of each object as output data to perform machine learning. How to organize things by robots.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180146008A KR102181815B1 (en) | 2018-11-23 | 2018-11-23 | Personalized arrangement robot and arrangement method using the same |
PCT/KR2018/015022 WO2020105778A1 (en) | 2018-11-23 | 2018-11-30 | Personalized organizing robot and object organizing method using same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180146008A KR102181815B1 (en) | 2018-11-23 | 2018-11-23 | Personalized arrangement robot and arrangement method using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200063355A KR20200063355A (en) | 2020-06-05 |
KR102181815B1 true KR102181815B1 (en) | 2020-11-24 |
Family
ID=70774540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180146008A KR102181815B1 (en) | 2018-11-23 | 2018-11-23 | Personalized arrangement robot and arrangement method using the same |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102181815B1 (en) |
WO (1) | WO2020105778A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022158655A1 (en) * | 2021-01-19 | 2022-07-28 | 고려대학교 산학협력단 | Tidy-up system using tidy-up robot |
KR20220127069A (en) | 2021-03-10 | 2022-09-19 | 한국과학기술연구원 | System and method for calculating degree of messiness of space based on characterstics of product in the space |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100811887B1 (en) | 2006-09-28 | 2008-03-10 | 한국전자통신연구원 | Apparatus and method for providing selectively position information having steps accuracy in autonomous mobile robot |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006013829A1 (en) * | 2004-08-02 | 2006-02-09 | Matsushita Electric Industrial Co., Ltd. | Robot for carrying goods, system for carrying goods and method for carrying goods |
JP2007152443A (en) * | 2005-11-30 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | Clearing-away robot |
KR100711559B1 (en) * | 2006-07-26 | 2007-04-27 | 김승우 | System and implementation method of home mess-cleanup robot |
KR100866380B1 (en) * | 2007-02-13 | 2008-11-03 | 한국과학기술연구원 | Method for esrimating location using ObjectionRecognition of a robot |
KR100917377B1 (en) * | 2007-03-30 | 2009-09-16 | 성균관대학교산학협력단 | A central information processing system and method for service robot, with layered information structure according to recognition and reasoning level |
KR100926783B1 (en) * | 2008-02-15 | 2009-11-13 | 한국과학기술연구원 | Method for self-localization of a robot based on object recognition and environment information around the recognized object |
KR100991194B1 (en) * | 2008-07-31 | 2010-11-05 | 주식회사 유진로봇 | System and method for transporting object of mobing robot |
KR101134316B1 (en) * | 2009-10-09 | 2012-04-13 | 한양대학교 산학협력단 | Active localization of robot using spatial semantics of objects |
KR101145599B1 (en) * | 2010-04-14 | 2012-05-15 | 순천향대학교 산학협력단 | A homemaid robot having lift construction |
KR101623414B1 (en) * | 2014-09-16 | 2016-05-23 | 경상대학교 산학협력단 | Arrangement robot |
KR102447438B1 (en) * | 2015-07-01 | 2022-09-27 | 삼성전자주식회사 | Alarm device and method for informing location of objects thereof |
-
2018
- 2018-11-23 KR KR1020180146008A patent/KR102181815B1/en active IP Right Grant
- 2018-11-30 WO PCT/KR2018/015022 patent/WO2020105778A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100811887B1 (en) | 2006-09-28 | 2008-03-10 | 한국전자통신연구원 | Apparatus and method for providing selectively position information having steps accuracy in autonomous mobile robot |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022158655A1 (en) * | 2021-01-19 | 2022-07-28 | 고려대학교 산학협력단 | Tidy-up system using tidy-up robot |
KR20220127069A (en) | 2021-03-10 | 2022-09-19 | 한국과학기술연구원 | System and method for calculating degree of messiness of space based on characterstics of product in the space |
Also Published As
Publication number | Publication date |
---|---|
KR20200063355A (en) | 2020-06-05 |
WO2020105778A1 (en) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11370123B2 (en) | Mobile robot and method of controlling the same | |
CN104737085B (en) | Robot for automatically detecting or handling ground and method | |
US11042783B2 (en) | Learning and applying empirical knowledge of environments by robots | |
US20210131822A1 (en) | Exploration of an unknown environment by an autonomous mobile robot | |
US9751212B1 (en) | Adapting object handover from robot to human using perceptual affordances | |
US20200046169A1 (en) | Robot system and control method of the same | |
CN104794214B (en) | A kind of method for designing big data driving cloud robot | |
JP5142243B2 (en) | Robot work teaching system and work teaching method for robot | |
KR102181815B1 (en) | Personalized arrangement robot and arrangement method using the same | |
KR20190014586A (en) | Methods and systems for generating instructions for a robotic system to carry out a task | |
US11559902B2 (en) | Robot system and control method of the same | |
JP2023554250A (en) | Robot system to clear clutter | |
US20190390396A1 (en) | Robot and clothes folding apparatus including the same | |
CN102772033B (en) | Computer control system for lifting type intelligent shoe cabinet (room) capable of selecting shoes by touch screen | |
KR102285625B1 (en) | Non-contact type recognition apparatus and method of object's attibutes | |
Kubota et al. | Topological environment reconstruction in informationally structured space for pocket robot partners | |
KR20200034025A (en) | Cleaning robots and system that can be arranged and arranged | |
KR101100240B1 (en) | System for object learning through multi-modal interaction and method thereof | |
JP2021160941A (en) | Movable body for picking | |
JP2021160939A (en) | Movable body for picking | |
Neo et al. | A natural language instruction system for humanoid robots integrating situated speech recognition, visual recognition and on-line whole-body motion generation | |
Kobayashi et al. | Extending commands embedded in actions for human-robot cooperative tasks | |
CN109977975B (en) | Article recycling system and article recycling method | |
CN115213885B (en) | Robot skill generation method, device and medium, cloud server and robot control system | |
CN117444956A (en) | Robot control method and device, storage medium and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |