KR102384444B1 - Domestic animal management robot and operation method thereof - Google Patents
Domestic animal management robot and operation method thereof Download PDFInfo
- Publication number
- KR102384444B1 KR102384444B1 KR1020200074804A KR20200074804A KR102384444B1 KR 102384444 B1 KR102384444 B1 KR 102384444B1 KR 1020200074804 A KR1020200074804 A KR 1020200074804A KR 20200074804 A KR20200074804 A KR 20200074804A KR 102384444 B1 KR102384444 B1 KR 102384444B1
- Authority
- KR
- South Korea
- Prior art keywords
- livestock
- unit
- image
- event
- robot
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/005—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators using batteries, e.g. as a back-up power source
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
본 출원의 일 실시예에 따른 가축 관리 로봇은 가축 영상으로부터 검출되는 몰이용 객체를 인식하는 인식부, 상기 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역을 따라 주행하는 자율 주행부 및 상기 몰이용 객체의 움직임 여부에 기초하여, 가이드 신호를 출력하는 제1 이벤트 동작과 상기 몰이용 객체를 터치하는 제2 이벤트 동작 중 적어도 하나의 동작을 수행하는 이벤트 제어부를 포함한다. The livestock management robot according to an embodiment of the present application includes a recognition unit for recognizing a sheep-use object detected from a livestock image, an autonomous driving unit that travels along a rear region of the livestock image spaced apart from the sheep-use object by a predetermined distance, and the and an event controller configured to perform at least one of a first event operation for outputting a guide signal and a second event operation for touching the mole-use object, based on whether the mole-use object moves.
Description
본 출원은 가축 관리 로봇 및 그 동작 방법에 관한 것이다. The present application relates to a livestock management robot and an operating method thereof.
현재, 젖소를 사육하는 농장에서는 젖소의 착유나 농장 청소 등을 위하여, 젖소를 이동시키는 작업이 필요하다. 이러한 작업에는 젖소들을 이동시키고, 이동 경로를 이탈하거나 이동하지 않는 젖소들을 관리할 수 있는 최소 1인의 숙련된 작업자가 필요하다. Currently, in farms raising dairy cows, it is necessary to move the cows for milking the cows or cleaning the farm. This operation requires at least one skilled worker to move the cows and manage the cows that deviate or do not move.
이에, 본 출원에서는 젖소들을 이동시키는 작업을 대신할 수 있는 가축 관리 로봇을 제공하고자 한다. Accordingly, the present application intends to provide a livestock management robot that can replace the operation of moving cows.
본 출원의 목적은 가축을 이동시키는 작업을 수행할 수 있는 가축 관리 로봇 및 그 동작 방법을 제공하기 위한 것이다. An object of the present application is to provide a livestock management robot capable of performing a task of moving livestock and an operating method thereof.
본 출원의 일 실시예에 따른 가축 관리 로봇은 가축 영상으로부터 검출되는 몰이용 객체를 인식하는 인식부, 상기 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역을 따라 주행하는 자율 주행부 및 상기 몰이용 객체의 움직임 여부에 기초하여, 가이드 신호를 출력하는 제1 이벤트 동작과 상기 몰이용 객체를 터치하는 제2 이벤트 동작 중 적어도 하나의 동작을 수행하는 이벤트 제어부를 포함한다. The livestock management robot according to an embodiment of the present application includes a recognition unit for recognizing a sheep-use object detected from a livestock image, an autonomous driving unit that travels along a rear region of the livestock image spaced apart from the sheep-use object by a predetermined distance, and the and an event controller configured to perform at least one of a first event operation for outputting a guide signal and a second event operation for touching the mole-use object, based on whether the mole-use object moves.
실시예에 따라, 상기 인식부는 상기 가축 영상을 촬영하기 위한 카메라부, 상기 가축 영상으로부터 적어도 하나의 관심 이미지를 추출하는 이미지 추출부, 상기 적어도 하나의 관심 이미지에 대한 기설정된 객체 인식 알고리즘을 적용하여, 상기 복수의 가축들을 적어도 하나의 정지 객체와 적어도 하나의 이동 객체로 검출하는 객체 검출부 및 상기 적어도 하나의 정지 객체와 상기 카메라부 사이의 각 이격 거리를 측정하는 거리 측정부를 포함한다. According to an embodiment, the recognition unit applies a camera unit for photographing the livestock image, an image extractor for extracting at least one image of interest from the livestock image, and a preset object recognition algorithm for the at least one image of interest, , an object detection unit for detecting the plurality of livestock as at least one stationary object and at least one moving object, and a distance measurement unit for measuring each separation distance between the at least one stationary object and the camera unit.
실시예에 따라, 상기 객체 검출부는 상기 적어도 하나의 정지 객체 중 특정 객체를 상기 몰이용 객체로 결정한다. According to an embodiment, the object detection unit determines a specific object among the at least one stationary object as the mole-using object.
실시예에 따라, 상기 이벤트 제어부는 상기 몰이용 객체에 따라 목적지까지의 최단 이동 거리에 기초하여, 기설정된 이탈 예상 지점에서 상기 제1 및 제2 이벤트 동작 중 어느 하나의 동작을 재수행한다. According to an embodiment, the event controller re-performs any one of the first and second event operations at a preset departure expected point based on the shortest moving distance to the destination according to the mole-using object.
실시예에 따라, 상기 자율 주행부는 외부면이 탄성 재질로 형성되고, 하측 내부에 주행을 위한 배터리와 모터가 배치되는 이동장치, 상기 이동장치의 상측 외부면에 형성되고, 상기 이벤트 제어부의 제어에 따라 상기 후방 영역으로부터 상기 몰이용 객체까지 길이로 연장되는 터치장치 및 상기 이벤트 제어부에 따라 관리자 음성, 경보 신호, 진동, 동일 가축의 소리 및 LED 조명 중 적어도 하나를 출력하기 위한 출력장치를 포함한다. According to an embodiment, the autonomous driving unit has an outer surface formed of an elastic material, a mobile device in which a battery and a motor for driving are disposed inside a lower side, is formed on an upper outer surface of the mobile device, and is controlled by the event controller. A touch device extending in length from the rear region to the mole-using object and an output device for outputting at least one of a manager voice, an alarm signal, a vibration, a sound of the same livestock, and an LED light according to the event control unit are included.
실시예에 따라, 상기 이동 장치는 젖소로부터 가해지는 충격에 따라 전륜축과 후륜축의 길이를 조절한다. According to an embodiment, the moving device adjusts the lengths of the front wheel axle and the rear wheel axle according to the impact applied from the cow.
실시예에 따라, 상기 복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 RFID 태그들과 통신하는 RFID 리더를 통해 로봇 위치 정보를 수집하는 위치 정보 수집부 및 상기 가축 영상과 상기 로봇 위치 정보를 네트워크를 통해 관리자 단말에 제공하는 통신부를 더 포함하고, 상기 RFID 태그들은 적어도 하나의 가축을 인식하는 적어도 하나의 가축 인식용 태그들을 더 포함한다. According to an embodiment, a location information collecting unit that collects robot location information through an RFID reader that communicates with RFID tags installed at predetermined distances along a movement path of the plurality of livestock, and the livestock image and the robot location information Further comprising a communication unit for providing to the manager terminal through a network, the RFID tags further include at least one tag for recognizing at least one livestock for recognizing the livestock.
실시예에 따라, 상기 통신부는, 관리자 단말로부터 전송받는 수동 조작 정보에 기초하여, 인식부, 자율 주행부 및 이벤트 제어부 중 적어도 하나를 제어한다. According to an embodiment, the communication unit controls at least one of the recognition unit, the autonomous driving unit, and the event control unit based on manual operation information received from the manager terminal.
실시예에 따라, 상기 이벤트 제어부는 상기 적어도 하나의 관심 이미지로부터 기설정된 긴급 상황 객체 형상이 검출될 때, 기등록된 단말에 긴급 메시지를 전송하는 동시에, 관리자가 위치한 기등록된 영역으로 주행하여 경보 신호를 출력한다. According to an embodiment, when a preset emergency situation object shape is detected from the at least one image of interest, the event control unit transmits an emergency message to a pre-registered terminal and travels to a pre-registered area where the manager is located to alert output a signal.
본 출원의 일 실시예에 따른 가축 관리 로봇의 동작 방법으로서, 인식부가 가축 영상으로부터 몰이용 객체를 인식하는 단계, 자율 주행부가 상기 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역으로 자율 주행하는 단계 및 이벤트 제어부가 상기 후방 영역에서 가이드 신호를 출력하는 제1 이벤트 동작을 수행하는 단계, 상기 이벤트 제어부가 상기 몰이용 객체의 움직임 여부에 기초하여, 상기 몰이용 객체에 대응되는 가축을 터치하는 제2 이벤트 동작을 수행하는 단계 및 상기 자율 주행부가 기설정된 목적지까지 주행한 경우, 기설정된 충전 영역으로 이동하여 자동 충전하는 단계를 포함한다. As an operation method of a livestock management robot according to an embodiment of the present application, the step of recognizing a sheep-use object from a livestock image by a recognition unit, the autonomous driving unit autonomously driving to a rear area of the livestock image spaced a certain distance from the sheep-use object and performing, by the event controller, a first event operation of outputting a guide signal in the rear region, the event controller touching the livestock corresponding to the sheep-using object based on whether the sheep-using object moves. performing a second event operation; and when the autonomous driving unit drives to a preset destination, moving to a preset charging area and automatically charging the vehicle.
실시예에 따라, 위치 정보 수집부가 상기 복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 RFID 태그들과 통신하는 RFID 리더를 통해 로봇 위치 정보를 수집하는 단계 및 통신부가 상기 가축 영상과 상기 로봇 위치 정보를 관리자 단말에 제공하는 단계를 더 포함한다. According to an embodiment, the step of the location information collecting unit collecting robot location information through an RFID reader communicating with RFID tags installed at predetermined distances along the movement path of the plurality of livestock, and the communication unit collecting the livestock image and the robot The method further includes providing the location information to the manager terminal.
실시예에 따라, 상기 몰이용 객체를 인식하는 단계는, 카메라부가 상기 복수의 가축들을 촬영하는 단계, 이미지 추출부가 상기 가축 영상으로부터 적어도 하나의 관심 이미지를 추출하는 단계, 객체 검출부가 객체 인식 알고리즘을 이용하여, 상기 적어도 하나의 관심 이미지로부터 적어도 하나의 정지 객체와 적어도 하나의 이동 객체를 분류하여 검출하는 단계, 거리 측정부가 상기 적어도 하나의 정지 객체와 상기 카메라부 사이의 각 이격 거리를 측정하는 단계 및 상기 객체 검출부가 상기 적어도 하나의 정지 객체 중 이격 거리가 가장 큰 정지 객체를 상기 몰이용 객체로 결정하는 단계를 포함한다. According to an embodiment, the step of recognizing the mole-using object may include: a camera unit photographing the plurality of livestock, an image extraction unit extracting at least one image of interest from the livestock image, and an object detection unit executing an object recognition algorithm classifying and detecting at least one still object and at least one moving object from the at least one image of interest using, by a distance measuring unit measuring each separation distance between the at least one still object and the camera unit and determining, by the object detection unit, a stationary object having the largest separation distance among the at least one stationary object as the mole-using object.
본 출원의 일 실시예에 따른 가축 관리 로봇 시스템은 복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 복수의 RFID 태그들로부터 로봇 위치 정보를 수집하고, 상기 복수의 가축들에 대한 가축 영상을 촬영하는 가축 관리 로봇 및 상기 가축 영상과 상기 로봇 위치 정보를 전송받아 관리자 단말에 중계하는 관리자 서버를 포함하고, 상기 가축 관리 로봇은, 상기 가축 영상으로부터 객체 검출 알고리즘을 통해 상기 몰이용 객체를 인식하는 인식부, 상기 몰이용 객체로부터 일정 거리 이격된 후방 영역을 따라 주행하는 자율 주행부, 상기 몰이용 객체의 움직임 여부에 기초하여, 가이드 신호를 출력하는 제1 이벤트 동작과 상기 몰이용 객체를 터치하는 제2 이벤트 동작 중 적어도 하나의 동작을 수행하는 이벤트 제어부 및 상기 관리자 단말로부터 전송받는 수동 조작 정보에 기초하여, 상기 인식부, 자율 주행부 및 이벤트 제어부 중 적어도 하나를 제어하는 통신부를 포함한다. The livestock management robot system according to an embodiment of the present application collects robot location information from a plurality of RFID tags installed at predetermined distances along a movement path of a plurality of livestock, and collects livestock images for the plurality of livestock. A livestock management robot that takes pictures and a manager server that receives the livestock image and the robot location information and relays it to a manager terminal, wherein the livestock management robot recognizes the sheep-use object from the livestock image through an object detection algorithm A recognition unit, an autonomous driving unit that travels along a rear region separated by a predetermined distance from the mole-using object, a first event operation of outputting a guide signal based on whether the mole-using object moves, and touching the mole-using object and an event control unit that performs at least one of the second event operations, and a communication unit that controls at least one of the recognition unit, the autonomous driving unit, and the event control unit based on manual operation information received from the manager terminal.
본 출원의 실시예에 따르면, 가축 관리 로봇 및 그 동작 방법은 가축 이동 작업에 따른 인력을 감소시키고, 가축의 공격이나 충돌로 인한 작업자의 사고 위험을 방지할 수 있다. According to an embodiment of the present application, the livestock management robot and its operating method can reduce the manpower according to the livestock moving operation, and prevent the risk of an accident of the operator due to the attack or collision of the livestock.
도 1은 본 출원의 일 실시예에 따른 가축 관리 로봇에 대한 블록도이다.
도 2는 도 1의 인식부에 대한 블록도이다.
도 3은 자율 주행부를 구체적으로 나타내는 도이다.
도 4는 본 출원의 다른 실시예에 따른 가축 관리 로봇에 대한 블록도이다.
도 5는 가축 관리 로봇 시스템에 대한 블록도이다.
도 6은 도 4의 가축 관리 로봇의 일 실시예에 따른 동작 프로세스이다.
도 7은 도 2의 인식부에 대한 동작 프로세스이다. 1 is a block diagram of a livestock management robot according to an embodiment of the present application.
FIG. 2 is a block diagram of the recognition unit of FIG. 1 .
3 is a diagram specifically illustrating an autonomous driving unit.
4 is a block diagram of a livestock management robot according to another embodiment of the present application.
5 is a block diagram of a livestock management robot system.
6 is an operation process according to an embodiment of the livestock management robot of FIG.
7 is an operation process for the recognition unit of FIG.
이하, 구체적인 실시형태 및 첨부된 도면을 참조하여 본 출원의 실시형태를 설명한다. 그러나, 본 출원의 실시 형태는 여러 가지 다른 형태로 변형될 수 있으며, 본 출원의 범위가 이하 설명하는 실시형태로 한정되는 것은 아니다. 또한, 본 출원의 실시형태는 통상의 기술자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있으며, 도면상의 동일한 부호로 표시되는 요소는 동일한 요소이다.Hereinafter, embodiments of the present application will be described with reference to specific embodiments and the accompanying drawings. However, the embodiments of the present application may be modified in various other forms, and the scope of the present application is not limited to the embodiments described below. In addition, the embodiments of the present application are provided in order to more completely explain the present invention to those skilled in the art. Accordingly, the shapes and sizes of elements in the drawings may be exaggerated for clearer description, and elements indicated by the same reference numerals in the drawings are the same elements.
그리고 도면에서 본 출원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하고, 여러 층 및 영역을 명확하게 표현하기 위하여 두께를 확대하여 나타내었으며, 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다. 나아가, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and the thickness is enlarged to clearly express various layers and regions, and components having the same function within the scope of the same idea are referred to as the same. It is explained using symbols. Furthermore, throughout the specification, when a part "includes" a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated.
도 1은 본 출원의 일 실시예에 따른 가축 관리 로봇(10)에 대한 블록도이다. 1 is a block diagram of a
도 1을 참조하면, 가축 관리 로봇(10)은 인식부(100), 자율 주행부(200) 및 이벤트 제어부(300)를 포함할 수 있다. Referring to FIG. 1 , the
먼저, 인식부(100)는 가축 영상으로부터 검출되는 몰이용 객체를 인식할 수 있다. 여기서, 몰이용 객체는 사육공간의 청소나 착유를 위해 가축들을 이동시킬 때, 이동하지 않고 주위를 맴도는 개체들 중 하나에 대응되는 이미지 객체를 의미할 수 있다. First, the
구체적으로, 인식부(100)는 가축 영상 내 기설정된 가축 동작으로부터 적어도 하나의 몰이용 객체를 검출하고, 적어도 하나의 몰이용 객체 중 관리자에 의해 기설정된 기준에 따라 특정된 어느 하나를 몰이용 객체로 인식할 수 있다. Specifically, the
다음으로, 자율 주행부(200)는 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역을 따라 자율 주행할 수 있다. 여기서, 후방 영역은 영상 내 몰이용 객체로부터 일정 개수의 픽셀들만큼 떨어져 위치한 영역을 의미할 수 있다. 즉, 자율 주행부(200)는 가축 영상의 후방 영역을 따라 주행함으로써, 몰이용 객체에 대응되는 가축의 후위를 따라 자동으로 추종할 수 있다. Next, the
다음으로, 이벤트 제어부(300)는 몰이용 객체의 움직임 여부에 기초하여, 가이드 신호를 출력하는 제1 이벤트 동작과 몰이용 객체를 터치하는 제2 이벤트 동작 중 적어도 하나의 동작을 수행할 수 있다. Next, the
여기서, 가이드 신호는 몰이용 객체에 대응하는 가축을 이동시키기 위한 관리자 음성 신호, 경보 신호, 진동, 동일 가축의 소리 및 LED 조명 중 적어도 하나일 수 있다. Here, the guide signal may be at least one of a manager's voice signal, an alarm signal, vibration, a sound of the same livestock, and LED lighting for moving the livestock corresponding to the driving object.
구체적으로, 이벤트 제어부(300)는 몰이용 객체의 후방 영역에 위치할 때 제1 이벤트 동작을 수행한 이후, 몰이용 객체의 움직임 여부에 기초하여 제2 이벤트 동작에 대한 수행 여부를 결정할 수 있다. Specifically, after performing the first event operation when located in the rear region of the mole-using object, the
예를 들면, 이벤트 제어부(300)는 몰이용 객체의 후방 영역에 위치할 때 제1 이벤트 동작을 먼저 수행할 수 있다. 이때, 몰이용 객체의 움직임이 일정 시간 동안 없는 경우, 이벤트 제어부(300)는 제2 이벤트 동작을 수행할 수 있다. 한편, 몰이용 객체의 움직임이 발생하는 경우, 이벤트 제어부(300)는 제2 이벤트 동작을 수행하지 않을 수 있다. For example, the
또한, 이벤트 제어부(300)는 몰이용 객체의 후방 영역에 위치할 때, 제1 및 제2 이벤트 동작을 순차적으로 수행할 수 있다. 이때, 이벤트 제어부(300)는 제1 및 제2 이벤트 동작 순서를 변경할 수도 있다. Also, the
또한, 이벤트 제어부(300)는 몰이용 객체에 따라 목적지까지 기설정된 최단 이동 거리에 기초하여, 기수집된 이탈 지점마다 상기 제1 및 제2 이벤트 동작 중 어느 하나의 동작을 재수행함으로써, 몰이용 객체의 이탈을 사전에 예방할 수 있다. In addition, the
또한, 이벤트 제어부(300)는 상기 가축 영상으로부터 기설정된 긴급 상황 객체 형상이 검출될 때, 기등록된 단말에 긴급 메시지를 전송하는 동시에, 관리자가 위치한 기등록된 영역으로 주행하여 경보 신호를 출력할 수 있다. 예를 들면, 기설정된 긴급 상황 객체 형상은 화재 형상 이미지 객체, 쓰러져 있는 가축 형상 이미지 객체, 맹수가 가축을 공격하는 이미지 객체 등을 포함할 수 있다. In addition, when a preset emergency situation object shape is detected from the livestock image, the
본 출원의 실시예에 따라, 가축 관리 로봇(10)은 인식부(100)를 통해 가축을 이동시키는 작업에서, 이동을 방해하거나 이동하지 않는 몰이용 객체를 인식하고, 자율 주행부(200)를 통해 몰이용 객체의 후방 영역을 따라 자율 주행할 수 있다. 이때, 가축 관리 로봇(10)은 이벤트 제어부(300)를 통해 몰이용 객체의 이동을 독려하도록 가이드 신호 출력과 터치 동작 중 적어도 하나의 이벤트 동작을 수행할 수 있다. 이에 따라, 가축 관리 로봇(10)은 가축 이동 작업에 따른 추가 인력을 감소시키고, 가축의 공격이나 충돌로 인한 작업자의 사고 위험을 방지할 수 있다. According to an embodiment of the present application, the
이하, 본 출원에서는 이해를 돕기 위해 복수의 가축들에 대한 예를 젖소로 하여 설명하며, 도 2를 참조하여 인식부(100)에 대해 보다 구체적으로 설명될 것이다. Hereinafter, in the present application, an example of a plurality of livestock will be described as a cow for better understanding, and the
도 2는 도 1의 인식부(100)에 대한 블록도이다. FIG. 2 is a block diagram of the
도 1과 도 2를 참조하면, 인식부(100)는 카메라부(110), 이미지 추출부(120), 객체 검출부(130) 및 거리 측정부(140)를 포함할 수 있다. 1 and 2 , the
먼저, 카메라부(110)는 복수의 가축들(1_1~1_N)에 대한 가축 영상을 촬영할 수 있다. First, the
다음으로, 이미지 추출부(120)는 연산 부하를 감소시키기 위하여, 카메라부(110)를 통해 촬영된 가축 영상으로부터 적어도 하나의 관심 이미지를 추출할 수 있다. 여기서, 적어도 하나의 관심 이미지는 몰이용 객체가 포함된 적어도 하나의 프레임일 수 있다. Next, the
다음으로, 객체 검출부(130)는 객체 인식 알고리즘을 이용하여, 적어도 하나의 관심 이미지로부터 적어도 하나의 정지 객체와 적어도 하나의 이동 객체를 검출할 수 있다. Next, the
여기서, 정지 객체는 움직임이 없는 젖소 형상을 갖는 이미지 객체이고, 이동 객체는 움직이는 젖소 형상을 갖는 이미지 객체일 수 있다. Here, the still object may be an image object having a motionless cow shape, and the moving object may be an image object having a moving cow shape.
구체적으로, 객체 검출부(130)는 적어도 하나의 관심 이미지로부터 복수의 객체들을 검출하고, 복수의 객체들 중 기설정된 정지 객체 형상에 대응되는 정지 객체와 기설정된 이동 객체 형상에 대응되는 이동 객체로 분류하여 검출할 수 있다. Specifically, the
이러한 객체 인식 알고리즘은 SIFT(Scale Invariant Feature Transform) 알고리즘, HOG(Histogram of Oriented Gradient) 알고리즘, Haar feature 알고리즘, Ferns 알고리즘, LBP(Local Binary Pattern) 알고리즘 및 MCT(Modified Census Transform) 알고리즘 중 적어도 어느 하나일 수 있다. The object recognition algorithm may be at least one of a SIFT (Scale Invariant Feature Transform) algorithm, a HOG (Histogram of Oriented Gradient) algorithm, a Haar feature algorithm, a Ferns algorithm, a Local Binary Pattern (LBP) algorithm, and a Modified Census Transform (MCT) algorithm. can
다음으로, 거리 측정부(140)는 카메라부(110)에 인접하게 배치되고, 적어도 하나의 정지 객체와 카메라부(110) 사이의 각 이격 거리를 측정할 수 있다. Next, the
실시예에 따른 객체 검출부(130)는 적어도 하나의 정지 객체 중 이격 거리가 가장 큰 객체를 몰이용 객체로 결정할 수 있다. 이때, 객체 검출부(130)는 가축 영상으로부터 몰이용 객체의 후방 영역을 실시간으로 검출하여 자율 주행부(200)로 전송할 수 있다. The
이러한 후방 영역은 주행할 위치 정보를 포함하고, 이때, 이격 거리는 몰이용 객체와 도착지 사이의 이동 거리에 비례할 수 있다. This rear region includes location information to be driven, and in this case, the separation distance may be proportional to the movement distance between the driving object and the destination.
또한, 객체 검출부(130)는 적어도 하나의 정지 객체 중 관리자에 의하여 기설정된 기준에 따라 결정되는 특정 객체를 몰이용 객체로 결정할 수도 있다.Also, the
도 3은 자율 주행부(200)를 구체적으로 나타내는 도이다. 3 is a diagram specifically illustrating the
도 3을 참조하면, 자율 주행부(200)는 이동장치(210), 터치장치(220) 및 출력장치(230)를 포함할 수 있다. Referring to FIG. 3 , the
먼저, 이동장치(210)는 젖소와의 충돌 및 뒷발질을 견딜수 있도록 외부면이 탄성 재질로 형성될 수 있다. 이때, 이동장치(210)는 후방 영역을 따라 주행하기 위한 배터리와 모터가 하부 내측에 배치될 수 있다. First, the
일 실시예에 따라, 이동장치(210)는 젖소로부터 가해지는 충격에 따라, 전륜축과 후륜축의 길이(L1)를 조절할 수 있도록 형성될 수 있다. 구체적으로, 이동장치(210)는 충격 감지 센서와 전륜축 및 후륜축의 길이(L1)를 제어하기 위한 펌프, 실린더, 밸브 등을 이용하여, 전륜축과 후륜축의 길이(L1)를 조절할 수 있다. 즉, 이동장치(210)는 충격 감지 센서를 통해 감지된 충격량에 기초하여 펌프, 실린더, 밸브 등을 통해 전륜축과 후륜축의 길이(L1)를 증가시킴으로써, 가축 관리 로봇(10)이 젖소의 뒷발질에 따라 넘어지는 사고를 방지할 수 있다. According to an embodiment, the moving
다른 실시예에 따라, 이동장치(210)는 젖소로부터 가해지는 충격에 따라, 전륜축과 후륜축 사이의 축간 길이(L2)를 조절할 수 있도록 형성될 수 있다. 즉, 이동장치(210)는 충격 감지 센서와 전륜축 및 후륜축 사이의 축간 길이(L2)를 제어하기 위한 펌프, 실린더, 밸브 등을 포함할 수 있다. According to another embodiment, the moving
또한, 이동장치(210)는 객체 검출부(130)로부터 전송받는 가축 영상의 후방 영역에 기초하여, 몰이용 객체를 따라 자율 주행할 수 있다. 예를 들면, 이동장치(210)는 몰이용 객체의 후방 영역을 전방으로 하여 주행 방향을 자동으로 결정함으로써, 몰이용 객체에 해당하는 젖소를 추종할 수 있다. Also, the
다음으로, 터치장치(220)는 이동장치(210)의 상측 외부면에 배치되고, 이벤트 제어부(300)의 제어에 따라 후방 영역으로부터 몰이용 객체에 대응되는 젖소의 몸체까지의 길이로 연장될 수 있다.Next, the
다음으로, 출력장치(230)는 이벤트 제어부(300)의 제어에 따라, 젖소의 이동을 가이드하기 위한 관리자 음성, 경보 신호, 진동 및 LED 조명 중 적어도 하나를 출력하기 위한 녹음기, 스피커, LED를 포함할 수 있다. Next, the
도 4는 본 출원의 다른 실시예에 따른 가축 관리 로봇(11)에 대한 블록도이다. 4 is a block diagram of the
도 4를 참조하면, 가축 관리 로봇(11)은 인식부(100), 자율 주행부(200), 이벤트 제어부(300), 위치 정보 수집부(400) 및 통신부(500)를 포함할 수 있다. 이하, 도 1 내지 도 3을 참조하여 설명된 동일한 부재번호의 인식부(100), 자율 주행부(200) 및 이벤트 제어부(300)에 대한 중복된 설명은 생략될 것이다. Referring to FIG. 4 , the
먼저, 위치 정보 수집부(400)는 복수의 가축들이 이동하는 이동 경로를 따라 일정위치 마다 설치된 복수의 RFID 태그들과 통신하는 RFID 리더를 통해 로봇 위치 정보를 수집할 수 있다. 여기서, RFID 태그들은 적어도 하나의 가축을 인식하는 적어도 하나의 가축 인식용 태그들을 더 포함할 수 있다. 이때, RFID 리더는 위치 정보 수집부(400)에 배치되어, 복수의 RFID 태그들로부터 전송받는 서로 다른 식별 정보에 대응되는 위치 정보를 수집할 수 있다. First, the location
다음으로, 통신부(500)는 카메라부(110)를 통해 촬영된 가축 영상과 위치 정보 수집부(400)를 통해 수집된 로봇 위치 정보를 네트워크를 통해 관리자 단말(20)로 실시간으로 제공할 수 있다. Next, the
실시예에 따른 통신부(500)는 관리자 단말(20)로부터 전송받는 수동 조작 정보에 기초하여, 인식부(100), 자율 주행부(200) 및 이벤트 제어부(300) 중 적어도 하나를 제어할 수 있다. The
여기서, 수동 조작 정보는 가축 영상 내에서 관리자에 의해 임의로 몰이용 객체를 선택하기 위한 객체 선택 정보, 자율 주행부(200)의 속도, 방향 및 정지 등을 수동으로 조작하기 위한 주행 조작 정보, 제1 및 제2 이벤트 동작에 대한 반복 횟수나 순서를 조작하기 위한 이벤트 동작 정보를 포함할 수 있다. Here, the manual operation information includes object selection information for arbitrarily selecting an object to be driven by a manager within the livestock image, driving operation information for manually operating the speed, direction, and stop of the
도 5는 가축 관리 로봇 시스템(1000)에 대한 블록도이다. 5 is a block diagram of the livestock management robot system 1000 .
도 5를 참조하면, 가축 관리 로봇 시스템(1000)은 가축 관리 로봇(11)과 관리자 서버(21)를 포함할 수 있다. Referring to FIG. 5 , the livestock management robot system 1000 may include a
먼저, 가축 관리 로봇(11)은 복수의 RFID 태그들(410_1~410_N)과 통신하는 RFID 리더(420)를 이용하여 로봇 위치 정보를 수집할 수 있다. 여기서, 복수의 RFID 태그들(410_1~410_N)은 복수의 가축들이 이동하는 이동 경로를 따라 위치한 스타치온 또는 벽에 일정 거리 마다 설치될 수 있다. First, the
또한, 가축 관리 로봇(11)은 카메라(111)를 이용하여, 복수의 가축들에 대한 가축 영상을 촬영할 수 있다. Also, the
다음으로, 관리자 서버(21)는 가축 관리 로봇(11)으로부터 네트워크를 통해 가축 영상과 로봇 위치 정보를 전송받아 서버에 백업할 수 있다. Next, the
또한, 관리자 서버(21)는 관리자 단말(20)에 인증 정보를 요청함에 따라 응답받는 관리자 정보에 기초하여, 관리자 단말(20)에 대한 보안 인증을 수행할 수 있다. 이때, 관리자 서버(21)는 카메라부(110)를 통해 촬영된 가축 영상과 위치 정보 수집부(400)를 통해 수집된 로봇 위치 정보를 상기 보안 인증이 완료된 관리자 단말(20)에 전달할 수 있다. In addition, the
실시예에 따른 가축 관리 로봇(11)은 관리자 단말(20)로부터 관리자 서버(21)를 통해 전송받는 수동 조작 정보에 기초하여 몰이용 객체에 대한 변경 여부를 판단하고, 상기 몰이용 객체가 변경됨에 따라 주행 방향을 변경하는 동시에 주행 속도를 일정 시간 증가시킬 수 있다. The
이때, 가축 관리 로봇(11)은 상기 수동 조작 정보에 따라 변경된 상기 몰이용 객체의 움직임 여부에 기초하여, 가이드 신호를 출력하는 제1 이벤트 동작과 가축 몸체를 터치하는 제2 이벤트 동작 중 적어도 하나의 동작을 수행할 수 있다.At this time, the
도 5에서는, 관리자 단말(20)이 관리자 서버(21)를 통해 원격으로 가축 관리 로봇(11)을 제어하는 것으로 설명되지만 이를 한정하는 것은 아니며, 도 4에 도시된 바와 같이, 관리자 단말(20)이 가축 관리 로봇(11)을 직접 제어할 수도 있다.5, the
도 6은 도 4의 가축 관리 로봇(11)의 일 실시예에 따른 동작 프로세스이다. 6 is an operation process according to an embodiment of the
도 1과 도 6을 참조하면, 먼저 S110 단계에서, 인식부(100)는 가축 영상으로부터 몰이용 객체를 인식할 수 있다. Referring to FIGS. 1 and 6 , first, in step S110 , the
그런 다음, S120 단계에서, 자율 주행부(200)는 인식부(100)를 통해 인식된 몰이용 객체로부터 일정 거리 이격된 가축 영상 내 후방 영역으로 자율 주행할 수 있다. Then, in step S120 , the
이때, S130 단계에서, 위치 정보 수집부(400)는 복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 RFID 태그들(410_1~410_N)과 통신하는 RFID 리더(420)를 통해 로봇 위치 정보를 수집할 수 있다. At this time, in step S130, the location
그런 다음, S140 단계에서, 통신부(500)는 카메라부(110)를 통해 촬영된 가축 영상과 로봇 위치 정보를 관리자 단말(20) 또는 관리자 서버(21)에 제공할 수 있다. Then, in step S140 , the
이때, S150 단계에서, 이벤트 제어부(300)는 후방 영역에서 몰이용 객체 방향으로 가이드 신호를 출력하는 제1 이벤트 동작을 수행할 수 있다. In this case, in step S150 , the
또한, S160 단계에서, 이벤트 제어부(300)는 상기 가축 영상 내 몰이용 객체의 움직임 여부에 기초하여, 몰이용 객체에 대응되는 가축을 터치하는 제2 이벤트 동작을 수행할 수 있다. 예를 들면, 몰이용 객체의 움직임이 발생하지 않는 경우, 이벤트 제어부(300)는 제2 이벤트 동작을 수행할 수 있다. Also, in step S160 , the
이후, S170 단계에서, 기설정된 목적지까지 주행을 완료하는 경우, 자율 주행부(200)는 기설정된 충전 영역으로 주행하여 자동 충전할 수 있다. Thereafter, in step S170 , when driving to a preset destination is completed, the
도 7은 도 2의 인식부(100)에 대한 동작 프로세스이다. FIG. 7 is an operation process for the
도 2와 도 7을 참조하면, 먼저, S210 단계에서, 카메라부(110)는 복수의 가축들(1_1~1_N)에 대한 가축 영상을 촬영할 수 있다. Referring to FIGS. 2 and 7 , first, in step S210 , the
그런 다음, S220 단계에서, 이미지 추출부(120)는 카메라부(110)를 통해 촬영된 가축 영상으로부터 적어도 하나의 관심 이미지를 추출할 수 있다. 여기서, 적어도 하나의 관심 이미지는 몰이용 객체가 포함된 적어도 하나의 프레임일 수 있다. Then, in step S220 , the
이때, S230 단계에서, 객체 검출부(130)는 적어도 하나의 관심 이미지에 대한 기설정된 객체 인식 알고리즘을 적용하여, 복수의 가축들을 적어도 하나의 정지 객체와 이동 객체로 분류하여 검출할 수 있다. In this case, in step S230 , the
그런 다음, S240 단계에서, 거리 측정부(140)는 객체 검출부(130)를 통해 검출된 적어도 하나의 정지 객체와 카메라부(110) 사이의 각 이격 거리를 측정할 수 있다. Then, in step S240 , the
이후, S250 단계에서, 객체 검출부(130)는 적어도 하나의 정지 객체 중 이격 거리가 가장 큰 정지 객체를 몰이용 객체로 결정할 수 있다. Thereafter, in step S250 , the
본 출원은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 출원의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다. Although the present application has been described with reference to an embodiment shown in the drawings, this is merely exemplary, and those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present application should be determined by the technical spirit of the appended claims.
10, 11, 12: 가축 관리 로봇
100: 인식부
200: 자율 주행부
300: 이벤트 제어부
1000: 가축 관리 로봇 시스템10, 11, 12: Livestock management robot
100: recognition unit
200: autonomous driving unit
300: event control unit
1000: livestock management robot system
Claims (13)
상기 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역을 따라 주행하는 자율 주행부; 및
상기 후방 영역에서 가이드 신호를 출력하는 제1 이벤트 동작을 수행하고, 상기 몰이용 객체의 움직임 여부에 기초하여, 상기 몰이용 객체에 대응되는 가축을 터치하는 제2 이벤트 동작을 수행하는 이벤트 제어부를 포함하는, 가축 관리 로봇.a recognition unit for recognizing a mole-using object detected from a livestock image;
an autonomous driving unit that runs along a rear region of the livestock image spaced a certain distance from the driving object; and
and an event controller performing a first event operation of outputting a guide signal in the rear region and performing a second event operation of touching a livestock corresponding to the sheep-use object based on whether the sheep-use object moves A livestock management robot.
상기 인식부는 상기 가축 영상을 촬영하기 위한 카메라부;
상기 가축 영상으로부터 적어도 하나의 관심 이미지를 추출하는 이미지 추출부;
기설정된 객체 인식 알고리즘을 이용하여, 상기 적어도 하나의 관심 이미지로부터 적어도 하나의 정지 객체와 적어도 하나의 이동 객체를 검출하는 객체 검출부; 및
상기 적어도 하나의 정지 객체와 상기 카메라부 사이의 각 이격 거리를 측정하는 거리 측정부를 포함하는, 가축 관리 로봇.According to claim 1,
The recognition unit includes: a camera unit for photographing the livestock image;
an image extraction unit for extracting at least one image of interest from the livestock image;
an object detection unit configured to detect at least one still object and at least one moving object from the at least one image of interest by using a preset object recognition algorithm; and
A livestock management robot comprising a distance measuring unit for measuring each separation distance between the at least one stationary object and the camera unit.
상기 객체 검출부는 상기 적어도 하나의 정지 객체 중 특정 객체를 상기 몰이용 객체로 결정하는, 가축 관리 로봇.3. The method of claim 2,
The object detection unit determines a specific object among the at least one stationary object as the sheep-use object, the livestock management robot.
상기 이벤트 제어부는 상기 몰이용 객체에 따라 목적지까지의 최단 이동 거리에 기초하여, 기설정된 이탈 예상 지점에서 상기 제1 및 제2 이벤트 동작 중 어느 하나의 동작을 재수행하는, 가축 관리 로봇. According to claim 1,
The event controller re-performs any one of the first and second event operations at a preset departure expected point based on the shortest moving distance to the destination according to the mole-using object.
상기 자율 주행부는 외부면이 탄성 재질로 형성되고, 하측 내부에 주행을 위한 배터리와 모터가 배치되는 이동장치;
상기 이동장치의 상측 외부면에 형성되고, 상기 이벤트 제어부의 제어에 따라 상기 후방 영역으로부터 상기 몰이용 객체까지의 길이로 연장되는 터치장치; 및
상기 이벤트 제어부에 따라 관리자 음성, 경보 신호, 진동 및 LED 조명 중 적어도 하나를 출력하기 위한 출력장치를 포함하는, 가축 관리 로봇.According to claim 1,
The autonomous driving unit has an outer surface formed of an elastic material, and a moving device in which a battery and a motor for driving are disposed inside the lower side;
a touch device formed on an upper outer surface of the mobile device and extending from the rear region to the mole-using object under the control of the event controller; and
An output device for outputting at least one of a manager's voice, an alarm signal, a vibration, and an LED light according to the event control unit, the livestock management robot.
상기 이동 장치는 젖소로부터 가해지는 충격에 따라 전륜축과 후륜축의 길이를 조절하는, 가축 관리 로봇.6. The method of claim 5,
The moving device is a livestock management robot that adjusts the length of the front axle and the rear axle according to the impact applied from the cow.
복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 RFID 태그들 및 하나 이상의 객체인식이 가능한 태그들과 통신하는 RFID 리더를 통해 로봇 위치 정보를 수집하는 위치 정보 수집부; 및
상기 가축 영상과 상기 로봇 위치 정보를 네트워크를 통해 관리자 단말에 제공하는 통신부를 더 포함하고,
상기 RFID 태그들은 적어도 하나의 가축을 인식하는 적어도 하나의 가축 인식용 태그들을 더 포함하는, 가축 관리 로봇.According to claim 1,
a location information collecting unit for collecting robot location information through an RFID reader that communicates with RFID tags installed at predetermined distances along a movement path of a plurality of livestock and one or more object recognition-capable tags; and
Further comprising a communication unit for providing the livestock image and the robot position information to the manager terminal through a network,
The RFID tags further include at least one livestock recognition tag for recognizing at least one livestock.
상기 통신부는, 관리자 단말로부터 전송받는 수동 조작 정보에 기초하여, 인식부, 자율 주행부 및 이벤트 제어부 중 적어도 하나를 제어하는, 가축 관리 로봇.8. The method of claim 7,
The communication unit, based on the manual operation information received from the manager terminal, to control at least one of the recognition unit, the autonomous driving unit, and the event control unit, livestock management robot.
상기 이벤트 제어부는 상기 적어도 하나의 관심 이미지로부터 기설정된 긴급 상황 객체 형상이 검출될 때, 기등록된 단말에 긴급 메시지를 전송하는 동시에, 관리자가 위치한 기등록된 영역으로 주행하여 경보 신호를 출력하는, 가축 관리 로봇. 3. The method of claim 2,
The event control unit transmits an emergency message to a pre-registered terminal when a preset emergency object shape is detected from the at least one image of interest, and outputs an alert signal by driving to a pre-registered area where the manager is located, Livestock management robot.
인식부가 가축 영상으로부터 몰이용 객체를 인식하는 단계;
자율 주행부가 상기 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역으로 자율 주행하는 단계; 및
이벤트 제어부가 상기 후방 영역에서 가이드 신호를 출력하는 제1 이벤트 동작을 수행하는 단계;
상기 이벤트 제어부가 상기 몰이용 객체의 움직임 여부에 기초하여, 상기 몰이용 객체에 대응되는 가축을 터치하는 제2 이벤트 동작을 수행하는 단계; 및
상기 자율 주행부가 기설정된 목적지까지 주행한 경우, 기설정된 충전 영역으로 이동하여 자동 충전하는 단계를 포함하는, 가축 관리 로봇의 동작 방법.A method of operating a livestock management robot, comprising:
Recognizing, by a recognition unit, a sheepish object from the livestock image;
autonomously driving, by an autonomous driving unit, to a rear region of the livestock image spaced a certain distance from the driving object; and
performing, by the event controller, a first event operation for outputting a guide signal from the rear region;
performing, by the event controller, a second event operation of touching a livestock corresponding to the mole-using object based on whether the mole-using object moves; and
When the autonomous driving unit travels to a preset destination, moving to a preset charging area and automatically charging the car, the operating method of the livestock management robot.
위치 정보 수집부가 복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 RFID 태그들과 통신하는 RFID 리더를 통해 로봇 위치 정보를 수집하는 단계; 및
통신부가 상기 가축 영상과 상기 로봇 위치 정보를 관리자 단말에 제공하는 단계를 더 포함하는, 가축 관리 로봇의 동작 방법. 11. The method of claim 10,
collecting, by a location information collecting unit, robot location information through an RFID reader communicating with RFID tags installed at predetermined distances along a movement path of a plurality of livestock; and
The method of operation of the livestock management robot further comprising the step of a communication unit providing the livestock image and the robot position information to a manager terminal.
상기 몰이용 객체를 인식하는 단계는, 카메라부가 복수의 가축들을 촬영하는 단계;
이미지 추출부가 상기 가축 영상으로부터 적어도 하나의 관심 이미지를 추출하는 단계;
객체 검출부가 객체 인식 알고리즘을 이용하여, 상기 적어도 하나의 관심 이미지로부터 적어도 하나의 정지 객체와 적어도 하나의 이동 객체를 검출하는 단계;
거리 측정부가 상기 적어도 하나의 정지 객체와 상기 카메라부 사이의 각 이격 거리를 측정하는 단계; 및
상기 객체 검출부가 상기 적어도 하나의 정지 객체 중 이격 거리가 가장 큰 정지 객체를 상기 몰이용 객체로 결정하는 단계를 포함하는, 가축 관리 로봇의 동작 방법.11. The method of claim 10,
The step of recognizing the object for use may include: photographing a plurality of livestock by a camera unit;
extracting, by an image extraction unit, at least one image of interest from the livestock image;
detecting, by an object detection unit, at least one still object and at least one moving object from the at least one image of interest using an object recognition algorithm;
measuring, by a distance measuring unit, each separation distance between the at least one still object and the camera unit; and
and determining, by the object detection unit, a stationary object having the largest separation distance among the at least one stationary object as the sheep-use object.
상기 가축 영상과 상기 로봇 위치 정보를 전송받아 관리자 단말에 중계하는 관리자 서버를 포함하고,
상기 가축 관리 로봇은,
상기 가축 영상으로부터 객체 검출 알고리즘을 통해 몰이용 객체를 인식하는 인식부;
상기 몰이용 객체로부터 일정 거리 이격된 후방 영역을 따라 주행하는 자율 주행부;
상기 후방 영역에서 가이드 신호를 출력하는 제1 이벤트 동작을 수행하고, 상기 몰이용 객체의 움직임 여부에 기초하여, 상기 몰이용 객체에 대응되는 가축을 터치하는 제2 이벤트 동작을 수행하는 이벤트 제어부; 및
상기 관리자 단말로부터 전송받는 수동 조작 정보에 기초하여, 상기 인식부, 자율 주행부 및 이벤트 제어부 중 적어도 하나를 제어하는 통신부를 포함하는, 가축 관리 로봇 시스템.a livestock management robot that collects robot location information from a plurality of RFID tags installed at predetermined distances along a movement path of a plurality of livestock and captures livestock images for the plurality of livestock; and
and a manager server that receives the livestock image and the robot location information and relays it to a manager terminal,
The livestock management robot,
a recognition unit for recognizing a mole-using object from the livestock image through an object detection algorithm;
an autonomous driving unit that drives along a rear area spaced apart from the driving object by a predetermined distance;
an event controller performing a first event operation of outputting a guide signal from the rear region and performing a second event operation of touching a livestock corresponding to the sheep-use object based on whether the sheep-use object moves; and
Based on the manual operation information received from the manager terminal, comprising a communication unit for controlling at least one of the recognition unit, the autonomous driving unit, and the event control unit, livestock management robot system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200074804A KR102384444B1 (en) | 2020-06-19 | 2020-06-19 | Domestic animal management robot and operation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200074804A KR102384444B1 (en) | 2020-06-19 | 2020-06-19 | Domestic animal management robot and operation method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210157032A KR20210157032A (en) | 2021-12-28 |
KR102384444B1 true KR102384444B1 (en) | 2022-04-08 |
Family
ID=79178231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200074804A KR102384444B1 (en) | 2020-06-19 | 2020-06-19 | Domestic animal management robot and operation method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102384444B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102547144B1 (en) | 2022-12-02 | 2023-06-22 | 한경국립대학교 산학협력단 | Agricultural vehicle with improved leveling and controlling method thereof |
KR102647681B1 (en) | 2023-11-16 | 2024-03-15 | 한경국립대학교 산학협력단 | Robot device for crop harvesting with and controlling method thereof |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100882897B1 (en) * | 2008-09-11 | 2009-02-10 | 동명대학교산학협력단 | Mobile robot location method using rfid and mobile robot using the method |
US20200097023A1 (en) * | 2018-09-21 | 2020-03-26 | Honda Motor Co., Ltd. | Autonomous all-terrain vehicles for herding |
US20200128785A1 (en) * | 2018-10-31 | 2020-04-30 | Underground Agriculture Company, LLC | Robotic rotational grazing system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170107341A (en) * | 2016-03-15 | 2017-09-25 | 엘지전자 주식회사 | Mobile robot and method for controlling the same |
-
2020
- 2020-06-19 KR KR1020200074804A patent/KR102384444B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100882897B1 (en) * | 2008-09-11 | 2009-02-10 | 동명대학교산학협력단 | Mobile robot location method using rfid and mobile robot using the method |
US20200097023A1 (en) * | 2018-09-21 | 2020-03-26 | Honda Motor Co., Ltd. | Autonomous all-terrain vehicles for herding |
US20200128785A1 (en) * | 2018-10-31 | 2020-04-30 | Underground Agriculture Company, LLC | Robotic rotational grazing system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102547144B1 (en) | 2022-12-02 | 2023-06-22 | 한경국립대학교 산학협력단 | Agricultural vehicle with improved leveling and controlling method thereof |
KR102647681B1 (en) | 2023-11-16 | 2024-03-15 | 한경국립대학교 산학협력단 | Robot device for crop harvesting with and controlling method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20210157032A (en) | 2021-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108052097B (en) | Method for training heterogeneous sensing system and heterogeneous sensing system | |
US9514366B2 (en) | Vehicle detection method and system including irrelevant window elimination and/or window score degradation | |
US10152649B2 (en) | Detecting visual information corresponding to an animal | |
KR102384444B1 (en) | Domestic animal management robot and operation method thereof | |
US8971581B2 (en) | Methods and system for automated in-field hierarchical training of a vehicle detection system | |
CN110866427A (en) | Vehicle behavior detection method and device | |
EP3900891A1 (en) | Pet amusement control apparatus of robot and mobile robot | |
KR20160135482A (en) | Apparatus and method for predicting moving of on-road obstable | |
KR102044193B1 (en) | System and Method for alarming collision of vehicle with support vector machine | |
WO2021248833A1 (en) | Anti-collision system and method for actively guiding vehicle stopping using camera | |
CN106341661A (en) | Patrol robot | |
CN105022986B (en) | Mobile member control apparatus and object detection device | |
CN107464416B (en) | Semi-automatic driving method and system for bus | |
JP2007140606A (en) | Parking lot monitoring system | |
US20210397187A1 (en) | Method and system for operating a mobile robot | |
CN110921154A (en) | Method and device for controlling garbage collection patrol car and garbage collection patrol car | |
JP6140436B2 (en) | Shooting system | |
CN109983518B (en) | Method and system for detecting protruding objects located in a parking lot | |
KR20160081190A (en) | Method and recording medium for pedestrian recognition using camera | |
KR101761357B1 (en) | System and method for vehicle monitoring | |
CN105574511B (en) | Have the adaptability object sorter and its method of parallel framework | |
JP7268959B2 (en) | Apparatus and method to prevent vehicle from automatically moving forward again after stopping | |
CN106114432A (en) | Vehicle DAS (Driver Assistant System) for specific objective | |
CN112966543B (en) | Vehicle scratch recording method and device | |
CN212873739U (en) | Vehicle door opening and closing action detection system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |