KR102384444B1 - Domestic animal management robot and operation method thereof - Google Patents

Domestic animal management robot and operation method thereof Download PDF

Info

Publication number
KR102384444B1
KR102384444B1 KR1020200074804A KR20200074804A KR102384444B1 KR 102384444 B1 KR102384444 B1 KR 102384444B1 KR 1020200074804 A KR1020200074804 A KR 1020200074804A KR 20200074804 A KR20200074804 A KR 20200074804A KR 102384444 B1 KR102384444 B1 KR 102384444B1
Authority
KR
South Korea
Prior art keywords
livestock
unit
image
event
robot
Prior art date
Application number
KR1020200074804A
Other languages
Korean (ko)
Other versions
KR20210157032A (en
Inventor
김현종
이명훈
이시영
홍영기
김국환
김경철
허정욱
이상규
곽강수
백정현
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020200074804A priority Critical patent/KR102384444B1/en
Publication of KR20210157032A publication Critical patent/KR20210157032A/en
Application granted granted Critical
Publication of KR102384444B1 publication Critical patent/KR102384444B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/005Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators using batteries, e.g. as a back-up power source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

본 출원의 일 실시예에 따른 가축 관리 로봇은 가축 영상으로부터 검출되는 몰이용 객체를 인식하는 인식부, 상기 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역을 따라 주행하는 자율 주행부 및 상기 몰이용 객체의 움직임 여부에 기초하여, 가이드 신호를 출력하는 제1 이벤트 동작과 상기 몰이용 객체를 터치하는 제2 이벤트 동작 중 적어도 하나의 동작을 수행하는 이벤트 제어부를 포함한다. The livestock management robot according to an embodiment of the present application includes a recognition unit for recognizing a sheep-use object detected from a livestock image, an autonomous driving unit that travels along a rear region of the livestock image spaced apart from the sheep-use object by a predetermined distance, and the and an event controller configured to perform at least one of a first event operation for outputting a guide signal and a second event operation for touching the mole-use object, based on whether the mole-use object moves.

Description

가축 관리 로봇 및 그 동작 방법{DOMESTIC ANIMAL MANAGEMENT ROBOT AND OPERATION METHOD THEREOF}Livestock management robot and its operation method

본 출원은 가축 관리 로봇 및 그 동작 방법에 관한 것이다. The present application relates to a livestock management robot and an operating method thereof.

현재, 젖소를 사육하는 농장에서는 젖소의 착유나 농장 청소 등을 위하여, 젖소를 이동시키는 작업이 필요하다. 이러한 작업에는 젖소들을 이동시키고, 이동 경로를 이탈하거나 이동하지 않는 젖소들을 관리할 수 있는 최소 1인의 숙련된 작업자가 필요하다. Currently, in farms raising dairy cows, it is necessary to move the cows for milking the cows or cleaning the farm. This operation requires at least one skilled worker to move the cows and manage the cows that deviate or do not move.

이에, 본 출원에서는 젖소들을 이동시키는 작업을 대신할 수 있는 가축 관리 로봇을 제공하고자 한다. Accordingly, the present application intends to provide a livestock management robot that can replace the operation of moving cows.

본 출원의 목적은 가축을 이동시키는 작업을 수행할 수 있는 가축 관리 로봇 및 그 동작 방법을 제공하기 위한 것이다. An object of the present application is to provide a livestock management robot capable of performing a task of moving livestock and an operating method thereof.

본 출원의 일 실시예에 따른 가축 관리 로봇은 가축 영상으로부터 검출되는 몰이용 객체를 인식하는 인식부, 상기 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역을 따라 주행하는 자율 주행부 및 상기 몰이용 객체의 움직임 여부에 기초하여, 가이드 신호를 출력하는 제1 이벤트 동작과 상기 몰이용 객체를 터치하는 제2 이벤트 동작 중 적어도 하나의 동작을 수행하는 이벤트 제어부를 포함한다. The livestock management robot according to an embodiment of the present application includes a recognition unit for recognizing a sheep-use object detected from a livestock image, an autonomous driving unit that travels along a rear region of the livestock image spaced apart from the sheep-use object by a predetermined distance, and the and an event controller configured to perform at least one of a first event operation for outputting a guide signal and a second event operation for touching the mole-use object, based on whether the mole-use object moves.

실시예에 따라, 상기 인식부는 상기 가축 영상을 촬영하기 위한 카메라부, 상기 가축 영상으로부터 적어도 하나의 관심 이미지를 추출하는 이미지 추출부, 상기 적어도 하나의 관심 이미지에 대한 기설정된 객체 인식 알고리즘을 적용하여, 상기 복수의 가축들을 적어도 하나의 정지 객체와 적어도 하나의 이동 객체로 검출하는 객체 검출부 및 상기 적어도 하나의 정지 객체와 상기 카메라부 사이의 각 이격 거리를 측정하는 거리 측정부를 포함한다. According to an embodiment, the recognition unit applies a camera unit for photographing the livestock image, an image extractor for extracting at least one image of interest from the livestock image, and a preset object recognition algorithm for the at least one image of interest, , an object detection unit for detecting the plurality of livestock as at least one stationary object and at least one moving object, and a distance measurement unit for measuring each separation distance between the at least one stationary object and the camera unit.

실시예에 따라, 상기 객체 검출부는 상기 적어도 하나의 정지 객체 중 특정 객체를 상기 몰이용 객체로 결정한다. According to an embodiment, the object detection unit determines a specific object among the at least one stationary object as the mole-using object.

실시예에 따라, 상기 이벤트 제어부는 상기 몰이용 객체에 따라 목적지까지의 최단 이동 거리에 기초하여, 기설정된 이탈 예상 지점에서 상기 제1 및 제2 이벤트 동작 중 어느 하나의 동작을 재수행한다. According to an embodiment, the event controller re-performs any one of the first and second event operations at a preset departure expected point based on the shortest moving distance to the destination according to the mole-using object.

실시예에 따라, 상기 자율 주행부는 외부면이 탄성 재질로 형성되고, 하측 내부에 주행을 위한 배터리와 모터가 배치되는 이동장치, 상기 이동장치의 상측 외부면에 형성되고, 상기 이벤트 제어부의 제어에 따라 상기 후방 영역으로부터 상기 몰이용 객체까지 길이로 연장되는 터치장치 및 상기 이벤트 제어부에 따라 관리자 음성, 경보 신호, 진동, 동일 가축의 소리 및 LED 조명 중 적어도 하나를 출력하기 위한 출력장치를 포함한다. According to an embodiment, the autonomous driving unit has an outer surface formed of an elastic material, a mobile device in which a battery and a motor for driving are disposed inside a lower side, is formed on an upper outer surface of the mobile device, and is controlled by the event controller. A touch device extending in length from the rear region to the mole-using object and an output device for outputting at least one of a manager voice, an alarm signal, a vibration, a sound of the same livestock, and an LED light according to the event control unit are included.

실시예에 따라, 상기 이동 장치는 젖소로부터 가해지는 충격에 따라 전륜축과 후륜축의 길이를 조절한다. According to an embodiment, the moving device adjusts the lengths of the front wheel axle and the rear wheel axle according to the impact applied from the cow.

실시예에 따라, 상기 복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 RFID 태그들과 통신하는 RFID 리더를 통해 로봇 위치 정보를 수집하는 위치 정보 수집부 및 상기 가축 영상과 상기 로봇 위치 정보를 네트워크를 통해 관리자 단말에 제공하는 통신부를 더 포함하고, 상기 RFID 태그들은 적어도 하나의 가축을 인식하는 적어도 하나의 가축 인식용 태그들을 더 포함한다. According to an embodiment, a location information collecting unit that collects robot location information through an RFID reader that communicates with RFID tags installed at predetermined distances along a movement path of the plurality of livestock, and the livestock image and the robot location information Further comprising a communication unit for providing to the manager terminal through a network, the RFID tags further include at least one tag for recognizing at least one livestock for recognizing the livestock.

실시예에 따라, 상기 통신부는, 관리자 단말로부터 전송받는 수동 조작 정보에 기초하여, 인식부, 자율 주행부 및 이벤트 제어부 중 적어도 하나를 제어한다. According to an embodiment, the communication unit controls at least one of the recognition unit, the autonomous driving unit, and the event control unit based on manual operation information received from the manager terminal.

실시예에 따라, 상기 이벤트 제어부는 상기 적어도 하나의 관심 이미지로부터 기설정된 긴급 상황 객체 형상이 검출될 때, 기등록된 단말에 긴급 메시지를 전송하는 동시에, 관리자가 위치한 기등록된 영역으로 주행하여 경보 신호를 출력한다. According to an embodiment, when a preset emergency situation object shape is detected from the at least one image of interest, the event control unit transmits an emergency message to a pre-registered terminal and travels to a pre-registered area where the manager is located to alert output a signal.

본 출원의 일 실시예에 따른 가축 관리 로봇의 동작 방법으로서, 인식부가 가축 영상으로부터 몰이용 객체를 인식하는 단계, 자율 주행부가 상기 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역으로 자율 주행하는 단계 및 이벤트 제어부가 상기 후방 영역에서 가이드 신호를 출력하는 제1 이벤트 동작을 수행하는 단계, 상기 이벤트 제어부가 상기 몰이용 객체의 움직임 여부에 기초하여, 상기 몰이용 객체에 대응되는 가축을 터치하는 제2 이벤트 동작을 수행하는 단계 및 상기 자율 주행부가 기설정된 목적지까지 주행한 경우, 기설정된 충전 영역으로 이동하여 자동 충전하는 단계를 포함한다. As an operation method of a livestock management robot according to an embodiment of the present application, the step of recognizing a sheep-use object from a livestock image by a recognition unit, the autonomous driving unit autonomously driving to a rear area of the livestock image spaced a certain distance from the sheep-use object and performing, by the event controller, a first event operation of outputting a guide signal in the rear region, the event controller touching the livestock corresponding to the sheep-using object based on whether the sheep-using object moves. performing a second event operation; and when the autonomous driving unit drives to a preset destination, moving to a preset charging area and automatically charging the vehicle.

실시예에 따라, 위치 정보 수집부가 상기 복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 RFID 태그들과 통신하는 RFID 리더를 통해 로봇 위치 정보를 수집하는 단계 및 통신부가 상기 가축 영상과 상기 로봇 위치 정보를 관리자 단말에 제공하는 단계를 더 포함한다. According to an embodiment, the step of the location information collecting unit collecting robot location information through an RFID reader communicating with RFID tags installed at predetermined distances along the movement path of the plurality of livestock, and the communication unit collecting the livestock image and the robot The method further includes providing the location information to the manager terminal.

실시예에 따라, 상기 몰이용 객체를 인식하는 단계는, 카메라부가 상기 복수의 가축들을 촬영하는 단계, 이미지 추출부가 상기 가축 영상으로부터 적어도 하나의 관심 이미지를 추출하는 단계, 객체 검출부가 객체 인식 알고리즘을 이용하여, 상기 적어도 하나의 관심 이미지로부터 적어도 하나의 정지 객체와 적어도 하나의 이동 객체를 분류하여 검출하는 단계, 거리 측정부가 상기 적어도 하나의 정지 객체와 상기 카메라부 사이의 각 이격 거리를 측정하는 단계 및 상기 객체 검출부가 상기 적어도 하나의 정지 객체 중 이격 거리가 가장 큰 정지 객체를 상기 몰이용 객체로 결정하는 단계를 포함한다. According to an embodiment, the step of recognizing the mole-using object may include: a camera unit photographing the plurality of livestock, an image extraction unit extracting at least one image of interest from the livestock image, and an object detection unit executing an object recognition algorithm classifying and detecting at least one still object and at least one moving object from the at least one image of interest using, by a distance measuring unit measuring each separation distance between the at least one still object and the camera unit and determining, by the object detection unit, a stationary object having the largest separation distance among the at least one stationary object as the mole-using object.

본 출원의 일 실시예에 따른 가축 관리 로봇 시스템은 복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 복수의 RFID 태그들로부터 로봇 위치 정보를 수집하고, 상기 복수의 가축들에 대한 가축 영상을 촬영하는 가축 관리 로봇 및 상기 가축 영상과 상기 로봇 위치 정보를 전송받아 관리자 단말에 중계하는 관리자 서버를 포함하고, 상기 가축 관리 로봇은, 상기 가축 영상으로부터 객체 검출 알고리즘을 통해 상기 몰이용 객체를 인식하는 인식부, 상기 몰이용 객체로부터 일정 거리 이격된 후방 영역을 따라 주행하는 자율 주행부, 상기 몰이용 객체의 움직임 여부에 기초하여, 가이드 신호를 출력하는 제1 이벤트 동작과 상기 몰이용 객체를 터치하는 제2 이벤트 동작 중 적어도 하나의 동작을 수행하는 이벤트 제어부 및 상기 관리자 단말로부터 전송받는 수동 조작 정보에 기초하여, 상기 인식부, 자율 주행부 및 이벤트 제어부 중 적어도 하나를 제어하는 통신부를 포함한다. The livestock management robot system according to an embodiment of the present application collects robot location information from a plurality of RFID tags installed at predetermined distances along a movement path of a plurality of livestock, and collects livestock images for the plurality of livestock. A livestock management robot that takes pictures and a manager server that receives the livestock image and the robot location information and relays it to a manager terminal, wherein the livestock management robot recognizes the sheep-use object from the livestock image through an object detection algorithm A recognition unit, an autonomous driving unit that travels along a rear region separated by a predetermined distance from the mole-using object, a first event operation of outputting a guide signal based on whether the mole-using object moves, and touching the mole-using object and an event control unit that performs at least one of the second event operations, and a communication unit that controls at least one of the recognition unit, the autonomous driving unit, and the event control unit based on manual operation information received from the manager terminal.

본 출원의 실시예에 따르면, 가축 관리 로봇 및 그 동작 방법은 가축 이동 작업에 따른 인력을 감소시키고, 가축의 공격이나 충돌로 인한 작업자의 사고 위험을 방지할 수 있다. According to an embodiment of the present application, the livestock management robot and its operating method can reduce the manpower according to the livestock moving operation, and prevent the risk of an accident of the operator due to the attack or collision of the livestock.

도 1은 본 출원의 일 실시예에 따른 가축 관리 로봇에 대한 블록도이다.
도 2는 도 1의 인식부에 대한 블록도이다.
도 3은 자율 주행부를 구체적으로 나타내는 도이다.
도 4는 본 출원의 다른 실시예에 따른 가축 관리 로봇에 대한 블록도이다.
도 5는 가축 관리 로봇 시스템에 대한 블록도이다.
도 6은 도 4의 가축 관리 로봇의 일 실시예에 따른 동작 프로세스이다.
도 7은 도 2의 인식부에 대한 동작 프로세스이다.
1 is a block diagram of a livestock management robot according to an embodiment of the present application.
FIG. 2 is a block diagram of the recognition unit of FIG. 1 .
3 is a diagram specifically illustrating an autonomous driving unit.
4 is a block diagram of a livestock management robot according to another embodiment of the present application.
5 is a block diagram of a livestock management robot system.
6 is an operation process according to an embodiment of the livestock management robot of FIG.
7 is an operation process for the recognition unit of FIG.

이하, 구체적인 실시형태 및 첨부된 도면을 참조하여 본 출원의 실시형태를 설명한다. 그러나, 본 출원의 실시 형태는 여러 가지 다른 형태로 변형될 수 있으며, 본 출원의 범위가 이하 설명하는 실시형태로 한정되는 것은 아니다. 또한, 본 출원의 실시형태는 통상의 기술자에게 본 발명을 더욱 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있으며, 도면상의 동일한 부호로 표시되는 요소는 동일한 요소이다.Hereinafter, embodiments of the present application will be described with reference to specific embodiments and the accompanying drawings. However, the embodiments of the present application may be modified in various other forms, and the scope of the present application is not limited to the embodiments described below. In addition, the embodiments of the present application are provided in order to more completely explain the present invention to those skilled in the art. Accordingly, the shapes and sizes of elements in the drawings may be exaggerated for clearer description, and elements indicated by the same reference numerals in the drawings are the same elements.

그리고 도면에서 본 출원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하고, 여러 층 및 영역을 명확하게 표현하기 위하여 두께를 확대하여 나타내었으며, 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다. 나아가, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and the thickness is enlarged to clearly express various layers and regions, and components having the same function within the scope of the same idea are referred to as the same. It is explained using symbols. Furthermore, throughout the specification, when a part "includes" a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated.

도 1은 본 출원의 일 실시예에 따른 가축 관리 로봇(10)에 대한 블록도이다. 1 is a block diagram of a livestock management robot 10 according to an embodiment of the present application.

도 1을 참조하면, 가축 관리 로봇(10)은 인식부(100), 자율 주행부(200) 및 이벤트 제어부(300)를 포함할 수 있다. Referring to FIG. 1 , the livestock management robot 10 may include a recognition unit 100 , an autonomous driving unit 200 , and an event control unit 300 .

먼저, 인식부(100)는 가축 영상으로부터 검출되는 몰이용 객체를 인식할 수 있다. 여기서, 몰이용 객체는 사육공간의 청소나 착유를 위해 가축들을 이동시킬 때, 이동하지 않고 주위를 맴도는 개체들 중 하나에 대응되는 이미지 객체를 의미할 수 있다. First, the recognition unit 100 may recognize the mole use object detected from the livestock image. Here, the shepherding object may mean an image object corresponding to one of the objects that do not move but revolve around when moving livestock for cleaning or milking the breeding space.

구체적으로, 인식부(100)는 가축 영상 내 기설정된 가축 동작으로부터 적어도 하나의 몰이용 객체를 검출하고, 적어도 하나의 몰이용 객체 중 관리자에 의해 기설정된 기준에 따라 특정된 어느 하나를 몰이용 객체로 인식할 수 있다. Specifically, the recognition unit 100 detects at least one mole-using object from a preset livestock motion in the livestock image, and selects any one specified according to a criterion set by a manager among the at least one sheep-use object. can be recognized as

다음으로, 자율 주행부(200)는 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역을 따라 자율 주행할 수 있다. 여기서, 후방 영역은 영상 내 몰이용 객체로부터 일정 개수의 픽셀들만큼 떨어져 위치한 영역을 의미할 수 있다. 즉, 자율 주행부(200)는 가축 영상의 후방 영역을 따라 주행함으로써, 몰이용 객체에 대응되는 가축의 후위를 따라 자동으로 추종할 수 있다. Next, the autonomous driving unit 200 may autonomously drive along the rear region of the livestock image spaced apart from the mole-using object by a predetermined distance. Here, the rear region may refer to a region located apart from the in-use object in the image by a predetermined number of pixels. That is, by driving along the rear region of the livestock image, the autonomous driving unit 200 may automatically follow the rear of the livestock corresponding to the sheep-using object.

다음으로, 이벤트 제어부(300)는 몰이용 객체의 움직임 여부에 기초하여, 가이드 신호를 출력하는 제1 이벤트 동작과 몰이용 객체를 터치하는 제2 이벤트 동작 중 적어도 하나의 동작을 수행할 수 있다. Next, the event controller 300 may perform at least one of a first event operation of outputting a guide signal and a second event operation of touching the mole-use object based on whether the mole-use object moves.

여기서, 가이드 신호는 몰이용 객체에 대응하는 가축을 이동시키기 위한 관리자 음성 신호, 경보 신호, 진동, 동일 가축의 소리 및 LED 조명 중 적어도 하나일 수 있다. Here, the guide signal may be at least one of a manager's voice signal, an alarm signal, vibration, a sound of the same livestock, and LED lighting for moving the livestock corresponding to the driving object.

구체적으로, 이벤트 제어부(300)는 몰이용 객체의 후방 영역에 위치할 때 제1 이벤트 동작을 수행한 이후, 몰이용 객체의 움직임 여부에 기초하여 제2 이벤트 동작에 대한 수행 여부를 결정할 수 있다. Specifically, after performing the first event operation when located in the rear region of the mole-using object, the event controller 300 may determine whether to perform the second event operation based on whether the mole-using object moves.

예를 들면, 이벤트 제어부(300)는 몰이용 객체의 후방 영역에 위치할 때 제1 이벤트 동작을 먼저 수행할 수 있다. 이때, 몰이용 객체의 움직임이 일정 시간 동안 없는 경우, 이벤트 제어부(300)는 제2 이벤트 동작을 수행할 수 있다. 한편, 몰이용 객체의 움직임이 발생하는 경우, 이벤트 제어부(300)는 제2 이벤트 동작을 수행하지 않을 수 있다. For example, the event controller 300 may first perform the first event operation when it is located in the rear region of the mole-using object. In this case, when there is no movement of the mole use object for a predetermined time, the event controller 300 may perform a second event operation. Meanwhile, when the motion of the mole-using object occurs, the event controller 300 may not perform the second event operation.

또한, 이벤트 제어부(300)는 몰이용 객체의 후방 영역에 위치할 때, 제1 및 제2 이벤트 동작을 순차적으로 수행할 수 있다. 이때, 이벤트 제어부(300)는 제1 및 제2 이벤트 동작 순서를 변경할 수도 있다. Also, the event controller 300 may sequentially perform first and second event operations when located in the rear region of the mole-using object. In this case, the event controller 300 may change the operation order of the first and second events.

또한, 이벤트 제어부(300)는 몰이용 객체에 따라 목적지까지 기설정된 최단 이동 거리에 기초하여, 기수집된 이탈 지점마다 상기 제1 및 제2 이벤트 동작 중 어느 하나의 동작을 재수행함으로써, 몰이용 객체의 이탈을 사전에 예방할 수 있다. In addition, the event control unit 300 re-performs any one of the first and second event operations for each pre-collected departure point based on a preset shortest moving distance to the destination according to the mall use object, thereby It is possible to prevent the escape of an object in advance.

또한, 이벤트 제어부(300)는 상기 가축 영상으로부터 기설정된 긴급 상황 객체 형상이 검출될 때, 기등록된 단말에 긴급 메시지를 전송하는 동시에, 관리자가 위치한 기등록된 영역으로 주행하여 경보 신호를 출력할 수 있다. 예를 들면, 기설정된 긴급 상황 객체 형상은 화재 형상 이미지 객체, 쓰러져 있는 가축 형상 이미지 객체, 맹수가 가축을 공격하는 이미지 객체 등을 포함할 수 있다. In addition, when a preset emergency situation object shape is detected from the livestock image, the event control unit 300 transmits an emergency message to a pre-registered terminal and at the same time drives to a pre-registered area where the manager is located and outputs an alarm signal. can For example, the preset emergency situation object shape may include a fire-shaped image object, a collapsed livestock-shaped image object, an image object in which a wild animal attacks livestock, and the like.

본 출원의 실시예에 따라, 가축 관리 로봇(10)은 인식부(100)를 통해 가축을 이동시키는 작업에서, 이동을 방해하거나 이동하지 않는 몰이용 객체를 인식하고, 자율 주행부(200)를 통해 몰이용 객체의 후방 영역을 따라 자율 주행할 수 있다. 이때, 가축 관리 로봇(10)은 이벤트 제어부(300)를 통해 몰이용 객체의 이동을 독려하도록 가이드 신호 출력과 터치 동작 중 적어도 하나의 이벤트 동작을 수행할 수 있다. 이에 따라, 가축 관리 로봇(10)은 가축 이동 작업에 따른 추가 인력을 감소시키고, 가축의 공격이나 충돌로 인한 작업자의 사고 위험을 방지할 수 있다. According to an embodiment of the present application, the livestock management robot 10 recognizes a sheep-use object that prevents or does not move in the operation of moving the livestock through the recognition unit 100 , and operates the autonomous driving unit 200 . Through this, it is possible to autonomously drive along the rear area of the driving object. In this case, the livestock management robot 10 may perform at least one event operation of outputting a guide signal and a touch operation to encourage movement of the sheep-using object through the event controller 300 . Accordingly, the livestock management robot 10 can reduce the additional manpower for moving the livestock, and prevent the risk of an accident of the operator due to the attack or collision of the livestock.

이하, 본 출원에서는 이해를 돕기 위해 복수의 가축들에 대한 예를 젖소로 하여 설명하며, 도 2를 참조하여 인식부(100)에 대해 보다 구체적으로 설명될 것이다. Hereinafter, in the present application, an example of a plurality of livestock will be described as a cow for better understanding, and the recognition unit 100 will be described in more detail with reference to FIG. 2 .

도 2는 도 1의 인식부(100)에 대한 블록도이다. FIG. 2 is a block diagram of the recognition unit 100 of FIG. 1 .

도 1과 도 2를 참조하면, 인식부(100)는 카메라부(110), 이미지 추출부(120), 객체 검출부(130) 및 거리 측정부(140)를 포함할 수 있다. 1 and 2 , the recognition unit 100 may include a camera unit 110 , an image extraction unit 120 , an object detection unit 130 , and a distance measurement unit 140 .

먼저, 카메라부(110)는 복수의 가축들(1_1~1_N)에 대한 가축 영상을 촬영할 수 있다. First, the camera unit 110 may capture livestock images for the plurality of livestock 1_1 to 1_N.

다음으로, 이미지 추출부(120)는 연산 부하를 감소시키기 위하여, 카메라부(110)를 통해 촬영된 가축 영상으로부터 적어도 하나의 관심 이미지를 추출할 수 있다. 여기서, 적어도 하나의 관심 이미지는 몰이용 객체가 포함된 적어도 하나의 프레임일 수 있다. Next, the image extraction unit 120 may extract at least one image of interest from the livestock image captured through the camera unit 110 in order to reduce the computational load. Here, the at least one image of interest may be at least one frame including an object for use.

다음으로, 객체 검출부(130)는 객체 인식 알고리즘을 이용하여, 적어도 하나의 관심 이미지로부터 적어도 하나의 정지 객체와 적어도 하나의 이동 객체를 검출할 수 있다. Next, the object detector 130 may detect at least one still object and at least one moving object from at least one image of interest by using an object recognition algorithm.

여기서, 정지 객체는 움직임이 없는 젖소 형상을 갖는 이미지 객체이고, 이동 객체는 움직이는 젖소 형상을 갖는 이미지 객체일 수 있다. Here, the still object may be an image object having a motionless cow shape, and the moving object may be an image object having a moving cow shape.

구체적으로, 객체 검출부(130)는 적어도 하나의 관심 이미지로부터 복수의 객체들을 검출하고, 복수의 객체들 중 기설정된 정지 객체 형상에 대응되는 정지 객체와 기설정된 이동 객체 형상에 대응되는 이동 객체로 분류하여 검출할 수 있다. Specifically, the object detection unit 130 detects a plurality of objects from at least one image of interest, and classifies the plurality of objects into a static object corresponding to a preset still object shape and a moving object corresponding to a preset moving object shape among the plurality of objects. can be detected.

이러한 객체 인식 알고리즘은 SIFT(Scale Invariant Feature Transform) 알고리즘, HOG(Histogram of Oriented Gradient) 알고리즘, Haar feature 알고리즘, Ferns 알고리즘, LBP(Local Binary Pattern) 알고리즘 및 MCT(Modified Census Transform) 알고리즘 중 적어도 어느 하나일 수 있다. The object recognition algorithm may be at least one of a SIFT (Scale Invariant Feature Transform) algorithm, a HOG (Histogram of Oriented Gradient) algorithm, a Haar feature algorithm, a Ferns algorithm, a Local Binary Pattern (LBP) algorithm, and a Modified Census Transform (MCT) algorithm. can

다음으로, 거리 측정부(140)는 카메라부(110)에 인접하게 배치되고, 적어도 하나의 정지 객체와 카메라부(110) 사이의 각 이격 거리를 측정할 수 있다. Next, the distance measuring unit 140 may be disposed adjacent to the camera unit 110 , and may measure each separation distance between the at least one still object and the camera unit 110 .

실시예에 따른 객체 검출부(130)는 적어도 하나의 정지 객체 중 이격 거리가 가장 큰 객체를 몰이용 객체로 결정할 수 있다. 이때, 객체 검출부(130)는 가축 영상으로부터 몰이용 객체의 후방 영역을 실시간으로 검출하여 자율 주행부(200)로 전송할 수 있다. The object detection unit 130 according to an embodiment may determine an object having the largest separation distance among at least one stationary object as the mole-using object. In this case, the object detection unit 130 may detect the rear area of the sheep-using object from the livestock image in real time and transmit it to the autonomous driving unit 200 .

이러한 후방 영역은 주행할 위치 정보를 포함하고, 이때, 이격 거리는 몰이용 객체와 도착지 사이의 이동 거리에 비례할 수 있다. This rear region includes location information to be driven, and in this case, the separation distance may be proportional to the movement distance between the driving object and the destination.

또한, 객체 검출부(130)는 적어도 하나의 정지 객체 중 관리자에 의하여 기설정된 기준에 따라 결정되는 특정 객체를 몰이용 객체로 결정할 수도 있다.Also, the object detection unit 130 may determine a specific object determined according to a criterion preset by an administrator among the at least one stationary object as the mole use object.

도 3은 자율 주행부(200)를 구체적으로 나타내는 도이다. 3 is a diagram specifically illustrating the autonomous driving unit 200 .

도 3을 참조하면, 자율 주행부(200)는 이동장치(210), 터치장치(220) 및 출력장치(230)를 포함할 수 있다. Referring to FIG. 3 , the autonomous driving unit 200 may include a mobile device 210 , a touch device 220 , and an output device 230 .

먼저, 이동장치(210)는 젖소와의 충돌 및 뒷발질을 견딜수 있도록 외부면이 탄성 재질로 형성될 수 있다. 이때, 이동장치(210)는 후방 영역을 따라 주행하기 위한 배터리와 모터가 하부 내측에 배치될 수 있다. First, the mobile device 210 may have an outer surface made of an elastic material so as to withstand a collision with a cow and a hind paw. In this case, the mobile device 210 may have a battery and a motor for driving along the rear region disposed inside the lower portion.

일 실시예에 따라, 이동장치(210)는 젖소로부터 가해지는 충격에 따라, 전륜축과 후륜축의 길이(L1)를 조절할 수 있도록 형성될 수 있다. 구체적으로, 이동장치(210)는 충격 감지 센서와 전륜축 및 후륜축의 길이(L1)를 제어하기 위한 펌프, 실린더, 밸브 등을 이용하여, 전륜축과 후륜축의 길이(L1)를 조절할 수 있다. 즉, 이동장치(210)는 충격 감지 센서를 통해 감지된 충격량에 기초하여 펌프, 실린더, 밸브 등을 통해 전륜축과 후륜축의 길이(L1)를 증가시킴으로써, 가축 관리 로봇(10)이 젖소의 뒷발질에 따라 넘어지는 사고를 방지할 수 있다. According to an embodiment, the moving device 210 may be configured to adjust the length L1 of the front wheel shaft and the rear wheel shaft according to the impact applied from the cow. Specifically, the moving device 210 may adjust the length L1 of the front wheel shaft and the rear wheel shaft by using a shock sensor and a pump, a cylinder, a valve, etc. for controlling the length L1 of the front wheel shaft and the rear wheel shaft. That is, the moving device 210 increases the length L1 of the front and rear axles through a pump, a cylinder, a valve, etc. based on the amount of impact detected by the shock sensor, so that the livestock management robot 10 can prevent the cow's hind paws. This can prevent falling accidents.

다른 실시예에 따라, 이동장치(210)는 젖소로부터 가해지는 충격에 따라, 전륜축과 후륜축 사이의 축간 길이(L2)를 조절할 수 있도록 형성될 수 있다. 즉, 이동장치(210)는 충격 감지 센서와 전륜축 및 후륜축 사이의 축간 길이(L2)를 제어하기 위한 펌프, 실린더, 밸브 등을 포함할 수 있다. According to another embodiment, the moving device 210 may be formed to adjust the interaxial length L2 between the front wheel shaft and the rear wheel shaft according to the impact applied from the cow. That is, the moving device 210 may include a pump, a cylinder, a valve, etc. for controlling the interaxial length L2 between the shock sensor and the front and rear axles.

또한, 이동장치(210)는 객체 검출부(130)로부터 전송받는 가축 영상의 후방 영역에 기초하여, 몰이용 객체를 따라 자율 주행할 수 있다. 예를 들면, 이동장치(210)는 몰이용 객체의 후방 영역을 전방으로 하여 주행 방향을 자동으로 결정함으로써, 몰이용 객체에 해당하는 젖소를 추종할 수 있다. Also, the mobile device 210 may autonomously drive along the mole-using object based on the rear region of the livestock image received from the object detection unit 130 . For example, the mobile device 210 may follow the cow corresponding to the sheep-using object by automatically determining the driving direction with the rear region of the sheep-using object as the front.

다음으로, 터치장치(220)는 이동장치(210)의 상측 외부면에 배치되고, 이벤트 제어부(300)의 제어에 따라 후방 영역으로부터 몰이용 객체에 대응되는 젖소의 몸체까지의 길이로 연장될 수 있다.Next, the touch device 220 is disposed on the upper outer surface of the mobile device 210 and can extend from the rear region to the body of the cow corresponding to the sheep-using object under the control of the event controller 300 . there is.

다음으로, 출력장치(230)는 이벤트 제어부(300)의 제어에 따라, 젖소의 이동을 가이드하기 위한 관리자 음성, 경보 신호, 진동 및 LED 조명 중 적어도 하나를 출력하기 위한 녹음기, 스피커, LED를 포함할 수 있다. Next, the output device 230 includes a recorder, a speaker, and an LED for outputting at least one of a manager's voice, an alarm signal, vibration, and LED lighting for guiding the movement of the cow under the control of the event controller 300 . can do.

도 4는 본 출원의 다른 실시예에 따른 가축 관리 로봇(11)에 대한 블록도이다. 4 is a block diagram of the livestock management robot 11 according to another embodiment of the present application.

도 4를 참조하면, 가축 관리 로봇(11)은 인식부(100), 자율 주행부(200), 이벤트 제어부(300), 위치 정보 수집부(400) 및 통신부(500)를 포함할 수 있다. 이하, 도 1 내지 도 3을 참조하여 설명된 동일한 부재번호의 인식부(100), 자율 주행부(200) 및 이벤트 제어부(300)에 대한 중복된 설명은 생략될 것이다. Referring to FIG. 4 , the livestock management robot 11 may include a recognition unit 100 , an autonomous driving unit 200 , an event control unit 300 , a location information collection unit 400 , and a communication unit 500 . Hereinafter, redundant descriptions of the recognition unit 100 , the autonomous driving unit 200 , and the event control unit 300 having the same reference numbers described with reference to FIGS. 1 to 3 will be omitted.

먼저, 위치 정보 수집부(400)는 복수의 가축들이 이동하는 이동 경로를 따라 일정위치 마다 설치된 복수의 RFID 태그들과 통신하는 RFID 리더를 통해 로봇 위치 정보를 수집할 수 있다. 여기서, RFID 태그들은 적어도 하나의 가축을 인식하는 적어도 하나의 가축 인식용 태그들을 더 포함할 수 있다. 이때, RFID 리더는 위치 정보 수집부(400)에 배치되어, 복수의 RFID 태그들로부터 전송받는 서로 다른 식별 정보에 대응되는 위치 정보를 수집할 수 있다. First, the location information collecting unit 400 may collect robot location information through an RFID reader that communicates with a plurality of RFID tags installed at predetermined locations along a movement path of a plurality of livestock. Here, the RFID tags may further include at least one livestock recognition tag for recognizing at least one livestock. In this case, the RFID reader may be disposed in the location information collecting unit 400 to collect location information corresponding to different identification information transmitted from a plurality of RFID tags.

다음으로, 통신부(500)는 카메라부(110)를 통해 촬영된 가축 영상과 위치 정보 수집부(400)를 통해 수집된 로봇 위치 정보를 네트워크를 통해 관리자 단말(20)로 실시간으로 제공할 수 있다. Next, the communication unit 500 may provide the livestock image captured through the camera unit 110 and the robot position information collected through the location information collection unit 400 to the manager terminal 20 through the network in real time. .

실시예에 따른 통신부(500)는 관리자 단말(20)로부터 전송받는 수동 조작 정보에 기초하여, 인식부(100), 자율 주행부(200) 및 이벤트 제어부(300) 중 적어도 하나를 제어할 수 있다. The communication unit 500 according to an embodiment may control at least one of the recognition unit 100 , the autonomous driving unit 200 , and the event control unit 300 based on manual operation information received from the manager terminal 20 . .

여기서, 수동 조작 정보는 가축 영상 내에서 관리자에 의해 임의로 몰이용 객체를 선택하기 위한 객체 선택 정보, 자율 주행부(200)의 속도, 방향 및 정지 등을 수동으로 조작하기 위한 주행 조작 정보, 제1 및 제2 이벤트 동작에 대한 반복 횟수나 순서를 조작하기 위한 이벤트 동작 정보를 포함할 수 있다. Here, the manual operation information includes object selection information for arbitrarily selecting an object to be driven by a manager within the livestock image, driving operation information for manually operating the speed, direction, and stop of the autonomous driving unit 200, the first and event action information for manipulating the number of repetitions or order of the second event action.

도 5는 가축 관리 로봇 시스템(1000)에 대한 블록도이다. 5 is a block diagram of the livestock management robot system 1000 .

도 5를 참조하면, 가축 관리 로봇 시스템(1000)은 가축 관리 로봇(11)과 관리자 서버(21)를 포함할 수 있다. Referring to FIG. 5 , the livestock management robot system 1000 may include a livestock management robot 11 and a manager server 21 .

먼저, 가축 관리 로봇(11)은 복수의 RFID 태그들(410_1~410_N)과 통신하는 RFID 리더(420)를 이용하여 로봇 위치 정보를 수집할 수 있다. 여기서, 복수의 RFID 태그들(410_1~410_N)은 복수의 가축들이 이동하는 이동 경로를 따라 위치한 스타치온 또는 벽에 일정 거리 마다 설치될 수 있다. First, the livestock management robot 11 may collect robot location information by using the RFID reader 420 that communicates with the plurality of RFID tags 410_1 to 410_N. Here, the plurality of RFID tags 410_1 to 410_N may be installed at regular distances on a wall or a stanchion located along a movement path of a plurality of livestock.

또한, 가축 관리 로봇(11)은 카메라(111)를 이용하여, 복수의 가축들에 대한 가축 영상을 촬영할 수 있다. Also, the livestock management robot 11 may use the camera 111 to capture livestock images for a plurality of livestock.

다음으로, 관리자 서버(21)는 가축 관리 로봇(11)으로부터 네트워크를 통해 가축 영상과 로봇 위치 정보를 전송받아 서버에 백업할 수 있다. Next, the manager server 21 may receive the livestock image and robot location information from the livestock management robot 11 through the network and back it up to the server.

또한, 관리자 서버(21)는 관리자 단말(20)에 인증 정보를 요청함에 따라 응답받는 관리자 정보에 기초하여, 관리자 단말(20)에 대한 보안 인증을 수행할 수 있다. 이때, 관리자 서버(21)는 카메라부(110)를 통해 촬영된 가축 영상과 위치 정보 수집부(400)를 통해 수집된 로봇 위치 정보를 상기 보안 인증이 완료된 관리자 단말(20)에 전달할 수 있다. In addition, the manager server 21 may perform security authentication for the manager terminal 20 based on manager information received in response to a request for authentication information from the manager terminal 20 . In this case, the manager server 21 may transmit the livestock image captured through the camera unit 110 and the robot location information collected through the location information collecting unit 400 to the manager terminal 20 on which the security authentication is completed.

실시예에 따른 가축 관리 로봇(11)은 관리자 단말(20)로부터 관리자 서버(21)를 통해 전송받는 수동 조작 정보에 기초하여 몰이용 객체에 대한 변경 여부를 판단하고, 상기 몰이용 객체가 변경됨에 따라 주행 방향을 변경하는 동시에 주행 속도를 일정 시간 증가시킬 수 있다. The livestock management robot 11 according to the embodiment determines whether to change the sheep-use object based on manual operation information received from the manager terminal 20 through the manager server 21, and determines whether the sheep-use object is changed. Accordingly, the driving direction can be changed and the driving speed can be increased for a certain period of time.

이때, 가축 관리 로봇(11)은 상기 수동 조작 정보에 따라 변경된 상기 몰이용 객체의 움직임 여부에 기초하여, 가이드 신호를 출력하는 제1 이벤트 동작과 가축 몸체를 터치하는 제2 이벤트 동작 중 적어도 하나의 동작을 수행할 수 있다.At this time, the livestock management robot 11 performs at least one of a first event operation of outputting a guide signal and a second event operation of touching the livestock body based on whether or not the sheep-using object is moved, which is changed according to the manual operation information. action can be performed.

도 5에서는, 관리자 단말(20)이 관리자 서버(21)를 통해 원격으로 가축 관리 로봇(11)을 제어하는 것으로 설명되지만 이를 한정하는 것은 아니며, 도 4에 도시된 바와 같이, 관리자 단말(20)이 가축 관리 로봇(11)을 직접 제어할 수도 있다.5, the manager terminal 20 is described as remotely controlling the livestock management robot 11 through the manager server 21, but is not limited thereto, and as shown in FIG. 4, the manager terminal 20 It is also possible to directly control the livestock management robot 11 .

도 6은 도 4의 가축 관리 로봇(11)의 일 실시예에 따른 동작 프로세스이다. 6 is an operation process according to an embodiment of the livestock management robot 11 of FIG.

도 1과 도 6을 참조하면, 먼저 S110 단계에서, 인식부(100)는 가축 영상으로부터 몰이용 객체를 인식할 수 있다. Referring to FIGS. 1 and 6 , first, in step S110 , the recognition unit 100 may recognize a sheep-using object from the livestock image.

그런 다음, S120 단계에서, 자율 주행부(200)는 인식부(100)를 통해 인식된 몰이용 객체로부터 일정 거리 이격된 가축 영상 내 후방 영역으로 자율 주행할 수 있다. Then, in step S120 , the autonomous driving unit 200 may autonomously drive to the rear region within the livestock image spaced a predetermined distance from the mole-using object recognized through the recognition unit 100 .

이때, S130 단계에서, 위치 정보 수집부(400)는 복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 RFID 태그들(410_1~410_N)과 통신하는 RFID 리더(420)를 통해 로봇 위치 정보를 수집할 수 있다. At this time, in step S130, the location information collecting unit 400 receives the robot location information through the RFID reader 420 that communicates with the RFID tags 410_1 to 410_N installed at predetermined distances along the movement path of the plurality of livestock. can be collected

그런 다음, S140 단계에서, 통신부(500)는 카메라부(110)를 통해 촬영된 가축 영상과 로봇 위치 정보를 관리자 단말(20) 또는 관리자 서버(21)에 제공할 수 있다. Then, in step S140 , the communication unit 500 may provide the livestock image and robot location information captured through the camera unit 110 to the manager terminal 20 or the manager server 21 .

이때, S150 단계에서, 이벤트 제어부(300)는 후방 영역에서 몰이용 객체 방향으로 가이드 신호를 출력하는 제1 이벤트 동작을 수행할 수 있다. In this case, in step S150 , the event controller 300 may perform a first event operation of outputting a guide signal in the direction of the mole-using object in the rear region.

또한, S160 단계에서, 이벤트 제어부(300)는 상기 가축 영상 내 몰이용 객체의 움직임 여부에 기초하여, 몰이용 객체에 대응되는 가축을 터치하는 제2 이벤트 동작을 수행할 수 있다. 예를 들면, 몰이용 객체의 움직임이 발생하지 않는 경우, 이벤트 제어부(300)는 제2 이벤트 동작을 수행할 수 있다. Also, in step S160 , the event controller 300 may perform a second event operation of touching the livestock corresponding to the sheep-using object based on whether the sheep-using object moves in the livestock image. For example, when the motion of the mole-using object does not occur, the event controller 300 may perform a second event operation.

이후, S170 단계에서, 기설정된 목적지까지 주행을 완료하는 경우, 자율 주행부(200)는 기설정된 충전 영역으로 주행하여 자동 충전할 수 있다. Thereafter, in step S170 , when driving to a preset destination is completed, the autonomous driving unit 200 may travel to a preset charging area and automatically charge the vehicle.

도 7은 도 2의 인식부(100)에 대한 동작 프로세스이다. FIG. 7 is an operation process for the recognition unit 100 of FIG. 2 .

도 2와 도 7을 참조하면, 먼저, S210 단계에서, 카메라부(110)는 복수의 가축들(1_1~1_N)에 대한 가축 영상을 촬영할 수 있다. Referring to FIGS. 2 and 7 , first, in step S210 , the camera unit 110 may capture livestock images for a plurality of livestock 1_1 to 1_N.

그런 다음, S220 단계에서, 이미지 추출부(120)는 카메라부(110)를 통해 촬영된 가축 영상으로부터 적어도 하나의 관심 이미지를 추출할 수 있다. 여기서, 적어도 하나의 관심 이미지는 몰이용 객체가 포함된 적어도 하나의 프레임일 수 있다. Then, in step S220 , the image extraction unit 120 may extract at least one image of interest from the livestock image captured through the camera unit 110 . Here, the at least one image of interest may be at least one frame including an object for use.

이때, S230 단계에서, 객체 검출부(130)는 적어도 하나의 관심 이미지에 대한 기설정된 객체 인식 알고리즘을 적용하여, 복수의 가축들을 적어도 하나의 정지 객체와 이동 객체로 분류하여 검출할 수 있다. In this case, in step S230 , the object detection unit 130 may classify and detect the plurality of livestock into at least one stationary object and a moving object by applying a preset object recognition algorithm to at least one image of interest.

그런 다음, S240 단계에서, 거리 측정부(140)는 객체 검출부(130)를 통해 검출된 적어도 하나의 정지 객체와 카메라부(110) 사이의 각 이격 거리를 측정할 수 있다. Then, in step S240 , the distance measurement unit 140 may measure each separation distance between the at least one still object detected by the object detection unit 130 and the camera unit 110 .

이후, S250 단계에서, 객체 검출부(130)는 적어도 하나의 정지 객체 중 이격 거리가 가장 큰 정지 객체를 몰이용 객체로 결정할 수 있다. Thereafter, in step S250 , the object detection unit 130 may determine a stationary object having the largest separation distance among at least one stationary object as an object for driving.

본 출원은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 출원의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다. Although the present application has been described with reference to an embodiment shown in the drawings, this is merely exemplary, and those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical protection scope of the present application should be determined by the technical spirit of the appended claims.

10, 11, 12: 가축 관리 로봇
100: 인식부
200: 자율 주행부
300: 이벤트 제어부
1000: 가축 관리 로봇 시스템
10, 11, 12: Livestock management robot
100: recognition unit
200: autonomous driving unit
300: event control unit
1000: livestock management robot system

Claims (13)

가축 영상으로부터 검출되는 몰이용 객체를 인식하는 인식부;
상기 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역을 따라 주행하는 자율 주행부; 및
상기 후방 영역에서 가이드 신호를 출력하는 제1 이벤트 동작을 수행하고, 상기 몰이용 객체의 움직임 여부에 기초하여, 상기 몰이용 객체에 대응되는 가축을 터치하는 제2 이벤트 동작을 수행하는 이벤트 제어부를 포함하는, 가축 관리 로봇.
a recognition unit for recognizing a mole-using object detected from a livestock image;
an autonomous driving unit that runs along a rear region of the livestock image spaced a certain distance from the driving object; and
and an event controller performing a first event operation of outputting a guide signal in the rear region and performing a second event operation of touching a livestock corresponding to the sheep-use object based on whether the sheep-use object moves A livestock management robot.
제1항에 있어서,
상기 인식부는 상기 가축 영상을 촬영하기 위한 카메라부;
상기 가축 영상으로부터 적어도 하나의 관심 이미지를 추출하는 이미지 추출부;
기설정된 객체 인식 알고리즘을 이용하여, 상기 적어도 하나의 관심 이미지로부터 적어도 하나의 정지 객체와 적어도 하나의 이동 객체를 검출하는 객체 검출부; 및
상기 적어도 하나의 정지 객체와 상기 카메라부 사이의 각 이격 거리를 측정하는 거리 측정부를 포함하는, 가축 관리 로봇.
According to claim 1,
The recognition unit includes: a camera unit for photographing the livestock image;
an image extraction unit for extracting at least one image of interest from the livestock image;
an object detection unit configured to detect at least one still object and at least one moving object from the at least one image of interest by using a preset object recognition algorithm; and
A livestock management robot comprising a distance measuring unit for measuring each separation distance between the at least one stationary object and the camera unit.
제2항에 있어서,
상기 객체 검출부는 상기 적어도 하나의 정지 객체 중 특정 객체를 상기 몰이용 객체로 결정하는, 가축 관리 로봇.
3. The method of claim 2,
The object detection unit determines a specific object among the at least one stationary object as the sheep-use object, the livestock management robot.
제1항에 있어서,
상기 이벤트 제어부는 상기 몰이용 객체에 따라 목적지까지의 최단 이동 거리에 기초하여, 기설정된 이탈 예상 지점에서 상기 제1 및 제2 이벤트 동작 중 어느 하나의 동작을 재수행하는, 가축 관리 로봇.
According to claim 1,
The event controller re-performs any one of the first and second event operations at a preset departure expected point based on the shortest moving distance to the destination according to the mole-using object.
제1항에 있어서,
상기 자율 주행부는 외부면이 탄성 재질로 형성되고, 하측 내부에 주행을 위한 배터리와 모터가 배치되는 이동장치;
상기 이동장치의 상측 외부면에 형성되고, 상기 이벤트 제어부의 제어에 따라 상기 후방 영역으로부터 상기 몰이용 객체까지의 길이로 연장되는 터치장치; 및
상기 이벤트 제어부에 따라 관리자 음성, 경보 신호, 진동 및 LED 조명 중 적어도 하나를 출력하기 위한 출력장치를 포함하는, 가축 관리 로봇.
According to claim 1,
The autonomous driving unit has an outer surface formed of an elastic material, and a moving device in which a battery and a motor for driving are disposed inside the lower side;
a touch device formed on an upper outer surface of the mobile device and extending from the rear region to the mole-using object under the control of the event controller; and
An output device for outputting at least one of a manager's voice, an alarm signal, a vibration, and an LED light according to the event control unit, the livestock management robot.
제5항에 있어서,
상기 이동 장치는 젖소로부터 가해지는 충격에 따라 전륜축과 후륜축의 길이를 조절하는, 가축 관리 로봇.
6. The method of claim 5,
The moving device is a livestock management robot that adjusts the length of the front axle and the rear axle according to the impact applied from the cow.
제1항에 있어서,
복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 RFID 태그들 및 하나 이상의 객체인식이 가능한 태그들과 통신하는 RFID 리더를 통해 로봇 위치 정보를 수집하는 위치 정보 수집부; 및
상기 가축 영상과 상기 로봇 위치 정보를 네트워크를 통해 관리자 단말에 제공하는 통신부를 더 포함하고,
상기 RFID 태그들은 적어도 하나의 가축을 인식하는 적어도 하나의 가축 인식용 태그들을 더 포함하는, 가축 관리 로봇.
According to claim 1,
a location information collecting unit for collecting robot location information through an RFID reader that communicates with RFID tags installed at predetermined distances along a movement path of a plurality of livestock and one or more object recognition-capable tags; and
Further comprising a communication unit for providing the livestock image and the robot position information to the manager terminal through a network,
The RFID tags further include at least one livestock recognition tag for recognizing at least one livestock.
제7항에 있어서,
상기 통신부는, 관리자 단말로부터 전송받는 수동 조작 정보에 기초하여, 인식부, 자율 주행부 및 이벤트 제어부 중 적어도 하나를 제어하는, 가축 관리 로봇.
8. The method of claim 7,
The communication unit, based on the manual operation information received from the manager terminal, to control at least one of the recognition unit, the autonomous driving unit, and the event control unit, livestock management robot.
제2항에 있어서,
상기 이벤트 제어부는 상기 적어도 하나의 관심 이미지로부터 기설정된 긴급 상황 객체 형상이 검출될 때, 기등록된 단말에 긴급 메시지를 전송하는 동시에, 관리자가 위치한 기등록된 영역으로 주행하여 경보 신호를 출력하는, 가축 관리 로봇.
3. The method of claim 2,
The event control unit transmits an emergency message to a pre-registered terminal when a preset emergency object shape is detected from the at least one image of interest, and outputs an alert signal by driving to a pre-registered area where the manager is located, Livestock management robot.
가축 관리 로봇의 동작 방법으로서,
인식부가 가축 영상으로부터 몰이용 객체를 인식하는 단계;
자율 주행부가 상기 몰이용 객체로부터 일정 거리 이격된 상기 가축 영상의 후방 영역으로 자율 주행하는 단계; 및
이벤트 제어부가 상기 후방 영역에서 가이드 신호를 출력하는 제1 이벤트 동작을 수행하는 단계;
상기 이벤트 제어부가 상기 몰이용 객체의 움직임 여부에 기초하여, 상기 몰이용 객체에 대응되는 가축을 터치하는 제2 이벤트 동작을 수행하는 단계; 및
상기 자율 주행부가 기설정된 목적지까지 주행한 경우, 기설정된 충전 영역으로 이동하여 자동 충전하는 단계를 포함하는, 가축 관리 로봇의 동작 방법.
A method of operating a livestock management robot, comprising:
Recognizing, by a recognition unit, a sheepish object from the livestock image;
autonomously driving, by an autonomous driving unit, to a rear region of the livestock image spaced a certain distance from the driving object; and
performing, by the event controller, a first event operation for outputting a guide signal from the rear region;
performing, by the event controller, a second event operation of touching a livestock corresponding to the mole-using object based on whether the mole-using object moves; and
When the autonomous driving unit travels to a preset destination, moving to a preset charging area and automatically charging the car, the operating method of the livestock management robot.
제10항에 있어서,
위치 정보 수집부가 복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 RFID 태그들과 통신하는 RFID 리더를 통해 로봇 위치 정보를 수집하는 단계; 및
통신부가 상기 가축 영상과 상기 로봇 위치 정보를 관리자 단말에 제공하는 단계를 더 포함하는, 가축 관리 로봇의 동작 방법.
11. The method of claim 10,
collecting, by a location information collecting unit, robot location information through an RFID reader communicating with RFID tags installed at predetermined distances along a movement path of a plurality of livestock; and
The method of operation of the livestock management robot further comprising the step of a communication unit providing the livestock image and the robot position information to a manager terminal.
제10항에 있어서,
상기 몰이용 객체를 인식하는 단계는, 카메라부가 복수의 가축들을 촬영하는 단계;
이미지 추출부가 상기 가축 영상으로부터 적어도 하나의 관심 이미지를 추출하는 단계;
객체 검출부가 객체 인식 알고리즘을 이용하여, 상기 적어도 하나의 관심 이미지로부터 적어도 하나의 정지 객체와 적어도 하나의 이동 객체를 검출하는 단계;
거리 측정부가 상기 적어도 하나의 정지 객체와 상기 카메라부 사이의 각 이격 거리를 측정하는 단계; 및
상기 객체 검출부가 상기 적어도 하나의 정지 객체 중 이격 거리가 가장 큰 정지 객체를 상기 몰이용 객체로 결정하는 단계를 포함하는, 가축 관리 로봇의 동작 방법.
11. The method of claim 10,
The step of recognizing the object for use may include: photographing a plurality of livestock by a camera unit;
extracting, by an image extraction unit, at least one image of interest from the livestock image;
detecting, by an object detection unit, at least one still object and at least one moving object from the at least one image of interest using an object recognition algorithm;
measuring, by a distance measuring unit, each separation distance between the at least one still object and the camera unit; and
and determining, by the object detection unit, a stationary object having the largest separation distance among the at least one stationary object as the sheep-use object.
복수의 가축들이 이동하는 이동 경로를 따라 일정 거리 마다 설치된 복수의 RFID 태그들로부터 로봇 위치 정보를 수집하고, 상기 복수의 가축들에 대한 가축 영상을 촬영하는 가축 관리 로봇; 및
상기 가축 영상과 상기 로봇 위치 정보를 전송받아 관리자 단말에 중계하는 관리자 서버를 포함하고,
상기 가축 관리 로봇은,
상기 가축 영상으로부터 객체 검출 알고리즘을 통해 몰이용 객체를 인식하는 인식부;
상기 몰이용 객체로부터 일정 거리 이격된 후방 영역을 따라 주행하는 자율 주행부;
상기 후방 영역에서 가이드 신호를 출력하는 제1 이벤트 동작을 수행하고, 상기 몰이용 객체의 움직임 여부에 기초하여, 상기 몰이용 객체에 대응되는 가축을 터치하는 제2 이벤트 동작을 수행하는 이벤트 제어부; 및
상기 관리자 단말로부터 전송받는 수동 조작 정보에 기초하여, 상기 인식부, 자율 주행부 및 이벤트 제어부 중 적어도 하나를 제어하는 통신부를 포함하는, 가축 관리 로봇 시스템.
a livestock management robot that collects robot location information from a plurality of RFID tags installed at predetermined distances along a movement path of a plurality of livestock and captures livestock images for the plurality of livestock; and
and a manager server that receives the livestock image and the robot location information and relays it to a manager terminal,
The livestock management robot,
a recognition unit for recognizing a mole-using object from the livestock image through an object detection algorithm;
an autonomous driving unit that drives along a rear area spaced apart from the driving object by a predetermined distance;
an event controller performing a first event operation of outputting a guide signal from the rear region and performing a second event operation of touching a livestock corresponding to the sheep-use object based on whether the sheep-use object moves; and
Based on the manual operation information received from the manager terminal, comprising a communication unit for controlling at least one of the recognition unit, the autonomous driving unit, and the event control unit, livestock management robot system.
KR1020200074804A 2020-06-19 2020-06-19 Domestic animal management robot and operation method thereof KR102384444B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200074804A KR102384444B1 (en) 2020-06-19 2020-06-19 Domestic animal management robot and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200074804A KR102384444B1 (en) 2020-06-19 2020-06-19 Domestic animal management robot and operation method thereof

Publications (2)

Publication Number Publication Date
KR20210157032A KR20210157032A (en) 2021-12-28
KR102384444B1 true KR102384444B1 (en) 2022-04-08

Family

ID=79178231

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200074804A KR102384444B1 (en) 2020-06-19 2020-06-19 Domestic animal management robot and operation method thereof

Country Status (1)

Country Link
KR (1) KR102384444B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102547144B1 (en) 2022-12-02 2023-06-22 한경국립대학교 산학협력단 Agricultural vehicle with improved leveling and controlling method thereof
KR102647681B1 (en) 2023-11-16 2024-03-15 한경국립대학교 산학협력단 Robot device for crop harvesting with and controlling method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100882897B1 (en) * 2008-09-11 2009-02-10 동명대학교산학협력단 Mobile robot location method using rfid and mobile robot using the method
US20200097023A1 (en) * 2018-09-21 2020-03-26 Honda Motor Co., Ltd. Autonomous all-terrain vehicles for herding
US20200128785A1 (en) * 2018-10-31 2020-04-30 Underground Agriculture Company, LLC Robotic rotational grazing system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170107341A (en) * 2016-03-15 2017-09-25 엘지전자 주식회사 Mobile robot and method for controlling the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100882897B1 (en) * 2008-09-11 2009-02-10 동명대학교산학협력단 Mobile robot location method using rfid and mobile robot using the method
US20200097023A1 (en) * 2018-09-21 2020-03-26 Honda Motor Co., Ltd. Autonomous all-terrain vehicles for herding
US20200128785A1 (en) * 2018-10-31 2020-04-30 Underground Agriculture Company, LLC Robotic rotational grazing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102547144B1 (en) 2022-12-02 2023-06-22 한경국립대학교 산학협력단 Agricultural vehicle with improved leveling and controlling method thereof
KR102647681B1 (en) 2023-11-16 2024-03-15 한경국립대학교 산학협력단 Robot device for crop harvesting with and controlling method thereof

Also Published As

Publication number Publication date
KR20210157032A (en) 2021-12-28

Similar Documents

Publication Publication Date Title
CN108052097B (en) Method for training heterogeneous sensing system and heterogeneous sensing system
US9514366B2 (en) Vehicle detection method and system including irrelevant window elimination and/or window score degradation
US10152649B2 (en) Detecting visual information corresponding to an animal
KR102384444B1 (en) Domestic animal management robot and operation method thereof
US8971581B2 (en) Methods and system for automated in-field hierarchical training of a vehicle detection system
CN110866427A (en) Vehicle behavior detection method and device
EP3900891A1 (en) Pet amusement control apparatus of robot and mobile robot
KR20160135482A (en) Apparatus and method for predicting moving of on-road obstable
KR102044193B1 (en) System and Method for alarming collision of vehicle with support vector machine
WO2021248833A1 (en) Anti-collision system and method for actively guiding vehicle stopping using camera
CN106341661A (en) Patrol robot
CN105022986B (en) Mobile member control apparatus and object detection device
CN107464416B (en) Semi-automatic driving method and system for bus
JP2007140606A (en) Parking lot monitoring system
US20210397187A1 (en) Method and system for operating a mobile robot
CN110921154A (en) Method and device for controlling garbage collection patrol car and garbage collection patrol car
JP6140436B2 (en) Shooting system
CN109983518B (en) Method and system for detecting protruding objects located in a parking lot
KR20160081190A (en) Method and recording medium for pedestrian recognition using camera
KR101761357B1 (en) System and method for vehicle monitoring
CN105574511B (en) Have the adaptability object sorter and its method of parallel framework
JP7268959B2 (en) Apparatus and method to prevent vehicle from automatically moving forward again after stopping
CN106114432A (en) Vehicle DAS (Driver Assistant System) for specific objective
CN112966543B (en) Vehicle scratch recording method and device
CN212873739U (en) Vehicle door opening and closing action detection system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant