BR102019026989A2 - UNINTERRUPTED AND REAL-TIME MONITORING SYSTEM OF BREEDING ANIMALS BEHAVIOR - Google Patents
UNINTERRUPTED AND REAL-TIME MONITORING SYSTEM OF BREEDING ANIMALS BEHAVIOR Download PDFInfo
- Publication number
- BR102019026989A2 BR102019026989A2 BR102019026989-8A BR102019026989A BR102019026989A2 BR 102019026989 A2 BR102019026989 A2 BR 102019026989A2 BR 102019026989 A BR102019026989 A BR 102019026989A BR 102019026989 A2 BR102019026989 A2 BR 102019026989A2
- Authority
- BR
- Brazil
- Prior art keywords
- behavior
- breeding
- estrus
- uninterrupted
- real
- Prior art date
Links
- 241001465754 Metazoa Species 0.000 title claims abstract description 116
- 238000012544 monitoring process Methods 0.000 title claims abstract description 34
- 238000009395 breeding Methods 0.000 claims abstract description 89
- 230000001488 breeding effect Effects 0.000 claims abstract description 89
- 230000012173 estrus Effects 0.000 claims abstract description 51
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000000605 extraction Methods 0.000 claims abstract description 6
- 230000002596 correlated effect Effects 0.000 claims abstract description 4
- 230000006399 behavior Effects 0.000 claims description 70
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 239000000523 sample Substances 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 8
- 239000003550 marker Substances 0.000 claims description 6
- 230000000875 corresponding effect Effects 0.000 claims description 5
- 239000012805 animal sample Substances 0.000 claims description 2
- 241000283690 Bos taurus Species 0.000 abstract description 10
- 238000003384 imaging method Methods 0.000 abstract description 3
- 238000013527 convolutional neural network Methods 0.000 description 13
- 210000002569 neuron Anatomy 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000009027 insemination Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 235000013365 dairy product Nutrition 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000022676 rumination Effects 0.000 description 2
- 208000015212 rumination disease Diseases 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003977 dairy farming Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 244000144980 herd Species 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000035935 pregnancy Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007790 scraping Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K29/00—Other apparatus for animal husbandry
- A01K29/005—Monitoring or measuring activity, e.g. detecting heat or mating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
- G01D21/02—Measuring two or more variables by means not covered by a single other subclass
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Environmental Sciences (AREA)
- Biophysics (AREA)
- Animal Husbandry (AREA)
- Biodiversity & Conservation Biology (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
sistema e método de monitoramento ininterrupto e em tempo real do comportamento de animais de reprodução. a presente invenção descreve um sistema (s) de monitoramento de animais de reprodução (2), tais como bovinos, sendo que o referido sistema (s) compreende pelo menos um dispositivo de identificação por imagem (1) do comportamento de cada animal de reprodução (2) em uma área de confinamento (3), de modo que tal monitoramento ocorre em tempo real e de maneira ininterrupta. cada dispositivo de identificação por imagem (1) é preferencialmente configurado por uma câmera, e é interligado com uma unidade de processamento (4) dotada de um banco de dados (40) que recebe informações binárias de cio e não cio correlacionadas com uma série de imagens originais de comportamentos de cada animal reprodutor (2) a ser identificado por cada dispositivo de identificação por imagem (1) e interpretados pela unidade de processamento (4), por meio da extração de características da sequência de imagens captadas pelo dispositivo de identificação por imagem (1). a invenção também trata de um método (m) de monitoramento do comportamento de animais de reprodução (2).system and method of uninterrupted and real-time monitoring of the behavior of breeding animals. the present invention describes a system(s) for monitoring breeding animals (2), such as cattle, said system(s) comprising at least one imaging device (1) of the behavior of each breeding animal (2) in a containment area (3), so that such monitoring takes place in real time and uninterrupted. each image identification device (1) is preferably configured by a camera, and is interconnected with a processing unit (4) provided with a database (40) that receives binary information of estrus and non-estrus correlated with a series of original images of behavior of each breeding animal (2) to be identified by each image identification device (1) and interpreted by the processing unit (4), through the extraction of characteristics of the sequence of images captured by the identification device by image (1). the invention also deals with a method (m) of monitoring the behavior of breeding animals (2).
Description
[01] A presente patente de invenção refere-se a um sistema de monitoramento ininterrupto e em tempo real do comportamento de animais de reprodução, tais como bovinos, particularmente utilizado para acompanhar automaticamente o comportamento de animais de reprodução e possibilitar a emissão de alerta em situações de particular interesse do proprietário desses animais de reprodução, mais especificamente situações em que os animais estejam em períodos de cio. A invenção também descreve um método de monitoramento ininterrupto e em tempo real do comportamento de animais de reprodução.[01] The present invention patent refers to an uninterrupted and real-time monitoring system of the behavior of breeding animals, such as cattle, particularly used to automatically monitor the behavior of breeding animals and enable the issuance of alerts in situations of particular interest to the owner of these breeding animals, more specifically situations where the animals are in estrus periods. The invention also describes a method of uninterrupted and real-time monitoring of the behavior of breeding animals.
[02] São conhecidos do homem da técnica sistemas e métodos de monitoramento, utilizados para identificar comportamentos em animais de reprodução, tais como bovinos.[02] Monitoring systems and methods are known to man in the art, used to identify behaviors in breeding animals, such as cattle.
[03] Basicamente, esses sistemas e métodos de monitoramento existentes se baseiam no acompanhamento dos hábitos e características de comportamento próprios dos animais de reprodução, uma vez que, com o uso de inseminação artificial em rebanhos leiteiros, por exemplo, a detecção das vacas no cio é de suma importância para que haja sucesso nas taxas de prenhes e uma consequente melhora nos benefícios econômicos do setor.[03] Basically, these existing monitoring systems and methods are based on monitoring the habits and behavior characteristics of breeding animals, since, with the use of artificial insemination in dairy herds, for example, the detection of cows in the tion is of paramount importance for the success of pregnancy rates and a consequent improvement in the economic benefits of the sector.
[04] Os sistemas e método de detecção de cio em larga escala, atualmente existentes, incluem o uso de observações visuais, e também podem incluir realizações de exame de toque retal, identificações de movimentação mais intensa por meio de pedômetros, identificações através de adesivos identificadores de monta e através de ruminação, as quais são coletadas informações através de um colar instalado no animal.[04] Currently existing large-scale estrus detection systems and method include the use of visual observations, and may also include digital rectal examination performances, more intense movement identifications using pedometers, identifications using adhesives mount identifiers and through rumination, which information is collected through a collar installed on the animal.
[05] A observação visual do comportamento depende de a vaca aceitar a monta de outros animais, ou de uma sequência de comportamentos específicos a serem identificados. A atividade acontece com uma certa regularidade, a maior parte do tempo concentrado à noite ou de manhã cedo. Dessa forma, deve-se prestar atenção durante a noite para identificar as primeiras horas do cio, o que dificulta muito a realização desse processo, que depende da permanência em tempo integral de pessoal treinado no local para identificação dos comportamentos de cio.[05] Visual observation of behavior depends on whether the cow accepts the mount of other animals, or a sequence of specific behaviors to be identified. The activity takes place with some regularity, most of the time concentrated in the evening or early morning. Thus, attention must be paid at night to identify the first hours of heat, which makes this process very difficult, which depends on the full-time permanence of trained personnel on site to identify heat behaviors.
[06] Assim, desvantajosamente, essa prática resulta em uma grande redução da taxa de detecção de cio e, consequentemente, também resulta em perda de produtividade.[06] Thus, disadvantageously, this practice results in a large reduction in the heat detection rate and, consequently, also results in lost productivity.
[07] O método de exame retal requer, além de muito trabalho, profissionais experientes que, desvantajosamente, elevam muito os custos produtivos.[07] The rectal examination method requires, in addition to a lot of work, experienced professionals who, disadvantageously, increase production costs.
[08] O método do pedômetro se baseia principalmente no aumento da atividade de movimentação da vaca durante o cio, porém outras condições do animal podem interferir na alteração da movimentação. Dessa forma, desvantajosamente, a determinação do cio ocorre muitas vezes de maneira equivocada.[08] The pedometer method is mainly based on increasing the movement activity of the cow during heat, but other conditions of the animal can interfere with the change in movement. Thus, disadvantageously, the determination of estrus often occurs wrongly.
[09] O método do adesivo identificador de monta está condicionado à raspagem do adesivo para que possa ser identificado, porém nem todas as montas por outros animais garantem essa condição. Assim, desvantajosamente, essa prática também não apresenta resultados confiáveis.[09] The method of the mount identifying sticker is conditioned to the scraping of the sticker so that it can be identified, but not all mounts by other animals guarantee this condition. Thus, disadvantageously, this practice does not provide reliable results either.
[010] O método de ruminação coletada por um colar, desvantajosamente, é baseado em julgamento subjetivo do tempo que a vaca passa ruminando, o que também o torna impreciso.[010] The method of rumination collected by a collar, disadvantageously, is based on subjective judgment of the time the cow spends ruminating, which also makes it inaccurate.
[011] Em resumo, os métodos convencionais possuem dificuldades em determinar com precisão o comportamento de cio da vaca, além de necessitarem de equipamentos e/ou operadores dedicados a cada animal individualmente, aumentando muito os custos do processo de monitoramento. Dessa forma, é preciso fornecer um sistema de monitoramento do animal em tempo integral de modo a trazer uma maior eficiência na identificação.[011] In summary, conventional methods have difficulties in accurately determining the estrus behavior of the cow, in addition to requiring equipment and/or operators dedicated to each animal individually, greatly increasing the costs of the monitoring process. Thus, it is necessary to provide a full-time animal monitoring system in order to bring greater efficiency in identification.
[012] Visando solucionar esses inconvenientes, a presente invenção propõe um sistema e método de monitoramento ininterrupto e em tempo real do comportamento de animais de reprodução, que é capaz de monitorar diversos animais de reprodução simultaneamente, com eficácia e eficiência, identificando e destacando quais animais estão em condições de cio para que os produtores sejam notificados dessas condições o mais rápido possível.[012] Aiming at solving these drawbacks, the present invention proposes a system and method for uninterrupted and real-time monitoring of the behavior of breeding animals, which is capable of monitoring several breeding animals simultaneously, effectively and efficiently, identifying and highlighting which ones animals are in estrus conditions so that producers are notified of these conditions as soon as possible.
[013] Dessa forma, é um objetivo da presente invenção prover um sistema e método de monitoramento ininterrupto e em tempo real do comportamento de animais de reprodução, que emite alertas para chamar a atenção dos produtores sempre que um animal de reprodução entra no cio.[013] Thus, it is an objective of the present invention to provide a system and method for uninterrupted and real-time monitoring of the behavior of breeding animals, which issues alerts to draw the attention of producers whenever a breeding animal comes into heat.
[014] É também um objetivo da presente invenção prover um sistema e método de monitoramento ininterrupto e em tempo real do comportamento de animais de reprodução, que possui uma rede neural constantemente aprimorada de acordo com os resultados obtidos pelo próprio funcionamento da invenção.[014] It is also an objective of the present invention to provide a system and method for uninterrupted and real-time monitoring of the behavior of breeding animals, which has a neural network constantly improved according to the results obtained by the operation of the invention itself.
[015] Assim, vantajosamente, a presente invenção propõe um sistema e método de monitoramento ininterrupto e em tempo real do comportamento de animais de reprodução, cujo processo de monitoramento pode identificar com precisão o comportamento do cio dos animais de reprodução, permitindo a descoberta e concepção oportunas para a eficiência nos casos de prenhes através de inseminação artificial, melhorando os benefícios econômicos da pecuária leiteira e diminuindo as perdas por falta de detecção, ao mesmo tempo em que reduz os custos e o trabalho na reprodução de gado leiteiro.[015] Thus, advantageously, the present invention proposes a system and method for uninterrupted and real-time monitoring of the behavior of breeding animals, whose monitoring process can accurately identify the estrus behavior of breeding animals, allowing the discovery and timely design for efficiency in pregnant cases through artificial insemination, improving the economic benefits of dairy farming and decreasing losses due to lack of detection, while reducing costs and labor in dairy breeding.
[016] São apresentadas a seguir figuras esquemáticas de realizações da invenção, cujas dimensões e proporções não são necessariamente as reais, pois as figuras têm apenas a finalidade de apresentar didaticamente seus diversos aspectos, cuja abrangência de proteção está determinada apenas pelo escopo das reivindicações anexas.[016] The following are schematic figures of realizations of the invention, whose dimensions and proportions are not necessarily the real ones, as the figures are only intended to didactically present its various aspects, whose scope of protection is determined only by the scope of the attached claims .
[017] A figura 1 ilustra uma vista esquemática de um exemplo de configuração do sistema (S);[017] Figure 1 illustrates a schematic view of an example of system configuration (S);
[018] A figura 2 ilustra um fluxograma de funcionamento do método (M).[018] Figure 2 illustrates a flowchart of method (M) operation.
[019] A presente invenção descreve um sistema (S) de monitoramento de animais de reprodução (2), tais como bovinos, sendo que o referido sistema (S) compreende pelo menos um dispositivo de identificação por imagem (1) do comportamento de cada animal de reprodução (2) em uma área de confinamento (3), de modo que tal monitoramento ocorra em tempo real e de maneira ininterrupta.[019] The present invention describes a system (S) for monitoring breeding animals (2), such as cattle, and said system (S) comprises at least one image identification device (1) of the behavior of each breeding animal (2) in a containment area (3), so that such monitoring takes place in real time and uninterrupted.
[020] De maneira opcional, um único dispositivo de identificação por imagem (1) pode ser instalado em uma região superior, preferencialmente central, da área de confinamento (3), de modo a monitorar todos os animais de reprodução (2) simultaneamente. Porém, mais dispositivos de identificação por imagem (1) poderão ser utilizados, principalmente quando a área de confinamento (3) possuir configuração que dificulte o alcance de um único dispositivo de identificação por imagem (1) a todos os animais de reprodução (2) simultaneamente.[020] Optionally, a single image identification device (1) can be installed in an upper region, preferably central, of the confinement area (3), in order to monitor all breeding animals (2) simultaneously. However, more imaging identification devices (1) may be used, especially when the confinement area (3) has a configuration that makes it difficult to reach a single imaging identification device (1) to all breeding animals (2) simultaneously.
[021] Cada dispositivo de identificação por imagem (1) é preferencialmente configurado por uma câmera, e é interligado com uma unidade de processamento (4) dotada de um banco de dados (40) que recebe informações binárias de cio e não cio correlacionadas com uma série de imagens originais de comportamentos de cada animal reprodutor (2) a ser identificado por cada dispositivo de identificação por imagem (1) e interpretados pela unidade de processamento (4), por meio da extração de características da sequência de imagens captadas pelo dispositivo de identificação por imagem (1).[021] Each image identification device (1) is preferably configured by a camera, and is interconnected with a processing unit (4) provided with a database (40) that receives binary information of estrus and non-estrus correlated with a series of original images of the behavior of each breeding animal (2) to be identified by each image identification device (1) and interpreted by the processing unit (4), through the extraction of characteristics of the sequence of images captured by the device of identification by image (1).
[022] A referida unidade de processamento (4) compreende uma rede neural pré-treinada no banco de dados (40), a partir das informações binárias de cio e não cio de cada animal reprodutor (2), conforme as respectivas posições de cada animal reprodutor (2) nas sequências de imagens obtidas.[022] Said processing unit (4) comprises a neural network pre-trained in the database (40), from the binary information of estrus and non-estrus of each breeding animal (2), according to the respective positions of each breeding animal (2) in the sequences of images obtained.
[023] Assim, preferencialmente, o sistema (S) compreende um módulo de treinamento (não ilustrado) da rede neural pré-treinada, o qual realiza: a obtenção de uma amostra de várias condições com um marcador de comportamento de acordo com a amostra de sequência de imagens original; a extração de características na amostra que correspondente à amostra de sequência de imagens original com o marcador de comportamento; a detecção de uma amostra de animal de reprodução (2) na sequência de imagens e extração de uma característica do objeto, sendo o animal de reprodução (2); a introdução das características do animal de reprodução (2) para treinar a rede neural pré-treinada.[023] Thus, preferably, the system (S) comprises a training module (not illustrated) of the pre-trained neural network, which performs: obtaining a sample of various conditions with a behavior marker according to the sample of original image sequence; extracting features in the sample that match the original image sequence sample with the behavior marker; detecting a breeding animal sample (2) in the image sequence and extracting a feature of the object, being the breeding animal (2); the introduction of the characteristics of the breeding animal (2) to train the pre-trained neural network.
[024] De maneira preferencial, o sistema (S) também compreende pelo menos um receptor de alarme (5) de informação correlacionada a condição de cio identificada pelo sistema (S) a partir de qualquer animal reprodutor (2). Cada receptor de alarme (5) pode ser ativado a partir das informações de saída emitidas pela unidade de processamento (4).[024] Preferably, the system (S) also comprises at least one alarm receiver (5) of information correlated to the estrus condition identified by the system (S) from any breeding animal (2). Each alarm receiver (5) can be activated from the output information issued by the processing unit (4).
[025] Dessa forma, cada animal de reprodução (2) identificado em condição de cio é marcado e destacado pela unidade de processamento (4), e cada receptor de alarme (5) pode ser utilizado para emitir um sinal de aviso a um ou mais operadores humanos (não ilustrados), para que esses animais de reprodução (2) sejam devidamente encaminhados para que seja programada a inseminação artificial o mais rápido possível.[025] In this way, each breeding animal (2) identified in estrus condition is marked and highlighted by the processing unit (4), and each alarm receiver (5) can be used to issue a warning signal to one or more human operators (not illustrated), so that these breeding animals (2) are properly directed so that artificial insemination is programmed as soon as possible.
[026] De maneira exemplar, cada receptor de alarme (5) pode ser configurado por um computador, tablete, smartphone, entre outros, podendo emitir sinais visuais e/ou sonoros.[026] In an exemplary way, each alarm receiver (5) can be configured by a computer, tablet, smartphone, among others, and can emit visual and/or audible signals.
[027] A presente invenção também trata de um método (M) de monitoramento do comportamento de animais de reprodução (2), tais como bovinos, em tempo real e de maneira ininterrupta, o qual compreende as seguintes etapas:[027] The present invention also deals with a method (M) of monitoring the behavior of breeding animals (2), such as cattle, in real time and uninterruptedly, which comprises the following steps:
[028] S1) obtenção de uma sequência de imagens de animais de reprodução (2) em uma área de confinamento (3) a partir de pelo menos um dispositivo de identificação por imagem (1);[028] S1) obtaining a sequence of images of breeding animals (2) in a confinement area (3) from at least one image identification device (1);
[029] S2) detecção dos animais de reprodução (2) a serem monitorados por meio da extração das características de cada animal de reprodução (2) a partir das imagens obtidas na etapa anterior e processadas por uma rede neural pré-treinada de uma unidade de processamento (4);[029] S2) detection of breeding animals (2) to be monitored by extracting the characteristics of each breeding animal (2) from the images obtained in the previous step and processed by a pre-trained neural network of a unit processing (4);
[030] S3) processamento das características de cada animal de reprodução (2) por meio da rede neural pré-treinada da unidade de processamento (4), em que o comportamento de cio ou não cio de cada animal de reprodução (2) é obtido de acordo com o resultado de saída da rede neural pré-treinada;[030] S3) processing the characteristics of each breeding animal (2) through the pre-trained neural network of the processing unit (4), in which the estrus or non-estrus behavior of each breeding animal (2) is obtained according to the output result of the pre-trained neural network;
[031] S4) identificação de cada animal de reprodução (2) interpretado em condição de cio.[031] S4) identification of each breeding animal (2) interpreted in estrus condition.
[032] Dessa forma, as etapas de "S1” a "S4” são repetidas ininterruptamente, de modo que todos os animais de reprodução (2) que estiverem na área de confinamento (3) sejam constantemente avaliados, para que qualquer condição de cio seja prontamente identificada.[032] In this way, the steps from "S1" to "S4" are repeated uninterruptedly, so that all breeding animals (2) that are in the confinement area (3) are constantly evaluated, so that any estrus condition be readily identified.
[033] Preferencialmente, durante a etapa "S1”, a sequência de imagens é obtida a partir de um vídeo, captado por cada dispositivo de identificação por imagem (1). Também preferencialmente, essa sequência de imagens é obtida a partir de algoritmos deep learning, de limiarização e rotulação, os quais são responsáveis pela classificação inicial dos objetos que compõem a sequência de imagens.[033] Preferably, during step "S1", the image sequence is obtained from a video, captured by each image identification device (1). Also preferably, this image sequence is obtained from deep algorithms learning, thresholding and labeling, which are responsible for the initial classification of the objects that make up the image sequence.
[034] Ainda, de maneira preferencial, durante a etapa "S1”, na obtenção da sequência de imagens a partir da sequência de imagens originais do animal de reprodução (2), para cada pixel da imagem é atribuído um vetor de velocidade, e mudanças no vetor de velocidade podem representar uma informação de movimento. Em áreas de movimento consistente, a mudança no vetor de velocidade é consistente e, nas áreas de movimento inconsistente, a mudança no vetor de velocidade também é inconsistente.[034] Also, preferably, during step "S1", in obtaining the sequence of images from the original sequence of images of the breeding animal (2), for each pixel of the image a velocity vector is assigned, and Velocity vector changes can represent motion information.In areas of consistent motion, the change in velocity vector is consistent, and in areas of inconsistent motion, the change in velocity vector is also inconsistent.
[035] Dessa forma, durante a etapa "S2”, preferencialmente, cada imagem obtida recebe sequencialmente uma camada de convolução e uma camada de downsampling da rede neural pré-treinada, e executa a extração de características da sequência de imagens usando a camada de convolução e a camada de downsampling. Assim, a detecção dos animais de reprodução (2) ocorre a partir dessas características extraídas da sequência de imagens.[035] Thus, during step "S2", preferably, each image obtained sequentially receives a convolution layer and a downsampling layer of the pre-trained neural network, and performs the extraction of characteristics of the image sequence using the layer of convolution and the downsampling layer. Thus, the detection of breeding animals (2) occurs from these characteristics extracted from the image sequence.
[036] Também de maneira preferencial, durante a etapa "S2”, a detecção dos animais de reprodução (2) ocorre após a aquisição de um mapa de saliência correspondente à sequência da imagem original, e cálculo de uma entropia de imagem do mapa de saliência.[036] Also preferably, during step "S2", the detection of breeding animals (2) occurs after the acquisition of a salience map corresponding to the sequence of the original image, and calculation of an image entropy of the map of boss.
[037] Dessa forma, a detecção na imagem de cada animal de reprodução (2) a ser monitorado ocorre de acordo com a entropia calculada, enquanto que as características dos animais de reprodução (2) a serem monitorados são extraídas por meio de um algoritmo, para eliminar o efeito do contexto na imagem.[037] Thus, the detection in the image of each breeding animal (2) to be monitored occurs according to the calculated entropy, while the characteristics of the breeding animals (2) to be monitored are extracted by means of an algorithm , to eliminate the context effect on the image.
[038] Especificamente, nesta forma de realização particular da invenção, uma sequência de imagens é apresentada para a rede neural na sua camada de entrada. As imagens são repassadas para as camadas inferiores, alternando entre camadas de convolução e camadas de downsampling para obtenção das características correspondente às imagens.[038] Specifically, in this particular embodiment of the invention, a sequence of images is presented to the neural network in its input layer. The images are transferred to the lower layers, alternating between convolution layers and downsampling layers to obtain the characteristics corresponding to the images.
[039] Nesta forma de realização, a rede neural convolucional inclui um total de quatro camadas de convolução e três camadas de downsampling, cada uma composta de vários mapas bidimensionais, e cada mapa, por sua vez, é composto por vários neurónios individuais. Cada neurônio na camada de convolução é ligado à camada superior recebendo parte da imagem, e as camadas de downsampling recebem um ponto local. Dessa forma, a resolução espacial é reduzida e facilita na obtenção de correlações locais da imagem, retendo informações úteis e reduzindo a quantidade de processamento necessário.[039] In this embodiment, the convolutional neural network includes a total of four convolution layers and three downsampling layers, each composed of several two-dimensional maps, and each map, in turn, is composed of several individual neurons. Each neuron in the convolution layer is connected to the upper layer receiving part of the image, and the downsampling layers receive a local point. Thus, the spatial resolution is reduced and facilitates obtaining local image correlations, retaining useful information and reducing the amount of processing required.
[040] Também de maneira preferencial, durante a etapa "S3”, são introduzidas as características de cio e de não cio em uma camada totalmente conectada da rede neural pré-treinada, e de acordo com a saída da camada de saída da rede neural pré-treinada, é monitorado o comportamento do cio de cada animal de reprodução (2) a ser monitorado.[040] Also preferably, during step "S3", the estrus and non-estrus characteristics are introduced in a fully connected layer of the pre-trained neural network, and according to the output of the output layer of the neural network pre-trained, the estrus behavior of each breeding animal (2) to be monitored is monitored.
[041] Especificamente, nessa forma de realização desta invenção, a rede neural compreende uma camada adicional de saída totalmente conectada à extração de características das imagens. Essa camada atua como um "classificador”, mapeando essas informações de acordo com os marcadores pré-definidos de cio ou movimento de caminhada normal. Esse mapeamento é transmitido como saída da rede neural e o comportamento do cio dos animais de reprodução (2) pode ser monitorado.[041] Specifically, in this embodiment of this invention, the neural network comprises an additional output layer fully connected to the extraction of features from the images. This layer acts as a "classifier", mapping this information according to predefined heat markers or normal walking movement. This mapping is transmitted as output from the neural network and the heat behavior of breeding animals (2) can be monitored.
[042] Ainda, preferencialmente antes da etapa "S3”, é realizado o treinamento da rede neural pré-treinada, por meio da aquisição de uma amostra de sequência de imagens original com um marcador de comportamento, de acordo com o comportamento dos animais de reprodução (2). Assim, a rede neural pré-treinada recebe uma resposta correspondente a cada comportamento dos animais de reprodução (2), conforme cada situação exposta pela amostra de sequência de imagens original.[042] Still, preferably before step "S3", the training of the pre-trained neural network is performed, through the acquisition of an original image sequence sample with a behavior marker, according to the behavior of the animals of reproduction (2) Thus, the pre-trained neural network receives a response corresponding to each behavior of the reproduction animals (2), according to each situation exposed by the original image sequence sample.
[043] Em um exemplo específico de realização da presente invenção, durante esse treinamento da rede neural pré-treinada, as imagens de vídeo capturadas dos animais de reprodução (2) confinados são armazenadas em meio digital para refinamento da rede neural convolucional pré-treinada.[043] In a specific example of carrying out the present invention, during this training of the pre-trained neural network, the captured video images of the breeding animals (2) confined are stored in digital media for refinement of the pre-trained convolutional neural network .
[044] Após o armazenamento das imagens de vídeo, cada segmento de vídeo é anotado com uma tag contendo a indicação de que as imagens de vídeo contêm uma amostra de animais com comportamento de cio, ou uma tag contendo a indicação de que as imagens de vídeo contêm uma amostra de animais com comportamento normal (sem cio).[044] After storing the video images, each video segment is annotated with a tag containing the indication that the video images contain a sample of animals with heat behavior, or a tag containing the indication that the images of video contain a sample of animals with normal behavior (no heat).
[045] Esse conjunto de imagens anotados com as tags é utilizado para o refinamento da rede neural convolucional pré-treinada. Uma vez anotados as amostras de imagens de vídeos dos animais de reprodução (2), cada uma dessas amostras é utilizada para alimentar a rede neural convolucional pré-treinada para que se faça o seu refinamento, e essa rede neural convolucional pré-treinada passe a reconhecer e distinguir os comportamentos de animais em cio e o comportamento normal desses animais de reprodução (2).[045] This set of images annotated with tags is used for the refinement of the pre-trained convolutional neural network. Once the samples of video images of the breeding animals are annotated (2), each of these samples is used to feed the pre-trained convolutional neural network so that it can be refined, and this pre-trained convolutional neural network passes to recognize and distinguish the behaviors of animals in heat and the normal behavior of these breeding animals (2).
[046] Esse refinamento se dá através da apresentação de um vídeo com sua respectiva tag e computação da resposta da rede neural convolucional pré-treinada. Uma vez computada a resposta da rede neural convolucional pré-treinada, compara-se com a resposta correta para o vídeo (cio ou sem cio) com a tag atribuída ao mesmo e, caso haja divergência, faz-se um ajuste na rede neural convolucional pré-treinada para que a mesma aprenda através do seu erro.[046] This refinement is through the presentation of a video with its respective tag and computation of the response of the pre-trained convolutional neural network. Once the pre-trained convolutional neural network response has been computed, it is compared with the correct response for the video (estrus or no heat) with the tag assigned to it and, in case of divergence, an adjustment is made to the convolutional neural network pre-trained so that it learns through its mistake.
[047] Esse processo se repete com todos os exemplos do dataset de treino e, após esgotados os mesmos, reutilizam-se exemplos já apresentados para a rede neural convolucional pré-treinada até que a mesma aprenda a reconhecer e distinguir comportamentos normais dos comportamentos de cio.[047] This process is repeated with all the examples of the training dataset and, after they are exhausted, the examples already presented for the pre-trained convolutional neural network are reused until it learns to recognize and distinguish normal behaviors from the behaviors of heat.
[048] Após a fase de refinamento da rede neural convolucional pré-treinada e a confirmação de que a mesma já reconhece e distingue comportamentos normais dos comportamentos de cio, a mesma poderá ser utilizada como um sistema de identificação de animais de reprodução (2) em cio.[048] After the refinement phase of the pre-trained convolutional neural network and the confirmation that it already recognizes and distinguishes normal behaviors from estrus behaviors, it can be used as an identification system for breeding animals (2) in heat.
[049] Esse processo se dá através da captura de imagens de vídeo online (ao vivo) dos animais confinados (isto é, sem interrupção) e alimentação da rede neural convolucional pré-treinada. Uma vez que nessas imagens de vídeo dos animais de reprodução (2) a rede neural convolucional pré-treinada reconheça um comportamento de um animal de reprodução (2) em cio, o sistema de identificação irá emitir um aviso de animal em cio.[049] This process takes place through the capture of online video images (live) of the confined animals (that is, without interruption) and feeding the pre-trained convolutional neural network. Once in these video images of the breeding animals (2) the pre-trained convolutional neural network recognizes a behavior of a breeding animal (2) in heat, the identification system will issue an animal in heat warning.
[050] O referido aviso é composto de três etapas distintas que são computadas em paralelo com a detecção e monitoramento dos animais confinados:[050] This notice is composed of three distinct steps that are computed in parallel with the detection and monitoring of confined animals:
[051] i) segmentação do objeto (animal de reprodução (2) no cio);[051] i) object segmentation (breeding animal (2) in heat);
[052] ii) detecção da borda do objeto (animal de reprodução (2) no cio);[052] ii) detection of the edge of the object (breeding animal (2) in heat);
[053] iii) coloração do objeto (animal de reprodução (2) no cio) na imagem.[053] iii) coloring of the object (breeding animal (2) in heat) in the image.
[054] Na etapa “i”, após identificado o comportamento de cio através das imagens de vídeo online dos animais de reprodução (2) pela rede neural convolucional pré-treinada, o sistema irá detectar o objeto (neste caso o animal de reprodução (2) com comportamento detectado como de cio), irá segmentar o objeto na imagem desenhando internamente um retângulo ao redor do animal de reprodução (2) com comportamento de cio para facilitar as etapas “ii” e “iii”.[054] In step "i", after identifying the estrus behavior through the online video images of the breeding animals (2) by the pre-trained convolutional neural network, the system will detect the object (in this case the breeding animal ( 2) with estrus behavior detected), will segment the object in the image by internally drawing a rectangle around the breeding animal (2) with estrus behavior to facilitate steps “ii” and “iii”.
[055] Na etapa “ii” é necessária a identificação dos pixels que compõem a borda do animal de reprodução (2) com comportamento de cio na imagem de vídeo online, para que o sistema possa então colorir este animal de reprodução (2). Uma vez que o sistema desenhou internamente um retângulo ao redor do animal de reprodução (2) com comportamento de cio na etapa “i”, a detecção dos pixels de borda se reduz apenas àquela parte da imagem, e não a imagem inteira. É importante salientar que estes pixels de borda não são utilizados para a detecção do comportamento de cio, uma vez que o animal de reprodução (2) com comportamento de cio já foi identificado antes do início da etapa “i”.[055] In step "ii" it is necessary to identify the pixels that make up the border of the breeding animal (2) with estrus behavior in the online video image, so that the system can then color this breeding animal (2). Since the system internally drew a rectangle around the breeding animal (2) with estrus behavior in step “i”, the detection of edge pixels is reduced only to that part of the image, and not the entire image. It is important to point out that these edge pixels are not used for the detection of the estrus behavior, since the breeding animal (2) with estrus behavior was already identified before the beginning of step “i”.
[056] Uma vez que os pixels de borda foram identificados na etapa “ii”, o sistema gerará intemamente uma máscara com pixels de cores diferentes da imagem de vídeo online que será limitada àqueles pixels identificados como pertencentes ao interior do contorno de borda conforme detectado na etapa “ii”.[056] Once the edge pixels have been identified in step "ii", the system will internally generate a mask with pixels of different colors from the online video image that will be limited to those pixels identified as belonging to the interior of the edge contour as detected in step “ii”.
[057] Essa máscara será sobreposta à imagem de vídeo online na tela do usuário fazendo com que o animal de reprodução (2) com comportamento de cio apareça em cor diferente.[057] This mask will be superimposed on the online video image on the user's screen causing the breeding animal (2) with estrus behavior to appear in a different color.
[058] Esse processo de coloração é computado independentemente para cada animal de reprodução (2) identificado com comportamento de cio, gerando máscaras diferentes onde as cores podem ser as mesmas ou diferentes. Caso não haja detecção de animal de reprodução (2) com comportamento de cio detectado, o sistema não gera a máscara de cores mantendo a imagem de vídeo online inalterada.[058] This coloring process is computed independently for each breeding animal (2) identified with estrus behavior, generating different masks where the colors can be the same or different. If there is no detection of breeding animal (2) with heat behavior detected, the system does not generate the color mask keeping the online video image unchanged.
[059] Durante a etapa “S3”, esse treinamento da rede neural pré-treinada continua a ser realizado de maneira contínua, conforme os resultados de informações de saída da unidade de processamento (4) ocorrem a partir dos comportamentos identificados dos animais de reprodução (2).[059] During step "S3", this training of the pre-trained neural network continues to be carried out continuously, as the results of output information from the processing unit (4) occur from the identified behaviors of the breeding animals (two).
[060] Neste exemplo particular de realização da presente invenção, para o treinamento da rede neural pré-treinada, seleciona-se uma quantidade apropriada de amostras de imagens, contendo respectivamente animais de reprodução (2) com comportamentos de cio identificados manualmente e de animais de reprodução (2) com comportamentos gerais.[060] In this particular example of carrying out the present invention, for training the pre-trained neural network, an appropriate amount of image samples is selected, respectively containing breeding animals (2) with manually identified estrus and animal behaviors of reproduction (2) with general behaviors.
[061] Na sequência, rotula-se as imagens com comportamento de cio e comportamento geral e se combina essas imagens em uma amostra. Além disso, na obtenção de uma sequência de imagens da amostra com os marcadores de comportamento, para cada pixel na imagem é atribuído um vetor de velocidade. A mudança do vetor de velocidade correspondente ao pixel pode refletir a informação de movimento daquele ponto de pixel.[061] Next, the images with estrus behavior and general behavior are labeled and these images are combined in a sample. Furthermore, in obtaining a sequence of images from the sample with the behavior markers, for each pixel in the image a velocity vector is assigned. Changing the velocity vector corresponding to the pixel may reflect the motion information from that pixel point.
[062] Ainda, o recurso de características obtidas acima é introduzido na rede neural para treinar a mesma. Essa rede neural compreende uma camada de entrada, várias comadas bidimensionais de convolução e downsampling, compostas por vários neurônios, e uma camada de saída. Os neurônios das camadas de convolução estão conectados para receber uma parte da imagem, e os neurônios da camada de downsampling estão conectados para receber porções dessas partes das imagens. O número de camadas convolucionais e de downsampling podem ser definidos de acordo com a necessidade, sem limitações especificadas.[062] Still, the feature of characteristics obtained above is introduced in the neural network to train it. This neural network comprises an input layer, several two-dimensional convolution and downsampling commands, composed of several neurons, and an output layer. Neurons in the convolution layers are wired to receive a portion of the image, and neurons in the downsampling layer are wired to receive portions of those image parts. The number of convolutional and downsampling layers can be defined as needed, with no specified limitations.
[063] Durante a etapa "S4”, cada animal de reprodução (2) interpretado em condição de cio é preferencialmente marcado com a aplicação de uma cor de destaque sobre a imagem monitorada do mesmo.[063] During step "S4", each breeding animal (2) interpreted in estrus condition is preferably marked with the application of a highlight color on its monitored image.
[064] Após a etapa "S4”, a unidade de processamento (4) pode emitir um comunicado para pelo menos um receptor de alarme (5), informando cada condição de cio de cada animal de reprodução (2) identificado em condição de cio.[064] After step "S4", the processing unit (4) can issue a report to at least one alarm receiver (5), informing each estrus condition of each breeding animal (2) identified in estrus condition .
[065] O homem da técnica prontamente perceberá, a partir da descrição, várias maneiras de realizar a invenção sem fugir do escopo das reivindicações em anexo.[065] The man in the art will readily perceive, from the description, several ways to carry out the invention without departing from the scope of the appended claims.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
BR102019026989-8A BR102019026989A2 (en) | 2019-12-17 | 2019-12-17 | UNINTERRUPTED AND REAL-TIME MONITORING SYSTEM OF BREEDING ANIMALS BEHAVIOR |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
BR102019026989-8A BR102019026989A2 (en) | 2019-12-17 | 2019-12-17 | UNINTERRUPTED AND REAL-TIME MONITORING SYSTEM OF BREEDING ANIMALS BEHAVIOR |
Publications (1)
Publication Number | Publication Date |
---|---|
BR102019026989A2 true BR102019026989A2 (en) | 2021-06-29 |
Family
ID=77163790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR102019026989-8A BR102019026989A2 (en) | 2019-12-17 | 2019-12-17 | UNINTERRUPTED AND REAL-TIME MONITORING SYSTEM OF BREEDING ANIMALS BEHAVIOR |
Country Status (1)
Country | Link |
---|---|
BR (1) | BR102019026989A2 (en) |
-
2019
- 2019-12-17 BR BR102019026989-8A patent/BR102019026989A2/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | A computer vision-based method for spatial-temporal action recognition of tail-biting behaviour in group-housed pigs | |
Tassinari et al. | A computer vision approach based on deep learning for the detection of dairy cows in free stall barn | |
MX2015006775A (en) | Systems and methods for predicting the outcome of a state of a subject. | |
CN102711627A (en) | Detection method | |
US20230260327A1 (en) | Autonomous livestock monitoring | |
KR102522239B1 (en) | Apparatus and method for analyzing feeding behavior of livestock based on image | |
CN114155216A (en) | Pig temperature detection method and device | |
US20190012535A1 (en) | Trail camera image recognition system | |
CN113662530A (en) | Pig physiological growth state monitoring and early warning method | |
CA3230401A1 (en) | Systems and methods for the automated monitoring of animal physiological conditions and for the prediction of animal phenotypes and health outcomes | |
CN113762113A (en) | Livestock parturition behavior monitoring method and device | |
KR20220064712A (en) | Apparatus and method for monitoring growing progress of livestock individual based on image | |
DK2786655T3 (en) | Optical supported utility animal localization device and method for birth registration and delivery monitoring. | |
CN108460370A (en) | A kind of fixed poultry life-information warning device | |
Chowdhury et al. | Deep learning based computer vision technique for automatic heat detection in cows | |
BR102019026989A2 (en) | UNINTERRUPTED AND REAL-TIME MONITORING SYSTEM OF BREEDING ANIMALS BEHAVIOR | |
Sivamani et al. | Automatic posture detection of pigs on real-time using Yolo framework | |
Wang et al. | Automatic identification and analysis of multi-object cattle rumination based on computer vision | |
CN113743261A (en) | Pig body trauma detection method and device and readable storage medium | |
Labaratory | 3D video based detection of early lameness in dairy cattle | |
CA3179609A1 (en) | Systems and methods for annotating image sequences with landmarks | |
CN116963595A (en) | Pig raising support device, pig raising support method, and pig raising support program | |
Reulke et al. | Analysis of motion patterns for pain estimation of horses | |
JPWO2021033732A5 (en) | ||
Bastiaansen et al. | Continuous real-time cow identification by reading ear tags from live-stream video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B03A | Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette] |