WO2021210459A1 - 家畜発情期判別プログラム - Google Patents

家畜発情期判別プログラム Download PDF

Info

Publication number
WO2021210459A1
WO2021210459A1 PCT/JP2021/014694 JP2021014694W WO2021210459A1 WO 2021210459 A1 WO2021210459 A1 WO 2021210459A1 JP 2021014694 W JP2021014694 W JP 2021014694W WO 2021210459 A1 WO2021210459 A1 WO 2021210459A1
Authority
WO
WIPO (PCT)
Prior art keywords
livestock
information
estrus
association
degree
Prior art date
Application number
PCT/JP2021/014694
Other languages
English (en)
French (fr)
Inventor
綾子 澤田
Original Assignee
Assest株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Assest株式会社 filed Critical Assest株式会社
Publication of WO2021210459A1 publication Critical patent/WO2021210459A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61DVETERINARY INSTRUMENTS, IMPLEMENTS, TOOLS, OR METHODS
    • A61D1/00Surgical instruments for veterinary use
    • A61D1/08Veterinary obstetrical instruments or devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification

Definitions

  • the present invention relates to a livestock estrus determination program for determining the estrus period of mammalian livestock such as cattle, horses, and pigs.
  • Estrus is the period of acceptance of males, during which mating occurs and estrus ceases upon conception. Especially in livestock farmers, when artificial insemination is performed, it is necessary for the manager to accurately detect this estrus and seed it.
  • estrus period of this livestock it is often difficult for even a skilled person to determine the estrus period of this livestock. If the estrus period is missed, seeding will not be possible and it will be a great loss for livestock farmers. For this reason, it has been conventionally desired to provide a tool that assists in determining the estrus period of livestock.
  • an object of the present invention is to automatically and highly accurately set the estrus period in a livestock estrus period determination program for determining the estrus period of livestock.
  • the purpose is to provide a livestock estrus determination program that can be determined.
  • the non-livestock estrus period determination program according to the present invention is detected by an acceleration sensor attached to the body of the livestock to be discriminated in the livestock estrus period determination program for discriminating the estrus period of livestock.
  • Acceleration information acquired in the above information acquisition step by referring to the combination of the corresponding reference acceleration information and the reference image information that images the movement of the livestock, and the degree of association with the estrus period of the livestock in three or more stages.
  • the computer is made to execute the discrimination step of discriminating the estrus period of the livestock to be discriminated based on the image information.
  • FIG. 1 It is a block diagram which shows the whole structure of the system to which this invention is applied. It is a figure which shows the specific configuration example of a search device. It is a figure for demonstrating the operation of this invention. It is a figure for demonstrating the operation of this invention. It is a figure for demonstrating the operation of this invention. It is a figure for demonstrating the operation of this invention. It is a figure for demonstrating the operation of this invention. It is a figure for demonstrating the operation of this invention. It is a figure for demonstrating the operation of this invention. It is a figure for demonstrating the operation of this invention. It is a figure for demonstrating the operation of this invention.
  • FIG. 1 is a block diagram showing an overall configuration of a livestock estrus determination system 1 in which a livestock estrus determination program to which the present invention is applied is implemented.
  • the livestock estrus determination system 1 includes an information acquisition unit 9, a search device 2 connected to the information acquisition unit 9, and a database 3 connected to the search device 2.
  • the information acquisition unit 9 is a device for a person who uses this system to input various commands and information, and is specifically composed of a keyboard, buttons, a touch panel, a mouse, a switch, and the like.
  • the information acquisition unit 9 is not limited to a device for inputting text information, and may be configured by a device such as a microphone that can detect voice and convert it into text information. Further, the information acquisition unit 9 may be configured as an image pickup device capable of capturing an image of a camera or the like.
  • the information acquisition unit 9 may be configured by a scanner having a function of recognizing a character string from a paper-based document. Further, the information acquisition unit 9 may be integrated with the search device 2 described later. The information acquisition unit 9 outputs the detected information to the search device 2.
  • the information acquisition unit 9 may be configured by means for specifying the position information by scanning the map information.
  • the information acquisition unit 9 also includes a temperature sensor, a humidity sensor, a flow rate sensor, and other sensors capable of identifying substances and physical properties.
  • the information acquisition unit 9 may be configured by means for automatically fetching character strings and data posted on a site on the Internet.
  • the information acquisition unit also includes an acceleration sensor attached to livestock.
  • Database 3 stores various information necessary for determining the estrus period of livestock.
  • Information necessary for determining the estrus period of livestock includes reference acceleration information according to the movement of the livestock detected by the acceleration sensor attached to the body of the livestock acquired in advance, and a reference image that captures the movement of the livestock.
  • a data set of reference raw milk amount information that detects the amount of raw milk that can be collected from the livestock and the estrus period of the livestock to be discriminated is stored.
  • any one or more of such reference acceleration information, reference image information, reference audio information, reference food consumption information, reference genital area information, and reference raw milk amount information is stored.
  • the estrus period of the livestock to be discriminated is memorized in association with each other.
  • the search device 2 is composed of, for example, an electronic device such as a personal computer (PC), but is embodied in any other electronic device such as a mobile phone, a smartphone, a tablet terminal, a wearable terminal, etc., in addition to the PC. It may be converted. The user can obtain a search solution by the search device 2.
  • PC personal computer
  • FIG. 2 shows a specific configuration example of the search device 2.
  • the search device 2 performs wired communication or wireless communication with a control unit 24 for controlling the entire search device 2 and an operation unit 25 for inputting various control commands via operation buttons, a keyboard, or the like.
  • a communication unit 26 for the purpose, an estimation unit 27 for making various judgments, and a storage unit 28 for storing a program for performing a search to be executed represented by a hard disk or the like are connected to the internal bus 21, respectively. .. Further, a display unit 23 as a monitor that actually displays information is connected to the internal bus 21.
  • the control unit 24 is a so-called central control unit for controlling each component mounted in the search device 2 by transmitting a control signal via the internal bus 21. Further, the control unit 24 transmits various control commands via the internal bus 21 in response to the operation via the operation unit 25.
  • the operation unit 25 is embodied by a keyboard or a touch panel, and an execution command for executing a program is input from the user.
  • the operation unit 25 notifies the control unit 24 of the execution command.
  • the control unit 24, including the estimation unit 27, executes a desired processing operation in cooperation with each component.
  • the operation unit 25 may be embodied as the information acquisition unit 9 described above.
  • the estimation unit 27 estimates the search solution.
  • the estimation unit 27 reads out various information stored in the storage unit 28 and various information stored in the database 3 as necessary information when executing the estimation operation.
  • the estimation unit 27 may be controlled by artificial intelligence. This artificial intelligence may be based on any well-known artificial intelligence technique.
  • the display unit 23 is composed of a graphic controller that creates a display image based on the control by the control unit 24.
  • the display unit 23 is realized by, for example, a liquid crystal display (LCD) or the like.
  • the storage unit 28 When the storage unit 28 is composed of a hard disk, predetermined information is written to each address based on the control by the control unit 24, and this is read out as needed. Further, the storage unit 28 stores a program for executing the present invention. This program is read and executed by the control unit 24.
  • the reference acceleration information is acceleration data detected by an acceleration sensor attached to the neck or body of a female mammal of a mammalian system such as a cow, a horse, or a pig.
  • This reference acceleration information reflects the movement of livestock in the urine.
  • Cows in estrus are said to be restless and their walking speed and frequency may change, but such behavior will be reflected as reference acceleration information detected by the accelerometer.
  • Cows in the estrous cycle also show behaviors that ride on other cows, and such behaviors are reflected as reference acceleration information detected by the acceleration sensor.
  • the reference image information is composed of image data obtained by capturing such movements and behaviors of livestock with a camera. Acquire image data of behaviors such as restlessness of cows in estrus, frequency and speed of walking, and riding on other cows, and acquire this by image analysis of the image data as necessary. do. If necessary, a deep learning technique may be used to automatically discriminate based on the feature amount of the analyzed image and convert it into data. Further, such behaviors and movements of livestock may be categorized based on the feature amount of the analysis image and automatically arranged.
  • the intermediate node 61 shown in FIG. 3 is a combination of the reference acceleration information and the reference image information as such input data.
  • Each intermediate node 61 is further connected to an output.
  • the estrus periods A to E of the livestock are displayed.
  • the estrus period of this livestock may be indicated as the time when the actual livestock estrus is estrus after days and hours, the estrus period ends after days and hours, and so on.
  • the date and time of the start point and the date and time of the end point of the estrus period may be shown. According to the example of FIG. 3, the estrus period A is from 10:00 to March 14 on March 13th. Until 13:00, the estrus period B is composed of 15:00 on March 15th to 6:00 on March 16th.
  • the estrus period is the period during which female domestic animals accept males, and mating is performed during this period, and estrus stops when conception occurs.
  • the determination of whether or not it is in estrus may be determined by an expert or a skilled person, or may be determined from the result of actual seeding. In such a case, if the seeding is successful, the period is judged to be in estrus, and if the seeding is unsuccessful, or if the seeding itself is not accepted, it is not in estrus. Judge.
  • the signs of livestock are extracted, and how many hours after the extraction is the start time of the estrus period and how many hours after the extraction time is the end time of the estrus period.
  • Each combination (intermediate node) of the reference acceleration information and the reference image information is associated with each other through three or more levels of association with the estrus period as this output solution.
  • the reference acceleration information and the reference image information are arranged on the left side via the degree of association, and the estrus periods A, B, C, D, E, ... Are arranged on the right side via the degree of association.
  • the degree of association indicates the degree of which estrus period is highly relevant to the reference acceleration information and the reference image information arranged on the left side. In other words, this degree of association is an index indicating what estrus period each reference acceleration information and reference image information are likely to be associated with, and each reference acceleration information and reference image. It shows the accuracy in selecting the most suitable estrus period from the information. In the example of FIG.
  • w13 to w22 are shown as the degree of association. These w13 to w22 are shown in 10 stages as shown in Table 1 below, and the closer to 10 points, the higher the degree of relevance of each combination as an intermediate node to the estrus period as an output. On the contrary, the closer to one point, the lower the degree of relevance of each combination as an intermediate node to the estrus period as an output.
  • the search device 2 acquires in advance the degree of association w13 to w22 of three or more stages shown in FIG. That is, the search device 2 accumulates past data as to which of the reference acceleration information, the reference image information, and the estrus period in that case was suitable for determining the actual search solution, and stores these. By analyzing and analyzing, the degree of association shown in FIG. 3 is created.
  • This analysis may be performed by artificial intelligence.
  • the estrus period is analyzed from the past data. If there are many cases of A, the degree of association that leads to A is set higher, and if there are many cases of "B", if there are few cases of A, the degree of association that leads to B is increased and the degree of association that leads to A is increased. Set the degree low.
  • the output of estrus period A and B is linked, but from the previous case, the degree of association of w13 connected to estrus period A is set to 7 points, and the degree of association of w14 connected to estrus period B is set to 7 points. It is set to 2 points.
  • the degree of association shown in FIG. 3 may be composed of the nodes of the neural network in artificial intelligence. That is, the weighting coefficient for the output of the node of this neural network corresponds to the above-mentioned degree of association.
  • the network is not limited to a neural network, and may be composed of all decision-making factors constituting artificial intelligence.
  • the node 61b is a node that is a combination of the reference acceleration information P01 and the reference image information P14, and the degree of association of the estrus period C is w15 and the degree of association of the estrus period E. Is w16.
  • the node 61c is a node in which the reference image information P15 and P17 are combined with the reference acceleration information P02, and the degree of association of the estrus period B is w17 and the degree of association of the estrus period D is w18.
  • Such degree of association is what is called learned data in artificial intelligence. After creating such learned data, when actually performing a search for determining the estrus period from now on, the above-mentioned learned data will be used. In such a case, image information is acquired in addition to acceleration information from the livestock to be discriminated to newly discriminate the estrus period. In addition to the acceleration information, the method of acquiring the image information is the same as the reference acceleration information and the reference image information described above.
  • the optimum estrus period is searched for.
  • the degree of association shown in FIG. 3 (Table 1) acquired in advance is referred to.
  • the node 61d is associated via the degree of association.
  • the node 61d is associated with the estrus period C by w19 and the estrus period D by the degree of association w20.
  • the estrus period C having the highest degree of association is selected as the optimum solution.
  • Table 2 below shows examples of the degree of association w1 to w12 extending from the input.
  • the intermediate node 61 may be selected based on the degree of association w1 to w12 extending from this input. That is, the larger the degree of association w1 to w12, the heavier the weighting in the selection of the intermediate node 61 may be. However, the degrees of association w1 to w12 may all have the same value, and the weights in the selection of the intermediate node 61 may all be the same. It should be noted that the livestock that has acquired the reference acceleration information and the reference image information that constitute the above-mentioned degree of association need not be the same as the livestock that is to be discriminated from newly acquiring the acceleration information and the image information.
  • FIG. 4 shows an example in which the combination of the above-mentioned reference acceleration information and the reference voice information and the estrous cycle for the combination are set to three or more levels of association.
  • Reference voice information can be obtained by recording the voice of livestock. Livestock in estrus often scream and squeal. Therefore, the estrus period of the livestock can be determined by analyzing the sound of the livestock.
  • the voice of livestock can be detected, for example, through a microphone installed in a stable or the like.
  • the recorded voice may be frequency-analyzed, or the tone and strength may be included in the analysis.
  • This reference voice information may be obtained by acquiring voice in a certain period in time series and analyzing it.
  • the input data is, for example, reference acceleration information P01 to P03 and reference voice information P18 to 21.
  • the intermediate node shown in FIG. 4 is a combination of the reference acceleration information and the reference voice information as such input data.
  • Each intermediate node is further linked to the output. In this output, the credit rating as the output solution is displayed.
  • Each combination of reference acceleration information and reference voice information (intermediate node) is associated with each other through three or more levels of association with the estrus period as this output solution.
  • the reference acceleration information and the reference voice information are arranged on the left side via this degree of association, and the estrus period is arranged on the right side via this degree of association.
  • the degree of association indicates the degree of relevance to the estrus period with respect to the reference acceleration information and the reference voice information arranged on the left side.
  • this degree of association is an index indicating what estrus period each reference acceleration information and reference voice information are likely to be associated with, and is the most reliable from the reference acceleration information and the reference voice information. It shows the accuracy in selecting each likely estrus period.
  • the estrus period changes depending on what the actual livestock sound is. Therefore, the optimum estrus period is searched for by combining the reference acceleration information and the reference voice information.
  • w13 to w22 are shown as the degree of association. As shown in Table 1, these w13 to w22 are shown in 10 stages, and the closer to 10 points, the higher the degree of relevance of each combination as an intermediate node to the output, and conversely, 1 point. The closer they are, the less relevant each combination as an intermediate node is to the output.
  • the search device 2 acquires in advance the degree of association w13 to w22 of three or more stages shown in FIG. That is, the search device 2 accumulates past data as to which of the reference acceleration information and the reference voice information and the estrus period in that case was suitable for determining the actual search solution, and these By analyzing and analyzing, the degree of association shown in FIG. 4 is created.
  • This analysis may be performed by artificial intelligence.
  • the credit rating is analyzed from the past data.
  • the output of estrus period A and B is linked, but from the previous case, the degree of association of w13 connected to estrus period A is set to 7 points, and the degree of association of w14 connected to estrus period B is set to 7 points. It is set to 2 points.
  • the degree of association shown in FIG. 4 may be composed of the nodes of the neural network in artificial intelligence. That is, the weighting coefficient for the output of the node of this neural network corresponds to the above-mentioned degree of association.
  • the network is not limited to a neural network, and may be composed of all decision-making factors constituting artificial intelligence.
  • the node 61b is a node in which the reference voice information P18 is combined with the reference acceleration information P01, the degree of association of the estrus period C is w15, and the degree of association of the estrus period E. Is w16.
  • the node 61c is a node in which the reference voice information P19 and P21 are combined with the reference acceleration information P02, and the degree of association of the estrus period B is w17 and the degree of association of the estrus period D is w18.
  • Such degree of association is what is called learned data in artificial intelligence. After creating such trained data, when actually giving advice from now on, the above-mentioned trained data will be used. In such a case, in addition to the acceleration information described above, the voice information of the livestock to be discriminated to determine the estrus period is newly acquired. The method of acquiring the voice information is the same as that of the reference voice information.
  • Such reference audio information and the method of capturing the audio information are based on the feature amount of the analyzed image by image analysis of the description of the document in which the above-mentioned audio information is described and, if necessary, deep learning technology. It may be automatically determined and converted into data.
  • the credit rating is searched based on the newly acquired acceleration information and voice information in this way.
  • the degree of association shown in FIG. 4 (Table 1) acquired in advance is referred to.
  • the node 61d is associated via the degree of association, and this node In 61d, the estrus period C is associated with w19, and the estrus period D is associated with the degree of association w20.
  • the estrus period C having the highest degree of association is selected as the optimum solution.
  • FIG. 5 shows an example in which the combination of the above-mentioned reference image information and the reference audio information and the estrous cycle for the combination are set to three or more levels of association.
  • the degree of association between the combination of the reference image information and the reference audio information and the estrous cycle for the combination is acquired in advance.
  • image information and audio information of the livestock to be discriminated are acquired.
  • the estrus period of the livestock is determined in the same manner as described above based on the newly acquired image information and audio information.
  • a combination of reference food consumption information and the estrus period of livestock with respect to the combination are set to three or more levels of association. An example is shown.
  • Reference food consumption is information that indicates the actual food consumption of livestock.
  • This reference food consumption information may be obtained by the breeder measuring the food consumption actually consumed by the livestock each time.
  • the weight of the bait box containing the bait may be measured before and after the bait, and the consumption of the bait may be calculated from the difference value.
  • the inside of the container containing food (hay, etc.) may be imaged from an external camera, and the obtained image information may be analyzed before and after feeding to calculate the consumption of food. ..
  • the degree of association is such that the set of the combination of the reference acceleration information, the reference image information, and the reference food consumption information is the nodes 61a to 61e of the intermediate node as described above. Will be expressed as.
  • the reference acceleration information P02 is associated with the reference degree w3
  • the reference image information P15 is associated with the association degree w7
  • the reference food consumption information W is associated with the association degree w11.
  • the reference acceleration information P03 is associated with the reference degree w5
  • the reference image information P15 is associated with the association degree w8
  • the reference food consumption information V is associated with the association degree w10.
  • the reference food consumption information may be obtained as one data of changes in food consumption over time. This makes it possible to grasp the tendency of the latest food consumption to decrease or increase as compared with the normal food consumption.
  • the estrus period of the livestock is determined based on the acceleration information, the image information, and the food consumption information newly acquired from the livestock to be discriminated.
  • this estrus period refers to the degree of association shown in FIG. 6 acquired in advance.
  • the acceleration information is the same as or similar to the reference acceleration information P02
  • the acquired image information is the same as or similar to the reference image information P15
  • the acquired food consumption information is the reference food consumption.
  • the estrus period B is associated with the association degree w17
  • the estrus period D is associated with the association degree w18. ..
  • the estrus period of the livestock to be discriminated by actually newly acquiring the acceleration information, the image information, and the food consumption information will be obtained. ..
  • a combination of reference vulva information and the estrus period of livestock with respect to the combination are set to three or more levels of association. An example is shown.
  • the reference vulva information is information indicating the vulva of livestock.
  • This reference vulva information may be composed of image information obtained by capturing the vulva of a domestic animal with a camera, or is input as data after actually visually observing and observing the vulva and grasping the situation. It may be a thing. Further, the reference vulva information may be composed of data as a result of detecting and confirming the presence or absence of estrus mucus coming out of the vulva by an image, a sensor, or a visual inspection by a groom.
  • the degree of association is such that a set of combinations of reference acceleration information, reference image information, and reference vulva information is set as nodes 61a to 61e of intermediate nodes as described above. It will be expressed.
  • the reference acceleration information P02 is associated with the reference degree w3
  • the reference image information P15 is associated with the association degree w7
  • the reference vulva information W is associated with the association degree w11.
  • the reference acceleration information P03 is associated with the reference degree w5
  • the reference image information P15 is associated with the association degree w8
  • the reference vulva information V is associated with the association degree w10.
  • the estrus period of the livestock is determined based on the acceleration information, the image information, and the vulva information newly acquired from the livestock to be discriminated.
  • this estrus period refers to the degree of association shown in FIG. 7 acquired in advance.
  • the acceleration information is the same as or similar to the reference acceleration information P02
  • the acquired image information is the same as or similar to the reference image information P15
  • the acquired vulva information is the reference vulva information.
  • W the combination is associated with the node 61c
  • the node 61c is associated with the estrus period B at the degree of association w17 and the estrus period D at the degree of association w18.
  • livestock in estrus change the condition of the vulva and produce mucus from the vulva, and it is possible to accurately determine the estrus period of livestock by referring to such vulva information. It will be possible.
  • FIG. 8 in addition to the above-mentioned reference acceleration information and reference image information, a combination of reference raw milk amount information and a degree of association with the estrus period of livestock with respect to the combination are set. An example is shown.
  • the reference raw milk amount information is the amount of raw milk that can be collected from livestock, and can be detected especially from livestock that can collect raw milk such as dairy cows and goats.
  • This reference raw milk amount information indicates the amount of raw milk collected per day, once, or per unit time.
  • the degree of association is such that the set of the combination of the reference acceleration information, the reference image information, and the reference raw milk amount information is set as the nodes 61a to 61e of the intermediate node as described above. It will be expressed.
  • the reference acceleration information P02 is associated with the reference degree w3
  • the reference image information P15 is associated with the association degree w7
  • the reference raw milk amount information W is associated with the association degree w11.
  • the reference acceleration information P03 is associated with the reference degree w5
  • the reference image information P15 is associated with the association degree w8
  • the reference raw milk amount information V is associated with the association degree w10.
  • the estrus period of the livestock is determined based on the acceleration information, the image information, and the raw milk amount information newly acquired from the livestock to be discriminated.
  • this estrus period refers to the degree of association shown in FIG. 8 acquired in advance.
  • the acceleration information is the same as or similar to the reference acceleration information P02
  • the acquired image information is the same as or similar to the reference image information P15
  • the acquired raw milk amount information is the reference raw milk amount information.
  • the combination is associated with the node 61c
  • the node 61c is associated with the estrus period B at the degree of association w17 and the estrus period D at the degree of association w18.
  • the estrus period of the livestock to be discriminated from which the acceleration information, the image information, and the raw milk amount information are newly acquired is actually obtained.
  • the estrus period history information regarding the past estrus period history for each livestock to be discriminated may be further acquired.
  • This estrus history information is the period of estrus determined every year, and if the livestock has been conceived and delivered many times, the conception history, the process from conception to delivery, the postpartum situation, and the birth. Includes the situation of the child. In addition to this, it shows what kind of result was obtained when the livestock was seeded at what timing with respect to the acquired (acceleration information, image information, ... raw milk amount information). You may.
  • the discrimination accuracy may be improved by referring to such estrus period history information.
  • the estrus period determined through the above-mentioned degree of association may be further modified based on the estrus period history information, or the weighting may be changed. For example, in the estrus history information, for livestock whose estrus period comes relatively early every year, the estrus period determined through the degree of association may be set earlier, or the degree of association weighting leading to the earlier estrus period may be set earlier. May be made heavier.
  • estrus history information may be performed in the same manner at all the above-mentioned degrees of association.
  • the reference information U includes reference acceleration information, reference image information, reference audio information, reference food consumption information, reference genital area information, reference raw milk amount information, and the like.
  • Reference acceleration information, reference image information, reference audio information, reference food consumption information, reference genital information, reference which are configured and used as reference information V to form a degree of association in combination with reference information U.
  • the raw milk amount information may be used for discrimination based on the degree of association between these combinations.
  • the output solution is the estrus period described above.
  • the output obtained for the reference information U may be used as the input data as it is, and may be associated with the output via the intermediate node 61 in combination with the reference information V.
  • the reference information U after the output solution is output, this may be used as an input as it is, and the output may be searched by using the degree of association with other reference information V.
  • the degree of association is expressed by a 10-step evaluation, but it is not limited to this, and it may be expressed by a degree of association of 3 or more levels, and conversely, it may be expressed by 3 or more levels. For example, 100 steps or 1000 steps may be used.
  • this degree of association does not include those expressed in two stages, that is, whether or not they are related to each other, either 1 or 0.
  • the present invention having the above-described configuration, anyone can easily search for the creditworthiness of a company considering financing without any special skill or experience. Further, according to the present invention, it is possible to determine the search solution with higher accuracy than that performed by a human being. Further, by configuring the above-mentioned degree of association with artificial intelligence (neural network or the like), it is possible to further improve the discrimination accuracy by learning this.
  • artificial intelligence neural network or the like
  • the above-mentioned input data and output data may not be exactly the same in the process of learning, so that the input data and the output data may be classified by type. That is, the information P01, P02, ... P15, 16, ... That constitute the input data are classified according to the criteria classified in advance on the system side or the user side according to the content of the information, and the classified inputs.
  • a data set may be created between the data and the output data and trained.
  • the optimum solution search is performed through the degree of association set in three or more stages.
  • the degree of association can be described by, for example, a numerical value from 0 to 100% in addition to the above-mentioned 10 steps, but the degree of association is not limited to this, and any step can be described as long as it can be described by a numerical value of 3 or more steps. It may be configured.
  • the present invention it is possible to judge without overlooking the discrimination result of the extremely low output such as the degree of association of 1%. It warns the user that even a judgment result with an extremely low degree of association is connected as a slight sign and may be useful as the judgment result once every tens or hundreds of times. be able to.
  • the search policy can be determined by the method of setting the threshold value by performing the search based on the degree of association of three or more stages. If the threshold value is lowered, even if the above-mentioned degree of association is 1%, it can be picked up without omission, but it is unlikely that a more appropriate discrimination result can be detected favorably, and a lot of noise may be picked up. be. On the other hand, if the threshold value is raised, there is a high possibility that the optimum search solution can be detected with a high probability. Sometimes the solution is overlooked. It is possible to decide which one to prioritize based on the ideas of the user side and the system side, but it is possible to increase the degree of freedom in selecting the points to be emphasized.
  • the above-mentioned degree of association may be updated.
  • This update may reflect information provided via a public communication network such as the Internet. Further, when knowledge, information, and data regarding acceleration information, image information, audio information, food consumption information, vulva information, and raw milk amount information are acquired, the degree of association is increased or decreased according to these.
  • this update is equivalent to learning in terms of artificial intelligence. It can be said that it is a learning act because it acquires new data and reflects it in the learned data.
  • this update of the degree of association is not based on the information that can be obtained from the public communication network, but is also updated by the system side or the user side based on the contents of research data, papers, conference presentations, newspaper articles, books, etc. by experts. It may be updated artificially or automatically. Artificial intelligence may be utilized in these update processes.
  • the process of first creating a trained model and the above-mentioned update may use not only supervised learning but also unsupervised learning, deep learning, reinforcement learning, and the like.
  • unsupervised learning instead of reading and learning the data set of input data and output data, information corresponding to the input data is read and trained, and the degree of association related to the output data is self-formed from there. You may let it.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Environmental Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Husbandry (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】特段のスキルや経験が無くても、家畜の発情期を自動的かつ高精度に判定する。 【解決手段】家畜の発情期を判別する家畜発情期判別プログラムにおいて、判別対象の家畜の身体に取り付けられた加速度センサにより検知された当該家畜の動作に応じた加速度情報と、当該家畜の動作を撮像した画像情報とを取得する情報取得ステップと、予め取得した家畜の身体に取り付けられた加速度センサにより検知された家畜の動作に応じた参照用加速度情報と、当該家畜の動作を撮像した参照用画像情報とを有する組み合わせと、家畜の発情期との3段階以上の連関度を参照し、上記情報取得ステップにおいて取得した加速度情報と、画像情報とに基づき、上記判別対象の家畜の発情期を判別する判別ステップとをコンピュータに実行させることを特徴とする。

Description

家畜発情期判別プログラム
 本発明は、牛や馬、豚等の哺乳類系の家畜の発情期を判別する家畜発情期判別プログラムに関する。
 牛や馬、豚等の哺乳類系の家畜は、ある時期が来ると発情する。発情は雄を受け入れる期間で、この時期に交配が行われ、受胎すると発情が停止する。特に畜産農家において、人工授精させる場合、この発情を管理者が的確に発見し、種付けを行う必要がある。
 しかしながら、この家畜の発情期の見極めは熟練者であってもなかなか難しい場合が多い。仮に発情期を逃してしまうと種付けができなくなり、畜産農家にとって大きな損失になってしまう。このため、家畜の発情期の判別を補助してくれるツールの提供が従来より望まれていた。
 そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、家畜の発情期を判別する家畜発情期判別プログラムにおいて、発情期を自動的かつ高精度に判定することが可能な家畜発情期判別プログラムを提供することにある。
 上述した課題を解決するために、本発明に係る不家畜発情期判別プログラムは、家畜の発情期を判別する家畜発情期判別プログラムにおいて、判別対象の家畜の身体に取り付けられた加速度センサにより検知された当該家畜の動作に応じた加速度情報と、当該家畜の動作を撮像した画像情報とを取得する情報取得ステップと、予め取得した家畜の身体に取り付けられた加速度センサにより検知された家畜の動作に応じた参照用加速度情報と、当該家畜の動作を撮像した参照用画像情報とを有する組み合わせと、家畜の発情期との3段階以上の連関度を参照し、上記情報取得ステップにおいて取得した加速度情報と、画像情報とに基づき、上記判別対象の家畜の発情期を判別する判別ステップとをコンピュータに実行させることを特徴とする。
 特段のスキルや経験が無くても、家畜の発情期を自動的かつ高精度に判定することが可能となる。
本発明を適用したシステムの全体構成を示すブロック図である。 探索装置の具体的な構成例を示す図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。 本発明の動作について説明するための図である。
 以下、本発明を適用した家畜発情期判別プログラムについて、図面を参照しながら詳細に説明をする。
 図1は、本発明を適用した家畜発情期判別プログラムが実装される家畜発情期判別システム1の全体構成を示すブロック図である。家畜発情期判別システム1は、情報取得部9と、情報取得部9に接続された探索装置2と、探索装置2に接続されたデータベース3とを備えている。
 情報取得部9は、本システムを活用する者が各種コマンドや情報を入力するためのデバイスであり、具体的にはキーボードやボタン、タッチパネル、マウス、スイッチ等により構成される。情報取得部9は、テキスト情報を入力するためのデバイスに限定されるものではなく、マイクロフォン等のような音声を検知してこれをテキスト情報に変換可能なデバイスで構成されていてもよい。また情報取得部9は、カメラ等の画像を撮影可能な撮像装置として構成されていてもよい。情報取得部9は、紙媒体の書類から文字列を認識できる機能を備えたスキャナで構成されていてもよい。また情報取得部9は、後述する探索装置2と一体化されていてもよい。情報取得部9は、検知した情報を探索装置2へと出力する。また情報取得部9は地図情報をスキャニングすることで位置情報を特定する手段により構成されていてもよい。また情報取得部9は、温度センサ、湿度センサ、流量センサ、その他物質や物性を特定することが可能なセンサも含む。情報取得部9は、インターネット上のサイトに掲載されている文字列やデータを自動的に取り込んでくる手段で構成されていてもよい。また、情報取得部は、家畜に装着する加速度センサも含む。
 データベース3は、家畜発情期判別を行う上で必要な様々な情報が蓄積される。家畜発情期判別を行う上で必要な情報としては、予め取得した家畜の身体に取り付けられた加速度センサにより検知された家畜の動作に応じた参照用加速度情報、家畜の動作を撮像した参照用画像情報、家畜の音声を録音した参照用音声情報、予め取得した家畜の餌の消費量に関する参照用餌消費量情報、予め取得した家畜の外陰部の状態を検出した参照用外陰部情報、予め取得した家畜から採取可能な生乳の量を検出した参照用生乳量情報と、判別対象の家畜の発情期とのデータセットが記憶されている。
 つまり、データベース3には、このような参照用加速度情報、参照用画像情報、参照用音声情報、参照用餌消費量情報、参照用外陰部情報、参照用生乳量情報の何れか1以上と、判別対象の家畜の発情期とが互いに紐づけられて記憶されている。
 探索装置2は、例えば、パーソナルコンピュータ(PC)等を始めとした電子機器で構成されているが、PC以外に、携帯電話、スマートフォン、タブレット型端末、ウェアラブル端末等、他のあらゆる電子機器で具現化されるものであってもよい。ユーザは、この探索装置2による探索解を得ることができる。
 図2は、探索装置2の具体的な構成例を示している。この探索装置2は、探索装置2全体を制御するための制御部24と、操作ボタンやキーボード等を介して各種制御用の指令を入力するための操作部25と、有線通信又は無線通信を行うための通信部26と、各種判断を行う推定部27と、ハードディスク等に代表され、実行すべき検索を行うためのプログラムを格納するための記憶部28とが内部バス21にそれぞれ接続されている。さらに、この内部バス21には、実際に情報を表示するモニタとしての表示部23が接続されている。
  制御部24は、内部バス21を介して制御信号を送信することにより、探索装置2内に実装された各構成要素を制御するためのいわゆる中央制御ユニットである。また、この制御部24は、操作部25を介した操作に応じて各種制御用の指令を内部バス21を介して伝達する。
 操作部25は、キーボードやタッチパネルにより具現化され、プログラムを実行するための実行命令がユーザから入力される。この操作部25は、上記実行命令がユーザから入力された場合には、これを制御部24に通知する。この通知を受けた制御部24は、推定部27を始め、各構成要素と協調させて所望の処理動作を実行していくこととなる。この操作部25は、前述した情報取得部9として具現化されるものであってもよい。
 推定部27は、探索解を推定する。この推定部27は、推定動作を実行するに当たり、必要な情報として記憶部28に記憶されている各種情報や、データベース3に記憶されている各種情報を読み出す。この推定部27は、人工知能により制御されるものであってもよい。この人工知能はいかなる周知の人工知能技術に基づくものであってもよい。
  表示部23は、制御部24による制御に基づいて表示画像を作り出すグラフィックコントローラにより構成されている。この表示部23は、例えば、液晶ディスプレイ(LCD)等によって実現される。
  記憶部28は、ハードディスクで構成される場合において、制御部24による制御に基づき、各アドレスに対して所定の情報が書き込まれるとともに、必要に応じてこれが読み出される。また、この記憶部28には、本発明を実行するためのプログラムが格納されている。このプログラムは制御部24により読み出されて実行されることになる。
 上述した構成からなる家畜発情期判別システム1における動作について説明をする。
 家畜発情期判別システム1では、例えば図3に示すように、参照用加速度情報と、参照用画像情報との組み合わせが形成されていることが前提となる。参照用加速度情報とは、牛や馬、豚等の哺乳類系の雌の家畜の首や身体に取り付けられた加速度センサにより検知された加速度のデータである。この参照用加速度情報は、家畜の動きが尿実に反映される。発情期の雌牛は、落ち着きがなくなったり、歩行の速さや頻度も変わると言われているが、このような行動が加速度センサにより検知される参照用加速度情報として反映されることになる。また発情期の雌牛は、他の牛に乗駕する行動も見せるが、このような行動が加速度センサにより検知される参照用加速度情報として反映されることになる。
 参照用画像情報は、このような家畜の動作や行動をカメラにより撮像することで得られた画像データで構成される。発情期の雌牛の落ち着きの無さ、歩行の頻度や速さ、他の牛への乗駕といった行動の画像データを取得し、必要に応じてその画像データを画像解析することにより、これを取得する。必要に応じてディープラーニング技術を利用し、解析画像の特徴量に基づいて自動判別し、データ化してもよい。また、このような家畜の行動や動作を解析画像の特徴量に基づいて類型化して自動的に整理してもよい。
 入力データとしては、このような参照用加速度情報と、参照用画像情報が並んでいる。このような入力データとしての、参照用加速度情報に対して、参照用画像情報が組み合わさったものが、図3に示す中間ノード61である。各中間ノード61は、更に出力に連結している。この出力においては、家畜の発情期A~Eが表示されている。この家畜の発情期は、実際の家畜が発情する時期が、何日後、何時間後に発情し、何日後、何時間後に発情期が終了する等のように示されていてもよいし、発情期の始点の月日と時刻並びに発情期の終点の月日と時刻が示されるものであってもよい図3の例によれば、発情期Aは、3月13日10時~3月14日13時まで、発情期Bは、3月15日15時~3月16日6時まで等で構成されている。
 発情期は、家畜の雌が雄を受け入れる期間で、この時期に交配が行われ、受胎すると発情が停止する。発情期であるか否かの判別は、専門家や熟練者により、判別されるものであってもよいし、実際に種付けを行わせた結果から判別されるものであってもよい。かかる場合には実際に種付けを行わせて成功した場合には、その期間は発情期と判断し、種付けを行わせて失敗だった場合、或いは種付け自体を受け付けなかった場合は、発情期でないものと判断する。
 参照用加速度情報と、参照用画像情報を通じて、家畜の兆候を抽出し、その抽出した時点から何時間後が発情期の開始時点であり、当該時点から何時間後が発情期の終了時点かを示すデータでデータセットを作ることができる。このようなデータセットを作って学習させることで、参照用加速度情報と、参照用画像情報から、その抽出時から何時間後が発情期の開始時点であり、当該時点から何時間後が発情期の終了時点かを出力することが可能となる。
 参照用加速度情報と、参照用画像情報との各組み合わせ(中間ノード)は、この出力解としての、発情期に対して3段階以上の連関度を通じて互いに連関しあっている。参照用加速度情報と、参照用画像情報がこの連関度を介して左側に配列し、発情期A、B、C、D、E、・・・が連関度を介して右側に配列している。連関度は、左側に配列された参照用加速度情報と、参照用画像情報に対して、何れの発情期と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用加速度情報と、参照用画像情報が、いかなる発情期に紐付けられる可能性が高いかを示す指標であり、各参照用加速度情報と、参照用画像情報から、最も相応しい発情期を選択する上での的確性を示すものである。図3の例では、連関度としてw13~w22が示されている。このw13~w22は以下の表1に示すように10段階で示されており、10点に近いほど、中間ノードとしての各組み合わせが出力としての発情期と互いに関連度合いが高いことを示しており、逆に1点に近いほど中間ノードとしての各組み合わせが出力としての発情期と互いに関連度合いが低いことを示している。
Figure JPOXMLDOC01-appb-T000001
 探索装置2は、このような図3に示す3段階以上の連関度w13~w22を予め取得しておく。つまり探索装置2は、実際の探索解の判別を行う上で参照用加速度情報と参照用画像情報、並びにその場合の発情期の何れが好適であったか、過去のデータを蓄積しておき、これらを分析、解析することで図3に示す連関度を作り上げておく。
 この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用加速度情報P01で、参照用画像情報P16である場合に、その発情期を過去のデータから分析する。Aの事例が多い場合には、このAにつながる連関度をより高く設定し、B」の事例が多く、Aの事例が少ない場合には、Bにつながる連関度を高くし、Aにつながる連関度を低く設定する。例えば中間ノード61aの例では、発情期AとBの出力にリンクしているが、以前の事例から発情期Aにつながるw13の連関度を7点に、発情期Bにつながるw14の連関度を2点に設定している。
 また、この図3に示す連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。
 図3に示す連関度の例で、ノード61bは、参照用加速度情報P01に対して、参照用画像情報P14の組み合わせのノードであり、発情期Cの連関度がw15、発情期Eの連関度がw16となっている。ノード61cは、参照用加速度情報P02に対して、参照用画像情報P15、P17の組み合わせのノードであり、発情期Bの連関度がw17、発情期Dの連関度がw18となっている。
 このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから発情期判別のための探索を行う際において、上述した学習済みデータを利用して行うこととなる。かかる場合には、新たに発情期の判別を行う判別対象の家畜から加速度情報に加え、画像情報を取得する。加速度情報に加え、画像情報の取得方法は、上述した参照用加速度情報、参照用画像情報と同様である。
 このようにして新たに取得した加速度情報、画像情報に基づいて、最適な発情期を探索する。かかる場合には、予め取得した図3(表1)に示す連関度を参照する。例えば、新たに取得した加速度情報がP02と同一かこれに類似するものである場合であって、画像情報がP17と同一かこれに類似する場合には、連関度を介してノード61dが関連付けられており、このノード61dは、発情期Cがw19、発情期Dが連関度w20で関連付けられている。かかる場合には、連関度の最も高い発情期Cを最適解として選択する。但し、最も連関度の高いものを最適解として選択することは必須ではなく、連関度は低いものの連関性そのものは認められる発情期Dを最適解として選択するようにしてもよい。また、これ以外に矢印が繋がっていない出力解を選択してもよいことは勿論であり、連関度に基づくものであれば、その他いかなる優先順位で選択されるものであってもよい。
 また、入力から伸びている連関度w1~w12の例を以下の表2に示す。
Figure JPOXMLDOC01-appb-T000002
 この入力から伸びている連関度w1~w12に基づいて中間ノード61が選択されていてもよい。つまり連関度w1~w12が大きいほど、中間ノード61の選択における重みづけを重くしてもよい。しかし、この連関度w1~w12は何れも同じ値としてもよく、中間ノード61の選択における重みづけは何れも全て同一とされていてもよい。なお、上述した連関度を構成する参照用加速度情報、参照用画像情報を取得した家畜と、新たに加速度情報、画像情報を取得する判別対象の家畜は同一である必要は無い。
 図4は、上述した参照用加速度情報と、参照用音声情報との組み合わせと、当該組み合わせに対する発情期との3段階以上の連関度が設定されている例を示している。
 参照用音声情報とは、家畜の音声を録音することで得ることができる。発情期の家畜は、声を上げたり、鳴いたりする場合が多い。このため、家畜の音声を解析することで、家畜の発情期を判別することができる。家畜の音声は例えば厩舎等に設置されたマイクロフォンを通じて検出することができる。
 参照用音声情報は、録音した音声を周波数解析し、或いはそのトーンや強弱も含めて解析するようにしてもよい。この参照用音声情報は、ある期間における音声を時系列的に取得し、これを解析したものであってもよい。
 図4の例では、入力データとして例えば参照用加速度情報P01~P03、参照用音声情報P18~21であるものとする。このような入力データとしての、参照用加速度情報に対して、参照用音声情報が組み合わさったものが、図4に示す中間ノードである。各中間ノードは、更に出力に連結している。この出力においては、出力解としての、信用度が表示されている。
 参照用加速度情報と参照用音声情報との各組み合わせ(中間ノード)は、この出力解としての、発情期に対して3段階以上の連関度を通じて互いに連関しあっている。参照用加速度情報と参照用音声情報がこの連関度を介して左側に配列し、発情期が連関度を介して右側に配列している。連関度は、左側に配列された参照用加速度情報と参照用音声情報に対して、発情期と関連性が高いかの度合いを示すものである。換言すれば、この連関度は、各参照用加速度情報と参照音声情報が、いかなる発情期に紐付けられる可能性が高いかを示す指標であり、参照用加速度情報と参照用音声情報から最も確からしい各発情期を選択する上での的確性を示すものである。加速度情報に加え、実際の家畜の音声がいかなるものであるのかに応じて、発情期は変化する。このため、これらの参照用加速度情報と参照用音声情報の組み合わせで、最適な発情期を探索していくこととなる。
 図4の例では、連関度としてw13~w22が示されている。このw13~w22は表1に示すように10段階で示されており、10点に近いほど、中間ノードとしての各組み合わせが出力と互いに関連度合いが高いことを示しており、逆に1点に近いほど中間ノードとしての各組み合わせが出力と互いに関連度合いが低いことを示している。
 探索装置2は、このような図4に示す3段階以上の連関度w13~w22を予め取得しておく。つまり探索装置2は、実際の探索解の判別を行う上で、参照用加速度情報と参照用音声情報、並びにその場合の発情期が何れが好適であったか、過去のデータを蓄積しておき、これらを分析、解析することで図4に示す連関度を作り上げておく。
 この分析、解析は人工知能により行うようにしてもよい。かかる場合には、例えば参照用加速度情報P01で、参照用音声情報P20である場合に、その信用度を過去のデータから分析する。例えば中間ノード61aの例では、発情期AとBの出力にリンクしているが、以前の事例から発情期Aにつながるw13の連関度を7点に、発情期Bにつながるw14の連関度を2点に設定している。
 また、この図4に示す連関度は、人工知能におけるニューラルネットワークのノードで構成されるものであってもよい。即ち、このニューラルネットワークのノードが出力に対する重み付け係数が、上述した連関度に対応することとなる。またニューラルネットワークに限らず、人工知能を構成するあらゆる意思決定因子で構成されるものであってもよい。
 図4に示す連関度の例で、ノード61bは、参照用加速度情報P01に対して、参照用音声情報P18の組み合わせのノードであり、発情期Cの連関度がw15、発情期Eの連関度がw16となっている。ノード61cは、参照用加速度情報P02に対して、参照用音声情報P19、P21の組み合わせのノードであり、発情期Bの連関度がw17、発情期Dの連関度がw18となっている。
 このような連関度が、人工知能でいうところの学習済みデータとなる。このような学習済みデータを作った後に、実際にこれから助言を行う際において、上述した学習済みデータを利用して行うこととなる。かかる場合には、上述した加速度情報に加え、新たに発情期を判定する判別対象の家畜の音声情報を取得する。音声情報の取得方法は、参照用音声情報と同様である。
 このような参照用音声情報、音声情報の取り込み方法は、上述した音声情報が記述されている書類の記載を画像解析、必要に応じてディープラーニング技術を利用し、解析画像の特徴量に基づいて自動判別し、データ化してもよい。
 このようにして新たに取得した加速度情報、音声情報に基づいて、信用度を探索する。かかる場合には、予め取得した図4(表1)に示す連関度を参照する。例えば、新たに取得した加速度情報がP02と同一かこれに類似するものである場合であって、音声情報がP21である場合には、連関度を介してノード61dが関連付けられており、このノード61dは、発情期Cがw19、発情期Dが連関度w20で関連付けられている。かかる場合には、連関度の最も高い発情期Cを最適解として選択する。但し、最も連関度の高いものを最適解として選択することは必須ではなく、連関度は低いものの連関性そのものは認められる発情期Dを最適解として選択するようにしてもよい。また、これ以外に矢印が繋がっていない出力解を選択してもよいことは勿論であり、連関度に基づくものであれば、その他いかなる優先順位で選択されるものであってもよい。
 図5は、上述した参照用画像情報と、参照用音声情報との組み合わせと、当該組み合わせに対する発情期との3段階以上の連関度が設定されている例を示している。このように、参照用画像情報と、参照用音声情報との組み合わせと、当該組み合わせに対する発情期との3段階以上の連関度を予め取得しておく。実際の判定時には、判別対象の家畜の画像情報と音声情報を取得する。そして、連関度を参照した上で、新たに取得した画像情報と音声情報とに基づき、家畜の発情期を上述と同様に判定する。
 図6は、上述した参照用加速度情報と、参照用画像情報に加えて、更に参照用餌消費量情報との組み合わせと、当該組み合わせに対する家畜の発情期との3段階以上の連関度が設定されている例を示している。
  参照用餌消費量は、家畜の実際の餌の消費量を示す情報である。この参照用餌消費量情報は、実際に家畜が摂取する餌の消費量を飼育担当者が都度計測することで得るようにしてもよい。その計測方法は、餌が入った餌箱の重さを、給餌前と給餌後で計測し、その差分値から餌の消費量を算出するようにしてもよい。また、餌(干し草など)が入ってる容器内を外部のカメラから撮像し、得られた画像情報を給餌前と給餌後とでそれぞれ解析することで餌の消費量を算出するようにしてもよい。
  かかる場合において、連関度は、図6に示すように、参照用加速度情報と、参照用画像情報と、参照用餌消費量情報との組み合わせの集合が上述と同様に中間ノードのノード61a~61eとして表現されることとなる。
  例えば、図6において、ノード61cは、参照用加速度情報P02が連関度w3で、参照用画像情報P15が連関度w7で、参照用餌消費量情報Wが連関度w11で連関している。同様にノード61eは、参照用加速度情報P03が連関度w5で、参照用画像情報P15が連関度w8で、参照用餌消費量情報Vが連関度w10で連関している。
 参照用餌消費量情報は、時系列的な餌の消費量の変化を一つのデータとして取得するものであってもよい。これにより、通常の餌の消費量と比較して、直近の餌の消費量が減少したか、或いは増加したか、その傾向を把握することが可能となる。
  このような連関度が設定されている場合も同様に、新たに判別対象の家畜から取得した加速度情報と、画像情報と、餌消費量情報に基づいて、当該家畜の発情期を判別する。
 この発情期を判別する上で予め取得した図6に示す連関度を参照する。例えば、加速度情報が参照用加速度情報P02に同一又は類似で、取得した画像情報が参照用画像情報P15と同一、類似であることが特定でき、更に取得した餌消費量情報が、参照用餌消費量情報Wであることが特定できた場合、その組み合わせはノード61cが関連付けられており、このノード61cは、発情期Bが連関度w17で、また発情期Dが連関度w18で関連付けられている。このような連関度の結果、w17、w18に基づいて、実際にその新たに加速度情報と、画像情報と、餌消費量情報とを取得した判別対象の家畜における発情期を求めていくことになる。
 発情期の家畜は、餌の消費量が変化すると言われており、このような餌消費量情報を参照することで家畜の発情期を高精度に判別することが可能となる。
 図7は、上述した参照用加速度情報と、参照用画像情報に加えて、更に参照用外陰部情報との組み合わせと、当該組み合わせに対する家畜の発情期との3段階以上の連関度が設定されている例を示している。
  参照用外陰部情報は、家畜の外陰部を示す情報である。この参照用外陰部情報は、家畜の外陰部をカメラにより撮像した画像情報で構成されていてもよいし、実際に外陰部を視認、観察し、その状況を把握した上でデータとして入力されるものであってもよい。また、この参照用外陰部情報は、外陰部出てくる発情粘液の有無を画像やセンサ、或いは厩務員による視認により検知、確認した結果のデータで構成されていてもよい。
  かかる場合において、連関度は、図7に示すように、参照用加速度情報と、参照用画像情報と、参照用外陰部情報との組み合わせの集合が上述と同様に中間ノードのノード61a~61eとして表現されることとなる。
  例えば、図7において、ノード61cは、参照用加速度情報P02が連関度w3で、参照用画像情報P15が連関度w7で、参照用外陰部情報Wが連関度w11で連関している。同様にノード61eは、参照用加速度情報P03が連関度w5で、参照用画像情報P15が連関度w8で、参照用外陰部情報Vが連関度w10で連関している。
  このような連関度が設定されている場合も同様に、新たに判別対象の家畜から取得した加速度情報と、画像情報と、外陰部情報に基づいて、当該家畜の発情期を判別する。
 この発情期を判別する上で予め取得した図7に示す連関度を参照する。例えば、加速度情報が参照用加速度情報P02に同一又は類似で、取得した画像情報が参照用画像情報P15と同一、類似であることが特定でき、更に取得した外陰部情報が、参照用外陰部情報Wであることが特定できた場合、その組み合わせはノード61cが関連付けられており、このノード61cは、発情期Bが連関度w17で、また発情期Dが連関度w18で関連付けられている。このような連関度の結果、w17、w18に基づいて、実際にその新たに加速度情報と、画像情報と、外陰部情報とを取得した判別対象の家畜における発情期を求めていくことになる。
 発情期の家畜は、外陰部の状況が変化し、また外陰部から粘液を出すと言われており、このような外陰部情報を参照することで家畜の発情期を高精度に判別することが可能となる。
 図8は、上述した参照用加速度情報と、参照用画像情報に加えて、更に参照用生乳量情報との組み合わせと、当該組み合わせに対する家畜の発情期との3段階以上の連関度が設定されている例を示している。
  参照用生乳量情報は、家畜から採取可能な生乳の量であり、特に乳牛やヤギ等、生乳を採取可能な家畜から検出することができる。この参照用生乳量情報は、1日当たり又は1回あたり、或いは単位時間あたりで採取される生乳量を示すものである。
  かかる場合において、連関度は、図8に示すように、参照用加速度情報と、参照用画像情報と、参照用生乳量情報との組み合わせの集合が上述と同様に中間ノードのノード61a~61eとして表現されることとなる。
  例えば、図8において、ノード61cは、参照用加速度情報P02が連関度w3で、参照用画像情報P15が連関度w7で、参照用生乳量情報Wが連関度w11で連関している。同様にノード61eは、参照用加速度情報P03が連関度w5で、参照用画像情報P15が連関度w8で、参照用生乳量情報Vが連関度w10で連関している。
  このような連関度が設定されている場合も同様に、新たに判別対象の家畜から取得した加速度情報と、画像情報と、生乳量情報に基づいて、当該家畜の発情期を判別する。
 この発情期を判別する上で予め取得した図8に示す連関度を参照する。例えば、加速度情報が参照用加速度情報P02に同一又は類似で、取得した画像情報が参照用画像情報P15と同一、類似であることが特定でき、更に取得した生乳量情報が、参照用生乳量情報Wであることが特定できた場合、その組み合わせはノード61cが関連付けられており、このノード61cは、発情期Bが連関度w17で、また発情期Dが連関度w18で関連付けられている。このような連関度の結果、w17、w18に基づいて、実際にその新たに加速度情報と、画像情報と、生乳量情報とを取得した判別対象の家畜における発情期を求めていくことになる。
 発情期の家畜は、採取できる生乳量が変化するため、このような生乳量情報を参照することで家畜の発情期を高精度に判別することが可能となる。
 また本発明によれば、判別対象の家畜毎の過去の発情期の履歴に関する発情期履歴情報を更に取得するようにしてもよい。この発情期履歴情報は、毎年判別された発情期の時期、その家畜が何度も受胎して出産している場合には、その受胎履歴、受胎から出産までの経過、産後の状況、出産した子供の状況が含まれる。またこれに加えて、その家畜について、取得した(加速度情報、画像情報、・・・生乳量情報)に対して、いかなるタイミングで種付けを行ったところ、いかなる結果であったのかを示すものであってもよい。
 発情期を判別する際には、このような発情期履歴情報を参照することで判別精度の向上を図るようにしてもよい。上述した連関度を通じて判別された発情期は、更に、発情期履歴情報に基づいて修正され、或いは重み付けを変化させるようにしてもよい。例えば、発情期履歴情報において、毎年比較的早めに発情期がくる家畜については、連関度を通じて判別された発情期を早めに設定するようにしてもよいし、早めの発情期につながる連関度重み付けを重くするようにしてもよい。
 このような発情期履歴情報を参照するのは、上述した全ての連関度において同様に行うようにしてもよい。
 また、図9に示すように、参照用情報Uとして、参照用加速度情報、参照用画像情報、参照用音声情報、参照用餌消費量情報、参照用外陰部情報、参照用生乳量情報等で構成し、参照用情報Vとして、参照用情報Uと組み合わせて連関度を構成する参照用加速度情報、参照用画像情報、参照用音声情報、参照用餌消費量情報、参照用外陰部情報、参照用生乳量情報とし、これらの組み合わせの連関度に基づいて判別するようにしてもよい。出力解は、上述した発情期である。
 このとき、参照用情報Uについて得られた出力をそのまま入力データとして、参照用情報Vとの組み合わせの中間ノード61を介して出力と関連付けられていてもよい。例えば、参照用情報Uについて、出力解を出した後、これをそのまま入力として、他の参照用情報Vとの間での連関度を利用し、出力を探索するようにしてもよい。
 上述した連関度においては、10段階評価で連関度を表現しているが、これに限定されるものではなく、3段階以上の連関度で表現されていればよく、逆に3段階以上であれば100段階でも1000段階でも構わない。一方、この連関度は、2段階、つまり互いに連関しているか否か、1又は0の何れかで表現されるものは含まれない。
 上述した構成からなる本発明によれば、特段のスキルや経験が無くても、誰でも手軽に融資を検討している企業の信用度の探索を行うことができる。また本発明によれば、この探索解の判断を、人間が行うよりも高精度に行うことが可能となる。更に、上述した連関度を人工知能(ニューラルネットワーク等)で構成することにより、これを学習させることでその判別精度を更に向上させることが可能となる。
 なお、上述した入力データ、及び出力データは、学習させる過程で完全に同一のものが存在しない場合も多々あることから、これらの入力データと出力データを類型別に分類した情報であってもよい。つまり、入力データを構成する情報P01、P02、・・・・P15、16、・・・は、その情報の内容に応じて予めシステム側又はユーザ側において分類した基準で分類し、その分類した入力データと出力データとの間でデータセットを作り、学習させるようにしてもよい。
 また、本発明によれば、3段階以上に設定されている連関度を介して最適な解探索を行う点に特徴がある。連関度は、上述した10段階以外に、例えば0~100%までの数値で記述することができるが、これに限定されるものではなく3段階以上の数値で記述できるものであればいかなる段階で構成されていてもよい。
 このような3段階以上の数値で表される連関度に基づいてより信用度に関する信憑性が高く、誤認の低い信用度を判別することで、探索解の可能性の候補として複数考えられる状況下において、当該連関度の高い順に探索して表示することも可能となる。
 これに加えて、本発明によれば、連関度が1%のような極めて低い出力の判別結果も見逃すことなく判断することができる。連関度が極めて低い判別結果であっても僅かな兆候として繋がっているものであり、何十回、何百回に一度は、その判別結果として役に立つ場合もあることをユーザに対して注意喚起することができる。
 更に本発明によれば、このような3段階以上の連関度に基づいて探索を行うことにより、閾値の設定の仕方で、探索方針を決めることができるメリットがある。閾値を低くすれば、上述した連関度が1%のものであっても漏れなく拾うことができる反面、より適切な判別結果を好適に検出できる可能性が低く、ノイズを沢山拾ってしまう場合もある。一方、閾値を高くすれば、最適な探索解を高確率で検出できる可能性が高い反面、通常は連関度は低くてスルーされるものの何十回、何百回に一度は出てくる好適な解を見落としてしまう場合もある。いずれに重きを置くかは、ユーザ側、システム側の考え方に基づいて決めることが可能となるが、このような重点を置くポイントを選ぶ自由度を高くすることが可能となる。
 更に本発明では、上述した連関度を更新させるようにしてもよい。この更新は、例えばインターネットを始めとした公衆通信網を介して提供された情報を反映させるようにしてもよい。また加速度情報、画像情報、音声情報、餌消費量情報、外陰部情報、生乳量情報に関する知見、情報、データを取得した場合、これらに応じて連関度を上昇させ、或いは下降させる。
 つまり、この更新は、人工知能でいうところの学習に相当する。新たなデータを取得し、これを学習済みデータに反映させることを行っているため、学習行為といえるものである。
 また、この連関度の更新は、公衆通信網から取得可能な情報に基づく場合以外に、専門家による研究データや論文、学会発表や、新聞記事、書籍等の内容に基づいてシステム側又はユーザ側が人為的に、又は自動的に更新するようにしてもよい。これらの更新処理においては人工知能を活用するようにしてもよい。
 また学習済モデルを最初に作り上げる過程、及び上述した更新は、教師あり学習のみならず、教師なし学習、ディープラーニング、強化学習等を用いるようにしてもよい。教師なし学習の場合には、入力データと出力データのデータセットを読み込ませて学習させる代わりに、入力データに相当する情報を読み込ませて学習させ、そこから出力データに関連する連関度を自己形成させるようにしてもよい。
1 家畜発情期判別システム
2 探索装置
21 内部バス
23 表示部
24 制御部
25 操作部
26 通信部
27 推定部
28 記憶部
61 ノード
 

Claims (7)

  1.  家畜の発情期を判別する家畜発情期判別プログラムにおいて、
     判別対象の家畜の身体に取り付けられた加速度センサにより検知された当該家畜の動作に応じた加速度情報と、当該家畜の動作を撮像した画像情報とを取得する情報取得ステップと、
     予め取得した家畜の身体に取り付けられた加速度センサにより検知された家畜の動作に応じた参照用加速度情報と、当該家畜の動作を撮像した参照用画像情報とを有する組み合わせと、家畜の発情期との3段階以上の連関度を参照し、上記情報取得ステップにおいて取得した加速度情報と、画像情報とに基づき、上記判別対象の家畜の発情期を判別する判別ステップとをコンピュータに実行させること
     を特徴とする家畜発情期判別プログラム。
  2.  家畜の発情期を判別する家畜発情期判別プログラムにおいて、
     判別対象の家畜の身体に取り付けられた加速度センサにより検知された当該家畜の動作に応じた加速度情報と、当該家畜の音声を録音した音声情報とを取得する情報取得ステップと、
     予め取得した家畜の身体に取り付けられた加速度センサにより検知された家畜の動作に応じた参照用加速度情報と、当該家畜の音声を録音した参照用音声情報とを有する組み合わせと、家畜の発情期との3段階以上の連関度に基づき、上記情報取得ステップにおいて取得した加速度情報と、音声情報とに基づき、上記判別対象の家畜の発情期を判別する判別ステップとをコンピュータに実行させること
     を特徴とする家畜発情期判別プログラム。
  3.  家畜の発情期を判別する家畜発情期判別プログラムにおいて、
     判別対象の家畜の動作を撮像した画像情報と、当該家畜の音声を録音した音声情報とを取得する情報取得ステップと、
     予め取得した家畜の動作を撮像した参照用画像情報と、当該家畜の音声を録音した参照用音声情報とを有する組み合わせと、家畜の発情期との3段階以上の連関度に基づき、上記情報取得ステップにおいて取得した画像情報と、音声情報とに基づき、上記判別対象の家畜の発情期を判別する判別ステップとをコンピュータに実行させること
     を特徴とする家畜発情期判別プログラム。
  4.  上記情報取得ステップでは、判別対象の家畜の餌の消費量に関する餌消費量情報を更に取得し、
     上記判別ステップでは、上記組み合わせと予め取得した家畜の餌の消費量に関する参照用餌消費量情報とを有する新たな組み合わせと、家畜の発情期との3段階以上の連関度に基づき、上記情報取得ステップにおいて取得した各情報に基づき、上記判別対象の家畜の発情期を判別すること
     を特徴とする請求項1~3のうち何れか1項記載の家畜発情期判別プログラム。
  5.  上記情報取得ステップでは、判別対象の家畜の外陰部の状態を検出した外陰部情報を更に取得し、
     上記判別ステップでは、上記組み合わせと予め取得した家畜の外陰部の状態を検出した参照用外陰部情報とを有する新たな組み合わせと、家畜の発情期との3段階以上の連関度に基づき、上記情報取得ステップにおいて取得した各情報に基づき、上記判別対象の家畜の発情期を判別すること
     を特徴とする請求項1~3のうち何れか1項記載の家畜発情期判別プログラム。
  6.  上記情報取得ステップでは、判別対象の家畜から採取可能な生乳の量を検出した生乳量情報を更に取得し、
     上記判別ステップでは、上記組み合わせと予め取得した家畜から採取可能な生乳の量を検出した参照用生乳量情報とを有する新たな組み合わせと、家畜の発情期との3段階以上の連関度に基づき、上記情報取得ステップにおいて取得した各情報に基づき、上記判別対象の家畜の発情期を判別すること
     を特徴とする請求項1~3のうち何れか1項記載の家畜発情期判別プログラム。
  7.  上記判別ステップでは、人工知能におけるニューラルネットワークのノードの各出力の重み付け係数に対応する上記連関度を利用すること
     を特徴とする請求項1~6のうち何れか1項記載の家畜発情期判別プログラム。
     
     
PCT/JP2021/014694 2020-04-13 2021-04-07 家畜発情期判別プログラム WO2021210459A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-071527 2020-04-13
JP2020071527A JP6833231B1 (ja) 2020-04-13 2020-04-13 家畜発情期判別プログラム

Publications (1)

Publication Number Publication Date
WO2021210459A1 true WO2021210459A1 (ja) 2021-10-21

Family

ID=74661770

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/014694 WO2021210459A1 (ja) 2020-04-13 2021-04-07 家畜発情期判別プログラム

Country Status (2)

Country Link
JP (1) JP6833231B1 (ja)
WO (1) WO2021210459A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040018232A (ko) * 2003-11-27 2004-03-02 연성찬 소의 발정 감지 장치
JP2005058056A (ja) * 2003-08-08 2005-03-10 Mitsubishi Electric System & Service Co Ltd 乳牛の管理システム
JP2007124966A (ja) * 2005-11-04 2007-05-24 Technos Japan:Kk 動物の発情情報、出産情報及び/又は生体情報検知装置。
CN108491807A (zh) * 2018-03-28 2018-09-04 北京农业信息技术研究中心 一种奶牛发情行为实时监测方法及系统
CN108717523A (zh) * 2018-04-26 2018-10-30 华南农业大学 基于机器视觉的母猪发情行为检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005058056A (ja) * 2003-08-08 2005-03-10 Mitsubishi Electric System & Service Co Ltd 乳牛の管理システム
KR20040018232A (ko) * 2003-11-27 2004-03-02 연성찬 소의 발정 감지 장치
JP2007124966A (ja) * 2005-11-04 2007-05-24 Technos Japan:Kk 動物の発情情報、出産情報及び/又は生体情報検知装置。
CN108491807A (zh) * 2018-03-28 2018-09-04 北京农业信息技术研究中心 一种奶牛发情行为实时监测方法及系统
CN108717523A (zh) * 2018-04-26 2018-10-30 华南农业大学 基于机器视觉的母猪发情行为检测方法

Also Published As

Publication number Publication date
JP2021168060A (ja) 2021-10-21
JP6833231B1 (ja) 2021-02-24

Similar Documents

Publication Publication Date Title
WO2022138839A1 (ja) 動物意思判別プログラム
WO2021079785A1 (ja) 肉質判別プログラム及びシステム
JP2022101291A (ja) 家畜発情期判別プログラム
WO2021210459A1 (ja) 家畜発情期判別プログラム
JP2021096836A (ja) いじめ兆候判別プログラム及びシステム、いじめ判別プログラム及びシステム
JP2022101296A (ja) 動物意思判別プログラム
JP6696654B1 (ja) 疲労度判別プログラム
JP2022101293A (ja) 家畜発情期判別プログラム
JP2022101292A (ja) 家畜発情期判別プログラム
JP2022101294A (ja) 家畜発情期判別プログラム
JP2022080616A (ja) 家畜欲求判別プログラム
JP6858377B1 (ja) 魚の品質判別プログラム及びシステム
JP6801902B1 (ja) 子供虐待兆候判別プログラム及びシステム
JP6696650B1 (ja) 飼育環境判別プログラム
JP2022101297A (ja) 動物意思判別プログラム
JP2022106069A (ja) 動物意思判別プログラム
JP2022107312A (ja) 動物健康状態判別プログラム
JP2022107309A (ja) 動物意思判別プログラム
JP2022107308A (ja) 動物意思判別プログラム
JP2022107310A (ja) 動物健康状態判別プログラム
JP2022107311A (ja) 動物健康状態判別プログラム
Teichroeb et al. Primate behavior: An exercise workbook
JP2021111269A (ja) 疲労度判別プログラム、改善施策提案プログラム
JP2021128687A (ja) 飼育環境判別プログラム
JP6849255B1 (ja) 認知症兆候判別プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21788752

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 28/03/2023)

122 Ep: pct application non-entry in european phase

Ref document number: 21788752

Country of ref document: EP

Kind code of ref document: A1