WO2019235776A1 - Device and method for determining abnormal object - Google Patents

Device and method for determining abnormal object Download PDF

Info

Publication number
WO2019235776A1
WO2019235776A1 PCT/KR2019/006506 KR2019006506W WO2019235776A1 WO 2019235776 A1 WO2019235776 A1 WO 2019235776A1 KR 2019006506 W KR2019006506 W KR 2019006506W WO 2019235776 A1 WO2019235776 A1 WO 2019235776A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
abnormal object
abnormality
abnormal
image data
Prior art date
Application number
PCT/KR2019/006506
Other languages
French (fr)
Korean (ko)
Inventor
신제용
김일봉
류승훈
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Publication of WO2019235776A1 publication Critical patent/WO2019235776A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Definitions

  • the present invention relates to an apparatus and method for determining abnormalities.
  • Livestock raised in groups within a small kennel are very vulnerable to the spread of communicable disease.
  • legal epidemics such as foot-and-mouth disease and bird flu are spread through the air, so once they occur, the social costs of protection and prevention of infection are very high, and social anxiety about food is spreading rapidly. . If abnormal signs are found in the kennel, it is important to isolate diseased livestock as soon as possible to prevent the spread of disease.
  • An object of the present invention is to provide an apparatus and method for determining abnormalities for determining the suitability of an environment for detecting poultry diseases in a kennel.
  • the environmental parameter information collecting unit for collecting environmental parameter information from at least one sensor;
  • An abnormal object data detector for detecting abnormal object data using image data including a plurality of objects;
  • a determination unit to determine an ideal object detection suitability using the environment parameter information and the abnormal object data;
  • a controller for adjusting the environment parameter according to the abnormality object detection suitability.
  • the abnormal object data detector may include a first feature extractor that extracts a probability of existence of the plurality of objects in the image data, and a second feature extractor that extracts motion of the plurality of objects in the image data.
  • the determination unit may determine that the abnormality object detection suitability is good when the motion value is equal to or greater than a preset first movement reference value.
  • the determination unit may determine that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range using the environment parameter information.
  • the determination unit may determine that the abnormality object detection suitability is not good when the motion value is less than the second preset movement reference value.
  • the determination unit may determine that the abnormality object detection suitability is not good when the range of a predetermined area abnormality of the entire area of the image data is indicated as a suspect area by using the abnormal object data.
  • the determination unit learns a correlation between the motion data and the abnormal object detection fitness using the motion data detected from the image data as an input layer and calculates the abnormal object detection fitness according to the motion value indicated in the motion data. It may include a neural network trained to be an output layer.
  • the determination unit learns a correlation between the abnormal object data and the abnormal object detection suitability using the abnormal object data detected from the image data as an input layer, and is calculated according to the abnormal object detection region shown in the abnormal object data. It may include a neural network that has been trained so that the anomaly detection suitability becomes an output layer.
  • the determination unit learns a correlation between the environmental parameter information and the abnormality object detection suitability using the environmental parameter information as an input layer, and outputs the abnormality object detection suitability calculated according to an environmental measurement value indicated in the environmental parameter information. It can include a neural network learned to be.
  • the control unit may output a command for controlling the environmental parameters in the kennel in accordance with the suitability of detecting abnormal objects.
  • the environmental parameter information collecting unit for collecting environmental parameter information from at least one sensor; An abnormal object data detector for detecting abnormal object data using image data including a plurality of objects; And a determination unit to determine an ideal object detection suitability using the environment parameter information and the abnormal object data, wherein the determination unit provides an abnormal object determination apparatus that derives an optimal environment parameter for the abnormal object detection suitability.
  • the abnormal object data detector may include a first feature extractor that extracts a probability of existence of the plurality of objects in the image data, and a second feature extractor that extracts motion of the plurality of objects in the image data.
  • the determination unit may determine that the abnormality object detection suitability is good when the motion value is equal to or greater than a preset first movement reference value.
  • the determination unit may determine that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range using the environment parameter information.
  • the determination unit may determine that the abnormality object detection suitability is not good when the motion value is less than the second preset movement reference value.
  • the determination unit may determine that the abnormality object detection suitability is not good when the range of the predetermined area abnormality in the entire area of the image data is indicated as a disease suspect area by using the abnormal object data.
  • the determination unit learns a correlation between the motion data and the abnormal object detection fitness using the motion data detected from the image data as an input layer and calculates the abnormal object detection fitness according to the motion value indicated in the motion data. It may include a neural network trained to be an output layer.
  • the determination unit learns a correlation between the abnormal object data and the abnormal object detection suitability using the abnormal object data detected from the image data as an input layer, and is calculated according to the abnormal object detection region shown in the abnormal object data. It may include a neural network that has been trained so that the anomaly detection suitability becomes an output layer.
  • the determination unit learns a correlation between the environmental parameter information and the abnormality object detection suitability using the environmental parameter information as an input layer, and outputs the abnormality object detection suitability calculated according to an environmental measurement value indicated in the environmental parameter information. It can include a neural network learned to be.
  • the controller may further include a controller configured to output a command for controlling the environment parameter in the kennel according to the optimum environment parameter.
  • the step of collecting environmental parameter information from at least one sensor Detecting abnormal object data using image data including a plurality of objects; Determining an anomaly detection accuracy using the environment parameter information and the anomaly entity data; And adjusting the environment parameter according to the suitability for detecting the abnormal object.
  • the step of collecting environmental parameter information from at least one sensor Detecting abnormal object data using image data including a plurality of objects; And determining an ideal object detection suitability using the environment parameter information and the abnormal object data, and deriving an optimal environment parameter for the abnormal object detection suitability.
  • Apparatus and method for determining abnormalities of the inventors can determine the suitability of the environment for the detection of poultry diseases in the kennel.
  • the environment inside the kennel can be controlled to be suitable for detecting poultry diseases.
  • the manager can observe the situation of poultry in real time through a PC or smartphone.
  • the administrator can control the environment inside the kennel through the alarm, and can improve productivity through the steady management.
  • FIG. 1 is a block diagram of an anomaly detection system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a learning system for detecting abnormal objects according to an embodiment of the present invention.
  • FIG. 3 is a conceptual diagram of an apparatus for determining an anomaly according to an embodiment of the present invention.
  • FIG. 4 is a block diagram of an apparatus for determining an anomaly according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating an abnormal object detection operation of the apparatus for determining an abnormal object according to an embodiment of the present invention.
  • 6 is a view for explaining the principle of the object density prediction network.
  • FIG. 7 is a diagram illustrating an example of displaying abnormal entity data on a manager terminal.
  • FIG. 8 is a diagram for explaining an example in which abnormal entity data is displayed for each block on a manager terminal.
  • FIG. 9 is a block diagram of a controller included in the apparatus for determining an anomaly according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating an abnormal object detection algorithm of the apparatus for determining an abnormal object according to an embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a method of detecting an abnormal object by the apparatus for determining an abnormal object according to an embodiment of the present invention, using the result of re-learning by the learning server.
  • FIG. 12 is a flowchart illustrating a method for determining an anomaly according to an embodiment of the present invention.
  • FIG. 13 is a block diagram of an apparatus for determining an anomaly according to another embodiment of the present invention.
  • FIG. 14 is a flowchart illustrating a method for determining an anomaly according to another embodiment of the present invention.
  • ordinal numbers such as second and first
  • first and second components may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component.
  • FIG. 1 is a block diagram of an abnormal object detection system according to an embodiment of the present invention
  • FIG. 2 is a block diagram of a learning system for detecting an abnormal object according to an embodiment of the present invention
  • FIG. 3 is according to an embodiment of the present invention. It is a conceptual diagram of the abnormality object discrimination apparatus.
  • an abnormal object detection system 1000 includes an abnormal object determining apparatus 100, an administrator terminal 200, an air conditioning apparatus 300, and a learning server 400. do.
  • the learning system 2000 for detecting an abnormal object includes a plurality of abnormal object determining apparatus 100 and a learning server 400.
  • the plurality of abnormal object determination apparatus 100 may be a plurality of abnormal object determination apparatuses installed in one kennel, or may be a plurality of abnormal object determination apparatuses installed in the plurality kennels.
  • the abnormality object determining apparatus 100 may detect an environment in the kennel 10 and transmit it to at least one of the manager terminal 200 and the air conditioning apparatus 300.
  • the kennel 10 means a livestock breeding barn.
  • the livestock may be not only poultry such as chickens and ducks, but also various kinds of animals bred in groups such as cattle and pigs.
  • the abnormal object determination apparatus 100 extracts abnormal object data in the kennel 10.
  • the abnormal object data may include at least one of information on whether there is an abnormal object, information on a spatial area in which the abnormal object exists, and information on a time domain in which the abnormal object exists.
  • the abnormal subject may refer to an individual who is not in a normal state due to a disease, pregnancy, or the like.
  • the abnormality object determining apparatus 100 may be arranged for each breeding ground 10.
  • the object determining apparatus 100 may include a plurality of photographing units 111, and the plurality of photographing units 111 may be disposed at various places in the kennel 10.
  • the plurality of photographing units 111 may be disposed at the upper and side portions of the kennel 10.
  • the abnormal object determination apparatus 100 may extract the abnormal object information by collecting a plurality of image data acquired by the plurality of photographing units 111.
  • a plurality of abnormality object determining apparatuses 100 may be disposed in one kennel 10.
  • the plurality of abnormal object determination apparatus 100 may be disposed at various places in the kennel 10, and each abnormal object determination apparatus 100 uses the individual image data acquired by each photographing unit 111 to determine the abnormal object. You can also extract data.
  • the abnormality object determining apparatus 100 may communicate with the manager terminal 200 and the air conditioning apparatus 300 by wire or wirelessly.
  • the abnormality object determination apparatus 100 is illustrated as communicating with the manager terminal 200 and the air conditioning apparatus 300, respectively, but is not limited thereto, and the abnormality object determination apparatus 100 may communicate with the manager terminal 200.
  • the manager terminal 200 may communicate with the air conditioning apparatus 300.
  • the manager terminal 200 may be a personal computer (PC), a tablet PC, a mobile terminal, or the like, and may be mixed with a management server.
  • the abnormality object determining apparatus 100 transmits at least one of the environment and the abnormal object data in the breeding ground 10 to the manager terminal 200, the manager is connected to the breeding ground 10 through a screen output to the manager terminal 200.
  • At least one of the environment and anomalous individual data within can be recognized.
  • the abnormality object determining apparatus 100 captures an abnormal situation in the kennel 10 and transmits it to the manager terminal 200
  • the manager is connected to the kennel 10 through a screen output to the manager terminal 200.
  • the abnormal situation may be, for example, the generation of diseased livestock, pregnancy of the livestock, growth of the livestock, the humidity in the kennel 10, temperature, more than the concentration of a specific molecule and the like.
  • the air conditioning apparatus 300 is a device for controlling the temperature of the kennel 10.
  • the abnormality object determination apparatus 100 captures a temperature abnormality in the kennel 10 and transmits it to the manager terminal 200
  • the manager generates a temperature abnormality in the kennel 10 through a screen output to the manager terminal 200. It can be recognized that, by controlling the air conditioning apparatus 300 can normalize the temperature in the kennel 10.
  • the air conditioner 300 may directly normalize the temperature in the kennel 10.
  • the abnormality object determining apparatus 100, the manager terminal 200, or the air conditioning apparatus 300 may detect a temperature abnormality in the kennel 10 and normalize the temperature in the kennel 10.
  • the air conditioning apparatus 300 may adjust the humidity of the kennel 10. When the humidity in the kennel 10 is abnormal, the air conditioning apparatus 300 may be controlled to normalize the humidity in the kennel 10.
  • the abnormality object determining apparatus 100 may transmit the training data to the remote learning server 400 and extract the abnormal object data by applying a parameter received from the training server 400 to the algorithm for detecting the abnormal object.
  • the learning server 400 receives the training data from the plurality of abnormal object determination apparatus 100, and re-trains the training data to extract parameters.
  • the learning server 400 may learn the learning data using a deep learning technique, but is not limited thereto.
  • the learning server 400 may learn the learning data using various techniques and extract parameters.
  • the abnormality object determining apparatus 100 may be mixed with a local machine, and the learning server 400 may collect training data from a plurality of abnormal object determining apparatuses installed in a plurality of kennels.
  • the abnormality object determining apparatus 100 pre-processes the image data, selects the training data, and transmits only the selected training data to the training server 400. Accordingly, communication traffic between the abnormality object determining apparatus 100 and the learning server 400 can be reduced, and the amount of computation of the learning server 400 can be reduced.
  • FIG. 4 is a block diagram of an apparatus for determining an anomaly according to an embodiment of the present invention.
  • the abnormality object determining apparatus 100 includes a photographing unit 111, a control unit 112, a communication unit 113, an environmental parameter information collecting unit 114, an abnormal object data detecting unit 115, The determination unit 116, the display unit 117, the user interface unit 118, the encoding unit 119, the database 120, the light source unit 121, the pan tilt unit 122, and the learning preprocessor 123 are included. do. However, according to the exemplary embodiment of the present disclosure, at least one of the photographing unit 111, the display unit 117, the user interface unit 118, the light source unit 121, and the pan tilt unit 122 may be omitted.
  • control unit 111 may be implemented by a computer processor or a chip
  • the database 120 may be mixed with a memory and an environment parameter collection unit.
  • the 114 and the communication unit 113 may be mixed with an antenna or a communication processor.
  • the rest except for one or more abnormal object determination apparatuses may be configured to perform only some functions of the abnormal object determination apparatus. That is, one abnormal object determination device is set as a main device to collect the image data photographed by the remaining abnormal object determination device to detect an abnormal object and perform a function of communicating with a manager terminal, while the other abnormal object determination device is used. May be configured to perform only a function of transferring image data photographed through the photographing unit 111 to the main device.
  • the photographing unit 111 may include one or a plurality of photographing units.
  • the photographing unit 111 may include at least one upper photographing unit disposed above the kennel 10 and at least one side photographing unit disposed at the side of the kennel 10.
  • Each of the upper photographing unit and the side photographing unit may be an IP camera that can communicate in a wired or wireless manner and transmit real-time images.
  • the photographing unit 111 may generate image data by photographing an image including a plurality of objects.
  • a plurality of individuals may mean poultry farmed in a kennel.
  • the image data photographed by the photographing unit 111 may be mixed with the original data, the original image, the captured image, and the like.
  • the photographing unit 111 may generate a plurality of image data using a plurality of images sequentially photographed.
  • the photographing unit 111 may generate first image data by capturing a first image including a plurality of objects, and generate second image data by capturing a second image including a plurality of objects. can do.
  • Each of the first image and the second image may be an image continuously photographed in time, and one image data may mean a single frame.
  • the photographing unit 111 may generate the first image data and the second image data by using the first image and the second image which are sequentially photographed.
  • the photographing unit 111 may be an image sensor photographing a subject using a complementary metal-oxide semiconductor (CMOS) module or a charge coupled device (CCD) module.
  • CMOS complementary metal-oxide semiconductor
  • CCD charge coupled device
  • the photographing unit 111 may include a fisheye lens or a wide angle lens having a wide viewing angle. Accordingly, it is also possible for one photographing unit 111 to photograph the entire space inside the kennel.
  • the photographing unit 111 may be a depth camera.
  • the photographing unit 111 may be driven by any one of various depth recognition methods, and the depth information may be included in the image photographed by the photographing unit 111.
  • the photographing unit 111 may be, for example, a Kinect sensor.
  • Kinect sensor is a depth camera of the structured light projection method, it is possible to obtain a three-dimensional information of the scene by projecting a pattern image defined using a projector or a laser, and obtains the image projected pattern through the camera.
  • These Kinect sensors include infrared emitters that irradiate patterns using infrared lasers, and infrared cameras that capture infrared images.
  • An RGB camera that functions like a typical webcam is disposed between the infrared emitter and the infrared camera.
  • the Kinect sensor may further include a pan tilt unit 122 that adjusts the angle of the microphone array and the camera.
  • the basic principle of the Kinect sensor is that when the laser pattern irradiated from the infrared emitter is projected and reflected on the object, the distance to the surface of the object is obtained using the position and size of the pattern at the reflection point.
  • the photographing unit 111 may generate the image data including the depth information for each object by irradiating the laser pattern to the space in the kennel and sensing the laser pattern reflected from the object.
  • the controller 111 controls the abnormal object determination apparatus 100 as a whole.
  • the controller 111 may perform an operation of the abnormality object determining apparatus 100 by executing a command stored in the user interface 118 or the database 120.
  • the controller 111 may control various operations of the abnormality object determining apparatus 100 using a command received from the manager terminal 200.
  • the controller 112 may control the photographing unit 111 to follow-up the specific region in which the abnormal object is located.
  • the tracking shooting target may be set through the user interface 118 or may be set through a control command of the manager terminal.
  • the control unit 112 controls the photographing unit 111 to track and photograph a specific area in which an abnormal object exists to generate image data so that continuous monitoring can be performed.
  • the controller 112 may control the pan tilt unit 122 of the abnormal object determination apparatus 100 to perform tracking shooting.
  • the pan tilt unit 122 may control the photographing area of the photographing unit 111 by driving two motors, a pan and a tilt.
  • the pan tilt unit 122 may adjust the directing direction of the photographing unit 111 to photograph a specific area under the control of the controller 112.
  • the pan tilt unit 122 may adjust the directing direction of the photographing unit 111 to track a specific object under the control of the controller 111.
  • the controller 111 may adjust the environmental parameters in the kennel according to the suitability for detecting the abnormal object. If it is determined that the abnormality of object detection suitability is not good, the controller 111 may output a command for controlling at least one environmental parameter of temperature and humidity in the kennel to the air conditioning apparatus.
  • the communication unit 113 may perform data communication with at least one of the other abnormality entity determining device, the manager terminal 200, or the learning server 400.
  • the communication unit 113 may include a wireless LAN (WLAN), Wi-Fi, WiBro, WiMAX, World Interoperability for Microwave Access (Wimax), and HSDPA (High Speed Downlink).
  • WLAN wireless LAN
  • Wi-Fi Wireless LAN
  • WiBro Wi-Fi
  • WiMAX Worldwide Interoperability for Microwave Access
  • Wimax World Interoperability for Microwave Access
  • HSDPA High Speed Downlink
  • Data communication may be performed using telecommunication technologies such as Packet Access, IEEE 802.16, Long Term Evolution (LTE), and Wireless Mobile Broadband Service (WMBS).
  • WMBS Wireless Mobile Broadband Service
  • the communication unit 113 may include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), Zigbee, and Near Field Communication (NFC).
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • NFC Near Field Communication
  • data communication may be performed using a short-range communication technology such as USB communication, Ethernet, serial communication, and optical / coaxial cable.
  • the communication unit 113 may perform data communication with another abnormality object determining device using a short range communication technology, and perform data communication with the manager terminal 200 or the learning server 400 using a long distance communication technology.
  • the present invention is not limited thereto, and various communication technologies may be used in consideration of various aspects of the kennel 10.
  • the communication unit 113 transmits the image data photographed by the imaging device 20 to the manager terminal 200, or transmits the abnormal object data extracted by the control unit 111 to the manager terminal 200, or the image data and the abnormality. The result of matching the individual data may be transmitted to the manager terminal 200.
  • the communication unit 113 may transmit the image captured by the imaging apparatus 20 and a bitmap of the density of the object in the image to the learning server 400.
  • the bitmap transmitted to the learning server 400 may be a bitmap modified by the manager terminal 200.
  • the data transmitted through the communication unit 113 may be compressed data encoded through the encoding unit 119.
  • the environmental parameter information collecting unit 114 may collect environmental parameter information from at least one sensor.
  • the sensor may include a temperature sensor, a humidity sensor, or the like disposed in the kennel.
  • the abnormal object data detector 115 may detect abnormal object data by using image data including a plurality of objects.
  • the abnormal object data detection unit 115 generates motion data indicating movement and generates abnormal object data indicating a suspected area from the image data by using the image data including the object in the kennel 10.
  • the abnormal object data indicates a suspected area on the image data.
  • the abnormal object data indicates information about the presence or absence of an abnormal object in the image data, information about a spatial area in which the abnormal object exists in the image data, and a time domain in which the abnormal object exists in the image data. It may include at least one of the information.
  • the information about the spatial region in which the abnormal object exists in the image data may be coordinate information of the region in which the abnormal object exists or coordinate information of the abnormal object.
  • the abnormal object data may be represented by region, block, or pixel, and the abnormal object data may further include a probability that there is an abnormal object by region, block, or pixel.
  • the abnormal object data detection unit 115 may extract the abnormal object data by driving an algorithm previously stored in the database 120.
  • the algorithm and parameters applied to the algorithm are stored by the learning server 400.
  • the learned results may be extracted algorithms and parameters.
  • the abnormal object data detector 115 receives an image photographed by the photographing unit 111, and an area in which no movement is detected for a predetermined time among objects in the input image, for example, a pixel in which no movement is detected. This masked image can be generated and output.
  • the determination unit 116 may determine the abnormality object detection suitability using at least one of the environmental parameter information and the abnormal object data.
  • the suitability for detecting abnormal objects means whether the environment of a kennel for detecting an object representing an abnormal object is suitable among the individuals in the kennel, and determines the suitability of the environment for growth, development, and productivity of the individual. It is different from the concept.
  • the determination unit 116 may determine that the abnormality object detection suitability is good when the motion value is greater than or equal to the preset first movement reference value.
  • the determination unit 116 may determine that the anomalous object detection suitability is good when the motion value detected on the image data using the motion data is equal to or greater than a preset first movement reference value.
  • the determination unit 116 may determine that the abnormality object detection suitability is good when the motion value detected on the image data is greater than or equal to the preset first movement reference value regardless of the value of the environmental parameter information.
  • the motion value may be calculated through calculation of the total amount of motion values, the average value, or the number of pixels in which motion is detected.
  • the first movement reference value may be set based on an error probability in detecting an abnormal object that was previously performed.
  • the determination unit 116 may set the average value of the movement reference values calculated when the error probability is less than 10% when detecting the abnormal object as the first movement reference value.
  • the first reference value may be set to 30% of the motion value of the normal individual.
  • the determination unit 116 may determine that the abnormality object detection suitability is not good when the motion value is less than the second preset movement reference value.
  • the determination unit 116 may determine that the abnormality object detection suitability is not good when the motion value detected on the image data using the motion data is less than the preset second movement reference value.
  • the determination unit 116 may determine that the abnormality object detection suitability is not good when the motion value detected on the image data is less than the preset second movement reference value regardless of the value of the environmental parameter information.
  • the motion value may be calculated through calculation of the total amount of motion values displayed on the image data, the average value, or the number of pixels in which the motion is detected.
  • the second movement reference value may be set based on an error probability in detecting an abnormal object that was previously performed.
  • the determination unit 116 may set the average value of the movement reference values calculated when the error probability is 10% or more when detecting the abnormal object as the second movement reference value.
  • the second reference value may be set to 10% of the motion value of the normal individual.
  • the determination unit 116 may determine that the abnormality object detection suitability is not good when the abnormality range of the predetermined area is displayed as the suspect area using the abnormal object data.
  • the determination unit 116 may determine that the abnormality detection suitability of the abnormal object is not good when the range of the predetermined area is displayed as the suspect area regardless of the value of the environmental parameter information.
  • the determination unit 116 may determine that the activity of the individual is reduced by the influence of temperature and humidity when the abnormal object is detected in a region of a specific ratio or more.
  • the preset area range may be set to 50% of the entire area.
  • the determination unit 116 may determine that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range using the environmental parameter information.
  • the determination unit 116 may determine that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range according to the age of the individual. In an embodiment, the measurement reference range may be set to 20%.
  • the determination unit 116 may determine an ideal object detection suitability using a machine learning method.
  • the determination unit 116 may learn the abnormal object detection result according to the motion value and the environmental parameter information as a training set, and then analyze the motion value and the environmental parameter information of the image data input thereafter to determine the abnormal object detection suitability.
  • the determination unit 116 may include a computer readable program.
  • the program may be stored in a recording medium or a storage device that can be executed by a computer.
  • a processor in a computer may read a program stored in a recording medium or a storage device, execute a program, that is, a trained model, calculate input information, and output a calculation result.
  • the determiner 116 may be trained to determine anomaly detection accuracy based on the motion data.
  • the input of the determination unit 116 may be operation data, and the output of the determination unit 116 may be an abnormality object detection suitability.
  • the determination unit 116 uses the motion data detected from the image inside the kennel as an input layer, learns the correlation between the motion data and the abnormality object detection fitness, and calculates the abnormality object fitness for fitness calculated based on the motion value indicated in the motion data. It may include a neural network trained to be an output layer. This neural network is an example of a deep learning algorithm designed to indicate whether the environment of the kennel for detecting abnormal objects is appropriate.
  • the neural network may be an algorithm for inputting operation data into a convolution network-based learning machine and then outputting data in which abnormality object suitability is distinguished by letters, numbers, and symbols.
  • the motion data becomes an input layer of the neural network, and the neural network can learn a correlation between the motion data and the fitness for detecting an abnormal object.
  • the output layer of the neural network may be motion data that is displayed such that the anomaly detection suitability is distinguished by letters, numbers, and symbols.
  • the determination unit 116 may be trained to determine an abnormality object detection suitability based on the abnormality object data.
  • the input of the determination unit 116 may be abnormal object data
  • the output of the determination unit 116 may be an abnormality object detection suitability.
  • the determination unit 116 learns a correlation between the abnormal object data and the abnormal object detection suitability using the abnormal object data detected from the image inside the kennel as an input layer, and is calculated according to the abnormal object detection region shown in the abnormal object data. It may include a neural network that has been trained so that the anomaly detection suitability becomes an output layer. This neural network is an example of a deep learning algorithm designed to indicate whether the environment of the kennel for detecting abnormal objects is appropriate.
  • the neural network may be an algorithm for inputting abnormal object data into a convolution network-based learning machine and then outputting data in which the abnormal object detection suitability is distinguished by letters, numbers, and symbols.
  • the abnormal entity data becomes an input layer of the neural network, and the neural network may learn a correlation between the abnormal entity data and the anomaly detection accuracy.
  • the output layer of the neural network may be motion data that is displayed such that the anomaly detection suitability is distinguished by letters, numbers, and symbols.
  • the determination unit 116 may be trained to determine an abnormality object detection suitability through the environmental parameter information.
  • the input of the determination unit 116 may be environment parameter information, and the output of the determination unit 116 may be an abnormality object detection suitability.
  • the determination unit 116 uses the environmental parameter information as an input layer, learns the correlation between the environmental parameter information and the abnormality object detection suitability, and outputs the abnormality object detection suitability calculated according to the environmental measurement value indicated in the environmental parameter information. It can include learned neural networks. This neural network is an example of a deep learning algorithm designed to indicate whether the environment of the kennel for detecting abnormal objects is appropriate.
  • the neural network may be an algorithm for inputting environment parameter information into a convolution network-based learning machine and then outputting data in which the abnormality object detection suitability is distinguished by letters, numbers, and symbols.
  • the environmental parameter information becomes an input layer of the neural network, and the neural network can learn a correlation between the environmental parameter information and the anomaly detection accuracy.
  • the output layer of the neural network may be motion data that is displayed such that the anomaly detection suitability is distinguished by letters, numbers, and symbols.
  • the determination unit 116 may derive an optimal environmental parameter for anomaly detection.
  • the determination unit 116 may derive a range of optimal environmental parameters for detecting the abnormal object by analyzing a correlation between at least one of the operation data, the abnormal object data, and the environmental parameter information and the fitness for detecting the abnormal object.
  • the optimum environmental parameter may be a parameter for at least one of the temperature and humidity inside the kennel.
  • the determination unit 116 may calculate an optimal environmental parameter by analyzing a correlation with an environmental parameter corresponding to a case where the abnormality object detection suitability is good. That is, the determination unit 116 extracts the environmental measurement value included in the environmental parameter when the abnormality object detection suitability is good, and derives the optimal environmental parameter according to the correlation between the goodness of the abnormality object detection suitability and the environmental measurement value. can do.
  • the display unit 117 includes a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), At least one of a 3D display and an e-ink display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor liquid crystal display
  • OLED organic light-emitting diode
  • flexible display At least one of a 3D display and an e-ink display.
  • the display unit 117 may display at least one of image data and distribution data whose pixel value is adjusted through the control unit 111.
  • the display unit 117 may output the image data photographed by the imaging device 20 to the screen, or may output the result of detecting the image data and the abnormal object data to the screen.
  • the display unit 117 may output various user interfaces or graphic user interfaces on the screen.
  • the user interface 118 generates input data for controlling the operation of the abnormal object determination apparatus 100.
  • the user interface unit 118 may include a keypad, a dome switch, a touch pad, a jog wheel, a jog switch, and the like.
  • the display unit 117 and the touch pad have a mutual layer structure and constitute a touch screen, the display unit 117 may be used as an input device in addition to the output device.
  • the user interface 118 may receive various commands for the operation of the abnormality object determining apparatus.
  • the encoding unit 119 encodes the image data photographed by the imaging device 20 or the processed image data processed through the control unit 111 into a digital signal.
  • the encoding unit 119 may encode image data according to H.264, H.265, Moving Picture Experts Group (MPEG), and Motion Joint Photographic Experts Group (M-JPEG) standards.
  • MPEG Moving Picture Experts Group
  • M-JPEG Motion Joint Photographic Experts Group
  • the database 120 may include a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (for example, SD or XD memory).
  • a flash memory type for example, a hard disk type, a multimedia card micro type, and a card type memory (for example, SD or XD memory).
  • RAM random access memory
  • SRAM static random access memory
  • ROM read-only memory
  • EPEPROM electrically erasable programmable read-only memory
  • PROM programmable memory
  • Read-Only Memory may include at least one storage medium.
  • the abnormality object determining apparatus 100 may operate a web storage that performs a storage function of the database 120 on the Internet, or may operate in connection with the web storage.
  • the database 120 may store image data photographed by the imaging apparatus 20, and may store image data for a predetermined period of time.
  • the database 120 may store data and programs necessary for the abnormal object determination apparatus 100 to operate, and the controller 111 may store an algorithm and parameters applied thereto for extracting the abnormal object data. have.
  • the database 120 may store various user interfaces (UIs) or graphical user interfaces (GUIs).
  • UIs user interfaces
  • GUIs graphical user interfaces
  • the light source unit 121 may irradiate light in a direction directed by the control unit 111.
  • the light source unit 121 may include at least one laser diode LD and a light emitting diode LED.
  • the light source unit 121 may irradiate light of various wavelength bands under the control of the controller 111.
  • the light source unit 121 may irradiate light in the infrared wavelength band for night photographing.
  • the light source unit 121 may irradiate light in the ultraviolet wavelength band for photochemotherapy of livestock in the kennel.
  • the learning preprocessor 123 extracts learning data to be used for learning by the learning server 400 from the image data acquired by the imaging apparatus 20. A detailed method of extracting the training data by the training preprocessor 123 will be described below.
  • FIG. 5 is a flowchart illustrating an abnormal object determination operation of the apparatus for determining an abnormal object according to an embodiment of the present invention.
  • the abnormality object determining apparatus 100 obtains image data of an image obtained by photographing a plurality of objects together using the photographing unit 111 (S500), and the control unit 111 obtains the image.
  • the abnormal object data is extracted from the video data (S502).
  • one image data may mean a single frame, and the photographing unit 111 may generate a plurality of image data by using images sequentially photographed.
  • the controller 111 may extract the abnormal object data using a pre-stored algorithm and a parameter applied thereto.
  • the pre-stored algorithm is a motion among the objects using the first algorithm trained to display the area where the object is determined to be located in the image data and the second algorithm trained to detect the motion by using an optical flow.
  • the first algorithm may use a real-time object detection method using an algorithm indicating an area in which an object exists, or the first algorithm may indicate distribution information of an object, that is, density information of an area in which an object is located. Can also be used.
  • the object density prediction network is an example of a deep learning algorithm designed to display density information of an area where an object is located.
  • the object density prediction network may be an algorithm for inputting an original image into a convolution network-based learning machine and then outputting a density image represented by a gray scale probability map. According to this, abnormal object information can be easily extracted even in a kennel environment in which objects having a similar shape, such as a chicken house, are accommodated at high density.
  • the object density prediction network may be learned using the original image and the density image, and may be learned by the training server of FIG. 11 to be described later.
  • the object density prediction network may include at least one convolution network (layer).
  • the convolutional network may classify the feature points of the image using at least one feature map (W).
  • the convolutional network may improve the performance of the object density prediction network through at least one pooler and / or activator.
  • the object density prediction network further includes a concatenator, and the concatenator can concatenate the output results of at least one convolutional network, rearrange them, and output density (distribution) information of the object using feature points of the original image. have.
  • At least one feature map (W) may be trained (tuned) to output density information of an object in a training server to be described later with reference to FIG. 11.
  • the object density prediction network is configured such that the density image has a size (Width x Highet) equal to or similar to the original image, and the positions of each pixel (or block) correspond to each other,
  • the value of the pixel may represent the probability that an object (eg, poultry) may exist in a corresponding pixel of the original image. For example, the higher the probability that an object exists in a pixel of the original image, the higher the value of the pixel of the density image may be.
  • the communication unit 113 of the abnormal object determination apparatus 100 transmits the abnormal object data acquired by the controller 111 to the manager terminal 200 (S504), and the manager terminal 200 outputs the abnormal object data (S506). ). Accordingly, the manager may recognize abnormal object data output to the manager terminal 200.
  • the manager terminal 200 may display an image as shown in FIG. 7C. That is, the manager terminal 200 includes an image obtained by matching the original image photographed by the imaging device 20 as illustrated in FIG. 7A and the abnormal object data extracted by the controller 111 as illustrated in FIG. 7B. Can be displayed.
  • the abnormal object data may be a chicken density estimation image, and may be displayed as a pseudo density 8 bit gray image, a probability map, or a bit map.
  • the abnormal object data is not data indicating an abnormal probability for each object, but data representing an abnormal probability of an object, a body, or a head in a region, block, or pixel corresponding to each divided area, block, or pixel in the image data. to be.
  • the manager may transmit feedback information to the abnormal object determining apparatus 100 through the manager terminal 200 (S508).
  • the manager terminal 200 May transmit feedback information indicating that there is an error in the abnormal object data to the abnormal object determining apparatus 100.
  • the feedback information may include at least one of a temporal domain and a spatial domain in which the error data is abnormal.
  • the error time zone and the space zone may be selected or designated by an administrator, and may be input through a user interface unit of the manager terminal 200.
  • the manager terminal 200 displays abnormal object data 802, 804, 806, and 808 for four areas of the screen 800, and the manager displays 4. If one or more of the abnormal object data (for example, 806) is determined to be an error, the administrator may select and feed back the abnormal object data 806 which is an error through the user interface. Alternatively, when the abnormal object data is not displayed despite the abnormal object in the screen output by the manager terminal 200, the manager may designate and feed back a time area and a spatial area that appear to be the abnormal object.
  • the learning preprocessor 123 of the object determining apparatus 100 extracts the training data using the feedback information received from the manager terminal 200 (S510) and transmits the extracted training data to the training server 400 ( S512).
  • the training data may be part of the image data acquired in step S500.
  • the learning preprocessor 123 of the object determining apparatus 100 may extract the image data according to the time domain and the spatial domain included in the feedback information received from the manager terminal 200 among the image data acquired in step S500. .
  • the training data is part of the nth frame (eg, FIG. 8). 806 of (c).
  • the training data may be the n + 3 th frame in the n th frame of the entire frames.
  • the abnormality object determining apparatus 100 may extract only the image data having an error in detecting the abnormal object among all the image data acquired by the imaging apparatus 20 and transmit the image data to the learning server 400. Accordingly, communication traffic between the abnormality object determining apparatus 100 and the learning server 400 may be significantly reduced.
  • the training data may further include at least one of error information and correction information as well as extracted image data.
  • the error information may be information indicating that a determination by the controller is wrong, and the correction information may be information indicating a direction to be corrected.
  • the training data may include the extracted original image data and the abnormal object data after the error is corrected. For example, if it is determined that there is an error in some region (for example, 806 of FIG. 8C) in the n th frame to the n + 3 th frame, the training data is determined for the n th frame to the n + 3 th frame.
  • Image data of the original and abnormal object data for the nth to n + 3th frames, and the abnormal object data for the nth to n + 3th frames may be included in some areas determined to be in error (eg, This may be a gray image after the error of 806 of FIG. 8C is corrected.
  • the learning server 400 retrains using the training data received from the abnormal object determining apparatus 100 (S514), and accordingly transmits the update information for detecting the abnormal object to the abnormal object determining apparatus 100. (S516).
  • the update information may be a parameter applied to an algorithm for detecting an abnormal object, which may be in the form of an adjustable matrix.
  • the abnormal object determination apparatus 100 obtains the image data of the image taken with the plurality of objects in step S500 (S518), the control unit 111 is obtained using the pre-stored algorithm and update information The abnormal object data is extracted from the image data (S520).
  • the abnormal object determination apparatus 100 may detect the abnormal object by reflecting the feedback information of the manager terminal 200, and may reduce communication traffic between the abnormal object determination apparatus 100 and the learning server 400. .
  • the learning server 400 may transmit the same update information to the plurality of abnormal object determining apparatus 100.
  • the update information may be specific for the individual object determining apparatus 100.
  • the learning server 400 also stores an algorithm such as an object density prediction network of the abnormality object determining apparatus 100, and the learning server 400 uses the same as an original image corresponding to the error data. It is desirable to relearn.
  • FIG. 9 is a block diagram of an abnormal object detecting unit included in the apparatus for determining an abnormal object according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating an algorithm for detecting an abnormal object of the apparatus for detecting an abnormal object according to an embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a method of detecting an abnormal object by the apparatus for determining an abnormal object according to an embodiment of the present invention, using the result of re-learning by the learning server.
  • the abnormal object detector 115 may include a first feature extractor 600, a second feature extractor 602, and an abnormal object data generator 604.
  • the first feature extractor 600 extracts the position distribution of the plurality of objects in the image data of the image photographed by the photographing unit, and the second feature extractor 602 extracts the movement of the plurality of objects in the image data. do.
  • the abnormal object data generator 604 may generate abnormal object data, for example, pixels, based on the position distribution extracted by the first feature extractor 600 and the movement extracted by the second feature extractor 602. Estimate the odds of a star anomaly.
  • the first feature extractor 600 may generate position distribution data indicating the position distribution of the plurality of objects using the image data.
  • the location distribution of the plurality of objects may mean a density distribution of objects for each location, and the location distribution data may be mixed with the density map.
  • the first feature extractor 600 may use a real-time object detection method using a first algorithm trained to suggest an area in which the object is located in the image data, that is, an area suggestion algorithm.
  • the first feature extractor 600 generates first position distribution data indicating a position distribution of the plurality of objects by using the first image data generated by including the plurality of objects, for example, and includes the plurality of objects.
  • Second position distribution data representing a position distribution of a plurality of objects may be generated using the second image data generated by the method.
  • the first position distribution data and the second position distribution data may be position distribution data of image data generated in time series.
  • the position distribution data does not indicate individual individual positions but is data indicating a probability that an individual, a trunk, or a head may exist in a region or block corresponding to each divided region or block of the image data.
  • the position distribution data may be a heat map expressing a probability that an object exists in each pixel in a different color.
  • the first feature extractor 600 may detect an animal object from the image data using the object detection classifier.
  • the object detection classifier is trained by constructing a training DB from images of animal objects photographed by different postures or external environments of the animal object.
  • the object detection classifier is a SVM (Support Vector Machine), a neural network, and an AdaBoost algorithm. Create a database of animal subjects through various learning algorithms, including
  • the first feature extractor 600 detects an edge of the object corresponding to the foreground from the image data of the background in the previously-generated kennel, applies an edge of the foreground object detected from the image data, and edges of the foreground object. Animal objects can be detected by applying the object detection classifier to the area of the image data to which is applied.
  • the first feature extractor 600 may be trained to detect an object in the captured image.
  • the first feature extractor 600 may include a computer readable program.
  • the program may be stored in a recording medium or a storage device that can be executed by a computer.
  • a processor in a computer may read a program stored in a recording medium or a storage device, execute a program, that is, a trained model, calculate input information, and output a calculation result.
  • the input of the first feature extractor 600 may be one or a plurality of image data photographed inside the kennel, and the output of the first feature extractor 600 may be position distribution data from which an object is detected.
  • the first feature extractor 600 includes a first neural network trained to learn the correlation between the interior image of the kennel and the individual, using the image of the interior of the kennel as an input layer, and to output the position distribution data of the object. can do.
  • the first neural network is an example of a deep learning algorithm designed to display an area where an object is located on image data.
  • the first neural network may be an algorithm for inputting image data to a convolution network-based learning machine and then outputting position distribution data in which an area where an object is located is distinguished.
  • the image data photographed inside the kennel becomes an input layer of the first neural network, and the first neural network may learn the correlation between the kennel internal image data and the individual.
  • the output layer of the first neural network may be position distribution data displayed to distinguish an area where an object is located on image data photographed inside the kennel.
  • the second feature extractor 602 may generate motion data indicating the movement of the motion object among the plurality of objects using the image data.
  • the motion data is not data indicating the movement of an individual object, but data indicating whether a motion exists in a corresponding area or block for each divided area or block of the image data, and the motion data may be mixed with the motion map.
  • the motion data may be data indicating whether a motion exists in a pixel corresponding to each pixel.
  • the second feature extractor 602 may use a second algorithm trained to detect motion by using an optical flow.
  • the second feature extractor 602 may detect movement at a specific point, a specific object, or a specific pixel on the distribution map by using single image data or a plurality of consecutive image data.
  • the second feature extractor 602 generates first motion data indicating the movement of the motion object among the plurality of objects by using the first image data, and operates among the plurality of objects by using the second image data.
  • Second motion data representing the movement of the object may be generated.
  • the first motion data and the second motion data may be motion data for a plurality of image data generated in time series.
  • the second feature extractor 602 may detect a movement of the moving object by using a dense optical flow method.
  • the second feature extractor 602 may detect a motion of each pixel by calculating a motion vector for all pixels on the image data.
  • the Dense Optical Flow method since the motion vector is calculated for all pixels, the detection accuracy is improved, but the amount of computation is relatively increased. Therefore, the Dense Optical Flow method can be applied to a specific area where detection accuracy is very high, such as a kennel where an abnormal situation is suspected or a kennel with a large number of individuals.
  • the second feature extractor 602 may detect the movement of the moving object using a sparse optical flow method.
  • the second feature extractor 602 may detect a motion by calculating a motion vector only on a part of a pixel that is easy to track a motion such as an edge in an image.
  • the sparse optical flow method reduces the amount of computation, but only results for a limited number of pixels. Therefore, the sparse optical flow method may be applied to a kennel having a small number of individuals or to a specific area where the objects do not overlap.
  • the second feature extractor 602 may detect movement of the moving object by using block matching.
  • the second feature extractor 602 may divide the image evenly or unequally, calculate a motion vector for the divided region, and detect motion.
  • Block Matching reduces the amount of computation because it calculates the motion vector for each partition, but it can have a relatively low detection accuracy because it calculates the results for the motion vector for each region. Accordingly, the block matching method may be applied to a kennel with a small number of individuals or to a specific area where the objects do not overlap.
  • the second feature extractor 602 may detect the movement of the moving object by using a continuous frame difference method.
  • the second feature extractor 602 may compare successive image frames for each pixel and calculate a value corresponding to the difference to detect motion. Since the Continuous Frame Difference method detects motion by using the difference between frames, the overall computational amount is reduced, but the detection accuracy of a large object or a duplicate object may be relatively low. In addition, the Continuous Frame Difference method can not distinguish between the background image and the moving object may have a relatively low accuracy. Therefore, the Continuous Frame Difference method may be applied to a kennel with a small number of objects or to a specific area where the objects do not overlap.
  • the second feature extractor 602 may detect a movement of the moving object by using a background subtraction method.
  • the second feature extractor 602 detects motion by comparing successive image frames for each pixel in a state where the background image is initially learned, and calculating values corresponding to the differences.
  • the background subtraction method is to learn the background image in advance so that the background image can be distinguished from the moving object. Therefore, a separate process of filtering the background image is required, thereby increasing the amount of computation but improving the accuracy. Therefore, the Background Subtraction method can be applied to a specific area where detection accuracy is very high, such as a kennel where an abnormal situation is suspected or a kennel with a large number of individuals. In the Background Subtraction method, the background image can be updated continuously.
  • the second feature extractor 602 may be trained to detect motion in the captured image.
  • the second feature extractor 602 may include a computer readable program.
  • the program may be stored in a recording medium or a storage device that can be executed by a computer.
  • a processor in a computer may read a program stored in a recording medium or a storage device, execute a program, that is, a trained model, calculate input information, and output a calculation result.
  • the input of the second feature extractor 602 may be one or a plurality of image data photographed inside the kennel, and the output of the second feature extractor 602 may be motion data detected from the image data.
  • the second feature extractor 602 learns a correlation between the inside of the kennel image and the movement in the image using the image inside the kennel as an input layer, and the second neural trained so that the motion data according to the detected movement is the output layer. It may include a network.
  • the second neural network is an example of a deep learning algorithm designed to indicate an area in which motion exists in the image data.
  • the second neural network may be an algorithm for inputting image data to a convolution network-based learning machine and then outputting data displayed to distinguish a region where a motion is detected.
  • the image data photographed inside the kennel becomes the input layer of the second neural network, and the second neural network may learn the correlation between the kennel internal image data and the movement.
  • the output layer of the second neural network may be motion data displayed to distinguish the area where the motion is detected from the image data photographing the interior of the kennel.
  • the second feature extractor 602 may be configured according to an environment and an external setting in the kennel. Use appropriate methods to detect motion on the distribution map.
  • the above motion detection method is just an example, and methods capable of displaying a region (for example, a pixel / block) in which a motion occurs in a frame may be used.
  • the process of generating position distribution data by the first feature extractor 600 and the process of generating motion data by the second feature extractor 602 may be performed simultaneously, in parallel, or sequentially. That is, the process of generating location distribution data by the first feature extractor 600 and the process of generating motion data by the second feature extractor 602 may be processed independently of each other.
  • the abnormal object data generation unit 604 may generate the abnormal object data representing the abnormal object by region, block, or pixel by comparing position distribution data and motion data of the image data by region, block, or pixel.
  • the abnormal object data generation unit 604 may generate, for example, first abnormal object data representing the abnormal object by comparing the first position distribution data and the first motion data.
  • the abnormal object data generation unit 604 may generate first abnormal object data representing information on an object for which motion is not detected on the first position distribution data by comparing the first position distribution data with the first motion data. . That is, the abnormal object data generation unit 604 may estimate that the object has no disease detected on the first position distribution data indicating the position of the object, and generate the first abnormal object data.
  • the first abnormal object data may refer to data obtained by determining whether an object is a disease by using an object's position distribution and motion detection information for single image data.
  • the abnormal object data generation unit 604 compares the position distribution data and the motion data of the plurality of image data to calculate the cumulative number of motion detection and non-detection motion of the plurality of objects, and calculates the cumulative number of motion detection and the number of motion detection.
  • the abnormal object data may be generated according to the cumulative number of motion non-detections.
  • the abnormal object data generation unit 604 may generate the second abnormal object data by comparing the first abnormal object data, the second position distribution data, and the second motion data, for example.
  • the abnormal object data generation unit 604 compares the first abnormal object data with the second position distribution data and the second motion data to calculate the cumulative number of motion detection of the plurality of objects and the cumulative number of motion non-detection of the plurality of objects, and detect the motion.
  • the second or more entity data may be generated according to the cumulative number of times and the motion non-detection cumulative number of times. That is, the second abnormal object data may mean data obtained by determining whether an object is a disease by using position information and motion detection information of the object accumulated with respect to the plurality of image data.
  • the abnormal object data generation unit 604 may control the pixel display of the plurality of objects on the image data according to the cumulative number of motion detection and non-movement accumulation of the abnormal object data.
  • the abnormal object data generation unit 604 may control pixel display of the plurality of objects on the image data, for example, according to the second abnormal object data.
  • the display of the pixel may include all concepts for distinguishing and displaying a pixel corresponding to an arbitrary point from other pixels, such as the saturation of the pixel, the intensity of the pixel, the color of the pixel, the outline of the pixel, and the mark display.
  • the display of the pixel may be controlled by adjusting the pixel value.
  • the pixel value may be adjusted in stages, and in the case of a pixel having a high pixel value, the pixel value may be visually emphasized than a pixel having a low pixel value.
  • the present invention is not limited thereto, and a pixel having a low pixel value may be set to be displayed to be highlighted than a pixel having a high pixel value.
  • the pixel value may mean an abnormality probability of each pixel.
  • one pixel represents one object in order to identify and identify the pixel and the object in which the motion is detected. This is for convenience of description and in practice, a plurality of pixels represent one object. That is, in order to determine an abnormal situation by detecting only movement of some body regions of poultry, a method of controlling the display of pixels by detecting movement for each pixel will be used.
  • the abnormal object data generation unit 604 may classify the object as an abnormal object as the movement of the specific object is not detected, and classify the pixel as a normal object as the motion is detected.
  • each of the first feature extracting unit 600, the second feature extracting unit 602, and the abnormal object data generating unit 604 is the first update information, the second update information, and the third update information from the learning server 400.
  • each of the first update information, the second update information, and the third update information may be provided to each of the first feature extractor 600, the second feature extractor 602, and the abnormal object data generator 604. Can be applied.
  • the first update information, the second update information, and the third update information may be update information extracted by the learning server 400 as a result of learning the training data transmitted by the abnormality object determining apparatus 100.
  • the training data may include a part of the image data acquired by the abnormal object determining apparatus 100 and a part of the abnormal object data in which the error is corrected, which means that the abnormal object determining apparatus 100 uses the algorithm for detecting the abnormal object. It may be obtained using the feedback information of the manager terminal 200 with respect to the abnormal object data obtained by driving.
  • each of the first update information, the second update information, and the third update information may include an adjustable matrix.
  • n-th image data is obtained.
  • the image data may be, for example, RGB data having a size of W X H (S1101).
  • the n th image data may be mixed with the n th original data, the n th original image, the n th original image data, and the like.
  • the controller 111 of the object determining apparatus 100 detects an object from the nth image data and generates position distribution data of the object with respect to the nth image data (S1102). ).
  • the position distribution data may be generated for each region, for each block, or for each pixel, and the controller 111 may use the first algorithm trained to suggest a region in which the object is located in the image data.
  • the first algorithm may use a real-time object detection method using an algorithm indicating an area where an object exists as described above, or the first algorithm may include distribution information of an object, that is, an area of an area where an object is located. It is also possible to use a method of representing density information.
  • the position distribution data may be a first density map.
  • the update parameter ⁇ value is applied to the position distribution data.
  • the update parameter ⁇ value and the offset parameter ⁇ value may be applied at the same time.
  • is a very small value, for example 0.001. That is, the position distribution data is controlled to be gradually displayed on the pixels only after accumulating for a long time.
  • the offset parameter ⁇ is a parameter for adjusting the accumulation of the position distribution data and may have a value of 1/10 to 1/100 of ⁇ (S1103).
  • the controller 111 of the abnormality object determining apparatus 100 detects the movement of the object with respect to the nth image data by comparing the n-1th image data with the nth image data. do.
  • the n ⁇ 1th image data may be stored in the latch circuit or the buffer circuit.
  • the controller 111 of the abnormality object determining apparatus 100 for example, the second feature extracting unit 602, generates motion data according to the detected movement (S1104).
  • the motion data may be a motion map.
  • the motion data may be generated for each region, for each block, or for each pixel, and the controller 111 may use a second algorithm trained to detect motion by using an optical flow.
  • the update parameter ⁇ may be applied to the operation data.
  • is a parameter for adjusting the accumulation of motion data (S1105).
  • the control unit 111 of the abnormal object determining apparatus 100 for example, the abnormal object data generating unit 604 adds the n-th or more object data to the position distribution data of the n-th image data (S1106), and the n-th image.
  • the abnormal object data for the n-th image data is generated by subtracting the motion data of the data (S1107).
  • the abnormal object data for the nth image data may be an nth abnormal object density map.
  • the apparatus 100 for determining an abnormal object repeats steps S1101 to S1107 to display the color of the detected object lightly or close to the original color, and accumulates the color of the detected object. Can be controlled to display dark or close to red.
  • the n-th or more entity data may be matched on the n-th image data, that is, the n-th original data, and the image in which the n-th or more entity data is matched on the n-th original data may be displayed on the manager terminal 200.
  • the region where the abnormal object is located in the n-th image may be masked using the n-th or more object density map, and the masked image may be displayed on the manager terminal 200.
  • the operation of the abnormality object determining apparatus 100 may apply the following Equation 1.
  • Pixel t Pixel t -1 (1- ⁇ ) + ⁇ W t -F t
  • Equation 1 may be changed according to a setting as an update parameter.
  • Pixel t and Pixel t ⁇ 1 are abnormal object data and may indicate concentration of a pixel as a value for indicating whether a abnormal object exists in the pixel.
  • the higher the probability that an abnormal object exists the darker the color can be displayed. For example, if there is no probability of anomalies, it is displayed in primary color (white). The higher the probability of anomaly is expressed, the closer it is to red. To make it happen. Therefore, Pixel t and Pixel t ⁇ 1 may be set to have a value between 0 and 1, and the closer to 0, the closer to the primary color (white), and the closer to 1, the red.
  • Pixel t - 1 is abnormal object data of a previous frame in which position distribution data and motion data are accumulated.
  • Pixel t is abnormal object data updated by applying position distribution data and motion data of the current frame.
  • W t may be position distribution data of a current frame.
  • the position distribution data may have a value between 0 and 1 as a probability that an object exists in a corresponding pixel.
  • the update parameter ⁇ may be applied to the position distribution data.
  • is a very small value, for example 0.001. That is, the position distribution data is controlled to be gradually displayed on the pixels only after accumulating for a long time.
  • F t may be motion data of the current frame.
  • the motion data is an absolute value of the motion vector and may have a value of 0 or more. Since the magnitude of the motion vector corresponds to the velocity of the object, it may have a value of 1 or more. Since a separate parameter is not reflected in the motion data, when the motion is detected in the pixel, the display of the pixel is controlled to be initialized.
  • the operation of the abnormality object determining apparatus may apply the following Equation 2.
  • Pixel t Pixel t -1 (1- ⁇ + ⁇ ) + ⁇ W t -F t
  • Equation 2 an offset parameter ⁇ is added in Equation 1, and the same description as in Equation 1 is omitted.
  • the offset parameter ⁇ is a parameter for adjusting the accumulation of the position distribution data and may have a value of 1/10 to 1/100 of ⁇ .
  • the operation of the abnormality object determining apparatus may apply the following Equation 3 or Equation 4.
  • Pixel t Pixel t -1 (1- ⁇ ) + ⁇ W t - ⁇ F t
  • Pixel t Pixel t -1 (1- ⁇ + ⁇ ) + ⁇ W t - ⁇ F t
  • Equation 3 or 4 is a product of the operation data F t multiplied by the update parameter ⁇ and the same content as in Equation 1 and Equation 2 is omitted.
  • constant ⁇ is a parameter that adjusts the accumulation of motion data.
  • the operation of the abnormality object determining apparatus may apply the following Equation 5.
  • Equation 5 is an equation for preventing the value of Equations 1, 2, 3 or 4 from falling below zero.
  • the size of the motion data Ft is greater than the sum of other parameter values, and when the value of Equation 1, 2, 3 or 4 becomes a negative number less than 0, it is corrected to be displayed as 0. Control method.
  • the abnormality object determining apparatus 100 may extract the training data and transmit the training data to the training server 400.
  • the training data may include a part of the image data acquired by the abnormal object determination apparatus 100, which is feedback from the abnormal object data extracted by the abnormal object determination apparatus 100 by driving an algorithm for detecting the abnormal object. Can be obtained using the information.
  • the feedback information may include information modified by the manager terminal 200.
  • the abnormality object determining apparatus 100 may extract training data and transmit the training data to the training server 400, wherein the training server 400 is abnormal.
  • the object density prediction network may be retrained, that is, updated using the training data received from the object determining apparatus 100.
  • the training data may include image data indicated as having an error and abnormal object data in which the error is corrected. For example, when it is detected that the abnormal object exists even though the abnormal object does not exist in the partial region 806 in the n th frame, the training data is the image data of the n th frame and the abnormal object data of the n th frame.
  • the abnormality of the partial region 806 may include the object data.
  • the abnormality object data having the error corrected may be information in which the density of the object is corrected by the manager terminal 200, and the density distribution of the object for each region, block, or pixel, extracted by the abnormal object determination apparatus 100, may be determined.
  • a density distribution of an object for each region, block, or pixel modified by the manager terminal 200 may be referred to as a second density map.
  • the learning server 400 compares the output image of the object density prediction network in the learning server 400 with the error-corrected image included in the training data, that is, the correct answer image, to obtain a loss, and to minimize the loss.
  • variables (eg, feature maps) of the object density prediction network can be learned (corrected).
  • the control unit 111 of the abnormality object determining apparatus 100 generates the position distribution data, that is, in step S1102, the object density network re-learned by the learning server 400. It is available. That is, the control unit 111 of the abnormality object determining apparatus 100 uses the learning data from the learning server 400, for example, the n-th image using update information obtained by re-learning using the n-th image and the second density map. The abnormal object density map for the subsequent predetermined image may be output.
  • FIG. 12 is a flowchart illustrating a method for determining an anomaly according to an embodiment of the present invention.
  • the environmental parameter information collecting unit collects environmental parameter information from at least one sensor (S1201).
  • the abnormal object data detector generates position distribution data and motion data using image data including a plurality of objects (S1202).
  • the abnormal object data detection unit compares the position distribution data and the motion data to generate abnormal object data indicating the abnormal object (S1203).
  • the determination unit determines the abnormality object detection suitability using the environmental parameter information and the abnormal object data. If the motion value detected on the image data using the motion data is greater than or equal to the preset first motion reference value, the determination unit determines that the abnormality object detection suitability is good regardless of the environmental parameter information. Alternatively, when the motion value detected on the image data using the motion data is less than the preset second movement reference value, the determination unit determines that the abnormality object detection suitability is not good regardless of the environmental parameter information. Alternatively, the determination unit may determine that the abnormality object detection suitability is not good regardless of the environmental parameter information when the abnormality range of the preset area is displayed as a suspect region using the abnormal object data. Alternatively, the determination unit determines that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range using the environmental parameter information (S1204).
  • the control unit transmits the abnormal object data to the manager terminal (S1205).
  • the controller If it is determined that the abnormality of object detection suitability is not good, the controller outputs a command for adjusting environmental parameters in the kennel. If it is determined that the abnormality of object detection suitability is not good, the controller outputs a command for controlling at least one environmental parameter of temperature and humidity in the kennel to the air conditioning apparatus (S1206).
  • FIG. 13 is a block diagram of an apparatus for determining an anomaly according to an embodiment of the present invention.
  • a plurality of imaging apparatuses 1000 may be disposed in one kennel 10.
  • the abnormal object determining apparatus 1000 may include a photographing unit 1110, a controller 1120, a communication unit 1130, an environment parameter information collecting unit 1140, an abnormal object data detecting unit 1150, and a determining unit ( 1160, a display unit 1170, a user interface unit 1180, an encoding unit 1190, a database 1200, a light source unit 1210, a pan tilt unit 1220, and a learning preprocessor 1230.
  • a photographing unit 1110, the display unit 1170, the user interface unit 1180, the light source unit 1210, and the pan tilt unit 1220 may be omitted.
  • At least one of the controller 1110, the encoder 1190, and the learning preprocessor 1230 may be implemented by a computer processor or a chip, and the database 1200 may be mixed with a memory and an environment parameter collector.
  • the 1140 and the communication unit 1130 may be mixed with an antenna or a communication processor.
  • the apparatus for determining an abnormality according to the embodiment of FIG. 13 may perform the same function as the apparatus for determining an abnormality according to the embodiment of FIGS. 4 to 11, and description thereof will be omitted.
  • the determination unit 1110 may derive an optimal environment parameter for anomaly detection suitability.
  • the determination unit 1110 may derive the environmental parameter according to the age of the individual in the kennel.
  • the determination unit 1110 may derive an environmental parameter for controlling at least one of temperature and humidity so as to correspond to the measurement reference range when each environment measurement value is out of each measurement reference range.
  • the judging unit 1110 maintains the temperature in the kennel at 32 to 35 ° C. for the first week, and then lowers the temperature by about 3 ° C. per week thereafter, so that the final temperature is 21 to 22 ° C. at 21 to 24 days of age.
  • Optimum environmental parameters can be derived to reach.
  • the determination unit may derive an optimal environmental parameter so that the relative humidity is maintained between 70 to 80%.
  • the determination unit 1110 may derive an optimal environmental parameter for reducing at least one environmental parameter of temperature and humidity when the motion value detected on the image data is less than the preset second movement reference value. Under high temperature and humidity conditions, poultry is less active and reduces feed intake to reduce body heat production. Therefore, the determination unit 1110 may create an environment suitable for the abnormal detection environment by increasing the movement value of the individual by deriving an optimal environmental parameter for reducing at least one of temperature and humidity in the kennel.
  • the determination unit 1110 may derive an optimal environmental parameter for reducing at least one environmental parameter of temperature and humidity when an abnormal range of a predetermined area is displayed as a suspect area using the abnormal object data. . If the range of the suspect area is beyond the preset range, it means that the individual's activity is reduced compared to the normal environment. Therefore, the determination unit 1110 may create an environment suitable for the abnormal detection environment by increasing the movement value of the individual by deriving an optimal environmental parameter for reducing at least one of temperature and humidity in the kennel.
  • the controller 1120 may adjust the environment parameters in the kennel according to the optimum environment parameters.
  • the controller 1120 may output a control command to the air conditioner so that at least one environmental parameter of the temperature and humidity in the kennel can follow the optimal environmental parameter.
  • FIG. 14 is a flowchart illustrating an abnormal object determination method according to an exemplary embodiment of the present invention.
  • the environmental parameter information collecting unit collects environmental parameter information from at least one sensor (S1401).
  • the abnormal object data detector generates position distribution data and motion data using image data including a plurality of objects (S1402).
  • the abnormal object data detection unit compares the position distribution data and the motion data to generate abnormal object data indicating the abnormal object (S1403).
  • the determination unit determines the abnormality object detection suitability using the environmental parameter information and the abnormal object data. If the motion value detected on the image data using the motion data is greater than or equal to the preset first motion reference value, the determination unit determines that the abnormality object detection suitability is good regardless of the environmental parameter information. Alternatively, when the motion value detected on the image data using the motion data is less than the preset second movement reference value, the determination unit determines that the abnormality object detection suitability is not good regardless of the environmental parameter information. Alternatively, the determination unit may determine that the abnormality object detection suitability is not good regardless of the environmental parameter information when the abnormality range of the preset area is displayed as a suspect region using the abnormal object data. Alternatively, the determination unit determines that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range using the environmental parameter information (S1404).
  • the control unit transmits the abnormality detection data to the manager terminal (S1405).
  • the determination unit derives an optimal environmental parameter for the abnormality detection suitability.
  • the determination unit derives an optimal environmental parameter for controlling at least one of temperature and humidity so as to correspond to the measurement reference range when each environment measurement value is out of each measurement reference range.
  • the determination unit derives an optimal environmental parameter for reducing at least one environmental parameter of temperature and humidity when the motion value detected on the image data is less than the preset second movement reference value.
  • the controller derives an optimal environmental parameter for reducing at least one environmental parameter of temperature and humidity when the range of the predetermined area or more of the entire area of the image data appears as a suspect area using the abnormal object data (S1406).
  • the control unit adjusts the environmental parameters in the kennel according to the optimum environmental parameters.
  • the controller outputs a control command to the air conditioner so that at least one environmental parameter of the temperature and humidity in the kennel can follow the optimal environmental parameter (S1407).
  • ' ⁇ part' used in the present embodiment refers to software or a hardware component such as a field-programmable gate array (FPGA) or an ASIC, and ' ⁇ part' performs certain roles.
  • ' ⁇ ' is not meant to be limited to software or hardware.
  • ' ⁇ Portion' may be configured to be in an addressable storage medium or may be configured to play one or more processors.
  • ' ⁇ ' means components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and the like. Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
  • the functionality provided within the components and the 'parts' may be combined into a smaller number of components and the 'parts' or further separated into additional components and the 'parts'.
  • the components and ' ⁇ ' may be implemented to play one or more CPUs in the device or secure multimedia card.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)

Abstract

According to an embodiment of the present invention, provided is an abnormal object determination device comprising: an environmental parameter information collection unit for collecting environmental parameter information from at least one sensor; an abnormal object data detection unit for detecting abnormal object data by using data of an image including a plurality of objects; a determination unit for determining, by using the environmental parameter information and the abnormal object data, a degree of suitability of abnormal object detection; and a control unit for adjusting environmental parameters, on the basis of the degree of suitability of abnormal object detection.

Description

이상 개체 판단 장치 및 방법An object determination method and method
본 발명은 이상 개체 판단 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for determining abnormalities.
좁은 사육장 내에서 집단으로 사육되는 가축은 전염성 질병의 확산에 매우 취약하다. 예를 들어, 구제역이나 조류독감과 같은 법정 전염병은 공기를 통해 전염되므로, 한번 발병될 경우 그 방역 및 전염 차단에 드는 사회적인 소요 비용이 매우 크고, 먹거리에 대한 전 사회적인 불안감도 빠르게 확산될 수 밖에 없다. 사육장 내 이상징후가 포착된 경우, 질병의 확산을 방지하기 위하여 빠른 시간 내에 병든 가축을 격리시키는 것이 중요하다.Livestock raised in groups within a small kennel are very vulnerable to the spread of communicable disease. For example, legal epidemics such as foot-and-mouth disease and bird flu are spread through the air, so once they occur, the social costs of protection and prevention of infection are very high, and social anxiety about food is spreading rapidly. . If abnormal signs are found in the kennel, it is important to isolate diseased livestock as soon as possible to prevent the spread of disease.
사육장내의 신속하고 정확한 질병 검출을 위하여서는 질병 검출을 위한 적합한 환경이 유지되고 있어야 한다. 그러나 이상 개체 검출 적합도를 판단하기 위하여 사육장 환경을 관리하는 방법이 체계적으로 제시되고 있지 않은 실정이며, 사육장내의 환경 제어는 가축의 생장 환경을 판단하기 위하여 수행되고 있을 뿐이다.For rapid and accurate disease detection in the kennel, a suitable environment for disease detection must be maintained. However, there is no systematic method for managing a kennel environment in order to determine the adequacy of detection of abnormal individuals, and the environment control in the kennel is only performed to determine the growth environment of the livestock.
본 발명이 이루고자 하는 기술적 과제는 사육장 내부의 가금류 질병 검출을 위한 환경의 적합도를 판단하기 위한 이상 개체 판단 장치 및 방법을 제공하는데 있다.An object of the present invention is to provide an apparatus and method for determining abnormalities for determining the suitability of an environment for detecting poultry diseases in a kennel.
본 발명의 일 실시예에 따르면, 적어도 하나의 센서로부터 환경 파라미터 정보를 수집하는 환경 파라미터 정보 수집부; 복수 개체가 포함된 영상 데이터를 이용하여 이상 개체 데이터를 검출하는 이상 개체 데이터 검출부; 상기 환경 파라미터 정보 및 상기 이상 개체 데이터를 이용하여 이상 개체 검출 적합도를 판단하는 판단부; 및 상기 이상 개체 검출 적합도에 따라 상기 환경 파라미터를 조절하는 제어부를 포함하는 이상 개체 판단 장치를 제공한다.According to one embodiment of the invention, the environmental parameter information collecting unit for collecting environmental parameter information from at least one sensor; An abnormal object data detector for detecting abnormal object data using image data including a plurality of objects; A determination unit to determine an ideal object detection suitability using the environment parameter information and the abnormal object data; And a controller for adjusting the environment parameter according to the abnormality object detection suitability.
상기 이상 개체 데이터 검출부는 상기 영상 데이터 내 상기 복수 개체의 존재 확률을 추출하는 제1 특징 추출부 및 상기 영상 데이터 내 상기 복수 개체의 움직임을 추출하는 제2 특징 추출부를 포함할 수 있다.The abnormal object data detector may include a first feature extractor that extracts a probability of existence of the plurality of objects in the image data, and a second feature extractor that extracts motion of the plurality of objects in the image data.
상기 판단부는 상기 움직임 값이 기 설정된 제1움직임 기준값 이상인 경우 상기 이상 개체 검출 적합도가 양호한 것으로 판단할 수 있다.The determination unit may determine that the abnormality object detection suitability is good when the motion value is equal to or greater than a preset first movement reference value.
상기 판단부는 상기 환경 파라미터 정보를 이용하여 각 환경 계측값이 각 계측 기준 범위를 벗어나는 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다.The determination unit may determine that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range using the environment parameter information.
상기 판단부는 상기 움직임 값이 기 설정된 제2움직임 기준값 미만인 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다.The determination unit may determine that the abnormality object detection suitability is not good when the motion value is less than the second preset movement reference value.
상기 판단부는 상기 이상 개체 데이터를 이용하여 상기 영상 데이터 전체 영역 중 기 설정된 영역 이상의 범위가 의심 영역으로 나타날 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다.The determination unit may determine that the abnormality object detection suitability is not good when the range of a predetermined area abnormality of the entire area of the image data is indicated as a suspect area by using the abnormal object data.
상기 판단부는 상기 영상 데이터로부터 검출된 동작 데이터를 입력층으로 하여, 상기 동작 데이터와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 동작 데이터에 나타난 움직임값에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함할 수 있다.The determination unit learns a correlation between the motion data and the abnormal object detection fitness using the motion data detected from the image data as an input layer and calculates the abnormal object detection fitness according to the motion value indicated in the motion data. It may include a neural network trained to be an output layer.
상기 판단부는 상기 영상 데이터로부터 검출된 이상 개체 데이터를 입력층으로 하여, 상기 이상 개체 데이터와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 이상 개체 데이터에 나타난 이상 개체 검출 영역에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함할 수 있다.The determination unit learns a correlation between the abnormal object data and the abnormal object detection suitability using the abnormal object data detected from the image data as an input layer, and is calculated according to the abnormal object detection region shown in the abnormal object data. It may include a neural network that has been trained so that the anomaly detection suitability becomes an output layer.
상기 판단부는 상기 환경 파라미터 정보를 입력층으로 하여, 상기 환경 파라미터 정보와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 환경 파라미터 정보에 나타난 환경 계측값에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함할 수 있다.The determination unit learns a correlation between the environmental parameter information and the abnormality object detection suitability using the environmental parameter information as an input layer, and outputs the abnormality object detection suitability calculated according to an environmental measurement value indicated in the environmental parameter information. It can include a neural network learned to be.
상기 제어부는 이상 개체 검출 적합도에 따라 상기 사육장내의 환경 파라미터를 제어하기 위한 명령을 출력할 수 있다.The control unit may output a command for controlling the environmental parameters in the kennel in accordance with the suitability of detecting abnormal objects.
본 발명의 일 실시예에 따르면, 적어도 하나의 센서로부터 환경 파라미터 정보를 수집하는 환경 파라미터 정보 수집부; 복수 개체가 포함된 영상 데이터를 이용하여 이상 개체 데이터를 검출하는 이상 개체 데이터 검출부; 및 상기 환경 파라미터 정보 및 상기 이상 개체 데이터를 이용하여 이상 개체 검출 적합도를 판단하는 판단부를 포함하고, 상기 판단부는 이상 개체 검출 적합도를 위한 최적 환경 파라미터를 도출하는 이상 개체 판단 장치를 제공한다.According to one embodiment of the invention, the environmental parameter information collecting unit for collecting environmental parameter information from at least one sensor; An abnormal object data detector for detecting abnormal object data using image data including a plurality of objects; And a determination unit to determine an ideal object detection suitability using the environment parameter information and the abnormal object data, wherein the determination unit provides an abnormal object determination apparatus that derives an optimal environment parameter for the abnormal object detection suitability.
상기 이상 개체 데이터 검출부는 상기 영상 데이터 내 상기 복수 개체의 존재 확률을 추출하는 제1 특징 추출부 및 상기 영상 데이터 내 상기 복수 개체의 움직임을 추출하는 제2 특징 추출부를 포함할 수 있다.The abnormal object data detector may include a first feature extractor that extracts a probability of existence of the plurality of objects in the image data, and a second feature extractor that extracts motion of the plurality of objects in the image data.
상기 판단부는 상기 움직임 값이 기 설정된 제1움직임 기준값 이상인 경우 상기 이상 개체 검출 적합도가 양호한 것으로 판단할 수 있다.The determination unit may determine that the abnormality object detection suitability is good when the motion value is equal to or greater than a preset first movement reference value.
상기 판단부는 상기 환경 파라미터 정보를 이용하여 각 환경 계측값이 각 계측 기준 범위를 벗어나는 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다.The determination unit may determine that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range using the environment parameter information.
상기 판단부는 상기 움직임 값이 기 설정된 제2움직임 기준값 미만인 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다.The determination unit may determine that the abnormality object detection suitability is not good when the motion value is less than the second preset movement reference value.
상기 판단부는 상기 이상 개체 데이터를 이용하여 상기 영상 데이터 전체 영역 중 기 설정된 영역 이상의 범위가 질병 의심 영역으로 나타날 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다.The determination unit may determine that the abnormality object detection suitability is not good when the range of the predetermined area abnormality in the entire area of the image data is indicated as a disease suspect area by using the abnormal object data.
상기 판단부는 상기 영상 데이터로부터 검출된 동작 데이터를 입력층으로 하여, 상기 동작 데이터와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 동작 데이터에 나타난 움직임값에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함할 수 있다.The determination unit learns a correlation between the motion data and the abnormal object detection fitness using the motion data detected from the image data as an input layer and calculates the abnormal object detection fitness according to the motion value indicated in the motion data. It may include a neural network trained to be an output layer.
상기 판단부는 상기 영상 데이터로부터 검출된 이상 개체 데이터를 입력층으로 하여, 상기 이상 개체 데이터와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 이상 개체 데이터에 나타난 이상 개체 검출 영역에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함할 수 있다.The determination unit learns a correlation between the abnormal object data and the abnormal object detection suitability using the abnormal object data detected from the image data as an input layer, and is calculated according to the abnormal object detection region shown in the abnormal object data. It may include a neural network that has been trained so that the anomaly detection suitability becomes an output layer.
상기 판단부는 상기 환경 파라미터 정보를 입력층으로 하여, 상기 환경 파라미터 정보와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 환경 파라미터 정보에 나타난 환경 계측값에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함할 수 있다.The determination unit learns a correlation between the environmental parameter information and the abnormality object detection suitability using the environmental parameter information as an input layer, and outputs the abnormality object detection suitability calculated according to an environmental measurement value indicated in the environmental parameter information. It can include a neural network learned to be.
상기 최적 환경 파라미터에 따라 상기 사육장내의 환경 파라미터를 제어하기 위한 명령을 출력하는 제어부를 더 포함할 수 있다.The controller may further include a controller configured to output a command for controlling the environment parameter in the kennel according to the optimum environment parameter.
본 발명의 일 실시예에 따르면, 적어도 하나의 센서로부터 환경 파라미터 정보를 수집하는 단계; 복수 개체가 포함된 영상 데이터를 이용하여 이상 개체 데이터를 검출하는 단계; 상기 환경 파라미터 정보 및 상기 이상 개체 데이터를 이용하여 이상 개체 검출 적합도를 판단하는 단계; 및 상기 이상 개체 검출 적합도에 따라 상기 환경 파라미터를 조절하는 단계를 포함하는 이상 개체 판단 방법을 제공한다.According to one embodiment of the invention, the step of collecting environmental parameter information from at least one sensor; Detecting abnormal object data using image data including a plurality of objects; Determining an anomaly detection accuracy using the environment parameter information and the anomaly entity data; And adjusting the environment parameter according to the suitability for detecting the abnormal object.
본 발명의 일 실시예에 따르면, 적어도 하나의 센서로부터 환경 파라미터 정보를 수집하는 단계; 복수 개체가 포함된 영상 데이터를 이용하여 이상 개체 데이터를 검출하는 단계; 및 상기 환경 파라미터 정보 및 상기 이상 개체 데이터를 이용하여 이상 개체 검출 적합도를 판단하는 단계를 포함하고, 상기 이상 개체 검출 적합도를 위한 최적 환경 파라미터를 도출하는 단계를 포함하는 이상 개체 판단 방법을 제공한다.According to one embodiment of the invention, the step of collecting environmental parameter information from at least one sensor; Detecting abnormal object data using image data including a plurality of objects; And determining an ideal object detection suitability using the environment parameter information and the abnormal object data, and deriving an optimal environment parameter for the abnormal object detection suitability.
본 발명인 이상 개체 판단 장치 및 방법은 사육장 내부의 가금류 질병 검출을 위한 환경의 적합도를 판단할 수 있다.Apparatus and method for determining abnormalities of the inventors can determine the suitability of the environment for the detection of poultry diseases in the kennel.
또한, 가금류 질병 검출에 적합하도록 사육장 내부 환경을 제어할 수 있다.In addition, the environment inside the kennel can be controlled to be suitable for detecting poultry diseases.
또한, 사육장 내부를 촬영한 영상 데이터 상에서 질병에 걸린 가능성이 높은 이상 개체를 검출할 수 있다.In addition, it is possible to detect abnormal objects having a high probability of disease on the image data photographed inside the kennel.
또한, 24시간 카메라로 감지를 하여 사육장 내부의 가금류 사육 환경의 적합도를 판단할 수 있다.In addition, by detecting with a 24-hour camera can determine the suitability of the poultry raising environment in the kennel.
또한, 전문가의 도움 없이 가금류의 비정상적인 행동을 파악할 수 있다.In addition, it is possible to identify abnormal behavior of poultry without the help of specialists.
또한, 딥러닝 카메라 시스템을 통하여 가금류 사육환경의 적합도를 판단할 수 있다.In addition, it is possible to determine the suitability of the poultry farming environment through the deep learning camera system.
또한, 관리자는 PC나 스마트폰을 통하여 실시간으로 가금류의 상황을 관찰할 수 있다.In addition, the manager can observe the situation of poultry in real time through a PC or smartphone.
또한, 관리자는 알람을 통하여 사육장 내부 환경의 조절을 수행하고, 꾸준한 관리를 통하여 생산성을 향상 시킬 수 있다.In addition, the administrator can control the environment inside the kennel through the alarm, and can improve productivity through the steady management.
도 1은 본 발명의 실시예에 따른 이상 개체 검출 시스템의 블록도이다. 1 is a block diagram of an anomaly detection system according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 이상 개체 검출용 학습 시스템의 블록도이다. 2 is a block diagram of a learning system for detecting abnormal objects according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 이상 개체 판단 장치의 개념도이다. 3 is a conceptual diagram of an apparatus for determining an anomaly according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 이상 개체 판단 장치의 블록도이다. 4 is a block diagram of an apparatus for determining an anomaly according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 이상 개체 판단 장치의 이상 개체 검출 동작을 설명하기 위한 흐름도이다. 5 is a flowchart illustrating an abnormal object detection operation of the apparatus for determining an abnormal object according to an embodiment of the present invention.
도 6은 객체 밀도 예측 네트워크의 원리를 설명하기 위한 도면이다.6 is a view for explaining the principle of the object density prediction network.
도 7은 관리자 단말에 이상 개체 데이터가 표시되는 예를 설명하기 도면이다.7 is a diagram illustrating an example of displaying abnormal entity data on a manager terminal.
도 8은 관리자 단말에 이상 개체 데이터가 블록 별로 표시되는 예를 설명하기 도면이다.8 is a diagram for explaining an example in which abnormal entity data is displayed for each block on a manager terminal.
도 9는 본 발명의 실시예에 따른 이상 개체 판단 장치에 포함되는 제어부의 블록도이다. 9 is a block diagram of a controller included in the apparatus for determining an anomaly according to an embodiment of the present invention.
도 10은 본 발명의 실시예에 따른 이상 개체 판단 장치의 이상 개체 검출 알고리즘을 설명하는 도면이다. FIG. 10 is a diagram illustrating an abnormal object detection algorithm of the apparatus for determining an abnormal object according to an embodiment of the present invention.
도 11은 학습용 서버에 의하여 재학습된 결과를 이용하여 본 발명의 실시예에 따른 이상 개체 판단 장치가 이상 개체를 검출하는 방법을 설명하는 도면이다.FIG. 11 is a diagram illustrating a method of detecting an abnormal object by the apparatus for determining an abnormal object according to an embodiment of the present invention, using the result of re-learning by the learning server.
도12는 본 발명의 실시예에 따른 이상 개체 판단 방법의 순서도이다.12 is a flowchart illustrating a method for determining an anomaly according to an embodiment of the present invention.
도13은 본 발명의 다른 실시예에 따른 이상 개체 판단 장치의 블록도이다. 13 is a block diagram of an apparatus for determining an anomaly according to another embodiment of the present invention.
도14는 본 발명의 다른 실시예에 따른 이상 개체 판단 방법의 순서도이다.14 is a flowchart illustrating a method for determining an anomaly according to another embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated and described in the drawings. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms including ordinal numbers, such as second and first, may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is said to be "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that another component may be present in the middle. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present disclosure does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings, and the same or corresponding components will be given the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted.
도 1은 본 발명의 실시예에 따른 이상 개체 검출 시스템의 블록도이고, 도 2는 본 발명의 실시예에 따른 이상 개체 검출용 학습 시스템의 블록도이며, 도 3은 본 발명의 실시예에 따른 이상 개체 판단 장치의 개념도이다. 1 is a block diagram of an abnormal object detection system according to an embodiment of the present invention, FIG. 2 is a block diagram of a learning system for detecting an abnormal object according to an embodiment of the present invention, and FIG. 3 is according to an embodiment of the present invention. It is a conceptual diagram of the abnormality object discrimination apparatus.
도 1 내지 3을 참조하면, 본 발명의 실시예에 따른 이상 개체 검출 시스템(1000)은 이상 개체 판단 장치(100), 관리자 단말(200), 공조 장치(300) 및 학습용 서버(400)를 포함한다.1 to 3, an abnormal object detection system 1000 according to an exemplary embodiment of the present invention includes an abnormal object determining apparatus 100, an administrator terminal 200, an air conditioning apparatus 300, and a learning server 400. do.
본 발명의 실시예에 따른 이상 개체 검출용 학습 시스템(2000)은 복수의 이상 개체 판단 장치(100) 및 학습용 서버(400)를 포함한다. 여기서, 복수의 이상 개체 판단 장치(100)는 하나의 사육장에 설치된 복수의 이상 개체 판단 장치일 수도 있고, 복수의 사육장에 설치된 복수의 이상 개체 판단 장치일 수도 있다. The learning system 2000 for detecting an abnormal object according to an exemplary embodiment of the present invention includes a plurality of abnormal object determining apparatus 100 and a learning server 400. Here, the plurality of abnormal object determination apparatus 100 may be a plurality of abnormal object determination apparatuses installed in one kennel, or may be a plurality of abnormal object determination apparatuses installed in the plurality kennels.
이상 개체 판단 장치(100)는 사육장(10) 내의 환경을 검출하고, 이를 관리자 단말(200) 및 공조 장치(300) 중 적어도 하나에 전송할 수 있다. 여기서, 사육장(10)은 가축을 사육하는 축사를 의미한다. 가축은 닭, 오리 등의 가금류뿐만 아니라, 소, 돼지 등 축사 내에서 집단으로 사육되는 다양한 종류의 동물일 수 있다.The abnormality object determining apparatus 100 may detect an environment in the kennel 10 and transmit it to at least one of the manager terminal 200 and the air conditioning apparatus 300. Here, the kennel 10 means a livestock breeding barn. The livestock may be not only poultry such as chickens and ducks, but also various kinds of animals bred in groups such as cattle and pigs.
이상 개체 판단 장치(100)는 사육장(10) 내 이상 개체 데이터를 추출한다. 여기서, 이상 개체 데이터는 이상 개체의 유무 정보, 이상 개체가 존재하는 공간 영역에 관한 정보, 및 이상 개체가 존재하는 시간 영역에 관한 정보 중 적어도 하나를 포함할 수 있다. 이때, 이상 개체는 질병, 임신 등으로 인해 정상 상태가 아닌 개체를 의미할 수 있다.The abnormal object determination apparatus 100 extracts abnormal object data in the kennel 10. Here, the abnormal object data may include at least one of information on whether there is an abnormal object, information on a spatial area in which the abnormal object exists, and information on a time domain in which the abnormal object exists. In this case, the abnormal subject may refer to an individual who is not in a normal state due to a disease, pregnancy, or the like.
도 3(a)에 도시된 바와 같이, 이상 개체 판단 장치(100)는 사육장(10) 별로 배치될 수 있다. 이상 개체 판단 장치(100)는 복수의 촬영부(111)를 포함할 수 있으며, 복수의 촬영부(111)는 사육장(10) 내 여러 장소에 배치될 수 있다. 예를 들어, 복수의 촬영부(111)는 사육장(10) 상부 및 측부에 배치될 수 있다. 이상 개체 판단 장치(100)는 복수의 촬영부(111)에 의하여 획득된 복수의 영상 데이터를 취합하여 이상 개체 정보를 추출할 수 있다. As illustrated in FIG. 3A, the abnormality object determining apparatus 100 may be arranged for each breeding ground 10. The object determining apparatus 100 may include a plurality of photographing units 111, and the plurality of photographing units 111 may be disposed at various places in the kennel 10. For example, the plurality of photographing units 111 may be disposed at the upper and side portions of the kennel 10. The abnormal object determination apparatus 100 may extract the abnormal object information by collecting a plurality of image data acquired by the plurality of photographing units 111.
또는, 도 3(b)에 도시된 바와 같이, 하나의 사육장(10) 내에 복수의 이상 개체 판단 장치(100)가 배치될 수도 있다. 복수의 이상 개체 판단 장치(100)는 사육장(10) 내 여러 장소에 배치될 수 있으며, 각 이상 개체 판단 장치(100)는 각 촬영부(111)에 의하여 획득된 각 영상 데이터를 이용하여 이상 개체 데이터를 추출할 수도 있다. 본 발명의 실시예에 따르면, 이상 개체 판단 장치(100)는 관리자 단말(200) 및 공조 장치(300)와 유선 또는 무선으로 통신할 수 있다. 여기서, 이상 개체 판단 장치(100)가 관리자 단말(200) 및 공조 장치(300)와 각각 통신하는 것으로 도시되어 있으나, 이로 제한되지 않으며, 이상 개체 판단 장치(100)가 관리자 단말(200)과 통신하고, 관리자 단말(200)이 공조 장치(300)와 통신할 수도 있다.Alternatively, as illustrated in FIG. 3B, a plurality of abnormality object determining apparatuses 100 may be disposed in one kennel 10. The plurality of abnormal object determination apparatus 100 may be disposed at various places in the kennel 10, and each abnormal object determination apparatus 100 uses the individual image data acquired by each photographing unit 111 to determine the abnormal object. You can also extract data. According to an exemplary embodiment of the present invention, the abnormality object determining apparatus 100 may communicate with the manager terminal 200 and the air conditioning apparatus 300 by wire or wirelessly. Here, although the abnormality object determination apparatus 100 is illustrated as communicating with the manager terminal 200 and the air conditioning apparatus 300, respectively, but is not limited thereto, and the abnormality object determination apparatus 100 may communicate with the manager terminal 200. In addition, the manager terminal 200 may communicate with the air conditioning apparatus 300.
관리자 단말(200)은 퍼스널 컴퓨터(personal computer, PC), 태블릿 PC, 휴대단말 등일 수 있으며, 관리 서버와 혼용될 수도 있다. 이상 개체 판단 장치(100)가 관리자 단말(200)에게 사육장(10) 내의 환경 및 이상 개체 데이터 중 적어도 하나를 전송하는 경우, 관리자는 관리자 단말(200)에 출력된 화면 등을 통하여 사육장(10) 내의 환경 및 이상 개체 데이터 중 적어도 하나를 인지할 수 있다. 예를 들어, 이상 개체 판단 장치(100)가 사육장(10) 내의 이상상황을 포착하여 이를 관리자 단말(200)에게 전송한 경우, 관리자는 관리자 단말(200)에 출력된 화면을 통하여 사육장(10) 내에 이상상황이 발생하였음을 인지할 수 있으며, 이상상황에 대하여 초기에 대응할 수 있다. 여기서, 이상상황은, 예를 들어 질병에 걸린 가축의 발생, 가축의 임신, 가축의 생장 기간, 사육장(10) 내 습도, 온도, 특정 분자의 농도 이상 등일 수 있다. The manager terminal 200 may be a personal computer (PC), a tablet PC, a mobile terminal, or the like, and may be mixed with a management server. When the abnormality object determining apparatus 100 transmits at least one of the environment and the abnormal object data in the breeding ground 10 to the manager terminal 200, the manager is connected to the breeding ground 10 through a screen output to the manager terminal 200. At least one of the environment and anomalous individual data within can be recognized. For example, when the abnormality object determining apparatus 100 captures an abnormal situation in the kennel 10 and transmits it to the manager terminal 200, the manager is connected to the kennel 10 through a screen output to the manager terminal 200. It can be recognized that an abnormal situation has occurred in the first place and can respond to the initial situation. Here, the abnormal situation may be, for example, the generation of diseased livestock, pregnancy of the livestock, growth of the livestock, the humidity in the kennel 10, temperature, more than the concentration of a specific molecule and the like.
공조 장치(300)는 사육장(10)의 온도를 조절하는 장치이다. 이상 개체 판단 장치(100)가 사육장(10) 내 온도이상을 포착하여 관리자 단말(200)에게 전송한 경우, 관리자는 관리자 단말(200)에 출력된 화면을 통하여 사육장(10) 내 온도이상이 발생하였음을 인지할 수 있으며, 공조 장치(300)를 제어하여 사육장(10) 내 온도를 정상화할 수 있다. 또는, 이상 개체 판단 장치(100)가 사육장(10) 내 온도이상을 검출하여 공조 장치(300)에게 직접 전달한 경우, 공조 장치(300)가 직접 사육장(10) 내 온도를 정상화할 수도 있다. 예를 들어, 사육장(10) 내의 온도가 가축이 생활하기에 적절한 온도보다 낮거나, 높은 경우, 가축들의 움직임이 둔화되는 경향이 있다. 이에 따라, 이상 개체 판단 장치(100), 관리자 단말(200), 또는 공조 장치(300)는 사육장(10) 내 온도이상을 검출하여 사육장(10) 내 온도를 정상화할 수 있다. The air conditioning apparatus 300 is a device for controlling the temperature of the kennel 10. When the abnormality object determination apparatus 100 captures a temperature abnormality in the kennel 10 and transmits it to the manager terminal 200, the manager generates a temperature abnormality in the kennel 10 through a screen output to the manager terminal 200. It can be recognized that, by controlling the air conditioning apparatus 300 can normalize the temperature in the kennel 10. Alternatively, when the abnormality object determination apparatus 100 detects a temperature abnormality in the kennel 10 and directly transmits it to the air conditioning apparatus 300, the air conditioner 300 may directly normalize the temperature in the kennel 10. For example, if the temperature in the kennel 10 is lower or higher than the temperature suitable for the livestock, the movement of the livestock tends to be slowed down. Accordingly, the abnormality object determining apparatus 100, the manager terminal 200, or the air conditioning apparatus 300 may detect a temperature abnormality in the kennel 10 and normalize the temperature in the kennel 10.
공조 장치(300)는 사육장(10)의 습도를 조절할 수 있다. 사육장(10) 내의 습도 이상이 발생한 경우, 공조 장치(300)를 제어하여 사육장(10) 내 습도를 정상화할 수 있다.The air conditioning apparatus 300 may adjust the humidity of the kennel 10. When the humidity in the kennel 10 is abnormal, the air conditioning apparatus 300 may be controlled to normalize the humidity in the kennel 10.
이상 개체 판단 장치(100)는 원격의 학습용 서버(400)에게 학습용 데이터를 전송하며, 학습용 서버(400)로부터 수신한 파라미터를 이상 개체 검출용 알고리즘에 적용하여 이상 개체 데이터를 추출할 수 있다.The abnormality object determining apparatus 100 may transmit the training data to the remote learning server 400 and extract the abnormal object data by applying a parameter received from the training server 400 to the algorithm for detecting the abnormal object.
본 발명의 실시예에 따르면, 학습용 서버(400)는 복수의 이상 개체 판단 장치(100)로부터 학습용 데이터를 수신 받으며, 이들 학습용 데이터를 재학습(re-training)하여 파라미터를 추출한다. 학습용 서버(400)는, 예를 들어 딥러닝 기법을 이용하여 학습용 데이터를 학습할 수 있으나, 이로 제한되는 것은 아니며, 다양한 기법을 이용하여 학습용 데이터를 학습하고, 파라미터를 추출할 수 있다.According to the exemplary embodiment of the present invention, the learning server 400 receives the training data from the plurality of abnormal object determination apparatus 100, and re-trains the training data to extract parameters. For example, the learning server 400 may learn the learning data using a deep learning technique, but is not limited thereto. The learning server 400 may learn the learning data using various techniques and extract parameters.
여기서, 이상 개체 판단 장치(100)는 로컬 머신과 혼용될 수 있으며, 학습용 서버(400)는 복수의 사육장에 설치된 복수의 이상 개체 판단 장치로부터 학습용 데이터를 수집할 수 있다.Here, the abnormality object determining apparatus 100 may be mixed with a local machine, and the learning server 400 may collect training data from a plurality of abnormal object determining apparatuses installed in a plurality of kennels.
본 발명의 실시예에 따른 이상 개체 판단 장치(100)는 영상 데이터를 전처리하여 학습용 데이터를 선별하며, 선별한 학습용 데이터만을 학습용 서버(400)에게 전송한다. 이에 따라, 이상 개체 판단 장치(100)와 학습용 서버(400) 간의 통신 트래픽을 줄일 수 있으며, 학습용 서버(400)의 연산량을 줄일 수 있다. The abnormality object determining apparatus 100 according to an exemplary embodiment of the present invention pre-processes the image data, selects the training data, and transmits only the selected training data to the training server 400. Accordingly, communication traffic between the abnormality object determining apparatus 100 and the learning server 400 can be reduced, and the amount of computation of the learning server 400 can be reduced.
도 4는 본 발명의 실시예에 따른 이상 개체 판단 장치의 블록도이다. 4 is a block diagram of an apparatus for determining an anomaly according to an embodiment of the present invention.
도1 내지 도 4를 참조하면, 이상 개체 판단 장치(100)는 촬영부(111), 제어부(112), 통신부(113), 환경 파라미터 정보 수집부(114), 이상 개체 데이터 검출부(115), 판단부(116), 표시부(117), 유저 인터페이스부(118), 인코딩부(119), 데이터 베이스(120), 광원부(121), 팬틸트부(122), 학습 전처리부(123)를 포함한다. 다만, 본 발명의 실시예에 따르면, 촬영부(111), 표시부(117), 유저 인터페이스부(118), 광원부(121) 및 팬틸트부(122) 중 적어도 하나는 생략될 수도 있다. 여기서, 제어부(111), 인코딩부(119) 및 학습 전처리부(123) 중 적어도 하나는 컴퓨터 프로세서 또는 칩에 의하여 구현될 수 있으며, 데이터베이스(120)는 메모리와 혼용될 수 있고, 환경 파라미터 수집부(114) 및 통신부(113)는 안테나 또는 통신 프로세서 등과 혼용될 수 있다. 1 to 4, the abnormality object determining apparatus 100 includes a photographing unit 111, a control unit 112, a communication unit 113, an environmental parameter information collecting unit 114, an abnormal object data detecting unit 115, The determination unit 116, the display unit 117, the user interface unit 118, the encoding unit 119, the database 120, the light source unit 121, the pan tilt unit 122, and the learning preprocessor 123 are included. do. However, according to the exemplary embodiment of the present disclosure, at least one of the photographing unit 111, the display unit 117, the user interface unit 118, the light source unit 121, and the pan tilt unit 122 may be omitted. Here, at least one of the control unit 111, the encoding unit 119, and the learning preprocessor 123 may be implemented by a computer processor or a chip, and the database 120 may be mixed with a memory and an environment parameter collection unit. The 114 and the communication unit 113 may be mixed with an antenna or a communication processor.
또한, 사육장 내에 복수개의 이상 개체 판단 장치(100)가 배치되는 경우, 이 중 하나의 이상 개체 판단 장치를 제외한 나머지는 이상 개체 판단 장치의 일부 기능만을 수행하도록 구성될 수 있다. 즉, 하나의 이상 개체 판단 장치가 메인 장치로 설정되어 나머지 이상 개체 판단 장치에서 촬영한 영상 데이터를 수집하여 이상 개체를 검출하고, 관리자 단말과 통신하는 기능을 수행하는 반면에, 나머지 이상 개체 판단 장치는 촬영부(111)를 통하여 촬영한 영상 데이터를 메인 장치로 전달하는 기능만을 수행하도록 구성될 수 있다.In addition, when the plurality of abnormal object determination apparatuses 100 are arranged in the kennel, the rest except for one or more abnormal object determination apparatuses may be configured to perform only some functions of the abnormal object determination apparatus. That is, one abnormal object determination device is set as a main device to collect the image data photographed by the remaining abnormal object determination device to detect an abnormal object and perform a function of communicating with a manager terminal, while the other abnormal object determination device is used. May be configured to perform only a function of transferring image data photographed through the photographing unit 111 to the main device.
촬영부(111)는 하나 또는 복수의 촬영 유닛을 포함할 수 있다. 예를 들어, 촬영부(111)는 사육장(10)의 상부에 배치된 적어도 하나의 상부 촬영 유닛 및 사육장(10)의 측부에 배치된 적어도 하나의 측부 촬영 유닛을 포함할 수 있다. 상부 촬영 유닛 및 측부 촬영 유닛 각각은 유선 또는 무선으로 통신이 가능하여 실시간 영상의 송출이 가능한 IP 카메라일 수 있다. The photographing unit 111 may include one or a plurality of photographing units. For example, the photographing unit 111 may include at least one upper photographing unit disposed above the kennel 10 and at least one side photographing unit disposed at the side of the kennel 10. Each of the upper photographing unit and the side photographing unit may be an IP camera that can communicate in a wired or wireless manner and transmit real-time images.
촬영부(111)는 복수의 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성할 수 있다. 본 발명의 실시예에서 복수의 개체는 사육장 내에서 사육되는 가금류를 의미할 수 있다. 본 발명의 실시예에서, 촬영부(111)에 의하여 촬영된 영상 데이터는 원본 데이터, 원본 영상, 촬영 영상 등과 혼용될 수 있다. The photographing unit 111 may generate image data by photographing an image including a plurality of objects. In the embodiment of the present invention, a plurality of individuals may mean poultry farmed in a kennel. In the exemplary embodiment of the present invention, the image data photographed by the photographing unit 111 may be mixed with the original data, the original image, the captured image, and the like.
촬영부(111)는 순차적으로 촬영되는 복수 개의 이미지를 이용하여 복수 개의 영상 데이터를 생성할 수 있다. 예를 들면, 촬영부(111)는 복수의 개체를 포함하는 제1이미지를 촬영하여 제1영상 데이터를 생성할 수 있으며, 복수의 개체를 포함하는 제2이미지를 촬영하여 제2영상 데이터를 생성할 수 있다. 제1이미지 및 제2이미지는 각각 시간상으로 연속적으로 촬영된 이미지일 수 있으며, 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부(111)는 순차적으로 촬영되는 제1이미지 및 제2이미지를 이용하여 제1영상 데이터 및 제2영상 데이터를 생성할 수 있다.The photographing unit 111 may generate a plurality of image data using a plurality of images sequentially photographed. For example, the photographing unit 111 may generate first image data by capturing a first image including a plurality of objects, and generate second image data by capturing a second image including a plurality of objects. can do. Each of the first image and the second image may be an image continuously photographed in time, and one image data may mean a single frame. The photographing unit 111 may generate the first image data and the second image data by using the first image and the second image which are sequentially photographed.
촬영부(111)는 CMOS(complementary metal-oxide semiconductor) 모듈 또는 CCD(charge coupled device) 모듈 등을 이용하여 피사체를 촬영하는 이미지 센서일 수 있다. 이때, 입력되는 영상 프레임은 렌즈를 통해 촬영부(111) 내의 CMOS 모듈 또는 CCD 모듈로 제공되고, CMOS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호(영상 데이터)로 변환하여 출력한다. The photographing unit 111 may be an image sensor photographing a subject using a complementary metal-oxide semiconductor (CMOS) module or a charge coupled device (CCD) module. At this time, the input image frame is provided to the CMOS module or CCD module in the photographing unit 111 through the lens, the CMOS module or CCD module converts the optical signal of the subject passing through the lens into an electrical signal (image data) and outputs it. do.
촬영부(111)는 시야각이 넓은 어안렌즈 또는 광각렌즈를 포함할 수 있다. 이에 따라, 하나의 촬영부(111)가 사육장 내부의 전체 공간을 촬영하는 것도 가능하다. The photographing unit 111 may include a fisheye lens or a wide angle lens having a wide viewing angle. Accordingly, it is also possible for one photographing unit 111 to photograph the entire space inside the kennel.
또한, 촬영부(111)는 깊이 카메라일 수 있다. 촬영부(111)는 다양한 깊이 인식 방식 중 어느 하나의 방식으로 구동될 수 있으며, 촬영부(111)를 통하여 촬영된 영상에는 깊이 정보가 포함될 수 있다. 촬영부(111)는 예를 들어, 키넥트 센서일 수 있다. 키넥트 센서는 구조광 투영 방식의 깊이 카메라로서, 프로젝터나 레이저를 이용하여 정의된 패턴 영상을 투영시키고 카메라를 통하여 패턴이 투영된 영상을 획득함으로써 장면의 삼차원 정보를 획득할 수 있다. 이러한 키넥트 센서는 적외선 레이저를 이용해 패턴을 조사하는 적외선 방사체, 및 적외선 영상을 촬영하는 적외선 카메라를 포함하며, 일반적인 웹캠과 같은 기능을 하는 RGB 카메라가 적외선 방사체와 적외선 카메라 사이에 배치되어 있다. 이 외에도, 키넥트 센서에는 마이크 배열과 카메라의 각도를 조절하는 팬틸트부(122)가 더 구성될 수 있다.In addition, the photographing unit 111 may be a depth camera. The photographing unit 111 may be driven by any one of various depth recognition methods, and the depth information may be included in the image photographed by the photographing unit 111. The photographing unit 111 may be, for example, a Kinect sensor. Kinect sensor is a depth camera of the structured light projection method, it is possible to obtain a three-dimensional information of the scene by projecting a pattern image defined using a projector or a laser, and obtains the image projected pattern through the camera. These Kinect sensors include infrared emitters that irradiate patterns using infrared lasers, and infrared cameras that capture infrared images. An RGB camera that functions like a typical webcam is disposed between the infrared emitter and the infrared camera. In addition to this, the Kinect sensor may further include a pan tilt unit 122 that adjusts the angle of the microphone array and the camera.
키넥트 센서의 기본적인 원리는, 적외선 방사체에서 조사된 레이저 패턴이 물체에 투영되어 반사되면, 반사 지점에서의 패턴의 위치 및 크기를 이용해 물체 표면까지의 거리를 구하게 된다. 이러한 원리에 따라, 촬영부(111)는 사육장 내 공간으로 레이저 패턴을 조사하고, 개체에서 반사된 레이저 패턴을 센싱하여 개체 별 깊이 정보를 포함하는 영상 데이터를 생성할 수 있다.The basic principle of the Kinect sensor is that when the laser pattern irradiated from the infrared emitter is projected and reflected on the object, the distance to the surface of the object is obtained using the position and size of the pattern at the reflection point. According to this principle, the photographing unit 111 may generate the image data including the depth information for each object by irradiating the laser pattern to the space in the kennel and sensing the laser pattern reflected from the object.
제어부(111)는 이상 개체 판단 장치(100)를 전반적으로 제어한다. 제어부(111)는 예를 들면, 유저 인터페이스부(118) 또는 데이터 베이스(120)에 저장된 명령을 수행하여 이상 개체 판단 장치(100)의 동작을 수행할 수도 있다.The controller 111 controls the abnormal object determination apparatus 100 as a whole. For example, the controller 111 may perform an operation of the abnormality object determining apparatus 100 by executing a command stored in the user interface 118 or the database 120.
또는 제어부(111)는 관리자 단말(200)로부터 수신한 명령을 이용하여 이상 개체 판단 장치(100)의 각종 동작을 제어할 수도 있다.Alternatively, the controller 111 may control various operations of the abnormality object determining apparatus 100 using a command received from the manager terminal 200.
제어부(112)는 촬영부(111)를 제어하여 이상 개체가 있는 특정 영역을 추적 촬영할 수 있다. 추적 촬영 대상은 유저 인터페이스부(118)를 통하여 설정되거나 또는 관리자 단말의 제어 명령을 통하여 설정될 수도 있다. 제어부(112)는 촬영부(111)를 제어하여 이상개체가 있는 특정 영역을 추적 촬영하여 영상 데이터를 생성하게 함으로써 지속적인 모니터링을 수행할 수 있게 한다.The controller 112 may control the photographing unit 111 to follow-up the specific region in which the abnormal object is located. The tracking shooting target may be set through the user interface 118 or may be set through a control command of the manager terminal. The control unit 112 controls the photographing unit 111 to track and photograph a specific area in which an abnormal object exists to generate image data so that continuous monitoring can be performed.
제어부(112)는 이상 개체 판단 장치(100)의 팬틸트부(122)를 제어하여 추적 촬영을 수행할 수 있다. 팬틸트부(122)는 팬(Pan, 수평방향) 및 틸트(Tilt, 수직 방향) 2개의 모터를 구동하여 촬영부(111)의 촬영 영역을 제어할 수 있다. 팬틸트부(122)는 제어부(112)의 제어에 따라 특정 영역을 촬영하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다. 또한, 팬틸트부(122)는 제어부(111)의 제어에 따라 특정 개체를 트래킹하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다.The controller 112 may control the pan tilt unit 122 of the abnormal object determination apparatus 100 to perform tracking shooting. The pan tilt unit 122 may control the photographing area of the photographing unit 111 by driving two motors, a pan and a tilt. The pan tilt unit 122 may adjust the directing direction of the photographing unit 111 to photograph a specific area under the control of the controller 112. In addition, the pan tilt unit 122 may adjust the directing direction of the photographing unit 111 to track a specific object under the control of the controller 111.
제어부(111)는 이상 개체 검출 적합도에 따라 사육장내의 환경 파라미터를 조절할 수 있다. 제어부(111)는 이상 개체 검출 적합도가 양호하지 않은 것으로 판단되는 경우 사육장내의 온도 및 습도 중 적어도 하나의 환경 파라미터를 제어하기 위한 명령을 공조 장치로 출력할 수 있다. The controller 111 may adjust the environmental parameters in the kennel according to the suitability for detecting the abnormal object. If it is determined that the abnormality of object detection suitability is not good, the controller 111 may output a command for controlling at least one environmental parameter of temperature and humidity in the kennel to the air conditioning apparatus.
통신부(113)는 타 이상 개체 판단 장치, 관리자 단말(200) 또는 학습용 서버(400)중 적어도 하나와 데이터 통신을 수행할 수 있다. 예를 들면, 통신부(113)는 무선랜(Wireless LAN: WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등의 원거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.The communication unit 113 may perform data communication with at least one of the other abnormality entity determining device, the manager terminal 200, or the learning server 400. For example, the communication unit 113 may include a wireless LAN (WLAN), Wi-Fi, WiBro, WiMAX, World Interoperability for Microwave Access (Wimax), and HSDPA (High Speed Downlink). Data communication may be performed using telecommunication technologies such as Packet Access, IEEE 802.16, Long Term Evolution (LTE), and Wireless Mobile Broadband Service (WMBS).
또는 통신부(113)는 블루투스, RFID(RadioFrequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비, 인접 자장 통신(NFC) 등이 포함될 수 있다. 또한, 유선 통신 기술로는, USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등의 근거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.Alternatively, the communication unit 113 may include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), Zigbee, and Near Field Communication (NFC). In addition, as a wired communication technology, data communication may be performed using a short-range communication technology such as USB communication, Ethernet, serial communication, and optical / coaxial cable.
예를 들면, 통신부(113)는 근거리 통신 기술을 사용하여 타 이상 개체 판단 장치와 데이터 통신을 수행하고, 원거리 통신 기술을 사용하여 관리자 단말(200) 또는 학습용 서버(400)와 데이터 통신을 수행할 수 있다, 그러나 이에 한정되는 것은 아니고, 사육장(10)의 제반 사항 등을 고려하여 다양한 통신 기술이 사용될 수 있다.For example, the communication unit 113 may perform data communication with another abnormality object determining device using a short range communication technology, and perform data communication with the manager terminal 200 or the learning server 400 using a long distance communication technology. However, the present invention is not limited thereto, and various communication technologies may be used in consideration of various aspects of the kennel 10.
통신부(113)는 촬상 장치(20)에서 촬영한 영상 데이터를 관리자 단말(200)에게 전송하거나, 제어부(111)에 의하여 추출된 이상 개체 데이터를 관리자 단말(200)에게 전송하거나, 영상 데이터와 이상 개체 데이터를 정합한 결과를 관리자 단말(200)에게 전송할 수 있다. 그리고, 통신부(113)는 촬상 장치(20)에서 촬영한 영상 및 영상 내 개체의 밀도에 대한 비트맵을 학습용 서버(400)에게 전송할 수도 있다. 여기서, 학습용 서버(400)로 전송되는 비트맵은 관리자 단말(200)에 의하여 수정된 비트맵일 수 있다. The communication unit 113 transmits the image data photographed by the imaging device 20 to the manager terminal 200, or transmits the abnormal object data extracted by the control unit 111 to the manager terminal 200, or the image data and the abnormality. The result of matching the individual data may be transmitted to the manager terminal 200. In addition, the communication unit 113 may transmit the image captured by the imaging apparatus 20 and a bitmap of the density of the object in the image to the learning server 400. Here, the bitmap transmitted to the learning server 400 may be a bitmap modified by the manager terminal 200.
통신부(113)를 통하여 전송되는 데이터는 인코딩부(119)를 통하여 인코딩된 압축 데이터일 수 있다.The data transmitted through the communication unit 113 may be compressed data encoded through the encoding unit 119.
환경 파라미터 정보 수집부(114)는 적어도 하나의 센서로부터 환경 파라미터 정보를 수집할 수 있다. 센서는 사육장내에 배치된 온도 센서, 습도 센서 등을 포함할 수 있다.The environmental parameter information collecting unit 114 may collect environmental parameter information from at least one sensor. The sensor may include a temperature sensor, a humidity sensor, or the like disposed in the kennel.
이상 개체 데이터 검출부(115)는 복수 개체가 포함된 영상 데이터를 이용하여 이상 개체 데이터를 검출할 수 있다. 이상 개체 데이터 검출부(115)는 사육장(10)내 개체가 포함된 영상 데이터를 이용하여, 움직임을 나타내는 동작 데이터를 생성하고, 영상 데이터로부터 의심 영역을 나타내는 이상 개체 데이터를 생성한다. 이상 개체 데이터는 영상 데이터 상에서 의심 영역을 나타내는 것으로, 영상 데이터 내 이상 개체의 유무에 관한 정보, 영상 데이터 내 이상 개체가 존재하는 공간 영역에 관한 정보 및 영상 데이터 내 이상 개체가 존재하는 시간 영역에 관한 정보 중 적어도 하나를 포함할 수 있다. 여기서, 영상 데이터 내 이상 개체가 존재하는 공간 영역에 관한 정보는 이상 개체가 존재하는 영역의 좌표 정보 또는 이상 개체의 좌표 정보일 수 있다. 이때, 이상 개체 데이터는 영역 별, 블록 별, 또는 픽셀 별로 나타내어질 수 있으며, 이상 개체 데이터는 영역 별, 블록 별, 또는 픽셀 별 이상 개체가 있을 확률을 더 포함할 수 있다. 이때, 이상 개체 데이터 검출부(115)는 데이터베이스(120)에 미리 저장된 알고리즘을 구동하는 방법으로 이상 개체 데이터를 추출할 수 있으며, 미리 저장된 알고리즘 및 이 알고리즘에 적용되는 파라미터는 학습용 서버(400)에 의하여 학습된 결과 추출된 알고리즘 및 파라미터일 수 있다. The abnormal object data detector 115 may detect abnormal object data by using image data including a plurality of objects. The abnormal object data detection unit 115 generates motion data indicating movement and generates abnormal object data indicating a suspected area from the image data by using the image data including the object in the kennel 10. The abnormal object data indicates a suspected area on the image data. The abnormal object data indicates information about the presence or absence of an abnormal object in the image data, information about a spatial area in which the abnormal object exists in the image data, and a time domain in which the abnormal object exists in the image data. It may include at least one of the information. Here, the information about the spatial region in which the abnormal object exists in the image data may be coordinate information of the region in which the abnormal object exists or coordinate information of the abnormal object. In this case, the abnormal object data may be represented by region, block, or pixel, and the abnormal object data may further include a probability that there is an abnormal object by region, block, or pixel. At this time, the abnormal object data detection unit 115 may extract the abnormal object data by driving an algorithm previously stored in the database 120. The algorithm and parameters applied to the algorithm are stored by the learning server 400. The learned results may be extracted algorithms and parameters.
또한, 이상 개체 데이터 검출부(115)는 촬영부(111)에 의하여 촬영된 영상을 입력 받고, 입력 받은 영상 내 개체 중 기 설정된 시간 동안 움직임이 검출되지 않은 영역, 예를 들어 움직임이 검출되지 않은 픽셀이 마스킹된 영상을 생성하여 출력할 수 있다. Also, the abnormal object data detector 115 receives an image photographed by the photographing unit 111, and an area in which no movement is detected for a predetermined time among objects in the input image, for example, a pixel in which no movement is detected. This masked image can be generated and output.
판단부(116)는 환경 파라미터 정보 및 이상 개체 데이터 중 적어도 하나를 이용하여 이상 개체 검출 적합도를 판단할 수 있다. 본 발명의 실시예에서 이상 개체 검출 적합도는 사육장 내의 개체 중 이상 개체를 나타내는 개체를 검출하기 위한 사육장의 환경이 적합한지 여부를 의미하는 것으로, 개체의 생장, 발육, 생산성을 위한 환경의 적합도를 판단하는 개념과는 다르다.The determination unit 116 may determine the abnormality object detection suitability using at least one of the environmental parameter information and the abnormal object data. In the embodiment of the present invention, the suitability for detecting abnormal objects means whether the environment of a kennel for detecting an object representing an abnormal object is suitable among the individuals in the kennel, and determines the suitability of the environment for growth, development, and productivity of the individual. It is different from the concept.
판단부(116)는 움직임 값이 기 설정된 제1움직임 기준값 이상인 경우 이상 개체 검출 적합도가 양호한 것으로 판단할 수 있다. 판단부(116)는 동작 데이터를 이용하여 영상 데이터상에 검출된 움직임 값이 기 설정된 제1움직임 기준값 이상인 경우 이상 개체 검출 적합도가 양호한 것으로 판단할 수 있다. 판단부(116)는 환경 파라미터 정보의 값과 상관없이 영상 데이터상에 검출된 움직임 값이 기 설정된 제1움직임 기준값 이상인 경우 이상 개체 검출 적합도가 양호한 것으로 판단할 수 있다. 이 때, 움직임 값은 영상데이터 상에 나타난 모션치의 총량, 평균치 또는 움직임이 검출된 픽셀수 등의 연산을 통하여 산출될 수 있다. 제1움직임 기준값은 이전에 수행되었던 이상 개체 검출시 오류 확률에 근거하여 설정될 수 있다. 예를 들어, 판단부(116)는 이상 개체 검출시 오류 확률이 10%미만으로 나타난 경우에 산출된 움직임 기준값들의 평균값을 제1움직임 기준값으로 설정할 수 있다. 예를 들면, 실시예에서 제1기준값은 정상적인 개체의 움직임 값의 30%로 설정될 수 있다.The determination unit 116 may determine that the abnormality object detection suitability is good when the motion value is greater than or equal to the preset first movement reference value. The determination unit 116 may determine that the anomalous object detection suitability is good when the motion value detected on the image data using the motion data is equal to or greater than a preset first movement reference value. The determination unit 116 may determine that the abnormality object detection suitability is good when the motion value detected on the image data is greater than or equal to the preset first movement reference value regardless of the value of the environmental parameter information. In this case, the motion value may be calculated through calculation of the total amount of motion values, the average value, or the number of pixels in which motion is detected. The first movement reference value may be set based on an error probability in detecting an abnormal object that was previously performed. For example, the determination unit 116 may set the average value of the movement reference values calculated when the error probability is less than 10% when detecting the abnormal object as the first movement reference value. For example, in an embodiment, the first reference value may be set to 30% of the motion value of the normal individual.
판단부(116)는 움직임 값이 기 설정된 제2움직임 기준값 미만인 경우 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다. 판단부(116)는 동작 데이터를 이용하여 영상 데이터상에 검출된 움직임 값이 기 설정된 제2움직임 기준값 미만인 경우 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다. 판단부(116)는 환경 파라미터 정보의 값과 상관없이 영상 데이터상에 검출된 움직임 값이 기 설정된 제2움직임 기준값 미만인 경우 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다. 이 때, 움직임 값은 영상데이터 상에 나타난 모션치의 총량, 평균치 또는 움직임이 검출된 픽셀수 등의 연산을 통하여 산출될 수 있다. 제2움직임 기준값은 이전에 수행되었던 이상 개체 검출시 오류 확률에 근거하여 설정될 수 있다. 예를 들어, 판단부(116)는 이상 개체 검출시 오류 확률이 10%이상으로 나타난 경우에 산출된 움직임 기준값들의 평균값을 제2움직임 기준값으로 설정할 수 있다. 예를 들면, 실시예에서 제2기준값은 정상적인 개체의 움직임 값의 10%로 설정될 수 있다.The determination unit 116 may determine that the abnormality object detection suitability is not good when the motion value is less than the second preset movement reference value. The determination unit 116 may determine that the abnormality object detection suitability is not good when the motion value detected on the image data using the motion data is less than the preset second movement reference value. The determination unit 116 may determine that the abnormality object detection suitability is not good when the motion value detected on the image data is less than the preset second movement reference value regardless of the value of the environmental parameter information. In this case, the motion value may be calculated through calculation of the total amount of motion values displayed on the image data, the average value, or the number of pixels in which the motion is detected. The second movement reference value may be set based on an error probability in detecting an abnormal object that was previously performed. For example, the determination unit 116 may set the average value of the movement reference values calculated when the error probability is 10% or more when detecting the abnormal object as the second movement reference value. For example, in the embodiment, the second reference value may be set to 10% of the motion value of the normal individual.
판단부(116)는 이상 개체 데이터를 이용하여 영상 데이터 전체 영역 중 기 설정된 영역 이상의 범위가 의심 영역으로 나타날 경우 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다. 판단부(116)는 환경 파라미터 정보의 값과 상관없이 영상 데이터 전체 영역 중 기 설정된 영역 이상의 범위가 의심 영역으로 나타날 경우 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다. 판단부(116)는 특정 비율 이상의 영역에서 이상 개체가 검출될 경우에는 온도 및 습도의 영향에 의하여 개체의 활동성이 줄어든 것으로 판단할 수 있다. 예를 들면, 실시예에서 기 설정된 영역 범위는 전체 영역의 50%로 설정될 수 있다.The determination unit 116 may determine that the abnormality object detection suitability is not good when the abnormality range of the predetermined area is displayed as the suspect area using the abnormal object data. The determination unit 116 may determine that the abnormality detection suitability of the abnormal object is not good when the range of the predetermined area is displayed as the suspect area regardless of the value of the environmental parameter information. The determination unit 116 may determine that the activity of the individual is reduced by the influence of temperature and humidity when the abnormal object is detected in a region of a specific ratio or more. For example, in the exemplary embodiment, the preset area range may be set to 50% of the entire area.
판단부(116)는 환경 파라미터 정보를 이용하여 각 환경 계측값이 각 계측 기준 범위를 벗어나는 경우 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다. 판단부(116)는 개체의 일령에 따라 각 환경 계측 값이 각 계측 기준 범위를 벗어나는 경우에는 이상 개체 검출 적합도가 양호하지 않은 것으로 판단할 수 있다. 실시예에서 계측 기준 범위는 20%로 설정될 수 있다.The determination unit 116 may determine that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range using the environmental parameter information. The determination unit 116 may determine that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range according to the age of the individual. In an embodiment, the measurement reference range may be set to 20%.
또는 판단부(116)는 머신 러닝 방식을 이용하여 이상 개체 검출 적합도를 판단할 수 있다. 판단부(116)는 움직임 값, 환경 파라미터 정보에 따른 이상 개체 검출 결과를 트레이닝 세트로 학습하고 이후 입력되는 영상 데이터의 움직임 값, 환경 파라미터 정보를 분석하여 이상 개체 검출 적합도를 판단할 수 있다.Alternatively, the determination unit 116 may determine an ideal object detection suitability using a machine learning method. The determination unit 116 may learn the abnormal object detection result according to the motion value and the environmental parameter information as a training set, and then analyze the motion value and the environmental parameter information of the image data input thereafter to determine the abnormal object detection suitability.
판단부(116)는 컴퓨터로 읽을 수 있는 프로그램을 포함할 수 있다. 해당 프로그램은 컴퓨터에 의하여 실행될 수 있는 기록매체 또는 저장 장치에 저장될 수 있다. 컴퓨터 내의 프로세서는 기록매체 또는 저장 장치에 저장된 프로그램을 읽어 들이며, 프로그램, 즉 학습된 모델을 실행하여 입력 정보를 연산하고, 연산 결과를 출력할 수 있다. The determination unit 116 may include a computer readable program. The program may be stored in a recording medium or a storage device that can be executed by a computer. A processor in a computer may read a program stored in a recording medium or a storage device, execute a program, that is, a trained model, calculate input information, and output a calculation result.
예를 들면, 판단부(116)는 동작 데이터를 통하여 이상 개체 검출 적합도를 판단하도록 학습될 수 있다. 판단부(116)의 입력은 동작 데이터일 수 있으며, 판단부(116)의 출력은 이상개체 검출 적합도일 수 있다. 판단부(116)는 사육장 내부의 영상으로부터 검출된 동작 데이터를 입력층으로 하여, 동작 데이터와 이상 개체 검출 적합도간의 상관관계를 학습하고, 동작 데이터에 나타난 움직임값에 따라 산출되는 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함할 수 있다. 이 뉴럴 네트워크는 이상 개체를 검출하기 위한 사육장의 환경이 적합한지 여부를 표시하도록 설계된 딥러닝 알고리즘의 한 예이다. 뉴럴 네트워크는 컨볼루션 네트워크(convolution network) 기반 학습 머신에 동작 데이터를 입력한 후, 이상 개체 검출 적합도가 문자, 숫자, 기호 등으로 구별되도록 표시되어 있는 데이터를 출력하는 알고리즘일 수 있다. 이때, 동작 데이터는 뉴럴 네트워크의 입력층이 되고, 뉴럴 네트워크는 동작 데이터와 이상 개체 검출 적합도간의 상관관계를 학습할 수 있다. 그리고, 뉴럴 네트워크의 출력층은 이상 개체 검출 적합도가 문자, 숫자, 기호 등으로 구별되도록 표시된 동작 데이터 일 수 있다.For example, the determiner 116 may be trained to determine anomaly detection accuracy based on the motion data. The input of the determination unit 116 may be operation data, and the output of the determination unit 116 may be an abnormality object detection suitability. The determination unit 116 uses the motion data detected from the image inside the kennel as an input layer, learns the correlation between the motion data and the abnormality object detection fitness, and calculates the abnormality object fitness for fitness calculated based on the motion value indicated in the motion data. It may include a neural network trained to be an output layer. This neural network is an example of a deep learning algorithm designed to indicate whether the environment of the kennel for detecting abnormal objects is appropriate. The neural network may be an algorithm for inputting operation data into a convolution network-based learning machine and then outputting data in which abnormality object suitability is distinguished by letters, numbers, and symbols. At this time, the motion data becomes an input layer of the neural network, and the neural network can learn a correlation between the motion data and the fitness for detecting an abnormal object. In addition, the output layer of the neural network may be motion data that is displayed such that the anomaly detection suitability is distinguished by letters, numbers, and symbols.
또는, 판단부(116)는 이상 개체 데이터를 통하여 이상 개체 검출 적합도를 판단하도록 학습될 수 있다. 판단부(116)의 입력은 이상 개체 데이터일 수 있으며, 판단부(116)의 출력은 이상개체 검출 적합도일 수 있다. 판단부(116)는 사육장 내부의 영상으로부터 검출된 이상 개체 데이터를 입력층으로 하여, 이상 개체 데이터와 이상 개체 검출 적합도간의 상관관계를 학습하고, 이상 개체 데이터에 나타난 이상 개체 검출 영역에 따라 산출되는 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함할 수 있다. 이 뉴럴 네트워크는 이상 개체를 검출하기 위한 사육장의 환경이 적합한지 여부를 표시하도록 설계된 딥러닝 알고리즘의 한 예이다. 뉴럴 네트워크는 컨볼루션 네트워크(convolution network) 기반 학습 머신에 이상 개체 데이터를 입력한 후, 이상 개체 검출 적합도가 문자, 숫자, 기호 등으로 구별되도록 표시되어 있는 데이터를 출력하는 알고리즘일 수 있다. 이때, 이상 개체 데이터는 뉴럴 네트워크의 입력층이 되고, 뉴럴 네트워크는 이상 개체 데이터와 이상 개체 검출 적합도간의 상관관계를 학습할 수 있다. 그리고, 뉴럴 네트워크의 출력층은 이상 개체 검출 적합도가 문자, 숫자, 기호 등으로 구별되도록 표시된 동작 데이터 일 수 있다.Alternatively, the determination unit 116 may be trained to determine an abnormality object detection suitability based on the abnormality object data. The input of the determination unit 116 may be abnormal object data, and the output of the determination unit 116 may be an abnormality object detection suitability. The determination unit 116 learns a correlation between the abnormal object data and the abnormal object detection suitability using the abnormal object data detected from the image inside the kennel as an input layer, and is calculated according to the abnormal object detection region shown in the abnormal object data. It may include a neural network that has been trained so that the anomaly detection suitability becomes an output layer. This neural network is an example of a deep learning algorithm designed to indicate whether the environment of the kennel for detecting abnormal objects is appropriate. The neural network may be an algorithm for inputting abnormal object data into a convolution network-based learning machine and then outputting data in which the abnormal object detection suitability is distinguished by letters, numbers, and symbols. At this time, the abnormal entity data becomes an input layer of the neural network, and the neural network may learn a correlation between the abnormal entity data and the anomaly detection accuracy. In addition, the output layer of the neural network may be motion data that is displayed such that the anomaly detection suitability is distinguished by letters, numbers, and symbols.
또는, 판단부(116)는 환경 파라미터 정보를 통하여 이상 개체 검출 적합도를 판단하도록 학습될 수 있다. 판단부(116)의 입력은 환경 파라미터 정보일 수 있으며, 판단부(116)의 출력은 이상개체 검출 적합도일 수 있다. 판단부(116)는 환경 파라미터 정보를 입력층으로 하여, 환경 파라미터 정보와 이상 개체 검출 적합도간의 상관관계를 학습하고, 환경 파라미터 정보에 나타난 환경 계측값에 따라 산출되는 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함할 수 있다. 이 뉴럴 네트워크는 이상 개체를 검출하기 위한 사육장의 환경이 적합한지 여부를 표시하도록 설계된 딥러닝 알고리즘의 한 예이다. 뉴럴 네트워크는 컨볼루션 네트워크(convolution network) 기반 학습 머신에 환경 파라미터 정보를 입력한 후, 이상 개체 검출 적합도가 문자, 숫자, 기호 등으로 구별되도록 표시되어 있는 데이터를 출력하는 알고리즘일 수 있다. 이때, 환경 파라미터 정보는 뉴럴 네트워크의 입력층이 되고, 뉴럴 네트워크는 환경 파라미터 정보와 이상 개체 검출 적합도간의 상관관계를 학습할 수 있다. 그리고, 뉴럴 네트워크의 출력층은 이상 개체 검출 적합도가 문자, 숫자, 기호 등으로 구별되도록 표시된 동작 데이터 일 수 있다. Alternatively, the determination unit 116 may be trained to determine an abnormality object detection suitability through the environmental parameter information. The input of the determination unit 116 may be environment parameter information, and the output of the determination unit 116 may be an abnormality object detection suitability. The determination unit 116 uses the environmental parameter information as an input layer, learns the correlation between the environmental parameter information and the abnormality object detection suitability, and outputs the abnormality object detection suitability calculated according to the environmental measurement value indicated in the environmental parameter information. It can include learned neural networks. This neural network is an example of a deep learning algorithm designed to indicate whether the environment of the kennel for detecting abnormal objects is appropriate. The neural network may be an algorithm for inputting environment parameter information into a convolution network-based learning machine and then outputting data in which the abnormality object detection suitability is distinguished by letters, numbers, and symbols. At this time, the environmental parameter information becomes an input layer of the neural network, and the neural network can learn a correlation between the environmental parameter information and the anomaly detection accuracy. In addition, the output layer of the neural network may be motion data that is displayed such that the anomaly detection suitability is distinguished by letters, numbers, and symbols.
또한, 판단부(116)는 이상 개체 검출 적합도를 위한 최적 환경 파라미터를 도출할 수 있다. 판단부(116)는 동작 데이터, 이상 개체 데이터 및 환경 파라미터 정보 중 적어도 하나와 이상 개체 검출 적합도간의 상관관계를 분석하여 이상 개체를 검출하기 위한 최적 환경 파라미터의 범위를 도출할 수 있다. 이 때, 최적 환경 파라미터는 사육장 내부의 온도 및 습도 중 적어도 하나에 대한 파라미터일 수 있다.In addition, the determination unit 116 may derive an optimal environmental parameter for anomaly detection. The determination unit 116 may derive a range of optimal environmental parameters for detecting the abnormal object by analyzing a correlation between at least one of the operation data, the abnormal object data, and the environmental parameter information and the fitness for detecting the abnormal object. At this time, the optimum environmental parameter may be a parameter for at least one of the temperature and humidity inside the kennel.
판단부(116)는 이상 개체 검출 적합도가 양호한 경우에 대응되는 환경 파라미터와의 상관관계를 분석하여 최적 환경 파라미터를 산출할 수 있다. 즉, 판단부(116)는 이상 개체 검출 적합도가 양호한 경우일 때의 환경 파라미터에 포함된 환경 계측값을 추출하고, 이상 개체 검출 적합도의 양호도와 환경 계측값의 상관관계에 따라 최적 환경 파라미터를 도출할 수 있다.The determination unit 116 may calculate an optimal environmental parameter by analyzing a correlation with an environmental parameter corresponding to a case where the abnormality object detection suitability is good. That is, the determination unit 116 extracts the environmental measurement value included in the environmental parameter when the abnormality object detection suitability is good, and derives the optimal environmental parameter according to the correlation between the goodness of the abnormality object detection suitability and the environmental measurement value. can do.
표시부(117)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 117 includes a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), At least one of a 3D display and an e-ink display.
표시부(117)는 제어부(111)를 통하여 픽셀값이 조절된 영상 데이터 및 분포 데이터 중 적어도 하나를 디스플레이할 수 있다.The display unit 117 may display at least one of image data and distribution data whose pixel value is adjusted through the control unit 111.
또한, 표시부(117)는 촬상 장치(20)에서 촬영한 영상 데이터를 화면에 출력하거나, 영상 데이터와 이상 개체 데이터가 검출된 결과를 화면에 출력할 수도 있다. In addition, the display unit 117 may output the image data photographed by the imaging device 20 to the screen, or may output the result of detecting the image data and the abnormal object data to the screen.
또한, 표시부(117)는 다양한 사용자 인터페이스 또는 그래픽 사용자 인터페이스를 화면에 출력할 수 있다.In addition, the display unit 117 may output various user interfaces or graphic user interfaces on the screen.
유저 인터페이스부(118)는 이상 개체 판단 장치(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 유저 인터페이스부(118)는 키 패드, 돔 스위치, 터치 패드, 조그 휠, 조그 스위치 등으로 구성될 수 있다. 표시부(117)와 터치패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 표시부(117)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. The user interface 118 generates input data for controlling the operation of the abnormal object determination apparatus 100. The user interface unit 118 may include a keypad, a dome switch, a touch pad, a jog wheel, a jog switch, and the like. When the display unit 117 and the touch pad have a mutual layer structure and constitute a touch screen, the display unit 117 may be used as an input device in addition to the output device.
유저 인터페이스부(118)는 이상 개체 판단 장치의 동작을 위한 다양한 명령을 입력받을 수 있다.The user interface 118 may receive various commands for the operation of the abnormality object determining apparatus.
인코딩부(119)는 촬상 장치(20)에서 촬영한 영상 데이터 또는 제어부(111)를 통하여 가공된 가공 영상 데이터를 디지털 신호로 부호화한다. 예를 들면, 인코딩부(119)는 H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준에 따라 영상 데이터를 인코딩할 수 있다.The encoding unit 119 encodes the image data photographed by the imaging device 20 or the processed image data processed through the control unit 111 into a digital signal. For example, the encoding unit 119 may encode image data according to H.264, H.265, Moving Picture Experts Group (MPEG), and Motion Joint Photographic Experts Group (M-JPEG) standards.
데이터베이스(120)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 이상 개체 판단 장치(100)는 인터넷(internet) 상에서 데이터베이스(120)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 웹 스토리지와 관련되어 동작할 수도 있다.The database 120 may include a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (for example, SD or XD memory). , Magnetic memory, magnetic disk, optical disk, random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EPEPROM), programmable memory (PROM) Read-Only Memory) may include at least one storage medium. In addition, the abnormality object determining apparatus 100 may operate a web storage that performs a storage function of the database 120 on the Internet, or may operate in connection with the web storage.
데이터베이스(120)는 촬상 장치(20)에서 촬영한 영상 데이터를 저장할 수 있으며, 과거 일정 기간 동안의 영상 데이터를 저장할 수 있다.The database 120 may store image data photographed by the imaging apparatus 20, and may store image data for a predetermined period of time.
또한, 데이터베이스(120)는, 이상 개체 판단 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있으며, 제어부(111)가 이상 개체 데이터를 추출하기 위해 필요한 알고리즘 및 이에 적용되는 파라미터를 저장할 수 있다.In addition, the database 120 may store data and programs necessary for the abnormal object determination apparatus 100 to operate, and the controller 111 may store an algorithm and parameters applied thereto for extracting the abnormal object data. have.
또한, 데이터베이스(120)는, 다양한 사용자 인터페이스(User Interface: UI) 또는 그래픽 사용자 인터페이스(Graphic User Interface: GUI)를 저장할 수 있다.In addition, the database 120 may store various user interfaces (UIs) or graphical user interfaces (GUIs).
광원부(121)는 제어부(111)의 제어에 따라 지향하는 방향으로 광을 조사할 수 있다. 예를 들면, 광원부(121)는 적어도 하나의 레이저 다이오드(LD), 발광 다이오드(LED)를 포함할 수 있다. 광원부(121)는 제어부(111)의 제어에 따라 다양한 파장대의 광을 조사할 수 있다.The light source unit 121 may irradiate light in a direction directed by the control unit 111. For example, the light source unit 121 may include at least one laser diode LD and a light emitting diode LED. The light source unit 121 may irradiate light of various wavelength bands under the control of the controller 111.
예를 들면, 광원부(121)는 야간 촬영을 위하여 적외선 파장대의 광을 조사할 수 있다. 또는, 광원부(121)는 사육장 내 가축의 광화학 치료(photochemotherapy)를 위하여 자외선 파장대의 광을 조사할 수도 있다.For example, the light source unit 121 may irradiate light in the infrared wavelength band for night photographing. Alternatively, the light source unit 121 may irradiate light in the ultraviolet wavelength band for photochemotherapy of livestock in the kennel.
학습 전처리부(123)는 촬상 장치(20)에 의하여 획득된 영상 데이터 중 학습용 서버(400)가 학습에 사용할 학습용 데이터를 추출한다. 학습 전처리부(123)가 학습 데이터를 추출하는 자세한 방법은 이하에서 설명한다. The learning preprocessor 123 extracts learning data to be used for learning by the learning server 400 from the image data acquired by the imaging apparatus 20. A detailed method of extracting the training data by the training preprocessor 123 will be described below.
도 5는 본 발명의 실시예에 따른 이상 개체 판단 장치의 이상 개체 판단 동작을 설명하기 위한 흐름도이다. 5 is a flowchart illustrating an abnormal object determination operation of the apparatus for determining an abnormal object according to an embodiment of the present invention.
도1 내지 도 5를 참조하면, 이상 개체 판단 장치(100)는 촬영부(111)를 이용하여 복수의 개체가 함께 촬영된 영상에 대한 영상 데이터를 획득하며(S500), 제어부(111)는 획득한 영상 데이터로부터 이상 개체 데이터를 추출한다(S502). 여기서, 하나의 영상 데이터는 단일 프레임을 의미할 수 있으며, 촬영부(111)는 순차적으로 촬영되는 영상을 이용하여 복수 개의 영상 데이터를 생성할 수 있다. 이때, 제어부(111)는 미리 저장된 알고리즘 및 이에 적용되는 파라미터를 이용하여 이상 개체 데이터를 추출할 수 있다. 여기서, 미리 저장된 알고리즘은 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 표시하도록 학습된 제1 알고리즘 및 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘을 이용하여 객체 중 움직임이 없는 객체를 표시하는 알고리즘을 의미할 수 있다. 여기서, 제1 알고리즘은 객체가 존재하는 영역을 표시하는 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다, 또는, 제1 알고리즘은 객체의 분포 정보, 즉 객체가 위치하는 영역의 밀도 정보를 나타내는 방법을 이용할 수도 있다.1 to 5, the abnormality object determining apparatus 100 obtains image data of an image obtained by photographing a plurality of objects together using the photographing unit 111 (S500), and the control unit 111 obtains the image. The abnormal object data is extracted from the video data (S502). Here, one image data may mean a single frame, and the photographing unit 111 may generate a plurality of image data by using images sequentially photographed. In this case, the controller 111 may extract the abnormal object data using a pre-stored algorithm and a parameter applied thereto. Here, the pre-stored algorithm is a motion among the objects using the first algorithm trained to display the area where the object is determined to be located in the image data and the second algorithm trained to detect the motion by using an optical flow. This may mean an algorithm for displaying an object without. Here, the first algorithm may use a real-time object detection method using an algorithm indicating an area in which an object exists, or the first algorithm may indicate distribution information of an object, that is, density information of an area in which an object is located. Can also be used.
도 6은 객체 밀도 예측 네트워크를 설명하기 위한 도면이다. 여기서, 객체 밀도 예측 네트워크는 객체가 위치하는 영역의 밀도 정보를 표시하도록 설계된 딥러닝 알고리즘의 한 예이다. 객체 밀도 예측 네트워크는 컨볼루션 네트워크(convolution network) 기반 학습 머신에 원본 영상을 입력한 후, 그레이 스케일의 확률 맵으로 나타낸 밀도 영상을 출력하는 알고리즘일 수 있다. 이에 따르면, 닭장과 같이 유사한 모양을 가진 객체가 높은 밀도로 수용된 사육장 환경에서도 이상 객체 정보를 용이하게 추출할 수 있다.  6 is a diagram for describing an object density prediction network. Here, the object density prediction network is an example of a deep learning algorithm designed to display density information of an area where an object is located. The object density prediction network may be an algorithm for inputting an original image into a convolution network-based learning machine and then outputting a density image represented by a gray scale probability map. According to this, abnormal object information can be easily extracted even in a kennel environment in which objects having a similar shape, such as a chicken house, are accommodated at high density.
객체 밀도 예측 네트워크는 원본 영상과 밀도 영상을 이용하여 학습될 수 있으며, 후술하는 도 11의 학습용 서버(Training server)에 의해 학습될 수 있다.The object density prediction network may be learned using the original image and the density image, and may be learned by the training server of FIG. 11 to be described later.
도 6에서 도시된 바와 같이, 객체 밀도 예측 네트워크는 적어도 하나의 컨볼루션 네트워크(convolution network(layer))를 포함할 수 있다. As shown in FIG. 6, the object density prediction network may include at least one convolution network (layer).
컨볼루션 네트워크는 적어도 하나의 피쳐 맵(feature map(W))을 이용하여 영상의 특징점을 분류할수 있다. The convolutional network may classify the feature points of the image using at least one feature map (W).
컨볼루션 네트워크 는 적어도 하나의 풀러(pooler) 및/또는 액티베이터(activator)를 통해 객체 밀도 예측 네트워크의 성능을 개선할 수 있다.The convolutional network may improve the performance of the object density prediction network through at least one pooler and / or activator.
객체 밀도 예측 네트워크는 concatenator를 더 포함하며, concatenator는 적어도 하나의 컨볼루션 네트워크의 출력 결과를 연결하고(concatenate), 재배열하여 원본 영상의 특징점을 이용하여 객체의 밀도(분포) 정보를 출력할 수 있다.The object density prediction network further includes a concatenator, and the concatenator can concatenate the output results of at least one convolutional network, rearrange them, and output density (distribution) information of the object using feature points of the original image. have.
도 11을 이용하여 후술할 학습용 서버(Training server)에서 적어도 하나의 피쳐 맵(feature map(W))은 객체의 밀도 정보를 출력할 수 있도록 훈련(trained(tuned))될 수 있다.At least one feature map (W) may be trained (tuned) to output density information of an object in a training server to be described later with reference to FIG. 11.
본 발명의 실시예에서, 밀도 영상은 원본 영상과 같거나 유사한 크기(Width x Highet)를 가지도록 객체 밀도 예측 네트워크가 구성되며, 각각의 픽셀(또는 블록)의 위치는 서로 대응되고, 밀도 영상의 픽셀의 값은 원본 영상의 대응 픽셀에 객체(예를들어 가금류)가 존재할 수 있는 확률을 나타낼 수 있다. 예를 들어, 원본 영상의 픽셀에 객체가 존재할 확률이 높은수록, 밀도 영상의 해당 픽셀의 값은 높은 값을 가질 수 있다.In an embodiment of the present invention, the object density prediction network is configured such that the density image has a size (Width x Highet) equal to or similar to the original image, and the positions of each pixel (or block) correspond to each other, The value of the pixel may represent the probability that an object (eg, poultry) may exist in a corresponding pixel of the original image. For example, the higher the probability that an object exists in a pixel of the original image, the higher the value of the pixel of the density image may be.
이상 개체 판단 장치(100)의 통신부(113)는 제어부(111)가 획득한 이상 개체 데이터를 관리자 단말(200)에게 전송하며(S504), 관리자 단말(200)은 이상 개체 데이터를 출력한다(S506). 이에 따라, 관리자는 관리자 단말(200)에 출력된 이상 개체 데이터를 인지할 수 있다. The communication unit 113 of the abnormal object determination apparatus 100 transmits the abnormal object data acquired by the controller 111 to the manager terminal 200 (S504), and the manager terminal 200 outputs the abnormal object data (S506). ). Accordingly, the manager may recognize abnormal object data output to the manager terminal 200.
도 7은 관리자 단말에 이상 개체 데이터가 표시되는 예를 설명하기 도면이다. 관리자 단말(200)에는 도 7(c)와 같은 영상이 표시될 수 있다. 즉, 관리자 단말(200)에는 도 7(a)와 같이 촬상 장치(20)에 의하여 촬영된 원본 이미지와 도 7(b)와 같이 제어부(111)에 의하여 추출된 이상 개체 데이터를 정합한 영상이 표시될 수 있다. 여기서, 이상 개체 데이터는 닭 밀도 추정 이미지일 수 있으며, 유사밀도 8비트 그레이 이미지, 확률맵 또는 비트맵으로 표시될 수 있다. 이때, 이상 개체 데이터는 개체 별로 이상 확률을 표시한 데이터가 아니라, 영상 데이터 내 구분된 영역 별, 블록 별, 또는 픽셀 별로 해당되는 영역, 블록 또는 픽셀에서 개체, 몸통 또는 머리의 이상 확률을 나타내는 데이터이다.7 is a diagram illustrating an example of displaying abnormal entity data on a manager terminal. The manager terminal 200 may display an image as shown in FIG. 7C. That is, the manager terminal 200 includes an image obtained by matching the original image photographed by the imaging device 20 as illustrated in FIG. 7A and the abnormal object data extracted by the controller 111 as illustrated in FIG. 7B. Can be displayed. Here, the abnormal object data may be a chicken density estimation image, and may be displayed as a pseudo density 8 bit gray image, a probability map, or a bit map. In this case, the abnormal object data is not data indicating an abnormal probability for each object, but data representing an abnormal probability of an object, a body, or a head in a region, block, or pixel corresponding to each divided area, block, or pixel in the image data. to be.
만약, 관리자 단말(200)에 노출된 이상 개체 데이터에 오류가 있는 경우, 관리자는 관리자 단말(200)을 통하여 이상 개체 판단 장치(100)에게 피드백 정보를 전송할 수 있다(S508). 예를 들어, 이상 개체가 아님에도 불구하고 이상 개체 판단 장치(100)가 이상 개체인 것으로 판단하거나, 이상 개체임에도 불구하고 이상 개체 판단 장치(100)가 정상 개체인 것으로 판단한 경우, 관리자 단말(200)은 이상 개체 데이터에 오류가 있음을 알리는 피드백 정보를 이상 개체 판단 장치(100)에게 전송할 수 있다. 여기서, 피드백 정보는 이상 개체 데이터 중 오류가 있는 시간 영역 및 공간 영역 중 적어도 하나를 포함할 수 있다. 오류가 있는 시간 영역 및 공간 영역은 관리자에 의하여 선택되거나 지정될 수 있으며, 관리자 단말(200)의 유저 인터페이스부를 통하여 입력될 수 있다. 예를 들어, 도 8(c)에서 예시한 바와 같이, 관리자 단말(200)이 화면(800) 내 4개의 영역에 대한 이상 개체 데이터(802, 804, 806, 808)를 표시하며, 관리자가 4개 중 1개의 이상 개체 데이터(예를 들어, 806)는 오류인 것으로 판단한 경우, 관리자가 유저 인터페이스를 통하여 오류인 이상 개체 데이터(806)를 선택하여 피드백할 수 있다. 또는, 관리자 단말(200)이 출력한 화면 내에 이상 개체가 있음에도 불구하고 이상 개체 데이터가 표시되지 않은 경우, 관리자는 이상 개체인 것으로 보이는 시간 영역 및 공간 영역을 지정하여 피드백할 수도 있다. If there is an error in the abnormal object data exposed to the manager terminal 200, the manager may transmit feedback information to the abnormal object determining apparatus 100 through the manager terminal 200 (S508). For example, when it is determined that the abnormal object determining apparatus 100 is an abnormal object even though it is not an abnormal object, or when the abnormal object determining apparatus 100 determines that the normal object is a normal object despite being an abnormal object, the manager terminal 200 ) May transmit feedback information indicating that there is an error in the abnormal object data to the abnormal object determining apparatus 100. Here, the feedback information may include at least one of a temporal domain and a spatial domain in which the error data is abnormal. The error time zone and the space zone may be selected or designated by an administrator, and may be input through a user interface unit of the manager terminal 200. For example, as illustrated in FIG. 8C, the manager terminal 200 displays abnormal object data 802, 804, 806, and 808 for four areas of the screen 800, and the manager displays 4. If one or more of the abnormal object data (for example, 806) is determined to be an error, the administrator may select and feed back the abnormal object data 806 which is an error through the user interface. Alternatively, when the abnormal object data is not displayed despite the abnormal object in the screen output by the manager terminal 200, the manager may designate and feed back a time area and a spatial area that appear to be the abnormal object.
이상 개체 판단 장치(100)의 학습 전처리부(123)는 관리자 단말(200)로부터 수신한 피드백 정보를 이용하여 학습용 데이터를 추출하며(S510), 추출한 학습용 데이터를 학습용 서버(400)에게 전송한다(S512). The learning preprocessor 123 of the object determining apparatus 100 extracts the training data using the feedback information received from the manager terminal 200 (S510) and transmits the extracted training data to the training server 400 ( S512).
여기서, 학습용 데이터는 단계 S500에서 획득한 영상 데이터의 일부일 수 있다. 이상 개체 판단 장치(100)의 학습 전처리부(123)는 단계 S500에서 획득한 영상 데이터 중 관리자 단말(200)로부터 수신한 피드백 정보에 포함된 시간 영역 및 공간 영역에 따라 영상 데이터를 추출할 수 있다. 예를 들어, 관리자 단말(200)이 n번째 프레임의 일부 영역(예, 도 8(c)의 806))에 오류가 있는 것으로 판단한 경우, 학습용 데이터는 n번째 프레임 중 일부 영역(예, 도 8(c)의 806)일 수 있다. 또는, 관리자 단말(200)이 전체 프레임 중 n번째 프레임에서 n+3번째 프레임의 이상 개체 데이터에 오류가 있는 것으로 판단한 경우, 학습용 데이터는 전체 프레임 중 n번째 프레임에서 n+3번째 프레임일 수 있다. 이에 따라, 이상 개체 판단 장치(100)는 촬상 장치(20)가 획득한 전체 영상 데이터 중 이상 개체 검출에 오류가 있는 영상 데이터만을 추출하여 학습용 서버(400)에게 전송할 수 있다. 이에 따라, 이상 개체 판단 장치(100)와 학습용 서버(400) 간 통신 트래픽이 현저히 줄어들 수 있다. 여기서, 학습용 데이터는, 추출된 영상 데이터뿐만 아니라, 오류 정보 및 정정 정보 중 적어도 하나를 더 포함할 수도 있다. 오류 정보는 제어부에 의한 판단이 잘못되었음을 알리는 정보이고, 정정 정보는 정정되어야 할 방향을 알리는 정보일 수 있다. 또는, 학습용 데이터는, 추출된 원본의 영상 데이터 및 오류가 정정된 후의 이상 개체 데이터를 포함할 수도 있다. 예를 들어, n번째 프레임 내지 n+3번째 프레임 내 일부 영역(예, 도 8(c)의 806)에 오류가 있는 것으로 판단된 경우, 학습용 데이터는 n번째 프레임 내지 n+3번째 프레임에 대한 원본의 영상 데이터 및 n번째 프레임 내지 n+3번째 프레임에 대한 이상 개체 데이터를 포함할 수 있으며, n번째 프레임 내지 n+3번째 프레임에 대한 이상 개체 데이터는 오류가 있는 것으로 판단된 일부 영역(예, 도 8(c)의 806)의 오류가 정정된 후의 그레이 이미지일 수 있다. 학습용 서버(400)는 이상 개체 판단 장치(100)로부터 수신한 학습용 데이터를 이용하여 재학습(retraining)하며(S514), 이에 따라 이상 개체 검출을 위한 업데이트 정보를 이상 개체 판단 장치(100)에게 전송한다(S516). 여기서, 업데이트 정보는 이상 개체 검출을 위한 알고리즘에 적용되는 파라미터일 수 있으며, 이는 조정 가능한 매트릭스(adjustable matrix) 형태일 수 있다.Here, the training data may be part of the image data acquired in step S500. The learning preprocessor 123 of the object determining apparatus 100 may extract the image data according to the time domain and the spatial domain included in the feedback information received from the manager terminal 200 among the image data acquired in step S500. . For example, when the manager terminal 200 determines that there is an error in a part of the nth frame (eg, 806 of FIG. 8C), the training data is part of the nth frame (eg, FIG. 8). 806 of (c). Alternatively, when the manager terminal 200 determines that there is an error in the abnormal object data of the n + 3 th frame in the n th frame among the entire frames, the training data may be the n + 3 th frame in the n th frame of the entire frames. . Accordingly, the abnormality object determining apparatus 100 may extract only the image data having an error in detecting the abnormal object among all the image data acquired by the imaging apparatus 20 and transmit the image data to the learning server 400. Accordingly, communication traffic between the abnormality object determining apparatus 100 and the learning server 400 may be significantly reduced. Here, the training data may further include at least one of error information and correction information as well as extracted image data. The error information may be information indicating that a determination by the controller is wrong, and the correction information may be information indicating a direction to be corrected. Alternatively, the training data may include the extracted original image data and the abnormal object data after the error is corrected. For example, if it is determined that there is an error in some region (for example, 806 of FIG. 8C) in the n th frame to the n + 3 th frame, the training data is determined for the n th frame to the n + 3 th frame. Image data of the original and abnormal object data for the nth to n + 3th frames, and the abnormal object data for the nth to n + 3th frames may be included in some areas determined to be in error (eg, This may be a gray image after the error of 806 of FIG. 8C is corrected. The learning server 400 retrains using the training data received from the abnormal object determining apparatus 100 (S514), and accordingly transmits the update information for detecting the abnormal object to the abnormal object determining apparatus 100. (S516). Here, the update information may be a parameter applied to an algorithm for detecting an abnormal object, which may be in the form of an adjustable matrix.
이후, 이상 개체 판단 장치(100)는 단계 S500와 같이, 복수의 개체가 함께 촬영된 영상에 대한 영상 데이터를 획득하며(S518), 제어부(111)는 미리 저장된 알고리즘 및 업데이트 정보를 이용하여 획득한 영상 데이터로부터 이상 개체 데이터를 추출한다(S520).Then, the abnormal object determination apparatus 100 obtains the image data of the image taken with the plurality of objects in step S500 (S518), the control unit 111 is obtained using the pre-stored algorithm and update information The abnormal object data is extracted from the image data (S520).
이에 따라, 이상 개체 판단 장치(100)는 관리자 단말(200)의 피드백 정보를 반영하여 이상 개체를 검출할 수 있으며, 이상 개체 판단 장치(100)와 학습용 서버(400) 간의 통신 트래픽을 줄일 수 있다.Accordingly, the abnormal object determination apparatus 100 may detect the abnormal object by reflecting the feedback information of the manager terminal 200, and may reduce communication traffic between the abnormal object determination apparatus 100 and the learning server 400. .
도 2에 도시된 바와 같이, 학습용 서버(400)가 복수의 이상 개체 판단 장치(100)와 통신하는 경우, 학습용 서버(400)는 복수의 이상 개체 판단 장치(100)에게 동일한 업데이트 정보를 전송할 수 있다. 또는, 이상 개체 판단 장치(100) 마다 상이한 환경에 처해 있을 수 있으므로, 업데이트 정보는 이상 개체 판단 장치(100) 마다 특이적일 수도 있다. As illustrated in FIG. 2, when the learning server 400 communicates with the plurality of abnormal object determining apparatus 100, the learning server 400 may transmit the same update information to the plurality of abnormal object determining apparatus 100. have. Alternatively, since the individual object determining apparatus 100 may be in a different environment, the update information may be specific for the individual object determining apparatus 100.
본 발명의 실시예에 따르면, 이상 개체 판단 장치(100)의 객체 밀도 예측 네트워크와 같은 알고리즘을 학습용 서버(400)도 저장하며, 학습용 서버(400)는 이를 이용하여 오류 데이터와 대응되는 원본 영상으로 재학습시키는 것이 바람직하다.According to an embodiment of the present invention, the learning server 400 also stores an algorithm such as an object density prediction network of the abnormality object determining apparatus 100, and the learning server 400 uses the same as an original image corresponding to the error data. It is desirable to relearn.
이하, 본 발명의 실시예에 따른 이상 개체 판단 장치(100)가 이상 개체를 검출하는 방법을 설명한다.Hereinafter, a method of detecting an abnormal object by the abnormal object determining apparatus 100 according to an exemplary embodiment of the present invention will be described.
도 9는 본 발명의 실시예에 따른 이상 개체 판단 장치에 포함되는 이상 개체 검출부의 블록도이고, 도 10은 본 발명의 실시예에 따른 이상 개체 판단 장치의 이상 개체 검출 알고리즘을 설명하는 도면이고, 도 11은 학습용 서버에 의하여 재학습된 결과를 이용하여 본 발명의 실시예에 따른 이상 개체 판단 장치가 이상 개체를 검출하는 방법을 설명하는 도면이다. FIG. 9 is a block diagram of an abnormal object detecting unit included in the apparatus for determining an abnormal object according to an embodiment of the present invention. FIG. 10 is a diagram illustrating an algorithm for detecting an abnormal object of the apparatus for detecting an abnormal object according to an embodiment of the present invention. FIG. 11 is a diagram illustrating a method of detecting an abnormal object by the apparatus for determining an abnormal object according to an embodiment of the present invention, using the result of re-learning by the learning server.
도 9를 참조하면, 이상 개체 검출부(115)는 제1 특징 추출부(600), 제2 특징 추출부(602) 및 이상 개체 데이터 생성부(604)을 포함한다. Referring to FIG. 9, the abnormal object detector 115 may include a first feature extractor 600, a second feature extractor 602, and an abnormal object data generator 604.
제1 특징 추출부(600)는 촬영부에 의하여 촬영된 영상에 대한 영상 데이터 내 복수의 개체의 위치 분포를 추출하고, 제2 특징 추출부(602)는 영상 데이터 내 복수의 개체의 움직임을 추출한다. 그리고, 이상 개체 데이터 생성부(604)는 제1 특징 추출부(600)에 의하여 추출된 위치 분포 및 제2 특징 추출부(602)에 의하여 추출된 움직임에 기초하여 이상 개체 데이터, 예를 들어 픽셀 별 이상 개체 확률을 추정한다.The first feature extractor 600 extracts the position distribution of the plurality of objects in the image data of the image photographed by the photographing unit, and the second feature extractor 602 extracts the movement of the plurality of objects in the image data. do. The abnormal object data generator 604 may generate abnormal object data, for example, pixels, based on the position distribution extracted by the first feature extractor 600 and the movement extracted by the second feature extractor 602. Estimate the odds of a star anomaly.
구체적으로, 제1 특징 추출부(600)는 영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성할 수 있다. 여기서, 복수의 개체의 위치 분포는 위치 별 객체의 밀도 분포를 의미할 수 있으며, 위치 분포 데이터는 밀도 맵과 혼용될 수 있다. 전술한 바와 같이, 제1 특징 추출부(600)는 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 제안하도록 학습된 제1 알고리즘, 즉 영역 제안 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다. 제1 특징 추출부(600)는 예를 들면, 복수의 개체를 포함하여 생성된 제1영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성하고, 복수의 개체를 포함하여 생성된 제2영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성할 수 있다. 여기서, 제1 위치 분포 데이터 및 제2 위치 분포 데이터는 시계열적으로 생성된 영상 데이터에 대한 위치 분포 데이터일 수 있다. In detail, the first feature extractor 600 may generate position distribution data indicating the position distribution of the plurality of objects using the image data. Here, the location distribution of the plurality of objects may mean a density distribution of objects for each location, and the location distribution data may be mixed with the density map. As described above, the first feature extractor 600 may use a real-time object detection method using a first algorithm trained to suggest an area in which the object is located in the image data, that is, an area suggestion algorithm. The first feature extractor 600 generates first position distribution data indicating a position distribution of the plurality of objects by using the first image data generated by including the plurality of objects, for example, and includes the plurality of objects. Second position distribution data representing a position distribution of a plurality of objects may be generated using the second image data generated by the method. Here, the first position distribution data and the second position distribution data may be position distribution data of image data generated in time series.
본 발명의 실시예에서 위치 분포 데이터란, 개별 개체 위치를 표시하는 것이 아니라, 영상 데이터의 구분된 영역 또는 블록 별로 해당되는 영역 또는 블록에 개체, 몸통 또는 머리가 존재할 수 있는 확률을 나타내는 데이터이다. 위치 분포 데이터는 각 픽셀에 개체가 존재할 확률을 다른 색으로 표현하는 히트맵일 수 있다. In the exemplary embodiment of the present invention, the position distribution data does not indicate individual individual positions but is data indicating a probability that an individual, a trunk, or a head may exist in a region or block corresponding to each divided region or block of the image data. The position distribution data may be a heat map expressing a probability that an object exists in each pixel in a different color.
또한, 제1 특징 추출부(600)는 개체 검출 분류기를 이용하여 영상 데이터에서 동물 개체를 검출할 수 있다. 이때, 개체 검출 분류기는 동물 개체의 자세나 외부 환경을 달리하여 기촬영한 동물 개체의 영상들로부터 훈련 DB 를 구축하여 학습된 것으로서, 이러한 개체 검출 분류기는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 통해 동물 개체의 DB 를 생성한다. 구체적으로, 제1 특징 추출부(600)는 기 촬영된 사육장 내 배경의 영상 데이터에서 전경에 해당하는 개체의 에지를 검출하고, 영상 데이터에서 검출된 전경 개체의 에지를 적용하고, 전경 개체의 에지가 적용된 영상 데이터의 영역에 개체 검출 분류기를 적용하여 동물 개체를 검출할 수 있다.In addition, the first feature extractor 600 may detect an animal object from the image data using the object detection classifier. At this time, the object detection classifier is trained by constructing a training DB from images of animal objects photographed by different postures or external environments of the animal object. The object detection classifier is a SVM (Support Vector Machine), a neural network, and an AdaBoost algorithm. Create a database of animal subjects through various learning algorithms, including In detail, the first feature extractor 600 detects an edge of the object corresponding to the foreground from the image data of the background in the previously-generated kennel, applies an edge of the foreground object detected from the image data, and edges of the foreground object. Animal objects can be detected by applying the object detection classifier to the area of the image data to which is applied.
예를 들면, 제1 특징 추출부(600)는 촬영된 영상에서 개체를 검출하도록 학습될 수 있다. 제1 특징 추출부(600)는 컴퓨터로 읽을 수 있는 프로그램을 포함할 수 있다. 해당 프로그램은 컴퓨터에 의하여 실행될 수 있는 기록매체 또는 저장 장치에 저장될 수 있다. 컴퓨터 내의 프로세서는 기록매체 또는 저장 장치에 저장된 프로그램을 읽어 들이며, 프로그램, 즉 학습된 모델을 실행하여 입력 정보를 연산하고, 연산 결과를 출력할 수 있다. For example, the first feature extractor 600 may be trained to detect an object in the captured image. The first feature extractor 600 may include a computer readable program. The program may be stored in a recording medium or a storage device that can be executed by a computer. A processor in a computer may read a program stored in a recording medium or a storage device, execute a program, that is, a trained model, calculate input information, and output a calculation result.
제1 특징 추출부(600)의 입력은 사육장 내부를 촬영한 하나 또는 복수개의 영상 데이터일 수 있으며, 제1 특징 추출부(600)의 출력은 개체가 검출된 위치 분포 데이터일 수 있다. The input of the first feature extractor 600 may be one or a plurality of image data photographed inside the kennel, and the output of the first feature extractor 600 may be position distribution data from which an object is detected.
제1 특징 추출부(600)는 사육장 내부의 영상을 입력층으로 하여, 사육장 내부 영상과 개체간의 상관관계를 학습하고, 개체를 검출한 위치 분포 데이터가 출력층이 되도록 학습된 제1뉴럴 네트워크를 포함할 수 있다.The first feature extractor 600 includes a first neural network trained to learn the correlation between the interior image of the kennel and the individual, using the image of the interior of the kennel as an input layer, and to output the position distribution data of the object. can do.
제1뉴럴 네트워크는 영상 데이터상에서 개체가 위치하는 영역을 표시하도록 설계된 딥러닝 알고리즘의 한 예이다. 제1뉴럴 네트워크는 컨볼루션 네트워크(convolution network) 기반 학습 머신에 영상 데이터를 입력한 후, 개체가 위치한 영역이 구별되도록 표시되어 있는 위치 분포 데이터를 출력하는 알고리즘일 수 있다. 이때, 사육장 내부를 촬영한 영상 데이터는 제1뉴럴 네트워크의 입력층이 되고, 제1뉴럴 네트워크는 사육장 내부 영상 데이터와 개체간의 상관관계를 학습할 수 있다. 그리고, 제1뉴럴 네트워크의 출력층은 사육장 내부를 촬영한 영상 데이터상에서 개체가 위치한 영역이 구별되도록 표시된 위치 분포 데이터 일 수 있다.The first neural network is an example of a deep learning algorithm designed to display an area where an object is located on image data. The first neural network may be an algorithm for inputting image data to a convolution network-based learning machine and then outputting position distribution data in which an area where an object is located is distinguished. In this case, the image data photographed inside the kennel becomes an input layer of the first neural network, and the first neural network may learn the correlation between the kennel internal image data and the individual. The output layer of the first neural network may be position distribution data displayed to distinguish an area where an object is located on image data photographed inside the kennel.
제2 특징 추출부(602)는 영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성할 수 있다. 여기서, 동작 데이터는 개별 개체의 움직임을 표시하는 것이 아니라, 영상 데이터의 구분된 영역 또는 블록 별로 해당되는 영역 또는 블록에 움직임이 존재했는지 여부를 나타내는 데이터이고, 동작 데이터는 동작 맵과 혼용될 수 있다. 동작 데이터는 픽셀 별로 해당되는 픽셀에 움직임이 존재했는지 여부를 나타내는 데이터일 수도 있다. 전술한 바와 같이, 제2 특징 추출부(602)는 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘을 이용할 수 있다. 제2 특징 추출부(602)는 단일 영상 데이터 또는 복수개의 연속된 영상 데이터를 이용하여 분포도 상의 특정 지점, 특정 개체 또는 특정 픽셀에서의 움직임을 검출할 수 있다.The second feature extractor 602 may generate motion data indicating the movement of the motion object among the plurality of objects using the image data. Here, the motion data is not data indicating the movement of an individual object, but data indicating whether a motion exists in a corresponding area or block for each divided area or block of the image data, and the motion data may be mixed with the motion map. . The motion data may be data indicating whether a motion exists in a pixel corresponding to each pixel. As described above, the second feature extractor 602 may use a second algorithm trained to detect motion by using an optical flow. The second feature extractor 602 may detect movement at a specific point, a specific object, or a specific pixel on the distribution map by using single image data or a plurality of consecutive image data.
제2 특징 추출부(602)는 예를 들면, 제1영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성하고, 제2 영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 제2 동작 데이터를 생성할 수 있다. 여기서, 제1 동작 데이터 및 제2 동작 데이터는 시계열적으로 생성된 복수 개의 영상 데이터에 대한 동작 데이터일 수 있다.For example, the second feature extractor 602 generates first motion data indicating the movement of the motion object among the plurality of objects by using the first image data, and operates among the plurality of objects by using the second image data. Second motion data representing the movement of the object may be generated. Here, the first motion data and the second motion data may be motion data for a plurality of image data generated in time series.
제2 특징 추출부(602)는 Dense Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출부(602)는 영상 데이터 상의 모든 픽셀에 대해서 모션 벡터(Motion Vector)를 연산하여 각 픽셀에 대한 움직임을 검출할 수 있다. Dense Optical Flow방식의 경우 모든 픽셀에 대하여 모션 벡터를 연산하기 때문에 검출 정확도는 향상되지만 상대적으로 연산량은 증가하게 된다. 따라서, Dense Optical Flow방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다.The second feature extractor 602 may detect a movement of the moving object by using a dense optical flow method. The second feature extractor 602 may detect a motion of each pixel by calculating a motion vector for all pixels on the image data. In the case of the Dense Optical Flow method, since the motion vector is calculated for all pixels, the detection accuracy is improved, but the amount of computation is relatively increased. Therefore, the Dense Optical Flow method can be applied to a specific area where detection accuracy is very high, such as a kennel where an abnormal situation is suspected or a kennel with a large number of individuals.
또는 제2 특징 추출부(602)는 Sparse Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출부(602)는 영상 내 에지와 같은 움직임 추적이 쉬운 특징적인 일부 픽셀에 대해서만 모션 벡터를 연산하여 움직임을 검출할 수 있다. Sparse Optical Flow방식은 연산량이 감소하지만 한정적인 픽셀에 대한 결과만 얻을 수 있다. 따라서, Sparse Optical Flow방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extractor 602 may detect the movement of the moving object using a sparse optical flow method. The second feature extractor 602 may detect a motion by calculating a motion vector only on a part of a pixel that is easy to track a motion such as an edge in an image. The sparse optical flow method reduces the amount of computation, but only results for a limited number of pixels. Therefore, the sparse optical flow method may be applied to a kennel having a small number of individuals or to a specific area where the objects do not overlap.
또는 제2 특징 추출부(602)는 Block Matching을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출부(602)는 영상을 균등하게 또는 비균등하게 분할하여 분할 영역에 대해 모션 벡터를 연산하여 움직임을 검출할 수 있다. Block Matching은 분할 영역별로 모션 벡터를 연산하기 때문에 연산량이 감소하지만 영역별 모션 벡터에 대한 결과를 산출하기 때문에 검출 정확도가 상대적으로 낮을 수 있다. 따라서, Block Matching방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extractor 602 may detect movement of the moving object by using block matching. The second feature extractor 602 may divide the image evenly or unequally, calculate a motion vector for the divided region, and detect motion. Block Matching reduces the amount of computation because it calculates the motion vector for each partition, but it can have a relatively low detection accuracy because it calculates the results for the motion vector for each region. Accordingly, the block matching method may be applied to a kennel with a small number of individuals or to a specific area where the objects do not overlap.
또는 제2 특징 추출부(602)는 Continuous Frame Difference 방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출부(602)는 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Continuous Frame Difference 방식은 프레임간 차이값을 이용하여 움직임을 검출하기 때문에, 전체적인 연산량은 감소하지만 부피가 큰 개체 또는 중복되어 나타나는 개체에 대한 검출 정확도가 상대적으로 낮을 수 있다. 또한, Continuous Frame Difference 방식은 배경 영상과 움직이지 않는 개체를 구분할 수 없어 정확도가 상대적으로 낮을 수 있다. 따라서, Continuous Frame Difference 방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extractor 602 may detect the movement of the moving object by using a continuous frame difference method. The second feature extractor 602 may compare successive image frames for each pixel and calculate a value corresponding to the difference to detect motion. Since the Continuous Frame Difference method detects motion by using the difference between frames, the overall computational amount is reduced, but the detection accuracy of a large object or a duplicate object may be relatively low. In addition, the Continuous Frame Difference method can not distinguish between the background image and the moving object may have a relatively low accuracy. Therefore, the Continuous Frame Difference method may be applied to a kennel with a small number of objects or to a specific area where the objects do not overlap.
또는 제2 특징 추출부(602)는 Background Subtraction 방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출부(602)는 배경 영상을 초기에 학습한 상태에서 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Background Subtraction 방식은 배경 영상을 미리 학습하고 있기 때문에 배경 영상과 움직이지 않는 개체를 구분할 수 있다. 따라서, 배경 영상을 필터링하는 별도의 과정이 필요하여 연산량은 증가하지만 정확도는 향상된다. 따라서, Background Subtraction 방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다. Background Subtraction 방식에서 배경 영상은 지속적으로 업데이트 될 수 있다. Alternatively, the second feature extractor 602 may detect a movement of the moving object by using a background subtraction method. The second feature extractor 602 detects motion by comparing successive image frames for each pixel in a state where the background image is initially learned, and calculating values corresponding to the differences. The background subtraction method is to learn the background image in advance so that the background image can be distinguished from the moving object. Therefore, a separate process of filtering the background image is required, thereby increasing the amount of computation but improving the accuracy. Therefore, the Background Subtraction method can be applied to a specific area where detection accuracy is very high, such as a kennel where an abnormal situation is suspected or a kennel with a large number of individuals. In the Background Subtraction method, the background image can be updated continuously.
또는, 제2 특징 추출부(602)는 촬영된 영상에서 동작을 검출하도록 학습될 수 있다. 제2 특징 추출부(602)는 컴퓨터로 읽을 수 있는 프로그램을 포함할 수 있다. 해당 프로그램은 컴퓨터에 의하여 실행될 수 있는 기록매체 또는 저장 장치에 저장될 수 있다. 컴퓨터 내의 프로세서는 기록매체 또는 저장 장치에 저장된 프로그램을 읽어 들이며, 프로그램, 즉 학습된 모델을 실행하여 입력 정보를 연산하고, 연산 결과를 출력할 수 있다. Alternatively, the second feature extractor 602 may be trained to detect motion in the captured image. The second feature extractor 602 may include a computer readable program. The program may be stored in a recording medium or a storage device that can be executed by a computer. A processor in a computer may read a program stored in a recording medium or a storage device, execute a program, that is, a trained model, calculate input information, and output a calculation result.
제2 특징 추출부(602)의 입력은 사육장 내부를 촬영한 하나 또는 복수개의 영상 데이터일 수 있으며, 제2 특징 추출부(602)의 출력은 영상 데이터에서 검출된 동작 데이터일 수 있다. The input of the second feature extractor 602 may be one or a plurality of image data photographed inside the kennel, and the output of the second feature extractor 602 may be motion data detected from the image data.
제2 특징 추출부(602)는 사육장 내부의 영상을 입력층으로 하여, 사육장 내부 영상과 영상내의 움직임과의 상관관계를 학습하고, 검출된 움직임에 따른 동작 데이터가 출력층이 되도록 학습된 제2뉴럴 네트워크를 포함할 수 있다.The second feature extractor 602 learns a correlation between the inside of the kennel image and the movement in the image using the image inside the kennel as an input layer, and the second neural trained so that the motion data according to the detected movement is the output layer. It may include a network.
제2뉴럴 네트워크는 영상 데이터상에서 움직임이 존재하는 영역을 표시하도록 설계된 딥러닝 알고리즘의 한 예이다. 제2뉴럴 네트워크는 컨볼루션 네트워크(convolution network) 기반 학습 머신에 영상 데이터를 입력한 후, 움직임이 검출된 영역이 구별되도록 표시되어 있는 데이터를 출력하는 알고리즘일 수 있다. 이때, 사육장 내부를 촬영한 영상 데이터는 제2뉴럴 네트워크의 입력층이 되고, 제2뉴럴 네트워크는 사육장 내부 영상 데이터와 움직임간의 상관관계를 학습할 수 있다. 그리고, 제2뉴럴 네트워크의 출력층은 사육장 내부를 촬영한 영상 데이터상에서 움직임이 검출된 영역이 구별되도록 표시된 동작 데이터 일 수 있다.제2 특징 추출부(602)는 사육장 내의 환경과 외부의 설정에 따라 적절한 방식을 이용하여 분포도 상에서 움직임을 검출한다. 위의 움직임 검출 방식은 예시일 뿐, 프레임 내 움직임이 발생한 영역(예를들어 픽셀/블록)을 표시할 수 있는 방법들이 사용될 수 있다.The second neural network is an example of a deep learning algorithm designed to indicate an area in which motion exists in the image data. The second neural network may be an algorithm for inputting image data to a convolution network-based learning machine and then outputting data displayed to distinguish a region where a motion is detected. In this case, the image data photographed inside the kennel becomes the input layer of the second neural network, and the second neural network may learn the correlation between the kennel internal image data and the movement. In addition, the output layer of the second neural network may be motion data displayed to distinguish the area where the motion is detected from the image data photographing the interior of the kennel. The second feature extractor 602 may be configured according to an environment and an external setting in the kennel. Use appropriate methods to detect motion on the distribution map. The above motion detection method is just an example, and methods capable of displaying a region (for example, a pixel / block) in which a motion occurs in a frame may be used.
제1 특징 추출부(600)가 위치 분포 데이터를 생성하는 과정과 제2 특징 추출부(602)가 동작 데이터를 생성하는 과정은 동시에 이루어지거나, 병렬적으로 이루어지거나, 순차적으로 이루어질 수 있다. 즉, 제1 특징 추출부(600)가 위치 분포 데이터를 생성하는 과정과 제2 특징 추출부(602)가 동작 데이터를 생성하는 과정은 서로 독립적으로 처리됨을 의미할 수 있다. The process of generating position distribution data by the first feature extractor 600 and the process of generating motion data by the second feature extractor 602 may be performed simultaneously, in parallel, or sequentially. That is, the process of generating location distribution data by the first feature extractor 600 and the process of generating motion data by the second feature extractor 602 may be processed independently of each other.
이상 개체 데이터 생성부(604)는 영상 데이터의 위치 분포 데이터 및 동작 데이터를 영역 별, 블록 별 또는 픽셀 별로 비교하여 이상 개체를 나타내는 이상 개체 데이터를 영역 별, 블록 별 또는 픽셀 별로 생성할 수 있다. 이상 개체 데이터 생성부(604)는 예를 들면, 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체를 나타내는 제1이상 개체 데이터를 생성할 수 있다. 이상 개체 데이터 생성부(604)는 제1위치 분포 데이터와 제1동작 데이터를 비교하여, 제1위치 분포 데이터 상에서 움직임이 검출되지 않은 개체에 대한 정보를 나타내는 제1이상 개체 데이터를 생성할 수 있다. 즉, 이상 개체 데이터 생성부(604)는 개체의 위치를 나타내는 제1위치 분포 데이터 상에서 움직임이 검출되지 않은 개체를 질병에 걸린 것으로 추정하고, 이에 대한 제1이상 개체 데이터를 생성할 수 있다. 즉, 제1이상 개체 데이터는 단일 영상 데이터에 대한 개체의 위치 분포와 움직임 검출 정보를 이용하여 개체의 질병 여부를 판단한 결과 데이터를 의미할 수 있다. 또는 이상 개체 데이터 생성부(604)는 복수 개의 영상 데이터에 대한 위치 분포 데이터 및 동작 데이터를 비교하여 복수의 개체의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수를 연산하고, 상기 움직임 검출 누적 횟수와 상기 움직임 비검출 누적 횟수에 따라 이상 개체 데이터를 생성할 수 있다. 이상 개체 데이터 생성부(604)는 예를 들면, 제1이상 개체 데이터, 제2위치 분포 데이터 및 제2 동작 데이터를 비교하여 제2 이상 개체 데이터를 생성할 수 있다. 이상 개체 데이터 생성부(604)는 제1이상 개체 데이터를 제2위치 분포 데이터 및 제2동작 데이터와 비교하여 복수 개체의 움직임 검출 누적 횟수와 복수 개체의 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2이상 개체 데이터를 생성할 수 있다. 즉, 제2이상 개체 데이터는 복수 개의 영상 데이터에 대하여 누적된 개체의 위치 정보와 움직임 검출 정보를 이용하여 개체의 질병 여부를 판단한 결과 데이터를 의미할 수 있다.The abnormal object data generation unit 604 may generate the abnormal object data representing the abnormal object by region, block, or pixel by comparing position distribution data and motion data of the image data by region, block, or pixel. The abnormal object data generation unit 604 may generate, for example, first abnormal object data representing the abnormal object by comparing the first position distribution data and the first motion data. The abnormal object data generation unit 604 may generate first abnormal object data representing information on an object for which motion is not detected on the first position distribution data by comparing the first position distribution data with the first motion data. . That is, the abnormal object data generation unit 604 may estimate that the object has no disease detected on the first position distribution data indicating the position of the object, and generate the first abnormal object data. That is, the first abnormal object data may refer to data obtained by determining whether an object is a disease by using an object's position distribution and motion detection information for single image data. Alternatively, the abnormal object data generation unit 604 compares the position distribution data and the motion data of the plurality of image data to calculate the cumulative number of motion detection and non-detection motion of the plurality of objects, and calculates the cumulative number of motion detection and the number of motion detection. The abnormal object data may be generated according to the cumulative number of motion non-detections. The abnormal object data generation unit 604 may generate the second abnormal object data by comparing the first abnormal object data, the second position distribution data, and the second motion data, for example. The abnormal object data generation unit 604 compares the first abnormal object data with the second position distribution data and the second motion data to calculate the cumulative number of motion detection of the plurality of objects and the cumulative number of motion non-detection of the plurality of objects, and detect the motion. The second or more entity data may be generated according to the cumulative number of times and the motion non-detection cumulative number of times. That is, the second abnormal object data may mean data obtained by determining whether an object is a disease by using position information and motion detection information of the object accumulated with respect to the plurality of image data.
이상 개체 데이터 생성부(604)는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터 상에서 복수개의 개체에 대한 픽셀 표시를 제어할 수도 있다. 이상 개체 데이터 생성부(604)는 예를 들면, 제2이상 개체 데이터에 따라 영상 데이터 상에서 상기 복수개의 개체에 대한 픽셀 표시를 제어할 수 있다. 여기서, 픽셀의 표시란 픽셀의 채도, 픽셀의 명암, 픽셀의 색상, 픽셀의 윤곽선, 마크 표시 등 임의의 지점에 대응되는 픽셀을 다른 픽셀과 구분하여 표시하기 위한 모든 개념을 포함할 수 있다. 본 발명의 실시예에서는 픽셀값의 조절을 통하여 픽셀의 표시를 제어할 수 있다. 픽셀값은 단계적으로 조절될 수 있으며, 픽셀값이 높은 픽셀의 경우, 픽셀값이 낮은 픽셀 보다 시각적으로 강조되어 표시될 수 있다. 그러나 이에 한정되는 것은 아니고, 픽셀값이 낮은 픽셀이 픽셀값이 높은 픽셀보다 강조되어 표시되는 것으로 설정할 수 있다. 여기서, 픽셀값은 픽셀 별 이상 개체 확률을 의미할 수 있다.The abnormal object data generation unit 604 may control the pixel display of the plurality of objects on the image data according to the cumulative number of motion detection and non-movement accumulation of the abnormal object data. The abnormal object data generation unit 604 may control pixel display of the plurality of objects on the image data, for example, according to the second abnormal object data. Here, the display of the pixel may include all concepts for distinguishing and displaying a pixel corresponding to an arbitrary point from other pixels, such as the saturation of the pixel, the intensity of the pixel, the color of the pixel, the outline of the pixel, and the mark display. In the embodiment of the present invention, the display of the pixel may be controlled by adjusting the pixel value. The pixel value may be adjusted in stages, and in the case of a pixel having a high pixel value, the pixel value may be visually emphasized than a pixel having a low pixel value. However, the present invention is not limited thereto, and a pixel having a low pixel value may be set to be displayed to be highlighted than a pixel having a high pixel value. Herein, the pixel value may mean an abnormality probability of each pixel.
이하에서는 움직임이 검출된 픽셀과 개체를 동일시하여 설명하기 위하여 하나의 픽셀은 하나의 개체를 표현하는 것으로 한다. 이는 설명의 편의를 위한 것이며 실제로는 복수개의 픽셀이 하나의 개체를 표현하게 된다. 즉, 가금류의 일부 신체 영역의 움직임만을 검출하여 이상상황을 판단하기 위하여서는 픽셀별로 움직임을 검출하여 픽셀의 표시를 제어하는 방식이 사용될 것이다.In the following description, one pixel represents one object in order to identify and identify the pixel and the object in which the motion is detected. This is for convenience of description and in practice, a plurality of pixels represent one object. That is, in order to determine an abnormal situation by detecting only movement of some body regions of poultry, a method of controlling the display of pixels by detecting movement for each pixel will be used.
이상 개체 데이터 생성부(604)는 특정 개체의 움직임이 검출되지 않을수록 이상개체로 분류하고, 움직임이 검출될수록 정상개체로 분류하여 픽셀값을 다르게 표시할 수 있다.The abnormal object data generation unit 604 may classify the object as an abnormal object as the movement of the specific object is not detected, and classify the pixel as a normal object as the motion is detected.
여기서, 제1 특징 추출부(600), 제2 특징 추출부(602) 및 이상 개체 데이터 생성부(604) 각각은 학습용 서버(400)로부터 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보를 수신할 수 있고, 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보 각각은 제1 특징 추출부(600), 제2 특징 추출부(602) 및 이상 개체 데이터 생성부(604) 각각에 적용될 수 있다. 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보는 이상 개체 판단 장치(100)에 의하여 전송된 학습용 데이터를 학습한 결과, 학습용 서버(400)가 추출한 업데이트 정보일 수 있다. 여기서, 학습용 데이터는 이상 개체 판단 장치(100)가 획득한 영상 데이터의 일부 및 오류가 정정된 이상 개체 데이터의 일부를 포함할 수 있으며, 이는 이상 개체 판단 장치(100)가 이상 개체 검출용 알고리즘을 구동하여 얻은 이상 개체 데이터에 대한 관리자 단말(200)의 피드백 정보를 이용하여 얻어질 수 있다. 여기서, 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보 각각은 조정 가능한 매트릭스(adjustable matrix)를 포함할 수 있다. Here, each of the first feature extracting unit 600, the second feature extracting unit 602, and the abnormal object data generating unit 604 is the first update information, the second update information, and the third update information from the learning server 400. , And each of the first update information, the second update information, and the third update information may be provided to each of the first feature extractor 600, the second feature extractor 602, and the abnormal object data generator 604. Can be applied. The first update information, the second update information, and the third update information may be update information extracted by the learning server 400 as a result of learning the training data transmitted by the abnormality object determining apparatus 100. Here, the training data may include a part of the image data acquired by the abnormal object determining apparatus 100 and a part of the abnormal object data in which the error is corrected, which means that the abnormal object determining apparatus 100 uses the algorithm for detecting the abnormal object. It may be obtained using the feedback information of the manager terminal 200 with respect to the abnormal object data obtained by driving. Here, each of the first update information, the second update information, and the third update information may include an adjustable matrix.
도10을 참조하면, 먼저 n번째 영상 데이터를 획득한다. 여기서, 영상 데이터는, 예를 들어 W X H크기의 RGB데이터일 수 있다(S1101). 여기서, n번째 영상 데이터는 n번째 원본 데이터, n번째 원본 영상, n 번째 원본 영상 데이터 등과 혼용될 수 있다.Referring to FIG. 10, first, n-th image data is obtained. Here, the image data may be, for example, RGB data having a size of W X H (S1101). Here, the n th image data may be mixed with the n th original data, the n th original image, the n th original image data, and the like.
이상 개체 판단 장치(100)의 제어부(111), 예를 들어 제1 특징 추출부(600)는 n번째 영상 데이터에서 개체를 검출하여 n번째 영상 데이터에 대한 개체의 위치 분포 데이터를 생성한다(S1102). 여기서, 위치 분포 데이터는 영역 별, 블록 별, 또는 픽셀 별로 생성될 수 있으며, 제어부(111)는 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 제안하도록 학습된 제1 알고리즘을 이용할 수 있다. 여기서, 제1 알고리즘은, 전술한 바와 같이 객체가 존재하는 영역을 표시하는 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다, 또는, 제1 알고리즘은 객체의 분포 정보, 즉 객체가 위치하는 영역의 밀도 정보를 나타내는 방법을 이용할 수도 있다. 여기서, 위치 분포 데이터는 제1 밀도 맵일 수 있다. The controller 111 of the object determining apparatus 100, for example, the first feature extractor 600 detects an object from the nth image data and generates position distribution data of the object with respect to the nth image data (S1102). ). Here, the position distribution data may be generated for each region, for each block, or for each pixel, and the controller 111 may use the first algorithm trained to suggest a region in which the object is located in the image data. Here, the first algorithm may use a real-time object detection method using an algorithm indicating an area where an object exists as described above, or the first algorithm may include distribution information of an object, that is, an area of an area where an object is located. It is also possible to use a method of representing density information. Here, the position distribution data may be a first density map.
이하 설명에서는 영상 데이터의 픽셀 별 연산을 이용하여 이상 개체 데이터를 연산 또는 표시하는 방법을 설명한다. In the following description, a method of calculating or displaying anomalous object data using a pixel-by-pixel operation of image data will be described.
위치 분포 데이터에는 업데이트 파라미터 μ값이 적용된다. 또는 업데이트 파라미터 μ값과 오프셋 파라미터 ε값이 동시에 적용될 수도 있다. μ는 아주 작은 값으로 예를 들어 0.001일 수 있다. 즉, 위치 분포 데이터가 오랫 동안 누적이 되어야만 서서히 픽셀에 표시되도록 제어하는 것이다. offset parameter ε는 위치 분포 데이터의 누적을 조정하는 parameter로서 μ대비 1/10~1/100의 값을 가질 수 있다(S1103). The update parameter μ value is applied to the position distribution data. Alternatively, the update parameter μ value and the offset parameter ε value may be applied at the same time. μ is a very small value, for example 0.001. That is, the position distribution data is controlled to be gradually displayed on the pixels only after accumulating for a long time. The offset parameter ε is a parameter for adjusting the accumulation of the position distribution data and may have a value of 1/10 to 1/100 of μ (S1103).
이상 개체 판단 장치(100)의 제어부(111), 예를 들어 제2 특징 추출부(602)는 n-1번째 영상 데이터와 n번째 영상 데이터를 비교하여 n번째 영상 데이터에 대한 개체의 움직임을 검출한다. 이 때, n-1번째 영상 데이터는 래치회로 또는 버퍼회로에 저장되어 있을 수 있다. 이상 개체 판단 장치(100)의 제어부(111), 예를 들어 제2 특징 추출부(602)는 검출한 움직임에 따라 동작 데이터를 생성한다(S1104). 여기서, 동작 데이터는 동작 맵일 수 있다. 여기서, 동작 데이터는 영역 별, 블록 별 또는 픽셀 별로 생성될 수 있으며, 제어부(111)는 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘(motion detector)을 이용할 수 있다. 동작 데이터에는 업데이트 파라미터 κ가 적용될 수 있다. κ는 동작 데이터의 누적을 조정하는 파라미터이다(S1105). The controller 111 of the abnormality object determining apparatus 100, for example, the second feature extractor 602 detects the movement of the object with respect to the nth image data by comparing the n-1th image data with the nth image data. do. In this case, the n−1th image data may be stored in the latch circuit or the buffer circuit. The controller 111 of the abnormality object determining apparatus 100, for example, the second feature extracting unit 602, generates motion data according to the detected movement (S1104). Here, the motion data may be a motion map. Here, the motion data may be generated for each region, for each block, or for each pixel, and the controller 111 may use a second algorithm trained to detect motion by using an optical flow. The update parameter κ may be applied to the operation data. κ is a parameter for adjusting the accumulation of motion data (S1105).
이상 개체 판단 장치(100)의 제어부(111), 예를 들어 이상 개체 데이터 생성부(604)은 n번째 영상 데이터의 위치 분포 데이터에 n-1번째 이상 개체 데이터를 합하고(S1106), n번째 영상 데이터의 동작 데이터를 감하여 n번째 영상 데이터에 대한 이상 개체 데이터를 생성한다(S1107). 여기서, n번째 영상 데이터에 대한 이상 개체 데이터는 n번째 이상 개체 밀도 맵일 수 있다.The control unit 111 of the abnormal object determining apparatus 100, for example, the abnormal object data generating unit 604 adds the n-th or more object data to the position distribution data of the n-th image data (S1106), and the n-th image. The abnormal object data for the n-th image data is generated by subtracting the motion data of the data (S1107). Here, the abnormal object data for the nth image data may be an nth abnormal object density map.
본 발명의 실시예에 따른 이상 개체 판단 장치(100)는 S1101 내지 S1107과정을 반복하여 움직임이 검출된 개체의 색상은 연하게 또는 원본 색상에 가깝게 표시하고, 움직임이 누적하여 검출되지 않은 개체의 색상은 진하게 또는 빨간 색상에 가깝게 표시하도록 제어할 수 있다. The apparatus 100 for determining an abnormal object according to an exemplary embodiment of the present invention repeats steps S1101 to S1107 to display the color of the detected object lightly or close to the original color, and accumulates the color of the detected object. Can be controlled to display dark or close to red.
이후, n번째 이상 개체 데이터는 n번째 영상 데이터, 즉 n번째 원본 데이터 상에 정합될 수 있으며, n번째 원본 데이터 상에 n번째 이상 개체 데이터가 정합된 영상이 관리자 단말(200)에 표시될 수 있다. 즉, n번째 영상 내 이상 개체가 위치한 영역은 n번째 이상 개체 밀도 맵을 이용하여 마스킹될 수 있으며, 마스킹된 영상이 관리자 단말(200)에 표시될 수 있다. Thereafter, the n-th or more entity data may be matched on the n-th image data, that is, the n-th original data, and the image in which the n-th or more entity data is matched on the n-th original data may be displayed on the manager terminal 200. have. That is, the region where the abnormal object is located in the n-th image may be masked using the n-th or more object density map, and the masked image may be displayed on the manager terminal 200.
본 발명의 실시예에 따른 이상 개체 판단 장치(100)의 동작은 아래와 같은 수학식 1을 적용할 수 있다.The operation of the abnormality object determining apparatus 100 according to the exemplary embodiment of the present invention may apply the following Equation 1.
[수학식 1][Equation 1]
Pixelt=Pixelt-1(1-μ)+μWt-Ft Pixel t = Pixel t -1 (1-μ) + μW t -F t
수학식 1에서 μ는 업데이트 파라미터로 설정에 따라 변경될 수 있다. Μ in Equation 1 may be changed according to a setting as an update parameter.
수학식 1에서 Pixelt, Pixelt -1은 이상 개체 데이터로서, 이상 개체의 존재 여부를 픽셀에 표시하기 위한 값으로서 픽셀의 농도를 의미할 수 있다. 이상 개체가 존재할 확률이 높은 픽셀일수록 더 진한 색으로 표시할 수 있도록 하는 것이다. 예를 들어, 이상 개체가 존재할 확률이 없으면 원색(하얀색)으로 표시되고, 이상 개체가 존재할 확률이 높을수록 빨강색에 가깝게 표현하고, 이상 개체가 존재할 확률이 아주 높다고 판단되면 가장 진한 빨강색으로 표시되게 하는 것이다. 따라서, Pixelt, Pixelt -1은 0에서 1 사이의 값을 가지도록 설정할 수 있으며, 0에 가까울수록 원색(하얀색)에 가깝게 표시되고, 1에 가까울수록 빨강색으로 표시된다.In Equation 1, Pixel t and Pixel t −1 are abnormal object data and may indicate concentration of a pixel as a value for indicating whether a abnormal object exists in the pixel. The higher the probability that an abnormal object exists, the darker the color can be displayed. For example, if there is no probability of anomalies, it is displayed in primary color (white). The higher the probability of anomaly is expressed, the closer it is to red. To make it happen. Therefore, Pixel t and Pixel t −1 may be set to have a value between 0 and 1, and the closer to 0, the closer to the primary color (white), and the closer to 1, the red.
수학식 1에서 Pixelt - 1는 위치 분포 데이터 및 동작 데이터가 누적된 직전 프레임의 이상 개체 데이터다. 수학식 1에서 Pixelt는 현재 프레임의 위치분포 데이터와 동작 데이터를 적용하여 업데이트된 이상 개체 데이터다.In Equation 1, Pixel t - 1 is abnormal object data of a previous frame in which position distribution data and motion data are accumulated. In Equation 1, Pixel t is abnormal object data updated by applying position distribution data and motion data of the current frame.
수학식 1에서 Wt는 현재 프레임의 위치 분포 데이터일 수 있다. 위치 분포 데이터는 해당 픽셀에 개체가 존재하는지 확률로서 0에서 1 사이의 값을 가질 수 있다. 위치 분포 데이터에는 update parameter μ가 적용될 수 있다. μ는 아주 작은 값으로 예를 들어 0.001일 수 있다. 즉, 위치 분포 데이터가 오랫 동안 누적이 되어야만 서서히 픽셀에 표시되도록 제어하는 것이다. In Equation 1, W t may be position distribution data of a current frame. The position distribution data may have a value between 0 and 1 as a probability that an object exists in a corresponding pixel. The update parameter μ may be applied to the position distribution data. μ is a very small value, for example 0.001. That is, the position distribution data is controlled to be gradually displayed on the pixels only after accumulating for a long time.
수학식 1에서 Ft 는 현재 프레임의 동작 데이터일 수 있다. 동작 데이터는 모션 벡터의 절대값을 산출한 것으로서 0 이상의 값을 가질 수 있다. 모션 벡터의 크기는 개체의 속도에 대응되므로 1이상의 값을 가질 수 있다. 동작 데이터에는 별도의 파라미터를 반영하지 않아 해당 픽셀에서 동작이 검출된 경우에는 해당 픽셀의 표시는 초기화가 되도록 제어한다.In Equation 1, F t may be motion data of the current frame. The motion data is an absolute value of the motion vector and may have a value of 0 or more. Since the magnitude of the motion vector corresponds to the velocity of the object, it may have a value of 1 or more. Since a separate parameter is not reflected in the motion data, when the motion is detected in the pixel, the display of the pixel is controlled to be initialized.
또는 실시예에 따른 이상 개체 판단 장치의 동작은 아래와 같은 수학식 2를 적용할 수 있다.Alternatively, the operation of the abnormality object determining apparatus according to the embodiment may apply the following Equation 2.
[수학식 2][Equation 2]
Pixelt = Pixelt -1(1-μ+ ε) + μWt - Ft Pixel t = Pixel t -1 (1-μ + ε) + μW t -F t
※μ: update parameter, ε: offset parameter※ μ: update parameter, ε: offset parameter
수힉식2는 수학식1에서 offset parameter ε가 추가된 것으로 수학식1과 동일한 설명은 생략한다. offset parameter ε는 위치 분포 데이터의 누적을 조정하는 parameter로서 μ대비 1/10~1/100의 값을 가질 수 있다. In Equation 2, an offset parameter ε is added in Equation 1, and the same description as in Equation 1 is omitted. The offset parameter ε is a parameter for adjusting the accumulation of the position distribution data and may have a value of 1/10 to 1/100 of μ.
또는 실시예에 따른 이상 개체 판단 장치의 동작은 아래와 같은 수학식 3또는 수학식 4를 적용할 수 있다.Alternatively, the operation of the abnormality object determining apparatus according to the embodiment may apply the following Equation 3 or Equation 4.
[수학식 3][Equation 3]
Pixelt = Pixelt -1(1-μ) + μWt - κFt Pixel t = Pixel t -1 (1-μ) + μW t -κF t
[수학식 4][Equation 4]
Pixelt = Pixelt -1(1-μ+ ε) + μWt - κFt Pixel t = Pixel t -1 (1-μ + ε) + μW t -κF t
※μ: update parameter, ε: offset parameter, κ: update parameter※ μ: update parameter, ε: offset parameter, κ: update parameter
수학식3 또는 수학식4는 동작 데이터 Ft에 update parameter κ를 곱한 것으로서 수학식1 및 수학식2와 동일한 내용은 생략한다. constant κ는 동작 데이터의 누적을 조정하는 parameter이다.Equation 3 or 4 is a product of the operation data F t multiplied by the update parameter κ and the same content as in Equation 1 and Equation 2 is omitted. constant κ is a parameter that adjusts the accumulation of motion data.
또는 실시예에 따른 이상 개체 판단 장치의 동작은 아래와 같은 수학식 5를 적용할 수 있다.Alternatively, the operation of the abnormality object determining apparatus according to the embodiment may apply the following Equation 5.
[수학식 5][Equation 5]
max(수학식 1,2,3 또는4, 0)max (1, 2, 3, or 4, 0)
수학식5는 수학식1,2,3 또는 4의 값이 0 이하로 떨어지는 것을 방지하기 위한 수식이다. 예를들어 동작 데이터(Ft)의 크기가 다른 파라미터 값의 합보다 크게 되어, 수학식1,2,3 또는 4의 값이 0보다 작은 음수가 될 경우 이를 보정하여 0으로 표시될 수 있도록 보정하는 제어 방법이다.Equation 5 is an equation for preventing the value of Equations 1, 2, 3 or 4 from falling below zero. For example, the size of the motion data Ft is greater than the sum of other parameter values, and when the value of Equation 1, 2, 3 or 4 becomes a negative number less than 0, it is corrected to be displayed as 0. Control method.
여기서, S1101 내지 S1107과정 동안 학습용 서버(400)로부터 수신한 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보가 적용될 수 있다. 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보를 얻기 위하여, 본 발명의 실시예에 따른 이상 개체 판단 장치(100)는 학습용 데이터를 추출하여 학습용 서버(400)에 전송할 수 있다. 이때, 학습용 데이터는 이상 개체 판단 장치(100)가 획득한 영상 데이터의 일부를 포함할 수 있으며, 이는 이상 개체 판단 장치(100)가 이상 개체 검출을 위한 알고리즘을 구동하여 추출한 이상 개체 데이터에 대한 피드백 정보를 이용하여 얻어질 수 있다. 여기서, 피드백 정보는 관리자 단말(200)에 의하여 수정된 정보를 포함할 수 있다. Here, the first update information, the second update information, and the third update information received from the learning server 400 may be applied during the processes S1101 to S1107. In order to obtain the first update information, the second update information, and the third update information, the abnormality object determining apparatus 100 according to the embodiment of the present invention may extract the training data and transmit the training data to the training server 400. In this case, the training data may include a part of the image data acquired by the abnormal object determination apparatus 100, which is feedback from the abnormal object data extracted by the abnormal object determination apparatus 100 by driving an algorithm for detecting the abnormal object. Can be obtained using the information. Here, the feedback information may include information modified by the manager terminal 200.
더욱 구체적으로, 도 11(a)를 참조하면, 본 발명의 실시예에 따른 이상 개체 판단 장치(100)는 학습용 데이터를 추출하여 학습용 서버(400)에 전송할 수 있으며, 학습용 서버(400)는 이상 개체 판단 장치(100)로부터 수신한 학습용 데이터를 이용하여 객체 밀도 예측 네트워크를 재학습(retraining), 즉 업데이트할 수 있다. 여기서, 학습용 데이터는 오류가 있는 것으로 지시된 영상 데이터 및 오류가 정정된 이상 개체 데이터를 포함할 수 있다. 예를 들어, n 번째 프레임 내 일부 영역(806)에 이상 개체가 존재하지 않음에도 불구하고 이상 개체가 존재하는 것으로 검출된 경우, 학습용 데이터는 n번째 프레임의 영상 데이터 및 n번째 프레임의 이상 개체 데이터 중 일부 영역(806)의 오류가 정정된 이상 개체 데이터를 포함할 수 있다. 여기서, 오류가 정정된 이상 개체 데이터는 관리자 단말(200)에 의하여 개체의 밀도가 수정된 정보일 수 있으며, 이상 개체 판단 장치(100)가 추출한 영역 별, 블록 별 또는 픽셀 별 개체의 밀도 분포를 제1 밀도 맵이라 하는 경우, 관리자 단말(200)에 의하여 수정된 영역 별, 블록 별 또는 픽셀 별 개체의 밀도 분포는 제2 밀도 맵이라 지칭할 수 있다. 학습용 서버(400)는 학습용 서버(400) 내 객체 밀도 예측 네트워크의 출력 영상과 학습용 데이터에 포함된 오류가 정정된 영상, 즉 정답 영상을 비교하여 손실(loss)을 구하고, 해당 손실을 최소화 하도록 학습기(trainer)에서 객체 밀도 예측 network의 변수들(예를 들어, feature map 등)을 학습(보정)할 수 있다.More specifically, referring to FIG. 11A, the abnormality object determining apparatus 100 according to an exemplary embodiment of the present invention may extract training data and transmit the training data to the training server 400, wherein the training server 400 is abnormal. The object density prediction network may be retrained, that is, updated using the training data received from the object determining apparatus 100. Here, the training data may include image data indicated as having an error and abnormal object data in which the error is corrected. For example, when it is detected that the abnormal object exists even though the abnormal object does not exist in the partial region 806 in the n th frame, the training data is the image data of the n th frame and the abnormal object data of the n th frame. The abnormality of the partial region 806 may include the object data. Here, the abnormality object data having the error corrected may be information in which the density of the object is corrected by the manager terminal 200, and the density distribution of the object for each region, block, or pixel, extracted by the abnormal object determination apparatus 100, may be determined. In the case of a first density map, a density distribution of an object for each region, block, or pixel modified by the manager terminal 200 may be referred to as a second density map. The learning server 400 compares the output image of the object density prediction network in the learning server 400 with the error-corrected image included in the training data, that is, the correct answer image, to obtain a loss, and to minimize the loss. In the trainer, variables (eg, feature maps) of the object density prediction network can be learned (corrected).
이후, 도 11(b)를 참조하면, 이상 개체 판단 장치(100)의 제어부(111)는 위치 분포 데이터를 생성하는 단계, 즉 S1102에서, 학습용 서버(400)에 의하여 재학습된 객체 밀도 네트워크를 이용할 수 있다. 즉, 이상 개체 판단 장치(100)의 제어부(111)는 학습용 서버(400)로부터 학습용 데이터, 예를 들어 n번째 영상 및 제2 밀도 맵을 이용한 재학습에 의하여 얻어진 업데이트 정보를 이용하여 n번째 영상 이후의 소정 영상에 대한 이상 개체 밀도 맵을 출력할 수 있다. Subsequently, referring to FIG. 11B, the control unit 111 of the abnormality object determining apparatus 100 generates the position distribution data, that is, in step S1102, the object density network re-learned by the learning server 400. It is available. That is, the control unit 111 of the abnormality object determining apparatus 100 uses the learning data from the learning server 400, for example, the n-th image using update information obtained by re-learning using the n-th image and the second density map. The abnormal object density map for the subsequent predetermined image may be output.
도12는 본 발명의 실시예에 따른 이상 개체 판단 방법의 순서도이다.12 is a flowchart illustrating a method for determining an anomaly according to an embodiment of the present invention.
환경 파라미터 정보 수집부는 적어도 하나의 센서로부터 환경 파라미터 정보를 수집한다(S1201).The environmental parameter information collecting unit collects environmental parameter information from at least one sensor (S1201).
이상 개체 데이터 검출부는 복수 개체가 포함된 영상 데이터를 이용하여 위치 분포 데이터와 동작 데이터를 생성한다(S1202).The abnormal object data detector generates position distribution data and motion data using image data including a plurality of objects (S1202).
이상 개체 데이터 검출부는 위치 분포 데이터 및 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다(S1203).The abnormal object data detection unit compares the position distribution data and the motion data to generate abnormal object data indicating the abnormal object (S1203).
판단부는 환경 파라미터 정보 및 이상 개체 데이터를 이용하여 이상 개체 검출 적합도를 판단한다. 판단부는 동작 데이터를 이용하여 영상 데이터상에 검출된 움직임 값이 기 설정된 제1움직임 기준값 이상인 경우에는 환경 파라미터 정보와 상관없이 이상 개체 검출 적합도가 양호한 것으로 판단한다. 또는, 판단부는 동작 데이터를 이용하여 영상 데이터상에 검출된 움직임 값이 기 설정된 제2움직임 기준값 미만인 경우 환경 파라미터 정보와 상관없이 이상 개체 검출 적합도가 양호하지 않은 것으로 판단한다. 또는 판단부는 이상 개체 데이터를 이용하여 영상 데이터 전체 영역 중 기 설정된 영역 이상의 범위가 의심 영역으로 나타날 경우 환경 파라미터 정보와 상관없이 이상 개체 검출 적합도가 양호하지 않은 것으로 판단한다. 또는 판단부는 환경 파라미터 정보를 이용하여 각 환경 계측값이 각 계측 기준 범위를 벗어나는 경우 이상 개체 검출 적합도가 양호하지 않은 것으로 판단한다(S1204).The determination unit determines the abnormality object detection suitability using the environmental parameter information and the abnormal object data. If the motion value detected on the image data using the motion data is greater than or equal to the preset first motion reference value, the determination unit determines that the abnormality object detection suitability is good regardless of the environmental parameter information. Alternatively, when the motion value detected on the image data using the motion data is less than the preset second movement reference value, the determination unit determines that the abnormality object detection suitability is not good regardless of the environmental parameter information. Alternatively, the determination unit may determine that the abnormality object detection suitability is not good regardless of the environmental parameter information when the abnormality range of the preset area is displayed as a suspect region using the abnormal object data. Alternatively, the determination unit determines that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range using the environmental parameter information (S1204).
제어부는 이상 개체 검출 적합도가 양호한 것으로 판단된 경우 이상 개체 데이터를 관리자 단말기로 전송한다(S1205).If it is determined that the abnormality object detection suitability is good, the control unit transmits the abnormal object data to the manager terminal (S1205).
제어부는 이상 개체 검출 적합도가 양호하지 않은 것으로 판단되는 경우 사육장내의 환경 파라미터를 조절하기 위한 명령을 출력한다. 제어부는 이상 개체 검출 적합도가 양호하지 않은 것으로 판단되는 경우 사육장내의 온도 및 습도 중 적어도 하나의 환경 파라미터를 제어하기 위한 명령을 공조 장치로 출력한다(S1206). If it is determined that the abnormality of object detection suitability is not good, the controller outputs a command for adjusting environmental parameters in the kennel. If it is determined that the abnormality of object detection suitability is not good, the controller outputs a command for controlling at least one environmental parameter of temperature and humidity in the kennel to the air conditioning apparatus (S1206).
도13은 본 발명의 실시예에 따른 이상 개체 판단 장치의 구성 블록도이다. 13 is a block diagram of an apparatus for determining an anomaly according to an embodiment of the present invention.
도 13에 도시된 바와 같이, 하나의 사육장(10) 내에 복수의 촬상 장치(1000)가 배치될 수 있다. As illustrated in FIG. 13, a plurality of imaging apparatuses 1000 may be disposed in one kennel 10.
도 13을 참조하면, 이상 개체 판단 장치(1000)는 촬영부(1110), 제어부(1120), 통신부(1130), 환경 파라미터 정보 수집부(1140), 이상 개체 데이터 검출부(1150), 판단부(1160), 표시부(1170), 유저 인터페이스부(1180), 인코딩부(1190), 데이터 베이스(1200), 광원부(1210), 팬틸트부(1220), 학습 전처리부(1230)를 포함한다. 다만, 본 발명의 실시예에 따르면, 촬영부(1110), 표시부(1170), 유저 인터페이스부(1180), 광원부(1210) 및 팬틸트부(1220) 중 적어도 하나는 생략될 수도 있다. 여기서, 제어부(1110), 인코딩부(1190) 및 학습 전처리부(1230) 중 적어도 하나는 컴퓨터 프로세서 또는 칩에 의하여 구현될 수 있으며, 데이터베이스(1200)는 메모리와 혼용될 수 있고, 환경 파라미터 수집부(1140) 및 통신부(1130)는 안테나 또는 통신 프로세서 등과 혼용될 수 있다. Referring to FIG. 13, the abnormal object determining apparatus 1000 may include a photographing unit 1110, a controller 1120, a communication unit 1130, an environment parameter information collecting unit 1140, an abnormal object data detecting unit 1150, and a determining unit ( 1160, a display unit 1170, a user interface unit 1180, an encoding unit 1190, a database 1200, a light source unit 1210, a pan tilt unit 1220, and a learning preprocessor 1230. However, according to an exemplary embodiment of the present disclosure, at least one of the photographing unit 1110, the display unit 1170, the user interface unit 1180, the light source unit 1210, and the pan tilt unit 1220 may be omitted. Here, at least one of the controller 1110, the encoder 1190, and the learning preprocessor 1230 may be implemented by a computer processor or a chip, and the database 1200 may be mixed with a memory and an environment parameter collector. The 1140 and the communication unit 1130 may be mixed with an antenna or a communication processor.
도13의 실시예에 따른 이상 개체 판단 장치는 도4 내지 도11의 실시예에 따른 이상 개체 판단 장치와 동일한 기능을 수행할 수 있으며, 중복되는 설명은 생략하기로 한다.The apparatus for determining an abnormality according to the embodiment of FIG. 13 may perform the same function as the apparatus for determining an abnormality according to the embodiment of FIGS. 4 to 11, and description thereof will be omitted.
도13에 따른 실시예에서, 판단부(1110)는 이상 개체 검출 적합도를 위한 최적 환경 파라미터를 도출할 수 있다.In the embodiment of FIG. 13, the determination unit 1110 may derive an optimal environment parameter for anomaly detection suitability.
판단부(1110)는 사육장내 개체의 일령에 따라 환경 파라미터를 도출할 수 있다. 판단부(1110)는 각 환경 계측 값이 각 계측 기준 범위를 벗어나는 경우 계측 기준 범위에 상응하도록 온도 및 습도 중 적어도 하나의 값을 제어하기 위한 환경 파라미터를 도출할 수 있다. 예를 들면, 판단부(1110)는 사육장 내의 온도가 첫 일주일 동안 32 내지 35℃로 유지되고, 그 이후 일주일에 약 3℃씩 온도를 낮추어 주어 21~24일령에 최종온도가 21 내지 22℃에 도달하도록 최적 환경 파라미터를 도출할 수 있다. 이 때, 판단부는 상대습도가 70 내지 80% 사이에서 유지되도록 최적 환경 파라미터를 도출할 수 있다.The determination unit 1110 may derive the environmental parameter according to the age of the individual in the kennel. The determination unit 1110 may derive an environmental parameter for controlling at least one of temperature and humidity so as to correspond to the measurement reference range when each environment measurement value is out of each measurement reference range. For example, the judging unit 1110 maintains the temperature in the kennel at 32 to 35 ° C. for the first week, and then lowers the temperature by about 3 ° C. per week thereafter, so that the final temperature is 21 to 22 ° C. at 21 to 24 days of age. Optimum environmental parameters can be derived to reach. At this time, the determination unit may derive an optimal environmental parameter so that the relative humidity is maintained between 70 to 80%.
또는 판단부(1110)는 영상 데이터상에 검출된 움직임 값이 기 설정된 제2움직임 기준값 미만인 경우 온도 및 습도 중 적어도 하나의 환경 파라미터를 감소시키기 위한 최적 환경 파라미터를 도출할 수 있다. 고온 다습 환경하에서 가금류는 체내 열생산을 줄이기 위하여 활동성은 줄어들게 되고 사료 섭취량이 감소된다. 따라서, 판단부(1110)는 사육장내 온도 및 습도 중 적어도 하나를 감소시키기 위한 최적 환경 파라미터를 도출함으로써 개체의 움직임 값을 증가시켜 이상 검출 환경에 적합한 환경을 조성할 수 있다.Alternatively, the determination unit 1110 may derive an optimal environmental parameter for reducing at least one environmental parameter of temperature and humidity when the motion value detected on the image data is less than the preset second movement reference value. Under high temperature and humidity conditions, poultry is less active and reduces feed intake to reduce body heat production. Therefore, the determination unit 1110 may create an environment suitable for the abnormal detection environment by increasing the movement value of the individual by deriving an optimal environmental parameter for reducing at least one of temperature and humidity in the kennel.
또는 판단부(1110)는 이상 개체 데이터를 이용하여 영상 데이터 전체 영역 중 기 설정된 영역 이상의 범위가 의심 영역으로 나타날 경우 온도 및 습도 중 적어도 하나의 환경 파라미터를 감소시키기 위한 최적 환경 파라미터를 도출할 수 있다. 의심 영역의 범위가 기 설정된 영역 이상의 범위로 나타나는 것은 정상적인 환경과 비교하여 개체의 활동성이 줄어들었다는 것을 의미한다. 따라서, 판단부(1110)는 사육장내 온도 및 습도 중 적어도 하나를 감소시키기 위한 최적 환경 파라미터를 도출함으로써 개체의 움직임 값을 증가시켜 이상 검출 환경에 적합한 환경을 조성할 수 있다.Alternatively, the determination unit 1110 may derive an optimal environmental parameter for reducing at least one environmental parameter of temperature and humidity when an abnormal range of a predetermined area is displayed as a suspect area using the abnormal object data. . If the range of the suspect area is beyond the preset range, it means that the individual's activity is reduced compared to the normal environment. Therefore, the determination unit 1110 may create an environment suitable for the abnormal detection environment by increasing the movement value of the individual by deriving an optimal environmental parameter for reducing at least one of temperature and humidity in the kennel.
제어부(1120)는 최적 환경 파라미터에 따라 사육장내의 환경 파라미터를 조절할 수 있다. 제어부(1120)는 사육장내의 온도 및 습도 중 적어도 하나의 환경 파라미터가 최적 환경 파라미터를 추종할 수 있도록 제어 명령을 출력하여 공조 장치로 출력할 수 있다. The controller 1120 may adjust the environment parameters in the kennel according to the optimum environment parameters. The controller 1120 may output a control command to the air conditioner so that at least one environmental parameter of the temperature and humidity in the kennel can follow the optimal environmental parameter.
도14는 본 발명의 실시예에 따른 이상 개체 판단 방법의 동작 순서도이다.14 is a flowchart illustrating an abnormal object determination method according to an exemplary embodiment of the present invention.
환경 파라미터 정보 수집부는 적어도 하나의 센서로부터 환경 파라미터 정보를 수집한다(S1401).The environmental parameter information collecting unit collects environmental parameter information from at least one sensor (S1401).
이상 개체 데이터 검출부는 복수 개체가 포함된 영상 데이터를 이용하여 위치 분포 데이터와 동작 데이터를 생성한다(S1402).The abnormal object data detector generates position distribution data and motion data using image data including a plurality of objects (S1402).
이상 개체 데이터 검출부는 위치 분포 데이터 및 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다(S1403).The abnormal object data detection unit compares the position distribution data and the motion data to generate abnormal object data indicating the abnormal object (S1403).
판단부는 환경 파라미터 정보 및 이상 개체 데이터를 이용하여 이상 개체 검출 적합도를 판단한다. 판단부는 동작 데이터를 이용하여 영상 데이터상에 검출된 움직임 값이 기 설정된 제1움직임 기준값 이상인 경우에는 환경 파라미터 정보와 상관없이 이상 개체 검출 적합도가 양호한 것으로 판단한다. 또는, 판단부는 동작 데이터를 이용하여 영상 데이터상에 검출된 움직임 값이 기 설정된 제2움직임 기준값 미만인 경우 환경 파라미터 정보와 상관없이 이상 개체 검출 적합도가 양호하지 않은 것으로 판단한다. 또는 판단부는 이상 개체 데이터를 이용하여 영상 데이터 전체 영역 중 기 설정된 영역 이상의 범위가 의심 영역으로 나타날 경우 환경 파라미터 정보와 상관없이 이상 개체 검출 적합도가 양호하지 않은 것으로 판단한다. 또는 판단부는 환경 파라미터 정보를 이용하여 각 환경 계측값이 각 계측 기준 범위를 벗어나는 경우 이상 개체 검출 적합도가 양호하지 않은 것으로 판단한다(S1404).The determination unit determines the abnormality object detection suitability using the environmental parameter information and the abnormal object data. If the motion value detected on the image data using the motion data is greater than or equal to the preset first motion reference value, the determination unit determines that the abnormality object detection suitability is good regardless of the environmental parameter information. Alternatively, when the motion value detected on the image data using the motion data is less than the preset second movement reference value, the determination unit determines that the abnormality object detection suitability is not good regardless of the environmental parameter information. Alternatively, the determination unit may determine that the abnormality object detection suitability is not good regardless of the environmental parameter information when the abnormality range of the preset area is displayed as a suspect region using the abnormal object data. Alternatively, the determination unit determines that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range using the environmental parameter information (S1404).
제어부는 이상 개체 검출 적합도가 양호한 것으로 판단된 경우 이상 검출 데이터를 관리자 단말기로 전송한다(S1405).If it is determined that the abnormality object detection suitability is good, the control unit transmits the abnormality detection data to the manager terminal (S1405).
판단부는 이상 개체 검출 적합도가 양호하지 않은 것으로 판단되는 경우, 이상 개체 검출 적합도를 위한 최적 환경 파라미터를 도출한다. 판단부는 각 환경 계측 값이 각 계측 기준 범위를 벗어나는 경우 계측 기준 범위에 상응하도록 온도 및 습도 중 적어도 하나의 값을 제어하기 위한 최적 환경 파라미터를 도출한다. 또는 판단부는 영상 데이터상에 검출된 움직임 값이 기 설정된 제2움직임 기준값 미만인 경우 온도 및 습도 중 적어도 하나의 환경 파라미터를 감소시키기 위한 최적 환경 파라미터를 도출한다. 또는 제어부는 이상 개체 데이터를 이용하여 영상 데이터 전체 영역 중 기 설정된 영역 이상의 범위가 의심 영역으로 나타날 경우 온도 및 습도 중 적어도 하나의 환경 파라미터를 감소시키기 위한 최적 환경 파라미터를 도출한다(S1406).If it is determined that the abnormality detection suitability is not good, the determination unit derives an optimal environmental parameter for the abnormality detection suitability. The determination unit derives an optimal environmental parameter for controlling at least one of temperature and humidity so as to correspond to the measurement reference range when each environment measurement value is out of each measurement reference range. Alternatively, the determination unit derives an optimal environmental parameter for reducing at least one environmental parameter of temperature and humidity when the motion value detected on the image data is less than the preset second movement reference value. Alternatively, the controller derives an optimal environmental parameter for reducing at least one environmental parameter of temperature and humidity when the range of the predetermined area or more of the entire area of the image data appears as a suspect area using the abnormal object data (S1406).
제어부는 최적 환경 파라미터에 따라 사육장내의 환경 파라미터를 조절한다. 제어부는 사육장내의 온도 및 습도 중 적어도 하나의 환경 파라미터가 최적 환경 파라미터를 추종할 수 있도록 제어 명령을 출력하여 공조 장치로 출력한다(S1407). The control unit adjusts the environmental parameters in the kennel according to the optimum environmental parameters. The controller outputs a control command to the air conditioner so that at least one environmental parameter of the temperature and humidity in the kennel can follow the optimal environmental parameter (S1407).
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 개체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~ part' used in the present embodiment refers to software or a hardware component such as a field-programmable gate array (FPGA) or an ASIC, and '~ part' performs certain roles. However, '~' is not meant to be limited to software or hardware. '~ Portion' may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, '~' means components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and the like. Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within the components and the 'parts' may be combined into a smaller number of components and the 'parts' or further separated into additional components and the 'parts'. In addition, the components and '~' may be implemented to play one or more CPUs in the device or secure multimedia card.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to a preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below I can understand that you can.

Claims (22)

  1. 적어도 하나의 센서로부터 환경 파라미터 정보를 수집하는 환경 파라미터 정보 수집부;An environment parameter information collector configured to collect environment parameter information from at least one sensor;
    복수 개체가 포함된 영상 데이터를 이용하여 이상 개체 데이터를 검출하는 이상 개체 데이터 검출부;An abnormal object data detector for detecting abnormal object data using image data including a plurality of objects;
    상기 환경 파라미터 정보 및 상기 이상 개체 데이터를 이용하여 이상 개체 검출 적합도를 판단하는 판단부; 및A determination unit to determine an ideal object detection suitability using the environment parameter information and the abnormal object data; And
    상기 이상 개체 검출 적합도에 따라 상기 환경 파라미터를 조절하는 제어부를 포함하는 이상 개체 판단 장치. And a controller for adjusting the environmental parameter according to the abnormality detection suitability.
  2. 제1항에 있어서,The method of claim 1,
    상기 이상 개체 데이터 검출부는 The abnormal object data detection unit
    상기 영상 데이터 내 상기 복수 개체의 존재 확률을 추출하는 제1 특징 추출부 및A first feature extractor configured to extract a probability of existence of the plurality of objects in the image data;
    상기 영상 데이터 내 상기 복수 개체의 움직임을 추출하는 제2 특징 추출부를 포함하는 이상 개체 판단 장치. And a second feature extractor configured to extract motions of the plurality of objects in the image data.
  3. 제2항에 있어서,The method of claim 2,
    상기 판단부는 상기 움직임 값이 기 설정된 제1움직임 기준값 이상인 경우 상기 이상 개체 검출 적합도가 양호한 것으로 판단하는 이상 개체 판단 장치.And the determination unit determines that the abnormality object detection suitability is good when the motion value is equal to or greater than a preset first movement reference value.
  4. 제2항에 있어서,The method of claim 2,
    상기 판단부는 상기 환경 파라미터 정보를 이용하여 각 환경 계측값이 각 계측 기준 범위를 벗어나는 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단하는 이상 개체 판단 장치. And the determination unit determines that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range using the environment parameter information.
  5. 제2항에 있어서,The method of claim 2,
    상기 판단부는 상기 움직임 값이 기 설정된 제2움직임 기준값 미만인 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단하는 이상 개체 판단 장치.And the determining unit determines that the abnormality object detection suitability is not good when the motion value is less than the second preset movement reference value.
  6. 제5항에 있어서,The method of claim 5,
    상기 판단부는 상기 이상 개체 데이터를 이용하여 상기 영상 데이터 전체 영역 중 기 설정된 영역 이상의 범위가 의심 영역으로 나타날 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단하는 이상 개체 판단 장치.And the determining unit determines that the abnormality object detection suitability is not good when the range of the predetermined area abnormality in the entire area of the image data is indicated as a suspect area by using the abnormal object data.
  7. 제1항에 있어서,The method of claim 1,
    상기 판단부는 상기 영상 데이터로부터 검출된 동작 데이터를 입력층으로 하여, 상기 동작 데이터와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 동작 데이터에 나타난 움직임값에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함하는 이상 개체 판단 장치.The determination unit learns a correlation between the motion data and the abnormality object detection fitness using the motion data detected from the image data as an input layer and calculates the abnormality object detection fitness degree calculated according to the motion value indicated in the motion data. An apparatus for determining an anomaly including a neural network learned to be an output layer.
  8. 제1항에 있어서,The method of claim 1,
    상기 판단부는 상기 영상 데이터로부터 검출된 이상 개체 데이터를 입력층으로 하여, 상기 이상 개체 데이터와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 이상 개체 데이터에 나타난 이상 개체 검출 영역에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함하는 이상 개체 판단 장치.The determining unit learns a correlation between the abnormal object data and the abnormal object detection suitability using the abnormal object data detected from the image data as an input layer, and is calculated according to the abnormal object detection region shown in the abnormal object data. An abnormal object determination apparatus including a neural network trained so that the abnormal object detection suitability becomes an output layer.
  9. 제1항에 있어서,The method of claim 1,
    상기 판단부는 상기 환경 파라미터 정보를 입력층으로 하여, 상기 환경 파라미터 정보와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 환경 파라미터 정보에 나타난 환경 계측값에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함하는 이상 개체 판단 장치.The determination unit learns a correlation between the environmental parameter information and the abnormality object detection suitability using the environmental parameter information as an input layer, and outputs the abnormality object detection suitability calculated according to the environmental measurement value indicated in the environmental parameter information. An apparatus for determining anomaly including a neural network learned to be.
  10. 제1항에 있어서,The method of claim 1,
    상기 제어부는 이상 개체 검출 적합도에 따라 상기 사육장내의 환경 파라미터를 제어하기 위한 명령을 출력하는 이상 개체 판단 장치.And the controller outputs a command for controlling an environmental parameter in the kennel in accordance with the suitability for detecting the abnormal object.
  11. 적어도 하나의 센서로부터 환경 파라미터 정보를 수집하는 환경 파라미터 정보 수집부;An environment parameter information collector configured to collect environment parameter information from at least one sensor;
    복수 개체가 포함된 영상 데이터를 이용하여 이상 개체 데이터를 검출하는 이상 개체 데이터 검출부; 및An abnormal object data detector for detecting abnormal object data using image data including a plurality of objects; And
    상기 환경 파라미터 정보 및 상기 이상 개체 데이터를 이용하여 이상 개체 검출 적합도를 판단하는 판단부를 포함하고,Determination unit for determining the abnormality object detection suitability using the environment parameter information and the abnormal object data,
    상기 판단부는 이상 개체 검출 적합도를 위한 최적 환경 파라미터를 도출하는 이상 개체 판단 장치.And the determination unit derives an optimal environment parameter for anomaly detection accuracy.
  12. 제11항에 있어서,The method of claim 11,
    상기 이상 개체 데이터 검출부는 The abnormal object data detection unit
    상기 영상 데이터 내 상기 복수 개체의 존재 확률을 추출하는 제1 특징 추출부 및A first feature extractor configured to extract the existence probability of the plurality of objects in the image data;
    상기 영상 데이터 내 상기 복수 개체의 움직임을 추출하는 제2 특징 추출부를 포함하는 이상 개체 판단 장치. And a second feature extractor configured to extract motions of the plurality of objects in the image data.
  13. 제12항에 있어서,The method of claim 12,
    상기 판단부는 상기 움직임 값이 기 설정된 제1움직임 기준값 이상인 경우 상기 이상 개체 검출 적합도가 양호한 것으로 판단하는 이상 개체 판단 장치.And the determination unit determines that the abnormality object detection suitability is good when the motion value is equal to or greater than a preset first movement reference value.
  14. 제12항에 있어서,The method of claim 12,
    상기 판단부는 상기 환경 파라미터 정보를 이용하여 각 환경 계측값이 각 계측 기준 범위를 벗어나는 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단하는 이상 개체 판단 장치.And the determination unit determines that the abnormality object detection suitability is not good when each environmental measurement value is out of each measurement reference range by using the environmental parameter information.
  15. 제12항에 있어서,The method of claim 12,
    상기 판단부는 상기 움직임 값이 기 설정된 제2움직임 기준값 미만인 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단하는 이상 개체 판단 장치.And the determination unit determines that the abnormality object detection suitability is not good when the motion value is less than the second predetermined movement reference value.
  16. 제11항에 있어서,The method of claim 11,
    상기 판단부는 상기 이상 개체 데이터를 이용하여 상기 영상 데이터 전체 영역 중 기 설정된 영역 이상의 범위가 질병 의심 영역으로 나타날 경우 상기 이상 개체 검출 적합도가 양호하지 않은 것으로 판단하는 이상 개체 판단 장치.And the determining unit determines that the abnormal object detection suitability is not good when the range of the predetermined area abnormality in the entire area of the image data is indicated as a disease suspect area by using the abnormal object data.
  17. 제11항에 있어서,The method of claim 11,
    상기 판단부는 The determination unit
    상기 판단부는 상기 영상 데이터로부터 검출된 동작 데이터를 입력층으로 하여, 상기 동작 데이터와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 동작 데이터에 나타난 움직임값에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함하는 이상 개체 판단 장치.The determination unit learns a correlation between the motion data and the abnormality object detection fitness using the motion data detected from the image data as an input layer and calculates the abnormality object detection fitness degree calculated according to the motion value indicated in the motion data. An apparatus for determining an anomaly including a neural network learned to be an output layer.
  18. 제11항에 있어서,The method of claim 11,
    상기 판단부는 상기 영상 데이터로부터 검출된 이상 개체 데이터를 입력층으로 하여, 상기 이상 개체 데이터와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 이상 개체 데이터에 나타난 이상 개체 검출 영역에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함하는 이상 개체 판단 장치.The determining unit learns a correlation between the abnormal object data and the abnormal object detection suitability using the abnormal object data detected from the image data as an input layer, and is calculated according to the abnormal object detection region shown in the abnormal object data. An abnormal object determination apparatus including a neural network trained so that the abnormal object detection suitability becomes an output layer.
  19. 제11항에 있어서,The method of claim 11,
    상기 판단부는 상기 환경 파라미터 정보를 입력층으로 하여, 상기 환경 파라미터 정보와 상기 이상 개체 검출 적합도간의 상관관계를 학습하고, 상기 환경 파라미터 정보에 나타난 환경 계측값에 따라 산출되는 상기 이상 개체 검출 적합도가 출력층이 되도록 학습된 뉴럴 네트워크를 포함하는 이상 개체 판단 장치.The determination unit learns a correlation between the environmental parameter information and the abnormality object detection suitability using the environmental parameter information as an input layer, and outputs the abnormality object detection suitability calculated according to the environmental measurement value indicated in the environmental parameter information. An apparatus for determining anomaly including a neural network learned to be.
  20. 제11항에 있어서,The method of claim 11,
    상기 최적 환경 파라미터에 따라 상기 사육장내의 환경 파라미터를 제어하기 위한 명령을 출력하는 제어부를 더 포함하는 이상 개체 판단 장치.And a controller for outputting a command for controlling an environment parameter in the kennel according to the optimum environment parameter.
  21. 적어도 하나의 센서로부터 환경 파라미터 정보를 수집하는 단계;Collecting environmental parameter information from at least one sensor;
    복수 개체가 포함된 영상 데이터를 이용하여 이상 개체 데이터를 검출하는 단계;Detecting abnormal object data using image data including a plurality of objects;
    상기 환경 파라미터 정보 및 상기 이상 개체 데이터를 이용하여 이상 개체 검출 적합도를 판단하는 단계; 및Determining an anomaly detection accuracy using the environment parameter information and the anomaly entity data; And
    상기 이상 개체 검출 적합도에 따라 상기 환경 파라미터를 조절하는 단계를 포함하는 이상 개체 판단 방법. And adjusting the environment parameter according to the abnormality detection suitability.
  22. 적어도 하나의 센서로부터 환경 파라미터 정보를 수집하는 단계;Collecting environmental parameter information from at least one sensor;
    복수 개체가 포함된 영상 데이터를 이용하여 이상 개체 데이터를 검출하는 단계; 및Detecting abnormal object data using image data including a plurality of objects; And
    상기 환경 파라미터 정보 및 상기 이상 개체 데이터를 이용하여 이상 개체 검출 적합도를 판단하는 단계를 포함하고,Determining suitability for detecting an abnormal object by using the environment parameter information and the abnormal object data,
    상기 이상 개체 검출 적합도를 위한 최적 환경 파라미터를 도출하는 단계를 포함하는 이상 개체 판단 방법.And deriving an optimal environment parameter for the abnormality detection fitness.
PCT/KR2019/006506 2018-06-07 2019-05-30 Device and method for determining abnormal object WO2019235776A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0065468 2018-06-07
KR1020180065468A KR102615986B1 (en) 2018-06-07 2018-06-07 Apparatus and method for determining abnormal object

Publications (1)

Publication Number Publication Date
WO2019235776A1 true WO2019235776A1 (en) 2019-12-12

Family

ID=68770504

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/006506 WO2019235776A1 (en) 2018-06-07 2019-05-30 Device and method for determining abnormal object

Country Status (2)

Country Link
KR (1) KR102615986B1 (en)
WO (1) WO2019235776A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111597970A (en) * 2020-05-14 2020-08-28 中国银行股份有限公司 Abnormal behavior identification method and device
CN113095340A (en) * 2019-12-23 2021-07-09 神讯电脑(昆山)有限公司 Abnormity early warning method for production machine and mass production method for objects
CN113807127A (en) * 2020-06-12 2021-12-17 杭州海康威视数字技术股份有限公司 Personnel archiving method and device and electronic equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102337219B1 (en) * 2021-08-04 2021-12-09 (주)네오딘바이오벳 System for diagnosis of infectious disease and quarantine management for facility

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150014616A (en) * 2013-07-30 2015-02-09 주식회사 유코리아 Web and mobile management system for management of temperature estimate/ index of cattle shed environment based on Ubiquitous Sensor Network
KR101584604B1 (en) * 2014-04-25 2016-01-21 (주)야긴스텍 Disease decoding system by analyzing the quantity of motion of livestock
US20160120144A1 (en) * 2014-10-30 2016-05-05 Electronics And Telecommunications Research Institute Livestock house management system and management method thereof
WO2016181604A1 (en) * 2015-05-12 2016-11-17 ソニー株式会社 Livestock management system, sensor device, and method for estimating status of livestock
KR20180051785A (en) * 2016-11-09 2018-05-17 건국대학교 산학협력단 Livestock monitoring system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101098867B1 (en) * 2009-06-22 2011-12-26 순천대학교 산학협력단 System for providing stable management and method therefor
KR20160078089A (en) * 2014-12-24 2016-07-04 고려대학교 산학협력단 Detection method for abnormal object on farm, managing method and system for the same
KR20170028571A (en) * 2015-09-04 2017-03-14 경상대학교산학협력단 Apparatus and method for detecting abnormal domestic annimal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150014616A (en) * 2013-07-30 2015-02-09 주식회사 유코리아 Web and mobile management system for management of temperature estimate/ index of cattle shed environment based on Ubiquitous Sensor Network
KR101584604B1 (en) * 2014-04-25 2016-01-21 (주)야긴스텍 Disease decoding system by analyzing the quantity of motion of livestock
US20160120144A1 (en) * 2014-10-30 2016-05-05 Electronics And Telecommunications Research Institute Livestock house management system and management method thereof
WO2016181604A1 (en) * 2015-05-12 2016-11-17 ソニー株式会社 Livestock management system, sensor device, and method for estimating status of livestock
KR20180051785A (en) * 2016-11-09 2018-05-17 건국대학교 산학협력단 Livestock monitoring system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113095340A (en) * 2019-12-23 2021-07-09 神讯电脑(昆山)有限公司 Abnormity early warning method for production machine and mass production method for objects
CN113095340B (en) * 2019-12-23 2024-04-16 神讯电脑(昆山)有限公司 Abnormality early warning method of production machine and mass production method of objects
CN111597970A (en) * 2020-05-14 2020-08-28 中国银行股份有限公司 Abnormal behavior identification method and device
CN111597970B (en) * 2020-05-14 2023-05-02 中国银行股份有限公司 Abnormal behavior identification method and device
CN113807127A (en) * 2020-06-12 2021-12-17 杭州海康威视数字技术股份有限公司 Personnel archiving method and device and electronic equipment

Also Published As

Publication number Publication date
KR102615986B1 (en) 2023-12-20
KR20190143518A (en) 2019-12-31

Similar Documents

Publication Publication Date Title
WO2019235776A1 (en) Device and method for determining abnormal object
WO2019132518A1 (en) Image acquisition device and method of controlling the same
WO2020017814A1 (en) Abnormal entity detection system and method
WO2019212237A1 (en) Abnormal entity detection device and method
WO2020075888A1 (en) Computer program and terminal for providing information about individual animals on basis of animal face and noseprint images
WO2019168323A1 (en) Apparatus and method for detecting abnormal object, and photographing device comprising same
WO2019083299A1 (en) Rearing place management device and method
WO2020262746A1 (en) Artificial intelligence-based apparatus for recommending laundry course, and control method therefor
WO2019151735A1 (en) Vision inspection management method and vision inspection system
WO2020141888A1 (en) Device for managing environment of breeding farm
WO2022114731A1 (en) Deep learning-based abnormal behavior detection system and detection method for detecting and recognizing abnormal behavior
WO2022240274A1 (en) Robot device, method for controlling same, and recording medium having program recorded thereon
KR101944374B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
WO2021006482A1 (en) Apparatus and method for generating image
WO2020045702A1 (en) Computer program and terminal for providing urinalysis using colorimetry table
WO2020005038A1 (en) System and terminal for managing environment of breeding place and method thereof
WO2022035054A1 (en) Robot and method for controlling same
WO2021060636A1 (en) Motion detection device and method
WO2020149493A1 (en) Electronic device and method for controlling same
WO2020017799A1 (en) Device and method for detecting abnormal object, and imaging device comprising same
WO2022225102A1 (en) Adjustment of shutter value of surveillance camera via ai-based object recognition
WO2022080844A1 (en) Apparatus and method for tracking object by using skeleton analysis
WO2022039575A1 (en) Deep-learning-based real-time process monitoring system, and method therefor
WO2024085352A1 (en) Method and electronic device for generating training data for learning of artificial intelligence model
WO2023113187A1 (en) Electronic device and method for configuring screen on basis of acquired information

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19815212

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19815212

Country of ref document: EP

Kind code of ref document: A1