WO2019212237A1 - Abnormal entity detection device and method - Google Patents

Abnormal entity detection device and method Download PDF

Info

Publication number
WO2019212237A1
WO2019212237A1 PCT/KR2019/005226 KR2019005226W WO2019212237A1 WO 2019212237 A1 WO2019212237 A1 WO 2019212237A1 KR 2019005226 W KR2019005226 W KR 2019005226W WO 2019212237 A1 WO2019212237 A1 WO 2019212237A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
data
abnormal
abnormal object
Prior art date
Application number
PCT/KR2019/005226
Other languages
French (fr)
Korean (ko)
Inventor
김민규
류승훈
신제용
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020197016267A priority Critical patent/KR20200139616A/en
Publication of WO2019212237A1 publication Critical patent/WO2019212237A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

An abnormal entity detection device, according to one embodiment of the present invention, comprises: a communication processor for communicating with a learning server; and a control unit for receiving a captured image and outputting an image in which, among entities in the captured image, a pixel region where movement is not detected is masked, wherein the communication processor transmits, to the learning server, the captured image and a bitmap of the entity density of the captured image.

Description

이상 개체 검출 장치 및 방법Anomaly Object Detection Apparatus and Method
본 발명의 실시예는 이상 개체 검출 장치 및 방법에 관한 것이다.Embodiments of the present invention relate to an apparatus and a method for detecting abnormal objects.
좁은 사육장 내에서 집단으로 사육되는 가축은 전염성 질병의 확산에 매우 취약하다. 예를 들어, 구제역이나 조류독감과 같은 법정 전염병은 공기를 통해 전염되므로, 한번 발병될 경우 그 방역 및 전염 차단에 드는 사회적인 소요 비용이 매우 크고, 먹거리에 대한 전 사회적인 불안감도 빠르게 확산될 수 밖에 없다. 사육장 내 이상징후가 포착된 경우, 질병의 확산을 방지하기 위하여 빠른 시간 내에 병든 가축을 격리시키는 것이 중요하다. Livestock raised in groups within a small kennel are very vulnerable to the spread of communicable disease. For example, legal epidemics such as foot-and-mouth disease and bird flu are spread through the air, so once they occur, the social costs of protection and prevention of infection are very high, and the social anxiety about food is rapidly spreading. . If abnormal signs are found in the kennel, it is important to isolate diseased livestock as soon as possible to prevent the spread of disease.
학습에 기반하여 사육장 내 이상 징후를 검출하는 방법이 시도되고 있다. 이를 위하여, 로컬 머신은 사육장 내를 촬영한 영상 데이터를 수집하며, 수집한 영상 데이터를 학습용 서버에 전송한다. 학습용 서버는 로컬 머신들로부터 수신한 영상 데이터를 학습하여 이상 징후 검출 알고리즘에 적용할 파라미터를 추출할 수 있다. Attempts have been made to detect abnormal signs in the kennel based on learning. To this end, the local machine collects the image data photographed in the kennel, and transmits the collected image data to the learning server. The learning server may learn the image data received from the local machines and extract a parameter to be applied to the anomaly detection algorithm.
일반적으로, 로컬 머신은 카메라를 포함하며, 카메라에 의하여 촬영된 영상 데이터는 모두 학습용 서버로 전송된다. 이때, 로컬 머신이 학습용 서버로 데이터를 전송하는데 과도한 통신 트래픽이 발생하게 되며, 학습용 서버에서는 이들을 모두 학습하기 위하여 과도한 양의 연산이 수행될 수 있다.In general, the local machine includes a camera, and all image data photographed by the camera is transmitted to the learning server. At this time, excessive communication traffic is generated when the local machine transmits data to the learning server, and the learning server may perform an excessive amount of operations to learn all of them.
본 발명이 이루고자 하는 기술적 과제는 사육장 내부를 촬영한 영상 데이터 내에서 질병에 걸린 가능성이 높은 개체를 검출할 수 있는 이상 개체 검출 장치 및 방법을 제공하는데 있다.The present invention has been made in an effort to provide an abnormal object detecting apparatus and method capable of detecting an object having a high probability of disease in image data photographed inside a kennel.
본 발명의 실시예에 따른 이상 개체 검출 장치는 학습용 서버와 통신하는 통신 프로세서; 및 촬영 영상을 입력받고, 상기 촬영 영상의 개체 중 움직임이 검출되지 않은 픽셀 영역이 마스킹된 영상을 출력하는 제어부를 포함하고, 상기 통신 프로세서는 상기 촬영 영상 및 상기 촬영 영상의 개체 밀도에 대한 비트맵을 상기 학습용 서버로 전송한다.An apparatus for detecting an anomaly according to an embodiment of the present invention includes a communication processor communicating with a learning server; And a controller configured to receive a captured image and to output an image of masking a pixel region in which no motion is detected among the objects of the captured image, wherein the communication processor includes a bitmap of the captured image and the object density of the captured image. Send to the learning server.
상기 비트맵은 상기 촬영 영상의 개체 밀도가 수정된 정보를 포함할 수 있다.The bitmap may include information in which an object density of the captured image is modified.
상기 통신 프로세서는 관리자 단말과 통신하며, 상기 수정된 정보는 상기 관리자 단말에 의하여 수정될 수 있다.The communication processor communicates with an administrator terminal, and the modified information may be modified by the administrator terminal.
본 발명의 실시예에 따른 이상 개체 검출 장치는 복수의 개체가 함께 촬영된 촬영 영상으로부터 이상 개체 정보를 추출하는 제어부, 상기 이상 개체 정보를 관리자 단말에게 전송하며, 상기 관리자 단말로부터 상기 이상 개체 정보에 대한 피드백 정보를 수신하는 통신부, 그리고 상기 피드백 정보에 기초하여 학습용 데이터를 생성하는 학습 전처리부를 포함하고, 상기 학습용 데이터는 상기 피드백 정보에 기초하여 추출된 영상 데이터를 포함하며, 상기 통신부에 의하여 학습용 서버로 전송되고, 상기 제어부는 상기 학습용 서버에 의하여 학습된 학습용 데이터의 업데이트 정보를 이용하여 상기 이상 개체 정보를 추출한다.The apparatus for detecting an abnormal object according to an embodiment of the present invention transmits a controller for extracting abnormal object information from a captured image in which a plurality of objects are photographed together, and transmits the abnormal object information to a manager terminal. And a learning unit for receiving feedback information about the learning information, and a learning preprocessing unit generating learning data based on the feedback information. The learning data includes image data extracted based on the feedback information. The controller extracts the abnormal entity information by using update information of the learning data learned by the learning server.
상기 피드백 정보는 상기 이상 개체 정보에 오류가 있음을 알릴 수 있다.The feedback information may inform that there is an error in the abnormal entity information.
상기 피드백 정보는 상기 이상 개체 정보 중 오류가 있는 시간 영역에 관한 정보 및 공간 영역에 관한 정보를 포함할 수 있다.The feedback information may include information about an error time zone and information about a spatial area of the abnormal entity information.
상기 피드백 정보에 기초하여 상기 영상 데이터는 상기 촬영 영상 중 상기 피드백 정보에 따라 추출된 시간 영역 및 공간 영역 내의 영상 데이터일 수 있다.The image data based on the feedback information may be image data in the time domain and the spatial domain extracted according to the feedback information of the captured image.
상기 제어부는 상기 촬영 영상 내 상기 복수의 개체의 위치 분포를 추출하는 제1 특징 추출 유닛, 상기 촬영 영상 내 상기 복수의 개체의 움직임을 추출하는 제2 특징 추출 유닛, 그리고 상기 제1 특징 추출 유닛에 의하여 추출된 위치 분포 및 상기 제2 특징 추출 유닛에 의하여 추출된 움직임에 기초하여 이상 개체 데이터를 생성하는 이상 개체 정보 생성 유닛을 포함할 수 있다.The control unit may include a first feature extracting unit extracting a position distribution of the plurality of objects in the captured image, a second feature extracting unit extracting the movements of the plurality of objects in the captured image, and the first feature extracting unit. And an abnormal entity information generating unit that generates abnormal entity data based on the position distribution extracted by the extracted feature and the movement extracted by the second feature extraction unit.
상기 업데이트 정보는 상기 제1 특징 추출 유닛에 적용되는 제1 업데이트 정보, 상기 제2 특징 추출 유닛에 적용되는 제2 업데이트 정보 및 상기 이상 개체 정보 생성 유닛에 적용되는 제3 업데이트 정보 중 적어도 하나를 포함할 수 있다.The update information includes at least one of first update information applied to the first feature extraction unit, second update information applied to the second feature extraction unit, and third update information applied to the abnormal object information generating unit. can do.
본 발명의 한 실시예에 따른 이상 개체 검출 방법은 n번째 영상을 수신하는 단계; n번째 영상 내 개체의 제1 밀도 맵을 출력하는 단계; n번째 영상 내 동작 맵을 출력하는 단계; 상기 제1 밀도 맵, 상기 동작 맵, 그리고 미리 저장된 n-1번째 이상 개체 밀도 맵을 이용하여 n번째 이상 개체 밀도 맵을 출력하는 단계; 그리고 상기 n번째 이상 개체 밀도 맵을 이용하여 상기 n번째 영상 내 이상 개체가 위치한 영역을 마스킹하는 단계를 포함하고, 상기 n번째 영상 및 제2 밀도 맵이 학습용 서버로 전송되고, 상기 제2 밀도맵은 상기 n번째 영상 내 개체의 밀도가 수정된 정보이다.An object detection method according to an embodiment of the present invention comprises the steps of receiving an n-th image; outputting a first density map of the object in the n-th image; outputting a motion map in an nth image; Outputting an n-th or more object density map by using the first density map, the motion map, and a previously stored n-th or more object density map; And masking an area where the abnormal object is located in the n-th image using the n-th or more object density map, wherein the n-th image and the second density map are transmitted to a learning server, and the second density map. Is information in which the density of the object in the n-th image is corrected.
상기 제2 밀도맵은 관리자 단말에 의해 수정될 수 있다.The second density map may be modified by the administrator terminal.
상기 학습용 서버로부터 상기 n번째 영상 및 상기 제2 밀도 맵을 이용한 재학습에 의하여 얻어진 업데이트 정보를 수신하는 단계, 그리고 상기 업데이트 정보를 이용하여 상기 n번째 영상 이후의 소정 영상에 대한 이상개체 밀도 맵을 출력하는 단계를 더 포함할 수 있다.Receiving update information obtained by re-learning using the n-th image and the second density map from the learning server, and using the update information, an abnormal object density map of a predetermined image after the n-th image; The method may further include outputting.
상기 수정된 정보는 상기 n번째 이상 개체 밀도 맵 중 오류가 있는 시간 영역 정보 및 공간 영역 정보 중 적어도 하나를 포함하고, 상기 제2 밀도 맵은 상기 시간 영역 정보 및 상기 공간 영역 정보 중 적어도 하나를 이용하여 추출될 수 있다.The modified information includes at least one of error time space information and space area information of the n-th or more object density map, and the second density map uses at least one of the time area information and the space area information. Can be extracted.
상기 소정 영상에 대한 이상 개체 밀도 맵을 출력하는 단계는, 상기 소정 영상 및 상기 학습용 서버로부터 수신한 제1 업데이트 정보를 이용하여 상기 소정 영상 내 상기 복수의 개체의 위치 분포를 추출하는 단계, 상기 소정 영상 및 상기 학습용 서버로부터 수신한 제2 업데이트 정보를 이용하여 상기 소정 영상 내 상기 복수의 개체의 움직임을 추출하는 단계, 그리고 상기 위치 분포, 상기 움직임, 및 상기 학습용 서버로부터 수신한 제3 업데이트 정보를 이용하여 상기 소정 영상에 대한 이상 개체 밀도 맵을 생성하는 단계를 포함할 수 있다.The outputting of the abnormal object density map for the predetermined image may include extracting position distributions of the plurality of objects in the predetermined image by using the predetermined image and first update information received from the learning server. Extracting the movements of the plurality of objects in the predetermined image using the image and the second update information received from the learning server, and the position distribution, the movement, and the third update information received from the learning server. The method may include generating an abnormal object density map of the predetermined image using the image.
본 발명의 한 실시예에 따른 이상 개체 검출 시스템은 학습용 서버 및 상기 학습용 서버통신하는 이상 개체 검출 장치를 포함하고, 상기 이상 개체 검출 장치는, 상기 학습용 서버와 통신하는 통신 프로세서; 및 촬영 영상을 입력받고, 상기 촬영 영상의 개체 중 움직임이 검출되지 않은 픽셀 영역이 마스킹된 영상을 출력하는 제어부를 포함하고, 상기 통신 프로세서는 상기 촬영 영상 및 상기 촬영 영상의 개체 밀도에 대한 비트맵을 상기 학습용 서버로 전송한다.An anomaly object detection system according to an embodiment of the present invention includes an anomaly object detection device communicating with a learning server and the learning server, wherein the anomaly object detection device comprises: a communication processor communicating with the learning server; And a controller configured to receive a captured image and to output an image of masking a pixel region in which no motion is detected among the objects of the captured image, wherein the communication processor includes a bitmap of the captured image and the object density of the captured image. Send to the learning server.
본 발명의 한 실시예에 따른 이상 개체 검출 장치 및 방법은 사육장 내부를 촬영한 영상 데이터 상에서 질병에 걸린 가능성이 높은 이상 개체를 검출할 수 있다.The apparatus and method for detecting an abnormal object according to an exemplary embodiment of the present invention may detect an abnormal object having a high probability of disease on image data photographed inside a kennel.
또한, 본 발명의 한 실시예에 따르면, 학습용 서버로 전송되는 데이터 양을 줄일 수 있으므로, 과도한 통신 트래픽의 발생을 방지할 수 있고, 학습용 서버 내의 연산량을 줄일 수 있다.In addition, according to one embodiment of the present invention, since the amount of data transmitted to the learning server can be reduced, it is possible to prevent the occurrence of excessive communication traffic, and to reduce the amount of computation in the learning server.
도 1은 본 발명의 실시예에 따른 이상 개체 검출 시스템의 블록도이다. 1 is a block diagram of an anomaly detection system according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 이상 개체 검출용 학습 시스템의 블록도이다. 2 is a block diagram of a learning system for detecting abnormal objects according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 이상 개체 검출 장치의 개념도이다. 3 is a conceptual diagram of an apparatus for detecting an anomaly according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 이상 개체 검출 장치의 블록도이다. 4 is a block diagram of an anomaly detection apparatus according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 이상 개체 검출 장치의 이상 개체 검출 방법의 흐름도이다. 5 is a flowchart of a method for detecting an abnormal object of the apparatus for detecting an abnormal object according to an embodiment of the present invention.
도 6은 객체 밀도 예측 네트워크의 원리를 설명하기 위한 도면이다.6 is a view for explaining the principle of the object density prediction network.
도 7은 관리자 단말에 이상 개체 정보가 표시되는 예를 설명하기 도면이다.7 is a diagram illustrating an example of displaying abnormal entity information on a manager terminal.
도 8은 관리자 단말에 이상 개체 정보가 블록 별로 표시되는 예를 설명하기 도면이다.8 is a diagram for explaining an example in which abnormal entity information is displayed for each block on a manager terminal.
도 9는 본 발명의 실시예에 따른 이상 개체 검출 장치에 포함되는 제어부의 블록도이다. 9 is a block diagram of a controller included in an anomaly detecting apparatus according to an embodiment of the present invention.
도 10은 본 발명의 실시예에 따른 이상 개체 검출 장치의 이상 개체 검출 알고리즘을 설명하는 도면이다. 10 is a view for explaining an abnormal object detection algorithm of the abnormal object detection apparatus according to the embodiment of the present invention.
도 11은 학습용 서버에 의하여 재학습된 결과를 이용하여 본 발명의 실시예에 따른 이상 개체 검출 장치가 이상 개체를 검출하는 방법을 설명하는 도면이다.11 is a view for explaining a method for detecting an abnormal object by the apparatus for detecting an abnormal object according to an embodiment of the present invention by using the result of re-learning by the learning server.
도 12는 본 발명의 실시예에 따른 이상 개체 검출 장치의 성능을 테스트한 결과이다.12 is a result of testing the performance of the abnormal object detection apparatus according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated and described in the drawings. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms including ordinal numbers, such as second and first, may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings, and the same or corresponding components will be given the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted.
도 1은 본 발명의 실시예에 따른 이상 개체 검출 시스템의 블록도이고, 도 2는 본 발명의 실시예에 따른 이상 개체 검출용 학습 시스템의 블록도이며, 도 3은 본 발명의 실시예에 따른 이상 개체 검출 장치의 개념도이다. 1 is a block diagram of an abnormal object detection system according to an embodiment of the present invention, FIG. 2 is a block diagram of a learning system for detecting an abnormal object according to an embodiment of the present invention, and FIG. 3 is according to an embodiment of the present invention. It is a conceptual diagram of the abnormal object detection apparatus.
도 1 내지 3을 참조하면, 본 발명의 실시예에 따른 이상 개체 검출 시스템(1000)은 이상 개체 검출 장치(100), 관리자 단말(200), 공조 장치(300) 및 학습용 서버(400)를 포함한다.1 to 3, an abnormal object detection system 1000 according to an exemplary embodiment of the present invention includes an abnormal object detecting apparatus 100, an administrator terminal 200, an air conditioning apparatus 300, and a learning server 400. do.
본 발명의 실시예에 따른 이상 개체 검출용 학습 시스템(2000)은 복수의 이상 개체 검출 장치(100) 및 학습용 서버(400)를 포함한다. 여기서, 복수의 이상 개체 검출 장치(100)는 하나의 사육장에 설치된 복수의 이상 개체 검출 장치일 수도 있고, 복수의 사육장에 설치된 복수의 이상 개체 검출 장치일 수도 있다. The learning system 2000 for detecting an abnormal object according to an exemplary embodiment of the present invention includes a plurality of abnormal object detecting devices 100 and a learning server 400. Here, the plurality of abnormal object detecting apparatuses 100 may be a plurality of abnormal object detecting apparatuses installed in one breeding ground, or may be a plurality of abnormal object detecting apparatuses installed in the plurality of breeding grounds.
이상 개체 검출 장치(100)는 사육장(10) 내의 환경을 검출하고, 이를 관리자 단말(200) 및 공조 장치(300) 중 적어도 하나에 전송할 수 있다. 여기서, 사육장(10)은 가축을 사육하는 축사를 의미한다. 가축은 닭, 오리 등의 가금류뿐만 아니라, 소, 돼지 등 축사 내에서 집단으로 사육되는 다양한 종류의 동물일 수 있다.The abnormality object detecting apparatus 100 may detect an environment in the kennel 10 and transmit it to at least one of the manager terminal 200 and the air conditioning apparatus 300. Here, the kennel 10 means a livestock breeding barn. The livestock may be not only poultry such as chickens and ducks, but also various kinds of animals bred in groups such as cattle and pigs.
이상 개체 검출 장치(100)는 사육장(10) 내 이상 개체 정보를 추출한다. 여기서, 이상 개체 정보는 이상 개체의 유무 정보, 이상 개체가 존재하는 공간 영역에 관한 정보, 및 이상 개체가 존재하는 시간 영역에 관한 정보 중 적어도 하나를 포함할 수 있다. 이때, 이상 개체는 질병, 임신 등으로 인해 정상 상태가 아닌 개체를 의미할 수 있다.The abnormal object detection apparatus 100 extracts abnormal object information in the kennel 10. Here, the abnormal entity information may include at least one of information on the presence or absence of the abnormal entity, information on a spatial area in which the abnormal entity exists, and information on a time domain in which the abnormal entity exists. In this case, the abnormal subject may refer to an individual who is not in a normal state due to a disease, pregnancy, or the like.
이를 위하여, 이상 개체 검출 장치(100)는 촬영부를 포함하며, 촬영부를 이용하여 복수의 개체가 함께 촬영된 영상에 대한 영상 데이터를 획득할 수 있다. 여기서, 촬영부는 카메라와 혼용될 수 있다. 그리고, 이상 개체 검출 장치(100)는 미리 저장된 알고리즘을 구동하여 영상 데이터에 대한 이상 개체 정보를 추출할 수 있다. 여기서, 미리 저장된 알고리즘은 학습된 모델을 포함할 수 있다. 학습된 모델은 컴퓨터로 읽을 수 있는 프로그램일 수 있으며, 컴퓨터에 의하여 실행될 수 있는 기록매체 또는 저장 장치에 저장될 수 있다. 컴퓨터 내의 프로세서는 기록매체 또는 저장 장치에 저장된 프로그램을 읽어 들이며, 프로그램, 즉 학습된 모델을 실행하여 입력 정보를 연산하고, 연산 결과를 출력할 수 있다. 이때, 입력 정보는 영상 데이터일 수 있으며, 연산 결과는 이상 개체 정보일 수 있다.To this end, the abnormal object detecting apparatus 100 may include a photographing unit, and may acquire image data of an image in which a plurality of objects are photographed together using the photographing unit. Here, the photographing unit may be mixed with the camera. The abnormal object detecting apparatus 100 may extract an abnormal object information on the image data by driving a pre-stored algorithm. Here, the prestored algorithm may include a trained model. The learned model may be a computer readable program and may be stored in a recording medium or a storage device executable by the computer. A processor in a computer may read a program stored in a recording medium or a storage device, execute a program, that is, a trained model, calculate input information, and output a calculation result. In this case, the input information may be image data, and the operation result may be abnormal object information.
도 3(a)에 도시된 바와 같이, 이상 개체 검출 장치(100)는 사육장(10) 별로 배치될 수 있다. 이상 개체 검출 장치(100)는 복수의 촬영부(111)를 포함할 수 있으며, 복수의 촬영부(111)는 사육장(10) 내 여러 장소에 배치될 수 있다. 예를 들어, 복수의 촬영부(111)는 사육장(10) 상부 및 측부에 배치될 수 있다. 이상 개체 검출 장치(100)는 복수의 촬영부(111)에 의하여 획득된 복수의 영상 데이터를 취합하여 이상 개체 정보를 추출할 수 있다. As illustrated in FIG. 3A, the abnormality object detecting apparatus 100 may be arranged for each of the kennel 10. The abnormal object detecting apparatus 100 may include a plurality of photographing units 111, and the plurality of photographing units 111 may be disposed at various places in the kennel 10. For example, the plurality of photographing units 111 may be disposed at the upper and side portions of the kennel 10. The abnormal object detection apparatus 100 may extract the abnormal object information by collecting a plurality of image data acquired by the plurality of photographing units 111.
또는, 도 3(b)에 도시된 바와 같이, 하나의 사육장(10) 내에 복수의 이상 개체 검출 장치(100)가 배치될 수도 있다. 복수의 이상 개체 검출 장치(100)는 사육장(10) 내 여러 장소에 배치될 수 있으며, 각 이상 개체 검출 장치(100)는 각 촬영부(111)에 의하여 획득된 각 영상 데이터를 이용하여 이상 개체 정보를 추출할 수도 있다. Alternatively, as illustrated in FIG. 3B, a plurality of abnormal object detection apparatuses 100 may be disposed in one kennel 10. The plurality of abnormal object detecting apparatuses 100 may be disposed at various places in the kennel 10, and each of the abnormal object detecting apparatuses 100 uses the individual image data obtained by each photographing unit 111. You can also extract information.
본 발명의 실시예에 따르면, 이상 개체 검출 장치(100)는 관리자 단말(200) 및 공조 장치(300)와 유선 또는 무선으로 통신할 수 있다. 여기서, 이상 개체 검출 장치(100)가 관리자 단말(200) 및 공조 장치(300)와 각각 통신하는 것으로 도시되어 있으나, 이로 제한되지 않으며, 이상 개체 검출 장치(100)가 관리자 단말(200)과 통신하고, 관리자 단말(200)이 공조 장치(300)와 통신할 수도 있다.According to the exemplary embodiment of the present invention, the abnormality object detecting apparatus 100 may communicate with the manager terminal 200 and the air conditioning apparatus 300 by wire or wirelessly. Here, although the abnormality object detecting apparatus 100 is illustrated as communicating with the manager terminal 200 and the air conditioning apparatus 300, respectively, but is not limited thereto, and the abnormality object detecting apparatus 100 communicates with the manager terminal 200. In addition, the manager terminal 200 may communicate with the air conditioning apparatus 300.
관리자 단말(200)은 퍼스널 컴퓨터(personal computer, PC), 태블릿 PC, 휴대단말 등일 수 있으며, 관리 서버와 혼용될 수도 있다. 이상 개체 검출 장치(100)가 관리자 단말(200)에게 사육장(10) 내의 환경 및 이상 개체 정보 중 적어도 하나를 전송하는 경우, 관리자는 관리자 단말(200)에 출력된 화면 등을 통하여 사육장(10) 내의 환경 및 이상 개체 정보 중 적어도 하나를 인지할 수 있다. 예를 들어, 이상 개체 검출 장치(100)가 사육장(10) 내의 이상상황을 포착하여 이를 관리자 단말(200)에게 전송한 경우, 관리자는 관리자 단말(200)에 출력된 화면을 통하여 사육장(10) 내에 이상상황이 발생하였음을 인지할 수 있으며, 이상상황에 대하여 초기에 대응할 수 있다. 여기서, 이상상황은, 예를 들어 질병에 걸린 가축의 발생, 가축의 임신, 가축의 생장 기간, 사육장(10) 내 습도, 온도, 특정 분자의 농도 이상 등일 수 있다. The manager terminal 200 may be a personal computer (PC), a tablet PC, a mobile terminal, or the like, and may be mixed with a management server. When the abnormal object detecting apparatus 100 transmits at least one of the environment and the abnormal object information in the breeding ground 10 to the manager terminal 200, the manager may check the breeding ground 10 through a screen output to the manager terminal 200. At least one of environment information and abnormal object information within the server can be recognized. For example, when the abnormal object detecting apparatus 100 captures an abnormal situation in the kennel 10 and transmits the abnormal situation to the manager terminal 200, the manager is connected to the kennel 10 through a screen output to the manager terminal 200. It can be recognized that an abnormal situation has occurred in the first place and can respond to the initial situation. Here, the abnormal situation may be, for example, the generation of diseased livestock, pregnancy of the livestock, growth of the livestock, the humidity in the kennel 10, temperature, more than the concentration of a specific molecule and the like.
공조 장치(300)는 사육장(10)의 온도를 조절하는 장치이다. 이상 개체 검출 장치(100)가 사육장(10) 내 온도이상을 포착하여 관리자 단말(200)에게 전송한 경우, 관리자는 관리자 단말(200)에 출력된 화면을 통하여 사육장(10) 내 온도이상이 발생하였음을 인지할 수 있으며, 공조 장치(300)를 제어하여 사육장(10) 내 온도를 정상화할 수 있다. 또는, 이상 개체 검출 장치(100)가 사육장(10) 내 온도이상을 검출하여 공조 장치(300)에게 직접 전달한 경우, 공조 장치(300)가 직접 사육장(10) 내 온도를 정상화할 수도 있다. 예를 들어, 사육장(10) 내의 온도가 가축이 생활하기에 적절한 온도보다 낮거나, 높은 경우, 가축들의 움직임이 둔화되는 경향이 있다. 이에 따라, 이상 개체 검출 장치(100), 관리자 단말(200), 또는 공조 장치(300)는 사육장(10) 내 온도이상을 검출하여 사육장(10) 내 온도를 정상화할 수 있다. The air conditioning apparatus 300 is a device for controlling the temperature of the kennel 10. When the abnormality object detecting apparatus 100 captures a temperature abnormality in the kennel 10 and transmits it to the manager terminal 200, the manager generates a temperature abnormality in the kennel 10 through a screen output to the manager terminal 200. It can be recognized that, by controlling the air conditioning apparatus 300 can normalize the temperature in the kennel 10. Alternatively, when the abnormality object detecting apparatus 100 detects a temperature abnormality in the kennel 10 and directly delivers it to the air conditioning apparatus 300, the air conditioner 300 may directly normalize the temperature in the kennel 10. For example, if the temperature in the kennel 10 is lower or higher than the temperature suitable for the livestock, the movement of the livestock tends to be slowed down. Accordingly, the abnormality object detecting apparatus 100, the manager terminal 200, or the air conditioning apparatus 300 may detect a temperature abnormality in the kennel 10 and normalize the temperature in the kennel 10.
공조 장치(300)는 사육장(10)의 습도를 조절할 수 있다. 사육장(10) 내의 습도 이상이 발생한 경우, 공조 장치(300)를 제어하여 사육장(10) 내 습도를 정상화할 수 있다.The air conditioning apparatus 300 may adjust the humidity of the kennel 10. When the humidity in the kennel 10 is abnormal, the air conditioning apparatus 300 may be controlled to normalize the humidity in the kennel 10.
본 발명의 실시예에 따르면, 이상 개체 검출 장치(100)는 미리 저장된 알고리즘을 구동하여 이상 개체 정보를 추출한다. 이를 위하여, 이상 개체 검출 장치(100)는 원격의 학습용 서버(400)에게 학습용 데이터를 전송하며, 학습용 서버(400)로부터 수신한 파라미터를 이상 개체 검출용 알고리즘에 적용하여 이상 개체 정보를 추출할 수 있다.According to an embodiment of the present invention, the abnormal object detection apparatus 100 extracts abnormal object information by driving a previously stored algorithm. To this end, the abnormal object detecting apparatus 100 may transmit the training data to the remote learning server 400 and extract the abnormal object information by applying the parameter received from the learning server 400 to the algorithm for detecting the abnormal object. have.
본 발명의 실시예에 따르면, 학습용 서버(400)는 복수의 이상 개체 검출 장치(100)로부터 학습용 데이터를 수신 받으며, 이들 학습용 데이터를 재학습(re-training)하여 파라미터를 추출한다. 학습용 서버(400)는, 예를 들어 딥러닝 기법을 이용하여 학습용 데이터를 학습할 수 있으나, 이로 제한되는 것은 아니며, 다양한 기법을 이용하여 학습용 데이터를 학습하고, 파라미터를 추출할 수 있다.According to the exemplary embodiment of the present invention, the learning server 400 receives the training data from the plurality of abnormal object detection apparatus 100, and re-trains the training data to extract parameters. For example, the learning server 400 may learn the learning data using a deep learning technique, but is not limited thereto. The learning server 400 may learn the learning data using various techniques and extract parameters.
여기서, 이상 개체 검출 장치(100)는 로컬 머신과 혼용될 수 있으며, 학습용 서버(400)는 복수의 사육장에 설치된 복수의 이상 개체 검출 장치로부터 학습용 데이터를 수집할 수 있다.Here, the abnormal object detecting apparatus 100 may be mixed with the local machine, and the learning server 400 may collect the training data from the plurality of abnormal object detecting apparatuses installed in the plurality of kennels.
본 발명의 실시예에 따른 이상 개체 검출 장치(100)는 영상 데이터를 전처리하여 학습용 데이터를 선별하며, 선별한 학습용 데이터만을 학습용 서버(400)에게 전송한다. 이에 따라, 이상 개체 검출 장치(100)와 학습용 서버(400) 간의 통신 트래픽을 줄일 수 있으며, 학습용 서버(400)의 연산량을 줄일 수 있다. The abnormality object detecting apparatus 100 according to an exemplary embodiment of the present invention pre-processes the image data, selects the training data, and transmits only the selected training data to the training server 400. Accordingly, communication traffic between the abnormality object detecting apparatus 100 and the learning server 400 can be reduced, and the amount of computation of the learning server 400 can be reduced.
도 4는 본 발명의 실시예에 따른 이상 개체 검출 장치의 블록도이고, 도 5는 본 발명의 실시예에 따른 이상 개체 검출 장치의 이상 개체 검출 방법의 흐름도이다.4 is a block diagram of an apparatus for detecting an abnormal object according to an embodiment of the present invention, and FIG. 5 is a flowchart of a method for detecting an abnormal object in an apparatus for detecting an abnormal object according to an embodiment of the present invention.
도 4를 참조하면, 이상 개체 검출 장치(100)는 촬영부(111), 제어부(112), 통신부(113), 표시부(114), 유저 인터페이스부(115), 인코딩부(116), 데이터 베이스(117), 광원부(118), 팬틸트부(119), 학습 전처리부(120)를 포함한다. 다만, 본 발명의 실시예에 따르면, 표시부(114), 유저 인터페이스부(115), 광원부(118) 및 팬틸트부(119) 중 적어도 하나는 생략될 수도 있다. 여기서, 촬영부(111)는 렌즈 및 이미지 센서를 포함하도록 구현될 수 있고, 제어부(112), 인코딩부(116), 학습 전처리부(120) 중 적어도 하나는 컴퓨터 프로세서 또는 칩에 의하여 구현될 수 있으며, 데이터베이스(117)는 메모리와 혼용될 수 있고, 통신부(113)는 안테나 또는 통신 프로세서 등과 혼용될 수 있다. Referring to FIG. 4, the abnormal object detecting apparatus 100 may include a photographing unit 111, a control unit 112, a communication unit 113, a display unit 114, a user interface unit 115, an encoding unit 116, and a database. 117, a light source 118, a pan tilt unit 119, and a learning preprocessor 120. However, according to the exemplary embodiment of the present invention, at least one of the display unit 114, the user interface unit 115, the light source unit 118, and the pan tilt unit 119 may be omitted. Here, the photographing unit 111 may be implemented to include a lens and an image sensor, and at least one of the controller 112, the encoding unit 116, and the learning preprocessor 120 may be implemented by a computer processor or a chip. The database 117 may be mixed with a memory, and the communication unit 113 may be mixed with an antenna or a communication processor.
촬영부(111)는 하나 또는 복수의 촬영 유닛을 포함할 수 있다. 예를 들어, 촬영부(111)는 사육장(10)의 상부에 배치된 적어도 하나의 상부 촬영 유닛 및 사육장(10)의 측부에 배치된 적어도 하나의 측부 촬영 유닛을 포함할 수 있다. 상부 촬영 유닛 및 측부 촬영 유닛 각각은 유선 또는 무선으로 통신이 가능하여 실시간 영상의 송출이 가능한 IP 카메라일 수 있다. The photographing unit 111 may include one or a plurality of photographing units. For example, the photographing unit 111 may include at least one upper photographing unit disposed above the kennel 10 and at least one side photographing unit disposed at the side of the kennel 10. Each of the upper photographing unit and the side photographing unit may be an IP camera that can communicate in a wired or wireless manner and transmit real-time images.
촬영부(111)는 복수의 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성할 수 있다. 본 발명의 실시예에서 복수의 개체는 사육장 내에서 사육되는 가금류를 의미할 수 있다. 본 명세서에서, 촬영부(111)에 의하여 촬영된 영상 데이터는 원본 데이터, 원본 영상, 촬영 영상 등과 혼용될 수 있다. The photographing unit 111 may generate image data by photographing an image including a plurality of objects. In the embodiment of the present invention, a plurality of individuals may mean poultry farmed in a kennel. In the present specification, image data photographed by the photographing unit 111 may be mixed with original data, original image, photographed image, and the like.
촬영부(111)는 순차적으로 촬영되는 복수 개의 이미지를 이용하여 복수 개의 영상 데이터를 생성할 수 있다. 예를 들면, 촬영부(111)는 복수의 개체를 포함하는 제1이미지를 촬영하여 제1영상 데이터를 생성할 수 있으며, 복수의 개체를 포함하는 제2이미지를 촬영하여 제2영상 데이터를 생성할 수 있다. 제1이미지 및 제2이미지는 각각 시간상으로 연속적으로 촬영된 이미지일 수 있으며, 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부(111)는 순차적으로 촬영되는 제1이미지 및 제2이미지를 이용하여 제1영상 데이터 및 제2영상 데이터를 생성할 수 있다.The photographing unit 111 may generate a plurality of image data using a plurality of images sequentially photographed. For example, the photographing unit 111 may generate first image data by capturing a first image including a plurality of objects, and generate second image data by capturing a second image including a plurality of objects. can do. Each of the first image and the second image may be an image continuously photographed in time, and one image data may mean a single frame. The photographing unit 111 may generate the first image data and the second image data by using the first image and the second image which are sequentially photographed.
촬영부(111)는 CMOS(complementary metal-oxide semiconductor) 모듈 또는 CCD(charge coupled device) 모듈 등을 이용하여 피사체를 촬영하는 이미지 센서일 수 있다. 이때, 입력되는 영상 프레임은 렌즈를 통해 촬영부(111) 내의 CMOS 모듈 또는 CCD 모듈로 제공되고, CMOS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호(영상 데이터)로 변환하여 출력한다. The photographing unit 111 may be an image sensor photographing a subject using a complementary metal-oxide semiconductor (CMOS) module or a charge coupled device (CCD) module. At this time, the input image frame is provided to the CMOS module or CCD module in the photographing unit 111 through the lens, the CMOS module or CCD module converts the optical signal of the subject passing through the lens into an electrical signal (image data) and outputs it. do.
촬영부(111)는 시야각이 넓은 어안렌즈 또는 광각렌즈를 포함할 수 있다. 이에 따라, 하나의 촬영부(111)가 사육장(10) 내부의 전체 공간을 촬영하는 것도 가능하다. The photographing unit 111 may include a fisheye lens or a wide angle lens having a wide viewing angle. Accordingly, it is also possible for one photographing unit 111 to photograph the entire space inside the kennel 10.
또한, 촬영부(111)는 깊이 카메라일 수 있다. 촬영부(111)는 다양한 깊이 인식 방식 중 어느 하나의 방식으로 구동될 수 있으며, 촬영부(111)를 통하여 촬영된 영상에는 깊이 정보가 포함될 수 있다. 촬영부(111)는 예를 들어, 키넥트 센서일 수 있다. 키넥트 센서는 구조광 투영 방식의 깊이 카메라로서, 프로젝터나 레이저를 이용하여 정의된 패턴 영상을 투영시키고 카메라를 통하여 패턴이 투영된 영상을 획득함으로써 장면의 삼차원 정보를 획득할 수 있다. 이러한 키넥트 센서는 적외선 레이저를 이용해 패턴을 조사하는 적외선 방사체, 및 적외선 영상을 촬영하는 적외선 카메라를 포함하며, 일반적인 웹캠과 같은 기능을 하는 RGB 카메라가 적외선 방사체와 적외선 카메라 사이에 배치되어 있다. 이 외에도, 키넥트 센서에는 마이크 배열과 카메라의 각도를 조절하는 팬틸트부(119)가 더 구성될 수 있다.In addition, the photographing unit 111 may be a depth camera. The photographing unit 111 may be driven by any one of various depth recognition methods, and the depth information may be included in the image photographed by the photographing unit 111. The photographing unit 111 may be, for example, a Kinect sensor. Kinect sensor is a depth camera of the structured light projection method, it is possible to obtain a three-dimensional information of the scene by projecting a pattern image defined using a projector or a laser, and obtains the image projected pattern through the camera. These Kinect sensors include infrared emitters that irradiate patterns using infrared lasers, and infrared cameras that capture infrared images. An RGB camera that functions like a typical webcam is disposed between the infrared emitter and the infrared camera. In addition to this, the Kinect sensor may further comprise a pan tilt unit 119 for adjusting the angle of the microphone array and the camera.
키넥트 센서의 기본적인 원리는, 적외선 방사체에서 조사된 레이저 패턴이 물체에 투영되어 반사되면, 반사 지점에서의 패턴의 위치 및 크기를 이용해 물체 표면까지의 거리를 구하게 된다. 이러한 원리에 따라, 촬영부(111)는 사육장 내 공간으로 레이저 패턴을 조사하고, 개체에서 반사된 레이저 패턴을 센싱하여 개체 별 깊이 정보를 포함하는 영상 데이터를 생성할 수 있다.The basic principle of the Kinect sensor is that when the laser pattern irradiated from the infrared emitter is projected and reflected on the object, the distance to the surface of the object is obtained using the position and size of the pattern at the reflection point. According to this principle, the photographing unit 111 may generate the image data including the depth information for each object by irradiating the laser pattern to the space in the kennel and sensing the laser pattern reflected from the object.
제어부(112)는 이상 개체 검출 장치(100)를 전반적으로 제어한다. 특히, 본 발명의 실시예에 따르면, 제어부(112)는 촬영부(111)에 의하여 복수의 개체가 함께 촬영된 영상에 대한 영상 데이터로부터 이상 개체 정보를 추출한다. 이상 개체 정보는, 영상 데이터 내 이상 개체의 유무에 관한 정보, 영상 데이터 내 이상 개체가 존재하는 공간 영역에 관한 정보 및 영상 데이터 내 이상 개체가 존재하는 시간 영역에 관한 정보 중 적어도 하나를 포함할 수 있다. 여기서, 영상 데이터 내 이상 개체가 존재하는 공간 영역에 관한 정보는 이상 개체가 존재하는 영역의 좌표 정보 또는 이상 개체의 좌표 정보일 수 있다. 이때, 이상 개체 정보는 영역 별, 블록 별, 또는 픽셀 별로 나타내어질 수 있으며, 이상 개체 정보는 영역 별, 블록 별, 또는 픽셀 별 이상 개체가 있을 확률을 더 포함할 수 있다. 본 명세서에서, 이상 개체 정보는 이상 개체 데이터와 혼용될 수 있다. 또는, 이상 개체 정보는 이상 개체 데이터로부터 얻어지는 정보일 수도 있다. 또는, 이상 개체 정보는 이상 개체 데이터를 포함할 수도 있다. 이때, 제어부(112)는 데이터베이스(117)에 미리 저장된 알고리즘을 구동하는 방법으로 이상 개체 정보를 추출할 수 있으며, 미리 저장된 알고리즘 및 이 알고리즘에 적용되는 파라미터는 학습용 서버(400)에 의하여 학습된 결과 추출된 알고리즘 및 파라미터일 수 있다. 제어부(112)가 이상 개체 정보를 추출하는 방법에 대한 자세한 내용은 후술한다.The controller 112 controls the abnormal object detection apparatus 100 as a whole. In particular, according to an embodiment of the present invention, the control unit 112 extracts the abnormal object information from the image data for the image photographed with a plurality of objects by the photographing unit 111. The abnormal object information may include at least one of information on the presence or absence of an abnormal object in the image data, information on a spatial area in which the abnormal object exists in the image data, and information on a time domain in which the abnormal object exists in the image data. have. Here, the information about the spatial region in which the abnormal object exists in the image data may be coordinate information of the region in which the abnormal object exists or coordinate information of the abnormal object. In this case, the abnormal entity information may be represented by region, block, or pixel, and the abnormal entity information may further include a probability that there is an abnormal entity by region, block, or pixel. In the present specification, the abnormal entity information may be mixed with the abnormal entity data. Alternatively, the abnormal entity information may be information obtained from abnormal entity data. Alternatively, the abnormal entity information may include abnormal entity data. At this time, the control unit 112 may extract the abnormal object information by a method of driving the algorithm stored in advance in the database 117, the pre-stored algorithm and the parameters applied to the algorithm is the result learned by the learning server 400 Extracted algorithms and parameters. Details of how the control unit 112 extracts abnormal object information will be described later.
제어부(112)는 예를 들면, 유저 인터페이스부(115) 또는 데이터 베이스(117)에 저장된 명령을 수행하여 이상 개체 검출 장치(100)의 동작을 수행할 수도 있다.The controller 112 may perform an operation of the abnormality object detecting apparatus 100 by executing a command stored in the user interface 115 or the database 117, for example.
또는 제어부(112)는 관리자 단말(200)로부터 수신한 명령을 이용하여 이상 개체 검출 장치(100)의 각종 동작을 제어할 수도 있다.Alternatively, the controller 112 may control various operations of the abnormality object detecting apparatus 100 using a command received from the manager terminal 200.
제어부(112)는 촬영부(111)를 제어하여 이상 개체가 있는 특정 영역을 추적 촬영할 수도 있다. 추적 촬영 대상은 유저 인터페이스부(115)를 통하여 설정되거나 또는 관리자 단말(200)의 제어 명령을 통하여 설정될 수도 있다. 제어부(112)는 촬영부(111)를 제어하여 이상개체가 있는 특정 영역을 추적 촬영하여 영상 데이터를 생성하게 함으로써 지속적인 모니터링을 수행할 수 있게 한다.The controller 112 may control the photographing unit 111 to track and capture a specific area in which an abnormal object is located. The tracking shooting target may be set through the user interface unit 115 or may be set through a control command of the manager terminal 200. The control unit 112 controls the photographing unit 111 to track and photograph a specific area in which an abnormal object exists to generate image data so that continuous monitoring can be performed.
이때, 제어부(112)는 이상 개체 검출 장치(100)의 팬틸트부(119)를 제어하여 추적 촬영을 수행할 수 있다. 팬틸트부(119)는 팬(Pan, 수평방향) 및 틸트(Tilt, 수직 방향) 2개의 모터를 구동하여 촬영부(111)의 촬영 영역을 제어할 수 있다. 팬틸트부(119)는 제어부(112)의 제어에 따라 특정 영역을 촬영하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다. 또한, 팬틸트부(119)는 제어부(112)의 제어에 따라 특정 개체를 트래킹하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다.In this case, the controller 112 may control the pan tilt unit 119 of the abnormal object detecting apparatus 100 to perform tracking shooting. The pan tilt unit 119 may control a photographing area of the photographing unit 111 by driving two motors, a pan and a tilt. The pan tilt unit 119 may adjust the directing direction of the photographing unit 111 to photograph a specific area under the control of the controller 112. In addition, the pan tilt unit 119 may adjust the directing direction of the photographing unit 111 to track a specific object under the control of the controller 112.
본 발명의 실시예에서, 제어부(112)는 촬영부(111)에 의하여 촬영된 영상을 입력 받고, 입력 받은 영상 내 개체 중 기 설정된 시간 동안 움직임이 검출되지 않은 영역, 예를 들어 움직임이 검출되지 않은 픽셀이 마스킹된 영상을 생성하여 출력할 수 있다. 본 명세서에서, 움직임이 검출되지 않은 픽셀이 마스킹된 영상은, 움직임이 검출되지 않은 픽셀이 주변 픽셀과 구별되도록 표시된 영상 또는 주변 픽셀과 구별되도록 표시되지 않은 영상을 의미할 수 있다. 즉, 본 명세서에서, 마스킹은 주변 픽셀과 구별되도록 하는 총체적인 방법을 의미할 수 있으며, 이미지 프로세싱 분야에서 일반적으로 적용되는 마스킹 처리뿐만 아니라, 모자이크 처리, 투명 픽셀 처리 등을 모두 포함하는 것으로 해석될 수 있다.In an embodiment of the present invention, the controller 112 receives an image photographed by the photographing unit 111, and an area in which no motion is detected, for example, a motion, is not detected for a predetermined time among the objects in the input image. An image in which no pixels are masked may be generated and output. In this specification, an image in which a pixel in which no motion is detected is masked may mean an image in which a pixel in which no motion is detected is displayed to be distinguished from a neighboring pixel or an image which is not displayed in order to be distinguished from a peripheral pixel. That is, in the present specification, masking may mean an overall method of distinguishing from surrounding pixels, and may be interpreted to include not only masking processing generally applied in the field of image processing, but also mosaic processing, transparent pixel processing, and the like. have.
통신부(113)는 타 이상 개체 검출 장치, 관리자 단말(200) 또는 학습용 서버(400)중 적어도 하나와 데이터 통신을 수행할 수 있다. 예를 들면, 통신부(113)는 무선랜(Wireless LAN: WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등의 원거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.The communication unit 113 may perform data communication with at least one of the other abnormality object detecting apparatus, the manager terminal 200, or the learning server 400. For example, the communication unit 113 may include a wireless LAN (WLAN), Wi-Fi, WiBro, WiMAX, World Interoperability for Microwave Access (WMAX), and HSDPA (High Speed Downlink). Data communication may be performed using telecommunication technologies such as Packet Access, IEEE 802.16, Long Term Evolution (LTE), and Wireless Mobile Broadband Service (WMBS).
또는 통신부(113)는 블루투스, RFID(RadioFrequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비, 인접 자장 통신(NFC) 등이 포함될 수 있다. 또한, 유선 통신 기술로는, USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등의 근거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.Alternatively, the communication unit 113 may include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), Zigbee, and Near Field Communication (NFC). In addition, as a wired communication technology, data communication may be performed using a short-range communication technology such as USB communication, Ethernet, serial communication, and optical / coaxial cable.
예를 들면, 통신부(113)는 근거리 통신 기술을 사용하여 타 이상 개체 검출 장치와 데이터 통신을 수행하고, 원거리 통신 기술을 사용하여 관리자 단말(200) 또는 학습용 서버(400)와 데이터 통신을 수행할 수 있다, 그러나 이에 한정되는 것은 아니고, 사육장(10)의 제반 사항 등을 고려하여 다양한 통신 기술이 사용될 수 있다.For example, the communication unit 113 may perform data communication with another abnormality object detecting apparatus using a short range communication technology, and perform data communication with the manager terminal 200 or the learning server 400 using a long distance communication technology. However, the present invention is not limited thereto, and various communication technologies may be used in consideration of various aspects of the kennel 10.
통신부(113)는 촬영부(111)에서 촬영한 영상 데이터를 관리자 단말(200)에게 전송하거나, 제어부(112)에 의하여 추출된 이상 개체 정보를 관리자 단말(200)에게 전송하거나, 영상 데이터와 이상 개체 정보를 정합한 결과를 관리자 단말(200)에게 전송할 수 있다. 그리고, 통신부(113)는 촬영부(111)에서 촬영한 영상 및 영상 내 개체의 밀도에 대한 비트맵을 학습용 서버(400)에게 전송할 수도 있다. 여기서, 학습용 서버(400)로 전송되는 비트맵은 관리자 단말(200)에 의하여 수정된 비트맵일 수 있다. The communication unit 113 transmits the image data photographed by the photographing unit 111 to the manager terminal 200, or transmits the abnormal object information extracted by the controller 112 to the manager terminal 200, or the image data and the abnormality. The result of matching the individual information may be transmitted to the manager terminal 200. In addition, the communication unit 113 may transmit a bitmap of an image photographed by the photographing unit 111 and a density of an object in the image to the learning server 400. Here, the bitmap transmitted to the learning server 400 may be a bitmap modified by the manager terminal 200.
통신부(113)를 통하여 전송되는 데이터는 인코딩부(116)를 통하여 인코딩된 압축 데이터일 수 있다.The data transmitted through the communication unit 113 may be compressed data encoded through the encoding unit 116.
표시부(114)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 114 includes a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), At least one of a 3D display and an e-ink display.
표시부(114)는 제어부(112)를 통하여 픽셀값이 조절된 영상 데이터 및 분포 데이터 중 적어도 하나를 디스플레이할 수 있다.The display unit 114 may display at least one of image data and distribution data in which pixel values are adjusted through the control unit 112.
또한, 표시부(114)는 촬영부(111)에서 촬영한 영상 데이터를 화면에 출력하거나, 영상 데이터와 이상 개체 정보가 검출된 결과를 화면에 출력할 수도 있다. In addition, the display unit 114 may output the image data photographed by the photographing unit 111 to the screen, or may output the result of detecting the image data and the abnormal object information on the screen.
또한, 표시부(114)는 다양한 사용자 인터페이스 또는 그래픽 사용자 인터페이스를 화면에 출력할 수 있다.In addition, the display unit 114 may output various user interfaces or graphic user interfaces on the screen.
유저 인터페이스부(115)는 이상 개체 검출 장치(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 유저 인터페이스부(115)는 키 패드, 돔 스위치, 터치 패드, 조그 휠, 조그 스위치 등으로 구성될 수 있다. 표시부(114)와 터치패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 표시부(114)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. The user interface 115 generates input data for controlling the operation of the abnormality object detecting apparatus 100. The user interface unit 115 may include a keypad, a dome switch, a touch pad, a jog wheel, a jog switch, and the like. When the display unit 114 and the touch pad have a mutual layer structure and constitute a touch screen, the display unit 114 may be used as an input device in addition to the output device.
유저 인터페이스부(115)는 이상 개체 검출 장치의 동작을 위한 다양한 명령을 입력받을 수 있다.The user interface 115 may receive various commands for the operation of the abnormality object detecting apparatus.
인코딩부(116)는 촬영부(111)에서 촬영한 영상 데이터 또는 제어부(112)를 통하여 가공된 가공 영상 데이터를 디지털 신호로 부호화한다. 예를 들면, 인코딩부(116)는 H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준에 따라 영상 데이터를 인코딩할 수 있다.The encoding unit 116 encodes the image data photographed by the photographing unit 111 or the processed image data processed through the control unit 112 into a digital signal. For example, the encoding unit 116 may encode image data according to H.264, H.265, Moving Picture Experts Group (MPEG), and Motion Joint Photographic Experts Group (M-JPEG) standards.
데이터베이스(117)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 이상 개체 검출 장치(100)는 인터넷(internet) 상에서 데이터베이스(117)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 웹 스토리지와 관련되어 동작할 수도 있다.The database 117 may include a flash memory type, a hard disk type, a multimedia card micro type, a memory of a card type (for example, SD or XD memory). , Magnetic memory, magnetic disk, optical disk, random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (ROMEEP), programmable memory (PROM) Read-Only Memory) may include at least one storage medium. In addition, the anomaly detecting apparatus 100 may operate a web storage that performs a storage function of the database 117 on the Internet, or may operate in connection with the web storage.
데이터베이스(117)는 촬영부(111)에서 촬영한 영상 데이터를 저장할 수 있으며, 과거 일정 기간 동안의 영상 데이터를 저장할 수 있다.The database 117 may store image data photographed by the photographing unit 111 and may store image data for a predetermined period of time.
또한, 데이터베이스(117)는, 이상 개체 검출 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있으며, 제어부(112)가 이상 개체 정보를 추출하기 위해 필요한 알고리즘 및 이에 적용되는 파라미터를 저장할 수 있다.In addition, the database 117 may store data and programs necessary for the abnormal object detection apparatus 100 to operate, and may store an algorithm and parameters applied to the controller 112 to extract the abnormal object information. have.
또한, 데이터베이스(117)는, 다양한 사용자 인터페이스(User Interface: UI) 또는 그래픽 사용자 인터페이스(Graphic User Interface: GUI)를 저장할 수 있다.In addition, the database 117 may store various user interfaces (UIs) or graphical user interfaces (GUIs).
광원부(118)는 제어부(112)의 제어에 따라 지향하는 방향으로 광을 조사할 수 있다. 예를 들면, 광원부(118)는 적어도 하나의 레이저 다이오드(LD), 발광 다이오드(LED)를 포함할 수 있다. 광원부는 제어부의 제어에 따라 다양한 파장대의 광을 조사할 수 있다.The light source unit 118 may irradiate light in a direction that is directed under the control of the controller 112. For example, the light source unit 118 may include at least one laser diode LD and a light emitting diode LED. The light source unit may emit light of various wavelength bands under the control of the controller.
예를 들면, 광원부(118)는 야간 촬영을 위하여 적외선 파장대의 광을 조사할 수 있다. 또는, 광원부(118)는 사육장 내 가축의 광화학 치료(photochemotherapy)를 위하여 자외선 파장대의 광을 조사할 수도 있다.For example, the light source unit 118 may irradiate light in the infrared wavelength band for night photographing. Alternatively, the light source unit 118 may irradiate light in the ultraviolet wavelength band for photochemotherapy of livestock in the kennel.
학습 전처리부(120)는 촬영부(111)에 의하여 획득된 영상 데이터 중 학습용 서버(400)가 학습에 사용할 학습용 데이터를 추출한다. 학습 전처리부(120)가 학습 데이터를 추출하는 자세한 방법은 이하에서 설명한다. The learning preprocessor 120 extracts the learning data to be used for learning by the learning server 400 from the image data acquired by the photographing unit 111. A detailed method of extracting the training data by the learning preprocessor 120 will be described below.
도 5를 참조하면, 이상 개체 검출 장치(100)는 촬영부(111)를 이용하여 복수의 개체가 함께 촬영된 영상에 대한 영상 데이터를 획득하며(S500), 제어부(112)는 획득한 영상 데이터로부터 이상 개체 정보를 추출한다(S502). 여기서, 하나의 영상 데이터는 단일 프레임을 의미할 수 있으며, 촬영부(111)는 순차적으로 촬영되는 영상을 이용하여 복수 개의 영상 데이터를 생성할 수 있다. 이때, 제어부(112)는 미리 저장된 알고리즘 및 이에 적용되는 파라미터를 이용하여 이상 개체 정보를 추출할 수 있다. 여기서, 미리 저장된 알고리즘은 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 표시하도록 학습된 제1 알고리즘 및 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘을 이용하여 객체 중 움직임이 없는 객체를 표시하는 알고리즘을 의미할 수 있다. 여기서, 제1 알고리즘은 객체가 존재하는 영역을 표시하는 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다, 또는, 제1 알고리즘은 객체의 분포 정보, 즉 객체가 위치하는 영역의 밀도 정보를 나타내는 방법을 이용할 수도 있다. 여기서, 제1 알고리즘은 본 명세서 내에서의 학습된 모델의 전부 또는 일부일 수 있다. 여기서, 학습된 모델은 컴퓨터로 읽을 수 있는 프로그램일 수 있으며, 컴퓨터에 의하여 실행될 수 있는 기록매체 또는 저장 장치에 저장될 수 있다. 컴퓨터 내의 프로세서는 기록매체 또는 저장 장치에 저장된 프로그램을 읽어 들이며, 프로그램, 즉 학습된 모델을 실행하여 입력 정보를 연산하고, 연산 결과를 출력할 수 있다. 이때, 학습된 모델의 입력은 하나 또는 복수의 개체를 촬영한 영상 데이터일 수 있으며, 학습된 모델은 출력은 영상 데이터 내에 있는 개체에 대한 밀도 맵일 수 있다. 여기서, 밀도 맵은 위치 분포 데이터, 밀도 정보, 밀도 영상 등과 혼용될 수 있다. 도 6은 본 발명의 실시예에 따른 제1 알고리즘의 한 예인 객체 밀도 예측 네트워크를 설명하기 위한 도면이다. 여기서, 객체 밀도 예측 네트워크는 객체가 위치하는 영역의 밀도 정보를 표시하도록 설계된 딥러닝 알고리즘의 한 예이다. 객체 밀도 예측 네트워크는 컨볼루션 네트워크(convolution network) 기반 학습 머신에 원본 영상을 입력한 후, 그레이 스케일의 확률 맵으로 나타낸 밀도 영상을 출력하는 알고리즘일 수 있다. 여기서, 컨볼루션 네트워크는 뉴럴 네트워크일 수 있다. 이때, 하나 또는 복수의 개체를 촬영한 영상 데이터는 뉴럴 네트워크의 입력층이 되고, 뉴럴 네트워크는 학습된 중량 계수에 기초하여 하나 또는 복수의 개체를 촬영한 영상 데이터에 대하여 연산을 수행할 수 있다. 그리고, 뉴럴 네트워크의 출력층은 개체에 대한 밀도 맵일 수 있다. 이에 따르면, 닭장과 같이 유사한 모양을 가진 객체가 높은 밀도로 수용된 사육장 환경에서도 이상 객체 정보를 용이하게 추출할 수 있다. Referring to FIG. 5, the apparatus 100 for detecting an abnormality acquires image data of an image in which a plurality of objects are photographed together using the photographing unit 111 (S500), and the controller 112 obtains the image data. The abnormal object information is extracted from the apparatus (S502). Here, one image data may mean a single frame, and the photographing unit 111 may generate a plurality of image data by using images sequentially photographed. In this case, the controller 112 may extract the abnormal entity information using a pre-stored algorithm and a parameter applied thereto. Here, the pre-stored algorithm is a motion among the objects using a first algorithm trained to display the area where the object is determined to be located in the image data and a second algorithm trained to detect motion by using an optical flow. This may mean an algorithm for displaying an object without. Here, the first algorithm may use a real-time object detection method using an algorithm indicating an area in which an object exists, or the first algorithm may indicate distribution information of an object, that is, density information of an area in which an object is located. Can also be used. Here, the first algorithm may be all or part of the learned model in this specification. Here, the learned model may be a computer readable program and may be stored in a recording medium or a storage device that can be executed by the computer. A processor in a computer may read a program stored in a recording medium or a storage device, execute a program, that is, a trained model, calculate input information, and output a calculation result. In this case, the input of the trained model may be image data photographing one or a plurality of objects, and the output of the trained model may be a density map of an object in the image data. Here, the density map may be mixed with position distribution data, density information, density image, and the like. 6 is a diagram for describing an object density prediction network, which is an example of a first algorithm according to an embodiment of the present invention. Here, the object density prediction network is an example of a deep learning algorithm designed to display density information of an area where an object is located. The object density prediction network may be an algorithm for inputting an original image into a convolution network-based learning machine and then outputting a density image represented by a gray scale probability map. Here, the convolutional network may be a neural network. In this case, the image data photographing one or more objects becomes an input layer of the neural network, and the neural network may perform an operation on the image data photographing one or more objects based on the learned weight coefficient. And, the output layer of the neural network may be a density map for the entity. According to this, abnormal object information can be easily extracted even in a kennel environment in which objects having a similar shape, such as a chicken house, are accommodated at high density.
객체 밀도 예측 네트워크는 원본 영상과 밀도 영상을 이용하여 학습될 수 있으며, 후술하는 도 11의 학습용 서버(Training server)에 의해 학습될 수 있다.The object density prediction network may be learned using the original image and the density image, and may be learned by the training server of FIG. 11 to be described later.
도 6에서 도시된 바와 같이, 객체 밀도 예측 네트워크는 적어도 하나의 컨볼루션 네트워크(convolution network(layer))를 포함할 수 있다. As shown in FIG. 6, the object density prediction network may include at least one convolution network (layer).
컨볼루션 네트워크는 적어도 하나의 피쳐 맵(feature map(W))을 이용하여 영상의 특징점을 분류할수 있다. The convolutional network may classify the feature points of the image using at least one feature map (W).
컨볼루션 네트워크는 적어도 하나의 풀러(pooler) 및/또는 액티베이터(activator)를 통해 객체 밀도 예측 네트워크의 성능을 개선할 수 있다.The convolutional network may improve the performance of the object density prediction network through at least one pooler and / or activator.
객체 밀도 예측 네트워크는 concatenator를 더 포함하며, concatenator는 적어도 하나의 컨볼루션 네트워크의 출력 결과를 연결하고(concatenate), 재배열하여 원본 영상의 특징점을 이용하여 객체의 밀도(분포) 정보를 출력할 수 있다.The object density prediction network further includes a concatenator, and the concatenator can concatenate the output results of at least one convolutional network, rearrange them, and output density (distribution) information of the object using feature points of the original image. have.
도 11을 이용하여 후술할 학습용 서버(Training server)에서 적어도 하나의 피쳐 맵(feature map(W))은 객체의 밀도 정보를 출력할 수 있도록 훈련(trained(tuned))될 수 있다.At least one feature map (W) may be trained (tuned) to output density information of an object in a training server to be described later with reference to FIG. 11.
본 발명의 실시예에서, 학습용 서버에 포함되는 객체 밀도 예측 네트워크의 입력 교사 데이터는 원본 영상 및 학습 레이블(lable)이고, 출력은 밀도 영상일 수 있다. 여기서, 원본 영상은 촬영부에 의하여 하나 또는 복수의 개체가 촬영된 영상일 수 있고 학습 레이블은 유사 밀도(pseudo density) 8비트 그레이 이미지 또는 확률 맵으로 나타내어지는 개체 밀도 추정 이미지일 수 있다. 밀도 영상은 원본 영상과 같거나 유사한 크기(Width x Highet)를 가지도록 객체 밀도 예측 네트워크가 구성되며, 각각의 픽셀(또는 블록)의 위치는 서로 대응되고, 밀도 영상의 픽셀의 값은 원본 영상의 대응 픽셀에 객체(예를들어 가금류)가 존재할 수 있는 확률을 나타낼 수 있다. 예를 들어, 원본 영상의 픽셀에 객체가 존재할 확률이 높을수록, 밀도 영상의 해당 픽셀의 값은 높은 값을 가질 수 있다. 여기서, 밀도 영상은 8비트 그레이 이미지 또는 확률맵일 수 있다. 예를 들어, 각 개체를 검출하기 위하여 레이블링한 사각형 박스의 중간에 흰색 점을 찍고, 그 점을 블러링하여 번지게 하는 방법을 이용하여 밀도 영상을 생성할 수 있다. In an embodiment of the present invention, the input teacher data of the object density prediction network included in the learning server may be an original image and a learning label, and the output may be a density image. Here, the original image may be an image in which one or a plurality of objects are photographed by the photographing unit, and the learning label may be an object density estimation image represented by a pseudo density 8-bit gray image or a probability map. The density density network is configured to have the same or similar size (Width x Highet) as the original image, and the position of each pixel (or block) corresponds to each other, and the pixel value of the density image is It can represent the probability that an object (eg poultry) can be present in the corresponding pixel. For example, the higher the probability that an object exists in a pixel of the original image, the higher the value of the pixel of the density image may be. Here, the density image may be an 8-bit gray image or a probability map. For example, a density image may be generated using a method of taking a white dot in the middle of a labeled rectangular box and blurring the spot to blur each object.
이상 개체 검출 장치(100)의 통신부(113)는 제어부(112)가 획득한 이상 개체 정보를 관리자 단말(200)에게 전송하며(S504), 관리자 단말(200)은 이상 개체 정보를 출력한다(S506). 이에 따라, 관리자는 관리자 단말(200)에 출력된 이상 개체 정보를 인지할 수 있다. 여기서, 이상 개체 정보는 이상 개체 데이터와 혼용될 수 있다.The communication unit 113 of the abnormal object detecting apparatus 100 transmits the abnormal object information acquired by the control unit 112 to the manager terminal 200 (S504), and the manager terminal 200 outputs the abnormal object information (S506). ). Accordingly, the manager can recognize the abnormal object information output to the manager terminal 200. Here, the abnormal entity information may be mixed with the abnormal entity data.
도 7은 관리자 단말에 이상 개체 정보가 표시되는 예를 설명하기 도면이다. 관리자 단말(200)에는 도 7(c)와 같은 영상이 표시될 수 있다. 즉, 관리자 단말(200)에는 도 7(a)와 같이 촬영부(111)에 의하여 촬영된 원본 이미지와 도 7(b)와 같이 제어부(112)에 의하여 추출된 이상 개체 데이터를 정합한 영상이 표시될 수 있다. 여기서, 이상 개체 데이터는 닭 밀도 추정 이미지일 수 있으며, 유사밀도 8비트 그레이 이미지, 확률맵 또는 비트맵으로 표시될 수 있다. 이때, 이상 개체 데이터는 개체 별로 이상 확률을 표시한 데이터가 아니라, 영상 데이터 내 구분된 영역 별, 블록 별, 또는 픽셀 별로 해당되는 영역, 블록 또는 픽셀에서 개체, 몸통 또는 머리의 이상 확률을 나타내는 데이터이다.7 is a diagram illustrating an example of displaying abnormal entity information on a manager terminal. The manager terminal 200 may display an image as shown in FIG. 7C. That is, the manager terminal 200 includes an image obtained by matching the original image photographed by the photographing unit 111 as shown in FIG. 7A and abnormal object data extracted by the controller 112 as shown in FIG. 7B. Can be displayed. Here, the abnormal object data may be a chicken density estimation image, and may be displayed as a pseudo density 8 bit gray image, a probability map, or a bit map. In this case, the abnormal object data is not data indicating an abnormal probability for each object, but data representing an abnormal probability of an object, a body, or a head in a region, block, or pixel corresponding to each divided area, block, or pixel in the image data. to be.
만약, 관리자 단말(200)에 노출된 이상 개체 정보에 오류가 있는 경우, 관리자는 관리자 단말(200)을 통하여 이상 개체 검출 장치(100)에게 피드백 정보를 전송할 수 있다(S508). 예를 들어, 이상 개체가 아님에도 불구하고 이상 개체 검출 장치(100)가 이상 개체인 것으로 판단하거나, 이상 개체임에도 불구하고 이상 개체 검출 장치(100)가 정상 개체인 것으로 판단한 경우, 관리자 단말(200)은 이상 개체 정보에 오류가 있음을 알리는 피드백 정보를 이상 개체 검출 장치(100)에게 전송할 수 있다. 여기서, 피드백 정보는 이상 개체 정보 중 오류가 있는 시간 영역 및 공간 영역 중 적어도 하나를 포함할 수 있다. 오류가 있는 시간 영역 및 공간 영역은 관리자에 의하여 선택되거나 지정될 수 있으며, 관리자 단말(200)의 유저 인터페이스부를 통하여 입력될 수 있다. 예를 들어, 도 8(c)에서 예시한 바와 같이, 관리자 단말(200)이 화면(800) 내 4개의 영역에 대한 이상 개체 정보(802, 804, 806, 808)를 표시하며, 관리자가 4개 중 1개의 이상 개체 정보(예를 들어, 806)는 오류인 것으로 판단한 경우, 관리자가 유저 인터페이스를 통하여 오류인 이상 개체 정보(806)를 선택하여 피드백할 수 있다. 또는, 관리자 단말(200)이 출력한 화면 내에 이상 개체가 있음에도 불구하고 이상 개체 정보가 표시되지 않은 경우, 관리자는 이상 개체인 것으로 보이는 시간 영역 및 공간 영역을 지정하여 피드백할 수도 있다. If there is an error in the abnormal object information exposed to the manager terminal 200, the manager may transmit feedback information to the abnormal object detection apparatus 100 through the manager terminal 200 (S508). For example, when it is determined that the abnormal object detecting apparatus 100 is an abnormal object even though it is not an abnormal object, or when the abnormal object detecting apparatus 100 is determined to be a normal object despite being an abnormal object, the manager terminal 200 is determined. ) May transmit feedback information indicating that there is an error in the abnormal object information to the abnormal object detecting apparatus 100. Here, the feedback information may include at least one of a temporal domain and a spatial domain in which the error information is abnormal. The error time zone and the space zone may be selected or designated by an administrator, and may be input through a user interface unit of the manager terminal 200. For example, as illustrated in FIG. 8C, the manager terminal 200 displays abnormal object information 802, 804, 806, and 808 for four areas of the screen 800, and the manager displays 4. If one or more pieces of abnormal object information (for example, 806) is determined to be an error, the administrator may select and feed back the abnormal object information 806 which is an error through the user interface. Alternatively, when the abnormal object information is not displayed despite the abnormal object in the screen output by the manager terminal 200, the manager may designate and feed back a time area and a spatial area which appear to be the abnormal object.
이상 개체 검출 장치(100)의 학습 전처리부(120)는 관리자 단말(200)로부터 수신한 피드백 정보를 이용하여 학습용 데이터를 추출하며(S510), 추출한 학습용 데이터를 학습용 서버(400)에게 전송한다(S512). The learning preprocessor 120 of the object detecting apparatus 100 extracts training data using the feedback information received from the manager terminal 200 (S510) and transmits the extracted training data to the training server 400 ( S512).
여기서, 학습용 데이터는 단계 S500에서 획득한 영상 데이터의 일부일 수 있다. 이상 개체 검출 장치(100)의 학습 전처리부(120)는 단계 S500에서 획득한 영상 데이터 중 관리자 단말(200)로부터 수신한 피드백 정보에 포함된 시간 영역 및 공간 영역에 따라 영상 데이터를 추출할 수 있다. 예를 들어, 관리자 단말(200)이 n번째 프레임의 일부 영역(예, 도 8(c)의 806))에 오류가 있는 것으로 판단한 경우, 학습용 데이터는 n번째 프레임 중 일부 영역(예, 도 8(c)의 806)일 수 있다. 또는, 관리자 단말(200)이 전체 프레임 중 n번째 프레임에서 n+3번째 프레임의 이상 개체 데이터에 오류가 있는 것으로 판단한 경우, 학습용 데이터는 전체 프레임 중 n번째 프레임에서 n+3번째 프레임일 수 있다. 이에 따라, 이상 개체 검출 장치(100)는 촬영부(111)가 획득한 전체 영상 데이터 중 이상 개체 검출에 오류가 있는 영상 데이터만을 추출하여 학습용 서버(400)에게 전송할 수 있다. 이에 따라, 이상 개체 검출 장치(100)와 학습용 서버(400) 간 통신 트래픽이 현저히 줄어들 수 있다. 여기서, 학습용 데이터는, 추출된 영상 데이터뿐만 아니라, 오류 정보 및 정정 정보 중 적어도 하나를 더 포함할 수도 있다. 오류 정보는 제어부에 의한 판단이 잘못되었음을 알리는 정보이고, 정정 정보는 정정되어야 할 방향을 알리는 정보일 수 있다. 또는, 학습용 데이터는, 추출된 원본의 영상 데이터 및 오류가 정정된 후의 이상 개체 데이터를 포함할 수도 있다. 예를 들어, n번째 프레임 내지 n+3번째 프레임 내 일부 영역(예, 도 8(c)의 806)에 오류가 있는 것으로 판단된 경우, 학습용 데이터는 n번째 프레임 내지 n+3번째 프레임에 대한 원본의 영상 데이터 및 n번째 프레임 내지 n+3번째 프레임에 대한 이상 개체 데이터를 포함할 수 있으며, n번째 프레임 내지 n+3번째 프레임에 대한 이상 개체 데이터는 오류가 있는 것으로 판단된 일부 영역(예, 도 8(c)의 806)의 오류가 정정된 후의 그레이 이미지일 수 있다. 학습용 서버(400)는 이상 개체 검출 장치(100)로부터 수신한 학습용 데이터를 이용하여 재학습(retraining)한다(S514). 즉, 학습용 서버(400)는 n번째 프레임 내지 n+3번째 프레임에 대한 원본의 영상 데이터 및 n번째 프레임 내지 n+3번째 프레임에 대한 이상 개체 데이터에서 오류가 있는 것으로 판단된 일부 영역의 오류가 정정된 후의 그레이 이미지 간의 관계를 학습할 수 있다. 이에 따라, 학습용 서버(400)는 이상 개체 검출을 위한 업데이트 정보를 이상 개체 검출 장치(100)에게 전송한다(S516). 여기서, 업데이트 정보는 이상 개체 검출을 위한 알고리즘에 적용되는 파라미터일 수 있으며, 이는 조정 가능한 매트릭스(adjustable matrix) 형태일 수 있다.Here, the training data may be part of the image data acquired in step S500. The learning preprocessor 120 of the abnormality object detecting apparatus 100 may extract the image data according to the time domain and the spatial domain included in the feedback information received from the manager terminal 200 among the image data acquired in step S500. . For example, when the manager terminal 200 determines that there is an error in a part of the nth frame (eg, 806 of FIG. 8C), the training data is part of the nth frame (eg, FIG. 8). 806 of (c). Alternatively, when the manager terminal 200 determines that there is an error in the abnormal object data of the n + 3 th frame in the n th frame among the entire frames, the training data may be the n + 3 th frame in the n th frame of the entire frames. . Accordingly, the abnormal object detecting apparatus 100 may extract only the image data having an error in detecting the abnormal object from the entire image data acquired by the photographing unit 111 and transmit the extracted image data to the learning server 400. Accordingly, communication traffic between the abnormality object detecting apparatus 100 and the learning server 400 may be significantly reduced. Here, the training data may further include at least one of error information and correction information as well as extracted image data. The error information may be information indicating that a determination by the controller is wrong, and the correction information may be information indicating a direction to be corrected. Alternatively, the training data may include the extracted original image data and the abnormal object data after the error is corrected. For example, if it is determined that there is an error in some region (for example, 806 of FIG. 8C) in the n th frame to the n + 3 th frame, the training data is determined for the n th frame to the n + 3 th frame. Image data of the original and abnormal object data for the nth to n + 3th frames, and the abnormal object data for the nth to n + 3th frames may be included in some areas determined to be in error (eg, This may be a gray image after the error of 806 of FIG. 8C is corrected. The training server 400 retrains using the training data received from the abnormal object detection apparatus 100 (S514). That is, the learning server 400 may detect an error in some areas determined to be in error in the original image data for the n th frame to the n + 3 th frame and the abnormal object data for the n th th frame to the n + 3 th frame. The relationship between the gray images after the correction can be learned. Accordingly, the learning server 400 transmits the update information for detecting the abnormal object to the abnormal object detecting apparatus 100 (S516). Here, the update information may be a parameter applied to an algorithm for detecting an abnormal object, which may be in the form of an adjustable matrix.
이후, 이상 개체 검출 장치(100)는 단계 S500와 같이, 복수의 개체가 함께 촬영된 영상에 대한 영상 데이터를 획득하며(S518), 제어부(112)는 미리 저장된 알고리즘 및 업데이트 정보를 이용하여 획득한 영상 데이터로부터 이상 개체 정보를 추출한다(S520).Thereafter, the apparatus 100 for detecting an abnormality acquires image data of an image in which a plurality of objects are taken together as shown in step S500 (S518), and the controller 112 obtains the image using an algorithm and update information stored in advance. The abnormal object information is extracted from the image data (S520).
이에 따라, 이상 개체 검출 장치(100)는 관리자 단말(200)의 피드백 정보를 반영하여 이상 개체를 검출할 수 있으며, 이상 개체 검출 장치(100)와 학습용 서버(400) 간의 통신 트래픽을 줄일 수 있다.Accordingly, the abnormal object detecting apparatus 100 may detect the abnormal object by reflecting the feedback information of the manager terminal 200, and may reduce communication traffic between the abnormal object detecting apparatus 100 and the learning server 400. .
도 2에 도시된 바와 같이, 학습용 서버(400)가 복수의 이상 개체 검출 장치(100)와 통신하는 경우, 학습용 서버(400)는 복수의 이상 개체 검출 장치(100)에게 동일한 업데이트 정보를 전송할 수 있다. 이에 따르면, 하나의 이상 개체 검출 장치(100)로부터 얻은 오류 정보에 의하여 재학습된 결과를 다른 이상 개체 검출 장치(100)에 반영시킬 수 있으며, 결과적으로 복수의 이상 개체 검출 장치(100)에 대하여 전체적으로 검출 정밀도를 높일 수 있다. 또는, 이상 개체 검출 장치(100) 마다 상이한 환경에 처해 있을 수 있으므로, 업데이트 정보는 이상 개체 검출 장치(100) 마다 특이적일 수도 있다. As illustrated in FIG. 2, when the learning server 400 communicates with the plurality of abnormal object detecting apparatuses 100, the learning server 400 may transmit the same update information to the plurality of abnormal object detecting apparatuses 100. have. According to this, the result of re-learning by the error information obtained from one abnormal object detecting apparatus 100 can be reflected in the other abnormal object detecting apparatus 100. As a result, the plurality of abnormal object detecting apparatuses 100 Overall, the detection accuracy can be improved. Alternatively, since the abnormal object detection apparatus 100 may be in a different environment, the update information may be specific for the abnormal object detection apparatus 100.
본 발명의 실시예에 따르면, 이상 개체 검출 장치(100)의 객체 밀도 예측 네트워크와 같은 알고리즘을 학습용 서버(400)도 저장하며, 학습용 서버(400)는 이를 이용하여 오류 데이터와 대응되는 원본 영상으로 재학습시키는 것이 바람직하다.According to an embodiment of the present invention, the learning server 400 also stores an algorithm such as an object density prediction network of the abnormal object detecting apparatus 100, and the learning server 400 uses the same as an original image corresponding to the error data. It is desirable to relearn.
이하, 본 발명의 실시예에 따른 이상 개체 검출 장치(100)가 이상 개체를 검출하는 방법을 설명한다.Hereinafter, a method of detecting an abnormal object by the abnormal object detecting apparatus 100 according to an exemplary embodiment of the present invention will be described.
도 9는 본 발명의 실시예에 따른 이상 개체 검출 장치에 포함되는 제어부의 블록도이고, 도 10은 본 발명의 실시예에 따른 이상 개체 검출 장치의 이상 개체 검출 알고리즘을 설명하는 도면이고, 도 11은 학습용 서버에 의하여 재학습된 결과를 이용하여 본 발명의 실시예에 따른 이상 개체 검출 장치가 이상 개체를 검출하는 방법을 설명하는 도면이다. FIG. 9 is a block diagram of a controller included in an abnormal object detecting apparatus according to an embodiment of the present invention. FIG. 10 is a diagram illustrating an abnormal object detecting algorithm of the abnormal object detecting apparatus according to an embodiment of the present invention. Is a diagram for explaining a method of detecting an abnormal object by the apparatus for detecting an abnormal object according to an embodiment of the present invention by using the result of re-learning by the learning server.
도 9를 참조하면, 제어부(112)는 제1 특징 추출 유닛(600), 제2 특징 추출 유닛(602) 및 이상 개체 정보 생성 유닛(604)을 포함한다. Referring to FIG. 9, the control unit 112 includes a first feature extraction unit 600, a second feature extraction unit 602, and an abnormal entity information generation unit 604.
제1 특징 추출 유닛(600)은 촬영부(111)에 의하여 촬영된 영상에 대한 영상 데이터 내 복수의 개체의 위치 분포를 추출하고, 제2 특징 추출 유닛(602)은 영상 데이터 내 복수의 개체의 움직임을 추출한다. 그리고, 이상 개체 정보 생성 유닛(604)은 제1 특징 추출 유닛(600)에 의하여 추출된 위치 분포 및 제2 특징 추출 유닛(602)에 의하여 추출된 움직임에 기초하여 이상 개체 정보, 예를 들어 픽셀 별 이상 개체 확률을 추정한다.The first feature extracting unit 600 extracts a position distribution of a plurality of objects in the image data with respect to the image photographed by the photographing unit 111, and the second feature extracting unit 602 extracts a plurality of objects in the image data. Extract the movement. The abnormal object information generating unit 604 then generates the abnormal object information, for example, the pixel based on the position distribution extracted by the first feature extraction unit 600 and the movement extracted by the second feature extraction unit 602. Estimate the odds of a star anomaly.
구체적으로, 제1 특징 추출 유닛(600)은 영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성할 수 있다. 여기서, 복수의 개체의 위치 분포는 위치 별 객체의 밀도 분포를 의미할 수 있으며, 위치 분포 데이터는 밀도 맵과 혼용될 수 있다. 전술한 바와 같이, 제1 특징 추출 유닛(600)은 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 제안하도록 학습된 제1 알고리즘, 즉 영역 제안 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다. 제1 특징 추출 유닛(600)은 예를 들면, 복수의 개체를 포함하여 생성된 제1영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성하고, 복수의 개체를 포함하여 생성된 제2영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성할 수 있다. 여기서, 제1 위치 분포 데이터 및 제2 위치 분포 데이터는 시계열적으로 생성된 영상 데이터에 대한 위치 분포 데이터일 수 있다. In detail, the first feature extracting unit 600 may generate position distribution data indicating the position distribution of the plurality of objects using the image data. Here, the location distribution of the plurality of objects may mean a density distribution of objects for each location, and the location distribution data may be mixed with the density map. As described above, the first feature extraction unit 600 may use a real-time object detection method using a first algorithm trained to suggest an area in which the object is located in the image data, that is, an area suggestion algorithm. The first feature extraction unit 600 generates first position distribution data indicating a position distribution of the plurality of objects by using the first image data generated by including the plurality of objects, for example, and includes the plurality of objects. Second position distribution data representing a position distribution of a plurality of objects may be generated using the second image data generated by the method. Here, the first position distribution data and the second position distribution data may be position distribution data of image data generated in time series.
본 발명의 실시예에서 위치 분포 데이터란, 개별 개체 위치를 표시하는 것이 아니라, 영상 데이터의 구분된 영역 또는 블록 별로 해당되는 영역 또는 블록에 개체, 몸통 또는 머리가 존재할 수 있는 확률을 나타내는 데이터이다. 위치 분포 데이터는 각 픽셀에 개체가 존재할 확률을 다른 색으로 표현하는 히트맵일 수 있다. In the exemplary embodiment of the present invention, the position distribution data does not indicate individual individual positions but is data indicating a probability that an individual, a trunk, or a head may exist in a region or block corresponding to each divided region or block of the image data. The position distribution data may be a heat map expressing a probability that an object exists in each pixel in a different color.
또한, 제1 특징 추출 유닛(600)은 개체 검출 분류기를 이용하여 영상 데이터에서 동물 개체를 검출할 수 있다. 이때, 개체 검출 분류기는 동물 개체의 자세나 외부 환경을 달리하여 기촬영한 동물 개체의 영상들로부터 훈련 DB 를 구축하여 학습된 것으로서, 이러한 개체 검출 분류기는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 통해 동물 개체의 DB 를 생성한다. 구체적으로, 제1 특징 추출 유닛(600)은 기 촬영된 사육장 내 배경의 영상 데이터에서 전경에 해당하는 개체의 에지를 검출하고, 영상 데이터에서 검출된 전경 개체의 에지를 적용하고, 전경 개체의 에지가 적용된 영상 데이터의 영역에 개체 검출 분류기를 적용하여 동물 개체를 검출할 수 있다.In addition, the first feature extraction unit 600 may detect an animal object from the image data using the object detection classifier. At this time, the object detection classifier is trained by constructing a training DB from images of animal objects photographed by different postures or external environments of the animal object. The object detection classifier is a SVM (Support Vector Machine), a neural network, and an AdaBoost algorithm. Create a database of animal subjects through various learning algorithms, including In detail, the first feature extracting unit 600 detects an edge of the object corresponding to the foreground in the image data of the background in the previously photographed kennel, applies an edge of the foreground object detected in the image data, and applies the edge of the foreground object. Animal objects can be detected by applying the object detection classifier to the area of the image data to which is applied.
제2 특징 추출 유닛(602)은 영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성할 수 있다. 여기서, 동작 데이터는 개별 개체의 움직임을 표시하는 것이 아니라, 영상 데이터의 구분된 영역 또는 블록 별로 해당되는 영역 또는 블록에 움직임이 존재했는지 여부를 나타내는 데이터이고, 동작 데이터는 동작 맵과 혼용될 수 있다. 동작 데이터는 픽셀 별로 해당되는 픽셀에 움직임이 존재했는지 여부를 나타내는 데이터일 수도 있다. 전술한 바와 같이, 제2 특징 추출 유닛(602)은 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘을 이용할 수 있다. 제2 특징 추출 유닛(602)은 단일 영상 데이터 또는 복수개의 연속된 영상 데이터를 이용하여 분포도 상의 특정 지점, 특정 개체 또는 특정 픽셀에서의 움직임을 검출할 수 있다.The second feature extraction unit 602 may generate motion data indicating the movement of the motion object among the plurality of objects using the image data. Here, the motion data is not data indicating the movement of an individual object, but data indicating whether a motion exists in a corresponding area or block for each divided area or block of the image data, and the motion data may be mixed with the motion map. . The motion data may be data indicating whether a motion exists in a pixel corresponding to each pixel. As described above, the second feature extraction unit 602 may use a second algorithm trained to detect motion using optical flow. The second feature extraction unit 602 may detect a movement at a specific point, a specific object, or a specific pixel on the distribution map using the single image data or the plurality of consecutive image data.
제2 특징 추출 유닛(602)은 예를 들면, 제1영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성하고, 제2 영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 제2 동작 데이터를 생성할 수 있다. 여기서, 제1 동작 데이터 및 제2 동작 데이터는 시계열적으로 생성된 복수 개의 영상 데이터에 대한 동작 데이터일 수 있다.For example, the second feature extraction unit 602 generates first motion data indicating the movement of the motion object among the plurality of objects by using the first image data, and operates the motion among the plurality of objects by using the second image data. Second motion data representing the movement of the object may be generated. Here, the first motion data and the second motion data may be motion data for a plurality of image data generated in time series.
제2 특징 추출 유닛(602)은 Dense Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 영상 데이터 상의 모든 픽셀에 대해서 모션 벡터(Motion Vector)를 연산하여 각 픽셀에 대한 움직임을 검출할 수 있다. Dense Optical Flow방식의 경우 모든 픽셀에 대하여 모션 벡터를 연산하기 때문에 검출 정확도는 향상되지만 상대적으로 연산량은 증가하게 된다. 따라서, Dense Optical Flow방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다.The second feature extraction unit 602 may detect the movement of the moving object using the Dense Optical Flow method. The second feature extraction unit 602 may detect a motion for each pixel by calculating a motion vector for all pixels on the image data. In the case of the Dense Optical Flow method, since the motion vector is calculated for all pixels, the detection accuracy is improved, but the amount of computation is relatively increased. Therefore, the Dense Optical Flow method can be applied to a specific area where detection accuracy is very high, such as a kennel where an abnormal situation is suspected or a kennel with a large number of individuals.
또는 제2 특징 추출 유닛(602)은 Sparse Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 영상 내 에지와 같은 움직임 추적이 쉬운 특징적인 일부 픽셀에 대해서만 모션 벡터를 연산하여 움직임을 검출할 수 있다. Sparse Optical Flow방식은 연산량이 감소하지만 한정적인 픽셀에 대한 결과만 얻을 수 있다. 따라서, Sparse Optical Flow방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 602 may detect the movement of the moving object using a sparse optical flow method. The second feature extraction unit 602 may detect a motion by calculating a motion vector only for some of the characteristic pixels that are easy to track, such as edges in the image. The sparse optical flow method reduces the amount of computation, but only results for a limited number of pixels. Therefore, the sparse optical flow method may be applied to a kennel having a small number of individuals or to a specific area where the objects do not overlap.
또는 제2 특징 추출 유닛(602)은 Block Matching을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 영상을 균등하게 또는 비균등하게 분할하여 분할 영역에 대해 모션 벡터를 연산하여 움직임을 검출할 수 있다. Block Matching은 분할 영역별로 모션 벡터를 연산하기 때문에 연산량이 감소하지만 영역별 모션 벡터에 대한 결과를 산출하기 때문에 검출 정확도가 상대적으로 낮을 수 있다. 따라서, Block Matching방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 602 may detect movement of the moving object using block matching. The second feature extraction unit 602 may divide the image evenly or unequally, calculate a motion vector with respect to the divided region, and detect a motion. Block Matching reduces the amount of computation because it calculates the motion vector for each partition, but it can have a relatively low detection accuracy because it calculates the results for the motion vector for each region. Accordingly, the block matching method may be applied to a kennel with a small number of individuals or to a specific area where the objects do not overlap.
또는 제2 특징 추출 유닛(602)은 Continuous Frame Difference 방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Continuous Frame Difference 방식은 프레임간 차이값을 이용하여 움직임을 검출하기 때문에, 전체적인 연산량은 감소하지만 부피가 큰 개체 또는 중복되어 나타나는 개체에 대한 검출 정확도가 상대적으로 낮을 수 있다. 또한, Continuous Frame Difference 방식은 배경 영상과 움직이지 않는 개체를 구분할 수 없어 정확도가 상대적으로 낮을 수 있다. 따라서, Continuous Frame Difference 방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 602 may detect the movement of the moving object by using a continuous frame difference method. The second feature extraction unit 602 may compare the consecutive image frames for each pixel and calculate a value corresponding to the difference to detect motion. Since the Continuous Frame Difference method detects motion by using the difference between frames, the overall computational amount is reduced, but the detection accuracy of a large object or a duplicate object may be relatively low. In addition, the Continuous Frame Difference method can not distinguish between the background image and the moving object may have a relatively low accuracy. Therefore, the Continuous Frame Difference method may be applied to a kennel with a small number of objects or to a specific area where the objects do not overlap.
또는 제2 특징 추출 유닛(602)은 Background Subtraction 방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 배경 영상을 초기에 학습한 상태에서 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Background Subtraction 방식은 배경 영상을 미리 학습하고 있기 때문에 배경 영상과 움직이지 않는 개체를 구분할 수 있다. 따라서, 배경 영상을 필터링하는 별도의 과정이 필요하여 연산량은 증가하지만 정확도는 향상된다. 따라서, Background Subtraction 방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다. Background Subtraction 방식에서 배경 영상은 지속적으로 업데이트 될 수 있다.Alternatively, the second feature extraction unit 602 may detect the movement of the moving object by using the background subtraction method. The second feature extraction unit 602 may compare successive image frames for each pixel in a state where the background image is initially learned, and calculate a value corresponding to the difference to detect motion. The background subtraction method is to learn the background image in advance so that the background image can be distinguished from the moving object. Therefore, a separate process of filtering the background image is required, thereby increasing the amount of computation but improving the accuracy. Therefore, the Background Subtraction method can be applied to a specific area where detection accuracy is very high, such as a kennel where an abnormal situation is suspected or a kennel with a large number of individuals. In the Background Subtraction method, the background image can be updated continuously.
제2 특징 추출 유닛(602)은 사육장 내의 환경과 외부의 설정에 따라 적절한 방식을 이용하여 분포도 상에서 움직임을 검출한다. 위의 움직임 검출 방식은 예시일 뿐, 프레임 내 움직임이 발생한 영역(예를들어 픽셀/블록)을 표시할 수 있는 방법들이 사용될 수 있다.The second feature extraction unit 602 detects the movement on the distribution chart using an appropriate method according to the environment in the kennel and the setting of the outside. The above motion detection method is just an example, and methods capable of displaying a region (for example, a pixel / block) in which a motion occurs in a frame may be used.
제1 특징 추출 유닛(600)이 위치 분포 데이터를 생성하는 과정과 제2 특징 추출 유닛(602)이 동작 데이터를 생성하는 과정은 동시에 이루어지거나, 병렬적으로 이루어지거나, 순차적으로 이루어질 수 있다. 즉, 제1 특징 추출 유닛(600)이 위치 분포 데이터를 생성하는 과정과 제2 특징 추출 유닛(602)이 동작 데이터를 생성하는 과정은 서로 독립적으로 처리됨을 의미할 수 있다. The process of generating position distribution data by the first feature extracting unit 600 and the process of generating motion data by the second feature extracting unit 602 may be performed simultaneously, in parallel, or sequentially. That is, the process of generating position distribution data by the first feature extracting unit 600 and the process of generating motion data by the second feature extracting unit 602 may be independently processed.
이상 개체 정보 생성 유닛(604)은 영상 데이터의 위치 분포 데이터 및 동작 데이터를 영역 별, 블록 별 또는 픽셀 별로 비교하여 이상 개체를 나타내는 이상 개체 데이터를 영역 별, 블록 별 또는 픽셀 별로 생성할 수 있다. 이상 개체 정보 생성 유닛(604)은 예를 들면, 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체를 나타내는 제1이상 개체 데이터를 생성할 수 있다. 이상 개체 정보 생성 유닛(604)은 제1위치 분포 데이터와 제1동작 데이터를 비교하여, 제1위치 분포 데이터 상에서 움직임이 검출되지 않은 개체에 대한 정보를 나타내는 제1이상 개체 데이터를 생성할 수 있다. 즉, 이상 개체 정보 생성 유닛(604)은 개체의 위치를 나타내는 제1위치 분포 데이터 상에서 움직임이 검출되지 않은 개체를 질병에 걸린 것으로 추정하고, 이에 대한 제1이상 개체 데이터를 생성할 수 있다. 즉, 제1이상 개체 데이터는 단일 영상 데이터에 대한 개체의 위치 분포와 움직임 검출 정보를 이용하여 개체의 질병 여부를 판단한 결과 데이터를 의미할 수 있다. 또는 이상 개체 정보 생성 유닛(604)은 복수 개의 영상 데이터에 대한 위치 분포 데이터 및 동작 데이터를 비교하여 복수의 개체의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수를 연산하고, 상기 움직임 검출 누적 횟수와 상기 움직임 비검출 누적 횟수에 따라 이상 개체 데이터를 생성할 수 있다. 이상 개체 정보 생성 유닛(604)은 예를 들면, 제1이상 개체 데이터, 제2위치 분포 데이터 및 제2 동작 데이터를 비교하여 제2 이상 개체 데이터를 생성할 수 있다. 이상 개체 정보 생성 유닛(604)은 제1이상 개체 데이터를 제2위치 분포 데이터 및 제2동작 데이터와 비교하여 복수 개체의 움직임 검출 누적 횟수와 복수 개체의 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2이상 개체 데이터를 생성할 수 있다. 즉, 제2이상 개체 데이터는 복수 개의 영상 데이터에 대하여 누적된 개체의 위치 정보와 움직임 검출 정보를 이용하여 개체의 질병 여부를 판단한 결과 데이터를 의미할 수 있다.The abnormal object information generating unit 604 may generate the abnormal object data indicating the abnormal object by region, block, or pixel by comparing position distribution data and motion data of the image data by region, block, or pixel. The abnormal object information generating unit 604 may generate, for example, first abnormal object data indicating the abnormal object by comparing the first position distribution data and the first motion data. The abnormal object information generating unit 604 may generate first abnormal object data indicating information on an object for which movement is not detected on the first position distribution data by comparing the first position distribution data and the first motion data. . That is, the abnormal object information generating unit 604 may estimate that the object has no disease detected on the first position distribution data indicating the position of the object, and generate the first abnormal object data. That is, the first abnormal object data may refer to data obtained by determining whether an object is a disease by using an object's position distribution and motion detection information for single image data. Alternatively, the abnormal object information generating unit 604 compares the position distribution data and the motion data of the plurality of image data to calculate the cumulative number of motion detection and cumulative motion detection of the plurality of objects, and calculates the cumulative number of motion detection and the number of motion detection. The abnormal object data may be generated according to the cumulative number of motion non-detections. The abnormal object information generating unit 604 may generate the second abnormal object data by comparing the first abnormal object data, the second position distribution data, and the second motion data, for example. The abnormal object information generating unit 604 compares the first abnormal object data with the second position distribution data and the second motion data to calculate the cumulative number of motion detection of the plurality of objects and the cumulative number of motion non-detection of the plurality of objects, and detect the motion. The second or more entity data may be generated according to the cumulative number of times and the motion non-detection cumulative number of times. That is, the second abnormal object data may mean data obtained by determining whether an object is a disease by using position information and motion detection information of the object accumulated with respect to the plurality of image data.
이상 개체 정보 생성 유닛(604)은 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터 상에서 복수개의 개체에 대한 픽셀 표시를 제어할 수도 있다. 이상 개체 정보 생성 유닛(604)은 예를 들면, 제2이상 개체 데이터에 따라 영상 데이터 상에서 상기 복수개의 개체에 대한 픽셀 표시를 제어할 수 있다. 여기서, 픽셀의 표시란 픽셀의 채도, 픽셀의 명암, 픽셀의 색상, 픽셀의 윤곽선, 마크 표시 등 임의의 지점에 대응되는 픽셀을 다른 픽셀과 구분하여 표시하기 위한 모든 개념을 포함할 수 있다. 본 발명의 실시예에서는 픽셀값의 조절을 통하여 픽셀의 표시를 제어할 수 있다. 픽셀값은 단계적으로 조절될 수 있으며, 픽셀값이 높은 픽셀의 경우, 픽셀값이 낮은 픽셀 보다 시각적으로 강조되어 표시될 수 있다. 그러나 이에 한정되는 것은 아니고, 픽셀값이 낮은 픽셀이 픽셀값이 높은 픽셀보다 강조되어 표시되는 것으로 설정할 수 있다. 여기서, 픽셀값은 픽셀 별 이상 개체 확률을 의미할 수 있다.The abnormal object information generating unit 604 may control the pixel display of the plurality of objects on the image data according to the motion detection accumulation count and the motion non-detection accumulation count of the abnormal object data. The abnormal object information generating unit 604 may control pixel display of the plurality of objects on the image data according to, for example, the second abnormal object data. Here, the display of the pixel may include all concepts for distinguishing and displaying a pixel corresponding to an arbitrary point from other pixels, such as the saturation of the pixel, the intensity of the pixel, the color of the pixel, the outline of the pixel, and the mark display. In the embodiment of the present invention, the display of the pixel may be controlled by adjusting the pixel value. The pixel value may be adjusted in stages, and in the case of a pixel having a high pixel value, the pixel value may be visually emphasized than a pixel having a low pixel value. However, the present invention is not limited thereto, and a pixel having a low pixel value may be set to be displayed to be highlighted than a pixel having a high pixel value. Herein, the pixel value may mean an abnormality probability of each pixel.
이하에서는 움직임이 검출된 픽셀과 개체를 동일시하여 설명하기 위하여 하나의 픽셀은 하나의 개체를 표현하는 것으로 한다. 이는 설명의 편의를 위한 것이며 실제로는 복수개의 픽셀이 하나의 개체를 표현하게 된다. 즉, 가금류의 일부 신체 영역의 움직임만을 검출하여 이상상황을 판단하기 위하여서는 픽셀별로 움직임을 검출하여 픽셀의 표시를 제어하는 방식이 사용될 것이다.In the following description, one pixel represents one object in order to identify and identify the pixel and the object in which the motion is detected. This is for convenience of description and in practice, a plurality of pixels represent one object. That is, in order to determine an abnormal situation by detecting only movement of some body regions of poultry, a method of controlling the display of pixels by detecting movement for each pixel will be used.
이상 개체 정보 생성 유닛(604)은 특정 개체의 움직임이 검출되지 않을수록 이상개체로 분류하고, 움직임이 검출될수록 정상개체로 분류하여 픽셀값을 다르게 표시할 수 있다.The abnormal object information generating unit 604 may classify the object as an abnormal object as the movement of the specific object is not detected, and classify the pixel as a normal object as the motion is detected.
여기서, 제1 특징 추출 유닛(600), 제2 특징 추출 유닛(602) 및 이상 개체 정보 생성 유닛(604) 중 적어도 하나는 학습용 서버(400)로부터 수신한 업데이트 정보를 적용할 수 있다. 여기서, 업데이트 정보는 제1 특징 추출 유닛(600)에 적용되는 제1 업데이트 정보, 제2 특징 추출 유닛(602)에 적용되는 제2 업데이트 정보 및 이상 개체 정보 생성 유닛(604)에 적용되는 제3 업데이트 정보 중 적어도 하나를 포함할 수 있다. 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보 중 적어도 하나는 이상 개체 검출 장치(100)에 의하여 전송된 학습용 데이터를 학습한 결과, 학습용 서버(400)가 추출한 업데이트 정보일 수 있다. 여기서, 학습용 데이터는 이상 개체 검출 장치(100)가 획득한 영상 데이터의 일부 및 오류가 정정된 이상 개체 데이터의 일부를 포함할 수 있으며, 이는 이상 개체 검출 장치(100)가 이상 개체 검출용 알고리즘을 구동하여 얻은 이상 개체 정보에 대한 관리자 단말(200)의 피드백 정보를 이용하여 얻어질 수 있다. 여기서, 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보 중 적어도 하나는 조정 가능한 매트릭스(adjustable matrix)를 포함할 수 있다. Here, at least one of the first feature extracting unit 600, the second feature extracting unit 602, and the abnormal object information generating unit 604 may apply the update information received from the learning server 400. Here, the update information may include first update information applied to the first feature extraction unit 600, second update information applied to the second feature extraction unit 602, and third application applied to the abnormal object information generation unit 604. It may include at least one of the update information. At least one of the first update information, the second update information, and the third update information may be update information extracted by the learning server 400 as a result of learning the training data transmitted by the abnormal object detection apparatus 100. Here, the training data may include a part of the image data acquired by the abnormal object detecting apparatus 100 and a part of the abnormal object data in which the error is corrected, which means that the abnormal object detecting apparatus 100 uses the algorithm for detecting the abnormal object. It may be obtained using the feedback information of the manager terminal 200 with respect to the abnormal object information obtained by driving. Here, at least one of the first update information, the second update information, and the third update information may include an adjustable matrix.
도10을 참조하면, 먼저 n번째 영상 데이터를 획득한다. 여기서, 영상 데이터는, 예를 들어 W X H크기의 RGB데이터일 수 있다(S1101). 여기서, n번째 영상 데이터는 n번째 원본 데이터, n번째 원본 영상, n 번째 원본 영상 데이터 등과 혼용될 수 있다.Referring to FIG. 10, first, n-th image data is obtained. Here, the image data may be, for example, RGB data having a size of W X H (S1101). Here, the n th image data may be mixed with the n th original data, the n th original image, the n th original image data, and the like.
이상 개체 검출 장치(100)의 제어부(112), 예를 들어 제1 특징 추출 유닛(600)은 n번째 영상 데이터에서 개체를 검출하여 n번째 영상 데이터에 대한 개체의 위치 분포 데이터를 생성한다(S1102). 여기서, 위치 분포 데이터는 영역 별, 블록 별, 또는 픽셀 별로 생성될 수 있으며, 제어부(112)는 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 제안하도록 학습된 제1 알고리즘을 이용할 수 있다. 여기서, 제1 알고리즘은, 전술한 바와 같이 객체가 존재하는 영역을 표시하는 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다, 또는, 제1 알고리즘은 객체의 분포 정보, 즉 객체가 위치하는 영역의 밀도 정보를 나타내는 방법을 이용할 수도 있다. 여기서, 위치 분포 데이터는 제1 밀도 맵일 수 있다. The controller 112 of the abnormal object detection apparatus 100, for example, the first feature extraction unit 600 detects an object from the nth image data and generates position distribution data of the object with respect to the nth image data (S1102). ). Here, the position distribution data may be generated for each region, for each block, or for each pixel, and the controller 112 may use the first algorithm trained to suggest a region in which the object is located in the image data. Here, the first algorithm may use a real-time object detection method using an algorithm indicating an area where an object exists as described above, or the first algorithm may include distribution information of an object, that is, an area of an area where an object is located. It is also possible to use a method of representing density information. Here, the position distribution data may be a first density map.
이하 설명에서는 영상 데이터의 픽셀 별 연산을 이용하여 이상 개체 데이터를 연산 또는 표시하는 방법을 설명한다. In the following description, a method of calculating or displaying anomalous object data using a pixel-by-pixel operation of image data will be described.
위치 분포 데이터에는 업데이트 파라미터 μ값이 적용된다. 또는 업데이트 파라미터 μ값과 오프셋 파라미터 ε값이 동시에 적용될 수도 있다. μ는 아주 작은 값으로 예를 들어 0.001일 수 있다. 즉, 위치 분포 데이터가 오랫 동안 누적이 되어야만 서서히 픽셀에 표시되도록 제어하는 것이다. offset parameter ε는 위치 분포 데이터의 누적을 조정하는 parameter로서 μ대비 1/10~1/100의 값을 가질 수 있다(S1103). The update parameter μ value is applied to the position distribution data. Alternatively, the update parameter μ value and the offset parameter ε value may be applied at the same time. μ is a very small value, for example 0.001. That is, the position distribution data is controlled to be gradually displayed on the pixels only after accumulating for a long time. The offset parameter ε is a parameter for adjusting the accumulation of the position distribution data and may have a value of 1/10 to 1/100 of μ (S1103).
이상 개체 검출 장치(100)의 제어부(112), 예를 들어 제2 특징 추출 유닛(602)은 n-1번째 영상 데이터와 n번째 영상 데이터를 비교하여 n번째 영상 데이터에 대한 개체의 움직임을 검출한다. 이 때, n-1번째 영상 데이터는 래치회로 또는 버퍼회로에 저장되어 있을 수 있다. 이상 개체 검출 장치(100)의 제어부(112), 예를 들어 제2 특징 추출 유닛(602)는 검출한 움직임에 따라 동작 데이터를 생성한다(S1104). 여기서, 동작 데이터는 동작 맵일 수 있다. 여기서, 동작 데이터는 영역 별, 블록 별 또는 픽셀 별로 생성될 수 있으며, 제어부(112)는 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘(motion detector)을 이용할 수 있다. 동작 데이터에는 업데이트 파라미터 κ가 적용될 수 있다. κ는 동작 데이터의 누적을 조정하는 파라미터이다(S1105). The controller 112 of the abnormal object detecting apparatus 100, for example, the second feature extraction unit 602 detects the movement of the object with respect to the n-th image data by comparing the n-th image data and the n-th image data. do. In this case, the n−1th image data may be stored in the latch circuit or the buffer circuit. The control unit 112 of the abnormal object detection apparatus 100, for example, the second feature extraction unit 602, generates motion data according to the detected movement (S1104). Here, the motion data may be a motion map. Here, the motion data may be generated for each region, block, or pixel, and the controller 112 may use a second algorithm trained to detect motion by using an optical flow. The update parameter κ may be applied to the operation data. κ is a parameter for adjusting the accumulation of motion data (S1105).
이상 개체 검출 장치(100)의 제어부(112), 예를 들어 이상 개체 정보 생성 유닛(604)은 n번째 영상 데이터의 위치 분포 데이터에 n-1번째 이상 개체 데이터를 합하고(S1106), n번째 영상 데이터의 동작 데이터를 감하여 n번째 영상 데이터에 대한 이상 개체 데이터를 생성한다(S1107). 여기서, n번째 영상 데이터에 대한 이상 개체 데이터는 n번째 이상 개체 밀도 맵일 수 있다.The control unit 112 of the abnormal object detecting apparatus 100, for example, the abnormal object information generating unit 604 adds the n-1th or more object data to the position distribution data of the n-th image data (S1106), and the n-th image. The abnormal object data for the n-th image data is generated by subtracting the motion data of the data (S1107). Here, the abnormal object data for the nth image data may be an nth abnormal object density map.
본 발명의 실시예에 따른 이상 개체 검출 장치(100)는 S1101 내지 S1107과정을 반복하여 움직임이 검출된 개체의 색상은 연하게 또는 원본 색상에 가깝게 표시하고, 움직임이 누적하여 검출되지 않은 개체의 색상은 진하게 또는 빨간 색상에 가깝게 표시하도록 제어할 수 있다. The apparatus 100 for detecting an abnormal object according to an exemplary embodiment of the present invention repeats steps S1101 to S1107 to display the color of the detected object lightly or close to the original color, and accumulates the color of the detected object. Can be controlled to display dark or close to red.
이후, n번째 이상 개체 데이터는 n번째 영상 데이터, 즉 n번째 원본 데이터 상에 정합될 수 있으며, n번째 원본 데이터 상에 n번째 이상 개체 데이터가 정합된 영상이 관리자 단말(200)에 표시될 수 있다. 즉, n번째 영상 내 이상 개체가 위치한 영역은 n번째 이상 개체 밀도 맵을 이용하여 마스킹될 수 있으며, 마스킹된 영상이 관리자 단말(200)에 표시될 수 있다. Thereafter, the n-th or more entity data may be matched on the n-th image data, that is, the n-th original data, and the image in which the n-th or more entity data is matched on the n-th original data may be displayed on the manager terminal 200. have. That is, the region where the abnormal object is located in the n-th image may be masked using the n-th or more object density map, and the masked image may be displayed on the manager terminal 200.
본 발명의 실시예에 따른 이상 개체 검출 장치(100)의 동작은 아래와 같은 수학식 1을 적용할 수 있다.The operation of the abnormality object detecting apparatus 100 according to the exemplary embodiment of the present invention may apply the following Equation 1.
[수학식1][Equation 1]
Pixelt = Pixelt-1(1-μ) + μWt - Ft Pixel t = Pixel t-1 (1-μ) + μW t -F t
수학식 1에서 μ는 업데이트 파라미터로 설정에 따라 변경될 수 있다. Μ in Equation 1 may be changed according to a setting as an update parameter.
수학식 1에서 Pixelt, Pixelt-1은 이상 개체 데이터로서, 이상 개체의 존재 여부를 픽셀에 표시하기 위한 값으로서 픽셀의 농도를 의미할 수 있다. 이상 개체가 존재할 확률이 높은 픽셀일수록 더 진한 색으로 표시할 수 있도록 하는 것이다. 예를 들어, 이상 개체가 존재할 확률이 없으면 원색(하얀색)으로 표시되고, 이상 개체가 존재할 확률이 높을수록 빨강색에 가깝게 표현하고, 이상 개체가 존재할 확률이 아주 높다고 판단되면 가장 진한 빨강색으로 표시되게 하는 것이다. 따라서, Pixelt, Pixelt-1은 0에서 1 사이의 값을 가지도록 설정할 수 있으며, 0에 가까울수록 원색(하얀색)에 가깝게 표시되고, 1에 가까울수록 빨강색으로 표시된다.In Equation 1, Pixel t and Pixelt-1 are abnormal object data, and may indicate concentration of pixels as a value for displaying the presence or absence of the abnormal object in the pixel. The higher the probability that an abnormal object exists, the darker the color can be displayed. For example, if there is no probability of anomalies, it is displayed in primary color (white). The higher the probability of anomaly is expressed, the closer it is to red. To make it happen. Accordingly, Pixel t and Pixelt-1 may be set to have a value between 0 and 1, and the closer to 0, the closer to the primary color (white), and the closer to 1, the red.
수학식 1에서 Pixelt-1는 위치 분포 데이터 및 동작 데이터가 누적된 직전 프레임의 이상 개체 데이터이다. 수학식 1에서 Pixelt는 현재 프레임의 위치분포 데이터와 동작 데이터를 적용하여 업데이트된 이상 개체 데이터이다.In Equation 1, Pixel t-1 is abnormal object data of a previous frame in which position distribution data and motion data are accumulated. In Equation 1, Pixel t is abnormal object data updated by applying position distribution data and motion data of the current frame.
수학식 1에서 Wt는 현재 프레임의 위치 분포 데이터일 수 있다. 위치 분포 데이터는 해당 픽셀에 개체가 존재하는지 확률로서 0에서 1 사이의 값을 가질 수 있다. 위치 분포 데이터에는 update parameter μ가 적용될 수 있다. μ는 아주 작은 값으로 예를 들어 0.001일 수 있다. 즉, 위치 분포 데이터가 오랫 동안 누적이 되어야만 서서히 픽셀에 표시되도록 제어하는 것이다. In Equation 1, Wt may be position distribution data of a current frame. The position distribution data may have a value between 0 and 1 as a probability that an object exists in a corresponding pixel. The update parameter μ may be applied to the position distribution data. μ is a very small value, for example 0.001. That is, the position distribution data is controlled to be gradually displayed on the pixels only after accumulating for a long time.
수학식 1에서 Ft 는 현재 프레임의 동작 데이터일 수 있다. 동작 데이터는 모션 벡터의 절대값을 산출한 것으로서 0 이상의 값을 가질 수 있다. 모션 벡터의 크기는 개체의 속도에 대응되므로 1이상의 값을 가질 수 있다. 동작 데이터에는 별도의 파라미터를 반영하지 않아 해당 픽셀에서 동작이 검출된 경우에는 해당 픽셀의 표시는 초기화가 되도록 제어한다.In Equation 1, F t may be motion data of the current frame. The motion data is an absolute value of the motion vector and may have a value of 0 or more. Since the magnitude of the motion vector corresponds to the velocity of the object, it may have a value of 1 or more. Since a separate parameter is not reflected in the motion data, when the motion is detected in the pixel, the display of the pixel is initialized.
또는 실시예에 따른 이상 개체 검출 장치의 동작은 아래와 같은 수학식 2를 적용할 수 있다.Alternatively, the operation of the abnormality object detecting apparatus according to the embodiment may apply the following Equation 2.
[수학식2][Equation 2]
Pixelt = Pixelt-1(1-μ+ ε) + μWt - Ft Pixel t = Pixel t-1 (1-μ + ε) + μW t -F t
※: update parameter, ε: offset parameter※: update parameter, ε: offset parameter
수힉식2는 수학식1에서 offset parameter ε가 추가된 것으로 수학식1과 동일한 설명은 생략한다. offset parameter ε는 위치 분포 데이터의 누적을 조정하는 parameter로서 μ대비 1/10~1/100의 값을 가질 수 있다. In Equation 2, an offset parameter ε is added in Equation 1, and the same description as in Equation 1 is omitted. The offset parameter ε is a parameter for adjusting the accumulation of the position distribution data and may have a value of 1/10 to 1/100 of μ.
또는 실시예에 따른 이상 개체 검출 장치의 동작은 아래와 같은 수학식 3또는 수학식 4를 적용할 수 있다.Alternatively, the operation of the apparatus for detecting an abnormality object according to the embodiment may apply Equation 3 or Equation 4 below.
[수학식3][Equation 3]
Pixelt = Pixelt-1(1-μ) + μWt - κFtPixelt = Pixelt-1 (1-μ) + μWt-κFt
[수학식4][Equation 4]
Pixelt = Pixelt-1(1-μ+ ε) + μWt - κFt Pixel t = Pixel t-1 (1-μ + ε) + μW t -κF t
※: update parameter, ε: offset parameter, κ: update parameter※: update parameter, ε: offset parameter, κ: update parameter
수학식3 또는 수학식4는 동작 데이터 Ft에 update parameter κ를 곱한 것으로서 수학식1 및 수학식2와 동일한 내용은 생략한다. constant κ는 동작 데이터의 누적을 조정하는 parameter이다.Equation 3 or 4 is a product of the operation data F t multiplied by the update parameter κ and the same content as in Equation 1 and Equation 2 is omitted. constant κ is a parameter that adjusts the accumulation of motion data.
또는 실시예에 따른 이상 개체 검출 장치의 동작은 아래와 같은 수학식 5를 적용할 수 있다.Alternatively, the operation of the abnormality object detecting apparatus according to the embodiment may apply Equation 5 below.
[수학식5][Equation 5]
max(수학식 1,2,3 또는4, 0)max (1, 2, 3, or 4, 0)
수학식5는 수학식1,2,3 또는 4의 값이 0 이하로 떨어지는 것을 방지하기 위한 수식이다. 예를들어 동작 데이터(Ft)의 크기가 다른 파라미터 값의 합보다 크게 되어, 수학식1,2,3 또는 4의 값이 0보다 작은 음수가 될 경우 이를 보정하여 0으로 표시될 수 있도록 보정하는 제어 방법이다.Equation 5 is an equation for preventing the value of Equations 1, 2, 3 or 4 from falling below zero. For example, the size of the motion data Ft is greater than the sum of other parameter values, and when the value of Equation 1, 2, 3 or 4 becomes a negative number less than 0, it is corrected to be displayed as 0. Control method.
여기서, S1101 내지 S1107과정 동안 학습용 서버(400)로부터 수신한 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보가 적용될 수 있다. 예를 들어, 제1 업데이트 정보는, 전술한 바와 같은 업데이트 파라미터 μ값 및 오프셋 파라미터 ε값 중 적어도 하나로 표현될 수 있다. 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보 중 적어도 하나를 얻기 위하여, 본 발명의 실시예에 따른 이상 개체 검출 장치(100)는 학습용 데이터를 추출하여 학습용 서버(400)에 전송할 수 있다. 이때, 학습용 데이터는 이상 개체 검출 장치(100)가 획득한 영상 데이터의 일부를 포함할 수 있으며, 이는 이상 개체 검출 장치(100)가 이상 개체 검출을 위한 알고리즘을 구동하여 추출한 이상 개체 정보에 대한 피드백 정보를 이용하여 얻어질 수 있다. 여기서, 피드백 정보는 관리자 단말(200)에 의하여 수정된 정보를 포함할 수 있다. Here, the first update information, the second update information, and the third update information received from the learning server 400 may be applied during the processes S1101 to S1107. For example, the first update information may be represented by at least one of the update parameter μ value and the offset parameter ε value as described above. In order to obtain at least one of the first update information, the second update information, and the third update information, the abnormality object detecting apparatus 100 according to an embodiment of the present invention may extract the training data and transmit the training data to the training server 400. . In this case, the training data may include a part of the image data acquired by the abnormal object detecting apparatus 100, which is a feedback on the abnormal object information extracted by the abnormal object detecting apparatus 100 by driving an algorithm for detecting the abnormal object. Can be obtained using the information. Here, the feedback information may include information modified by the manager terminal 200.
더욱 구체적으로, 도 11(a)를 참조하면, 본 발명의 실시예에 따른 이상 개체 검출 장치(100)는 학습용 데이터를 추출하여 학습용 서버(400)에 전송할 수 있으며, 학습용 서버(400)는 이상 개체 검출 장치(100)로부터 수신한 학습용 데이터를 이용하여 객체 밀도 예측 네트워크를 재학습(retraining), 즉 업데이트할 수 있다. 여기서, 학습용 데이터는 오류가 있는 것으로 지시된 영상 데이터 및 오류가 정정된 이상 개체 데이터를 포함할 수 있다. 예를 들어, n 번째 프레임 내 일부 영역(806)에 이상 개체가 존재하지 않음에도 불구하고 이상 개체가 존재하는 것으로 검출된 경우, 학습용 데이터는 n번째 프레임의 영상 데이터 및 n번째 프레임의 이상 개체 데이터 중 일부 영역(806)의 오류가 정정된 이상 개체 데이터를 포함할 수 있다. 여기서, 오류가 정정된 이상 개체 데이터는 관리자 단말(200)에 의하여 개체의 밀도가 수정된 정보일 수 있으며, 이상 개체 검출 장치(100)가 추출한 영역 별, 블록 별 또는 픽셀 별 개체의 밀도 분포를 제1 밀도 맵이라 하는 경우, 관리자 단말(200)에 의하여 수정된 영역 별, 블록 별 또는 픽셀 별 개체의 밀도 분포는 제2 밀도 맵이라 지칭할 수 있다. 학습용 서버(400)는 학습용 서버(400) 내 객체 밀도 예측 네트워크의 출력 영상과 학습용 데이터에 포함된 오류가 정정된 영상, 즉 정답 영상을 비교하여 손실(loss)을 구하고, 해당 손실을 최소화 하도록 학습기(trainer)에서 객체 밀도 예측 network의 변수들(예를 들어, feature map 등)을 학습(보정)할 수 있다.More specifically, referring to FIG. 11 (a), the apparatus for detecting an anomaly object 100 according to an exemplary embodiment of the present invention may extract training data and transmit the training data to the training server 400, and the training server 400 may perform abnormalities. The object density prediction network may be retrained, that is, updated using the training data received from the object detection apparatus 100. Here, the training data may include image data indicated as having an error and abnormal object data in which the error is corrected. For example, when it is detected that the abnormal object exists even though the abnormal object does not exist in the partial region 806 in the n th frame, the training data is the image data of the n th frame and the abnormal object data of the n th frame. The abnormality of the partial region 806 may include the object data. Here, the abnormality object data in which the error is corrected may be information in which the density of the object is corrected by the manager terminal 200, and the density distribution of the object for each region, block, or pixel, extracted by the abnormal object detection apparatus 100, may be determined. In the case of a first density map, a density distribution of an object for each region, block, or pixel modified by the manager terminal 200 may be referred to as a second density map. The learning server 400 compares the output image of the object density prediction network in the learning server 400 with the error-corrected image included in the training data, that is, the correct answer image, to obtain a loss, and to minimize the loss. In the trainer, variables (eg, feature maps) of the object density prediction network can be learned (corrected).
이후, 도 11(b)를 참조하면, 이상 개체 검출 장치(100)의 제어부(112)는 위치 분포 데이터를 생성하는 단계, 즉 S1102에서, 학습용 서버(400)에 의하여 재학습된 객체 밀도 네트워크를 이용할 수 있다. 즉, 이상 개체 검출 장치(100)의 제어부(112)는 학습용 서버(400)로부터 학습용 데이터, 예를 들어 n번째 영상 및 제2 밀도 맵을 이용한 객체 밀도 네트워크의 재학습에 의하여 얻어진 업데이트 정보를 이용하여 n번째 영상 이후의 소정 영상에 대한 이상 개체 밀도 맵을 출력할 수 있다. Subsequently, referring to FIG. 11B, the control unit 112 of the abnormality object detecting apparatus 100 generates the position distribution data, that is, in step S1102, the object density network re-learned by the learning server 400. It is available. That is, the control unit 112 of the abnormality object detecting apparatus 100 uses the update information obtained by re-learning the object density network using the training data, for example, the n-th image and the second density map, from the learning server 400. The abnormal object density map of the predetermined image after the nth image may be output.
도 12는 본 발명의 실시예에 따른 이상 개체 검출 장치의 성능을 테스트한 결과이다. 12 is a result of testing the performance of the abnormal object detection apparatus according to an embodiment of the present invention.
도 12(a)는 입력 영상을 나타낸다. 도 12(a)에 도시된 바와 같이, 입력 영상에는 다수의 개체가 군집을 이루며 분포하는 경우 개체를 각각 검출하는 방법으로는 오류가 많았다. 따라서 이상 개체에 대한 검출 또한 큰 오류가 발생하게 된다. 12 (a) shows an input image. As shown in FIG. 12 (a), there are many errors in the input image in a method of detecting an individual object when a plurality of objects are distributed in a cluster. Therefore, detection of abnormal objects also causes a large error.
도 12(b)는 도 12(a)의 입력 영상을 본 발명의 실시예에 따른 제1 알고리즘으로 처리한 결과이다. 예를들면, 제1 알고리즘에 따르면, 각 개체를 검출하기 위하여 레이블링한 사각형 박스의 중간에 흰색 점을 찍고, 그 점을 블러링하여 번지게 하는 방법으로 확률맵을 작성하여 학습시킨 학습모델을 사용할 수 있다.이에 따라 학습된 모델은 입력된 영상에서 개채의 존재 가능성에 따라 확률맵(예를들어 개체의 위치 분포를 나타내는 8비트 그레이 이미지)을 출력할 수 있다. 이에 따라 군집된 개체라 하더라도 개채가 존재하는 위치를 더 정확히 표시하여 다수의 개체를 검출하는 것이 가능해짐을 알 수 있다. FIG. 12B illustrates a result of processing the input image of FIG. 12A using a first algorithm according to an exemplary embodiment of the present invention. For example, according to the first algorithm, a learning model that is trained by creating a probability map by taking a white dot in the middle of a labeled rectangular box and blurring the spot to detect each object is used. Accordingly, the trained model may output a probability map (for example, an 8-bit gray image representing the position distribution of the object) according to the possibility of the existence of the object in the input image. As a result, it is possible to detect a plurality of individuals by displaying the locations where the individual objects exist more accurately even in the group of individuals.
상기 학습모델을 이용하여 개체의 밀도가 고려된 개체 검출이 가능할 수 있고, 각 개체 별로 이상 유무를 판단할 수도 있다. The learning model may be used to detect an individual in consideration of the density of the individual, and may determine whether there is an abnormality for each individual.
또 다른 실시예로, 군집된 개체들은 개체수가 많기 때문에 개체별 이상유무를 판단할 시(개체 별 추적방법) 많은 오버헤드가 따른다. 따라서 하기 제2 알고리즘을 이용하여 군집된 개체에 대한 이상유무를 더욱 간결하고 정확하게 판단할 수 있다.In another embodiment, since the clustered individuals have a large number of individuals, a large amount of overhead is involved in determining whether there is an abnormality for each individual (tracking method for each individual). Therefore, using the following second algorithm, it is possible to more simply and accurately determine the presence or absence of abnormalities on the clustered individuals.
도 12(c)는 도 12(a)의 입력 영상을 본 발명의 실시예에 따른 제2 알고리즘으로 처리한 결과이다. 예를들어 제2 알고리즘에 따르면, 입력 영상에 대하여 Dense Optical Flow방식을 이용하여 Optical Flow를 뽑아내어 Moving Pixel을 찾을 수 있다. 그리고, 도 12(b)의 8비트 그레이 이미지에서 Moving Pixel을 제거하여 도 12(c)와 같은 움직임이 없는 픽셀을 표시하는 이미지를 얻을 수 있었다. FIG. 12C illustrates a result of processing the input image of FIG. 12A by the second algorithm according to the exemplary embodiment. For example, according to the second algorithm, the moving pixel may be found by extracting the optical flow from the input image using the dense optical flow method. Then, moving pixels were removed from the 8-bit gray image of FIG. 12 (b) to obtain an image representing a pixel without motion as shown in FIG. 12 (c).
도 12(d)는 도 12(a)의 입력 영상에 도 12(b)의 이미지 및 도 12(c)의 이미지를 정합한 영상이다. 도 12(d)를 참조하면, 입력 영상 내 다수의 개체가 군집을 이루며 분포하는 영역 내에서 움직임이 없는 영역을 표시한 영상을 얻을 수 있다. 이에 따르면, 입력 영상에 대하여 움직임이 검출된 픽셀이 추출될 수 있으며, 이로부터 군집을 이루어 움직이는 다수의 개체 또는 군집을 이루어 움직이지 않는 다수의 개체를 검출하는 것이 가능해짐을 알 수 있다.FIG. 12 (d) is an image obtained by matching the image of FIG. 12 (b) and the image of FIG. 12 (c) with the input image of FIG. 12 (a). Referring to FIG. 12 (d), an image showing an area in which there is no motion in an area in which a plurality of objects in the input image are clustered and distributed may be obtained. Accordingly, it can be seen that a pixel in which motion is detected can be extracted with respect to the input image, and from this, it is possible to detect a plurality of objects moving in a cluster or a plurality of objects moving in a cluster.
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 개체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~ part' used in the present embodiment refers to software or a hardware component such as a field-programmable gate array (FPGA) or an ASIC, and '~ part' performs certain roles. However, '~' is not meant to be limited to software or hardware. '~ Portion' may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, '~' means components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and the like. Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within the components and the 'parts' may be combined into a smaller number of components and the 'parts' or further separated into additional components and the 'parts'. In addition, the components and '~' may be implemented to play one or more CPUs in the device or secure multimedia card.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to a preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below I can understand that you can.

Claims (14)

  1. 학습용 서버와 통신하는 통신 프로세서; 및A communication processor in communication with the learning server; And
    촬영 영상을 입력받고, 상기 촬영 영상의 개체 중 움직임이 검출되지 않은 픽셀 영역이 마스킹된 영상을 출력하는 제어부를 포함하고,A control unit configured to receive a captured image and output an image of masking a pixel area in which no motion is detected among the objects of the captured image;
    상기 통신 프로세서는 상기 촬영 영상 및 상기 촬영 영상의 개체 밀도에 대한 비트맵을 상기 학습용 서버로 전송하는 이상 개체 검출 장치.And the communication processor transmits the captured image and a bitmap of the object density of the captured image to the learning server.
  2. 제1항에 있어서, The method of claim 1,
    상기 비트맵은 상기 촬영 영상의 개체 밀도가 수정된 정보를 포함하는 이상 개체 검출 장치.And the bitmap includes information in which an object density of the captured image is modified.
  3. 복수의 개체가 함께 촬영된 촬영 영상으로부터 이상 개체 정보를 추출하는 제어부,A control unit for extracting abnormal object information from a captured image in which a plurality of objects are photographed together;
    상기 이상 개체 정보를 관리자 단말에게 전송하며, 상기 관리자 단말로부터 상기 이상 개체 정보에 대한 피드백 정보를 수신하는 통신부, 그리고A communication unit which transmits the abnormal object information to a manager terminal and receives feedback information on the abnormal object information from the manager terminal, and
    상기 피드백 정보에 기초하여 학습용 데이터를 생성하는 학습 전처리부를 포함하고, A learning preprocessor configured to generate learning data based on the feedback information,
    상기 학습용 데이터는 상기 피드백 정보에 기초하여 추출된 영상 데이터를 포함하며, 상기 통신부에 의하여 학습용 서버로 전송되고, The learning data includes image data extracted based on the feedback information, and is transmitted to the learning server by the communication unit.
    상기 제어부는 상기 학습용 서버에 의하여 학습된 학습용 데이터의 업데이트 정보를 이용하여 상기 이상 개체 정보를 추출하는 이상 개체 검출 장치.And the controller extracts the abnormal object information by using update information of the training data learned by the learning server.
  4. 제3항에 있어서, The method of claim 3,
    상기 피드백 정보는 상기 이상 개체 정보 중 오류가 있는 시간 영역에 관한 정보 및 공간 영역에 관한 정보를 포함하는 이상 개체 검출 장치.The feedback information includes an abnormality object detecting apparatus including information about a time domain in which there is an error among the abnormality object information and information about a spatial region.
  5. 제3항에 있어서,The method of claim 3,
    상기 피드백 정보에 기초하여 상기 영상 데이터는 상기 촬영 영상 중 상기 피드백 정보에 따라 추출된 시간 영역 및 공간 영역 내의 영상 데이터인 이상 개체 검출 장치.The abnormality object detecting apparatus based on the feedback information, the image data is image data in a time domain and a spatial domain extracted according to the feedback information of the captured image.
  6. 제3항에 있어서,The method of claim 3,
    상기 제어부는The control unit
    상기 촬영 영상 내 상기 복수의 개체의 위치 분포를 추출하는 제1 특징 추출 유닛,A first feature extracting unit extracting a position distribution of the plurality of objects in the captured image;
    상기 촬영 영상 내 상기 복수의 개체의 움직임을 추출하는 제2 특징 추출 유닛, 그리고A second feature extraction unit for extracting movements of the plurality of objects in the captured image; and
    상기 제1 특징 추출 유닛에 의하여 추출된 위치 분포 및 상기 제2 특징 추출 유닛에 의하여 추출된 움직임에 기초하여 이상 개체 데이터를 생성하는 이상 개체 정보 생성 유닛을 포함하는 이상 개체 검출 장치. And an abnormal object information generating unit generating abnormal object data based on the position distribution extracted by the first feature extracting unit and the movement extracted by the second feature extracting unit.
  7. n번째 영상을 수신하는 단계;receiving an nth image;
    n번째 영상 내 개체의 제1 밀도 맵을 출력하는 단계;outputting a first density map of the object in the n-th image;
    n번째 영상 내 동작 맵을 출력하는 단계;outputting a motion map in an nth image;
    상기 제1 밀도 맵, 상기 동작 맵, 그리고 미리 저장된 n-1번째 이상 개체 밀도 맵을 이용하여 n번째 이상 개체 밀도 맵을 출력하는 단계; 그리고Outputting an n-th or more object density map by using the first density map, the motion map, and a previously stored n-th or more object density map; And
    상기 n번째 이상 개체 밀도 맵을 이용하여 상기 n번째 영상 내 이상 개체가 위치한 영역을 마스킹하는 단계를 포함하고,Masking an area in which the abnormal object is located in the n-th image using the n-th or more object density map,
    상기 n번째 영상 및 제2 밀도 맵이 학습용 서버로 전송되고,The nth image and the second density map is transmitted to the learning server,
    상기 제2 밀도맵은 상기 n번째 영상 내 개체의 밀도가 수정된 정보인 이상 개체 검출 방법.The second density map is abnormal object detection method of the density information of the object in the n-th image.
  8. 제7항에 있어서, The method of claim 7, wherein
    상기 학습용 서버로부터 상기 n번째 영상 및 상기 제2 밀도 맵을 이용한 재학습에 의하여 얻어진 업데이트 정보를 수신하는 단계, 그리고Receiving update information obtained by re-learning using the nth image and the second density map from the learning server, and
    상기 업데이트 정보를 이용하여 상기 n번째 영상 이후의 소정 영상에 대한 이상개체 밀도 맵을 출력하는 단계를 더 포함하는 이상 개체 검출 방법.And outputting an abnormal object density map of the predetermined image after the nth image by using the update information.
  9. 제7항에 있어서, The method of claim 7, wherein
    상기 수정된 정보는 상기 n번째 이상 개체 밀도 맵 중 오류가 있는 시간 영역 정보 및 공간 영역 정보 중 적어도 하나를 포함하고, The modified information includes at least one of error time space information and space area information of the n-th or more object density map.
    상기 제2 밀도 맵은 상기 시간 영역 정보 및 상기 공간 영역 정보 중 적어도 하나를 이용하여 추출되는 이상 개체 검출 방법. And the second density map is extracted using at least one of the time domain information and the space domain information.
  10. 제8항에 있어서, The method of claim 8,
    상기 업데이트 정보는 상기 소정 영상 내 상기 복수의 개체의 위치 분포를 추출하기 위한 업데이트 정보를 포함하는 이상 개체 검출 방법. And the update information includes update information for extracting a location distribution of the plurality of objects in the predetermined image.
  11. 학습용 서버, 및A learning server, and
    상기 학습용 서버와 통신하는 이상 개체 검출 장치를 포함하고, An abnormal object detection device in communication with the learning server;
    상기 이상 개체 검출 장치는, The abnormal object detection device,
    상기 학습용 서버와 통신하는 통신 프로세서; 및A communication processor in communication with the learning server; And
    촬영 영상을 입력받고, 상기 촬영 영상의 개체 중 움직임이 검출되지 않은 픽셀 영역이 마스킹된 영상을 출력하는 제어부를 포함하고,A control unit configured to receive a captured image and output an image of masking a pixel area in which no motion is detected among the objects of the captured image;
    상기 통신 프로세서는 상기 촬영 영상 및 상기 촬영 영상의 개체 밀도에 대한 비트맵을 상기 학습용 서버로 전송하는 이상 개체 검출 시스템.And the communication processor transmits the captured image and a bitmap of the object density of the captured image to the learning server.
  12. 하나 또는 복수의 개체를 촬영한 영상 데이터에 기초하여, 상기 개체에 대한 밀도 맵을 출력하도록 컴퓨터를 실행시키는 학습된 모델.Learned model for executing a computer to output a density map for the object based on image data of one or a plurality of objects.
  13. 제12항에 있어서,The method of claim 12,
    상기 하나 또는 복수의 개체를 촬영한 영상 데이터는 뉴럴 네트워크의 입력층이 되고, 상기 뉴럴 네트워크는 학습된 중량 계수에 기초하여 상기 하나 또는 복수의 개체를 촬영한 영상 데이터에 대하여 연산을 수행하며, 상기 개체에 대한 밀도 맵이 상기 뉴럴 네트워크의 출력층이 되도록 컴퓨터를 실행시키는 학습된 모델.The image data photographing the one or a plurality of objects becomes an input layer of a neural network, and the neural network performs an operation on the image data photographing the one or a plurality of objects based on the learned weight coefficient. A trained model that runs a computer such that a density map for an individual is the output layer of the neural network.
  14. 영상 데이터 및 이상 개체 데이터를 수신하는 수신부, 그리고Receiving unit for receiving image data and abnormal object data, And
    상기 영상 데이터 및 상기 이상 개체 데이터 간의 관계를 학습하는 학습부를 포함하고,A learning unit learning a relationship between the image data and the abnormal object data;
    상기 수신부는 오류가 있는 것으로 지시된 영상 데이터 및 오류가 정정된 이상 개체 데이터를 수신하고,The receiving unit receives the image data indicated as an error and the abnormal object data is corrected,
    상기 학습부는 상기 오류가 있는 것으로 지시된 영상 데이터 및 상기 오류가 정정된 이상 개체 데이터 간의 관계를 재학습하는 학습용 서버.And the learning unit relearns the relationship between the image data indicated as having the error and the abnormal entity data in which the error is corrected.
PCT/KR2019/005226 2018-05-03 2019-04-30 Abnormal entity detection device and method WO2019212237A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020197016267A KR20200139616A (en) 2018-05-03 2019-04-30 Apparatus and method for detecting abnormal objects

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180051258 2018-05-03
KR10-2018-0051258 2018-05-03

Publications (1)

Publication Number Publication Date
WO2019212237A1 true WO2019212237A1 (en) 2019-11-07

Family

ID=68386335

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/005226 WO2019212237A1 (en) 2018-05-03 2019-04-30 Abnormal entity detection device and method

Country Status (2)

Country Link
KR (1) KR20200139616A (en)
WO (1) WO2019212237A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102519715B1 (en) * 2021-03-24 2023-04-17 주식회사 에어플 Road information providing system and method
KR102372508B1 (en) * 2021-05-26 2022-03-08 한국교통대학교산학협력단 Detection apparatus for abnomal object, and control method thereof
KR102347811B1 (en) * 2021-05-31 2022-01-06 한국교통대학교산학협력단 Apparatus and method for detecting object of abnormal behavior

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160171311A1 (en) * 2014-12-16 2016-06-16 Sighthound Inc. Computer Vision Pipeline and Methods for Detection of Specified Moving Objects
WO2016208875A1 (en) * 2015-06-25 2016-12-29 에스케이텔레콤 주식회사 Method and apparatus for detecting moving object using difference in image
US20170098126A1 (en) * 2014-07-07 2017-04-06 Google Inc. Method and system for detecting and presenting video feed
KR101944374B1 (en) * 2018-02-12 2019-01-31 엘지이노텍 주식회사 Apparatus and method for detecting abnormal object and imaging device comprising the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170098126A1 (en) * 2014-07-07 2017-04-06 Google Inc. Method and system for detecting and presenting video feed
US20160171311A1 (en) * 2014-12-16 2016-06-16 Sighthound Inc. Computer Vision Pipeline and Methods for Detection of Specified Moving Objects
WO2016208875A1 (en) * 2015-06-25 2016-12-29 에스케이텔레콤 주식회사 Method and apparatus for detecting moving object using difference in image
KR101944374B1 (en) * 2018-02-12 2019-01-31 엘지이노텍 주식회사 Apparatus and method for detecting abnormal object and imaging device comprising the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FANG, ZHIJUN ET AL.: "Abnormal event detection in crowded scenes based on deep learning", MULTIMEDIA TOOLS AND APPLICATIONS, vol. 75, no. 22, 30 November 2016 (2016-11-30), pages 14617 - 14639, XP036082895, Retrieved from the Internet <URL:https://www.link.springer.com/article/10.1007/s11042-016-3316-3> [retrieved on 20190730], DOI: 10.1007/s11042-016-3316-3 *

Also Published As

Publication number Publication date
KR20200139616A (en) 2020-12-14

Similar Documents

Publication Publication Date Title
WO2019235776A1 (en) Device and method for determining abnormal object
WO2019212237A1 (en) Abnormal entity detection device and method
WO2019083299A1 (en) Rearing place management device and method
WO2020141888A1 (en) Device for managing environment of breeding farm
WO2021221249A1 (en) Smart livestock management system and method for same
WO2020017814A1 (en) Abnormal entity detection system and method
WO2021091021A1 (en) Fire detection system
WO2020075888A1 (en) Computer program and terminal for providing information about individual animals on basis of animal face and noseprint images
US20190122383A1 (en) Image processing apparatus and method
WO2012005387A1 (en) Method and system for monitoring a moving object in a wide area using multiple cameras and an object-tracking algorithm
WO2019168323A1 (en) Apparatus and method for detecting abnormal object, and photographing device comprising same
WO2019182355A1 (en) Smartphone, vehicle and camera having thermal image sensor, and display and sensing method using same
KR101944374B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
WO2017111257A1 (en) Image processing apparatus and image processing method
KR20190103510A (en) Imaging device, apparatus and method for managing of fowl comprising the same
WO2020005038A1 (en) System and terminal for managing environment of breeding place and method thereof
WO2019177367A1 (en) Display apparatus and control method thereof
WO2021049730A1 (en) Electronic device training image recognition model and operation method for same
WO2020096192A1 (en) Electronic device and method for controlling same
KR102505691B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
WO2020149493A1 (en) Electronic device and method for controlling same
WO2021066275A1 (en) Electronic device and method for controlling same
WO2020017799A1 (en) Device and method for detecting abnormal object, and imaging device comprising same
WO2022035054A1 (en) Robot and method for controlling same
KR102307609B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19795817

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19795817

Country of ref document: EP

Kind code of ref document: A1