KR20210060252A - Method and system for searching missing person - Google Patents

Method and system for searching missing person Download PDF

Info

Publication number
KR20210060252A
KR20210060252A KR1020190148087A KR20190148087A KR20210060252A KR 20210060252 A KR20210060252 A KR 20210060252A KR 1020190148087 A KR1020190148087 A KR 1020190148087A KR 20190148087 A KR20190148087 A KR 20190148087A KR 20210060252 A KR20210060252 A KR 20210060252A
Authority
KR
South Korea
Prior art keywords
image
person
learning model
color
input image
Prior art date
Application number
KR1020190148087A
Other languages
Korean (ko)
Inventor
최연주
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020190148087A priority Critical patent/KR20210060252A/en
Publication of KR20210060252A publication Critical patent/KR20210060252A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G06K9/4652
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

According to various embodiments, disclosed are a method and a system for searching a missing person. The method for searching a missing person performed by a server comprises the steps of: receiving missing person information including the color of the top and bottom of a missing person; receiving an input image; searching for an object matching the color of the top and bottom in the input image using a previously trained learning model; and outputting a portion including the searched object from the input image.

Description

실종자 탐색 방법 및 시스템{Method and system for searching missing person}{Method and system for searching missing person}

본 개시는 실종자 탐색 방법 및 시스템에 관한 것으로서, 더욱 자세하게는 무인기를 활용하여 실종자의 의상을 중심으로 신속하게 실종자를 탐색하는 시스템, 방법 및 컴퓨터 프로그램에 관한 것이다.The present disclosure relates to a method and system for searching for a missing person, and more particularly, to a system, a method, and a computer program for quickly searching for a missing person based on the clothes of the missing person using a drone.

치매 노인이나 유아의 실종 사건은 끊이지 않고 있다. 현재 실종자를 빨리 찾기 위해 다양한 방법이 활용되고 있다. 예를 들면, 전국에 수백만 개 이상 설치된 CCTV의 영상에서 실종자의 얼굴을 매칭하는 기술을 활용하고 있다. 그러나, 다량의 데이터 전체를 검색할 경우 너무 오랜 시간이 소요될 수 밖에 없고, 영상의 화질이 좋지 않은 경우 그 효과가 현저히 감소하게 된다.The disappearance of the elderly or infants with dementia is continuing. Currently, various methods are being used to quickly find the missing person. For example, it is using technology to match the faces of missing persons in the images of millions of CCTV installed across the country. However, when searching for a large amount of data as a whole, it takes too long, and when the image quality is not good, the effect is remarkably reduced.

본 발명이 해결하고자 하는 과제는 고정된 CCTV의 영상에서 실종자의 얼굴을 매칭하는 방식으로는 신속한 탐색이 불가능하다는 점을 극복하고자, 무인기를 활용하고 실종자의 얼굴이 아닌 실종자의 의상을 중심으로 신속하게 실종자를 탐색하는 시스템, 방법 및 컴퓨터 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to overcome the fact that it is impossible to quickly search by matching the face of the missing person in a fixed CCTV image. It is to provide a system, method, and computer program for searching for missing persons.

상술한 기술적 과제들을 달성하기 위한 기술적 수단으로서, 본 발명의 일 측면에 따른 서버에 의해 수행되는 실종자 탐색 방법은 실종자의 상의 및 하의 색상을 포함하는 실종자 정보를 수신하는 단계, 입력 영상을 수신하는 단계, 사전에 트레이닝된 학습 모델을 이용하여 상기 입력 영상 내에 상기 상의 및 하의 색상에 부합하는 객체를 검색하는 단계, 및 상기 입력 영상에서 상기 검색된 객체를 포함하는 부분을 출력하는 단계를 포함한다.As a technical means for achieving the above-described technical problems, a method for searching a missing person performed by a server according to an aspect of the present invention includes the steps of receiving information on the missing person including the colors of the top and bottom of the missing person, and receiving an input image. And searching for an object matching the colors of the top and bottom in the input image using a pre-trained learning model, and outputting a portion including the searched object in the input image.

일 예에 따르면, 상기 학습 모델은 입고 있는 상의 및 하의 색상이 라벨링된 사람의 이미지들을 기초로 트레이닝될 수 있다.According to an example, the learning model may be trained based on images of a person labeled with a color of a top and a bottom worn.

다른 예에 따르면, 상기 학습 모델은 영상으로부터 사람을 구분하기 위한 제1 학습 모델, 및 사람의 영상으로부터 상기 사람이 입고 있는 상의와 하의의 색상을 구분하기 위한 제2 학습 모델을 포함할 수 있다.According to another example, the learning model may include a first learning model for classifying a person from an image, and a second learning model for classifying colors of a top and a bottom worn by the person from the image of the person.

또 다른 예에 따르면, 상기 입력 영상은 무인기로부터 수신될 수 있다. 상기 무인기의 프로세서는 일반 카메라로 촬영 영역을 촬영한 컬러 영상과 열화상 카메라로 상기 촬영 영역을 촬영한 열화상 영상을 기초로 상기 입력 영상을 생성하도록 구성될 수 있다.According to another example, the input image may be received from an unmanned aerial vehicle. The processor of the unmanned aerial vehicle may be configured to generate the input image based on a color image captured by a general camera and a thermal image captured by a thermal imaging camera.

또 다른 예에 따르면, 상기 무인기의 프로세서는 상기 컬러 영상에서 상기 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 상기 입력 영상을 생성하도록 구성될 수 있다.According to another example, the processor of the unmanned aerial vehicle may be configured to generate the input image by masking a region of the color image below a preset reference temperature of the thermal image.

또 다른 예에 따르면, 상기 객체는 상기 컬러 영상에서 마스킹되지 않은 컬러 부분을 상기 학습 모델에 입력함으로써 검색될 수 있다.According to another example, the object may be searched by inputting an unmasked color portion of the color image into the learning model.

또 다른 예에 따르면, 상기 실종자 정보는 단말기로부터 수신되고, 상기 검색된 객체를 포함하는 부분은 상기 단말기로 송신될 수 있다.According to another example, the missing person information may be received from a terminal, and a portion including the searched object may be transmitted to the terminal.

본 발명의 다른 측면에 따르면, 서버를 이용하여 전술한 실종자 탐색 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램이 제공된다.According to another aspect of the present invention, a computer program stored in a medium is provided in order to execute the above-described missing person search method using a server.

본 발명의 또 다른 측면에 따른 실종자 탐색 시스템은 서로 통신하는 서버와 무인기를 포함한다. 상기 서버는 실종자의 상의 및 하의 색상을 포함하는 실종자 정보를 수신하고, 상기 무인기로부터 입력 영상을 수신하고, 사전에 트레이닝된 학습 모델을 이용하여 상기 입력 영상 내에 상기 상의 및 하의 색상에 부합하는 객체를 검색하고, 상기 입력 영상에서 상기 검색된 객체를 포함하는 부분을 출력하도록 구성된다.A missing person search system according to another aspect of the present invention includes a server and an unmanned aerial vehicle that communicate with each other. The server receives missing person information including the color of the top and bottom of the missing person, receives an input image from the unmanned aerial vehicle, and uses a pre-trained learning model to locate an object matching the color of the top and bottom in the input image. And outputs a portion including the searched object in the input image.

일 예에 따르면, 상기 학습 모델은 입고 있는 상의 및 하의 색상이 라벨링된 사람의 이미지들을 기초로 트레이닝될 수 있다.According to an example, the learning model may be trained based on images of a person labeled with a color of a top and a bottom worn.

다른 예에 따르면, 상기 학습 모델은 영상으로부터 사람을 구분하기 위한 제1 학습 모델, 및 사람의 영상으로부터 상기 사람이 입고 있는 상의와 하의의 색상을 구분하기 위한 제2 학습 모델을 포함할 수 있다.According to another example, the learning model may include a first learning model for classifying a person from an image, and a second learning model for classifying colors of a top and a bottom worn by the person from the image of the person.

또 다른 예에 따르면, 상기 무인기는 컬러 영상을 생성하는 일반 카메라, 열화상 영상을 생성하는 열화상 카메라, 및 상기 컬러 영상과 상기 열화상 영상을 기초로 상기 입력 영상을 생성하도록 구성되는 프로세서를 포함할 수 있다.According to another example, the UAV includes a general camera that generates a color image, a thermal image camera that generates a thermal image, and a processor configured to generate the input image based on the color image and the thermal image. can do.

또 다른 예에 따르면, 상기 일반 카메라와 상기 열화상 카메라는 동일 영역을 촬영하도록 구성될 수 있다.According to another example, the general camera and the thermal imaging camera may be configured to capture the same area.

또 다른 예에 따르면, 상기 프로세서는 상기 컬러 영상에서 상기 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 상기 입력 영상을 생성하도록 구성될 수 있다.According to another example, the processor may be configured to generate the input image by masking an area of the color image below a preset reference temperature of the thermal image.

또 다른 예에 따르면, 상기 객체는 상기 컬러 영상에서 마스킹되지 않은 컬러 부분을 상기 학습 모델에 입력함으로써 검색될 수 있다.According to another example, the object may be searched by inputting an unmasked color portion of the color image into the learning model.

또 다른 예에 따르면, 상기 무인기는 인공위성 신호로부터 위치 정보를 생성하는 위치측정 모듈을 더 포함할 수 있다. 상기 프로세서는 상기 입력 영상과 함께 상기 위치 정보를 상기 서버에 송신할 수 있다.According to another example, the unmanned aerial vehicle may further include a location measurement module that generates location information from a satellite signal. The processor may transmit the location information together with the input image to the server.

또 다른 예에 따르면, 상기 실종자 탐색 시스템은 상기 실종자 정보를 상기 서버에 전송하고, 상기 검색된 객체를 포함하는 부분을 수신하는 적어도 하나의 단말기를 더 포함할 수 있다.According to another example, the missing person search system may further include at least one terminal that transmits the missing person information to the server and receives a portion including the searched object.

본 발명에 따르면, 무인기를 활용함으로써 더욱 빠르고 신속하게 실종자를 탐색할 수 있을 뿐만 아니라, 실종자의 얼굴이 아닌 실종자의 의상 색상을 중심으로 실종자를 탐색하기 때문에 높은 연산량을 필요로 하지 않으며, 무인기는 일반 카메라뿐만 아니라 열화상 카메라를 이용하여 컬러 영상에서 인체의 체온에 해당하는 영역만을 추출할 수 있기 때문에, 연산량을 더욱 줄일 수 있다. 따라서, 본 발명에 따르면 실종자의 탐색 시간이 획기적으로 감소될 수 있다.According to the present invention, not only can the missing person be searched more quickly and quickly by using a drone, but also a high amount of computation is not required because the missing person is searched based on the color of the missing person's clothing rather than the missing person's face. Since it is possible to extract only the region corresponding to the body temperature of the human body from the color image using the thermal imaging camera as well as the camera, the amount of computation can be further reduced. Therefore, according to the present invention, the search time of the missing person can be drastically reduced.

도 1은 일 실시예에 따른 실종자 탐색 시스템의 구성을 도시한다.
도 2는 일 실시예에 따른 무인기의 일부 내부 구성을 도시한다.
도 3은 일 실시예에 따른 서버와 단말기의 내부 구성을 도시한다.
도 4는 일 실시예에 따른 무인기의 프로세서의 내부 구성을 도시한다.
도 5는 일 실시예에 따른 서버의 프로세서의 내부 구성을 도시한다.
도 6은 일 실시예에 따라서 무인기, 서버 및 단말기를 포함하는 실종자 탐색 시스템에서 실종자를 탐색하는 방법을 설명하기 위한 도면이다.
1 shows a configuration of a missing person search system according to an embodiment.
2 shows a partial internal configuration of the unmanned aerial vehicle according to an embodiment.
3 is a diagram illustrating an internal configuration of a server and a terminal according to an embodiment.
4 is a diagram illustrating an internal configuration of a processor of an unmanned aerial vehicle according to an embodiment.
5 is a diagram illustrating an internal configuration of a processor of a server according to an embodiment.
6 is a diagram for explaining a method of searching for a missing person in a missing person search system including an unmanned aerial vehicle, a server, and a terminal according to an embodiment.

아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 다양한 실시예들을 상세히 설명한다. 그러나 본 개시의 기술적 사상은 다양한 형태로 변형되어 구현될 수 있으므로 본 명세서에서 설명하는 실시예들로 제한되지 않는다. 본 명세서에 개시된 실시예들을 설명함에 있어서 관련된 공지 기술을 구체적으로 설명하는 것이 본 개시의 기술적 사상의 요지를 흐릴 수 있다고 판단되는 경우 그 공지 기술에 대한 구체적인 설명을 생략한다. 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present disclosure. However, the technical idea of the present disclosure is not limited to the embodiments described in the present specification because it may be modified and implemented in various forms. In describing the embodiments disclosed in the present specification, when it is determined that a detailed description of a related known technology may obscure the gist of the technical idea of the present disclosure, a detailed description of the known technology will be omitted. The same or similar components are given the same reference numerals, and redundant descriptions thereof will be omitted.

본 명세서에서 어떤 요소가 다른 요소와 "연결"되어 있다고 기술될 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라 그 중간에 다른 요소를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 어떤 요소가 다른 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 요소 외에 또 다른 요소를 배제하는 것이 아니라 또 다른 요소를 더 포함할 수 있는 것을 의미한다.In the present specification, when an element is described as being "connected" with another element, this includes not only the case of being "directly connected" but also the case of being "indirectly connected" with another element interposed therebetween. When a certain element "includes" another element, it means that another element may be included in addition to the other element, not excluded, unless specifically stated to the contrary.

일부 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 설명될 수 있다. 이러한 기능 블록들의 일부 또는 전부는 특정 기능을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 본 개시의 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 본 개시의 기능 블록이 수행하는 기능은 복수의 기능 블록에 의해 수행되거나, 본 개시에서 복수의 기능 블록이 수행하는 기능들은 하나의 기능 블록에 의해 수행될 수도 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다.Some embodiments may be described with functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and/or software components that perform a specific function. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or may be implemented by circuit configurations for a predetermined function. Functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks of the present disclosure may be implemented as an algorithm executed on one or more processors. Functions performed by a function block of the present disclosure may be performed by a plurality of function blocks, or functions performed by a plurality of function blocks in the present disclosure may be performed by a single function block. In addition, the present disclosure may employ conventional techniques for electronic environment setting, signal processing, and/or data processing.

도 1은 일 실시예에 따른 실종자 탐색 시스템의 구성을 도시한다.1 shows a configuration of a missing person search system according to an embodiment.

도 1을 참조하면, 실종자 탐색 시스템(1000)은 무인기(100), 서버(200), 단말기(300), 및 이들을 연결하는 네트워크(10)를 포함한다.Referring to FIG. 1, the missing person search system 1000 includes an unmanned aerial vehicle 100, a server 200, a terminal 300, and a network 10 connecting them.

무인기(100)는 소위 드론으로 지칭되는 무인 비행기로서, 조종사가 탑승하지 않고 무선전파 유도에 의해 비행과 조종이 가능한 비행기나 헬리콥터 모양의 무인 비행체와 무인 비행체를 무선으로 조종하는 비행체 컨트롤러를 포함한다. 무인기(100)는 고공 영상 또는 사진 촬영, 물품 배달, 기상정보 수집, 농약 살포 등 다양한 기능을 수행할 수 있다.The unmanned aerial vehicle 100 is an unmanned aerial vehicle referred to as a so-called drone, and includes an airplane or helicopter-shaped unmanned aerial vehicle capable of flying and manipulating by radio wave guidance without a pilot on board, and an air vehicle controller that wirelessly controls the unmanned aerial vehicle. The unmanned aerial vehicle 100 may perform various functions such as taking high-altitude images or pictures, delivering goods, collecting weather information, spraying pesticides, and so on.

무인기(100)와 통신한다는 것은 무인 비행체 또는 비행체 컨트롤러와 통신하는 것을 포함하고, 무인 비행체와 통신한다는 것은 비행체 컨트롤러를 통해 통신하는 것을 포함한다. 예를 들면, 무인기(100)가 영상을 네트워크(10)에 송신하는 것은 무인 비행체가 네트워크(10)에 직접 접속하여 영상을 송신할 수도 있고, 무인 비행체가 비행체 컨트롤러를 거쳐 네트워크(10)에 영상을 송신할 수도 있다.Communicating with the unmanned aerial vehicle 100 includes communicating with an unmanned aerial vehicle or an aircraft controller, and communicating with an unmanned aerial vehicle includes communicating through an unmanned aerial vehicle controller. For example, when the unmanned aerial vehicle 100 transmits the video to the network 10, the unmanned aerial vehicle may directly connect to the network 10 and transmit the video, or the unmanned aerial vehicle can transmit the video to the network 10 through the vehicle controller. Can also be transmitted.

서버(200)는 실종자 정보를 관리하고 영상으로부터 실종자를 탐색하는 기능을 수행한다. 서버(200)는 네트워크(10)를 통해 무인기(100) 및/또는 단말기(300)와 통신하며, 명령, 코드, 파일, 콘텐트, 서비스 등을 제공하는 하나의 컴퓨터 장치 또는 네트워크(10)를 통해 서로 접속하는 복수의 컴퓨터 장치들로 구현될 수 있다.The server 200 manages missing person information and performs a function of searching for a missing person from an image. The server 200 communicates with the unmanned aerial vehicle 100 and/or the terminal 300 through the network 10, and provides commands, codes, files, contents, services, etc. through a single computer device or network 10. It may be implemented with a plurality of computer devices that are connected to each other.

서버(200)는 단말기(300)로부터 실종자 정보를 수신하고, 무인기(100)로부터 입력 영상을 수신하고, 학습 모델을 이용하여 입력 영상에서 실종자 정보에 부합하는 객체를 검색하여, 입력 영상에서 검색된 객체가 포함된 부분인 객체 영상을 출력할 수 있다.The server 200 receives the missing person information from the terminal 300, receives the input image from the unmanned aerial vehicle 100, searches for an object matching the missing person information from the input image using a learning model, and the object retrieved from the input image. An object image, which is a part including is, can be output.

단말기(300)는 컴퓨팅 기능을 수행하는 사용자 단말기로서, 유선 통신 및/또는 무선 통신을 통해 네트워크(10)에 접속하여 서버(200)와 통신할 수 있다. 단말기(300)는 예컨대 개인용 컴퓨터, 노트북 컴퓨터, 스마트폰, 태블릿 PC 등을 포함할 수 있다. 단말기(300)는 서버(200)에 실종자 정보를 송신하고, 서버(200)로부터 객체 영상을 수신할 수 있다. 단말기(300)는 실종자의 가족, 친구 등이 사용하는 개인용 컴퓨터 장치일 수 있다. 단말기(300)는 경찰서나 소방서, 또는 실종자 신고를 받는 기관의 컴퓨터 장치일 수 있다.The terminal 300 is a user terminal that performs a computing function, and may communicate with the server 200 by accessing the network 10 through wired communication and/or wireless communication. The terminal 300 may include, for example, a personal computer, a notebook computer, a smart phone, a tablet PC, and the like. The terminal 300 may transmit missing person information to the server 200 and receive an object image from the server 200. The terminal 300 may be a personal computer device used by a family member or friend of the missing person. The terminal 300 may be a computer device of a police station, a fire station, or an organization that receives a report of a missing person.

네트워크(10)는 무인기(100), 서버(200) 및 단말기(300)를 서로 통신 가능하게 연결할 수 있다. 예를 들어, 네트워크(10)는 단말기(300)가 서버(200)에 접속하여 실종자 정보를 송신하고 실종자 정보에 부합하는 객체의 영상을 수신할 수 있는 접속 경로를 제공할 수 있다. 네트워크(10)는 무인기(100)가 서버(200)에 입력 영상을 송신하고, 서버(200)로부터의 명령을 수신할 수 있는 접속 경로를 제공할 수 있다.The network 10 may connect the unmanned aerial vehicle 100, the server 200, and the terminal 300 to each other so that communication is possible. For example, the network 10 may provide an access path through which the terminal 300 can access the server 200 to transmit missing person information and receive an image of an object corresponding to the missing person information. The network 10 may provide an access path through which the drone 100 transmits an input image to the server 200 and receives a command from the server 200.

네트워크(10)는 유선 네트워크 및/또는 무선 네트워크를 포함할 수 있다. 무인기(100)와 서버(200) 간에는 무선 네트워크(10)를 통해 통신할 수 있다. 예를 들면, 네트워크(10)는 근거리 네트워크(LAN: Local Area Network), 도시권 네트워크(MAN: Metropolitan Area Network), 광역 네트워크(WAN: Wide Area Network) 등과 같은 다양한 네트워크를 포함할 수 있다. 네트워크(10)는 월드 와이드 웹(WWW: World Wide Web)을 포함할 수도 있다. 그러나, 본 실시예에 따른 네트워크(10)는 앞에서 열거된 네트워크에 국한되지 않고, 공지의 이동 통신 네트워크, 공지의 무선 데이터 네트워크, 공지의 전화 네트워크, 공지의 유/무선 텔레비전 네트워크 중 적어도 하나를 포함할 수 있다. 네트워크(10)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있다.The network 10 may include a wired network and/or a wireless network. The unmanned aerial vehicle 100 and the server 200 may communicate through a wireless network 10. For example, the network 10 may include various networks such as a local area network (LAN), a metropolitan area network (MAN), and a wide area network (WAN). The network 10 may include the World Wide Web (WWW). However, the network 10 according to the present embodiment is not limited to the networks listed above, and includes at least one of a known mobile communication network, a known wireless data network, a known telephone network, and a known wired/wireless television network. can do. Network 10 may include any one or more of network topologies including bus networks, star networks, ring networks, mesh networks, star-bus networks, tree or hierarchical networks, and the like.

도 2는 일 실시예에 따른 무인기의 일부 내부 구성을 도시한다.2 shows a partial internal configuration of the unmanned aerial vehicle according to an embodiment.

도 2를 참조하면, 무인기(100)는 프로세서(110), 메모리(120), 통신모듈(130), 제1 카메라(150), 및 제2 카메라(160)을 포함할 수 있다. 무인기(100)는 위치측정모듈(170)을 더 포함할 수 있다. 프로세서(110), 메모리(120), 통신 모듈(130), 제1 카메라(150), 제2 카메라(160), 및 위치측정모듈(170)는 버스(101)를 통해 서로 데이터를 교환할 수 있다. 도 2에 도시되지 않지만, 무인기(100)는 비행 본체, 모터와 프로펠러 등으로 구성되는 추력기, 관성 센서, 적외선 센서 등과 같은 센서부 등을 더 포함할 수 있다.Referring to FIG. 2, the drone 100 may include a processor 110, a memory 120, a communication module 130, a first camera 150, and a second camera 160. The unmanned aerial vehicle 100 may further include a position measurement module 170. The processor 110, the memory 120, the communication module 130, the first camera 150, the second camera 160, and the position measurement module 170 can exchange data with each other through the bus 101. have. Although not shown in FIG. 2, the unmanned aerial vehicle 100 may further include a sensor unit such as a flying body, a thruster including a motor and a propeller, an inertial sensor, an infrared sensor, and the like.

프로세서(110)는 기본적인 산술, 로직 및 입출력 연산을 수행하고, 예컨대 메모리(120)에 저장된 프로그램 코드를 실행할 수 있다. 프로세서(110)는 기본적으로 무인기(100)의 비행을 위해 추력기를 제어할 수 있다. 프로세서(110)는 자율 비행을 위한 프로그램 코드 및/또는 비행체 컨트롤러로부터 수신되는 제어 명령에 따른 비행을 위한 프로그램 코드를 실행할 수 있다.The processor 110 performs basic arithmetic, logic, and input/output operations, and may execute, for example, program code stored in the memory 120. The processor 110 may basically control the thruster for the flight of the unmanned aerial vehicle 100. The processor 110 may execute a program code for autonomous flight and/or a program code for flight according to a control command received from the vehicle controller.

프로세서(110)는 무인기(100)의 무인 비행체에 탑재된 제1 프로세서, 및 무인기(100)의 비행체 컨트롤러에 탑재된 제2 프로세서를 포함할 수 있다.The processor 110 may include a first processor mounted on an unmanned aerial vehicle of the unmanned aerial vehicle 100 and a second processor mounted on an air vehicle controller of the unmanned aerial vehicle 100.

일 실시예에 따르면, 프로세서(110)는 제1 카메라(150)로부터의 컬러 영상 및 제2 카메라(150)로부터의 열화상 영상을 영상 처리하여, 입력 영상을 생성할 수 있다. 입력 영상은 서버(200)에 입력될 영상으로서, 컬러 영상과 열화상 영상에 기초하여 프로세서(110)에 의해 생성되는 영상을 지칭한다.According to an embodiment, the processor 110 may generate an input image by processing a color image from the first camera 150 and a thermal image from the second camera 150. The input image is an image to be input to the server 200 and refers to an image generated by the processor 110 based on a color image and a thermal image.

메모리(120)는 프로세서(110)가 판독할 수 있는 기록 매체로서, RAM(random access memory) 및/또는 ROM(read only memory)를 포함할 수 있다. 메모리(120)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 메모리(120)에는 다양한 실시예들에 따라서 컬러 영상과 열화상 영상을 영상 처리하기 위한 프로그램 코드가 저장될 수 있다.The memory 120 is a recording medium that can be read by the processor 110 and may include random access memory (RAM) and/or read only memory (ROM). The memory 120 may store an operating system and at least one program code. The memory 120 may store a program code for image processing a color image and a thermal image according to various embodiments.

통신 모듈(130)은 무선 네트워크(10)를 통해 서버(200)와 데이터를 교환할 수 있다. 예컨대, 통신 모듈(130)은 프로세서(110)에서 생성된 입력 영상을 서버(200)에 송신하고 서버(200)로부터 제어 명령을 수신할 수 있다. 통신 모듈(130)은 무인기(100)의 무인 비행체에 탑재되는 제1 통신 모듈과 무인기(100)의 비행체 컨트롤러에 탑재되는 제2 통신 모듈을 포함할 수 있다. 무인 비행체와 비행체 컨트롤러는 제1 통신 모듈 및 제2 통신 모듈을 통해 서로 통신할 수 있다.The communication module 130 may exchange data with the server 200 through the wireless network 10. For example, the communication module 130 may transmit an input image generated by the processor 110 to the server 200 and receive a control command from the server 200. The communication module 130 may include a first communication module mounted on an unmanned aerial vehicle of the unmanned aerial vehicle 100 and a second communication module mounted on an aircraft controller of the unmanned aerial vehicle 100. The unmanned aerial vehicle and the vehicle controller may communicate with each other through a first communication module and a second communication module.

제1 카메라(150)는 일반적인 가시광선 카메라로서, 컬러 영상을 생성할 수 있다. 컬러 영상은 프로세서(110)에 제공될 수 있다. 제1 카메라(150)는 줌 기능을 가질 수 있으며, 프로세서(110) 또는 비행체 컨트롤러의 제어에 따라 확대된 영상을 생성할 수 있다.The first camera 150 is a general visible light camera and may generate a color image. The color image may be provided to the processor 110. The first camera 150 may have a zoom function, and may generate an enlarged image according to the control of the processor 110 or the vehicle controller.

제2 카메라(160)는 열화상 카메라로서, 열화상 영상을 생성할 수 있다. 열화상 영상은 방사되는 적외선의 측정에 의해 얻어진 표면의 온도 분포를 흑백의 농담 또는 색상으로 표시되는 영상이다. 열화상 영상을 이용하면 산에 발생한 산불이나 일정한 체온을 유지할 수 있는 사람과 같은 정온 동물을 쉽게 탐지할 수 있다.The second camera 160 is a thermal imaging camera and may generate a thermal image. The thermal image is an image in which the temperature distribution of a surface obtained by measuring radiated infrared rays is displayed in black and white shades or colors. Using thermal imaging, it is easy to detect a forest fire in the mountains or a calm animal such as a person who can maintain a constant body temperature.

제2 카메라(160)는 일화상 카메라로 지칭되고, 제1 카메라(150)는 일반 카메라로 지칭될 수 있다.The second camera 160 may be referred to as a solar camera, and the first camera 150 may be referred to as a general camera.

제1 카메라(150)와 제2 카메라(160)는 동일한 영역을 촬영하도록 구성될 수 있다. 제1 카메라(150)가 기본 배율로 촬영한 영상과 제2 카메라(160)가 기본 배율로 촬영한 영상은 실질적으로 동일한 대상 또는 영역을 촬영한 것일 수 있다. 이를 통해 제1 카메라(150)가 생성한 컬러 영상과 제2 카메라(160)가 촬영한 열화상 영상을 서로 정합(Matching)하는 과정이 생략될 수 있다.The first camera 150 and the second camera 160 may be configured to photograph the same area. An image captured by the first camera 150 at a basic magnification and an image captured by the second camera 160 at a basic magnification may be substantially the same object or area. Accordingly, a process of matching the color image generated by the first camera 150 and the thermal image captured by the second camera 160 may be omitted.

일 예에 따르면, 제1 카메라(150)와 제2 카메라(160)는 서로 평행한 촬영 방향을 갖도록 서로 인접하게 배치될 수 있다. 다른 예에 따르면, 제1 카메라(150)와 제2 카메라(160)는 프로세서(110)에 의해 제어되는 구동부에 장착될 수 있다. 구동부는 제1 카메라(150)와 제2 카메라(160)를 회전시켜서 촬영 방향을 변경할 수 있다. 제1 카메라(150)와 제2 카메라(160)는 하나의 구동부에 장착되어, 서로 동일하게 회전할 수 있다.According to an example, the first camera 150 and the second camera 160 may be disposed adjacent to each other so as to have a photographing direction parallel to each other. According to another example, the first camera 150 and the second camera 160 may be mounted on a driving unit controlled by the processor 110. The driving unit may change the photographing direction by rotating the first camera 150 and the second camera 160. The first camera 150 and the second camera 160 are mounted on one driving unit and may rotate identically to each other.

프로세서(110)는 제1 카메라(150)가 촬영한 컬러 영상을 수신하고, 제2 카메라(160)가 촬영한 열화상 영상을 수신하고, 컬러 영상과 열화상 영상에 기초하여 입력 영상을 생성할 수 있다.The processor 110 receives a color image captured by the first camera 150, receives a thermal image captured by the second camera 160, and generates an input image based on the color image and the thermal image. I can.

일 예에 따르면, 프로세서(110)는 컬러 영상에서 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 입력 영상을 생성하도록 구성될 수 있다. 예를 들면, 프로세서(110)는 열화상 영상에서 미리 설정된 기준 온도를 기초로 블랙 영역과 화이트 영역을 구분하여 필터 영상을 생성할 수 있다. 블랙 영역은 해당 픽셀에 해당하는 온도가 기준 온도 이하인 영역이고, 화이트 영역은 해당 픽셀에 해당하는 온도가 기준 온도보다 높은 영역일 수 있다.According to an example, the processor 110 may be configured to generate an input image by masking a region below a preset reference temperature of a thermal image in a color image. For example, the processor 110 may generate a filter image by dividing a black area and a white area based on a preset reference temperature in the thermal image. The black region may be a region in which the temperature corresponding to the pixel is equal to or lower than the reference temperature, and the white region may be a region in which the temperature corresponding to the pixel is higher than the reference temperature.

기준 온도는 대기 온도를 기초로 사전에 설정될 수 있다. 예를 들면, 대기 온도가 20도 정도인 경우, 기준 온도는 예컨대 22도로 설정될 수 있다. 사람의 체온으로 인하여, 열화상 영상에서 사람에 해당하는 영역은 화이트 영역에 포함될 수 있다. The reference temperature may be set in advance based on the ambient temperature. For example, when the air temperature is about 20 degrees, the reference temperature may be set to, for example, 22 degrees. Due to the human body temperature, a region corresponding to a person in the thermal image may be included in the white region.

프로세서(110)는 필터 영상과 컬러 영상을 결합하여 컬러 영상의 일부만을 추출할 수 있다. 필터 영상에서 블랙 영역에 해당하는 컬러 영상의 일부분은 블랙 영역으로 마스킹되고, 필터 영상에서 화이트 영역에 해당하는 컬러 영상의 나머지 부분만 남을 수 있다. 프로세서(110)는 필터 영상과 컬러 영상에 대하여 AND 연산을 수행할 수 있다.The processor 110 may extract only a part of the color image by combining the filter image and the color image. In the filter image, a part of the color image corresponding to the black region may be masked as a black region, and only the rest of the color image corresponding to the white region may remain in the filter image. The processor 110 may perform an AND operation on the filter image and the color image.

프로세서(110)는 필터 영상의 화이트 영역을 미리 설정된 마진만큼 넓힌 후 컬러 영상과 결합함으로써, 컬러 영상에서 사람에 해당하는 부분이 너무 타이트하게 설정되는 것을 방지할 수 있다.The processor 110 may prevent a part corresponding to a person in the color image from being set too tight by expanding the white area of the filter image by a preset margin and then combining the color image with the color image.

프로세서(110)는 위와 같은 과정을 통해 추출된 컬러 영상의 일부만을 서버(200)에 전송할 수 있다. 프로세서(110)는 컬러 영상에서 사람이 존재할 가능성이 높은 영역만을 추출하여 서버(200)에 전송하기 때문에, 서버(200)에서 실종자를 검색할 범위가 감소하므로 신속한 탐색이 가능하다. 또한, 사람이 존재할 가능성이 높은 영역만을 추출하여 서버(200)에 전송하기 때문에, 무선 네트워크(10)를 통해 전송할 데이터 량 역시 감소할 수 있다. 그에 따라, 무인기(100)는 제1 카메라(150)로 촬영하는 영상의 해상도를 더 높일 수 있다. 제1 카메라(150)의 해상도가 너무 높을 경우, 생성되는 컬러 영상의 데이터 크기가 커지기 때문에, 무선 네트워크(10)를 통해 실시간으로 전송하기 어려울 수 있다. 그러나, 본 발명에 따르면 데이터의 일부만을 추출하여 전송하므로, 컬러 영상의 해상도가 높더라도 무선 네트워크(10)의 대역폭 내에서 실시간으로 서버(200)에 전송할 수 있다.The processor 110 may transmit only a part of the color image extracted through the above process to the server 200. Since the processor 110 extracts only an area in which a person is likely to exist from the color image and transmits it to the server 200, the range in which the server 200 searches for a missing person is reduced, so that a quick search is possible. In addition, since only an area in which a person is likely to exist is extracted and transmitted to the server 200, the amount of data to be transmitted through the wireless network 10 may also be reduced. Accordingly, the unmanned aerial vehicle 100 may further increase the resolution of an image captured by the first camera 150. If the resolution of the first camera 150 is too high, the data size of the generated color image increases, so it may be difficult to transmit in real time through the wireless network 10. However, according to the present invention, since only a part of data is extracted and transmitted, even if the resolution of a color image is high, it can be transmitted to the server 200 in real time within the bandwidth of the wireless network 10.

위치측정모듈(170)은 GNSS(Global Navigation Satellite System) 위성에서 발신하는 전파를 이용하여 지구 상의 위치를 측정하는 모듈이다. 위치측정모듈(170)은 무인기(100)의 위치를 측정하여 위치 정보를 생성하고, 위치 정보를 프로세서(110)에 제공할 수 있다. 프로세서(110)는 위치 정보를 기초로 자율 비행 등에 활용할 수 있다. 프로세서(110)는 컬러 영상과 열화상 영상을 기초로 생성한 입력 영상과 함께 위치 정보를 서버(200)에 전송할 수 있다.The location measurement module 170 is a module that measures a location on the earth using radio waves transmitted from a Global Navigation Satellite System (GNSS) satellite. The location measurement module 170 may measure the location of the unmanned aerial vehicle 100 to generate location information and provide location information to the processor 110. The processor 110 may be utilized for autonomous flight or the like based on location information. The processor 110 may transmit location information to the server 200 together with an input image generated based on a color image and a thermal image.

도 3은 일 실시예에 따른 서버와 단말기의 내부 구성을 도시한다.3 is a diagram illustrating an internal configuration of a server and a terminal according to an embodiment.

도 3을 참조하면, 실종자 탐색 시스템은 예컨대 네트워크(10)에 접속하는 서버(200)와 단말기(300)를 포함할 수 있다.Referring to FIG. 3, the missing person search system may include, for example, a server 200 and a terminal 300 connected to the network 10.

서버(200)는 프로세서(210), 메모리(220), 통신 모듈(230), 및 입출력 인터페이스(240)를 포함한다. 프로세서(210), 메모리(220), 통신 모듈(230), 및 입출력 인터페이스(240)는 버스(201)를 통해 서로 데이터를 교환할 수 있다.The server 200 includes a processor 210, a memory 220, a communication module 230, and an input/output interface 240. The processor 210, the memory 220, the communication module 230, and the input/output interface 240 may exchange data with each other through the bus 201.

프로세서(210)는 기본적인 산술, 로직 및 입출력 연산을 수행하고, 예컨대 메모리(220)에 저장된 프로그램 코드, 예컨대, 학습 모델을 실행할 수 있다.The processor 210 may perform basic arithmetic, logic, and input/output operations, and may execute, for example, program code stored in the memory 220, for example, a learning model.

메모리(220)는 프로세서(210)가 판독할 수 있는 기록 매체로서, RAM, ROM 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 메모리(220)에는 운영체제와 적어도 하나의 프로그램 또는 어플리케이션 코드가 저장될 수 있다. 메모리(220)에는 학습 모델을 이용하여 입력 영상으로부터 실종자 정보에 부합하는 객체를 검출하는 방법을 수행하기 위한 프로그램 코드가 저장될 수 있다. 또한, 메모리(220)에는 착용하고 있는 상의 및 하의 색상이 라벨링된 사람의 이미지들이 저장되고, 이렇게 라벨링된 사람들의 이미지들을 기초로 학습 모델을 트레이닝하기 위한 프로그램 코드가 저장될 수 있다.The memory 220 is a recording medium that can be read by the processor 210 and may include a permanent mass storage device such as RAM, ROM, and a disk drive. The memory 220 may store an operating system and at least one program or application code. A program code for performing a method of detecting an object matching the missing person information from an input image using a learning model may be stored in the memory 220. In addition, the memory 220 may store images of a person labeled with colors of a top and a bottom worn, and a program code for training a learning model based on the labeled images of the people may be stored.

통신 모듈(230)은 네트워크(10)에 무선으로 접속하여 단말기(300)로부터 데이터를 수신하고 단말기(300)에 데이터를 송신할 수 있다. 입출력 인터페이스(540)는 입출력 장치와의 인터페이스 수단을 제공할 수 있다.The communication module 230 may wirelessly access the network 10 to receive data from the terminal 300 and transmit data to the terminal 300. The input/output interface 540 may provide an interface means with an input/output device.

단말기(300)는 프로세서(310), 메모리(320), 통신 모듈(330), 및 입출력 장치(340)를 포함한다. 프로세서(310), 메모리(320), 통신 모듈(330), 및 입출력 장치(340)는 버스(301)를 통해 서로 데이터를 교환할 수 있다.The terminal 300 includes a processor 310, a memory 320, a communication module 330, and an input/output device 340. The processor 310, the memory 320, the communication module 330, and the input/output device 340 may exchange data with each other through the bus 301.

프로세서(310)는 기본적인 산술, 로직 및 입출력 연산을 수행하고, 예컨대 메모리(320)에 저장된 프로그램 코드를 실행할 수 있다.The processor 310 may perform basic arithmetic, logic, and input/output operations, and may execute, for example, program code stored in the memory 320.

메모리(320)는 프로세서(310)가 판독할 수 있는 기록 매체로서, RAM, ROM 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치를 포함할 수 있다. 메모리(120)에는 운영체제와 인터넷 브라우저와 같은 프로그램 또는 어플리케이션 코드가 저장될 수 있다.The memory 320 is a recording medium that can be read by the processor 310 and may include a non-destructive large-capacity recording device such as a RAM, a ROM, and a disk drive. A program or application code such as an operating system and an Internet browser may be stored in the memory 120.

통신 모듈(330)은 네트워크(10)에 접속하여 서버(200)와 데이터를 주고 받을 수 있다. 입출력 장치(340)는 사용자로부터의 입력을 수신하여 프로세서(310)에 전달하고 프로세서(310)로부터 수신된 정보를 사용자에게 출력할 수 있다. 입출력 장치(340)는 입력 장치로서, 키보드, 마우스, 터치 스크린, 마이크 등을 포함할 수 있다. 입출력 장치(340)는 출력 장치로서, 디스플레이와 같은 영상 표시 장치를 포함할 수 있다.The communication module 330 may connect to the network 10 to exchange data with the server 200. The input/output device 340 may receive an input from a user, transmit it to the processor 310, and output information received from the processor 310 to the user. The input/output device 340 is an input device and may include a keyboard, a mouse, a touch screen, and a microphone. The input/output device 340 is an output device and may include an image display device such as a display.

사용자는 입력 장치(340)를 통해 실종자 정보를 입력할 수 있다. 실종자 정보는 실종자가 착용하고 있던 상의 및 하의 색상을 포함할 수 있다. 실종자 정보는 신발 색상을 더 포함할 수 있다. 실종자 정보에는 그 외에도 실종자 이름, 실종 위치, 실종 시각, 실종자 사진 등이 포함될 수 있다.The user may input missing person information through the input device 340. The missing person information may include a color of a top and a bottom worn by the missing person. The missing person information may further include a shoe color. In addition, the missing person information may include the name of the missing person, the location of the missing person, the time of the disappearance, and a photo of the missing person.

사용자가 입력한 실종자 정보는 예컨대 인터넷 브라우저를 통해 서버(200)에 전송될 수 있다. 서버(200)는 실종자 정보를 메모리(220)에 저장할 수 있다. 실종자 정보는 전용 프로그램을 통해 서버(200)에 전송될 수도 있다.The missing person information input by the user may be transmitted to the server 200 through, for example, an Internet browser. The server 200 may store missing person information in the memory 220. The missing person information may be transmitted to the server 200 through a dedicated program.

도 4는 일 실시예에 따른 무인기의 프로세서의 내부 구성을 도시한다.4 is a diagram illustrating an internal configuration of a processor of an unmanned aerial vehicle according to an embodiment.

도 4를 참조하면, 무인기(100)의 프로세서(110)는 컬러 영상 수신부(111), 열화상 영상 수신부(112), 및 입력 영상 생성부(113)를 포함한다.Referring to FIG. 4, the processor 110 of the drone 100 includes a color image receiver 111, a thermal image receiver 112, and an input image generator 113.

컬러 영상 수신부(111)는 제1 카메라(150)가 촬영 영역을 촬영하여 생성한 컬러 영상을 수신한다. 열화상 영상 수신부(112)는 제2 카메라(160)가 촬영 영역을 촬영하여 생성한 열화상 영상을 수신한다. 제1 카메라(150)와 제2 카메라(160)는 동일 영역을 동시에 촬영하며, 컬러 영상과 열화상 영상은 실질적으로 서로 매칭될 수 있다.The color image receiving unit 111 receives a color image generated by photographing a photographing area by the first camera 150. The thermal image receiving unit 112 receives a thermal image generated by photographing a photographing area by the second camera 160. The first camera 150 and the second camera 160 simultaneously photograph the same area, and the color image and the thermal image may substantially match each other.

입력 영상 생성부(113)는 컬러 영상과 열화상 영역을 기초로 입력 영상을 생성한다. 일 예에 따르면, 입력 영상 생성부(113)는 컬러 영상에서 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 입력 영상을 생성할 수 있다.The input image generator 113 generates an input image based on a color image and a thermal image area. According to an example, the input image generator 113 may generate an input image by masking a region of a color image below a preset reference temperature of the thermal image.

일 예에 따르면, 입력 영상 생성부(113)는 열화상 영상에서 미리 설정된 기준 온도를 기초로 해당 픽셀에 해당하는 온도가 기준 온도 이하인 블랙 영역과 해당 픽셀에 해당하는 온도가 기준 온도보다 높은 영역인 화이트 영역을 구분한 필터 영상을 생성할 수 있다. 입력 영상 생성부(113)는 필터 영상에서 블랙 영역에 해당하는 컬러 영상의 일부분은 블랙 영역으로 마스킹되고, 필터 영상에서 화이트 영역에 해당하는 컬러 영상의 나머지 부분만 남김으로써 입력 영상을 생성할 수 있다.According to an example, the input image generator 113 includes a black region in which a temperature corresponding to a corresponding pixel is less than a reference temperature and a region in which a temperature corresponding to the pixel is higher than a reference temperature based on a preset reference temperature in the thermal image A filter image in which the white area is divided can be generated. The input image generator 113 may generate an input image by masking a part of the color image corresponding to the black region in the filter image as a black region, and leaving only the rest of the color image corresponding to the white region in the filter image. .

일 예에 따르면, 입력 영상 생성부(113)는 필터 영상과 컬러 영상에 대하여 AND 연산을 수행하여 입력 영상을 생성할 수 있다. 필터 영상과 컬러 영상에 대하여 AND 연산이 수행되면, 컬러 영상에서 필터 영상의 블랙 영역에 해당하는 영역의 픽셀 값은 블랙에 해당하는 값으로 변경될 수 있다.According to an example, the input image generator 113 may generate an input image by performing an AND operation on a filter image and a color image. When the AND operation is performed on the filter image and the color image, a pixel value of a region corresponding to the black region of the filter image in the color image may be changed to a value corresponding to black.

입력 영상 생성부(113)는 컬러 영상 중에서 사람이 존재할 가능성이 낮은 또는 없는 영역을 블랙 영역으로 마스킹함으로써, 입력 영상의 크기를 줄일 수 있다.The input image generator 113 may reduce the size of the input image by masking an area in which the possibility of the presence of a person is low or not in the color image as a black area.

다른 예에 따르면, 입력 영상 생성부(113)는 필터 영상의 화이트 영역을 미리 설정된 마진만큼 넓혀서 수정 필터 영상을 생성한 후, 수정 필터 영상을 컬러 영상과 결합함으로써 입력 영상을 생성할 수도 있다.According to another example, the input image generator 113 may generate a modified filter image by expanding a white area of the filter image by a preset margin, and then combine the modified filter image with a color image to generate an input image.

프로세서(110)는 위치 정보 생성부(114)를 더 포함할 수 있다. 위치 정보 생성부(114)는 위치측정모듈(170)을 이용하여 무인기(100)의 현재 위치를 나타내는 위치 정보를 생성할 수 있다. 프로세서(110)는 입력 영상과 함께 이 입력 영상을 촬영한 무인기(100)의 위치를 나타내는 위치 정보를 서버(200)에 실시간으로 전송할 수 있다.The processor 110 may further include a location information generator 114. The location information generator 114 may generate location information indicating the current location of the unmanned aerial vehicle 100 using the location measurement module 170. The processor 110 may transmit to the server 200 in real time location information indicating the location of the unmanned aerial vehicle 100 that has captured the input image together with the input image.

도 5는 일 실시예에 따른 서버의 프로세서의 내부 구성을 도시한다.5 is a diagram illustrating an internal configuration of a processor of a server according to an embodiment.

도 5를 참조하면, 서버(200)의 프로세서(210)는 실종자 정보 수신부(211), 입력 영상 수신부(212), 객체 검색부(213), 및 객체 영상 출력부(214)를 포함한다.Referring to FIG. 5, the processor 210 of the server 200 includes a missing person information receiving unit 211, an input image receiving unit 212, an object searching unit 213, and an object image outputting unit 214.

실종자 정보 수신부(211)는 단말기(300)로부터 실종자 정보를 수신한다. 실종자 정보는 실종자가 착용했던 의상의 색상 정보를 포함할 수 있다. 예를 들면, 실종자 정보는 실종자가 착용했던 상의의 색상 및 하의의 색상을 포함할 수 있다. 그 외에도 실종자 정보는 실종자의 이름, 나이, 신장, 성별, 사진, 실종 장소와 실종 날짜와 시간 등의 정보를 포함할 수 있다.The missing person information receiving unit 211 receives missing person information from the terminal 300. The missing person information may include color information of the clothes worn by the missing person. For example, the missing person information may include a color of a top worn by the missing person and a color of a bottom. In addition, the missing person information may include information such as the name, age, height, sex, photo, and location of the missing person and the date and time of the disappearance.

입력 영상 수신부(212)는 무인기(100)로부터 입력 영상을 수신한다. 입력 영상은 열화상 영상을 이용하여 사람이 존재할 수 없는 부분이 블랙으로 마스킹된 컬러 영상일 수 있다.The input image receiving unit 212 receives an input image from the drone 100. The input image may be a color image in which a portion where no humans cannot exist is masked with black using a thermal image.

객체 검색부(213)는 입력 영상 내에 상의 색상 및 하의 색상에 부합하는 객체를 검색할 수 있다. 객체 검색부(213)는 사전에 트레이닝된 학습 모델(213m)을 이용하여 객체를 검색할 수 있다.The object search unit 213 may search for an object that matches the color of the upper and lower colors in the input image. The object search unit 213 may search for an object using the learning model 213m trained in advance.

학습 모델(213m)은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있다. 예를 들면, 학습 모델(213m)은 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 네트워크 노드들을 포함할 수 있다. 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고 받는 시냅틱(synaptic) 활동을 모의하도록 각각 연결 관계를 형성할 수 있다.The learning model 213m may be designed to simulate a human brain structure on a computer. For example, the learning model 213m may include network nodes having weights that simulate neurons of a human neural network. Network nodes can each form a connection relationship to simulate synaptic activity in which neurons send and receive signals through synapses.

학습 모델(213m)은 예컨대 인공 지능 신경망 모델, 또는 신경망 모델에서 발전한 딥 러닝 네트워크 모델을 포함할 수 있다.The learning model 213m may include, for example, an artificial intelligence neural network model or a deep learning network model developed from a neural network model.

학습 모델(213m)은 지도 학습(Supervised Learning)으로 실종자 정보의 상의 및 하의 색상에 부합하는 객체를 인식하도록 학습된 모델이다. 지도 학습은 알고리즘을 통해 정해진 답을 찾는 것이 목적이다. 따라서, 학습 모델(213m)은 훈련용 데이터(training data)로부터 함수를 추론해내는 형태의 모델일 수 있다. 지도 학습에서는 트레이닝에 라벨링된 샘플(labeled sample; 목표 출력 값이 있는 데이터)을 사용한다.The learning model 213m is a model that is trained to recognize an object matching the color of the top and bottom of the missing person information by supervised learning. Supervised learning aims to find a fixed answer through an algorithm. Accordingly, the learning model 213m may be a model in which a function is inferred from training data. In supervised learning, a labeled sample (data with a target output value) is used for training.

지도 학습 알고리즘은 일련의 학습 데이터와 그에 상응하는 목표 출력 값을 수신하고, 입력되는 데이터에 대한 실제 출력 값과 목표 출력 값을 비교하는 학습을 통해 오류를 찾아내고, 해당 결과를 근거로 모델을 수정하게 된다. 지도 학습은 결과물의 형태에 따라 다시 회귀(Regression)와 분류(Classification)으로 나뉜다. 지도 학습 알고리즘을 통해 도출된 함수는 다시 새로운 결과값을 예측하는데 사용된다. 이처럼, 학습 모델(213m)은 수많은 학습 데이터의 학습을 통해, 학습 모델(213m)의 파라미터를 최적화하게 된다.The supervised learning algorithm receives a series of training data and the corresponding target output value, finds errors through learning that compares the actual output value of the input data with the target output value, and corrects the model based on the result. It is done. Supervised learning is divided into regression and classification according to the type of outcome. The function derived through the supervised learning algorithm is again used to predict the new result value. As such, the learning model 213m optimizes the parameters of the learning model 213m through learning a number of training data.

본 발명에 따른 학습 모델(213m)은 복수의 히든 레이어를 포함하는 다층 퍼셉트론(multilayer perceptrons) 구조를 가질 수 있다. 퍼셉트론이란 각 뉴런의 수학적 모델(y=Wx+b)을 일컫는 용어로서, 다층 퍼셉트론은 오류-역전파 알고리즘(Error-backpropagation algorithm), 경사하강(Gradient Decent) 기법 등을 통한 학습을 통해 예측의 정확도를 높일 수 있다. 학습 모델(213m)이 오류-역전파 알고리즘을 통해 학습을 하는 방법은 입력 레이어에서 시작하여 출력 레이어를 통해 y 값을 얻었을 때 기준 라벨 값과 비교하여 오답일 경우 다시 출력 레이어에서 입력 레이어 방향으로 값을 전달하며 계산된 코스트에 따라 각 W와 b 값을 업데이트 하는 방식이다.The learning model 213m according to the present invention may have a multilayer perceptrons structure including a plurality of hidden layers. Perceptron is a term that refers to the mathematical model of each neuron (y=Wx+b), and multilayer perceptron is the accuracy of prediction through learning through error-backpropagation algorithm and gradient decent technique. Can increase. The way the learning model (213m) learns through the error-backpropagation algorithm is to start from the input layer and compare it with the reference label value when the y value is obtained through the output layer. This is a method of delivering values and updating each W and b values according to the calculated cost.

학습 모델(213m)에 제공되는 트레이닝용 데이터 셋은 상의와 하의를 착용하고 있는 사람의 이미지일 수 있다. 사람의 이미지에는 상의와 하의 색상에 대한 라벨이 포함될 수 있다. 여기서, 라벨은 해당 객체(object)의 클래스(class)를 나타낼 수 있다. 일 실시예에 따른 클래스는 빨강, 파랑, 노랑, 흰색, 검정색 등과 같은 상의 및 하의의 색상을 나타낼 수 있다.The training data set provided to the learning model 213m may be an image of a person wearing a top and bottom. The image of a person may include labels for the color of the top and bottom. Here, the label may indicate the class of the object. A class according to an embodiment may represent colors of tops and bottoms such as red, blue, yellow, white, and black.

한편, 학습 모델(213m)이 트레이닝 데이터를 이용한 학습 과정을 수행하고 나면 최적화된 파라미터를 가지는 모델이 생성되며, 생성된 모델에 라벨링되지 않은 데이터를 입력하였을 때 입력된 데이터에 상응하는 결과 값(라벨)을 예측할 수 있게 된다.On the other hand, after the learning model (213m) performs a learning process using training data, a model with optimized parameters is created, and when unlabeled data is input to the generated model, a result value corresponding to the input data (label ) Can be predicted.

학습 모델(213m)은 특징 추출 네트워크(Feature Extraction Network) 및 복수 개의 태스크(Task)를 수행하는 멀티-태스크 네트워크(Task Network)를 포함할 수 있다.The learning model 213m may include a feature extraction network and a multi-task network that performs a plurality of tasks.

각각의 입력(x)에 대해 라벨(y)이 달린 데이터가 학습 모델(213m)에 제공되면, 특징 추출 네트워크가 입력 데이터의 특징을 추출해내고, 멀티-태스크 네트워크가 상의와 하의 색상에 부합하는 객체를 인식하도록 학습된다.When data labeled (y) for each input (x) is provided to the learning model (213m), the feature extraction network extracts the features of the input data, and the multi-task network is an object matching the color of the top and bottom. Is learned to recognize.

특징 추출 네트워크는 컨볼루션 뉴럴 네트워크(Convolutional Neural Network, "CNN")일 수 있다.The feature extraction network may be a convolutional neural network ("CNN").

특징 추출 네트워크는 복잡한 입력 데이터로부터 테두리, 선 색 등과 같은 "특징들(features)"을 추출하기 위해 이용될 수 있다. 특징 추출 네트워크는 복수의 레이어들(layers)을 포함할 수 있다. 각각의 레이어는 데이터를 수신할 수 있고, 해당 레이어에 입력되는 데이터를 처리하여 해당 레이어에서 출력되는 데이터를 생성할 수 있다. 레이어에서 출력되는 데이터는 특징 추출 네트워크가 입력된 영상 또는 입력된 특징맵(Feature Map)을 하나 이상의 필터 또는 하나 이상의 커널(Kernel)과 컨볼루션하여 생성한 특징맵일 수 있다. 특징 추출 네트워크의 초기 레이어들은 입력으로부터 에지들 또는 그레디언트들과 같은 낮은 레벨의 특징들을 추출하도록 동작될 수 있다. 특징 추출 네트워크의 다음 레이어들은 점진적으로 더 복잡한 특징들을 추출할 수 있다.The feature extraction network can be used to extract "features" such as borders, line colors, and the like from complex input data. The feature extraction network may include a plurality of layers. Each layer may receive data, and may generate data output from a corresponding layer by processing data input to the corresponding layer. The data output from the layer may be a feature map generated by convolving an image into which a feature extraction network is input or an input feature map with one or more filters or one or more kernels. The initial layers of the feature extraction network can be operated to extract low level features such as edges or gradients from the input. The next layers of the feature extraction network can gradually extract more complex features.

특징 추출 네트워크 내에서 특징맵을 입력받고 출력하는 하나 이상의 또는 모든 레이어들은 히든(hidden) 레이어들(예를 들어, 히든 컨볼루션 레이어들)일 수 있다. 한편, 특징 추출 네트워크는 특징맵에 컨볼루션 커널을 적용하는 연산 이외에 다른 프로세싱 연산들을 수행할 수 있다. 이와 같은 다른 프로세싱 연산들의 예들은, 활성화 함수(activation function), 풀링(pooling), 리샘플링 등의 연산들을 포함할 수 있으나, 이에 제한되지 않는다.One or more or all layers for receiving and outputting a feature map in the feature extraction network may be hidden layers (eg, hidden convolutional layers). Meanwhile, the feature extraction network may perform other processing operations in addition to the operation of applying the convolution kernel to the feature map. Examples of such other processing operations may include, but are not limited to, operations such as activation function, pooling, and resampling.

특징 추출 네트워크의 입력은 무인기(100)로부터 수신되는 입력 영상을 전처리한 전처리 영상일 수 있다. 전처리 영상은 입력 영상에서 블랙으로 마스킹되지 않은 컬러 영역들을 각각 분리하고, 미리 설정된 해상도로 축소 또는 확대될 수 있다. 전처리 영상은 미리 설정된 가로 방향과 세로 방향의 길이를 갖는 컬러 영상일 수 있다.The input of the feature extraction network may be a pre-processed image obtained by pre-processing an input image received from the unmanned aerial vehicle 100. The preprocessed image may separate color regions not masked with black from the input image, and may be reduced or enlarged to a preset resolution. The preprocessed image may be a color image having preset lengths in the horizontal direction and the vertical direction.

특징 추출 네트워크는 전처리 영상의 특징들을 추출할 수 있다. 특징 추출 네트워크는 복수 개의 컨볼루션 레이어들을 포함할 수 있고, 각각의 컨볼루션 레이어들은 교정 선형 유닛(Rectified Linear Unit; "ReLU") 레이어와 함께 하고, 최대 풀링(Max pooling) 레이어를 포함할 수 있다. 특징 추출 네트워크에는 드롭아웃(Drop out) 레이어가 삽입될 수 있다.The feature extraction network can extract features of the preprocessed image. The feature extraction network may include a plurality of convolutional layers, and each convolutional layer may include a Rectified Linear Unit ("ReLU") layer and a maximum pooling layer. . A drop out layer may be inserted in the feature extraction network.

특징 추출 네트워크는 전처리 영상을 입력으로 제공받아, 출력 데이터를 출력할 수 있다. 이 때, 특징 추출 네트워크에서 출력되는 출력 데이터는 멀티-태스크 네트워크의 입력으로 제공될 수 있다.The feature extraction network may receive a preprocessed image as an input and output output data. In this case, the output data output from the feature extraction network may be provided as an input of the multi-task network.

멀티-태스크 네트워크는 복수의 태스크 모듈을 포함하며, 각각의 모듈은 상호 보완적인 태스크를 수행한다. 멀티-태스크 네트워크는 단일 포워드 경로(single forward pass) 상에서 상의 및 하의 색상에 부합하는 객체를 검출/분류하며, 이와 동시에 해당 객체가 사람인지를 판단하는 태스크를 수행한다.The multi-task network includes a plurality of task modules, and each module performs complementary tasks. The multi-task network detects/classifies objects matching the colors of the top and bottom on a single forward pass, and at the same time performs a task of determining whether the corresponding object is a person.

멀티-태스크 네트워크에 의하여 학습된 모델은 복수의 태스크를 통해 복수의 요소들(예를 들어, 사람인지의 여부, 상의 색상, 하의 색상 등)을 함께 인식함으로써, 인식의 정확도를 향상시킬 수 있다.The model trained by the multi-task network can improve recognition accuracy by recognizing a plurality of elements (eg, whether or not a person is a person, a color of a top, a color of a bottom, etc.) through a plurality of tasks.

멀티-태스크 네트워크의 각 태스크들은 전단에 특징 추출 네트워크에 의해 출력된 중간 레벨 속성들(mid-level attributes)을 공유할 수 있다. 중간 레벨 속성들은 날씨나 조명(illumination) 등의 변화에 강인(robust)하므로, 멀티-태스크 네트워크는 중간 레벨 속성들을 조인트 학습(jointly learning)시킴으로써 인식의 정확도를 향상시킬 수 있다.Each task of the multi-task network may share mid-level attributes output by the feature extraction network in the front end. Since the middle-level properties are robust to changes in weather or illumination, the multi-task network can improve recognition accuracy by jointly learning the middle-level properties.

멀티-태스크 네트워크는, 각각의 네트워크가 수행하는 태스크의 종류에 따라 멀티-라벨 분류 모듈(Multi-label classification module), 객체 마스크 모듈(Object mask module), 및 그리드 회귀 모듈(Grid regression module)로 구성될 수 있다.The multi-task network consists of a multi-label classification module, an object mask module, and a grid regression module according to the type of task each network performs. Can be.

그리드 회귀 모듈은 그리드 검출 태스크를 수행한다. 회귀(Regression)는 연속형 변수들에 대해 두 변수 사이의 모형을 구한 뒤 적합도를 측정해 내는 분석 기법으로서, 모형과 주어진 데이터를 분석하는 것이다. 그리드 검출 태스크는, 검출 대상의 위치를 그리드의 조합으로 검출하는 것일 수 있다.The grid regression module performs the grid detection task. Regression is an analysis technique that measures the fit after obtaining a model between two variables for continuous variables. It analyzes the model and given data. The grid detection task may be to detect a location of a detection target as a combination of grids.

객체 마스크 모듈은 객체들에 대한 바이너리 분류(binary classification) 태스크를 수행한다. 객체 마스크 모듈은 주어진 입력 값을 일정한 기준에 따라 두 가지 범주(예를 들어, '0' 또는 '1')로 분류한다. 예를 들어, 객체 마스크 모듈은 검출된 객체가 사람인지의 여부와 같은 분류 태스크를 수행할 수 있다.The object mask module performs a binary classification task on objects. The object mask module classifies a given input value into two categories (for example, '0' or '1') according to a certain criterion. For example, the object mask module may perform a classification task such as whether the detected object is a person.

멀티-라벨 분류 모듈은 클래스 분류 태스크를 수행한다. 멀티-라벨 분류 모듈은 입력을 여러 개의 카테고리로 분류할 수 있다. 멀티-라벨 분류 모듈은 검출된 객체의 상의 색상을 분류하는 분류 태스크를 수행할 수 있다. 또한, 멀티-라벨 분류 모듈은 검출된 객체의 하의 색상을 분류하는 분류 태스크를 수행할 수 있다.The multi-label classification module performs a class classification task. The multi-label classification module can classify the inputs into multiple categories. The multi-label classification module may perform a classification task of classifying an image color of the detected object. Also, the multi-label classification module may perform a classification task of classifying a color under the detected object.

멀티-라벨 분류 모듈, 객체 마스크 모듈, 및 그리드 회귀 모듈은 각각 컨볼루션 레이어들, 완전 연결 레이어들(Fully Connected Layers), 및 손실 레이어(Loss Layer)를 포함할 수 있다.Each of the multi-label classification module, the object mask module, and the grid regression module may include convolutional layers, fully connected layers, and a loss layer.

컨볼루션 레이어들은 입력 데이터를 필터링하는 필터링 요소일 수 있다. 컨볼루션 레이어들은 컨볼루션 필터링 레이어, 풀링 레이어, 또는 이들의 조합으로 구성될 수 있다.The convolutional layers may be filtering elements that filter input data. The convolutional layers may be composed of a convolutional filtering layer, a pooling layer, or a combination thereof.

완전 연결 레이어들은 복수의 레이어들을 포함하고, 각 레이어들은 다수 개의 노드들로 구성될 수 있다. 또한, 완전 연결 레이어들에는 모델 정규화 알고리즘(Model regularization Algorithm)인 드랍아웃(Dropout)이 적용될 수 있다. 드랍아웃은 미리 정해진 비율의 노드(예를 들어, 50%의 노드)가 현재 학습 에폭(epoch)에서 랜덤하게 학습에 참여하지 않는 알고리즘이다.The fully connected layers include a plurality of layers, and each layer may be composed of a plurality of nodes. In addition, dropout, which is a model regularization algorithm, may be applied to the fully connected layers. Dropout is an algorithm in which a predetermined percentage of nodes (eg, 50% of nodes) do not participate in learning randomly in the current learning epoch.

손실 레이어는 완전 연결 레이어들의 출력들로부터 복수의 요소들(예를 들어, 사람, 상의/하의 색상 등)을 예측할 수 있고, 예측된 요소들과 실제 요소들을 비교함으로써 손실들을 계산할 수 있다. 손실들은 역 전파 기법을 통하여 완전 연결 레이어들 및 컨볼루션 레이어들로 역 전파될 수 있다. 역 전파된 손실들에 기초하여, 컨볼루션 레이어들 및 완전 연결 레이어들 내 연결 가중치들이 업데이트될 수 있다. 한편, 손실을 계산하는 방법은 특정 방식에 국한되지 않는다. 예를 들어, 힌지 손실(Hinge Loss), 스퀘어 손실(Square Loss), 소프트맥스 손실(Softmax Loss), 크로스-엔트로피 손실(Cross-entropy Loss), 절대 손실(Absolute Loss), 인센시티브 손실(Insensitive Loss) 등이 목적에 따라 사용될 수 있다.The lossy layer can predict a plurality of elements (eg, people, top/bottom color, etc.) from the outputs of the fully connected layers, and calculate the losses by comparing the predicted elements with the actual elements. Losses can be back propagated to fully connected layers and convolutional layers through a back propagation technique. Based on the back-propagated losses, the connection weights in the convolutional layers and the fully connected layers may be updated. On the other hand, the method of calculating the loss is not limited to a specific method. For example, Hinge Loss, Square Loss, Softmax Loss, Cross-entropy Loss, Absolute Loss, Insensitive Loss ), etc. can be used depending on the purpose.

다른 예에 따르면, 학습 모델(213m)은 영상에서 사람을 분류하기 위한 제1 학습 모델(213m1)과 사람의 영상에서 해당 인물이 착용하고 있는 상의의 색상과 하의의 색상을 분류하기 위한 제2 학습 모델(213m2)을 포함할 수 있다. 객체 검색부(213)는 제1 학습 모델(213m1)을 이용하여 무인기(100)로부터 수신되는 입력 영상에 사람이 포함되어 있는지를 먼저 판단하고, 사람이 포함된 영상이라고 판단되면 제2 학습 모델(213m2)을 이용하여 해당 인물이 착용하고 있는 상의 색상과 하의 색상을 판단할 수 있다.According to another example, the learning model 213m is a first learning model 213m1 for classifying a person from an image, and a second learning model for classifying the color of a top worn by a corresponding person and the color of a bottom in a person's image. It may include a model (213m2). The object search unit 213 first determines whether a person is included in the input image received from the unmanned aerial vehicle 100 using the first learning model 213m1, and if it is determined that the image includes a person, the second learning model ( 213m2) can be used to determine the color of the top and bottom that the person is wearing.

객체 영상 출력부(214)는 객체 검색부(213)가 입력 영상에서 상의 및 하의 색상에 부합하는 객체를 검색하면, 해당 객체를 포함하는 부분, 즉, 객체 영상을 출력할 수 있다. 객체 영상은 단말기(300)로 전송될 수 있다.The object image output unit 214 may output a portion including the object, that is, an object image, when the object search unit 213 searches for an object matching the colors of the top and bottom in the input image. The object image may be transmitted to the terminal 300.

도 6은 일 실시예에 따라서 무인기(100), 서버(200) 및 단말기(300)를 포함하는 실종자 탐색 시스템에서 실종자를 탐색하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of searching for a missing person in a missing person search system including the unmanned aerial vehicle 100, the server 200, and the terminal 300 according to an exemplary embodiment.

도 6을 참조하면, 단말기(300)는 서버(200)에 실종자 정보를 송신할 수 있다(S10). 그후, 무인기(100)는 실종자를 수색하기 위해 기동하게 되고, 제1 카메라(150)로 촬영한 컬러 영상과 제2 카메라(160)로 촬영한 열화상 영상을 이용하여 입력 영상을 생성하여, 서버(200)로 송신할 수 있다(S20). 서버(200)는 객체 검색부(213)의 학습 모델(213m)을 이용하여 입력 영상에서 실종자 정보, 특히, 상의 및 하의 색상 정보에 부합하는 사람 객체가 존재하는지를 판단할 수 있다(S30). 상의 및 하의 색상 정보에 부합하는 객체가 존재하면, 서버(200)는 해당 객체가 포함된 객체 영상을 생성하여 단말기(300)에 전송할 수 있다(S40).Referring to FIG. 6, the terminal 300 may transmit missing person information to the server 200 (S10). Thereafter, the unmanned aerial vehicle 100 is started to search for the missing person, and generates an input image using the color image captured by the first camera 150 and the thermal image captured by the second camera 160, It can be transmitted to (200) (S20). The server 200 may determine whether the missing person information, in particular, a human object matching the color information of the top and bottom, exists in the input image using the learning model 213m of the object search unit 213 (S30). If an object matching the upper and lower color information exists, the server 200 may generate an object image including the object and transmit it to the terminal 300 (S40).

또한, 서버(200)는 상의 및 하의 색상 정보에 부합하는 객체가 존재하면, 무인기(100)에 확대 영상 요청과 함께 해당 위치를 전송할 수 있다(S50). 무인기(100)는 제1 카메라(150)의 줌 기능을 활용하여 해당 위치의 영상을 확대하여 촬영함으로써 확대 영상을 생성할 수 있으며, 이 확대 영상을 서버(200)로 전송할 수 있다(S60). 서버(200)는 수신된 확대 영상을 단말기(300)로 전달할 수 있다.In addition, if there is an object matching the color information of the upper and lower portions, the server 200 may transmit a corresponding position to the unmanned aerial vehicle 100 together with a request for an enlarged image (S50). The unmanned aerial vehicle 100 may generate an enlarged image by magnifying and photographing an image of a corresponding location using the zoom function of the first camera 150, and may transmit the enlarged image to the server 200 (S60 ). The server 200 may transmit the received enlarged image to the terminal 300.

단말기(300)의 사용자는 서버(200)로부터 수신된 검출 영상 및/또는 확대 영상을 기초로 실종자가 맞는지 직접 확인할 수 있다.The user of the terminal 300 can directly check whether the missing person is correct based on the detected image and/or the enlarged image received from the server 200.

본 발명에 따르면, 무인기(100)가 생성한 입력 영상은 사람이 존재할 가능성이 없는 영상이 마스킹되므로 이미지 데이터의 크기를 줄일 수 있다. 네트워크(10)의 대역폭이 일정하다고 할 때, 이미지 데이터의 해상도가 더 높아질 수도 있다.According to the present invention, the input image generated by the unmanned aerial vehicle 100 is masked with an image in which there is no possibility of a person present, so that the size of the image data can be reduced. Assuming that the bandwidth of the network 10 is constant, the resolution of the image data may be higher.

서버(200)는 실종자를 검출하기 위해 탐색해야 하는 데이터 량이 감소하였으므로, 신속하게 실종자를 검출할 수 있다. 또한, 기존에는 연산량이 많은 실종자 얼굴을 매칭하였으나, 본 발명에서는 실종자가 착용하고 있는 의상은 잘 변하지 않는다는 점을 고려하여 기존보다 연산량이 적고 정확도가 높은 상의 및 하의 색상을 기초로 실종자를 검색하기 때문에 더욱 신속하게 실종자를 탐색할 수 있다.Since the amount of data to be searched for detecting the missing person has decreased, the server 200 can quickly detect the missing person. In addition, the face of the missing person with a large amount of computation was previously matched, but in the present invention, considering that the clothes worn by the missing person do not change well, the calculation amount is less than before and the missing person is searched based on the colors of the top and bottom with high accuracy You can search for the missing person more quickly.

이상 설명된 다양한 실시예들은 예시적이며, 서로 구별되어 독립적으로 실시되어야 하는 것은 아니다. 본 명세서에서 설명된 실시예들은 서로 조합된 형태로 실시될 수 있다.The various embodiments described above are exemplary, and are not to be performed independently as they are distinguished from each other. The embodiments described in the present specification may be implemented in combination with each other.

이상 설명된 다양한 실시예들은 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The various embodiments described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded in a computer-readable medium. In this case, the medium may be one that continuously stores a program executable by a computer, or temporarily stores a program for execution or download. In addition, the medium may be a variety of recording means or storage means in a form in which a single piece of hardware or several pieces of hardware are combined. The medium is not limited to a medium directly connected to a computer system, but may be distributed on a network. Examples of media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be ones configured to store program instructions, including ROM, RAM, flash memory, and the like. In addition, examples of other media include an app store that distributes applications, a site that supplies or distributes various software, and a recording medium or a storage medium managed by a server.

본 명세서에서, "부", "모듈" 등은 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다. 예를 들면, "부", "모듈" 등은 소프트웨어 구성 요소들, 객체 지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들에 의해 구현될 수 있다.In the present specification, a "unit", a "module", etc. may be a hardware component such as a processor or a circuit, and/or a software component executed by a hardware configuration such as a processor. For example, "unit", "module", etc. are components such as software components, object-oriented software components, class components and task components, processes, functions, properties, It can be implemented by procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that other specific forms can be easily modified without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 무인기
110: 프로세서
111: 컬러 영상 수신부
112: 열화상 영상 수신부
113: 입력 영상 생성부
114: 위치 정보 생성부
120: 메모리
130: 통신모듈
150: 제1 카메라
160: 제2 카메라
170: 위치측정모듈
200: 서버
210: 프로세서
211: 실종자 정보 수신부
212: 입력 영상 수신부
213: 객체 검색부
213m: 학습 모델
214: 객체 영상 출력부
220: 메모리
230: 통신모듈
240: 입출력 인터페이스
300: 단말기
310: 프로세서
320: 메모리
330: 통신모듈
340: 입출력 장치
100: drone
110: processor
111: color image receiver
112: thermal image receiving unit
113: input image generator
114: location information generation unit
120: memory
130: communication module
150: first camera
160: second camera
170: position measurement module
200: server
210: processor
211: missing person information receiving unit
212: input image receiving unit
213: object search section
213m: learning model
214: object image output unit
220: memory
230: communication module
240: input/output interface
300: terminal
310: processor
320: memory
330: communication module
340: input/output device

Claims (17)

서버에 의해 수행되는 방법에 있어서,
실종자의 상의 및 하의 색상을 포함하는 실종자 정보를 수신하는 단계;
입력 영상을 수신하는 단계;
사전에 트레이닝된 학습 모델을 이용하여 상기 입력 영상 내에 상기 상의 및 하의 색상에 부합하는 객체를 검색하는 단계; 및
상기 입력 영상에서 상기 검색된 객체를 포함하는 부분을 출력하는 단계를 포함하는 실종자 탐색 방법.
In the method performed by the server,
Receiving missing person information including colors of the missing person's top and bottom;
Receiving an input image;
Searching for an object matching the colors of the top and bottom in the input image using a pre-trained learning model; And
And outputting a portion including the searched object in the input image.
제1 항에 있어서,
상기 학습 모델은 착용하고 있는 상의 및 하의 색상이 라벨링된 사람의 이미지들을 기초로 트레이닝되는 것을 특징으로 하는 실종자 탐색 방법.
The method of claim 1,
The learning model is a missing person search method, characterized in that the training model is trained based on images of a person whose color of a top and a bottom worn is labeled.
제1 항에 있어서,
상기 학습 모델은 영상으로부터 사람을 구분하기 위한 제1 학습 모델, 및 사람의 영상으로부터 상기 사람이 입고 있는 상의와 하의의 색상을 구분하기 위한 제2 학습 모델을 포함하는 실종자 탐색 방법.
The method of claim 1,
The learning model includes a first learning model for classifying a person from an image, and a second learning model for classifying colors of a top and a bottom worn by the person from the image of the person.
제1 항에 있어서,
상기 입력 영상은 무인기로부터 수신되고,
상기 무인기의 프로세서는 일반 카메라로 촬영 영역을 촬영한 컬러 영상과 열화상 카메라로 상기 촬영 영역을 촬영한 열화상 영상을 기초로 상기 입력 영상을 생성하도록 구성되는 것을 특징으로 하는 실종자 탐색 방법.
The method of claim 1,
The input image is received from the unmanned aerial vehicle,
And the processor of the unmanned aerial vehicle is configured to generate the input image based on a color image captured by a general camera and a thermal image captured by a thermal imaging camera.
제4 항에 있어서,
상기 무인기의 프로세서는 상기 컬러 영상에서 상기 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 상기 입력 영상을 생성하도록 구성되는 것을 특징으로 하는 실종자 탐색 방법.
The method of claim 4,
And the processor of the unmanned aerial vehicle is configured to generate the input image by masking an area of the color image below a predetermined reference temperature of the thermal image.
제7 항에 있어서,
상기 객체는 상기 컬러 영상에서 마스킹되지 않은 컬러 부분을 상기 학습 모델에 입력함으로써 검색되는 것을 특징으로 하는 실종자 탐색 방법.
The method of claim 7,
And the object is searched by inputting a color part that is not masked from the color image into the learning model.
제1 항에 있어서,
상기 실종자 정보는 단말기로부터 수신되고, 상기 검색된 객체를 포함하는 부분은 상기 단말기로 송신되는 것을 특징으로 하는 실종자 탐색 방법.
The method of claim 1,
The missing person search method, wherein the missing person information is received from a terminal, and a portion including the searched object is transmitted to the terminal.
서버를 이용하여 제1 항 내지 제7항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.A computer program stored in a medium to execute the method of any one of claims 1 to 7 using a server. 서로 통신하는 서버와 무인기를 포함하고,
상기 서버는 실종자의 상의 및 하의 색상을 포함하는 실종자 정보를 수신하고, 상기 무인기로부터 입력 영상을 수신하고, 사전에 트레이닝된 학습 모델을 이용하여 상기 입력 영상 내에 상기 상의 및 하의 색상에 부합하는 객체를 검색하고, 상기 입력 영상에서 상기 검색된 객체를 포함하는 부분을 출력하도록 구성되는 것을 특징으로 하는 실종자 탐색 시스템.
Including a server and a drone that communicate with each other,
The server receives missing person information including the color of the top and bottom of the missing person, receives an input image from the unmanned aerial vehicle, and uses a pre-trained learning model to locate an object matching the top and bottom colors in the input image And outputting a portion including the searched object in the input image.
제9 항에 있어서,
상기 학습 모델은 입고 있는 상의 및 하의 색상이 라벨링된 사람의 이미지들을 기초로 트레이닝되는 것을 특징으로 하는 실종자 탐색 시스템.
The method of claim 9,
The learning model is a missing person search system, characterized in that the training model is trained based on the images of the person whose top and bottom colors are labeled.
제9 항에 있어서,
상기 학습 모델은 영상으로부터 사람을 구분하기 위한 제1 학습 모델, 및 사람의 영상으로부터 상기 사람이 입고 있는 상의와 하의의 색상을 구분하기 위한 제2 학습 모델을 포함하는 실종자 탐색 시스템.
The method of claim 9,
The learning model includes a first learning model for classifying a person from an image, and a second learning model for classifying colors of a top and a bottom worn by the person from the image of the person.
제9 항에 있어서,
상기 무인기는,
컬러 영상을 생성하는 일반 카메라;
열화상 영상을 생성하는 열화상 카메라; 및
상기 컬러 영상과 상기 열화상 영상을 기초로 상기 입력 영상을 생성하도록 구성되는 프로세서를 포함하는 것을 특징으로 하는 실종자 탐색 시스템.
The method of claim 9,
The unmanned aerial vehicle,
A general camera that generates color images;
A thermal imaging camera that generates a thermal image; And
And a processor configured to generate the input image based on the color image and the thermal image.
제12 항에 있어서,
상기 일반 카메라와 상기 열화상 카메라는 동일 영역을 촬영하도록 구성되는 것을 특징으로 하는 실종자 탐색 시스템.
The method of claim 12,
The general camera and the thermal imaging camera are configured to photograph the same area.
제12 항에 있어서,
상기 프로세서는 상기 컬러 영상에서 상기 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 상기 입력 영상을 생성하도록 구성되는 것을 특징으로 하는 실종자 탐색 시스템.
The method of claim 12,
And the processor is configured to generate the input image by masking an area of the color image below a predetermined reference temperature of the thermal image.
제14 항에 있어서,
상기 객체는 상기 컬러 영상에서 마스킹되지 않은 컬러 부분을 상기 학습 모델에 입력함으로써 검색되는 것을 특징으로 하는 실종자 탐색 시스템.
The method of claim 14,
The object is searched for by inputting a color part that is not masked in the color image into the learning model.
제9 항에 있어서,
상기 무인기는 인공위성 신호로부터 위치 정보를 생성하는 위치측정 모듈을 더 포함하고,
상기 프로세서는 상기 입력 영상과 함께 상기 위치 정보를 상기 서버에 송신하는 것을 특징으로 하는 실종자 탐색 시스템.
The method of claim 9,
The unmanned aerial vehicle further includes a location measurement module for generating location information from a satellite signal,
And the processor transmits the location information together with the input image to the server.
제9 항에 있어서,
상기 실종자 정보를 상기 서버에 전송하고, 상기 검색된 객체를 포함하는 부분을 수신하는 적어도 하나의 단말기를 더 포함하는 실종자 탐색 시스템.
The method of claim 9,
The missing person search system further comprises at least one terminal for transmitting the missing person information to the server and receiving a portion including the searched object.
KR1020190148087A 2019-11-18 2019-11-18 Method and system for searching missing person KR20210060252A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190148087A KR20210060252A (en) 2019-11-18 2019-11-18 Method and system for searching missing person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190148087A KR20210060252A (en) 2019-11-18 2019-11-18 Method and system for searching missing person

Publications (1)

Publication Number Publication Date
KR20210060252A true KR20210060252A (en) 2021-05-26

Family

ID=76137689

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190148087A KR20210060252A (en) 2019-11-18 2019-11-18 Method and system for searching missing person

Country Status (1)

Country Link
KR (1) KR20210060252A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499971B1 (en) * 2021-12-23 2023-02-17 주식회사 디비엔텍 Method and system for searching missing person using cctv images based on deep-learning
KR20230160469A (en) 2022-05-17 2023-11-24 음영배 Remote control method using multiple signals and transmitting apparatus and receiving apparatus therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499971B1 (en) * 2021-12-23 2023-02-17 주식회사 디비엔텍 Method and system for searching missing person using cctv images based on deep-learning
KR20230160469A (en) 2022-05-17 2023-11-24 음영배 Remote control method using multiple signals and transmitting apparatus and receiving apparatus therefor

Similar Documents

Publication Publication Date Title
Kyrkou et al. EmergencyNet: Efficient aerial image classification for drone-based emergency monitoring using atrous convolutional feature fusion
US20210362596A1 (en) End-To-End Tracking of Objects
US20220157136A1 (en) Facility surveillance systems and methods
US11227191B2 (en) Conditional loss function modification in a neural network
US11232330B2 (en) Adaptive neural network selection to extract particular results
Kim et al. Feature selection for intelligent firefighting robot classification of fire, smoke, and thermal reflections using thermal infrared images
WO2018089158A1 (en) Natural language object tracking
Gallego et al. Detection of bodies in maritime rescue operations using unmanned aerial vehicles with multispectral cameras
FR3103048A1 (en) PROCESS AND DEVICE FOR GENERATING SYNTHETIC LEARNING DATA FOR ARTIFICIAL INTELLIGENCE MACHINE FOR AIRCRAFT LANDING AID
KR20210060252A (en) Method and system for searching missing person
Lee et al. Landing area recognition using deep learning for unammaned aerial vehicles
Knyaz et al. Intelligent mobile object monitoring by unmanned aerial vehicles
Almeida et al. EdgeFireSmoke++: A novel lightweight algorithm for real-time forest fire detection and visualization using internet of things-human machine interface
Dhanaraj et al. Elephant detection using boundary sense deep learning (BSDL) architecture
US20220130109A1 (en) Centralized tracking system with distributed fixed sensors
Bektash et al. Analyzing visual imagery for emergency drone landing on unknown environments
Sethuraman et al. iDrone: IoT-Enabled unmanned aerial vehicles for detecting wildfires using convolutional neural networks
Boroujeni et al. A comprehensive survey of research towards AI-enabled unmanned aerial systems in pre-, active-, and post-wildfire management
Jayalath et al. Drone-based Autonomous Human Identification for Search and Rescue Missions in Real-time
Bulut et al. Efficient path planning of drone swarms over clustered human crowds in social events
Cirneanu et al. CNN based on LBP for evaluating natural disasters
US20230334690A1 (en) Wild object learning and finding systems and methods
Kamei et al. Development of the Image-based Flight and Tree Measurement System in a Forest using a Drone.
US20240078696A1 (en) System and method for automating a scan of an object
Toby et al. A survey of deep learning techniques based on drone images for the search and rescue of victims from collapsed structures

Legal Events

Date Code Title Description
E601 Decision to refuse application