KR20210060252A - Method and system for searching missing person - Google Patents
Method and system for searching missing person Download PDFInfo
- Publication number
- KR20210060252A KR20210060252A KR1020190148087A KR20190148087A KR20210060252A KR 20210060252 A KR20210060252 A KR 20210060252A KR 1020190148087 A KR1020190148087 A KR 1020190148087A KR 20190148087 A KR20190148087 A KR 20190148087A KR 20210060252 A KR20210060252 A KR 20210060252A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- person
- learning model
- color
- input image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G06K9/4652—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
Description
본 개시는 실종자 탐색 방법 및 시스템에 관한 것으로서, 더욱 자세하게는 무인기를 활용하여 실종자의 의상을 중심으로 신속하게 실종자를 탐색하는 시스템, 방법 및 컴퓨터 프로그램에 관한 것이다.The present disclosure relates to a method and system for searching for a missing person, and more particularly, to a system, a method, and a computer program for quickly searching for a missing person based on the clothes of the missing person using a drone.
치매 노인이나 유아의 실종 사건은 끊이지 않고 있다. 현재 실종자를 빨리 찾기 위해 다양한 방법이 활용되고 있다. 예를 들면, 전국에 수백만 개 이상 설치된 CCTV의 영상에서 실종자의 얼굴을 매칭하는 기술을 활용하고 있다. 그러나, 다량의 데이터 전체를 검색할 경우 너무 오랜 시간이 소요될 수 밖에 없고, 영상의 화질이 좋지 않은 경우 그 효과가 현저히 감소하게 된다.The disappearance of the elderly or infants with dementia is continuing. Currently, various methods are being used to quickly find the missing person. For example, it is using technology to match the faces of missing persons in the images of millions of CCTV installed across the country. However, when searching for a large amount of data as a whole, it takes too long, and when the image quality is not good, the effect is remarkably reduced.
본 발명이 해결하고자 하는 과제는 고정된 CCTV의 영상에서 실종자의 얼굴을 매칭하는 방식으로는 신속한 탐색이 불가능하다는 점을 극복하고자, 무인기를 활용하고 실종자의 얼굴이 아닌 실종자의 의상을 중심으로 신속하게 실종자를 탐색하는 시스템, 방법 및 컴퓨터 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to overcome the fact that it is impossible to quickly search by matching the face of the missing person in a fixed CCTV image. It is to provide a system, method, and computer program for searching for missing persons.
상술한 기술적 과제들을 달성하기 위한 기술적 수단으로서, 본 발명의 일 측면에 따른 서버에 의해 수행되는 실종자 탐색 방법은 실종자의 상의 및 하의 색상을 포함하는 실종자 정보를 수신하는 단계, 입력 영상을 수신하는 단계, 사전에 트레이닝된 학습 모델을 이용하여 상기 입력 영상 내에 상기 상의 및 하의 색상에 부합하는 객체를 검색하는 단계, 및 상기 입력 영상에서 상기 검색된 객체를 포함하는 부분을 출력하는 단계를 포함한다.As a technical means for achieving the above-described technical problems, a method for searching a missing person performed by a server according to an aspect of the present invention includes the steps of receiving information on the missing person including the colors of the top and bottom of the missing person, and receiving an input image. And searching for an object matching the colors of the top and bottom in the input image using a pre-trained learning model, and outputting a portion including the searched object in the input image.
일 예에 따르면, 상기 학습 모델은 입고 있는 상의 및 하의 색상이 라벨링된 사람의 이미지들을 기초로 트레이닝될 수 있다.According to an example, the learning model may be trained based on images of a person labeled with a color of a top and a bottom worn.
다른 예에 따르면, 상기 학습 모델은 영상으로부터 사람을 구분하기 위한 제1 학습 모델, 및 사람의 영상으로부터 상기 사람이 입고 있는 상의와 하의의 색상을 구분하기 위한 제2 학습 모델을 포함할 수 있다.According to another example, the learning model may include a first learning model for classifying a person from an image, and a second learning model for classifying colors of a top and a bottom worn by the person from the image of the person.
또 다른 예에 따르면, 상기 입력 영상은 무인기로부터 수신될 수 있다. 상기 무인기의 프로세서는 일반 카메라로 촬영 영역을 촬영한 컬러 영상과 열화상 카메라로 상기 촬영 영역을 촬영한 열화상 영상을 기초로 상기 입력 영상을 생성하도록 구성될 수 있다.According to another example, the input image may be received from an unmanned aerial vehicle. The processor of the unmanned aerial vehicle may be configured to generate the input image based on a color image captured by a general camera and a thermal image captured by a thermal imaging camera.
또 다른 예에 따르면, 상기 무인기의 프로세서는 상기 컬러 영상에서 상기 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 상기 입력 영상을 생성하도록 구성될 수 있다.According to another example, the processor of the unmanned aerial vehicle may be configured to generate the input image by masking a region of the color image below a preset reference temperature of the thermal image.
또 다른 예에 따르면, 상기 객체는 상기 컬러 영상에서 마스킹되지 않은 컬러 부분을 상기 학습 모델에 입력함으로써 검색될 수 있다.According to another example, the object may be searched by inputting an unmasked color portion of the color image into the learning model.
또 다른 예에 따르면, 상기 실종자 정보는 단말기로부터 수신되고, 상기 검색된 객체를 포함하는 부분은 상기 단말기로 송신될 수 있다.According to another example, the missing person information may be received from a terminal, and a portion including the searched object may be transmitted to the terminal.
본 발명의 다른 측면에 따르면, 서버를 이용하여 전술한 실종자 탐색 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램이 제공된다.According to another aspect of the present invention, a computer program stored in a medium is provided in order to execute the above-described missing person search method using a server.
본 발명의 또 다른 측면에 따른 실종자 탐색 시스템은 서로 통신하는 서버와 무인기를 포함한다. 상기 서버는 실종자의 상의 및 하의 색상을 포함하는 실종자 정보를 수신하고, 상기 무인기로부터 입력 영상을 수신하고, 사전에 트레이닝된 학습 모델을 이용하여 상기 입력 영상 내에 상기 상의 및 하의 색상에 부합하는 객체를 검색하고, 상기 입력 영상에서 상기 검색된 객체를 포함하는 부분을 출력하도록 구성된다.A missing person search system according to another aspect of the present invention includes a server and an unmanned aerial vehicle that communicate with each other. The server receives missing person information including the color of the top and bottom of the missing person, receives an input image from the unmanned aerial vehicle, and uses a pre-trained learning model to locate an object matching the color of the top and bottom in the input image. And outputs a portion including the searched object in the input image.
일 예에 따르면, 상기 학습 모델은 입고 있는 상의 및 하의 색상이 라벨링된 사람의 이미지들을 기초로 트레이닝될 수 있다.According to an example, the learning model may be trained based on images of a person labeled with a color of a top and a bottom worn.
다른 예에 따르면, 상기 학습 모델은 영상으로부터 사람을 구분하기 위한 제1 학습 모델, 및 사람의 영상으로부터 상기 사람이 입고 있는 상의와 하의의 색상을 구분하기 위한 제2 학습 모델을 포함할 수 있다.According to another example, the learning model may include a first learning model for classifying a person from an image, and a second learning model for classifying colors of a top and a bottom worn by the person from the image of the person.
또 다른 예에 따르면, 상기 무인기는 컬러 영상을 생성하는 일반 카메라, 열화상 영상을 생성하는 열화상 카메라, 및 상기 컬러 영상과 상기 열화상 영상을 기초로 상기 입력 영상을 생성하도록 구성되는 프로세서를 포함할 수 있다.According to another example, the UAV includes a general camera that generates a color image, a thermal image camera that generates a thermal image, and a processor configured to generate the input image based on the color image and the thermal image. can do.
또 다른 예에 따르면, 상기 일반 카메라와 상기 열화상 카메라는 동일 영역을 촬영하도록 구성될 수 있다.According to another example, the general camera and the thermal imaging camera may be configured to capture the same area.
또 다른 예에 따르면, 상기 프로세서는 상기 컬러 영상에서 상기 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 상기 입력 영상을 생성하도록 구성될 수 있다.According to another example, the processor may be configured to generate the input image by masking an area of the color image below a preset reference temperature of the thermal image.
또 다른 예에 따르면, 상기 객체는 상기 컬러 영상에서 마스킹되지 않은 컬러 부분을 상기 학습 모델에 입력함으로써 검색될 수 있다.According to another example, the object may be searched by inputting an unmasked color portion of the color image into the learning model.
또 다른 예에 따르면, 상기 무인기는 인공위성 신호로부터 위치 정보를 생성하는 위치측정 모듈을 더 포함할 수 있다. 상기 프로세서는 상기 입력 영상과 함께 상기 위치 정보를 상기 서버에 송신할 수 있다.According to another example, the unmanned aerial vehicle may further include a location measurement module that generates location information from a satellite signal. The processor may transmit the location information together with the input image to the server.
또 다른 예에 따르면, 상기 실종자 탐색 시스템은 상기 실종자 정보를 상기 서버에 전송하고, 상기 검색된 객체를 포함하는 부분을 수신하는 적어도 하나의 단말기를 더 포함할 수 있다.According to another example, the missing person search system may further include at least one terminal that transmits the missing person information to the server and receives a portion including the searched object.
본 발명에 따르면, 무인기를 활용함으로써 더욱 빠르고 신속하게 실종자를 탐색할 수 있을 뿐만 아니라, 실종자의 얼굴이 아닌 실종자의 의상 색상을 중심으로 실종자를 탐색하기 때문에 높은 연산량을 필요로 하지 않으며, 무인기는 일반 카메라뿐만 아니라 열화상 카메라를 이용하여 컬러 영상에서 인체의 체온에 해당하는 영역만을 추출할 수 있기 때문에, 연산량을 더욱 줄일 수 있다. 따라서, 본 발명에 따르면 실종자의 탐색 시간이 획기적으로 감소될 수 있다.According to the present invention, not only can the missing person be searched more quickly and quickly by using a drone, but also a high amount of computation is not required because the missing person is searched based on the color of the missing person's clothing rather than the missing person's face. Since it is possible to extract only the region corresponding to the body temperature of the human body from the color image using the thermal imaging camera as well as the camera, the amount of computation can be further reduced. Therefore, according to the present invention, the search time of the missing person can be drastically reduced.
도 1은 일 실시예에 따른 실종자 탐색 시스템의 구성을 도시한다.
도 2는 일 실시예에 따른 무인기의 일부 내부 구성을 도시한다.
도 3은 일 실시예에 따른 서버와 단말기의 내부 구성을 도시한다.
도 4는 일 실시예에 따른 무인기의 프로세서의 내부 구성을 도시한다.
도 5는 일 실시예에 따른 서버의 프로세서의 내부 구성을 도시한다.
도 6은 일 실시예에 따라서 무인기, 서버 및 단말기를 포함하는 실종자 탐색 시스템에서 실종자를 탐색하는 방법을 설명하기 위한 도면이다.1 shows a configuration of a missing person search system according to an embodiment.
2 shows a partial internal configuration of the unmanned aerial vehicle according to an embodiment.
3 is a diagram illustrating an internal configuration of a server and a terminal according to an embodiment.
4 is a diagram illustrating an internal configuration of a processor of an unmanned aerial vehicle according to an embodiment.
5 is a diagram illustrating an internal configuration of a processor of a server according to an embodiment.
6 is a diagram for explaining a method of searching for a missing person in a missing person search system including an unmanned aerial vehicle, a server, and a terminal according to an embodiment.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 다양한 실시예들을 상세히 설명한다. 그러나 본 개시의 기술적 사상은 다양한 형태로 변형되어 구현될 수 있으므로 본 명세서에서 설명하는 실시예들로 제한되지 않는다. 본 명세서에 개시된 실시예들을 설명함에 있어서 관련된 공지 기술을 구체적으로 설명하는 것이 본 개시의 기술적 사상의 요지를 흐릴 수 있다고 판단되는 경우 그 공지 기술에 대한 구체적인 설명을 생략한다. 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present disclosure. However, the technical idea of the present disclosure is not limited to the embodiments described in the present specification because it may be modified and implemented in various forms. In describing the embodiments disclosed in the present specification, when it is determined that a detailed description of a related known technology may obscure the gist of the technical idea of the present disclosure, a detailed description of the known technology will be omitted. The same or similar components are given the same reference numerals, and redundant descriptions thereof will be omitted.
본 명세서에서 어떤 요소가 다른 요소와 "연결"되어 있다고 기술될 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라 그 중간에 다른 요소를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 어떤 요소가 다른 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 요소 외에 또 다른 요소를 배제하는 것이 아니라 또 다른 요소를 더 포함할 수 있는 것을 의미한다.In the present specification, when an element is described as being "connected" with another element, this includes not only the case of being "directly connected" but also the case of being "indirectly connected" with another element interposed therebetween. When a certain element "includes" another element, it means that another element may be included in addition to the other element, not excluded, unless specifically stated to the contrary.
일부 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 설명될 수 있다. 이러한 기능 블록들의 일부 또는 전부는 특정 기능을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 본 개시의 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 본 개시의 기능 블록이 수행하는 기능은 복수의 기능 블록에 의해 수행되거나, 본 개시에서 복수의 기능 블록이 수행하는 기능들은 하나의 기능 블록에 의해 수행될 수도 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다.Some embodiments may be described with functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and/or software components that perform a specific function. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or may be implemented by circuit configurations for a predetermined function. Functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks of the present disclosure may be implemented as an algorithm executed on one or more processors. Functions performed by a function block of the present disclosure may be performed by a plurality of function blocks, or functions performed by a plurality of function blocks in the present disclosure may be performed by a single function block. In addition, the present disclosure may employ conventional techniques for electronic environment setting, signal processing, and/or data processing.
도 1은 일 실시예에 따른 실종자 탐색 시스템의 구성을 도시한다.1 shows a configuration of a missing person search system according to an embodiment.
도 1을 참조하면, 실종자 탐색 시스템(1000)은 무인기(100), 서버(200), 단말기(300), 및 이들을 연결하는 네트워크(10)를 포함한다.Referring to FIG. 1, the missing person search system 1000 includes an unmanned
무인기(100)는 소위 드론으로 지칭되는 무인 비행기로서, 조종사가 탑승하지 않고 무선전파 유도에 의해 비행과 조종이 가능한 비행기나 헬리콥터 모양의 무인 비행체와 무인 비행체를 무선으로 조종하는 비행체 컨트롤러를 포함한다. 무인기(100)는 고공 영상 또는 사진 촬영, 물품 배달, 기상정보 수집, 농약 살포 등 다양한 기능을 수행할 수 있다.The unmanned
무인기(100)와 통신한다는 것은 무인 비행체 또는 비행체 컨트롤러와 통신하는 것을 포함하고, 무인 비행체와 통신한다는 것은 비행체 컨트롤러를 통해 통신하는 것을 포함한다. 예를 들면, 무인기(100)가 영상을 네트워크(10)에 송신하는 것은 무인 비행체가 네트워크(10)에 직접 접속하여 영상을 송신할 수도 있고, 무인 비행체가 비행체 컨트롤러를 거쳐 네트워크(10)에 영상을 송신할 수도 있다.Communicating with the unmanned
서버(200)는 실종자 정보를 관리하고 영상으로부터 실종자를 탐색하는 기능을 수행한다. 서버(200)는 네트워크(10)를 통해 무인기(100) 및/또는 단말기(300)와 통신하며, 명령, 코드, 파일, 콘텐트, 서비스 등을 제공하는 하나의 컴퓨터 장치 또는 네트워크(10)를 통해 서로 접속하는 복수의 컴퓨터 장치들로 구현될 수 있다.The
서버(200)는 단말기(300)로부터 실종자 정보를 수신하고, 무인기(100)로부터 입력 영상을 수신하고, 학습 모델을 이용하여 입력 영상에서 실종자 정보에 부합하는 객체를 검색하여, 입력 영상에서 검색된 객체가 포함된 부분인 객체 영상을 출력할 수 있다.The
단말기(300)는 컴퓨팅 기능을 수행하는 사용자 단말기로서, 유선 통신 및/또는 무선 통신을 통해 네트워크(10)에 접속하여 서버(200)와 통신할 수 있다. 단말기(300)는 예컨대 개인용 컴퓨터, 노트북 컴퓨터, 스마트폰, 태블릿 PC 등을 포함할 수 있다. 단말기(300)는 서버(200)에 실종자 정보를 송신하고, 서버(200)로부터 객체 영상을 수신할 수 있다. 단말기(300)는 실종자의 가족, 친구 등이 사용하는 개인용 컴퓨터 장치일 수 있다. 단말기(300)는 경찰서나 소방서, 또는 실종자 신고를 받는 기관의 컴퓨터 장치일 수 있다.The terminal 300 is a user terminal that performs a computing function, and may communicate with the
네트워크(10)는 무인기(100), 서버(200) 및 단말기(300)를 서로 통신 가능하게 연결할 수 있다. 예를 들어, 네트워크(10)는 단말기(300)가 서버(200)에 접속하여 실종자 정보를 송신하고 실종자 정보에 부합하는 객체의 영상을 수신할 수 있는 접속 경로를 제공할 수 있다. 네트워크(10)는 무인기(100)가 서버(200)에 입력 영상을 송신하고, 서버(200)로부터의 명령을 수신할 수 있는 접속 경로를 제공할 수 있다.The
네트워크(10)는 유선 네트워크 및/또는 무선 네트워크를 포함할 수 있다. 무인기(100)와 서버(200) 간에는 무선 네트워크(10)를 통해 통신할 수 있다. 예를 들면, 네트워크(10)는 근거리 네트워크(LAN: Local Area Network), 도시권 네트워크(MAN: Metropolitan Area Network), 광역 네트워크(WAN: Wide Area Network) 등과 같은 다양한 네트워크를 포함할 수 있다. 네트워크(10)는 월드 와이드 웹(WWW: World Wide Web)을 포함할 수도 있다. 그러나, 본 실시예에 따른 네트워크(10)는 앞에서 열거된 네트워크에 국한되지 않고, 공지의 이동 통신 네트워크, 공지의 무선 데이터 네트워크, 공지의 전화 네트워크, 공지의 유/무선 텔레비전 네트워크 중 적어도 하나를 포함할 수 있다. 네트워크(10)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있다.The
도 2는 일 실시예에 따른 무인기의 일부 내부 구성을 도시한다.2 shows a partial internal configuration of the unmanned aerial vehicle according to an embodiment.
도 2를 참조하면, 무인기(100)는 프로세서(110), 메모리(120), 통신모듈(130), 제1 카메라(150), 및 제2 카메라(160)을 포함할 수 있다. 무인기(100)는 위치측정모듈(170)을 더 포함할 수 있다. 프로세서(110), 메모리(120), 통신 모듈(130), 제1 카메라(150), 제2 카메라(160), 및 위치측정모듈(170)는 버스(101)를 통해 서로 데이터를 교환할 수 있다. 도 2에 도시되지 않지만, 무인기(100)는 비행 본체, 모터와 프로펠러 등으로 구성되는 추력기, 관성 센서, 적외선 센서 등과 같은 센서부 등을 더 포함할 수 있다.Referring to FIG. 2, the
프로세서(110)는 기본적인 산술, 로직 및 입출력 연산을 수행하고, 예컨대 메모리(120)에 저장된 프로그램 코드를 실행할 수 있다. 프로세서(110)는 기본적으로 무인기(100)의 비행을 위해 추력기를 제어할 수 있다. 프로세서(110)는 자율 비행을 위한 프로그램 코드 및/또는 비행체 컨트롤러로부터 수신되는 제어 명령에 따른 비행을 위한 프로그램 코드를 실행할 수 있다.The
프로세서(110)는 무인기(100)의 무인 비행체에 탑재된 제1 프로세서, 및 무인기(100)의 비행체 컨트롤러에 탑재된 제2 프로세서를 포함할 수 있다.The
일 실시예에 따르면, 프로세서(110)는 제1 카메라(150)로부터의 컬러 영상 및 제2 카메라(150)로부터의 열화상 영상을 영상 처리하여, 입력 영상을 생성할 수 있다. 입력 영상은 서버(200)에 입력될 영상으로서, 컬러 영상과 열화상 영상에 기초하여 프로세서(110)에 의해 생성되는 영상을 지칭한다.According to an embodiment, the
메모리(120)는 프로세서(110)가 판독할 수 있는 기록 매체로서, RAM(random access memory) 및/또는 ROM(read only memory)를 포함할 수 있다. 메모리(120)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 메모리(120)에는 다양한 실시예들에 따라서 컬러 영상과 열화상 영상을 영상 처리하기 위한 프로그램 코드가 저장될 수 있다.The
통신 모듈(130)은 무선 네트워크(10)를 통해 서버(200)와 데이터를 교환할 수 있다. 예컨대, 통신 모듈(130)은 프로세서(110)에서 생성된 입력 영상을 서버(200)에 송신하고 서버(200)로부터 제어 명령을 수신할 수 있다. 통신 모듈(130)은 무인기(100)의 무인 비행체에 탑재되는 제1 통신 모듈과 무인기(100)의 비행체 컨트롤러에 탑재되는 제2 통신 모듈을 포함할 수 있다. 무인 비행체와 비행체 컨트롤러는 제1 통신 모듈 및 제2 통신 모듈을 통해 서로 통신할 수 있다.The
제1 카메라(150)는 일반적인 가시광선 카메라로서, 컬러 영상을 생성할 수 있다. 컬러 영상은 프로세서(110)에 제공될 수 있다. 제1 카메라(150)는 줌 기능을 가질 수 있으며, 프로세서(110) 또는 비행체 컨트롤러의 제어에 따라 확대된 영상을 생성할 수 있다.The
제2 카메라(160)는 열화상 카메라로서, 열화상 영상을 생성할 수 있다. 열화상 영상은 방사되는 적외선의 측정에 의해 얻어진 표면의 온도 분포를 흑백의 농담 또는 색상으로 표시되는 영상이다. 열화상 영상을 이용하면 산에 발생한 산불이나 일정한 체온을 유지할 수 있는 사람과 같은 정온 동물을 쉽게 탐지할 수 있다.The
제2 카메라(160)는 일화상 카메라로 지칭되고, 제1 카메라(150)는 일반 카메라로 지칭될 수 있다.The
제1 카메라(150)와 제2 카메라(160)는 동일한 영역을 촬영하도록 구성될 수 있다. 제1 카메라(150)가 기본 배율로 촬영한 영상과 제2 카메라(160)가 기본 배율로 촬영한 영상은 실질적으로 동일한 대상 또는 영역을 촬영한 것일 수 있다. 이를 통해 제1 카메라(150)가 생성한 컬러 영상과 제2 카메라(160)가 촬영한 열화상 영상을 서로 정합(Matching)하는 과정이 생략될 수 있다.The
일 예에 따르면, 제1 카메라(150)와 제2 카메라(160)는 서로 평행한 촬영 방향을 갖도록 서로 인접하게 배치될 수 있다. 다른 예에 따르면, 제1 카메라(150)와 제2 카메라(160)는 프로세서(110)에 의해 제어되는 구동부에 장착될 수 있다. 구동부는 제1 카메라(150)와 제2 카메라(160)를 회전시켜서 촬영 방향을 변경할 수 있다. 제1 카메라(150)와 제2 카메라(160)는 하나의 구동부에 장착되어, 서로 동일하게 회전할 수 있다.According to an example, the
프로세서(110)는 제1 카메라(150)가 촬영한 컬러 영상을 수신하고, 제2 카메라(160)가 촬영한 열화상 영상을 수신하고, 컬러 영상과 열화상 영상에 기초하여 입력 영상을 생성할 수 있다.The
일 예에 따르면, 프로세서(110)는 컬러 영상에서 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 입력 영상을 생성하도록 구성될 수 있다. 예를 들면, 프로세서(110)는 열화상 영상에서 미리 설정된 기준 온도를 기초로 블랙 영역과 화이트 영역을 구분하여 필터 영상을 생성할 수 있다. 블랙 영역은 해당 픽셀에 해당하는 온도가 기준 온도 이하인 영역이고, 화이트 영역은 해당 픽셀에 해당하는 온도가 기준 온도보다 높은 영역일 수 있다.According to an example, the
기준 온도는 대기 온도를 기초로 사전에 설정될 수 있다. 예를 들면, 대기 온도가 20도 정도인 경우, 기준 온도는 예컨대 22도로 설정될 수 있다. 사람의 체온으로 인하여, 열화상 영상에서 사람에 해당하는 영역은 화이트 영역에 포함될 수 있다. The reference temperature may be set in advance based on the ambient temperature. For example, when the air temperature is about 20 degrees, the reference temperature may be set to, for example, 22 degrees. Due to the human body temperature, a region corresponding to a person in the thermal image may be included in the white region.
프로세서(110)는 필터 영상과 컬러 영상을 결합하여 컬러 영상의 일부만을 추출할 수 있다. 필터 영상에서 블랙 영역에 해당하는 컬러 영상의 일부분은 블랙 영역으로 마스킹되고, 필터 영상에서 화이트 영역에 해당하는 컬러 영상의 나머지 부분만 남을 수 있다. 프로세서(110)는 필터 영상과 컬러 영상에 대하여 AND 연산을 수행할 수 있다.The
프로세서(110)는 필터 영상의 화이트 영역을 미리 설정된 마진만큼 넓힌 후 컬러 영상과 결합함으로써, 컬러 영상에서 사람에 해당하는 부분이 너무 타이트하게 설정되는 것을 방지할 수 있다.The
프로세서(110)는 위와 같은 과정을 통해 추출된 컬러 영상의 일부만을 서버(200)에 전송할 수 있다. 프로세서(110)는 컬러 영상에서 사람이 존재할 가능성이 높은 영역만을 추출하여 서버(200)에 전송하기 때문에, 서버(200)에서 실종자를 검색할 범위가 감소하므로 신속한 탐색이 가능하다. 또한, 사람이 존재할 가능성이 높은 영역만을 추출하여 서버(200)에 전송하기 때문에, 무선 네트워크(10)를 통해 전송할 데이터 량 역시 감소할 수 있다. 그에 따라, 무인기(100)는 제1 카메라(150)로 촬영하는 영상의 해상도를 더 높일 수 있다. 제1 카메라(150)의 해상도가 너무 높을 경우, 생성되는 컬러 영상의 데이터 크기가 커지기 때문에, 무선 네트워크(10)를 통해 실시간으로 전송하기 어려울 수 있다. 그러나, 본 발명에 따르면 데이터의 일부만을 추출하여 전송하므로, 컬러 영상의 해상도가 높더라도 무선 네트워크(10)의 대역폭 내에서 실시간으로 서버(200)에 전송할 수 있다.The
위치측정모듈(170)은 GNSS(Global Navigation Satellite System) 위성에서 발신하는 전파를 이용하여 지구 상의 위치를 측정하는 모듈이다. 위치측정모듈(170)은 무인기(100)의 위치를 측정하여 위치 정보를 생성하고, 위치 정보를 프로세서(110)에 제공할 수 있다. 프로세서(110)는 위치 정보를 기초로 자율 비행 등에 활용할 수 있다. 프로세서(110)는 컬러 영상과 열화상 영상을 기초로 생성한 입력 영상과 함께 위치 정보를 서버(200)에 전송할 수 있다.The
도 3은 일 실시예에 따른 서버와 단말기의 내부 구성을 도시한다.3 is a diagram illustrating an internal configuration of a server and a terminal according to an embodiment.
도 3을 참조하면, 실종자 탐색 시스템은 예컨대 네트워크(10)에 접속하는 서버(200)와 단말기(300)를 포함할 수 있다.Referring to FIG. 3, the missing person search system may include, for example, a
서버(200)는 프로세서(210), 메모리(220), 통신 모듈(230), 및 입출력 인터페이스(240)를 포함한다. 프로세서(210), 메모리(220), 통신 모듈(230), 및 입출력 인터페이스(240)는 버스(201)를 통해 서로 데이터를 교환할 수 있다.The
프로세서(210)는 기본적인 산술, 로직 및 입출력 연산을 수행하고, 예컨대 메모리(220)에 저장된 프로그램 코드, 예컨대, 학습 모델을 실행할 수 있다.The
메모리(220)는 프로세서(210)가 판독할 수 있는 기록 매체로서, RAM, ROM 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 메모리(220)에는 운영체제와 적어도 하나의 프로그램 또는 어플리케이션 코드가 저장될 수 있다. 메모리(220)에는 학습 모델을 이용하여 입력 영상으로부터 실종자 정보에 부합하는 객체를 검출하는 방법을 수행하기 위한 프로그램 코드가 저장될 수 있다. 또한, 메모리(220)에는 착용하고 있는 상의 및 하의 색상이 라벨링된 사람의 이미지들이 저장되고, 이렇게 라벨링된 사람들의 이미지들을 기초로 학습 모델을 트레이닝하기 위한 프로그램 코드가 저장될 수 있다.The
통신 모듈(230)은 네트워크(10)에 무선으로 접속하여 단말기(300)로부터 데이터를 수신하고 단말기(300)에 데이터를 송신할 수 있다. 입출력 인터페이스(540)는 입출력 장치와의 인터페이스 수단을 제공할 수 있다.The
단말기(300)는 프로세서(310), 메모리(320), 통신 모듈(330), 및 입출력 장치(340)를 포함한다. 프로세서(310), 메모리(320), 통신 모듈(330), 및 입출력 장치(340)는 버스(301)를 통해 서로 데이터를 교환할 수 있다.The terminal 300 includes a
프로세서(310)는 기본적인 산술, 로직 및 입출력 연산을 수행하고, 예컨대 메모리(320)에 저장된 프로그램 코드를 실행할 수 있다.The
메모리(320)는 프로세서(310)가 판독할 수 있는 기록 매체로서, RAM, ROM 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치를 포함할 수 있다. 메모리(120)에는 운영체제와 인터넷 브라우저와 같은 프로그램 또는 어플리케이션 코드가 저장될 수 있다.The
통신 모듈(330)은 네트워크(10)에 접속하여 서버(200)와 데이터를 주고 받을 수 있다. 입출력 장치(340)는 사용자로부터의 입력을 수신하여 프로세서(310)에 전달하고 프로세서(310)로부터 수신된 정보를 사용자에게 출력할 수 있다. 입출력 장치(340)는 입력 장치로서, 키보드, 마우스, 터치 스크린, 마이크 등을 포함할 수 있다. 입출력 장치(340)는 출력 장치로서, 디스플레이와 같은 영상 표시 장치를 포함할 수 있다.The
사용자는 입력 장치(340)를 통해 실종자 정보를 입력할 수 있다. 실종자 정보는 실종자가 착용하고 있던 상의 및 하의 색상을 포함할 수 있다. 실종자 정보는 신발 색상을 더 포함할 수 있다. 실종자 정보에는 그 외에도 실종자 이름, 실종 위치, 실종 시각, 실종자 사진 등이 포함될 수 있다.The user may input missing person information through the
사용자가 입력한 실종자 정보는 예컨대 인터넷 브라우저를 통해 서버(200)에 전송될 수 있다. 서버(200)는 실종자 정보를 메모리(220)에 저장할 수 있다. 실종자 정보는 전용 프로그램을 통해 서버(200)에 전송될 수도 있다.The missing person information input by the user may be transmitted to the
도 4는 일 실시예에 따른 무인기의 프로세서의 내부 구성을 도시한다.4 is a diagram illustrating an internal configuration of a processor of an unmanned aerial vehicle according to an embodiment.
도 4를 참조하면, 무인기(100)의 프로세서(110)는 컬러 영상 수신부(111), 열화상 영상 수신부(112), 및 입력 영상 생성부(113)를 포함한다.Referring to FIG. 4, the
컬러 영상 수신부(111)는 제1 카메라(150)가 촬영 영역을 촬영하여 생성한 컬러 영상을 수신한다. 열화상 영상 수신부(112)는 제2 카메라(160)가 촬영 영역을 촬영하여 생성한 열화상 영상을 수신한다. 제1 카메라(150)와 제2 카메라(160)는 동일 영역을 동시에 촬영하며, 컬러 영상과 열화상 영상은 실질적으로 서로 매칭될 수 있다.The color
입력 영상 생성부(113)는 컬러 영상과 열화상 영역을 기초로 입력 영상을 생성한다. 일 예에 따르면, 입력 영상 생성부(113)는 컬러 영상에서 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 입력 영상을 생성할 수 있다.The
일 예에 따르면, 입력 영상 생성부(113)는 열화상 영상에서 미리 설정된 기준 온도를 기초로 해당 픽셀에 해당하는 온도가 기준 온도 이하인 블랙 영역과 해당 픽셀에 해당하는 온도가 기준 온도보다 높은 영역인 화이트 영역을 구분한 필터 영상을 생성할 수 있다. 입력 영상 생성부(113)는 필터 영상에서 블랙 영역에 해당하는 컬러 영상의 일부분은 블랙 영역으로 마스킹되고, 필터 영상에서 화이트 영역에 해당하는 컬러 영상의 나머지 부분만 남김으로써 입력 영상을 생성할 수 있다.According to an example, the
일 예에 따르면, 입력 영상 생성부(113)는 필터 영상과 컬러 영상에 대하여 AND 연산을 수행하여 입력 영상을 생성할 수 있다. 필터 영상과 컬러 영상에 대하여 AND 연산이 수행되면, 컬러 영상에서 필터 영상의 블랙 영역에 해당하는 영역의 픽셀 값은 블랙에 해당하는 값으로 변경될 수 있다.According to an example, the
입력 영상 생성부(113)는 컬러 영상 중에서 사람이 존재할 가능성이 낮은 또는 없는 영역을 블랙 영역으로 마스킹함으로써, 입력 영상의 크기를 줄일 수 있다.The
다른 예에 따르면, 입력 영상 생성부(113)는 필터 영상의 화이트 영역을 미리 설정된 마진만큼 넓혀서 수정 필터 영상을 생성한 후, 수정 필터 영상을 컬러 영상과 결합함으로써 입력 영상을 생성할 수도 있다.According to another example, the
프로세서(110)는 위치 정보 생성부(114)를 더 포함할 수 있다. 위치 정보 생성부(114)는 위치측정모듈(170)을 이용하여 무인기(100)의 현재 위치를 나타내는 위치 정보를 생성할 수 있다. 프로세서(110)는 입력 영상과 함께 이 입력 영상을 촬영한 무인기(100)의 위치를 나타내는 위치 정보를 서버(200)에 실시간으로 전송할 수 있다.The
도 5는 일 실시예에 따른 서버의 프로세서의 내부 구성을 도시한다.5 is a diagram illustrating an internal configuration of a processor of a server according to an embodiment.
도 5를 참조하면, 서버(200)의 프로세서(210)는 실종자 정보 수신부(211), 입력 영상 수신부(212), 객체 검색부(213), 및 객체 영상 출력부(214)를 포함한다.Referring to FIG. 5, the
실종자 정보 수신부(211)는 단말기(300)로부터 실종자 정보를 수신한다. 실종자 정보는 실종자가 착용했던 의상의 색상 정보를 포함할 수 있다. 예를 들면, 실종자 정보는 실종자가 착용했던 상의의 색상 및 하의의 색상을 포함할 수 있다. 그 외에도 실종자 정보는 실종자의 이름, 나이, 신장, 성별, 사진, 실종 장소와 실종 날짜와 시간 등의 정보를 포함할 수 있다.The missing person
입력 영상 수신부(212)는 무인기(100)로부터 입력 영상을 수신한다. 입력 영상은 열화상 영상을 이용하여 사람이 존재할 수 없는 부분이 블랙으로 마스킹된 컬러 영상일 수 있다.The input
객체 검색부(213)는 입력 영상 내에 상의 색상 및 하의 색상에 부합하는 객체를 검색할 수 있다. 객체 검색부(213)는 사전에 트레이닝된 학습 모델(213m)을 이용하여 객체를 검색할 수 있다.The
학습 모델(213m)은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있다. 예를 들면, 학습 모델(213m)은 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 네트워크 노드들을 포함할 수 있다. 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고 받는 시냅틱(synaptic) 활동을 모의하도록 각각 연결 관계를 형성할 수 있다.The
학습 모델(213m)은 예컨대 인공 지능 신경망 모델, 또는 신경망 모델에서 발전한 딥 러닝 네트워크 모델을 포함할 수 있다.The
학습 모델(213m)은 지도 학습(Supervised Learning)으로 실종자 정보의 상의 및 하의 색상에 부합하는 객체를 인식하도록 학습된 모델이다. 지도 학습은 알고리즘을 통해 정해진 답을 찾는 것이 목적이다. 따라서, 학습 모델(213m)은 훈련용 데이터(training data)로부터 함수를 추론해내는 형태의 모델일 수 있다. 지도 학습에서는 트레이닝에 라벨링된 샘플(labeled sample; 목표 출력 값이 있는 데이터)을 사용한다.The
지도 학습 알고리즘은 일련의 학습 데이터와 그에 상응하는 목표 출력 값을 수신하고, 입력되는 데이터에 대한 실제 출력 값과 목표 출력 값을 비교하는 학습을 통해 오류를 찾아내고, 해당 결과를 근거로 모델을 수정하게 된다. 지도 학습은 결과물의 형태에 따라 다시 회귀(Regression)와 분류(Classification)으로 나뉜다. 지도 학습 알고리즘을 통해 도출된 함수는 다시 새로운 결과값을 예측하는데 사용된다. 이처럼, 학습 모델(213m)은 수많은 학습 데이터의 학습을 통해, 학습 모델(213m)의 파라미터를 최적화하게 된다.The supervised learning algorithm receives a series of training data and the corresponding target output value, finds errors through learning that compares the actual output value of the input data with the target output value, and corrects the model based on the result. It is done. Supervised learning is divided into regression and classification according to the type of outcome. The function derived through the supervised learning algorithm is again used to predict the new result value. As such, the
본 발명에 따른 학습 모델(213m)은 복수의 히든 레이어를 포함하는 다층 퍼셉트론(multilayer perceptrons) 구조를 가질 수 있다. 퍼셉트론이란 각 뉴런의 수학적 모델(y=Wx+b)을 일컫는 용어로서, 다층 퍼셉트론은 오류-역전파 알고리즘(Error-backpropagation algorithm), 경사하강(Gradient Decent) 기법 등을 통한 학습을 통해 예측의 정확도를 높일 수 있다. 학습 모델(213m)이 오류-역전파 알고리즘을 통해 학습을 하는 방법은 입력 레이어에서 시작하여 출력 레이어를 통해 y 값을 얻었을 때 기준 라벨 값과 비교하여 오답일 경우 다시 출력 레이어에서 입력 레이어 방향으로 값을 전달하며 계산된 코스트에 따라 각 W와 b 값을 업데이트 하는 방식이다.The
학습 모델(213m)에 제공되는 트레이닝용 데이터 셋은 상의와 하의를 착용하고 있는 사람의 이미지일 수 있다. 사람의 이미지에는 상의와 하의 색상에 대한 라벨이 포함될 수 있다. 여기서, 라벨은 해당 객체(object)의 클래스(class)를 나타낼 수 있다. 일 실시예에 따른 클래스는 빨강, 파랑, 노랑, 흰색, 검정색 등과 같은 상의 및 하의의 색상을 나타낼 수 있다.The training data set provided to the
한편, 학습 모델(213m)이 트레이닝 데이터를 이용한 학습 과정을 수행하고 나면 최적화된 파라미터를 가지는 모델이 생성되며, 생성된 모델에 라벨링되지 않은 데이터를 입력하였을 때 입력된 데이터에 상응하는 결과 값(라벨)을 예측할 수 있게 된다.On the other hand, after the learning model (213m) performs a learning process using training data, a model with optimized parameters is created, and when unlabeled data is input to the generated model, a result value corresponding to the input data (label ) Can be predicted.
학습 모델(213m)은 특징 추출 네트워크(Feature Extraction Network) 및 복수 개의 태스크(Task)를 수행하는 멀티-태스크 네트워크(Task Network)를 포함할 수 있다.The
각각의 입력(x)에 대해 라벨(y)이 달린 데이터가 학습 모델(213m)에 제공되면, 특징 추출 네트워크가 입력 데이터의 특징을 추출해내고, 멀티-태스크 네트워크가 상의와 하의 색상에 부합하는 객체를 인식하도록 학습된다.When data labeled (y) for each input (x) is provided to the learning model (213m), the feature extraction network extracts the features of the input data, and the multi-task network is an object matching the color of the top and bottom. Is learned to recognize.
특징 추출 네트워크는 컨볼루션 뉴럴 네트워크(Convolutional Neural Network, "CNN")일 수 있다.The feature extraction network may be a convolutional neural network ("CNN").
특징 추출 네트워크는 복잡한 입력 데이터로부터 테두리, 선 색 등과 같은 "특징들(features)"을 추출하기 위해 이용될 수 있다. 특징 추출 네트워크는 복수의 레이어들(layers)을 포함할 수 있다. 각각의 레이어는 데이터를 수신할 수 있고, 해당 레이어에 입력되는 데이터를 처리하여 해당 레이어에서 출력되는 데이터를 생성할 수 있다. 레이어에서 출력되는 데이터는 특징 추출 네트워크가 입력된 영상 또는 입력된 특징맵(Feature Map)을 하나 이상의 필터 또는 하나 이상의 커널(Kernel)과 컨볼루션하여 생성한 특징맵일 수 있다. 특징 추출 네트워크의 초기 레이어들은 입력으로부터 에지들 또는 그레디언트들과 같은 낮은 레벨의 특징들을 추출하도록 동작될 수 있다. 특징 추출 네트워크의 다음 레이어들은 점진적으로 더 복잡한 특징들을 추출할 수 있다.The feature extraction network can be used to extract "features" such as borders, line colors, and the like from complex input data. The feature extraction network may include a plurality of layers. Each layer may receive data, and may generate data output from a corresponding layer by processing data input to the corresponding layer. The data output from the layer may be a feature map generated by convolving an image into which a feature extraction network is input or an input feature map with one or more filters or one or more kernels. The initial layers of the feature extraction network can be operated to extract low level features such as edges or gradients from the input. The next layers of the feature extraction network can gradually extract more complex features.
특징 추출 네트워크 내에서 특징맵을 입력받고 출력하는 하나 이상의 또는 모든 레이어들은 히든(hidden) 레이어들(예를 들어, 히든 컨볼루션 레이어들)일 수 있다. 한편, 특징 추출 네트워크는 특징맵에 컨볼루션 커널을 적용하는 연산 이외에 다른 프로세싱 연산들을 수행할 수 있다. 이와 같은 다른 프로세싱 연산들의 예들은, 활성화 함수(activation function), 풀링(pooling), 리샘플링 등의 연산들을 포함할 수 있으나, 이에 제한되지 않는다.One or more or all layers for receiving and outputting a feature map in the feature extraction network may be hidden layers (eg, hidden convolutional layers). Meanwhile, the feature extraction network may perform other processing operations in addition to the operation of applying the convolution kernel to the feature map. Examples of such other processing operations may include, but are not limited to, operations such as activation function, pooling, and resampling.
특징 추출 네트워크의 입력은 무인기(100)로부터 수신되는 입력 영상을 전처리한 전처리 영상일 수 있다. 전처리 영상은 입력 영상에서 블랙으로 마스킹되지 않은 컬러 영역들을 각각 분리하고, 미리 설정된 해상도로 축소 또는 확대될 수 있다. 전처리 영상은 미리 설정된 가로 방향과 세로 방향의 길이를 갖는 컬러 영상일 수 있다.The input of the feature extraction network may be a pre-processed image obtained by pre-processing an input image received from the unmanned
특징 추출 네트워크는 전처리 영상의 특징들을 추출할 수 있다. 특징 추출 네트워크는 복수 개의 컨볼루션 레이어들을 포함할 수 있고, 각각의 컨볼루션 레이어들은 교정 선형 유닛(Rectified Linear Unit; "ReLU") 레이어와 함께 하고, 최대 풀링(Max pooling) 레이어를 포함할 수 있다. 특징 추출 네트워크에는 드롭아웃(Drop out) 레이어가 삽입될 수 있다.The feature extraction network can extract features of the preprocessed image. The feature extraction network may include a plurality of convolutional layers, and each convolutional layer may include a Rectified Linear Unit ("ReLU") layer and a maximum pooling layer. . A drop out layer may be inserted in the feature extraction network.
특징 추출 네트워크는 전처리 영상을 입력으로 제공받아, 출력 데이터를 출력할 수 있다. 이 때, 특징 추출 네트워크에서 출력되는 출력 데이터는 멀티-태스크 네트워크의 입력으로 제공될 수 있다.The feature extraction network may receive a preprocessed image as an input and output output data. In this case, the output data output from the feature extraction network may be provided as an input of the multi-task network.
멀티-태스크 네트워크는 복수의 태스크 모듈을 포함하며, 각각의 모듈은 상호 보완적인 태스크를 수행한다. 멀티-태스크 네트워크는 단일 포워드 경로(single forward pass) 상에서 상의 및 하의 색상에 부합하는 객체를 검출/분류하며, 이와 동시에 해당 객체가 사람인지를 판단하는 태스크를 수행한다.The multi-task network includes a plurality of task modules, and each module performs complementary tasks. The multi-task network detects/classifies objects matching the colors of the top and bottom on a single forward pass, and at the same time performs a task of determining whether the corresponding object is a person.
멀티-태스크 네트워크에 의하여 학습된 모델은 복수의 태스크를 통해 복수의 요소들(예를 들어, 사람인지의 여부, 상의 색상, 하의 색상 등)을 함께 인식함으로써, 인식의 정확도를 향상시킬 수 있다.The model trained by the multi-task network can improve recognition accuracy by recognizing a plurality of elements (eg, whether or not a person is a person, a color of a top, a color of a bottom, etc.) through a plurality of tasks.
멀티-태스크 네트워크의 각 태스크들은 전단에 특징 추출 네트워크에 의해 출력된 중간 레벨 속성들(mid-level attributes)을 공유할 수 있다. 중간 레벨 속성들은 날씨나 조명(illumination) 등의 변화에 강인(robust)하므로, 멀티-태스크 네트워크는 중간 레벨 속성들을 조인트 학습(jointly learning)시킴으로써 인식의 정확도를 향상시킬 수 있다.Each task of the multi-task network may share mid-level attributes output by the feature extraction network in the front end. Since the middle-level properties are robust to changes in weather or illumination, the multi-task network can improve recognition accuracy by jointly learning the middle-level properties.
멀티-태스크 네트워크는, 각각의 네트워크가 수행하는 태스크의 종류에 따라 멀티-라벨 분류 모듈(Multi-label classification module), 객체 마스크 모듈(Object mask module), 및 그리드 회귀 모듈(Grid regression module)로 구성될 수 있다.The multi-task network consists of a multi-label classification module, an object mask module, and a grid regression module according to the type of task each network performs. Can be.
그리드 회귀 모듈은 그리드 검출 태스크를 수행한다. 회귀(Regression)는 연속형 변수들에 대해 두 변수 사이의 모형을 구한 뒤 적합도를 측정해 내는 분석 기법으로서, 모형과 주어진 데이터를 분석하는 것이다. 그리드 검출 태스크는, 검출 대상의 위치를 그리드의 조합으로 검출하는 것일 수 있다.The grid regression module performs the grid detection task. Regression is an analysis technique that measures the fit after obtaining a model between two variables for continuous variables. It analyzes the model and given data. The grid detection task may be to detect a location of a detection target as a combination of grids.
객체 마스크 모듈은 객체들에 대한 바이너리 분류(binary classification) 태스크를 수행한다. 객체 마스크 모듈은 주어진 입력 값을 일정한 기준에 따라 두 가지 범주(예를 들어, '0' 또는 '1')로 분류한다. 예를 들어, 객체 마스크 모듈은 검출된 객체가 사람인지의 여부와 같은 분류 태스크를 수행할 수 있다.The object mask module performs a binary classification task on objects. The object mask module classifies a given input value into two categories (for example, '0' or '1') according to a certain criterion. For example, the object mask module may perform a classification task such as whether the detected object is a person.
멀티-라벨 분류 모듈은 클래스 분류 태스크를 수행한다. 멀티-라벨 분류 모듈은 입력을 여러 개의 카테고리로 분류할 수 있다. 멀티-라벨 분류 모듈은 검출된 객체의 상의 색상을 분류하는 분류 태스크를 수행할 수 있다. 또한, 멀티-라벨 분류 모듈은 검출된 객체의 하의 색상을 분류하는 분류 태스크를 수행할 수 있다.The multi-label classification module performs a class classification task. The multi-label classification module can classify the inputs into multiple categories. The multi-label classification module may perform a classification task of classifying an image color of the detected object. Also, the multi-label classification module may perform a classification task of classifying a color under the detected object.
멀티-라벨 분류 모듈, 객체 마스크 모듈, 및 그리드 회귀 모듈은 각각 컨볼루션 레이어들, 완전 연결 레이어들(Fully Connected Layers), 및 손실 레이어(Loss Layer)를 포함할 수 있다.Each of the multi-label classification module, the object mask module, and the grid regression module may include convolutional layers, fully connected layers, and a loss layer.
컨볼루션 레이어들은 입력 데이터를 필터링하는 필터링 요소일 수 있다. 컨볼루션 레이어들은 컨볼루션 필터링 레이어, 풀링 레이어, 또는 이들의 조합으로 구성될 수 있다.The convolutional layers may be filtering elements that filter input data. The convolutional layers may be composed of a convolutional filtering layer, a pooling layer, or a combination thereof.
완전 연결 레이어들은 복수의 레이어들을 포함하고, 각 레이어들은 다수 개의 노드들로 구성될 수 있다. 또한, 완전 연결 레이어들에는 모델 정규화 알고리즘(Model regularization Algorithm)인 드랍아웃(Dropout)이 적용될 수 있다. 드랍아웃은 미리 정해진 비율의 노드(예를 들어, 50%의 노드)가 현재 학습 에폭(epoch)에서 랜덤하게 학습에 참여하지 않는 알고리즘이다.The fully connected layers include a plurality of layers, and each layer may be composed of a plurality of nodes. In addition, dropout, which is a model regularization algorithm, may be applied to the fully connected layers. Dropout is an algorithm in which a predetermined percentage of nodes (eg, 50% of nodes) do not participate in learning randomly in the current learning epoch.
손실 레이어는 완전 연결 레이어들의 출력들로부터 복수의 요소들(예를 들어, 사람, 상의/하의 색상 등)을 예측할 수 있고, 예측된 요소들과 실제 요소들을 비교함으로써 손실들을 계산할 수 있다. 손실들은 역 전파 기법을 통하여 완전 연결 레이어들 및 컨볼루션 레이어들로 역 전파될 수 있다. 역 전파된 손실들에 기초하여, 컨볼루션 레이어들 및 완전 연결 레이어들 내 연결 가중치들이 업데이트될 수 있다. 한편, 손실을 계산하는 방법은 특정 방식에 국한되지 않는다. 예를 들어, 힌지 손실(Hinge Loss), 스퀘어 손실(Square Loss), 소프트맥스 손실(Softmax Loss), 크로스-엔트로피 손실(Cross-entropy Loss), 절대 손실(Absolute Loss), 인센시티브 손실(Insensitive Loss) 등이 목적에 따라 사용될 수 있다.The lossy layer can predict a plurality of elements (eg, people, top/bottom color, etc.) from the outputs of the fully connected layers, and calculate the losses by comparing the predicted elements with the actual elements. Losses can be back propagated to fully connected layers and convolutional layers through a back propagation technique. Based on the back-propagated losses, the connection weights in the convolutional layers and the fully connected layers may be updated. On the other hand, the method of calculating the loss is not limited to a specific method. For example, Hinge Loss, Square Loss, Softmax Loss, Cross-entropy Loss, Absolute Loss, Insensitive Loss ), etc. can be used depending on the purpose.
다른 예에 따르면, 학습 모델(213m)은 영상에서 사람을 분류하기 위한 제1 학습 모델(213m1)과 사람의 영상에서 해당 인물이 착용하고 있는 상의의 색상과 하의의 색상을 분류하기 위한 제2 학습 모델(213m2)을 포함할 수 있다. 객체 검색부(213)는 제1 학습 모델(213m1)을 이용하여 무인기(100)로부터 수신되는 입력 영상에 사람이 포함되어 있는지를 먼저 판단하고, 사람이 포함된 영상이라고 판단되면 제2 학습 모델(213m2)을 이용하여 해당 인물이 착용하고 있는 상의 색상과 하의 색상을 판단할 수 있다.According to another example, the
객체 영상 출력부(214)는 객체 검색부(213)가 입력 영상에서 상의 및 하의 색상에 부합하는 객체를 검색하면, 해당 객체를 포함하는 부분, 즉, 객체 영상을 출력할 수 있다. 객체 영상은 단말기(300)로 전송될 수 있다.The object
도 6은 일 실시예에 따라서 무인기(100), 서버(200) 및 단말기(300)를 포함하는 실종자 탐색 시스템에서 실종자를 탐색하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of searching for a missing person in a missing person search system including the unmanned
도 6을 참조하면, 단말기(300)는 서버(200)에 실종자 정보를 송신할 수 있다(S10). 그후, 무인기(100)는 실종자를 수색하기 위해 기동하게 되고, 제1 카메라(150)로 촬영한 컬러 영상과 제2 카메라(160)로 촬영한 열화상 영상을 이용하여 입력 영상을 생성하여, 서버(200)로 송신할 수 있다(S20). 서버(200)는 객체 검색부(213)의 학습 모델(213m)을 이용하여 입력 영상에서 실종자 정보, 특히, 상의 및 하의 색상 정보에 부합하는 사람 객체가 존재하는지를 판단할 수 있다(S30). 상의 및 하의 색상 정보에 부합하는 객체가 존재하면, 서버(200)는 해당 객체가 포함된 객체 영상을 생성하여 단말기(300)에 전송할 수 있다(S40).Referring to FIG. 6, the terminal 300 may transmit missing person information to the server 200 (S10). Thereafter, the unmanned
또한, 서버(200)는 상의 및 하의 색상 정보에 부합하는 객체가 존재하면, 무인기(100)에 확대 영상 요청과 함께 해당 위치를 전송할 수 있다(S50). 무인기(100)는 제1 카메라(150)의 줌 기능을 활용하여 해당 위치의 영상을 확대하여 촬영함으로써 확대 영상을 생성할 수 있으며, 이 확대 영상을 서버(200)로 전송할 수 있다(S60). 서버(200)는 수신된 확대 영상을 단말기(300)로 전달할 수 있다.In addition, if there is an object matching the color information of the upper and lower portions, the
단말기(300)의 사용자는 서버(200)로부터 수신된 검출 영상 및/또는 확대 영상을 기초로 실종자가 맞는지 직접 확인할 수 있다.The user of the terminal 300 can directly check whether the missing person is correct based on the detected image and/or the enlarged image received from the
본 발명에 따르면, 무인기(100)가 생성한 입력 영상은 사람이 존재할 가능성이 없는 영상이 마스킹되므로 이미지 데이터의 크기를 줄일 수 있다. 네트워크(10)의 대역폭이 일정하다고 할 때, 이미지 데이터의 해상도가 더 높아질 수도 있다.According to the present invention, the input image generated by the unmanned
서버(200)는 실종자를 검출하기 위해 탐색해야 하는 데이터 량이 감소하였으므로, 신속하게 실종자를 검출할 수 있다. 또한, 기존에는 연산량이 많은 실종자 얼굴을 매칭하였으나, 본 발명에서는 실종자가 착용하고 있는 의상은 잘 변하지 않는다는 점을 고려하여 기존보다 연산량이 적고 정확도가 높은 상의 및 하의 색상을 기초로 실종자를 검색하기 때문에 더욱 신속하게 실종자를 탐색할 수 있다.Since the amount of data to be searched for detecting the missing person has decreased, the
이상 설명된 다양한 실시예들은 예시적이며, 서로 구별되어 독립적으로 실시되어야 하는 것은 아니다. 본 명세서에서 설명된 실시예들은 서로 조합된 형태로 실시될 수 있다.The various embodiments described above are exemplary, and are not to be performed independently as they are distinguished from each other. The embodiments described in the present specification may be implemented in combination with each other.
이상 설명된 다양한 실시예들은 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The various embodiments described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded in a computer-readable medium. In this case, the medium may be one that continuously stores a program executable by a computer, or temporarily stores a program for execution or download. In addition, the medium may be a variety of recording means or storage means in a form in which a single piece of hardware or several pieces of hardware are combined. The medium is not limited to a medium directly connected to a computer system, but may be distributed on a network. Examples of media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be ones configured to store program instructions, including ROM, RAM, flash memory, and the like. In addition, examples of other media include an app store that distributes applications, a site that supplies or distributes various software, and a recording medium or a storage medium managed by a server.
본 명세서에서, "부", "모듈" 등은 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다. 예를 들면, "부", "모듈" 등은 소프트웨어 구성 요소들, 객체 지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들에 의해 구현될 수 있다.In the present specification, a "unit", a "module", etc. may be a hardware component such as a processor or a circuit, and/or a software component executed by a hardware configuration such as a processor. For example, "unit", "module", etc. are components such as software components, object-oriented software components, class components and task components, processes, functions, properties, It can be implemented by procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that other specific forms can be easily modified without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.
100: 무인기
110: 프로세서
111: 컬러 영상 수신부
112: 열화상 영상 수신부
113: 입력 영상 생성부
114: 위치 정보 생성부
120: 메모리
130: 통신모듈
150: 제1 카메라
160: 제2 카메라
170: 위치측정모듈
200: 서버
210: 프로세서
211: 실종자 정보 수신부
212: 입력 영상 수신부
213: 객체 검색부
213m: 학습 모델
214: 객체 영상 출력부
220: 메모리
230: 통신모듈
240: 입출력 인터페이스
300: 단말기
310: 프로세서
320: 메모리
330: 통신모듈
340: 입출력 장치100: drone
110: processor
111: color image receiver
112: thermal image receiving unit
113: input image generator
114: location information generation unit
120: memory
130: communication module
150: first camera
160: second camera
170: position measurement module
200: server
210: processor
211: missing person information receiving unit
212: input image receiving unit
213: object search section
213m: learning model
214: object image output unit
220: memory
230: communication module
240: input/output interface
300: terminal
310: processor
320: memory
330: communication module
340: input/output device
Claims (17)
실종자의 상의 및 하의 색상을 포함하는 실종자 정보를 수신하는 단계;
입력 영상을 수신하는 단계;
사전에 트레이닝된 학습 모델을 이용하여 상기 입력 영상 내에 상기 상의 및 하의 색상에 부합하는 객체를 검색하는 단계; 및
상기 입력 영상에서 상기 검색된 객체를 포함하는 부분을 출력하는 단계를 포함하는 실종자 탐색 방법.In the method performed by the server,
Receiving missing person information including colors of the missing person's top and bottom;
Receiving an input image;
Searching for an object matching the colors of the top and bottom in the input image using a pre-trained learning model; And
And outputting a portion including the searched object in the input image.
상기 학습 모델은 착용하고 있는 상의 및 하의 색상이 라벨링된 사람의 이미지들을 기초로 트레이닝되는 것을 특징으로 하는 실종자 탐색 방법.The method of claim 1,
The learning model is a missing person search method, characterized in that the training model is trained based on images of a person whose color of a top and a bottom worn is labeled.
상기 학습 모델은 영상으로부터 사람을 구분하기 위한 제1 학습 모델, 및 사람의 영상으로부터 상기 사람이 입고 있는 상의와 하의의 색상을 구분하기 위한 제2 학습 모델을 포함하는 실종자 탐색 방법.The method of claim 1,
The learning model includes a first learning model for classifying a person from an image, and a second learning model for classifying colors of a top and a bottom worn by the person from the image of the person.
상기 입력 영상은 무인기로부터 수신되고,
상기 무인기의 프로세서는 일반 카메라로 촬영 영역을 촬영한 컬러 영상과 열화상 카메라로 상기 촬영 영역을 촬영한 열화상 영상을 기초로 상기 입력 영상을 생성하도록 구성되는 것을 특징으로 하는 실종자 탐색 방법.The method of claim 1,
The input image is received from the unmanned aerial vehicle,
And the processor of the unmanned aerial vehicle is configured to generate the input image based on a color image captured by a general camera and a thermal image captured by a thermal imaging camera.
상기 무인기의 프로세서는 상기 컬러 영상에서 상기 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 상기 입력 영상을 생성하도록 구성되는 것을 특징으로 하는 실종자 탐색 방법.The method of claim 4,
And the processor of the unmanned aerial vehicle is configured to generate the input image by masking an area of the color image below a predetermined reference temperature of the thermal image.
상기 객체는 상기 컬러 영상에서 마스킹되지 않은 컬러 부분을 상기 학습 모델에 입력함으로써 검색되는 것을 특징으로 하는 실종자 탐색 방법.The method of claim 7,
And the object is searched by inputting a color part that is not masked from the color image into the learning model.
상기 실종자 정보는 단말기로부터 수신되고, 상기 검색된 객체를 포함하는 부분은 상기 단말기로 송신되는 것을 특징으로 하는 실종자 탐색 방법.The method of claim 1,
The missing person search method, wherein the missing person information is received from a terminal, and a portion including the searched object is transmitted to the terminal.
상기 서버는 실종자의 상의 및 하의 색상을 포함하는 실종자 정보를 수신하고, 상기 무인기로부터 입력 영상을 수신하고, 사전에 트레이닝된 학습 모델을 이용하여 상기 입력 영상 내에 상기 상의 및 하의 색상에 부합하는 객체를 검색하고, 상기 입력 영상에서 상기 검색된 객체를 포함하는 부분을 출력하도록 구성되는 것을 특징으로 하는 실종자 탐색 시스템.Including a server and a drone that communicate with each other,
The server receives missing person information including the color of the top and bottom of the missing person, receives an input image from the unmanned aerial vehicle, and uses a pre-trained learning model to locate an object matching the top and bottom colors in the input image And outputting a portion including the searched object in the input image.
상기 학습 모델은 입고 있는 상의 및 하의 색상이 라벨링된 사람의 이미지들을 기초로 트레이닝되는 것을 특징으로 하는 실종자 탐색 시스템.The method of claim 9,
The learning model is a missing person search system, characterized in that the training model is trained based on the images of the person whose top and bottom colors are labeled.
상기 학습 모델은 영상으로부터 사람을 구분하기 위한 제1 학습 모델, 및 사람의 영상으로부터 상기 사람이 입고 있는 상의와 하의의 색상을 구분하기 위한 제2 학습 모델을 포함하는 실종자 탐색 시스템.The method of claim 9,
The learning model includes a first learning model for classifying a person from an image, and a second learning model for classifying colors of a top and a bottom worn by the person from the image of the person.
상기 무인기는,
컬러 영상을 생성하는 일반 카메라;
열화상 영상을 생성하는 열화상 카메라; 및
상기 컬러 영상과 상기 열화상 영상을 기초로 상기 입력 영상을 생성하도록 구성되는 프로세서를 포함하는 것을 특징으로 하는 실종자 탐색 시스템.The method of claim 9,
The unmanned aerial vehicle,
A general camera that generates color images;
A thermal imaging camera that generates a thermal image; And
And a processor configured to generate the input image based on the color image and the thermal image.
상기 일반 카메라와 상기 열화상 카메라는 동일 영역을 촬영하도록 구성되는 것을 특징으로 하는 실종자 탐색 시스템.The method of claim 12,
The general camera and the thermal imaging camera are configured to photograph the same area.
상기 프로세서는 상기 컬러 영상에서 상기 열화상 영상의 미리 설정된 기준 온도 이하의 영역을 마스킹함으로써 상기 입력 영상을 생성하도록 구성되는 것을 특징으로 하는 실종자 탐색 시스템.The method of claim 12,
And the processor is configured to generate the input image by masking an area of the color image below a predetermined reference temperature of the thermal image.
상기 객체는 상기 컬러 영상에서 마스킹되지 않은 컬러 부분을 상기 학습 모델에 입력함으로써 검색되는 것을 특징으로 하는 실종자 탐색 시스템.The method of claim 14,
The object is searched for by inputting a color part that is not masked in the color image into the learning model.
상기 무인기는 인공위성 신호로부터 위치 정보를 생성하는 위치측정 모듈을 더 포함하고,
상기 프로세서는 상기 입력 영상과 함께 상기 위치 정보를 상기 서버에 송신하는 것을 특징으로 하는 실종자 탐색 시스템.The method of claim 9,
The unmanned aerial vehicle further includes a location measurement module for generating location information from a satellite signal,
And the processor transmits the location information together with the input image to the server.
상기 실종자 정보를 상기 서버에 전송하고, 상기 검색된 객체를 포함하는 부분을 수신하는 적어도 하나의 단말기를 더 포함하는 실종자 탐색 시스템.
The method of claim 9,
The missing person search system further comprises at least one terminal for transmitting the missing person information to the server and receiving a portion including the searched object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190148087A KR20210060252A (en) | 2019-11-18 | 2019-11-18 | Method and system for searching missing person |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190148087A KR20210060252A (en) | 2019-11-18 | 2019-11-18 | Method and system for searching missing person |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210060252A true KR20210060252A (en) | 2021-05-26 |
Family
ID=76137689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190148087A KR20210060252A (en) | 2019-11-18 | 2019-11-18 | Method and system for searching missing person |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210060252A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102499971B1 (en) * | 2021-12-23 | 2023-02-17 | 주식회사 디비엔텍 | Method and system for searching missing person using cctv images based on deep-learning |
KR20230160469A (en) | 2022-05-17 | 2023-11-24 | 음영배 | Remote control method using multiple signals and transmitting apparatus and receiving apparatus therefor |
-
2019
- 2019-11-18 KR KR1020190148087A patent/KR20210060252A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102499971B1 (en) * | 2021-12-23 | 2023-02-17 | 주식회사 디비엔텍 | Method and system for searching missing person using cctv images based on deep-learning |
KR20230160469A (en) | 2022-05-17 | 2023-11-24 | 음영배 | Remote control method using multiple signals and transmitting apparatus and receiving apparatus therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kyrkou et al. | EmergencyNet: Efficient aerial image classification for drone-based emergency monitoring using atrous convolutional feature fusion | |
US20210362596A1 (en) | End-To-End Tracking of Objects | |
US20220157136A1 (en) | Facility surveillance systems and methods | |
US11227191B2 (en) | Conditional loss function modification in a neural network | |
US11232330B2 (en) | Adaptive neural network selection to extract particular results | |
Kim et al. | Feature selection for intelligent firefighting robot classification of fire, smoke, and thermal reflections using thermal infrared images | |
WO2018089158A1 (en) | Natural language object tracking | |
Gallego et al. | Detection of bodies in maritime rescue operations using unmanned aerial vehicles with multispectral cameras | |
FR3103048A1 (en) | PROCESS AND DEVICE FOR GENERATING SYNTHETIC LEARNING DATA FOR ARTIFICIAL INTELLIGENCE MACHINE FOR AIRCRAFT LANDING AID | |
KR20210060252A (en) | Method and system for searching missing person | |
Lee et al. | Landing area recognition using deep learning for unammaned aerial vehicles | |
Knyaz et al. | Intelligent mobile object monitoring by unmanned aerial vehicles | |
Almeida et al. | EdgeFireSmoke++: A novel lightweight algorithm for real-time forest fire detection and visualization using internet of things-human machine interface | |
Dhanaraj et al. | Elephant detection using boundary sense deep learning (BSDL) architecture | |
US20220130109A1 (en) | Centralized tracking system with distributed fixed sensors | |
Bektash et al. | Analyzing visual imagery for emergency drone landing on unknown environments | |
Sethuraman et al. | iDrone: IoT-Enabled unmanned aerial vehicles for detecting wildfires using convolutional neural networks | |
Boroujeni et al. | A comprehensive survey of research towards AI-enabled unmanned aerial systems in pre-, active-, and post-wildfire management | |
Jayalath et al. | Drone-based Autonomous Human Identification for Search and Rescue Missions in Real-time | |
Bulut et al. | Efficient path planning of drone swarms over clustered human crowds in social events | |
Cirneanu et al. | CNN based on LBP for evaluating natural disasters | |
US20230334690A1 (en) | Wild object learning and finding systems and methods | |
Kamei et al. | Development of the Image-based Flight and Tree Measurement System in a Forest using a Drone. | |
US20240078696A1 (en) | System and method for automating a scan of an object | |
Toby et al. | A survey of deep learning techniques based on drone images for the search and rescue of victims from collapsed structures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E601 | Decision to refuse application |