KR20210116904A - Hidden camera detection system, method and computing device for performing the same - Google Patents

Hidden camera detection system, method and computing device for performing the same Download PDF

Info

Publication number
KR20210116904A
KR20210116904A KR1020200033046A KR20200033046A KR20210116904A KR 20210116904 A KR20210116904 A KR 20210116904A KR 1020200033046 A KR1020200033046 A KR 1020200033046A KR 20200033046 A KR20200033046 A KR 20200033046A KR 20210116904 A KR20210116904 A KR 20210116904A
Authority
KR
South Korea
Prior art keywords
image
hidden
module
thermal image
thermal
Prior art date
Application number
KR1020200033046A
Other languages
Korean (ko)
Other versions
KR102449724B1 (en
Inventor
김정화
Original Assignee
주식회사 아이엔지시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이엔지시스템 filed Critical 주식회사 아이엔지시스템
Priority to KR1020200033046A priority Critical patent/KR102449724B1/en
Publication of KR20210116904A publication Critical patent/KR20210116904A/en
Application granted granted Critical
Publication of KR102449724B1 publication Critical patent/KR102449724B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N5/372
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

Disclosed are a hidden camera detection system capable of easily detecting a hidden camera, and a method and a computing device for performing the same. According to one embodiment of the present invention, a hidden camera detection method is executed in a computing device including one or more processors and a memory storing one or more programs executed by the one or more processors. The method comprises the following steps: receiving a CCD image and a thermal image of a suspicious place from a detection device; extracting an object boundary in the CCD image; displaying an outline on the thermal image; matching the object boundary of the CCD image with the outline displayed on the thermal image and overlapping the CCD image and the thermal image to generate an overlapping image; and determining an area where a hidden camera is hidden from the generated overlapping image.

Description

은닉 카메라 탐지 시스템, 방법 및 이를 수행하기 위한 컴퓨팅 장치{HIDDEN CAMERA DETECTION SYSTEM, METHOD AND COMPUTING DEVICE FOR PERFORMING THE SAME}HIDDEN CAMERA DETECTION SYSTEM, METHOD AND COMPUTING DEVICE FOR PERFORMING THE SAME

본 발명의 실시예들은 은닉 카메라 탐지 기술과 관련된다.Embodiments of the present invention relate to hidden camera detection techniques.

최근 몰래 카메라 범죄가 날로 지능화 및 고도화 되어 불안감을 야기 시키고 있으며 국민들 중 특히 여성들의 불안감은 가중되고 있는 상황이다. 이러한 몰래 카메라는 초소형으로 불특정 다수의 개인 사생활을 침해하는 동영상을 촬영할 수 있으며, 최근 몰래 카메라는 영상 정보를 전송하기 위해 인터넷에 유무선으로 연결된 IoT(internet of things) 기기일 수도 있다.Recently, hidden camera crimes are becoming more intelligent and sophisticated, causing anxiety, and the anxiety of women, especially among the people, is increasing. Such a hidden camera can shoot video that infringes on the privacy of a large number of unspecified individuals due to its small size, and the recent hidden camera may be an Internet of Things (IoT) device connected to the Internet by wire or wireless to transmit image information.

예를 들어, IoT 기기인 초소형 몰래 카메라는 사물 형태 및 비사물 형태로 제작될 수 있다. 사물 형태의 몰래 카메라는 USB(universal serial bus) 메모리 타입, 모자 타입, 자동차 키 타입, 손목 시계 타입, 탁상 시계 타입, 화재 경보기 타입, 벽걸이 시계 타입, 안경 타입, 벨트 타입, 볼펜 타입, 벽그림 타입 및 벽부착 스위치 타입 등 다양한 사물 형태의 몰래 카메라일 수 있다. 또한, 비사물 형태의 몰래 카메라는 내시경 타입 및 모듈 타입 등 다양한 비사물 형태의 몰래 카메라일 수 있다.For example, an IoT device, an ultra-small hidden camera, may be manufactured in the form of an object or in the form of a non-object. Object-type hidden cameras are USB (universal serial bus) memory type, hat type, car key type, wrist watch type, table clock type, smoke alarm type, wall clock type, glasses type, belt type, ballpoint pen type, wall painting type and various types of hidden cameras, such as a wall-mounted switch type. In addition, the non-object type hidden camera may be various non-object type hidden cameras such as an endoscope type and a module type.

이러한 사물 형태 및 비사물 형태의 초소형 몰래 카메라는 건물의 밀폐된 방 및 벽체에 설치될 수 있다. 이에, 일반인은 육안으로 초소형으로 은닉되어 있는 몰래 카메라를 탐지하기 어려운 문제점이 있다.These microscopic hidden cameras in the form of objects and non-objects may be installed in enclosed rooms and walls of buildings. Accordingly, there is a problem in that it is difficult for the general public to detect a hidden camera that is hidden in a small size with the naked eye.

대한민국 등록실용신안공보 제 20-0411448호 (2006.03.08.)Republic of Korea Utility Model Publication No. 20-0411448 (2006.03.08.)

본 발명의 실시예들은 은닉 카메라가 동작시 발열되는 열원을 열화상 카메라를 통하여 발열부위를 탐지하여 은닉 카메라를 검출하기 위한 것이다.Embodiments of the present invention are for detecting the hidden camera by detecting the heat source through the thermal imaging camera of the heat source generated when the hidden camera is operating.

본 발명의 예시적인 실시예에 따르면, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서, 탐지 장치로부터 은닉 장소를 촬영한 CCD 영상 및 열화상 영상을 수신하는 단계; 상기 CCD 영상에서 물체의 경계를 추출하는 단계; 상기 열화상 영상에 윤곽선을 표시하는 단계; 상기 CCD 영상의 물체의 경계와 상기 열화상 영상에 표시된 윤곽선을 매칭하고, 상기 CCD 영상과 상기 열화상 영상을 중첩하여 중첩 영상을 생성하는 단계; 및 상기 생성된 중첩 영상에서 은닉 카메라가 은닉된 영역을 판단하는 단계를 포함하는 방법이 제공된다.According to an exemplary embodiment of the present invention, there is provided a method performed on a computing device having one or more processors, and a memory storing one or more programs executed by the one or more processors, wherein the method of photographing a stash from a detection device Receiving a CCD image and a thermal image; extracting an object boundary from the CCD image; displaying an outline on the thermal image; generating an overlapping image by matching a boundary of an object of the CCD image with an outline displayed on the thermal image and superimposing the CCD image and the thermal image; and determining an area where the hidden camera is hidden from the generated overlapping image.

상기 CCD 영상에서 물체의 경계를 추출하는 단계는 제1 머신러닝 모듈을 통하여 상기 CCD 영상에서 물체를 인식하는 단계; 및 제2 머신러닝 모듈을 통하여 상기 물체가 인식된 CCD 영상에서 상기 물체의 경계를 검출하는 단계를 포함할 수 있다.The step of extracting the boundary of the object from the CCD image may include: recognizing the object in the CCD image through a first machine learning module; and detecting the boundary of the object from the CCD image in which the object is recognized through a second machine learning module.

상기 열화상 영상에 윤곽선을 표시하는 단계는 상기 열화상 영상의 방사율 정보를 보정하는 단계; 상기 보정된 열화상 영상에 대하여 자동 레벨 조정 처리를 수행하는 단계; 상기 전처리된 영화상 영상을 기 설정된 사이즈로 리사이징하는 단계; 및 상기 리사이징된 열화상 영상에서 윤곽선을 검출하여 표시하는 단계를 포함할 수 있다.The displaying of the outline on the thermal image may include correcting emissivity information of the thermal image; performing an automatic level adjustment process on the corrected thermal image; resizing the pre-processed movie image to a preset size; and detecting and displaying an outline from the resized thermal image.

상기 열화상 영상의 방사율 정보를 보정하는 단계는 상기 열화상 영상 내의 서로 다른 물질의 방사율을 1.0으로 표준화하여 밝기분포를 정규화할 수 있다.In the calibrating the emissivity information of the thermal image, the brightness distribution may be normalized by normalizing the emissivity of different materials in the thermal image to 1.0.

상기 자동 레벨 조정 처리를 수행하는 단계는 상기 보정된 열화상 영상에 대한 각 픽셀의 농도(濃度) 레벨을 산출하고, 상기 산출된 농도 레벨에 따라 해당 픽셀에 색을 재설정하는 단계를 포함할 수 있다.The performing the automatic level adjustment process may include calculating a density level of each pixel for the corrected thermal image, and resetting the color to the corresponding pixel according to the calculated density level. .

상기 윤곽선을 검출하여 표시하는 단계는 상기 리사이징된 열화상 영상을 그레이스케일(gray scale) 처리하여 각 픽셀의 명도(明度) 레벨을 산출하고, 상기 명도 레벨의 불연속점에 해당하는 픽셀을 추출할 수 있다.The step of detecting and displaying the contour may include calculating the brightness level of each pixel by grayscale processing the resized thermal image, and extracting pixels corresponding to discontinuities of the brightness level. have.

상기 중첩 영상을 생성하는 단계는 상기 CCD 영상의 투명도를 조절하여 상기 CCD 영상과 중첩하는 단계를 포함할 수 있다.The generating of the overlapping image may include adjusting the transparency of the CCD image to overlap the CCD image.

상기 은닉 카메라가 은닉된 영역을 판단하는 단계는 상기 생성된 중첩 영상의 물체의 경계 내에서 온도가 가장 높은 영역을 추출하는 단계; 상기 추출된 영역을 은닉 카메라가 은닉된 영역으로 판단하는 단계; 및, 상기 은닉된 영역을 표시한 중첩 영상을 사용자에게 제공하는 단계를 포함할 수 있다.The step of determining the area hidden by the hidden camera may include: extracting an area having the highest temperature within the boundary of the object of the generated overlapping image; determining the extracted area as a hidden area by a hidden camera; and providing an overlapping image indicating the hidden area to the user.

상기 사용자에게 제공하는 단계는 스마트 기기로부터 영상 선택 정보를 수신하는 단계; 및 상기 영상 선택 정보에 따라 상기 CCD 영상 또는 상기 은닉된 영역을 표시한 중첩 영상을 상기 스마트 기기로 제공하는 단계를 포함할 수 있다.The providing to the user may include: receiving image selection information from a smart device; and providing the CCD image or the superimposed image displaying the hidden area to the smart device according to the image selection information.

본 발명의 다른 예시적인 실시예에 따르면, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서, 탐지 장치로부터 은닉 장소를 촬영한 CCD 영상 및 열화상 영상을 수신하는 통신 모듈; 상기 CCD 영상에서 물체의 경계를 추출하는 경계 검출 모듈; 상기 열화상 영상에 윤곽선을 표시하는 영상 변환 모듈; 상기 CCD 영상의 물체의 경계와 상기 열화상 영상에 표시된 윤곽선을 매칭하고, 상기 CCD 영상과 상기 열화상 영상을 중첩하여 중첩 영상을 생성하는 영상 중첩 모듈; 및 상기 생성된 중첩 영상에서 은닉 카메라가 은닉된 영역을 판단하는 영상 분석 모듈을 포함하는 컴퓨팅 장치가 제공된다.According to another exemplary embodiment of the present invention, there is provided a computing device including one or more processors and a memory for storing one or more programs executed by the one or more processors, a CCD image obtained by photographing a hidden location from a detection device. and a communication module for receiving the thermal image. a boundary detection module for extracting an object boundary from the CCD image; an image conversion module for displaying an outline on the thermal image; an image overlapping module that matches a boundary of an object of the CCD image with an outline displayed on the thermal image, and generates an overlapping image by superimposing the CCD image and the thermal image; and an image analysis module for determining an area in which a hidden camera is hidden from the generated overlapping image.

상기 경계 검출 모듈은 상기 CCD 영상에서 물체를 인식하는 제1 머신러닝 모듈; 및 상기 물체가 인식된 CCD 영상에서 상기 물체의 경계를 검출하는 제2 머신러닝 모듈을 포함할 수 있다.The boundary detection module includes: a first machine learning module for recognizing an object in the CCD image; and a second machine learning module configured to detect a boundary of the object in the CCD image in which the object is recognized.

상기 영상 변환 모듈은 상기 열화상 영상의 방사율 정보를 보정하고, 상기 보정된 열화상 영상에 대하여 자동 레벨 조정 처리를 수행하는 전처리 모듈; 상기 전처리된 영화상 영상을 기 설정된 사이즈로 리사이징하는 영상 리사이징 모듈; 및 상기 리사이징된 열화상 영상에서 윤곽선을 검출하여 표시하는 영역 표시 모듈을 포함할 수 있다.The image conversion module may include: a preprocessing module for correcting emissivity information of the thermal image and performing an automatic level adjustment process on the corrected thermal image; an image resizing module for resizing the pre-processed movie image to a preset size; and a region display module that detects and displays an outline from the resized thermal image.

상기 전처리 모듈은 상기 열화상 영상 내의 서로 다른 물질의 방사율을 1.0으로 표준화하여 밝기분포를 정규화할 수 있다.The pre-processing module may normalize the brightness distribution by normalizing the emissivity of different materials in the thermal image to 1.0.

상기 전처리 모듈은 상기 보정된 열화상 영상에 대한 각 픽셀의 농도(濃度) 레벨을 산출하고, 상기 산출된 농도 레벨에 따라 해당 픽셀에 색을 재설정할 수 있다.The pre-processing module may calculate a density level of each pixel for the corrected thermal image, and reset the color of the corresponding pixel according to the calculated density level.

상기 영역 표시 모듈은 상기 리사이징된 열화상 영상을 그레이스케일(gray scale) 처리하여 각 픽셀의 명도(明度) 레벨을 산출하고, 상기 명도 레벨의 불연속점에 해당하는 픽셀을 추출할 수 있다.The area display module may grayscale the resized thermal image to calculate a brightness level of each pixel, and extract a pixel corresponding to a discontinuity of the brightness level.

상기 영상 중첩 모듈은 상기 CCD 영상의 투명도를 조절하여 상기 CCD 영상과 중첩할 수 있다.The image overlapping module may overlap the CCD image by adjusting the transparency of the CCD image.

영상 분석 모듈은 상기 생성된 중첩 영상의 물체의 경계 내에서 온도가 가장 높은 영역을 추출하고, 상기 추출된 영역을 은닉 카메라가 은닉된 영역으로 판단하며, 상기 은닉된 영역을 표시한 중첩 영상을 사용자에게 제공할 수 있다.The image analysis module extracts the area with the highest temperature within the boundary of the object of the generated overlapped image, determines the extracted area as the area hidden by the hidden camera, and uses the overlapped image displaying the hidden area to the user. can be provided to

상기 통신 모듈은 스마트 기기로부터 영상 선택 정보를 수신하고, 상기 영상 선택 정보에 따라 상기 CCD 영상 또는 상기 은닉된 영역을 표시한 중첩 영상을 상기 스마트 기기로 제공할 수 있다.The communication module may receive the image selection information from the smart device, and provide the CCD image or the superimposed image displaying the hidden area to the smart device according to the image selection information.

본 발명의 또 다른 예시적인 실시예에 따르면, 은닉 장소를 촬영하여 CCD 영상 및 열화상 영상을 획득하는 촬영부를 포함하는 탐지 장치; 및 상기 탐지 장치로부터 상기 CCD 영상 및 열화상 영상을 수신하고, 상기 CCD 영상에서 물체의 경계를 추출하고 상기 열화상 영상에 윤곽선을 표시하며, 상기 CCD 영상의 물체의 경계와 상기 열화상 영상에 표시된 윤곽선을 매칭하고 상기 CCD 영상과 상기 열화상 영상을 중첩하여 중첩 영상을 생성하며, 상기 생성된 중첩 영상에서 은닉 카메라가 은닉된 영역을 판단하는 분석 서버를 포함하는 은닉 카메라 탐지 시스템이 제공된다.According to another exemplary embodiment of the present invention, a detection apparatus including a photographing unit for photographing a hidden place to obtain a CCD image and a thermal image; and receiving the CCD image and the thermal image from the detection device, extracting a boundary of an object from the CCD image, and displaying an outline on the thermal image, the boundary of the object of the CCD image and displayed on the thermal image There is provided a hidden camera detection system including an analysis server that matches the contour and overlaps the CCD image and the thermal image to generate an overlapping image, and determines an area in which a hidden camera is hidden from the generated overlapped image.

상기 은닉 카메라 탐지 시스템은 상기 은닉된 영역을 표시한 열화상 영상을 수신하여 디스플레이하는 스마트 기기를 더 포함할 수 있다.The hidden camera detection system may further include a smart device for receiving and displaying a thermal image displaying the hidden area.

본 발명의 실시예들에 따르면, 은닉 카메라가 동작시 발열되는 열원을 열화상 카메라를 통하여 발열부위를 탐지함으로써, 은닉 카메라를 검출할 수 있다.According to embodiments of the present invention, the hidden camera may be detected by detecting a heat source through the thermal imaging camera of a heat source that is generated when the hidden camera is operating.

또한, CCD 카메라가 촬영한 CCD 영상과 열화상 카메라가 촬영한 열화상 영상을 중첩함으로써, 열화상 영상에서 물체의 윤곽선을 뚜렷하게 표시하여 물체의 디테일을 표현할 수 있다.In addition, by superimposing the CCD image captured by the CCD camera and the thermal image captured by the thermal imager, the outline of the object in the thermal image can be clearly displayed to express the detail of the object.

도 1은 본 발명의 일 실시예에 따른 은닉 카메라 탐지 시스템을 설명하기 위한 구성도
도 2는 본 발명의 일 실시예에 따른 은닉 카메라 탐지 시스템의 탐지 장치를 설명하기 위한 구성도
도 3은 본 발명의 일 실시예에 따른 은닉 카메라 탐지 시스템의 분석 서버를 설명하기 위한 구성도
도 4는 본 발명의 일 실시예에 따른 분석 서버에서 경계 검출 모듈 및 영상 변환 모듈의 구성을 나타낸 도면
도 5는 본 발명의 일 실시예에 따른 은닉 카메라 탐지 서비스가 제공되는 스마트 기기의 화면을 나타낸 도면
도 6은 본 발명의 일 실시예에 따른 은닉 카메라 탐지시스템을 설명하기 위한 흐름도
도 7은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
1 is a configuration diagram for explaining a hidden camera detection system according to an embodiment of the present invention;
2 is a configuration diagram for explaining a detection device of a hidden camera detection system according to an embodiment of the present invention;
3 is a configuration diagram for explaining an analysis server of a hidden camera detection system according to an embodiment of the present invention;
4 is a diagram showing the configuration of a boundary detection module and an image conversion module in the analysis server according to an embodiment of the present invention;
5 is a view showing a screen of a smart device provided with a hidden camera detection service according to an embodiment of the present invention;
6 is a flowchart illustrating a hidden camera detection system according to an embodiment of the present invention;
7 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments;

이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The following detailed description is provided to provide a comprehensive understanding of the methods, apparatus, and/or systems described herein. However, this is only an example, and the present invention is not limited thereto.

본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In describing the embodiments of the present invention, if it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification. The terminology used in the detailed description is for the purpose of describing embodiments of the present invention only, and should in no way be limiting. Unless explicitly used otherwise, expressions in the singular include the meaning of the plural. In this description, expressions such as “comprising” or “comprising” are intended to indicate certain features, numbers, steps, acts, elements, some or a combination thereof, one or more other than those described. It should not be construed to exclude the presence or possibility of other features, numbers, steps, acts, elements, or any part or combination thereof.

또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Also, terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The above terms may be used for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

한편, 본 발명의 실시예는 본 명세서에서 기술한 방법들을 컴퓨터상에서 수행하기 위한 프로그램, 및 상기 프로그램을 포함하는 컴퓨터 판독 가능 기록매체를 포함할 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나, 또는 컴퓨터 소프트웨어 분야에서 통상적으로 사용 가능한 것일 수 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광 기록 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 프로그램의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Meanwhile, an embodiment of the present invention may include a program for performing the methods described in this specification on a computer, and a computer-readable recording medium including the program. The computer-readable recording medium may include program instructions, local data files, local data structures, and the like alone or in combination. The medium may be specially designed and configured for the present invention, or may be commonly used in the field of computer software. Examples of computer-readable recording media include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and program instructions specially configured to store and execute program instructions such as ROMs, RAMs, flash memories, and the like. Hardware devices are included. Examples of the program may include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

도 1은 본 발명의 일 실시예에 따른 은닉 카메라 탐지 시스템을 설명하기 위한 구성도이고, 도 2는 본 발명의 일 실시예에 따른 은닉 카메라 탐지 시스템의 탐지 장치를 설명하기 위한 구성도이며, 도 3은 본 발명의 일 실시예에 따른 은닉 카메라 탐지 시스템의 분석 서버를 설명하기 위한 구성도이며, 도 4는 본 발명의 일 실시예에 따른 분석 서버에서 경계 검출 모듈 및 영상 변환 모듈의 구성을 나타낸 도면이다.1 is a block diagram illustrating a hidden camera detection system according to an embodiment of the present invention, and FIG. 2 is a block diagram illustrating a detection apparatus of a hidden camera detection system according to an embodiment of the present invention, FIG. 3 is a configuration diagram for explaining an analysis server of a hidden camera detection system according to an embodiment of the present invention, and FIG. 4 shows the configuration of a boundary detection module and an image conversion module in the analysis server according to an embodiment of the present invention It is a drawing.

도1 내지 도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 은닉 카메라 탐지 시스템은 탐지 장치(100), 스마트 기기(200), 분석 서버(300)를 포함할 수 있다.1 to 4 , the hidden camera detection system according to an embodiment of the present invention may include a detection device 100 , a smart device 200 , and an analysis server 300 .

탐지 장치(100), 스마트 기기(200) 및 분석 서버(300)는 서로 통신 네트워크를 사용하여 연결됨에 따라, 통신가능할 수 있다.The detection device 100 , the smart device 200 , and the analysis server 300 may communicate with each other as they are connected using a communication network.

몇몇 실시 예들에서, 통신 네트워크는 인터넷, 하나 이상의 로컬 영역 네트워크(local area networks), 광역 네트워크(wire area networks), 셀룰러 네트워크, 모바일 네트워크, 그 밖에 다른 종류의 네트워크들, 또는 이러한 네트워크들의 조합을 포함할 수 있으며, 블루투스(Bluetooth), 지그비(Zigbee), 적외선(Infra-red) 등 근거리에서 전달 가능한 공지의 통신 방식을 활용할 수 있다.In some embodiments, the communication network comprises the Internet, one or more local area networks, wire area networks, cellular networks, mobile networks, other types of networks, or a combination of these networks. and can utilize known communication methods that can be delivered in a short distance such as Bluetooth, Zigbee, and Infra-red.

탐지 장치(100)는 은닉 카메라가 은닉될 만한 장소를 촬영하기 위한 것으로, 촬영부(110) 및 전송부(120)를 포함할 수 있다.The detection apparatus 100 is for photographing a place where the hidden camera is likely to be hidden, and may include a photographing unit 110 and a transmission unit 120 .

촬영부(110)는 CCD 영상을 획득하는 CCD 카메라(미도시) 및 열화상 영상을 획득하는 열화상 카메라(미도시)를 포함할 수 있다. 촬영부(110)는 은닉 카메라가 은닉될 만한 장소를 촬영할 수 있다. 여기서, CCD 카메라는 사람의 눈과 같이 가시광영역(0.4~0.7㎛)의 물체를 촬영하기 위한 카메라이고, 열화상 카메라는 물체가 내뿜는 복사열을 탐지하여 촬영하는 열적외선(3~5㎛, 7~12㎛) 파장대의 카메라이다. The photographing unit 110 may include a CCD camera (not shown) for acquiring a CCD image and a thermal imaging camera (not shown) for acquiring a thermal image. The photographing unit 110 may photograph a place where the hidden camera is likely to be hidden. Here, the CCD camera is a camera for photographing an object in the visible region (0.4~0.7㎛), such as the human eye, and the thermal imaging camera is a thermal infrared camera (3~5㎛, 7~ 12㎛) wavelength band.

전송부(120)는 촬영된 CCD 영상 및 열화상 영상을 네트워크를 통하여 분석 서버(300)로 전송할 수 있다.The transmitter 120 may transmit the captured CCD image and the thermal image to the analysis server 300 through a network.

스마트 기기(200)는 인터넷 또는 모바일 접속용 단말로, 예를 들어, 데스크톱, 노트북 등의 PC, 스마트폰, 태블릿 등의 휴대 단말 등을 포함하여, 인터넷 또는 모바일 접속이 가능한 모든 장치를 포함할 수 있다. 스마트 기기(200)는 분석 서버(300) 와 무선통신을 이용하여 데이터 통신을 수행할 수 있다. The smart device 200 is a terminal for Internet or mobile access, and may include, for example, any device capable of Internet or mobile access, including a PC such as a desktop or a laptop computer, a mobile terminal such as a smart phone, or a tablet. have. The smart device 200 may perform data communication using the analysis server 300 and wireless communication.

또한, 스마트 기기(200)는 은닉 카메라 탐지서비스를 제공하기 위한 어플리케이션이 설치될 수 있다. 상기 어플리케이션은 스마트 기기(200)의 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 상기 어플리케이션은 스마트 기기(200)의 프로세서에 의해 실행 가능한 명령어의 소정의 집합을 포함한다. 상기 명령어는 스마트 기기(200)의 프로세서로 하여금 예시적인 실시예에 따른 동작을 수행하게 할 수 있다. 스마트 기기(200)의 컴퓨터 판독 가능 저장 매체는 스마트 기기(200) 상에서 상기 어플리케이션과 같은 명령어 집합을 실행하기 위한 운영 체제의 컴포넌트들을 포함한다. 예를 들어, 이러한 운영 체제는 애플(Apple) 사의 iOS 또는 구글(Google) 사의 Android 일 수 있다.In addition, the smart device 200 may be installed with an application for providing a hidden camera detection service. The application may be stored in a computer-readable storage medium of the smart device 200 . The application includes a predetermined set of instructions executable by the processor of the smart device 200 . The command may cause the processor of the smart device 200 to perform an operation according to an exemplary embodiment. The computer-readable storage medium of the smart device 200 includes components of an operating system for executing a set of instructions, such as the application, on the smart device 200 . For example, such an operating system may be Apple's iOS or Google's Android.

여기서, 은닉 카메라 탐지서비스를 제공하기 위한 어플리케이션은 사용자가 촬영 영상을 선택할 수 있는 입력 인터페이스(예를 들어, 다수의 메뉴 중 선택, 토글(toggle))을 제공할 수 있으며, 입력 인터페이스를 통하여 영상 선택 정보를 입력받을 수 있다. 예를 들어, CCD 영상 및 중첩 영상을 선택할 수 있는 입력 인터페이스를 사용자에게 제공할 수 있다. 여기서, 영상 선택 정보를 통하여 CCD 영상 또는 중첩 영상을 선택할 수 있다.Here, the application for providing the hidden camera detection service may provide an input interface (eg, a selection among a plurality of menus, toggle) through which a user can select a captured image, and select an image through the input interface information can be entered. For example, an input interface for selecting a CCD image and an overlapping image may be provided to the user. Here, the CCD image or the superimposed image may be selected through the image selection information.

또한, 은닉 카메라 탐지서비스를 제공하기 위한 어플리케이션은 분석 서버(300)에서 처리된 분석 정보를 디스플레이부(미도시)를 통해 표시할 수 있다. In addition, the application for providing the hidden camera detection service may display the analysis information processed by the analysis server 300 through a display unit (not shown).

참고로, 입력 모듈(미도시)은 스마트 기기(200)에 기본적으로 포함되는 구성으로써, 스마트 기기(200)의 사용자가 입력 수단(예를 들어, 키보드, 키 패드, 마우스, 터치 스크린 등)을 물리적으로 조작하여 발생되는 입력 데이터를 입력 받을 수 있다. For reference, the input module (not shown) is a configuration basically included in the smart device 200 , and the user of the smart device 200 uses input means (eg, keyboard, key pad, mouse, touch screen, etc.) It is possible to receive input data generated by physically manipulating it.

한편, 은닉 카메라 탐지서비스를 제공하기 위한 어플리케이션은 이상에서 설명한 기능 외에도 분석 정보를 기 설정된 웹 서버로 업로드할 수 있는 기능을 제공할 수 있다. 또한, 분석 정보에 따라 경찰에 신고할 수 있는 기능을 제공할 수 있다.On the other hand, the application for providing the hidden camera detection service may provide a function for uploading analysis information to a preset web server in addition to the function described above. In addition, it is possible to provide a function to report to the police according to the analysis information.

분석 서버(300)는 통신 모듈(310), 저장 모듈(320), 경계 검출 모듈(330), 영상 변환 모듈(340), 영상 중첩 모듈(350) 및 영상 분석 모듈(360)을 포함할 수 있다.The analysis server 300 may include a communication module 310 , a storage module 320 , a boundary detection module 330 , an image conversion module 340 , an image overlapping module 350 , and an image analysis module 360 . .

본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예건대, 상기 "모듈"은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아니다.In this specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the “module” may mean a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and does not necessarily mean physically connected code or a single type of hardware. .

통신 모듈(310)은 탐지 장치(100)와 네트워크를 통하여 통신을 수행할 수 있다. 통신 모듈(310)은 탐지 장치(100)로부터 촬영된 CCD 영상 및 열화상 영상을 수신할 수 있다. 또한, 통신 모듈(310)은 스마트 기기(200)와 네트워크를 통하여 데이터 통신을 수행할 수 있다. 통신 모듈(310)은 스마트 기기(200)로부터 영상 선택 정보를 수신할 수 있다. 통신 모듈(310)은 스마트 기기(200)로 분석 정보를 전송할 수 있다. 여기서, 영상 선택 정보를 통하여 CCD 영상 또는 중첩 영상을 스마트 기기(200)로 제공할 수 있다.The communication module 310 may communicate with the detection device 100 through a network. The communication module 310 may receive the CCD image and the thermal image photographed from the detection device 100 . Also, the communication module 310 may perform data communication with the smart device 200 through a network. The communication module 310 may receive image selection information from the smart device 200 . The communication module 310 may transmit the analysis information to the smart device 200 . Here, the CCD image or the superimposed image may be provided to the smart device 200 through the image selection information.

저장 모듈(320)은 탐지 장치(100)로부터 수신한 CCD 영상, 열화상 영상 및 중첩영상을 저장할 수 있다. 또한, 저장 모듈(320)은 분석 정보를 저장할 수 있다.The storage module 320 may store the CCD image, the thermal image, and the superimposed image received from the detection device 100 . Also, the storage module 320 may store analysis information.

경계 검출 모듈(330)은 CCD 영상에서 물체 부분의 경계를 검출할 수 있다. 경계 검출 모듈(330)은 제1 머신러닝(machine learning) 모듈(331) 및 제2 머신러닝(machine learning) 모듈(332)을 포함할 수 있다.The boundary detection module 330 may detect the boundary of the object part in the CCD image. The boundary detection module 330 may include a first machine learning module 331 and a second machine learning module 332 .

제1 머신러닝 모듈(331)은 통신 모듈(310)을 통하여 수신한 CCD 영상에서 물체를 인식할 수 있다. 제1 머신러닝 모듈(331)은 CCD 영상이 입력되는 경우, 이미 학습된 이미지(즉, 물체)들을 기반으로 입력된 CCD 영상에서 물체를 인식할 수 있다.The first machine learning module 331 may recognize an object from the CCD image received through the communication module 310 . When a CCD image is input, the first machine learning module 331 may recognize an object from the input CCD image based on already learned images (ie, objects).

예시적인 실시예에서, 제1 머신러닝 모듈(331)은 머신러닝(machine learning) 또는 딥러닝(deep learning) 기술로 물체인식 알고리즘 등을 이용할 수 있다. 여기서, 물체인식 알고리즘은 머신 러닝내에서 사용되는 알고리즘 방법론 중 일부이며, 예를 들어, RCNN, R-FCN, SSD, YOLO등을 사용할 수 있다. In an exemplary embodiment, the first machine learning module 331 may use an object recognition algorithm or the like with machine learning or deep learning technology. Here, the object recognition algorithm is a part of algorithm methodologies used in machine learning, for example, RCNN, R-FCN, SSD, YOLO, etc. may be used.

제2 머신러닝 모듈(332)은 제1 머신러닝 모듈(331)로부터 물체가 인식된 CCD 영상을 입력받아 물체가 인식된 CCD 영상에서 물체 부분의 경계를 검출할 수 있다. 제2 머신러닝 모듈(332)은 물체가 인식된 CCD 영상이 입력되는 경우, 이미 학습된 데이터(즉, 물체의 경계 정보)들을 기반으로 입력된 물체가 인식된 CCD 영상에서 물체의 경계를 검출할 수 있다.The second machine learning module 332 may receive the CCD image in which the object is recognized from the first machine learning module 331 and detect the boundary of the object part in the CCD image in which the object is recognized. When the CCD image in which the object is recognized is input, the second machine learning module 332 is configured to detect the boundary of the object in the CCD image in which the input object is recognized based on already learned data (ie, object boundary information). can

예시적인 실시예에서, 제2 머신러닝 모듈(332)은 머신러닝(machine learning) 또는 딥러닝(deep learning) 기술로 합성곱 신경망(CNN : Convolution Neural Network)을 이용할 수 있다. 이 경우, 제2 머신러닝 모듈(332)은 물체가 인식된 CCD 영상이 입력되는 경우, 입력된 물체가 인식된 CCD 영상에서 물체의 경계를 검출하여 출력하도록 학습된 신경망일 수 있다. 합성곱 신경망은 기 공지된 기술이므로 이에 대한 자세한 설명은 생략하기로 한다. In an exemplary embodiment, the second machine learning module 332 may use a convolutional neural network (CNN) as a machine learning or deep learning technique. In this case, the second machine learning module 332 may be a neural network trained to detect and output the boundary of the object from the CCD image in which the input object is recognized when the CCD image in which the object is recognized is input. Since the convolutional neural network is a known technology, a detailed description thereof will be omitted.

영상 변환 모듈(340)은 열화상 영상과 CCD 영상을 중첩(overlay)하기 위하여 열화상 영상을 변환할 수 있다. 영상 변환 모듈(340)은 전처리 모듈(341), 영상 리사이징 모듈(342) 및 영역 표시 모듈(343)을 포함할 수 있다.The image conversion module 340 may convert the thermal image to overlap the thermal image and the CCD image. The image conversion module 340 may include a preprocessing module 341 , an image resizing module 342 , and a region display module 343 .

전처리 모듈(341)은 열화상 영상의 방사율 정보를 보정할 수 있다. 구체적으로, 전처리 모듈(341)은 열화상 영상에서 서로 다른 물질의 방사율을 1.0으로 표준화하여 밝기분포를 정규화할 수 있다. 여기서, 방사율(emissivity) 정보는 물질에서 에너지가 방사되는 비율로서, 물질이 품고 있는 에너지를 얼마만큼 외부로 방사하는가에 대한 비율로 100%방사하는 경우에 방사율 계수가 1.0이 된다. 예를 들어, 방사율이 0.97인 물질이 100도인 경우 적외선을 이용하여 관측하였을 경우 97도로 측정이 되어 3도에 대한 보정이 필요하게 된다. 이에 기공지된 물질의 방사율 정보를 이용하여 열화상 영상에서 서로 다른 재질의 방사율을 1.0으로 표준화하여 밝기분포를 정규화할 수 있다.The preprocessing module 341 may correct emissivity information of the thermal image. Specifically, the preprocessing module 341 may normalize the brightness distribution by normalizing the emissivity of different materials to 1.0 in the thermal image. Here, emissivity information is a rate at which energy is radiated from a material, and when 100% of the energy contained in the material is radiated to the outside, the emissivity coefficient becomes 1.0. For example, when a material having an emissivity of 0.97 is 100 degrees, when it is observed using infrared rays, it is measured to be 97 degrees, and correction for 3 degrees is required. Accordingly, the brightness distribution can be normalized by standardizing the emissivity of different materials to 1.0 in the thermal image using the known material emissivity information.

또한, 전처리 모듈(341)은 정규화된 열화상 영상에서 온도를 직관적으로 인지할 수 있도록 자동 레벨 조정(Auto Gain Control) 및 의사 색체(Pseudo-Color) 처리를 수행할 수 있다. 예를 들어, 열화상 카메라는 14 bit 로, 영상을 구성하는 각 픽셀을 0 ~ 0x3FFF의 값을 표현할 수 있으나, 일반적으로 검출하는 온도는 상온의 일부 온도로 0x1000 ~ 0x1400까지의 데이터 값만이 열화상 센서로 입력되어 흐릿한 영상이 생성된다. 이에, 열화상 영상에 자동 레벨 조정 처리를 수행함으로써, 선명한 영상을 생성할 수 있다. 예를 들어, 전처리 모듈(341)은 전체 열화상 영상에 대한 각 픽셀들의 평균값을 산출한 후, 산출한 평균값을 해당 픽셀의 픽셀 값으로 재정의 할 수 있다. 또한, 열화상 카메라는 단색 화상을 표현하게 된다. 이에, 열화상 영상에 의사 색체 처리를 수행함으로써, 칼라 영상을 생성할 수 있다. 예를 들어, 전처리 모듈(341)은 전체 열화상 영상에 대한 각 픽셀의 농도(濃度) 레벨을 산출한 후, 산출된 농도 레벨에 따라 해당 픽셀에 색을 할당할 수 있다.In addition, the preprocessing module 341 may perform automatic level adjustment (Auto Gain Control) and pseudo-color processing to intuitively recognize the temperature in the normalized thermal image. For example, a thermal imaging camera can express a value of 0 to 0x3FFF for each pixel constituting an image with 14 bits. However, in general, the detected temperature is a partial temperature of room temperature, and only data values ranging from 0x1000 to 0x1400 are used for thermal imaging. A blurred image is generated by input to the sensor. Accordingly, by performing the automatic level adjustment process on the thermal image, it is possible to generate a clear image. For example, the preprocessing module 341 may calculate an average value of each pixel for the entire thermal image, and then redefine the calculated average value as a pixel value of the corresponding pixel. In addition, the thermal imaging camera will display a monochromatic image. Accordingly, a color image may be generated by performing pseudo-color processing on the thermal image. For example, the preprocessing module 341 may calculate a density level of each pixel for the entire thermal image, and then assign a color to the corresponding pixel according to the calculated density level.

영상 리사이징 모듈(342)은 전처리된 열화상 영상을 기 설정된 사이즈로 리사이징(Resizing)할 수 있다. 영상 리사이징 모듈(342)은 전처리된 열화상 영상을 CCD 영상의 사이즈로 리사이징 할 수 있다. 즉, 열화상 영상은 CCD 영상과 중첩되므로, CCD 영상과 동일한 사이즈로 리사이징 될 수 있다. 예시적인 실시예에서, 영상 리사이징 모듈(342)은 전처리된 열화상 영상(384 x 288)을 1280 x 720 사이즈로 리사이징 할 수 있다. 여기서, 영상 리사이징 모듈(342)은 2x2가 적용되는 바이리니어(Bi-Linear) 알고리즘을 적용할 수 있다.The image resizing module 342 may resize the pre-processed thermal image to a preset size. The image resizing module 342 may resize the pre-processed thermal image to the size of the CCD image. That is, since the thermal image overlaps the CCD image, it may be resized to the same size as the CCD image. In an exemplary embodiment, the image resizing module 342 may resize the preprocessed thermal image 384 x 288 to a size of 1280 x 720. Here, the image resizing module 342 may apply a bi-linear algorithm to which 2x2 is applied.

영역 표시 모듈(343)은 리사이징된 열화상 영상에서 영역(윤곽선)을 표시할 수 있다. 영역 표시 모듈(343)은 리사이징된 열화상 영상을 그레이스케일(gray scale) 처리하여 각 픽셀의 명도(明度) 레벨을 산출한 후, 명도 레벨의 불연속점에 해당하는 픽셀을 추출하여 해당 픽셀을 강조하여 열화상 영상에 영역을 표시할 수 있다.The region display module 343 may display a region (outline) in the resized thermal image. The area display module 343 calculates the brightness level of each pixel by gray-scale processing the resized thermal image, and then extracts the pixel corresponding to the discontinuity of the brightness level to emphasize the pixel. Thus, the region can be displayed on the thermal image.

영상 중첩 모듈(350)은 경계 검출 모듈(330)로부터 검출된 물체의 경계를 기반으로 변환된 열화상 영상에 알파블렌딩(alpha blending) 처리를 하여 중첩할 수 있다. 즉, 일반 열화상 영상에서는 물체의 경계가 흐릿하여 물체를 인식하기 어렵게 된다. 이에, 변환된 열화상 영상에 CCD 영상으로부터 검출된 물체의 경계를 기반으로 알파블렌딩 처리를 수행함으로써, 중첩 영상을 생성하여 열화상 영상을 물체를 명확하게 구분할 수 있도록 할 수 있다.The image overlapping module 350 may superimpose the thermal image converted based on the boundary of the object detected by the boundary detection module 330 by alpha blending. That is, in the general thermal image, the boundary of the object is blurred, making it difficult to recognize the object. Accordingly, by performing the alpha blending process on the converted thermal image based on the boundary of the object detected from the CCD image, it is possible to generate an overlapping image so that the object can be clearly distinguished from the thermal image.

구체적으로, 영상 중첩 모듈(350)은 경계 검출 모듈(330)로부터 검출된 CCD 영상의 물체의 경계와 열화상 영상에 표시된 영역을 매칭시킨 후, CCD 영상의 투명도를 조절하여 변환된 열화상 영상과 CCD 영상을 중첩하여 중첩 영상을 생성할 수 있다. 이에, CCD 카메라에서 촬영한 CCD 영상의 물체의 경계를 열화상 영상에 중첩시킴으로써, 열화상 영상에서 물체의 윤곽선을 뚜렷하게 표시하여 물체의 디테일을 표현할 수 있다.Specifically, the image superposition module 350 matches the boundary of the object of the CCD image detected by the boundary detection module 330 with the area displayed in the thermal image, and then adjusts the transparency of the CCD image to obtain the converted thermal image and An overlapping image may be generated by superimposing the CCD image. Accordingly, by superimposing the boundary of the object of the CCD image captured by the CCD camera on the thermal image, the outline of the object in the thermal image can be clearly displayed to express the detail of the object.

영상 분석 모듈(360)은 생성된 중첩 영상에서 은닉 카메라가 은닉된 위치를 판단할 수 있다. 구체적으로, 영상 분석 모듈(360)은 생성된 중첩 영상의 표시된 영역 내에서 온도가 가장 높은 영역을 추출하여 해당 부분을 은닉 카메라가 은닉된 영역으로 판단할 수 있다. 즉, 특정 사물에 은닉된 은닉 카메라가 동작시 열원에 의해 발열이 되므로, 발열 영역을 탐지하여 은닉 카메라를 탐지할 수 있다.The image analysis module 360 may determine a position where the hidden camera is hidden in the generated overlapping image. Specifically, the image analysis module 360 may extract a region having the highest temperature within a displayed region of the generated overlapping image and determine the region as a region in which the hidden camera is hidden. That is, since the hidden camera hidden in a specific object is heated by the heat source when it is operated, the hidden camera can be detected by detecting the heating region.

또한, 영상 분석 모듈(360)은 은닉 카메라가 은닉된 위치를 표시한 중첩 영상을 포함하는 분석 정보를 생성할 수 있다. 예를 들어, 영상 분석 모듈(360)은 은닉 카메라가 은닉된 위치를 중첩 영상에 표시하여 사용자의 스마트 기기(200)로 제공할 수 있다. Also, the image analysis module 360 may generate analysis information including an overlapping image indicating a location where the hidden camera is hidden. For example, the image analysis module 360 may display the location where the hidden camera is hidden on the superimposed image and provide it to the user's smart device 200 .

도 5는 본 발명의 일 실시예에 따른 은닉 카메라 탐지 서비스가 제공되는 스마트 기기의 화면을 나타낸 도면이다.5 is a diagram illustrating a screen of a smart device provided with a hidden camera detection service according to an embodiment of the present invention.

도 5와 같이, 분석 서버(300)는 사용자의 스마트 기기(200)로부터 입력된 영상 선택 정보에 따라 (a)CCD 영상 또는 (b)중첩 영상을 스마트 기기로 제공할 수 있다. 도 5를 참조하면, 열화상 영상에서 물체(1)의 윤곽선이 뚜렷하게 표시될 수 있으며, 인식된 물체 내에서 온도가 가장 높은 영역(S)을 추출하여 은닉 카메라를 탐지할 수 있다.As shown in FIG. 5 , the analysis server 300 may provide (a) a CCD image or (b) a superimposed image to the smart device according to the image selection information input from the user's smart device 200 . Referring to FIG. 5 , the outline of the object 1 may be clearly displayed in the thermal image, and the hidden camera may be detected by extracting the region S having the highest temperature within the recognized object.

개시되는 실시예에 의하면, CCD 카메라가 촬영한 CCD 영상과 열화상 카메라가 촬영한 열화상 영상을 중첩함으로써, 열화상 영상에서 물체의 윤곽선을 뚜렷하게 표시하여 물체의 디테일을 표현할 수 있게 된다.According to the disclosed embodiment, by superimposing the CCD image photographed by the CCD camera and the thermal image image photographed by the thermal imaging camera, the outline of the object is clearly displayed in the thermal image image to express the detail of the object.

도 6은 본 발명의 일 실시예에 따른 은닉 카메라 탐지시스템을 설명하기 위한 흐름도이다. 도 6에 도시된 방법은 예를 들어, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치(12)에 의해 수행될 수 있다. 이를 위하여, 은닉 카메라 탐지 방법은 하나 이상의 컴퓨터 실행 가능 명령어를 포함하는 프로그램 내지 소프트웨어의 형태로 구현되어 상기 메모리상에 저장될 수 있다. 6 is a flowchart illustrating a hidden camera detection system according to an embodiment of the present invention. The method illustrated in FIG. 6 may be performed, for example, by a computing device 12 having one or more processors and a memory storing one or more programs executed by the one or more processors. To this end, the hidden camera detection method may be implemented in the form of a program or software including one or more computer-executable instructions and stored in the memory.

또한, 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.In addition, in the illustrated flowchart, the method is described by dividing the method into a plurality of steps, but at least some of the steps are performed in a different order, are performed in combination with other steps, are omitted, are performed in separate steps, or are shown One or more steps not included may be added and performed.

도 6을 참조하면, 분석 서버(300)는 탐지 장치(100)로부터 은닉 장소를 촬영한 CCD 영상 및 열화상 영상을 수신한다(S601).Referring to FIG. 6 , the analysis server 300 receives a CCD image and a thermal image of the hidden place from the detection device 100 ( S601 ).

다음으로, 분석 서버(300)는 머신러닝 모듈을 통하여 상기 CCD 영상에서 물체의 경계를 추출한다(S602). 구체적으로, 분석 서버(300)는 제1 머신러닝 모듈(331)을 통하여 상기 CCD 영상에서 물체를 인식할 수 있으며, 제2 머신러닝 모듈(332)을 통하여 상기 물체가 인식된 CCD 영상에서 상기 물체의 경계를 검출할 수 있다.Next, the analysis server 300 extracts the boundary of the object from the CCD image through the machine learning module (S602). Specifically, the analysis server 300 may recognize the object in the CCD image through the first machine learning module 331 , and the object in the CCD image in which the object is recognized through the second machine learning module 332 . boundaries can be detected.

다음으로, 분석 서버(300)는 영상 변환 모듈(340)을 통하여 상기 열화상 영상에 윤곽선을 표시한다(S603). 구체적으로, 분석 서버(300)는 전처리 모듈(341)을 통하여 열화상 영상의 방사율 정보를 보정하고, 보정된 열화상 영상에 대하여 자동 레벨 조정 및 의사 색채 처리를 수행할 수 있다. 또한, 분석 서버(300)는 영상 리사이징 모듈(342)을 통하여 전처리된 열화상 영상을 기 설정된 사이즈로 리사이징하고, 영역 표시 모듈(343)을 통하여 리사이징된 열화상 영상에서 윤곽선을 검출하여 표시할 수 있다.Next, the analysis server 300 displays an outline on the thermal image through the image conversion module 340 (S603). Specifically, the analysis server 300 may correct emissivity information of the thermal image through the pre-processing module 341 , and perform automatic level adjustment and pseudo-color processing on the corrected thermal image. In addition, the analysis server 300 resizes the thermal image image preprocessed through the image resizing module 342 to a preset size, and detects and displays the outline in the thermal image image resized through the area display module 343. have.

다음으로, 분석 서버(300)는 CCD 영상의 물체의 경계와 열화상 영상에 표시된 윤곽선을 매칭하고, CCD 영상과 열화상 영상을 중첩하여 중첩 영상을 생성한다(S604).Next, the analysis server 300 matches the boundary of the object of the CCD image with the contour displayed on the thermal image, and creates an overlapping image by overlapping the CCD image and the thermal image ( S604 ).

마지막으로, 분석 서버(300)는 생성된 중첩 영상에서 은닉 카메라가 은닉된 영역을 판단한다(S605). 구체적으로, 분석 서버(300)는 생성된 중첩 영상의 물체의 경계 내에서 가장 높은 영역을 추출하고, 추출된 영역을 은닉 카메라가 은닉된 영역으로 판단할 수 있다. 또한, 분석 서버(300)는 은닉된 영역을 표시한 중첩 영상을 사용자에게 제공할 수 있다.Finally, the analysis server 300 determines the area in which the hidden camera is hidden in the generated overlapping image (S605). Specifically, the analysis server 300 may extract the highest area within the boundary of the object of the generated overlapping image, and determine the extracted area as the area where the hidden camera is hidden. In addition, the analysis server 300 may provide the user with an overlapping image in which the hidden area is displayed.

개시되는 실시예에 의하면, 은닉 카메라가 동작시 발열되는 열원을 열화상 카메라를 통하여 발열부위를 탐지함으로써, 은닉 카메라를 검출할 수 있게 된다. 또한, CCD 카메라가 촬영한 CCD 영상과 열화상 카메라가 촬영한 열화상 영상을 중첩함으로써, 열화상 영상에서 물체의 윤곽선을 뚜렷하게 표시하여 물체의 디테일을 표현할 수 있게 된다.According to the disclosed embodiment, the hidden camera can be detected by detecting the heat source through the thermal imaging camera of the heat source generated when the hidden camera is operating. In addition, by superimposing the CCD image photographed by the CCD camera and the thermal image photographed by the thermal imaging camera, the outline of the object can be clearly displayed in the thermal image image to express the detail of the object.

도 7은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(20)을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술된 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.7 is a block diagram illustrating and describing a computing environment 20 including a computing device suitable for use in example embodiments. In the illustrated embodiment, each component may have different functions and capabilities other than those described below, and may include additional components in addition to those described below.

도시된 컴퓨팅 환경(20)은 컴퓨팅 장치(22)를 포함한다. 일 실시예에서, 컴퓨팅 장치(22)는 스마트 기기(200)일 수 있다. 또한, 일 실시예에서, 컴퓨팅 장치(22)는 분석 서버(300)일 수 있다.The illustrated computing environment 20 includes a computing device 22 . In one embodiment, computing device 22 may be smart device 200 . Also, in one embodiment, computing device 22 may be analysis server 300 .

컴퓨팅 장치(22)는 적어도 하나의 프로세서(24), 컴퓨터 판독 가능 저장 매체(26) 및 통신 버스(28)를 포함한다. 프로세서(24)는 컴퓨팅 장치(22)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(24)는 컴퓨터 판독 가능 저장 매체(26)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(24)에 의해 실행되는 경우 컴퓨팅 장치(22)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.The computing device 22 includes at least one processor 24 , a computer readable storage medium 26 , and a communication bus 28 . The processor 24 may cause the computing device 22 to operate in accordance with the exemplary embodiments discussed above. For example, the processor 24 may execute one or more programs stored on the computer-readable storage medium 26 . The one or more programs may include one or more computer-executable instructions that, when executed by the processor 24, configure the computing device 22 to perform operations in accordance with the exemplary embodiment. can be

컴퓨터 판독 가능 저장 매체(26)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(26)에 저장된 프로그램(30)은 프로세서(24)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(26)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(22)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer-readable storage medium 26 is configured to store computer-executable instructions or program code, program data, and/or other suitable form of information. The program 30 stored in the computer readable storage medium 26 includes a set of instructions executable by the processor 24 . In one embodiment, computer-readable storage medium 26 includes memory (volatile memory, such as random access memory, non-volatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash It may be memory devices, other forms of storage medium that can be accessed by computing device 22 and store desired information, or a suitable combination thereof.

통신 버스(28)는 프로세서(24), 컴퓨터 판독 가능 저장 매체(26)를 포함하여 컴퓨팅 장치(22)의 다른 다양한 컴포넌트들을 상호 연결한다.Communication bus 28 interconnects various other components of computing device 22 , including processor 24 and computer readable storage medium 26 .

컴퓨팅 장치(22)는 또한 하나 이상의 입출력 장치(34)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(32) 및 하나 이상의 네트워크 통신 인터페이스(36)를 포함할 수 있다. 입출력 인터페이스(32) 및 네트워크 통신 인터페이스(36)는 통신 버스(28)에 연결된다. 입출력 장치(34)는 입출력 인터페이스(32)를 통해 컴퓨팅 장치(22)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(34)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(34)는 컴퓨팅 장치(22)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(22)의 내부에 포함될 수도 있고, 컴퓨팅 장치(22)와는 구별되는 별개의 장치로 컴퓨팅 장치(22)와 연결될 수도 있다.Computing device 22 may also include one or more input/output interfaces 32 and one or more network communication interfaces 36 that provide interfaces for one or more input/output devices 34 . The input/output interface 32 and the network communication interface 36 are coupled to the communication bus 28 . The input/output device 34 may be coupled to other components of the computing device 22 via an input/output interface 32 . Exemplary input/output device 34 may include a pointing device (such as a mouse or trackpad), a keyboard, a touch input device (such as a touchpad or touchscreen), a voice or sound input device, various types of sensor devices, and/or imaging devices. input devices, and/or output devices such as display devices, printers, speakers and/or network cards. The exemplary input/output device 34 may be included in the computing device 22 as a component constituting the computing device 22 , and may be connected to the computing device 22 as a separate device distinct from the computing device 22 . may be

이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although representative embodiments of the present invention have been described in detail above, those of ordinary skill in the art will understand that various modifications are possible without departing from the scope of the present invention with respect to the above-described embodiments. . Therefore, the scope of the present invention should not be limited to the described embodiments and should be defined by the claims described below as well as the claims and equivalents.

100 : 탐지 장치
110 : 촬영부
120 : 전송부
200 : 스마트 기기
300 : 분석 서버
310 : 통신 모듈
320 : 저장 모듈
330 : 경계 검출 모듈
331 : 제1 머신러닝 모듈
332 : 제2 머신러닝 모듈
340 : 영상 변환 모듈
341 : 전처리 모듈
342 : 영상 리사이징 모듈
343 : 영역 표시 모듈
350 : 영상 중첩 모듈
360 : 영상 분석 모듈
100: detection device
110: filming unit
120: transmission unit
200: smart device
300: analysis server
310: communication module
320: storage module
330: boundary detection module
331: first machine learning module
332: second machine learning module
340: image conversion module
341: preprocessing module
342: image resizing module
343: area display module
350: image superposition module
360: video analysis module

Claims (20)

하나 이상의 프로세서들, 및
상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치에서 수행되는 방법으로서,
탐지 장치로부터 은닉 장소를 촬영한 CCD 영상 및 열화상 영상을 수신하는 단계;
상기 CCD 영상에서 물체의 경계를 추출하는 단계;
상기 열화상 영상에 윤곽선을 표시하는 단계;
상기 CCD 영상의 물체의 경계와 상기 열화상 영상에 표시된 윤곽선을 매칭하고, 상기 CCD 영상과 상기 열화상 영상을 중첩하여 중첩 영상을 생성하는 단계; 및
상기 생성된 중첩 영상에서 은닉 카메라가 은닉된 영역을 판단하는 단계를 포함하는, 방법.
one or more processors, and
A method performed in a computing device having a memory storing one or more programs to be executed by the one or more processors, the method comprising:
Receiving a CCD image and a thermal image of the hidden location from the detection device;
extracting an object boundary from the CCD image;
displaying an outline on the thermal image;
generating an overlapping image by matching a boundary of an object of the CCD image with an outline displayed on the thermal image and superimposing the CCD image and the thermal image; and
and determining, by a hidden camera, a hidden area in the generated superimposed image.
청구항 1에 있어서,
상기 CCD 영상에서 물체의 경계를 추출하는 단계는,
제1 머신러닝 모듈을 통하여 상기 CCD 영상에서 물체를 인식하는 단계; 및,
제2 머신러닝 모듈을 통하여 상기 물체가 인식된 CCD 영상에서 상기 물체의 경계를 검출하는 단계를 포함하는, 방법.
The method according to claim 1,
The step of extracting the boundary of the object from the CCD image,
recognizing an object in the CCD image through a first machine learning module; and,
and detecting a boundary of the object in a CCD image in which the object is recognized through a second machine learning module.
청구항 1에 있어서,
상기 열화상 영상에 윤곽선을 표시하는 단계는,
상기 열화상 영상의 방사율 정보를 보정하는 단계;
상기 보정된 열화상 영상에 대하여 자동 레벨 조정 처리를 수행하는 단계;
상기 전처리된 영화상 영상을 기 설정된 사이즈로 리사이징하는 단계; 및
상기 리사이징된 열화상 영상에서 윤곽선을 검출하여 표시하는 단계를 포함하는, 방법.
The method according to claim 1,
The step of displaying an outline on the thermal image includes:
correcting emissivity information of the thermal image;
performing an automatic level adjustment process on the corrected thermal image;
resizing the pre-processed movie image to a preset size; and
Detecting and displaying an outline in the resized thermal image.
청구항 3에 있어서,
상기 열화상 영상의 방사율 정보를 보정하는 단계는,
상기 열화상 영상 내의 서로 다른 물질의 방사율을 1.0으로 표준화하여 밝기분포를 정규화하는, 방법.
4. The method according to claim 3,
The step of correcting the emissivity information of the thermal image,
Normalizing the brightness distribution by normalizing the emissivity of different materials in the thermal image to 1.0, the method.
청구항 3에 있어서,
상기 자동 레벨 조정 처리를 수행하는 단계는,
상기 보정된 열화상 영상에 대한 각 픽셀의 농도(濃度) 레벨을 산출하고, 상기 산출된 농도 레벨에 따라 해당 픽셀에 색을 재설정하는 단계를 포함하는, 방법.
4. The method according to claim 3,
The step of performing the automatic level adjustment process,
calculating a density level of each pixel with respect to the corrected thermal image, and resetting a color to the corresponding pixel according to the calculated density level.
청구항 3에 있어서,
상기 윤곽선을 검출하여 표시하는 단계는,
상기 리사이징된 열화상 영상을 그레이스케일(gray scale) 처리하여 각 픽셀의 명도(明度) 레벨을 산출하고, 상기 명도 레벨의 불연속점에 해당하는 픽셀을 추출하는, 방법.
4. The method according to claim 3,
The step of detecting and displaying the outline includes:
A method of calculating a brightness level of each pixel by grayscale processing the resized thermal image, and extracting pixels corresponding to discontinuities of the brightness level.
청구항 1에 있어서,
상기 중첩 영상을 생성하는 단계는,
상기 CCD 영상의 투명도를 조절하여 상기 CCD 영상과 중첩하는 단계를 포함하는, 방법.
The method according to claim 1,
The step of generating the superimposed image includes:
and adjusting the transparency of the CCD image to overlap the CCD image.
청구항 1에 있어서,
상기 은닉 카메라가 은닉된 영역을 판단하는 단계는,
상기 생성된 중첩 영상의 물체의 경계 내에서 온도가 가장 높은 영역을 추출하는 단계;
상기 추출된 영역을 은닉 카메라가 은닉된 영역으로 판단하는 단계; 및,
상기 은닉된 영역을 표시한 중첩 영상을 사용자에게 제공하는 단계를 포함하는, 방법.
The method according to claim 1,
The step of determining the area where the hidden camera is hidden includes:
extracting a region having the highest temperature within the boundary of the object of the generated overlapping image;
determining the extracted area as a hidden area by a hidden camera; and,
and providing an overlapping image indicating the hidden region to a user.
청구항 8에 있어서,
상기 사용자에게 제공하는 단계는,
스마트 기기로부터 영상 선택 정보를 수신하는 단계; 및
상기 영상 선택 정보에 따라 상기 CCD 영상 또는 상기 은닉된 영역을 표시한 중첩 영상을 상기 스마트 기기로 제공하는 단계를 포함하는, 방법.
9. The method of claim 8,
The step of providing to the user is
Receiving image selection information from a smart device; and
According to the image selection information, the method comprising the step of providing the CCD image or the superimposed image displaying the hidden area to the smart device.
하나 이상의 프로세서들, 및
상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 컴퓨팅 장치로서,
탐지 장치로부터 은닉 장소를 촬영한 CCD 영상 및 열화상 영상을 수신하는 통신 모듈;
상기 CCD 영상에서 물체의 경계를 추출하는 경계 검출 모듈;
상기 열화상 영상에 윤곽선을 표시하는 영상 변환 모듈;
상기 CCD 영상의 물체의 경계와 상기 열화상 영상에 표시된 윤곽선을 매칭하고, 상기 CCD 영상과 상기 열화상 영상을 중첩하여 중첩 영상을 생성하는 영상 중첩 모듈; 및
상기 생성된 중첩 영상에서 은닉 카메라가 은닉된 영역을 판단하는 영상 분석 모듈을 포함하는, 컴퓨팅 장치.
one or more processors, and
A computing device having a memory for storing one or more programs executed by the one or more processors, the computing device comprising:
a communication module for receiving a CCD image and a thermal image of the hidden location from the detection device;
a boundary detection module for extracting an object boundary from the CCD image;
an image conversion module for displaying an outline on the thermal image;
an image overlapping module that matches a boundary of an object of the CCD image with an outline displayed on the thermal image, and generates an overlapping image by overlapping the CCD image and the thermal image; and
Computing device comprising an image analysis module for determining a hidden area of the hidden camera in the generated superimposed image.
청구항 10에 있어서,
상기 경계 검출 모듈은,
상기 CCD 영상에서 물체를 인식하는 제1 머신러닝 모듈; 및,
상기 물체가 인식된 CCD 영상에서 상기 물체의 경계를 검출하는 제2 머신러닝 모듈을 포함하는, 컴퓨팅 장치.
11. The method of claim 10,
The boundary detection module,
a first machine learning module for recognizing an object in the CCD image; and,
Computing device comprising a second machine learning module for detecting the boundary of the object in the CCD image in which the object is recognized.
청구항 10에 있어서,
상기 영상 변환 모듈은,
상기 열화상 영상의 방사율 정보를 보정하고, 상기 보정된 열화상 영상에 대하여 자동 레벨 조정 처리를 수행하는 전처리 모듈;
상기 전처리된 영화상 영상을 기 설정된 사이즈로 리사이징하는 영상 리사이징 모듈; 및
상기 리사이징된 열화상 영상에서 윤곽선을 검출하여 표시하는 영역 표시 모듈을 포함하는, 컴퓨팅 장치.
11. The method of claim 10,
The image conversion module,
a preprocessing module for correcting emissivity information of the thermal image and performing automatic level adjustment on the corrected thermal image;
an image resizing module for resizing the pre-processed movie image to a preset size; and
Computing device comprising a region display module for detecting and displaying an outline from the resized thermal image.
청구항 12에 있어서,
상기 전처리 모듈은, 상기 열화상 영상 내의 서로 다른 물질의 방사율을 1.0으로 표준화하여 밝기분포를 정규화하는, 컴퓨팅 장치.
13. The method of claim 12,
The preprocessing module normalizes the brightness distribution by normalizing the emissivity of different materials in the thermal image to 1.0, the computing device.
청구항 12에 있어서,
상기 전처리 모듈은, 상기 보정된 열화상 영상에 대한 각 픽셀의 농도(濃度) 레벨을 산출하고, 상기 산출된 농도 레벨에 따라 해당 픽셀에 색을 재설정하는, 컴퓨팅 장치.
13. The method of claim 12,
The pre-processing module calculates a density level of each pixel for the corrected thermal image, and resets a color to the corresponding pixel according to the calculated density level.
청구항 12에 있어서,
상기 영역 표시 모듈은, 상기 리사이징된 열화상 영상을 그레이스케일(gray scale) 처리하여 각 픽셀의 명도(明度) 레벨을 산출하고, 상기 명도 레벨의 불연속점에 해당하는 픽셀을 추출하는, 컴퓨팅 장치.
13. The method of claim 12,
The area display module calculates a brightness level of each pixel by grayscale processing the resized thermal image, and extracts a pixel corresponding to a discontinuity of the brightness level.
청구항 10에 있어서,
상기 영상 중첩 모듈은, 상기 CCD 영상의 투명도를 조절하여 상기 CCD 영상과 중첩하는, 컴퓨팅 장치.
11. The method of claim 10,
The image overlapping module, the CCD image and the overlap by adjusting the transparency of the CCD image, the computing device.
청구항 10에 있어서,
영상 분석 모듈은, 상기 생성된 중첩 영상의 물체의 경계 내에서 온도가 가장 높은 영역을 추출하고, 상기 추출된 영역을 은닉 카메라가 은닉된 영역으로 판단하며, 상기 은닉된 영역을 표시한 중첩 영상을 사용자에게 제공하는, 컴퓨팅 장치.
11. The method of claim 10,
The image analysis module extracts the region with the highest temperature within the boundary of the object of the generated overlapping image, determines the extracted region as the region where the hidden camera is hidden, and displays the overlapped image displaying the hidden region. A computing device provided to a user.
청구항 17에 있어서,
상기 통신 모듈은, 스마트 기기로부터 영상 선택 정보를 수신하고, 상기 영상 선택 정보에 따라 상기 CCD 영상 또는 상기 은닉된 영역을 표시한 중첩 영상을 상기 스마트 기기로 제공하는, 컴퓨팅 장치.
18. The method of claim 17,
The communication module receives the image selection information from the smart device, and provides the CCD image or the superimposed image displaying the hidden area to the smart device according to the image selection information.
은닉 장소를 촬영하여 CCD 영상 및 열화상 영상을 획득하는 촬영부를 포함하는 탐지 장치; 및
상기 탐지 장치로부터 상기 CCD 영상 및 열화상 영상을 수신하고, 상기 CCD 영상에서 물체의 경계를 추출하고 상기 열화상 영상에 윤곽선을 표시하며, 상기 CCD 영상의 물체의 경계와 상기 열화상 영상에 표시된 윤곽선을 매칭하고 상기 CCD 영상과 상기 열화상 영상을 중첩하여 중첩 영상을 생성하며, 상기 생성된 중첩 영상에서 은닉 카메라가 은닉된 영역을 판단하는 분석 서버를 포함하는, 은닉 카메라 탐지 시스템.
a detection device including a photographing unit for photographing a hidden place to obtain a CCD image and a thermal image; and
receiving the CCD image and the thermal image from the detection device, extracting a boundary of an object from the CCD image, and displaying a contour on the thermal image, the boundary of the object of the CCD image and the contour displayed on the thermal image and an analysis server for matching and superimposing the CCD image and the thermal image to generate an overlapping image, and determining an area in which a hidden camera is hidden from the generated overlapping image.
청구항 19에 있어서,
상기 은닉 카메라 탐지 시스템은,
상기 은닉된 영역을 표시한 열화상 영상을 수신하여 디스플레이하는 스마트 기기를 더 포함하는, 은닉 카메라 탐지 시스템.
20. The method of claim 19,
The hidden camera detection system,
The hidden camera detection system further comprising a smart device for receiving and displaying the thermal image displaying the hidden area.
KR1020200033046A 2020-03-18 2020-03-18 Hidden camera detection system, method and computing device for performing the same KR102449724B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200033046A KR102449724B1 (en) 2020-03-18 2020-03-18 Hidden camera detection system, method and computing device for performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200033046A KR102449724B1 (en) 2020-03-18 2020-03-18 Hidden camera detection system, method and computing device for performing the same

Publications (2)

Publication Number Publication Date
KR20210116904A true KR20210116904A (en) 2021-09-28
KR102449724B1 KR102449724B1 (en) 2022-09-30

Family

ID=77923240

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200033046A KR102449724B1 (en) 2020-03-18 2020-03-18 Hidden camera detection system, method and computing device for performing the same

Country Status (1)

Country Link
KR (1) KR102449724B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102548076B1 (en) * 2022-12-08 2023-06-29 주식회사 인터엑스 Detection method of thermal image based real time human

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040065447A (en) * 2003-01-14 2004-07-22 한국원자력연구소 Emissivity Correction Method and Apparatus of Thermal Image using Mapping Technology Thermal Infrared Image into CCD Image
KR200411448Y1 (en) 2005-12-13 2006-03-14 남형종 Camera search device
KR100829215B1 (en) * 2008-03-13 2008-05-14 주식회사 엘트로닉스 Composite image generating system for detecting hidden objects
KR20120109057A (en) * 2011-03-24 2012-10-08 삼성테크윈 주식회사 Image synthesis system and image synthesis method
JP2017200035A (en) * 2016-04-27 2017-11-02 株式会社Jvcケンウッド Vehicle display control device, vehicle display system, vehicle display control method, and program
KR102061445B1 (en) * 2019-02-22 2019-12-31 써모아이 주식회사 Method and apparatus for object recognition based on visible light and infrared fusion image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040065447A (en) * 2003-01-14 2004-07-22 한국원자력연구소 Emissivity Correction Method and Apparatus of Thermal Image using Mapping Technology Thermal Infrared Image into CCD Image
KR200411448Y1 (en) 2005-12-13 2006-03-14 남형종 Camera search device
KR100829215B1 (en) * 2008-03-13 2008-05-14 주식회사 엘트로닉스 Composite image generating system for detecting hidden objects
KR20120109057A (en) * 2011-03-24 2012-10-08 삼성테크윈 주식회사 Image synthesis system and image synthesis method
JP2017200035A (en) * 2016-04-27 2017-11-02 株式会社Jvcケンウッド Vehicle display control device, vehicle display system, vehicle display control method, and program
KR102061445B1 (en) * 2019-02-22 2019-12-31 써모아이 주식회사 Method and apparatus for object recognition based on visible light and infrared fusion image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102548076B1 (en) * 2022-12-08 2023-06-29 주식회사 인터엑스 Detection method of thermal image based real time human

Also Published As

Publication number Publication date
KR102449724B1 (en) 2022-09-30

Similar Documents

Publication Publication Date Title
US11080434B2 (en) Protecting content on a display device from a field-of-view of a person or device
US10198823B1 (en) Segmentation of object image data from background image data
TWI724736B (en) Image processing method and device, electronic equipment, storage medium and computer program
US10628670B2 (en) User terminal apparatus and iris recognition method thereof
US10217195B1 (en) Generation of semantic depth of field effect
KR102079091B1 (en) Terminal and image processing method thereof
WO2019101021A1 (en) Image recognition method, apparatus, and electronic device
JP6208383B2 (en) Image capturing parameter adjustment in preview mode
US8879803B2 (en) Method, apparatus, and computer program product for image clustering
US20150222880A1 (en) Apparatus and method for capturing image in electronic device
WO2020134238A1 (en) Living body detection method and apparatus, and storage medium
KR102636243B1 (en) Method for processing image and electronic device thereof
KR20200118076A (en) Biometric detection method and device, electronic device and storage medium
SG177164A1 (en) Controlled access to functionality of a wireless device
KR20180013208A (en) Apparatus and Method for Processing Differential Beauty Effect
KR20160147515A (en) Method for authenticating user and electronic device supporting the same
KR20160027862A (en) Method for processing image data and electronic device supporting thereof
CN111126108A (en) Training method and device of image detection model and image detection method and device
KR20230069892A (en) Method and apparatus for identifying object representing abnormal temperatures
KR20190111034A (en) Feature image acquisition method and device, and user authentication method
US20170200044A1 (en) Apparatus and method for providing surveillance image based on depth image
KR20180044587A (en) Method for generating foreground using multiple background model and apparatus thereof
KR102449724B1 (en) Hidden camera detection system, method and computing device for performing the same
KR102290991B1 (en) The method for generating thermal image and apparatus thereof
CN109816628B (en) Face evaluation method and related product

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant