KR20230168242A - Method for identifying shape of target object and artificial intelligence based gas leak detection device performing the same - Google Patents
Method for identifying shape of target object and artificial intelligence based gas leak detection device performing the same Download PDFInfo
- Publication number
- KR20230168242A KR20230168242A KR1020220068448A KR20220068448A KR20230168242A KR 20230168242 A KR20230168242 A KR 20230168242A KR 1020220068448 A KR1020220068448 A KR 1020220068448A KR 20220068448 A KR20220068448 A KR 20220068448A KR 20230168242 A KR20230168242 A KR 20230168242A
- Authority
- KR
- South Korea
- Prior art keywords
- target object
- images
- type
- electronic device
- information
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 135
- 238000000034 method Methods 0.000 title claims abstract description 132
- 238000001514 detection method Methods 0.000 title claims description 137
- 239000000779 smoke Substances 0.000 claims abstract description 28
- 239000013598 vector Substances 0.000 claims description 85
- 238000003657 Likelihood-ratio test Methods 0.000 claims description 39
- 239000000284 extract Substances 0.000 claims description 27
- 238000001228 spectrum Methods 0.000 claims description 26
- 238000012706 support-vector machine Methods 0.000 claims description 20
- 230000000873 masking effect Effects 0.000 claims description 17
- 230000003595 spectral effect Effects 0.000 claims description 7
- 239000000463 material Substances 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 3
- 239000007789 gas Substances 0.000 description 212
- 230000008569 process Effects 0.000 description 51
- 238000010586 diagram Methods 0.000 description 38
- 239000002131 composite material Substances 0.000 description 37
- 238000009434 installation Methods 0.000 description 37
- 238000005259 measurement Methods 0.000 description 34
- 230000006870 function Effects 0.000 description 26
- 238000012544 monitoring process Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 17
- 238000004422 calculation algorithm Methods 0.000 description 15
- 238000012549 training Methods 0.000 description 11
- QGZKDVFQNNGYKY-UHFFFAOYSA-N Ammonia Chemical compound N QGZKDVFQNNGYKY-UHFFFAOYSA-N 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 10
- 238000012795 verification Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000003062 neural network model Methods 0.000 description 6
- 229910021529 ammonia Inorganic materials 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 4
- VNWKTOKETHGBQD-UHFFFAOYSA-N methane Chemical compound C VNWKTOKETHGBQD-UHFFFAOYSA-N 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000003245 coal Substances 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- -1 leak image Substances 0.000 description 1
- 231100000518 lethal Toxicity 0.000 description 1
- 230000001665 lethal effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/0014—Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation from gases, flames
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M3/00—Investigating fluid-tightness of structures
- G01M3/38—Investigating fluid-tightness of structures by using light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/88—Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
- G06V10/89—Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters using frequency domain filters, e.g. Fourier masks implemented on spatial light modulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Fire-Detection Mechanisms (AREA)
Abstract
본 개시는 인공지능 기반 가스 누출을 탐지하는 전자 장치 및 상기 전자 장치가 표적 객체의 형상을 식별하는 방법에 관한 것이다. 일 실시 예에 의하면, 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 형상을 식별하는 방법은 상기 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 영상들을 획득하는 단계; 상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입 영상들을 획득하는 단계; 및 상기 제1 타입 영상들 및 상기 제2 타입 영상들이 입력되면, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 객체 인식 모델에, 상기 제1 타입 영상들 및 상기 제2 타입 영상들을 입력함으로써, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체 검출 여부를 식별하는 단계; 를 포함하고, 상기 표적 객체는 연기 객체, 가스 객체 또는 불꽃 객체 중 적어도 하나를 포함할 수 있다.The present disclosure relates to an electronic device for detecting gas leaks based on artificial intelligence and a method for the electronic device to identify the shape of a target object. According to one embodiment, a method of identifying the shape of a target object by an electronic device for detecting an artificial intelligence-based gas leak includes receiving first type images of a space to be monitored from at least one first type of camera connected to the electronic device. acquiring; Obtaining second type images of the space to be monitored from at least one second type camera connected to the electronic device; And when the first type images and the second type images are input, an object recognition model that identifies whether a target object in the first type images and the second type images is detected, the first type image identifying whether the target object is detected in the first type images and the second type images by inputting the first type images and the second type images; Includes, and the target object may include at least one of a smoke object, a gas object, or a flame object.
Description
본 개시는 인공지능 기반 가스 누출 탐지를 위한 전자 장치 및 상기 전자 장치가 연기, 가스와 같은 표적 객체의 형상을 식별하는 방법에 관한 것이다. 보다 상세하게는, 인공지능 기반 가스 누출 탐지를 위한 전자 장치가 인공지능 기반 유해가스를 실시간으로 영상화하고 탐지하기 위해 연기, 가스 객체를 형상화하는 방법에 관한 것이다.The present disclosure relates to an electronic device for artificial intelligence-based gas leak detection and a method for the electronic device to identify the shape of a target object such as smoke or gas. More specifically, it is about how an electronic device for artificial intelligence-based gas leak detection shapes smoke and gas objects to image and detect artificial intelligence-based harmful gases in real time.
산업현장이나 생활 주변에서 사용되는 여러 종류의 가스 중 인체에 치명적이거나 폭발성을 띄는 가스누출의 탐지는 매우 중요하며, 2차적인 안전사고로 확대되는 것을 방지하기 위해 실시간 모니터링이 필요하다. 특히, 저탄장에서 발생하는 매탄, 암모니아 저장탱크 또는 가스 배관에서 발생하는 암모니아와 같은 가스의 경우 시각적으로 확인하기가 어렵기 때문에 이러한 가스의 누출을 사전에 탐지하여 안전 사고를 예방할 필요가 있다.Among the various types of gases used in industrial sites and everyday life, detection of gas leaks that are lethal or explosive to the human body is very important, and real-time monitoring is necessary to prevent them from escalating into secondary safety accidents. In particular, gases such as methane generated from coal storage and ammonia generated from ammonia storage tanks or gas pipes are difficult to visually confirm, so it is necessary to prevent safety accidents by detecting leaks of these gases in advance.
그러나, 종래 가스 경보 및 탐지를 위한 기술의 경우 가스 센서, 비디오 카메라를 활용하는 일부 기술들을 개시하나, 가스의 탐지 및 추적의 정확도에 한계가 있으며, 경보장치와 연동되어 현장 내부의 가스 누출을 모니터링하고 누출 원점을 탐지하는데 인력을 활용하는 경우가 많아 사고 대처에 미흡한 한계가 있다. 따라서, 미리 설정된 가스, 연기 및 불꽃과 같은 표적 객체를 효과적으로 탐지하고 관리하기 위한 기술 개발이 요구되고 있다.However, in the case of conventional gas alarm and detection technology, some technologies utilizing gas sensors and video cameras are disclosed, but there is a limit to the accuracy of gas detection and tracking, and gas leaks within the site are monitored by linking with an alarm device. In many cases, manpower is used to detect the origin of the leak, which has limitations in responding to accidents. Therefore, there is a need to develop technology to effectively detect and manage preset target objects such as gas, smoke, and flame.
일 실시 예에 의하면, 인공지능 기반 유해 가스 실시간 영상화 탐지 시스템 및 이의 동작 방법이 제공될 수 있다.According to one embodiment, an artificial intelligence-based harmful gas real-time imaging detection system and a method of operating the same may be provided.
보다 상세하게는, 상기 시스템에 사용될 수 있는 인공지능 기반 가스 누출을 탐지하는 전자 장치 및 상기 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 형상을 식별하는 방법이 제공될 수 있다.More specifically, an artificial intelligence-based gas leak detecting electronic device that can be used in the system and a method for the artificial intelligence-based gas leak detecting electronic device to identify the shape of a target object may be provided.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 형상을 식별하는 방법은 상기 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 영상들을 획득하는 단계; 상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입 영상들을 획득하는 단계; 및 상기 제1 타입 영상들 및 상기 제2 타입 영상들이 입력되면, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 객체 인식 모델에, 상기 제1 타입 영상들 및 상기 제2 타입 영상들을 입력함으로써, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체 검출 여부를 식별하는 단계; 를 포함할 수 있고, 상기 표적 객체는 연기 객체, 가스 객체 또는 불꽃 객체 중 적어도 하나를 포함할 수 있다.As a technical means for achieving the above-described technical problem, a method of identifying the shape of a target object by an artificial intelligence-based gas leak detection electronic device according to an embodiment includes at least one first type of camera connected to the electronic device. Obtaining first type images of a space to be monitored from; Obtaining second type images of the space to be monitored from at least one second type camera connected to the electronic device; And when the first type images and the second type images are input, an object recognition model that identifies whether a target object in the first type images and the second type images is detected, the first type image identifying whether the target object is detected in the first type images and the second type images by inputting the first type images and the second type images; may include, and the target object may include at least one of a smoke object, a gas object, or a flame object.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 또 다른 실시 예에 의하면, 인공지능 기반 가스 누출을 탐지를 위해, 표적 객체의 형상을 식별하는 전자 장치에 있어서, 네트워크 인터페이스; 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서; 를 포함하고, 상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 영상들을 획득하고, 상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입 영상들을 획득하고, 상기 제1 타입 영상들 및 상기 제2 타입 영상들이 입력되면, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 객체 인식 모델에, 상기 제1 타입 영상들 및 상기 제2 타입 영상들을 입력함으로써, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체 검출 여부를 식별하고, 상기 표적 객체는 연기 객체, 가스 객체 또는 불꽃 객체 중 적어도 하나를 포함하는 것을 특징으로 하는, 전자 장치가 제공될 수 있다.As a technical means for achieving the above-mentioned technical problem, according to another embodiment, an electronic device for identifying the shape of a target object for detecting an artificial intelligence-based gas leak, comprising: a network interface; A memory that stores one or more instructions; and at least one processor executing the one or more instructions; Includes, wherein the at least one processor executes the one or more instructions to obtain first type images of the space to be monitored from at least one first type camera connected to the electronic device, and the at least one processor connected to the electronic device Obtain second type images for the monitoring target space from at least one second type camera, and when the first type images and the second type images are input, the first type images and the second type images The target object in the first type images and the second type images by inputting the first type images and the second type images into an object recognition model that identifies whether the target object in the images is detected. An electronic device may be provided, wherein the target object includes at least one of a smoke object, a gas object, and a flame object.
또한, 상술한 기술적 과제를 달성하기 위한 기술적 수다능로서, 또 다른 실시 예에 의하면, 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 형상을 식별하는 방법에 있어서, 상기 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 영상들을 획득하는 단계; 상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입 영상들을 획득하는 단계; 및 상기 제1 타입 영상들 및 상기 제2 타입 영상들이 입력되면, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 객체 인식 모델에, 상기 제1 타입 영상들 및 상기 제2 타입 영상들을 입력함으로써, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체 검출 여부를 식별하는 단계; 를 포함하고, 상기 표적 객체는 연기 객체, 가스 객체 또는 불꽃 객체 중 적어도 하나를 포함하는 것을 특징으로 하는, 방법을 수행하도록 하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.In addition, as a technical ability to achieve the above-described technical problem, according to another embodiment, in a method for an artificial intelligence-based gas leak detection electronic device to identify the shape of a target object, at least one connected to the electronic device Obtaining first type images of a space to be monitored from a first type of camera; Obtaining second type images of the space to be monitored from at least one second type camera connected to the electronic device; And when the first type images and the second type images are input, an object recognition model that identifies whether a target object in the first type images and the second type images is detected, the first type image identifying whether the target object is detected in the first type images and the second type images by inputting the first type images and the second type images; A computer-readable recording medium storing a program for performing the method may be provided, wherein the target object includes at least one of a smoke object, a gas object, and a flame object.
일 실시 예에 의하면 가스 객체의 형상을 정확하게 식별할 수 있다.According to one embodiment, the shape of a gas object can be accurately identified.
일 실시 예에 의하면 가스 객체의 형상 정보를 식별하고, 식별된 형상 정보에 기초하여 가스 객체의 누출 원점을 효과적으로 탐지할 수 있다.According to one embodiment, the shape information of the gas object can be identified and the leak origin of the gas object can be effectively detected based on the identified shape information.
도 1은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치 및 상기 인공지능 기반 가스 누출을 탐지하는 전자 장치를 포함하는 인공지능 기반 가스 누출 탐지 시스템의 동작 과정을 개략적으로 설명하기 위한 도면이다.
도 2는 또 다른 실시 예에 따른 인공지능 기반 가스 누출 탐지 시스템의 동작 과정을 나타내는 도면이다.
도 3은 일 실시 예에 따른 인공지능 기반 가스 누출 탐지 시스템의 동작 방법을 나타내는 흐름도이다.
도 4는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체 검출 여부를 식별하는 방법의 흐름도이다.
도 5는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 주파수 패턴에 따라 식별되는 표적 객체의 형상 정보를 추출하는 과정을 나타내는 도면이다.
도 6은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 주파수 패턴에 따라 식별되는 표적 객체의 형상 정보를 추출하는 과정을 나타내는 도면이다.
도 7은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 형상 정보를 추출하는 구체적인 방법의 흐름도이다.
도 8은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 형상을 식별하고 이를 추적하는 과정을 설명하기 위한 도면이다.
도 9는 또 다른 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 형상 정보를 추출하는 방법의 흐름도이다.
도 10은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 누출 원점 및 흐름 벡터를 결정하는 구체적인 방법의 흐름도이다.
도 11은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 가스 누출의 탐지를 위한 합성 영상을 생성하는 방법의 흐름도이다.
도 12는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 생성한 누출 영상 및 상기 누출 영상을 파노라마 영상에 합성하는 과정을 설명하기 위한 도면이다.
도 13은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 누출 영상을 생성하는 방법의 흐름도이다.
도 14는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 누출 영상을 생성하는 구체적인 방법의 흐름도이다.
도 15는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 합성 영상을 생성하는 방법의 흐름도이다.
도 16은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 파노라마 영상에 대한 누출 영상의 좌표를 결정하는 방법의 흐름도이다.
도 17은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 레이저 측정 값 및 카메라의 팬틸트 정보에 기초하여 누출 원점에 대한 좌표 변환하는 과정을 나타내는 도면이다.
도 18은 또 다른 실시 예에 따른 인공지능 기반 가스 누출 탐지 시스템의 동작 과정을 나타내는 도면이다.
도 19는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 인공지능 모델을 이용하여 가스 누출을 탐지하는 방법의 흐름도이다.
도 20은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 객체 인식 모델을 학습시키고, 학습된 객체 인식 모델을 활용하는 과정을 나타내는 도면이다.
도 21은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 우도비 검정 모델 및 서포트 벡터 모신 모델을 학습과정을 나타내는 흐름도이다.
도 22은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 우도비 검정 모델 및 서포트 벡터 모신 모델을 학습하는 과정을 설명하기 위한 도면이다.
도 23은 또 다른 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 복수의 소프트웨어 모듈을 이용하여 가스 누출을 탐지하는 과정을 설명하기 위한 도면이다.
도 24는 또 다른 실시 예에 따라, 측정 장치, 인공지능 기반 가스 누출 탐지 서버, 경보/제어 서버 및 관제 장치가 서로 연동함으로써 가스 누출을 탐지하는 과정을 설명하기 위한 도면이다.
도 25는 또 다른 실시 예에 따라, 전자 장치, 경보 장치 및 서버가 서로 연동함으로써 가스 누출을 탐지하는 과정을 설명하기 위한 도면이다.
도 26은 일 실시 예에 따른 전자 장치의 블록도이다.
도 27은 또 다른 실시 예에 따른 전자 장치의 블록도이다.
도 28은 또 다른 실시 예에 따른 가스 누출 탐지 시스템의 장치 구성을 설명하기 위한 도면이다.
도 29는 일 실시 예에 따른 서버의 블록도이다.
도 30은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 제공하는 사용자 인터페이스 화면을 나타내는 도면이다.
도 31은 또 다른 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 제공하는 사용자 인터페이스 화면을 나타내는 도면이다.1 is a diagram schematically illustrating the operation process of an artificial intelligence-based gas leak detection system including an electronic device for detecting an artificial intelligence-based gas leak and an electronic device for detecting the artificial intelligence-based gas leak according to an embodiment. am.
Figure 2 is a diagram showing the operation process of an artificial intelligence-based gas leak detection system according to another embodiment.
Figure 3 is a flowchart showing a method of operating an artificial intelligence-based gas leak detection system according to an embodiment.
Figure 4 is a flowchart of a method for identifying whether an artificial intelligence-based gas leak detection electronic device detects a target object according to an embodiment.
FIG. 5 is a diagram illustrating a process in which an artificial intelligence-based gas leak detecting electronic device extracts shape information of a target object identified according to a frequency pattern, according to an embodiment.
FIG. 6 is a diagram illustrating a process in which an artificial intelligence-based gas leak detecting electronic device extracts shape information of a target object identified according to a frequency pattern according to an embodiment.
Figure 7 is a flowchart of a specific method in which an artificial intelligence-based gas leak detection electronic device extracts shape information of a target object according to an embodiment.
FIG. 8 is a diagram illustrating a process in which an artificial intelligence-based gas leak detection electronic device identifies the shape of a target object and tracks it, according to an embodiment.
Figure 9 is a flowchart of a method in which an artificial intelligence-based gas leak detection electronic device extracts shape information of a target object according to another embodiment.
Figure 10 is a flowchart of a specific method in which an artificial intelligence-based gas leak detection electronic device determines the leak origin and flow vector of a target object according to an embodiment.
Figure 11 is a flowchart of a method in which an artificial intelligence-based gas leak detection electronic device generates a composite image for gas leak detection according to an embodiment.
FIG. 12 is a diagram illustrating a leak image generated by an electronic device for detecting an artificial intelligence-based gas leak and a process of combining the leak image into a panoramic image, according to an embodiment.
Figure 13 is a flowchart of a method in which an artificial intelligence-based gas leak detection electronic device generates a leak image according to an embodiment.
Figure 14 is a flowchart of a specific method in which an artificial intelligence-based gas leak detecting electronic device generates a leak image according to an embodiment.
Figure 15 is a flowchart of a method in which an electronic device for detecting gas leaks based on artificial intelligence generates a composite image according to an embodiment.
Figure 16 is a flowchart of a method by which an artificial intelligence-based gas leak detection electronic device determines the coordinates of a leak image for a panoramic image, according to an embodiment.
FIG. 17 is a diagram illustrating a process in which an electronic device for detecting an artificial intelligence-based gas leak according to an embodiment converts the coordinates of the origin of the leak based on laser measurement values and camera pan-tilt information.
Figure 18 is a diagram showing the operation process of an artificial intelligence-based gas leak detection system according to another embodiment.
Figure 19 is a flowchart of a method in which an artificial intelligence-based gas leak detecting electronic device detects a gas leak using an artificial intelligence model according to an embodiment.
FIG. 20 is a diagram illustrating a process in which an electronic device for detecting an artificial intelligence-based gas leak learns an object recognition model and utilizes the learned object recognition model, according to an embodiment.
Figure 21 is a flowchart showing a process of learning a likelihood ratio test model and a support vector model by an electronic device for detecting gas leaks based on artificial intelligence according to an embodiment.
FIG. 22 is a diagram illustrating a process in which an electronic device for detecting gas leaks based on artificial intelligence learns a likelihood ratio test model and a support vector model according to an embodiment.
FIG. 23 is a diagram illustrating a process in which an artificial intelligence-based gas leak detection electronic device detects a gas leak using a plurality of software modules according to another embodiment.
FIG. 24 is a diagram illustrating a process for detecting a gas leak by linking a measuring device, an artificial intelligence-based gas leak detection server, an alarm/control server, and a control device with each other, according to another embodiment.
FIG. 25 is a diagram illustrating a process for detecting a gas leak by linking an electronic device, an alarm device, and a server with each other, according to another embodiment.
Figure 26 is a block diagram of an electronic device according to an embodiment.
Figure 27 is a block diagram of an electronic device according to another embodiment.
Figure 28 is a diagram for explaining the device configuration of a gas leak detection system according to another embodiment.
Figure 29 is a block diagram of a server according to one embodiment.
Figure 30 is a diagram illustrating a user interface screen provided by an electronic device for detecting an artificial intelligence-based gas leak according to an embodiment.
Figure 31 is a diagram illustrating a user interface screen provided by an electronic device for detecting an artificial intelligence-based gas leak according to another embodiment.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present disclosure will be described in detail.
본 개시에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present disclosure have selected general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but this may vary depending on the intention or precedents of those skilled in the art, the emergence of new technologies, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of this disclosure, rather than simply the name of the term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as "... unit" and "module" used in the specification refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily practice them. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present disclosure in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
도 1은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치 및 상기 인공지능 기반 가스 누출을 탐지하는 전자 장치를 포함하는 인공지능 기반 가스 누출 탐지 시스템의 동작 과정을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating the operation process of an artificial intelligence-based gas leak detection system including an electronic device for detecting an artificial intelligence-based gas leak and an electronic device for detecting the artificial intelligence-based gas leak according to an embodiment. am.
일 실시 예에 의하면 인공지능 기반 가스 누출을 탐지하는 전자 장치(1000)(이하에서는 '전자 장치'로 명명)는 적어도 하나의 타입의 카메라 및 레이저 측정기를 포함하는 카메라 설치셋(102)으로부터 모니터링 대상 공간에 대한 영상 정보들(104)을 획득하고, 획득된 영상들을 인공지능 모델에 입력함으로써, 획득된 영상들 내에 연기, 가스 또는 불꽃 중 적어도 하나를 포함하는 표적 객체가 있는지 여부를 결정할 수 있다. 일 실시 예에 의하면 전자 장치(1000)는 적어도 하나의 타입의 카메라들로부터 적어도 하나의 타입에 따른 복수의 영상들을 인공지능 모델에 입력하고, 인공 지능 모델의 출력 값에 기초하여, 가스 객체, 연기 객체 또는 불꽃 객체 중 적어도 하나를 포함하는 표적 객체가 검출되는 경우, 표적 객체의 형상 정보를 추출하고, 추출된 형상 정보에 기초하여 표적 객체를 모델링 및 추적할 수 있다.According to one embodiment, the electronic device 1000 (hereinafter referred to as 'electronic device') for detecting artificial intelligence-based gas leaks is a monitoring target from a camera installation set 102 including at least one type of camera and a laser measuring device. By acquiring image information 104 about the space and inputting the acquired images into an artificial intelligence model, it can be determined whether there is a target object including at least one of smoke, gas, or flame in the acquired images. According to one embodiment, the electronic device 1000 inputs a plurality of images according to at least one type from at least one type of camera to an artificial intelligence model, and based on the output value of the artificial intelligence model, displays a gas object, smoke, etc. When a target object including at least one of an object or a flame object is detected, shape information of the target object may be extracted, and the target object may be modeled and tracked based on the extracted shape information.
본 명세서에서 인공지능 기반 가스 누출 탐지 시스템(10) 또는 전자 장치(1000)가 탐지하는 표적 객체는 가스 객체, 가스가 공기 중에서 기체상태로 유동함에 따라 가스 입자 및 공기 입자가 일체가 된 상태의 연기 객체, 가스가 연소함에 따라 생성되는 불꽃 객체 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따른 가스 객체, 연기 객체, 불꽃 객체는 가시광선 또는 상기 가시광선과 다른 파장 대의 전자기파(예컨대 적외선 등)를 통해 감지될 수 있다.In this specification, the target object detected by the artificial intelligence-based gas leak detection system 10 or the electronic device 1000 is a gas object, or smoke in which gas particles and air particles are integrated as the gas flows in a gaseous state in the air. It may include at least one of an object and a flame object generated as gas burns. A gas object, a smoke object, or a flame object according to an embodiment may be detected through visible light or electromagnetic waves (eg, infrared, etc.) in a wavelength range different from the visible light.
일 실시 예에 의하면, 전자 장치(1000)가 카메라 설치셋(102)으로부터 획득하는 영상 정보는 저탄장, 암모니아 배관이 설치된 작업 현장을 EO 카메라 또는 OGI 카메라 중 적어도 하나를 이용하여 촬영함으로써 획득되는 가시광선 영상 또는 적외선 영상들일 수 있다. 또한, 가시광선 영상 및 적외선 영상들은 미리 설정된 프레임 간격을 가지는 복수의 가시광선 프레임 이미지들 및 복수의 적외선 프레임 이미지들을 포함할 수 있다.According to one embodiment, the image information that the electronic device 1000 acquires from the camera installation set 102 is visible light obtained by photographing a coal storage site and a work site where ammonia pipes are installed using at least one of an EO camera or an OGI camera. These may be video or infrared images. Additionally, the visible light images and infrared images may include a plurality of visible light frame images and a plurality of infrared frame images having preset frame intervals.
일 실시 예에 의하면, 전자 장치(1000)는 영상 정보(104)들을 분석한 결과, 표적 객체가 검출되는 것으로 식별되는 경우, 경보 장치(132)가 시각적 또는 청각적 컨텐츠를 출력하도록 하는 제어 신호를 전송함으로써 가스 누출과 같은 위험한 상황이 발생하였다는 사실을 작업자들에게 효과적으로 전달할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 모니터링 대상 공간에 인접하게 설치되는 관제 단말(134)과 연결될 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)는 관제 단말로 영상 정보(104) 및 레이저 측정값(108)들을 전달하거나, 전자 장치(10000가 인공 지능 모델을 이용하여 영상 정보(104)를 분석한 결과(예컨대 표적 객체 검출 여부, 표적 객체에 대한 형상 정보, 누출 원점, 가스 누출 여부, 가스 종류에 대한 정보)를 관제 단말(134)로 전송할 수도 있다.According to one embodiment, when the electronic device 1000 analyzes the image information 104 and identifies that a target object is detected, the electronic device 1000 sends a control signal that causes the warning device 132 to output visual or auditory content. By transmitting, the fact that a dangerous situation such as a gas leak has occurred can be effectively communicated to workers. According to one embodiment, the electronic device 1000 may be connected to a control terminal 134 installed adjacent to the monitoring target space. According to one embodiment, the electronic device 1000 transmits image information 104 and laser measurement values 108 to the control terminal, or the electronic device 10000 analyzes the image information 104 using an artificial intelligence model. Results (e.g., whether the target object is detected, shape information about the target object, origin of leak, gas leak, information about the type of gas) may be transmitted to the control terminal 134.
일 실시 예에 의하면, 관제 단말(134)은 카메라 설치셋(102)과 직접 연결될 수도 있으며, 전자 장치(1000) 또는 카메라 설치셋(102)으로부터 획득되는 영상 정보들을 직접 저장함과 함께, 획득된 영상 정보들을 출력할 수 있다. 또한, 관제 단말(134)은 전자 장치(1000)에 포함된 메모리, 프로세서 및 네트워크 인터페이스에 대응되는 구성들을 포함하고, 획득된 영상 정보들을 가스 누출 탐지를 위한 인공지능 모델에 입력함으로써, 표적 객체가 식별되는지 여부, 가스 누출과 같은 이벤트가 탐지되었는지 여부, 표적 객체의 형상 정보들을 결정할 수 있고, 표적 객체 검출과 같은 이벤트가 발생되는 경우 경보 장치(132)로 직접 경고 컨텐츠 출력을 위한 제어 신호를 전송하거나, 표적 객체에 대한 정보들을 디스플레이 장치(예컨대 관제 단말용 모니터)를 통해 직접 출력할 수도 있다. 일 실시 예에 의하면 관제 단말(134)은 인공지능 기반 가스 영상 서버, 경보/제어 서버 및 쿨링 시스템을 포함할 수 있으나, 이에 한정되는 것은 아니며, 작업 현장 내 연산이 필요한 자산에 대한 효율적 처리를 위한 MEC(Multi Access Edge Computing) 서버를 더 포함할 수도 있다. 또한, 관제 단말(134)은 멀티 이더넷 장치를 통해 외부의 여러 장비들과 실시간으로 연결될 수도 있다.According to one embodiment, the control terminal 134 may be directly connected to the camera installation set 102, and directly stores image information obtained from the electronic device 1000 or the camera installation set 102, as well as the acquired image. Information can be printed. In addition, the control terminal 134 includes components corresponding to the memory, processor, and network interface included in the electronic device 1000, and inputs the acquired image information into an artificial intelligence model for gas leak detection, so that the target object It is possible to determine whether an event such as a gas leak is detected, shape information of the target object, and when an event such as target object detection occurs, a control signal for output of warning content is transmitted directly to the alarm device 132. Alternatively, information about the target object may be directly output through a display device (eg, a monitor for a control terminal). According to one embodiment, the control terminal 134 may include an artificial intelligence-based gas imaging server, an alarm/control server, and a cooling system, but is not limited thereto, and is used for efficient processing of assets requiring calculation within the work site. It may further include MEC (Multi Access Edge Computing) servers. Additionally, the control terminal 134 may be connected in real time to various external devices through a multi-Ethernet device.
일 실시 예에 의하면, 관제 서버(140)는 카메라 설치셋(102), 전자 장치(1000), 관제 단말(134) 또는 경보 장치(132)중 적어도 하나와 연결됨으로써 가스 누출 탐지 시스템(10)내 구성들의 동작을 제어할 수 있다. 예를 들어, 관제 서버(140)는 전자 장치(1000)로부터 모니터링 대상 공간에 대한 영상 정보들(104), 표적 객체 검출에 따른 표적 객체에 대한 정보(예컨대 종류, 누출 원점, 실제 카메라 설치셋으로부터의 물리적 위치 정보) 및 합성 영상을 획득하고, 획득된 영상 정보들, 표적 객체에 대한 정보 및 합성 영상을 디스플레이상에 출력할 수 있다. 관제 서버(140)는 수집된 데이터들을 통합 관리함으로써 모니터링 대상 공간에 대한 관리를 용이하게 할 수 있다.According to one embodiment, the control server 140 is connected to at least one of the camera installation set 102, the electronic device 1000, the control terminal 134, or the alarm device 132 within the gas leak detection system 10. You can control the behavior of components. For example, the control server 140 receives image information 104 about the space to be monitored from the electronic device 1000, information about the target object according to target object detection (e.g., type, leak origin, and actual camera installation set). physical location information) and a composite image can be acquired, and the acquired image information, information on the target object, and composite image can be output on the display. The control server 140 can facilitate management of the space to be monitored by integrated management of the collected data.
또한, 일 실시 예에 의하면, 관제 서버(140)는 모니터링 대상 공간에 대한 영상 정보들, 합성 영상 및 표적 객체에 관한 정보를 출력함과 함께, 가스 누출 탐지 및 관리를 위한 사용자 인터페이스를 화면상에 출력할 수 있다. 관제 서버(140)는 출력된 사용자 인터페이스에 대한 관제자들의 사용자 입력에 기초하여 가스 누출 탐지 시스템(10)내 장치들의 동작을 제어함으로써, 가스 누출 시 해당 가스 누출 원점에 대한 모니터링이 지속되도록 할 수 있다. In addition, according to one embodiment, the control server 140 outputs image information about the space to be monitored, synthetic images, and information about the target object, and displays a user interface for detecting and managing gas leaks on the screen. Can be printed. The control server 140 controls the operation of the devices in the gas leak detection system 10 based on the controllers' user input on the output user interface, so that monitoring of the origin of the gas leak can be continued in the event of a gas leak. there is.
또한, 일 실시 예에 의하면, 전자 장치(1000)는 레이저 측정값과 카메라 설치셋(102)의 팬틸트 정보에 기초하여, 추적된 표적 객체에 대해 생성되는 누출 영상의 파노라마 영상에 대한 좌표를 결정하고, 결정된 좌표에 기초하여 표적 객체에 관한 누출 영상을 파노라마 영상에 합성함으로써 합성 영상을 생성하며, 원 영상 정보, 누출 원점, 좌표 정보, 누출 영상 및 합성 영상에 대한 정보를 관제 단말(134) 또는 관제 서버(140) 중 적어도 하나로 전송함으로써, 관제자로 하여금 누출된 표적 가스에 대한 모니터링이 용이하도록 할 수 있다.In addition, according to one embodiment, the electronic device 1000 determines the coordinates of the panoramic image of the leakage image generated for the tracked target object based on the laser measurement value and the pan-tilt information of the camera installation set 102. And, based on the determined coordinates, a composite image is generated by combining the leakage image of the target object with the panoramic image, and information on the original image information, leak origin, coordinate information, leakage image, and composite image is sent to the control terminal 134 or By transmitting to at least one of the control servers 140, the controller can easily monitor the leaked target gas.
또한, 일 실시 예에 의하면, 전자 장치(1000)는 영상 정보를 분석한 결과, 표적 객체에 관한 누출 영상의 파노라마 영상에 대한 영상 상에서의 위치 뿐만 아니라, 실제 누출 원점에 대한 물리적 공간에 대한 위치 정보를 관제 단말(134), 관제 서버(140)로 더 전송할 수도 있다. 예를 들어, 전자 장치(1000)는 카메라 설치셋(102)의 레이저 측정기로부터 레이저 측정값(108)을 획득하고, 획득된 레이저 측정값과 미리 결정된 카메라 설치셋의 위치 정보에 기초하여 카메라 설치셋(102)으로부터 실제 표적 객체가 발생한 물리적 거리 및 상기 실제 표적 객체가 발생한 물리적 공간상에서의 위치를 식별하고, 식별된 물리적 거리 및 위치에 대한 정보를 관제 서버(140)로 제공함으로써 관제자로 하여금 표적 객체가 누출된 위치를 정확하게 인지하도록 할 수 있다.In addition, according to one embodiment, as a result of analyzing the image information, the electronic device 1000 provides not only the location on the image of the panoramic image of the leak image of the target object, but also location information about the physical space of the actual leak origin. may be further transmitted to the control terminal 134 and the control server 140. For example, the electronic device 1000 acquires the laser measurement value 108 from the laser measuring device of the camera installation set 102, and sets the camera installation set based on the obtained laser measurement value and predetermined position information of the camera installation set. Identify the physical distance where the actual target object occurs from (102) and the location in physical space where the actual target object occurs, and provide information on the identified physical distance and location to the control server 140 to enable the controller to detect the target object. You can accurately recognize the location of the leak.
또한, 일 실시 예에 의하면 인공지능 기반 가스 누출을 탐지하는 전자 장치(1000)는 카메라 설치셋(102)으로부터 획득된 영상 정보들을 인공 지능 모델에 입력함으로써 분석한 결과, 표적 객체가 검출되는 것으로 식별되는 경우, 소정의 이벤트가 발생한 것으로 결정하고, 경보 장치(132)로 제어 신호를 전송함으로써 시각적 또는 청각적 경고 컨텐츠들이 출력되도록 할 수 있다.In addition, according to one embodiment, the electronic device 1000 for detecting an artificial intelligence-based gas leak analyzes image information obtained from the camera installation set 102 by inputting it into an artificial intelligence model, and identifies that a target object is detected. If so, it is determined that a predetermined event has occurred, and a control signal is transmitted to the warning device 132 to output visual or auditory warning contents.
일 실시 예에 의하면, 전자 장치(1000)는 가스 누출 탐지를 위해 필요한 소프트웨어 모듈들(예컨대 가스 누출 탐지를 위한 하나 이상의 인스트럭션 집합들)을 저장할 수 있고, 프로세서(120)는 상기 메모리(122)에 저장된 하나 이상의 인스트럭션을 실행함으로써 가스 누출 탐지 프로세스를 수행할 수 있다. 또한, 네트워크 인터페이스(126)는 전자 장치(1000)와 연결된 다른 전자 장치들로부터 데이터를 획득하건, 전송하는 기능을 수행할 수 있다.According to one embodiment, the electronic device 1000 may store software modules necessary for gas leak detection (e.g., one or more instruction sets for gas leak detection), and the processor 120 may store the software modules required for gas leak detection in the memory 122. The gas leak detection process can be performed by executing one or more stored instructions. Additionally, the network interface 126 may perform a function of obtaining or transmitting data from other electronic devices connected to the electronic device 1000.
일 실시 예에 의하면, 도 1에 도시된 가스 누출 탐지 시스템(10)은 카메라 설치셋(102), 전자 장치(1000), 경보 장치(132), 관제 단말(134) 및 관제 서버(140)를 포함할 수 있으며, 가스 누출 탐지를 위한 기타 장치를 더 포함할 수도 있다. 또한, 일 실시 예에 따른 가스 누출 탐지 시스템(10) 내 장치들은 적어도 하나의 네트워크를 통해 서로 연결될 수 있다. 일 실시 예에 따른 가스 누출 탐지 시스템(10)내 장치들 사이의 데이터 전송 시 미리 설정된 데이터 손실률(예컨대 5% 미만) 및 미리 설정된 데이터 전송 주기(예컨대 1초 미만)에 따라 데이터들이 전송될 수 있으나, 이에 한정되는 것은 아니다.According to one embodiment, the gas leak detection system 10 shown in FIG. 1 includes a camera installation set 102, an electronic device 1000, an alarm device 132, a control terminal 134, and a control server 140. It may include, and may further include other devices for detecting gas leaks. Additionally, devices in the gas leak detection system 10 according to one embodiment may be connected to each other through at least one network. When transmitting data between devices in the gas leak detection system 10 according to an embodiment, data may be transmitted according to a preset data loss rate (e.g., less than 5%) and a preset data transmission period (e.g., less than 1 second). , but is not limited to this.
일 실시 예에 의하면 적어도 하나의 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망, 각 네트워크 구성 주체들이 통신을 할 수 있도록 하는 포괄적 의미의 데이터 통신망 및 이들의 상호 조합을 포함할 수 있다.According to one embodiment, the at least one network is a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile radio communication network, and a satellite. It may include a communication network, a comprehensive data communication network that allows each network constituent to communicate, and their mutual combination.
본 개시에 따른 가스 누출 탐지 시스템(10) 및 전자 장치(1000)는 광범위한 저탄장 모니터링 시스템에 사용되거나, 대량의 암모니아 저장 탱크/가스배관이 설치된 공간의 모니터링 시스템에 사용될 수 있으나, 이에 한정되는 것은 아니며, 가스 객체, 연기 객체 또는 불꽃 객체 중 적어도 하나를 포함하는 표적 객체들의 추적 및 모니터링이 필요한 작업 현장에 사용될 수 있다.The gas leak detection system 10 and the electronic device 1000 according to the present disclosure may be used in a wide range of coal storage monitoring systems, or may be used in a monitoring system in a space where a large amount of ammonia storage tank/gas pipe is installed, but are not limited thereto. , can be used in work sites that require tracking and monitoring of target objects including at least one of gas objects, smoke objects, or flame objects.
도 2는 또 다른 실시 예에 따른 인공지능 기반 가스 누출 탐지 시스템의 동작 과정을 나타내는 도면이다.Figure 2 is a diagram showing the operation process of an artificial intelligence-based gas leak detection system according to another embodiment.
도 2를 참조하여 또 다른 실시 예에 따른 인공지능 기반 가스 누출 탐지 시스템(20)의 동작 과정을 설명하기로 한다. 일 실시 예에 의하면 인공지능 기반 가스 누출 탐지 시스템(20)은 카메라 설치셋(210), AI 가스영상 탐지 서버(222), 경보/제어 서버(224), 가스 누출 알람 및 경보 장치(230) 및 관제 단말기(228), 상황실 영상 시스템(242)을 포함할 수 있다. 일 실시 예에 의하면 카메라 설치셋(210)은 가스 이미징 카메라(212)(예컨대 Optical Gas Imaging, OGI 카메라), EO 카메라(예컨대 Electro-Optical, EO) 및 레이저 측정기를 포함할 수 있다.The operation process of the artificial intelligence-based gas leak detection system 20 according to another embodiment will be described with reference to FIG. 2. According to one embodiment, the artificial intelligence-based gas leak detection system 20 includes a camera installation set 210, an AI gas image detection server 222, an alarm/control server 224, a gas leak alarm and warning device 230, and It may include a control terminal 228 and a situation room video system 242. According to one embodiment, the camera installation set 210 may include a gas imaging camera 212 (eg, Optical Gas Imaging, OGI camera), an EO camera (eg, Electro-Optical, EO), and a laser measuring device.
일 실시 예에 의하면 가스 이미징 카메라(212)는 물체에서 방출되는 적외선 복사 에너지를 전자적으로 센싱함으로써, 눈에 보이지 않는 가스 객체들에 대한 이미지 또는 미리 설정된 프레임 간격의 복수의 이미지들을 포함하는 적외선 영상을 생성하는 카메라일 수 있다. 또한, 일 실시 예에 의하면, EO 카메라는 물체에서 반사되는 가시 광선을 이미지 센서를 통해 센싱함으로써 가시 광선 이미지 또는 미리 설정된 프레임 간격의 복수의 가시광선 이미지들을 포함하는 가시광선 영상을 생성하는 카메라일 수 있다.According to one embodiment, the gas imaging camera 212 electronically senses infrared radiant energy emitted from an object, thereby generating an infrared image including images of invisible gas objects or a plurality of images at preset frame intervals. It may be a camera that creates. Additionally, according to one embodiment, the EO camera may be a camera that generates a visible light image or a visible light image including a plurality of visible light images at preset frame intervals by sensing visible light reflected from an object through an image sensor. there is.
일 실시 예에 의하면 레이저 측정기(214)는 레이저를 방출하고, 방출된 레이저가 대상 객체에 반사됨에 따른 시간을 측정함으로써 레이저 측정기(214) 또는 카메라 설치셋(210)으로부터 대상 객체까지의 거리 값을 나타내는 레이저 측정 값을 획득할 수 있다. 카메라 설치셋(210)은 적외선 영상들, 가시광선 영상들 및 레이저 측정 값을 가스 누출 탐지 시스템(10)내 적어도 하나의 장치들로 전송할 수 있다. 일 실시 예에 의하면, 가스 이미징 카메라(212) 및 EO 카메라(216)의 촬영 화각, 촬영 주기는 서로 다르게 설정될 수 있으며, 가스 이미징 카메라(212) 및 EO 카메라(216)가 적외선 영상들 및 가시광선 영상들을 전송하는 동작 조건은 사용자 입력 조건에 따라 미리 설정될 수 있다.According to one embodiment, the laser measurer 214 emits a laser and measures the time when the emitted laser is reflected by the target object to determine the distance value from the laser measurer 214 or the camera installation set 210 to the target object. It is possible to obtain laser measurement values that represent The camera installation set 210 may transmit infrared images, visible light images, and laser measurement values to at least one device in the gas leak detection system 10. According to one embodiment, the shooting angle of view and shooting cycle of the gas imaging camera 212 and the EO camera 216 may be set differently, and the gas imaging camera 212 and the EO camera 216 may capture infrared images and visible images. Operating conditions for transmitting light images may be set in advance according to user input conditions.
일 실시 예에 의하면, AI 가스 영상 탐지 서버(222)는 카메라 설치셋(210)으로부터 획득된 영상들에 나타나는 표적 객체를 탐지하고, 탐지된 표적 객체의 누출 원점을 식별하며, 표적 객체에 대한 누출 영상을 파노라마 영상에 합성함으로써 시각화하는 기능을 수행할 수 있다. 일 실시 예에 의하면, 경보/제어 서버(224)는 표적 객체 검출에 따른 이벤트 발생이 탐지되면 가스누출 알람 및 경보 신호를 경보 장치로 전송할 수 있다. 또한, 경보/제어 서버(224)는 카메라 설치셋(210)에서 획득되는 영상 정보들, 상기 표적 객체에 관한 누출 영상 및 합성 영상들을 저장할 수 있다. According to one embodiment, the AI gas image detection server 222 detects a target object appearing in images acquired from the camera installation set 210, identifies the origin of leakage of the detected target object, and detects leakage of the target object. The visualization function can be performed by combining images into a panoramic image. According to one embodiment, the alarm/control server 224 may transmit a gas leak alarm and an alarm signal to the alarm device when an event occurring due to detection of a target object is detected. Additionally, the alarm/control server 224 may store image information acquired from the camera installation set 210, leaked images and synthesized images regarding the target object.
또한, 경보/제어 서버(224)는 사용자 입력에 기초하여 저장된 영상들에 대한 검색 기능, 가스 누출 탐지 시스템(20)내 장치 동작 환경을 설정하기 위한 환경설정 기능, 가스 누출 탐지 시스템(20)내 장치들의 동작 제어를 위한 동작 제어 기능을 제공할 수도 있다. 일 실시 예에 의하면 경보/제어 서버(224)는 TCP/IP를 통해 이벤트 발생 신호 데이터를 경보 장치 또는 상황실 영상 시스템(242)으로 송수신할 수 있다.In addition, the alarm/control server 224 has a search function for stored images based on user input, an environment setting function for setting the device operation environment within the gas leak detection system 20, and a function for setting the device operation environment within the gas leak detection system 20. An operation control function may be provided to control the operation of devices. According to one embodiment, the alarm/control server 224 may transmit and receive event occurrence signal data to the alarm device or situation room video system 242 through TCP/IP.
관제 단말기(228)의 동작은 도 1에 도시된 관제 단말(134)의 동작에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다. 상황실 영상 시스템(242)은 도 2에 도시된 바와 같이, 표적 객체가 검출되는 경우, 표적 객체에 대한 누출 영상을 파노라마 영상에 합성함으로써 생성되는 합성 영상을 출력할 수 있다. 상황실 영상 시스템(242)의 동작은 도 1에 도시된 관제 서버(140)의 동작에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.Since the operation of the control terminal 228 may correspond to the operation of the control terminal 134 shown in FIG. 1, detailed description will be omitted. As shown in FIG. 2 , when a target object is detected, the situation room imaging system 242 may output a composite image generated by combining a leaked image of the target object with a panoramic image. Since the operation of the situation room video system 242 may correspond to the operation of the control server 140 shown in FIG. 1, detailed description will be omitted.
도 3은 일 실시 예에 따른 인공지능 기반 가스 누출 탐지 시스템의 동작 방법을 나타내는 흐름도이다.Figure 3 is a flowchart showing a method of operating an artificial intelligence-based gas leak detection system according to an embodiment.
도 3을 참조하여 일 실시 예에 따른 인공지능 기반 가스 누출 탐지 시스템의 동작 방법을 설명하기로 한다. 도 3에 도시된 인공지능 기반 가스 누출 탐지 시스템의 동작은 도 1에 도시된 전자 장치(1000)에 의해서도 수행될 수도 있음은 물론이다.Referring to FIG. 3, a method of operating an artificial intelligence-based gas leak detection system according to an embodiment will be described. Of course, the operation of the artificial intelligence-based gas leak detection system shown in FIG. 3 may also be performed by the electronic device 1000 shown in FIG. 1.
S302에서, 가스 누출 탐지 시스템(10)은 EO 영상 및 OGI 영상을 획득할 수 있다. 예를 들어, 가스 누출 탐지 시스템(10)은 적어도 하나의 EO 카메라 및 적어도 하나의 OGI 카메라로부터 복수의 EO 영상들 및 OGI 영상들을 획득할 수 있다. S304에서, 가스 누출 탐지 시스템(10)은 S304에서 획득된 영상들을 객체 인식 모델(304)에 입력할 수 있다. 예를 들어, 가스 누출 탐지 시스템(10)은 적어도 하나의 EO 카메라로부터 획득된 EO 영상 및 적어도 하나의 OGI 카메라로부터 획득된 OGI 영상들을 객체 인식 모델에 입력할 수 있다.At S302, the gas leak detection system 10 may acquire an EO image and an OGI image. For example, the gas leak detection system 10 may acquire a plurality of EO images and OGI images from at least one EO camera and at least one OGI camera. At S304, the gas leak detection system 10 may input the images acquired at S304 into the object recognition model 304. For example, the gas leak detection system 10 may input EO images acquired from at least one EO camera and OGI images acquired from at least one OGI camera into an object recognition model.
도 3에는 도시되지 않았지만, 일 실시 예에 의하면 가스 누출 탐지 시스템(10)은 EO 영상 및 OGI 영상을 획득하고, 획득된 EO 영상 및 OGI 영상에 대한 이진화, 리사이징, 노멀라이즈(Normalize), 데이터 증강(Data Augmentation) 와 같은 전처리 과정을 수행할 수 있다. 가스 누출 탐지 시스템(10)은 전처리된 EO 영상 및 OGI 영상들을 객체 인식 모델에 입력함으로써 객체 인식 정확도를 향상시킬 수 있다.Although not shown in FIG. 3, according to one embodiment, the gas leak detection system 10 acquires an EO image and an OGI image, and performs binarization, resizing, normalization, and data augmentation on the acquired EO image and OGI image. Preprocessing processes such as (Data Augmentation) can be performed. The gas leak detection system 10 can improve object recognition accuracy by inputting preprocessed EO images and OGI images into an object recognition model.
S306에서, 가스 누출 탐지 시스템(10)은 S302에서 객체 인식 모델의 출력 값에 기초하여 영상들로부터 표적 객체가 검출되는지 여부를 식별할 수 있다. 일 실시 예에 의하면, 객체 인식 모델(304)은 카메라 영상들이 입력되면 가스 객체, 연기 객체 또는 불꽃 객체 중 적어도 하나에 관한 표적 객체 또는 상기 표적 객체를 적어도 일부에 포함하는 객체 후보 영역을 출력하도록 미리 학습되는 인공지능 모델일 수 있다. 일 실시 예에 의하면, 객체 인식 모델은 손실(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 수정 및 갱신되는 신경망 모델일 수 있다.In S306, the gas leak detection system 10 may identify whether a target object is detected from the images based on the output value of the object recognition model in S302. According to one embodiment, when camera images are input, the object recognition model 304 is configured in advance to output a target object related to at least one of a gas object, a smoke object, or a flame object, or an object candidate area including at least a portion of the target object. It may be an artificial intelligence model that is being learned. According to one embodiment, the object recognition model may be a neural network model in which a plurality of weights are modified and updated so that loss or cost values are reduced or minimized.
예를 들어, 객체 인식 모델은 가스 객체, 불꽃 객체 또는 연기 객체에 대한 이미지 또는 영상 학습 데이터에 기초하여 학습됨으로써, 영상 또는 이미지 내 가스 객체, 불꽃 객체 또는 연기 객체를 적어도 일부에 포함하는 객체 후보 영역을 출력함과 함께, 객체 후보 영역 내 표적 객체에 대한 픽셀 정보, 객체 후보 영역의 이미지상에서의 좌표 정보를 함께 출력하도록 마련될 수 있다. 예를 들어, 객체 인식 모델(304)은 CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 일 수 있으나, 이에 한정되는 것은 아니다. 또한, 객체 인식 모델(304)은 EO 영상들 또는 OGI 영상들 내 픽셀 값에 기초하여, 소정의 객체 후보 영역이 표적 객체에 대응될 확률 값을 결정하고, 결정된 확률 값에 기초하여 소정의 우선 순위에 따른 객체 후보 영역을 출력하도록 학습되는 YOLO, R-CNN, SSD 와 같은 객체 컴퓨터 비전 모델일 수 있다.For example, the object recognition model is learned based on images or image learning data for gas objects, flame objects, or smoke objects, such that object candidate regions at least partially include gas objects, flame objects, or smoke objects in the images or images. In addition to outputting, pixel information about the target object in the object candidate area and coordinate information on the image of the object candidate area may be arranged to be output together. For example, the object recognition model 304 may include a Convolutional Neural Network (CNN), a Deep Neural Network (DNN), a Recurrent Neural Network (RNN), a Restricted Boltzmann Machine (RBM), a Deep Belief Network (DBN), and a Bidirectional Recurrent Neural Network (BRDNN). It may be, but is not limited to, Deep Neural Network) or Deep Q-Networks. Additionally, the object recognition model 304 determines a probability value that a predetermined object candidate area corresponds to a target object based on pixel values in EO images or OGI images, and determines a predetermined priority value based on the determined probability value. It may be an object computer vision model such as YOLO, R-CNN, or SSD that is learned to output an object candidate area according to .
S308에서, 가스 누출 탐지 시스템(10)은 객체 인식 모델을 이용하여 EO 영상들 및 OGI 영상들로부터 표적 객체가 검출되지 않는 것으로 식별되는 경우, OGI 영상을 주파수 변환함으로써 변환 영상 정보를 생성할 수 있다. 예를 들어, 가스 누출 탐지 시스템(10)은 객체 인식 모델을 이용하여 표적 객체가 검출되지 않는 것으로 1차적으로 식별되는 경우, 적외선 영상인 OGI 영상에 DFT 이산 푸리에 변환을 적용함으로써 주파수 도메인의 변환 영상 정보를 생성할 수 있다. 일 실시 예에 의하면 변환 영상 정보는 주파수 별 크기 및 위상 정보를 포함하는 주파수 패턴을 포함할 수 있다.At S308, when the gas leak detection system 10 identifies that the target object is not detected from the EO images and OGI images using an object recognition model, the OGI image may be frequency converted to generate converted image information. . For example, when the gas leak detection system 10 primarily identifies that the target object is not detected using an object recognition model, the transformed image in the frequency domain is obtained by applying DFT discrete Fourier transform to the OGI image, which is an infrared image. Information can be generated. According to one embodiment, the converted image information may include a frequency pattern including magnitude and phase information for each frequency.
S310에서, 가스 누출 탐지 시스템(10)은 변환 영상 정보가 입력되면 표적 객체에 따른 주파수 패턴이 존재하는지 여부를 식별하는 우도비 검정 모델(310)에 변환 영상 정보를 입력함으로써 표적 객체에 따른 주파수 패턴을 분석할 수 있다. S312에서, 가스 누출 탐지 시스템(10)은 우도비 검정 모델(310)을 변환 영상 정보에 적용함에 따라 우도비 검정 모델(310)의 출력 값에 기초하여, 표적 객체에 따른 주파수 패턴이 식별되는지 여부를 결정할 수 있다.In S310, the gas leak detection system 10 inputs the converted image information into the likelihood ratio test model 310, which identifies whether a frequency pattern according to the target object exists when the converted image information is input, thereby forming a frequency pattern according to the target object. can be analyzed. In S312, the gas leak detection system 10 applies the likelihood ratio test model 310 to the converted image information and determines whether a frequency pattern according to the target object is identified based on the output value of the likelihood ratio test model 310. can be decided.
S314에서, 가스 누출 탐지 시스템(10)은 우도비 검정 모델을 이옹한 결과 변환 영상 정보로부터 표적 객체에 따른 주파수 패턴이 식별되지 않는 경우, SVM 모델(314)(예컨대 서포트 벡터 머신 모델, Support Vector Machine)을 변환 영상 정보에 적용함으로써, 변환 영상 정보 내 표적 객체에 따른 주파수 패턴을 재 분석한다. S316에서, 가스 누출 탐지 시스템(10)은 SVM 모델의 출력 값에 기초하여 변환 영상 정보 내 표적 객체에 따른 주파수 패턴이 있는지 여부를 식별할 수 있다.In S314, if the frequency pattern according to the target object is not identified from the converted image information as a result of converting the likelihood ratio test model, the gas leak detection system 10 uses the SVM model 314 (e.g., Support Vector Machine model) ) is applied to the converted image information to reanalyze the frequency pattern according to the target object in the converted image information. In S316, the gas leak detection system 10 may identify whether there is a frequency pattern according to the target object in the converted image information based on the output value of the SVM model.
S322에서, 가스 누출 탐지 시스템(10)은 S306에서 객체 인식 모델에 EO 영상들 및 OGI 영상들을 입력한 결과 표적 객체가 검출되는 것으로 결정되는 경우, 표적 객체가 검출된 EO 영상들 또는 표적 객체가 검출된 OGI 영상들 내 표적 객체를 배경과 분리할 수 있다. 예를 들어, 가스 누출 탐지 시스템(10)은 검출된 표적 객체 정보에 기초하여 마스킹 데이터를 생성하고, 생성된 마스킹 데이터를 EO 영상들 및 OGI 영상들에 적용함으로써 표적 객체 영역들을 분리할 수 있다.In S322, if the gas leak detection system 10 determines that the target object is detected as a result of inputting the EO images and OGI images to the object recognition model in S306, EO images in which the target object is detected or the target object is detected Target objects in OGI images can be separated from the background. For example, the gas leak detection system 10 may generate masking data based on detected target object information and separate target object areas by applying the generated masking data to EO images and OGI images.
S324에서, 가스 누출 탐지 시스템(10)은 분리된 표적 객체 영역으로부터 객체의 형상을 검출할 수 있다. 예를 들어, 가스 누출 탐지 시스템(10)은 표적 객체 영역 내 외곽선 정보, 중심점 정보, 방향 벡터를 표적의 객체 형상 정보로 출력할 수 있다. S326에서, 가스 누출 탐지 시스템(10)은 표적 객체 영역들에 나타나는 형상 정보에 기초하여 표적 객체가 생성된 위치에 관한 누출 원점 및 상기 표적 객체의 흐름 방향과 속도에 관한 흐름 벡터를 결정할 수 있다.At S324, the gas leak detection system 10 may detect the shape of the object from the separated target object area. For example, the gas leak detection system 10 may output outline information, center point information, and direction vector within the target object area as object shape information of the target. In S326, the gas leak detection system 10 may determine a leak origin regarding the location where the target object was created and a flow vector regarding the flow direction and speed of the target object based on shape information appearing in the target object areas.
S328에서, 가스 누출 탐지 시스템(10)은 누출 원점 및 흐름 벡터에 기초하여 거리좌표 및 구면 좌표를 식별하고, 식별된 좌표에 따라 결정되는 위치 정보들을 변환할 수 있다. 구체적으로, 가스 누출 탐지 시스템(10)은 누출 원점 및 흐름 벡터에 기초하여 영상에서 표적 객체가 식별되는 것으로 결정된 위치에 레이저를 송수신함으로써 레이저 측정 값을 획득하고, 획득된 레이저 측정값에 기초하여 카메라 설치셋으로부터 누출 원점까지의 거리를 획득할 수 있다. 또한, 가스 누출 탐지 시스템(10)은 해당 누출 원점을 모니터링하는 카메라 설치셋의 팬틸트 정보를 획득할 수 있다. In S328, the gas leak detection system 10 may identify distance coordinates and spherical coordinates based on the leak origin and flow vector, and convert location information determined according to the identified coordinates. Specifically, the gas leak detection system 10 acquires laser measurement values by transmitting and receiving a laser at a location where a target object is determined to be identified in the image based on the leak origin and flow vector, and based on the obtained laser measurement values, the camera The distance from the installation set to the origin of the leak can be obtained. Additionally, the gas leak detection system 10 can acquire pan-tilt information of a camera installation set that monitors the origin of the leak.
본 개시에 따른 가스 누출 탐지 시스템(10)은 카메라 설치셋으로부터 누출 원점까지의 거리 및 카메라 팬틸트 정보에 기초하여 구면 좌표계에서의 제1 좌표 값을 결정할 수 있다. 가스 누출 탐지 시스템(10)은 결정된 구면 좌표계에서 제1 좌표 값을 직교 좌표계의 제2 좌표 값으로 변환하고, 직교 좌표계로 변환된 제2 좌표 값에 카메라 왜곡 값을 반영함으로써 제3 좌표 값을 생성할 수 있다. 가스 누출 탐지 시스템(10)은 제 3 좌표 값에 기초하여, 표적 객체가 발생한 누출 영상의 파노라마 영상에 대한 기준 위치를 식별하고, 식별된 기준 위치에 따라 누출 영상을 파노라마 영상에 합성할 수 있다.The gas leak detection system 10 according to the present disclosure can determine the first coordinate value in a spherical coordinate system based on the distance from the camera installation set to the leak origin and camera pan/tilt information. The gas leak detection system 10 generates a third coordinate value by converting the first coordinate value in the determined spherical coordinate system into a second coordinate value in the Cartesian coordinate system and reflecting the camera distortion value in the second coordinate value converted to the Cartesian coordinate system. can do. The gas leak detection system 10 may identify the reference position of the panoramic image of the leak image where the target object occurs based on the third coordinate value, and synthesize the leak image into the panoramic image according to the identified reference position.
S330에서, 가스 누출 탐지 시스템(10)은 제3 좌표 값에 기초하여, 파노라마 영상에 누출 영상을 합성함으로써 합성 영상을 생성할 수 있다. S332에서, 가스 누출 탐지 시스템(10)은 합성 영상을 저장하고, 저장된 합성 영상을 가스 누출 탐지 시스템(10)에 대한 사용자 입력에 기초하여 출력할 수 있다. 일 실시 예에 의하면 가스 누출 탐지 시스템(10)은 저장된 합성 영상에 액세스하는 사용자 입력에 기초하여 저장된 합성 영상의 적어도 일부를 검색 및 검색된 합성 영상의 일부를 재생할 수 있다.In S330, the gas leak detection system 10 may generate a composite image by combining the leak image with the panoramic image based on the third coordinate value. In S332, the gas leak detection system 10 may store the composite image and output the stored composite image based on a user input to the gas leak detection system 10. According to one embodiment, the gas leak detection system 10 may search for at least a portion of the stored composite image based on a user input accessing the stored composite image and reproduce a portion of the retrieved composite image.
도 4는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체 검출 여부를 식별하는 방법의 흐름도이다.Figure 4 is a flowchart of a method for identifying whether an artificial intelligence-based gas leak detection electronic device detects a target object according to an embodiment.
S410에서, 전자 장치(1000)는 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 영상들을 획득할 수 있다. 예를 들어, 제1 타입의 카메라는 EO 카메라를 포함하고, 제1 타입 영상들은 미리 설정된 프레임 간격을 가지는 가시광선 영상들일 수 있다. S420에서, 전자 장치(1000)는 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 모니터링 대상 공간에 대한 제2 타입 영상들을 획득할 수 있다. 예를 들어, 제2 타입의 카메라는 OGI 카메라이고, 제2 타입 영상들은 미리 설정된 프레임 간격의 복수의 적외선 이미지들을 포함하는 적외선 영상일 수 있다. 일 실시 예에 의하면, 전자 장치(1000)가 연결되는 제1 타입의 카메라 및 제2 타입의 카메라의 모니터링 대상 공간에 대한 화각, 이미지 획득 주기와 같은 촬영 파라미터는 서로 다르게 마련될 수 있다. In S410, the electronic device 1000 may acquire first type images of the space to be monitored from at least one first type camera connected to the electronic device. For example, the first type of camera includes an EO camera, and the first type images may be visible light images with a preset frame interval. In S420, the electronic device 1000 may acquire second type images of the space to be monitored from at least one second type camera connected to the electronic device. For example, the second type of camera may be an OGI camera, and the second type images may be infrared images including a plurality of infrared images at preset frame intervals. According to one embodiment, the shooting parameters such as the angle of view and the image acquisition period for the monitoring target space of the first type camera and the second type camera to which the electronic device 1000 is connected may be prepared differently.
S430에서, 전자 장치(1000)는 제1 타입 영상들 및 상기 제2 타입 영상들이 입력되면, 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 객체 인식 모델에 제1 타입 영상들 및 제2 타입 영상들을 입력함으로써, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체 검출 여부를 식별할 수 있다. 일 실시 예에 의하면, 객체 인식 모델은 가시 광선 영상들 및 적외선 영상들 각각으로부터 가스 객체, 연기 객체 또는 불꽃 객체 중 적어도 하나에 관한 표적 객체를 적어도 일부에 포함하는 객체 후보 영역을 출력하도록 미리 학습되는 인공지능 모델일 수 있다. 객체 인식 모델은 공지의 손실함수를 이용하여 손실(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 수정 및 갱신되는 신경망 모델로 표적 객체를 포함하는 객체 후보 영역을 구성하는 픽셀의 이미지상 좌표 정보, 외곽선 정보, 객체 후보 영역의 바운더리를 나타내는 경계 정보, 인식된 표적 객체의 종류 정보를 출력할 수 있다.In S430, when first type images and the second type images are input, the electronic device 1000 uses an object recognition model to identify whether a target object is detected in the first type images and the second type images. By inputting first type images and second type images, it is possible to identify whether a target object is detected in the first type images and the second type images. According to one embodiment, the object recognition model is pre-trained to output an object candidate area that includes at least a target object related to at least one of a gas object, a smoke object, or a flame object from each of the visible light images and the infrared images. It could be an artificial intelligence model. The object recognition model is a neural network model in which a plurality of weights are modified and updated to reduce or minimize the loss or cost value using a known loss function. The pixels that make up the object candidate area containing the target object are Coordinate information on the image, outline information, boundary information indicating the boundary of the object candidate area, and type information of the recognized target object can be output.
일 실시 예에 의하면, 전자 장치(1000)의 영상 정보들에 대한 객체 인식 정확도는 70% 이상일 수 있으나, 이에 한정되는 것은 아니며, 후술하는 적어도 하나의 인공 지능 모델을 이용한 가스 누출의 인식 정확도는 99% 이상일 수 있으나, 역시 이에 한정되는 것은 아니다. 또한, 도 4에는 도시되지 않았지만, 전자 장치(1000)는 적어도 하나의 인공 지능 모델을 통해 제1 타입 영상들 및 제2 타입 영상들에서 표적 객체가 검출되는지 여부를 식별하고, 식별된 표적 객체를 미리 설정된 해상도 및 영상 속도로 추적 및 모니터링할 수 있다.According to one embodiment, the object recognition accuracy for image information of the electronic device 1000 may be 70% or more, but is not limited thereto, and the recognition accuracy of a gas leak using at least one artificial intelligence model, which will be described later, may be 99% or more. It may be more than %, but it is not limited to this. In addition, although not shown in FIG. 4, the electronic device 1000 identifies whether a target object is detected in the first type images and the second type images through at least one artificial intelligence model, and detects the identified target object. It can be tracked and monitored at preset resolutions and video speeds.
도 4에는 도시되지 않았지만, 일 실시 예에 따른 전자 장치(1000)는 제1 타입 영상들 및 제2 타입 영상들 중 적어도 하나로부터 표적 객체가 검출되는 것으로 식별되는 경우, 표적 객체가 검출된 타입의 영상들로부터 표적 객체의 형상 정보를 추출할 수 있다. 전자 장치(1000)가 표적 객체의 형상 정보를 추출하는 구체적인 방법은 후술하는 도 7 내지 도 9를 참조하여 구체적으로 설명하기로 한다.Although not shown in FIG. 4, when it is identified that a target object is detected from at least one of the first type images and the second type images, the electronic device 1000 according to an embodiment selects a type for which the target object is detected. Shape information of the target object can be extracted from images. A specific method for the electronic device 1000 to extract shape information of a target object will be described in detail with reference to FIGS. 7 to 9 described later.
도 5는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 주파수 패턴에 따라 식별되는 표적 객체의 형상 정보를 추출하는 과정을 나타내는 도면이다.FIG. 5 is a diagram illustrating a process in which an artificial intelligence-based gas leak detecting electronic device extracts shape information of a target object identified according to a frequency pattern, according to an embodiment.
S510에서, 전자 장치(1000)는 객체 인식 모델의 출력 값에 기초하여, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체가 검출되지 않는 것으로 식별되는 경우, 제2 타입 영상들을 푸리에 변환함으로써 주파수 도메인상의 변환 영상 정보를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 객체 인식 모델을 이용하여 1차적으로 제1 타입 영상들 및 제2 타입 영상들로부터 표적 객체가 검출되지 않는 것으로 식별되는 경우, 적외선 영상들인 제2 타입 영상들을 이산 푸리에 변환(discrete Fourier transform, DFT)함으로써 주파수 도메인 상의 변환 영상 정보를 생성할 수 있다. 도 5에는 도시되지 않았지만, 또 다른 실시 예에 의하면, 전자 장치(1000)는 제2 타입 영상들을 전처리하고 전처리된 제2 타입 영상들을 푸리에 변환함으로써 주파수 도메인상의 변환 영상 정보들을 생성할 수도 있다.In S510, when the electronic device 1000 identifies that the target object is not detected in the first type images and the second type images based on the output value of the object recognition model, the electronic device 1000 generates second type images. Transformed image information in the frequency domain can be generated by Fourier transform. For example, when the electronic device 1000 identifies that the target object is not primarily detected from the first type images and the second type images using an object recognition model, it uses the object recognition model to generate second type images that are infrared images. Transformed image information in the frequency domain can be generated by using discrete Fourier transform (DFT). Although not shown in FIG. 5, according to another embodiment, the electronic device 1000 may generate transformed image information in the frequency domain by preprocessing second type images and performing Fourier transform on the preprocessed second type images.
S520에서, 전자 장치(1000)는 변환 영상 정보로부터 표적 객체 및 표적 객체 주변의 배경 간섭 물질 각각에 대한 스펙트럼 정보를 추출할 수 있다. 예를 들어, 변환 영상 정보는 주파수 도메인상에서 특정 파장 영역대에 기초하여 표적 객체를 나타내는 스펙트럼 정보를 포함할 수 있다. 일 실시 예에 의하면, 스펙트럼 정보는 주파수 별 크기(Magnitude) 및 위상(Phase) 정보를 포함할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 변환 영상 정보 내 표적 객체와 표적 객체 주변의 배경 간섭물질 각각에 대한 스펙트럼 정보를 추출할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 표적 객체 및 배경 간섭물질을 구분하지 않고, 변환 영상 정보로부터 주파수 별 크기 및 위상에 대한 스펙트럼 정보를 추출할 수 있다.In S520, the electronic device 1000 may extract spectrum information for each of the target object and background interference materials around the target object from the converted image information. For example, converted image information may include spectral information representing a target object based on a specific wavelength range in the frequency domain. According to one embodiment, the spectrum information may include magnitude and phase information for each frequency. According to another embodiment, the electronic device 1000 may extract spectrum information for each of the target object and background interference materials around the target object within the converted image information. According to another embodiment, the electronic device 1000 may extract spectral information about size and phase for each frequency from converted image information without distinguishing between target objects and background interference materials.
S530에서, 전자 장치(1000)는 추출된 스펙트럼 정보가 입력되면 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 출력하는 우도비 검정 모델에, 상기 추출된 스펙트럼 정보를 입력함으로써, 상기 추출된 스펙트럼 정보 내 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 표적 객체의 주파수 패턴을 분류하는 우도비 검정 모델을 미리 학습시키고, 학습된 우도비 검정 모델을 소정의 조건에서 변환 영상 정보에 적용함으로써 객체 인식 모델과 함께 표적 객체를 효과적으로 검출할 수 있다. In S530, the electronic device 1000 inputs the extracted spectrum information into a likelihood ratio test model that outputs whether there is a frequency pattern according to the target object when the extracted spectrum information is input. It is possible to identify whether there is a frequency pattern according to the target object. For example, the electronic device 1000 trains in advance a likelihood ratio test model that classifies the frequency pattern of the target object, and applies the learned likelihood ratio test model to the converted image information under predetermined conditions to target the target object together with the object recognition model. Objects can be detected effectively.
본 개시에 따른 전자 장치(1000)는 객체 인식 모델로부터 표적 객체가 검출되는 것으로 식별되지 않는 경우, 적외선 영상으로부터 나타나는 스펙트럼 정보의 주파수 패턴을 우도비 검정 모델을 이용하여 제1 타입 영상들 및 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 재 식별함으로써 표적 객체 검출 정확도를 향상시킬 수 있다. 도 5에는 도시되지 않았지만, 전자 장치(1000)는 우도비 검정 모델을 이용하여 재 식별 결과 표적 객체가 검출되는 것으로 식별되는 경우 우도비 검정 모델의 출력 값에 따라 표적 객체가 검출된 영상들에서 표적 객체 영역을 분리하기 위한 마스킹 데이터 생성과정을 수행하게 된다.If the target object is not identified as being detected from the object recognition model, the electronic device 1000 according to the present disclosure uses the frequency pattern of the spectral information appearing from the infrared image to identify the first type images and the second type images using a likelihood ratio test model. Target object detection accuracy can be improved by re-identifying whether the target object in the type images is detected. Although not shown in FIG. 5, when the electronic device 1000 identifies that the target object is detected as a result of re-identification using the likelihood ratio test model, the electronic device 1000 selects the target from the images in which the target object was detected according to the output value of the likelihood ratio test model. A masking data creation process is performed to separate the object area.
S540에서, 전자 장치(1000)는 표적 객체에 따른 주파수 패턴이 식별되는 경우, 우도비 검정 모델의 출력 값에 기초하여 제2 타입 영상들로부터 표적 객체의 형상 정보를 추출할 수 있다. 예를 들어, 전자 장치(1000)는 우도비 검정 모델의 출력 값에 기초하여 표적 객체에 따른 주파수 패턴이 변환 영상 정보 내에서 식별되는 경우, 표적 객체가 검출된 것으로 결정하고, 제2 타입 영상들로부터 표적 객체의 형상에 관한 형상 정보를 추출하게 된다. 전자 장치(1000)가 형상 정보를 추출하는 방법은 후술하는 도 7 내지 9를 참조하여 설명하기로 한다.In S540, when a frequency pattern according to the target object is identified, the electronic device 1000 may extract shape information of the target object from the second type images based on the output value of the likelihood ratio test model. For example, the electronic device 1000 determines that the target object has been detected when a frequency pattern according to the target object is identified in the converted image information based on the output value of the likelihood ratio test model, and selects the second type images. Shape information about the shape of the target object is extracted from. A method by which the electronic device 1000 extracts shape information will be described with reference to FIGS. 7 to 9 described later.
도 6은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 주파수 패턴에 따라 식별되는 표적 객체의 형상 정보를 추출하는 과정을 나타내는 도면이다.FIG. 6 is a diagram illustrating a process in which an artificial intelligence-based gas leak detecting electronic device extracts shape information of a target object identified according to a frequency pattern according to an embodiment.
S610에서, 전자 장치(1000)는 우도비 검정 모델의 출력 값에 기초하여 상기 표적 객체에 따른 주파수 패턴이 식별되지 않는 경우, 상기 추출된 스펙트럼 정보를, 상기 추출된 스펙트럼 정보가 입력되면 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 출력하는 서포트 벡터 머신 모델에 입력함으로써, 상기 추출된 스펙트럼 정보 내 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 식별할 수 있다.In S610, when the frequency pattern according to the target object is not identified based on the output value of the likelihood ratio test model, the electronic device 1000 generates the extracted spectrum information, and when the extracted spectrum information is input, the target object By inputting it into a support vector machine model that outputs whether there is a frequency pattern according to , it is possible to identify whether there is a frequency pattern according to the target object in the extracted spectrum information.
즉, 본 개시에 따른 전자 장치(1000)는 객체 인식 모델을 이용한 결과 제1 타입 영상들 및 제2 타입 영상들에서 표적 객체가 검출되지 않는 경우, 우도비 검정 모델 및 서포트 벡터 머신 모델을 이용하여 표적 객체가 검출되는지 여부를 재식별함으로써 표적 객체의 검출 정확도를 향상시킬 수 있다. 전자 장치(1000)는 서포트 벡터 머신 모델을 이용한 결과 표적 객체에 따른 주파수 패턴이 식별되는 것으로 결정되는 경우, 서포트 벡터 머신 모델의 출력 값에 따라 표적 객체가 검출된 영상들에서 표적 객체 영역을 분리하기 위한 마스킹 데이터 생성과정을 수행하게 된다.That is, when the target object is not detected in the first type images and the second type images as a result of using the object recognition model, the electronic device 1000 according to the present disclosure uses the likelihood ratio test model and the support vector machine model to detect the target object. The detection accuracy of the target object can be improved by re-identifying whether the target object is detected. When it is determined that a frequency pattern according to the target object is identified as a result of using the support vector machine model, the electronic device 1000 separates the target object area from the images in which the target object is detected according to the output value of the support vector machine model. The masking data generation process is performed for
본 개시에 따른 전자 장치(1000)는 변환 영상 정보로부터 추출된 스펙트럼 정보가 입력되면, 표적 객체의 주파수 패턴을 분류하는 서포트 벡터 머신 모델을 미리 학습시키고, 학습된 서포트 벡터 머신 모델을 소정의 조건에서 변환 영상 정보에 적용함으로써, 객체 인식 모델 및 우도비 검정 모델과 함께 표적 객체를 정확하게 검출할 수 있다.When spectral information extracted from converted image information is input, the electronic device 1000 according to the present disclosure trains a support vector machine model that classifies the frequency pattern of the target object in advance, and uses the learned support vector machine model under predetermined conditions. By applying the transformation to image information, the target object can be accurately detected along with the object recognition model and likelihood ratio test model.
S620에서, 전자 장치(1000)는 표적 객체에 따른 주파수 패턴이 식별되는 경우, 상기 서포트 벡터 머신 모델의 출력 값에 기초하여, 상기 제2 타입 영상들로부터 상기 표적 객체의 형상 정보를 추출할 수 있다. 전자 장치(1000)가 형상 정보를 추출하는 방법은 후술하는 도 7 내지 9를 참조하여 구체적으로 설명하기로 한다. 상술한 도 4 내지 도 6에서 상술한 바와 같이, 전자 장치(1000)는 객체 인식 모델, 우도비 검정 모델 또는 서포트 벡터 머신 모델 중 적어도 하나를 이용하여 적어도 하나의 타입의 영상들을 분석함으로써 표적 객체가 검출되는지 여부를 정확하게 식별할 수 있을 뿐만 아니라, 적외선 영상을 주파수 도메인 상의 변환 영상 정보로 생성하고, 변환 영상 정보에서 나타나는 소정의 주파수 별 주파수 패턴에 기초하여, 검출된 표적 객체의 종류(예컨대 메탄인지, 암모니아인지, 일반 연기인지, 불꽃 인지)를 함께 식별할 수 있다.In S620, when a frequency pattern according to the target object is identified, the electronic device 1000 may extract shape information of the target object from the second type images based on the output value of the support vector machine model. . A method for the electronic device 1000 to extract shape information will be described in detail with reference to FIGS. 7 to 9 described later. As described above with reference to FIGS. 4 to 6 , the electronic device 1000 analyzes at least one type of images using at least one of an object recognition model, a likelihood ratio test model, or a support vector machine model to determine the target object. Not only can it accurately identify whether it is detected, but it can also generate an infrared image as converted image information in the frequency domain, and based on the frequency pattern for each predetermined frequency that appears in the converted image information, the type of target object detected (for example, is it methane? , ammonia, general smoke, or flame) can be identified together.
도 7은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 형상 정보를 추출하는 구체적인 방법의 흐름도이다.Figure 7 is a flowchart of a specific method in which an artificial intelligence-based gas leak detection electronic device extracts shape information of a target object according to an embodiment.
S710에서, 전자 장치(1000)는 표적 객체가 검출된 타입의 영상들을 전처리할 수 있다. 예를 들어, 전자 장치(1000)는 도 3 내지 6에서 상술한 바와 같이, 객체 인식 모델과 변환 영상 정보에 대한 우도비 검정 모델 또는 서포트 벡터 머신 모델을 미리 설정된 조건에 따라 이용함으로써 제1 타입 영상들 및 제2 타입 영상들 중 적어도 하나로부터 표적 객체가 검출되는지 여부를 식별하고, 표적 객체가 검출되는 것으로 식별되는 경우, 표적 객체가 검출되는 타입의 영상들을 전처리(예컨대 이진화, 노멀라이즈, Augmentation 등)한다.In S710, the electronic device 1000 may preprocess images of the type in which the target object was detected. For example, as described above in FIGS. 3 to 6, the electronic device 1000 uses an object recognition model and a likelihood ratio test model or support vector machine model for transformed image information according to preset conditions to create a first type image. and identify whether the target object is detected from at least one of the second type images, and if it is identified that the target object is detected, preprocess the images of the type in which the target object is detected (e.g., binarization, normalization, augmentation, etc. )do.
S720에서, 전자 장치(1000)는 기 설정된 표적 객체 정보에 기초하여 마스킹 데이터를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 표적 객체에 대한 정보를 미리 저장할 수 있다. 일 실시 예에 의하면, 표적 객체에 대한 정보는 가스 객체, 연기 객체 또는 불꽃 객체들이 영상들 내 프레임 이미지들 사이에서 이동하는 정도에 관한 이동 평균 값들을 미리 저장할 수 있으며, 표적 객체에 대한 정보에 기초하여 마스킹 데이터를 생성할 수 있다. In S720, the electronic device 1000 may generate masking data based on preset target object information. For example, the electronic device 1000 may store information about the target object in advance. According to one embodiment, the information about the target object may store in advance moving average values regarding the degree to which gas objects, smoke objects, or flame objects move between frame images in the images, based on the information about the target object. Thus, masking data can be generated.
구체적으로 도 7에는 도시되지 않았지만, 전자 장치(1000)는 표적 객체가 검출된 타입의 영상들의 현재 프레임 이미지 이전의 프레임 이미지들에 대한 이동 평균 값을 결정하고, 결정된 이동 평균 값에 기초하여 마스킹 데이터를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 표적 객체가 검출된 타입의 영상들의 현재 프레임 이전의 프레임 이미지들 세트에 대해 이동 평균값을 결정하고, 결정된 이동 평균값에 기초하여 배경 모델을 생성하며, 생성된 배경 모델을 현재 프레임 이미지에서 제거(예컨대 빼기)하기 위한 마스킹 데이터를 생성한다. 본 개시의 일 실시 예에 따른 전자 장치(1000)는 Running average background subtraction 기법을 이용하여 마스킹 데이터를 생성할 수 있다.Although not specifically shown in FIG. 7, the electronic device 1000 determines a moving average value for frame images preceding the current frame image of images of the type in which the target object is detected, and masks data based on the determined moving average value. can be created. For example, the electronic device 1000 determines a moving average value for a set of frame images preceding the current frame of images of the type in which the target object is detected, generates a background model based on the determined moving average value, and creates a background model based on the generated background. Generate masking data to remove (e.g. subtract) the model from the current frame image. The electronic device 1000 according to an embodiment of the present disclosure may generate masking data using a running average background subtraction technique.
S730에서, 전자 장치(1000)는 표적 객체가 검출된 타입의 영상들에 마스킹 데이터를 적용함으로써 생성되는 표적 객체 영역들을, 전처리된 영상들로부터 분리할 수 있다. 전자 장치(1000)는 새로운 프레임 이미지들이 획득될 때마다 모든 프레임 이미지들의 이동 평균값을 지속적으로 수정 및 갱신하며, 수정 및 갱신된 이동 평균값에 기초하여 생성된 마스킹 데이터를 현재 프레임 이미지에 적용함으로써 표적 객체 영역들을 전처리된 영상들로부터 분리할 수 있다. S740에서, 전자 장치(1000)는 분리된 표적 객체 영역들로부터 표적 객체의 형상 정보를 추출한다. 전자 장치(1000)가 형상 정보를 추출하는 과정은 후술하는 도 8 내지 도 9를 더 참조하여 추가 설명하기로 한다.In S730, the electronic device 1000 may separate target object areas generated by applying masking data to images of the type in which the target object was detected from the preprocessed images. The electronic device 1000 continuously modifies and updates the moving average value of all frame images whenever new frame images are acquired, and applies masking data generated based on the modified and updated moving average value to the current frame image to identify the target object. Regions can be separated from preprocessed images. In S740, the electronic device 1000 extracts shape information of the target object from the separated target object areas. The process of extracting shape information by the electronic device 1000 will be further described with reference to FIGS. 8 and 9 described later.
도 8은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 형상을 식별하고 이를 추적하는 과정을 설명하기 위한 도면이다.FIG. 8 is a diagram illustrating a process in which an artificial intelligence-based gas leak detection electronic device identifies the shape of a target object and tracks it, according to an embodiment.
도 8을 참조하여 전자 장치(1000)가 형상 정보를 추출하는 방법을 더 구체적으로 설명하기로 한다. 그림 (810)을 참조하면, 전자 장치(1000)가 도 7에서 상술한 방법에 따라 표적 객체가 검출된 타입의 영상들을 구성하는 전체 프레임 이미지들 또는 현재 프레임 이미지들 이전의 모든 프레임 이미지들로부터 이동 평균 값(812)을 결정하고, 결정된 이동 평균 값(812)에 기초하여 결정된 마스킹 데이터를 현재 프레임 이미지(814)에 적용함으로써 현재 프레임 이미지로부터 표적 객체 영역(816)을 분리하는 과정이 도시된다.A method by which the electronic device 1000 extracts shape information will be described in more detail with reference to FIG. 8 . Referring to Figure 810, the electronic device 1000 moves from all frame images constituting images of the type in which the target object was detected or from all frame images preceding the current frame images according to the method described above in FIG. 7. A process of separating the target object area 816 from the current frame image 814 by determining an average value 812 and applying masking data determined based on the determined moving average value 812 to the current frame image 814 is shown.
전자 장치(1000)는 분리된 표적 객체 영역 내 표적 객체에 관한 외곽선 정보를 식별하고, 외곽선 정보에 기초하여 상기 표적 객체의 중심점 정보를 식별할 수 있으며, 식별된 중심점 정보 및 상기 외곽선 정보에 기초하여 표적 객체 영역의 방향 벡터를 식별할 수 있다. 본 개시에 따른 전자 장치(1000)는 표적 객체가 검출된 타입의 영상을 구성하는 프레임 이미지마다 상기 외곽선 정보, 중심점 정보 및 방향 벡터를 상기 표적 객체의 형상 정보로 추출할 수 있다. The electronic device 1000 may identify outline information about a target object within a separated target object area, identify center point information of the target object based on the outline information, and identify center point information of the target object based on the identified center point information and the outline information. The direction vector of the target object area can be identified. The electronic device 1000 according to the present disclosure may extract the outline information, center point information, and direction vector as shape information of the target object for each frame image constituting the image of the type in which the target object is detected.
본 개시에 따른 전자 장치(1000)는 표적 객체가 검출된 타입의 영상들 내 인접하는 프레임 이미지들에서 분리된 표적 객체의 형상 정보에 기초하여 모션 벡터를 결정할 수 있다. 전자 장치(1000)는 그림 (820)에 도시된 바와 같이, 표적 객체가 검출된 타입 내 영상들로부터 결정되는 모션 벡터를 이용하여, 표적 객체가 검출된 타입의 영상들 내 표적 객체 영역들(822)을 모델링할 수 있다. 전자 장치(1000)는 그림 (830)에 도시된 바와 같이, 표적 객체를 모델링하는데 사용된 모션 벡터들의 합벡터를 식별할 수 있고, 상기 합벡터의 크기 및 방향에 기초하여 표적 객체가 생성된 위치에 관한 누출 원점 및 표적 객체의 흐름 방향과 속도에 관한 흐름 벡터를 결정할 수 있다. The electronic device 1000 according to the present disclosure may determine a motion vector based on shape information of the target object separated from adjacent frame images within images of the type in which the target object was detected. As shown in Figure 820, the electronic device 1000 uses a motion vector determined from the images within the type in which the target object was detected to determine target object areas 822 within the images of the type in which the target object was detected. ) can be modeled. As shown in Figure 830, the electronic device 1000 can identify the sum vector of motion vectors used to model the target object, and the location where the target object was created based on the size and direction of the sum vector. The flow vector regarding the flow direction and speed of the leak origin and target object can be determined.
도 9는 또 다른 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 형상 정보를 추출하는 방법의 흐름도이다.Figure 9 is a flowchart of a method in which an artificial intelligence-based gas leak detection electronic device extracts shape information of a target object according to another embodiment.
S910에서, 전자 장치(1000)는 분리된 표적 객체 영역 내 표적 객체에 관한 외곽선 정보를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 마스킹 데이터를 적용함에 따라 분리된 표적 객체 영역을 구성하는 픽셀들의 좌표를 식별할 수 있고, 식별된 픽셀들의 좌표 값에 기초하여 최외곽 픽셀들의 좌표세트를 결정할 수 있다. 전자 장치(1000)는 최외곽 픽셀들의 좌표세트에 기초하여 표적 객체에 관한 외곽선 정보를 식별할 수 있다.In S910, the electronic device 1000 may identify outline information about the target object within the separated target object area. For example, the electronic device 1000 may identify the coordinates of pixels constituting the separated target object area by applying masking data, and determine the coordinate set of the outermost pixels based on the coordinate values of the identified pixels. You can. The electronic device 1000 may identify outline information about the target object based on the coordinate set of the outermost pixels.
S920에서, 전자 장치(1000)는 외곽선 정보에 기초하여 표적 객체의 중심점 정보를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 외곽선 정보에 기초하여 결정되는 표적 객체의 경계 내부의 픽셀 값들에 Mean Shift 알고리즘을 적용하거나, 기타 이동하는 표적 객체의 중심점을 찾기 위한 객체 추적 알고리즘을 적용함으로써 표적 객체의 중심점 정보를 식별할 수 있다. S930에서, 전자 장치(1000)는 중심점 정보 및 외곽선 정보에 기초하여 표적 객체 영역의 방향 벡터를 식별할 수 있다. 예를 들어, 전자 장치(1000)는 표적 객체가 검출된 타입의 영상들 내 각 프레임 이미지마다 표적 객체 영역을 분리하고, 분리된 표적 객체 영역으로부터 추출된 형상 정보들 중, 인접한 프레임 이미지들(예컨대 연속한 2개의 프레임 번호를 가지는 이미지들)에서 추출된 형상 정보들에 기초하여 모션 벡터를 결정할 수 있다. In S920, the electronic device 1000 may identify center point information of the target object based on outline information. For example, the electronic device 1000 targets the target by applying a Mean Shift algorithm to pixel values inside the boundary of the target object determined based on outline information, or by applying an object tracking algorithm to find the center point of the target object that is moving. The center point information of an object can be identified. In S930, the electronic device 1000 may identify the direction vector of the target object area based on center point information and outline information. For example, the electronic device 1000 separates the target object area for each frame image in the images of the type in which the target object is detected, and selects adjacent frame images (e.g. A motion vector can be determined based on shape information extracted from (images having two consecutive frame numbers).
전자 장치(1000)는 표적 객체가 검출된 타입 내 영상들 중, 인접한 프레임 번호를 가지는 프레임 이미지들 사이에서 결정되는 모션 벡터를 이용하여 표적 객체를 모델링할 수 있으며, 표적 객체를 모델링하는데 사용된 모션 벡터의 합벡터의 방향과 동일한 방향의 방향 벡터를 식별할 수 있다. S940에서, 전자 장치(1000)는 상술한 과정에서 결정된 외곽선 정보, 중심점 정보 및 방향 벡터를 표적 객체의 형상 정보로 추출할 수 있다. The electronic device 1000 may model the target object using a motion vector determined between frame images with adjacent frame numbers among images within the type in which the target object is detected, and the motion used to model the target object. A direction vector in the same direction as the direction of the vector sum vector can be identified. In S940, the electronic device 1000 may extract the outline information, center point information, and direction vector determined in the above-described process as shape information of the target object.
도 10은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 표적 객체의 누출 원점 및 흐름 벡터를 결정하는 구체적인 방법의 흐름도이다.Figure 10 is a flowchart of a specific method in which an artificial intelligence-based gas leak detection electronic device determines the leak origin and flow vector of a target object according to an embodiment.
S1010에서, 전자 장치(1000)는 분리된 표적 객체 영역들의 형상 정보에 기초하여, 표적 객체가 검출된 타입의 영상들 내 인접하는 표적 객체 영역들 사이의 모션 벡터를 결정할 수 있다. 예를 들어, 도 9에서 상술한 바와 같이, 전자 장치(1000)는 표적 객체가 검출된 타입의 영상들 내 인접하는 프레임 이미지들(예컨대 연속하는 프레임 번호를 가지는 2개의 프레임 이미지들) 사이에서 각 이미지들의 분리된 표적 객체의 형상 정보에 기초하여 모션 벡터를 결정할 수 있다. In S1010, the electronic device 1000 may determine a motion vector between adjacent target object areas in images of the type in which the target object is detected, based on shape information of the separated target object areas. For example, as described above in FIG. 9, the electronic device 1000 selects each frame image between adjacent frame images (e.g., two frame images with consecutive frame numbers) within images of the type in which the target object is detected. A motion vector may be determined based on shape information of the separated target object in the images.
S1020에서, 전자 장치(1000)는 모션 벡터에 기초하여 분리된 표적 객체 영역들을 모델링할 수 있다. S1030에서, 전자 장치(1000)는 모델링된 표적 객체 영역들을 나타내는 모션 벡터들의 합벡터를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 영상들로부터 상기 표적 객체에 관하여 나타나는 모션 벡터들에 대해 기하학적 벡터합을 수행함으로써 합벡터를 결정할 수 있다. In S1020, the electronic device 1000 may model separated target object areas based on the motion vector. In S1030, the electronic device 1000 may determine a sum vector of motion vectors representing modeled target object areas. For example, the electronic device 1000 may determine a sum vector by performing geometric vector sum on motion vectors appearing about the target object from images.
S1040에서, 전자 장치(1000)는 상기 결정된 합벡터의 크기 및 방향에 기초하여, 표적 객체가 검출된 영상들에서, 표적 객체가 생성된 위치에 관한 누출 원점 및 상기 표적 객체의 흐름 방향과 속도에 관한 흐름 벡터를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 상기 합벡터의 시작점을 누출원점으로 결정하고, 상기 시작점으로부터 종점까지 상기 합벡터가 나타내는 방향을 흐름 벡터의 방향으로 결정할 수 있다. 또한, 전자 장치(1000)는 시작점으로부터 종점까지의 거리를 표적 객체의 속도의 크기를 흐름 벡터의 크기로 결정할 수 있다. 전자 장치(1000)는 상술한 방법으로 결정된 크기 및 방향을 가지는 흐름 벡터를 결정할 수 있다.In S1040, based on the size and direction of the determined sum vector, the electronic device 1000 determines the leak origin regarding the location where the target object was created and the flow direction and speed of the target object in the images in which the target object was detected. The flow vector can be determined. For example, the electronic device 1000 may determine the starting point of the sum vector as the leak source, and determine the direction indicated by the sum vector from the start point to the end point as the direction of the flow vector. Additionally, the electronic device 1000 may determine the distance from the start point to the end point, the speed of the target object, and the size of the flow vector. The electronic device 1000 may determine a flow vector having the size and direction determined by the method described above.
도 11은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 가스 누출의 탐지를 위한 합성 영상을 생성하는 방법의 흐름도이다.Figure 11 is a flowchart of a method in which an artificial intelligence-based gas leak detection electronic device generates a composite image for gas leak detection according to an embodiment.
S1110에서, 전자 장치(1000)는 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 영상들 및 상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입의 영상들을 획득할 수 있다. 일 실시 예에 의하면, 상기 제1 타입의 카메라 및 상기 제2 타입의 카메라는 각각 EO(Electro-Optical) 카메라 및 OGI(Optical Gas Imaging) 카메라를 포함하고, 상기 제1 타입 영상들 및 상기 제2 타입 영상들은 각각 가시광선 영상들 및 적외선 영상들을 포함할 수 있다. S1110은 도 4의 S410 내지 S420에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.In S1110, the electronic device 1000 receives first type images of the space to be monitored from at least one first type of camera connected to the electronic device and the monitoring target from at least one second type of camera connected to the electronic device. A second type of images of space can be obtained. According to one embodiment, the first type of camera and the second type of camera include an Electro-Optical (EO) camera and an Optical Gas Imaging (OGI) camera, respectively, and the first type of images and the second type of camera include The type images may include visible light images and infrared images, respectively. Since S1110 may correspond to S410 to S420 of FIG. 4, detailed description will be omitted.
S1120에서, 전자 장치(1000)는 제1 타입 영상들 또는 상기 제2 타입 영상들 중 적어도 하나로부터 표적 객체가 검출되는 것으로 식별되는 경우, 상기 검출된 표적 객체에 관한 제1 타입 영상들 및 상기 검출된 표적 객체에 관한 상기 제1 타입 영상들에 대응되는 제2 타입 영상들을 합성함으로써 누출 영상을 생성할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 제1 타입 영상들 또는 상기 제2 타입 영상들 중 표적 객체가 검출된 하나의 타입의 영상들을 누출 영상으로 생성할 수도 있다.In S1120, when the electronic device 1000 identifies that a target object is detected from at least one of the first type images or the second type images, the first type images related to the detected target object and the detection A leakage image can be generated by combining second type images corresponding to the first type images regarding the target object. According to another embodiment, the electronic device 1000 may generate one type of images in which a target object is detected among the first type images or the second type images as a leak image.
S1130에서, 전자 장치(1000)는 누출 영상의 미리 획득된 파노라마 영상에 대한 좌표에 기초하여 누출 영상을 파노라마 영상에 합성함으로써 합성 영상을 생성할 수 있다. 예를 들어, 전자 장치(1000)는 모델링된 표적 객체의 모션 벡터들의 합벡터에 기초하여 누출원점을 결정하고, 결정된 누출 원점에 대한 레이저 측정값 및 카메라 설치셋의 팬틸트 정보에 기초하여 상기 누출 원점의 파노라마 영상에 대한 좌표를 결정할 수 있다. 전자 장치(1000)는 상기 좌표 값에 기초하여 누출 영상을 파노라마 영상에 합성함으로써 합성 영상을 생성할 수 있다.In S1130, the electronic device 1000 may generate a composite image by combining the leakage image with the panoramic image based on the coordinates of the previously acquired panoramic image of the leakage image. For example, the electronic device 1000 determines the leak origin based on the sum vector of the motion vectors of the modeled target object, and determines the leak origin based on the laser measurement value for the determined leak origin and pan-tilt information of the camera installation set. The coordinates of the panoramic image of the origin can be determined. The electronic device 1000 may generate a composite image by combining the leakage image with a panoramic image based on the coordinate values.
도 12는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 생성한 누출 영상 및 상기 누출 영상을 파노라마 영상에 합성하는 과정을 설명하기 위한 도면이다.FIG. 12 is a diagram illustrating a leak image generated by an electronic device for detecting an artificial intelligence-based gas leak and a process of combining the leak image into a panoramic image, according to an embodiment.
전자 장치(1000)는 모니터링 대상 공간을 촬영함으로써 적어도 하나의 EO 카메라 및 적어도 하나의 OGI 카메라와 연결될 수 있다. 전자 장치(1000)는 그림 (910)에 도시된 바와 같이, 획득된 제1 타입 영상들 및 제2 타입 영상들을 합성함으로써 누출 영상을 생성할 수 있다. 예를 들어, 누출 영상(910)은 모니터링 대상 공간에 대한 영상으로 검출된 표적 객체(예컨대 가스 객체, 연기 객체 또는 불꽃 객체) 영역(914) 및 배경 영역(912)을 포함할 수 있다. The electronic device 1000 may be connected to at least one EO camera and at least one OGI camera by photographing the space to be monitored. As shown in Figure 910, the electronic device 1000 may generate a leakage image by combining the acquired first type images and second type images. For example, the leakage image 910 may include a target object (eg, a gas object, a smoke object, or a flame object) area 914 and a background area 912 detected as an image of the space to be monitored.
전자 장치(1000)는 그림 (930)에 도시된 바와 같이, 누출 영상의 파노라마 영상에 대한 좌표(932)를 결정하고, 결정된 좌표 값에 기초하여 누출 영상(936)을 파노라마 영상(934)에 합성함으로써 합성 영상을 생성할 수 있다. 전자 장치(1000)는 생성된 합성 영상을 직접 출력하거나, 전자 장치(1000)와 연결된 관제 단말 또는 관제 서버로 전송함으로써 모니터링 대상 공간을 관리하는 관제자가 표적 객체 검출 용이하게 인식하도록 할 수 있다.As shown in Figure 930, the electronic device 1000 determines the coordinates 932 for the panoramic image of the leak image and synthesizes the leak image 936 into the panoramic image 934 based on the determined coordinate values. By doing this, a composite image can be created. The electronic device 1000 can directly output the generated composite image or transmit it to a control terminal or control server connected to the electronic device 1000 so that the controller managing the monitoring target space can easily recognize the target object.
도 13은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 누출 영상을 생성하는 방법의 흐름도이다.Figure 13 is a flowchart of a method in which an artificial intelligence-based gas leak detection electronic device generates a leak image according to an embodiment.
S1310에서, 전자 장치(1000)는 검출된 표적 객체에 관한 제1 타입 영상들 및 제1 타입 영상들에 대응되는 제2 타입 영상들을 식별할 수 있다. 그러나 또 다른 실시 예에 의하면, 전자 장치(1000)는 제1 타입 영상들 및 제2 타입 영상들 중, 표적 객체가 검출된 하나의 타입의 영상들을 누출 영상으로 생성할 수도 있다. 예를 들어, 전자 장치(1000)는 객체 인식 모델, 우도비 검정 모델 또는 서포트 벡터 머신 모델 중 적어도 하나를 소정의 조건에 따라 이용함으로써 표적 객체를 검출하고, 표적 객체가 검출된 영상의 타입을 결정할 수 있다. 또한, 전자 장치(1000)는 표적 객체가 검출된 영상의 타입에 대응되는 동일한 물리적 공간을 촬영함으로써 획득되는 다른 타입의 영상들을 식별할 수 있다.In S1310, the electronic device 1000 may identify first type images related to the detected target object and second type images corresponding to the first type images. However, according to another embodiment, the electronic device 1000 may generate one type of image in which the target object is detected among the first type images and the second type images as a leak image. For example, the electronic device 1000 detects a target object by using at least one of an object recognition model, a likelihood ratio test model, or a support vector machine model according to predetermined conditions, and determines the type of image in which the target object is detected. You can. Additionally, the electronic device 1000 may identify different types of images obtained by photographing the same physical space corresponding to the type of image in which the target object was detected.
S1320에서, 전자 장치(1000)는 제1 타입 영상들 및 상기 제1 타입 영상들에 대응되는 제2 타입 영상들을 기하학적으로 매칭할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 제1 타입 영상들(예컨대 일반 카메라 영상들) 및 상기 제1 타입 영상들에 대응되는 제2 타입 영상들(OGI 영상들)을 호모그래피 매칭 기법 또는 H matrix correspondence method 기법 중 적어도 하나에 기초하여 기하학적으로 매칭할 수 있다. 그러나 또 다른 실시예에 따르면 전자 장치(1000)는 일반 템플릿 매칭 방식을 이용하여 제1 타입 영상들 및 제2 타입 영상들을 기하학적으로 매칭할 수도 있다.In S1320, the electronic device 1000 may geometrically match first type images and second type images corresponding to the first type images. According to one embodiment, the electronic device 1000 uses a homography matching technique or a homography matching technique to match first type images (e.g., general camera images) and second type images (OGI images) corresponding to the first type images. Geometric matching can be performed based on at least one of the H matrix correspondence method techniques. However, according to another embodiment, the electronic device 1000 may geometrically match the first type images and the second type images using a general template matching method.
S1330에서, 전자 장치(1000)는 기하학적으로 매칭된 제1 타입 영상들 및 상기 제1 타입 영상들에 대응되는 제2 타입 영상들의 매칭 에러를 보정함으로써 누출 영상을 생성할 수 있다. 예를 들어, 전자 장치(1000)는 두 대응되는 타입의 영상들 사이에 투시 변환(Perspective transform)을 수행하기 위한 투시 변환 행렬을 이용하여 제1 타입 영상들 및 제2 타입 영상들을 기하학적으로 매칭한 후, 호모그래피 함수를 이용한 호모그래피 매칭 과정에서 잘못 매칭된 매칭 에러를 결정할 수 있다. 전자 장치(1000)는 후술하는 도 14에서와 같이, 각 타입의 영상들에서 특징점들을 추출한 후, 추출된 특징점들을 기준으로 매칭 에러를 보정함으로써 누출 영상을 생성할 수 있다.In S1330, the electronic device 1000 may generate a leakage image by correcting matching errors in geometrically matched first type images and second type images corresponding to the first type images. For example, the electronic device 1000 geometrically matches the first type images and the second type images using a perspective transformation matrix to perform perspective transformation between two corresponding types of images. Afterwards, the incorrectly matched matching error can be determined in the homography matching process using the homography function. The electronic device 1000 may generate a leakage image by extracting feature points from each type of image and correcting matching errors based on the extracted feature points, as shown in FIG. 14 described later.
도 14는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 누출 영상을 생성하는 구체적인 방법의 흐름도이다.Figure 14 is a flowchart of a specific method in which an artificial intelligence-based gas leak detecting electronic device generates a leak image according to an embodiment.
S1410에서, 전자 장치(1000)는 객체 인식 모델, 우도비 검정 모델 또는 서포트 벡터 머신 모델 중 적어도 하나에 기초하여 표적 객체가 검출되는 경우, 검출된 표적 객체에 관한 제1 타입 영상들 및 제2 타입 영상들로부터 특징점을 추출할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 SIFT, SURF 또는 ORB 와 같은 특징점 추출 기법을 이용하여 검출된 표적 객체에 관한 제1 타입 영상들 및 제2 타입 영상들 각각으로부터 특징점을 추출할 수 있다.In S1410, when a target object is detected based on at least one of an object recognition model, a likelihood ratio test model, or a support vector machine model, the electronic device 1000 displays first type images and second type images related to the detected target object. Feature points can be extracted from images. According to one embodiment, the electronic device 1000 may extract feature points from each of the first and second type images related to the detected target object using a feature point extraction technique such as SIFT, SURF, or ORB. .
S1420에서, 전자 장치(1000)는 제1 타입 영상들에서 추출된 특징점들에 매칭되는 제2 타입 영상들의 특징점을 식별할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 Brute Force 매칭 기법, 평 해시 매칭, 템플릿 매칭 기법과 같은 다양한 특징점 매칭 기법에 기초하여 제1 타입 영상들에서 추출된 특징점들에 매칭되는 제2 타입 영상들의 특징점들을 식별할 수 있다. S1430에서, 전자 장치(1000)는 제1 타입 영상들에서 추출된 특징점들 및 상기 제2 타입 영상들에서 추출된 특징점들 사이의 평균 변위 값에 기초하여, 제1 타입 영상들 및 상기 제1 타입 영상들에 대응되는 제2 타입 영상들의 매칭 위치를 변경함으로써 매칭 에러를 보정할 수 있다.In S1420, the electronic device 1000 may identify feature points of second type images that match feature points extracted from first type images. According to one embodiment, the electronic device 1000 is configured to match a second feature point extracted from the first type images based on various feature point matching techniques such as a brute force matching technique, a hash matching technique, and a template matching technique. Characteristic points of type images can be identified. In S1430, the electronic device 1000 generates first type images and the first type images based on the average displacement value between the feature points extracted from the first type images and the feature points extracted from the second type images. Matching errors can be corrected by changing the matching positions of the second type images corresponding to the images.
예를 들어, 전자 장치(1000)는 제1 타입 영상들에서 추출된 특징점들의 좌표 값과 이에 매칭되는 제2 타입 영상들에서 추출된 특징점들의 좌표 값의 차이에 기초하여 변위값을 결정할 수 있고, 각 타입의 영상들에서 추출된 특징점들의 평균 변위 값을 식별할 수 있다. 전자 장치(1000)는 평균 변위 값에 기초하여, 기하학적으로 매칭된 제1 타입의 영상들 및 제2 타입의 영상들의 매칭 위치를 변경함으로써 매칭 에러를 보정한다. S1440에서, 전자 장치(1000)는 변경된 매칭 위치에 따라 기하학적으로 매칭된 상태의 제1 타입 영상들 및 제2 타입 영상들을 누출 영상으로 생성할 수 있다. For example, the electronic device 1000 may determine the displacement value based on the difference between the coordinate values of the feature points extracted from the first type images and the coordinate values of the feature points extracted from the matching second type images, The average displacement value of feature points extracted from each type of image can be identified. The electronic device 1000 corrects the matching error by changing the matching positions of the geometrically matched first-type images and second-type images based on the average displacement value. In S1440, the electronic device 1000 may generate first type images and second type images that are geometrically matched according to the changed matching position as a leak image.
도 15는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 합성 영상을 생성하는 방법의 흐름도이다.Figure 15 is a flowchart of a method in which an electronic device for detecting gas leaks based on artificial intelligence generates a composite image according to an embodiment.
S1510에서, 전자 장치(1000)는 상기 제1 타입 영상들 또는 상기 제2 타입 영상들 중 적어도 하나로부터 표적 객체가 검출되는 것으로 식별되는 경우, 상기 표적 객체가 검출된 타입의 영상들로부터 상기 표적 객체의 형상 정보를 추출할 수 있다. 전자 장치(1000)가 표적 객체의 형상 정보를 추출하는 과정은 도 7 내지 도 9에서 상술한 과정에 대응될 수 있다. In S1510, when it is identified that the target object is detected from at least one of the first type images or the second type images, the electronic device 1000 detects the target object from the images of the type in which the target object was detected. Shape information can be extracted. The process by which the electronic device 1000 extracts shape information of the target object may correspond to the process described above with reference to FIGS. 7 to 9 .
S1520에서, 전자 장치(1000)는 형상 정보에 기초하여 생성된 누출 영상의 미리 획득된 파노라마 영상에 대한 좌표를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 모니터링 대상 공간에 대한 파노라마 영상을 미리 저장할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 적어도 하나의 EO 카메라로부터 획득되는 가시광선 영상들을 이용하여 하나의 파노라마 영상으로 변환하고, 변환된 파노라마 영상을 미리 저장할 수 있다. In S1520, the electronic device 1000 may determine the coordinates of the previously acquired panoramic image of the leaked image generated based on shape information. For example, the electronic device 1000 may previously store a panoramic image of the space to be monitored. According to one embodiment, the electronic device 1000 may convert visible light images obtained from at least one EO camera into one panoramic image and store the converted panoramic image in advance.
전자 장치(1000)는 표적 객체가 검출된 타입의 영상들 내 인접하는 프레임 이미지들에서 추출된 형상 정보에 기초하여 모션 벡터를 결정하며, 결정된 모션 벡터에 기초하여 합벡터를 결정하고, 합벡터의 크기 및 방향에 기초하여 누출 원점 및 흐름 벡터를 결정하며, 결정된 누출 원점 및 흐름 벡터에 기초하여 누출 영상의 파노라마 영상에 대한 좌표를 결정한다. S1530에서, 전자 장치(1000)는 상기 결정된 좌표에 기초하여 누출 영상을 파노라마 영상에 합성함으로써 합성 영상을 생성할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 누출 영상을 파노라마 영상에 중첩하여 표시함과 함께, 표적 객체의 종류, 표적 객체가 발생한 누출 원점에 대한 위치 정보를 더 중첩하여 표시할 수도 있다.The electronic device 1000 determines a motion vector based on shape information extracted from adjacent frame images in images of the type in which the target object is detected, determines a sum vector based on the determined motion vector, and determines the sum vector of the sum vector. The leak origin and flow vector are determined based on the size and direction, and the coordinates for the panoramic image of the leak image are determined based on the determined leak origin and flow vector. In S1530, the electronic device 1000 may generate a composite image by combining the leaked image with the panoramic image based on the determined coordinates. According to one embodiment, the electronic device 1000 may display the leak image by overlapping it with the panoramic image, and may further overlap and display the type of target object and location information about the origin of the leak where the target object occurred.
도 16은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 파노라마 영상에 대한 누출 영상의 좌표를 결정하는 방법의 흐름도이다.Figure 16 is a flowchart of a method by which an artificial intelligence-based gas leak detection electronic device determines the coordinates of a leak image for a panoramic image, according to an embodiment.
S1610에서, 전자 장치(1000)는 분리된 표적 객체 영역들의 형상 정보에 기초하여, 표적 객체가 생성된 위치에 관한 누출 원점 및 표적 객체의 흐름 방향과 속도에 관한 흐름 벡터를 결정할 수 있다. 예를 들어, 전자 장치(1000)는 표적 객체가 검출된 타입의 영상들 내 인접하는 프레임 이미지들에서 추출된 형상 정보에 기초하여 모션 벡터를 결정하며, 모션 벡터들에 기초하여 표적 객체를 모델링하고, 상기 표적 객체를 모델링하는데 사용된 모션 벡터들의 합벡터의 크기 및 방향에 기초하여 누출 원점 및 상기 흐름 벡터를 결정할 수 있다.In S1610, the electronic device 1000 may determine a leak origin regarding the location where the target object was created and a flow vector regarding the flow direction and speed of the target object, based on shape information of the separated target object areas. For example, the electronic device 1000 determines a motion vector based on shape information extracted from adjacent frame images in images of the type in which the target object is detected, models the target object based on the motion vectors, and , the leak origin and the flow vector can be determined based on the magnitude and direction of the sum vector of motion vectors used to model the target object.
S1620에서, 전자 장치(1000)는 누출 원점 및 흐름 벡터에 기초하여 누출 영상의 파노라마 영상에 대한 좌표를 결정할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 상기 합벡터의 시작점을 누출원점으로 결정하고, 상기 시작점으로부터 종점까지 상기 합벡터가 나타내는 방향을 흐름 벡터의 방향으로 결정할 수 있다. 또한, 전자 장치(1000)는 시작점으로부터 종점까지의 거리를 표적 객체의 속도의 크기를 흐름 벡터의 크기로 결정할 수 있다.In S1620, the electronic device 1000 may determine the coordinates of the panoramic image of the leak image based on the leak origin and flow vector. According to one embodiment, the electronic device 1000 may determine the starting point of the sum vector as the leak source, and determine the direction indicated by the sum vector from the start point to the end point as the direction of the flow vector. Additionally, the electronic device 1000 may determine the distance from the start point to the end point, the speed of the target object, and the size of the flow vector.
일 실시 예에 의하면, 전자 장치(1000)는 상기 합벡터에 따라 결정되는 누출 원점 및 흐름 벡터가 나타내는 방향에 기초하여, 레이저 측정기로부터, 상기 누출 원점에 대응되는 물리적 공간으로부터 반사되는 레이저 측정값을 획득하고, 획득된 레이저 측정값에 기초하여 물리적 공간 까지의 거리를 식별할 수 있다. 또한, 전자 장치(1000)는 상기 누출 원점에 대한 카메라 설치셋의 팬틸트 정보를 획득할 수 있다. 전자 장치(1000)는 누출 원점, 흐름 벡터, 표적 객체가 발생한 물리적 공간 까지의 거리 및 팬틸트 정보에 기초하여 구면 좌표계에서의 제1 좌표 값을 결정할 수 있다. 전자 장치(1000)는 제1 좌표 값을 직교 좌표계의 제2 좌표 값으로 변환하고, 표적 객체가 검출된 영상들을 전송한 타입의 카메라에 대해 미리 설정되는 렌즈 왜곡 값을 제2 좌표 값에 반영함으로써 제3 좌표 값을 획득할 수 있다. 전자 장치(1000)는 상술한 방법에 따라 결정된 제3 좌표 값을 누출 영상의 파노라마 영상에 대한 좌표로 결정할 수 있다.According to one embodiment, the electronic device 1000 receives a laser measurement value reflected from a physical space corresponding to the leak origin from a laser measuring device based on the direction indicated by the leak origin and the flow vector determined according to the sum vector. The distance to physical space can be identified based on the acquired laser measurement values. Additionally, the electronic device 1000 may acquire pan-tilt information of the camera installation set with respect to the origin of the leak. The electronic device 1000 may determine the first coordinate value in a spherical coordinate system based on the leak origin, flow vector, distance to the physical space where the target object occurs, and pan-tilt information. The electronic device 1000 converts the first coordinate value into a second coordinate value in the Cartesian coordinate system and reflects the lens distortion value preset for the camera type that transmitted the images in which the target object was detected in the second coordinate value. The third coordinate value can be obtained. The electronic device 1000 may determine the third coordinate value determined according to the above-described method as the coordinate for the panoramic image of the leaked image.
도 17은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 레이저 측정 값 및 카메라의 팬틸트 정보에 기초하여 누출 원점에 대한 좌표 변환하는 과정을 나타내는 도면이다.FIG. 17 is a diagram illustrating a process in which an electronic device for detecting an artificial intelligence-based gas leak according to an embodiment converts the coordinates of the origin of the leak based on laser measurement values and camera pan-tilt information.
S1710에서, 전자 장치(1000)는 누출 원점 및 흐름 벡터를 획득할 수 있다. S1710에서, 전자 장치(1000)가 표적 객체를 모델링하는데 사용된 모션 벡터에 기초하여 누출 원점 및 흐름 벡터를 결정하는 과정은 도 16에서 상술한 과정에 대응될 수 있으므로 생략하기로 한다. S1720에서, 전자 장치(1000)는 누출 원점 및 흐름 벡터의 방향에 따른 제어 신호를 레이저 거리 측정기로 송신할 수 있다. S1730에서, 전자 장치(1000)는 레이저 측정기로부터 상기 누출 원점에 대응되는 물리적 공간의 한 지점으로부터 반사되는 레이저 측정값을 획득할 수 있다.In S1710, the electronic device 1000 may obtain the leak origin and flow vector. In S1710, the process of determining the leak origin and flow vector based on the motion vector used by the electronic device 1000 to model the target object may correspond to the process described above with reference to FIG. 16 and will therefore be omitted. In S1720, the electronic device 1000 may transmit a control signal according to the direction of the leak origin and flow vector to the laser range finder. In S1730, the electronic device 1000 may obtain a laser measurement value reflected from a point in physical space corresponding to the leak origin from a laser measuring device.
S1740에서, 전자 장치(1000)는 상기 누출 원점에 대한 카메라 설치셋의 카메라 팬틸트 정보를 획득할 수 있다. S1750에서, 전자 장치(1000)는 상기 누출 원점, 흐름 벡터, 표적 객체가 발생한 물리적 공간까지의 거리 및 팬틸트 정보에 기초하여 구면 좌표계에서의 제1 좌표 값을 결정할 수 있다. S1760에서, 전자 장치(1000)는 상기 결정된 제1 좌표 값을 직교 좌표계에서의 제2 좌표 값으로 변환할 수 있다. S1770에서, 전자 장치(1000)는 제1 타입의 카메라 또는 제2 타입의 카메라 중 표적 객체가 검출된 영상들을 전송한 타입의 카메라에 대해 미리 설정되는 렌즈 왜곡 값을 제2 좌표 값에 반영함으로써 제2 좌표 값을 제3 좌표 값으로 변경할 수 있다. 전자 장치(1000)는 상기 결정된 제3 좌표 값에 기초하여 누출 영상을 파노라마 영상에 합성함으로써 합성 영상을 생성할 수 있다.In S1740, the electronic device 1000 may acquire camera pan-tilt information of the camera installation set with respect to the leak origin. In S1750, the electronic device 1000 may determine a first coordinate value in a spherical coordinate system based on the leak origin, the flow vector, the distance to the physical space where the target object occurs, and pan-tilt information. In S1760, the electronic device 1000 may convert the determined first coordinate value into a second coordinate value in the Cartesian coordinate system. In S1770, the electronic device 1000 reflects the lens distortion value preset for the type of camera that transmitted the images in which the target object was detected among the first type camera or the second type camera to the second coordinate value, thereby The 2 coordinate value can be changed to the 3rd coordinate value. The electronic device 1000 may generate a composite image by combining the leakage image with the panoramic image based on the determined third coordinate value.
도 18은 또 다른 실시 예에 따른 인공지능 기반 가스 누출 탐지 시스템의 동작 과정을 나타내는 도면이다.Figure 18 is a diagram showing the operation process of an artificial intelligence-based gas leak detection system according to another embodiment.
도 18을 참조하면, 가스 누출 탐지 시스템(10)이 상술한 도 11 내지 16에 기재된 방법에 따라 전자 장치가 생성한 합성 영상을 이용하는 과정이 도시된다. 그러나 또 다른 실시 예에 의하면, 도 18에 기재된 각 동작들은 가스 누출 탐지 시스템(10)뿐만 아니라, 전자 장치(1000)에 의해서도 수행될 수 있음은 물론이다. 예를 들어, 전자 장치(1000)는 S330에서 도 11 내지 16에 상술한 방법에 따라 누출 영상을 파노라마 영상에 합성함으로써 합성 영상을 생성할 수 있다. Referring to FIG. 18, a process in which the gas leak detection system 10 uses a composite image generated by an electronic device according to the method described in FIGS. 11 to 16 is shown. However, according to another embodiment, it goes without saying that each operation described in FIG. 18 can be performed not only by the gas leak detection system 10 but also by the electronic device 1000. For example, the electronic device 1000 may generate a composite image by combining the leakage image with the panoramic image according to the method described above with reference to FIGS. 11 to 16 in S330.
S332에서, 전자 장치(1000)는 합성 영상을 저장 및 전송할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 제한된 데이터 내에서 효율적 설계를 위해 RDBMS(331) (Relative Database Management System)구조에 따라 영상 데이터들을 관리할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 저장된 영상 데이터를 검색하기 위한 전자 장치(1000)에 대한 사용자 입력에 기초하여, 소정의 영상들을 출력할 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)는 DB SELECT를 이용하여 키워드 일부 및 단어 조합에 기초하여 소정의 저장된 영상 데이터를 출력할 수 있다. 또한, 일 실시 예에 의하면, 전자 장치(1000)는 RDBMS의 효율적 탐색을 위해 SQL을 기반으로 시스템을 구성하고, 고성능화와 사용자 경험 최적화를 위해 다중 조건 내에서 조건을 제한 문자열을 배열하는 구조를 SELECT문으로 기본 설계할 수 있다.In S332, the electronic device 1000 may store and transmit the composite image. According to one embodiment, the electronic device 1000 may manage image data according to the RDBMS 331 (Relative Database Management System) structure for efficient design within limited data. According to one embodiment, the electronic device 1000 may output certain images based on a user input to the electronic device 1000 to search stored image data. According to one embodiment, the electronic device 1000 may output certain stored image data based on a portion of a keyword and a word combination using DB SELECT. In addition, according to one embodiment, the electronic device 1000 configures a system based on SQL for efficient search of RDBMS, and has a SELECT structure for arranging strings that limit conditions within multiple conditions to improve performance and optimize user experience. It can be designed as a basic door.
S334에서, 전자 장치(1000)는 객체 인식 모델, 우도비 검정 모델 또는 서포트 벡터 머신 모델 중 적어도 하나를 이용함으로써 표적 객체가 검출되는 것으로 식별되는 경우, 검출된 표적 객체의 형상 정보에 기초하여 누출 원점 및 표적 객체의 종류를 결정하고, 누출 원점 및 표적 객체의 종류에 대한 정보를 포함 경보 및 알림 컨텐츠를 생성할 수 있다. 또한, 전자 장치(1000)는 경보 장치들을 동작시키기 위한 소정의 제어 신호를 함께 생성할 수 있다.In S334, when the electronic device 1000 identifies that a target object is detected by using at least one of an object recognition model, a likelihood ratio test model, or a support vector machine model, the electronic device 1000 determines the leak origin based on the shape information of the detected target object. and determine the type of target object, and generate alert and notification content including information on the leak origin and type of target object. Additionally, the electronic device 1000 may also generate a predetermined control signal for operating the alarm devices.
S336에서, 전자 장치(1000)는 경보 장치를 제어하기 위한 제어 신호를 경보 장치로 전송함으로써 경광등의 동작을 제어함으로써 발광을 시키거나, 스피커 장치를 제어함으로써 소정의 음향 신호가 출력되도록 할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 작업 현장에 설치된 관제 단말을 통하여 소정의 경보 장치를 제어할 수도 있음은 물론이다.In S336, the electronic device 1000 transmits a control signal for controlling the alarm device to control the operation of the warning light to emit light, or controls the speaker device to output a predetermined sound signal. According to one embodiment, of course, the electronic device 1000 may control a certain alarm device through a control terminal installed at the work site.
S338에서, 전자 장치(1000)는 S334에서 생성된 컨텐츠를 출력할 수 있다. 예를 들어, 전자 장치(1000)는 S334에서 생성된 컨텐츠를 전자 장치의 디스플레이 상에 출력할 수도 있지만, 전자 장치(1000)와 연결된 관제 단말의 디스플레이 또는 관제 서버를 통하여 연결되는 상황실 시스템의 디스플레이 장치로 컨텐츠를 전송할 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)가 전송하는 컨텐츠들은 RDBMS(331)에 실시간으로 저장될 수 있으며, 전자 장치(1000), 관제 단말, 또는 상황실 시스템에 대한 관제자의 사용자 입력에 기초하여 호출됨으로써, 소정의 디스플레이 상에 출력될 수도 있다.At S338, the electronic device 1000 may output the content generated at S334. For example, the electronic device 1000 may output the content generated in S334 on the display of the electronic device, but the display of the control terminal connected to the electronic device 1000 or the display device of the situation room system connected through the control server You can also transmit content. According to one embodiment, contents transmitted by the electronic device 1000 may be stored in the RDBMS 331 in real time, and are called based on the controller's user input to the electronic device 1000, the control terminal, or the situation room system. By doing so, it may be output on a certain display.
S340에서, 전자 장치(1000)는 카메라 설치셋(342), 레이저 거리 측정기(344), EO 및 OGI 카메라(346)를 제어하기 위한 제어 신호를 생성할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 전자 장치, 관제 단말 또는 상황실 시스템에 대한 관제자의 사용자 입력에 기초하여 카메라 설치셋(342), 레이저 거리 측정기(344), EO 및 OGI 카메라(346)를 제어하기 위한 제어 신호를 생성하고, 모니터링 대상 공간 내 특정 지점을 구체적으로 모니터링되도록 할 수 있다.At S340, the electronic device 1000 may generate control signals for controlling the camera installation set 342, the laser range finder 344, and the EO and OGI cameras 346. According to one embodiment, the electronic device 1000 installs a camera installation set 342, a laser range finder 344, and EO and OGI cameras 346 based on the controller's user input to the electronic device, control terminal, or situation room system. A control signal to control can be generated and a specific point within the monitoring target space can be specifically monitored.
도 19는 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 인공지능 모델을 이용하여 가스 누출을 탐지하는 방법의 흐름도이다.Figure 19 is a flowchart of a method in which an artificial intelligence-based gas leak detecting electronic device detects a gas leak using an artificial intelligence model according to an embodiment.
S1910에서, 전자 장치(1000)는 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 학습 영상들, 상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입 학습 영상들을 획득할 수 있다. 또 다른 실시 예에 의하면, 전자 장치(1000)는 전자 장치와 연결된 외부 디바이스로부터 표적 객체를 포함하는 가시광선 영상들 및 적외선 영상들을 제1 타입 학습 영상들 및 제2 타입 학습 영상들로 획득할 수 있다. 일 실시 예에 의하면, 제1 타입 학습 영상들은 및 제2 타입 학습 영상들은 가시광선 영상들 및 적외선 영상들일 수 있다.In S1910, the electronic device 1000 receives first type learning images of a space to be monitored from at least one first type of camera connected to the electronic device, and the monitoring image from at least one second type of camera connected to the electronic device. Second type learning images for the target space can be obtained. According to another embodiment, the electronic device 1000 may acquire visible light images and infrared images including a target object as first type learning images and second type learning images from an external device connected to the electronic device. there is. According to one embodiment, the first type learning images and the second type learning images may be visible light images and infrared images.
S1920에서, 전자 장치(1000)는 제1 타입 학습 영상들 및 상기 제2 타입 학습 영상들에 기초하여 학습 데이터 및 검증 데이터를 생성할 수 있다. 예를 들어, 전자 장치(1000)는 상기 제1 타입 학습 영상들 중 미리 설정된 비율에 따라 학습 데이터 및 검증 데이터를 생성할 수 있다. 또한, 전자 장치(1000)는 제2 타입 학습 영상들 중 미리 설정된 비율에 따라 학습 데이터 및 검증 데이터를 생성할 수 있다.In S1920, the electronic device 1000 may generate learning data and verification data based on the first type training images and the second type learning images. For example, the electronic device 1000 may generate training data and verification data according to a preset ratio among the first type training images. Additionally, the electronic device 1000 may generate training data and verification data according to a preset ratio among the second type training images.
S1930에서, 전자 장치(1000)는 생성된 학습 데이터에 기초하여, 상기 제1 타입의 카메라로부터 획득되는 제1 타입 영상들 및 상기 제2 타입의 카메라로부터 획득되는 제2 타입 영상들이 입력되면, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 객체 인식 모델을 학습시킬 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 제1 타입 학습 영상들에 기초하여, 제1 타입 영상들이 입력되면 제1 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 제1 객체 인식 모델을 학습시키고, 제2 타입 학습 영상들에 기초하여, 제2 타입 영상들이 입력되면 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 제2 객체 인식 모델을 학습 시킨 후, 제1 객체 인식 모델 및 제2 객체 인식 모델을 이용하여 하나의 객체 인식 모델을 생성할 수도 있다.In S1930, when first type images obtained from the first type camera and second type images obtained from the second type camera are input based on the generated learning data, the electronic device 1000 performs the An object recognition model that identifies whether a target object is detected in the first type images and the second type images can be trained. According to one embodiment, the electronic device 1000 creates a first object recognition model that identifies whether a target object in the first type images is detected when the first type images are input, based on the first type learning images. After training, based on the second type training images, a second object recognition model that identifies whether the target object in the second type images is detected when the second type images are input, a first object recognition model And one object recognition model may be created using the second object recognition model.
S1940에서, 전자 장치(1000)는 학습된 객체 인식 모델에 상기 제1 타입 영상들 및 상기 제2 타입 영상들을 입력함으로써, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체의 검출 여부를 식별할 수 있다. 도 19에 도시되지 않았지만, 전자 장치(1000)는 표적 객체가 검출되는 것으로 식별되는 경우, 표적 객체가 검출된 타입의 영상들로부터 표적 객체의 형상 정보를 추출하게 된다.In S1940, the electronic device 1000 detects the target object in the first type images and the second type images by inputting the first type images and the second type images into a learned object recognition model. can be identified. Although not shown in FIG. 19, when the electronic device 1000 identifies that a target object is detected, it extracts shape information of the target object from images of the type in which the target object was detected.
도 20은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 객체 인식 모델을 학습시키고, 학습된 객체 인식 모델을 활용하는 과정을 나타내는 도면이다.FIG. 20 is a diagram illustrating a process in which an electronic device for detecting an artificial intelligence-based gas leak learns an object recognition model and utilizes the learned object recognition model, according to an embodiment.
S2002에서 전자 장치(1000)는 인공지능 모델 학습을 위한 영상 데이터를 획득하고, 획득된 영상 데이터를 분석할 수 있다. S2004에서, 전자 장치(1000)는 획득된 영상 데이터를 전처리할 수 있다. S2006에서, 전자 장치(1000)는 획득된 영상 데이터 중에서 미리 설정된 비율에 따라 일부를 학습 데이터로 나머지 일부를 검증 데이터로 분리할 수 있다.In S2002, the electronic device 1000 may acquire image data for learning an artificial intelligence model and analyze the acquired image data. In S2004, the electronic device 1000 may preprocess the acquired image data. In S2006, the electronic device 1000 may separate some of the acquired image data into learning data and the remaining part into verification data according to a preset ratio.
S2008에서, 전자 장치(1000)는 표적 객체 인식을 위해 사용될 인공지능 알고리즘 및 모델을 결정할 수 있다. S2010에서, 전자 장치(1000)는 결정된 알고리즘 및 모델 사항에 따라, 상기 영상 데이터 중 일부의 영상 데이터인 학습 데이터에 기초하여 인공지능 모델을 학습시킬 수 있다. S2012에서, 전자 장치(1000)는 검증 데이터에 기초하여 학습된 인공지능 모델의 성능을 검증할 수 있다. S2014에서, 전자 장치(1000)는 인공지능 모델의 성능을 검증한 결과, 인공지능 모델의 성능이 소정의 조건을 만족하지 못하는 것으로 결정되는 경우, 인공지능 모델의 파라미터를 파인 튜닝할 수 있다. 그러나, S2016에서, 전자 장치(1000)는 인공지능 모델의 성능을 검증한 결과, 인공 지능 모델의 성능이 소정의 조건을 만족하는 것으로 결정되는 경우, 해당 인공지능 모델의 파라미터를 추출할 수 있다.At S2008, the electronic device 1000 may determine the artificial intelligence algorithm and model to be used for target object recognition. In S2010, the electronic device 1000 may learn an artificial intelligence model based on training data, which is some of the image data, according to the determined algorithm and model details. In S2012, the electronic device 1000 may verify the performance of an artificial intelligence model learned based on verification data. In S2014, the electronic device 1000 may fine-tune the parameters of the artificial intelligence model if, as a result of verifying the performance of the artificial intelligence model, it is determined that the performance of the artificial intelligence model does not satisfy a predetermined condition. However, in S2016, if the electronic device 1000 verifies the performance of the artificial intelligence model and determines that the performance of the artificial intelligence model satisfies a predetermined condition, the electronic device 1000 may extract the parameters of the corresponding artificial intelligence model.
S2018에서, 전자 장치(1000)는 인공지능 모델의 파라미터를 파인 튜닝한 결과에 기초하여, 인공지능 알고리즘 및 모델을 변경할 필요가 있는지 여부를 결정할 수 있다. 전자 장치(1000)는 인공지능 알고리즘 및 모델을 변경할 필요가 있는 경우, 새로운 인공지능 알고리즘 및 모델을 선정하게 되며, 인공지능 알고리즘 및 모델을 변경할 필요가 없는 경우, 해당 알고리즘 및 모델을 다시 학습시키고, 학습된 모델의 성능 만족 여부를 평가할 수 있다.In S2018, the electronic device 1000 may determine whether the artificial intelligence algorithm and model need to be changed based on the results of fine tuning the parameters of the artificial intelligence model. If there is a need to change the artificial intelligence algorithm and model, the electronic device 1000 selects a new artificial intelligence algorithm and model. If there is no need to change the artificial intelligence algorithm and model, the electronic device 1000 re-trains the algorithm and model. You can evaluate whether the performance of the learned model is satisfactory.
S2020에서, 전자 장치(1000)는 표적 객체 인식을 위한 입력 영상을 획득하고, 획득된 입력 영상을 전처리할 수 있다. S2022에서, 전자 장치(1000)는 S2016에서 결정된 인공지능 모델의 파라미터에 기초하여 실제 활용 인공 지능 모델의 파라미터를 수정 및 갱신함으로써 인공지능 모델을 학습시킬 수 있다. S2024에서, 전자 장치(1000)는 학습된 인공 지능 모델에, 전처리된 입력 영상을 입력한 결과에 기초하여 표적 객체가 검출되는지 여부를 식별하고, 표적 객체가 검출되는 것으로 식별되는 경우, 해당 표적 객체에 대한 정보를 저장 및 반환할 수 있다.In S2020, the electronic device 1000 may acquire an input image for target object recognition and preprocess the obtained input image. In S2022, the electronic device 1000 may learn the artificial intelligence model by modifying and updating the parameters of the actually used artificial intelligence model based on the parameters of the artificial intelligence model determined in S2016. In S2024, the electronic device 1000 identifies whether the target object is detected based on the result of inputting the preprocessed input image to the learned artificial intelligence model, and if it is identified that the target object is detected, the target object Information about can be stored and returned.
도 21은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 우도비 검정 모델 및 서포트 벡터 모신 모델을 학습과정을 나타내는 흐름도이다.Figure 21 is a flowchart showing a process of learning a likelihood ratio test model and a support vector model by an electronic device for detecting gas leaks based on artificial intelligence according to an embodiment.
S2110에서, 전자 장치(1000)는 제2 타입 학습 영상들 또는 상기 제2 타입 학습 영상들로부터 추출되는 스펙트럼 학습 정보에 기초하여, 상기 제2 타입 영상들 또는 상기 제2 타입 영상들로부터 추출되는 스펙트럼 정보가 입력되면, 상기 추출된 스펙트럼 정보 내 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 식별하는 우도비 검정 모델을 학습시킬 수 있다.In S2110, the electronic device 1000 generates the second type images or the spectrum extracted from the second type images based on the second type learning images or spectrum learning information extracted from the second type learning images. When information is input, a likelihood ratio test model that identifies whether there is a frequency pattern according to the target object in the extracted spectrum information can be trained.
S2120에서, 전자 장치(1000)는 제2 타입 학습 영상들 또는 상기 제2 타입 학습 영상들로부터 추출되는 스펙트럼 학습 정보에 기초하여, 상기 제2 타입 영상들 또는 상기 제2 타입 영상들로부터 추출되는 스펙트럼 정보가 입력되면, 상기 추출된 스펙트럼 정보 내 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 식별하는 서포트 벡터 머신 모델을 학습시킬 수 있다. 전자 장치(1000)가 우도비 검정 모델 및 서포트 벡터 모신 모델을 학습하는 구체적인 과정은 후술하는 도 22를 참조하여 구체적으로 설명하기로 한다.In S2120, the electronic device 1000 generates the second type images or the spectrum extracted from the second type images based on the second type learning images or spectrum learning information extracted from the second type learning images. When information is input, a support vector machine model that identifies whether there is a frequency pattern according to the target object in the extracted spectrum information can be trained. The specific process by which the electronic device 1000 learns the likelihood ratio test model and the support vector model will be described in detail with reference to FIG. 22, which will be described later.
도 22은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 우도비 검정 모델 및 서포트 벡터 모신 모델을 학습하는 과정을 설명하기 위한 도면이다.FIG. 22 is a diagram illustrating a process in which an electronic device for detecting gas leaks based on artificial intelligence learns a likelihood ratio test model and a support vector model according to an embodiment.
S2202에서, 전자 장치(1000)는 우도비 검정 모델 학습을 위한 주파수 데이터를 획득하고, 획득된 주파수 데이터를 분석한다. 일 실시 예에 의하면, 주파수 데이터는 제2 타입 학습 영상들을 주파수 도메인으로 변환함으로써 생성되는 영상 데이터일 수 있다. S2204에서, 전자 장치(1000)는 주파수 데이터를 전처리할 수 있다. S2206에서, 전자 장치(1000)는 전처리된 주파수 데이터 중 일부를 학습 데이터, 나머지 일부를 검증 데이터로 설정할 수 있다.In S2202, the electronic device 1000 acquires frequency data for learning a likelihood ratio test model and analyzes the acquired frequency data. According to one embodiment, the frequency data may be image data generated by converting second type training images into the frequency domain. In S2204, the electronic device 1000 may preprocess frequency data. In S2206, the electronic device 1000 may set some of the preprocessed frequency data as learning data and the remaining part as verification data.
S2208에서, 전자 장치(1000)는 표적 객체에 따른 주파수 패턴을 분류하기 위한 알고리즘을 선정할 수 있다. 일 실시 예에 의하면 전자 장치(1000)는 적외선 영상으로부터 획득된 스펙트럼 정보를 분류하기 위한 알고리즘으로 우도비 검정 알고리즘을 사용할 수 있다. S2210에서, 전자 장치(1000)는 학습 데이터에 기초하여 선정된 알고리즘 및 상기 알고리즘에 따른 모델을 학습시킬 수 있다.In S2208, the electronic device 1000 may select an algorithm for classifying the frequency pattern according to the target object. According to one embodiment, the electronic device 1000 may use a likelihood ratio test algorithm as an algorithm for classifying spectral information obtained from an infrared image. In S2210, the electronic device 1000 may learn an algorithm selected based on learning data and a model according to the algorithm.
S2212에서, 전자 장치(1000)는 학습된 모델의 성능이 소정의 목표치를 만족하는지 여부를 검증할 수 있다. S2214에서, 전자 장치(1000)는 학습된 모델의 성능이 소정의 목표치를 만족하지 않는 것으로 식별되는 경우, 해당 모델에 대한 파인 튜닝(Fine Tunning)을 수행할 수 있다. S2216에서, 전자 장치(1000)는 S2212에서 학습된 모델의 성능이 소정의 목표치를 만족하는 것으로 식별되는 경우, 학습된 모델의 파라미터를 추출할 수 있다.In S2212, the electronic device 1000 may verify whether the performance of the learned model satisfies a predetermined target value. In S2214, when the electronic device 1000 determines that the performance of the learned model does not meet a predetermined target value, the electronic device 1000 may perform fine tuning on the model. In S2216, if the performance of the model learned in S2212 is identified as satisfying a predetermined target value, the electronic device 1000 may extract parameters of the learned model.
S2218에서, 전자 장치(1000)는 학습된 모델에 입력하기 위해, 표적 객체 검출 대상이 되는 적외선 영상을 획득하고, 획득된 적외선 영상을 푸리에 변환함으로써 획득되는 주파수 데이터에 대해 전처리를 수행할 수 있다. S2220에서, 전자 장치(1000)는 전처리된 주파수 데이터 또는 상기 주파수 데이터에서 획득되는 스펙트럼 정보를 학습된 인공지능 학습 모델(예컨대 우도비 검정 모델)에 입력함으로써 표적 객체에 따른 주파수 패턴이 식별되는지 여부를 확인할 수 있다.In S2218, the electronic device 1000 may acquire an infrared image that is a target object detection target to input it into the learned model, and perform preprocessing on the frequency data obtained by Fourier transforming the acquired infrared image. In S2220, the electronic device 1000 determines whether a frequency pattern according to the target object is identified by inputting preprocessed frequency data or spectrum information obtained from the frequency data into a learned artificial intelligence learning model (e.g., likelihood ratio test model). You can check it.
또한, 일 실시 예에 의하면, 전자 장치(1000)는 표적 객체에 따른 주파수 패턴을 검출하기 위해 또 다른 패턴 분류 알고리즘 및 이에 기초하여 학습되는 모델을 더 이용할 수도 있다. 예를 들어, 전자 장치(1000)는 서포트 벡터 머신 모델을 학습시키고, 학습된 서포트 벡터 머신 모델을 소정의 조건에서 우도비 검정 모델과 함께 이용함으로써 표적 객체에 따른 주파수 패턴을 정확하게 추출할 수 있다. S2230 내지 S2250에 도시된 동작은 S2202 내지 S2220에 대응될 수 있으므로 구체적인 설명은 생략하기로 한다.Additionally, according to one embodiment, the electronic device 1000 may further use another pattern classification algorithm and a model learned based on it to detect a frequency pattern according to the target object. For example, the electronic device 1000 can accurately extract a frequency pattern according to a target object by training a support vector machine model and using the learned support vector machine model together with a likelihood ratio test model under predetermined conditions. Since the operations shown in S2230 to S2250 may correspond to S2202 to S2220, detailed description will be omitted.
도 23은 또 다른 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 복수의 소프트웨어 모듈을 이용하여 가스 누출을 탐지하는 과정을 설명하기 위한 도면이다.FIG. 23 is a diagram illustrating a process in which an artificial intelligence-based gas leak detecting electronic device detects a gas leak using a plurality of software modules according to another embodiment.
도 12에 도시된 각 모듈은 가스 누출 탐지를 위해 전자 장치(1000)의 프로세서에 의해 실행될 수 있는, 메모리 내 저장된 하나 이상의 인스트럭션 집합일 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 AI 가스 영상 및 연기 탐지 모듈(2320), 원점 탐지 모듈(2330), 시각화 모듈(2340), 경보 및 제어 모듈(2350)로 구분되는 하나 이상의 인스트럭션을 메모리에 저장하고, 저장된 인스트럭션들을 실행함으로써 모니터링 대상 공간에 대한 표적 객체를 탐지할 수 있다. 일 실시 예에 의하면, S2322 내지 S2328에서 전자 장치가 이용하는 S/W들은 AI 가스 영상 및 연기 탐지 모듈(2320)에 포함될 수 있다.Each module shown in FIG. 12 may be a set of one or more instructions stored in memory that can be executed by the processor of the electronic device 1000 for gas leak detection. According to one embodiment, the electronic device 1000 includes one or more instructions divided into an AI gas image and smoke detection module 2320, an origin detection module 2330, a visualization module 2340, and an alarm and control module 2350. By storing in memory and executing the stored instructions, target objects for the space to be monitored can be detected. According to one embodiment, S/W used by the electronic device in S2322 to S2328 may be included in the AI gas image and smoke detection module 2320.
예를 들어, S2322에서, 전자 장치(1000)는 EO 카메라(2314), OGI 카메라(2312) 및 레이저 측정기(2316)를 포함하는 카메라 설치셋(2310)으로부터 가시광선 영상들(예컨대 EO 영상들) 및 적외선 영상들(예컨대 OGI 영상들)을 획득할 수 있다. S2323에서, 전자 장치(1000)는 객체 인식 기술 S/W를 실행함으로써, 표적 객체가 가시광선 영상들 및 적외선 영상들로부터 1차적으로 검출되지 않는 것으로 식별되는 경우, 적외선 영상 주파수 변환 S/W를 실행함으로써 시공간 도메인에 따른 적외선 영상 정보를 주파수 도메인의 변환 영상 정보로 변환할 수 있다. 전자 장치(1000)는 주파수 도메인의 변환 영상 정보에서 스펙트럼을 추출할 수 있다.For example, at S2322, the electronic device 1000 receives visible light images (e.g., EO images) from a camera setup 2310 that includes an EO camera 2314, an OGI camera 2312, and a laser meter 2316. and infrared images (eg, OGI images) can be acquired. In S2323, the electronic device 1000 executes the object recognition technology S/W, and when the target object is identified as not primarily detected from the visible light images and the infrared images, the electronic device 1000 performs the infrared image frequency conversion S/W. By executing, infrared image information according to the space-time domain can be converted into converted image information in the frequency domain. The electronic device 1000 may extract a spectrum from converted image information in the frequency domain.
S2324에서, 전자 장치(1000)는 우도비 검정모델 및 SVM 모델 학습을 위한 S/W를 실행함으로써 표적 객체에 따른 주파수 패턴을 식별하기 위한 우도비 검정 모델 및 SVM 모델을 학습시킬 수 있다. S2325에서, 전자 장치(1000)는 주파수별 패턴 분석 S/W를 실행함으로써 우도비 검정 모델 또는 SVM 모델 중 적어도 하나를 이용하여 적외선 영상 내 표적 객체에 따른 주파수 패턴이 있는지 여부를 식별할 수 있다.In S2324, the electronic device 1000 may learn a likelihood ratio test model and an SVM model for identifying a frequency pattern according to a target object by executing S/W for learning a likelihood ratio test model and an SVM model. In S2325, the electronic device 1000 may identify whether there is a frequency pattern according to the target object in the infrared image using at least one of a likelihood ratio test model or an SVM model by executing frequency-specific pattern analysis S/W.
S2326에서, 전자 장치(1000)는 객체 인식 기술 S/W를 실행함으로써 표적 객체가 인식되거나 적외선 영상으로부터 표적 객체에 따른 주파수 패턴이 식별되는 경우, 연기/배경 분리 S/W를 실행함으로써 표적 객체 영역을 분리할 수 있다. S2327에서, 전자 장치(1000)는 연기 형상 검출 S/W를 실행함으로써 마스킹 데이터를 이용하여, 표적 객체가 검출된 타입의 영상들에서 표적 객체 영역을 분리하고, 분리된 표적 객체 영역들의 형상 정보를 추출할 수 있다. S2328에서, 전자 장치(1000)는 연기 원점/흐름 검출 S/W를 실행함으로써, 표적 객체가 검출된 타입의 영상들 내 인접한 프레임 이미지 각각에서 추출된 형상 정보에 기초하여, 분리된 표적 객체 영역들에 대한 모션 벡터를 결정하고, 결정된 모션 벡터들의 합벡터에 기초하여 누출 원점 및 흐름 벡터를 결정할 수 있다.In S2326, when the target object is recognized by executing the object recognition technology S/W or a frequency pattern according to the target object is identified from the infrared image, the electronic device 1000 executes the smoke/background separation S/W to determine the target object area. can be separated. In S2327, the electronic device 1000 uses masking data by executing the smoke shape detection S/W to separate the target object area from the images of the type in which the target object was detected, and to provide shape information of the separated target object areas. It can be extracted. In S2328, the electronic device 1000 executes the smoke origin/flow detection S/W to separate target object areas based on shape information extracted from each adjacent frame image in the images of the type in which the target object was detected. The motion vector for can be determined, and the leak origin and flow vector can be determined based on the sum vector of the determined motion vectors.
일 실시 예에 의하면, 전자 장치(1000)가 이용하는 원점 탐지 모듈(2330)은 거리 구면 좌표 인식 S/W 및 위치 정보 변환 S/W를 포함할 수 있다. 예를 들어, S2329에서, 거리 구면 좌표 인식 S/W를 실행함으로써, 누출 원점에 대응되는 표적 객체가 발생한 물리적 공간까지의 거리를 획득하고, 획득된 누출 원점에 대한 카메라의 팬틸트 정보를 획득하며, 상기 누출 원점, 흐름 벡터, 표적 객체가 발생한 물리적 공간까지의 거리 및 팬틸트 정보에 기초하여 구면 좌표계에서의 좌표를 결정할 수 있다. S2330에서, 전자 장치(1000)는 위치 정보 변환 S/W를 실행함으로써 상기 결정된 구면 좌표계에서의 좌표를 직교 좌표계 또는 카메라의 왜곡 정보 보정에 따른 좌표 값으로 변환할 수 있다. According to one embodiment, the origin detection module 2330 used by the electronic device 1000 may include distance spherical coordinate recognition S/W and location information conversion S/W. For example, in S2329, by executing the distance spherical coordinate recognition S/W, the distance to the physical space where the target object corresponding to the leak origin occurs is obtained, and the pan-tilt information of the camera about the acquired leak origin is acquired; , Coordinates in a spherical coordinate system can be determined based on the leak origin, flow vector, distance to the physical space where the target object occurs, and pan-tilt information. In S2330, the electronic device 1000 may convert the coordinates in the determined spherical coordinate system into coordinate values according to the rectangular coordinate system or distortion information correction of the camera by executing the location information conversion S/W.
S2340에서, 전자 장치(1000)는 영상 합성 S/W를 실행함으로써 S2330에서 결정된 좌표 값에 기초하여, 누출 영상을 파노라마 영상에 대해 합성함으로써 합성 영상을 생성할 수 있다. 일 실시 예에 의하면 시각화 모듈(2340)은 영상 합성 S/W를 포함할 수 있다. 또한, 일 실시 예에 의하면 경보/제어 모듈(2350)은 환경 설정 S/W, 제어 기능 S/W, 저장 기능 S/W, 검색 기능 S/W, 경보 기능 S/W를 포함할 수 있다.In S2340, the electronic device 1000 may generate a composite image by compositing the leaked image with the panoramic image based on the coordinate values determined in S2330 by executing the image synthesis S/W. According to one embodiment, the visualization module 2340 may include image synthesis S/W. Additionally, according to one embodiment, the alarm/control module 2350 may include environment setting S/W, control function S/W, storage function S/W, search function S/W, and alarm function S/W.
S2352에서, 전자 장치(1000)는 환경 설정 S/W를 실행함으로써 모니터링 대상 공간에 대한 카메라 설치셋(2310)의 동작 환경을 조정할 수 있다. S2354에서, 전자 장치(1000)는 제어 기능 S/W를 실행함으로써 카메라 설치셋(2310)내 카메라 장치 및 레이저 측정기의 동작을 세부적으로 제어할 수 있다. S2356에서, 전자 장치(1000)는 저장기능 S/W를 실행함으로써 S2340에서 획득된 합성 영상을 메모리에 저장할 수 있다. S2357에서, 전자 장치(1000)는 검색 기능 S/W를 실행함으로써 저장된 합성 영상에 접근하려는 사용자 입력에 기초하여 소정의 영상을 검색하고 출력하는 기능을 수행할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 시간 별, 카메라별, 위치별로 EO 영상 및 OGI 영상들을 저장해놓고, 시간 별 검색 조건에 따른 소정의 영상들을 검색할 수 있을 뿐만 아니라, 표적 객체 탐지에 따른 이벤트 기록을 저장하고, 이벤트 별 기록들을 사용자 요청에 의해 출력할 수도 있다.In S2352, the electronic device 1000 can adjust the operating environment of the camera installation set 2310 for the monitoring target space by executing the environment setting S/W. In S2354, the electronic device 1000 can control the operation of the camera device and the laser measuring device in the camera installation set 2310 in detail by executing the control function S/W. In S2356, the electronic device 1000 may store the composite image acquired in S2340 in memory by executing the storage function S/W. In S2357, the electronic device 1000 may perform a function of searching and outputting a predetermined image based on a user input to access a stored composite image by executing the search function S/W. According to one embodiment, the electronic device 1000 stores EO images and OGI images by time, camera, and location, and can not only search predetermined images according to search conditions by time, but also detect target objects. Event records can be stored, and records for each event can be output upon user request.
S2358에서, 전자 장치(1000)는 경보기능 S/W를 실행함으로써 영상 내 표적 객체가 검출되는 것으로 식별되는 경우 소정의 경보 컨텐츠 및 제어 신호를 생성하고, 생성된 경보 컨텐츠를 출력부(2360)의 영상 디스플레이에 전송하거나, 생성된 제어 신호를 출력부(2360)의 경광등으로 전송함으로써 발광 동작을 수행하도록 제어할 수 있다.In S2358, the electronic device 1000 generates predetermined alarm content and a control signal when it is identified that a target object in the image is detected by executing the alarm function S/W, and sends the generated alarm content to the output unit 2360. The light emitting operation can be controlled by transmitting it to the image display or transmitting the generated control signal to the warning light of the output unit 2360.
도 24는 또 다른 실시 예에 따라, 측정 장치, 인공지능 기반 가스 누출 탐지 서버, 경보/제어 서버 및 관제 장치가 서로 연동함으로써 가스 누출을 탐지하는 과정을 설명하기 위한 도면이다.FIG. 24 is a diagram illustrating a process for detecting a gas leak by linking a measuring device, an artificial intelligence-based gas leak detection server, an alarm/control server, and a control device with each other, according to another embodiment.
일 실시 예에 의하면 도 1 내지 23에 상술한 가스 누출 탐지 과정들은 가스 누출 탐지 시스템(10) 또는 전자 장치(1000)에 의해서 수행될 수 있다. 일 실시 예에 의하면 가스 누출 탐지 시스템(10)은 측정 장치(2410), 인공지능 기반 가스 누출 탐지 서버(2420), 경보 및 제어 서버(2340) 및 관제 장치(2440)를 포함할 수 있다. 도 24를 참조하여 측정 장치(2410), 인공지능 기반 가스 누출 탐지 서버(2420), 경보 및 제어 서버(2340) 및 관제 장치(2440)가 서로 연동함으로써 가스 누출을 탐지하는 과정을 설명하기로 한다.According to one embodiment, the gas leak detection processes described above in FIGS. 1 to 23 may be performed by the gas leak detection system 10 or the electronic device 1000. According to one embodiment, the gas leak detection system 10 may include a measurement device 2410, an artificial intelligence-based gas leak detection server 2420, an alarm and control server 2340, and a control device 2440. With reference to FIG. 24, the process of detecting a gas leak by linking the measuring device 2410, the artificial intelligence-based gas leak detection server 2420, the alarm and control server 2340, and the control device 2440 with each other will be explained. .
S2402에서, 측정 장치(2410)는 영상 정보 및 레이저 측정 값을 획득할 수 있다. 또 다른 실시 예에 의하면, 측정 장치(2410)는 영상 정보를 먼저 획득하고, 경보 및 제어 서버(2340)의 제어에 의해, 누출 원점이 탐지되면, 해당 누출 원점에 대한 레이저 측정 값을 추후에 획득할 수도 있다. S2404에서, 측정 장치(2410)는 영상 정보 및 레이저 측정 값을 인공지능 기반 가스 누출 탐지 서버(2420)로 전송할 수 있다.In S2402, the measurement device 2410 may acquire image information and laser measurement values. According to another embodiment, the measurement device 2410 acquires image information first, and when the leak origin is detected under the control of the alarm and control server 2340, the laser measurement value for the leak origin is later acquired. You may. In S2404, the measurement device 2410 may transmit image information and laser measurement values to the artificial intelligence-based gas leak detection server 2420.
S2406에서, 인공지능 기반 가스 누출 탐지 서버(2420)는 영상 정보 및 레이저 측정 값을 경보 및 제어 서버(2430)로 전달할 수 있다. 그러나, 상술한 과정은 수행되지 않을 수 있으며, 인공지능 기반 가스 누출 탐지 서버(2420)는 영상 정보 및 레이저 측정 값을 자체 서버 장치 내에서만 분석할 수도 있다. S2408에서, 인공지능 기반 가스 누출 탐지 서버(2420)는 적어도 하나의 인공지능 모델을 이용하여 획득된 영상 정보 내 표적 객체가 검출되는지 여부를 식별할 수 있다.In S2406, the artificial intelligence-based gas leak detection server 2420 may transmit image information and laser measurement values to the alarm and control server 2430. However, the above-described process may not be performed, and the artificial intelligence-based gas leak detection server 2420 may analyze image information and laser measurement values only within its own server device. In S2408, the artificial intelligence-based gas leak detection server 2420 may identify whether a target object in the acquired image information is detected using at least one artificial intelligence model.
S2410에서, 인공지능 기반 가스 누출 탐지 서버(2420)는 표적 객체가 검출되는 것으로 식별되는 경우, 해당 표적 객체의 형상 정보에 기초하여 누출 원점 및 흐름 벡터를 결정할 수 있다. S2412에서, 인공지능 기반 가스 누출 탐지 서버(2420)는 누출 원점 및 흐름 벡터에 기초하여 거리 구면 좌표를 결정하고, 결정된 거리 구면 좌표를 변환함으로써 누출 영상의 파노라마 영상에 대한 좌표를 결정할 수 있다. S2414에서, 인공지능 기반 가스 누출 탐지 서버(2420)는 누출 영상을 파노라마 영상에 합성함으로써 합성 영상을 생성할 수 있다.In S2410, the artificial intelligence-based gas leak detection server 2420 may determine the leak origin and flow vector based on shape information of the target object when it is identified that the target object is detected. In S2412, the artificial intelligence-based gas leak detection server 2420 may determine the distance spherical coordinates based on the leak origin and the flow vector, and determine the coordinates for the panoramic image of the leak image by converting the determined distance spherical coordinates. In S2414, the artificial intelligence-based gas leak detection server 2420 may generate a composite image by combining the leak image with the panoramic image.
S2416에서, 인공지능 기반 가스 누출 탐지 서버(2420)는 이벤트 탐지 결과, 영상 정보, 레이저 측정값, 합성 영상 및 인공지능 모델의 분석 결과를 경보 및 제어 서버(2430)로 전달할 수 있다. S2418에서, 경보 및 제어 서버(2431)는 이벤트 탐지 결과, 영상 정보, 레이저 측정 값, 합성 영상, 인공 지능 모델의 분석 결과를 관제 장치(2440)로 전달할 수 있다. S2420에서, 관제 장치(2420)는 관제 디스플레이를 통해 합성 영상을 포함한 관제 영상을 표시하고, 소정의 경고 컨텐츠를 생성하며, 생성된 경고 컨텐츠를 관제 영상과 함께 중첩하여 표시할 수 있다.In S2416, the artificial intelligence-based gas leak detection server 2420 may transmit event detection results, image information, laser measurements, synthetic images, and analysis results of the artificial intelligence model to the alarm and control server 2430. In S2418, the alarm and control server 2431 may transmit the event detection result, image information, laser measurement value, synthetic image, and analysis result of the artificial intelligence model to the control device 2440. In S2420, the control device 2420 may display a control image including a composite image through the control display, generate predetermined warning content, and display the generated warning content by overlapping it with the control image.
S2422에서, 관제 장치(2440)는 카메라 제어 신호, 레이저 측정기 제어 신호를 측정 장치(2410)로 전달할 수 있다. 일 실시 예에 의하면 관제 장치(2440)는 복수 타입의 카메라들로 제어 신호를 전송함으로써, 복수 타입 영상들 사이의 전환 기능을 수행할 수도 있다. 또 다른 실시 예에 의하면, 관제 장치(2440)은 제어 신호를 경보 및 제어 서버(2430)를 통해 측정 장치(2410)로 전달할 수도 있다. 예를 들어, S2424에서, 관제 장치(2440)는 관제 장치(2440)에 대한 관제자의 사용자 입력에 기초하여 제어 신호를 생성하고, 생성된 제어 신호를 경보 및 제어 서버(2430)로 전달할 수 있다. S2426에서, 측정 장치(2410)는 제어 신호에 따라 동작 및 새로운 정보를 획득할 수 있다.In S2422, the control device 2440 may transmit a camera control signal and a laser measurer control signal to the measurement device 2410. According to one embodiment, the control device 2440 may perform a function of switching between multiple types of images by transmitting control signals to multiple types of cameras. According to another embodiment, the control device 2440 may transmit a control signal to the measurement device 2410 through the alarm and control server 2430. For example, in S2424, the control device 2440 may generate a control signal based on the controller's user input to the control device 2440 and transmit the generated control signal to the alarm and control server 2430. At S2426, the measurement device 2410 may operate and obtain new information according to the control signal.
도 25는 또 다른 실시 예에 따라, 전자 장치, 경보 장치 및 서버가 서로 연동함으로써 가스 누출을 탐지하는 과정을 설명하기 위한 도면이다.FIG. 25 is a diagram illustrating a process for detecting a gas leak by linking an electronic device, an alarm device, and a server with each other, according to another embodiment.
본 개시의 또 다른 실시 예에 의하면 가스 누출 탐지 시스템(10)은 전자 장치(1000), 경보 장치(2520) 및 서버(2000)를 포함할 수도 있다. 도 25에 도시된 과정들은 가스 누출 탐지 시스템(10)에 의해 수행될 수도 있으나, 전자 장치(1000)에 의해서도 수행될 수 있음은 물론이다.According to another embodiment of the present disclosure, the gas leak detection system 10 may include an electronic device 1000, an alarm device 2520, and a server 2000. The processes shown in FIG. 25 may be performed by the gas leak detection system 10, but of course, they may also be performed by the electronic device 1000.
S2502에서, 전자 장치(10000)는 영상 정보, 레이저 측정 값을 획득할 수 있다. S2504에서, 전자 장치(1000)는 획득된 영상 정보, 레이저 측정 값을 서버(2000)로 전달할 수 있다. S2506에서, 전자 장치(1000)는 인공지능 모델을 이용하여 영상 정보 내 표적 객체가 탐지되는지 및 표적 객체의 종류를 분석할 수 있다. S2508에서, 전자 장치(1000)는 인공지능 모델을 이용한 객체 탐지 결과를 서버(2000)로 전송할 수 있다. 도 25에는 도시되지 않았지만, 서버(2000)는 전자 장치(1000)에서 전송된 영상 정보, 레이저 측정 값, 객체 탐지 결과를 실시간으로 관제 장치의 디스플레이로 출력할 수 있다.In S2502, the electronic device 10000 may acquire image information and laser measurement values. In S2504, the electronic device 1000 may transmit the acquired image information and laser measurement value to the server 2000. In S2506, the electronic device 1000 may use an artificial intelligence model to determine whether a target object is detected in the image information and analyze the type of the target object. In S2508, the electronic device 1000 may transmit the object detection result using the artificial intelligence model to the server 2000. Although not shown in FIG. 25, the server 2000 may output image information, laser measurement values, and object detection results transmitted from the electronic device 1000 to the display of the control device in real time.
S2510에서, 전자 장치(1000)는 인공지능 모델을 이용하여 영상 정보 내 표적 객체가 탐지되는지 여부에 기초하여 소정의 경고 이벤트가 발생하였는지 여부를 결정할 수 있다. S2512에서, 전자 장치(1000)는 이벤트가 탐지되는 경우 경보 정보를 경보 장치(2520)로 전송할 수 있다. 또한, 전자 장치(1000)는 S2514에서, 경보 정보 및 탐지 결과를 서버(2000)로 전송할 수 있다. 일 실시 예에 의하면, S2516에서, 서버(2000)는 전자 장치(1000)와 별도의 경보 정보를 경보 장치(2520)로 더 전송함으로써, 복수 루트로 경보 장치의 동작 신뢰를 확보할 수 있다.In S2510, the electronic device 1000 may determine whether a predetermined warning event has occurred based on whether a target object in image information is detected using an artificial intelligence model. In S2512, the electronic device 1000 may transmit alarm information to the alarm device 2520 when an event is detected. Additionally, the electronic device 1000 may transmit alarm information and detection results to the server 2000 in S2514. According to one embodiment, in S2516, the server 2000 further transmits alarm information separate from that of the electronic device 1000 to the alarm device 2520, thereby securing operation reliability of the alarm device through multiple routes.
S2518에서, 전자 장치(1000)는 객체 탐지시 누출 원점 및 좌표 정보를 결정할 수 있다. S2520에서, 전자 장치(1000)는 표적 객체에 관한 누출 영상을 생성하고, 생성된 누출 영상을 파노라마 영상에 합성함으로써 합성 영상을 생성할 수 있다. S2524에서, 서버(2000)는 합성 영상 정보 및 탐지 결과를 출력할 수 있다. S2526에서, 서버(2000)는 경보 장치 내 다양한 구성 장치들을 제어하기 위한 제어 신호를 경보 장치(2520)로 전송할 수 있다. S2528에서, 서버(2000)는 카메라 설치셋 내 구성 장치들을 제어하기 위한 제어 신호를 전자 장치(1000)로 전송할 수 있다. In S2518, the electronic device 1000 may determine the leak origin and coordinate information when detecting an object. In S2520, the electronic device 1000 may generate a leakage image related to the target object and generate a composite image by combining the generated leakage image with a panoramic image. At S2524, the server 2000 may output synthetic image information and detection results. In S2526, the server 2000 may transmit a control signal for controlling various components within the alarm device to the alarm device 2520. In S2528, the server 2000 may transmit a control signal for controlling components in the camera installation set to the electronic device 1000.
도 26은 일 실시 예에 따른 전자 장치의 블록도이다.Figure 26 is a block diagram of an electronic device according to an embodiment.
도 27은 또 다른 실시 예에 따른 전자 장치의 블록도이다.Figure 27 is a block diagram of an electronic device according to another embodiment.
도 26에 도시된 바와 같이, 일 실시 예에 따른 전자 장치(1000)는 프로세서(1300), 네트워크 인터페이스(1500) 및 메모리(1700)를 포함할 수 있다. 그러나, 도시된 구성 요소가 모두 필수구성요소인 것은 아니다. 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 그 보다 적은 구성 요소에 의해서도 전자 장치(1000)는 구현될 수도 있다.As shown in FIG. 26, the electronic device 1000 according to an embodiment may include a processor 1300, a network interface 1500, and a memory 1700. However, not all of the illustrated components are essential components. The electronic device 1000 may be implemented with more components than the illustrated components, or may be implemented with fewer components.
예를 들어, 도 27에 도시된 바와 같이, 전자 장치(1000)는 프로세서(1300), 네트워크 인터페이스(1500) 및 메모리(1700)외에, 사용자 입력 인터페이스(1100), 출력부(1200), 센싱부(1400), 네트워크 인터페이스(1500), A/V 입력부(1600) 및 메모리(1700)를 더 포함할 수도 있다.For example, as shown in FIG. 27, the electronic device 1000 includes a processor 1300, a network interface 1500, and a memory 1700, as well as a user input interface 1100, an output unit 1200, and a sensing unit. It may further include 1400, a network interface 1500, an A/V input unit 1600, and a memory 1700.
사용자 입력 인터페이스(1100)는, 사용자가 전자 장치(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력 인터페이스(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input interface 1100 refers to a means for a user to input data to control the electronic device 1000. For example, the user input interface 1100 includes a key pad, a dome switch, and a touch pad (contact capacitive type, pressure resistive type, infrared detection type, surface ultrasonic conduction type, There may be a mathematical tension measurement method, a piezo effect method, etc.), a jog wheel, a jog switch, etc., but it is not limited to these.
사용자 입력 인터페이스(1100)는, 카메라 설치셋을 제어하거나, 영상 내 특정 영역을 확대 또는 축소하기 위한 사용자 입력을 수신할 수 있다. 또 다른 실시 예에 의하면 사용자 입력 인터페이스(1100)는 저장된 합성 영상 중 특정 시간 및 장소에 대한 영상에 접근하기 위한 사용자 입력을 획득할 수도 있음은 물론이다. 출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.The user input interface 1100 may receive user input for controlling a camera installation set or enlarging or reducing a specific area in an image. According to another embodiment, the user input interface 1100 may, of course, obtain a user input to access an image for a specific time and place among stored composite images. The output unit 1200 may output an audio signal, a video signal, or a vibration signal, and the output unit 1200 may include a display unit 1210, an audio output unit 1220, and a vibration motor 1230. there is.
디스플레이부(1210)는 전자 장치(1000)에서 처리되는 정보를 표시 출력하기 위한 화면을 포함한다. 또한, 화면은 카메라 설치셋에서 획득된 복수 타입 영상들, 누출 영상, 파노라마 영상 및 합성 영상을 디스플레이 할 수 있다. 예를 들면, 화면의 적어도 일부는 모니터링 대상 공간에 대한 합성 영상, 상기 합성 영상에서 나타나는 표적 객체를 세밀하게 모니터링하기 위해, 카메라 설치셋등을 제어하기 위한 사용자 인터페이스 등을 함께 출력할 수 있다.The display unit 1210 includes a screen for displaying and outputting information processed by the electronic device 1000. Additionally, the screen can display multiple types of images acquired from a camera installation set, leakage images, panoramic images, and composite images. For example, at least a portion of the screen may output a composite image of a space to be monitored, a user interface for controlling a camera installation set, etc. to closely monitor a target object appearing in the composite image.
음향 출력부(1220)는 네트워크 인터페이스(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1220)는 전자 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다.The audio output unit 1220 outputs audio data received from the network interface 1500 or stored in the memory 1700. Additionally, the sound output unit 1220 outputs sound signals related to functions performed in the electronic device 1000 (eg, call signal reception sound, message reception sound, notification sound).
프로세서(1300)는 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력 인터페이스(1100), 출력부(1200), 센싱부(1400), 네트워크 인터페이스(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다. 또한, 프로세서(1300)는 메모리(1700)에 저장된 프로그램들을 실행함으로써, 도 1 내지 도 25에 기재된 전자 장치(1000)의 기능을 수행할 수 있다.The processor 1300 typically controls the overall operation of the electronic device 1000. For example, the processor 1300 executes programs stored in the memory 1700, such as the user input interface 1100, the output unit 1200, the sensing unit 1400, the network interface 1500, and the A/V input unit. (1600) etc. can be controlled overall. Additionally, the processor 1300 may perform the functions of the electronic device 1000 shown in FIGS. 1 to 25 by executing programs stored in the memory 1700.
일 실시 예에 의하면, 프로세서(1300)는 상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 영상들을 획득하고, 상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입 영상들을 획득하고, 상기 제1 타입 영상들 및 상기 제2 타입 영상들이 입력되면, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 객체 인식 모델에, 상기 제1 타입 영상들 및 상기 제2 타입 영상들을 입력함으로써, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체 검출 여부를 식별할 수 있다.According to one embodiment, the processor 1300 acquires first type images of the space to be monitored from at least one first type camera connected to the electronic device by executing the one or more instructions. and acquire second type images of the monitoring target space from at least one second type camera connected to the electronic device, and when the first type images and the second type images are input, the first type images By inputting the first type images and the second type images into an object recognition model that identifies whether a target object in the images and the second type images is detected, the first type images and the second type images It is possible to identify whether the target object is detected within type images.
일 실시 예에 의하면, 프로세서(1300)는 상기 하나 이상의 인스트럭션을 실행함으로써, 상기 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 영상들 및 상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입의 영상들을 획득하고, 상기 제1 타입 영상들 또는 상기 제2 타입 영상들 중 적어도 하나로부터 표적 객체가 검출되는 것으로 식별되는 경우, 상기 검출된 표적 객체에 관한 제1 타입 영상들 및 상기 검출된 표적 객체에 관한 상기 제1 타입 영상들에 대응되는 제2 타입 영상들을 합성함으로써 누출 영상을 생성하고, 상기 생성된 누출 영상의 미리 획득된 파노라마 영상에 대한 좌표에 기초하여, 상기 누출 영상을 상기 파노라마 영상에 합성함으로써 합성 영상을 생성할 수 있다.According to one embodiment, by executing the one or more instructions, the processor 1300 collects first type images of the space to be monitored from at least one first type camera connected to the electronic device and at least one camera connected to the electronic device. When second type images of the space to be monitored are acquired from a second type camera, and a target object is identified as being detected from at least one of the first type images or the second type images, Generating a leakage image by combining first type images about the detected target object and second type images corresponding to the first type images about the detected target object, and obtaining the generated leakage image in advance Based on the coordinates of the panoramic image, a composite image can be generated by combining the leaked image with the panoramic image.
일 실시 예에 의하면, 프로세서(1300)는 상기 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 학습 영상들, 상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입 학습 영상들을 획득하고, 상기 제1 타입 학습 영상들 및 상기 제2 타입 학습 영상들에 기초하여 학습 데이터 및 검증 데이터를 생성하고, 상기 생성된 학습 데이터에 기초하여, 상기 제1 타입의 카메라로부터 획득되는 제1 타입 영상들 및 상기 제2 타입의 카메라로부터 획득되는 제2 타입 영상들이 입력되면, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 객체 인식 모델을 학습시키고, 상기 학습된 객체 인식 모델에 상기 제1 타입 영상들 및 상기 제2 타입 영상들을 입력함으로써, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체의 검출 여부를 식별할 수 있다.According to one embodiment, the processor 1300 receives first type learning images of a space to be monitored from at least one first type of camera connected to the electronic device, and at least one second type of camera connected to the electronic device. Obtain second type learning images for the monitored space from, generate learning data and verification data based on the first type learning images and the second type learning images, and generate learning data and verification data based on the generated learning data. Thus, when first type images obtained from the first type of camera and second type images obtained from the second type of camera are input, the target object in the first type images and the second type images By training an object recognition model that identifies whether is detected, and inputting the first type images and the second type images into the learned object recognition model, the first type images and the second type images It is possible to identify whether or not the target object is detected.
또한, 일 실시 예에 의하면, 프로세서(1300)는 하나 이상의 인스트럭션을 실행함으로써 표적 객체가 검출되는 경우, 표적 객체가 발생한 누출 원점, 상기 누출 원점에 대한 물리적 공간상의 위치 정보, 상기 표적 객체의 종류 중 적어도 하나에 관한 정보를 합성 영상과 함께 화면상에 출력할 수도 있다.In addition, according to one embodiment, when a target object is detected by executing one or more instructions, the processor 1300 determines the origin of the leak where the target object occurred, location information in physical space about the origin of the leak, and the type of the target object. Information about at least one item may be output on the screen along with the composite image.
센싱부(1400)는, 전자 장치(1000)의 상태 또는 전자 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 프로세서(1300)로 전달할 수 있다. 센싱부(1400)는 전자 장치(1000)의 사양 정보, 모니터링 대상 공간에 대한 온도, 습도, 기압 정보 등을 센싱할 수 있다.The sensing unit 1400 may detect the state of the electronic device 1000 or the state surrounding the electronic device 1000 and transmit the sensed information to the processor 1300. The sensing unit 1400 can sense specification information of the electronic device 1000, temperature, humidity, and atmospheric pressure information for the space to be monitored.
예를 들어, 센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(illuminance sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.For example, the sensing unit 1400 includes a geomagnetic sensor 1410, an acceleration sensor 1420, a temperature/humidity sensor 1430, an infrared sensor 1440, and a gyroscope sensor 1450. ), a location sensor (eg, GPS) 1460, an air pressure sensor 1470, a proximity sensor 1480, and an RGB sensor (illuminance sensor) 1490, but is not limited thereto. Since the function of each sensor can be intuitively deduced by a person skilled in the art from its name, detailed description will be omitted.
네트워크 인터페이스(1500)는 전자 장치(1000)가 다른 장치(미도시) 및 서버(2000)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 다른 장치(미도시)는 전자 장치(1000)와 같은 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다. 예를 들어, 네트워크 인터페이스(1500)는, 무선 통신 인터페이스 (1510), 유선 통신 인터페이스 (1520), 이동 통신부(1530)를 포함할 수 있다. 무선 통신 인터페이스(1510)는 근거리 통신부(short-range wireless communication unit), 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The network interface 1500 may include one or more components that allow the electronic device 1000 to communicate with other devices (not shown) and the server 2000. The other device (not shown) may be a computing device such as the electronic device 1000 or a sensing device, but is not limited thereto. For example, the network interface 1500 may include a wireless communication interface 1510, a wired communication interface 1520, and a mobile communication unit 1530. The wireless communication interface 1510 includes a short-range wireless communication unit, a Bluetooth communication unit, a Bluetooth Low Energy (BLE) communication unit, a Near Field Communication unit, a WLAN (Wi-Fi) communication unit, and a Zigbee communication unit. , may include, but is not limited to, an infrared data association (IrDA) communication unit, a Wi-Fi Direct (WFD) communication unit, and an ultra wideband (UWB) communication unit.
유선 통신 인터페이스(1520)는 유선 통신을 통해 전자 장치와 연결된 외부 디바이스와 데이터를 주고받기 위한 적어도 하나의 유선 인터페이스를 포함할 수 있다. 이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The wired communication interface 1520 may include at least one wired interface for exchanging data with an external device connected to the electronic device through wired communication. The mobile communication unit 1520 transmits and receives wireless signals with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to voice call signals, video call signals, or text/multimedia message transmission and reception.
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. 일 실시 예에 의하면 카메라 모듈(1610)은 전면부에 소정의 필터가 부착됨으로써 적외선 영상을 통해 가스 또는 연기를 시각화하는 OGI 카메라 및 가시광선 영상을 획득하는 EO 카메라를 포함할 수 있다.The A/V (Audio/Video) input unit 1600 is for inputting audio or video signals, and may include a camera 1610, a microphone 1620, etc. The camera 1610 can obtain image frames such as still images or videos through an image sensor in video call mode or shooting mode. Images captured through the image sensor may be processed through the processor 1300 or a separate image processing unit (not shown). According to one embodiment, the camera module 1610 may include an OGI camera that visualizes gas or smoke through infrared images and an EO camera that acquires visible light images by attaching a predetermined filter to the front part.
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스 또는 사용자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)은 사용자의 음성 입력을 수신할 수 있다. 마이크로폰(1620)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 1620 receives external sound signals and processes them into electrical voice data. For example, the microphone 1620 may receive an acoustic signal from an external device or a user. The microphone 1620 can receive a user's voice input. The microphone 1620 can use various noise removal algorithms to remove noise generated in the process of receiving an external acoustic signal.
메모리(1700)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다. 또한, 메모리(1700)는 전자 장치(1000)가 이용하는 적어도 하나의 인공지능 모델, 전자 장치가 획득한 모니터링 대상 공간에 대한 영상 정보, 레이저 측정값, 합성 영상, 누출 영상, 인공지능 모델의 분석 결과에 대한 정보를 저장할 수 있다.The memory 1700 may store programs for processing and control of the processor 1300, and may also store data input to or output from the electronic device 1000. In addition, the memory 1700 includes at least one artificial intelligence model used by the electronic device 1000, image information about the monitoring target space acquired by the electronic device, laser measurement values, synthetic images, leakage images, and analysis results of the artificial intelligence model. Information about can be stored.
또한, 메모리(1700)는 전자 장치(1000)가 이용하는 적어도 하나의 신경망 모델에 대한 정보를 저장할 수 있다. 예를 들어, 메모리(1700)는 적어도 하나의 신경망 모델 내 레이어들, 노드들, 상기 레이어들의 연결 강도에 관한 가중치 값들을 저장할 수 있다. 또한, 전자 장치(1000)는 신경망 모델을 학습하기 위해 전자 장치(1000)가 생성한 학습 데이터를 더 저장할 수도 있다. 또한, 메모리(1700)는 전자 장치와 연결된 카메라들 또는 서버의 동작 환경에 대한 정보들을 더 저장할 수도 있다.Additionally, the memory 1700 may store information about at least one neural network model used by the electronic device 1000. For example, the memory 1700 may store layers, nodes, and weight values related to connection strengths of the layers within at least one neural network model. Additionally, the electronic device 1000 may further store learning data generated by the electronic device 1000 in order to learn a neural network model. Additionally, the memory 1700 may further store information about the operating environment of cameras or servers connected to the electronic device.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 1700 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.), or RAM. (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , and may include at least one type of storage medium among optical disks.
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다. Programs stored in the memory 1700 can be classified into a plurality of modules according to their functions, for example, a UI module 1710, a touch screen module 1720, a notification module 1730, etc. .
UI 모듈(1710)은, 가스 누출 탐지를 위한 애플리케이션 별로 전자 장치(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 프로세서(1300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 1710 may provide specialized UI, GUI, etc. that are linked with the electronic device 1000 for each application for gas leak detection. The touch screen module 1720 may detect a user's touch gesture on the touch screen and transmit information about the touch gesture to the processor 1300. The touch screen module 1720 according to some embodiments can recognize and analyze touch codes. The touch screen module 1720 may be composed of separate hardware including a controller.
알림 모듈(1730)은 전자 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 예를 들어, 전자 장치(1000)가 가스 누출에 따른 표적 객체가 검출되었음을 식별하고, 이에 따른 경고 컨텐츠를 출력할 수 있다. 일 실시 예에 따른 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.The notification module 1730 may generate a signal to notify the occurrence of an event in the electronic device 1000. For example, the electronic device 1000 may identify that a target object due to a gas leak has been detected and output warning content accordingly. Examples of events according to an embodiment include receiving a call signal, receiving a message, inputting a key signal, and schedule notification. The notification module 1730 may output a notification signal in the form of a video signal through the display unit 1210, may output a notification signal in the form of an audio signal through the sound output unit 1220, and the vibration motor 1230 A notification signal can also be output in the form of a vibration signal.
도 28은 또 다른 실시 예에 따른 가스 누출 탐지 시스템의 장치 구성을 설명하기 위한 도면이다.Figure 28 is a diagram for explaining the device configuration of a gas leak detection system according to another embodiment.
일 실시 예에 의하면, 가스 누출 탐지 시스템(10)은 카메라 설치셋(2810), 카메라셋(2820) 및 관제 단말기(2830)를 포함할 수 있다. 일 실시 예에 의하면 카메라 설치셋(2810)은 카메라 하우징(2812), 팬틸트 (2814), 엘리베이션 폴대(2816)를 포함할 수 있다. 가스 누출 탐지 시스템(10)은 카메라 설치셋(2810)에 대한 제어 신호를 전송함으로써, 원격으로 카메라의 팬틸트 값을 변경하거나, 폴대의 엘리베이션 값을 변경함으로써, 원하는 모니터링 대상 공간에 대한 영상 정보 및 레이저 측정값을 획득할 수 있다.According to one embodiment, the gas leak detection system 10 may include a camera installation set 2810, a camera set 2820, and a control terminal 2830. According to one embodiment, the camera installation set 2810 may include a camera housing 2812, a pan/tilt 2814, and an elevation pole 2816. The gas leak detection system 10 transmits a control signal to the camera installation set 2810, remotely changes the pan/tilt value of the camera, or changes the elevation value of the pole, thereby providing image information and information about the desired monitoring target space. Laser measurement values can be obtained.
일 실시 예에 의하면, 엘리베이션 폴대(2816)는 미리 설정된 높이 값(예컨대 20m)이상 연장될 수 있으며, 팬틸트(2814)는 Pan 360도, tilt는 -30도 내지 30도까지 제어될 수 있으나, 이에 한정되는 것은 아니다. 또한, 일 실시 예에 의하면 카메라 하우징(2812)은 30KG 이상의 무게를 지지하도록 마련될 수 있으며, 본 개시에 따른 관제 단말과 연결되는 경보 장치의 경보음은 90Db/1m 이상의 성능 조건을 만족하도록 마련될 수 있다. 일 실시 예에 의하면 카메라 하우징(2812) 내부에는 카메라 셋(2820)이 마련될 수 있다. 일 실시 예에 의하면, 카메라 셋(2820)은 OGI 가스 이미징 카메라(2822), 레이저 측정기(2824) 및 EO 카메라(2826)를 포함할 수 있다. 일 실시 예에 의하면 카메라(2820)의 구성들은 모두 카메라 설치셋(2810)으로 포함될 수 있음은 물론이다. 관제 단말기(2830)는 복수의 컴퓨터 조립체 서버(2832) 장치와 컴퓨터 조립체 전용 모니터(2834) 장치를 포함할 수 있다.According to one embodiment, the elevation pole 2816 may be extended beyond a preset height value (e.g., 20 m), and the pan and tilt 2814 may be controlled to Pan 360 degrees and tilt to -30 degrees to 30 degrees. It is not limited to this. In addition, according to one embodiment, the camera housing 2812 may be provided to support a weight of 30KG or more, and the alarm sound of the alarm device connected to the control terminal according to the present disclosure may be provided to satisfy performance conditions of 90Db/1m or more. You can. According to one embodiment, a camera set 2820 may be provided inside the camera housing 2812. According to one embodiment, the camera set 2820 may include an OGI gas imaging camera 2822, a laser measuring device 2824, and an EO camera 2826. According to one embodiment, of course, all components of the camera 2820 may be included in the camera installation set 2810. The control terminal 2830 may include a plurality of computer assembly server 2832 devices and a computer assembly-specific monitor 2834 device.
도 29는 일 실시 예에 따른 서버의 블록도이다.Figure 29 is a block diagram of a server according to one embodiment.
일 실시 예에 의하면, 서버(2000)는 네트워크 인터페이스(2100), 데이터 베이스(2200) 및 프로세서(2300)를 포함할 수 있다. 도 29에 도시된 서버(2000)의 구성은 도 24에 도시된 인공지능 기반 가스 누출 탐지 서버(2420), 경보 및 제어 서버(2430)에 대응될 수 있으며, 도 1의 관제 서버(140)의 구성에 대응될 수 있다.According to one embodiment, the server 2000 may include a network interface 2100, a database 2200, and a processor 2300. The configuration of the server 2000 shown in FIG. 29 may correspond to the artificial intelligence-based gas leak detection server 2420 and the alarm and control server 2430 shown in FIG. 24, and the configuration of the control server 140 in FIG. 1 It can correspond to the configuration.
네트워크 인터페이스(2100)는 상술한 전자 장치(1000)의 네트워크 인터페이스(미도시)에 대응될 수 있다. 예를 들어, 네트워크 인터페이스(2100)는 전자 장치(1000)로부터 복수 타입의 영상 정보, 인공지능 모델의 분석 결과, 누출 원점, 흐름 벡터, 누출 영상, 합성 영상에 대한 정보를 획득할 수 있다. 또 다른 실시 예에 의하면, 네트워크 인터페이스(2100)는 전자 장치가 학습된 인공지능 모델에 대한 정보, 또는 신경망 모델에 대한 정보(예컨대 레이어들 및 레이어들 사이의 연결 강도에 관한 가중치 값)를 수신할 수 있다. 또 다른 실시 예에 의하면, 네트워크 인터페이스(2100)는 서버가 학습시킨 인공지능 모델에 대한 정보로, 인공 신경망의 레이어들 및 레이어들에 포함된 노드에 관한 정보 또는 신경망 내 레이어들의 연결 강도에 관한 가중치 값들을 전자 장치(1000)로 전송할 수도 있다.The network interface 2100 may correspond to the network interface (not shown) of the electronic device 1000 described above. For example, the network interface 2100 may obtain information about multiple types of image information, analysis results of an artificial intelligence model, leak origin, flow vector, leak image, and composite image from the electronic device 1000. According to another embodiment, the network interface 2100 allows an electronic device to receive information about a learned artificial intelligence model or information about a neural network model (e.g., weight values regarding layers and connection strengths between layers). You can. According to another embodiment, the network interface 2100 is information about the artificial intelligence model learned by the server, information about the layers of the artificial neural network and nodes included in the layers, or weights about the connection strength of the layers within the neural network. Values may also be transmitted to the electronic device 1000.
또한, 일 실시 예에 의하면 데이터 베이스(2200)는 도 26 내지 도 27에서 상술한 메모리에 대응될 수 있다. 예를 들어, 데이터 베이스(2200)는 전자 장치(1000)로부터 획득되는 영상 정보들, 레이저 측정 값, 인공지능 모델의 분석 결과, 합성 영상, 인공지능 모델 자체에 대한 정보 등을 저장할 수 있다. 일 실시 예에 의하면 데이터 베이스(2200)는 키워드 일부와 단어 조합만으로 데이터 베이스 정보 조회가 가능하도록 설계되며, 날짜, 시간 및 카메라 위치 별 소정의 영상 데이터가 검색 및 조회가 가능하도록 설계될 수 있다.Additionally, according to one embodiment, the database 2200 may correspond to the memory described above in FIGS. 26 and 27. For example, the database 2200 may store image information acquired from the electronic device 1000, laser measurement values, analysis results of the artificial intelligence model, synthetic images, information about the artificial intelligence model itself, etc. According to one embodiment, the database 2200 is designed so that database information can be searched using only a combination of some keywords and words, and predetermined image data by date, time, and camera location can be searched and searched.
또한, 일 실시 예에 의하면 데이터 베이스(2200)는 일반 영상과 표적 객체 검출에 따른 이벤트 발생 시 해당 표적 객체에 관한 영상에 대한 정보를 제공할 수 있으며, 효율적인 용량 관리를 위해 별도의 동영상 저장 포맷을 이용하여 데이터를 저장할 수 있다. 또한, 데이터 베이스(2200)는 기존 저장되어 있는 영상 데이터와 이벤트 발생 여부 데이터를 join을 이용해 새로운 테이블로 관리할 수 있고, 데이터 무결성 등 데이터 베이스 설계 원칙을 지키기 위해 테이블 접근 시 view 형식으로 접근 및 원본 테이블 접근을 제한할 수 있다. 또한, 일 실시 예에 의하면 데이터 베이스(2200)는 유지/보수가 용이하게 코드를 procedure 형식으로 관리할 수 있으며, 데이터베이스 조회 시 최적화를 위해 explain 명령어에 기초하여 데이터를 처리할 수 있으며, 데이터 삭제 내역 관리를 위한 트리거를 적용할 수 있다.In addition, according to one embodiment, the database 2200 can provide information on images about the target object when an event occurs due to detection of a general image and a target object, and may use a separate video storage format for efficient capacity management. You can use it to store data. In addition, the database 2200 can manage existing stored video data and event occurrence data as a new table using join, and in order to maintain database design principles such as data integrity, the table is accessed in view format and the original Table access can be restricted. In addition, according to one embodiment, the database 2200 can manage code in a procedure format to facilitate maintenance/repair, process data based on the explain command for optimization when querying the database, and record data deletion details. Triggers for management can be applied.
일 실시 예에 의하면, 프로세서(2300)는 서버(2000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(2300)는 네트워크 인터페이스(2100) 및 데이터 베이스(2200)를 제어함으로써, 도 1 내지 28에서 기재된 전자 장치(1000) 또는 가스 누출 탐지 시스템(10)이 수행하는 동작의 전부 또는 적어도 일부를 함께 수행할 수 있다.According to one embodiment, the processor 2300 may control the overall operation of the server 2000. For example, the processor 2300 controls the network interface 2100 and the database 2200, thereby controlling all or all of the operations performed by the electronic device 1000 or the gas leak detection system 10 shown in FIGS. 1 to 28. At least some of them can be done together.
도 30은 일 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 제공하는 사용자 인터페이스 화면을 나타내는 도면이다.Figure 30 is a diagram illustrating a user interface screen provided by an electronic device for detecting an artificial intelligence-based gas leak according to an embodiment.
도 30을 참조하면 전자 장치가 제공하는 사용자 인터페이스 화면의 일 예가 도시된다. 도 30에 도시된 사용자 인터페이스 화면은 전자 장치(1000)뿐만 아니라, 관제 단말 또는 전자 장치와 연결된 관제 서버에 의해 통제되는 상황실 시스템의 디스플레이 상에 출력될 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)는 카메라 설치셋 내 복수 타입의 카메라 및 레이저 측정기의 동작을 제어하기 위한 컨트롤 인터페이스(3004), 전자 장치(1000)가 처리하는 영상 정보들을 저장, 관리 및 호출하기 위한 영상 제어 인터페이스(3002)를 출력할 수 있다. 전자 장치(1000)는 영상 제어 인터페이스(3002)를 통해 획득되는 관제자의 사용자 입력에 기초하여 특정 영상에 액세스하거나, 액세스된 특정 영상을 화면상에 출력할 수 있다.Referring to FIG. 30, an example of a user interface screen provided by an electronic device is shown. The user interface screen shown in FIG. 30 may be displayed on the display of a situation room system controlled not only by the electronic device 1000 but also by a control terminal or a control server connected to the electronic device. According to one embodiment, the electronic device 1000 includes a control interface 3004 for controlling the operation of multiple types of cameras and laser measuring devices in a camera installation set, and storing, managing, and storing image information processed by the electronic device 1000. A video control interface 3002 for calling can be output. The electronic device 1000 may access a specific image based on the controller's user input obtained through the image control interface 3002, or may output the accessed specific image on the screen.
일 실시 예에 의하면, 전자 장치(1000)는 컨트롤 인터페이스(3004)를 선택하는 사용자 입력에 기초하여, 확대 인터페이스(3006), 포커스 인터페이스(3008) 및 센서 인터페이스(3010)를 화면상에 추가적으로 제공할 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)는 확대 인터페이스(3006)에 대한 사용자 입력에 기초하여, 모니터링 대상 공간 내 특정 영역에 대한 확대 영상을 획득할 수 있다. 또한, 전자 장치(1000)는 포커스 인터페이스(3008)에 대한 사용자 입력에 기초하여 미리 지정된 영역에 대한 초점을 자동으로 매칭시키는 포커싱 기능을 수행할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 모니터링 대상 공간 내 특정 영역에 대하여 미리 오토포커싱 영역을 설정해둘 수도 있다. 일 실시 예에 의하면, 전자 장치(1000)는 센터 인터페이스(3010)에 대한 사용자 입력에 기초하여, 모니터링 대상 공간 내 위치하는 센서의 동작 환경(셔터 주기, 정보 획득 주기 등)을 변경할 수 있다.According to one embodiment, the electronic device 1000 may additionally provide a magnification interface 3006, a focus interface 3008, and a sensor interface 3010 on the screen based on a user input for selecting the control interface 3004. It may be possible. According to one embodiment, the electronic device 1000 may acquire an enlarged image of a specific area within the space to be monitored based on a user input to the enlargement interface 3006. Additionally, the electronic device 1000 may perform a focusing function that automatically matches the focus to a pre-designated area based on a user input to the focus interface 3008. According to one embodiment, the electronic device 1000 may set an autofocusing area in advance for a specific area within the monitoring target space. According to one embodiment, the electronic device 1000 may change the operating environment (shutter cycle, information acquisition cycle, etc.) of a sensor located in the monitoring target space based on a user input to the center interface 3010.
도 31은 또 다른 실시 예에 따른 인공지능 기반 가스 누출을 탐지하는 전자 장치가 제공하는 사용자 인터페이스 화면을 나타내는 도면이다.Figure 31 is a diagram illustrating a user interface screen provided by an electronic device for detecting an artificial intelligence-based gas leak according to another embodiment.
도 31을 참조하면 전자 장치가 제공하는 사용자 인터페이스 화면의 일 예가 도시된다. 일 실시 예에 의하면, 전자 장치(10000)는 영상 정보들을 저장, 관리 및 호출하기 위한 영상 제어 인터페이스(3002)를 제공할 수 있고, 상기 제공된 영상 제어 인터페이스(3002)는 비디오 인터페이스(3102)를 포함할 수 있다. 예를 들어, 전자 장치(1000)는 비디오 인터페이스(3102)를 선택하는 사용자 입력에 기초하여 이미지 인터페이스(3104), 인핸스먼트 인터페이스(3106), 자동 조절 인터페이스(3108) 및 설정한 조건들을 저장하기 위한 설정 저장 인터페이스(3110)를 출력할 수 있다.Referring to FIG. 31, an example of a user interface screen provided by an electronic device is shown. According to one embodiment, the electronic device 10000 may provide an image control interface 3002 for storing, managing, and recalling image information, and the provided image control interface 3002 includes a video interface 3102. can do. For example, the electronic device 1000 uses an image interface 3104, an enhancement interface 3106, an automatic adjustment interface 3108, and a device for storing set conditions based on a user input for selecting the video interface 3102. The settings storage interface 3110 can be output.
일 실시 예에 의하면, 이미지 인터페이스(3104)는 현재 표시되는 영상 내 디지털 줌을 통한 영상 확대, 영상의 밝기 값 조절, 명암 값 조절을 위한 사용자 인터페이스를 포함할 수 있다. 일 실시 예에 의하면, 인핸스먼트 인터페이스(3106)는 영상 내 소음 제거, 노이즈 제거와 같은 비디오 데이터의 품질 향상을 위한 편집 인터페이스들을 포함할 수 있다. 일 실시 예에 의하면 자동 조절 인터페이스(3108)은 비디오 클립을 편집하기 위한 인터페이스를 포함할 수 있고, 설정 저장 인터페이스(3110)는 비디오 인터페이스(3102)를 통해 변경된 값들을 저장하기 위한 기능을 제공할 수 있다.According to one embodiment, the image interface 3104 may include a user interface for enlarging the image through digital zoom, adjusting the brightness value of the image, and adjusting the contrast value within the currently displayed image. According to one embodiment, the enhancement interface 3106 may include editing interfaces for improving the quality of video data, such as removing noise in an image and removing noise. According to one embodiment, the automatic adjustment interface 3108 may include an interface for editing video clips, and the settings storage interface 3110 may provide a function for saving changed values through the video interface 3102. there is.
본 개시에 따른 가스 누출 탐지 방법, 가스 누출 탐지를 위한 합성 영상 생성 방법 및 표적 객체의 형상을 식별하는 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. The gas leak detection method, the synthetic image generation method for gas leak detection, and the method for identifying the shape of the target object according to the present disclosure are implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. You can. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and constructed for the present invention or may be known and usable by those skilled in the art of computer software.
컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements made by those skilled in the art using the basic concept of the present invention defined in the following claims are also possible. falls within the scope of rights.
Claims (15)
상기 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 영상들을 획득하는 단계;
상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입 영상들을 획득하는 단계; 및
상기 제1 타입 영상들 및 상기 제2 타입 영상들이 입력되면, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 객체 인식 모델에, 상기 제1 타입 영상들 및 상기 제2 타입 영상들을 입력함으로써, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체 검출 여부를 식별하는 단계; 를 포함하고,
상기 표적 객체는 연기 객체, 가스 객체 또는 불꽃 객체 중 적어도 하나를 포함하는 것을 특징으로 하는, 방법.
In a method for an artificial intelligence-based gas leak detection electronic device to identify the shape of a target object,
Obtaining first type images of a space to be monitored from at least one first type camera connected to the electronic device;
Obtaining second type images of the space to be monitored from at least one second type camera connected to the electronic device; and
When the first type images and the second type images are input, the first type images are input to an object recognition model that identifies whether a target object is detected in the first type images and the second type images. and identifying whether the target object is detected in the first type images and the second type images by inputting the second type images. Including,
The method of claim 1, wherein the target object includes at least one of a smoke object, a gas object, or a flame object.
상기 제1 타입 영상들 또는 상기 제2 타입 영상들 중 적어도 하나로부터 상기 표적 객체가 검출되는 것으로 식별되는 경우, 상기 표적 객체가 검출된 타입의 영상들로부터 상기 표적 객체의 형상 정보를 추출하는 단계; 를 더 포함하는, 방법.
The method of claim 1, wherein the method
When it is identified that the target object is detected from at least one of the first type images or the second type images, extracting shape information of the target object from images of the type in which the target object is detected; A method further comprising:
상기 제1 타입의 카메라 및 상기 제2 타입의 카메라는 각각 EO 카메라 및 OGI 카메라이고, 상기 제1 타입 영상들 및 상기 제2 타입 영상들은 각각 가시광선 영상들 및 적외선 영상들인 것을 특징으로 하는, 방법.
According to paragraph 2,
The first type of camera and the second type of camera are an EO camera and an OGI camera, respectively, and the first type images and the second type images are visible light images and infrared images, respectively. .
상기 객체 인식 모델의 출력 값에 기초하여, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체가 검출되지 않는 것으로 식별되는 경우, 상기 제2 타입 영상들을 푸리에 변환함으로써 주파수 도메인상의 변환 영상 정보를 생성하는 단계;
상기 변환 영상 정보로부터 상기 표적 객체 및 상기 표적 객체 주변의 배경 간섭물질 각각에 대한 스펙트럼 정보를 추출하는 단계;
상기 추출된 스펙트럼 정보가 입력되면 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 출력하는 우도비 검정 모델에, 상기 추출된 스펙트럼 정보를 입력함으로써, 상기 추출된 스펙트럼 정보 내 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 식별하는 단계; 및
상기 표적 객체에 따른 주파수 패턴이 식별되는 경우, 상기 우도비 검정 모델의 출력 값에 기초하여, 상기 제2 타입 영상들로부터 상기 표적 객체의 형상 정보를 추출하는 단계; 를 더 포함하는, 방법.
The method of claim 3, wherein the method
Based on the output value of the object recognition model, when the target object is identified as not being detected in the first type images and the second type images, transform in the frequency domain by Fourier transforming the second type images Generating image information;
Extracting spectral information for each of the target object and background interference materials around the target object from the converted image information;
When the extracted spectrum information is input, by inputting the extracted spectrum information into a likelihood ratio test model that outputs whether there is a frequency pattern according to the target object, the frequency pattern according to the target object in the extracted spectrum information is determined. identifying whether there is; and
When a frequency pattern according to the target object is identified, extracting shape information of the target object from the second type images based on an output value of the likelihood ratio test model; A method further comprising:
상기 우도비 검정 모델의 출력 값에 기초하여 상기 표적 객체에 따른 주파수 패턴이 식별되지 않는 경우, 상기 추출된 스펙트럼 정보를, 상기 추출된 스펙트럼 정보가 입력되면 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 출력하는 서포트 벡터 머신 모델에 입력함으로써, 상기 추출된 스펙트럼 정보 내 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 식별하는 단계; 및
상기 표적 객체에 따른 주파수 패턴이 식별되는 경우, 상기 서포트 벡터 머신 모델의 출력 값에 기초하여, 상기 제2 타입 영상들로부터 상기 표적 객체의 형상 정보를 추출하는 단계; 를 더 포함하는, 방법.
The method of claim 4, wherein the method
If the frequency pattern according to the target object is not identified based on the output value of the likelihood ratio test model, the extracted spectrum information is input to determine whether there is a frequency pattern according to the target object. Identifying whether there is a frequency pattern according to the target object in the extracted spectrum information by inputting it into an output support vector machine model; and
When a frequency pattern according to the target object is identified, extracting shape information of the target object from the second type images based on an output value of the support vector machine model; A method further comprising:
상기 표적 객체가 검출된 타입의 영상들을 전처리 하는 단계;
기 설정된 표적 객체 정보에 기초하여 마스킹 데이터를 생성하는 단계;
상기 표적 객체가 검출된 타입의 영상들에 상기 마스킹 데이터를 적용함으로써 생성되는 표적 객체 영역들을, 상기 전처리된 영상들로부터 분리하는 단계; 및
상기 분리된 표적 객체 영역들로부터 상기 표적 객체의 형상 정보를 추출하는 단계; 를 포함하는, 방법.
The method of claim 3, wherein the step of extracting the shape information
Preprocessing images of the type in which the target object is detected;
Generating masking data based on preset target object information;
separating target object areas generated by applying the masking data to images of a type in which the target object was detected from the preprocessed images; and
extracting shape information of the target object from the separated target object areas; Method, including.
상기 분리된 표적 객체 영역 내 상기 표적 객체에 관한 외곽선 정보를 식별하는 단계;
상기 식별된 상기 외곽선 정보에 기초하여 표적 객체의 중심점 정보를 식별하는 단계;
상기 식별된 중심점 정보 및 상기 외곽선 정보에 기초하여 상기 표적 객체 영역의 방향 벡터를 식별하는 단계; 및
상기 식별된 외곽선 정보, 중심점 정보 및 상기 방향 벡터를 상기 표적 객체의 형상 정보로 추출하는 단계; 를 포함하는, 방법.
The method of claim 6, wherein extracting shape information of the target object from the separated target object areas comprises:
identifying outline information about the target object within the separated target object area;
identifying center point information of a target object based on the identified outline information;
identifying a direction vector of the target object area based on the identified center point information and the outline information; and
extracting the identified outline information, center point information, and direction vector as shape information of the target object; Method, including.
상기 표적 객체가 검출된 타입의 영상들의 현재 프레임 이전의 프레임 이미지들 또는 상기 현재 프레임 이미지들을 포함한 모든 프레임 이미지들에 대한 이동 평균 값을 결정하는 단계; 및
상기 결정된 이동 평균 값에 기초하여 상기 마스킹 데이터를 생성하는 단계; 를 포함하는, 방법.
The method of claim 6, wherein generating the masking data includes
determining a moving average value for frame images preceding a current frame of images of the type in which the target object is detected or for all frame images including the current frame images; and
generating the masking data based on the determined moving average value; Method, including.
상기 분리된 표적 객체 영역들의 형상 정보에 기초하여, 상기 표적 객체가 검출된 타입의 영상들 내 인접하는 표적 객체 영역들 사이의 모션 벡터를 결정하는 단계;
상기 결정된 모션 벡터에 기초하여, 상기 분리된 표적 객체 영역들을 모델링하는 단계;
상기 모델링된 표적 객체 영역들을 나타내는 모션 벡터의 합벡터를 결정하는 단계; 및
상기 결정된 합벡터에 크기 및 방향에 기초하여, 상기 표적 객체가 검출된 영상들에서, 상기 표적 객체가 생성된 위치에 관한 누출 원점 및 상기 표적 객체의 흐름 방향과 속도에 관한 흐름 벡터를 결정하는 단계; 를 더 포함하는, 방법.
The method of claim 8, wherein the method
Based on shape information of the separated target object areas, determining a motion vector between adjacent target object areas in images of the type in which the target object is detected;
modeling the separated target object regions based on the determined motion vector;
determining a sum vector of motion vectors representing the modeled target object areas; and
Based on the size and direction of the determined sum vector, determining a leak origin related to the location where the target object was created and a flow vector related to the flow direction and speed of the target object in the images in which the target object was detected. ; A method further comprising:
네트워크 인터페이스;
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 하나 이상의 인스트럭션을 실행하는 적어도 하나의 프로세서; 를 포함하고,
상기 적어도 하나의 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
상기 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 영상들을 획득하고,
상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입 영상들을 획득하고,
상기 제1 타입 영상들 및 상기 제2 타입 영상들이 입력되면, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 객체 인식 모델에, 상기 제1 타입 영상들 및 상기 제2 타입 영상들을 입력함으로써, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체 검출 여부를 식별하고,
상기 표적 객체는 연기 객체, 가스 객체 또는 불꽃 객체 중 적어도 하나를 포함하는 것을 특징으로 하는, 전자 장치.
In an electronic device that identifies the shape of a target object for detecting artificial intelligence-based gas leaks,
network interface;
A memory that stores one or more instructions; and
At least one processor executing the one or more instructions; Including,
The at least one processor executes the one or more instructions,
Obtaining first type images of a space to be monitored from at least one first type camera connected to the electronic device,
Obtaining second type images of the monitored space from at least one second type camera connected to the electronic device,
When the first type images and the second type images are input, the first type images are input to an object recognition model that identifies whether a target object is detected in the first type images and the second type images. And by inputting the second type images, identify whether the target object is detected in the first type images and the second type images,
The electronic device, wherein the target object includes at least one of a smoke object, a gas object, or a flame object.
상기 제1 타입 영상들 또는 상기 제2 타입 영상들 중 적어도 하나로부터 상기 표적 객체가 검출되는 것으로 식별되는 경우, 상기 표적 객체가 검출된 타입의 영상들로부터 상기 표적 객체의 형상 정보를 추출하는, 전자 장치.
The method of claim 10, wherein the at least one processor
When it is identified that the target object is detected from at least one of the first type images or the second type images, extracting shape information of the target object from images of the type in which the target object was detected, electronic Device.
상기 제1 타입의 카메라 및 상기 제2 타입의 카메라는 각각 EO 카메라 및 OGI 카메라이고, 상기 제1 타입 영상들 및 상기 제2 타입 영상들은 각각 가시광선 영상들 및 적외선 영상들인 것을 특징으로 하는, 전자 장치.
According to clause 11,
The first type camera and the second type camera are an EO camera and an OGI camera, respectively, and the first type images and the second type images are visible light images and infrared images, respectively. Device.
상기 객체 인식 모델의 출력 값에 기초하여, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체가 검출되지 않는 것으로 식별되는 경우, 상기 제2 타입 영상들을 푸리에 변환함으로써 주파수 도메인상의 변환 영상 정보를 생성하고,
상기 변환 영상 정보로부터 상기 표적 객체 및 상기 표적 객체 주변의 배경 간섭물질 각각에 대한 스펙트럼 정보를 추출하고,
상기 추출된 스펙트럼 정보가 입력되면 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 출력하는 우도비 검정 모델에, 상기 추출된 스펙트럼 정보를 입력함으로써, 상기 추출된 스펙트럼 정보 내 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 식별하고,
상기 표적 객체에 따른 주파수 패턴이 식별되는 경우, 상기 우도비 검정 모델의 출력 값에 기초하여, 상기 제2 타입 영상들로부터 상기 표적 객체의 형상 정보를 추출하는, 전자 장치.
13. The method of claim 12, wherein the at least one processor
Based on the output value of the object recognition model, when the target object is identified as not being detected in the first type images and the second type images, transform in the frequency domain by Fourier transforming the second type images Generate video information,
Extracting spectral information for each of the target object and background interference materials around the target object from the converted image information,
When the extracted spectrum information is input, by inputting the extracted spectrum information into a likelihood ratio test model that outputs whether there is a frequency pattern according to the target object, the frequency pattern according to the target object in the extracted spectrum information is determined. identify whether there is a
When a frequency pattern according to the target object is identified, the electronic device extracts shape information of the target object from the second type images based on the output value of the likelihood ratio test model.
상기 우도비 검정 모델의 출력 값에 기초하여 상기 표적 객체에 따른 주파수 패턴이 식별되지 않는 경우, 상기 추출된 스펙트럼 정보를, 상기 추출된 스펙트럼 정보가 입력되면 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 출력하는 서포트 벡터 머신 모델에 입력함으로써, 상기 추출된 스펙트럼 정보 내 상기 표적 객체에 따른 주파수 패턴이 있는지 여부를 식별하고,
상기 표적 객체에 따른 주파수 패턴이 식별되는 경우, 상기 서포트 벡터 머신 모델의 출력 값에 기초하여, 상기 제2 타입 영상들로부터 상기 표적 객체의 형상 정보를 추출하는, 전자 장치.
14. The method of claim 13, wherein the at least one processor
If the frequency pattern according to the target object is not identified based on the output value of the likelihood ratio test model, the extracted spectrum information is input to determine whether there is a frequency pattern according to the target object. Identify whether there is a frequency pattern according to the target object in the extracted spectrum information by inputting it into the output support vector machine model,
When a frequency pattern according to the target object is identified, the electronic device extracts shape information of the target object from the second type images based on the output value of the support vector machine model.
상기 전자 장치와 연결된 적어도 하나의 제1 타입의 카메라로부터 모니터링 대상 공간에 대한 제1 타입 영상들을 획득하는 단계;
상기 전자 장치와 연결된 적어도 하나의 제2 타입의 카메라로부터 상기 모니터링 대상 공간에 대한 제2 타입 영상들을 획득하는 단계; 및
상기 제1 타입 영상들 및 상기 제2 타입 영상들이 입력되면, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 표적 객체가 검출되는지 여부를 식별하는 객체 인식 모델에, 상기 제1 타입 영상들 및 상기 제2 타입 영상들을 입력함으로써, 상기 제1 타입 영상들 및 상기 제2 타입 영상들 내 상기 표적 객체 검출 여부를 식별하는 단계; 를 포함하고,
상기 표적 객체는 연기 객체, 가스 객체 또는 불꽃 객체 중 적어도 하나를 포함하는 것을 특징으로 하는, 방법을 수행하도록 하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록 매체.In a method for an artificial intelligence-based gas leak detection electronic device to identify the shape of a target object,
Obtaining first type images of a space to be monitored from at least one first type camera connected to the electronic device;
Obtaining second type images of the space to be monitored from at least one second type camera connected to the electronic device; and
When the first type images and the second type images are input, the first type images are input to an object recognition model that identifies whether a target object is detected in the first type images and the second type images. and identifying whether the target object is detected in the first type images and the second type images by inputting the second type images. Including,
A computer-readable recording medium storing a program for performing a method, wherein the target object includes at least one of a smoke object, a gas object, and a flame object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220068448A KR20230168242A (en) | 2022-06-03 | 2022-06-03 | Method for identifying shape of target object and artificial intelligence based gas leak detection device performing the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220068448A KR20230168242A (en) | 2022-06-03 | 2022-06-03 | Method for identifying shape of target object and artificial intelligence based gas leak detection device performing the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230168242A true KR20230168242A (en) | 2023-12-13 |
Family
ID=89157692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220068448A KR20230168242A (en) | 2022-06-03 | 2022-06-03 | Method for identifying shape of target object and artificial intelligence based gas leak detection device performing the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230168242A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102355884B1 (en) | 2021-01-26 | 2022-02-08 | (주) 플레이오니 | Method, apparatus and program to detect fire using artificial intelligence |
-
2022
- 2022-06-03 KR KR1020220068448A patent/KR20230168242A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102355884B1 (en) | 2021-01-26 | 2022-02-08 | (주) 플레이오니 | Method, apparatus and program to detect fire using artificial intelligence |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107223332B (en) | Audio visual scene analysis based on acoustic camera | |
JP7417587B2 (en) | Systems and methods for analyzing and displaying acoustic data | |
US11735018B2 (en) | Security system with face recognition | |
US20210397848A1 (en) | Scene marking | |
CN104519318B (en) | Frequency image monitoring system and surveillance camera | |
KR102482129B1 (en) | Artificial intelligence based noxious gas leak detection system and operating method there of | |
KR102517477B1 (en) | Method and apparatus for identifying noxious gas leak origin based on artificial intelligence model | |
KR102465105B1 (en) | Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data | |
KR101979375B1 (en) | Method of predicting object behavior of surveillance video | |
US10741031B2 (en) | Threat detection platform with a plurality of sensor nodes | |
KR102464130B1 (en) | Apparatus and method identifying the size of the target object | |
JP2017228224A (en) | Information processing device, information processing method, and program | |
JP2014530406A (en) | Method for automated real-time acquisition of marine mammals | |
JP2019117556A (en) | Information processing apparatus, information processing method and program | |
JP4618062B2 (en) | Monitoring device, monitoring system, and monitoring method | |
KR102646239B1 (en) | Method providing composite video for detection of gas leak and artificial intelligence based gas leak detection device performing the same | |
KR102517478B1 (en) | Method and appratus for determining whether noxious gas leak detection based on artificial intelligence model | |
KR20230168242A (en) | Method for identifying shape of target object and artificial intelligence based gas leak detection device performing the same | |
KR20230168244A (en) | Method for detecting gas leak and artificial intelligence based gas leak detection device performing the same | |
KR102469915B1 (en) | Intelligent visual surveilance system having improved data storage and searching efficiency | |
JP2017028688A (en) | Image managing device, image managing method and program | |
KR102482126B1 (en) | Method and appratus for managing noxious gas leak situation based on artificial intelligence model | |
KR20190124029A (en) | Thermal image sensor device and electric apparatus including the same | |
US10726270B2 (en) | Selecting media from mass social monitoring devices | |
CN112560612A (en) | System, method, computer device and storage medium for determining business algorithm |