KR20180130377A - Smart helmet for fire-fighting - Google Patents

Smart helmet for fire-fighting Download PDF

Info

Publication number
KR20180130377A
KR20180130377A KR1020170066398A KR20170066398A KR20180130377A KR 20180130377 A KR20180130377 A KR 20180130377A KR 1020170066398 A KR1020170066398 A KR 1020170066398A KR 20170066398 A KR20170066398 A KR 20170066398A KR 20180130377 A KR20180130377 A KR 20180130377A
Authority
KR
South Korea
Prior art keywords
image
helmet
unit
dimensional
processing unit
Prior art date
Application number
KR1020170066398A
Other languages
Korean (ko)
Other versions
KR102384625B1 (en
Inventor
한재승
조기옥
조명진
Original Assignee
(주)큐미스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)큐미스 filed Critical (주)큐미스
Priority to KR1020170066398A priority Critical patent/KR102384625B1/en
Publication of KR20180130377A publication Critical patent/KR20180130377A/en
Application granted granted Critical
Publication of KR102384625B1 publication Critical patent/KR102384625B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/0406Accessories for helmets
    • A42B3/0433Detecting, signalling or lighting devices
    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/30Mounting radio sets or communication systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • F21V23/0442Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors
    • F21V23/0464Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors the sensor sensing the level of ambient illumination, e.g. dawn or dusk sensors
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V33/00Structural combinations of lighting devices with other articles, not otherwise provided for
    • F21V33/0064Health, life-saving or fire-fighting equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Alarm Systems (AREA)

Abstract

The present invention relates to a smart firefighting helmet comprising: an image photographing unit attached to an outer surface of a helmet to photograph the front of the helmet to obtain an image; an image processing unit formed in the helmet to receive the image obtained by the image photographing unit in real time, to perform image processing to remove smoke included in the obtained image so as to generate a two-dimensional image, and so as to integrate the generated two-dimensional image to generate a three-dimensional image; and a display unit attached to an inner surface of the helmet to receive and output the three-dimensional image generated by the image processing unit. Accordingly, the three-dimensional image in which a scattering medium is removed from the photographed image is outputted to the display unit formed inside the helmet. Thus, the present invention can be efficiently used to perform a rescue work in a space where smoke or flame is full by a firefighter wearing the smart firefighting helmet.

Description

스마트 소방 헬멧{SMART HELMET FOR FIRE-FIGHTING}Smart fire helmet {SMART HELMET FOR FIRE-FIGHTING}

본 발명은 스마트 소방 헬멧에 관한 것으로, 좀더 자세하게는 화재 장소에서 촬영한 영상에서 연기를 제거하여 소방 구조 활동에 이용할 수 있도록 하는 스마트 소방 헬멧에 관한 것이다.FIELD OF THE INVENTION The present invention relates to a smart fire helmet, and more particularly, to a smart fire helmet which removes smoke from a video image taken in a fire place and makes it available for fire fighting rescue operations.

화재 현장에서 구조 대상자를 구조하는 소방 활동에 있어서, 화염 또는 연기로 인해 소방관의 시야확보가 어려워 구조 작업에 한계가 있다.In the fire fighting activity to rescue the rescue person in the field of fire, it is difficult to secure visibility of the firefighter due to flame or smoke, which limits the rescue operation.

이때, 한국 등록특허10-1656873, 3차원 인식 소방헬멧에서 소방관이 착용하는 헬멧에서 열화상 촬영을 통해 이미지를 획득하고, 획득된 영상을 헬멧을 착용한 소방관이 확인할 수 있도록 디스플레이하는 기술을 제시하고 있다.Korean Patent No. 10-1656873 discloses a technology for acquiring an image through thermal imaging in a helmet worn by a firefighter in a three-dimensional recognition firefighting helmet and displaying the acquired image so that a firefighter wearing the helmet can confirm it have.

그러나, 종래의 이러한 헬멧의 경우 화재 현장의 화염을 열로 감지하여 구조 대상을 적절하게 검출할 수 없거나 연기로 인해 구조 대상을 정확하게 검출할 수 없다는 한계점이 있다.However, in the conventional helmet, there is a limit in that it is not possible to properly detect a structure object or to detect a structural object due to smoke by detecting a flame of a fire scene as heat.

이에 따라, 화염 또는 연기로 인해 시야확보가 어려운 화재 현장에서 구조 대상의 신속 정확한 구조를 위해 선명한 영상을 얻을 수 있는 소방 헬멧의 개발이 필요한 실정이다.Accordingly, it is necessary to develop a fire helmet capable of obtaining a clear image in order to quickly and accurately structure the object in a fire scene where it is difficult to obtain a visibility due to flame or smoke.

본 발명이 이루고자 하는 기술적 과제는 화재 현장에서 구조 작업을 수행하는 소방관이 착용하는 소방 헬멧에 화염 또는 연기가 제거된 영상을 출력하도록 하여 소방 활동 효율을 향상하기 위한 것이다.SUMMARY OF THE INVENTION The present invention provides a fire fighting helmet for firefighters, which performs rescue operations in a fire scene, to output a fire or smoke-free image to improve fire fighting activity efficiency.

본 발명의 한 실시예에 따른 스마트 소방 헬멧은 헬멧 외측면에 부착되어 상기 헬멧의 전방을 촬영하여 영상을 획득하는 영상 촬영부; 상기 헬멧에 형성되어 상기 영상 촬영부에서 획득된 영상을 실시간으로 전달받아, 상기 획득된 영상에 포함된 연기를 제거하는 영상 처리를 수행하여 2차원 영상을 생성하고, 생성된 2차원 영상을 집적하여 3차원 영상을 생성하는 영상 처리부; 그리고, 상기 헬멧의 내측면에 부착되어 상기 영상 처리부에서 생성된 상기 3차원 영상을 전달받아 출력하는 표시부;를 포함하는 것을 특징으로 한다.The smart fire fighting helmet according to an embodiment of the present invention includes an image capturing unit attached to an outer surface of a helmet to capture an image of the front of the helmet to acquire an image; The helmet may include an image capturing unit that receives the image captured by the image capturing unit in real time, performs image processing for removing smoke contained in the captured image to generate a two-dimensional image, An image processor for generating a three-dimensional image; The display unit is attached to an inner surface of the helmet, and receives and outputs the 3D image generated by the image processing unit.

상기 표시부는 증강현실 영상 출력을 위한 좌안용 영상과 우안용 영상을 전달받아 각각 출력하는 제1 출력부와 제2 출력부로 구성되는 것을 특징으로 한다.The display unit includes a first output unit and a second output unit for receiving the left eye image and the right eye image for outputting the augmented reality image and outputting the left eye image and the right eye image, respectively.

상기 헬멧에 부착되고, 상기 영상 처리부에서 생성한 3차원 영상을 전달받아 무선통신을 통해 외부의 서버로 전달하는 통신부;를 더 포함하는 것을 특징으로 한다.And a communication unit attached to the helmet and receiving the 3D image generated by the image processing unit and delivering the 3D image to an external server through wireless communication.

상기 외부의 서버는 상기 영상 처리부를 제어하는 제어신호를 생성하여 상기 통신부로 전달하거나, 상기 영상 처리부에서 생성한 상기 3차원 영상을 상기 통신부를 통해 전달받아 저장하는 것을 특징으로 한다.The external server generates a control signal for controlling the image processing unit and transfers the generated control signal to the communication unit. The external server receives and stores the 3D image generated by the image processing unit through the communication unit.

상기 헬멧의 전면 외측에 형성되어 빛을 출력하는 LED를 더 포함하는 것을 특징으로 한다.And an LED formed outside the front surface of the helmet to output light.

상기 LED는 상기 헬멧의 주위의 조도를 감지하여 자동으로 온 또는 오프되는 것을 특징으로 한다.The LED detects the illuminance around the helmet and is automatically turned on or off.

상기 영상 처리부는 상기 영상 촬영부에서 획득한 영상으로부터 페플로그램을 획득하고, 산란매질을 추정하여, 획득한 페플로그램에서 추정된 산란매질을 제거하고, 광자를 검출하여 2차원 원영상을 생성하고, 생성된 2차원 원영상을 이용하여 3차원 영상을 복원하여 상기 3차원 영상을 생성하는 것을 특징으로 한다.The image processing unit obtains a perfluorogram from the image acquired by the image capturing unit, estimates a scattering medium, removes an estimated scattering medium from the acquired perpetogram, and detects a photon to generate a two-dimensional original image And reconstructing the three-dimensional image using the generated two-dimensional original image to generate the three-dimensional image.

이러한 특징에 따르면, 본원 발명의 한 실시예에 따른 스마트 소방 헬멧은 헬멧의 전면 상부에 부착되어 헬멧의 전방을 촬영하는 영상 촬영부가 획득한 이미지를 처리하여 산란잡음을 제거한 영상을 헬멧에 형성된 디스플레이에 출력할 수 있어 구조 작업을 수행하는 소방관의 작업 효율이 향상되는 효과가 있다.According to another aspect of the present invention, there is provided a smart fire fighting helmet according to the present invention, wherein the smart fire fighting helmet is attached to an upper part of a front surface of a helmet to process an image acquired by the image capturing unit, So that the working efficiency of the firefighter performing the structural work can be improved.

도 1은 본 발명의 한 실시예에 따른 스마트 소방 헬멧의 개략적인 형상을 나타낸 도면이다.
도 2는 본 발명의 한 실시예에 따른 스마트 소방 헬멧의 개략적인 구조를 나타낸 블록도이다.
도 3은 본 발명의 한 실시예에 따른 스마트 소방 헬멧의 영상 처리 흐름을 나타낸 순서도이다.
1 is a schematic view of a smart fire helmet according to an embodiment of the present invention.
2 is a block diagram showing a schematic structure of a smart fire helmet according to an embodiment of the present invention.
3 is a flowchart illustrating an image processing flow of a smart fire helmet according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

그러면 첨부한 도면을 참고로 하여 본 발명의 한 실시예에 따른 스마트 소방 헬멧의 구조에 대해 자세하게 설명한다.Hereinafter, the structure of a smart fire helmet according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 한 실시예에 따른 스마트 소방 헬멧의 개략적인 형상을 나타낸 도면이고, 도 2는 본 발명의 한 실시예에 따른 스마트 소방 헬멧의 개략적인 구조를 나타낸 블록도이다.FIG. 1 is a view showing a schematic configuration of a smart fire helmet according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a schematic structure of a smart fire helmet according to an embodiment of the present invention.

본 실시예에 따른 스마트 소방 헬멧(1)은 제1 보호부(11), 제2 보호부(12) 및 제3 보호부(13)로 구성되어 사람의 얼굴과 머리를 보호하는 헬멧 형상으로서, 제1 보호부(11)는 사람의 얼굴 상부와 머리 뒷부분까지 모두 보호하고, 제2 보호부(12)는 사람의 얼굴 부분을 보호하며, 제3 보호부(13)는 사람의 얼굴 하부를 보호한다.The smart fire helmet 1 according to the present embodiment includes a first protection part 11, a second protection part 12 and a third protection part 13 and is a helmet shape for protecting a face and a head of a person, The first protection portion 11 protects both the upper face of the face and the back of the head, the second protection portion 12 protects the face portion of the person, and the third protection portion 13 protects the lower face of the person do.

제2 보호부(12)는 제1 보호부(11)에 결합되어, 제1 보호부(11)와 결합된 부분을 기준으로 제1 보호부(11)에 적재되거나 제1 보호부(11)로부터 연장되도록 형태가 변경될 수 있고, 외부로부터 인가된 힘에 의해 그 형태가 변경될 수 있다.The second protection unit 12 is coupled to the first protection unit 11 and is mounted on the first protection unit 11 or on the first protection unit 11 based on a portion coupled to the first protection unit 11, And the shape can be changed by an externally applied force.

이때, 제2 보호부(12)가 제1 보호부(11)로부터 연장되는 형태로 형성됨에 있어서 제2 보호부(12)가 제1 보호부(11)가 연결되지 않는 한 단부는 제3 보호부(13)와 접하도록 형성되며, 바람직한 예에서, 스마트 소방 헬멧(1)을 착용하였을 때 스마트 소방 헬멧(1)의 내부로 연기 또는 유해가스 등이 유입되지 않도록 밀폐 결합되는 구조로 형성되는 것이 좋다.At this time, the second protection part 12 is formed to extend from the first protection part 11, and the end of the second protection part 12 may be protected by the third protection part 11 unless the first protection part 11 is connected thereto. The smart fire fighting helmet 1 is formed so as to contact with the smart fire fighting helmet 1 such that smoke or noxious gas does not enter into the smart fire fighting helmet 1 when the smart fire fighting helmet 1 is worn, good.

이처럼, 제1 보호부(11), 제2 보호부(12) 및 제3 보호부(13)를 포함하는 스마트 소방 헬멧(1)은 일반적인 헬멧 형상으로 구성되는 형태이고, 한 예에서, 제2 보호부(12)는 반투명한 형태의 편광 플레이트로 형성되는 것이 좋다.As described above, the smart fire helmet 1 including the first protection part 11, the second protection part 12 and the third protection part 13 is in the form of a general helmet shape, and in one example, The protective portion 12 may be formed of a translucent polarizing plate.

한 예에서, 스마트 소방 헬멧(1)은 표시부(120), 영상 촬영부(20), LED(30), 영상 처리부(40), 제어부(50), 그리고 통신부(60)를 구비하는데, 표시부(120)는 제2 보호부(12)에 결합되는 구조로 형성되어 제어부(50)로부터 영상을 전달받아 이를 출력한다.In one example, the smart fire helmet 1 includes a display unit 120, an image capturing unit 20, an LED 30, an image processing unit 40, a control unit 50, and a communication unit 60, 120 are coupled to the second protection unit 12 to receive an image from the control unit 50 and output the image.

표시부(120)는 제1 표시부(121)와 제2 표시부(122)를 포함하고, 스마트 소방 헬멧(1)을 착용하는 사용자의 좌안과 우안에 각각 대응되는 위치에 형성되고, 바람직한 예로서, 표시부(120)는 제2 보호부(12)의 내측면에 부착되는 구조로 형성될 수 있다.The display unit 120 includes a first display unit 121 and a second display unit 122. The display unit 120 is formed at a position corresponding to the left and right eyes of a user wearing the smart fire helmet 1, (120) may be attached to the inner surface of the second protective portion (12).

표시부(120)를 구성하는 제1 표시부(121)와 제2 표시부(122)는 이격되어 형성되고 제어부(50)로부터 좌안 출력용 영상과 우안 출력용 영상을 각각 전달받아 출력한다.The first display unit 121 and the second display unit 122 constituting the display unit 120 are spaced apart from each other and receive a left-eye output image and a right-eye output image from the control unit 50, respectively.

제1 표시부(121)와 제2 표시부(122)가 제어부(50)로부터 전달받은 영상을 각각 출력함에 따라, 스마트 소방 헬멧(1)을 착용한 사용자는 표시부(120)에 출력되는 영상을 3차원 영상 또는 증강현실 영상으로 확인할 수 있다.As the first display unit 121 and the second display unit 122 output the images received from the controller 50, the user wearing the smart fire helmet 1 can display the images output to the display unit 120 in three dimensions Or an augmented reality image.

영상 촬영부(20)는 스마트 소방 헬멧(1)의 외측면에 부착되어 영상을 촬영하는 카메라로서, 스마트 소방 헬멧(1)을 착용하는 사용자의 전방을 동영상으로 촬영하여 실시간으로 영상 처리부(40)로 전달한다.The image capturing unit 20 is a camera attached to the outer surface of the smart firefighter helmet 1 and capturing an image. The camera captures the front of a user wearing the smart firefighter helmet 1 as a moving picture, .

영상 촬영부(20)는 외부로부터 인가받은 제어신호에 따라 동영상을 촬영할 수 있다.The image capturing unit 20 can capture a moving image according to a control signal received from the outside.

LED(light emitting diode)(30)는 스마트 소방 헬멧(1)의 외측면에 부착되어 빛을 출력하는 부분으로서, 스마트 소방 헬멧(1)을 착용하는 사용자의 전방을 향해 빛을 출력한다.The LED (light emitting diode) 30 is attached to the outer surface of the smart fire helmet 1 and outputs light. The light emitting diode 30 outputs light toward the front of the user wearing the smart fire helmet 1.

LED(30)는 제어신호에 따라 온 또는 오프되도록 제어되거나, 주변의 조도를 감지하여 자동으로 온 또는 오프될 수 있으며, 이를 한정하지는 않는다.The LED 30 may be controlled to be turned on or off according to a control signal, or may be turned on or off automatically by sensing ambient illuminance, but is not limited thereto.

영상 처리부(40)는 영상 촬영부(20)에서 촬영된 동영상을 영상 촬영부(20)로부터 실시간으로 전달받아 처리하고, 처리된 영상을 제어부(50)로 전달하거나, 제어부(50)로부터 제어신호를 전달받아 제어신호를 토대로 동영상을 제어할 수 있다.The image processing unit 40 receives the moving image photographed by the image photographing unit 20 in real time from the image photographing unit 20 and processes the processed moving image to the control unit 50, And control the moving picture based on the control signal.

도 3을 참고로 하여 영상 처리부(40)가 영상 촬영부(20)로부터 전달받은 영상을 처리하는 방법을 자세히 설명하도록 한다. 도 3은 본 발명의 한 실시예에 따른 스마트 소방 헬멧의 영상 처리방법을 나타낸 흐름도이다. 본 실시예에 따른 스마트 소방 헬멧의 영상 처리방법은 단일 페플로그램 획득단계(S1), 산란매질 추정단계(S2), 단일 페플로그램에서 산란 매질 제거단계(S3), 광자를 검출하여 2차원 원영상 복원단계(S4), 그리고 3차원 영상 복원단계(S5)를 포함하여 이루어진다.Referring to FIG. 3, a method of processing the image received from the image capturing unit 20 by the image processing unit 40 will be described in detail. 3 is a flowchart illustrating an image processing method of a smart fire helmet according to an embodiment of the present invention. The image processing method of the smart fire helmet according to the present embodiment includes the steps of acquiring a single perpetogram (S1), estimating a scattering medium (S2), removing a scattering medium in a single perfluorogram (S3) An original image reconstruction step S4, and a 3D image reconstruction step S5.

영상 처리부(40)가 영상 촬영부(20)로부터 전달받은 영상은 자연광원과 이미지 센서에 의해 기록한 영상으로서, 단일 페플로그램(Peplogram, 가려진 이미지, veiled image)으로서 획득(S1)되고, 기록된 영상은 물체에서 나온 광선이 산란 매질을 통과하여 생성된 산란된 광선들의 중첩이며, 단위 영역 형태를 갖는 산란 매질에 대해 각각 산란된 광선은 통계적으로 서로 독립적이다.An image received by the image processing unit 40 from the image capturing unit 20 is acquired as a single peak image (S1) as an image recorded by a natural light source and an image sensor (S1) The image is a superposition of scattered rays generated by light rays from an object passing through the scattering medium, and the scattered rays for each scattering medium having a unit area shape are statistically independent of each other.

다음으로, 영상 처리부(40)는 중심 극한 정리(Central Limit Theorem)를 이용하여, 산란 매질의 중첩으로 형성된 단일 페플로그램에 포함된 산란매질을 추정(S2)한다.Next, the image processing unit 40 estimates the scattering medium included in the single perfluorogram formed by superposition of the scattering medium (S2) using the central limit theorem.

산란매질 추정단계(S2)에서, 단일 페플로그램에 포함되는 산란매질은 단위 영역의 산란매질이 복수 개 중첩된 형태이고, 단위 영역의 산란매질은

Figure pat00001
이고, 가우시안(Gaussian) 분포를 따른다.In the scattering medium estimation step S2, the scattering medium included in the single perfluorogram is a form in which a plurality of scattering media in the unit area are overlapped, and the scattering medium in the unit area is
Figure pat00001
And follows a Gaussian distribution.

그리고, 영상 촬영부(20)의 픽셀 분해능이

Figure pat00002
인 경우, 단일 페플로그램(
Figure pat00003
)은
Figure pat00004
로 표현되고, 이때,
Figure pat00005
,
Figure pat00006
,
Figure pat00007
, and
Figure pat00008
이다. Then, the pixel resolution of the image capturing unit 20
Figure pat00002
, A single perphogram (
Figure pat00003
)silver
Figure pat00004
, ≪ / RTI >
Figure pat00005
,
Figure pat00006
,
Figure pat00007
, and
Figure pat00008
to be.

좀더 자세하게는, 산란매질 추정단계(S2)에서, 영상 처리부(40)는 단일 페플로그램으로부터 산란되는 매질의 추정을 위한 중심 극한 정리로서, 최대가능추정(MLE: Maximum-likelihood estimation) 방법과 같은 통계적 추론 방법을 적용하여 산란 매질을 추정하는데, 평균

Figure pat00009
와 분산
Figure pat00010
을 갖는 가우시안 분포를 따르는 산란 매질을 모델링한다.More specifically, in the scattering medium estimation step S2, the image processing unit 40 is a central limit theorem for estimating a scattering medium from a single per-flowgram. The maximum likelihood estimation (MLE) The scattering medium is estimated by applying the statistical inference method,
Figure pat00009
And dispersion
Figure pat00010
Lt; RTI ID = 0.0 > Gaussian < / RTI >

그리고, i와 j는 각각 x와 y방향으로 산란되는 광자 부분의 인덱스이고, 가우시안 변수는 다음의 수식 1과 같이 표시된다.And, i and j are indexes of the photon parts scattered in the x and y directions, respectively, and the Gaussian variable is expressed by the following equation (1).

[수식 1][Equation 1]

Figure pat00011
Figure pat00011

위의 수식 1에서, I는 페플로그램의 픽셀 세기이다.In Equation 1 above, I is the pixel intensity of the perpetogram.

영상 처리부(40)는 가우시안 분포의 샘플 평균값인 변수(

Figure pat00012
)를 이용하여 산란 매질의 부분 영역으로서 가우시안 분포에 확률적으로 실제와 최대한 가까운 값(
Figure pat00013
)을 추정하고, 다음의 수식 2와 같이 산란 매질의 부분 영역으로 추정되는 변수
Figure pat00014
는 산란 빛의 각 부분의 샘플 평균값으로 산출된다.The image processing unit 40 calculates the average value of the Gaussian distribution
Figure pat00012
) Is used as a partial region of the scattering medium to give a probability distribution of the Gaussian distribution as close to the actual value as possible
Figure pat00013
), And as shown in the following equation (2), a variable estimated as a partial region of the scattering medium
Figure pat00014
Is calculated as a sample average value of each part of the scattered light.

[수식 2][Equation 2]

Figure pat00015
Figure pat00015

위의 수식 2에서 중심 극한 정리를 이용하여 산란 매질을 추정함에 있어 이용되는 통계적 추측 방법인 최대가능추정(MLE)은 다음의 수식 3 내지 수식 5로 표현된다.The maximum likelihood estimation (MLE), which is a statistical estimation method used in estimating the scattering medium using the central limit theorem in Equation (2), is expressed by the following Equations (3) to (5).

[수식 3][Equation 3]

Figure pat00016
Figure pat00016

[수식 4][Equation 4]

Figure pat00017
Figure pat00017

[수식 5][Equation 5]

Figure pat00018
Figure pat00018

여기서, 수식 4 및 수식 5에서 산란 매질 평면(

Figure pat00019
)상의 표본 평균을 산란 매질 평균값으로 추정함을 알 수 있다.In Equations (4) and (5), the scattering medium plane
Figure pat00019
) Is estimated as the scattering medium mean value.

다음으로, 영상 처리부(40)는 획득된 단일 페플로그램에서, 추정된 산란 매질을 제거하는 단계(S3)를 다음의 수식 6과 같이 수행한다.Next, the image processing unit 40 performs the step (S3) of removing the estimated scattering medium in the obtained single perfogram according to the following Equation (6).

[수식 6][Equation 6]

Figure pat00020
Figure pat00020

그리고, 영상 처리부(40)는 산란 매질 제거 처리된 페플로그램에서 광자를 검출하여 2차원 원영상을 복원하는 단계(S4)를 수행하는데, 이때, 다음의 수식 7과 같이 정규화된 페플로그램을 이용하여 처리된 페플로그램으로부터 생존 광자를 검출한다.Then, the image processing unit 40 performs a step S4 of recovering the two-dimensional original image by detecting the photons in the perturbation-processed cepstrum. At this time, the normalized perpetogram is expressed as Equation 7 To detect the living photons from the processed Peplogram.

[수식 7][Equation 7]

Figure pat00021
Figure pat00021

위의 수식 7에서,

Figure pat00022
는 검출하고자 하는 광자의 수, c는 색상 채널(R채널, G채널 및 B채널), 그리고
Figure pat00023
는 개개의 색상 채널에 대한 탄도 광자의 계수(coefficient)이고, 정규화된 페플로그램은
Figure pat00024
이다.In Equation (7) above,
Figure pat00022
Is the number of photons to detect, c is the color channel (R channel, G channel and B channel), and
Figure pat00023
Is the coefficient of the trajectory photon for the individual color channel, and the normalized perphogram is
Figure pat00024
to be.

좀더 자세하게는, 처리된 페플로그램은 적은 수의 생존 광자를 갖기 때문에 푸아송(Poisson) 분포에 의해 모델링 되는 광자 계수 영상 방법을 이용하여 광자 계수를 모델링하는 것으로, 이때, 이미지는 단일 에너지를 가져야 하므로, 영상 처리부(40)는 단일 에너지를 갖는 정규화된 이미지 생성을 위해 다음의 수식 8에 의해 산란 매질을 통과한 물체 또는 풍경에 대한 전체 픽셀 세기의 합을 이용하는 정규화를 수행한다.More specifically, the processed Pepflogram model photon counts using the photon count imaging method modeled by the Poisson distribution because it has a small number of surviving photons, where the image must have a single energy Therefore, the image processing unit 40 performs normalization using the sum of the total pixel intensities for the object or the scenery passing through the scattering medium by the following Equation (8) to generate a normalized image having a single energy.

[수식 8][Equation 8]

Figure pat00025
Figure pat00025

그리고, 위의 수식 7에서 원하는 수의 광자를 추출하기 위해서, 영상 처리부(40)는 다음의 수식 9와 같이 푸아송 랜덤 생성 방법을 적용할 수 있다.In order to extract a desired number of photons from the above equation (7), the image processing unit 40 can apply the Poisson random generation method as expressed by the following equation (9).

[수식 9][Equation 9]

Figure pat00026
Figure pat00026

이와 같이, 영상 처리부(40)는 수식 8 및 수식 9로부터 생존 광자를 포함하는 페플로그램을 생성한다. 그러나, 이렇게 생성된 페플로그램은 물체를 시각화하기 위한 충분한 수의 생존 광자를 포함하지 못하는 경우가 발생함으로, 다수의 복원된 페플로그램과 최대가능추정(MLE)방법을 사용하여 물체 또는 풍경 정보를 추정한다. 다수의 복원된 페플로그램으로부터 가능 함수(likelihood function)를 구성하고, 수식 10 내지 수식 14를 이용하여 풍경을 추정할 수 있다.In this manner, the image processing unit 40 generates a perfluorogram including the photons of survival from the equations (8) and (9). However, since the generated perphograms do not contain a sufficient number of surviving photons to visualize the object, it is possible to use the multiple restored perpetograms and maximum likelihood estimation (MLE) . A likelihood function can be constructed from a plurality of reconstructed perphograms, and the scenery can be estimated using Equations (10) to (14).

[수식 10][Equation 10]

Figure pat00027
Figure pat00027

[수식 11][Equation 11]

Figure pat00028
Figure pat00028

[수식 12][Equation 12]

Figure pat00029
Figure pat00029

[수식 13][Equation 13]

Figure pat00030
Figure pat00030

[수식 14[Equation 14]

Figure pat00031
Figure pat00031

위의 수식 14로부터, 영상 처리부(40)는 산란 매질을 통과한 2차원 원영상 풍경을 추정하게 되고, 마지막으로, 영상 처리부(40)는 컴퓨터 집적 영상 복원 방법을 이용하여 위의 단계(S4)로부터 복원된 복수 개의 2차원 원영상을 집적하여 3차원 영상으로서 복원한다(S5).The image processing unit 40 estimates the two-dimensional original image scenery that has passed through the scattering medium, and finally, the image processing unit 40 performs the above-described step S4 by using the computer- Dimensional original images are restored as a three-dimensional image (S5).

위의 단계(S5)에서, 영상 촬영부(20)가 집적 영상 기술을 통해 3차원 물체에 렌즈 배열 또는 카메라 배열을 적용하여 원근감을 갖는 복수 개의 2차원 이미지를 기록할 수 있고, 영상 처리부(40)는 영상 촬영부(20)에서 획득한 영상을 각각의 깊이에서 복원하여 3차원 영상으로 복원할 수 있다.In the above step S5, the image capturing unit 20 can record a plurality of two-dimensional images having a perspective by applying a lens array or a camera array to the three-dimensional object through the integrated image technique, and the image processing unit 40 Can reconstruct an image acquired by the image capturing unit 20 at each depth and reconstruct it into a three-dimensional image.

한 예에서, 영상 처리부(40)는 다음의 수식 15 및 수식 16으로부터 컴퓨터 집적 영상 복원 과정을 수행할 수 있다.In one example, the image processing unit 40 may perform a computer integrated image restoration process from the following equations (15) and (16).

[수식 15][Equation 15]

Figure pat00032
Figure pat00032

[수식 16][Equation 16]

Figure pat00033
Figure pat00033

위의 수식 15 및 수식 16에서,

Figure pat00034
는 요소 영상에서 X축 방향으로의 픽셀의 수이고,
Figure pat00035
는 요소 영상에서 Y축 방향의 픽셀 수이다. 또한, p는 가상 핀홀 사이의 간격이고,
Figure pat00036
, 는 X축 방향으로의 이미지 센서의 크기,
Figure pat00037
는 Y축 방향으로의 이미지 센서의 크기이다. z 는 재생된 이미지의 깊이이고,
Figure pat00038
는 X축 방향으로 중첩되는 이동 픽셀의 수,
Figure pat00039
는 Y축 방향으로 중첩되는 이동 픽셀의 수이다.
Figure pat00040
는 k번째 행(row), l번째 열(columm)의 복원된 페플로그램이고, O(x, y)는 중첩되는 수를 나타내는 매트릭스이다.In the above Equation 15 and Equation 16,
Figure pat00034
Is the number of pixels in the X-axis direction in the element image,
Figure pat00035
Is the number of pixels in the Y axis direction in the element image. Also, p is the interval between virtual pinholes,
Figure pat00036
, Is the size of the image sensor in the X-axis direction,
Figure pat00037
Is the size of the image sensor in the Y-axis direction. z is the depth of the reproduced image,
Figure pat00038
The number of moving pixels superimposed in the X-axis direction,
Figure pat00039
Is the number of moving pixels superimposed in the Y-axis direction.
Figure pat00040
(X, y) is a reconstructed perphogram of the kth row and the lth column (columm), and O (x, y) is a matrix representing the number of overlaps.

도 3을 참고로 하여 설명한 것처럼, 영상 처리부(40)는 3차원 영상을 복원하고, 복원된 영상을 제어부(50)로 전달한다. As described with reference to FIG. 3, the image processing unit 40 reconstructs a three-dimensional image and transfers the reconstructed image to the control unit 50. FIG.

그리고 이때, 영상 처리부(40)는 제어부(50)로부터 전달받은 제어신호에 따라 영상 복원하는 데 필요한 변수 등을 조절하여 처리할 수 있으며, 이를 한정하지는 않는다.At this time, the image processing unit 40 can adjust and process the parameters necessary for image restoration according to the control signal received from the control unit 50, but it is not limited thereto.

제어부(50)는 영상 처리부(40)에서 처리된 3차원의 영상을 전달받아 통신부(60)를 통해 외부의 서버(100)로 전달하도록 제어하거나, 표시부(120)로 전달하여 출력하도록 제어하고, 표시부(120)를 형성하는 제1 표시부(121) 및 제2 표시부(122)에 각각 적절한 영상을 출력할 수 있도록 제어한다.The control unit 50 controls the image processing unit 40 to transmit the three-dimensional image processed by the image processing unit 40 to the external server 100 via the communication unit 60 or to transmit the image to the display unit 120, And controls the first display unit 121 and the second display unit 122, which form the display unit 120, to output appropriate images, respectively.

또는, 제어부(50)는 통신부(60)가 외부의 서버(100)로부터 전달받은 신호 등을 통신부(60)로부터 전달받아 제어신호를 생성하는 데 이용할 수 있고, 이를 한정하지는 않는다.Alternatively, the control unit 50 can be used for generating a control signal by receiving the signal or the like received from the external server 100 from the communication unit 60, but is not limited thereto.

통신부(60)는 영상 처리부(40)에서 처리된 3차원의 영상을 제어부(50)를 통해 전달받아 이를 외부의 서버(100)로 전달하거나, 제어부(50)의 제어신호를 외부의 서버(100)로 전달하며, 외부의 서버(100)로부터 전달받은 신호 등을 제어부(50)로 전달한다.The communication unit 60 receives the three-dimensional image processed by the image processing unit 40 through the control unit 50 and transmits the received three-dimensional image to the external server 100 or transmits the control signal of the control unit 50 to the external server 100 And delivers signals and the like received from the external server 100 to the controller 50. [

한 예에서, 통신부(60)는 외부의 서버(100)와 통신을 수행하기 위한 무선통신 모듈을 포함할 수 있고, 유선통신을 통해 근거리의 서버(100)에 연결될 수 있으며, 이를 한정하지는 않는다.In one example, the communication unit 60 may include a wireless communication module for performing communication with an external server 100, and may be connected to the nearby server 100 through wired communication, but is not limited thereto.

서버(100)는 통신부(60)로부터 전달받은 3차원의 영상을 저장하거나, 입력되는 제어신호를 통신부(60)로 전달하여 스마트 소방 헬멧(1)의 제어를 수행할 수 있다.The server 100 may control the smart fire helmet 1 by storing a three-dimensional image received from the communication unit 60 or transmitting an input control signal to the communication unit 60.

도 1 내지 도 3을 참고로 하여 설명한 것처럼, 본 발명의 한 실시예에 따른 스마트 소방 헬멧(1)은 촬영된 영상에서 산란 매질을 제거한 3차원 영상을 헬멧 내부에 형성된 표시부(120)에 출력하므로, 스마트 소방 헬멧(1)을 착용하는 소방관이 연기 또는 화염이 자욱한 공간에서 구조 작업을 하는 데 효율적으로 이용할 수 있다.As described above with reference to FIGS. 1 to 3, the smart fire helmet 1 according to the embodiment of the present invention outputs a three-dimensional image obtained by removing a scattering medium from a photographed image to a display unit 120 formed inside the helmet , A firefighter wearing the smart firefighter helmet 1 can be effectively used to perform a rescue operation in a smoke or flame-covered space.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

1 : 스마트 소방 헬멧 20 : 영상 촬영부
40 : 영상 처리부 50 : 제어부
60 : 통신부 120 : 표시부
1: smart fire helmet 20: image shooting part
40: image processing unit 50:
60: communication unit 120:

Claims (7)

헬멧 외측면에 부착되어 상기 헬멧의 전방을 촬영하여 영상을 획득하는 영상 촬영부;
상기 헬멧에 형성되어 상기 영상 촬영부에서 획득된 영상을 실시간으로 전달받아, 상기 획득된 영상에 포함된 연기를 제거하는 영상 처리를 수행하여 2차원 영상을 생성하고, 생성된 2차원 영상을 집적하여 3차원 영상을 생성하는 영상 처리부; 그리고,
상기 헬멧의 내측면에 부착되어 상기 영상 처리부에서 생성된 상기 3차원 영상을 전달받아 출력하는 표시부;를 포함하는 스마트 소방 헬멧.
An image capturing unit attached to an outer surface of the helmet to capture an image of the front of the helmet to acquire an image;
The helmet may include an image capturing unit that receives the image captured by the image capturing unit in real time, performs image processing for removing smoke contained in the captured image to generate a two-dimensional image, An image processor for generating a three-dimensional image; And,
And a display attached to an inner surface of the helmet to receive and output the 3D image generated by the image processing unit.
제1항에 있어서,
상기 표시부는 증강현실 영상 출력을 위한 좌안용 영상과 우안용 영상을 전달받아 각각 출력하는 제1 출력부와 제2 출력부로 구성되는 것을 특징으로 하는 스마트 소방 헬멧.
The method according to claim 1,
Wherein the display unit comprises a first output unit and a second output unit for receiving the left eye image and the right eye image for outputting the augmented reality image and outputting the left eye image and the right eye image, respectively.
제1항에 있어서,
상기 헬멧에 부착되고, 상기 영상 처리부에서 생성한 3차원 영상을 전달받아 무선통신을 통해 외부의 서버로 전달하는 통신부;를 더 포함하는 것을 특징으로 하는 스마트 소방 헬멧.
The method according to claim 1,
And a communication unit attached to the helmet and receiving the 3D image generated by the image processing unit and delivering the 3D image to an external server through wireless communication.
제3항에 있어서,
상기 외부의 서버는 상기 영상 처리부를 제어하는 제어신호를 생성하여 상기 통신부로 전달하거나, 상기 영상 처리부에서 생성한 상기 3차원 영상을 상기 통신부를 통해 전달받아 저장하는 것을 특징으로 하는 스마트 소방 헬멧.
The method of claim 3,
Wherein the external server generates a control signal for controlling the image processing unit and transmits the control signal to the communication unit, or receives the three-dimensional image generated by the image processing unit through the communication unit and stores the received three-dimensional image.
제1항에 있어서,
상기 헬멧의 전면 외측에 형성되어 빛을 출력하는 LED를 더 포함하는 것을 특징으로 하는 스마트 소방 헬멧.
The method according to claim 1,
Further comprising an LED formed outside the front surface of the helmet to output light.
제5항에 있어서,
상기 LED는 상기 헬멧의 주위의 조도를 감지하여 자동으로 온 또는 오프되는 것을 특징으로 하는 것을 특징으로 하는 스마트 소방 헬멧.
6. The method of claim 5,
Wherein the LED is automatically turned on or off by detecting the illuminance around the helmet.
제1항에 있어서,
상기 영상 처리부는 상기 영상 촬영부에서 획득한 영상으로부터 페플로그램을 획득하고, 산란매질을 추정하여, 획득한 페플로그램에서 추정된 산란매질을 제거하고, 광자를 검출하여 2차원 원영상을 생성하고, 생성된 2차원 원영상을 이용하여 3차원 영상을 복원하여 상기 3차원 영상을 생성하는 것을 특징으로 하는 스마트 소방 헬멧.

The method according to claim 1,
The image processing unit obtains a perfluorogram from the image acquired by the image capturing unit, estimates a scattering medium, removes an estimated scattering medium from the acquired perpetogram, and detects a photon to generate a two-dimensional original image Dimensional image, and the three-dimensional image is generated by restoring the three-dimensional image using the generated two-dimensional original image.

KR1020170066398A 2017-05-29 2017-05-29 Smart helmet for fire-fighting KR102384625B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170066398A KR102384625B1 (en) 2017-05-29 2017-05-29 Smart helmet for fire-fighting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170066398A KR102384625B1 (en) 2017-05-29 2017-05-29 Smart helmet for fire-fighting

Publications (2)

Publication Number Publication Date
KR20180130377A true KR20180130377A (en) 2018-12-07
KR102384625B1 KR102384625B1 (en) 2022-04-11

Family

ID=64669476

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170066398A KR102384625B1 (en) 2017-05-29 2017-05-29 Smart helmet for fire-fighting

Country Status (1)

Country Link
KR (1) KR102384625B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109998213A (en) * 2019-04-26 2019-07-12 中航华东光电有限公司 A kind of new A R fire helmet

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200450780Y1 (en) * 2010-04-13 2010-10-29 이호남 Hard hat with luminaire
KR101050710B1 (en) * 2010-11-03 2011-07-20 (주)텔레콤랜드 Smart helmet for fireman
KR20150020803A (en) * 2013-08-19 2015-02-27 엘지전자 주식회사 Head mounted display and method for processing image thereof
KR20160088178A (en) * 2015-01-15 2016-07-25 박진상 The method and the recording media for original image restoration technology based on scattering noise removal and photon detection for single recorded image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200450780Y1 (en) * 2010-04-13 2010-10-29 이호남 Hard hat with luminaire
KR101050710B1 (en) * 2010-11-03 2011-07-20 (주)텔레콤랜드 Smart helmet for fireman
KR20150020803A (en) * 2013-08-19 2015-02-27 엘지전자 주식회사 Head mounted display and method for processing image thereof
KR20160088178A (en) * 2015-01-15 2016-07-25 박진상 The method and the recording media for original image restoration technology based on scattering noise removal and photon detection for single recorded image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109998213A (en) * 2019-04-26 2019-07-12 中航华东光电有限公司 A kind of new A R fire helmet

Also Published As

Publication number Publication date
KR102384625B1 (en) 2022-04-11

Similar Documents

Publication Publication Date Title
AU2017220404B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
JP7076447B2 (en) Light field capture and rendering for head-mounted displays
JP6813501B2 (en) Privacy-sensitive consumer cameras coupled to augmented reality systems
JP6025690B2 (en) Information processing apparatus and information processing method
TWI610571B (en) Display method, system and computer-readable recording medium thereof
CN111194423A (en) Head mounted display tracking system
KR20170139098A (en) Multi-baseline camera array system architecture for depth enhancement in VR / AR applications
JP2011254411A (en) Video projection system and video projection program
JP2015088095A (en) Information processor and information processing method
CN111127822B (en) Augmented reality-based fire-fighting auxiliary method and intelligent wearable equipment
US20230239457A1 (en) System and method for corrected video-see-through for head mounted displays
JP6157170B2 (en) Monitoring support system
JP2022176990A (en) Omnidirectional photographing system and omnidirectional photographing method
KR102384625B1 (en) Smart helmet for fire-fighting
JP2017046233A5 (en)
KR101650009B1 (en) The method and the recording media for original image restoration technology based on scattering noise removal and photon detection for single recorded image
US20240205380A1 (en) Head-Mounted Electronic Device with Display Recording Capability
JP2016062336A (en) Operation instruction system, operation instruction method, attached terminal, and operation instruction management server
JP2019121074A (en) Selfie device, method and program in vr space
JP2019513310A5 (en)
US11405548B1 (en) Camera system for a remotely operated vehicle
JP5055462B2 (en) Image processing apparatus, image processing method, and imaging apparatus
TWI423652B (en) A 3d image display device capable of automatically correcting 3d images and the automatic correction method thereof
WO2015181811A1 (en) A method for stereoscopic reconstruction of three dimensional images
JP5808787B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant