KR102669369B1 - System and method of evacuation route guidance for emergency using nfc - Google Patents
System and method of evacuation route guidance for emergency using nfc Download PDFInfo
- Publication number
- KR102669369B1 KR102669369B1 KR1020220018110A KR20220018110A KR102669369B1 KR 102669369 B1 KR102669369 B1 KR 102669369B1 KR 1020220018110 A KR1020220018110 A KR 1020220018110A KR 20220018110 A KR20220018110 A KR 20220018110A KR 102669369 B1 KR102669369 B1 KR 102669369B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- equation
- filter
- nfc
- computing device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000004891 communication Methods 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 12
- 239000002341 toxic gas Substances 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000035939 shock Effects 0.000 claims description 4
- 239000011247 coating layer Substances 0.000 description 22
- 125000004432 carbon atom Chemical group C* 0.000 description 14
- 239000008199 coating composition Substances 0.000 description 14
- ZWEHNKRNPOVVGH-UHFFFAOYSA-N 2-Butanone Chemical compound CCC(C)=O ZWEHNKRNPOVVGH-UHFFFAOYSA-N 0.000 description 12
- 238000003860 storage Methods 0.000 description 9
- 239000002270 dispersing agent Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 239000010410 layer Substances 0.000 description 8
- 238000011109 contamination Methods 0.000 description 7
- 239000010954 inorganic particle Substances 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 150000001875 compounds Chemical class 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 239000003960 organic solvent Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- YXFVVABEGXRONW-UHFFFAOYSA-N Toluene Chemical compound CC1=CC=CC=C1 YXFVVABEGXRONW-UHFFFAOYSA-N 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000003381 stabilizer Substances 0.000 description 3
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- RAHZWNYVWXNFOC-UHFFFAOYSA-N Sulphur dioxide Chemical compound O=S=O RAHZWNYVWXNFOC-UHFFFAOYSA-N 0.000 description 2
- 125000002947 alkylene group Chemical group 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- LELOWRISYMNNSU-UHFFFAOYSA-N hydrogen cyanide Chemical compound N#C LELOWRISYMNNSU-UHFFFAOYSA-N 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 229920000728 polyester Polymers 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 125000001424 substituent group Chemical group 0.000 description 2
- 230000002195 synergetic effect Effects 0.000 description 2
- BTZVKSVLFLRBRE-UHFFFAOYSA-N 2-methoxypropyl acetate Chemical compound COC(C)COC(C)=O BTZVKSVLFLRBRE-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 125000003342 alkenyl group Chemical group 0.000 description 1
- 125000004450 alkenylene group Chemical group 0.000 description 1
- 125000003545 alkoxy group Chemical group 0.000 description 1
- 125000000217 alkyl group Chemical group 0.000 description 1
- 125000000304 alkynyl group Chemical group 0.000 description 1
- 125000004419 alkynylene group Chemical group 0.000 description 1
- PNEYBMLMFCGWSK-UHFFFAOYSA-N aluminium oxide Inorganic materials [O-2].[O-2].[O-2].[Al+3].[Al+3] PNEYBMLMFCGWSK-UHFFFAOYSA-N 0.000 description 1
- 239000003963 antioxidant agent Substances 0.000 description 1
- 230000003078 antioxidant effect Effects 0.000 description 1
- 125000003710 aryl alkyl group Chemical group 0.000 description 1
- 125000003118 aryl group Chemical group 0.000 description 1
- 125000000732 arylene group Chemical group 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 229910002091 carbon monoxide Inorganic materials 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 229920001577 copolymer Polymers 0.000 description 1
- 125000005724 cycloalkenylene group Chemical group 0.000 description 1
- 125000000753 cycloalkyl group Chemical group 0.000 description 1
- 125000002993 cycloalkylene group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 125000005843 halogen group Chemical group 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 125000004435 hydrogen atom Chemical class [H]* 0.000 description 1
- 125000002887 hydroxy group Chemical group [H]O* 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 125000000449 nitro group Chemical group [O-][N+](*)=O 0.000 description 1
- 239000011242 organic-inorganic particle Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- LLHKCFNBLRBOGN-UHFFFAOYSA-N propylene glycol methyl ether acetate Chemical compound COCC(C)OC(C)=O LLHKCFNBLRBOGN-UHFFFAOYSA-N 0.000 description 1
- 230000002940 repellent Effects 0.000 description 1
- 239000005871 repellent Substances 0.000 description 1
- 239000000377 silicon dioxide Substances 0.000 description 1
- 239000004071 soot Substances 0.000 description 1
- 238000010186 staining Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000006097 ultraviolet radiation absorber Substances 0.000 description 1
- 238000004078 waterproofing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B7/00—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
- G08B7/06—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
- G08B7/066—Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources guiding along a path, e.g. evacuation path lighting strip
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/067—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
- G06K19/07—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
- G06K19/0723—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/12—Alarms for ensuring the safety of persons responsive to undesired emission of substances, e.g. pollution alarms
- G08B21/14—Toxic gas alarms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Toxicology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Computer Networks & Wireless Communication (AREA)
- Environmental & Geological Engineering (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Alarm Systems (AREA)
Abstract
NFC를 이용한 비상 대피로 안내 시스템 및 방법이 개시된다. 본 발명은 비상 상황을 판단하기 위한 정보를 센싱하는 센싱부, 상기 정보를 기초로 재난 정보를 생성하는 컴퓨팅 장치, 상기 컴퓨팅 장치로부터 상기 재난 정보에 대한 URL 코드를 포함하는 NFC 태그 장치 및 상기 NFC 태그 장치로부터 상기 URL 코드를 수신하는 사용자 단말을 포함할 수 있다. An emergency evacuation route guidance system and method using NFC are disclosed. The present invention includes a sensing unit that senses information for determining an emergency situation, a computing device that generates disaster information based on the information, an NFC tag device including a URL code for the disaster information from the computing device, and the NFC tag. It may include a user terminal that receives the URL code from the device.
Description
본 발명은 NFC를 이용한 비상 대피로 안내 시스템 및 방법에 관한 것이다. 보다 상세하게는, 비상 상황시 NFC를 태깅하여 안전한 비상 대피로에 대한 안내를 제공하기 위한 시스템 및 방법에 대한 것이다.The present invention relates to an emergency evacuation route guidance system and method using NFC. More specifically, it relates to a system and method for providing guidance on a safe emergency evacuation route by tagging NFC in an emergency situation.
NFC(Near Field Communication)는 10cm 이내의 가까운 거리에서 다양한 무선 데이터를 주고받는 통신 기술로서, 무선 태그(RFID) 기술 중 하나로, 13.56MHz의 주파수 대역을 사용하는 비접촉식 통신 기술이다.NFC (Near Field Communication) is a communication technology that exchanges various wireless data at a close distance of less than 10 cm. It is one of the wireless tag (RFID) technologies and is a non-contact communication technology that uses the frequency band of 13.56 MHz.
최근에는, 이러한 NFC 기술을 이용한 NFC 태그와 스마트폰을 연계한 서비스가 개발되고 있으며, NFC 태그에 저장된 데이터에 따라 새로운 모델이 제시되고 있다. NFC 태그와 스마트폰을 연계한 서비스를 제공하는 방법과 관련하여, 종래 기술들이 상당히 개시되어 있다.Recently, services linking NFC tags and smartphones using NFC technology are being developed, and new models are being proposed based on data stored in the NFC tag. Regarding a method of providing a service linking an NFC tag and a smartphone, many prior technologies have been disclosed.
다만, NFC 태그와 스마트폰을 연계한 서비스를 제공함에 있어서, 비상시에 사용자의 위치를 파악함에 있어서, 실외가 아닌 실내에서는 GPS가 활성화되지 않아 GPS는 이용할 수 없으며, 3G, 4G 망이나 LTE 망 등에 의한 측위는 해당 기지국의 위치를 알려주게 되므로 오차범위가 커져 사용자의 정확한 위치를 측정할 수 없게 된다. 또한, 비상시에는 전원 차단 및 연기 등으로 시야 확보가 제한적이며, 비상 대피도를 찾는다고 하더라도 자신의 위치를 정확히 파악할 수 없다. 이렇게, 3G 망이나 4G 망이 활성화된다고 하더라도, 자신의 위치를 정확히 알 수 없으면 정확한 구조가 이루어질 수 없었다.However, in providing a service linking an NFC tag and a smartphone, when determining the user's location in an emergency, GPS cannot be used because it is not activated indoors instead of outdoors, and it cannot be used through 3G, 4G networks, LTE networks, etc. Since positioning informs the location of the base station, the margin of error increases, making it impossible to measure the user's exact location. Additionally, in an emergency, visibility is limited due to power cuts and smoke, and even if you find an emergency escape route, you cannot accurately determine your location. In this way, even if the 3G network or 4G network was activated, an accurate structure could not be established if one's location was not accurately known.
본 발명의 목적은 비상 상황시 사용자가 자신의 단말을 NFC에 태깅하면 안전한 비상 대피로에 대한 안내를 제공하는 것이다. The purpose of the present invention is to provide guidance on a safe emergency evacuation route when a user tags his/her terminal with NFC in an emergency situation.
또한, 본 발명의 목적은 GPS가 작동하지 않는 건물 내부 등 실내에서 사용자가 비상 상황시에 보다 안전한 비상 통로를 찾아 안전하게 탈출할 수 있는 안내를 제공하는 것이다. In addition, the purpose of the present invention is to provide guidance so that users can find a safer emergency route and escape safely in an emergency situation indoors, such as inside a building where GPS is not working.
상술한 문제점을 해결하기 위하여, 본 발명은 비상 상황을 판단하기 위한 정보를 센싱하는 센싱부, 상기 정보를 기초로 재난 정보를 생성하는 컴퓨팅 장치, 상기 컴퓨팅 장치로부터 상기 재난 정보에 대한 URL 코드를 포함하는 NFC 태그 장치 및 상기 NFC 태그 장치로부터 상기 URL 코드를 수신하는 사용자 단말을 포함할 수 있다. In order to solve the above-mentioned problems, the present invention includes a sensing unit that senses information for determining an emergency situation, a computing device that generates disaster information based on the information, and a URL code for the disaster information from the computing device. It may include an NFC tag device and a user terminal that receives the URL code from the NFC tag device.
또한, 상기 NFC 태그 장치는 근거리 무선 통신을 위한 통신 회로를 포함하는 태그부 및 상기 태그부 주변에 설치된 적어도 하나의 LED 램프를 포함할 수 있다. Additionally, the NFC tag device may include a tag unit including a communication circuit for short-distance wireless communication and at least one LED lamp installed around the tag unit.
또한, 상기 컴퓨팅 장치는 상기 재난 정보를 기초로 상기 적어도 하나의 LED 램프를 제어할 수 있다. Additionally, the computing device may control the at least one LED lamp based on the disaster information.
또한, 상기 재난 정보는 미리 나뉘어진 구역 정보, 구역별 비상 상황 발생 정보 및 비상 상황이 발생하지 않은 구역에 대한 안내 정보를 포함할 수 있다. Additionally, the disaster information may include pre-divided zone information, emergency situation occurrence information for each zone, and guidance information for zones in which no emergency situation has occurred.
또한, 상기 센싱부는 미리 정해진 지점을 촬영하기 위한 적외선 카메라를 포함하고, 상기 적외선 카메라는 측벽에 관통홀을 포함하는 하우징, 상기 관통홀에 설치된 렌즈 및 상기 렌즈를 구동하는 구동부를 포함할 수 있다. Additionally, the sensing unit may include an infrared camera for photographing a predetermined point, and the infrared camera may include a housing including a through hole in a side wall, a lens installed in the through hole, and a driving unit that drives the lens.
또한, 상술한 문제점을 해결하기 위하여, 본 발명은 비상 상황을 판단하기 위한 센싱 정보를 수신하는 단계, 상기 센싱 정보를 기초로 재난 정보를 생성하는 단계, 상기 재난 정보에 대한 URL 코드를 생성하는 단계 및 상기 URL 코드를 NFC 태그 장치로 전송하는 단계를 포함하되, 상기 재난 정보는 미리 나뉘어진 구역 정보, 구역별 비상 상황 발생 정보 및 비상 상황이 발생하지 않은 구역에 대한 안내 정보를 포함할 수 있다. In addition, in order to solve the above-described problem, the present invention includes the steps of receiving sensing information for determining an emergency situation, generating disaster information based on the sensing information, and generating a URL code for the disaster information. and transmitting the URL code to an NFC tag device, wherein the disaster information may include pre-divided zone information, emergency situation occurrence information for each zone, and guidance information for zones where no emergency situation has occurred.
또한, 상술한 문제점을 해결하기 위하여, 본 발명은 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 상술한 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체일 수 있다. In addition, in order to solve the above-described problem, the present invention provides a non-transitory computer-readable medium storing instructions, which, when executed by a processor, cause the processor to perform the above-described method. It may be a possible medium.
본 발명은 비상 상황시 사용자가 자신의 단말을 NFC에 태깅하면 안전한 비상 대피로에 대한 안내를 제공하고, 특히 목적은 GPS가 작동하지 않는 건물 내부 등 실내에서 사용자가 비상 상황시에 보다 안전한 비상 통로를 찾아 안전하게 탈출할 수 있는 안내를 제공하는 효과를 가진다. The present invention provides guidance on a safe emergency evacuation route when a user tags his or her terminal with NFC in an emergency situation. In particular, the purpose is to provide a safer emergency evacuation route in an emergency situation indoors, such as inside a building where GPS does not work. It has the effect of providing guidance to find and escape safely.
또한, 본 발명은 특유의 카메라와 알고리즘을 활용하여 보다 정확하게 현장 상황을 인식할 수 있어, 사용자가 비상 상황시에 보다 안전한 비상 통로를 찾아 안전하게 탈출할 수 있는 안내를 제공하는 효과를 가진다. In addition, the present invention utilizes a unique camera and algorithm to more accurately recognize on-site situations, which has the effect of providing guidance for users to find a safer emergency route and escape safely in an emergency situation.
본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained according to the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.
도 1은 본 발명에 따른 NFC를 이용한 비상 대피로 안내 시스템을 나타낸 것이다.
도 2는 본 발명에 따른 센싱부를 나타낸 것이다.
도 3은 본 발명에 따른 컴퓨팅 장치를 나타낸 것이다.
도 4는 본 발명에 따른 NFC 태그 장치를 나타낸 것이다.
도 5 본 발명에 따른 NFC 태그 장치의 일 예시를 나타낸 것이다.
도 6은 본 발명에 따른 적외선 카메라를 개략적으로 나타낸 것이다.
도 7은 본 발명에 따른 NFC를 이용한 비상 대피로 안내 방법을 나타낸 것이다.
도 8은 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.Figure 1 shows an emergency evacuation route guidance system using NFC according to the present invention.
Figure 2 shows a sensing unit according to the present invention.
Figure 3 shows a computing device according to the present invention.
Figure 4 shows an NFC tag device according to the present invention.
Figure 5 shows an example of an NFC tag device according to the present invention.
Figure 6 schematically shows an infrared camera according to the present invention.
Figure 7 shows an emergency evacuation route guidance method using NFC according to the present invention.
Figure 8 is a diagram showing an example of an image correction filter according to the present invention.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide embodiments of the present specification and explain technical features of the present specification together with the detailed description.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted.
또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted.
또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.
이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, NFC를 이용한 비상 대피로 안내 시스템 및 방법에 관하여 상세히 설명하면 다음과 같다.Hereinafter, based on the above-described contents, an emergency evacuation route guidance system and method using NFC according to a preferred embodiment of the present specification will be described in detail as follows.
도 1은 본 발명에 따른 NFC를 이용한 비상 대피로 안내 시스템을 나타낸 것이다. Figure 1 shows an emergency evacuation route guidance system using NFC according to the present invention.
도 1에 따르면, 본 발명에 따른 NFC를 이용한 비상 대피로 안내 시스템은 센싱부(100), 컴퓨팅 장치(200), NFC 태그 장치(300) 및 사용자 단말(400)을 포함할 수 있다. According to FIG. 1, the emergency evacuation route guidance system using NFC according to the present invention may include a sensing unit 100, a computing device 200, an NFC tag device 300, and a user terminal 400.
본 발명에 따른 센싱부(100)는 비상 상황을 판단하는데 필요한 정보들을 감지할 수 있다. 일 예로, 센싱부(100)는 화재 상황을 판단하는데 필요한 정보인 온도 정보, 불꽃 발생 정보, 유독 가스 정보 등을 감지할 수 있다. 본 발명에 따른 비상 상황은 재난 등의 사고가 발생한 상황을 의미할 수 있으며, 비상 상황은 화재 발생 상황, 지진 발생 상황, 건물 붕괴 상황 등이 포함될 수 있다. The sensing unit 100 according to the present invention can detect information necessary to determine an emergency situation. For example, the sensing unit 100 may detect temperature information, flame generation information, toxic gas information, etc., which are information necessary to determine a fire situation. An emergency situation according to the present invention may mean a situation where an accident such as a disaster occurs, and the emergency situation may include a fire situation, an earthquake situation, a building collapse situation, etc.
본 발명에 따른 컴퓨팅 장치(200)는 센싱부(100)로부터 비상 상황을 판단하는데 필요한 정보들을 수신하고, 수신한 정보들을 기초로 재난 정보를 생성할 수 있다. 재난 정보는 비상 상황이 발생하였는지 여부를 판단한 결과값으로서, 유형별 비상 상황에 따라 다른 정보를 포함할 수 있다. The computing device 200 according to the present invention may receive information necessary to determine an emergency situation from the sensing unit 100 and generate disaster information based on the received information. Disaster information is the result of determining whether an emergency situation has occurred, and may include different information depending on the type of emergency situation.
또한, 컴퓨팅 장치(200)는 재난 정보를 기초로 URL 코드를 생성할 수 있고, 생성된 URL 코드를 NFC 태그 장치(300)로 하여금 나타낼 수 있도록 NFC 태그 장치(300)를 제어할 수 있다. 따라서, 본 발명에 따른 NFC 태그 장치(300)는 재난 정보에 대한 URL 코드를 컴퓨팅 장치(200)로부터 수신하고, URL 코드를 내재할 수 있다. Additionally, the computing device 200 may generate a URL code based on disaster information and control the NFC tag device 300 to display the generated URL code. Therefore, the NFC tag device 300 according to the present invention can receive a URL code for disaster information from the computing device 200 and embed the URL code.
본 발명에 따른 사용자 단말(400)은 NFC 태그 장치(300)에 태깅될 수 있으며, 태깅시 NFC 태그 장치(300)로부터 URL 코드를 수신할 수 있다. 사용자 단말(400)은 사용자가 사용하는 모든 연산 장치를 의미할 수 있으며, 노트북, 스마트폰, 태블릿, 휴대폰 등을 의미할 수 있다. The user terminal 400 according to the present invention can be tagged with the NFC tag device 300, and can receive a URL code from the NFC tag device 300 when tagged. The user terminal 400 may refer to any computing device used by a user, such as a laptop, smartphone, tablet, or mobile phone.
이때, 재난 정보는 미리 나뉘어진 구역 정보, 구역별 비상 상황 발생 정보 및 비상 상황이 발생하지 않은 구역에 대한 안내 정보를 포함할 수 있다. At this time, the disaster information may include pre-divided zone information, emergency situation occurrence information for each zone, and guidance information for zones in which no emergency situation has occurred.
미리 나뉘어진 구역 정보는 비상 상황을 판단하기 위한 건물 내부 또는 실내 장소의 구역에 대한 구조, 설계 등의 정보를 의미할 수 있다. 일 예로, 미리 나뉘어진 구역 정보는 비상 건물 설계 도면이나 건물 내부 구역 이미지를 포함할 수 있다. 따라서, 건물 내부에 제1 구역에 화재가 발생한 경우, 제2 구역 및 제3 구역 등은 상대적으로 안전한 구역이라고 판단될 수 있다. 또한, 각 구역들은 방화벽 등으로 구별되는 것을 특징으로 할 수 있다. Pre-divided area information may refer to information on structure, design, etc. about areas inside a building or indoor location for determining an emergency situation. As an example, the pre-divided area information may include an emergency building design drawing or an image of an area inside the building. Therefore, if a fire occurs in the first zone inside the building, the second zone and third zone can be determined to be relatively safe zones. Additionally, each zone may be distinguished by a firewall, etc.
구역별 비상 상황 발생 정보는, 각 구역마다 설치된 센서들로부터 감지된 정보를 기초로, 각 구역 내부의 비상 상황이 발생하였는지 여부에 대한 정보를 의미할 수 있다. 일 예로, 제1 구역에서 화재가 발생하고 제2 구역 및 제3 구역에서 화재가 발생하지 않은 경우, 구역별 비상 상황 발생 정보는 제1 구역에서 화재가 발생하였다는 정보를 포함할 수 있다. 또한, 제1 구역에서 화재가 발생하여 제1 구역 및 제2 구역에서 유독 가스가 감지된 경우, 구역별 비상 상황 발생 정보는 제1 구역 및 제2 구역에서 유독 가스가 감지되었다는 정보를 포함할 수 있다. Emergency situation occurrence information for each zone may refer to information on whether an emergency situation has occurred within each zone based on information detected from sensors installed in each zone. For example, if a fire occurs in the first zone and no fire occurs in the second or third zones, emergency situation occurrence information for each zone may include information that a fire occurred in the first zone. Additionally, if a fire breaks out in the first zone and toxic gas is detected in the first and second zones, emergency situation information for each zone may include information that toxic gas was detected in the first and second zones. there is.
비상 상황이 발생하지 않은 구역에 대한 안내 정보는 각 구역 내부에 비상 상황이 발생하지 않았는지 여부에 대한 정보를 의미할 수 있다. 일 예로, 제1 구역에서 화제가 발생한 경우, 비상 상황이 발생하지 않은 구역에 대한 안내 정보는 제2 구역 및 제3 구역 등에는 화재가 발생하지 않았다는 정보를 포함할 수 있다. 또한, 제1 구역에서 화재가 발생하여 제1 구역 및 제2 구역에서 유독 가스가 감지된 경우, 비상 상황이 발생하지 않은 구역에 대한 안내 정보는 제3 구역에서는 유독 가스가 감지되지 않았다는 정보를 포함할 수 있다.Guidance information about areas where an emergency situation has not occurred may mean information about whether an emergency situation has occurred within each area. For example, when a fire breaks out in the first zone, guidance information about zones where no emergency situation has occurred may include information that no fire has occurred in the second zone and third zone. Additionally, if a fire breaks out in Zone 1 and toxic gases are detected in Zones 1 and 2, guidance information for zones where no emergency has occurred will include information that no toxic gases have been detected in Zone 3. can do.
도 2는 본 발명에 따른 센싱부를 나타낸 것이다. Figure 2 shows a sensing unit according to the present invention.
도 2에 따르면, 본 발명에 따른 센싱부(100)는 불꽃 감지 센서(110), 충격 감지 센서(120), 적외선 카메라(130) 및 유독 가스 감지 센서(140) 중 적어도 하나를 포함할 수 있다. According to FIG. 2, the sensing unit 100 according to the present invention may include at least one of a flame detection sensor 110, an impact detection sensor 120, an infrared camera 130, and a toxic gas detection sensor 140. .
본 발명에 따른 불꽃 감지 센서(110)는 각 구역별로 설치될 수 있으며, 불꽃이 발생하였는지 여부를 자동으로 감지할 수 있는 센서일 수 있다. 불꽃이 감지된 경우, 불꽃의 지속 시간을 통하여 스파크 또는 화재 발생인지 여부가 컴퓨팅 장치(도 1의 200)에 의하여 판단될 수 있다. The flame detection sensor 110 according to the present invention may be installed in each zone and may be a sensor that can automatically detect whether a flame has occurred. When a flame is detected, whether a spark or a fire has occurred can be determined by the computing device (200 in FIG. 1) based on the duration of the flame.
본 발명에 따른 충격 감지 센서(120)는 각 구역별로 설치될 수 있으며, 외부 충격 또는 흔들림 정도가 감지될 수 있다. 따라서, 지진 등의 재난 상황 발생 여부가 컴퓨팅 장치(도 1의 200)에 의하여 판단될 수 있다. The shock detection sensor 120 according to the present invention can be installed in each zone, and can detect the degree of external shock or shaking. Accordingly, whether a disaster situation such as an earthquake has occurred can be determined by the computing device (200 in FIG. 1).
본 발명에 따른 적외선 카메라(130)는 각 구역별로 설치될 수 있으며, 미리 설정된 방향을 향하여 적외선 영상 데이터를 생성할 수 있다. 적외선 영상 데이터는 영상 속 대상들의 온도에 따라 다른 색상 데이터를 포함할 수 있다. 따라서, 적외선 영상 데이터를 이용하여 화재 발생 여부 등 비상 상황 발생 여부가 컴퓨팅 장치(도 1의 200)에 의하여 판단될 수 있다. The infrared camera 130 according to the present invention can be installed in each zone and can generate infrared image data toward a preset direction. Infrared image data may include different color data depending on the temperature of objects in the image. Therefore, whether an emergency situation, such as a fire, has occurred can be determined by the computing device (200 in FIG. 1) using infrared image data.
본 발명에 따른 유독 가스 감지 센서(140)는 각 구역별로 설치될 수 있으며, 각 구역에 화재로 인하여 발생한 유독 가스가 존재하는지 여부를 감지할 수 있다. 이때, 유독 가스는 화재로 발생하는 유독 가스를 의미하며, 일반적으로 미리 설정된 농도 이상의 일산화탄소, 시안화수소, 아황산가스 등을 의미할 수 있다. The toxic gas detection sensor 140 according to the present invention can be installed in each zone and can detect whether toxic gas generated by a fire exists in each zone. At this time, toxic gas refers to toxic gas generated by a fire, and may generally refer to carbon monoxide, hydrogen cyanide, sulfur dioxide, etc. at a concentration higher than a preset level.
도 3은 본 발명에 따른 컴퓨팅 장치를 나타낸 것이다. Figure 3 shows a computing device according to the present invention.
도 3에 따르면, 본 발명에 따른 컴퓨팅 장치(200)는 프로세서, 메모리 및 통신 모듈을 포함할 수 있다. According to FIG. 3, the computing device 200 according to the present invention may include a processor, memory, and communication module.
프로세서(210)는 메모리(220)에 저장된 명령어를 실행하여 다른 구성들을 제어할 수 있다. 프로세서(210)는 메모리(220)에 저장된 명령어를 수행할 수 있다. The processor 210 may control other components by executing instructions stored in the memory 220. The processor 210 may execute instructions stored in the memory 220.
프로세서(210)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다.The processor 210 is a component that can perform calculations and control other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), etc. Additionally, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and clock signal. However, while a CPU or AP consists of a few cores optimized for serial processing, a GPU can consist of thousands of smaller, more efficient cores designed for parallel processing.
프로세서(210)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(220)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 210 can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above, or by running an application program stored in the memory 220.
메모리(220)는 컴퓨팅 장치(200)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(220)는 컴퓨팅 장치(200)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 컴퓨팅 장치(200)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(220)에 저장되고, 컴퓨팅 장치(200)에 설치되어, 프로세서(210)에 의하여 상기 컴퓨팅 장치(200)의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 220 stores data that supports various functions of the computing device 200. The memory 220 may store a plurality of application programs (application programs or applications) running on the computing device 200, data for operating the computing device 200, and commands. At least some of these applications may be downloaded from an external server via wireless communication. Additionally, the application program may be stored in the memory 220, installed on the computing device 200, and driven by the processor 210 to perform an operation (or function) of the computing device 200.
메모리(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(220)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 220 is a flash memory type, a hard disk type, a solid state disk type, an SDD type (Silicon Disk Drive type), and a multimedia card micro type. ), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable programmable read) -only memory), PROM (programmable read-only memory), magnetic memory, magnetic disk, and optical disk may include at least one type of storage medium. Additionally, the memory 220 may include web storage that performs a storage function on the Internet.
통신 모듈(230)은 안테나를 통해 기지국 또는 통신 기능을 포함하는 카메라와 정보의 송수신을 실행한다. 통신 모듈(230)은 변조부, 복조부, 신호 처리부 등을 포함할 수 있다. 또한, 통신 모듈(230)은 유선 통신 기능을 수행할 수 있다. The communication module 230 transmits and receives information to and from a base station or a camera including a communication function through an antenna. The communication module 230 may include a modulator, demodulator, signal processor, etc. Additionally, the communication module 230 may perform a wired communication function.
무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신 모듈(230)은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신 모듈(230)은 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication refers to communication using communication facilities already installed by communication companies and a wireless communication network that uses the frequencies of those communication facilities. At this time, the communication module 230 includes code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SC-FDMA). It can be used in various wireless communication systems such as access), and in addition, the communication module 230 can also be used in 3rd generation partnership project (3GPP) long term evolution (LTE), etc. In addition, not only 5G communication, which has recently been commercialized, but also 6G, which is scheduled for commercialization in the future, can be used. However, this specification can utilize a pre-installed communication network without being limited to such wireless communication method.
또한, 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), 비콘(Beacon), RFID(Radio Frequency Identification), NFC(Near Field Communication), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.In addition, short range communication technologies include Bluetooth, BLE (Bluetooth Low Energy), Beacon, RFID (Radio Frequency Identification), NFC (Near Field Communication), and Infrared Data Association (IrDA). ), UWB (Ultra Wideband), ZigBee, etc. may be used.
도 4는 본 발명에 따른 NFC 태그 장치를 나타낸 것이며, 도 5 본 발명에 따른 NFC 태그 장치의 일 예시를 나타낸 것이다. Figure 4 shows an NFC tag device according to the present invention, and Figure 5 shows an example of an NFC tag device according to the present invention.
도 4에 따르면, 본 발명에 따른 NFC 태그 장치(300)는 태그부(310), 적어도 하나의 LED 램프(320)를 포함할 수 있다. 또한, 본 발명에 따른 태그부(310)는 ID 저장부(311), 위치 정보 저장부(312), 재난 정보 저장부(313), 송수신부(314)를 포함할 수 있다. According to FIG. 4, the NFC tag device 300 according to the present invention may include a tag unit 310 and at least one LED lamp 320. Additionally, the tag unit 310 according to the present invention may include an ID storage unit 311, a location information storage unit 312, an emergency information storage unit 313, and a transmitting/receiving unit 314.
본 발명에 따른 ID 저장부(311)는 NFC 태그 장치(300)를 구별하기 위한 ID를 저장할 수 있다. NFC 태그 장치(300)는 건물 내부의 각 구역마다 설치될 수 있으므로 고유 ID를 통하여 각각의 NFC 태그 장치(300)를 구별할 수 있다. The ID storage unit 311 according to the present invention can store an ID for distinguishing the NFC tag device 300. Since the NFC tag device 300 can be installed in each area inside the building, each NFC tag device 300 can be distinguished through a unique ID.
본 발명에 따른 위치 정보 저장부(312)는 NFC 태그 장치(300)가 설치된 위치에 대한 정보를 저장할 수 있다. NFC 태그 장치(300)는 건물 내부의 각 구역마다 설치될 수 있으므로 위치 정보를 통하여 NFC 태그 장치(300)의 위치를 구별할 수 있고, 위치 정보 및 고유 ID를 통하여 각각의 NFC 태그 장치(300)를 구별할 수 있다. The location information storage unit 312 according to the present invention can store information about the location where the NFC tag device 300 is installed. Since the NFC tag device 300 can be installed in each area inside the building, the location of the NFC tag device 300 can be distinguished through location information, and each NFC tag device 300 can be identified through location information and a unique ID. can be distinguished.
본 발명에 따른 재난 정보 저장부(313)는 상술한 재난 정보를 저장할 수 있다. 이때, 재난 정보는 컴퓨팅 장치(도 1의 200)로부터 수신할 수 있으며, 아래의 송수신부(314)를 통하여 수신될 수 있다. 또한, 사용자 단말(400)의 태깅 시에 발생한 정보는 송수신부(314)를 통하여 컴퓨팅 장치(도 1의 200)로 전송될 수 있다. The disaster information storage unit 313 according to the present invention can store the above-described disaster information. At this time, disaster information can be received from the computing device (200 in FIG. 1) and can be received through the transmitting and receiving unit 314 below. Additionally, information generated during tagging of the user terminal 400 may be transmitted to the computing device (200 in FIG. 1) through the transceiver 314.
본 발명에 따른 송수신부(314)는 컴퓨팅 장치(도 1의 200)와 NFC 태그 장치(300)를 연결하기 위한 구성일 수 있다. 송수신부(314)는 ID, 위치 정보를 컴퓨팅 장치(도 1의 200)로 전송할 수 있다. 또한, 송수신부(314)는 컴퓨팅 장치(도 1의 200)로부터 재난 정보를 수신할 수 있다. 송수신부(314)는 유선 통신 또는 무선 통신을 사용하여 컴퓨팅 장치(도 1의 200)와 정보를 송수신할 수 있다. The transmitting and receiving unit 314 according to the present invention may be configured to connect a computing device (200 in FIG. 1) and the NFC tag device 300. The transceiver 314 may transmit ID and location information to the computing device (200 in FIG. 1). Additionally, the transceiver 314 may receive disaster information from the computing device (200 in FIG. 1). The transceiver unit 314 may transmit and receive information with the computing device (200 in FIG. 1) using wired or wireless communication.
본 발명에 따른 적어도 하나의 LED 램프(320)는 컴퓨팅 장치(도 1의 200)에 의하여 제어되며, 태그부(310) 주변에 설치될 수 있다. 컴퓨팅 장치(도 1의 200)는 재난 정보를 기초로 적어도 하나의 LED 램프(320)를 제어할 수 있다. 일 예로, 비상 상황이 발생한 경우, 컴퓨팅 장치(도 1의 200)는 적어도 하나의 LED 램프(320)를 턴온(turn-on)하여, 비상 상황에서도 대피 중인 사람들이 NFC 태그 장치(300)를 쉽게 인식할 수 있도록 할 수 있다. 따라서, 적어도 하나의 LED 장치는 일정 밝기 이상으로 동작하며, 붉은색 등 눈에 잘 띄는 색상으로 동작할 수 있다. At least one LED lamp 320 according to the present invention is controlled by a computing device (200 in FIG. 1) and may be installed around the tag unit 310. The computing device 200 in FIG. 1 may control at least one LED lamp 320 based on disaster information. For example, when an emergency situation occurs, the computing device (200 in FIG. 1) turns on at least one LED lamp 320 so that people evacuating can easily use the NFC tag device 300 even in an emergency situation. You can make it recognizable. Accordingly, at least one LED device operates at a brightness level above a certain level and may operate in a highly visible color such as red.
도 5에 따르면, 본 발명에 따른 NFC 태그 장치(300)는 각 구역에 설치될 수 있으며, LED 램프(320)를 통하여 비상 상황에서 눈에 잘 보일 수 있고, 사용자 단말(400)을 태깅할 수 있도록 안내 문구가 표시될 수 있다. According to Figure 5, the NFC tag device 300 according to the present invention can be installed in each zone, can be clearly visible in an emergency situation through the LED lamp 320, and can tag the user terminal 400. Guidance text may be displayed.
도 6은 본 발명에 따른 적외선 카메라를 개략적으로 나타낸 것이다. Figure 6 schematically shows an infrared camera according to the present invention.
도 6에 따르면, 본 발명에 따른 적외선 카메라(130)는, 적외선 영상 데이터를 생성할 수 있다. 카메라 모듈(1320)은 측벽에 관통홀을 포함하는 하우징, 관통홀에 설치된 렌즈(1321) 및 렌즈(1321)를 구동하는 구동부(1323)를 포함할 수 있다. 관통홀은 렌즈(1321)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(1321)는 관통홀에 삽입될 수 있다. According to FIG. 6, the infrared camera 130 according to the present invention can generate infrared image data. The camera module 1320 may include a housing including a through hole in a side wall, a lens 1321 installed in the through hole, and a driving unit 1323 that drives the lens 1321. The through hole may be formed in a size corresponding to the diameter of the lens 1321. Lens 1321 may be inserted into the through hole.
구동부(1323)는 렌즈(1321)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(1321)와 구동부(1323)는 종래 알려진 방식으로 연결되고 렌즈(1321)는 종래 알려진 방식으로 구동부(1323)에 의하여 제어될 수 있다. The driving unit 1323 may be configured to control the lens 1321 to move forward or backward. The lens 1321 and the driving unit 1323 are connected in a conventionally known manner, and the lens 1321 can be controlled by the driving unit 1323 in a conventionally known manner.
다양한 적외선 영상 데이터를 수득하기 위해서는 렌즈(1321)가 카메라 장치(100) 또는 하우징의 외부로 노출될 필요가 있다. In order to obtain various infrared image data, the lens 1321 needs to be exposed to the outside of the camera device 100 or the housing.
특히, 본 발명에 따른 카메라 장치(100)는 화재 등 비상 상황이 발생하는 건물 내부를 직접 촬영해야 하므로 내오염성이 강한 렌즈가 필요하다. 따라서, 본 발명은 렌즈를 코팅하는 코팅층을 제안하여, 이러한 문제점을 해결하고자 하였다. In particular, the camera device 100 according to the present invention requires a lens with strong contamination resistance because it must directly photograph the interior of a building where an emergency situation such as a fire occurs. Therefore, the present invention sought to solve this problem by proposing a coating layer for coating the lens.
바람직하게 상기 렌즈(1321)는 그 표면에 하기의 화학식 1로 표시되는 화합물, 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the surface of the lens 1321 may be coated with a coating composition containing a compound represented by the following formula (1), an organic solvent, an inorganic particle, and a dispersant.
[화학식 1][Formula 1]
여기서,here,
L1은 단일결합, 치환 또는 비치환된 탄소수 6 내지 30의 아릴렌기, 치환 또는 비치환된 탄소수 1 내지 20의 알킬렌기, 치환 또는 비치환된 탄소수 3 내지 20의 시클로알킬렌기, 치환 또는 비치환된 탄소수 2 내지 20의 알케닐렌기, 치환 또는 비치환된 탄소수 3 내지 20의 시클로알케닐렌기 및 치환 또는 비치환된 탄소수 2 내지 20의 알키닐렌기로 이루어진 군에서 선택되며,L 1 is a single bond, a substituted or unsubstituted arylene group with 6 to 30 carbon atoms, a substituted or unsubstituted alkylene group with 1 to 20 carbon atoms, a substituted or unsubstituted cycloalkylene group with 3 to 20 carbon atoms, or a substituted or unsubstituted group. It is selected from the group consisting of an alkenylene group having 2 to 20 carbon atoms, a substituted or unsubstituted cycloalkenylene group having 3 to 20 carbon atoms, and a substituted or unsubstituted alkynylene group having 2 to 20 carbon atoms,
상기 L1이 치환되는 경우, 수소, 니트로기, 할로겐기, 히드록시기, 탄소수 1 내지 30의 알킬기, 탄소수 1 내지 20개의 시클로알킬기, 탄소수 2 내지 30의 알케닐기, 탄소수 2 내지 24의 알키닐기, 탄소수 7 내지 30의 아르알킬기, 탄소수 6 내지 30의 아릴기 및 탄소수 1 내지 30의 알콕시기로 이루어진 군으로부터 선택된 1종 이상의 치환기로 치환되며, 복수 개의 치환기로 치환되는 경우 이들은 서로 동일하거나 상이하다.When L 1 is substituted, hydrogen, nitro group, halogen group, hydroxy group, alkyl group of 1 to 30 carbon atoms, cycloalkyl group of 1 to 20 carbon atoms, alkenyl group of 2 to 30 carbon atoms, alkynyl group of 2 to 24 carbon atoms, carbon number It is substituted with one or more substituents selected from the group consisting of an aralkyl group with 7 to 30 carbon atoms, an aryl group with 6 to 30 carbon atoms, and an alkoxy group with 1 to 30 carbon atoms. When substituted with a plurality of substituents, they are the same or different from each other.
상기 코팅조성물로 렌즈(1321)가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에 도로 주변에 설치된 렌즈(1321)가 오염 환경에 장기간 노출되더라도, 보다 선명한 이미지 또는 영상을 수집할 수 있다.When the lens 1321 is coated with the coating composition, it can exhibit excellent water repellency and contamination resistance, so that clearer images or videos can be collected even if the lens 1321 installed around the road is exposed to a polluted environment for a long period of time.
상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈(1321) 표면에 코팅층(1322)으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다. The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above examples. After the inorganic particles are formed as a coating layer 1322 on the surface of the lens 1321, the physical strength can be improved and the moldability can be improved by maintaining the viscosity within a certain range.
상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다. The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, preferably methyl ethyl ketone, but is not limited to the above examples.
상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersant, a polyester-based dispersant can be used. Specifically, a polyester-based dispersion stabilizer consisting of a copolymer of 2-methoxypropyl acetate and 1-methoxy-2-propyl acetate is TEGO-Disperse 670 (manufacturer) : EVONIK) can be used, but is not limited to the above example and any dispersant that is obvious to those skilled in the art can be used without limitation.
상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 자외선 흡수제, 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include an ultraviolet absorber, an antioxidant, etc., but is not limited to the above examples and can be used without limitation.
상기 코팅층(1322)을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 화합물, 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.More specifically, the coating composition for forming the coating layer 1322 may include a compound represented by Formula 1, an organic solvent, inorganic particles, and a dispersant.
상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the compound represented by Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant, based on 100 parts by weight of the organic solvent. If the range is within the above range, a synergistic effect of the water repellent effect due to the interaction of each component is expressed to a critical degree, and if it is outside the above range, the synergistic effect is rapidly reduced or almost non-existent.
보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈(1321) 표면에 도포하면, 흘러내려 코팅층(1322)의 형성이 용이하지 않은 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층(1322)의 형성이 용이하지 않은 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP. If the viscosity is less than 1500 cP, there is a problem that it flows down when applied to the surface of the lens 1321, making it difficult to form the coating layer 1322, and if the viscosity is less than 1800 cP, the coating composition has a problem of flowing down. In this case, there is a problem in that it is not easy to form a uniform coating layer 1322.
[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]
1. 코팅 조성물의 제조1. Preparation of coating composition
메틸에틸케톤에 하기 화학식 1로 표시되는 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing methyl ethyl ketone with a compound represented by the following formula (1), inorganic particles, and a dispersant:
[화학식 1][Formula 1]
여기서, here,
L1은 비치환된 탄소수 5의 알킬렌기이다.L 1 is an unsubstituted alkylene group having 5 carbon atoms.
상기 대전방지 조성물의 보다 구체적인 조성은 하기 표 1과 같다. A more specific composition of the antistatic composition is shown in Table 1 below.
(단위 중량부)(unit weight)
2. 코팅층의 제조2. Preparation of coating layer
렌즈(1321)의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층(1322)을 형성하였다. The coating compositions DX1 to DX5 were applied to one surface of the lens 1321 and then cured to form a coating layer 1322.
[실험예][Experimental example]
1. 표면 외관에 대한 평가1. Evaluation of surface appearance
코팅 조성물의 점도 차이로 인해, 코팅층(1322)을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층(1322)을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to the difference in viscosity of the coating composition, after manufacturing the coating layer 1322, sensory evaluation was conducted to determine whether a uniform surface was formed. An evaluation was conducted on whether a uniform coating layer 1322 was formed, and the evaluation was conducted based on the following criteria.
○: 균일한 코팅층 형성○: Formation of uniform coating layer
×: 불균일한 코팅층의 형성×: Formation of uneven coating layer
코팅층(1322)을 형성할 때, 일정 점도 미만인 경우에는 렌즈(1321)의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층(1322)의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층(1322)의 형성이 불가하였다.When forming the coating layer 1322, if the viscosity is less than a certain level, flow occurs on the surface of the lens 1321, making it difficult to form a uniform coating layer 1322 after the curing process. Accordingly, the problem of lowering the production yield may occur. Additionally, even when the viscosity was too high, it was difficult to uniformly apply the composition, making it impossible to form a uniform coating layer 1322.
2. 발수각의 측정2. Measurement of water repellency angle
상기 렌즈(1321) 표면에 코팅층(1322)을 형성한 이후, 발수각을 측정한 결과는 하기 표 3과 같다. After forming the coating layer 1322 on the surface of the lens 1321, the results of measuring the water repellency angle are shown in Table 3 below.
상기 표 3에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층(1322)을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in Table 3, after forming the coating layer 1322 using the coating compositions TX1 to TX5, the results of measuring the contact angle were confirmed. TX1 and TX5 were measured to have receding contact angles of less than 10 degrees. In other words, it was confirmed that pinning of water droplets occurs when the coating composition falls outside the optimal range for manufacturing the coating composition. On the other hand, it was confirmed that no pinning phenomenon occurred in TX2 to 4, showing that excellent waterproofing effects can be achieved.
3. 내오염성 평가3. Contamination resistance evaluation
실내 공간에 상기 실시예에 따른 코팅층(1322)을 형성한 렌즈(1321)를 모형카메라에 부착하고, 24시간 동안 지속적으로 그을음을 형성하도록 불에 타는 물질의 상부에 설치하여, 연기에 직접 노출되도록 하였다. 비교예(Con)로는 코팅층(1322)이 형성되지 않은 동일한 렌즈(1321)를 사용하였으며, 각 실시예에 모형카메라는 건물 내부의 동일한 위치에 부착하였다.The lens 1321 on which the coating layer 1322 according to the above embodiment is formed is attached to a model camera in an indoor space, and installed on top of a combustible material to continuously form soot for 24 hours, so that it is directly exposed to smoke. did. As a comparative example (Con), the same lens 1321 without the coating layer 1322 was used, and in each example, a model camera was attached at the same location inside the building.
그 뒤 실험 전후의 렌즈(1321)의 오염 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층(1322)이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 표 4에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.Afterwards, the degree of contamination of the lens 1321 before and after the experiment was evaluated, and for objective comparison, the results were compared with the comparative example in which the coating layer 1322 was not formed, and the results were evaluated with an index of 1 to 10, and are shown in Table 4 below. shown in As for the indices below, the lower the number, the better the contamination resistance.
(단위: 지수)(Unit: index)
상기 표 4를 참조하면, 렌즈(1321)에 코팅층(1322)을 형성하는 경우 외부 환경에 카메라를 설치하면서 렌즈(1321)가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층(1322)에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.Referring to Table 4, when forming the coating layer 1322 on the lens 1321, even if the lens 1321 is exposed to the outside while installing the camera in the external environment, high contamination resistance is formed in a form that is easy to analyze for a long period of time. It can be seen that image data can be collected. In particular, in the case of TX2 to TX4, it can be confirmed that the contamination resistance by the coating layer 1322 is very excellent.
도 7은 본 발명에 따른 NFC를 이용한 비상 대피로 안내 방법을 나타낸 것이다. 단, 본 발명에 따른 NFC를 이용한 비상 대피로 안내 방법을 수행하는 주체는 상술한 컴퓨팅 장치(도 1의 200) 또는 컴퓨팅 장치(도 1의 200)의 프로세서일 수 있다. Figure 7 shows an emergency evacuation route guidance method using NFC according to the present invention. However, the subject performing the emergency evacuation route guidance method using NFC according to the present invention may be the processor of the above-described computing device (200 in FIG. 1) or the computing device (200 in FIG. 1).
도 7에 따르면, 본 발명에 따른 NFC를 이용한 비상 대피로 안내 방법은, 비상 상황을 판단하기 위한 센싱 정보를 수신하는 단계(S1100), 수신한 센싱 정보를 기초로 재난 정보를 생성하는 단계(S1200), 생성된 재난 정보에 대한 URL 코드를 생성하는 단계(S1300) 및 생성된 URL 코드를 NFC 태그 장치로 전송하는 단계(S1400)를 포함할 수 있다. According to Figure 7, the emergency evacuation route guidance method using NFC according to the present invention includes the steps of receiving sensing information for determining an emergency situation (S1100) and generating disaster information based on the received sensing information (S1200). ), generating a URL code for the generated disaster information (S1300), and transmitting the generated URL code to the NFC tag device (S1400).
비상 상황을 판단하기 위한 센싱 정보를 수신하는 단계(S1100)는 상술한 센싱부로부터 감지된 정보들을 수신하는 단계이며, 수신한 센싱 정보를 기초로 재난 정보를 생성하는 단계(S1200)는 감지된 정보들에 기초하여 비상 상황이 발생하였는지 여부에 대한 정보를 생성하는 단계일 수 있다. The step of receiving sensing information for determining an emergency situation (S1100) is a step of receiving sensed information from the above-described sensing unit, and the step of generating disaster information based on the received sensing information (S1200) is a step of receiving sensing information based on the sensed information. This may be a step of generating information about whether an emergency situation has occurred based on the above.
특히, 수신한 센싱 정보를 기초로 재난 정보를 생성하는 단계(S1200)는 적외선 카메라에서 생성된 적외선 영상 데이터에 기초하여 화재 상황이 발생하였는지를 감지하는 단계를 포함할 수 있으며, 적외선 영상 데이터에 기초하여 화재 상황이 발생하였는지를 감지하는 방법은 후술할 비전 인식을 위한 알고리즘을 사용할 수 있다. In particular, the step of generating disaster information based on the received sensing information (S1200) may include detecting whether a fire situation has occurred based on infrared image data generated from an infrared camera, and based on the infrared image data, A method of detecting whether a fire situation has occurred can use an algorithm for vision recognition, which will be described later.
즉, 본 발명에 따른 컴퓨팅 장치는 화재 상황에서의 적외선 영상 데이터들을 미리 학습한 학습 모듈(미도시)을 포함할 수 있고, 학습된 결과값에 기초하여 현재 자외선 영상 데이터를 입력하면 화재 발생 여부에 대한 결과값을 도출할 수 있다. That is, the computing device according to the present invention may include a learning module (not shown) that learns infrared image data in advance in a fire situation, and inputs current ultraviolet image data based on the learned result to determine whether a fire has occurred. The result can be derived.
추가로, 본 발명에 따른 컴퓨팅 장치는 적외선 카메라(도 2의 130)에서 생성한 적외선 영상을 학습하여, 화재 상황 등을 포함하는 비상 상황 여부를 감지할 수 있으며, 이때 사용되는 비전 인식을 위한 알고리즘은 아래와 같을 수 있다. Additionally, the computing device according to the present invention can detect an emergency situation, including a fire situation, by learning an infrared image generated by an infrared camera (130 in FIG. 2), and the algorithm for vision recognition used at this time may be as follows:
도 8은 본 발명에 따른 이미지 보정 필터의 예시를 나타낸 도면이다.Figure 8 is a diagram showing an example of an image correction filter according to the present invention.
도 8에 따르면, 필터의 종류와 기능이 나타나 있다. 즉, CNN 알고리즘은 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. 또한, CNN 알고리즘은 이미지 분류 정확도를 최대화하는 필터를 자동으로 학습할 수 있으며, 합성곱 계층과 폴링 계층이라고 하는 새로운 층을 풀리 커넥티드 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미지에 대해 분류 연산을 수행할 수 있다. CNN 알고리즘은 합성곱 계층 (convolutional layer)과 풀링 계층 (pooling layer)이라고 하는 새로운 층을 fully-connected 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미에 대해 분류 연산이 수행되도록 구성될 수 있다. According to Figure 8, the types and functions of filters are shown. In other words, the CNN algorithm may be a learning algorithm that uses multiple layers. In addition, the CNN algorithm can automatically learn filters that maximize image classification accuracy, and by adding new layers called convolutional layers and polling layers before the fully connected layer, the filtered image is obtained after applying the filtering technique to the original image. A classification operation can be performed on . The CNN algorithm is configured to apply a filtering technique to the original image by adding a new layer called a convolutional layer and a pooling layer before the fully-connected layer, and then perform a classification operation on the filtered image. You can.
이때, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 1과 같다. At this time, the calculation formula for the image filter using the CNN algorithm is as shown in Equation 1 below.
[수학식 1][Equation 1]
(단, (step,
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀, : Pixel of the ith row and jth column of the filtered image expressed as a matrix,
: 필터, : filter,
: 이미지, : image,
: 필터의 높이 (행의 수), : Height of filter (number of rows),
: 필터의 너비 (열의 수)이다. ) : Width (number of columns) of the filter. )
바람직하게는, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 2와 같다. Preferably, the calculation equation for the image filter using the CNN algorithm is as shown in Equation 2 below.
[수학식 2][Equation 2]
(단, (step,
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀, : Pixel of the ith row and jth column of the filtered image expressed as a matrix,
: 응용 필터 : Application filter
: 이미지, : image,
: 응용 필터의 높이 (행의 수), : height of application filter (number of rows),
: 응용 필터의 너비 (열의 수)이다.) : Width (number of columns) of the application filter.)
바람직하게는, 는 응용 필터로서 적외선 영상 데이터를 학습하고, 영상 데이터에 포함된 화재 발생 여부를 인식하기 위하여, 상기 이미지 데이터에 적용되는 필터일 수 있다. 특히, 화재 발생 여부에 대한 인식의 경우 형태 및 색감의 차이를 기초로 분류될 수 있으므로, 형태 및 색감 등을 효과적으로 인지하기 위한 응용 필터가 필요할 수 있다. 이러한 필요성을 충족하기 위하여 응용 필터 는 아래의 수학식 3에 의하여 연산될 수 있다. Preferably, is an application filter and may be a filter applied to the image data in order to learn infrared image data and recognize whether a fire has occurred included in the image data. In particular, in the case of recognition of whether a fire has occurred, classification may be based on differences in shape and color, so an application filter may be necessary to effectively recognize shape and color. To meet these needs, application filters Can be calculated by Equation 3 below.
[수학식 3] [Equation 3]
(단, : 필터, : 계수, : 응용 필터)(step, : filter, : Coefficient, : application filter)
이때, 각 에 따른 필터는 도 8에 따른 엣지 인식 필터(Edge detection), 샤픈 필터(sharpen) 및 박스 블러 필터(Box blur) 중 어느 하나의 행렬일 수 있다. 즉, 적외선 영상 데이터에 상기 필터를 적용할 수 있다. At this time, each The filter according to may be any one of the edge detection filter (Edge detection), sharpen filter (sharpen), and box blur filter (Box blur) matrix according to FIG. 8. That is, the filter can be applied to infrared image data.
바람직하게, 를 구하는 연산식은 아래의 수학식 4와 같다. 이때, 는 필터의 효율을 높이기 위하여 사용되는 하나의 변수로서 해석될 수 있으며, 그 단위는 무시될 수 있다. Preferably, The calculation formula for calculating is the same as Equation 4 below. At this time, can be interpreted as a variable used to increase the efficiency of the filter, and its unit can be ignored.
[수학식 4][Equation 4]
단, 이미지 촬영에 사용된 적외선 카메라의 렌즈의 직경(지름)은 mm 단위이고, 값은 프레임 1개의 내부에서 적외선으로 촬영된 온도(K)의 평균값과 온도 변화량(K)을 구하여 비율을 구하고, 이를 0~T 시간동안 평균하여 렌즈 f값을 곱한 것일 수 있다. 이때, T는 해당 적외선 영상 데이터가 촬영된 총 시간(s, 초)를 의미할 수 있다. However, the diameter of the lens of the infrared camera used to capture the image is in mm, The value may be calculated by calculating the average value of the temperature (K) and the temperature change (K) captured with infrared light inside one frame, calculating the ratio, averaging this over the time period from 0 to T, and multiplying it by the lens f value. At this time, T may mean the total time (s, seconds) for which the corresponding infrared image data was captured.
[실험예 2][Experimental Example 2]
본 발명에 따른 적외선 영상 데이터에 대하여, 본 발명의 응용 필터 F'를 적용하는 경우에 있어서 화재 발생 여부에 대한 인식 정확도를 살펴보면 아래와 같다. 아래 표는 해당 기술분야 전문가 10명에게 의뢰하여, 필터 적용 여부 등에 따라 인식 결과의 정확도를 수치로서 나타낸 것이다. The recognition accuracy of whether a fire has occurred when applying the application filter F' of the present invention to the infrared image data according to the present invention is as follows. The table below is a numerical representation of the accuracy of recognition results based on whether or not filters are applied, based on requests from 10 experts in the relevant technology field.
상기 표 5는 전문가로부터 평가된 정확도에 대한 점수를 각 케이스별로 나타낸 것이다. 본 실험예는 빅데이터를 통하여 미리 학습된 학습 모듈에 대하여, 필터 적용 여부에 따른 정확도를 조사한 것이다. Table 5 above shows the accuracy scores evaluated by experts for each case. This experimental example investigates the accuracy of a learning module previously learned through big data, depending on whether or not a filter is applied.
또한, 본 실험예는 120마리의 서로 건물 내부에서 촬영된 적외선 영상 데이터로 실험된 것이며, 인식 결과값에 대하여 영상 데이터에 포함된 화재 발생 여부 인식의 정확도를 전문가 10명으로부터 설문 조사한 것이다. In addition, this experimental example was tested with infrared image data captured inside a building with 120 animals, and a survey was conducted by 10 experts on the accuracy of recognizing whether a fire occurred included in the image data regarding the recognition results.
표 5에서 확인할 수 있는 것과 같이, 필터 적용 없는 경우, 이미지에 대한 인식에 오류가 발생할 확률이 존재하여 상대적으로 낮은 정확도로 평가되었다. 이에 비하여, 일반 CNN 필터 F를 적용한 경우 다소 정확도가 높았으나, 응용 필터 F'를 적용하는 경우의 정확도가 현저하게 향상되는 것이 확인된다.As can be seen in Table 5, when no filter was applied, there was a possibility that an error would occur in image recognition, so the accuracy was evaluated to be relatively low. In comparison, the accuracy was somewhat higher when the general CNN filter F was applied, but it was confirmed that the accuracy was significantly improved when the applied filter F' was applied.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-described present invention can be modeled as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. and also includes those modeled in the form of carrier waves (e.g., transmission over the Internet). Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.
앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not exclusive or distinct from each other. In certain embodiments or other embodiments of the present invention described above, each configuration or function may be used in combination or combined.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in any respect and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.
100: 센싱부
200: 컴퓨팅 장치
300: NFC 태그 장치
400: 사용자 단말100: Sensing unit
200: computing device
300: NFC tag device
400: User terminal
Claims (7)
상기 정보를 기초로 재난 정보를 생성하는 컴퓨팅 장치;
상기 컴퓨팅 장치로부터 상기 재난 정보에 대한 URL 코드를 포함하는 NFC 태그 장치; 및
상기 NFC 태그 장치로부터 상기 URL 코드를 수신하는 사용자 단말;을 포함하고,
상기 센싱부는 미리 정해 놓은 구역 미리 나뉘어진 구역 중 어느 하나 이상에 설치된 불꽃 감지 센서, 미리 정해 놓은 구역 미리 나뉘어진 구역 중 어느 하나 이상에 설치된 충격 감지 센서, 미리 정해 놓은 구역 미리 나뉘어진 구역 중 어느 하나 이상에 설치된 적외선 카메라 및 미리 정해 놓은 구역 미리 나뉘어진 구역 중 어느 하나 이상에 설치된 유독 가스 감지 센서를 포함하는 것이고,
상기 NFC 태그 장치는,
근거리 무선 통신을 위한 통신 회로를 포함하는 태그부; 및
상기 태그부 주변에 설치된 적어도 하나의 LED 램프;를 포함하고,
상기 컴퓨팅 장치는,
화재 상황에서의 적외선 영상 데이터들을 미리 학습한 학습 모듈을 포함하고,
상기 학습 모듈은 학습된 결과값을 기초로 현재 적외선 영상 데이터를 입력하면 화재 발생 여부에 대한 결과값을 도출하며,
상기 영상데이터는 하기의 식 2에 따른 CNN 알고리즘을 사용한 이미지 필터가 적용된 것이고,
상기 재난 정보를 기초로 상기 적어도 하나의 LED 램프를 제어하며,
상기 재난 정보는,
미리 나뉘어진 구역 정보, 구역별 비상 상황 발생 정보 및 비상 상황이 발생하지 않은 구역에 대한 안내 정보를 포함하는 것인
NFC를 이용한 비상 대피로 안내 시스템.
[식 2]
(식 2에서, : 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀, F' : 식 3으로 연산되는 응용 필터, X; 이미지, F'H: 응용 필터의 높이 (행의 수), F'W: 응용 필터의 너비 (열의 수)이다.)
[식 3]
(식 3에서, F': 응용필터, F: 필터, ρ: 식 4로 연산되는 계수이다.)
[식 4]
(식 4에서, T는 해당 적외선 영상 데이터가 촬영된 총 시간(s, 초)를 의미한다.)A sensing unit that senses information to determine an emergency situation;
a computing device that generates disaster information based on the information;
An NFC tag device containing a URL code for the disaster information from the computing device; and
It includes a user terminal that receives the URL code from the NFC tag device,
The sensing unit may be a flame detection sensor installed in one or more of the pre-divided areas of the pre-determined area, a shock detection sensor installed in one or more of the pre-divided areas of the pre-determined area, and any one of the pre-divided areas of the pre-determined area. It includes an infrared camera installed above and a toxic gas detection sensor installed in one or more of the predetermined areas and pre-divided areas,
The NFC tag device,
A tag unit including a communication circuit for short-distance wireless communication; and
At least one LED lamp installed around the tag unit,
The computing device is,
Includes a learning module that learns infrared image data in fire situations in advance,
The learning module derives a result of whether a fire has occurred by inputting current infrared image data based on the learned result,
The image data is subjected to an image filter using a CNN algorithm according to Equation 2 below,
Controlling the at least one LED lamp based on the disaster information,
The above disaster information is,
It includes pre-divided zone information, emergency situation information for each zone, and guidance information for zones where emergency situations do not occur.
Emergency evacuation route guidance system using NFC.
[Equation 2]
(In Equation 2, : Pixel of the i-th row and j-th column of the filtered image expressed as a matrix, F': Application filter calculated by Equation 3, X; Image, F'H : Height (number of rows) of the application filter, F'W : Width (number of columns) of the application filter.)
[Equation 3]
(In Equation 3, F': application filter, F: filter, ρ: coefficient calculated in Equation 4.)
[Equation 4]
(In Equation 4, T means the total time (s, seconds) for which the corresponding infrared image data was captured.)
상기 센싱부는,
미리 정해진 지점을 촬영하기 위한 적외선 카메라를 포함하고,
상기 적외선 카메라는,
측벽에 관통홀을 포함하는 하우징;
상기 관통홀에 설치된 렌즈; 및
상기 렌즈를 구동하는 구동부;를 포함하는 것인,
NFC를 이용한 비상 대피로 안내 시스템.
According to paragraph 1,
The sensing unit,
Contains an infrared camera for photographing a predetermined point,
The infrared camera,
A housing including a through hole in a side wall;
A lens installed in the through hole; and
A driving unit that drives the lens,
Emergency evacuation route guidance system using NFC.
컴퓨팅 장치에서 상기 센싱 정보를 기초로 재난 정보를 생성하는 단계;
컴퓨팅 장치에서 상기 재난 정보에 대한 URL 코드를 생성하는 단계; 및
상기 URL 코드를 NFC 태그 장치로 전송하는 단계;를 포함하되,
상기 센싱부는 미리 정해 놓은 구역 미리 나뉘어진 구역 중 어느 하나 이상에 설치된 불꽃 감지 센서, 미리 정해 놓은 구역 미리 나뉘어진 구역 중 어느 하나 이상에 설치된 충격 감지 센서, 미리 정해 놓은 구역 미리 나뉘어진 구역 중 어느 하나 이상에 설치된 적외선 카메라 및 미리 정해 놓은 구역 미리 나뉘어진 구역 중 어느 하나 이상에 설치된 유독 가스 감지 센서를 포함하는 것이고,
상기 NFC 태그 장치는,
근거리 무선 통신을 위한 통신 회로를 포함하는 태그부; 및
상기 태그부 주변에 설치된 적어도 하나의 LED 램프;를 포함하고,
상기 컴퓨팅 장치는,
화재 상황에서의 적외선 영상 데이터들을 미리 학습한 학습 모듈을 포함하고,
상기 학습 모듈은 학습된 결과값을 기초로 현재 적외선 영상 데이터를 입력하면 화재 발생 여부에 대한 결과값을 도출하며,
상기 영상데이터는 하기의 식 2에 따른 CNN 알고리즘을 사용한 이미지 필터가 적용된 것이고,
상기 재난 정보를 기초로 상기 적어도 하나의 LED 램프를 제어하며,
상기 재난 정보는,
미리 나뉘어진 구역 정보, 구역별 비상 상황 발생 정보 및 비상 상황이 발생하지 않은 구역에 대한 안내 정보를 포함하는
NFC를 이용한 비상 대피로 안내 방법.
[식 2]
(식 2에서, : 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀, F' : 식 3으로 연산되는 응용 필터, X; 이미지, F'H: 응용 필터의 높이 (행의 수), F'W: 응용 필터의 너비 (열의 수)이다.)
[식 3]
(식 3에서, F': 응용필터, F: 필터, ρ: 식 4로 연산되는 계수이다.)
[식 4]
(식 4에서, T는 해당 적외선 영상 데이터가 촬영된 총 시간(s, 초)를 의미한다.)Receiving sensing information from a sensing unit for determining an emergency situation;
Generating disaster information based on the sensing information in a computing device;
generating a URL code for the disaster information on a computing device; and
Including transmitting the URL code to an NFC tag device,
The sensing unit may be a flame detection sensor installed in one or more of the pre-divided areas of the pre-determined area, a shock detection sensor installed in one or more of the pre-divided areas of the pre-determined area, and any one of the pre-divided areas of the pre-determined area. It includes an infrared camera installed above and a toxic gas detection sensor installed in one or more of the predetermined areas and pre-divided areas,
The NFC tag device,
A tag unit including a communication circuit for short-distance wireless communication; and
At least one LED lamp installed around the tag unit,
The computing device is,
Includes a learning module that learns infrared image data in fire situations in advance,
The learning module derives a result of whether a fire has occurred by inputting current infrared image data based on the learned result,
The image data is subjected to an image filter using a CNN algorithm according to Equation 2 below,
Controlling the at least one LED lamp based on the disaster information,
The above disaster information is,
Includes pre-divided zone information, emergency situation information for each zone, and guidance information for zones where emergency situations do not occur.
Emergency evacuation route guidance method using NFC.
[Equation 2]
(In Equation 2, : Pixel of the i-th row and j-th column of the filtered image expressed as a matrix, F': Application filter calculated by Equation 3, X; Image, F' H : Height (number of rows) of the applied filter, F' W : Width (number of columns) of the applied filter.)
[Equation 3]
(In Equation 3, F': application filter, F: filter, ρ: coefficient calculated in Equation 4.)
[Equation 4]
(In Equation 4, T means the total time (s, seconds) for which the corresponding infrared image data was captured.)
상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 제6항의 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체.A non-transitory computer-readable medium storing instructions, comprising:
The instructions, when executed by a processor, cause the processor to perform the method of claim 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220018110A KR102669369B1 (en) | 2022-02-11 | 2022-02-11 | System and method of evacuation route guidance for emergency using nfc |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220018110A KR102669369B1 (en) | 2022-02-11 | 2022-02-11 | System and method of evacuation route guidance for emergency using nfc |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230121355A KR20230121355A (en) | 2023-08-18 |
KR102669369B1 true KR102669369B1 (en) | 2024-05-24 |
Family
ID=87801940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220018110A KR102669369B1 (en) | 2022-02-11 | 2022-02-11 | System and method of evacuation route guidance for emergency using nfc |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102669369B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101073076B1 (en) * | 2011-06-10 | 2011-10-12 | 주식회사 창성에이스산업 | Fire monitoring system and method using compound camera |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140012258A (en) * | 2012-07-19 | 2014-02-03 | 주식회사 케이티 | Near field communication tag and appartus for guiding emergency pathway using thereof |
KR20150000603A (en) * | 2013-06-25 | 2015-01-05 | 권형석 | NFC Tag Location Contact emergency notification through the method of service |
KR102228175B1 (en) | 2020-07-22 | 2021-03-16 | (주)메가플랜 | Emergency route guidance method using augmented reality and electronic device having same |
-
2022
- 2022-02-11 KR KR1020220018110A patent/KR102669369B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101073076B1 (en) * | 2011-06-10 | 2011-10-12 | 주식회사 창성에이스산업 | Fire monitoring system and method using compound camera |
Also Published As
Publication number | Publication date |
---|---|
KR20230121355A (en) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11080434B2 (en) | Protecting content on a display device from a field-of-view of a person or device | |
KR101921125B1 (en) | Apparatus for managing meteorological information using fine dust sensor, method thereof and computer readable medium having computer program recorded thereon | |
JPWO2017170148A1 (en) | Flight equipment, electronic equipment and program | |
CN106558181A (en) | Fire monitoring method and apparatus | |
CN108886582A (en) | Photographic device and focusing controlling method | |
CN115004269A (en) | Monitoring device, monitoring method, and program | |
KR101760898B1 (en) | Context awareness based interactive guidance system and control method thereof | |
KR102669369B1 (en) | System and method of evacuation route guidance for emergency using nfc | |
Rahman et al. | Computer Vision‐Based Wildfire Smoke Detection Using UAVs | |
CN109242933A (en) | Navigation mark icon display method, device and computer readable storage medium | |
KR20230047833A (en) | System for sensing fire of electrical installations | |
CN114616492A (en) | System and method for detecting a protected product on a screen of an electronic device | |
KR101702205B1 (en) | Interior navigation apparatus and method | |
KR102536030B1 (en) | System and method for preventing invasion of wild animal using drones | |
KR102523770B1 (en) | Machine vision-based quality management system and method for electric parts using deep learning | |
KR102612189B1 (en) | Bus boarding guide system and method for visually impaired | |
KR102527762B1 (en) | System for survival swimming education using virtual reality | |
KR102592502B1 (en) | System and method for quality management of parts based on distribution of combined values based on deep learning | |
KR20230105235A (en) | System and method for recommendation of travel destination based mbti type | |
KR102257226B1 (en) | A recognizer of a pictogram, a system and a method thereof | |
KR102536461B1 (en) | Traffic accident prevention system and method | |
KR102589433B1 (en) | Method and system for detecting unlearned objects based on stereo camera | |
KR102524374B1 (en) | Automatic classification method and system of agricultural products using image analysis model | |
KR20240023893A (en) | Vision recognition-based farm fish health management system and method | |
KR102679091B1 (en) | System and method for controlling volume of water purification customized for cooking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |