KR102551473B1 - System and method for controlling of sterilization gate based on artificial intelligence - Google Patents

System and method for controlling of sterilization gate based on artificial intelligence Download PDF

Info

Publication number
KR102551473B1
KR102551473B1 KR1020210071592A KR20210071592A KR102551473B1 KR 102551473 B1 KR102551473 B1 KR 102551473B1 KR 1020210071592 A KR1020210071592 A KR 1020210071592A KR 20210071592 A KR20210071592 A KR 20210071592A KR 102551473 B1 KR102551473 B1 KR 102551473B1
Authority
KR
South Korea
Prior art keywords
target
image
disinfectant
equation
filter
Prior art date
Application number
KR1020210071592A
Other languages
Korean (ko)
Other versions
KR20220163094A (en
Inventor
최정윤
허경용
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020210071592A priority Critical patent/KR102551473B1/en
Publication of KR20220163094A publication Critical patent/KR20220163094A/en
Application granted granted Critical
Publication of KR102551473B1 publication Critical patent/KR102551473B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/24Apparatus using programmed or automatic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/0005Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor for pharmaceuticals, biologicals or living parts
    • A61L2/0082Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor for pharmaceuticals, biologicals or living parts using chemical substances
    • A61L2/0088Liquid substances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2/00Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor
    • A61L2/16Methods or apparatus for disinfecting or sterilising materials or objects other than foodstuffs or contact lenses; Accessories therefor using chemical substances
    • A61L2/22Phase substances, e.g. smokes, aerosols or sprayed or atomised substances
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B12/00Arrangements for controlling delivery; Arrangements for controlling the spray area
    • B05B12/08Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means
    • B05B12/12Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus
    • B05B12/122Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus responsive to presence or shape of target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B13/00Machines or plants for applying liquids or other fluent materials to surfaces of objects or other work by spraying, not covered by groups B05B1/00 - B05B11/00
    • B05B13/02Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work
    • B05B13/04Means for supporting work; Arrangement or mounting of spray heads; Adaptation or arrangement of means for feeding work the spray heads being moved during spraying operation
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/22Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
    • G07C9/25Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/14Means for controlling sterilisation processes, data processing, presentation and storage means, e.g. sensors, controllers, programs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L2202/00Aspects relating to methods or apparatus for disinfecting or sterilising materials or objects
    • A61L2202/10Apparatus features
    • A61L2202/15Biocide distribution means, e.g. nozzles, pumps, manifolds, fans, baffles, sprayers

Abstract

인공지능 기반 살균 게이트 제어 시스템 및 방법이 개시된다. 본 발명에 따른 인공지능 기반 살균 게이트 시스템은, 타겟의 이동 통로를 형성하고, 상기 타겟을 인식하며, 상기 타겟을 향하여 방역제를 분사하는 스마트 게이트 및 상기 스마트 게이트를 제어하는 제어부를 포함하되, 상기 스마트 게이트는 상기 타겟을 인식하기 위한 인식부 및 상기 타겟을 향하여 상기 방역제를 분사하기 위한 분사 노즐을 포함하고, 상기 제어부는 상기 인식부에 의하여 인식된 결과를 기초로, 상기 방역제를 상기 타겟을 향하여 분사하도록 상기 분사 노즐을 제어할 수 있다. An artificial intelligence-based sterilization gate control system and method are disclosed. The artificial intelligence-based sterilization gate system according to the present invention includes a smart gate that forms a passage for a target, recognizes the target, and sprays a disinfectant toward the target, and a control unit that controls the smart gate, The smart gate includes a recognition unit for recognizing the target and a spray nozzle for injecting the disinfectant toward the target, and the control unit applies the disinfectant to the target based on a result recognized by the recognition unit. It is possible to control the spray nozzle so as to spray toward.

Description

인공지능 기반 살균 게이트 제어 시스템 및 방법{SYSTEM AND METHOD FOR CONTROLLING OF STERILIZATION GATE BASED ON ARTIFICIAL INTELLIGENCE}AI-based sterilization gate control system and method {SYSTEM AND METHOD FOR CONTROLLING OF STERILIZATION GATE BASED ON ARTIFICIAL INTELLIGENCE}

본 발명은 인공지능 기반 살균 게이트 제어 시스템 및 방법에 관한 것이다. 보다 상세하게는, 타겟을 인식하고 인식된 결과를 기초로 분사 노즐을 제어하여 방역제를 분사할 수 있는 인공지능 기반 살균 게이트 제어 시스템 및 방법에 관한 것이다.The present invention relates to an artificial intelligence-based sterilization gate control system and method. More specifically, it relates to an artificial intelligence-based sterilization gate control system and method capable of spraying a disinfectant by recognizing a target and controlling a spray nozzle based on the recognized result.

2019년에 감염병(Infection, Infectious Disease)인 코로나 19(COVID-19)가 처음 발생된 이후 전세계로 확산되어 최근까지 많은 확진자와 사상자를 발생시키고 있으며, 이러한 감염병은 병원체인 미생물이 생물체에 옮아 증식하여 병을 일으키는 것으로서, 다른 사람과의 접촉 등 다양한 경로를 통해 서 발생되고 있다.Since COVID-19, an infectious disease (Infection, Infectious Disease) first occurred in 2019, it has spread around the world, causing many confirmed cases and casualties until recently. It is a disease that causes disease, and it is generated through various routes, such as contact with other people.

이로 인해, 세계보건기구(World Health Organization : WHO)는 코로나 19를 감염병의 최고 경고등급인 펜데믹(Pendemic), 즉 세계적 대유행을 선언하였다.Due to this, the World Health Organization (WHO) declared Corona 19 a pandemic, the highest warning level of infectious diseases, a pandemic.

여기서, 코로나 19는 호흡기 감염질환으로서, 병원체는 사스-코로나바이러스-2(SARS-CoV-2)이고, 주로 감염자의 비말이 호흡기나, 눈, 코, 입의 점막으로 침투하여 전파된다. 즉, 기침이나, 재채기 등으로 인해 전파되거나, 바이러스로 오염된 물질을 만진 뒤 손으로 눈, 코 및 입을 만짐으로써 전파되고 있으며, 최근 들어 에어로졸에 의한 전파 가능성이 높은 것으로 알려지고 있다.Here, Corona 19 is a respiratory infectious disease, the pathogen is SARS-coronavirus-2 (SARS-CoV-2), and mainly spreads by penetrating the respiratory tract or mucous membranes of the eyes, nose, and mouth. That is, it is spread by coughing, sneezing, etc., or by touching a material contaminated with the virus and then touching the eyes, nose, and mouth with hands. Recently, it is known that the possibility of transmission by aerosol is high.

이에, 종래에는 입국자의 발열 여부를 감지하는 열화상 카메라를 출입국 시설에 설치하여 열화상을 통해서 감염자의 입국 시 체온을 모니터링하고, 입국자가 감염 의심자로 판정되는 경우 입국자의 위치 및 이동경로를 파악하여 살균 또는 격리를 위한 감염 의심자의 정보를 제공하고, 감염병의 확산방지를 위해 감염 의심자의 동선을 따라서 사후적으로 소독하는 작업을 수행하였다.Therefore, conventionally, a thermal imaging camera that detects the fever of an entrant is installed in the immigration facility to monitor the body temperature of the infected person upon entry through thermal imaging, and if the entrant is determined to be infected, the location and movement route of the entrant are identified. Information on suspected infected persons for sterilization or isolation was provided, and post-disinfection work was performed along the movement lines of suspected infected persons to prevent the spread of infectious diseases.

종래 기술인 KR 10-2182543B1은 분사노즐을 포함하는 파이프 프레임을 포함하지만, 피검사자의 안면에도 방역제를 분사하여 피검사자에게 불편함을 초래하는 문제점을 포함하고 있었다. KR 10-2182543B1, which is a prior art, includes a pipe frame including a spray nozzle, but has a problem of causing discomfort to the inspected person by spraying an antiseptic agent on the face of the inspected person.

KR 10-2182543B1 (발명의 명칭: 인공지능 방역 시스템)KR 10-2182543B1 (Title of invention: artificial intelligence quarantine system)

본 발명의 목적은 타겟의 인식하고, 인식 결과를 기초로 타겟에 방역제를 분사하는 것이다.An object of the present invention is to recognize a target and spray a disinfectant to the target based on the recognition result.

또한, 본 발명의 목적은 타겟에 대한 인식 결과를 기초로 타겟의 안면 위치를 제외한 영역에 방역제를 분사하는 것이다. In addition, an object of the present invention is to spray a disinfectant to an area other than the face of the target based on the recognition result of the target.

또한, 본 발명의 목적은 공기 중에 분사되는 방역제에 대한 영향을 최소화할 수 있는 비전 인식 알고리즘을 제공하는 것이다. In addition, an object of the present invention is to provide a vision recognition algorithm capable of minimizing the effect of the disinfectant sprayed into the air.

또한, 본 발명의 목적은 방역제가 분사되는 환경에서도 부식에 강한 렌즈를 포함하는 인공지능 기반 살균 게이트 제어 시스템 및 방법을 제공하는 것이다. In addition, an object of the present invention is to provide an artificial intelligence-based sterilization gate control system and method including a lens resistant to corrosion even in an environment where a disinfectant is sprayed.

상술한 문제점을 해결하기 위하여, 본 발명은 타겟의 이동 통로를 형성하고, 상기 타겟을 인식하며, 상기 타겟을 향하여 방역제를 분사하는 스마트 게이트 및 상기 스마트 게이트를 제어하는 제어부를 포함하되, 상기 스마트 게이트는 상기 타겟을 인식하기 위한 인식부 및 상기 타겟을 향하여 상기 방역제를 분사하기 위한 분사 노즐을 포함하고, 상기 제어부는 상기 인식부에 의하여 인식된 결과를 기초로, 상기 방역제를 상기 타겟을 향하여 분사하도록 상기 분사 노즐을 제어하고, 상기 인식된 결과 및 상기 방역제의 사용량을 기록하되, 상기 제어부는 상기 인식부에 의하여 상기 타겟의 안면 위치를 인식하고, 상기 안면 위치를 기초로 상기 방역제를 분사할 수 있다. In order to solve the above problems, the present invention includes a smart gate for forming a movement passage of a target, recognizing the target, and spraying a disinfectant toward the target, and a control unit for controlling the smart gate, The gate includes a recognition unit for recognizing the target and a spray nozzle for injecting the disinfectant toward the target, and the controller applies the disinfectant to the target based on a result recognized by the recognition unit. Control the spray nozzle to spray toward the target, and record the recognized result and the usage amount of the disinfectant, wherein the control unit recognizes the face position of the target by the recognition unit, and the disinfectant agent based on the face position can be sprayed.

또한, 상기 인식부는 상기 타겟의 형태를 인식하기 위한 깊이 카메라 및 상기 타겟의 온도를 인식하기 위한 열화상 카메라를 포함할 수 있다. The recognizing unit may include a depth camera for recognizing the shape of the target and a thermal imaging camera for recognizing the temperature of the target.

또한, 상기 제어부는 상기 깊이 카메라로부터 상기 타겟을 포함하는 깊이 이미지를 수신하고, 상기 열화상 카메라로부터 상기 타겟을 포함하는 열화상 이미지를 수신하며, 상기 깊이 이미지로부터 상기 타겟의 신장 및 상기 타겟의 체형을 인식하고, 상기 열화상 이미지로부터 상기 타겟의 안면 위치 및 상기 타겟의 온도를 인식할 수 있다. The control unit receives a depth image including the target from the depth camera, receives a thermal image including the target from the thermal imaging camera, and receives a height of the target and a body shape of the target from the depth image. , and the facial position of the target and the temperature of the target can be recognized from the thermal image.

또한, 상기 제어부는 비전 인식 알고리즘을 상기 열화상 이미지에 적용하여 상기 타겟의 안면 위치를 인식하고, 상기 비전 인식 알고리즘은 따른 복수의 레이어를 사용하는 CNN 학습 알고리즘이고, 상기 CNN 학습 알고리즘은 상기 열화상 이미지에 대하여 적용되는 이미지 필터를 포함할 수 있다. In addition, the control unit recognizes the facial position of the target by applying a vision recognition algorithm to the thermal image, and the vision recognition algorithm is a CNN learning algorithm using a plurality of layers according to the CNN learning algorithm. It may contain image filters applied to the image.

또한, 상술한 문제점을 해결하기 위하여, 본 발명은 인식부로부터 타겟을 포함하는 깊이 이미지 및 열화상 이미지를 수신하는 단계, 상기 깊이 이미지로부터 상기 타겟의 신장 및 상기 타겟의 체형 정보를 도출하는 단계, 상기 열화상 이미지로부터 상기 타겟의 안면 위치 정보 및 상기 타겟의 온도 정보를 도출하는 단계, 상기 타겟의 안면 위치 정보를 기초로 방역제를 분사하도록 분사 노즐을 제어하는 단계, 상기 방역제의 사용량을 도출하는 단계 및 상기 사용량, 상기 타겟의 신장 정보, 상기 타겟의 체형 정보, 상기 타겟의 안면 위치 정보 및 상기 타겟의 온도 정보를 기록하는 단계를 포함할 수 있다. In addition, in order to solve the above problems, the present invention includes the steps of receiving a depth image and a thermal image including a target from a recognizing unit, deriving height of the target and body shape information of the target from the depth image; Deriving facial position information and temperature information of the target from the thermal image, controlling a spray nozzle to spray a disinfectant based on the facial position information of the target, deriving the usage amount of the disinfectant and recording the usage amount, height information of the target, body shape information of the target, facial position information of the target, and temperature information of the target.

또한, 상기 타겟의 안면 위치 정보 및 상기 타겟의 온도 정보를 도출하는 단계는, 비전 인식 알고리즘을 상기 열화상 이미지에 적용하여 상기 타겟의 안면 위치를 인식하고, 상기 비전 인식 알고리즘은 따른 복수의 레이어를 사용하는 CNN 학습 알고리즘이고, 상기 CNN 학습 알고리즘은 상기 열화상 이미지에 대하여 적용되는 이미지 필터를 포함할 수 있다. In addition, in the step of deriving the target's facial position information and the target's temperature information, a vision recognition algorithm is applied to the thermal image to recognize the target's facial position, and a plurality of layers according to the vision recognition algorithm are obtained. A CNN learning algorithm to be used, and the CNN learning algorithm may include an image filter applied to the thermal image.

또한, 상술한 문제점을 해결하기 위하여, 본 발명은 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 상술한 방법을 수행하게 할 수 있다. In addition, in order to solve the above problems, the present invention is a non-transitory computer readable medium storing instructions, and when the instructions are executed by a processor, the processor can perform the above-described method.

본 발명은 타겟에 대한 인식 결과를 기초로 타겟의 안면 위치를 제외한 영역에 방역제를 분사하여 대상 인원의 불쾌함을 현저히 감소시킬 수 있는 효과를 가진다. The present invention has an effect of significantly reducing the discomfort of target personnel by spraying a disinfectant to an area other than the target's face based on the recognition result of the target.

또한, 본 발명은 공기 중에 부유하는 방역제로 인한 화질의 저하를 극복하고 정확한 인식 결과를 도출할 수 있는 비전 인식 알고리즘을 제공할 수 있는 효과를 가진다. In addition, the present invention has the effect of providing a vision recognition algorithm capable of overcoming the deterioration of image quality due to the disinfectant floating in the air and deriving accurate recognition results.

또한, 본 발명은 방역제가 분사되는 환경에서도 부식에 강한 렌즈를 포함하는 인공지능 기반 살균 게이트 제어 시스템 및 방법을 제공할 수 있는 효과를 가진다. In addition, the present invention has an effect of providing an artificial intelligence-based sterilization gate control system and method including a lens resistant to corrosion even in an environment where a disinfectant is sprayed.

본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable according to the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1 및 도 2는 본 발명에 따른 인공지능 기반 살균 게이트 제어 시스템를 나타낸 도면이다.
도 3은 본 발명에 따른 메모리에 저장되어 구동되는 기능식 모듈을 개략적으로 나타낸 것이다.
도 4 내지 도 6는 본 발명에 따라 타겟의 신장 및 타겟의 체형에 따른 스마트 게이트 구동 예시를 나타낸 도면이다.
도 7은 본 발명에 따른 렌즈를 포함하는 카메라를 개략적으로 나타낸 도면이다.
도 8은 본 발명에 따른 CNN 알고리즘을 나타낸 도면이다.
도 9는 본 발명에 따른 CNN 필터를 나타낸 도면이다.
도 10은 본 발명에 따른 인공지능 기반 살균 게이트 제어 방법을 나타낸 도면이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
1 and 2 are diagrams showing an artificial intelligence-based sterilization gate control system according to the present invention.
3 schematically shows a functional module stored in a memory and driven according to the present invention.
4 to 6 are diagrams showing examples of smart gate driving according to the height of the target and the body shape of the target according to the present invention.
7 is a diagram schematically showing a camera including a lens according to the present invention.
8 is a diagram showing a CNN algorithm according to the present invention.
9 is a diagram showing a CNN filter according to the present invention.
10 is a diagram showing an artificial intelligence-based sterilization gate control method according to the present invention.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide examples of the present specification and describe technical features of the present specification together with the detailed description.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar elements are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, 인공지능 기반 살균 게이트 제어 시스템에 관하여 상세히 설명하면 다음과 같다.Hereinafter, based on the above information, the artificial intelligence-based sterilization gate control system according to a preferred embodiment of the present specification will be described in detail as follows.

도 1 및 도 2는 본 발명에 따른 인공지능 기반 살균 게이트 제어 시스템를 나타낸 도면이다. 1 and 2 are diagrams showing an artificial intelligence-based sterilization gate control system according to the present invention.

도 1 및 도 2에 따르면, 본 발명에 따른 인공지능 기반 살균 게이트 제어 시스템은 스마트 게이트(100) 및 제어부(200)를 포함할 수 있다. 이하, 본 발명에 따른 타겟은 인식 및 방역제 분사의 대상이 되는 사람을 의미할 수 있다. 1 and 2, the artificial intelligence-based sterilization gate control system according to the present invention may include a smart gate 100 and a control unit 200. Hereinafter, a target according to the present invention may mean a person who is a target of recognition and injection of a disinfectant.

스마트 게이트(100)는 타겟이 이동할 수 있는 이동 통로를 형성할 수 있다. 스마트 게이트(100)는 인식부를 포함하고, 인식부를 통하여 타겟을 인식할 수 있다. 또한, 스마트 게이트(100)는 분사 노즐(120)을 포함하고, 분사 노즐(120)을 통하여 방역제를 분사할 수 있다. 스마트 게이트(100)는 타겟을 향하여 방역제를 분사할 수 있다. The smart gate 100 may form a movement path through which a target can move. The smart gate 100 may include a recognition unit and recognize a target through the recognition unit. In addition, the smart gate 100 may include a spray nozzle 120 and spray a disinfectant through the spray nozzle 120. The smart gate 100 may spray the disinfectant toward the target.

방역제는 살균, 항바이러스 등의 방역을 위한 모든 물질을 의미할 수 있다. 방역제는 인체에 무해한 것으로서, COVID-19 등 신종 바이러스에 대한 방역 물질일 수 있다. The quarantine agent may refer to all materials for quarantine such as sterilization and antiviral. The quarantine agent is harmless to the human body and may be a quarantine agent against new viruses such as COVID-19.

제어부(200)는 스마트 게이트(100)를 제어하기 위한 구성으로서, 구체적으로는 스마트 게이트(100)의 인식부 및 분사 노즐(120)을 제어할 수 있다. 제어부(200)는 인식부에 의하여 인식된 결과를 기초로, 방역제를 타겟을 향하여 분사하도록 분사 노즐(120)을 제어할 수 있다. The control unit 200 is a component for controlling the smart gate 100, and can specifically control the recognition unit and the injection nozzle 120 of the smart gate 100. The control unit 200 may control the spray nozzle 120 to spray the disinfectant toward the target based on the result recognized by the recognition unit.

본 발명에 따른 인식부는 타겟을 인식하기 위한 구성으로서, 제1 카메라(111) 및 제2 카메라(112)를 포함할 수 있다. 제1 카메라(111)는 타겟의 형태를 인식하기 위한 깊이 카메라일 수 있고, 제2 카메라(112)는 타겟의 온도를 인식하기 위한 열화상 카메라일 수 있다. The recognition unit according to the present invention is a component for recognizing a target and may include a first camera 111 and a second camera 112 . The first camera 111 may be a depth camera for recognizing the shape of the target, and the second camera 112 may be a thermal imaging camera for recognizing the temperature of the target.

또한, 인식부는 타겟을 포함하는 광 이미지를 획득하기 위한 광학 카메라(미도시)를 더 포함할 수 있고, 뿐만 아니라 타겟의 온도를 인식하기 위한 온도 감지 센서(미도시)를 더 포함할 수 있다. 경우에 따라 광학 카메라는 깊이 카메라를 대체할 수 있고, 온도 감지 센서는 열화상 카메라를 대체할 수 있다. In addition, the recognizing unit may further include an optical camera (not shown) for obtaining an optical image including the target, and may further include a temperature sensor (not shown) for recognizing the temperature of the target. In some cases, optical cameras can replace depth cameras, and temperature sensors can replace thermal imaging cameras.

본 발명에 따른 제어부(200)는 깊이 카메라로부터 획득한 정보를 기초로 깊이 이미지를 생성할 수 있다. 공간상에서의 거리 정보는 깊이 이미지라고도 하는데 이러한 깊이 정보를 추출하는 방식은 크게 TOF(time of flight), 스테레오스코프 비전(stereoscopic vision), 구조화 광 패턴(structured light pattern) 등의 방식이 있다.The controller 200 according to the present invention may generate a depth image based on information obtained from a depth camera. Distance information in space is also referred to as a depth image, and methods for extracting such depth information include time of flight (TOF), stereoscopic vision, structured light pattern, and the like.

TOF(Time of flight) 방식은 빛이 물체에 반사되어 돌아오는 시간을 분석하여 깊이 이미지를 구성하는데, 빛은 1초에 약 300,000Km를 이동하므로 빛이 돌아오는 아주 짧은 시간을 센서로 측정함으로써 거리를 계산한다. 즉, 깊이 카메라는, 조사된 빛이 객체에 반사되어 돌아오는 시간(Time of Flight; TOF)을 측정하여 타겟의 깊이를 측정할 수 있다. 본 발명에 따른 깊이 카메라는 SPAD와 같이 빛에 매우 민감한 소자를 사용하여 반사 광이 수광부에 도달하는 순간을 감지하고 이를 이용해 TOF를 측정하는 직접(direct) 방식을 사용하거나, 포토 다이오드(photodiode)를 사용하여 변조된 펄스 빛이 반사되어 오는 경우 위상차를 전하량으로 검출하여 계산하는 간접(indirect)방식을 사용할 수 있다. The TOF (Time of Flight) method analyzes the time it takes for light to reflect off an object and return to form a depth image. Since light travels approximately 300,000 km per second, the sensor measures the very short time for light to return to the distance. Calculate That is, the depth camera may measure the depth of the target by measuring a time of flight (TOF) for the irradiated light to be reflected from the object and return. The depth camera according to the present invention uses a device that is very sensitive to light, such as a SPAD, to detect the moment when the reflected light reaches the light receiver, and uses it to measure the TOF using a direct method, or a photodiode. An indirect method of detecting and calculating the phase difference as an amount of charge can be used when the pulsed light modulated by using is reflected.

또한, 깊이 카메라는 스테레오 카메라를 통하여 타겟의 깊이를 측정할 수 있다. 이는 광학적인 방법을 의미할 수 있으며, 이때 깊이 카메라는 구조광(Structured Light)을 사용하는 3차원 카메라일 수 있다. 이와 같이 광학적인 방법을 이용하여 물체의 입체형상을 측정하는 장비를 통상적으로 3차원 스캐너(3DScanner)라고 부른다. 이러한 3차원 스캐너는, 렌즈와 카메라로 이루어진 영상획득부와 주사라인광을 영사하는 주사라인광 영사부 및 주사라인광영사부를 통해 획득된 영상을 분석 처리하는 컴퓨터로 구성되어 있을 수 있다. Also, the depth camera may measure the depth of the target through a stereo camera. This may mean an optical method, and in this case, the depth camera may be a 3D camera using structured light. In this way, equipment for measuring the three-dimensional shape of an object using an optical method is commonly referred to as a 3D scanner. Such a 3D scanner may be composed of an image acquisition unit composed of a lens and a camera, a scan line light projection unit that projects scan line light, and a computer that analyzes and processes an image acquired through the scan line light projection unit.

열화상 카메라는 대상 물체 또는 장면의 온도 변화를 실화상으로 변환하는 장치로서, 적외선만을 모으는 렌즈와 필터, 적외선을 전기적 신호로 변환하는 센서, 그리고 전기신호를 영상으로 구현하는 디스플레이로 구성될 수 있다. 열화상 카메라에서의 렌즈는 일반적으로 사용되는 유리 렌즈가 아니라 마그네슘-알루미늄이 코팅된 불투명한 렌즈가 사용되며, 센서는 적외선을 감지하는 디텍터를 초점면에 배열한 센서가 이용될 수 있다. A thermal imaging camera is a device that converts the temperature change of a target object or scene into a visible image. . A lens in a thermal imaging camera is not a generally used glass lens, but an opaque lens coated with magnesium-aluminum, and a sensor in which a detector detecting infrared rays is arranged on a focal plane may be used.

본 발명에 따른 제어부(200)는 깊이 카메라로부터 타겟을 포함하는 깊이 이미지를 수신하고, 비전 인식 알고리즘을 깊이 이미지에 적용하여, 타겟의 신장 및 타겟의 체형을 인식할 수 있다. 또한, 본 발명에 따른 제어부(200)는 머신러닝 중 분류를 사용하여 타겟의 신장 및 타겟의 체형을 분류할 수 있다. 비전 인식 알고리즘에 대한 구체적인 내용은 후술한다. The controller 200 according to the present invention may receive a depth image including a target from a depth camera, apply a vision recognition algorithm to the depth image, and recognize the height of the target and the body shape of the target. Also, the control unit 200 according to the present invention may classify the height of the target and the body shape of the target using classification during machine learning. Details of the vision recognition algorithm will be described later.

또한, 본 발명에 따른 제어부(200)는 광학 카메라로부터 촬영된 타겟을 비전 인식하여, 타겟에 대한 정보를 획득할 수 있다. In addition, the control unit 200 according to the present invention may acquire information about the target by vision recognition of the target photographed by the optical camera.

도 2에 따르면, 본 발명에 따른 스마트 게이트(100)는 형성된 이동 통로의 양 측면에 형성된 기둥부(101) 및 이동 통로의 상부에 형성된 바디부(102)를 포함할 수 있다. 본 발명에서 이동 통로를 향하는 방향을 내측이라고 정의하고, 그 반대 방향을 외측이라고 정의하여 설명한다. 바디부(102)에는 인식부(110)가 설치될 수 있다. According to FIG. 2 , the smart gate 100 according to the present invention may include a pillar portion 101 formed on both sides of the movement passage and a body portion 102 formed on the upper portion of the movement passage. In the present invention, the direction toward the moving passage is defined as the inner side, and the opposite direction is defined as the outer side. A recognition unit 110 may be installed in the body unit 102 .

도 2에 따르면, 본 발명에 따른 분사 노즐(120)은 복수개만큼 스마트 게이트(100)에 설치될 수 있다. 분사 노즐(120)은 스마트 게이트(100)에 형성된 이동 통로를 따라 이동 통로의 내부를 향하도록 설치될 수 있다. 분사 노즐(120)은 이동 통로의 내부를 향하여 방역제를 분사하되, 미리 설정된 범위만큼 각도를 조절할 수 있다. 분사 노즐(120)은 제어부(200)의 제어를 받아, 방역제를 분사하는 각도를 변경할 수 있다. According to FIG. 2, a plurality of injection nozzles 120 according to the present invention may be installed in the smart gate 100. The spray nozzle 120 may be installed to face the inside of the movement passage along the movement passage formed in the smart gate 100 . The injection nozzle 120 sprays the disinfectant toward the inside of the moving passage, but the angle may be adjusted by a preset range. The spray nozzle 120 may change the angle at which the disinfectant is sprayed under the control of the control unit 200 .

본 발명에 따른 복수의 분사 노즐(120)은 기둥부(101)의 내측에 설치될 수 있다. 기둥부(101)는 제1 기둥부(101a) 및 제2 기둥부(101b)를 포함할 수 있다. 복수의 분사 노즐(120)은 기둥부(101)의 내측에 기둥부(101)가 연장된 방향을 따라 설치될 수 있다. 복수의 분사 노즐(120)은 타겟의 신장에 대응하여 구동될 수 있다. A plurality of spray nozzles 120 according to the present invention may be installed inside the pillar portion 101 . The pillar part 101 may include a first pillar part 101a and a second pillar part 101b. The plurality of injection nozzles 120 may be installed inside the pillar part 101 along the direction in which the pillar part 101 extends. The plurality of injection nozzles 120 may be driven in response to the elongation of the target.

또한, 본 발명에 따른 복수의 분사 노즐(120)은 방역제의 분사 각도를 조절하기 위하여 미리 정해진 규격 내에서 회전할 수 있다. 도면에 도시되어 있지는 않으나, 본 발명에 따른 복수의 분사 노즐 각각은, 각각의 노즐의 끝을 미리 정해진 방향의 각도로 왕복 운동하도록 하는 구동 장치(미도시)를 포함할 수 있다. 해당 구동 장치에 의하여 분사 노즐이 미리 정해진 방향의 각도로 움직이도록 구동되는 예시는 후술할 도 4 및 도 5에 의하여 뒷받침될 수 있다. In addition, the plurality of spray nozzles 120 according to the present invention can be rotated within a predetermined standard to adjust the spray angle of the disinfectant. Although not shown in the drawing, each of the plurality of injection nozzles according to the present invention may include a driving device (not shown) for reciprocating the tip of each nozzle at an angle in a predetermined direction. An example in which the injection nozzle is driven to move at an angle in a predetermined direction by the driving device may be supported by FIGS. 4 and 5 to be described later.

도 2에 따르면, 제어부(200)는 프로세서(210), 메모리(220) 및 통신 모듈(230)을 포함할 수 있다. According to FIG. 2 , the controller 200 may include a processor 210, a memory 220 and a communication module 230.

프로세서(210)는 메모리(220)에 저장된 명령어를 실행하여 다른 구성들을 제어할 수 있다. 프로세서(210)는 메모리(220)에 저장된 명령어를 수행할 수 있다. The processor 210 may execute commands stored in the memory 220 to control other components. The processor 210 may execute instructions stored in the memory 220 .

프로세서(210)는, 연산을 수행하고 다른 장치를 제어할 수 있는 구성이다. 주로, 중앙 연산 장치(CPU), 어플리케이션 프로세서(AP), 그래픽스 처리 장치(GPU) 등을 의미할 수 있다. 또한, CPU, AP 또는 GPU는 그 내부에 하나 또는 그 이상의 코어들을 포함할 수 있으며, CPU, AP 또는 GPU는 작동 전압과 클락 신호를 이용하여 작동할 수 있다. 다만, CPU 또는 AP는 직렬 처리에 최적화된 몇 개의 코어로 구성된 반면, GPU는 병렬 처리용으로 설계된 수 천 개의 보다 소형이고 효율적인 코어로 구성될 수 있다.The processor 210 is a component capable of performing calculations and controlling other devices. Mainly, it may mean a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), and the like. Also, the CPU, AP, or GPU may include one or more cores therein, and the CPU, AP, or GPU may operate using an operating voltage and a clock signal. However, while a CPU or AP consists of a few cores optimized for serial processing, a GPU may consist of thousands of smaller and more efficient cores designed for parallel processing.

프로세서(210)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(220)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 210 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the components described above or by running an application program stored in the memory 220.

메모리(220)는 제어부(200)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(220)는 제어부(200)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 제어부(200)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 응용 프로그램은, 메모리(220)에 저장되고, 제어부(200)에 설치되어, 프로세서(210)에 의하여 상기 제어부(200)의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 220 stores data supporting various functions of the control unit 200 . The memory 220 may store a plurality of application programs (application programs or applications) driven by the control unit 200, data for operation of the control unit 200, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, the application program may be stored in the memory 220, installed in the control unit 200, and driven by the processor 210 to perform the operation (or function) of the control unit 200.

메모리(220)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(220)는 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수도 있다.The memory 220 may be a flash memory type, a hard disk type, a solid state disk type, a silicon disk drive type, or a multimedia card micro type. ), card-type memory (eg SD or XD memory, etc.), RAM (random access memory; RAM), SRAM (static random access memory), ROM (read-only memory; ROM), EEPROM (electrically erasable programmable read -only memory), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. Also, the memory 220 may include a web storage performing a storage function on the Internet.

통신 모듈(230)은 안테나를 통해 기지국 또는 통신 기능을 포함하는 카메라와 정보의 송수신을 실행한다. 통신 모듈(230)은 변조부, 복조부, 신호 처리부 등을 포함할 수 있다. 또한, 통신 모듈(230)은 유선 통신 기능을 수행할 수 있다. The communication module 230 transmits and receives information with a base station or a camera having a communication function through an antenna. The communication module 230 may include a modulation unit, a demodulation unit, a signal processing unit, and the like. Also, the communication module 230 may perform a wired communication function.

무선 통신은, 통신사들이 기존에 설치해둔 통신 시설과 그 통신 시설의 주파수를 사용하는 무선 통신망을 사용한 통신을 말할 수 있다. 이때, 통신 모듈(230)은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 통신 시스템에 사용될 수 있으며, 뿐만 아니라, 통신 모듈(230)은 3GPP(3rd generation partnership project) LTE(long term evolution) 등에도 사용될 수 있다. 또한, 최근 상용화 중인 5G 통신뿐만 아니라, 추후 상용화가 예정되어 있는 6G 등도 사용될 수 있다. 다만, 본 명세서는 이와 같은 무선 통신 방식에 구애됨이 없이 기설치된 통신망을 활용할 수 있다.Wireless communication may refer to communication using a wireless communication network using a communication facility previously installed by telecommunication companies and a frequency of the communication facility. At this time, the communication module 230 is CDMA (code division multiple access), FDMA (frequency division multiple access), TDMA (time division multiple access), OFDMA (orthogonal frequency division multiple access), SC-FDMA (single carrier frequency division multiple access), and the like, as well as the communication module 230 can also be used for 3rd generation partnership project (3GPP) long term evolution (LTE). In addition, not only 5G communication, which is currently being commercialized, but also 6G, which is scheduled to be commercialized later, can be used. However, the present specification may utilize a pre-installed communication network without being bound by such a wireless communication method.

또한, 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), BLE(Bluetooth Low Energy), 비콘(Beacon), RFID(Radio Frequency Identification), NFC(Near Field Communication), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.In addition, as a short range communication technology, Bluetooth, BLE (Bluetooth Low Energy), Beacon, RFID (Radio Frequency Identification), NFC (Near Field Communication), infrared communication (Infrared Data Association; IrDA) ), UWB (Ultra Wideband), ZigBee, etc. may be used.

통신 모듈(230)은 컴퓨팅 장치와 외부 서버를 무선 통신 및/또는 유선 통신으로 연결할 수 있다. 또한, 통신 모듈(230)은 인식부로부터 생성된 데이터를 수신하고, 프로세서(210)에서 생성된 명령을 다른 구성요소들에 전달할 수 있다. The communication module 230 may connect the computing device and an external server through wireless communication and/or wired communication. Also, the communication module 230 may receive data generated by the recognition unit and transmit commands generated by the processor 210 to other components.

도 3은 본 발명에 따른 메모리에 저장되어 구동되는 기능식 모듈을 개략적으로 나타낸 것이다. 3 schematically shows a functional module stored in a memory and driven according to the present invention.

도 3에 따르면, 본 발명에 따른 메모리는 깊이 이미지 분석 모듈(221), 열화상 이미지 분석 모듈(222), 결과 기록 모듈(223) 및 방역제 사용량 예측 모듈(224)을 저장할 수 있다. According to FIG. 3 , the memory according to the present invention may store a depth image analysis module 221, a thermal image analysis module 222, a result recording module 223, and a disinfectant usage estimation module 224.

깊이 이미지 분석 모듈(221)은 깊이 이미지로부터 타겟의 신장 정보, 타겟의 체형 정보를 도출할 수 있다. 구체적으로, 깊이 이미지 분석 모듈(221)은 타겟의 대략적인 신장 및 체형을 인식하기 위하여, 깊이 이미지에 대하여 비전 인식 알고리즘을 수행할 수 있다. 해당 프로세스는 아래와 같을 수 있다.The depth image analysis module 221 may derive height information of the target and body shape information of the target from the depth image. Specifically, the depth image analysis module 221 may perform a vision recognition algorithm on the depth image in order to recognize the approximate height and body shape of the target. The corresponding process may be as follows.

(1) 타겟 및 기준 물체을 인식(1) Recognize target and reference objects

(2) 기준 물체를 기초로 타겟의 신장 및 체형을 인식(2) Recognize the height and body shape of the target based on the reference object

단, 기준 물체는 높이와 너비가 미리 알려진 것으로서, 깊이 이미지 분석 모듈(221)은 메모리로부터 미리 저장된 기준 물체의 높이 및 너비 정보를 불러올 수 있다. 타겟의 신장은 기준 물체의 높이에 대비하여 도출되고, 타겟의 체형은 기준 물체의 너비에 대비하여 도출될 수 있다. However, since the height and width of the reference object are known in advance, the depth image analysis module 221 may retrieve previously stored height and width information of the reference object from the memory. The height of the target may be derived based on the height of the reference object, and the body shape of the target may be derived based on the width of the reference object.

열화상 이미지 분석 모듈(222)은 열화상 이미지로부터 타겟의 안면 위치 및 타겟의 온도를 도출할 수 있다. 구체적으로, 열화상 이미지 분석 모듈(222)은 타겟의 얼굴을 인식하고 그 위치를 도출하기 위하여, 열화상 이미지에 대하여 비전 인식 알고리즘을 수행할 수 있다. 해당 프로세스는 아래와 같을 수 있다. The thermal image analysis module 222 may derive the facial position of the target and the temperature of the target from the thermal image. Specifically, the thermal image analysis module 222 may perform a vision recognition algorithm on the thermal image in order to recognize the face of the target and derive its location. The corresponding process may be as follows.

(1) 사람의 안면을 포함하는 기존 열화상 이미지를 미리 학습한 알고리즘을 DB로부터 불러옴(1) Load an algorithm that has previously learned an existing thermal image including a person's face from the DB

(2) 열화상 카메라로부터 타겟을 포함하는 열화상 이미지를 수신(2) Receiving a thermal image including a target from a thermal imaging camera

(3) 수신한 열화상 이미지로부터 타겟의 안면을 인식(3) Recognize the target's face from the received thermal image

(4) 인식한 타겟의 안면에 대하여 온도 정보를 추출(4) Extracting temperature information about the face of the recognized target

(5) 타겟의 안면의 위치 정보를 기준 물체의 높이를 기초로 도출(5) Deriving the positional information of the target's face based on the height of the reference object

단, 기준 물체는 높이와 너비가 미리 알려진 것으로서, 미리 정해진 온도를 유지하고 있도록 제어될 수 있다. 열화상 이미지 분석 모듈(222)은 미리 정해진 온도를 가지는 물체의 윤곽을 인식하는 방식으로 기준 물체를 인식할 수 있다. 열화상 이미지 분석 모듈(222)은 메모리로부터 미리 저장된 기준 물체의 높이 및 너비 정보를 불러올 수 있다. However, the height and width of the reference object are known in advance, and may be controlled to maintain a predetermined temperature. The thermal image analysis module 222 may recognize a reference object by recognizing the outline of an object having a predetermined temperature. The thermal image analysis module 222 may retrieve previously stored height and width information of a reference object from a memory.

결과 기록 모듈(223)은 깊이 이미지 분석 모듈(221) 및/또는 열화상 이미지 분석 모듈(222)로부터 분석된 결과를 메모리에 기록할 수 있다. 결과 기록 모듈(223)은 기록된 결과 데이터를 방역제 사용량 예측 모듈(224)에 전달할 수 있다. The result recording module 223 may record the result analyzed by the depth image analysis module 221 and/or the thermal image analysis module 222 in a memory. The result recording module 223 may transmit the recorded result data to the disinfectant usage estimation module 224 .

방역제 사용량 예측 모듈(224)은 회기 알고리즘을 사용할 수 있다. 방역제 사용량 예측 모듈(224)은 선형 회귀, 가우시안 프로세스 회기 및 칼만 필터 중 적어도 하나를 사용할 수 있다. 방역제 사용량 예측 모듈(224)은 기록된 결과 데이터를 기초로 방역제 사용량을 예측할 수 있다. The disinfectant usage prediction module 224 may use a regression algorithm. The disinfectant usage prediction module 224 may use at least one of linear regression, Gaussian process regression, and Kalman filter. The disinfectant usage prediction module 224 may predict the disinfectant usage based on the recorded result data.

도 4 내지 도 6는 본 발명에 따라 타겟의 신장 및 타겟의 체형에 따른 스마트 게이트 구동 예시를 나타낸 도면이다. 4 to 6 are diagrams showing examples of smart gate driving according to the height of the target and the body shape of the target according to the present invention.

도 4 내지 도 6에 따르면, 본 발명에 따른 분사 노즐(120)은 제1 분사 노즐(120a) 내지 제3 분사 노즐(120c)을 포함할 수 있다. 제1 분사 노즐(120a) 내지 제3 분사 노즐(120c)은 제1 기둥부의 내측에 설치될 수 있다. 제2 기둥부에도 복수의 분사 노즐(120)이 설치될 수 있으며, 제1 기둥부에 설치된 제1 분사 노즐(120a) 내지 제3 분사 노즐(120c)에 대응하여 동작할 수 있다. 4 to 6, the spray nozzle 120 according to the present invention may include a first spray nozzle 120a to a third spray nozzle 120c. The first spray nozzle 120a to the third spray nozzle 120c may be installed inside the first pillar portion. A plurality of spray nozzles 120 may also be installed on the second pillar part, and may operate correspondingly to the first spray nozzles 120a to third spray nozzles 120c installed on the first pillar part.

도 4에 따르면, 제1 타겟(11)은 머리 위치가 기준선 부근에 위치한다. 따라서, 제어부(도 1의 200)는 제1 분사 노즐(120a)은 구동하지 않고, 제2 분사 노즐(120b) 및 제3 분사 노즐(120c)만 구동할 수 있다. 또한, 제어부(도 1의 200)는 제2 분사 노즐(120b)을 기준선보다 아래를 향하도록 제어할 수 있다. 방역제를 제1 타겟(11)의 얼굴에 분사하지 않기 위함이다. According to FIG. 4, the head position of the first target 11 is located near the reference line. Accordingly, the controller (200 in FIG. 1 ) may drive only the second spray nozzle 120b and the third spray nozzle 120c without driving the first spray nozzle 120a. In addition, the controller (200 in FIG. 1 ) may control the second injection nozzle 120b to face downward than the reference line. This is to avoid spraying the disinfectant to the face of the first target 11.

도 5에 따르면, 제2 타겟(12)은 머리 위치가 기준선과 제1 거리만큼 떨어져 위치한다. 따라서, 제어부(도 1의 200)는 제1 분사 노즐(120a)은 구동하지 않고, 제2 분사 노즐(120b) 및 제3 분사 노즐(120c)만 구동할 수 있다. 제어부(도 1의 200)는 제2 분사 노즐(120b)을 제어하여, 방역제가 기준선보다 높이 닿도록 제어할 수 있다. 방역제를 제2 타겟(12)에 얼굴에 분사하지 않으면서도, 최대한 많은 면적에 분사하기 위함이다. According to FIG. 5, the head of the second target 12 is positioned away from the reference line by a first distance. Accordingly, the controller (200 in FIG. 1 ) may drive only the second spray nozzle 120b and the third spray nozzle 120c without driving the first spray nozzle 120a. The controller (200 in FIG. 1 ) may control the second spray nozzle 120b so that the disinfectant reaches a height higher than the reference line. This is to spray the disinfectant to as many areas as possible without spraying the second target 12 to the face.

도 6에 따르면, 제3 타겟(13)은 머리 위치가 기준선과 제2 거리만큼 떨어져 위치한다. 따라서, 제어부(도 1의 200)는 제1 분사 노즐(120a) 내지 제2 분사 노즐(120b)을 모두 구동할 수 있다. 또한, 제어부(도 1의 200)는 제1 분사 노즐(120a)을 기준선보다 아래를 향하도록 제어할 수 있다. 방역제를 제1 타겟(11)의 얼굴에 분사하지 않기 위함이다. According to FIG. 6, the head of the third target 13 is located away from the reference line by a second distance. Accordingly, the controller (200 in FIG. 1 ) may drive all of the first spray nozzles 120a to the second spray nozzles 120b. In addition, the controller (200 in FIG. 1 ) may control the first injection nozzle 120a to face downward than the reference line. This is to avoid spraying the disinfectant to the face of the first target 11.

본 발명에 따른 기준선은 미리 정해진 위치에 설정될 수 있다. 또한, 본 발명에 따른 제1 기준선은 미리 정해진 위치에 설정되고, 제2 기준선은 제3 타겟(13)의 얼굴 위치에 기초하여 설정될 수 있다. 제2 기준선은 비전 인식을 통하여 인식된 제3 타겟(13)의 머리 위치에 기초하여 설정될 수 있다. The reference line according to the present invention may be set at a predetermined position. In addition, the first reference line according to the present invention may be set at a predetermined position, and the second reference line may be set based on the position of the face of the third target 13 . The second reference line may be set based on the position of the head of the third target 13 recognized through vision recognition.

도 7은 본 발명에 따른 렌즈를 포함하는 카메라를 개략적으로 나타낸 도면이다. 7 is a diagram schematically showing a camera including a lens according to the present invention.

도 7에 따르면 본 발명에 따른 제1 카메라(111) 및/또는 제3 카메라(열화상 카메라 및/또는 광학 카메라)는 카메라 모듈(1320)을 포함할 수 있다. 본 발명에 따른 카메라 모듈(1320)은 이미지 센서의 종류에 따라 열화상 이미지 또는 광 이미지를 생성할 수 있다. 카메라 모듈(1320)은 측벽에 관통홀을 포함하는 하우징(1324), 관통홀에 설치된 렌즈(1321) 및 렌즈(1321)를 구동하는 구동부(1323)를 포함할 수 있다. 관통홀은 렌즈(1321)의 직경에 대응되는 크기로 형성될 수 있다. 렌즈(1321)는 관통홀에 삽입될 수 있다. According to FIG. 7 , the first camera 111 and/or the third camera (thermal image camera and/or optical camera) according to the present invention may include a camera module 1320 . The camera module 1320 according to the present invention may generate a thermal image or an optical image according to the type of image sensor. The camera module 1320 may include a housing 1324 including a through hole on a side wall, a lens 1321 installed in the through hole, and a driving unit 1323 that drives the lens 1321 . The through hole may have a size corresponding to the diameter of the lens 1321 . The lens 1321 may be inserted into the through hole.

구동부(1323)는 렌즈(1321)를 전방 또는 후방으로 움직이도록 제어하는 구성일 수 있다. 렌즈(1321)와 구동부(1323)는 종래 알려진 방식으로 연결되고 렌즈(1321)는 종래 알려진 방식으로 구동부(1323)에 의하여 제어될 수 있다. The driving unit 1323 may be configured to control the lens 1321 to move forward or backward. The lens 1321 and the driving unit 1323 are connected in a conventionally known manner, and the lens 1321 may be controlled by the driving unit 1323 in a conventionally known manner.

다양한 영상 이미지를 수득하기 위해서는 렌즈(1321)가 카메라 모듈(1320) 또는 하우징(1324)의 외부로 노출될 필요가 있다. In order to obtain various video images, the lens 1321 needs to be exposed to the outside of the camera module 1320 or the housing 1324 .

특히, 본 발명에 따른 방역제가 분사되는 타겟의 이동 통로 주변에 설치되어야 하므로, 내오염성이 강한 렌즈가 필요하다. 따라서, 본 발명은 렌즈(1321)를 코팅하는 코팅층을 제안하여, 이러한 문제점을 해결하고자 하였다. In particular, since it should be installed around the moving path of the target through which the disinfectant according to the present invention is sprayed, a lens with strong fouling resistance is required. Accordingly, the present invention proposes a coating layer for coating the lens 1321 to solve this problem.

바람직하게 상기 렌즈(1321)는 그 표면에 하기의 화학식 1로 표시되는 아크릴계 화합물; 유기 용매, 무기 입자 및 분산제가 포함되는 코팅조성물로 코팅된 것일 수 있다.Preferably, the lens 1321 may include an acrylic compound represented by Formula 1 below on its surface; It may be coated with a coating composition containing an organic solvent, inorganic particles and a dispersant.

[화학식 1][Formula 1]

Figure 112021063843641-pat00001
Figure 112021063843641-pat00001

여기서, here,

n 및 m은 서로 동일하거나 상이하며, 각각 독립적으로 1 내지 100의 정수이며, L1은 바이페닐렌기이다.n and m are the same as or different from each other, each independently represent an integer of 1 to 100, and L 1 is a biphenylene group.

상기 코팅조성물로 렌즈(1321)가 코팅된 경우 우수한 발수성 및 내오염성을 나타낼 수 있기 때문에, 이동 통로 주변에 설치된 렌즈(1321)가 오염 환경 및 염분에 장기간 노출되더라도, 깨끗하고 선명한 외부 영상을 수집할 수 있다.When the lens 1321 is coated with the coating composition, it can exhibit excellent water repellency and stain resistance, so even if the lens 1321 installed around the moving passage is exposed to a polluted environment and salt for a long time, it is possible to collect clean and clear external images. can

상기 무기 입자는 실리카, 알루미나 및 이들의 혼합물로 이루어진 군으로부터 선택될 수 있다. 상기 무기 입자의 평균 직경은 70 내지 100㎛이지만, 상기 예시에 국한되지 않는다. 상기 무기 입자는 렌즈(1321)의 표면에 코팅층(1322)으로 형성 후, 물리적인 강도를 향상시키고, 점도를 일정 범위로 유지시켜 성형성을 높일 수 있다. The inorganic particles may be selected from the group consisting of silica, alumina, and mixtures thereof. The average diameter of the inorganic particles is 70 to 100 μm, but is not limited to the above example. After forming the coating layer 1322 on the surface of the lens 1321, the inorganic particles may improve physical strength and maintain viscosity within a certain range to increase moldability.

상기 유기 용매는 메틸에틸케톤(MEK), 톨루엔 및 이들의 혼합으로 이루어진 군으로부터 선택되며, 바람직하게는 메틸에틸케톤을 사용할 수 있으나, 상기 예시에 국한되지 않는다. The organic solvent is selected from the group consisting of methyl ethyl ketone (MEK), toluene, and mixtures thereof, and preferably methyl ethyl ketone may be used, but is not limited to the above examples.

상기 분산제로는 폴리에스테르 계열의 분산제를 사용할 수 있고, 구체적으로 2-메톡시프로필 아세테이트 및 1-메톡시-2-프로필 아세테이트의 공중합체로 이루어진 폴리에스테르 계열의 분산안정제로서 TEGO-Disperse 670 (제조사: EVONIK)을 사용할 수 있으나, 상기 예시에 국한되지 않고 통상의 기술자에게 자명한 분산제는 제한 없이 모두 사용 가능하다.As the dispersing agent, a polyester-based dispersing agent may be used, and specifically, TEGO-Disperse 670 (manufacturer : EVONIK) can be used, but it is not limited to the above examples, and all dispersants obvious to those skilled in the art can be used without limitation.

상기 코팅 조성물은 기타 첨가제로 안정화제를 추가로 포함할 수 있고, 상기 안정화제는 산화방지제 등을 포함할 수 있으나, 상기 예시에 국한되지 않고 제한 없이 사용 가능하다.The coating composition may further include a stabilizer as other additives, and the stabilizer may include an antioxidant and the like, but is not limited to the above examples and may be used without limitation.

상기 코팅층(1322)을 형성하기 위한, 코팅 조성물은 보다 구체적으로 상기 화학식 1로 표시되는 아크릴계 화합물; 유기 용매, 무기 입자 및 분산제를 포함할 수 있다.The coating composition for forming the coating layer 1322 may more specifically include an acrylic compound represented by Chemical Formula 1; organic solvents, inorganic particles and dispersants.

상기 코팅 조성물은 유기용매 100 중량부에 대하여, 상기 화학식 1로 표시되는 아크릴계 화합물 40 내지 60 중량부, 무기 입자 20 내지 40 중량부 및 분산제 5 내지 15 중량부를 포함할 수 있다. 상기 범위에 의하는 경우 각 구성 성분의 상호 작용에 의한 발수 효과가 임계적 의의가 있는 정도의 상승효과가 발현되며, 상기 범위를 벗어나는 경우 상승효과가 급격히 저하되거나 거의 없게 된다.The coating composition may include 40 to 60 parts by weight of the acrylic compound represented by Formula 1, 20 to 40 parts by weight of inorganic particles, and 5 to 15 parts by weight of a dispersant, based on 100 parts by weight of the organic solvent. In the case of the above range, a synergistic effect is expressed to the extent that the water repellency effect due to the interaction of each component is of critical significance, and when it is out of the above range, the synergistic effect is rapidly reduced or almost nonexistent.

보다 바람직하게, 상기 코팅 조성물의 점도는 1500 내지 1800cP이며, 상기 점도가 1500cP 미만인 경우에는 렌즈(1321)의 표면에 도포하면, 흘러내려 코팅층(1322)의 형성이 용이하지 않은 문제가 있고, 1800cP를 초과하는 경우에는 균일한 코팅층(1322)의 형성이 용이하지 않은 문제가 있다.More preferably, the viscosity of the coating composition is 1500 to 1800 cP, and when the viscosity is less than 1500 cP, when applied to the surface of the lens 1321, there is a problem that it is not easy to form the coating layer 1322 because it flows down, and 1800 cP If it exceeds, there is a problem that it is not easy to form a uniform coating layer 1322 .

[제조예 1: 코팅층의 제조][Preparation Example 1: Preparation of coating layer]

1. 코팅 조성물의 제조1. Preparation of coating composition

메틸에틸케톤에 하기 화학식 1로 표시되는 아크릴계 화합물, 무기입자 및 분산제를 혼합하여, 코팅 조성물을 제조하였다:A coating composition was prepared by mixing methyl ethyl ketone with an acrylic compound represented by Formula 1, inorganic particles, and a dispersant:

[화학식 1][Formula 1]

Figure 112021063843641-pat00002
Figure 112021063843641-pat00002

여기서, here,

n 및 m은 서로 동일하거나 상이하며, 각각 독립적으로 1 내지 100의 정수이며, L1은 바이페닐렌기이다.n and m are the same as or different from each other, each independently represent an integer of 1 to 100, and L 1 is a biphenylene group.

상기 대전방지 조성물의 보다 구체적인 조성은 하기 표 1과 같다. A more specific composition of the antistatic composition is shown in Table 1 below.

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 유기용매organic solvent 100100 100100 100100 100100 100100 아크릴계 화합물acrylic compound 3030 4040 5050 6060 7070 무기입자inorganic particles 1010 2020 3030 4040 5050 분산제dispersant 1One 55 1010 1515 2020

(단위 중량부)(unit weight parts)

2. 코팅층의 제조2. Preparation of coating layer

렌즈(1321)의 일면에 상기 DX1 내지 DX5의 코팅 조성물을 도포 후, 경화시켜 코팅층(1322)을 형성하였다. A coating layer 1322 was formed by applying the coating composition of DX1 to DX5 on one surface of the lens 1321 and then curing the coating composition.

[실험예][Experimental example]

1. 표면 외관에 대한 평가1. Evaluation of surface appearance

코팅 조성물의 점도 차이로 인해, 코팅층(1322)을 제조한 이후, 균일한 표면이 형성되었는지 여부에 대해 관능 평가를 진행하였다. 균일한 코팅층(1322)을 형성하였는지 여부에 대한 평가를 진행하였고, 하기와 같은 기준에 의해 평가를 진행하였다. Due to the difference in viscosity of the coating composition, after the coating layer 1322 was prepared, a sensory evaluation was performed on whether a uniform surface was formed. Evaluation was conducted on whether or not a uniform coating layer 1322 was formed, and the evaluation was conducted according to the following criteria.

○: 균일한 코팅층 형성○: uniform coating layer formation

×: 불균일한 코팅층의 형성×: Formation of non-uniform coating layer

TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 관능 평가sensory evaluation ХХ ХХ

코팅층(1322)을 형성할 때, 일정 점도 미만인 경우에는 렌즈(1321)의 표면에서 흐름이 발생하여, 경화 공정 이후, 균일한 코팅층(1322)의 형성이 어려운 경우가 다수 발생하였다. 이에 따라, 생산 수율이 낮아지는 문제가 발생할 수 있다. 또한, 점도가 너무 높은 경우에도, 조성물의 균일 도포가 어려워 균일한 코팅층(1322)의 형성이 불가하였다.When forming the coating layer 1322, if the viscosity is less than a certain amount, flow occurs on the surface of the lens 1321, and it is difficult to form a uniform coating layer 1322 after the curing process in many cases. Accordingly, a problem of lowering the production yield may occur. In addition, even when the viscosity is too high, it is difficult to uniformly apply the composition and it is impossible to form a uniform coating layer 1322 .

2. 발수각의 측정2. Measurement of water repellency angle

상기 렌즈(1321)의 표면에 코팅층(1322)을 형성한 이후, 발수각을 측정한 결과는 하기 표 3과 같다. After forming the coating layer 1322 on the surface of the lens 1321, the results of measuring the water repellency angle are shown in Table 3 below.

전진 접촉각 (“)Advancing contact angle (“) 정지 접촉각 (“)Static contact angle (“) 후진 접촉각 (“)receding contact angle (“) TX1TX1 117.1±2.9117.1±2.9 112.1±4.1112.1±4.1 < 10< 10 TX2TX2 132.4±1.5132.4±1.5 131.5±2.7131.5±2.7 141.7±3.4141.7±3.4 TX3TX3 138.9±3.0138.9±3.0 138.9±2.7138.9±2.7 139.8±3.7139.8±3.7 TX4TX4 136.9±2.0136.9±2.0 135.6±2.6135.6±2.6 140.4±3.4140.4±3.4 TX5TX5 116.9±0.7116.9±0.7 115.4±3.0115.4±3.0 < 10< 10

상기 표 3에 나타낸 바와 같이, TX1 내지 TX5의 코팅 조성물을 이용하여 코팅층(1322)을 형성한 이후, 접촉각을 측정한 결과를 확인하였다. TX1 및 TX5는 후진 접촉각이 10도 미만으로 측정되었다. 즉, 코팅 조성물을 제조하기 위한 최적의 범위를 벗어나게 되는 경우, 물방울이 피닝(Pinning)되는 현상이 발생하는 것을 확인하였다. 반면 TX2 내지 4에서는 피닝 현상이 발생하지 않음을 확인하여 우수한 방수 효과를 나타낼 수 있음을 확인하였다.As shown in Table 3, after the coating layer 1322 was formed using the coating compositions of TX1 to TX5, the result of measuring the contact angle was confirmed. TX1 and TX5 measured receding contact angles less than 10 degrees. That is, it was confirmed that a phenomenon in which water droplets are pinned occurs when the coating composition is out of the optimal range for preparing the coating composition. On the other hand, it was confirmed that the pinning phenomenon did not occur in TX2 to 4, indicating that excellent waterproofing effect could be exhibited.

3. 내오염성 평가3. Fouling resistance evaluation

도로 주변에 상기 실시예에 따른 코팅층(1322)을 형성한 렌즈(1321)를 모형카메라에 부착하고, 40일 간 방역제가 분사되는 이동 통로 환경에 노출되도록 하였다. 비교예(Con)로는 코팅층(1322)이 형성되지 않은 동일한 렌즈(1321)를 사용하였으며, 각 실시예에 모형카메라는 이동 통로의 동일한 위치에 설치하였다.A lens 1321 having a coating layer 1322 according to the above embodiment formed around the road was attached to a model camera, and exposed to a moving passage environment sprayed with a disinfectant for 40 days. As the comparative example (Con), the same lens 1321 without the coating layer 1322 was used, and in each example, the model camera was installed at the same location of the moving passage.

그 뒤 실험 전후의 렌즈(1321)의 오염 및 부식 정도를 유관으로 평가하였고, 객관적인 비교를 위하여 코팅층(1322)이 형성되지 않은 비교예와 비교하여 그 결과를 1 내지 10의 지수로 평가하여 하기의 표 4에 나타내었다. 하기의 지수는 그 숫자가 낮을수록 내오염성이 우수한 것이다.After that, the degree of contamination and corrosion of the lens 1321 before and after the experiment was evaluated as related, and for objective comparison, the result was compared with a comparative example in which the coating layer 1322 was not formed, and the result was evaluated by an index of 1 to 10, and the following Table 4 shows. In the index below, the lower the number, the better the stain resistance.

ConCon TX1TX1 TX2TX2 TX3TX3 TX4TX4 TX5TX5 내오염성stain resistance 1010 77 33 33 33 88

(단위: 지수)(Unit: index)

상기 표 4를 참조하면, 렌즈(1321)에 코팅층(1322)을 형성하는 경우 외부 환경에 카메라를 설치하면서 렌즈(1321)가 외부로 노출되도록 하여도 높은 내오염성을 오랜 기간 분석하기 용이한 형태로 이미지 데이터를 수집할 수 있다는 점을 알 수 있다. 특히 TX2 내지 TX4에 의하는 경우 코팅층(1322)에 의한 내오염성이 매우 우수하다는 점을 확인할 수 있다.Referring to Table 4, in the case of forming the coating layer 1322 on the lens 1321, even if the lens 1321 is exposed to the outside while installing the camera in the external environment, high fouling resistance can be easily analyzed for a long period of time. It can be seen that image data can be collected. In particular, in the case of TX2 to TX4, it can be confirmed that the contamination resistance by the coating layer 1322 is very excellent.

도 8은 본 발명에 따른 CNN 알고리즘을 나타낸 도면이고, 도 9는 본 발명에 따른 CNN 필터를 나타낸 도면이다. 8 is a diagram showing a CNN algorithm according to the present invention, and FIG. 9 is a diagram showing a CNN filter according to the present invention.

도 8에 따르면, CNN(Convolutional Neural Network) 알고리즘은 이미지 처리 분야에 광범위하게 이용되고 있는 기법이며 행렬로 표현된 필터의 각 요소가 데이터 처리에 적합하도록 자동학습을 지원할 수 있다. 또한, 도 9에 따르면, 필터의 종류와 기능이 나타나 있다. Referring to FIG. 8 , a Convolutional Neural Network (CNN) algorithm is a technique widely used in the field of image processing and can support automatic learning so that each element of a filter represented by a matrix is suitable for data processing. Also, according to FIG. 9, types and functions of filters are shown.

즉, CNN 알고리즘은 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. 또한, CNN 알고리즘은 이미지 분류 정확도를 최대화하는 필터를 자동으로 학습할 수 있으며, 합성곱 계층과 폴링 계층이라고 하는 새로운 층을 풀리 커넥티드 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미지에 대해 분류 연산을 수행할 수 있다. That is, the CNN algorithm may be a learning algorithm using a plurality of layers. In addition, the CNN algorithm can automatically learn a filter that maximizes image classification accuracy, and by adding a new layer called a convolutional layer and a polling layer before the fully connected layer, after applying the filtering technique to the original image, the filtered image A classification operation can be performed on .

도 8에 따르면, CNN 알고리즘은 합성곱 계층 (convolutional layer)과 풀링 계층 (pooling layer)이라고 하는 새로운 층을 fully-connected 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미에 대해 분류 연산이 수행되도록 구성될 수 있다. According to FIG. 8, the CNN algorithm applies a filtering technique to an original image by adding a new layer called a convolutional layer and a pooling layer before the fully-connected layer, and then performs classification operation on the filtered image. It can be configured to do this.

이때, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 1과 같다. At this time, the operation expression for the image filter using the CNN algorithm is as shown in Equation 1 below.

[수학식 1][Equation 1]

Figure 112021063843641-pat00003
Figure 112021063843641-pat00003

(단, (step,

Figure 112021063843641-pat00004
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112021063843641-pat00004
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,

F : 필터, F: filter,

X : 이미지, X: image,

FH: 필터의 높이 (행의 수), F H : height of filter (number of rows),

FW: 필터의 너비 (열의 수)이다. ) F W : The width of the filter (number of columns). )

바람직하게는, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 2과 같다. Preferably, the operation expression for the image filter using the CNN algorithm is as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure 112021063843641-pat00005
Figure 112021063843641-pat00005

(단, (step,

Figure 112021063843641-pat00006
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112021063843641-pat00006
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,

Figure 112021063843641-pat00007
: 응용 필터
Figure 112021063843641-pat00007
: Application filter

X : 이미지, X: image,

F'H: 응용 필터의 높이 (행의 수), F'H : height of application filter (number of rows),

F'W: 응용 필터의 너비 (열의 수)이다.) F' W : The width (number of columns) of the application filter.)

바람직하게는,

Figure 112021063843641-pat00008
는 응용 필터로서 광 이미지로부터 타겟을 인식하고, 타겟의 얼굴 영역을 인식하기 위한 필터일 수 있다. 특히, 방역제가 분사되는 중에 이동 통로를 이동하는 타겟을 인식하기 위해서는, 보다 효과적인 응용 필터가 필요할 수 있다. 이러한 필요성을 충족하기 위하여 응용 필터
Figure 112021063843641-pat00009
는 아래의 수학식 3에 의하여 연산될 수 있다.Preferably,
Figure 112021063843641-pat00008
is an applied filter, and may be a filter for recognizing a target from an optical image and recognizing a face region of the target. In particular, a more effective application filter may be required to recognize a target moving along a moving path while the disinfectant is being sprayed. Application filters to meet these needs
Figure 112021063843641-pat00009
Can be calculated by Equation 3 below.

[수학식 3] [Equation 3]

Figure 112021063843641-pat00010
Figure 112021063843641-pat00010

(단,

Figure 112021063843641-pat00011
: 필터,
Figure 112021063843641-pat00012
: 계수,
Figure 112021063843641-pat00013
: 응용 필터)(step,
Figure 112021063843641-pat00011
: filter,
Figure 112021063843641-pat00012
: Coefficient,
Figure 112021063843641-pat00013
: application filter)

바람직하게는, 본 발명에 따른 각

Figure 112021063843641-pat00014
에 따른 필터는 도 9에 따른 엣지 인식 필터(Edge detection), 샤픈 필터(sharpen) 및 박스 블러 필터(Box blur) 중 어느 하나의 행렬일 수 있다. Preferably, each according to the present invention
Figure 112021063843641-pat00014
The filter according to may be a matrix of any one of an edge detection filter according to FIG. 9, a sharpen filter, and a box blur filter.

바람직하게,

Figure 112021063843641-pat00015
를 구하는 연산식은 아래의 수학식 4와 같다. 이때,
Figure 112021063843641-pat00016
는 필터의 효율을 높이기 위하여 사용되는 하나의 변수로서 해석될 수 있으며, 그 단위는 무시될 수 있다. Preferably,
Figure 112021063843641-pat00015
The operation expression for obtaining is as shown in Equation 4 below. At this time,
Figure 112021063843641-pat00016
can be interpreted as a variable used to increase the efficiency of the filter, and its unit can be ignored.

[수학식 4][Equation 4]

Figure 112021063843641-pat00017
Figure 112021063843641-pat00017

단, 이미지 촬영에 사용된 카메라의 렌즈의 직경(지름)은 mm 단위이고, 방역제 분사량은 분사액 부피(L)/초(s) 단위이고, 방역제 농도는 분사되는 방역 성분 무게(g)/용액 부피(L)인 질량 농도값일 수 있다. However, the diameter (diameter) of the lens of the camera used to take the image is in mm, the amount of disinfectant spray is in spray volume (L) / second (s), and the disinfectant concentration is in sprayed quarantine ingredient weight (g) / It can be a mass concentration value that is a solution volume (L).

[실험예][Experimental example]

본 발명에 따른 열화상 이미지에 대하여, 본 발명의 응용 필터 F'를 적용하는 경우에 생성된 타겟의 안면의 위치에 대한 인식 결과를 살펴보면 아래와 같다. 아래 표는 해당 기술분야 종사자에 의뢰하여, 필터 적용 여부 등에 따라 인식 결과의 정확도를 수치로서 나타낸 것이다. 단, 방역제의 종류는 결과값에 영향을 미치지 않는다고 가정한다. Regarding the thermal image according to the present invention, when the application filter F' of the present invention is applied, the result of recognizing the position of the face of the target is as follows. The table below shows the accuracy of the recognition result as a numerical value, depending on whether a filter is applied or not, requested by a person in the relevant technical field. However, it is assumed that the type of disinfectant does not affect the result.

필터 적용 없음no filter applied 필터

Figure 112021063843641-pat00018
적용filter
Figure 112021063843641-pat00018
apply 필터
Figure 112021063843641-pat00019
적용
filter
Figure 112021063843641-pat00019
apply
일치도 (점수)Match (score) 4949 6262 8787

상기 표 5는 전문가로부터 평가된 일치도에 대한 점수를 각 케이스별로 나타낸 것이다. 본 실험예는 100개의 샘플을 기초로 타겟의 안면 위치를 인식한 결과와 실제 타겟의 얼굴 위치의 일치도를 100점 만점으로 측정한 것이다. Table 5 shows the scores for concordance evaluated by experts for each case. In this experimental example, the degree of agreement between the result of recognizing the target's face position and the actual target's face position based on 100 samples is measured out of 100 points.

표 5에서 확인할 수 있는 것과 같이, 필터 적용 없는 경우, 방역제가 분사되는 등 타겟의 인식에 방해되는 요소에 의하여, 상대적으로 일치도가 낮게 평가되었다. 이에 비하여, 일반 CNN 필터 F를 적용한 경우는 다소 일치성이 높았으나, 응용 필터 F'를 적용하는 경우의 일치도가 현저하게 향상되는 것이 확인된다. As can be seen in Table 5, when the filter is not applied, the degree of coincidence is evaluated relatively low due to factors that interfere with target recognition, such as spraying of a disinfectant. In contrast, when the general CNN filter F was applied, the consistency was somewhat high, but when the applied filter F' was applied, the agreement was significantly improved.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 또 다른 일 실시예에 따른, 인공지능 기반 살균 게이트 제어 방법에 관하여 상세히 설명하면 다음과 같다. Hereinafter, an artificial intelligence-based sterilization gate control method according to another preferred embodiment of the present specification will be described in detail based on the above information.

이때, 본 발명에 따른 인공지능 기반 살균 게이트 제어 방법을 수행하는 주체는 본 발명에 따른 제어부(도 1의 200) 또는 프로세서일 수 있다. At this time, the subject performing the artificial intelligence-based sterilization gate control method according to the present invention may be a controller (200 in FIG. 1) or a processor according to the present invention.

도 10은 본 발명에 따른 인공지능 기반 살균 게이트 제어 방법을 나타낸 도면이다. 10 is a diagram showing an artificial intelligence-based sterilization gate control method according to the present invention.

도 10에 따르면, 본 발명에 따른 인공지능 기반 살균 게이트 제어 방법은 인식부로부터 타겟을 포함하는 깊이 이미지 및 열화상 이미지를 수신하는 단계(S1100), 상기 깊이 이미지로부터 상기 타겟의 신장 및 상기 타겟의 체형 정보를 도출하는 단계(S1200), 상기 열화상 이미지로부터 상기 타겟의 안면 위치 정보 및 상기 타겟의 온도 정보를 도출하는 단계(S1300), 상기 타겟의 안면 위치 정보를 기초로 방역제를 분사하도록 분사 노즐을 제어하는 단계(S1400), 상기 방역제의 사용량을 도출하는 단계(S1500) 및 상기 사용량, 상기 타겟의 신장 정보, 상기 타겟의 체형 정보, 상기 타겟의 안면 위치 정보 및 상기 타겟의 온도 정보를 기록하는 단계(S1600)를 포함할 수 있다. According to FIG. 10, the artificial intelligence-based sterilization gate control method according to the present invention includes receiving a depth image including a target and a thermal image from a recognition unit (S1100), elongation of the target from the depth image, and Deriving body shape information (S1200), deriving facial location information and temperature information of the target from the thermal image (S1300), spraying a disinfectant based on the facial location information of the target Controlling the nozzle (S1400), deriving the amount of the disinfectant agent (S1500), and the amount, height information of the target, body shape information of the target, facial position information of the target, and temperature information of the target A recording step (S1600) may be included.

인식부로부터 타겟을 포함하는 깊이 이미지 및 열화상 이미지를 수신하는 단계(S1100)는 깊이 카메라 및 열화상 카메라로부터 깊이 이미지 및 열화상 이미지를 수신하는 단계일 수 있다. Receiving a depth image and a thermal image including a target from the recognizing unit ( S1100 ) may be a step of receiving a depth image and a thermal image from a depth camera and a thermal image camera.

상기 타겟의 신장 및 상기 타겟의 체형 정보를 도출하는 단계(S1200)는 깊이 이미지로부터 타겟을 인식하고, 기준 물체를 인식하며, 기준 물체의 미리 정해진 높이를 기초로 타겟의 신장을 도출할 수 있다. 또한, 상기 타겟의 신장 및 상기 타겟의 체형 정보를 도출하는 단계(S1200)는 기준 물체의 미리 정해진 너비를 기초로 타겟의 체형을 도출할 수 있다. 타겟의 체형은 대략적으로 인식되며, 기준 물체의 너비에 대한 타겟의 몸통의 너비를 기초로 정의될 수 있다. In the step of deriving the height of the target and the body shape information of the target ( S1200 ), the target may be recognized from the depth image, a reference object may be recognized, and the height of the target may be derived based on a predetermined height of the reference object. In addition, in the step of deriving the height of the target and the body shape information of the target (S1200), the body shape of the target may be derived based on the predetermined width of the reference object. The body shape of the target is recognized approximately and can be defined based on the width of the body of the target relative to the width of the reference object.

상기 타겟의 안면 위치 정보 및 상기 타겟의 온도 정보를 도출하는 단계(S1300)는 비전 인식 알고리즘을 상기 열화상 이미지에 적용하여 상기 타겟의 안면 위치를 인식하고, 상기 비전 인식 알고리즘은 따른 복수의 레이어를 사용하는 CNN 학습 알고리즘이고, 상기 CNN 학습 알고리즘은 상기 열화상 이미지에 대하여 적용되는 이미지 필터를 포함할 수 있다. In the step of deriving the target's facial location information and the target's temperature information (S1300), a vision recognition algorithm is applied to the thermal image to recognize the target's facial location, and a plurality of layers according to the vision recognition algorithm are generated. A CNN learning algorithm to be used, and the CNN learning algorithm may include an image filter applied to the thermal image.

상기 타겟의 안면 위치 정보를 기초로 방역제를 분사하도록 분사 노즐을 제어하는 단계(S1400)는 타겟의 안면에 방역제가 분사되지 않도록 타겟의 안면의 위치를 제외하고 나머지 영역에 대하여만 방역제를 분사하도록 분사 노즐을 제어하는 단계일 수 있다. In the step of controlling the spray nozzle to spray the disinfectant based on the facial location information of the target (S1400), the disinfectant is sprayed only to the remaining area except for the position of the target's face so that the disinfectant is not sprayed on the target's face. It may be a step of controlling the spray nozzle to do so.

상기 방역제의 사용량을 도출하는 단계(S1500)는 기준 시간당 분사 노즐을 통하여 분사되는 방역제의 사용량을 도출하는 단계일 수 있다. 구체적으로, 본 발명은 타겟이 되는 대상 인원을 추가로 인식하고, 대상 인원을 기초로 방역제의 사용량을 도출할 수 있다. 일 예로, 본 발명은 기준 시간당 10L의 방역제를 분사한 경우, 대상 인원에 따라 1인당 분사한 방역제를 도출할 수 있다. The step of deriving the usage amount of the disinfectant (S1500) may be a step of deriving the usage amount of the disinfectant sprayed through the spray nozzle per standard time. Specifically, the present invention can additionally recognize the target number of people and derive the usage amount of the disinfectant based on the target number of people. For example, in the case of spraying 10L of the disinfectant per standard time, the present invention can derive the disinfectant sprayed per person according to the target number of people.

상기 사용량, 상기 타겟의 신장 정보, 상기 타겟의 체형 정보, 상기 타겟의 안면 위치 정보 및 상기 타겟의 온도 정보를 기록하는 단계(S1600)는 메모리에 해당 데이터들을 기록하고, 기록된 데이터들을 기초로 머신러닝을 수행하여 방역제의 사용량을 예측할 수 있다. In the step of recording the usage amount, height information of the target, body shape information of the target, facial position information of the target, and temperature information of the target (S1600), the corresponding data is recorded in a memory, and the machine is based on the recorded data. It is possible to predict the usage amount of the disinfectant by performing running.

예측하기 위하여, 본 발명에 따른 인공지능 기반 살균 게이트 제어 방법은 기록된 데이터들을 기초로 회기 알고리즘을 통한 방역제 사용량을 예측하는 단계(S1700)를 더 포함할 수 있다. To predict, the artificial intelligence-based sterilization gate control method according to the present invention may further include predicting the amount of disinfectant used through a regression algorithm based on the recorded data (S1700).

상기 방역제 사용량을 예측하는 단계(S1700)는 선형 회귀, 가우시안 프로세스 회기 및 칼만 필터 중 적어도 하나를 사용하여 기록된 결과 데이터를 기초로 방역제 사용량을 예측할 수 있다. In the step of predicting the disinfectant usage amount (S1700), the disinfectant usage amount may be predicted based on the recorded result data using at least one of linear regression, Gaussian process regression, and Kalman filter.

또한, 본 발명에 따른 인공지능 기반 살균 게이트 제어 방법은 상술한 본 발명의 일 실시예에 따른 인공지능 기반 살균 게이트 제어 시스템에 대하여 설명한 내용과 동일한 특징을 가질 수 있어, 중복되는 내용은 생략될 수 있다. In addition, the artificial intelligence-based sterilization gate control method according to the present invention may have the same features as those described for the artificial intelligence-based sterilization gate control system according to an embodiment of the present invention, so that redundant information may be omitted. there is.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-described present invention can be modeled as a computer readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. there is Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.

앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not mutually exclusive or distinct. Certain or other embodiments of the present invention described above may be used in combination or combination of respective configurations or functions.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

100: 스마트 게이트
110: 인식부
120: 분사 노즐
200: 제어부
100: smart gate
110: recognition unit
120: injection nozzle
200: control unit

Claims (7)

타겟의 이동 통로를 형성하고, 상기 타겟을 인식하며, 상기 타겟을 향하여 방역제를 분사하는 스마트 게이트; 및
상기 스마트 게이트를 제어하는 제어부;를 포함하되,
상기 스마트 게이트는,
상기 타겟을 인식하기 위한 인식부; 및
상기 타겟을 향하여 상기 방역제를 분사하기 위한 분사 노즐;을 포함하고,
상기 인식부는,
상기 타겟의 형태를 인식하기 위한 깊이 카메라; 및
상기 타겟의 온도를 인식하기 위한 열화상 카메라;를 포함하고,
상기 제어부는,
상기 인식부에 의하여 인식된 결과를 기초로, 상기 방역제를 상기 타겟을 향하여 분사하도록 상기 분사 노즐을 제어하고, 상기 인식된 결과 및 상기 방역제의 사용량을 기록하되,
상기 인식부에 의하여 상기 타겟의 안면 위치를 인식하고, 상기 안면 위치를 기초로 상기 방역제를 분사하고,
상기 깊이 카메라로부터 상기 타겟을 포함하는 깊이 이미지를 수신하고, 상기 열화상 카메라로부터 상기 타겟을 포함하는 열화상 이미지를 수신하며, 상기 깊이 이미지로부터 상기 타겟의 신장 및 상기 타겟의 체형을 인식하고, 상기 열화상 이미지로부터 상기 타겟의 안면 위치 및 상기 타겟의 온도를 인식하며,
비전 인식 알고리즘을 상기 열화상 이미지에 적용하여 상기 타겟의 안면 위치를 인식하고,
상기 비전 인식 알고리즘은 따른 복수의 레이어를 사용하는 CNN 학습 알고리즘이고, 상기 CNN 학습 알고리즘은 상기 열화상 이미지에 대하여 적용되는 하기의 식 2에 따른 이미지 필터를 포함하는 것
인공지능 기반 살균 게이트 시스템.
[식 2]
Figure 112023007119131-pat00030

(단,
Figure 112023007119131-pat00031
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112023007119131-pat00032
: 응용 필터로서 하기의 식 3이 적용된 것이다.
Figure 112023007119131-pat00033
: 이미지,
Figure 112023007119131-pat00034
: 응용 필터의 높이 (행의 수),
Figure 112023007119131-pat00035
: 응용 필터의 너비 (열의 수)이다.)
[식 3]
Figure 112023007119131-pat00036

(단,
Figure 112023007119131-pat00037
: 필터,
Figure 112023007119131-pat00038
: 하기의 식 4에 따라 도출되는 계수,
Figure 112023007119131-pat00039
: 응용 필터)
[식 4]
Figure 112023007119131-pat00040
A smart gate that forms a passage for a target, recognizes the target, and injects a disinfectant toward the target; and
Including; a control unit for controlling the smart gate;
The smart gate,
a recognition unit for recognizing the target; and
Including; spray nozzle for spraying the disinfectant toward the target,
The recognition unit,
a depth camera for recognizing the shape of the target; and
Including; a thermal imaging camera for recognizing the temperature of the target,
The control unit,
Based on the result recognized by the recognition unit, control the spray nozzle to spray the disinfectant toward the target, record the recognized result and the amount of the disinfectant,
Recognizing the face position of the target by the recognition unit, spraying the disinfectant based on the face position,
Receiving a depth image including the target from the depth camera, receiving a thermal image including the target from the thermal imaging camera, recognizing the height of the target and the body shape of the target from the depth image, recognizing the facial position of the target and the temperature of the target from the thermal image;
Recognizing the facial position of the target by applying a vision recognition algorithm to the thermal image;
The vision recognition algorithm is a CNN learning algorithm using a plurality of layers according to, and the CNN learning algorithm includes an image filter according to Equation 2 below applied to the thermal image.
AI-based sterilization gate system.
[Equation 2]
Figure 112023007119131-pat00030

(step,
Figure 112023007119131-pat00031
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,
Figure 112023007119131-pat00032
: As an applied filter, Equation 3 below is applied.
Figure 112023007119131-pat00033
: image,
Figure 112023007119131-pat00034
: height of application filter (number of rows),
Figure 112023007119131-pat00035
: The width (number of columns) of the application filter.)
[Equation 3]
Figure 112023007119131-pat00036

(step,
Figure 112023007119131-pat00037
: filter,
Figure 112023007119131-pat00038
: Coefficient derived according to Equation 4 below,
Figure 112023007119131-pat00039
: application filter)
[Equation 4]
Figure 112023007119131-pat00040
삭제delete 삭제delete 삭제delete 제어부가 인식부로부터 타겟을 포함하는 깊이 이미지 및 열화상 이미지를 수신하는 단계;
제어부에서 상기 깊이 이미지로부터 상기 타겟의 신장 및 상기 타겟의 체형 정보를 도출하는 단계;
제어부에서 상기 열화상 이미지로부터 상기 타겟의 안면 위치 정보 및 상기 타겟의 온도 정보를 도출하는 단계;
제어부에서 상기 타겟의 안면 위치 정보를 기초로 방역제를 분사하도록 분사 노즐을 제어하는 단계;
제어부에서 상기 방역제의 사용량을 도출하는 단계; 및
제어부가 상기 사용량, 상기 타겟의 신장 정보, 상기 타겟의 체형 정보, 상기 타겟의 안면 위치 정보 및 상기 타겟의 온도 정보를 기록하는 단계;를 포함하고,
상기 타겟의 안면 위치 정보 및 상기 타겟의 온도 정보를 도출하는 단계는,
비전 인식 알고리즘을 상기 열화상 이미지에 적용하여 상기 타겟의 안면 위치를 인식하고,
상기 비전 인식 알고리즘은 따른 복수의 레이어를 사용하는 CNN 학습 알고리즘이고, 상기 CNN 학습 알고리즘은 상기 열화상 이미지에 대하여 적용되는 하기의 식 2에 따른 이미지 필터를 포함하는 것인,
인공지능 기반 살균 게이트 제어 방법.
[식 2]
Figure 112023501315970-pat00041

(단,
Figure 112023501315970-pat00042
: 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀,
Figure 112023501315970-pat00043
: 응용 필터로서 하기의 식 3이 적용된 것이다.
Figure 112023501315970-pat00044
: 이미지,
Figure 112023501315970-pat00045
: 응용 필터의 높이 (행의 수),
Figure 112023501315970-pat00046
: 응용 필터의 너비 (열의 수)이다.)
[식 3]
Figure 112023501315970-pat00047

(단,
Figure 112023501315970-pat00048
: 필터,
Figure 112023501315970-pat00049
: 하기의 식 4에 따라 도출되는 계수,
Figure 112023501315970-pat00050
: 응용 필터)
[식 4]
Figure 112023501315970-pat00051
receiving, by a control unit, a depth image and a thermal image including a target from a recognizing unit;
deriving height and body shape information of the target from the depth image by a controller;
deriving facial location information of the target and temperature information of the target from the thermal image by a controller;
Controlling a spray nozzle to spray a disinfectant based on facial position information of the target by a controller;
Deriving the amount of the disinfectant used by the control unit; and
Recording, by a controller, the amount of use, height information of the target, body shape information of the target, facial position information of the target, and temperature information of the target;
The step of deriving the target's face location information and the target's temperature information,
Recognizing the facial position of the target by applying a vision recognition algorithm to the thermal image;
The vision recognition algorithm is a CNN learning algorithm using a plurality of layers according to, and the CNN learning algorithm includes an image filter according to Equation 2 below applied to the thermal image,
AI-based sterilization gate control method.
[Equation 2]
Figure 112023501315970-pat00041

(step,
Figure 112023501315970-pat00042
: pixels in the i-th row and j-th column of the filtered image expressed as a matrix,
Figure 112023501315970-pat00043
: As an applied filter, Equation 3 below is applied.
Figure 112023501315970-pat00044
: image,
Figure 112023501315970-pat00045
: height of application filter (number of rows),
Figure 112023501315970-pat00046
: The width (number of columns) of the application filter.)
[Equation 3]
Figure 112023501315970-pat00047

(step,
Figure 112023501315970-pat00048
: filter,
Figure 112023501315970-pat00049
: Coefficient derived according to Equation 4 below,
Figure 112023501315970-pat00050
: application filter)
[Equation 4]
Figure 112023501315970-pat00051
삭제delete 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서,
상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 제5항의 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체.
A non-transitory computer readable medium storing instructions,
The instructions, when executed by a processor, cause the processor to perform the method of claim 5.
KR1020210071592A 2021-06-02 2021-06-02 System and method for controlling of sterilization gate based on artificial intelligence KR102551473B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210071592A KR102551473B1 (en) 2021-06-02 2021-06-02 System and method for controlling of sterilization gate based on artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210071592A KR102551473B1 (en) 2021-06-02 2021-06-02 System and method for controlling of sterilization gate based on artificial intelligence

Publications (2)

Publication Number Publication Date
KR20220163094A KR20220163094A (en) 2022-12-09
KR102551473B1 true KR102551473B1 (en) 2023-07-04

Family

ID=84440422

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210071592A KR102551473B1 (en) 2021-06-02 2021-06-02 System and method for controlling of sterilization gate based on artificial intelligence

Country Status (1)

Country Link
KR (1) KR102551473B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100554129B1 (en) * 2003-12-19 2006-02-20 노틸러스효성 주식회사 System and method for authenticating person using human body's heat
KR101956143B1 (en) * 2018-07-04 2019-03-12 주식회사 프로젝트 융 Air shower gate
KR102215883B1 (en) * 2020-05-07 2021-02-18 주식회사 큐어텍 Gate type sterilization device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140032933A (en) * 2010-09-07 2014-03-17 펜드레드, 아이엔씨. Systems, apparatus, methods and articles for use in sanitization or disinfection
KR20170011266A (en) * 2015-07-22 2017-02-02 진준태 Sterilization Booth System with Thermo sensing doors
KR102182543B1 (en) 2020-03-16 2020-11-30 장현실 Artificial intelligence system for prevention of epidemics

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100554129B1 (en) * 2003-12-19 2006-02-20 노틸러스효성 주식회사 System and method for authenticating person using human body's heat
KR101956143B1 (en) * 2018-07-04 2019-03-12 주식회사 프로젝트 융 Air shower gate
KR102215883B1 (en) * 2020-05-07 2021-02-18 주식회사 큐어텍 Gate type sterilization device

Also Published As

Publication number Publication date
KR20220163094A (en) 2022-12-09

Similar Documents

Publication Publication Date Title
CN107544550B (en) Unmanned aerial vehicle automatic landing method based on visual guidance
CN106485735A (en) Human body target recognition and tracking method based on stereovision technique
CN108828500A (en) Unmanned plane accurately lands bootstrap technique and Related product
CN107139666B (en) Obstacle detouring identifying system and method
WO2019006760A1 (en) Gesture recognition method and device, and movable platform
KR101555589B1 (en) Method of controlling a cleaner
CN108394814A (en) Gantry crane cart based on image recognition guides system and method
JP2008040677A (en) Own-location estimation device
CN110044212A (en) The rotor wing unmanned aerial vehicle of view-based access control model metrical information arrests recovery method
KR20110030951A (en) Apparatus and method for detecting a motion
KR102099187B1 (en) Indoor cleaning drone system and operating method
KR102551473B1 (en) System and method for controlling of sterilization gate based on artificial intelligence
CN106175780A (en) Facial muscle motion-captured analysis system and the method for analysis thereof
CN114415736A (en) Multi-stage visual accurate landing method and device for unmanned aerial vehicle
CN109143167B (en) Obstacle information acquisition device and method
EP3690390A1 (en) Electronic nose positioning device and positioning method
CN115717867A (en) Bridge deformation measurement method based on airborne double cameras and target tracking
CN116745580A (en) System for determining non-stationary objects in physical space
CN109670391B (en) Intelligent lighting device based on machine vision and dynamic identification data processing method
CN107199139B (en) The method of foreign matter on apparatus for coating and detection substrate
JP4368254B2 (en) Automatic opening / closing door device
CN110287957B (en) Low-slow small target positioning method and positioning device
KR102516967B1 (en) Facial recognition thermometer and method for measuring body temperature using the same
KR102596992B1 (en) SYSTEM FOR ENFORCEMENT OF unauthorized PARKED VEHICLE BASED ON AUTONOMOUS DRIVING
KR100621415B1 (en) System and method for detecting the self-position of a mobile robot

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant