KR102566188B1 - System for providing missing person management service based on artificial intelligence - Google Patents

System for providing missing person management service based on artificial intelligence Download PDF

Info

Publication number
KR102566188B1
KR102566188B1 KR1020220071000A KR20220071000A KR102566188B1 KR 102566188 B1 KR102566188 B1 KR 102566188B1 KR 1020220071000 A KR1020220071000 A KR 1020220071000A KR 20220071000 A KR20220071000 A KR 20220071000A KR 102566188 B1 KR102566188 B1 KR 102566188B1
Authority
KR
South Korea
Prior art keywords
ward
prohibited
behavior
user terminal
management service
Prior art date
Application number
KR1020220071000A
Other languages
Korean (ko)
Inventor
조용경
Original Assignee
아키큐플러스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아키큐플러스 주식회사 filed Critical 아키큐플러스 주식회사
Priority to KR1020220071000A priority Critical patent/KR102566188B1/en
Application granted granted Critical
Publication of KR102566188B1 publication Critical patent/KR102566188B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0261System arrangements wherein the object is to detect trespassing over a fixed physical boundary, e.g. the end of a garden
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0269System arrangements wherein the object is to detect the exact location of child or item using a navigation satellite system, e.g. GPS
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/006Alarm destination chosen according to type of event, e.g. in case of fire phone the fire service, in case of medical emergency phone the ambulance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00326Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus
    • H04N1/00328Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information
    • H04N1/00336Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information with an apparatus performing pattern recognition, e.g. of a face or a geographic feature
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Emergency Management (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Marketing (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • General Business, Economics & Management (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Alarm Systems (AREA)

Abstract

Provided is an AI-based missing person management service provision system which comprises: a user terminal registering a facial image, body image, and information of a protected person, receiving a result of tracking the real-time movement of the protected person, and outputting the same on a map; and a management service provision server including a storage unit registering and storing the facial images, body images, and information of the protected person from the user terminal, a prohibited zone setting unit setting at least one prohibited zone and setting an alarm to sound when the protected person goes into the at least one prohibited zone, a prohibited behavior setting unit setting at least one prohibited behavior and setting the alarm to sound when the protected person performs the at least one prohibited behavior, and an alarm unit guiding the real-time movement of the protected person to the user terminal and transmitting the alarm to the user terminal when entering the prohibited zone or performing the prohibited behavior. According to the present invention, not only elderly people with dementia and missing people but also cases where people attempt suicide or are drunk and are homeless can be identified through object detection.

Description

AI 기반 실종자 관리 서비스 제공 시스템{SYSTEM FOR PROVIDING MISSING PERSON MANAGEMENT SERVICE BASED ON ARTIFICIAL INTELLIGENCE}AI-based missing person management service provision system {SYSTEM FOR PROVIDING MISSING PERSON MANAGEMENT SERVICE BASED ON ARTIFICIAL INTELLIGENCE}

본 발명은 AI 기반 실종자 관리 서비스 제공 시스템에 관한 것으로, AI 기반으로 실종자의 위치를 실시간으로 맵핑하고 금지구역에 진입하거나 금지행동을 하는 경우 즉시 알람을 울리는 시스템을 제공한다.The present invention relates to a system for providing an AI-based missing person management service, and provides a system that maps the location of a missing person in real time based on AI and immediately sounds an alarm when entering a prohibited area or performing a prohibited action.

한국은 급속하게 고령화가 진행 중이며 노인인구가 많아짐에 따라 치매인구의 수는 점차 증가하는 추세이다. 치매는 점차적으로 인지기능이 저하되어 기억력 장애와 언어장애가 나타나고 중기 이후에는 우울을 비롯한 정신적 증상과 폭력, 의심, 욕설 등의 물리적, 언어적 공격행위와 배회, 일몰증후군 등의 행동적 증상들을 수반하게 된다. 치매환자에게서 나타나는 배회 행동은 공간적 기억이 손상되어 길을 찾는 능력이 감소되면서 나타나는 것으로, 치매환자의 인지기능이 손상될수록 배회행동이 증가하는 경향이 있다. 치매노인을 돌보는 가족은 치매환자 간호에서 가장 어려운 문제행동이 배회행동이라고 보고하였으며, 치매노인의 배회행동을 강제로 저지하는 것 때문에 치매노인과 가족과의 갈등이 심화되기도 한다. 치매노인의 배회행동은 가족의 주요 스트레스 요인으로, 결국 노인요양시설에 입소하는 치매노인의 주된 원인은 배회행동인데, 이러한 배회행동은 길을 잃거나 상해를 입는 심각한 결과 또는 익사, 자동차 사고, 골절상 등 단순 사고에서부터 죽음에 이르게 되는 치명적인 결과를 초래한다. Korea is rapidly aging, and as the elderly population increases, the number of people with dementia is gradually increasing. Dementia gradually deteriorates cognitive function, resulting in memory impairment and language impairment, and after the middle period, it is accompanied by mental symptoms including depression, physical and verbal aggression such as violence, suspicion, and swearing, and behavioral symptoms such as wandering and sunset syndrome. do. Wandering behavior in patients with dementia is caused by a decrease in the ability to find one's way due to impaired spatial memory. Families caring for the elderly with dementia reported that the most difficult problem behavior in nursing patients with dementia was wandering behavior, and conflicts between the elderly with dementia and their families intensified due to forcibly stopping the wandering behavior of the elderly with dementia. The wandering behavior of the elderly with dementia is a major stress factor for the family, and the main cause of the elderly with dementia entering the elderly care facility is the wandering behavior. It can lead to fatal consequences ranging from simple accidents to death.

이때, 피보호자의 위치를 파악하기 위하여 CCTV와 연동하여 스마트 태그 및 얼굴 인식을 이용하는 방법이 연구 및 개발되었는데, 이와 관련하여 선행기술인 한국등록특허 제10-1482658호(2015년01월15일 공고) 및 한국등록특허 제10-2039277호(2019년10월31일 공고)에는, 피보호자가 소지하는 스마트 태그, CCTV에서 스마트 태그를 태깅할 수 있는 리더를 구비하며, CCTV의 리더에서 스마트 태그가 태깅된 경우 CCTV 화면을 관제센터로 전송하는 구성과, 보행로를 지나가는 보행자의 얼굴을 획득한 후, 등록된 대상자의 얼굴과 비교하여 이벤트 발생여부를 판별하여 그 결과를 업로드하는 구성이 각각 개시되어 있다.At this time, in order to determine the location of the ward, a method of using smart tags and face recognition in conjunction with CCTV has been researched and developed. Korean Patent Registration No. 10-2039277 (published on October 31, 2019) includes a smart tag possessed by a ward and a reader capable of tagging a smart tag in CCTV, and when the smart tag is tagged in the CCTV reader A configuration for transmitting a CCTV screen to a control center and a configuration for obtaining a face of a pedestrian passing through a pedestrian path, comparing it with the face of a registered subject, determining whether an event has occurred, and uploading the result are disclosed.

다만, 전자의 경우 피보호자가 스마트 태그를 반드시 소지해야 하는데 자신의 집도 찾아가지 못하는 상황에서 스마트 태그를 반드시 소지할 확률은 희박하다. 후자의 경우에도 얼굴을 식별하는 것은 기 설정된 거리 내에 위치하거나 화질 또는 밝기가 보장되어야 식별하는데 어두운 저녁이나 화질이 좋지 않은 상황 또는 빛에 의해 번지는 화면 등에서는 얼굴 자체를 식별하기가 매우 어려워져 현실성이 떨어진다. 최근 e-나라 지표의 경찰청 내부 행정자료인 실종 치매환자 신고접수 및 처리현황을 살펴보면, 치매로 인한 실종이 최근 5년 동안 72%이상 증가했고, 이러한 실종을 예방하기 위한 사회서비스로 배회가능 어르신 인식표 보급사업, 치매체크 앱 배회감지 서비스, 노인장기요양보험의 배회감지기 급여, 경찰청 실종경보문자 등을 시행하고 있으나 여전히 치매노인을 찾기란 쉬운 일이 아니다. 이에, 치매노인을 포함한 실종자의 실시간 위치를 파악하고, 금지구역에 진입하거나 금지행동을 하는 경우 알람을 울리도록 하는 시스템의 연구 및 개발이 요구된다.However, in the case of the former case, the ward must possess the smart tag, but the probability of possessing the smart tag is slim in a situation where the ward cannot visit his or her house. Even in the latter case, face identification is identified only when it is located within a preset distance or when quality or brightness is guaranteed. However, it is very difficult to identify the face itself in a dark evening, poor picture quality, or a screen smeared by light. it falls Looking at the recent e-Nara index, the National Police Agency's internal administrative data, the status of reports and processing of missing patients with dementia, the number of missing people due to dementia has increased by more than 72% over the past 5 years, and social services to prevent these disappearances have led to identification tags for elderly people who can roam around. Distribute business, dementia check app wandering detection service, long-term care insurance for the elderly, loitering detector payment, National Police Agency missing alert text messages, etc. are being implemented, but it is still not easy to find an elderly person with dementia. Accordingly, research and development of a system that detects the real-time location of a missing person, including an elderly person with dementia, and sounds an alarm when entering a prohibited area or performing a prohibited action, is required.

본 발명의 일 실시예는, 사용자 단말에서 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록한 경우, 피보호자의 실시간 위치를 맵핑하여 안내하고, 금지구역에 진입하거나 금지행동을 하는 경우 알람을 제공하며 위치를 함께 제공함으로써 사용자가 24/7 피보호자를 보호하지 않고 생계활동에 집중할 수 있도록 도와주며, 등록되지 않은 피보호자라고 할지라도 실종 이벤트가 발생하는 경우 동일한 프로세스로 실시간 위치를 추적할 수 있도록 하고, 치매노인 및 실종자 뿐 아니라, 자살을 시도하거나 술에 취해 노숙하는 경우를 객체탐지로 파악할 수 있는, AI 기반 실종자 관리 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.An embodiment of the present invention, when the user terminal registers the ward's face image, body image, and ward information, maps and guides the ward's real-time location, provides an alarm when entering a prohibited area or performs a prohibited action, and provides location By providing together, it helps users to focus on livelihood activities without protecting their wards 24/7, and even if they are unregistered wards, they can track their location in real time with the same process in the event of a missing person, elderly people with dementia And it is possible to provide an AI-based missing person management service providing system that can identify not only the missing person, but also a case of attempting suicide or being drunk and staying homeless through object detection. However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록하고, 피보호자의 실시간 동선을 추적한 결과를 수신하여 지도상에 출력하는 사용자 단말 및 사용자 단말로부터 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록받아 저장하는 저장부, 적어도 하나의 금지구역을 설정하여 적어도 하나의 금지구역에 피보호자가 진입한 경우 알람을 울리도록 설정하는 금지구역설정부, 적어도 하나의 금지행동을 설정하여 적어도 하나의 금지행동을 피보호자가 하는 경우 알람을 울리도록 설정하는 금지행동설정부, 사용자 단말로 피보호자의 실시간 동선을 안내하고 금지구역에 진입하거나 금지행동을 하는 경우 사용자 단말로 알람을 전송하는 알람부를 포함하는 관리 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention registers the ward's face image, body image, and ward information, receives the result of tracking the ward's real-time movement, and outputs it on a map A storage unit that receives and stores face images, body images, and ward information from user terminals and user terminals, and sets up at least one prohibited area to set an alarm to sound when a ward enters at least one prohibited area Part, Prohibited action setting unit that sets at least one prohibited action to set an alarm to sound when the ward performs at least one prohibited action, guides the ward's real-time movement to the user terminal, In this case, a management service providing server including an alarm unit for transmitting an alarm to a user terminal is included.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자 단말에서 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록한 경우, 피보호자의 실시간 위치를 맵핑하여 안내하고, 금지구역에 진입하거나 금지행동을 하는 경우 알람을 제공하며 위치를 함께 제공함으로써 사용자가 24/7 피보호자를 보호하지 않고 생계활동에 집중할 수 있도록 도와주며, 등록되지 않은 피보호자라고 할지라도 실종 이벤트가 발생하는 경우 동일한 프로세스로 실시간 위치를 추적할 수 있도록 하고, 치매노인 및 실종자 뿐 아니라, 자살을 시도하거나 술에 취해 노숙하는 경우를 객체탐지로 파악할 수 있다.According to any one of the above-described problem solving means of the present invention, when the user terminal registers the ward's face image, body image, and ward information, mapping and guiding the ward's real-time location, entering a prohibited area or performing a prohibited action By providing an alarm and providing location together, it helps users to focus on livelihood activities without protecting 24/7 wards, and even unregistered wards can track their real-time location in the same process if a missing event occurs. It is possible to identify not only elderly people with dementia and missing people, but also cases of suicide attempt or drunken homelessness by object detection.

도 1은 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 관리 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
1 is a diagram for explaining an AI-based missing person management service providing system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a management service providing server included in the system of FIG. 1 .
3 and 4 are diagrams for explaining an embodiment in which an AI-based missing person management service is implemented according to an embodiment of the present invention.
5 is an operational flowchart illustrating a method for providing an AI-based missing person management service according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that it may further include other components, not excluding other components, unless otherwise stated, and one or more other characteristics. However, it should be understood that it does not preclude the possibility of existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. As used throughout the specification, the terms "about", "substantially", etc., are used at or approximating that value when manufacturing and material tolerances inherent in the stated meaning are given, and do not convey an understanding of the present invention. Accurate or absolute figures are used to help prevent exploitation by unscrupulous infringers of the disclosed disclosure. The term "step of (doing)" or "step of" as used throughout the specification of the present invention does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware. On the other hand, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or configured to reproduce one or more processors. Thus, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, device, or device may be performed instead by a server connected to the terminal, device, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is the terminal's identifying data. can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, AI 기반 실종자 관리 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 관리 서비스 제공 서버(300), 적어도 하나의 CCTV(400)를 포함할 수 있다. 다만, 이러한 도 1의 AI 기반 실종자 관리 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a diagram for explaining an AI-based missing person management service providing system according to an embodiment of the present invention. Referring to FIG. 1 , an AI-based missing person management service providing system 1 may include at least one user terminal 100, a management service providing server 300, and at least one CCTV 400. However, since the AI-based missing person management service providing system 1 of FIG. 1 is only one embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1 .

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 관리 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 관리 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 CCTV(400)와 연결될 수 있다. 또한, 적어도 하나의 CCTV(400)는, 네트워크(200)를 통하여 관리 서비스 제공 서버(300)와 연결될 수 있다. At this time, each component of FIG. 1 is generally connected through a network (Network, 200). For example, as shown in FIG. 1 , at least one user terminal 100 may be connected to the management service providing server 300 through the network 200 . In addition, the management service providing server 300 may be connected to at least one user terminal 100 and at least one CCTV 400 through the network 200 . In addition, at least one CCTV 400 may be connected to the management service providing server 300 through the network 200 .

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure capable of exchanging information between nodes such as a plurality of terminals and servers, and examples of such networks include a local area network (LAN) and a wide area network (WAN: Wide Area Network), the Internet (WWW: World Wide Web), wired and wireless data communications networks, telephone networks, and wired and wireless television communications networks. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi , Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth (Bluetooth) network, NFC ( A Near-Field Communication (Near-Field Communication) network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, etc. are included, but not limited thereto.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if at least one term does not exist, each component may exist in singular or plural, and may mean singular or plural. It will be self-evident. In addition, the singular or plural number of each component may be changed according to embodiments.

적어도 하나의 사용자 단말(100)은, AI 기반 실종자 관리 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록하고, 피보호자의 실시간 동선을 지도상에 출력하는 단말일 수 있다. 그리고, 사용자 단말(100)은 피보호자가 금지구역에 진입하거나 금지행동을 하는 경우 관리 서비스 제공 서버(300)로부터 알람을 수신하고 실시간 위치를 추적한 결과를 공유받는 단말일 수 있다. At least one user terminal 100 registers the ward's face image, body image, and ward information using an AI-based missing person management service-related web page, app page, program, or application, and displays the ward's real-time movement on a map. It may be an output terminal. In addition, the user terminal 100 may be a terminal that receives an alarm from the management service providing server 300 and shares a result of tracking a real-time location when a ward enters a prohibited area or performs a prohibited action.

여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one user terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one user terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one user terminal 100 is, for example, a wireless communication device that ensures portability and mobility, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet ) may include all types of handheld-based wireless communication devices such as terminals, smartphones, smart pads, tablet PCs, and the like.

관리 서비스 제공 서버(300)는, AI 기반 실종자 관리 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 관리 서비스 제공 서버(300)는, 적어도 하나의 CCTV(400)를 등록하고 사용자 단말(100)에서 등록한 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록하는 서버일 수 있다. 또한, 관리 서비스 제공 서버(300)는, 적어도 하나의 금지구역 및 금지행동을 설정하고, 금지구역에 피보호자가 진입하거나 금지행동을 피보호자 또는 임의의 객체가 하는 경우 사용자 단말(100) 또는 관제센터로 알람을 전송하는 서버일 수 있다. 그리고, 관리 서비스 제공 서버(300)는, 사용자 단말(100)에서 피보호자를 등록하지 않은 상태에서 실종 이벤트를 출력하는 경우, 상술한 프로세스를 모두 동일하게 거쳐 피보호자를 추적하고 금지구역에 진입하지 않았는지 또는 금지행동을 하고 있지 않은지를 파악하도록 하는 서버일 수 있다. The management service providing server 300 may be a server that provides an AI-based missing person management service web page, app page, program, or application. And, the management service providing server 300 may be a server that registers at least one CCTV 400 and registers the face image, body image, and ward information of the ward registered in the user terminal 100 . In addition, the management service providing server 300 sets at least one prohibited area and prohibited action, and when a ward enters the prohibited area or a ward or any object performs a prohibited action, the user terminal 100 or the control center It may be a server that sends an alarm. In addition, when the management service providing server 300 outputs a missing event in a state in which the ward is not registered in the user terminal 100, the ward is tracked through the same process as described above and whether the ward has not entered the prohibited area. Alternatively, it may be a server that determines whether or not a prohibited action is being performed.

여기서, 관리 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the management service providing server 300 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser.

적어도 하나의 CCTV(400)는, AI 기반 실종자 관리 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하는 지능형 CCTV일 수 있다. At least one CCTV 400 may be an intelligent CCTV using an AI-based missing person management service-related web page, app page, program, or application.

여기서, 적어도 하나의 CCTV(400)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 CCTV(400)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 CCTV(400)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one CCTV (400) may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one CCTV 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one CCTV (400), for example, as a wireless communication device that ensures portability and mobility, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) It may include all types of handheld-based wireless communication devices such as terminals, smartphones, smart pads, tablet PCs, and the like.

도 2는 도 1의 시스템에 포함된 관리 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.2 is a block diagram illustrating a management service providing server included in the system of FIG. 1, and FIGS. 3 and 4 describe an embodiment in which an AI-based missing person management service is implemented according to an embodiment of the present invention. It is a drawing for

도 2를 참조하면, 관리 서비스 제공 서버(300)는, 저장부(310), 금지구역설정부(320), 금지행동설정부(330), 알람부(340), 미등록관리부(350), 안면인식부(360), 행동인식부(370) 및 의복인식부(380)를 포함할 수 있다.Referring to FIG. 2, the management service providing server 300 includes a storage unit 310, a prohibited area setting unit 320, a prohibited action setting unit 330, an alarm unit 340, an unregistered management unit 350, a face It may include a recognition unit 360, an action recognition unit 370 and a clothing recognition unit 380.

본 발명의 일 실시예에 따른 관리 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100) 및 적어도 하나의 CCTV(400)로 AI 기반 실종자 관리 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100) 및 적어도 하나의 CCTV(400)는, AI 기반 실종자 관리 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100) 및 적어도 하나의 CCTV(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.The management service providing server 300 according to an embodiment of the present invention or another server (not shown) operating in conjunction with at least one user terminal 100 and at least one CCTV 400 is an AI-based missing person management service application. , When transmitting a program, app page, web page, etc., at least one user terminal 100 and at least one CCTV 400 install an AI-based missing person management service application, program, app page, web page, etc. can be opened In addition, a service program may be driven in at least one user terminal 100 and at least one CCTV 400 using a script executed in a web browser. Here, the web browser is a program that allows users to use the web (WWW: World Wide Web) service, and means a program that receives and displays hypertext described in HTML (Hyper Text Mark-up Language). For example, Netscape , Explorer, Chrome, and the like. In addition, an application means an application on a terminal, and includes, for example, an app running on a mobile terminal (smart phone).

도 2를 참조하면, 저장부(310)는, 사용자 단말(100)로부터 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록받아 저장할 수 있다. 사용자 단말(100)은, 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록하고, 피보호자의 실시간 동선을 추적한 결과를 수신하여 지도상에 출력할 수 있다. 이때 피보호자의 신체 이미지를 받는 이유는, CCTV(400)에서 촬영된 영상의 경우 어느 정도 거리가 확보되지 않는 이상 얼굴의 특징점을 확인하는 것이 어렵고, 모든 피사체의 얼굴에 대하여 특징점을 찾는 얼굴 식별 및 인식에 대한 알고리즘을 돌리는 경우 막대한 네트워킹 자원 및 컴퓨팅 자원이 소모되고 시간이 과다하게 소요되기 때문이다. 이에 따라, 어느 정도의 거리가 확보되지 않는 경우, 예를 들어 CCTV와 피사체 간 거리가 X 거리 미만으로 좁혀지지 않는 경우, 신체의 비율이나 색상 또는 의복 등으로 피보호자를 확정 또는 식별하도록 신체 이미지를 받는다. Referring to FIG. 2 , the storage unit 310 may register and store face images, body images, and ward information from the user terminal 100 . The user terminal 100 may register the ward's face image, body image, and ward information, receive a result of tracking the ward's real-time movement, and output it on a map. At this time, the reason for receiving the body image of the ward is that in the case of the video taken by the CCTV (400), it is difficult to check the feature points of the face unless a certain distance is secured, and face identification and recognition to find feature points for the faces of all subjects This is because when running the algorithm for , enormous networking and computing resources are consumed and excessive time is consumed. Accordingly, when a certain distance is not secured, for example, when the distance between CCTV and the subject is not narrowed to less than X distance, the body image is received to determine or identify the ward by body proportion, color, or clothing. .

이를 위하여, 딥러닝 이미지 분석을 이용한 외형 분석 기술을 이용할 수 있다. 딥러닝 이미지 분석을 이용한 동물 외형 분석 기술은 신체 이미지에서 특징점을 찾기 위한 CNN(Convolution Neural Network)과 구글에서 제공하는 딥러닝 프레임워크인 TensorFlow를 이용하여 객체의 외형을 분석할 수 있다. CNN을 통해 외형 골격에서 특징점을 찾아내고 Tensor Flow로 신체비율의 정보를 분석하여 각 피사체의 고유한 외형정보를 얻을 수 있다. 이렇게 객체의 외형만으로 고유 정보를 얻을 수 있고 이를 통해 각 객체를 특정 및 식별할 수 있다. To this end, an appearance analysis technique using deep learning image analysis may be used. Animal appearance analysis technology using deep learning image analysis can analyze the appearance of an object by using CNN (Convolution Neural Network) to find feature points in body images and TensorFlow, a deep learning framework provided by Google. It is possible to obtain the unique appearance information of each subject by finding feature points in the external skeleton through CNN and analyzing the body proportion information with Tensor Flow. In this way, unique information can be obtained only with the appearance of an object, and through this, each object can be specified and identified.

이때, 멀리 있는 경우, CCTV(400)와 피사체 간 거리가 먼 경우에는 얼굴의 특징점이 정확히 파악이 안되기 때문에 제 1 단계로, 외형 골격이나 비율, 예를 들어, 몸통과 다리의 비율, 얼굴의 크기와 몸통의 길이 간의 비율이나 길이를 이용하여 식별하고, 제 2 단계로 가까이에서 촬영된 경우에는 얼굴의 특징점을 이용하여 식별할 수 있도록 한다. 여기서, 외형 골격을 구하기 위해서는 상술한 Tensor Flow 외에도, 스켈레톤(Skeleton) 정보를 OpenPose 알고리즘을 이용하여 추출한 후, 각 부위별 비율이나 길이 등을 이용하여 동일 객체(피보호자)인지의 여부를 확인할 수도 있다.At this time, if the distance between the CCTV (400) and the subject is long, the facial feature points cannot be accurately grasped, so in the first step, the external skeleton or proportions, for example, the ratio of the torso and legs, the size of the face It is identified using the ratio or length between the body and the length of the torso, and in the second step, in the case of close-up, it is identified using the feature points of the face. Here, in order to obtain the external skeleton, in addition to the above-mentioned Tensor Flow, after extracting the skeleton information using the OpenPose algorithm, it is possible to check whether it is the same object (protected person) by using the ratio or length of each part.

<이미지 보정><Image Correction>

어두운 영상을 밝게 하는 방법에는 단순 영상 처리를 활용하는 경우와 딥러닝을 활용하는 경우도 있다. 딥러닝을 활용하는 경우에는 실내와 야외 사진을 구분 없이 학습을 시켜 어두운 이미지의 내부 색들을 학습된 데이터 중 비슷한 색상으로 복원시켜주는 기술이 존재한다. 단순 영상 처리로는 전체적인 명암을 일정하게 조절하거나 RGB 색상에 대한 밝기 값을 가지고 어두운 부분과 밝은 부분의 차이를 계산한 중간 밝기를 적용하는 방법도 있다. 본 발명의 일 실시예에서는 히스토그램 평활화(Histogram Equalization)를 이용하여 이미지를 보정할 수 있다. 흑백 영상에 히스토그램 평활화를 적용하면 영상의 명암 분포가 균일하게 변화되어 어두운 부분이 개선되는 효과를 얻을 수 있다. 이러한 명암의 차이는 흑백 영상에서 어두워서 잘 안 보이는 영역이나 빛으로 인해 주변과 비교해 밝은 부분을 보정 하여 딥러닝 인식률을 향상시킨다.To brighten a dark image, simple image processing and deep learning are used. In the case of using deep learning, there is a technology that learns indoor and outdoor photos without distinction and restores the internal colors of dark images to similar colors among the learned data. As simple image processing, there is also a method of constantly adjusting the overall contrast or applying an intermediate brightness obtained by calculating the difference between a dark area and a bright area using brightness values for RGB colors. In an embodiment of the present invention, an image may be corrected using histogram equalization. When histogram equalization is applied to a black and white image, the brightness distribution of the image is uniformly changed and dark areas can be improved. This difference in contrast enhances the deep learning recognition rate by compensating for areas that are dark and difficult to see in black and white images or areas that are bright compared to the surroundings due to light.

움직이는 객체를 찾아내기 위해서는 배경과 움직이는 객체를 분리하는 작업이 필요하다. 그 작업을 할 수 있는 기술이 전경 분리(Background Subtraction)이다. 전경 분리는 새로운 프레임이 들어올 때, 이전 프레임과 비교하여 이전 프레임과 현재 프레임의 차이를 가지고 움직이는 객체를 찾는다. 전경 분리를 하면 움직이는 객체를 찾을 수 있어 움직이는 영역을 추출하여 딥러닝 인식에 사용할 수 있다. 만약 피보호자를 찾긴 했지만 전체 영역이 불분명하게 촬영된 경우에는 딥러닝을 하기 위해 관심 영역을 추출하면 몸통이 잘린 형태가 나오기 때문에 좋지 않다. 이러한 문제를 해결하기 위해 모폴로지(Morphology)의 침식(Erode)과 팽창(Dilate)를 이용할 수 있다. 이를 이용하면 나뭇잎이 흔들거리거나 벌레가 나타날 때 발생할 수 있는 자그마한 노이즈도 제거할 수 있다. 모폴로지가 적용된 후, 모폴로지가 필요보다 적게 적용이 되면 피보호자 신체의 일부가 잘리거나 노이즈가 없어지지 않는 경우가 있다. 이러한 경우에는 신체가 완전하지 않아 딥러닝 인식을 실패할 수도 있고 노이즈를 인식하느라 피보호자를 인식하는 시간이 지연될 수 있다. 이러한 상황을 고려하면 피보호자의 크기보다 조금 크게 모폴로지를 적용하여 딥러닝 인식에 무리가 없도록 설정할 수 있다.In order to find a moving object, it is necessary to separate the background and the moving object. A technique that can do that is Background Subtraction. Foreground separation finds a moving object with the difference between the previous frame and the current frame compared to the previous frame when a new frame enters. With foreground separation, moving objects can be found, so moving areas can be extracted and used for deep learning recognition. If the ward is found, but the entire area is unclearly photographed, it is not good because the body is cut off when the area of interest is extracted for deep learning. To solve this problem, erode and dilate of morphology can be used. By using this, you can also remove small noises that can occur when leaves shake or insects appear. After morphology is applied, if morphology is applied less than necessary, a part of the ward's body may be cut off or noise may not be removed. In this case, deep learning recognition may fail because the body is not perfect, and the time for recognizing the ward may be delayed due to noise recognition. Considering this situation, it is possible to set the deep learning recognition to be moderate by applying the morphology slightly larger than the size of the ward.

딥러닝 인식을 할 때, 배경이 많이 포함된 이미지 보다 찾고자 하는 객체만 있는 경우에 딥러닝 정확도가 향상된다. 찾고자 하는 객체 이외에 이미지에 포함된 다른 영역 연산하는 과정이 줄어들기 때문이다. 전경 분리와 모폴로지를 거친 영상을 히스토그램 평활화를 거친 영상과 겹치면 히스토그램 평활화 영상에 피보호자가 어디에 있는지 나타낼 수 있다. 관심 영역 추출(Region of Interest)을 위하여 박스를 이용할 수 있고, 박스의 좌표를 이용하면 피보호자의 영역을 추출할 수 있다. 이렇게 찾고자 하는 객체가 잘 보이는 이미지를 이용하면 딥러닝 인식 결과가 향상될 수 있다.When performing deep learning recognition, deep learning accuracy is improved when there are only objects to be found rather than images with many backgrounds. This is because the process of calculating other areas included in the image other than the object to be found is reduced. If an image that has undergone foreground separation and morphology is overlapped with an image that has undergone histogram smoothing, the location of the ward can be displayed in the histogram smoothed image. A box can be used for region of interest extraction, and a ward's region can be extracted by using the coordinates of the box. Deep learning recognition results can be improved by using an image that clearly shows the object to be found.

금지구역설정부(320)는, 적어도 하나의 금지구역을 설정하여 적어도 하나의 금지구역에 피보호자가 진입한 경우 알람을 울리도록 설정할 수 있다. 이때, 피보호자를 등록했으니 금지구역에 진입하는 것을 사용자에게 안내하는 것이지, 해당 금지구역에 모든 사람에게 위험한 경우, 예를 들어, 건물의 붕괴위험이 있다거나 홍수의 위험이 있는 하천 등인 경우에는 모든 사람에게 위험하므로 피보호자의 여부에 상관없이 관제센터로 금지구역에 진입하는 사람이 있다는 것을 안내할 수 있고 구조를 위한 인력을 보낼 것을 권고할 수 있다. 이때, 금지구역은, 폐가, 공가, 강변 및 야산입구를 포함할 수 있으나, 나열된 것들로 한정되지 않고 열거되지 않은 이유로 배제되지 않는다.The prohibited area setting unit 320 may set at least one prohibited area to sound an alarm when a ward enters the at least one prohibited area. At this time, since the ward is registered, it is to guide the user to enter the prohibited area, but if the prohibited area is dangerous to everyone, for example, if there is a risk of collapse of a building or a river with a risk of flooding, all people Since it is dangerous to the ward, it can inform the control center that there is a person entering the prohibited area regardless of whether the person is protected, and it can recommend sending rescue personnel. At this time, the prohibited area may include an abandoned house, an empty house, a riverside, and a forest entrance, but is not limited to those listed and is not excluded for reasons not listed.

금지행동설정부(330)는, 적어도 하나의 금지행동을 설정하여 적어도 하나의 금지행동을 피보호자가 하는 경우 알람을 울리도록 설정할 수 있다. 이때, 금지행동은, 도로에 기 설정된 시간 이상 움직임 없이 누워있는 행동, 다리를 뛰어내리는 행동 및 고령 또는 치매환자의 배회행동을 포함할 수 있으나, 나열된 것들로 한정되지 않고 열거되지 않은 이유로 배제되지 않는다.The prohibited behavior setting unit 330 may set at least one prohibited behavior so that an alarm sounds when a ward performs at least one prohibited behavior. At this time, the prohibited behavior may include a behavior of lying on the road without movement for more than a predetermined time, a behavior of jumping off a leg, and a wandering behavior of an elderly or dementia patient, but is not limited to the listed ones and is not excluded for reasons not listed. .

이때, 객체 탐지(Object Detection)를 위해 Darknet 기반 YOLO(You Only Look Once)를 이용할 수 있다. 제일 먼저 구현되어야 할 부분은 CCTV(400)로부터 수신한 영상 내 객체가 사람인지 아닌지, 사람이라면 피보호자인지 또는 아닌지, 피보호자라면 그 위치는 어디인지를 찾아내는 객체탐지 기술이 먼저 필요하며, Darknet 기반의 YOLO를 이용하여 구현할 수 있다. 일반적으로 분류(Classification) 문제라는 것은 객체(Object)가 하나있는 영상에 대해서 객체의 클래스(Class)를 분류하는 문제이다. 이에 반해 객체탐지 문제는 분류(Classification)와 위치탐지(Localization)를 합친 문제로, 객체의 클래스 분류와 객체의 위치를 바운딩박스(Bounding Box)로 위치를 찾는 것을 의미한다. 객체 탐지(Object Detection) 분야에서 CNN(Convolutional Neural Network)을 기반으로 하는 여러 모델을 이용할 수도 있는데, R-CNN, Fast R-CNN, Faster R-CNN 등을 이용할 수도 있다.At this time, Darknet-based YOLO (You Only Look Once) may be used for object detection. The first thing to be implemented is the object detection technology that first finds out whether the object in the video received from the CCTV (400) is a person, whether a person is a ward or not, and if it is a ward, where the location is, Darknet-based YOLO can be implemented using In general, a classification problem is a problem of classifying an object class for an image having one object. On the other hand, the object detection problem is a problem that combines classification and localization, and means classifying an object and finding the location of the object with a bounding box. In the field of object detection, various models based on CNN (Convolutional Neural Network) may be used, and R-CNN, Fast R-CNN, Faster R-CNN, and the like may be used.

<행동 분류><Behavioral Classification>

사람의 금지행동 인지를 위해서 사람이 이 행동을 취하는 경우 무조건 알람을 울리는 경우, 피보호자가 이 행동을 취하는 경우 사용자 및 관계 기관에 알람을 울리는 경우 등으로 나누어 정의할 수 있다. 예를 들어, 홍수가 일어났는데 하천에 진입하는 행위는 피보호자를 포함한 모든 이에게 위험하므로 전자에 해당한다. 보행로를 걷는 행위는 모든 사람에게 위험하지는 않지만, 피보호자에게는 위험할 수 있으므로 이는 후자에 해당한다. 이때 어떠한 행동인지를 분류하는 분류기는 예를 들어, 구글에서 서비스 하고 있는 Teachable Machine으로 학습시킬 수 있다. 구글이 머신러닝 과정을 이해하고 학습할 수 있는 웹 기반 학습 도구인 Teachable Machine를 공개했는데, 이미지, 오디오, 자세 세 가지 프로젝트를 통해, 머신러닝을 학습하고 학습 모델을 생성한 후 저장하고 활용할 수 있다. 웹사이트를 방문해 보면 누구나 쉽게 사용할 수 있도록 구성되어 있으며, 이미지에 대한 학습 모델은 프리뷰(Preview) 기능을 이용해, 바로 다른 이미지와 비교하거나 Export Model 메뉴를 이용해 텐서플로(Tensorflow.js) 로 내보내거나 다운로드받을 수 있다. 물론 상술한 알고리즘 외에도 다양한 알고리즘으로 행동을 인식하고 패턴을 분류할 수 있음은 자명하다 할 것이다.In order to recognize a person's prohibited behavior, it can be defined by dividing it into a case where an alarm is sounded unconditionally when a person takes this action, and a case where an alarm is sounded to a user and related institutions when a ward takes this action. For example, when a flood occurs, the act of entering a river is dangerous to everyone including the ward, so it corresponds to the former. The act of walking on a sidewalk is not dangerous for everyone, but it can be dangerous for the ward, so it falls under the latter. At this time, a classifier that classifies what kind of action it is can be trained with, for example, a teachable machine serviced by Google. Google has unveiled Teachable Machine, a web-based learning tool that can understand and learn the machine learning process. Through three projects: image, audio, and posture, you can learn machine learning and create a learning model, then save and use it. . It is structured so that anyone can easily use it by visiting the website, and the training model for the image can be compared with other images using the Preview function, or exported or downloaded to Tensorflow.js using the Export Model menu. can receive Of course, it will be self-evident that behaviors can be recognized and patterns can be classified by various algorithms in addition to the above-described algorithms.

알람부(340)는, 사용자 단말(100)로 피보호자의 실시간 동선을 안내하고 금지구역에 진입하거나 금지행동을 하는 경우 사용자 단말(100)로 알람을 전송할 수 있다. The alarm unit 340 may guide the ward's real-time movement to the user terminal 100 and transmit an alarm to the user terminal 100 when entering a prohibited area or performing a prohibited action.

미등록관리부(350)는, 사용자 단말(100)에서 피보호자를 기 등록하지 않은 경우라도, 피보호자의 실종 이벤트가 출력되는 경우, 사용자 단말(100)로부터 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 입력받은 후, 피보호자의 실시간 위치를 추적하고 금지구역에 위치하거나 금지행동을 하는 경우 사용자 단말(100)로 알람을 전송할 수 있다. 즉 등록을 하지 않았더라도 상술한 과정을 처음부터 시작함으로써 피보호자를 찾을 수 있게 된다.The non-registration management unit 350 receives the face image, body image, and ward information of the ward from the user terminal 100 when a missing event of the ward is output even if the ward is not previously registered in the user terminal 100. After that, the real-time location of the ward can be tracked, and an alarm can be transmitted to the user terminal 100 when located in a prohibited area or performing a prohibited action. In other words, even if registration is not performed, the warded person can be found by starting the above-described process from the beginning.

안면인식부(360)는, 피보호자의 얼굴 이미지를 등록받은 경우 기 등록된 안면 인식 알고리즘을 이용하여 적어도 하나의 CCTV로부터 수신된 영상 내 객체 중 안면이 동일한 객체를 추출 및 추적할 수 있다. 얼굴 인식(Face Identification) 기술은 크게 신원 확인(Face Recognition)과 동일인 조회(Face Verification) 문제로 구분할 수 있다. 그 중에서 본인 인증은 본인의 얼굴 이미지를 앵커(Anchor) 이미지로 등록하고, 인식이 필요할 때마다 앵커 이미지와의 동일인 여부를 판단하는 일대일(One-to-One) 매칭 문제로 동일인 조회(Face Verification)에 해당한다. 현존하는 동일인 조회 모델의 경우 다양한 데이터 셋에서 99%를 웃도는 높은 성능을 보이고 있지만, 모자, 안경 등 인식 방해 요소들이 여전히 성능에 영향을 미친다. 특히 마스크를 착용하는 경우 턱, 코, 입 등 얼굴 특징점 좌표의 대부분이 가려지는 만큼 얼굴 인식(Face Identification)에 상당한 어려움이 있다. 얼굴 인식 오픈소스 애플리케이션 DeepFace도 마스크를 착용한 경우에는 얼굴을 인식하지 못한다.When a face image of a ward is registered, the face recognition unit 360 may extract and track an object having the same face among objects in an image received from at least one CCTV using a previously registered face recognition algorithm. Face identification technology can be largely divided into face recognition and face verification problems. Among them, identity authentication is a one-to-one matching problem that registers one's face image as an anchor image and determines whether or not the person is the same as the anchor image whenever recognition is required. Face Verification corresponds to Existing same-person lookup models show high performance of over 99% in various data sets, but recognition obstacles such as hats and glasses still affect performance. In particular, when wearing a mask, face identification is very difficult as most of the coordinates of facial feature points such as the chin, nose, and mouth are covered. DeepFace, an open-source face recognition application, also cannot recognize faces when wearing masks.

이에 본 발명의 등록 과정은 두 개의 단계로 구성될 수 있다. 첫 번째는 한국인 안면 이미지 이용하는 단계인데, 마스크 미착용 얼굴 이미지로 마스크 착용 얼굴 이미지를 증강하는 단계이고, 두 번째는, 첫 번째 단계에서 생성된 마스크 착용 이미지를 이용하여, 동일인 조회(Face Verification) 모델을 학습하고 검증하는 단계이다.Accordingly, the registration process of the present invention may consist of two steps. The first step is to use the facial image of Koreans, which is to augment the mask-wearing face image with the face image without a mask. This is the stage of learning and testing.

<마스크 착용 데이터 증강><Mask wearing data augmentation>

마스크 착용 동일인 조회(Face Verification)의 성능 향상을 위해서는 마스크를 착용한 얼굴 이미지를 학습에 활용해야 한다. 이를 위해 실제 마스크 착용 이미지 데이터 셋을 확보하여 레이블을 부여하기는 쉽지 않다. 그러나 마스크 미착용 이미지에 마스크를 합성하는 방식의 시뮬레이션을 통해 마스크 착용 이미지를 생성할 수 있다. 한국인 안면 이미지는 한국인을 대상으로 다양한 연령과 성별을 고려하여 촬영된 안면 이미지 데이터이다. 해당 데이터는 총 400명의 인원에 대해 촬영 각도 20종, 조명 30종, 액세서리 6종, 표정 3종으로 다양하게 구성되어 있다. 마스크 착용 시뮬레이션은 마스크와 얼굴 특징점 좌표에서 각각 N 개의 점을 기준으로 원근 변환(Perspective Transformation)을 시행하여 마스크 착용 얼굴 이미지를 생성할 수 있다. In order to improve the performance of Face Verification, it is necessary to use face images wearing masks for learning. To this end, it is not easy to secure a data set of actual mask wearing images and assign labels. However, a mask-wearing image may be generated through simulation of a method of combining a mask with a non-mask-wearing image. The Korean face image is facial image data taken by considering various ages and genders of Koreans. The data consists of 20 types of shooting angles, 30 types of lighting, 6 types of accessories, and 3 types of facial expressions for a total of 400 people. The mask wearing simulation may generate a face image wearing a mask by performing perspective transformation based on N points in the coordinates of the mask and facial feature points, respectively.

<마스크 착용 동일인 조회><Search for the same person wearing a mask>

동일인 조회(Face Verification)모델 학습을 위해 학습 및 검증 데이터를 분리하고, 성능 평가를 위해 마스크 미착용 이미지(Non_mask)와 마스크 착용 이미지(Mask)를 한 쌍의 페어(Pair)로 만들어 총 M 개의 페어를 구성할 수 있다. 학습 모델은 모델의 정확도와 속도를 모두 고려하기 위해 ArcFace와 MobileFaceNets를 각각 이용할 수 있고, 증강된 마스크 이미지를 학습에 이용했는지에 따라 나누어 학습한 후 결과를 비교할 수 있다. For face verification model training, training and verification data are separated, and for performance evaluation, an image without a mask (Non_mask) and an image wearing a mask (Mask) are made into a pair, and a total of M pairs are created. can be configured. The learning model can use ArcFace and MobileFaceNets respectively to consider both the accuracy and speed of the model, and the results can be compared after learning by dividing according to whether the augmented mask image is used for learning.

행동인식부(370)는, 피보호자의 신체 이미지를 등록받은 경우 기 등록된 행동 인식 알고리즘을 이용하여 적어도 하나의 CCTV로부터 수신된 영상 내 객체 중 행동이 동일한 객체를 추출 및 추적할 수 있다. 예를 들어, 모두에게 위험하지 않지만 피보호자가 하면 위험한 상황은 피보호자를 추출하고 해당 피보호자가 그 행동을 하고 있는지를 파악하는 두 단계의 절차를 거치게 된다. 이때, 상술한 바와 같이 CCTV(400)와 피보호자 간 거리가 얼굴의 특징점을 구분할만큼 가까이 있는 경우는 거의 없고, 대부분의 공공기관 CCTV(400), 또는 사설 CCTV라고 할지라도 넓은 가시거리를 확보하기 위하여 지상에서 최소한 2미터 높이는 유지하기 마련이다. 이 경우 얼굴 특징점을 정확히 파악할 수 없으므로 상술한 바와 같이 신체 이미지를 통하여 신체 비율이나 의복 등을 통하여 피보호자를 특정하고, 해당 특정된 객체(피보호자)가 해당 행동을 하고 있는지를 파악한 후 이를 관제센터나 사용자 단말(100)로 알려줄 수 있다. 이렇게만 필터링을 해주더라도 인간이 각 객체를 골라내야 하는 영상의 수는 확연히 줄어들 수 있고 빠른 시간 내에 피보호자를 찾을 수 있게 된다. When the body image of the ward is registered, the behavior recognition unit 370 may extract and track an object having the same behavior among objects in an image received from at least one CCTV using a previously registered behavior recognition algorithm. For example, a situation that is not dangerous to everyone but is dangerous to a ward would go through a two-step process of extracting the ward and figuring out whether the ward is doing the action. At this time, as described above, there are few cases where the distance between the CCTV (400) and the ward is close enough to distinguish the feature points of the face, and even in most public institution CCTVs (400) or private CCTVs, in order to secure a wide viewing distance It is always necessary to maintain a height of at least 2 meters above the ground. In this case, since facial feature points cannot be accurately grasped, as described above, a ward is specified through body proportions or clothes through a body image, and after figuring out whether the specified object (protected person) is performing the corresponding action, it is sent to the control center or user It can be notified to the terminal 100. Even if filtering is performed in this way, the number of images that a human needs to select each object can be significantly reduced, and a ward can be found in a short time.

의복인식부(380)는, 사용자 단말(100)에서 실종 이벤트가 출력되고, 사용자 단말(100)에서 피보호자의 의상에 대한 색상 및 디자인을 지정한 경우, 적어도 하나의 CCTV로부터 수집되는 객체 중 색상 및 디자인과 기 설정된 유사도를 초과하는 의상을 착용한 객체를 추출할 수 있다.The clothing recognition unit 380, when a missing event is output from the user terminal 100 and the color and design of the clothing of the ward are specified in the user terminal 100, color and design among objects collected from at least one CCTV It is possible to extract an object wearing clothes exceeding a preset similarity.

이하, 상술한 도 2의 관리 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, an operation process according to the configuration of the above-described management service providing server of FIG. 2 will be described in detail with reference to FIGS. 3 and 4 as examples. However, it will be apparent that the embodiment is only any one of various embodiments of the present invention, and is not limited thereto.

도 3을 참조하면, 관리 서비스 제공 서버(300)는 사용자 단말(100)로부터 피보호자 정보와 얼굴 이미지 및 신체 이미지를 입력받고, (b) 실시간 동선 맵핑을 실시하여 배회를 하는 경우 어디에 위치해있는지를 지도상에서 출력해주고 여기까지 경로를 안내해주는 내비게이션을 제공하며, (c) 금지구역에 피보호자가 접근하는 경우 또는 (d)와 같이 금지행동을 하는 경우 사용자 단말(100)로 실시간 위치 및 내비게이션을 제공하여 빠르게 피보호자를 찾을 수 있도록 한다. 도 4와 같이 기 구축된 CCTV(400)를 이용하여 실시간 피보호자 추적 및 맵핑은 물론, 피보호자가 금지된 구역에 접근하려고 하거나 이미 접근하여 진입한 경우, 또 금지행위를 하는 경우 등을 파악하며, 기 구축된 인프라와의 연계 및 확장을 통하여 서비스의 범위 및 종류를 다양화할 수 있다. 본 발명의 일 실시예와 종래기술 간의 차이를 정리하면 표 1과 같이 정리될 수 있다.Referring to FIG. 3, the management service providing server 300 receives ward information, face image, and body image from the user terminal 100, and (b) performs real-time movement mapping to map where they are located when wandering around. Provides a navigation that guides the route up to this point, and provides real-time location and navigation to the user terminal 100 when (c) a ward approaches a prohibited area or when a prohibited action is performed as in (d) Helps you find your patrons. As shown in FIG. 4, by using the pre-built CCTV 400, real-time tracking and mapping of the ward, as well as identifying the case where the ward is trying to access or has already approached and entered the prohibited area, or if the prohibited act is performed, The range and types of services can be diversified through linkage and expansion with the established infrastructure. The differences between an embodiment of the present invention and the prior art can be summarized as shown in Table 1.

구분division 종래기술prior art 본 발명the present invention 실종자 수색
방법
missing person search
method
- 실종자 알림 문자 서비스
- 경찰 및 지역사회 인력이 직접 수색
- 통합관제 센터에서
CCTV 검색
- Missing person notification text service
- Direct search by police and community personnel
- In the integrated control center
CCTV search
- 플랫폼 등록 실종자(치매노인)는 자동으로 AI 플랫폼(APP)을 통해 동선 mapping 서비스 제공
- 플랫폼 미등록 실종자(치매노인)도 실종신고 시, AI 플랫폼(APP)을 동선 mapping 서비스 제공
- 등록 실종자(치매노인) 금지구역(폐가, 공가, 강변, 야산 입구 등) 배회 시 AI 플랫폼에서 자동 Alarming 서비스 제공
- The missing persons registered on the platform (elderly with dementia) automatically provide movement mapping service through the AI platform (APP)
- AI platform (APP) provides movement mapping service when a missing person (elderly with dementia) who is not registered on the platform is reported missing
- Provides automatic alarming service on the AI platform when registered missing persons (seniors with dementia) wander in prohibited areas (abandoned houses, empty houses, riversides, forest entrances, etc.)
정보
활용
information
uses
- 기존 실종자 안면인식 정보는 경찰청에 있고 지자체 등에 제공하고 있지 않아 안면인식 서비스는 구현되고 있지 않음
- 경찰도 실종자 수색을 위한 CCTV 열람을 위해서 지자체에 영상반출 민원을 제출하여 사용할 수 있어, CCTV와 통합플랫폼의 활용도가 낮음
- 치매노인도 중요 정보를 보건소가 가지고 있음
- Existing missing person facial recognition information is in the National Police Agency and is not provided to local governments, so facial recognition services are not being implemented.
- The police can also submit and use a complaint to the local government to view the CCTV for searching for missing people, so the utilization of CCTV and the integrated platform is low.
- Public health centers have important information for the elderly with dementia
- APP의 형태로 실종자(치매노인) 등의 보호자가 APP에 가입하고, 대상자의 정보를 직접 입력하고 개인정보 관련 동의를 APP을 통해 제출함으로써 실종자(치매노인) 등의 실종 시 경찰, 보건소의 협조를 받을 필요가 없음
- 실종자 이동 정보 등을 확인하는 절차 간소화로 실종자 수색 시간을 획기적으로 단축시킬 수 있음
- In the form of an APP, the guardian of the missing person (elderly with dementia), etc. joins the APP, directly enters the information of the subject, and submits consent related to personal information through the APP. no need to get
- The search time for missing persons can be drastically reduced by simplifying the process of checking the movement information of the missing persons.
서비스 범위service scope - 실종자 안면인식 중심
- 배회 중심
- Centered on facial recognition of missing persons
- loitering center
- 금지구역 침입 Alarming 서비스로 배회가 아닌 공가, 폐가, 강변, 야산에서 숨지는 치매노인 사고 방지
→ 비배회 실종자(치매노인) 대응 가능
- Prevention of accidents of the elderly with dementia who die in empty houses, abandoned houses, riversides, and hills, not wandering, through the alarming service for trespassing into prohibited areas
→ Possible to respond to non-roaming missing persons (seniors with dementia)
서비스 구현service implementation - 단순 기기 및 스마트 기술로만 문제 해결 접근
- Problem solving approach with simple devices and smart technology
- 기존 경찰의 실종자 수색 방법, 치매환자 배회 행동 기존 연구 결과, 보건소 실종자(치매환자) 서비스와 연계한 솔루션 구현- Realization of a solution in connection with existing police search methods for missing persons, results of previous studies on wandering behavior of dementia patients, and public health center services for missing persons (dementia patients)

이와 같은 도 2 내지 도 4의 AI 기반 실종자 관리 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 AI 기반 실종자 관리 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not described for the AI-based missing person management service provision method of FIGS. 2 to 4 are the same as or easily inferred from the description of the AI-based missing person management service provision method through FIG. 1 above. Therefore, the following description is omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 AI 기반 실종자 관리 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.FIG. 5 is a diagram illustrating a process of transmitting and receiving data between components included in the AI-based missing person management service providing system of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process of transmitting and receiving data between each component will be described through FIG. 5, but the present application is not limited to such an embodiment, and according to various embodiments described above, It is obvious to those skilled in the art that a process of transmitting and receiving data may be changed.

도 5를 참조하면, 관리 서비스 제공 서버는, 사용자 단말로부터 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록받아 저장한다(S5100).Referring to FIG. 5 , the management service providing server receives and stores face image, body image, and ward information registered from the user terminal (S5100).

그리고, 관리 서비스 제공 서버는, 적어도 하나의 금지구역을 설정하여 적어도 하나의 금지구역에 피보호자가 진입한 경우 알람을 울리도록 설정하고(S5200), 적어도 하나의 금지행동을 설정하여 적어도 하나의 금지행동을 피보호자가 하는 경우 알람을 울리도록 설정한다(S5300).Then, the management service providing server sets at least one prohibited area, sets an alarm to sound when a ward enters the at least one prohibited area (S5200), and sets at least one prohibited action to set at least one prohibited action. When the ward does, an alarm is set to sound (S5300).

또, 관리 서비스 제공 서버는, 사용자 단말로 피보호자의 실시간 동선을 안내하고 금지구역에 진입하거나 금지행동을 하는 경우 사용자 단말로 알람을 전송한다(S5400).In addition, the management service providing server guides the ward's real-time movement to the user terminal and transmits an alarm to the user terminal when entering a prohibited area or performing a prohibited action (S5400).

상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps (S5100 to S5400) is only an example, and is not limited thereto. That is, the order of the above-described steps (S5100 to S5400) may be mutually changed, and some of the steps may be simultaneously executed or deleted.

이와 같은 도 5의 AI 기반 실종자 관리 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 AI 기반 실종자 관리 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not explained about the AI-based missing person management service provision method of FIG. 5 are the same as or easily inferred from the description of the AI-based missing person management service provision method through FIGS. 1 to 4 above. Therefore, the following description is omitted.

도 5를 통해 설명된 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The AI-based missing person management service providing method according to an embodiment described with reference to FIG. 5 may be implemented in the form of a recording medium including instructions executable by a computer, such as an application or program module executed by a computer. . Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The above-described method for providing missing person management service based on AI according to an embodiment of the present invention may be executed by an application basically installed in a terminal (this may include a program included in a platform or an operating system basically installed in the terminal). and may be executed by an application (that is, a program) directly installed in the master terminal by a user through an application providing server such as an application store server, an application or a web server related to the corresponding service. In this sense, the above-described AI-based missing person management service providing method according to an embodiment of the present invention is implemented as an application (ie, a program) that is basically installed in a terminal or directly installed by a user and can be read by a computer such as a terminal. can be recorded on a recording medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

Claims (6)

피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록하고, 상기 피보호자의 실시간 동선을 추적한 결과를 수신하여 지도상에 출력하는 사용자 단말; 및
상기 사용자 단말로부터 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록받아 저장하는 저장부와, 적어도 하나의 금지구역을 설정하여 상기 적어도 하나의 금지구역에 피보호자가 진입한 경우 알람을 울리도록 설정하는 금지구역설정부와, 적어도 하나의 금지행동을 설정하여 적어도 하나의 금지행동을 피보호자가 하는 경우 알람을 울리도록 설정하는 금지행동설정부와, 상기 사용자 단말로 상기 피보호자의 실시간 동선을 안내하고 상기 적어도 하나의 금지구역에 진입하고, 상기 적어도 하나의 금지행동을 하는 경우 상기 사용자 단말로 알람을 전송하는 알람부와, 상기 피보호자의 신체 이미지를 등록받은 경우 기 등록된 딥러닝에 의한 행동 인식 알고리즘을 이용하여 적어도 하나의 CCTV로부터 수신된 영상 내 객체 중 행동이 상기 피보호자와 동일한 행동인지를 추출 및 추적하는 행동인식부를 포함하는 관리 서비스 제공 서버를 포함하고,
상기 관리 서비스 제공 서버는,
CNN(Convolution Neural Network)과 구글에서 제공하는 딥러닝 프레임워크인 TensorFlow를 이용하여 상기 저장된 신체 이미지에서 객체의 특징점을 추출하고(찾아내고), 상기 추출된 특징점을 이용하여 상기 CCTV가 가까이에서 촬영한 상기 피보호자(객체)를 식별하고,
상기 금지행동은, 도로에 기 설정된 시간 이상 움직임 없이 누워있는 행동, 다리를 뛰어내리는 행동 및 고령 또는 치매환자의 배회행동을 포함하고, 상기 금지구역은, 폐가, 공가, 강변 및 야산입구를 포함하는 것을 특징으로 하는 AI 기반 실종자 관리 서비스 제공 시스템.
A user terminal for registering the ward's face image, body image, and ward information, and receiving and outputting a result of tracking the ward's real-time movement on a map; and
A storage unit for receiving and storing face image, body image, and ward information from the user terminal, and setting at least one prohibited area to set an alarm to sound when a ward enters the at least one prohibited area. A prohibited action setting unit configured to set at least one prohibited behavior and set an alarm to sound when the ward performs at least one prohibited behavior, and guides the real-time movement of the ward to the user terminal and displays the at least one prohibited behavior. When entering the zone and performing the at least one prohibited action, an alarm unit for transmitting an alarm to the user terminal, and when the body image of the ward is registered, at least one action recognition algorithm based on deep learning is registered. Including a management service providing server including a behavior recognition unit for extracting and tracking whether the behavior of the object in the image received from the CCTV of the ward is the same behavior as the ward,
The management service providing server,
Using CNN (Convolution Neural Network) and TensorFlow, a deep learning framework provided by Google, extract (find) the feature points of the object from the stored body image, and use the extracted feature points to capture the CCTV nearby. identify the ward (object);
The prohibited behavior includes the behavior of lying on the road without movement for more than a predetermined time, the behavior of jumping off one's legs, and the wandering behavior of elderly or dementia patients, and the prohibited area includes abandoned houses, empty houses, riversides, and forest entrances. AI-based missing person management service providing system, characterized in that.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020220071000A 2022-06-10 2022-06-10 System for providing missing person management service based on artificial intelligence KR102566188B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220071000A KR102566188B1 (en) 2022-06-10 2022-06-10 System for providing missing person management service based on artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220071000A KR102566188B1 (en) 2022-06-10 2022-06-10 System for providing missing person management service based on artificial intelligence

Publications (1)

Publication Number Publication Date
KR102566188B1 true KR102566188B1 (en) 2023-08-14

Family

ID=87565738

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220071000A KR102566188B1 (en) 2022-06-10 2022-06-10 System for providing missing person management service based on artificial intelligence

Country Status (1)

Country Link
KR (1) KR102566188B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100967064B1 (en) * 2007-10-24 2010-06-29 아주대학교산학협력단 A Method for Distinction of Color Similarity for Clothes in Varying Illumination and Security System of Public Entrance Area based on Clothes Similarity
KR20160032464A (en) * 2014-09-16 2016-03-24 박찬영 Social security network method and system
KR20160117064A (en) * 2015-03-31 2016-10-10 주식회사 다빈기술 System for preventing missing dotard using wireless broadcasting system for village
KR20200124980A (en) * 2019-04-25 2020-11-04 (주)월드정보기술 Method for providing alzheimer's disease patient caring service using artificial intelligence based video content analysis
KR20220055378A (en) * 2020-10-26 2022-05-03 주식회사 인피닉스 On-device AI apparatus for detecting abnormal behavior automatically based on deep learning and operating method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100967064B1 (en) * 2007-10-24 2010-06-29 아주대학교산학협력단 A Method for Distinction of Color Similarity for Clothes in Varying Illumination and Security System of Public Entrance Area based on Clothes Similarity
KR20160032464A (en) * 2014-09-16 2016-03-24 박찬영 Social security network method and system
KR20160117064A (en) * 2015-03-31 2016-10-10 주식회사 다빈기술 System for preventing missing dotard using wireless broadcasting system for village
KR20200124980A (en) * 2019-04-25 2020-11-04 (주)월드정보기술 Method for providing alzheimer's disease patient caring service using artificial intelligence based video content analysis
KR20220055378A (en) * 2020-10-26 2022-05-03 주식회사 인피닉스 On-device AI apparatus for detecting abnormal behavior automatically based on deep learning and operating method thereof

Similar Documents

Publication Publication Date Title
Shu et al. Cardea: Context-aware visual privacy protection for photo taking and sharing
CN109697416A (en) A kind of video data handling procedure and relevant apparatus
KR102333143B1 (en) System for providing people counting service
KR102296274B1 (en) Method for providing object recognition with deep learning using fine tuning by user
US20220286438A1 (en) Machine learning techniques for mitigating aggregate exposure of identifying information
US11288954B2 (en) Tracking and alerting traffic management system using IoT for smart city
KR102248706B1 (en) System for intergrated education management based on intelligent image analysis technology and method thereof
KR101929875B1 (en) Method for providing voice guidance service for vision impairment using stream live broadcast in real time
CN110929619A (en) Target object tracking method, system and device based on image processing and readable medium
US20220018715A1 (en) Systems and methods for monitoring body temperature
CN111382655A (en) Hand-lifting behavior identification method and device and electronic equipment
KR102379275B1 (en) System for remote home care based on image
JP6621092B1 (en) Risk determination program and system
Gayathri et al. Intelligent smart home security system: A deep learning approach
KR102566188B1 (en) System for providing missing person management service based on artificial intelligence
CN110889346B (en) Intelligent tracking method, system, equipment and readable medium
Babatunde et al. Mobile Based Student Attendance System Using Geo-Fencing With Timing and Face Recognition
KR102452918B1 (en) System for providing location based missing person reporting and real-time missing person alarming service
KR102358405B1 (en) System for providing care brokerage service
KR102397839B1 (en) A captioning sensor apparatus based on image analysis and a method for operating it
Babu et al. IoT based crowd estimation and stranger recognition in closed public areas
KR20220064213A (en) Program for operation of security monitoring device
KR102475956B1 (en) System for providing face register service for face recognition
KR102452932B1 (en) System for providing map based stray animal management platform service
Dandan et al. Establishment and Optimization of Video Analysis System in Metaverse Environment

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant