KR102566188B1 - System for providing missing person management service based on artificial intelligence - Google Patents
System for providing missing person management service based on artificial intelligence Download PDFInfo
- Publication number
- KR102566188B1 KR102566188B1 KR1020220071000A KR20220071000A KR102566188B1 KR 102566188 B1 KR102566188 B1 KR 102566188B1 KR 1020220071000 A KR1020220071000 A KR 1020220071000A KR 20220071000 A KR20220071000 A KR 20220071000A KR 102566188 B1 KR102566188 B1 KR 102566188B1
- Authority
- KR
- South Korea
- Prior art keywords
- ward
- prohibited
- behavior
- user terminal
- management service
- Prior art date
Links
- 238000013473 artificial intelligence Methods 0.000 title 1
- 206010012289 Dementia Diseases 0.000 claims abstract description 28
- 238000003860 storage Methods 0.000 claims abstract description 9
- 230000006399 behavior Effects 0.000 claims description 29
- 230000009471 action Effects 0.000 claims description 26
- 238000013135 deep learning Methods 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 230000009191 jumping Effects 0.000 claims description 2
- 230000001815 facial effect Effects 0.000 abstract description 11
- 238000001514 detection method Methods 0.000 abstract description 8
- 206010010144 Completed suicide Diseases 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 14
- 206010038743 Restlessness Diseases 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 238000013507 mapping Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000012795 verification Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007519 figuring Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000005180 public health Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010042464 Suicide attempt Diseases 0.000 description 1
- 230000016571 aggressive behavior Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 208000013404 behavioral symptom Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 206010027175 memory impairment Diseases 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000006886 spatial memory Effects 0.000 description 1
- 230000035882 stress Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 208000011580 syndromic disease Diseases 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/0261—System arrangements wherein the object is to detect trespassing over a fixed physical boundary, e.g. the end of a garden
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/0269—System arrangements wherein the object is to detect the exact location of child or item using a navigation satellite system, e.g. GPS
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0407—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/006—Alarm destination chosen according to type of event, e.g. in case of fire phone the fire service, in case of medical emergency phone the ambulance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00326—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus
- H04N1/00328—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information
- H04N1/00336—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a data reading, recognizing or recording apparatus, e.g. with a bar-code apparatus with an apparatus processing optically-read information with an apparatus performing pattern recognition, e.g. of a face or a geographic feature
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Emergency Management (AREA)
- Signal Processing (AREA)
- Tourism & Hospitality (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Marketing (AREA)
- Social Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Radar, Positioning & Navigation (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- General Business, Economics & Management (AREA)
- Gerontology & Geriatric Medicine (AREA)
- Public Health (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Alarm Systems (AREA)
Abstract
Description
본 발명은 AI 기반 실종자 관리 서비스 제공 시스템에 관한 것으로, AI 기반으로 실종자의 위치를 실시간으로 맵핑하고 금지구역에 진입하거나 금지행동을 하는 경우 즉시 알람을 울리는 시스템을 제공한다.The present invention relates to a system for providing an AI-based missing person management service, and provides a system that maps the location of a missing person in real time based on AI and immediately sounds an alarm when entering a prohibited area or performing a prohibited action.
한국은 급속하게 고령화가 진행 중이며 노인인구가 많아짐에 따라 치매인구의 수는 점차 증가하는 추세이다. 치매는 점차적으로 인지기능이 저하되어 기억력 장애와 언어장애가 나타나고 중기 이후에는 우울을 비롯한 정신적 증상과 폭력, 의심, 욕설 등의 물리적, 언어적 공격행위와 배회, 일몰증후군 등의 행동적 증상들을 수반하게 된다. 치매환자에게서 나타나는 배회 행동은 공간적 기억이 손상되어 길을 찾는 능력이 감소되면서 나타나는 것으로, 치매환자의 인지기능이 손상될수록 배회행동이 증가하는 경향이 있다. 치매노인을 돌보는 가족은 치매환자 간호에서 가장 어려운 문제행동이 배회행동이라고 보고하였으며, 치매노인의 배회행동을 강제로 저지하는 것 때문에 치매노인과 가족과의 갈등이 심화되기도 한다. 치매노인의 배회행동은 가족의 주요 스트레스 요인으로, 결국 노인요양시설에 입소하는 치매노인의 주된 원인은 배회행동인데, 이러한 배회행동은 길을 잃거나 상해를 입는 심각한 결과 또는 익사, 자동차 사고, 골절상 등 단순 사고에서부터 죽음에 이르게 되는 치명적인 결과를 초래한다. Korea is rapidly aging, and as the elderly population increases, the number of people with dementia is gradually increasing. Dementia gradually deteriorates cognitive function, resulting in memory impairment and language impairment, and after the middle period, it is accompanied by mental symptoms including depression, physical and verbal aggression such as violence, suspicion, and swearing, and behavioral symptoms such as wandering and sunset syndrome. do. Wandering behavior in patients with dementia is caused by a decrease in the ability to find one's way due to impaired spatial memory. Families caring for the elderly with dementia reported that the most difficult problem behavior in nursing patients with dementia was wandering behavior, and conflicts between the elderly with dementia and their families intensified due to forcibly stopping the wandering behavior of the elderly with dementia. The wandering behavior of the elderly with dementia is a major stress factor for the family, and the main cause of the elderly with dementia entering the elderly care facility is the wandering behavior. It can lead to fatal consequences ranging from simple accidents to death.
이때, 피보호자의 위치를 파악하기 위하여 CCTV와 연동하여 스마트 태그 및 얼굴 인식을 이용하는 방법이 연구 및 개발되었는데, 이와 관련하여 선행기술인 한국등록특허 제10-1482658호(2015년01월15일 공고) 및 한국등록특허 제10-2039277호(2019년10월31일 공고)에는, 피보호자가 소지하는 스마트 태그, CCTV에서 스마트 태그를 태깅할 수 있는 리더를 구비하며, CCTV의 리더에서 스마트 태그가 태깅된 경우 CCTV 화면을 관제센터로 전송하는 구성과, 보행로를 지나가는 보행자의 얼굴을 획득한 후, 등록된 대상자의 얼굴과 비교하여 이벤트 발생여부를 판별하여 그 결과를 업로드하는 구성이 각각 개시되어 있다.At this time, in order to determine the location of the ward, a method of using smart tags and face recognition in conjunction with CCTV has been researched and developed. Korean Patent Registration No. 10-2039277 (published on October 31, 2019) includes a smart tag possessed by a ward and a reader capable of tagging a smart tag in CCTV, and when the smart tag is tagged in the CCTV reader A configuration for transmitting a CCTV screen to a control center and a configuration for obtaining a face of a pedestrian passing through a pedestrian path, comparing it with the face of a registered subject, determining whether an event has occurred, and uploading the result are disclosed.
다만, 전자의 경우 피보호자가 스마트 태그를 반드시 소지해야 하는데 자신의 집도 찾아가지 못하는 상황에서 스마트 태그를 반드시 소지할 확률은 희박하다. 후자의 경우에도 얼굴을 식별하는 것은 기 설정된 거리 내에 위치하거나 화질 또는 밝기가 보장되어야 식별하는데 어두운 저녁이나 화질이 좋지 않은 상황 또는 빛에 의해 번지는 화면 등에서는 얼굴 자체를 식별하기가 매우 어려워져 현실성이 떨어진다. 최근 e-나라 지표의 경찰청 내부 행정자료인 실종 치매환자 신고접수 및 처리현황을 살펴보면, 치매로 인한 실종이 최근 5년 동안 72%이상 증가했고, 이러한 실종을 예방하기 위한 사회서비스로 배회가능 어르신 인식표 보급사업, 치매체크 앱 배회감지 서비스, 노인장기요양보험의 배회감지기 급여, 경찰청 실종경보문자 등을 시행하고 있으나 여전히 치매노인을 찾기란 쉬운 일이 아니다. 이에, 치매노인을 포함한 실종자의 실시간 위치를 파악하고, 금지구역에 진입하거나 금지행동을 하는 경우 알람을 울리도록 하는 시스템의 연구 및 개발이 요구된다.However, in the case of the former case, the ward must possess the smart tag, but the probability of possessing the smart tag is slim in a situation where the ward cannot visit his or her house. Even in the latter case, face identification is identified only when it is located within a preset distance or when quality or brightness is guaranteed. However, it is very difficult to identify the face itself in a dark evening, poor picture quality, or a screen smeared by light. it falls Looking at the recent e-Nara index, the National Police Agency's internal administrative data, the status of reports and processing of missing patients with dementia, the number of missing people due to dementia has increased by more than 72% over the past 5 years, and social services to prevent these disappearances have led to identification tags for elderly people who can roam around. Distribute business, dementia check app wandering detection service, long-term care insurance for the elderly, loitering detector payment, National Police Agency missing alert text messages, etc. are being implemented, but it is still not easy to find an elderly person with dementia. Accordingly, research and development of a system that detects the real-time location of a missing person, including an elderly person with dementia, and sounds an alarm when entering a prohibited area or performing a prohibited action, is required.
본 발명의 일 실시예는, 사용자 단말에서 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록한 경우, 피보호자의 실시간 위치를 맵핑하여 안내하고, 금지구역에 진입하거나 금지행동을 하는 경우 알람을 제공하며 위치를 함께 제공함으로써 사용자가 24/7 피보호자를 보호하지 않고 생계활동에 집중할 수 있도록 도와주며, 등록되지 않은 피보호자라고 할지라도 실종 이벤트가 발생하는 경우 동일한 프로세스로 실시간 위치를 추적할 수 있도록 하고, 치매노인 및 실종자 뿐 아니라, 자살을 시도하거나 술에 취해 노숙하는 경우를 객체탐지로 파악할 수 있는, AI 기반 실종자 관리 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.An embodiment of the present invention, when the user terminal registers the ward's face image, body image, and ward information, maps and guides the ward's real-time location, provides an alarm when entering a prohibited area or performs a prohibited action, and provides location By providing together, it helps users to focus on livelihood activities without protecting their wards 24/7, and even if they are unregistered wards, they can track their location in real time with the same process in the event of a missing person, elderly people with dementia And it is possible to provide an AI-based missing person management service providing system that can identify not only the missing person, but also a case of attempting suicide or being drunk and staying homeless through object detection. However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록하고, 피보호자의 실시간 동선을 추적한 결과를 수신하여 지도상에 출력하는 사용자 단말 및 사용자 단말로부터 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록받아 저장하는 저장부, 적어도 하나의 금지구역을 설정하여 적어도 하나의 금지구역에 피보호자가 진입한 경우 알람을 울리도록 설정하는 금지구역설정부, 적어도 하나의 금지행동을 설정하여 적어도 하나의 금지행동을 피보호자가 하는 경우 알람을 울리도록 설정하는 금지행동설정부, 사용자 단말로 피보호자의 실시간 동선을 안내하고 금지구역에 진입하거나 금지행동을 하는 경우 사용자 단말로 알람을 전송하는 알람부를 포함하는 관리 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention registers the ward's face image, body image, and ward information, receives the result of tracking the ward's real-time movement, and outputs it on a map A storage unit that receives and stores face images, body images, and ward information from user terminals and user terminals, and sets up at least one prohibited area to set an alarm to sound when a ward enters at least one prohibited area Part, Prohibited action setting unit that sets at least one prohibited action to set an alarm to sound when the ward performs at least one prohibited action, guides the ward's real-time movement to the user terminal, In this case, a management service providing server including an alarm unit for transmitting an alarm to a user terminal is included.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자 단말에서 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록한 경우, 피보호자의 실시간 위치를 맵핑하여 안내하고, 금지구역에 진입하거나 금지행동을 하는 경우 알람을 제공하며 위치를 함께 제공함으로써 사용자가 24/7 피보호자를 보호하지 않고 생계활동에 집중할 수 있도록 도와주며, 등록되지 않은 피보호자라고 할지라도 실종 이벤트가 발생하는 경우 동일한 프로세스로 실시간 위치를 추적할 수 있도록 하고, 치매노인 및 실종자 뿐 아니라, 자살을 시도하거나 술에 취해 노숙하는 경우를 객체탐지로 파악할 수 있다.According to any one of the above-described problem solving means of the present invention, when the user terminal registers the ward's face image, body image, and ward information, mapping and guiding the ward's real-time location, entering a prohibited area or performing a prohibited action By providing an alarm and providing location together, it helps users to focus on livelihood activities without protecting 24/7 wards, and even unregistered wards can track their real-time location in the same process if a missing event occurs. It is possible to identify not only elderly people with dementia and missing people, but also cases of suicide attempt or drunken homelessness by object detection.
도 1은 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 관리 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.1 is a diagram for explaining an AI-based missing person management service providing system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a management service providing server included in the system of FIG. 1 .
3 and 4 are diagrams for explaining an embodiment in which an AI-based missing person management service is implemented according to an embodiment of the present invention.
5 is an operational flowchart illustrating a method for providing an AI-based missing person management service according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that it may further include other components, not excluding other components, unless otherwise stated, and one or more other characteristics. However, it should be understood that it does not preclude the possibility of existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. As used throughout the specification, the terms "about", "substantially", etc., are used at or approximating that value when manufacturing and material tolerances inherent in the stated meaning are given, and do not convey an understanding of the present invention. Accurate or absolute figures are used to help prevent exploitation by unscrupulous infringers of the disclosed disclosure. The term "step of (doing)" or "step of" as used throughout the specification of the present invention does not mean "step for".
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware. On the other hand, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or configured to reproduce one or more processors. Thus, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, device, or device may be performed instead by a server connected to the terminal, device, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal, apparatus, or device connected to the server.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is the terminal's identifying data. can be interpreted as
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, AI 기반 실종자 관리 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 관리 서비스 제공 서버(300), 적어도 하나의 CCTV(400)를 포함할 수 있다. 다만, 이러한 도 1의 AI 기반 실종자 관리 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a diagram for explaining an AI-based missing person management service providing system according to an embodiment of the present invention. Referring to FIG. 1 , an AI-based missing person management service providing system 1 may include at least one
이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 관리 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 관리 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 CCTV(400)와 연결될 수 있다. 또한, 적어도 하나의 CCTV(400)는, 네트워크(200)를 통하여 관리 서비스 제공 서버(300)와 연결될 수 있다. At this time, each component of FIG. 1 is generally connected through a network (Network, 200). For example, as shown in FIG. 1 , at least one
여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure capable of exchanging information between nodes such as a plurality of terminals and servers, and examples of such networks include a local area network (LAN) and a wide area network (WAN: Wide Area Network), the Internet (WWW: World Wide Web), wired and wireless data communications networks, telephone networks, and wired and wireless television communications networks. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi , Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth (Bluetooth) network, NFC ( A Near-Field Communication (Near-Field Communication) network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, etc. are included, but not limited thereto.
하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if at least one term does not exist, each component may exist in singular or plural, and may mean singular or plural. It will be self-evident. In addition, the singular or plural number of each component may be changed according to embodiments.
적어도 하나의 사용자 단말(100)은, AI 기반 실종자 관리 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록하고, 피보호자의 실시간 동선을 지도상에 출력하는 단말일 수 있다. 그리고, 사용자 단말(100)은 피보호자가 금지구역에 진입하거나 금지행동을 하는 경우 관리 서비스 제공 서버(300)로부터 알람을 수신하고 실시간 위치를 추적한 결과를 공유받는 단말일 수 있다. At least one
여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one
관리 서비스 제공 서버(300)는, AI 기반 실종자 관리 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 관리 서비스 제공 서버(300)는, 적어도 하나의 CCTV(400)를 등록하고 사용자 단말(100)에서 등록한 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록하는 서버일 수 있다. 또한, 관리 서비스 제공 서버(300)는, 적어도 하나의 금지구역 및 금지행동을 설정하고, 금지구역에 피보호자가 진입하거나 금지행동을 피보호자 또는 임의의 객체가 하는 경우 사용자 단말(100) 또는 관제센터로 알람을 전송하는 서버일 수 있다. 그리고, 관리 서비스 제공 서버(300)는, 사용자 단말(100)에서 피보호자를 등록하지 않은 상태에서 실종 이벤트를 출력하는 경우, 상술한 프로세스를 모두 동일하게 거쳐 피보호자를 추적하고 금지구역에 진입하지 않았는지 또는 금지행동을 하고 있지 않은지를 파악하도록 하는 서버일 수 있다. The management
여기서, 관리 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the management
적어도 하나의 CCTV(400)는, AI 기반 실종자 관리 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하는 지능형 CCTV일 수 있다. At least one
여기서, 적어도 하나의 CCTV(400)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 CCTV(400)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 CCTV(400)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one CCTV (400) may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one
도 2는 도 1의 시스템에 포함된 관리 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.2 is a block diagram illustrating a management service providing server included in the system of FIG. 1, and FIGS. 3 and 4 describe an embodiment in which an AI-based missing person management service is implemented according to an embodiment of the present invention. It is a drawing for
도 2를 참조하면, 관리 서비스 제공 서버(300)는, 저장부(310), 금지구역설정부(320), 금지행동설정부(330), 알람부(340), 미등록관리부(350), 안면인식부(360), 행동인식부(370) 및 의복인식부(380)를 포함할 수 있다.Referring to FIG. 2, the management
본 발명의 일 실시예에 따른 관리 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100) 및 적어도 하나의 CCTV(400)로 AI 기반 실종자 관리 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100) 및 적어도 하나의 CCTV(400)는, AI 기반 실종자 관리 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100) 및 적어도 하나의 CCTV(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.The management
도 2를 참조하면, 저장부(310)는, 사용자 단말(100)로부터 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록받아 저장할 수 있다. 사용자 단말(100)은, 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록하고, 피보호자의 실시간 동선을 추적한 결과를 수신하여 지도상에 출력할 수 있다. 이때 피보호자의 신체 이미지를 받는 이유는, CCTV(400)에서 촬영된 영상의 경우 어느 정도 거리가 확보되지 않는 이상 얼굴의 특징점을 확인하는 것이 어렵고, 모든 피사체의 얼굴에 대하여 특징점을 찾는 얼굴 식별 및 인식에 대한 알고리즘을 돌리는 경우 막대한 네트워킹 자원 및 컴퓨팅 자원이 소모되고 시간이 과다하게 소요되기 때문이다. 이에 따라, 어느 정도의 거리가 확보되지 않는 경우, 예를 들어 CCTV와 피사체 간 거리가 X 거리 미만으로 좁혀지지 않는 경우, 신체의 비율이나 색상 또는 의복 등으로 피보호자를 확정 또는 식별하도록 신체 이미지를 받는다. Referring to FIG. 2 , the
이를 위하여, 딥러닝 이미지 분석을 이용한 외형 분석 기술을 이용할 수 있다. 딥러닝 이미지 분석을 이용한 동물 외형 분석 기술은 신체 이미지에서 특징점을 찾기 위한 CNN(Convolution Neural Network)과 구글에서 제공하는 딥러닝 프레임워크인 TensorFlow를 이용하여 객체의 외형을 분석할 수 있다. CNN을 통해 외형 골격에서 특징점을 찾아내고 Tensor Flow로 신체비율의 정보를 분석하여 각 피사체의 고유한 외형정보를 얻을 수 있다. 이렇게 객체의 외형만으로 고유 정보를 얻을 수 있고 이를 통해 각 객체를 특정 및 식별할 수 있다. To this end, an appearance analysis technique using deep learning image analysis may be used. Animal appearance analysis technology using deep learning image analysis can analyze the appearance of an object by using CNN (Convolution Neural Network) to find feature points in body images and TensorFlow, a deep learning framework provided by Google. It is possible to obtain the unique appearance information of each subject by finding feature points in the external skeleton through CNN and analyzing the body proportion information with Tensor Flow. In this way, unique information can be obtained only with the appearance of an object, and through this, each object can be specified and identified.
이때, 멀리 있는 경우, CCTV(400)와 피사체 간 거리가 먼 경우에는 얼굴의 특징점이 정확히 파악이 안되기 때문에 제 1 단계로, 외형 골격이나 비율, 예를 들어, 몸통과 다리의 비율, 얼굴의 크기와 몸통의 길이 간의 비율이나 길이를 이용하여 식별하고, 제 2 단계로 가까이에서 촬영된 경우에는 얼굴의 특징점을 이용하여 식별할 수 있도록 한다. 여기서, 외형 골격을 구하기 위해서는 상술한 Tensor Flow 외에도, 스켈레톤(Skeleton) 정보를 OpenPose 알고리즘을 이용하여 추출한 후, 각 부위별 비율이나 길이 등을 이용하여 동일 객체(피보호자)인지의 여부를 확인할 수도 있다.At this time, if the distance between the CCTV (400) and the subject is long, the facial feature points cannot be accurately grasped, so in the first step, the external skeleton or proportions, for example, the ratio of the torso and legs, the size of the face It is identified using the ratio or length between the body and the length of the torso, and in the second step, in the case of close-up, it is identified using the feature points of the face. Here, in order to obtain the external skeleton, in addition to the above-mentioned Tensor Flow, after extracting the skeleton information using the OpenPose algorithm, it is possible to check whether it is the same object (protected person) by using the ratio or length of each part.
<이미지 보정><Image Correction>
어두운 영상을 밝게 하는 방법에는 단순 영상 처리를 활용하는 경우와 딥러닝을 활용하는 경우도 있다. 딥러닝을 활용하는 경우에는 실내와 야외 사진을 구분 없이 학습을 시켜 어두운 이미지의 내부 색들을 학습된 데이터 중 비슷한 색상으로 복원시켜주는 기술이 존재한다. 단순 영상 처리로는 전체적인 명암을 일정하게 조절하거나 RGB 색상에 대한 밝기 값을 가지고 어두운 부분과 밝은 부분의 차이를 계산한 중간 밝기를 적용하는 방법도 있다. 본 발명의 일 실시예에서는 히스토그램 평활화(Histogram Equalization)를 이용하여 이미지를 보정할 수 있다. 흑백 영상에 히스토그램 평활화를 적용하면 영상의 명암 분포가 균일하게 변화되어 어두운 부분이 개선되는 효과를 얻을 수 있다. 이러한 명암의 차이는 흑백 영상에서 어두워서 잘 안 보이는 영역이나 빛으로 인해 주변과 비교해 밝은 부분을 보정 하여 딥러닝 인식률을 향상시킨다.To brighten a dark image, simple image processing and deep learning are used. In the case of using deep learning, there is a technology that learns indoor and outdoor photos without distinction and restores the internal colors of dark images to similar colors among the learned data. As simple image processing, there is also a method of constantly adjusting the overall contrast or applying an intermediate brightness obtained by calculating the difference between a dark area and a bright area using brightness values for RGB colors. In an embodiment of the present invention, an image may be corrected using histogram equalization. When histogram equalization is applied to a black and white image, the brightness distribution of the image is uniformly changed and dark areas can be improved. This difference in contrast enhances the deep learning recognition rate by compensating for areas that are dark and difficult to see in black and white images or areas that are bright compared to the surroundings due to light.
움직이는 객체를 찾아내기 위해서는 배경과 움직이는 객체를 분리하는 작업이 필요하다. 그 작업을 할 수 있는 기술이 전경 분리(Background Subtraction)이다. 전경 분리는 새로운 프레임이 들어올 때, 이전 프레임과 비교하여 이전 프레임과 현재 프레임의 차이를 가지고 움직이는 객체를 찾는다. 전경 분리를 하면 움직이는 객체를 찾을 수 있어 움직이는 영역을 추출하여 딥러닝 인식에 사용할 수 있다. 만약 피보호자를 찾긴 했지만 전체 영역이 불분명하게 촬영된 경우에는 딥러닝을 하기 위해 관심 영역을 추출하면 몸통이 잘린 형태가 나오기 때문에 좋지 않다. 이러한 문제를 해결하기 위해 모폴로지(Morphology)의 침식(Erode)과 팽창(Dilate)를 이용할 수 있다. 이를 이용하면 나뭇잎이 흔들거리거나 벌레가 나타날 때 발생할 수 있는 자그마한 노이즈도 제거할 수 있다. 모폴로지가 적용된 후, 모폴로지가 필요보다 적게 적용이 되면 피보호자 신체의 일부가 잘리거나 노이즈가 없어지지 않는 경우가 있다. 이러한 경우에는 신체가 완전하지 않아 딥러닝 인식을 실패할 수도 있고 노이즈를 인식하느라 피보호자를 인식하는 시간이 지연될 수 있다. 이러한 상황을 고려하면 피보호자의 크기보다 조금 크게 모폴로지를 적용하여 딥러닝 인식에 무리가 없도록 설정할 수 있다.In order to find a moving object, it is necessary to separate the background and the moving object. A technique that can do that is Background Subtraction. Foreground separation finds a moving object with the difference between the previous frame and the current frame compared to the previous frame when a new frame enters. With foreground separation, moving objects can be found, so moving areas can be extracted and used for deep learning recognition. If the ward is found, but the entire area is unclearly photographed, it is not good because the body is cut off when the area of interest is extracted for deep learning. To solve this problem, erode and dilate of morphology can be used. By using this, you can also remove small noises that can occur when leaves shake or insects appear. After morphology is applied, if morphology is applied less than necessary, a part of the ward's body may be cut off or noise may not be removed. In this case, deep learning recognition may fail because the body is not perfect, and the time for recognizing the ward may be delayed due to noise recognition. Considering this situation, it is possible to set the deep learning recognition to be moderate by applying the morphology slightly larger than the size of the ward.
딥러닝 인식을 할 때, 배경이 많이 포함된 이미지 보다 찾고자 하는 객체만 있는 경우에 딥러닝 정확도가 향상된다. 찾고자 하는 객체 이외에 이미지에 포함된 다른 영역 연산하는 과정이 줄어들기 때문이다. 전경 분리와 모폴로지를 거친 영상을 히스토그램 평활화를 거친 영상과 겹치면 히스토그램 평활화 영상에 피보호자가 어디에 있는지 나타낼 수 있다. 관심 영역 추출(Region of Interest)을 위하여 박스를 이용할 수 있고, 박스의 좌표를 이용하면 피보호자의 영역을 추출할 수 있다. 이렇게 찾고자 하는 객체가 잘 보이는 이미지를 이용하면 딥러닝 인식 결과가 향상될 수 있다.When performing deep learning recognition, deep learning accuracy is improved when there are only objects to be found rather than images with many backgrounds. This is because the process of calculating other areas included in the image other than the object to be found is reduced. If an image that has undergone foreground separation and morphology is overlapped with an image that has undergone histogram smoothing, the location of the ward can be displayed in the histogram smoothed image. A box can be used for region of interest extraction, and a ward's region can be extracted by using the coordinates of the box. Deep learning recognition results can be improved by using an image that clearly shows the object to be found.
금지구역설정부(320)는, 적어도 하나의 금지구역을 설정하여 적어도 하나의 금지구역에 피보호자가 진입한 경우 알람을 울리도록 설정할 수 있다. 이때, 피보호자를 등록했으니 금지구역에 진입하는 것을 사용자에게 안내하는 것이지, 해당 금지구역에 모든 사람에게 위험한 경우, 예를 들어, 건물의 붕괴위험이 있다거나 홍수의 위험이 있는 하천 등인 경우에는 모든 사람에게 위험하므로 피보호자의 여부에 상관없이 관제센터로 금지구역에 진입하는 사람이 있다는 것을 안내할 수 있고 구조를 위한 인력을 보낼 것을 권고할 수 있다. 이때, 금지구역은, 폐가, 공가, 강변 및 야산입구를 포함할 수 있으나, 나열된 것들로 한정되지 않고 열거되지 않은 이유로 배제되지 않는다.The prohibited
금지행동설정부(330)는, 적어도 하나의 금지행동을 설정하여 적어도 하나의 금지행동을 피보호자가 하는 경우 알람을 울리도록 설정할 수 있다. 이때, 금지행동은, 도로에 기 설정된 시간 이상 움직임 없이 누워있는 행동, 다리를 뛰어내리는 행동 및 고령 또는 치매환자의 배회행동을 포함할 수 있으나, 나열된 것들로 한정되지 않고 열거되지 않은 이유로 배제되지 않는다.The prohibited
이때, 객체 탐지(Object Detection)를 위해 Darknet 기반 YOLO(You Only Look Once)를 이용할 수 있다. 제일 먼저 구현되어야 할 부분은 CCTV(400)로부터 수신한 영상 내 객체가 사람인지 아닌지, 사람이라면 피보호자인지 또는 아닌지, 피보호자라면 그 위치는 어디인지를 찾아내는 객체탐지 기술이 먼저 필요하며, Darknet 기반의 YOLO를 이용하여 구현할 수 있다. 일반적으로 분류(Classification) 문제라는 것은 객체(Object)가 하나있는 영상에 대해서 객체의 클래스(Class)를 분류하는 문제이다. 이에 반해 객체탐지 문제는 분류(Classification)와 위치탐지(Localization)를 합친 문제로, 객체의 클래스 분류와 객체의 위치를 바운딩박스(Bounding Box)로 위치를 찾는 것을 의미한다. 객체 탐지(Object Detection) 분야에서 CNN(Convolutional Neural Network)을 기반으로 하는 여러 모델을 이용할 수도 있는데, R-CNN, Fast R-CNN, Faster R-CNN 등을 이용할 수도 있다.At this time, Darknet-based YOLO (You Only Look Once) may be used for object detection. The first thing to be implemented is the object detection technology that first finds out whether the object in the video received from the CCTV (400) is a person, whether a person is a ward or not, and if it is a ward, where the location is, Darknet-based YOLO can be implemented using In general, a classification problem is a problem of classifying an object class for an image having one object. On the other hand, the object detection problem is a problem that combines classification and localization, and means classifying an object and finding the location of the object with a bounding box. In the field of object detection, various models based on CNN (Convolutional Neural Network) may be used, and R-CNN, Fast R-CNN, Faster R-CNN, and the like may be used.
<행동 분류><Behavioral Classification>
사람의 금지행동 인지를 위해서 사람이 이 행동을 취하는 경우 무조건 알람을 울리는 경우, 피보호자가 이 행동을 취하는 경우 사용자 및 관계 기관에 알람을 울리는 경우 등으로 나누어 정의할 수 있다. 예를 들어, 홍수가 일어났는데 하천에 진입하는 행위는 피보호자를 포함한 모든 이에게 위험하므로 전자에 해당한다. 보행로를 걷는 행위는 모든 사람에게 위험하지는 않지만, 피보호자에게는 위험할 수 있으므로 이는 후자에 해당한다. 이때 어떠한 행동인지를 분류하는 분류기는 예를 들어, 구글에서 서비스 하고 있는 Teachable Machine으로 학습시킬 수 있다. 구글이 머신러닝 과정을 이해하고 학습할 수 있는 웹 기반 학습 도구인 Teachable Machine를 공개했는데, 이미지, 오디오, 자세 세 가지 프로젝트를 통해, 머신러닝을 학습하고 학습 모델을 생성한 후 저장하고 활용할 수 있다. 웹사이트를 방문해 보면 누구나 쉽게 사용할 수 있도록 구성되어 있으며, 이미지에 대한 학습 모델은 프리뷰(Preview) 기능을 이용해, 바로 다른 이미지와 비교하거나 Export Model 메뉴를 이용해 텐서플로(Tensorflow.js) 로 내보내거나 다운로드받을 수 있다. 물론 상술한 알고리즘 외에도 다양한 알고리즘으로 행동을 인식하고 패턴을 분류할 수 있음은 자명하다 할 것이다.In order to recognize a person's prohibited behavior, it can be defined by dividing it into a case where an alarm is sounded unconditionally when a person takes this action, and a case where an alarm is sounded to a user and related institutions when a ward takes this action. For example, when a flood occurs, the act of entering a river is dangerous to everyone including the ward, so it corresponds to the former. The act of walking on a sidewalk is not dangerous for everyone, but it can be dangerous for the ward, so it falls under the latter. At this time, a classifier that classifies what kind of action it is can be trained with, for example, a teachable machine serviced by Google. Google has unveiled Teachable Machine, a web-based learning tool that can understand and learn the machine learning process. Through three projects: image, audio, and posture, you can learn machine learning and create a learning model, then save and use it. . It is structured so that anyone can easily use it by visiting the website, and the training model for the image can be compared with other images using the Preview function, or exported or downloaded to Tensorflow.js using the Export Model menu. can receive Of course, it will be self-evident that behaviors can be recognized and patterns can be classified by various algorithms in addition to the above-described algorithms.
알람부(340)는, 사용자 단말(100)로 피보호자의 실시간 동선을 안내하고 금지구역에 진입하거나 금지행동을 하는 경우 사용자 단말(100)로 알람을 전송할 수 있다. The
미등록관리부(350)는, 사용자 단말(100)에서 피보호자를 기 등록하지 않은 경우라도, 피보호자의 실종 이벤트가 출력되는 경우, 사용자 단말(100)로부터 피보호자의 얼굴 이미지, 신체 이미지 및 피보호자 정보를 입력받은 후, 피보호자의 실시간 위치를 추적하고 금지구역에 위치하거나 금지행동을 하는 경우 사용자 단말(100)로 알람을 전송할 수 있다. 즉 등록을 하지 않았더라도 상술한 과정을 처음부터 시작함으로써 피보호자를 찾을 수 있게 된다.The
안면인식부(360)는, 피보호자의 얼굴 이미지를 등록받은 경우 기 등록된 안면 인식 알고리즘을 이용하여 적어도 하나의 CCTV로부터 수신된 영상 내 객체 중 안면이 동일한 객체를 추출 및 추적할 수 있다. 얼굴 인식(Face Identification) 기술은 크게 신원 확인(Face Recognition)과 동일인 조회(Face Verification) 문제로 구분할 수 있다. 그 중에서 본인 인증은 본인의 얼굴 이미지를 앵커(Anchor) 이미지로 등록하고, 인식이 필요할 때마다 앵커 이미지와의 동일인 여부를 판단하는 일대일(One-to-One) 매칭 문제로 동일인 조회(Face Verification)에 해당한다. 현존하는 동일인 조회 모델의 경우 다양한 데이터 셋에서 99%를 웃도는 높은 성능을 보이고 있지만, 모자, 안경 등 인식 방해 요소들이 여전히 성능에 영향을 미친다. 특히 마스크를 착용하는 경우 턱, 코, 입 등 얼굴 특징점 좌표의 대부분이 가려지는 만큼 얼굴 인식(Face Identification)에 상당한 어려움이 있다. 얼굴 인식 오픈소스 애플리케이션 DeepFace도 마스크를 착용한 경우에는 얼굴을 인식하지 못한다.When a face image of a ward is registered, the
이에 본 발명의 등록 과정은 두 개의 단계로 구성될 수 있다. 첫 번째는 한국인 안면 이미지 이용하는 단계인데, 마스크 미착용 얼굴 이미지로 마스크 착용 얼굴 이미지를 증강하는 단계이고, 두 번째는, 첫 번째 단계에서 생성된 마스크 착용 이미지를 이용하여, 동일인 조회(Face Verification) 모델을 학습하고 검증하는 단계이다.Accordingly, the registration process of the present invention may consist of two steps. The first step is to use the facial image of Koreans, which is to augment the mask-wearing face image with the face image without a mask. This is the stage of learning and testing.
<마스크 착용 데이터 증강><Mask wearing data augmentation>
마스크 착용 동일인 조회(Face Verification)의 성능 향상을 위해서는 마스크를 착용한 얼굴 이미지를 학습에 활용해야 한다. 이를 위해 실제 마스크 착용 이미지 데이터 셋을 확보하여 레이블을 부여하기는 쉽지 않다. 그러나 마스크 미착용 이미지에 마스크를 합성하는 방식의 시뮬레이션을 통해 마스크 착용 이미지를 생성할 수 있다. 한국인 안면 이미지는 한국인을 대상으로 다양한 연령과 성별을 고려하여 촬영된 안면 이미지 데이터이다. 해당 데이터는 총 400명의 인원에 대해 촬영 각도 20종, 조명 30종, 액세서리 6종, 표정 3종으로 다양하게 구성되어 있다. 마스크 착용 시뮬레이션은 마스크와 얼굴 특징점 좌표에서 각각 N 개의 점을 기준으로 원근 변환(Perspective Transformation)을 시행하여 마스크 착용 얼굴 이미지를 생성할 수 있다. In order to improve the performance of Face Verification, it is necessary to use face images wearing masks for learning. To this end, it is not easy to secure a data set of actual mask wearing images and assign labels. However, a mask-wearing image may be generated through simulation of a method of combining a mask with a non-mask-wearing image. The Korean face image is facial image data taken by considering various ages and genders of Koreans. The data consists of 20 types of shooting angles, 30 types of lighting, 6 types of accessories, and 3 types of facial expressions for a total of 400 people. The mask wearing simulation may generate a face image wearing a mask by performing perspective transformation based on N points in the coordinates of the mask and facial feature points, respectively.
<마스크 착용 동일인 조회><Search for the same person wearing a mask>
동일인 조회(Face Verification)모델 학습을 위해 학습 및 검증 데이터를 분리하고, 성능 평가를 위해 마스크 미착용 이미지(Non_mask)와 마스크 착용 이미지(Mask)를 한 쌍의 페어(Pair)로 만들어 총 M 개의 페어를 구성할 수 있다. 학습 모델은 모델의 정확도와 속도를 모두 고려하기 위해 ArcFace와 MobileFaceNets를 각각 이용할 수 있고, 증강된 마스크 이미지를 학습에 이용했는지에 따라 나누어 학습한 후 결과를 비교할 수 있다. For face verification model training, training and verification data are separated, and for performance evaluation, an image without a mask (Non_mask) and an image wearing a mask (Mask) are made into a pair, and a total of M pairs are created. can be configured. The learning model can use ArcFace and MobileFaceNets respectively to consider both the accuracy and speed of the model, and the results can be compared after learning by dividing according to whether the augmented mask image is used for learning.
행동인식부(370)는, 피보호자의 신체 이미지를 등록받은 경우 기 등록된 행동 인식 알고리즘을 이용하여 적어도 하나의 CCTV로부터 수신된 영상 내 객체 중 행동이 동일한 객체를 추출 및 추적할 수 있다. 예를 들어, 모두에게 위험하지 않지만 피보호자가 하면 위험한 상황은 피보호자를 추출하고 해당 피보호자가 그 행동을 하고 있는지를 파악하는 두 단계의 절차를 거치게 된다. 이때, 상술한 바와 같이 CCTV(400)와 피보호자 간 거리가 얼굴의 특징점을 구분할만큼 가까이 있는 경우는 거의 없고, 대부분의 공공기관 CCTV(400), 또는 사설 CCTV라고 할지라도 넓은 가시거리를 확보하기 위하여 지상에서 최소한 2미터 높이는 유지하기 마련이다. 이 경우 얼굴 특징점을 정확히 파악할 수 없으므로 상술한 바와 같이 신체 이미지를 통하여 신체 비율이나 의복 등을 통하여 피보호자를 특정하고, 해당 특정된 객체(피보호자)가 해당 행동을 하고 있는지를 파악한 후 이를 관제센터나 사용자 단말(100)로 알려줄 수 있다. 이렇게만 필터링을 해주더라도 인간이 각 객체를 골라내야 하는 영상의 수는 확연히 줄어들 수 있고 빠른 시간 내에 피보호자를 찾을 수 있게 된다. When the body image of the ward is registered, the
의복인식부(380)는, 사용자 단말(100)에서 실종 이벤트가 출력되고, 사용자 단말(100)에서 피보호자의 의상에 대한 색상 및 디자인을 지정한 경우, 적어도 하나의 CCTV로부터 수집되는 객체 중 색상 및 디자인과 기 설정된 유사도를 초과하는 의상을 착용한 객체를 추출할 수 있다.The
이하, 상술한 도 2의 관리 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, an operation process according to the configuration of the above-described management service providing server of FIG. 2 will be described in detail with reference to FIGS. 3 and 4 as examples. However, it will be apparent that the embodiment is only any one of various embodiments of the present invention, and is not limited thereto.
도 3을 참조하면, 관리 서비스 제공 서버(300)는 사용자 단말(100)로부터 피보호자 정보와 얼굴 이미지 및 신체 이미지를 입력받고, (b) 실시간 동선 맵핑을 실시하여 배회를 하는 경우 어디에 위치해있는지를 지도상에서 출력해주고 여기까지 경로를 안내해주는 내비게이션을 제공하며, (c) 금지구역에 피보호자가 접근하는 경우 또는 (d)와 같이 금지행동을 하는 경우 사용자 단말(100)로 실시간 위치 및 내비게이션을 제공하여 빠르게 피보호자를 찾을 수 있도록 한다. 도 4와 같이 기 구축된 CCTV(400)를 이용하여 실시간 피보호자 추적 및 맵핑은 물론, 피보호자가 금지된 구역에 접근하려고 하거나 이미 접근하여 진입한 경우, 또 금지행위를 하는 경우 등을 파악하며, 기 구축된 인프라와의 연계 및 확장을 통하여 서비스의 범위 및 종류를 다양화할 수 있다. 본 발명의 일 실시예와 종래기술 간의 차이를 정리하면 표 1과 같이 정리될 수 있다.Referring to FIG. 3, the management
방법missing person search
method
- 경찰 및 지역사회 인력이 직접 수색
- 통합관제 센터에서
CCTV 검색
- Missing person notification text service
- Direct search by police and community personnel
- In the integrated control center
CCTV search
- 플랫폼 미등록 실종자(치매노인)도 실종신고 시, AI 플랫폼(APP)을 동선 mapping 서비스 제공
- 등록 실종자(치매노인) 금지구역(폐가, 공가, 강변, 야산 입구 등) 배회 시 AI 플랫폼에서 자동 Alarming 서비스 제공- The missing persons registered on the platform (elderly with dementia) automatically provide movement mapping service through the AI platform (APP)
- AI platform (APP) provides movement mapping service when a missing person (elderly with dementia) who is not registered on the platform is reported missing
- Provides automatic alarming service on the AI platform when registered missing persons (seniors with dementia) wander in prohibited areas (abandoned houses, empty houses, riversides, forest entrances, etc.)
활용information
uses
- 경찰도 실종자 수색을 위한 CCTV 열람을 위해서 지자체에 영상반출 민원을 제출하여 사용할 수 있어, CCTV와 통합플랫폼의 활용도가 낮음
- 치매노인도 중요 정보를 보건소가 가지고 있음- Existing missing person facial recognition information is in the National Police Agency and is not provided to local governments, so facial recognition services are not being implemented.
- The police can also submit and use a complaint to the local government to view the CCTV for searching for missing people, so the utilization of CCTV and the integrated platform is low.
- Public health centers have important information for the elderly with dementia
- 실종자 이동 정보 등을 확인하는 절차 간소화로 실종자 수색 시간을 획기적으로 단축시킬 수 있음
- In the form of an APP, the guardian of the missing person (elderly with dementia), etc. joins the APP, directly enters the information of the subject, and submits consent related to personal information through the APP. no need to get
- The search time for missing persons can be drastically reduced by simplifying the process of checking the movement information of the missing persons.
- 배회 중심
- Centered on facial recognition of missing persons
- loitering center
→ 비배회 실종자(치매노인) 대응 가능- Prevention of accidents of the elderly with dementia who die in empty houses, abandoned houses, riversides, and hills, not wandering, through the alarming service for trespassing into prohibited areas
→ Possible to respond to non-roaming missing persons (seniors with dementia)
- Problem solving approach with simple devices and smart technology
이와 같은 도 2 내지 도 4의 AI 기반 실종자 관리 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 AI 기반 실종자 관리 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not described for the AI-based missing person management service provision method of FIGS. 2 to 4 are the same as or easily inferred from the description of the AI-based missing person management service provision method through FIG. 1 above. Therefore, the following description is omitted.
도 5는 본 발명의 일 실시예에 따른 도 1의 AI 기반 실종자 관리 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.FIG. 5 is a diagram illustrating a process of transmitting and receiving data between components included in the AI-based missing person management service providing system of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process of transmitting and receiving data between each component will be described through FIG. 5, but the present application is not limited to such an embodiment, and according to various embodiments described above, It is obvious to those skilled in the art that a process of transmitting and receiving data may be changed.
도 5를 참조하면, 관리 서비스 제공 서버는, 사용자 단말로부터 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록받아 저장한다(S5100).Referring to FIG. 5 , the management service providing server receives and stores face image, body image, and ward information registered from the user terminal (S5100).
그리고, 관리 서비스 제공 서버는, 적어도 하나의 금지구역을 설정하여 적어도 하나의 금지구역에 피보호자가 진입한 경우 알람을 울리도록 설정하고(S5200), 적어도 하나의 금지행동을 설정하여 적어도 하나의 금지행동을 피보호자가 하는 경우 알람을 울리도록 설정한다(S5300).Then, the management service providing server sets at least one prohibited area, sets an alarm to sound when a ward enters the at least one prohibited area (S5200), and sets at least one prohibited action to set at least one prohibited action. When the ward does, an alarm is set to sound (S5300).
또, 관리 서비스 제공 서버는, 사용자 단말로 피보호자의 실시간 동선을 안내하고 금지구역에 진입하거나 금지행동을 하는 경우 사용자 단말로 알람을 전송한다(S5400).In addition, the management service providing server guides the ward's real-time movement to the user terminal and transmits an alarm to the user terminal when entering a prohibited area or performing a prohibited action (S5400).
상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps (S5100 to S5400) is only an example, and is not limited thereto. That is, the order of the above-described steps (S5100 to S5400) may be mutually changed, and some of the steps may be simultaneously executed or deleted.
이와 같은 도 5의 AI 기반 실종자 관리 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 AI 기반 실종자 관리 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not explained about the AI-based missing person management service provision method of FIG. 5 are the same as or easily inferred from the description of the AI-based missing person management service provision method through FIGS. 1 to 4 above. Therefore, the following description is omitted.
도 5를 통해 설명된 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The AI-based missing person management service providing method according to an embodiment described with reference to FIG. 5 may be implemented in the form of a recording medium including instructions executable by a computer, such as an application or program module executed by a computer. . Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
전술한 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 AI 기반 실종자 관리 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The above-described method for providing missing person management service based on AI according to an embodiment of the present invention may be executed by an application basically installed in a terminal (this may include a program included in a platform or an operating system basically installed in the terminal). and may be executed by an application (that is, a program) directly installed in the master terminal by a user through an application providing server such as an application store server, an application or a web server related to the corresponding service. In this sense, the above-described AI-based missing person management service providing method according to an embodiment of the present invention is implemented as an application (ie, a program) that is basically installed in a terminal or directly installed by a user and can be read by a computer such as a terminal. can be recorded on a recording medium.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.
Claims (6)
상기 사용자 단말로부터 얼굴 이미지, 신체 이미지 및 피보호자 정보를 등록받아 저장하는 저장부와, 적어도 하나의 금지구역을 설정하여 상기 적어도 하나의 금지구역에 피보호자가 진입한 경우 알람을 울리도록 설정하는 금지구역설정부와, 적어도 하나의 금지행동을 설정하여 적어도 하나의 금지행동을 피보호자가 하는 경우 알람을 울리도록 설정하는 금지행동설정부와, 상기 사용자 단말로 상기 피보호자의 실시간 동선을 안내하고 상기 적어도 하나의 금지구역에 진입하고, 상기 적어도 하나의 금지행동을 하는 경우 상기 사용자 단말로 알람을 전송하는 알람부와, 상기 피보호자의 신체 이미지를 등록받은 경우 기 등록된 딥러닝에 의한 행동 인식 알고리즘을 이용하여 적어도 하나의 CCTV로부터 수신된 영상 내 객체 중 행동이 상기 피보호자와 동일한 행동인지를 추출 및 추적하는 행동인식부를 포함하는 관리 서비스 제공 서버를 포함하고,
상기 관리 서비스 제공 서버는,
CNN(Convolution Neural Network)과 구글에서 제공하는 딥러닝 프레임워크인 TensorFlow를 이용하여 상기 저장된 신체 이미지에서 객체의 특징점을 추출하고(찾아내고), 상기 추출된 특징점을 이용하여 상기 CCTV가 가까이에서 촬영한 상기 피보호자(객체)를 식별하고,
상기 금지행동은, 도로에 기 설정된 시간 이상 움직임 없이 누워있는 행동, 다리를 뛰어내리는 행동 및 고령 또는 치매환자의 배회행동을 포함하고, 상기 금지구역은, 폐가, 공가, 강변 및 야산입구를 포함하는 것을 특징으로 하는 AI 기반 실종자 관리 서비스 제공 시스템.A user terminal for registering the ward's face image, body image, and ward information, and receiving and outputting a result of tracking the ward's real-time movement on a map; and
A storage unit for receiving and storing face image, body image, and ward information from the user terminal, and setting at least one prohibited area to set an alarm to sound when a ward enters the at least one prohibited area. A prohibited action setting unit configured to set at least one prohibited behavior and set an alarm to sound when the ward performs at least one prohibited behavior, and guides the real-time movement of the ward to the user terminal and displays the at least one prohibited behavior. When entering the zone and performing the at least one prohibited action, an alarm unit for transmitting an alarm to the user terminal, and when the body image of the ward is registered, at least one action recognition algorithm based on deep learning is registered. Including a management service providing server including a behavior recognition unit for extracting and tracking whether the behavior of the object in the image received from the CCTV of the ward is the same behavior as the ward,
The management service providing server,
Using CNN (Convolution Neural Network) and TensorFlow, a deep learning framework provided by Google, extract (find) the feature points of the object from the stored body image, and use the extracted feature points to capture the CCTV nearby. identify the ward (object);
The prohibited behavior includes the behavior of lying on the road without movement for more than a predetermined time, the behavior of jumping off one's legs, and the wandering behavior of elderly or dementia patients, and the prohibited area includes abandoned houses, empty houses, riversides, and forest entrances. AI-based missing person management service providing system, characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220071000A KR102566188B1 (en) | 2022-06-10 | 2022-06-10 | System for providing missing person management service based on artificial intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220071000A KR102566188B1 (en) | 2022-06-10 | 2022-06-10 | System for providing missing person management service based on artificial intelligence |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102566188B1 true KR102566188B1 (en) | 2023-08-14 |
Family
ID=87565738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220071000A KR102566188B1 (en) | 2022-06-10 | 2022-06-10 | System for providing missing person management service based on artificial intelligence |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102566188B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100967064B1 (en) * | 2007-10-24 | 2010-06-29 | 아주대학교산학협력단 | A Method for Distinction of Color Similarity for Clothes in Varying Illumination and Security System of Public Entrance Area based on Clothes Similarity |
KR20160032464A (en) * | 2014-09-16 | 2016-03-24 | 박찬영 | Social security network method and system |
KR20160117064A (en) * | 2015-03-31 | 2016-10-10 | 주식회사 다빈기술 | System for preventing missing dotard using wireless broadcasting system for village |
KR20200124980A (en) * | 2019-04-25 | 2020-11-04 | (주)월드정보기술 | Method for providing alzheimer's disease patient caring service using artificial intelligence based video content analysis |
KR20220055378A (en) * | 2020-10-26 | 2022-05-03 | 주식회사 인피닉스 | On-device AI apparatus for detecting abnormal behavior automatically based on deep learning and operating method thereof |
-
2022
- 2022-06-10 KR KR1020220071000A patent/KR102566188B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100967064B1 (en) * | 2007-10-24 | 2010-06-29 | 아주대학교산학협력단 | A Method for Distinction of Color Similarity for Clothes in Varying Illumination and Security System of Public Entrance Area based on Clothes Similarity |
KR20160032464A (en) * | 2014-09-16 | 2016-03-24 | 박찬영 | Social security network method and system |
KR20160117064A (en) * | 2015-03-31 | 2016-10-10 | 주식회사 다빈기술 | System for preventing missing dotard using wireless broadcasting system for village |
KR20200124980A (en) * | 2019-04-25 | 2020-11-04 | (주)월드정보기술 | Method for providing alzheimer's disease patient caring service using artificial intelligence based video content analysis |
KR20220055378A (en) * | 2020-10-26 | 2022-05-03 | 주식회사 인피닉스 | On-device AI apparatus for detecting abnormal behavior automatically based on deep learning and operating method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shu et al. | Cardea: Context-aware visual privacy protection for photo taking and sharing | |
CN109697416A (en) | A kind of video data handling procedure and relevant apparatus | |
KR102333143B1 (en) | System for providing people counting service | |
KR102296274B1 (en) | Method for providing object recognition with deep learning using fine tuning by user | |
US20220286438A1 (en) | Machine learning techniques for mitigating aggregate exposure of identifying information | |
US11288954B2 (en) | Tracking and alerting traffic management system using IoT for smart city | |
KR102248706B1 (en) | System for intergrated education management based on intelligent image analysis technology and method thereof | |
KR101929875B1 (en) | Method for providing voice guidance service for vision impairment using stream live broadcast in real time | |
CN110929619A (en) | Target object tracking method, system and device based on image processing and readable medium | |
US20220018715A1 (en) | Systems and methods for monitoring body temperature | |
CN111382655A (en) | Hand-lifting behavior identification method and device and electronic equipment | |
KR102379275B1 (en) | System for remote home care based on image | |
JP6621092B1 (en) | Risk determination program and system | |
Gayathri et al. | Intelligent smart home security system: A deep learning approach | |
KR102566188B1 (en) | System for providing missing person management service based on artificial intelligence | |
CN110889346B (en) | Intelligent tracking method, system, equipment and readable medium | |
Babatunde et al. | Mobile Based Student Attendance System Using Geo-Fencing With Timing and Face Recognition | |
KR102452918B1 (en) | System for providing location based missing person reporting and real-time missing person alarming service | |
KR102358405B1 (en) | System for providing care brokerage service | |
KR102397839B1 (en) | A captioning sensor apparatus based on image analysis and a method for operating it | |
Babu et al. | IoT based crowd estimation and stranger recognition in closed public areas | |
KR20220064213A (en) | Program for operation of security monitoring device | |
KR102475956B1 (en) | System for providing face register service for face recognition | |
KR102452932B1 (en) | System for providing map based stray animal management platform service | |
Dandan et al. | Establishment and Optimization of Video Analysis System in Metaverse Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |