KR20220064485A - 보안 감시 챗봇 서비스 제공 장치 - Google Patents
보안 감시 챗봇 서비스 제공 장치 Download PDFInfo
- Publication number
- KR20220064485A KR20220064485A KR1020200150535A KR20200150535A KR20220064485A KR 20220064485 A KR20220064485 A KR 20220064485A KR 1020200150535 A KR1020200150535 A KR 1020200150535A KR 20200150535 A KR20200150535 A KR 20200150535A KR 20220064485 A KR20220064485 A KR 20220064485A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- event
- caption data
- caption
- service
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 114
- 238000012545 processing Methods 0.000 claims abstract description 153
- 238000001514 detection method Methods 0.000 claims abstract description 89
- 230000004044 response Effects 0.000 claims abstract description 56
- 238000012806 monitoring device Methods 0.000 claims abstract description 15
- 238000003058 natural language processing Methods 0.000 claims description 7
- 238000013136 deep learning model Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 description 62
- 238000004458 analytical method Methods 0.000 description 60
- 238000000034 method Methods 0.000 description 57
- 230000008569 process Effects 0.000 description 37
- 238000013528 artificial neural network Methods 0.000 description 19
- 238000007726 management method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000010191 image analysis Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 7
- 238000002372 labelling Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 4
- 230000009118 appropriate response Effects 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 3
- 230000006641 stabilisation Effects 0.000 description 3
- 238000011105 stabilization Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000003628 erosive effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010037180 Psychiatric symptoms Diseases 0.000 description 1
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
- G06Q50/265—Personal security, identity or safety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7844—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/109—Time management, e.g. calendars, reminders, meetings or time accounting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G06Q50/30—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/50—Business processes related to the communications industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- Data Mining & Analysis (AREA)
- Strategic Management (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Primary Health Care (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Entrepreneurship & Innovation (AREA)
- Operations Research (AREA)
- Computer Networks & Wireless Communication (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- Alarm Systems (AREA)
Abstract
본 발명의 실시 예에 따른 보안 감시 챗봇 서비스 제공장치는, 하나 이상의 감시 장비로부터 수집되는 감시정보 및 영상 정보를 분석하여 이벤트 정보를 검출하는 이벤트 검출부; 상기 이벤트 검출부에서 검출되는 이벤트에 대응하여 문자 포맷으로 이루어지는 캡션 데이터를 구성하고, 캡션 데이터를 기반으로 보안 감시 서비스를 제공하는 캡션 데이터 처리부;를 포함하되, 상기 캡션 데이터 처리부는, 상기 이벤트 정보에 대응하여 문자 포맷의 캡션 데이터를 구성하는 캡션 데이터 구성부와; 상기 캡션 데이터를 이용하여 사용자 단말 및 관제 서버로, 알림 및 관제요청 보안 감시 서비스를 제공하는 인터페이스 처리부와; 상기 사용자 단말로부터 보안 감시에 대한 정보 요청을 수신받고, 상기 사용자 요청 정보에 대응된 캡션 데이터에 기반한 챗봇 대화 서비스를 제공하는 사용자 응답 서비스부;를 포함한다.
Description
본 발명은 보안 감시 챗봇 서비스 제공 장치에 관한 것이다. 보다 구체적으로, 본 발명은 AI영상자율센서에 기반한 영상분석을 이용하여 이벤트를 검출하고, 이벤트에 대응된 캡션 데이터를 챗봇 서비스로 능동적으로 제공하며, 사용자의 질의에 응답하여 이벤트에 대응된 챗봇 응답 서비스를 제공하는 AI영상자율센서에 기반한 영상분석 보안 감시 챗봇 서비스 제공장치에 관한 것이다.
현재 사용자의 사유 재산과 기밀을 보호하기 위한 보안 시스템이 제공되고 있으며, 이러한 보안 시스템은 출입 통제를 위한 리더기나 감시 대상 공간에 대한 영상을 제공하는 카메라 및 영상을 기록하는 영상 기록 장치 등과 같은 다양한 장비로 구성되어 허가되지 않은 인원의 출입을 통제하고 침입과 같은 이벤트 발생시 이를 사용자에게 통지하여 감시 대상 공간을 안전하게 보호하도록 동작한다.
또한, 이러한 보안 시스템을 이용하는 다수의 가입자를 관리하기 위해 가입자의 보안 관련 장비와 통신망을 통해 통신하는 관제 서버가 보안 시스템에 포함되어 구성될 수 있으며, 이러한 보안 시스템은 보안 관련 이벤트 발생시 해당 장비에서 수용하기 어려운 대용량의 영상을 저장하여 이벤트 발생과 관련된 영상이 누락되지 않도록 지원함과 아울러 가입자인 사용자가 감시 대상 공간에 위치하지 않는 경우라도 사용자의 요청에 따라 원격에 위치하는 사용자와 관련된 장비를 사용자 대신 제어하여 사용자 편의성을 높이고 있다.
그러나, 보안 시스템의 핵심인 영상 감시 센서 장치는, 감시 대상 공간에 대한 카메라 영상 정보를 수집하여 별도의 분석 장치나 관제 서버로 그대로 전달하고, 이에 대한 사후 분석이 이루어지기 때문에 장비 간 전송 단계에서의 개인 정보보안이 어려운 문제점이 있다.
특히, 이러한 영상 감시 센서는 독거노인의 집이나 혼자사는 세대주, 독거노인, 여성등이 있는 일반가정이나, 병원 등에 구비되는 경우, 위험상황 등을 판별하는 데 있어서 유용하게 사용되고는 있으나, 감시 대상인 노인이나 세대주, 여성, 환자의 일거수 일투족을 제3자가 실시간으로 모니터링 할 수도 있다는 불안감에 그 사용이 매우 제한적인 실정이다.
이러한 문제점을 해결하기 위해, 영상 정보를 수집하여 이벤트 발생을 판별하는 감시 장치에서, 개인 정보가 포함된 영상 정보를 암호화하거나 일부 영역을 마스킹 처리하여 출력하는 등의 후처리 프로세스를 수행하여 개인 정보를 보호하는 방식들이 제안되고는 있으나, 가장 근본적인 원인인 센서 자체의 출력데이터가 영상 정보이므로, 센서 출력단 해킹 등으로 인한 개인 정보의 유출가능성은 여전히 존재하고 있는 실정이다.
본 발명은 상기한 바와 같은 문제점을 해결하고자 안출된 것으로, AI 영상 자율 센서의 영상 기반 센서 장치 그 자체의 출력 정보를 영상 데이터가 아닌 영상 이벤트 분석 기반의 캡션 데이터로 가공하여 출력하게 하며, 그러한 캡션 데이터에 기초한 감시 시스템을 구성할 수 있게 하고, 영상 정보 자체의 출력은 차단시킴으로써 실제 감시 이벤트와 연관되지 않은 영상의 유출 가능성이 근본적으로 제거될 수 있도록 하며, 사용자의 질의에 응답하여 이벤트에 대응된 챗봇 응답 서비스를 제공하는 AI영상자율센서에 기반한 영상분석 보안 감시 챗봇 서비스 제공장치를 제공하는데 그 목적이 있다.
상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 보안 감시 챗봇 서비스 제공방법은, 하나 이상의 감시 장비로부터 수집되는 감시정보 및 영상 정보를 분석하여 이벤트 정보를 검출하는 단계; 상기 이벤트 정보에 대응하여 문자 포맷의 캡션 데이터를 생성하여 보안 감시 상태 정보로 저장 관리하는 단계; 상기 캡션 데이터를 이용하여 사용자 단말 및 관제 서버로, 알림 및 관제요청 보안 감시 서비스를 제공하는 단계; 상기 사용자 단말로부터 보안 감시에 대한 정보 요청을 수신받는 단계; 상기 사용자 요청 정보에 대응된 상기 보안 감시 상태 정보에 따른 캡션 데이터에 기반한 챗봇 대화 서비스를 이용하여 사용자 응답 서비스를 제공하는 단계; 를 포함한다.
본 발명의 일 실시예로서, 기 설비로 설치된 로컬 감시 네트워크는 하나 이상의 감시 장비들로부터 수집되는 감시정보 및 영상 정보에 의거하여 이벤트 정보를 추출하여 네트워크를 통해 사용자 단말 또는 관제 시스템으로 이벤트 정보에 따른 보안 감시 서비스를 제공하는데, 로컬 감시 네트워크 상에서 상기 이벤트 정보에 대응되는 캡션 데이터를 구성하여 캡션 데이터만을 사용자 단말 또는 관제 시스템으로 제공하게 하며, 영상정보는 차단하게 함으로써, 개인 정보를 보호할 수 있도록 하는 것이다.
또한, 상기 캡션 데이터를 이용한 사용자 응답 서비스를 제공하는 단계를 더 포함하고, 상기 사용자 응답 서비스는, 사용자 단말로부터 수신된 사용자 요청 정보의 자연어 처리에 따라 획득된 색인 요청 정보에 대응하는 상기 캡션 데이터를 자연어 기반 응답 데이터로 구성하여 상기 사용자 단말로 제공하는 서비스를 포함한다.
또한, 사용자 단말로부터 알람 설정 정보 또는 스케쥴링 정보를 입력받아 설정하는 단계를 더 포함하고, 상기 설정된 알람 또는 스케쥴링 조건에 따라 상기 캡션 데이터를 이용하여 알람 또는 스케쥴링 정보로서 사용자 단말로 제공할 수 있다.
또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 보안 감시 챗봇 서비스 제공장치는, 하나 이상의 감시 장비로부터 수집되는 감시정보 및 영상 정보를 분석하여 이벤트 정보를 검출하는 이벤트 검출부; 상기 이벤트 검출부에서 검출되는 이벤트에 대응하여 문자 포맷으로 이루어지는 캡션 데이터를 구성하고, 캡션 데이터를 기반으로 보안 감시 서비스를 제공하는 캡션 데이터 처리부;를 포함하되, 상기 캡션 데이터 처리부는, 상기 이벤트 정보에 대응하여 문자 포맷의 캡션 데이터를 구성하는 캡션 데이터 구성부와; 상기 캡션 데이터를 이용하여 사용자 단말 및 관제 서버로, 알림 및 관제요청 보안 감시 서비스를 제공하는 인터페이스 처리부와; 상기 사용자 단말로부터 보안 감시에 대한 정보 요청을 수신받고, 상기 사용자 요청 정보에 대응된 캡션 데이터에 기반한 챗봇 대화 서비스를 제공하는 사용자 응답 서비스부;를 포함한다.
한편, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램 및 그 프로그램이 기록된 기록 매체로 구현될 수 있다.
본 발명의 실시 예에 따르면, AI 영상 자율 센서는 상기 영상 정보에 대응하는 이벤트 정보를 검출하면, 상기 이벤트 정보에 대응하는 캡션 데이터를 가공하고, 상기 캡션 데이터를 센서 정보로서 출력할 수 있다.
이에 따라, 본 발명의 실시 예에 따른 AI 영상 자율 센서 장치는, 영상 기반 센서 장치 그 자체의 센서 출력 정보를 영상 데이터가 아닌 영상 이벤트 분석 기반의 캡션 데이터로 가공하여 출력하며, 캡션 데이터에 기초한 감시 시스템을 구성할 수 있게 하고, 영상 정보 자체의 출력은 차단시킴으로써 실제 감시 이벤트와 연관되지 않은 영상의 유출 가능성이 근본적으로 제거될 수 있는 영상 분석 기반 캡션 센서 장치 및 그 동작 방법을 제공할 수 있다.
이와 같은 본 발명의 실시 예에 따른 AI 영상 자율 센서 장치는, 영상 정보의 해석과 더불어 위험인지 상황설명 및 원하는 환경을 캡션 데이터 기반으로 모니터링할수 있게 하며, 나아가 사용자 입력에 따른 시각 및 청각 기반의 추가 정보 인지를 통해 사용자의 정확한 판단 및 의사소통 서비스를 제공할 수 있다.
이러한 AI 영상 자율 센서 장치는, 인공지능 스피커, 외로움을 달래주는 생활로봇, 보안 로봇, 일반 자동차 및 자율 주행차, 드론, 스마트 모빌리티, 스마트시티 구축과 같은 다양한 분야에서 활용될 수 있다.
도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 개념도이다.
도 2는 본 발명의 실시 예에 따른 캡션 센서 장치를 보다 구체적으로 설명하기 위한 블록도이다.
도 3은 본 발명의 실시 예에 따른 캡션 서비스 처리부를 보다 구체적으로 도시한 블록도이다.
도 4는 본 발명의 실시 예에 따른 캡션 센서 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 5 및 도 6은 본 발명의 실시 예에 따른 캡션 센서 장치 기반 서비스 처리에 따라 사용자 단말에서 출력되는 챗봇 서비스 인터페이스를 나타내는 도면이다.
도 2는 본 발명의 실시 예에 따른 캡션 센서 장치를 보다 구체적으로 설명하기 위한 블록도이다.
도 3은 본 발명의 실시 예에 따른 캡션 서비스 처리부를 보다 구체적으로 도시한 블록도이다.
도 4는 본 발명의 실시 예에 따른 캡션 센서 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 5 및 도 6은 본 발명의 실시 예에 따른 캡션 센서 장치 기반 서비스 처리에 따라 사용자 단말에서 출력되는 챗봇 서비스 인터페이스를 나타내는 도면이다.
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.
따라서, 예를 들어, 본 명세서의 블록도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.
또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 개념도이다.
도 1을 참조하면, 본 발명의 실시 예에 따른 전체 시스템은, 캡션 센서 장치(100), 사용자 단말(200), 중계 서버(400), 관제 서비스 서버(500) 및 하나 이상의 감시 장비(101, 103, 105, 107)를 포함한다.
먼저, 하나 이상의 감시 장비(101, 103, 105, 107)는 보안 감시 지역에 배치될 수 있으며, 캡션 센서 장치(100)와 로컬 감시 네트워크로 연결될 수 있다. 하나 이상의 감시 장비(101, 103, 105, 107)는, 각각 보안 감시 지역을 촬영하는 카메라 장치(101)이거나, 출입구의 보안 출입증 정보나 사용자 생체 정보를 리딩하는 출입 리더기(103)이거나, 긴급상황 또는 경계상황 발생 알림을 위한 비상벨 장치(105)이거나, 보안 감시 지역 또는 그 주변에서 발생되는 감지 신호를 센싱하는 경계 센서(107)이거나, 오디오 정보를 수집하는 오디오 장치(109)를 포함할 수 있다. 하나 이상의 감시 장비(101, 103, 105, 107, 109)는 영상 정보, 출입구 리더 정보, 비상벨 정보, 경계 센서 정보 또는 오디오 정보를 감시 장비 정보로서 획득하고, 획득된 감시 장비 정보를 캡션 센서 장치(100)로 전송한다.
캡션 센서 장치(100)는, AI 기반의 영상 자율 센서 장치일 수 있고, 감시 장비 정보를 수집 및 저장 관리할 수 있으며, 감시 장비 정보에 기초하여 보안 감시 지역에서 발생되는 하나 이상의 보안 감시 이벤트를 검출하고, 검출된 이벤트에 대응하는 캡션 데이터 기반 인터페이스 서비스 처리를 수행할 수 있다.
여기서, 캡션 데이터 기반 인터페이스 서비스 처리는 발생된 이벤트에 대응하는 캡션 데이터를 구성하여, 캡션 데이터를 이용한 감시 관련 서비스를 제공하는 프로세스를 포함할 수 있다. 감시 관련 서비스는, 사용자 단말(200)로의 알람 메시지 전송 서비스, 경보 알림 기능 동작 또는 해제 서비스, 관제 서비스 서버(500)로의 상태정보 전송 서비스 등이 예시될 수 있다.
특히, 본 발명의 실시 예에 따른 캡션 센서 장치(100)는, 하나 이상의 감시 장비(101, 103, 105, 107, 109)로부터 수집된 감시 장비 정보 및 영상 정보를 분석하고, 분석 결과에 기초한 이벤트 검출을 처리하며, 이벤트 검출에 대응하는 캡션 데이터를 구성하여 사용자 단말(200), 중계 서버(300) 또는 관제 서비스 서버(500)로 출력할 수 있다.
여기서, 캡션 센서 장치(100)는, 캡션 데이터를 센서 출력 정보로서 구성함에 있어서, 영상 정보는 배제된 문자열 포맷 데이터로 구성할 수 있다. 즉, 본 발명의 실시 예에 따른 캡션 센서 장치(100)는 사생활 등의 개인 영상 유출을 근본적으로 차단하기 위하여, 블랙 박스와 같이 수집된 영상 정보 그 자체는 어떤 경로로도 유출될 수 없도록 인터페이스단에서 차단 처리되어 있을 수 있으며, 캡션 데이터로 구성된 문자열 포맷의 이벤트 검출 데이터만이 비-영상 정보인 센서 출력 정보로서 외부 장치로 출력될 수 있다.
이에 따라, 캡션 센서 장치(100)에는 별도의 영상 채널 단자가 제거되어 있을 수 있고, 이벤트 검출과 연관된 일정 버퍼 사이즈 이하의 문자열 기반 캡션 데이터만이 외부로 출력되도록 하는 간소화된 출력 단자 또는 네트워크 연결 단자만을 구비할 수 있다.
이는, 실질적으로 센서 제품 자체에서 영상 출력 처리 프로세서를 배제함으로써 구현될 수 있으며, 센서 출력 데이터에 영상 데이터가 포함되지 않게 함으로써, 기존의 영상 감시 시스템 망의 부하를 획기적으로 단축시킬 수 있게 된다.
따라서, 본 발명의 실시 예에 따른 캡션 센서 장치(100) 기반으로 감시 시스템 자체을 구축하면, 네트워크 대역폭이나 응답 속도는 크게 향상될 수 있으며, 영상의 후처리 과정이나 대용량 저장장치 등이 필요 없어짐에 따라 시스템 운영 비용도 크게 저감시킬 수 있다.
이러한 캡션 센서 장치(100)의 출력 데이터는 인터페이스 서비스 처리에 따라 사용자 단말(200), 중계 서버(300), 관제 서비스 서버(500) 등으로 전달될 수 있다. 또한, 캡션 센서 장치(100)로 상기 인터페이스 서비스를 통한 사용자 입력이 전달될 수 있으며, 캡션 센서 장치(100)는 사용자 입력에 대응하는 적절한 캡션 데이터 응답을 구성하여 출력함으로써, 사용자는 감시 정보에 기초하여 발생된 이벤트의 상세 내역들을 문의하고, 확인해볼 수 있다.
이를 위해, 캡션 센서 장치(100)는, 중계 서버(400), 관제 서비스 서버(500) 및 사용자 단말(200)은 상호 유무선 네트워크로 연결될 수 있고, 각 구성요소는 상기 유무선 네트워크를 통해 통신을 수행하기 위한 하나 이상의 유무선 통신 모듈을 구비할 수 있다. 상기 유무선 통신 네트워크는 널리 알려진 다양한 통신 방식이 적용될 수 있다.
그리고, 보다 정확한 캡션 데이터 구성을 위해, 캡션 센서 장치(100)는 감시 장비 정보를 분석하여 이벤트를 검출하기 위한 하나 이상의 정보 처리 모듈 및 정보 분석 모듈을 포함할 수 있다.
또한, 캡션 센서 장치(100)는 감시 장비 정보의 영상 정보 처리 및 분석에 따른 초기 분석 정보를 기반으로 소정의 제1 감시 이벤트들을 검출할 수 있으나, 영상 내 객체의 정확한 검출 및 분류를 통해 보다 정확한 분석이 요구되는 제2 감시 이벤트에 대하여는 별도의 딥러닝 분석 처리를 수행할 수도 있다.
여기서, 상기 제1 감시 이벤트 및 제2 감시 이벤트는 딥러닝 분석 처리 여부에 따라 그룹핑될 수 있으며, 제1 감시 이벤트는 센서 정보 및 영상 정보의 초기 분석에 따라 신속히 검출되는 침입 이벤트, 카메라 무단 변경 이벤트, 화재 발생 이벤트 등이 예시될 수 있고, 제2 감시 이벤트는 딥러닝 분석에 따른 정확한 객체 검출 및 분류 정보가 수반되는 동적 객체 추적 이벤트, 트립 와이어 이벤트, 배회객체 감지 이벤트, 통행방향 위반 감지 이벤트, 무단 방치물 감지 이벤트, 무단 이동물체 감지 이벤트, 출입 카운팅 및 통계 이벤트, 군중 밀집상태 감지 이벤트, 특이행동 감지 이벤트 등이 예시될 수 있다.
다만, 이는 예시이므로, 감시 기준 및 객체 분류 설정에 따른 더욱 더 다양한 이벤트 감지가 가능할 수 있으며, 제1 감시 이벤트와 제2 감시 이벤트가 복합적으로 검출되어 신속한 복합 감시 서비스 제공에 이용될 수도 있다.
예를 들어, 캡션 센서 장치(100)는, 제1 감시 이벤트 발생에 따른 초기 분석 정보를 캡션 데이터로 구성하여 중계 서버(400)를 통해 관제 서비스 서버(500) 또는 사용자 단말(200)로 우선 전송하고, 상기 제1 감시 이벤트와 연관된 일정 시간 범위 이내의 영상 정보의 딥러닝 분석 결과에 따라, 상기 제1 감시 이벤트에 대한 상세 분석 정보로서 제2 감시 이벤트를 검출하여 캡션 데이터로 구성하고, 상기 중계 서버(400)를 통해 관제 서비스 서버(500) 또는 사용자 단말(200)로 제2 감시 이벤트 정보로부터 생성된 캡션 데이터를 제공할 수 있다.
이에 따라, 캡션 센서 장치(100)는 제1 감시 이벤트에 따른 기본적 감시 서비스 처리를 신속하게 처리할 수 있을 뿐만 아니라, 캡션 센서 장치(100)에서 초기 분석 처리된 데이터에 대한 딥러닝 분석 처리를 수행하므로, 보다 정확한 객체 분류가 가능하여야만 제공되는 제2 감시 이벤트의 발생여부 또한 데이터의 딥러닝 분석 처리에 따라 신속하게 검출할 수 있게 된다.
또한, 캡션 센서 장치(100)는 제2 이벤트 검출 처리를 위해 딥러닝 분석이 필요한 정보에 대응하는 분산 데이터를 구성하고, 외부 네트워크를 통해 연결된 분석 장치로 딥러닝 분석 처리 요청을 전송할 수도 있다.
보다 구체적으로, 캡션 센서 장치(100)는, 수집된 영상 정보 상에서 제1 이벤트를 검출 가능한 초기 분석 정보를 처리하고, 상기 초기 분석 정보로부터 상기 영상 정보에 대응하는 객체를 추적하기 위한 추적 데이터를 획득할 수 있다.
예를 들어, 상기 초기 분석 처리는, 영상 안정화 처리, 배경 모델링 처리, 형태 연산 처리, 요소 연결 처리 및 객체 추적 처리 중 적어도 하나를 포함할 수 있으며, 상기 추적 데이터는 예를 들어 영상 정보로부터 전경화소가 분리 필터링되고, 연결 성분이 라벨링되어 시각 변환 처리된 객체 추적 데이터를 포함할 수 있다.
캡션 센서 장치(100)는 상기 추적 데이터에 기초하여, 딥러닝 분산 처리 요청 데이터를 생성하고, 상기 딥러닝 분산 처리 요청 데이터를 비식별화 처리하여 외부 네트워크상의 딥러닝 분산 처리 장치로 전송할 수 있다.
딥러닝 분산 처리 장치는 네트워크를 통해 연결되어 엣지 컴퓨팅을 수행하는 하나 또는 그 이상의 장치들로 구성될 수 있으며, 상기 딥러닝 분산 처리 요청 데이터에 따라, 상기 추적 데이터의 딥러닝 분석을 처리할 수 있으며, 딥러닝 분석 결과 정보를 캡션 센서 장치(100)로 전달할 수 있다. 보다 구체적으로, 딥러닝 분석 결과 정보에는 상기 추적된 객체에 대응하는 객체 검출 정보 및 객체 분류 정보를 포함할 수 있다.
이러한 객체 검출 정보 및 객체 분류 정보는, 예를 들어 사전 누적 학습된 영상 정보로부터 특정 방향으로 움직이거나 동작하는 등의 패턴에 따라 식별되는 동적 객체 정보가 예시될 수 있으며, 캡션 센서 장치(100)는 상기 객체 검출 정보 및 상기 객체 분류 정보와, 상기 추적 데이터에 기초하여, 상기 영상 정보에 대응하는 제2 감시 이벤트를 검출할 수 있다.
딥러닝 분산 처리 장치는 딥러닝 분산 처리 요청 데이터에 기초하여, 일반적으로 기존의 보안 시스템이 저조도의 환경에서 동작하여 센서의 센싱 신호를 통해 감시 대상의 감지시 생성된 동영상에 대한 영상 분석 과정에서 객체가 검출된 경우에도 객체의 식별이 어려워 감시 대상 객체가 아닌 객체에 대한 이벤트를 생성하여 보고하거나 센서를 통해 감시 대상이 감지된 경우에도 영상에서 낮은 조도로 인해 객체가 식별되지 않아 감시 대상의 감지에 따른 보고가 누락되는 경우와 같은 오보율이 증가하는 문제점을 개선하기 위한 딥러닝 분석을 처리할 수 있다.
딥러닝 분산 처리 장치는, 딥 러닝을 통해 감시 대상 지역의 환경 특성(환경 조건)에서 나타나는 감시 대상 객체의 특징을 지속적으로 학습하여 감시 대상 객체에 대한 식별 정확도를 높이는 동시에 감시 대상 객체가 식별된 이미지의 영상 특징을 지속적으로 학습하여 객체 식별이 용이한 최적의 이미지를 판단하고 이를 통해 감시 대상 객체가 정확하게 식별되는 이미지를 선별하여 제공함으로써 감시 대상 객체를 다른 객체와 정확히 구분하여 식별되도록 지원하여 오보율을 낮추는 동시에 감시 대상의 감지시 보고가 누락되는 경우를 방지하도록 하는 딥러닝 분석 결과 정보를 획득하고, 캡션 센서 장치(100)로 분석 결과 정보를 제공할 수 있다.
한편, 상기 중계 서버(400)는 각지에 설치되는 캡션 센서 장치(100)들로부터 영상 분석 기반 캡션 데이터를 수집하여 저장 및 관리하고, 사용자 단말(200) 및 관제 서비스 서버(500)로 중계하는 서버일 수 있다.
또한, 상기 이벤트 검출 캡션 데이터는 관제 서비스 서버(500)로 전달될 수 있으며, 관제 서비스 서버(500)는 상기 이벤트 검출 캡션 데이터에 기초한 사고 발생 신고, 화재 발생 신고, 사용자 알림, 감시 장치 제어, 실시간 모니터링 등의 다양한 관제 서비스 처리를 수행하고, 서비스 수행 정보를 사용자 단말(200)로 전송할 수 있다.
그리고, 사용자 단말(200)은 캡션 센서 장치(100)로부터 제공된 캡션 데이터를 수신하여 출력하거나, 캡션 센서 장치(100)로 사용자 질의 정보를 입력할 수 있는 하나 이상의 통신 수단 및 입출력 수단을 구비할 수 있다. 이에 따라, 사용자 단말(200)에서는 캡션 센서 장치(100)로 상태 정보를 질의하고, 이에 대응하는 응답 캡션 데이터를 수신하여 출력하거나, 캡션 센서 장치(100)에 알람 설정 정보 또는 스케쥴링 정보를 입력하고, 사전 설정된 이벤트 조건에 따른 캡션 데이터를 알람 또는 스케쥴링 정보로서 제공받을 수 있다.
도 2는 본 발명의 실시 예에 따른 캡션 센서 장치의 구성을 보다 구체적으로 도시한 블록도이다.
도 2를 참조하면, 본 발명의 실시 예에 따른 캡션 센서 장치(100)는, 영상 정보 수집부(110), 배경 모델링부(120), 형태 연산 처리부(130), 요소 연결 처리부(140), 객체 추적부(150), 3차원 시점 변환부(160), 객체 분류 처리부(170), 이벤트 검출부(180), 캡션 서비스 처리부(185) 및 딥러닝 분석 처리부(190)를 포함할 수 있다.
먼저, 영상 정보 수집부(110)는, 카메라 장치를 제외한 하나 이상의 감시 장비(103, 105, 107, 109, ...)로부터 수신되는 보안 감시 영역 센싱 정보와 카메라 장치(101)로부터 수신되는 보안 감시 영역 촬영 영상 데이터를 수집하고, 영상 데이터에 카메라의 촬영영상 내 프레임의 흔들림이 존재하는 경우, 흔들림 보정에 따른 영상 정보의 안정화를 처리할 수 있다. 여기서, 안정화 처리는 카메라로부터 촬영된 영상을 블록으로 분할하여 특징점을 추출하고, 특징점의 움직임벡터 산출을 통해 영상의 흔들림을 보정하여 안정된 영상을 획득하는 처리가 예시될 수 있다.
그리고, 배경 모델링부(120)는 안정화 처리된 영상 정보에 대응하는 배경 영역을 모델링 처리할 수 있다. 카메라 장치(600)는 복수 개 구비될 수 있으며, 배경 모델링부(120)는 각 카메라 장치(600)에서 촬영된 영상 영역별로 영상의 배경을 모델링할 수 있다. 배경 모델링부(120)는 배경 모델링에 따라, 전경에 대응하는 객체를 식별하고, 추적될 수 있도록 하는 배경 영역 데이터를 연산할 수 있다.
이러한 배경 모델링부(120)는 복잡한 환경에서 객체를 정확히 검출할 수 있도록, 잘 알려진 가우시안 혼합 모델(Gaussian Mixutre Model)을 기반으로 하는 배경 확률 모델을 영상 데이터로부터 생성할 수 있다. 이는 조명의 변화, 배경에 첨가되거나 제거되는 객체, 흔들리는 나뭇가지나 분수 등의 움직임을 가지는 배경, 통행량이 많은 영역 등의 많은 변수를 반영하여 배경 영역 데이터로 생성할 수 있도록 한다.
보다 구체적으로 배경 모델링부(120)는 카메라 장치(600)의 영상 정보로부터 연속적 영상 프레임이 입력되면, 배경 감산 처리를 통해 시간 t에 대한 통계학적 확률에 따른 픽셀당 배경 모델을 구성할 수 있다. 배경 모델링부(120)는 현재 프레임의 영상 정보에서 가우시안 혼합 모델에 따라 구성된 배경 정보를 차감하고, 상기 배경 정보를 픽셀당 배경 모델에 누적 업데이트 하는 방식으로 이루어지는 MOG(Mixtrue of Guassians) 방식에 따라 배경 감산 처리를 수행할 수 있다.
배경 모델링부(120)의 배경 감산 처리에 따라, 배경이 차감된 영상 정보에는 전경 픽셀 정보가 남게 되는 바, 이를 블롭(blob) 이미지라고 할 수 있으며, 블롭 이미지는 전경 픽셀에 대응하는 이진 맵 데이터라고도 할 수 있다.
형태 연산 처리부(130)는, 배경 모델링부(120)에서의 배경 모델링에 따라 차감 출력되는 전경 픽셀 정보의 이진 맵 데이터로부터, 형태 영역 정보를 결정하는 형태 연산 처리를 수행할 수 있다. 형태 영역 정보는 복수의 픽셀들을 하나 이상의 형태 구조 요소로 그룹핑하는 그룹핑 정보일 수 있다.
예를 들어, 형태 연산 처리부(130)는 하나 이상의 형태론적 연산 필터들을 상기 전경 픽셀 정보의 이진 맵 데이터에 적용함에 따라 상기 형태 영역 정보를 결정할 수 있다. 여기서 하나 이상의 형태론적 연산 필터는 이진 침식(erosion) 연산 필터 및 이진 팽창(dilation) 연산 필터를 포함할 수 있는 바, 각 필터들은 이진 맵 데이터 내 밝은 영역의 크기를 사전 결정된 형태 구조 요소의 크기 정보에 비례하여 확장하거나 축소시키는 연산 처리를 수행할 수 있다. 팽창 연산 필터 적용시 형태 구조 요소보다 작은 어두운 영역이 제거되고, 반대로 침식 연산 필터 적용시 형태 구조 요소보다 작은 밝은 영역들이 제거될 수 있으며, 동시에, 제거되지 않는 큰 영역들의 크기도 줄거나 커지게 형성될 수 있다.
그리고, 사전 특정된 크기의 객체 검출을 위해, 형태 연산 처리부(130)는 이진 개방 필터 및 폐쇄 필터를 이용하여, 상기 형태 구조 요소보다 큰 영역의 크기는 그대로 유지한 채, 작은 영역들만 제거시키는 처리를 수행할 수도 있다.
그리고, 요소 연결 처리부(140)는, 형태 연산 처리부(130)에서 특정된 형태 구조 요소에 대응하는 영상 정보를 획득하고, 각 형태 구조 요소들을 연결 처리하여 독립적인 객체 연결 영역들로 분류하며, 분류된 객체 연결 영역에 대응하는 고유의 라벨 값들을 할당하는 연결 성분 라벨링 처리를 수행할 수 있다. 이러한 연결 성분 라벨링 처리는 특히 이진 맵 데이터에서 효과적으로 이용될 수 있다.
요소 연결 처리부(140)는 분류된 객체 연결 영역들을 고유의 라벨 값으로 구분하고, 각 객체 영역의 크기, 위치, 방향, 둘레와 같은 영역의 특징값들을 결정하여 출력할 수 있다. 요소 연결 처리부(140)는 순환적 알고리즘 또는 순차적 알고리즘을 적용하여, 연결 성분 라벨링 처리를 수행하고, 객체 연결 영역들을 분류할 수 있다.
예를 들어, 순차적 알고리즘은 각 전경 화소의 픽셀 데이터에 대해 그 화소의 상단 화소와 왼쪽 화소의 라벨을 검색하여 현재 화소의 라벨을 결정하는 알고리즘일 수 있다. 상기 상단 화소와 상기 왼쪽 화소를 포함하는 이웃 화소들은 라벨링 과정에서 이미 처리된 화소일 수 있다.
여기서, 요소 연결 처리부(140)는 이웃 화소들이 모두 전경 화소가 아닌 경우에는 현재 화소에 새로운 라벨값을 할당할 수 있다. 그리고, 요소 연결 처리부(140)는 두 이웃 화소 중 하나의 화소만 전경 화소인 경우에는 그 화소의 라벨값을 현재 화소에 할당할 수 있다. 그리고, 요소 연결 처리부(140)는, 두 이웃 화소가 모두 전경 화소이면서 같은 라벨값을 갖는 경우에는 동일한 라벨값을 현재 화소에 할당할 수 있다.
그러나, 두 화소가 전경 화소지만 서로 다른 라벨값을 갖는 경우에는 이 두 영역은 현재 화소에 의해 서로 연결되는 영역이므로 동일한 라벨값으로 병합되어야 한다. 따라서 요소 연결 처리부(140)는 두 화소의 라벨값 중 더 작은 값을 현재화소의 라벨값으로 할당하고, 두 라벨은 동치 테이블에 동치 라벨로 등록할 수 있다. 이러한 첫 번째 라벨링 과정의 수행이 종료되면 동치 테이블에는 동일한 영역으로 병합되어야 하는 라벨에 대한 정보가 저장될 수 있다. 요소 연결 처리부(140)는, 이 동치 테이블을 이용하여 두 번째 라벨링 과정에서 각 객체 연결 영역의 모든 화소에 동일한 라벨을 할당할 수 있다.
이에 따라, 요소 연결 처리부(140)는 전경 픽셀 데이터를 포함하는 블롭(blob) 이미지 데이터와 함께 연결 성분 라벨링 처리에 따른 객체 연결 영역 정보를 출력할 수 있는 바, 객체 연결 영역 정보는 각 객체 연결 영역에 대응하는 특성 정보(위치 정보, 크기 정보, 방향 정보, 둘레 정보 등)를 포함할 수 있다.
그리고, 객체 추적부(150)는 블롭(blob) 이미지 데이터 및 객체 연결 영역 정보에 기초하여, 영상 정보 내 객체 정보를 추적하기 위한 추적 데이터를 획득할 수 있다. 추적 데이터는 영상 내에서 발견 및 추적된 객체의 리스트 정보를 포함할 수 있다. 보다 구체적으로, 객체 추적부(150)는 시간 t에서의 블롭 이미지와 t-1에서의 블롭 이미지를 누적 매칭시켜, 객체 연결 영역에 대응하는 객체를 식별 처리하고, 리스트에 산입할 수 있는 바, 칼만 필터 방식으로 추적 처리하는 것이 예시될 수 있다. 칼만 필터는 시간에 따라 진행한 측정을 기반으로 입력 데이터를 재귀적으로 누적시켜 선형 역학계의 상태를 검출하는 필터이다.
이에 따라, 객체 추적부(150)는 영상 정보 내 식별되는 객체 추적 데이터를 출력할 수 있다. 객체 추적 데이터는 객체의 리스트 정보와 함께, 식별된 각 객체의 크기 정보 및 이동 속도 정보를 포함할 수 있다.
그리고, 시점 변환부(160)는 전술한 객체 추적 데이터 내 각 객체의 크기 정보 및 이동 속도 정보를 카메라 장치별 3차원 시점 조건에 따른 실제적 수치로 변환 처리한다. 즉 객체 추적부(150)의 추적 데이터는 객체의 크기와 속도 정보를 갖고 있으나 픽셀간의 상대적 값이므로, 시점 변환부(160)는 이미지의 픽셀 좌표를 실제 현실 공간상의 좌표로 변환처리할 수 있는 바, 캘리브레이션을 통해 미리 지정된 화각, 높이 등의 카메라 특성 정보를 이용한 변환 처리가 수행될 수 있다.
이에 따라, 시점 변환부(160)는 객체 추적 데이터 내 리스트된 객체들의 크기 정보 및 속도 정보를 변환하여 실제 현실 공간상의 크기 정보 및 속도 정보로 변환 처리할 수 있다.
한편, 객체 분류 처리부(170)는, 사전 설정된 분류 기준에 기초하여, 상기 객체 추적 데이터에서 식별된 객체에 분류 정보를 할당하는 처리를 수행할 수 있다. 다만, 분류 기준 자체를 설정하거나, 분류 기준에 대응하는지 여부를 정확히 판단하는 프로세스는, 딥러닝 분석 처리부(190)에서 처리되는 것이 보다 효율적일 수 있다.
즉, 외부의 다양한 영상 정보의 누적 학습을 통해 저조도의 환경 등에서도 객체를 정확히 분류 검출할 수 있도록 하기 위하여 객체 분류 처리부(170)는 딥러닝 분석 처리부(190)를 통해 객체 분류 처리를 위한 상기 추적 데이터 및 영상 정보를 딥러닝 분석하고, 딥러닝 분석 결과 정보를 이용한 객체 분류 처리를 수행할 수 있다.
딥러닝 분석 처리부(190)는, 시점 변환부(160)를 통해 획득되는 초기 분석에 따른 상기 추적 데이터 및 상기 영상 정보에 기초하여, 딥러닝 분산 처리 데이터를 생성하고, 상기 딥러닝 분산 처리 데이터를 하나 이상의 딥러닝 분산 처리 장치로 전송 처리할 수 있으며, 상기 딥러닝 분산 처리 장치로부터 수신되는 딥러닝 기반 영상 정보 분석 결과를 수신하여, 객체 분류 처리부(170)로 전달할 수 있다.
딥러닝 분석 처리부(190)는, 딥 러닝 방식에 따라 사전 학습된 영상 정보로부터 신경망 데이터를 구축하며, 상기 신경망 데이터를 이용하여 상기 분산 처리 요청 데이터에 대응하는 객체 정보를 검출하고, 검출된 객체 정보의 분류 정보를 결정할 수 있다.
딥러닝 분석 처리부(190)는 예를 들어, DNN(Deep Neural Network) 기반의 딥 러닝 알고리즘에 따른 신경 회로망이 설정되고, 해당 신경 회로망은 입력층(Input Layer), 하나 이상의 은닉층(Hidden Layers) 및 출력층(Output Layer)으로 구성될 수 있다. 여기서, 상기 딥 러닝 알고리즘은 DNN 이외의 다른 신경망이 적용될 수도 있으며, 일례로, CNN(Convolution Neural Network)이나 RNN(Recurrent Neural Network)과 같은 신경망이 적용될 수 있다.
여기서, 딥러닝 분석 처리부(190)는, 딥 러닝 기반의 신경 회로망을 통해 상기 영상 정보로부터 획득되는 하나 이상의 정상 이미지를 분석하여 감시 대상 객체를 식별하고, 감시 대상 객체가 식별된 정상 이미지를 저장할 수 있다.
보다 구체적으로, 예를 들어, 딥러닝 분석 처리부(190)는, 학습 영상 정보로부터 획득되는 하나 이상의 특정 이미지에서 감시 대상 객체를 식별할 수 있으며, 상기 감시 대상 객체가 아닌 특정 객체가 식별된 경우 상기 특정 이미지와 하나 이상의 상기 정상 이미지 사이의 유사도를 산출하며, 상기 유사도가 미리 설정된 기준치 이상인 경우, 상기 특정 이미지에 대하여 상기 신경 회로망을 기반으로 영상 처리된 출력값과 객체 정보 사이의 오차에 대한 오차 정보를 생성하고, 미리 설정된 역전파 알고리즘(back propagation algorithm)을 통해 상기 오차 정보를 기반으로 상기 신경 회로망을 구성하는 파라미터를 조정할 수 있다.
여기서 이미지 사이의 유사도 비교 방식으로는 히스토그램 매칭(Histogram
matching)이나, 상기 이미지에서 식별된 객체에 지정된 템플릿 매칭(Template matching) 또는 상기 이미지에서 상기 신경 회로망을 통해 추출된 특징점 비교 등을 이용하여 유사도를 비교하는 것이 예시될 수 있다.
그리고, 상기 딥러닝 분석 처리부(190)는, 상기 오차 정보를 기초로 상기 역전파 알고리즘을 통해 상기 신경 회로망을 구성하는 입력층, 하나 이상의 은닉층 및 출력층 사이의 연결 강도에 대한 가중치(weight) 또는 상기 입력층, 은닉층 및 출력층에 구성된 유닛의 바이어스(bias)를 가변하여 상기 감시 대상 객체에 대한 식별 오류가 최소화되도록 학습처리할 수 있다.
또한, 딥러닝 분석 처리부(190)는, 상기 신경회로망을 통해 캡션 센서 장치(100) 또는 다른 다양한 영상 장치로부터 지속적으로 수신된 이미지를 반복 학습하여 상기 객체정보를 갱신할 수 있으며, 이를 통해 상기 감시 대상 지역의 환경 변화(환경 조건 변화(일례로, 조도, 장애물))에 따라 상기 이미지에 나타나는 객체 특징 변화에 적응하여 상기 이미지에서 상기 객체 정보에 포함된 객체 특징별 파라미터에 대응되는 객체를 정확하게 식별할 수 있다.
그리고, 딥러닝 분석 처리부(190)는, 객체 검출부를 통해, 상기 학습된 신경망(또는 신경회로망) 데이터에 기초하여 딥러닝 분산 처리 요청 데이터로부터 획득되는 추적 데이터 및 영상 정보로부터 식별된 하나 이상의 객체를 검출할 수 있고, 객체 분류 처리부(330)는, 객체별로 이미지상 위치별 크기, 색상 분포, 외곽선 등에 대한 다양한 객체 특징별 파라미터를 포함하는 객체 분류 정보를 생성할 수 있으며, 생성된 객체 분류 정보를 객체 분류 처리부(170)로 전달할 수 있다.
캡션 센서 장치(100)는, 별도의 사용자 입력부 또는 통신부를 포함할 수 있으며, 캡션 센서 장치(100)는, 상기 사용자 입력부를 통한 사용자 입력 관련 제어정보나, 상기 통신부를 통해 외부로부터 수신된 제어정보를 기초로 객체 분류 처리부(170)에 의해 분류 가능한 하나 이상의 객체 중 어느 하나를 감시 대상 객체로 설정할 수 있으며, 이에 대한 설정정보를 저장할 수 있다.
이러한 처리를 통해, 캡션 센서 장치(100)는, 고성능 딥러닝 연산의 처리결과를 이용하여 신속하게 이벤트 검출부(180)로 전달할 수 있는 바, 캡션 센서 장치(100) 자체의 신속한 데이터 처리와 함께 복잡한 딥러닝 분석이 필요한 데이터는 별도의 데이터 가공을 통해 딥러닝 분석 처리부(190)에서 분산 처리함으로써, 캡션 센서 장치(100) 자체에 고성능 분석장비를 탑재하지 않고도 딥러닝 영상 분석기술 향상에 따른 장점과 데이터 처리의 신속성을 확보할 수 있다.
이러한 분산 데이터 처리는 캡션 센서 장치(100)와 하나 이상의 딥러닝 분산 처리 장치를 연동한 엣지(edge) 컴퓨팅 방식으로 처리될 수 있는 바, 딥러닝 분산 처리 장치는 딥러닝 분석 처리부(190)와의 데이터 처리 지연 시간을 최소화하기 위한 최소한의 캡션 데이터만을 수집 및 분석 처리함으로써, 빠른 서비스 처리를 제공할 수 있는 엣지 장치일 수 있으며, 이를 제공할 수 있는 분산된 개방형 아키텍쳐로 구축될 수 있다.
또한, 딥러닝 기반 영상 분석은 감시 대상 객체에 대한 반복 학습을 통한 감시 대상 객체의 식별에 대한 정확도를 높일 수 있을 뿐만 아니라 감시 대상 지역의 환경 특성이 반영된 동영상 또는 이미지에서 나타나는 감시 대상 객체의 특징 변화를 학습하고, 이를 기초로 보안 시스템의 운용 특성상 일반적으로 저조도 환경에서 운용되는 카메라를 통해 촬영된 감시 대상을 정확하게 식별할 수 있도록 감시 대상지역에서 나타나는 감시 대상 객체의 특징에 맞추어 딥 러닝 알고리즘을 최적화하여 객체 식별 정확도를 높일수 있으며, 이를 통해 감시 대상 객체 이외의 객체를 정확하게 구분하여 감시 대상이 아닌 객체를 감시 대상으로 오판하여 오보가 발생하지 않도록 지원할 수 있다.
그리고, 이벤트 검출부(180)는 수집된 센서 정보와, 상기 영상 정보의 추적 데이터 및 분산 데이터 처리부(190)로부터 객체 분류 처리부(170)를 통해 전달된 상기 객체 분류 정보 중 적어도 하나에 따라 획득되는 하나 이상의 이벤트를 검출하고, 검출된 이벤트 정보는 캡션 서비스 처리부(185)로 전달될 수 있다.
캡션 서비스 처리부(185)는, 각 이벤트 정보에 따른 캡션 데이터를 구성하고, 구성된 캡션 데이터에 기초하여 사전 결정된 캡션 서비스 프로세스를 수행할 수 있다.
여기서 캡션 데이터는 전술한 바와 같이, 영상 데이터는 배제된 문자열 형태의 포맷으로 구성될 수 있다. 예를 들어, 캡션 데이터는 이벤트 정보에 대응하여 검출된 이벤트 종류 정보, 이벤트 세부 정보, 객체 정보, 시간 정보 중 적어도 하나를 포함하는 문자열 형태로 구성될 수 있다.
그리고, 캡션 서비스 처리부(185)는 캡션 서비스 프로세스를 통해, 상기 캡션 데이터에 대응하는 데이터 출력, 전송 또는 음성 출력 등을 처리할 수 있는 바, 사용자는 캡션 서비스 프로세스에 의해 전달된 캡션 데이터를 시각적 또는 청각적으로 확인할 수 있다.
다만, 캡션 데이터에서 영상 정보 그 자체는 배제되어 있으므로, 사용자는 실제 이벤트와 관련된 영상 분석에 따른 감시 상태만을 확인할 수 있을 뿐, 캡션 센서 장치(100)만으로 실제 영상을 확인할 수는 없게 된다.
따라서, 사용자는 종래의 CCTV등과 같이 유출 가능성 높은 카메라와 달리, 캡션 센서 장치(100)를 보다 안심하고 편하게 설치할 수 있으며, 캡션 센서 장치(100)는 챗봇, 자동응답 시스템과 같은 지능화된 입출력 서비스 프로세스를 구비하여, 사용자의 요청 입력에 따른 영상 분석 기반의 캡션 데이터를 적절하게 출력할 수 있다.
예를 들어, 본 발명의 실시 예에 따른 이벤트 검출부(180)는 딥러닝 분석 처리부(190)에 의해, 영상 내 움직이는 객체들을 특정 행동을 하는 사람, 특정 형태의 차량 등으로 보다 정확하게 분류할 수 있게 됨에 따라, 보다 다양한 형태의 이벤트 검출을 수행할 수 있고, 캡션 서비스 처리부(185)는 각 이벤트 검출에 적합한 캡션 데이터를 구성하여, 사용자 단말(200)로의 알림 서비스 또는 중계 서버(400)로의 전송 서비스 처리, 관제요청 서비스 처리 등을 수행할 수 있다.
또한, 이벤트 검출부(180)는 추적 데이터 및 객체 분류 정보로부터 영상 정보 내 동적 객체 추적(Dynamic Object Tracking)을 수행하고, 동적 객체 추적 정보에 따라 하나 이상의 이벤트를 검출 또는 감지하는 검출부 또는 감지부를 포함할 수 있다.
즉 이벤트 검출부(180)는, 객체 추적부(150)의 추적 데이터와 분산 데이터 처리부(190)로부터 수신된 딥러닝 기반 객체 분류 정보를 매핑하고, 이를 이용하여 카메라 가시영역(Filed of View) 내에서 움직이는 모든 객체를 개별적으로 추적함으로써 트립 와이어 또는 관심영역(Area of Interest) 통과순간을 파악할 수 있으며, 나아가 객체별 이동 궤도(Trajectory)를 분석해 매장에서의 고객 흐름 분석 등에 이용되는 감지 또는 통계 정보를 캡션 데이터로 출력할 수도 있다.
보다 구체적으로, 이벤트 검출부(180)는 트립 와이어 검출부를 포함할 수 있다. 트립 와이어 검출부는 가상의 경계선을 설정하고, 상기 동적 객체 추적을 통해 외곽경계(Perimeter Detection)를 위한 침입감지(Intrusion Detection)나 특정 영역내 침입감지를 처리할 수 있다.
트립 와이어 검출부는 상기 경계선을 통과(침입)하는 객체 카운팅(Object Counting)도 처리할 수 있는 바, 트립 와이어를 기준으로 지면상에서 통과하는 객체(사람, 차량 또는 기타 물체)가 있을 때 감지하되, 그 움직임의 방향(양방향 또는 단방향) 추적을 통해 제1 방향에서 제2 방향으로 이동하다가 트립 와이어를 통과(침입)했는지를 확인하여, 이벤트 발생여부를 결정할 수 있다.
그리고, 이벤트 검출부(180)는 침입 감지부를 포함할 수 있다. 침입 감지부는, 상기 트립 와이어 검출부를 이용하여 경계선 기반의 침입을 감지하거나, 사전 설정된 관심 영역에 대응하는 객체 움직임이 검출된 경우, 침입을 감지하는 등의 관심영역 기반 침입 감지 처리를 수행할 수 있다. 경계 울타리(Perimeter), 바다 또는 해안, 공중(하늘), 출입구 등은 트립 와이어 방식이 바람직하며, 건물 내에서는 관심영역을 사용해 침입 감지를 하는 것이 바람직할 수 있다. 또한, 칩임 감지부는 트립 와이어와 관심영역 기반 침입 감지 처리를 동시에 수행할 수도 있다.
또한, 이벤트 검출부(180)는, 배회객체 감지부를 포함할 수 있다. 배회객체 감지부는, 사람 또는 차량과 같은 배회객체를 감지(Loitering)하여 배회객체 이벤트 정보를 획득하고, 배회객체 이벤트 정보를 캡션 서비스 처리부(185)로 전달할 수 있다.
예를 들어, 배회객체 감지부는 주요 보안시설, 보안 경계지역, 고가품 보관시설 등을 관찰할 때 이용될 수 있다. 이벤트 검출부(180)는 배회객체 감지부를 통해, 외부인 또는 외부차량 등의 객체가 출입제한지역 주변을 일정 시간 이상 배회하고 있지 여부를 감지하고, 일정 시간 이상 배회하는 객체를 배회객체로 감지할 수 있다. 배회하는 사람이나 차량은 사고를 발생시킬 수 있는 가능성이 있으므로 집중 감시대상이 되며, 이를 통해 사고를 미연에 방지할 수 있다.
한편, 이벤트 검출부(180)는 통행방향 위반 감지부를 포함할 수 있다. 통행방향 위반(Wrong Directions) 감지부는 공항과 같은 통행 방향 준수 지역에서의 통행 위반 객체를 감지할 수 있다. 이벤트 검출부(180)는 통행 방향 위반 객체를 검출할 수 있으며, 이러한 통행 방향 위반 객체 검출부는 들어오는 방향과 나가는 방향이 서로 다르게 지정되어 있는 극장, 공연장에 대하여도 동작할 수 있다. 차량에 대해 적용할 경우 통행 방향 위반 객체 검출부는 역주행 감지 등을 처리하여 역주행 차량 객체를 통행 방향 위반 객체로서 검출할 수 있다.
그리고, 이벤트 검출부(180)는 무단 방치물 감지부를 포함할 수 있다. 무단 방치물(Unattended Object)부는 사전 설정된 관심영역 내에 누군가에 의해 방치된 객체(짐꾸러미, 가방, 카트 등)가 등장한 후 지정 시간이 초과한 이후에도 계속 정지된 상태로 존재하는 무단 방치물을 감지하고, 감지된 무단 방치물 객체 정보를 캡션 서비스 처리부(185)로 전달할 수 있다. 이는 특히 공항, 터미널, 역사 플랫폼, 주요 행사장 등에 테러를 위해 폭발물을 임의 방치하는 것을 사전에 감지해 예방할 수 있게 한다.
또한, 이벤트 검출부(180)는, 무단 이동물체 감지부를 포함할 수 있다. 무단 이동물체 감지부는 박물관, 전시회, 고가품 디스플레이, 공항, 매장, 창고 등 도난이 자주 발생하는 곳에서 사전 지정해 놓은 물체들이 영상 객체에서 사라져 버린 경우, 이를 감지하여 획득된 이벤트 정보를 캡션 서비스 처리부(185)로 전달할 수 있다.
그리고, 이벤트 검출부(180)는 출입 카운팅 및 통계부를 포함할 수 있다. 출입 카운팅(Object Counting) 및 통계부는 백화점, 쇼핑센터 등 매장, 박물관, 전시회, 극장 등 공공시설물의 입장객수와 퇴장객수 통계정보를 획득하여 캡션 서비스 처리부(185)로 전달할 수 있다. 캡션 서비스 처리부(185)는, 실시간 카운팅과 함께 시간대별 출입자 통계 정보를 사용자 단말(200) 또는 중계 서버(400)를 통해 관제 서비스 장치(500)로 제공할 수 있는 바, 사용자는 통계 정보를 경영상 고객관리, 매장배치관리에 필요한 기본적인 정보로 활용할 수 있다. 또한, 사용자 단말(200)에서는 상기 출입자 통계 정보에 기초하여 획득된 입장 고객수 대비 매출액을 비교하는 통계 정보를 출력할 수도 있다. 나아가, 출입 카운팅 및 통계부는 특정 도로 상에서 차선별 통행 차량수를 자동산출하는 처리를 수행할 수도 있으며, 캡션 서비스 처리부(185)는 시간대별 통행 차량수 통계자료등을 캡션 데이터로 구성하여, 사용자 단말(200) 또는 중계 서버(400)나 관제 서비스 서버(500)로 제공할 수도 있다.
한편, 이벤트 검출부(180)는 군중 밀집상태 감지부를 포함할 수 있다. 군중 밀집상태(Crowd Density) 감지부는, 사전 설정된 관심영역 내에서 지정한 군중 밀집규모보다 초과되는 군중(Overcrowd) 규모로 발전하는 이벤트를 감지할 수 있다.
이를 위해, 이벤트 검출부(180)는 객체 추적 데이터 및 분류 정보로부터 실시간으로 현재의 밀집상태를 확인할 수 있으며, 밀집상태에 대응하는 이벤트 정보를 캡션 서비스 처리부(185)로 전달할 수 있다. 캡션 서비스 처리부(185)는 이벤트 정보에 기초한 밀집상태 정보를 캡션 데이터로 구성하여, 사용자 단말(200) 또는 중계 서버(400)나 관제 서비스 서버(500)로 전송할 수 있다. 예를 들어, 관리자는 캡션 데이터로부터 밀집상태 정보를 확인하고, 매장, 공항, 극장 등에서는 군중이 초과 밀집상태로 커질 경우 출입문 또는 계산대를 추가로 개방할 것인지를 결정할 수 있고, 시위, 집회가 잦은 장소에서는 방어요원을 추가로 배치할 것인지 결정할 수 있다. 군중 밀집상태 카운팅은 일정 시간에 관심영역 내에서 분류된 모든 사람을 카운팅하는 방식이 이용될 수 있다.
그리고, 이벤트 검출부(180)는 특이 행동 감지부를 포함할 수 있다. 특이 행동(Suspicious Behavior) 감지부는 예를 들어, 미끄러지거나 걸려서 넘어진 사람, 싸우고 있는 사람, 달리는 사람 등 특이 행동을 하는 사람을 감지할 수 있다.
이러한 특이 행동 감지를 위해, 이벤트 검출부(180)는 딥러닝 분산 처리 장치(300)의 딥러닝 분석 정보와 객체 분류 정보를 활용할 수 있는 바, 딥러닝 분산 처리 장치(300)는 영상 정보의 신경망 학습을 통해, 미끄러지거나 쓰러짐 감지(Slip & Fall), 싸우는 사람 감지(Fighting), 달리는 사람 감지(Running) 등의 특정 행동에 대한 분류 처리가 가능할 수 있다.
특히, 이벤트 검출부(180)는 미끄러지거나 걸려 넘어진 사람 감지를 통해 이벤트 발생을 처리하고, 캡션 서비스 처리부(185)로 전달할 수 있는 바 이는 실버타운이나 요양원에서 고령자 모니터링에 효과적으로 이용될 수 있다. 또한, 캡션 서비스 처리부(185)는 도움을 줄 수 있는 사람이 즉시 오지 않는다면 고령자는 넘어진 후 생명이 위험할 수 있으므로 이에 대응하는 사용자 단말(200) 또는 관제 서비스 서버(500)로의 알림 요청 정보 또는 관제 요청 정보를 전송하도록 처리할 수 있다.
한편, 이벤트 검출부(180)는 카메라 무단 변경 감지부를 포함할 수 있다. 카메라 무단 변경(Camera Tampering) 감지부는, 제3자에 의한 카메라 케이블 단락, 렌즈 무단 조작에 의한 초점 흐려짐, 손이나 타물체로 카메라 렌즈를 가리는 경우, 또는 렌즈를 다른 방향으로 임의로 돌려 버리는 경우 등의 카메라 무단 변경을 감지할 수 있으며, 딥러닝 분석 처리부(190)는 카메라 무단 변경 감지를 위한 특정 상황별 영상 학습을 사전 처리하여 신경망 데이터로 구축할 수 있다.
한편, 로컬 감시 네트워크의 일 예로서, 하나 이상의 감시 장비로 각종 센서장치들과 감시 카메라들이 배치되어 설치되고, 상기 하나 이상의 감시 장비로부터 수집되는 감시정보 및 영상 정보에 의거하여 이벤트 정보추출하며, 추출된 이벤트 정보에 기초하여 사용자 단말이나 관제 시스템으로 보안 감시 서비스를 제공하도록 구성된다. 이와 같이 감시장비의 수집정보 및 연상정보를 분석하여 이벤트를 검출하고 이벤트 정보에 대응된 보안 감시 서비스를 제공하는 보안 감시 장치가 이미 구축되어 설치되어 있을 수 있다. 즉, 도 2의 구성에서 캡션 서비스 처리부(185)를 제외한 구성으로 로컬 보안 감시 장치가 구성되어 현장에 설치되어 있을 수 있다. 이벤트 검출 구성으로서 도 2의 구성을 예로 하였으나 이에 한정되는 것은 아니고, 다른 어떤 수단이나 프로그램등을 이용하여 보안 감시 이벤트를 검출하는 구성에도 적용가능하다. 즉, 이벤트 검출정보에 의거한 보안 감시 서비스를 직접 제공하지 않도록 차단하고, 본 발명의 캡션 서비스 처리부(185)를 통해서 이벤트에 대응된 캡션 데이터를 생성하여 캡션 데이터를 이용해 보안 감시 서비스를 제공하도록 구성하는 것이다.
상기와 같이 기존에 구축된 로컬 보안 감시 네트워크에 본 발명에 의한 이벤트 정보에 대응된 캡션 데이터를 구성하고, 캡션 데이터만을 보안 감시 서비스를 제공하도록 구성할 수 있다. 즉, 기존 보안 감시 장치에 도 2에서의 캡션 서비스 처리부(185)만을 추가 구성함으로써, 본 발명을 달성 시킬 수도 있다. 상기 캡션 서비스 처리부(185)는 프로그램 모듈 및 입출력단의 인터페이스 모듈을 포함하여 구성할 수 있으므로 기존 보안 감시 장치에 쉽게 업그래이드시켜 설치할 수 있다.
도 3은 본 발명의 실시 예에 따른 캡션 센서 장치의 캡션 서비스 처리부를 보다 구체적으로 설명하기 위한 블록도이다.
도 3을 참조하면, 본 발명의 실시 예에 따른 캡션 서비스 처리부(185)는, 캡션 데이터 구성부(1851), 버퍼 관리부(1852), 스케쥴링부(1853), 인터페이스 처리부(1854), 내부 저장소 관리부(1855), 사용자 응답 서비스부(1856) 및 응답 학습부(1857)를 포함한다.
캡션 데이터 구성부(1851)는, 이벤트 검출부(180)에서 검출된 이벤트에 대응하는 캡션 데이터를 구성한다. 캡션(Caption) 데이터는 이벤트 정보에 대응하여 검출된 이벤트 종류 정보, 이벤트 세부 정보, 객체 정보, 시간 정보 중 적어도 하나를 포함하는 문자열 형태로 구성될 수 있다.
특히, 캡션 데이터 구성부(1851)는 이벤트 검출부(180) 및 영상 정보로부터 획득되는 이미지 정보에 기초하여, 적절한 텍스트 정보를 매핑 학습함으로써 캡션 데이터를 보다 자연스럽게 구성할 수 있다.
예를 들어, 캡션 데이터는 딥러닝 분석에 따라 식별된 객체 정보와 상태 정보를 문장으로 구성한 문자열 데이터를 포함할 수 있는 바, 캡션 데이터 구성부(1851)는, 문장 데이터 구성을 위해 딥러닝 분석 처리부(190)를 이용할 수 있다.
그리고, 캡션 데이터에서는 영상 정보가 배제될 수 있다. 즉 문자열 포맷으로 구성된 캡션 데이터 그 자체에는 별도의 영상 정보가 포함되지 않을 수 있다.
이러한 캡션 데이터의 제한 규격을 보다 명확히 구축하기 위해, 버퍼 관리부(1852)는 캡션 센서 장치(100)의 메모리상에 캡션 데이터 구성을 위한 버퍼 영역을 설정하되, 영상 정보가 포함되기 어려운 일정 크기 이내로 설정할 수 있다.
예를 들어, 본 발명의 실시 예에 따른 캡션 데이터 버퍼는 버퍼 관리부(1852)에 따라, 8바이트 이내의 문자열로만 설정될 수 있으며, 하나의 이벤트 정보에 대응하는 캡션 데이터는 하나 또는 사전 설정된 개수 이내의 버퍼 단위로만 구성되도록 설정될 수 있다. 이러한 버퍼 관리부(1852)의 설정 정보는 캡션 센서 장치(100)의 제조시에 사전 결정되어 내부 메모리에 저장될 수 있으며, 제조사 인증 정보등이 입력되는 경우에만 제한적으로 변경 갱신될 수 있다.
이에 따라, 캡션 데이터 구성부(1851)는, 이벤트 정보에 대응하여 사전 설정된 버퍼 단위에 따라 제한된 크기 및 포맷을 갖는 캡션 데이터를 구성할 수 있으며, 구성된 캡션 데이터는 인터페이스 처리부(1854)로 전달되어, 외부 장치로 출력될 수 있다.
스케쥴링부(1853)는, 사용자 단말(200)로부터 입력된 스케쥴링 정보를 저장 및 관리하며, 스케쥴링 정보에 따라 사전 설정된 이벤트 정보가 발생되는 경우, 발생된 이벤트 정보에 대응하는 캡션 데이터 구성부(1851)의 캡션 데이터를 인터페이스 처리부(1854)를 통해 사용자 단말(200)로 전송한다.
예를 들어, 스케쥴링부(1853)는 사용자 입력에 따른 일정 정보를 저장 및 관리할 수 있으며, 설정된 스케쥴링 정보는 사용자 입력에 따라 누적 관리되고, 사용자 요청에 따라 색인 처리될 수 있다.
사용자 단말(200)에서는 인터페이스 처리부(1854)를 통해, 기간, 일정 등을 선택한 스케쥴링 정보의 입력 또는 색인 요청 정보를 캡션 센서 장치(100)로 입력할 수 있고, 스케쥴링부(1853)는 사용자 응답 서비스부(1856)를 통해 상기 입력 또는 색인 요청에 대응하는 캡션 데이터 및 응답 데이터를 구성하여 사용자 단말(200)로 출력할 수 있다.
인터페이스 처리부(1854)는, 연결된 외부 장치로 캡션 데이터를 출력하거나, 외부 장치로부터의 사용자 요청 정보를 입력받아, 캡션 데이터 구성부(1851), 사용자 응답 서비스부(1856) 또는 스케쥴링부(1853)로 전달하여 적합한 서비스 처리를 수행하게 할 수 있다.
인터페이스 처리부(1854)는, 데이터 입출력 단자 또는 네트워크 연결 단자를 포함할 수 있으며, 인터페이스 처리부(1854)에서 출력되는 데이터에서 영상 정보는 사전에 배제된 상태일 수 있다. 다만, 우회 경로 등을 통해 내외부 영상 정보가 인터페이스 처리부(1854)로 전달될 수도 있는 바, 인터페이스 처리부(1854)는 영상 정보 포맷의 데이터 송수신을 차단하기 위해, 송수신되는 데이터에 영상 데이터가 식별된 경우 이를 전달되지 않도록 차단하는 필터링부(미도시)를 더 구비할 수도 있다.
한편, 내부 저장소 관리부(1855)는, 이벤트 검출부(180)에서 검출된 이벤트 정보가 사전 설정된 중요 이벤트에 대응되는 경우, 영상 정보 수집부(110)에서 수집된 영상 정보로부터 일시적 이벤트 특징 정보를 추출하고, 추출된 이벤트 특징 정보를 별도 관리되는 내부 저장소(1857) 또는 메모리의 내부 저장소 영역에 저장할 수 있다.
여기서, 내부 저장소(1857)는, 다른 메모리 영역 또는 외부 장치와는 물리적으로 연결되지 않는 별도의 저장매체일 수 있으며, 캡션 센서 장치(100)를 물리적으로 분해하여야만 확인할 수 있도록 분리 구성될 수 있다. 즉, 내부 저장소(1857)는 블랙박스와 같이 이벤트 정보에 대응하는 영상 정보의 일시적 이벤트 특징 정보만을 저장할 뿐이며, 외부 장치나 네트워크를 통해서는 접근할 수 없도록 제한될 수 있다.
따라서, 내부 저장소(1857)는 이벤트 정보를 특정하기 위한 근거 자료로서의 캡션 데이터와, 이에 매핑되는 단기 이미지 또는 일시적 영상 정보만을 저장할 뿐이며, 외부 장치나 외부 네트워크와는 연결되지 않을 수 있으며, 출력 가능한 정보도 캡션 데이터만으로 제한될 수 있다.
이에 따라, 내부 저장소 관리부(1855)는 외부 색인 요청등이 수신되는 경우, 중요 이벤트에 대응하는 캡션 데이터를 그 응답으로서 제공할 수 있다. 예를 들어, 사용자 단말(200)에서 특정 기간에 일어난 중요 이벤트를 요청한 경우, 내부 저장소 관리부(1855)는 상기 특정 기간에 대응하는 캡션 데이터만을 추출하여 상기 사용자 단말(200)로 제공할 수 있다.
한편, 사용자 응답 서비스부(1856)는, 챗봇 대화 서비스를 제공할 수 있다. 즉, 사용자의 입력 요청 정보를 자연어 처리방식으로 인식하고, 요청 정보에 대응되는 응답 데이터를 이벤트에 대응된 캡션 데이터를 이용하여 응답 데이터를 구성하여 사용자 단말로 챗봇 대화 서비스로서 제공할 수 있다.
인터페이스 처리부(1854)를 통해 입력된 사용자 입력 요청에 대응하여, 캡션 데이터 구성부(1851)로부터 획득되는 캡션 데이터 및 스케쥴링부(1853)의 스케쥴링 정보에 기초한 응답 데이터를 구성하고, 구성된 응답 데이터를 인터페이스 처리부(1854)로 전달하여 사용자 단말(200), 중계 서버(300) 또는 관제 서비스 서버(500)로 제공할 수 있다.
특히, 본 발명의 실시 예에 따른 사용자 응답 서비스부(1856)는 응답 학습부(1857)를 통해 구축된 인공지능 학습 데이터베이스를 이용하여, 캡션 데이터 구성부(1851)의 캡션 데이터를 이용한 적절한 문장을 갖는 응답 메시지를 가공할 수 있으며, 가공된 응답 메시지를 인터페이스 처리부(1854)를 통해 사용자 단말(200), 중계 서버(300) 또는 관제 서비스 서버(500)로 제공할 수 있다.
보다 구체적으로, 사용자 응답 서비스부(1856)는, 이벤트에 대한 사용자 입력 요청을 정확히 인식하기 위해, 응답 학습부(1857)에 사전 구축된 언어 특징 추출 라이브러리를 통한 형태소 분석 및 개체명 인식 처리를 수행할 수 있으며, 전처리 라이브러리를 통해 언어 특징을 분석하여 대화 모델이 이해 가능한 형태로 변경할 수 있으며, 쿼리 분류기를 통해 대화 도메인을 판정할 수 있고, 이에 기반한 챗봇 서비스, 검색 서비스, 유저 가이드 서비스를 식별할 수 있다.
이에 따라, 사용자 응답 서비스부(1856)는, 캡션 데이터를 이용한 적절한 응답 데이터를 구성하여 사용자 단말(200), 중계 서버(300) 또는 관제 서비스 서버(500)로 제공할 수 있다.
영상 분석 기반의 캡션 데이터를 이용한 적절한 응답 처리를 위해, 사용자 응답 서비스부(1856)는, 자연어 처리 모듈을 포함할 수 있으며, 자연어 처리 모듈은 캡션 데이터로부터 객체 인식 정보, 객체간 관계 정보, 객체 속성 정보 및 객체 활동 정보를 분류하고, 분류된 정보에 기초한 학습부(1857)의 이미지 기반 문장 학습 딥러닝 모델에 적용함으로써, 보다 자연스러운 자연어 응답 메시지를 구성할 수 있다. 여기서 이용되는 이미지 기반 문장 학습 딥러닝 모델은, 현재 알려진 지도 학습 방법, 비지도 학습 방법 또는 챗봇 관련 대화 엔진 모델 등이 복합적으로 이용될 수 있다.
도 4는 본 발명의 실시 예에 따른 캡션 센서 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 4를 참조하면, 본 발명의 실시 예에 따른 캡션 센서 장치(100)는 먼저 하나 이상의 보안 감시 장치의 감시 정보 및 영상 정보를 수집한다(S10).
그리고, 캡션 센서 장치(100)는, 딥러닝 분석 기반의 영상 객체 검출 및 분류 처리를 수행한다(S11).
이후, 캡션 센서 장치(100)는 이벤트 검출부(180)를 통해 상기 객체 검출 및 분류 정보에 기초한 이벤트 정보를 검출한다(S13).
이후, 캡션 센서 장치(100)는, 이벤트 정보에 따라, 캡션 데이터를 버퍼 사이즈에 대응하는 하나 이상의 문자열 패킷으로 가공하여 인터페이스 처리부(1854)로 전달한다(S15).
이에 따라, 캡션 센서 장치(100)는 인터페이스 처리부(1854)의 출력 설정에 따른 포맷으로 캡션 데이터 기반의 캡션 서비스 정보를 출력한다(S17).
여기서, 출력 설정은, 텍스트 출력, 음성 출력 또는 네트워크 전송 중 적어도 하나를 포함할 수 있다.
그리고, 캡션 센서 장치(100)는, 캡션 서비스 처리부(185)를 통해 캡션 데이터를 기반으로 하는 사용자 응답/알림 서비스 및 스케쥴링 서비스를 사용자 단말(200), 중계 서버(300) 또는 관제 서비스 서버(500)로 제공한다(S19).
한편, 캡션 센서 장치(100)는, 검출된 이벤트가 중요 이벤트인 경우, 영상 정보로부터 일시적 이벤트 특징 정보를 추출하여 내부 저장소에 저장한다(S21).
도 5 및 도 6은 본 발명의 실시 예에 따른 캡션 센서 장치 기반 서비스 처리에 따라 사용자 단말에서 출력되는 챗봇 서비스 인터페이스를 나타내는 도면이다.
도 5를 참조하면, 본 발명의 실시 예에 따른 캡션 센서 장치(100)는, 사용자 응답 서비스부(1856)를 통해, 사용자 요청 입력에 대응하는 적절한 응답 메시지를, 자연어 처리를 통해 캡션 데이터를 가공하여 사용자 단말(200)로 제공할 수 있다.
예를 들어, 사용자 단말(200)에서는 사용자 요청 입력을 "어젯밤에 가게에 무슨 일 있었어?"와 같이 캡션 센서 장치(100)로 전송할 수 있으며, 캡션 센서 장치(100)는 이를 자연어 분석을 통해 색인 요청 정보로 변환하고, 색인 요청 정보에 대응하는 내부 저장소 관리부(1855)의 캡션 데이터를 추출할 수 있다. 그리고, 캡션 센서 장치(100)는 사용자 응답 서비스부(1856)의 캡션 데이터를 이용한 자연어 처리를 통해 "네 침입을 감지하였습니다. 3시 10분, 어떤 사람이 카운터에서 5분 배회하다 나갔습니다."와 같은 형태의 챗봇 응답 메시지를 사용자 단말(200)로 제공할 수 있다.
또한, 사용자 단말(200)에서는 후속 질의로서, "어떤 사람인지 자세히 설명해줘"와 같은 메시지를 캡션 센서 장치(100)로 입력할 수 있고, 캡션 센서 장치(100)는 상기한 바와 같은 과정을 반복하여 추가 색인을 통해, "가족은 아니고, 검은색 모자를 쓰고 빨간색 바지를 입고, 마스크를 착용한 30대 성인 남성입니다."라는 메시지를 사용자 단말(200)로 출력할 수 있다.
이에 따라, 사용자 단말(200)에서는 "가게 직원에게 연락해 줘"와 같은 메시지를 입력할 수 있는 바, 캡션 센서 장치(100)는, 사용자 단말의 가게 직원 연락 요청 정보를 중계 서버(300) 또는 관제 서비스 서버(500)로 전달하여, 해당 연락 서비스가 수행되도록 처리할 수 있다.
또한, 도 6을 참조하면, 본 발명의 실시 예에 따른 캡션 센서 장치(100)는, 사용자 응답 서비스부(1856)를 통해, 캡션 데이터 기반의 사용자 알림 메시지를 자연어 처리하여, 사용자 단말(200)로 선 제공할 수도 있다.
예를 들어, 캡션 센서 장치(100)는 영상 분석 기반의 알림 메시지를 "어머님이 거실에서 쓰러지셨습니다."로 가공하여 사용자 단말(200)로 먼저 제공할 수 있으며, 이에 대응하는 일련의 사용자 입력 및 응답 메시지 서비스 처리가 자연어 처리를 통해 수행될 수 있다.
한편, 도 5 및 도 6에 도시된 바와 같은, 응답 메시지 서비스는 텍스트 투 스피치(TTS) 변환 처리 등을 통해 음성 응답 서비스로도 제공될 수 있는 바, 이 경우 본 발명의 실시 예에 따른 사용자 응답 서비스부(1856)는 챗봇 서비스가 아닌 보이스봇(VOICE BOT) 서비스를 통해 음성 대화 프로세스를 수행할 수도 있다.
상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다.
컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
Claims (4)
- 보안 감시 챗봇 서비스 제공장치에 있어서,
하나 이상의 감시 장비로부터 수집되는 감시정보 및 영상 정보를 분석하여 이벤트 정보를 검출하는 이벤트 검출부;
상기 이벤트 검출부에서 검출되는 이벤트에 대응하여 문자 포맷으로 이루어지는 캡션 데이터를 구성하고, 캡션 데이터를 기반으로 보안 감시 서비스를 제공하는 캡션 데이터 처리부;를 포함하되,
상기 캡션 데이터 처리부는,
상기 이벤트 정보에 대응하여 문자 포맷의 캡션 데이터를 구성하는 캡션 데이터 구성부와;
상기 캡션 데이터를 이용하여 사용자 단말 및 관제 서버로, 알림 및 관제요청 보안 감시 서비스를 제공하는 인터페이스 처리부와;
상기 사용자 단말로부터 보안 감시에 대한 정보 요청을 수신받고, 상기 사용자 요청 정보에 대응된 캡션 데이터에 기반한 챗봇 대화 서비스를 제공하는 사용자 응답 서비스부;를 포함하는
보안 감시 챗봇 서비스 제공장치. - 제1항에 있어서,
사용자 단말로부터 알람 설정 정보 또는 스케쥴링 정보를 입력받아 설정하는 스케쥴링부;를 더 포함하고,
상기 인터페이스 처리부가 설정된 알람 또는 스케쥴링 조건에 따라 상기 캡션 데이터를 이용하여 알람 또는 스케쥴링 정보로서 사용자 단말로 제공하는
보안 감시 챗봇 서비스 제공장치. - 제1항에 있어서,
상기 사용자 응답 서비스부는,
챗봇 서비스 기반으로 사용자 단말로부터 수신된 사용자 요청 정보의 자연어 처리에 따라 획득된 색인 요청 정보에 대응하는 상기 캡션 데이터를 자연어 기반 응답 데이터로 구성하되, 상기 캡션 데이터로부터 객체 인식 정보, 객체간 관계 정보, 객체 속성 정보 및 객체 활동 정보를 분류하고, 분류된 정보에 기초한 이미지 기반 문장 학습 딥러닝 모델을 적용하여, 상기 자연어 기반 응답 데이터를 구성하는 응답 학습부;를 더 포함하는
보안 감시 챗봇 서비스 제공장치. - 제1항에 있어서,
상기 이벤트 정보가 중요 이벤트를 포함하는 경우, 상기 중요 이벤트에 대응하는 일시적 이벤트 특징 정보를 상기 영상 정보로부터 추출하고, 캡션 데이터에 매핑하여 저장하는 내부 저장소 및 내부 저장소 관리부;를 더 포함하는
보안 감시 챗봇 서비스 제공장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200150535A KR20220064485A (ko) | 2020-11-11 | 2020-11-11 | 보안 감시 챗봇 서비스 제공 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200150535A KR20220064485A (ko) | 2020-11-11 | 2020-11-11 | 보안 감시 챗봇 서비스 제공 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220064485A true KR20220064485A (ko) | 2022-05-19 |
Family
ID=81801111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200150535A KR20220064485A (ko) | 2020-11-11 | 2020-11-11 | 보안 감시 챗봇 서비스 제공 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220064485A (ko) |
-
2020
- 2020-11-11 KR KR1020200150535A patent/KR20220064485A/ko unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102553883B1 (ko) | 비디오 감시 시스템에서 경보들을 발생시키는 방법 | |
US11393210B2 (en) | Generation of alert events based on a detection of objects from camera images | |
KR102397837B1 (ko) | 엣지 컴퓨팅 기반 보안 감시 서비스 제공 장치, 시스템 및 그 동작 방법 | |
KR101877294B1 (ko) | 객체, 영역 및 객체가 유발하는 이벤트의 유기적 관계를 기반으로 한 복수 개 기본행동패턴 정의를 통한 복합 상황 설정 및 자동 상황 인지가 가능한 지능형 방범 cctv 시스템 | |
KR20220000226A (ko) | 엣지 컴퓨팅 기반 지능형 보안 감시 서비스 제공 시스템 | |
KR102397839B1 (ko) | Ai 영상 자율 센서의 영상 분석 기반 캡션 센서 장치 및 그 동작 방법 | |
KR20220000216A (ko) | 딥러닝 분산 처리 기반 지능형 보안 감시 서비스 제공 장치 | |
KR20220064213A (ko) | 보안 감시 장치의 동작 프로그램 | |
KR20130047131A (ko) | 이동형 단말기를 이용한 영상감시 방법 및 시스템 | |
KR20220031258A (ko) | 상담 이벤트에 대응되는 학습 데이터 기반 능동형 보안관제 서비스 제공 방법 | |
KR20220000209A (ko) | 딥러닝 분산 처리 기반 지능형 보안 감시 장치의 동작 프로그램이 기록된 기록매체 | |
KR20220064485A (ko) | 보안 감시 챗봇 서비스 제공 장치 | |
KR20220064476A (ko) | Ai영상자율센서에 기반한 영상분석 보안 감시 챗봇 서비스 제공방법 | |
KR20220064483A (ko) | 보안 감시 챗봇 서비스 프로그램 기록매체 | |
KR20220064214A (ko) | 보안 감시 장치의 동작 프로그램 기록매체 | |
KR20220064241A (ko) | Ai영상 자율 센서의 영상 분석 기반 보안 감시 서비스를 제공하는 캡션 센서 장치 | |
KR20220064238A (ko) | 캡션데이터 기반 로컬 네트워크 보안 감시 서비스 제공장치 | |
KR20220064203A (ko) | 로컬 감시 네트워크 보안 감시 장치의 동작 방법 | |
KR20220064482A (ko) | 보안 감시 챗봇 서비스 제공 프로그램 | |
KR20220064215A (ko) | 캡션 데이터 기반 보안 감시 서비스 제공 방법 | |
KR20220064472A (ko) | 캡션 데이터 기반 보안 감시 서비스 제공 프로그램 기록매체 | |
KR20220064471A (ko) | 캡션 데이터 기반 보안 감시 서비스 제공 프로그램 | |
KR20220000175A (ko) | 엣지 컴퓨팅 기반 지능형 보안 감시 서비스 제공 장치의 동작방법 | |
KR20220000424A (ko) | 엣지 컴퓨팅 기반 지능형 보안 감시 카메라 시스템 | |
KR20220000221A (ko) | 엣지 컴퓨팅 기반 지능형 보안 감시 카메라 장치 |