KR102317459B1 - Cctv 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램 - Google Patents

Cctv 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램 Download PDF

Info

Publication number
KR102317459B1
KR102317459B1 KR1020210008741A KR20210008741A KR102317459B1 KR 102317459 B1 KR102317459 B1 KR 102317459B1 KR 1020210008741 A KR1020210008741 A KR 1020210008741A KR 20210008741 A KR20210008741 A KR 20210008741A KR 102317459 B1 KR102317459 B1 KR 102317459B1
Authority
KR
South Korea
Prior art keywords
behavior pattern
image data
event
extracted
occurrence
Prior art date
Application number
KR1020210008741A
Other languages
English (en)
Inventor
이희대
Original Assignee
주식회사 에이치디텔레콤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이치디텔레콤 filed Critical 주식회사 에이치디텔레콤
Priority to KR1020210008741A priority Critical patent/KR102317459B1/ko
Application granted granted Critical
Publication of KR102317459B1 publication Critical patent/KR102317459B1/ko

Links

Images

Classifications

    • G06K9/00771
    • G06K9/00221
    • G06K9/00335
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)

Abstract

CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램이 제공된다. 본 발명의 다양한 실시예에 따른 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 소정의 공간을 촬영한 CCTV 영상 데이터를 수집하는 단계, 상기 수집된 CCTV 영상 데이터를 분석하여 객체를 식별하는 단계, 상기 식별된 객체에 대한 로그 데이터를 생성하는 단계 및 상기 생성된 로그 데이터를 이용하여 상기 식별된 객체에 대한 이벤트 발생을 감지하는 단계를 포함한다.

Description

CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램{METHOD, APPARATUS AND COMPUTER PROGRAM FOR DETECTING EVENT OF OBJECT BASED ON CCTV VIDEO ANALYSIS}
본 발명의 다양한 실시예는, CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램에 관한 것이다.
최근에 범죄 예방을 위한 사회적 인식이 전반적으로 높아지면서 CCTV에 대한 관심이 높아지고 있다. 통계적으로도 CCTV가 많이 설치된 지역에서 중대범죄 발생 비율이 감소하는 것을 알 수 있다. 또한, CCTV의 범죄 예방 효과 이외에도 실제 발생된 사건을 해결하기 위한 증거 확보 수단으로서의 역할도 수행하고 있다.
일반적으로, CCTV를 이용하여 소정의 지역을 감시 및 관측하고자 하는 경우, 감시 및 관측하고자 하는 지역마다 각각 CCTV 카메라를 설치하고, CCTV 카메라로부터 촬영된 영상 데이터를 가공하여 모니터링 장치를 통해 복수의 영상 데이터를 모니터링하였다.
그러나, 이러한 종래의 CCTV 영상 모니터링 방법의 경우, 단순히 복수의 CCTV 카메라를 통해 촬영된 영상을 종합하여 보여주기 때문에, 이러한 영상들로부터 이벤트(예: 범죄, 사고 등)를 확인하기 어렵다는 문제가 있다.
이러한 문제를 극복하기 위하여 영상 데이터를 분석하여 이벤트를 감지하고, 감지된 이벤트에 대한 안내를 제공하는 방법이 개발되었으나, 단순히 현재 촬영된 영상 데이터를 분석하여 이벤트를 감지하기 때문에, 평소와 다른 작은 이벤트들이나, 이벤트의 징후(큰 이벤트가 발생되기 이전의 작은 변화들)를 감지할 수 없다는 문제가 있다.
또한, 종래의 이벤트 감지 및 안내 방법은 단순히 이벤트가 발생했음을 안내하는 기능만이 있을 뿐, 이벤트에 대한 대처는 결국 관리자가 직접 수행해야 하기 때문에, 관리자가 다양한 이유로 인해 해당 안내를 제때 접하지 못할 경우, 초기에 빠른 대처가 필요한 이벤트를 대처할 수 없다는 문제가 있다.
또한, 종래의 CCTV 모니터링 방법에서 사용되는 CCTV 카메라는 단일 렌즈를 사용하여 정해진 영역만을 제한적으로 촬영하며, 영상을 촬영하는 기능 이외에 다른 기능을 수행하지 못하기 때문에, 다양한 기능을 제공하고자 하더라도 CCTV 카메라의 성능상 문제로 인해 제공할 수 있는 기능들이 제한적이라는 문제가 있다.
본 발명이 해결하고자 하는 과제는 복수의 영상 데이터를 분석하여 영상 데이터에 포함된 객체에 대한 로그 데이터를 축적하고, 축적된 로그 데이터를 이용하여 객체에 대한 이벤트 발생을 감지함으로써, 이벤트 발생을 보다 정확하게 감지할 수 있을 뿐만 아니라, 작은 이벤트들 또는 이벤트의 징후까지 정확하게 감지할 수 있는 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는, 3개의 렌즈(예: 어안 렌즈)가 구비된 카메라 모듈을 이용하여 촬영된 영상 데이터를 기반으로 객체에 대한 이벤트 발생을 감지함으로써, 보다 정확하게 이벤트 발생을 감지할 수 있는 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 또 다른 과제는 이벤트 발생을 감지하고, 단순히 감지된 이벤트를 안내하는 것에 그치지 않고, 별도의 지시가 없더라도 해당 이벤트의 대처하기 위한 제어명령을 자동적으로 출력함으로써, 보다 빠른 대처가 필요한 이벤트를 선제적으로 대처할 수 있는 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 소정의 공간을 촬영한 CCTV 영상 데이터를 수집하는 단계, 상기 수집된 CCTV 영상 데이터를 분석하여 객체를 식별하는 단계, 상기 식별된 객체에 대한 로그 데이터를 생성하는 단계 및 상기 생성된 로그 데이터를 이용하여 상기 식별된 객체에 대한 이벤트 발생을 감지하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 객체를 식별하는 단계는, 안면 인식 기술을 이용하여 상기 영상 데이터에 포함된 객체의 얼굴을 인식하는 단계 및 상기 인식된 객체의 얼굴에 기초하여 상기 객체를 식별하고, 기 저장된 객체별 코드 데이터로부터 상기 식별된 객체에 대응되는 코드를 로드하되, 상기 식별된 객체에 대응되는 코드가 부재한 경우, 상기 식별된 객체에 대한 코드를 신규 발급하는 단계를 포함하며, 상기 로그 데이터를 생성하는 단계는, 상기 수집된 영상 데이터를 분석하여 추출된 상기 식별된 객체에 대한 속성 정보 - 상기 식별된 객체에 대한 속성 정보는, 객체의 인상착의, 동작, 이동 동선, 동행자, 날짜 및 시간 중 적어도 하나를 포함함 - 를 포함하는 로그 데이터를 생성하고, 상기 생성된 로그 데이터와 상기 식별된 객체에 대응되는 코드를 매칭하여 저장하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 이벤트 발생을 감지하는 단계는, 제1 객체가 포함된 제1 영상 데이터를 분석하여 상기 제1 객체에 대한 제1 행동 패턴을 추출하는 단계, 상기 제1 객체에 대하여 기 저장된 로그 데이터를 분석하여 상기 제1 객체에 대한 제2 행동 패턴을 추출하는 단계 및 상기 추출된 제1 행동 패턴과 상기 추출된 제2 행동 패턴을 비교하여 상기 제1 객체에 대한 이상 유무를 판단하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 제1 객체에 대한 이상 유무를 판단하는 단계는, 상기 추출된 제1 행동 패턴과 상기 추출된 제2 행동 패턴 간의 유사도가 기 설정된 값 이하인 경우, 상기 제1 객체가 이상 상태인 것으로 판단하는 단계 및 상기 제1 객체가 이상 상태인 것으로 판단된 것에 응답하여, 상기 소정의 공간을 관리하는 관리자의 단말로 상기 제1 객체가 이상 상태임을 안내하는 안내 메시지를 제공하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 이벤트 발생을 감지하는 단계는, 상기 식별된 객체에 대하여 생성된 로그 데이터를 분석하여 상기 식별된 객체에 대한 행동 패턴을 추출하되, 상기 추출된 행동 패턴이 범죄와 관련된 행동 패턴인 것으로 판단되는 경우, 상기 소정의 공간을 관리하는 관리자의 단말로 범죄의 발생을 안내하는 안내 메시지를 제공하고, 상기 식별된 객체가 위치하는 공간의 출입문을 폐쇄하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 이벤트 발생을 감지하는 단계는, 상기 식별된 객체에 대하여 생성된 로그 데이터를 분석하여 상기 식별된 객체를 대상으로 이벤트가 발생된 것으로 판단되는 경우, 상기 소정의 공간을 관리하는 관리자의 단말을 통해 입력된 관리자의 음성을 상기 식별된 객체와 최단거리에 위치한 카메라 모듈의 음성 출력 모듈을 통해 출력하고, 상기 카메라 모듈의 음성 입력 모듈을 통해 입력된 상기 식별된 객체의 음성을 상기 관리자의 단말을 통해 출력하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 이벤트 발생을 감지하는 단계는, 상기 식별된 객체에 대하여 생성된 로그 데이터를 분석하여 상기 식별된 객체를 대상으로 이벤트가 발생된 것으로 판단되는 경우, 상기 식별된 객체의 단말과 상기 소정의 공간을 관리하는 관리자의 단말 간의 음성 통화를 자동으로 연결하는 단계를 포함할 수 있다.
다양한 실시예에서, 상기 CCTV 영상 데이터를 수집하는 단계는, 상기 소정의 공간 내에 설치된 카메라 모듈을 이용하여 상기 영상 데이터를 수집하되, 상기 카메라 모듈은 3개의 렌즈를 포함하며, 상기 수집된 영상 데이터는 상기 3개의 렌즈를 통해 촬영된 3개의 영상 데이터를 하나의 영상 데이터로 결합한 것인, 단계를 포함할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 장치는, 프로세서, 네트워크 인터페이스, 메모리 및 상기 메모리에 로드(load)되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되, 상기 컴퓨터 프로그램은, 소정의 공간을 촬영한 CCTV 영상 데이터를 수집하는 인스트럭션(instruction), 상기 수집된 CCTV 영상 데이터를 분석하여 객체를 식별하는 인스트럭션, 상기 식별된 객체에 대한 로그 데이터를 생성하는 인스트럭션 및 상기 생성된 로그 데이터를 이용하여 상기 식별된 객체에 대한 이벤트 발생을 감지하는 인스트럭션을 포함할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 컴퓨터프로그램은, 컴퓨팅 장치와 결합되어, 소정의 공간을 촬영한 CCTV 영상 데이터를 수집하는 단계, 상기 수집된 CCTV 영상 데이터를 분석하여 객체를 식별하는 단계, 상기 식별된 객체에 대한 로그 데이터를 생성하는 단계 및 상기 생성된 로그 데이터를 이용하여 상기 식별된 객체에 대한 이벤트 발생을 감지하는 단계를 실행시키기 위하여 컴퓨터로 판독가능한 기록매체에 저장할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 다양한 실시예에 따르면, 복수의 영상 데이터를 분석하여 영상 데이터에 포함된 객체에 대한 로그 데이터를 축적하고, 축적된 로그 데이터를 이용하여 객체에 대한 이벤트 발생을 감지함으로써, 이벤트 발생을 보다 정확하게 감지할 수 있을 뿐만 아니라, 작은 이벤트들 또는 이벤트의 징후까지 정확하게 감지할 수 있다는 이점이 있다.
또한, 3개의 렌즈가 구비된 카메라 모듈을 이용하여 촬영된 영상 데이터를 기반으로 객체에 대한 이벤트 발생을 감지함으로써, 보다 정확하게 이벤트 발생을 감지할 수 있다는 이점이 있다.
또한, 이벤트 발생을 감지하고, 단순히 감지된 이벤트를 안내하는 것에 그치지 않고, 별도의 지시가 없더라도 해당 이벤트의 대처하기 위한 제어명령을 자동적으로 출력함으로써, 보다 빠른 대처가 필요한 이벤트를 선제적으로 대처할 수 있다는 이점이 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 시스템을 도시한 도면이다.
도 2는 다양한 실시예에서, 카메라 모듈로부터 CCTV 영상 데이터를 수집하는 과정을 도시한 도면이다.
도 3은 본 발명의 다른 실시예에 따른 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 장치의 하드웨어 구성도이다.
도 4는 본 발명의 또 다른 실시예에 따른 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법의 순서도이다.
도 5는 다양한 실시예에서, 객체별 로그 데이터를 이용하여 이벤트 발생을 감지하는 방법의 순서도이다.
도 6은 다양한 실시예에서, 범죄와 관련된 행동 패턴에 따른 대처 방법의 순서도이다.
도 7은 다양한 실시예에서, 카메라와 객체 간의 음성 통화 서비스를 제공하는 방법의 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 시스템을 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 시스템은 이벤트 발생 감지 장치(100), 카메라 모듈(200), 사용자 단말(300) 및 외부 서버(400)를 포함할 수 있다.
여기서, 도 1에 도시된 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 시스템은 일 실시예에 따른 것이고, 그 구성 요소가 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.
일 실시예에서, 이벤트 발생 감지 장치(100)는 소정의 공간을 촬영한 CCTV 영상 데이터를 분석하여 CCTV 영상 데이터 내에 포함된 객체를 식별할 수 있고, 식별한 객체에 대한 로그 데이터를 생성할 수 있으며, 로그 데이터를 기반으로 해당 객체에 대한 이벤트 발생을 감지할 수 있다.
여기서, 로그 데이터는 객체와 관련된 모든 정보를 의미할 수 있다. 예를 들어, 로그 데이터는, 특정 객체의 인상착의, 동작(행동), 이동 동선, 동행자, 날짜 및 시간에 대한 정보를 포함할 수 있으나, 이에 한정되지 않는다.
즉, 이벤트 발생 감지 장치(100)는 실시간으로 촬영된 영상 데이터를 분석하여 객체에 대한 이벤트 발생을 감지할 뿐만 아니라. 해당 객체에 대하여 기 저장된 로그 데이터를 이용하여 해당 객체에 대한 이벤트 발생을 감지함으로써, 실시간으로 촬영된 영상 데이터만으로 감지하기 어려운 이벤트도 감지할 수 있다는 이점이 있다. 예를 들어, 이벤트 발생 감지 장치(100)는 객체에 대한 로그 데이터를 분석하여, 해당 객체가 일상적인 행동을 취하는 것으로 보이나, 평소와 다른 행동을 하는 경우 또는 해당 객체는 평소처럼 행동하나 주변 다른 환경이 변화하여 이벤트가 발생될 우려가 있는 경우 등과 같이 실시간을 촬영된 영상 데이터만으로는 감지할 수 없는 이벤트들도 감지할 수 있다.
다양한 실시예에서, 이벤트 발생 감지 장치(100)는 기 학습된 인공지능 모델을 이용하여 CCTV 영상 데이터로부터 객체를 식별하는 동작 및 식별된 객체의 속성 정보를 추출하는 동작 및 추출된 동작에 기반하여 객체에 대한 이벤트 발생을 감지하는 동작을 수행할 수 있다.
여기서, 기 학습된 인공지능 모델은 복수의 객체가 포함된 영상 데이터를 학습 데이터로 하여 기 학습된 이미지 분석 모델일 수 있으며, 기 학습된 인공지능 모델에 대한 보다 상세한 설명은 도 4를 참조하여 후술하도록 한다.
다양한 실시예에서, 이벤트 발생 감지 장치(100)는 복수의 카메라 모듈(200)과 연결되어, 카메라 모듈(200)로부터 소정의 공간을 촬영한 영상 데이터를 수집할 수 있다. 이하, 도 2를 참조하여 설명하도록 한다.
도 2는 다양한 실시예에서, 카메라 모듈로부터 CCTV 영상 데이터를 수집하는 과정을 도시한 도면이다.
도 2를 참조하면, 이벤트 발생 감지 장치(100)는 복수의 카메라 모듈(200)과 연결될 수 있고, 복수의 카메라 모듈(200) 각각으로부터 소정의 공간을 촬영한 CCTV 영상 데이터를 수집할 수 있다. 예를 들어, 복수의 카메라 모듈(200) 각각으로부터 송신된 복수의 CCTV 영상 데이터는 NVR(201)을 거쳐 이벤트 발생 감지 장치(100)로 제공될 수 있다.
여기서, CCTV 영상 데이터는 소정의 공간을 촬영한 영상 데이터일 수 있으며, 이를 위해, 복수의 카메라 모듈(200) 각각은 렌즈(210)를 포함할 수 있다. 이때, 복수의 카메라 모듈(200) 각각은 렌즈(210)를 이용하여 촬영된 영상 데이터의 왜곡을 최소화하기 위하여 3개의 렌즈(210)가 구비될 수 있다.
여기서, 복수의 카메라 모듈(200) 각각에 포함된 렌즈(210)는 소정의 공간을 360도 촬영 가능한 어안 렌즈일 수 있으나, 이에 한정되지 않고, 다양한 종류의 렌즈가 적용될 수 있다.
다양한 실시예에서, 복수의 카메라 모듈(200) 각각은 3개의 렌즈(210)를 구비하되, 각각의 렌즈(210)는 성능 상의 차이를 가질 수 있고, 3개의 렌즈(210)가 회전 가능한 형태로 구현될 수 있으며, 추후 특정 렌즈(210)를 통해 촬영된 영상 데이터에서 객체가 식별되고, 해당 객체에 대하여 이벤트 발생이 감지될 경우, 3개의 렌즈(210) 중 가장 성능이 좋은 렌즈(210)를 이용하여 이벤트 발생이 감지된 객체를 추적 감시하도록 동작을 제어할 수 있다.
다양한 실시예에서, 복수의 카메라 모듈(200)은 특정 객체와 소정의 공간을 관리하는 관리자 간의 음성 연결을 수행할 수 있다. 예를 들어, 복수의 카메라 모듈(200) 각각은 음성 출력 모듈(220)(예: 스피커)과 음성 입력 모듈(230)(예: 마이크)를 포함할 수 있으며, 관리자로부터 입력된 음성을 복수의 카메라 모듈(200) 각각의 음성 출력 모듈(220)을 통해 출력할 수 있고, 복수의 카메라 모듈(200) 각각의 음성 입력 모듈(230)을 통해 입력된 음성을 관리자의 단말(예: 사용자 단말(300))로 출력할 수 있다.
또한, 복수의 카메라 모듈(200) 각각은 통신 모듈(240)(예: sip 프로토콜)을 포함할 수 있으며, 통신 모듈(240)을 통해 특정 객체의 단말과 연결되어 특정 객체와 관리자 간의 통화 기능을 제공할 수 있다.
다양한 실시예에서, 이벤트 발생 감지 장치(100)는 복수의 카메라 모듈(200) 각각에 구비된 음성 출력 모듈(220)을 통해 음성 형태의 광고를 제공할 수 있다. 예를 들어, 이벤트 발생 감지 장치(100)는 제1 장소에 설치된 카메라 모듈(200)을 통해 특정 객체가 제1 장소를 지나는 것이 감지될 경우, 제1 장소에 위치하는 제휴 업체의 광고를 음성 출력 모듈을 통해 출력할 수 있다.
다양한 실시예에서, 복수의 카메라 모듈(200) 각각은 hls 방식을 적용하여 영상 손실 없이 녹화된 파일을 전송할 수 있다. 그러나, 이에 한정되지 않는다.
다시 도 1을 참조하면, 일 실시예에서, 사용자 단말(300)(예: 객체의 단말 또는 관리자의 단말)은 네트워크(500)를 통해 이벤트 발생 감지 장치(100)와 연결될 수 있으며, 이벤트 발생 감지 장치(100)가 제공하는 이벤트 발생 감지 서비스(예: 복수의 CCTV 영상 데이터 제공, 로그 데이터 생성, 이벤트 발생 감지 및 이벤트에 대한 안내 제공 등)를 제공받을 수 있다.
여기서, 네트워크(500)는 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
다양한 실시예에서, 사용자 단말(300)은 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있으나, 이에 한정되지 않는다.
일 실시예에서, 외부 서버(400)는 네트워크(500)를 통해 이벤트 발생 감지 장치(100)와 연결될 수 있으며, 이벤트 발생 감지 장치(100)가 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법을 제공하기 위하여 필요한 각종 정보/데이터를 저장 및 관리하거나 이벤트 발생 감지 장치(100)가 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법을 제공함으로써 생성되는 각종 정보/데이터(예: 로그 데이터 및 이벤트 발생 감지 이력)를 제공받아 저장 및 관리할 수 있다. 예를 들어, 외부 서버(400)는 이벤트 발생 감지 장치(100)의 외부에 별도로 구비되는 저장 서버일 수 있으나, 이에 한정되지 않는다. 이하, 도 3을 참조하여, 이벤트 발생 감지 장치(100)의 하드웨어 구성에 대해 설명하도록 한다.
도 3은 본 발명의 다른 실시예에 따른 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 장치의 하드웨어 구성도이다.
도 3을 참조하면, 본 발명의 다른 실시예에 따른 이벤트 발생 감지 장치(100)(이하, “컴퓨팅 장치(100)”)는 하나 이상의 프로세서(110), 프로세서(110)에 의하여 수행되는 컴퓨터 프로그램(151)을 로드(Load)하는 메모리(120), 버스(130), 통신 인터페이스(140) 및 컴퓨터 프로그램(151)을 저장하는 스토리지(150)를 포함할 수 있다. 여기서, 도 3에는 본 발명의 실시예와 관련 있는 구성요소들만 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 3에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.
프로세서(110)는 컴퓨팅 장치(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(110)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다.
또한, 프로세서(110)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있으며, 컴퓨팅 장치(100)는 하나 이상의 프로세서를 구비할 수 있다.
다양한 실시예에서, 프로세서(110)는 프로세서(110) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(110)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(120)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(120)는 본 발명의 다양한 실시예에 따른 방법/동작을 실행하기 위하여 스토리지(150)로부터 컴퓨터 프로그램(151)을 로드할 수 있다. 메모리(120)에 컴퓨터 프로그램(151)이 로드되면, 프로세서(110)는 컴퓨터 프로그램(151)을 구성하는 하나 이상의 인스트럭션들을 실행함으로써 상기 방법/동작을 수행할 수 있다. 메모리(120)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.
버스(130)는 컴퓨팅 장치(100)의 구성 요소 간 통신 기능을 제공한다. 버스(130)는 주소 버스(address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.
통신 인터페이스(140)는 컴퓨팅 장치(100)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(140)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(140)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다. 몇몇 실시예에서, 통신 인터페이스(140)는 생략될 수도 있다.
스토리지(150)는 컴퓨터 프로그램(151)을 비 임시적으로 저장할 수 있다. 컴퓨팅 장치(100)를 통해 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 프로세스를 수행하는 경우, 스토리지(150)는 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 프로세스를 제공하기 위하여 필요한 각종 정보를 저장할 수 있다.
스토리지(150)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.
컴퓨터 프로그램(151)은 메모리(120)에 로드될 때 프로세서(110)로 하여금 본 발명의 다양한 실시예에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 즉, 프로세서(110)는 상기 하나 이상의 인스트럭션들을 실행함으로써, 본 발명의 다양한 실시예에 따른 상기 방법/동작을 수행할 수 있다.
일 실시예에서, 컴퓨터 프로그램(151)은 소정의 공간을 촬영한 CCTV 영상 데이터를 수집하는 단계, 수집된 CCTV 영상 데이터를 분석하여 객체를 식별하는 단계, 식별된 객체에 대한 로그 데이터를 생성하는 단계 및 생성된 로그 데이터를 이용하여 식별된 객체에 대한 이벤트 발생을 감지하는 단계를 포함하는 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법을 수행하도록 하는 하나 이상의 인스트럭션을 포함할 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 이하, 도 4 내지 7을 참조하여, 컴퓨팅 장치(100)에 의해 수행되는 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법에 대해 설명하도록 한다.
도 4는 본 발명의 또 다른 실시예에 따른 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법의 순서도이다.
도 4를 참조하면, S110 단계에서, 컴퓨팅 장치(100)는 소정의 공간을 촬영한 CCTV 영상 데이터를 수집할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 도 2에 도시된 바와 같이 소정의 공간에 배치된 복수의 카메라 모듈(200)과 NVR(201)을 통해 연결될 수 있으며, NVR(201)에 저장 및 기록된 복수의 CCTV 영상 데이터를 수집할 수 있다. 그러나, 이에 한정되지 않고, 복수의 카메라 모듈(200)과 직접 연결되어 복수의 카메라 모듈(200)을 통해 촬영된 CCTV 영상 데이터를 직접 수집하는 방법 및 사용자 단말(300)을 통해 CCTV 영상 데이터를 업로드받는 방법 등 다양한 방법이 적용될 수 있다.
여기서, CCTV 영상 데이터는 카메라 모듈(200)에 포함된 3개의 렌즈를 이용하여 촬영된 3개의 영상 데이터를 하나의 영상 데이터로 결합한 것일 수 있으나, 이에 한정되지 않는다.
S120 단계에서, 컴퓨팅 장치(100)는 S110 단계에서 수집한 CCTV 영상 데이터를 분석하여 CCTV 영상 데이터에 포함된 객체(예: 사람)를 식별할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 기 학습된 인공지능 모델을 이용하여 CCTV 영상 데이터를 분석함으로써, CCTV 영상 데이터에 포함된 객체를 식별할 수 있다.
여기서, 인공지능 모델(예: 신경망)은 하나 이상의 네트워크 함수로 구성되며, 하나 이상의 네트워크 함수는 일반적으로 ‘노드’라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 ‘노드’들은 ‘뉴런(neuron)’들로 지칭될 수도 있다. 하나 이상의 네트워크 함수는 적어도 하나 이상의 노드들을 포함하여 구성된다. 하나 이상의 네트워크 함수를 구성하는 노드(또는 뉴런)들은 하나 이상의 ‘링크’에 의해 상호 연결될 수 있다.
인공지능 모델 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 전술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 노드는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 인공지능 모델이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.
전술한 바와 같이, 인공지능 모델은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호연결 되어 인공지능 모델 내에서 입력 노드 및 출력 노드 관계를 형성한다. 인공지능 모델 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 인공지능 모델의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들 사이의 가중치 값이 상이한 두 인공지능 모델이 존재하는 경우, 두 개의 인공지능 모델들은 서로 상이한 것으로 인식될 수 있다.
인공지능 모델을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 인공지능 모델 내에서 레이어의 차수는 전술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.
최초 입력 노드는 인공지능 모델 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 인공지능 모델 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 인공지능 모델 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 인공지능 모델을 구성하는 노드들을 의미할 수 있다. 본 개시의 일 실시예에 따른 인공지능 모델은 입력 레이어의 노드가 출력 레이어에 가까운 히든 레이어의 노드보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 인공지능 모델일 수 있다.
인공지능 모델은 하나 이상의 히든 레이어를 포함할 수 있다. 히든 레이어의 히든 노드는 이전의 레이어의 출력과 주변 히든 노드의 출력을 입력으로 할 수 있다. 각 히든 레이어 별 히든 노드의 수는 동일할 수도 있고 상이할 수도 있다. 입력 레이어의 노드의 수는 입력 데이터의 데이터 필드의 수에 기초하여 결정될 수 있으며 히든 노드의 수와 동일할 수도 있고 상이할 수도 있다. 입력 레이어에 입력된 입력 데이터는 히든 레이어의 히든 노드에 의하여 연산될 수 있고 출력 레이어인 완전 연결 레이어(FCL: fully connected layer)에 의해 출력될 수 있다.
다양한 실시예에서, 인공지능 모델은 딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)일 수 있다. 딥 뉴럴 네트워크는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 인공지능 모델을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨벌루셔널 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
다양한 실시예에서, 네트워크 함수는 오토 인코더를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 차원 감소 레이어와 차원 복원 레이어의 노드는 대칭일 수도 있고 아닐 수도 있다.
오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 남은 센서들의 수와 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 객체를 포함하는 CCTV 영상 데이터를 이용하여 생성된 학습 데이터(예: 객체에 대한 레이블링(Labeling)이 수행된 CCTV 영상 데이터)를 이용하여 인공지능 모델을 지도학습(supervised learning)(교사 학습)시킬 수 있다.
여기서, 지도학습은 통상적으로 특정 데이터와 특정 데이터에 연관된 정보를 레이블링하여 학습 데이터를 생성하고, 이를 이용하여 학습시키는 방법으로써, 인과 관계를 가진 두 데이터를 레이블링하여 학습 데이터를 생성하고, 생성된 학습 데이터를 통해 학습하는 방법을 의미한다.
보다 구체적으로, 컴퓨팅 장치(100)는 레이블링된 학습 데이터를 이용하여 인공지능 모델을 구성하는 하나 이상의 네트워크 함수에 대한 학습을 수행할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 학습 입력 데이터 각각을 하나 이상의 네트워크 함수에 입력시키고, 하나 이상의 네트워크 함수로 연산된 출력 데이터 각각과 학습 입력 데이터 각각의 레이블에 해당하는 학습 출력 데이터 각각을 비교하여 오차를 도출할 수 있다. 즉, 인공지능 모델의 학습에서 학습 입력 데이터는 하나 이상의 네트워크 함수의 입력 레이어에 입력될 수 있으며, 학습 출력 데이터는 하나 이상의 네트워크 함수의 출력과 비교될 수 있다.
컴퓨팅 장치(100)는 학습 입력 데이터에 대한 하나 이상의 네트워크 함수의 연산 결과와 학습 출력 데이터(레이블)의 오차에 기초하여 인공지능 모델을 학습시킬 수 있다.
또한, 컴퓨팅 장치(100)는 오차에 기초하여 하나 이상의 네트워크 함수의 가중치를 역전파 방식으로 조정할 수 있다. 즉, 컴퓨팅 장치(100)는 학습 입력 데이터에 대한 하나 이상의 네트워크 함수의 연산 결과와 학습 출력 데이터의 오차에 기초하여 하나 이상의 네트워크 함수의 출력이 학습 출력 데이터에 가까워지도록 가중치를 조정할 수 있다.
컴퓨팅 장치(100)는 하나 이상의 네트워크 함수의 학습이 사전 결정된 에폭 이상 수행된 경우, 검증 데이터를 이용하여 학습의 중단 여부를 결정할 수 있다. 사전 결정된 에폭은 전체 학습 목표 에폭의 일부일 수 있다.
검증 데이터는 레이블링된 학습 데이터 중 적어도 일부로 구성될 수 있다. 즉, 컴퓨팅 장치(100)는 학습 데이터를 통해 인공지능 모델의 학습을 수행하며, 인공지능 모델의 학습이 사전 결정된 에폭 이상 반복된 후, 검증 데이터를 이용하여 인공지능 모델의 학습 효과가 사전 결정된 수준 이상인지 여부를 판단할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 100개의 학습 데이터를 이용하여 목표 반복 학습 횟수가 10회인 학습을 수행하는 경우, 사전 결정된 에폭인 10회의 반복 학습을 수행한 후, 10개의 검증 데이터를 이용하여 3회의 반복 학습을 수행하여, 3회의 반복 학습 동안 인공지능 모델 출력의 변화가 사전결정된 수준 이하인 경우 더 이상의 학습이 무의미한 것으로 판단하고 학습을 종료할 수 있다.
즉, 검증 데이터는 인공지능 모델의 반복 학습에서 에폭별 학습의 효과가 일정 이상인지 이하인지 여부에 기초하여 학습의 완료를 결정하는 데 이용될 수 있다. 전술한 학습 데이터, 검증 데이터의 수 및 반복 횟수는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.
컴퓨팅 장치(100)는 테스트 데이터를 이용하여 하나 이상의 네트워크 함수의 성능을 테스트하여 하나 이상의 네트워크 함수의 활성화 여부를 결정함으로써, 인공지능 모델을 생성할 수 있다. 테스트 데이터는 인공지능 모델의 성능을 검증하기 위하여 사용될 수 있으며, 학습 데이터 중 적어도 일부로 구성될 수 있다. 예를 들어, 학습 데이터 중 70%는 인공지능 모델의 학습(즉, 레이블과 비슷한 결과값을 출력하도록 가중치를 조정하기 위한 학습)을 위해 활용될 수 있으며, 30%는 인공지능 모델의 성능을 검증하기 위한 테스트 데이터로써 활용될 수 있다. 컴퓨팅 장치(100)는 학습이 완료된 인공지능 모델에 테스트 데이터를 입력하고 오차를 측정하여 사전 결정된 성능 이상인지 여부에 따라 인공지능 모델의 활성화 여부를 결정할 수 있다.
컴퓨팅 장치(100)는 학습이 완료된 인공지능 모델에 테스트 데이터를 이용하여 학습 완료된 인공지능 모델의 성능을 검증하고 학습 완료된 인공지능 모델의 성능이 사전에 결정된 기준 이상인 경우 해당 인공지능 모델을 다른 어플리케이션에서 사용하도록 활성화할 수 있다.
또한, 컴퓨팅 장치(100)는 학습 완료된 인공지능 모델의 성능이 사전에 결정된 기준 이하인 경우 해당 인공지능 모델을 비활성화하여 폐기할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 정확도(accuracy), 정밀도(precision), 재현율(recall) 등의 요소를 기준으로 하여 생성된 인공지능 모델 모델의 성능을 판단할 수 있다. 전술한 성능 평가 기준은 예시일 뿐이며 본 개시는 이에 제한되지 않는다. 본 개시의 일 실시예에 따라 컴퓨팅 장치(100)는 각각의 인공지능 모델을 독립적으로 학습시켜 복수의 인공지능 모델 모델을 생성할 수 있으며, 성능을 평가하여 일정 성능 이상의 인공지능 모델만을 사용할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 안면 인식 기술이 적용된 인공지능 모델을 이용하여 CCTV 영상 데이터에 포함된 객체의 얼굴을 인식할 수 있고, 인식한 객체의 얼굴에 기초하여 객체를 식별할 수 있으며, 식별된 객체에 대응하는 코드를 로드할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 인식한 객체의 얼굴에 기초하여 객체가 제1 객체인 것으로 판단되는 경우, 기 저장된 객체별 코드 데이터로부터 제1 객체에 대응하는 코드를 로드할 수 있다.
이때, 컴퓨팅 장치(100)는 인식된 객체의 얼굴과 매칭되는 객체가 식별되지 않는 경우 또는 식별된 객체에 대응하는 코드가 부재한 경우, 해당 객체에 대응하는 코드를 신규 발급할 수 있다.
S130 단계에서, 컴퓨팅 장치(100)는 S120 단계에서 식별된 객체에 대한 로그 데이터를 생성 및 저장할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 기 학습된 인공지능 모델을 이용하여 CCTV 영상 데이터를 분석함으로써 객체에 대한 속성 정보(예: 객체의 인상착의, 동작, 이동 동선, 동행자, 날짜 및 시간 중 적어도 하나를 포함)를 추출할 수 있고, 추출된 객체에 대한 속성 정보를 해당 객체의 코드와 매칭하여 저장할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 CCTV 영상 데이터로부터 제1 객체에 대한 속성 정보가 복수 개 추출되는 경우, 복수 개의 속성 정보 각각에 대응되는 로그 데이터를 생성하여 시간(예: 속성 정보가 추출된 시간 또는 영상 데이터의 촬영 시간)을 기준으로 순차적으로 저장할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 기 생성 및 저장된 로그 데이터를 분석하여 객체에 대한 이벤트 발생을 감지할 수 있다. 이하, 도 5 내지 7를 참조하여 설명하도록 한다.
도 5는 다양한 실시예에서, 객체별 로그 데이터를 이용하여 이벤트 발생을 감지하는 방법의 순서도이다.
도 5를 참조하면, S210 단계에서, 컴퓨팅 장치(100)는 제1 객체가 포함된 제1 영상 데이터를 분석하여 제1 객체에 대한 제1 행동 패턴을 추출할 수 있다.
여기서, 제1 행동 패턴은 제1 영상 데이터만을 기반으로 판단되는 제1 객체에 대한 행동 패턴을 의미할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 제1 영상 데이터를 분석하여, 제1 객체의 인상착의, 제1 객체의 이동 동선, 제1 객체의 동행자, 날짜, 시간 및 장소에 대한 정보를 포함하는 제1 행동 패턴(예: "제1 시간, 제1 장소, 모자 착용, 가방 착용, 동행자 있음(N명)")을 추출할 수 있다. 그러나, 이에 한정되지 않고, 제1 행동 패턴은 제1 영상 데이터 및 제1 객체에 대한 다양한 정보를 더 포함할 수 있다.
S220 단계에서, 컴퓨팅 장치(100)는 제1 영상 데이터를 분석함으로써 식별된 제1 객체와 대응되는 로그 데이터를 로드하고, 로드된 로그 데이터를 분석하여 제1 객체에 대한 제2 행동 패턴을 분석할 수 있다.
여기서, 제2 행동 패턴은 제1 영상 데이터와 관계없이 제1 객체에 대하여 사전에 저장된 로그 데이터만을 이용하여 판단되는 제1 객체에 대한 행동 패턴을 의미할 수 있다.
즉, 컴퓨팅 장치(100)는 제1 객체를 포함하는 영상 데이터를 실시간으로 분석함으로써, 제1 객체의 현재 행동 패턴인 제1 행동 패턴을 추출할 수 있고, 기 저장된 로그 데이터를 분석함으로써, 제1 객체의 평소 행동 패턴인 제2 행동 패턴을 추출할 수 있다.
S230 단계에서, 컴퓨팅 장치(100)는 제1 행동 패턴과 제2 행동 패턴을 비교하여 제1 객체에 대한 이상 유무를 판단할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 제1 객체에 대한 제1 행동 패턴과 제2 행동 패턴이 모두 "제1 시간, 제1 장소, 동행자 있음"으로 동일할 경우, 제1 객체에 대하여 이상이 없는 것으로 판단할 수 있다.
여기서, 특정 객체에 대하여 이상이 없는 것으로 판단되는 것은 특정 객체에 대한 이벤트가 발생되지 않은 것을 의미할 수 있으나, 이에 한정되지 않고, 특정 객체에 대한 이벤트 발생 가능성이 기 설정된 기준 이하인 것(이벤트 발생 가능성이 낮은 것)을 의미할 수 있다.
한편, 컴퓨팅 장치(100)는 제1 객체에 대한 제1 행동 패턴이 "제1 시간, 제1 장소 및 동행자 있음"으로 판단되나, 제2 행동 패턴이 "제1 시간, 제1 장소, 동행자 없음"으로 판단될 경우 또는, 제1 시간 및 제1 장소에서의 이력이 없는 경우, 제1 객체에 대하여 이상이 있는 것(예: 이벤트가 발생한 것)으로 판단할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 제1 객체에 대한 로그 데이터를 분석하여 제1 객체가 특정 골목을 제1 시간에 항상 혼자서 통과하였으나, 특정 골목을 촬영한 영상 데이터를 분석하여 제1 객체가 제1 시간에 특정 동행자와 함께 골목을 통과하는 것으로 판단되는 경우, 제1 객체에 대하여 이상이 있는 것으로 판단할 수 있다.
여기서, 특정 객체에 대하여 이상이 있는 것으로 판단되는 것은 특정 객체에 대한 이벤트가 발생된 것을 의미할 수 있으나, 이에 한정되지 않고, 특정 객체에 대한 이벤트 발생 가능성이 기 설정된 기준을 초과한 것(이벤트 발생 가능성이 높은 것)을 의미할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 제1 행동 패턴과 제2 행동 패턴 간의 유사도를 산출할 수 있고, 산출된 유사도가 기 설정된 값 이하인 경우, 제1 객체가 이상 상태인 것으로 판단할 수 있다. 예를 들어, 제1 행동 패턴과 제2 행동 패턴이 5개의 항목(예: 시간, 장소, 동행자 유무, 이동 동선 및 인상착의)을 포함하는 경우, 5개의 항목 각각을 비교하여 유사도를 산출(예: 5개의 항목이 모두 동일할 경우 100, 4개의 항목이 동일할 경우 80, 3개의 항목이 동일할 경우 60 등)할 수 있고, 산출된 유사도가 기 설정된 값(예: 30점) 이하인 경우, 제1 객체가 이상 상태인 것으로 판단할 수 있다. 그러나, 이에 한정되지 않는다.
다양한 실시예에서, 컴퓨팅 장치(100)는 제1 행동 패턴과 제2 행동 패턴 간의 유사도를 산출하되, 각각의 항목마다 서로 다른 가중치를 부여하고, 가중치가 부여된 항목들 간의 비교를 통해 유사도를 산출할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 상기의 5개의 항목 중 "동행자 유무" 항목에 대한 가중치를 나머지 항목(예: 시간, 장소, 이동 동선 및 인상착의)보다 높게 설정하여, 제1 행동 패턴과 제2 행동 패턴 간의 동행자 유무 항목이 상이할 경우 다른 항목들이 상이한 경우보다 유사도가 낮게 산출되도록 할 수 있다.
한편, 컴퓨팅 장치(100)는 S230 단계를 거쳐 제1 객체가 이상 상태가 아닌 것으로 판단되는 경우, 이상 상태의 객체가 식별될 때까지 S210 단계 및 S220 단계를 반복하여 수행할 수 있다.
S240 단계에서, 컴퓨팅 장치(100)는 제1 객체가 이상 상태인 것으로 판단된 것에 응답하여, 소정의 공간을 관리하는 관리자의 단말(예: 사용자 단말(300))로 제1 객체가 이상 상태임을 안내하는 안내 메시지를 제공할 수 있다.
또한, 컴퓨팅 장치(100)는 제1 객체가 이상 상태인 것으로 판단된 것에 응답하여, 제1 객체에 대해 발생된 이벤트에 대한 조치를 수행할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 제1 객체에 대하여 발생된 이벤트가 범죄관련 이벤트인 경우, 해당 이벤트가 발생되었음을 안내하는 안내 정보를 경찰 서버로 자동적으로 전송할 수 있다.
또한, 컴퓨팅 장치(100)는 제1 객체가 이상 상태인 것으로 판단된 경우, 제1 객체와 인접한 하나 이상의 카메라 모듈(200)이 제1 객체를 추적 감시하도록 동작을 제어하여 즉, 이벤트가 발생된 객체 또는 이벤트 발생 가능성이 높은 객체를 추적하며 촬영하도록 카메라 모듈(200)의 움직임을 제어할 수 있다.
즉, 컴퓨팅 장치(100)는 제1 객체에 대한 제1 행동 패턴과 제2 행동 패턴을 비교함으로써, 객체에 이벤트가 발생하여 평소와 다른 행동을 보이는 경우, 이를 감지하여 관리자에게 안내할 수 있을 뿐만 아니라, 해당 이벤트에 대한 조치를 선제적으로 수행하여 보다 빠르게 이벤트에 대한 대처가 가능하도록 할 수 있다.
도 6은 다양한 실시예에서, 범죄와 관련된 행동 패턴에 따른 대처 방법의 순서도이다.
도 6을 참조하면, S310 단계에서, 컴퓨팅 장치(100)는 제1 객체가 포함된 제1 영상 데이터를 분석하여 제1 객체에 대한 행동 패턴(예: 실시간으로 촬영된 CCTV 영상 데이터를 분석하여 추출된 행동 패턴)을 추출할 수 있다.
여기서, 컴퓨팅 장치(100)에 의해 수행되는 제1 객체에 대한 행동 패턴을 추출하는 동작은 도 5의 S210 단계에서의 제1 객체에 대한 행동 패턴을 추출하는 동작과 동일 또는 유사한 형태로 구현될 수 있으나, 이에 한정되지 않는다.
S320 단계에서, 컴퓨팅 장치(100)는 S310 단계에서 추출한 제1 객체에 대한 행동 패턴이 범죄와 관련된 행동 패턴인지 여부를 판단할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 기 저장된 범죄(예: 강도, 도난, 방화, 무단침입, 추행 등)와 관련된 행동 패턴 데이터에 기초하여, S310 단계에서 추출된 제1 객체에 대한 행동 패턴과 대응되는 범죄와 관련된 행동 패턴이 있는지 여부를 판단할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 범죄와 관련된 행동 패턴을 보이는 객체를 포함하는 영상 데이터를 학습 데이터로 하여 기 학습된 인공지능 모델을 이용하여, 특정 영상 데이터에 포함된 객체가 범죄와 관련된 행동 패턴을 보이는지 여부를 판단할 수 있다. 그러나, 이에 한정되지 않고, 특정 객체가 범죄와 관련된 행동 패턴을 보이는지 여부를 판단하는 어떠한 방법이든 적용될 수 있다.
한편, 컴퓨팅 장치(100)는 S320 단계를 거쳐 제1 객체에 대한 행동 패턴이 범죄와 관련된 행동패턴이 아닌 것으로 판단되는 경우, S310 단계를 반복적으로 수행할 수 있다.
S330 단계에서, 컴퓨팅 장치(100)는 제1 객체가 범죄와 관련된 행동 패턴을 보이는 경우, 범죄와 관련된 이벤트가 발생할 것으로 판단될 수 있고, 범죄와 관련된 이벤트가 발생한 것으로 판단되는 경우, 소정의 공간을 관리하는 관리자의 단말로 범죄의 발생을 안내하는 안내 메시지를 제공할 수 있다.
또한, 컴퓨팅 장치(100)는 범죄와 관련된 이벤트가 발생할 것으로 판단되는 경우, 발생된 범죄의 종류에 따른 조치를 수행할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 제1 객체가 출입 제한 영역에 무단으로 침입한 경우, 침입자 발생과 관련된 이벤트가 발생한 것으로 판단할 수 있고, 이에 대한 조치로써 출입 제한 영역(또는 제1 객체가 위치하는 공간)의 출입문을 자동으로 폐쇄할 수 있다. 즉, 컴퓨팅 장치(100)는 침입자 발생과 관련된 이벤트가 발생한 경우, 별도의 지시가 없더라도 출입문을 자동으로 폐쇄하는 동작을 선제적으로 수행함으로써, 침입자가 도주하는 것을 방지할 수 있다.
또한, 컴퓨팅 장치(100)는 네트워크(500)를 통해 경찰청 서버와 연결될 수 있으며, 상기의 침입자 발생과 같이 범죄와 관련된 이벤트가 발생한 것으로 판단되는 경우, 자동적으로 범죄 발생을 안내하는 안내 정보를 경찰청 서버로 전송하여 해당 이벤트에 대한 신고 접수를 수행할 수 있다.
도 7은 다양한 실시예에서, 카메라와 객체 간의 음성 통화 서비스를 제공하는 방법의 순서도이다.
도 7을 참조하면, S410 단계에서, 컴퓨팅 장치(100)는 제1 객체가 포함된 제1 영상 데이터를 분석하여 제1 객체에 대한 행동 패턴(예: 실시간으로 촬영된 CCTV 영상 데이터를 분석하여 추출된 행동 패턴)을 추출할 수 있다.
여기서, 컴퓨팅 장치(100)에 의해 수행되는 제1 객체에 대한 행동 패턴을 추출하는 동작은 도 5의 S210 단계에서의 제1 객체에 대한 행동 패턴을 추출하는 동작과 동일 또는 유사한 형태로 구현될 수 있으나, 이에 한정되지 않는다.
S420 단계에서, 컴퓨팅 장치(100)는 제1 객체에 대한 행동 패턴을 분석하여, 제1 객체를 대상으로 이벤트가 발생하였는지 여부를 판단할 수 있다.
여기서, 컴퓨팅 장치(100)에 의해 수행되는 제1 객체를 대상으로 이벤트 발생 여부를 판단하는 동작은 도 5의 이벤트 발생 여부를 판단하는 동작(예: S230 단계) 또는 도 6의 이벤트 발생 여부를 판단하는 동작(예: S320 단계)와 동일 또는 유사한 형태로 구현될 수 있으나, 이에 한정되지 않는다.
한편, 컴퓨팅 장치(100)는 S420 단계를 거쳐 제1 객체를 대상으로 이벤트가 발생하지 않은 것으로 판단되는 경우, S410 단계를 반복적으로 수행할 수 있다.
S430 단계에서, 컴퓨팅 장치(100)는 제1 객체를 대상으로 이벤트(예: 부상, 사고 등)가 발생된 것으로 판단되는 경우, 제1 객체와 관리자 간의 음성을 연결할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 제1 객체를 대상으로 이벤트가 발생된 것으로 판단되는 경우, 소정의 공간을 관리하는 관리자의 단말을 통해 입력된 관리자의 음성을 카메라 모듈(200)의 음성 출력 모듈을 통해 출력하고, 카메라 모듈(200)의 음성 입력 모듈을 통해 입력된 제1 객체의 음성을 관리자의 단말을 통해 출력할 수 있다.
이때, 컴퓨팅 장치(100)는 제1 객체를 포함하는 CCTV 영상 데이터를 촬영한 카메라 모듈(200)을 이용하여 객체와 관리자 간의 음성을 전달하되, 해당 카메라 모듈(200)이 제1 객체와 최단거리에 위치한 카메라 모듈(200)이 아닐 경우, 즉, 제1 객체에 대한 CCTV 영상 데이터를 촬영한 카메라 모듈(200)보다 제1 객체와 더 가까운 거리에 위치하는 카메라 모듈(200)이 있는 경우, 제1 객체와 더 가까운 거리에 위치한 카메라 모듈(200)을 통해 객체와 관리자 간의 음성을 전달할 수 있다.
여기서, 컴퓨팅 장치(100)는 제1 객체를 대상으로 이벤트가 발생되는 경우에 카메라 모듈(200)을 통해 객체와 관리자 간의 음성을 자동적으로 전달할 수 있으나, 이에 한정되지 않고, 특정 객체에 이벤트가 발생하지 않더라도 특정 객체가 카메라 모듈(200)에 구비되는 별도의 버튼(또는 컴퓨팅 장치(100)가 제공하는 애플리케이션을 통해 출력되는 사용자 인터페이스(User Interface, UI) 상의 음성 연결 버튼)을 누른 상태로 입력한 음성을 관리자의 단말로 출력할 수 있고, 이에 대한 응답으로써 관리자의 단말로 입력된 음성을 카메라 모듈(200)(예: 버튼이 입력된 카메라 모듈(200))을 통해 출력할 수 있다.
다양한 실시예에서, 컴퓨팅 장치(100)는 제1 객체를 대상으로 이벤트가 발생된 것으로 판단되는 경우, 제1 객체의 단말과 소정의 공간을 관리하는 관리자의 단말 간의 음성 통화를 자동으로 연결할 수 있다. 예를 들어, 컴퓨팅 장치(100)는 복수의 카메라 모듈(200) 중 어느 하나의 카메라 모듈의 통신 모듈을 통해 제1 객체의 단말과 관리자의 단말 간의 음성 통화를 연결할 수 있다.
이때, 컴퓨팅 장치(100)는 제1 객체의 단말과 관리자의 단말 간의 음성 통화의 연결이 불가능 한 것으로 판단되는 경우(예: 제1 객체가 단말을 소지하지 않거나, 제1 객체가 정확하게 식별되지 않아 제1 객체를 특정할 수 없는 경우 등), 제1 영상 데이터에 포함된 다른 객체의 단말과 관리자의 단말 간의 음성 통화를 연결할 수 있다.
또한, 컴퓨팅 장치(100)는 제1 영상 데이터에 제1 객체만이 포함된 경우 즉, 제1 영상 데이터에 제1 객체 외의 다른 객체가 식별되지 않은 경우, 제1 객체의 위치 정보를 이용하여 소정의 공간 내에 제1 객체와 가장 가까운 위치에 위치하는 객체의 단말과 관리자의 단말 간의 음성 통화를 연결할 수 있다.
즉, 컴퓨팅 장치(100)는 카메라 모듈(200)을 매개로 하여 이벤트가 발생된 제1 객체와 관리자를 연결함으로써, 관리자가 제1 객체를 대상으로 발생된 이벤트를 보다 빠르게 조치할 수 있도록 한다는 이점이 있다.
전술한 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법은 도면에 도시된 순서도를 참조하여 설명하였다. 간단한 설명을 위해 CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법은 일련의 블록들로 도시하여 설명하였으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 본 명세서에 도시되고 시술된 것과 상이한 순서로 수행되거나 또는 동시에 수행될 수 있다. 또한, 본 명세서 및 도면에 기재되지 않은 새로운 블록이 추가되거나, 일부 블록이 삭제 또는 변경된 상태로 수행될 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100 : 이벤트 발생 감지 장치(또는 컴퓨팅 장치)
200 : 카메라 모듈
300 : 사용자 단말
400 : 외부 서버
500 : 네트워크

Claims (10)

  1. 컴퓨팅 장치에 의해 수행되는 방법에 있어서,
    소정의 공간을 촬영한 CCTV 영상 데이터를 수집하는 단계;
    상기 수집된 CCTV 영상 데이터를 분석하여 객체를 식별하는 단계;
    상기 식별된 객체에 대한 로그 데이터를 생성하는 단계; 및
    상기 생성된 로그 데이터를 이용하여 상기 식별된 객체에 대한 이벤트 발생을 감지하는 단계를 포함하며,
    상기 로그 데이터를 생성하는 단계는,
    상기 수집된 영상 데이터를 분석하여 추출된 상기 식별된 객체에 대한 속성 정보 - 상기 식별된 객체에 대한 속성 정보는, 객체의 인상착의, 동작, 이동 동선, 동행자, 날짜 및 시간 중 적어도 하나를 포함함 - 를 포함하는 로그 데이터를 생성하는 단계를 포함하고,
    상기 이벤트 발생을 감지하는 단계는,
    제1 객체가 포함된 제1 영상 데이터를 분석하여 상기 제1 객체에 대한 제1 행동 패턴을 추출하는 단계;
    상기 제1 객체에 대하여 기 저장된 로그 데이터 - 상기 기 저장된 로그 데이터는 상기 제1 영상 데이터 이전에 수집된 상기 제1 객체를 포함하는 복수의 영상 데이터를 분석하여 추출된 상기 제1 객체에 대한 속성 정보를 포함함 - 를 분석하여 상기 제1 객체에 대한 제2 행동 패턴을 추출하는 단계; 및
    상기 추출된 제1 행동 패턴과 상기 추출된 제2 행동 패턴을 비교하여 상기 제1 객체에 대한 이상 유무를 판단하는 단계를 포함하며,
    상기 제1 객체에 대한 이상 유무를 판단하는 단계는,
    상기 추출된 제1 행동 패턴에 포함된 복수의 항목과 상기 추출된 제2 행동 패턴에 포함된 복수의 항목을 비교하여 상기 추출된 제1 행동 패턴과 상기 추출된 제2 행동 패턴 간의 유사도를 산출하되, 상기 복수의 항목 각각에 서로 다른 가중치를 부여하고, 상기 부여된 가중치에 기초하여 상기 산출된 유사도를 보정하는 단계를 포함하는,
    CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법.
  2. 제1항에 있어서,
    상기 객체를 식별하는 단계는,
    안면 인식 기술을 이용하여 상기 영상 데이터에 포함된 객체의 얼굴을 인식하는 단계; 및
    상기 인식된 객체의 얼굴에 기초하여 상기 객체를 식별하고, 기 저장된 객체별 코드 데이터로부터 상기 식별된 객체에 대응되는 코드를 로드하되, 상기 식별된 객체에 대응되는 코드가 부재한 경우, 상기 식별된 객체에 대한 코드를 신규 발급하는 단계를 포함하며,
    상기 로그 데이터를 생성하는 단계는,
    상기 생성된 로그 데이터와 상기 식별된 객체에 대응되는 코드를 매칭하여 저장하는 단계를 포함하는,
    CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 제1 객체에 대한 이상 유무를 판단하는 단계는,
    상기 추출된 제1 행동 패턴과 상기 추출된 제2 행동 패턴 간의 유사도가 기 설정된 값 이하인 경우, 상기 제1 객체가 이상 상태인 것으로 판단하는 단계; 및
    상기 제1 객체가 이상 상태인 것으로 판단된 것에 응답하여, 상기 소정의 공간을 관리하는 관리자의 단말로 상기 제1 객체가 이상 상태임을 안내하는 안내 메시지를 제공하는 단계를 포함하는,
    CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법.
  5. 제1항에 있어서,
    상기 이벤트 발생을 감지하는 단계는,
    상기 식별된 객체에 대하여 생성된 로그 데이터를 분석하여 상기 식별된 객체에 대한 행동 패턴을 추출하되, 상기 추출된 행동 패턴이 범죄와 관련된 행동 패턴인 것으로 판단되는 경우, 상기 소정의 공간을 관리하는 관리자의 단말로 범죄의 발생을 안내하는 안내 메시지를 제공하고, 상기 식별된 객체가 위치하는 공간의 출입문을 폐쇄하는 단계를 포함하는,
    CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법.
  6. 제1항에 있어서,
    상기 이벤트 발생을 감지하는 단계는,
    상기 식별된 객체에 대하여 생성된 로그 데이터를 분석하여 상기 식별된 객체를 대상으로 이벤트가 발생된 것으로 판단되는 경우, 상기 소정의 공간을 관리하는 관리자의 단말을 통해 입력된 관리자의 음성을 상기 식별된 객체와 최단거리에 위치한 카메라 모듈의 음성 출력 모듈을 통해 출력하고, 상기 카메라 모듈의 음성 입력 모듈을 통해 입력된 상기 식별된 객체의 음성을 상기 관리자의 단말을 통해 출력하는 단계를 포함하는,
    CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법.
  7. 제1항에 있어서,
    상기 이벤트 발생을 감지하는 단계는,
    상기 식별된 객체에 대하여 생성된 로그 데이터를 분석하여 상기 식별된 객체를 대상으로 이벤트가 발생된 것으로 판단되는 경우, 상기 식별된 객체의 단말과 상기 소정의 공간을 관리하는 관리자의 단말 간의 음성 통화를 자동으로 연결하는 단계를 포함하는,
    CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법.
  8. 제1항에 있어서,
    상기 CCTV 영상 데이터를 수집하는 단계는,
    상기 소정의 공간 내에 설치된 카메라 모듈을 이용하여 상기 영상 데이터를 수집하되, 상기 카메라 모듈은 3개의 렌즈를 포함하며, 상기 수집된 영상 데이터는 상기 3개의 렌즈를 통해 촬영된 3개의 영상 데이터를 하나의 영상 데이터로 결합한 것인, 단계를 포함하는,
    CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 방법.
  9. 프로세서;
    네트워크 인터페이스;
    메모리; 및
    상기 메모리에 로드(load)되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되,
    상기 컴퓨터 프로그램은,
    소정의 공간을 촬영한 CCTV 영상 데이터를 수집하는 인스트럭션(instruction);
    상기 수집된 CCTV 영상 데이터를 분석하여 객체를 식별하는 인스트럭션;
    상기 식별된 객체에 대한 로그 데이터를 생성하는 인스트럭션; 및
    상기 생성된 로그 데이터를 이용하여 상기 식별된 객체에 대한 이벤트 발생을 감지하는 인스트럭션을 포함하며,
    상기 로그 데이터를 생성하는 인스트럭션은,
    상기 수집된 영상 데이터를 분석하여 추출된 상기 식별된 객체에 대한 속성 정보 - 상기 식별된 객체에 대한 속성 정보는, 객체의 인상착의, 동작, 이동 동선, 동행자, 날짜 및 시간 중 적어도 하나를 포함함 - 를 포함하는 로그 데이터를 생성하는 인스트럭션을 포함하고,
    상기 이벤트 발생을 감지하는 인스트럭션은,
    제1 객체가 포함된 제1 영상 데이터를 분석하여 상기 제1 객체에 대한 제1 행동 패턴을 추출하는 인스트럭션;
    상기 제1 객체에 대하여 기 저장된 로그 데이터 - 상기 기 저장된 로그 데이터는 상기 제1 영상 데이터 이전에 수집된 상기 제1 객체를 포함하는 복수의 영상 데이터를 분석하여 추출된 상기 제1 객체에 대한 속성 정보를 포함함 - 를 분석하여 상기 제1 객체에 대한 제2 행동 패턴을 추출하는 인스트럭션; 및
    상기 추출된 제1 행동 패턴과 상기 추출된 제2 행동 패턴을 비교하여 상기 제1 객체에 대한 이상 유무를 판단하는 인스트럭션을 포함하며,
    상기 제1 객체에 대한 이상 유무를 판단하는 인스트럭션은,
    상기 추출된 제1 행동 패턴에 포함된 복수의 항목과 상기 추출된 제2 행동 패턴에 포함된 복수의 항목을 비교하여 상기 추출된 제1 행동 패턴과 상기 추출된 제2 행동 패턴 간의 유사도를 산출하되, 상기 복수의 항목 각각에 서로 다른 가중치를 부여하고, 상기 부여된 가중치에 기초하여 상기 산출된 유사도를 보정하는 인스트럭션을 포함하는,
    CCTV 영상 분석을 통한 객체의 이벤트 발생 감지 장치.
  10. 컴퓨팅 장치와 결합되어,
    소정의 공간을 촬영한 CCTV 영상 데이터를 수집하는 단계;
    상기 수집된 CCTV 영상 데이터를 분석하여 객체를 식별하는 단계;
    상기 식별된 객체에 대한 로그 데이터를 생성하는 단계; 및
    상기 생성된 로그 데이터를 이용하여 상기 식별된 객체에 대한 이벤트 발생을 감지하는 단계를 포함하며,
    상기 로그 데이터를 생성하는 단계는,
    상기 수집된 영상 데이터를 분석하여 추출된 상기 식별된 객체에 대한 속성 정보 - 상기 식별된 객체에 대한 속성 정보는, 객체의 인상착의, 동작, 이동 동선, 동행자, 날짜 및 시간 중 적어도 하나를 포함함 - 를 포함하는 로그 데이터를 생성하는 단계를 포함하고,
    상기 이벤트 발생을 감지하는 단계는,
    제1 객체가 포함된 제1 영상 데이터를 분석하여 상기 제1 객체에 대한 제1 행동 패턴을 추출하는 단계;
    상기 제1 객체에 대하여 기 저장된 로그 데이터 - 상기 기 저장된 로그 데이터는 상기 제1 영상 데이터 이전에 수집된 상기 제1 객체를 포함하는 복수의 영상 데이터를 분석하여 추출된 제1 객체에 대한 속성 정보를 포함함 - 를 분석하여 상기 제1 객체에 대한 제2 행동 패턴을 추출하는 단계; 및
    상기 추출된 제1 행동 패턴과 상기 추출된 제2 행동 패턴을 비교하여 상기 제1 객체에 대한 이상 유무를 판단하는 단계를 포함하며,
    상기 제1 객체에 대한 이상 유무를 판단하는 단계는,
    상기 추출된 제1 행동 패턴에 포함된 복수의 항목과 상기 추출된 제2 행동 패턴에 포함된 복수의 항목을 비교하여 상기 추출된 제1 행동 패턴과 상기 추출된 제2 행동 패턴 간의 유사도를 산출하되, 상기 복수의 항목 각각에 서로 다른 가중치를 부여하고, 상기 부여된 가중치에 기초하여 상기 산출된 유사도를 보정하는 단계를 실행시키기 위하여 컴퓨터로 판독가능한 기록매체에 저장된,
    컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터프로그램.
KR1020210008741A 2021-01-21 2021-01-21 Cctv 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램 KR102317459B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210008741A KR102317459B1 (ko) 2021-01-21 2021-01-21 Cctv 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210008741A KR102317459B1 (ko) 2021-01-21 2021-01-21 Cctv 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램

Publications (1)

Publication Number Publication Date
KR102317459B1 true KR102317459B1 (ko) 2021-10-26

Family

ID=78268457

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210008741A KR102317459B1 (ko) 2021-01-21 2021-01-21 Cctv 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램

Country Status (1)

Country Link
KR (1) KR102317459B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516091B1 (ko) * 2021-11-26 2023-03-30 대한민국 태그를 이용한 온실 내의 미소해충 이미지 진단 장치 및 그 동작 방법
KR102596077B1 (ko) * 2022-08-30 2023-10-31 (주) 이론시스템 인공지능 기반 공공 화장실 및 우범 지역의 거동수상자 감지 및 판별 방법 및 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475177B1 (ko) * 2014-05-20 2014-12-22 정효정 비상 호출 cctv 시스템 및 그 방법
KR20190075296A (ko) * 2017-12-21 2019-07-01 중앙대학교 산학협력단 위험 행동 패턴감지를 통한 건물 제어시스템
KR101999213B1 (ko) * 2019-03-28 2019-07-11 한국건설기술연구원 신호강도 패턴을 이용한 cctv 기반 행동 인식 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체
KR20210001318A (ko) * 2019-06-27 2021-01-07 한국건설기술연구원 지능형 감시 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475177B1 (ko) * 2014-05-20 2014-12-22 정효정 비상 호출 cctv 시스템 및 그 방법
KR20190075296A (ko) * 2017-12-21 2019-07-01 중앙대학교 산학협력단 위험 행동 패턴감지를 통한 건물 제어시스템
KR101999213B1 (ko) * 2019-03-28 2019-07-11 한국건설기술연구원 신호강도 패턴을 이용한 cctv 기반 행동 인식 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체
KR20210001318A (ko) * 2019-06-27 2021-01-07 한국건설기술연구원 지능형 감시 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516091B1 (ko) * 2021-11-26 2023-03-30 대한민국 태그를 이용한 온실 내의 미소해충 이미지 진단 장치 및 그 동작 방법
KR102596077B1 (ko) * 2022-08-30 2023-10-31 (주) 이론시스템 인공지능 기반 공공 화장실 및 우범 지역의 거동수상자 감지 및 판별 방법 및 시스템

Similar Documents

Publication Publication Date Title
KR102244978B1 (ko) 작업 현장의 위험성을 판단하는 인공지능 모델의 학습 방법, 장치 및 컴퓨터프로그램
EP3059733A2 (en) Automatic alerts for video surveillance systems
KR102317459B1 (ko) Cctv 영상 분석을 통한 객체의 이벤트 발생 감지 방법, 장치 및 컴퓨터프로그램
KR102384299B1 (ko) 폭행 감지 기능을 구비한 cctv 촬영 장치 및 cctv 영상에 기초한 폭행 감지 방법
EP3923202A1 (en) Method and device for data processing, and storage medium
JP7089045B2 (ja) メディア処理方法、その関連装置及びコンピュータプログラム
KR20120092762A (ko) 카메라 환경에서의 비정상 소리 탐지 및 식별 시스템
CN110929785A (zh) 数据分类方法、装置、终端设备及可读存储介质
KR20220092353A (ko) 인공지능 모델을 이용한 안전기준에 따른 가이드 제공 시스템
KR101213085B1 (ko) 오디오 데이터 식별 장치와 그 방법 및 오디오 데이터 식별을 이용한 방범 시스템
US11677904B2 (en) Report evaluation device and operation method thereof
Varghese et al. Video anomaly detection in confined areas
CN112417974A (zh) 一种公共卫生监控方法
Amrutha et al. A robust system for video classification: identification and tracking of suspicious individuals from surveillance videos
Rajeev et al. An insightful analysis of digital forensics effects on networks and multimedia applications
Arshad et al. Anomalous Situations Recognition in Surveillance Images Using Deep Learning
KR20220072499A (ko) 다중 뷰 영상 기반 행위 인지 방법, 장치 및 시스템
Ravichandran et al. Anomaly detection in videos using deep learning techniques
KR102631950B1 (ko) 지능형 cctv 시스템을 이용하여 이벤트의 발생을 감지하기 위한 장치 및 방법
Kukad et al. Autonomous anomaly detection system for crime monitoring and alert generation
Hunain et al. A framework using artificial intelligence for vision-based automated firearm detection and reporting in smart cities
KR20200071839A (ko) 영상 분석 장치 및 그 방법
Martínez-Mascorro et al. Detecting Suspicious Behavior on Surveillance Videos: Dealing with Visual Behavior Similarity between Bystanders and Offenders
KR20230070700A (ko) 인공지능 감시카메라를 이용한 이벤트 발생 감지
Paul et al. Integrated Intelligent Surveillance System Using Deep Learning

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant