KR20210094862A - 감시 카메라 시스템 및 그 동작 방법 - Google Patents

감시 카메라 시스템 및 그 동작 방법 Download PDF

Info

Publication number
KR20210094862A
KR20210094862A KR1020200008618A KR20200008618A KR20210094862A KR 20210094862 A KR20210094862 A KR 20210094862A KR 1020200008618 A KR1020200008618 A KR 1020200008618A KR 20200008618 A KR20200008618 A KR 20200008618A KR 20210094862 A KR20210094862 A KR 20210094862A
Authority
KR
South Korea
Prior art keywords
objects
monitoring area
behavior pattern
analysis unit
abnormal
Prior art date
Application number
KR1020200008618A
Other languages
English (en)
Inventor
김종호
성민석
손명화
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020200008618A priority Critical patent/KR20210094862A/ko
Publication of KR20210094862A publication Critical patent/KR20210094862A/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G06K9/00221
    • G06K9/00362
    • G06K9/00624
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명의 실시예에 의한 감시 카메라 시스템은, 감시 영역을 촬영하여 상기 감시영역에 대한 영상 및 음성 데이터를 취득하는 카메라; 및 상기 카메라와 네트워크를 통해 연결되어 실시간으로 상기 카메라로부터 데이터를 수신하는 이벤트관리서버를 포함하며, 상기 카메라는, 상기 감시영역에 대응하는 영상분석 정보로서 상기 감시영역 내에 인식된 객체들의 집단행동 패턴을 분석하고 이상 집단행동 패턴을 감지하는 집단행동 패턴 분석부; 및 상기 감시영역 내에 인식된 객체들의 안면 표정을 인식하고 이를 분석하여 긴급 상황 발생 여부를 판단하는 표정 인식/ 분석부를 포함한다.

Description

감시 카메라 시스템 및 그 동작 방법{Surveillance camera system and the operation method thereof}
본 발명의 실시예는 감시 카메라 시스템에 관한 것으로, 보다 구체적으로는, 영상분석을 통해 집단행동 패턴 및 안면표정 분석을 이용하여 사고를 감지하고 이벤트를 분석할 수 있는 감시 카메라 시스템 및 그 동작 방법에 관한 것이다.
최근에는 방범, 보안, 매장 관리 등 다양한 목적으로 건물 내부나 외부, 길거리 등에 감시 카메라 시스템이 설치되는 것이 일반적이다. 이와 같은 감시 카메라 시스템은 복수개의 카메라들이 유선 또는 무선으로 네트워크를 통하여 서로 연결되어 네트워크 카메라로서의 기능을 수행할 수 있다.
최근의 감시 카메라 시스템은 지능형 영상분석을 수행하는 네트워크 카메라를 활용하여 감시영역에서 취득되는 다양한 영상분석 정보를 감시영역의 영상 및 오디오 신호와 함께 전송할 수 있다.
일 예로, 최근의 감시 카메라 시스템은 단순히 감시영역에 대한 영상을 저장하는 것만이 아니라, 감시 영상을 분석하여 비정상적 상황을 인식하는 지능형 감시 서비스의 요구가 증대하고 있다. 종래의 경우, 이러한 지능형 감시 서비스의 대표적인 예로서, 감시영역에서 인식된 객체를 검출 및 추적하고 이상행동을 분석하는 방식이 적용되고 있다.
그러나, 일반적으로 감시 카메라는 많은 사람들이 왕래 하는 곳에 설치되어 상황을 주시해야 하는 경우가 많다. 즉, 감시영역 내에서 인식된 적은 수의 객체를 추적 분석하여 이상행동을 분석하는 방법으로는 많은 군중들이 밀집되어 있는 곳에서의 이상행동 및 이상 상황을 분석하는데 한계가 있다. 즉, 각각의 객체들을 검출하고 추적하여 행동을 분석하는 방법으로는 동일한 감시영역 내에서 감지되는 수많은 객체들을 동시에 검출하고 추적하는 것은 거의 불가능하기 때문이다.
본 발명의 실시예는 감시 카메라의 감시 영역 내에 인식된 객체들의 집단행동 패턴을 분석하여 사고를 감지하며, 이후 검출된 객체들의 안면 표정 인식 및 분석을 수행하여 긴급상황 여부를 판단하고, 긴급상황이 인지되면 이벤트를 통지하는 감시 카메라 시스템 및 그 동작 방법을 제공한다.
상기 목적을 달성하기 위하여 본 발명의 실시예에 의한 감시 카메라 시스템은, 감시 영역을 촬영하여 상기 감시영역에 대한 영상 및 음성 데이터를 취득하는 카메라; 및 상기 카메라와 네트워크를 통해 연결되어 실시간으로 상기 카메라로부터 데이터를 수신하는 이벤트관리서버를 포함하며, 상기 카메라는, 상기 감시영역에 대응하는 영상분석 정보로서 상기 감시영역 내에 인식된 객체들의 집단행동 패턴을 분석하고 이상 집단행동 패턴을 감지하는 집단행동 패턴 분석부; 및 상기 감시영역 내에 인식된 객체들의 안면 표정을 인식하고 이를 분석하여 긴급 상황 발생 여부를 판단하는 표정 인식/ 분석부를 포함한다.
상기 집단행동 패턴 분석부는 상기 감시영역을 촬영한 영상 데이터를 활용하여 각 객체들의 머리와 다리간의 각도를 계산하고, 상기 각도가 기 설정된 값의 범위에 포함될 경우 정상 움직임으로 판단하고, 상기 각도가 기 설정된 값 이외의 범위에 해당할 경우 비정상 움직임으로 판단할 수 있다.
상기 객체의 정상 움직임으로 판단하는 기준은 각 객체의 머리와 다리간의 각도가 180도 (±20도 오차 포함)인 경우일 수 있다.
상기 정상 움직임을 나타내는 각각의 객체들의 인원수가 상기 감시영역 내의 검출된 객체들 전체 인원수 대비 70%를 초과하면 일반 상황으로 판단할 수 있다.
상기 비정상 움직임을 나타내는 각각의 객체들의 인원수가 상기 감시영역 내의 검출된 객체들 전체 인원수 대비 60% 이상에 해당하면 이상 집단행동 패턴으로 인식할 수 있다.
상기 집단행동 패턴 분석부에 의한 영상 분석 결과 이상 집단행동 패턴으로 감지된 경우에 상기 표정 인식/분석부가 동작될 수 있다.
상기 표정 인식/분석부는 상기 영상 데이터에 대한 히트맵 감식 결과 각 객체들의 표정이 정상 범위에 해당할 경우에는 정상 상황으로 판단하고, 상기 히트맵의 산출 결과 객체들의 50% 이상이 비 정상 범위로 인지되는 경우에는 긴급 상황으로 판단할 수 있다.
상기 집단행동 패턴 분석부 및 표정 인식/분석부에 의한 영상정보 분석 결과, 긴급 상황인 것으로 판단되면, 이벤트관리서버는 상기 긴급 상황에 대응하는 이벤트 정보를 수신할 수 있다.
본 발명의 다른 실시예에 의한 감시 카메라 동작 방법은, 해당 감시영역을 촬영하고, 이를 통해 상기 감시영역에 대하여 실시간으로 이벤트를 감지하는 단계; 상기 감시영역을 촬영한 영상정보를 이용하여 상기 감시영역 내에 촬영되는 객체들에 대한 집단행동 패턴을 분석하는 동작을 수행하는 단계; 상기 영상 정보 내에서 검출된 객체들 각각에 대하여 머리와 다리간의 각도를 계산한 뒤, 상기 각 객체의 머리와 다리간의 각도가 180도 (±20도 오차 포함)를 벗어나는 경우 비정상 움직임으로 판단하고, 상기 비정상 움직임을 나타내는 각각의 객체들의 인원수가 상기 감시영역 내의 검출된 객체들 전체 인원수 대비 60% 이상에 해당하면 이상 집단행동 패턴으로 판단하는 단계; 상기 이상 집단행동 패턴으로 감지된 경우, 상기 검출된 객체들에 대한 표정을 인식하고 분석하는 단계; 상기 영상 정보 내에서 검출된 객체들에 대한 히트맵(heatmap) 감식 결과 각 객체들의 표정이 정상 범위에 해당할 경우에는 정상 상황으로 판단하고, 반면에 상기 히트맵의 산출 결과 객체들의 50% 이상이 비 정상 범위로 인지되는 경우에는 긴급 상황으로 판단하는 단계; 상기 긴급 상황인 것으로 판단된 후 상기 긴급 상황에 대응하는 이벤트 정보를 전송하는 단계; 상기 전성된 이벤트 정보에 대응하여 상기 긴급 상황 이벤트를 녹화하는 단계를 포함한다.
이와 같은 본 발명의 실시예에 의하면, 감시 카메라의 감시 영역 내에 인식된 객체들의 집단행동 패턴을 분석하여 사고를 감지하며, 이후 검출된 객체들의 안면 표정 인식 및 분석을 수행하여 긴급상황 여부를 판단하고, 긴급상황이 인지되면 이벤트를 통지함으로써, 경보장치가 없거나 경보장치가 동작하지 않는 긴급 상황에도 신속히 긴급상황을 인식하고 대처할 수 있다.
도 1은 본 발명의 실시예에 의한 네트워크 감시 카메라 시스템의 구성을 개략적으로 나타내는 블록도.
도 2는 도 1에 도시된 카메라의 구성을 나타내는 블록도.
도 3은 도 2에 도시된 프로세서의 내부 구성의 일 실시예를 나타내는 블록도.
도 4a 및 도 4b는 도 3에 도시된 집단행동 패턴 분석부의 동작을 설명하는 도면.
도 5a 및 도 5b는 도 3에 도시된 표정 인식/ 분석부의 동작을 설명하는 도면.
도 6은 도 1에 도시된 이벤트관리서버의 구성을 나타내는 블록도.
도 7은 본 발명의 실시예에 의한 감시 카메라 시스템의 동작 방법을 나타내는 순서도.
위 발명의 배경이 되는 기술 란에 기재된 내용은 오직 본 발명의 기술적 사상에 대한 배경 기술의 이해를 돕기 위한 것이며, 따라서 그것은 본 발명의 기술 분야의 당업자에게 알려진 선행 기술에 해당하는 내용으로 이해될 수 없다.
아래의 서술에서, 설명의 목적으로, 다양한 실시예들의 이해를 돕기 위해 많은 구체적인 세부 내용들이 제시된다. 그러나, 다양한 실시예들이 이러한 구체적인 세부 내용들 없이 또는 하나 이상의 동등한 방식으로 실시될 수 있다는 것은 명백하다. 다른 예시들에서, 잘 알려진 구조들과 장치들은 다양한 실시예들을 불필요하게 이해하기 어렵게 하는 것을 피하기 위해 블록도로 표시된다.
첨부된 블록도의 각 블록은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.
그리고, 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성하여 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록에서 설명되는 기능들을 실행하기 위한 기능을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능하다.
즉, 도시된 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.
여기에서 사용된 용어는 특정한 실시예들을 설명하는 목적이고 제한하기 위한 목적이 아니다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함한다" 고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 다른 정의가 없는 한, 여기에 사용된 용어들은 본 발명이 속하는 분야에서 통상적인 지식을 가진 자에게 일반적으로 이해되는 것과 같은 의미를 갖는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세히 설명하도록 한다.
도 1은 본 발명의 실시예에 의한 네트워크 감시 카메라 시스템의 구성을 개략적으로 나타내는 블록도이다.
도 1을 참조하면, 본 발명의 실시예에 의한 네트워크 감시 카메라 시스템은, 카메라(100), 네트워크(200), 및 이벤트관리서버(300)를 포함하여 구성되며, 이는 상기 카메라(100)의 데이터가 네트워크(200)를 통해 이벤트관리서버(300)로 전송되고, 관리자가 이벤트관리서버(300)를 이용하여 상기 카메라(100)에서 전송된 데이터들을 모니터링할 수 있는 구성을 제공한다. 즉, 본 발명의 실시예에서는 상기 카메라(100)가 데이터를 전송하는 서버의 역할을 수행하고, 상기 이벤트관리서버(300)가 상기 전송된 데이터를 수신하는 클라이언트의 역할을 수행할 수 있다.
상기 카메라(100)는 감시영역을 촬영하여 상기 감시영역에 대한 영상 및 오디오 신호를 획득하는 것으로, 이는 감시 또는 보안의 목적으로 상기 감시영역을 실시간으로 촬영할 수 있다.
상기 카메라(100)는 패닝(panning)과 틸팅(tilting)이 가능하며 렌즈의 줌 배율이 조절 가능한 PTZ 카메라로 구현될 수 있으며, 상기 카메라(100)는 지능형 영상분석 기능을 수행하는 네트워크 카메라로 구현될 수 있다.
본 발명의 실시예에 의한 카메라(100)는 감시 영역 내에 인식된 객체들의 집단행동 패턴을 분석하여 사고를 감지하며, 이후 검출된 객체들의 안면 표정 인식 및 분석을 수행하여 긴급상황 여부를 판단하고, 긴급상황이 인지되면 이벤트를 통지하는 동작을 수행할 수 있으며, 이에 대해서는 이하 도 2 내지 도 7을 통해 보다 상세히 설명하도록 한다.
상기 카메라(100)는 이더넷(Ethernet), 와이파이(Wi-Fi), 블루투스(Bluetooth) 등 다양한 유무선 통신 방식을 이용하여 이벤트관리서버(300)에 정보를 전송할 수도 있고, 이벤트관리서버(300)로부터 명령을 수신할 수도 있다.
네트워크(200)는 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
이벤트관리서버(300)는 상기 카메라(200)에서 전송된 데이터들을 수신하고 저장하며, 이를 분석 및 모니터링하는 동작을 수행할 수 있다. 따라서, 상기 이벤트관리서버(300)는 DVR (Digital Video Recorder), NVR (Network Video Recorder), VMS (Video Management System) 등으로 구현될 수 있다.
도 2는 도 1에 도시된 카메라의 구성을 나타내는 블록도이다.
도 2를 참조하면, 카메라(100)는 이미지 센서(110), 인코더(120), 메모리(130), 프로세서(140), 및 통신 인터페이스(150)를 포함한다.
이미지 센서(110)는 감시 영역을 촬영하여 영상을 획득하는 기능을 수행하는 것으로서, 예컨대, CCD(Charge-Coupled Device) 센서, CMOS(Complementary Metal-Oxide-Semiconductor) 센서 등으로 구현될 수 있다.
인코더(120)는 이미지 센서(110)를 통해 획득한 영상을 디지털 신호로 부호화하는 동작을 수행하며, 이는 예컨대, H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준 등을 따를 수 있다.
메모리(130)는 카메라(100)의 감시 영역에서 취득한 영상 데이터, 음성 데이터 등을 저장할 수 있다. 또한, 메모리(130)는 상기 감시 영역에 대응하는 영상 분석 정보로서, 감시 영역 내에 인식된 객체들의 집단행동 패턴 정보 및 검출된 객체들의 안면 표정 인식 및 분석 정보를 저장할 수 있다.
통신 인터페이스(150)는 상기 영상 데이터, 음성 데이터 및 영상 분석 정보를 이벤트관리서버(300)에 전송한다. 일 실시예에 따른 통신 인터페이스(150)는 영상 데이터, 음성 데이터, 및 영상 분석 정보를 이벤트관리서버(300)에 실시간으로 전송할 수 있다. 통신 인터페이스(150)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 중 적어도 하나의 통신 기능을 수행할 수 있다.
프로세서(140)는 카메라(100)의 전반적인 동작을 제어하는 것으로서, 이는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(130) 또는 통신 인터페이스(150)에 의해 프로세서(140)로 제공될 수 있다. 일 예로, 프로세서(140)는 메모리(130)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 즉, 상기 프로세서(140)는 소프트웨어적으로 C, C++, Java, Visual Basic, Visual C 등 에 의해 구현되어 다양한 기능들을 수행하는 프로그램 모듈(Module)을 포함할 수 있다.
도 3은 도 2에 도시된 프로세서의 내부 구성의 일 실시예를 나타내는 블록도이다. 또한, 도 4a 및 도 4b는 도 3에 도시된 집단행동 패턴 분석부의 동작을 설명하는 도면이고, 도 5a 및 도 5b는 도 3에 도시된 표정 인식/ 분석부의 동작을 설명하는 도면이다.
먼저 도 3을 참조하면, 본 발명의 실시예에 의한 네트워크 카메라(200)의 프로세서(140)는 집단행동 패턴 분석부(142) 및 표정 인식/ 분석부(144)를 포함할 수 있다.
여기서, 상기 프로세서(140)는 메모리(130)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있으며, 이때, 상기 프로세서(140) 내의 구성요소들 즉, 집단행동 패턴 분석부(142) 및 표정 인식/ 분석부(144)는 카메라(100)에 저장된 프로그램 코드가 제공하는 제어 명령에 의해 프로세서(140)에 의해 수행되는 서로 다른 기능들을 구분하여 표현하는 것으로 이해할 수도 있다.
집단행동 패턴 분석부(142)는 카메라(100)의 감시영역 내에 촬영되는 객체들이 정상적인 움직임과 비교하여 어떤 사건, 사고 등에 의해 갑작스럽고 혼란스러운 움직임 즉, 비정상적인 움직임을 나타내는지 분석하는 동작을 수행한다.
본 발명에 의한 집단행동 패턴 분석부(142)는 상기 비정상적인 움직임을 판단하는 기준으로서, 상기 감시영역을 촬영한 영상 데이터를 활용하여 각 객체들의 머리와 다리간의 각도를 계산하고, 상기 각도가 기 설정된 값의 범위에 포함될 경우 이를 비정상 움직임으로 판단할 수 있다. 또한, 상기 비정상 움직임을 보이는 객체들이 상기 감지영역의 내의 객체들 중 70% 이상에 해당할 경우 이를 집단행동 패턴으로 인식할 수 있다.
보다 구체적으로, 일반적으로 사람들은 주변 영역에서 위험한 사고가 발생되면 상체를 숙인 상태로 달리거나, 엎드리거나, 숨는 동작을 수행한다. 따라서, 이러한 동작 특성을 이용하여 각 객체들의 머리와 다리간의 각도를 계산하고, 상기 각도가 기 설정된 값의 범위에 포함될 경우 이를 비정상 움직임으로 판단할 수 있는 것이다. 또한, 감지영역 내의 객체들 중 일부 객체들만 이러한 비정상 움직임을 보일 경우에는 위급 상황이 아닌 일반적인 상황으로 인식함이 보다 바람직하다. 따라서, 앞서 언급한 바와 같이 상기 비정상 움직임을 보이는 객체들이 상기 감지영역의 내의 객체들 중 60% 이상에 해당할 경우 이를 집단행동 패턴으로 인식할 수 있다. 다만, 상기 60%의 수치는 일 실시예로서 본 발명의 범위가 반드시 이에 한정되는 것은 아니다.
또한, 상기 집단행동 패턴 분석부(142)의 동작의 근거로서의 기준 값들은 도 2에 도시된 카메라(100)의 메모리(130)에 저장될 수 있다.
도 4a는 카메라의 감시영역 내에 촬영되는 객체들의 정상적인 움직임의 일 실시예를 나타내는 도면이고, 도 4b는 카메라의 감시영역 내에 촬영되는 객체들의 비정상적인 움직임의 일 실시예를 나타내는 도면이다.
먼저 도 4a를 참조하면, 감시영역을 촬영한 영상 데이터(400) 내에 복수의 객체들(410)이 인지됨이 도시되어 있다. 집단행동 패턴 분석부(142)는 상기 영상 데이터(400)를 분석함에 있어, 상기 영상 데이터 내의 객체들(410)을 검출하고, 검출된 객체들(400) 각각에 대하여 머리와 다리간의 각도를 계산할 수 있다.
도 4a에 도시된 바와 같이, 상기 영상 데이터(400) 내에서 검출된 객체들(410) 각각에 대하여 머리와 다리간의 각도를 계산하고, 그 결과 각 객체(410a)의 머리와 다리간의 각도가 약 180도 (±20도 오차 포함)인 경우에는 상기 객체가 정상적인 움직임을 나타내는 것으로 판단할 수 있다. 다만, 상기 수치 범위는 하나의 예로서 본 발명이 반드시 이에 한정되는 것은 아니다.
또한, 상기 집단행동 패턴 분석부(142)는 상기 영상 데이터(400) 내에서 검출된 객체들(410) 각각에 대하여 머리와 다리간의 각도를 계산한 뒤, 상기 정상적인 움직임을 나타내는 각각의 객체(410a)들의 인원수가 상기 감시영역 내의 검출된 객체들(400) 전체 인원수 대비 70%를 초과하면 일반 상황으로 판단할 수 있다. 다만, 상기 70%의 수치는 일 실시예로서 본 발명의 범위가 반드시 이에 한정되는 것은 아니다.
이에 반해 도 4b에 도시된 바와 같이, 감시영역에 대응하는 영상 데이터(400') 내에서 검출된 객체들(420) 각각에 대하여 머리와 다리간의 각도를 계산하고, 그 결과 각 객체(420a, 420b, 420c)의 머리와 다리간의 각도가 앞서 도 4a에서 설명한 정상적인 움직임의 범위를 벗어날 경우 이는 상기 객체가 비정상적인 움직임을 나타내는 것으로 판단할 수 있다.
일반적으로 사람들은 주변 영역에서 위험한 사고가 발생되면 상체를 숙인 상태로 달리거나, 엎드리거나, 숨는 동작을 수행한다. 따라서, 이러한 동작 특성을 이용하여 각 객체들의 머리와 다리간의 각도를 계산하고, 상기 각도가 기 설정된 값의 범위에 포함될 경우 이를 비정상 움직임으로 판단할 수 있는 것이다.
일 실시예로서, 긴급 상황임을 가정할 때 도 4b의 (a)와 같이 상체를 숙인 상태로 달려가는 제1 객체(420a)의 머리와 다리간의 각도는 약 130도 (±20도 오차 포함)일 수 있다. 마찬가지로, 도 4b의 (b)와 같이 상체를 숙인 상태로 엎드리거나 넘어진 제2 객체(420b)의 머리와 다리간의 각도는 약 230도 (±20도 오차 포함)일 수 있고, 도 4b의 (c)와 같이 장애물에 은폐하는 경우 제3 객체(420c)의 머리와 다리간의 각도는 약 230도 (±20도 오차 포함)일 수 있다. 다만, 상기 수치 범위는 하나의 예로서 본 발명이 반드시 이에 한정되는 것은 아니다.
또한, 상기 집단행동 패턴 분석부(142)는 상기 영상 데이터(400') 내에서 검출된 객체들(420) 각각에 대하여 머리와 다리간의 각도를 계산한 뒤, 상기 비정상적인 움직임을 나타내는 각각의 객체들(420a, 420b, 420c)들의 인원수가 상기 감시영역 내의 검출된 객체들(400) 전체 인원수 대비 60% 이상에 해당할 경우 이를 이상 집단행동 패턴으로 인식할 수 있다. 다만, 상기 60%의 수치는 일 실시예로서 본 발명의 범위가 반드시 이에 한정되는 것은 아니다.
이와 같이 상기 집단행동 패턴 분석부(142)에 의한 영상 분석 결과 이상 집단행동 패턴으로 감지된 경우에는, 이후 상기 표정 인식/분석부(144)가 동작되어 긴급 상황 여부를 판단하게 된다.
즉, 본 발명의 실시예는 상기 집단행동 패턴 분석부(142)에서 분석된 이상 집단행동 패턴의 오차를 극복하기 위하여 표정 인식/분석부(144)에 의해 상기 감시영역에 대한 영상 데이터에 포함되는 각 객체들의 안면 인식 정보 즉, 각 객체들의 표정을 인지하여 상기 집단행동 패턴 분석부(142)의 분석 결과에 대한 오류를 보정할 수 있다.
본 발명의 실시예에 의하면, 상기 표정 인식/분석부(144)는 상기 영상 데이터에 대한 히트맵(heatmap) 감식 결과 각 객체들의 표정이 정상 범위에 해당할 경우에는 정상 상황으로 판단하고, 반면에 상기 히트맵의 산출 결과 객체들 대다수가 흥분, 놀람, 두려움, 공포 등으로 인지되는 경우에는 이를 긴급 상황으로 판단할 수 있다.
표정 인식/분석부(144)가 각 객체의 표정을 인식하고, 상기 인식된 표정이 다양한 감정들 일 예로, 보통(neutral), 기쁨, 행복 등의 감정에 해당하는 지, 아니면 흥분, 놀람, 두려움, 공포 등의 감정에 해당하는 것인지 판단하는 것은 기 설정된 기준을 활용함으로써 수행될 수 있다. 일 예로서, 도 2에 도시된 카메라(100)의 메모리(130)에는 상기 각 감정 별로 카테고리화되어 저장된 다양한 안면 표정 정보들이 지속적으로 업데이트되며, 상기 표정 인식/분석부(144)는 이러한 안면 표정 정보들은 활용하여 각 객체들의 표정을 분석하고 어떤 감정 상태인지 판단할 수 있다.
도 5a는 정상 상황에서의 카메라의 감시영역 내에 촬영되는 객체들의 표정에 대한 일 실시예를 나타내는 도면이고, 도 5b는 긴급 상황에서의 카메라의 감시영역 내에 촬영되는 객체들의 표정에 대한 일 실시예를 나타내는 도면이다.
먼저 도 5a를 참조하면, 감시영역을 촬영한 영상 데이터(500) 내에 복수의 객체들(510)이 인지됨이 도시되어 있다. 표정 인식/분석부(144)는 상기 영상 데이터(500)를 분석함에 있어, 상기 영상 데이터 내의 객체들(410)을 검출하고, 검출된 객체들(400) 각각에 표정을 인식하고, 각 객체들의 감정 상태를 판단할 수 있다.
도 5a에 도시된 바와 같이, 상기 영상 데이터(500) 내에서 검출된 객체들(410)위 표정 인식 결과에 대한 히트맵(heatmap) 감식 결과 각 객체들의 표정이 정상 범위에 해당할 경우에는 정상 상황으로 판단할 수 있다.
이에 반해 도 5b에 도시된 바와 같이, 감시영역에 대응하는 영상 데이터(500') 내에서 검출된 객체들(520) 각각에 상기 히트맵의 산출 결과 객체들 대다수가 흥분, 놀람, 두려움, 공포 등으로 인지되는 경우에는 이를 긴급 상황으로 판단할 수 있다.
이후, 상기 집단행동 패턴 분석부(142) 및 표정 인식/분석부(144)에 의한 영상정보 분석 결과, 긴급 상황인 것으로 판단되면, 이벤트관리서버(300)에 긴급 상황에 대응하는 이벤트 정보를 전송할 수 있다.
도 6은 도 1에 도시된 이벤트관리서버의 구성을 나타내는 블록도이다.
도 6을 참조하면, 상기 이벤트관리서버(300)는 메모리(310), 데이터베이스(320) 프로세서(330), 통신모듈(350) 및 입출력 인터페이스(340)을 포함한다.
메모리(310)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM, ROM 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치를 포함할 수 있다. 상기 메모리(310)에는 도 1에 도시된 카메라(100)로부터 생성되는 영상 데이터, 음성 데이터, 영상 분석 정보, 및 이벤트 정보 등을 저장할 수 있다.
데이터베이스(320)는 도 1에 도시된 감시 카메라들 각각의 고유 정보들(예: 카메라 ID 등)을 저장 및 유지할 수 있다. 즉, 상기 이벤트 관리 서버(300)와 연결되는 감시 카메라들이 추가 및/또는 변경되면 이에 대응하는 정보 역시 상기 데이터베이스(320)에 업데이트될 수 있다.
프로세서(330)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(310) 또는 통신모듈(350)에 의해 프로세서(330)로 제공될 수 있다. 일 예로, 프로세서(330)는 메모리(330)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 즉, 상기 프로세서(330)는 소프트웨어적으로 C, C++, Java, Visual Basic, Visual C 등 에 의해 구현되어 다양한 기능들을 수행하는 프로그램 모듈(Module)을 포함할 수 있다.
본 발명의 실시예는 상기 카메라(100)로부터 긴급 상황에 대응하는 이벤트 정보를 전송 받으면, 상기 프로세서(330)는 이를 수신한 뒤 상기 긴급 상황 이벤트를 녹화하라는 코맨드 신호를 생성하여 상기 카메라(100)에 전송할 수 있다.
통신모듈(350)은 네트워크(200)를 통해 카메라(100)와 통신할 수 있도록 하는 기능을 제공할 수 있다. 일 예로, 이벤트관리서버(300)의 프로세서(330)의 제어에 따라 제공되는 제어신호, 명령 등이 통신모듈(350)을 통해 상기 네트워크(200)을 거쳐 카메라(100)로 전송될 수 있고, 마찬가지로 상기 카메라(100)에서 생성되는 이벤트 신호, 촬영 영상 정보 및/또는 위치 정보들은 상기 네트워크(200)을 거쳐 이벤트 관리 서버(300)로 전송될 수 있다.
입출력 인터페이스(340)는 키보드 또는 마우스 등으로 구현되는 입력장치 및 디스플레이 등과 같은 출력장치 간의 인터페이스를 제공하는 역할을 할 수 있다.
도 7은 본 발명의 실시예에 의한 감시 카메라 시스템의 동작 방법을 나타내는 순서도이다. 도 4 내지 도 7을 참조하여 본 발명의 실시예에 감시 카메라 시스템의 동작 방법을 설명하면 다음과 같다.
도 7을 참조하면, 먼저 감시 카메라 시스템의 카메라(100)는 해당 감시영역을 촬영하고, 이를 통해 상기 감시영역에 대하여 실시간으로 이벤트를 감지하는 동작을 수행한다 (ST 700).
집단행동 패턴 분석부(142)는 상기 감시영역을 촬영한 영상정보를 이용하여 카메라(100)의 감시영역 내에 촬영되는 객체들에 대한 집단행동 패턴을 분석하는 동작을 수행한다 (ST 700).
본 발명에 의한 집단행동 패턴 분석부(142)는 상기 카메라(100)의 감시영역 내에 촬영되는 객체들이 정상적인 움직임과 비교하여 어떤 사건, 사고 등에 의해 갑작스럽고 혼란스러운 움직임 즉, 비정상적인 움직임을 나타내는지 분석하는 동작을 수행하며, 상기 비정상적인 움직임을 판단하는 기준으로서, 상기 감시영역을 촬영한 영상 데이터를 활용하여 각 객체들의 머리와 다리간의 각도를 계산하고, 상기 각도가 기 설정된 값의 범위에 포함될 경우 이를 비정상 움직임으로 판단할 수 있다.
일 예로, 도 4b에 도시된 바와 같이, 상기 집단행동 패턴 분석부(142)는 상기 영상 데이터(400') 내에서 검출된 객체들(420) 각각에 대하여 머리와 다리간의 각도를 계산한 뒤, 상기 비정상적인 움직임을 나타내는 각각의 객체들(420a, 420b, 420c)들의 인원수가 상기 감시영역 내의 검출된 객체들(400) 전체 인원수 대비 60% 이상에 해당할 경우 이를 이상 집단행동 패턴으로 인식할 수 있다 (ST 720).
이와 같이 상기 집단행동 패턴 분석부(142)에 의한 영상 분석 결과 이상 집단행동 패턴으로 감지된 경우에는, 이후 상기 표정 인식/분석부(144)가 동작되어 상기 검출된 객체들에 대한 표정을 인식하고 분석하는 동작을 수행한다 (ST 730).
즉, 본 발명의 실시예는 상기 집단행동 패턴 분석부(142)에서 분석된 이상 집단행동 패턴의 오차를 극복하기 위하여 표정 인식/분석부(144)에 의해 상기 감시영역에 대한 영상 데이터에 포함되는 각 객체들의 안면 인식 정보 즉, 각 객체들의 표정을 인지하여 상기 집단행동 패턴 분석부(142)의 분석 결과에 대한 오류를 보정할 수 있다.
본 발명의 실시예에 의하면, 상기 표정 인식/분석부(144)는 상기 영상 데이터에 대한 히트맵(heatmap) 감식 결과 각 객체들의 표정이 정상 범위에 해당할 경우에는 정상 상황으로 판단하고, 반면에 상기 히트맵의 산출 결과 객체들 대다수가 흥분, 놀람, 두려움, 공포 등으로 인지되는 경우에는 이를 긴급 상황으로 판단할 수 있다.
일 예로, 도 5b에 도시된 바와 같이, 감시영역에 대응하는 영상 데이터(500') 내에서 검출된 객체들(520) 각각에 상기 히트맵의 산출 결과 객체들 대다수가 흥분, 놀람, 두려움, 공포 등으로 인지되는 경우에는 이를 긴급 상황으로 판단할 수 있다 (ST 750).
이후, 상기 집단행동 패턴 분석부(142) 및 표정 인식/분석부(144)에 의한 영상정보 분석 결과, 긴급 상황인 것으로 판단되면, 이벤트관리서버(300)에 긴급 상황에 대응하는 이벤트 정보를 전송할 수 있다 (ST 750).
이에 상기 이벤트관리서버(300)는 상기 긴급 상황에 대응하는 이벤트 정보를 전송 받으면, 이를 수신한 뒤 상기 긴급 상황 이벤트를 녹화하라는 코맨드 신호를 생성하여 상기 카메라(100)에 전송하고, 이에 대응하여 카메라(100)는 상기 긴급 상황 이벤트를 녹화한다 (ST 760).
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.

Claims (9)

  1. 감시 영역을 촬영하여 상기 감시영역에 대한 영상 및 음성 데이터를 취득하는 카메라; 및
    상기 카메라와 네트워크를 통해 연결되어 실시간으로 상기 카메라로부터 데이터를 수신하는 이벤트관리서버를 포함하며,
    상기 카메라는,
    상기 감시영역에 대응하는 영상분석 정보로서 상기 감시영역 내에 인식된 객체들의 집단행동 패턴을 분석하고 이상 집단행동 패턴을 감지하는 집단행동 패턴 분석부; 및
    상기 감시영역 내에 인식된 객체들의 안면 표정을 인식하고 이를 분석하여 긴급 상황 발생 여부를 판단하는 표정 인식/ 분석부를 포함하는 감시 카메라 시스템.
  2. 제1 항에 있어서,
    상기 집단행동 패턴 분석부는 상기 감시영역을 촬영한 영상 데이터를 활용하여 각 객체들의 머리와 다리간의 각도를 계산하고, 상기 각도가 기 설정된 값의 범위에 포함될 경우 정상 움직임으로 판단하고, 상기 각도가 기 설정된 값 이외의 범위에 해당할 경우 비정상 움직임으로 판단하는 감시 카메라 시스템.
  3. 제2 항에 있어서,
    상기 객체의 정상 움직임으로 판단하는 기준은 각 객체의 머리와 다리간의 각도가 180도 (±20도 오차 포함)인 경우인 감시 카메라 시스템.
  4. 제3 항에 있어서,
    상기 정상 움직임을 나타내는 각각의 객체들의 인원수가 상기 감시영역 내의 검출된 객체들 전체 인원수 대비 70%를 초과하면 일반 상황으로 판단하는 감시 카메라 시스템.
  5. 제4 항에 있어서,
    상기 비정상 움직임을 나타내는 각각의 객체들의 인원수가 상기 감시영역 내의 검출된 객체들 전체 인원수 대비 60% 이상에 해당하면 이상 집단행동 패턴으로 인식하는 감시 카메라 시스템.
  6. 제5 항에 있어서,
    상기 집단행동 패턴 분석부에 의한 영상 분석 결과 이상 집단행동 패턴으로 감지된 경우에 상기 표정 인식/분석부가 동작되는 감시 카메라 시스템.
  7. 제6 항에 있어서,
    상기 표정 인식/분석부는 상기 영상 데이터에 대한 히트맵 감식 결과 각 객체들의 표정이 정상 범위에 해당할 경우에는 정상 상황으로 판단하고, 상기 히트맵의 산출 결과 객체들의 50% 이상이 비 정상 범위로 인지되는 경우에는 긴급 상황으로 판단하는 감시 카메라 시스템.
  8. 제7 항에 있어서,
    상기 집단행동 패턴 분석부 및 표정 인식/분석부에 의한 영상정보 분석 결과, 긴급 상황인 것으로 판단되면, 이벤트관리서버는 상기 긴급 상황에 대응하는 이벤트 정보를 수신하는 감시 카메라 시스템.
  9. 해당 감시영역을 촬영하고, 이를 통해 상기 감시영역에 대하여 실시간으로 이벤트를 감지하는 단계;
    상기 감시영역을 촬영한 영상정보를 이용하여 상기 감시영역 내에 촬영되는 객체들에 대한 집단행동 패턴을 분석하는 동작을 수행하는 단계;
    상기 영상 정보 내에서 검출된 객체들 각각에 대하여 머리와 다리간의 각도를 계산한 뒤, 상기 각 객체의 머리와 다리간의 각도가 180도 (±20도 오차 포함)를 벗어나는 경우 비정상 움직임으로 판단하고, 상기 비정상 움직임을 나타내는 각각의 객체들의 인원수가 상기 감시영역 내의 검출된 객체들 전체 인원수 대비 60% 이상에 해당하면 이상 집단행동 패턴으로 판단하는 단계;
    상기 이상 집단행동 패턴으로 감지된 경우, 상기 검출된 객체들에 대한 표정을 인식하고 분석하는 단계;
    상기 영상 정보 내에서 검출된 객체들에 대한 히트맵(heatmap) 감식 결과 각 객체들의 표정이 정상 범위에 해당할 경우에는 정상 상황으로 판단하고, 반면에 상기 히트맵의 산출 결과 객체들의 50% 이상이 비 정상 범위로 인지되는 경우에는 긴급 상황으로 판단하는 단계;
    상기 긴급 상황인 것으로 판단된 후 상기 긴급 상황에 대응하는 이벤트 정보를 전송하는 단계;
    상기 전성된 이벤트 정보에 대응하여 상기 긴급 상황 이벤트를 녹화하는 단계를 포함하는 감시 카메라 동작 방법.
KR1020200008618A 2020-01-22 2020-01-22 감시 카메라 시스템 및 그 동작 방법 KR20210094862A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200008618A KR20210094862A (ko) 2020-01-22 2020-01-22 감시 카메라 시스템 및 그 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200008618A KR20210094862A (ko) 2020-01-22 2020-01-22 감시 카메라 시스템 및 그 동작 방법

Publications (1)

Publication Number Publication Date
KR20210094862A true KR20210094862A (ko) 2021-07-30

Family

ID=77148439

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200008618A KR20210094862A (ko) 2020-01-22 2020-01-22 감시 카메라 시스템 및 그 동작 방법

Country Status (1)

Country Link
KR (1) KR20210094862A (ko)

Similar Documents

Publication Publication Date Title
KR101470315B1 (ko) 객체의 움직임 감지에 의한 위험 감지 cctv 시스템 및 그 방법
JP5121258B2 (ja) 不審行動検知システム及び方法
US8170277B2 (en) Automatic tracking apparatus and automatic tracking method
KR101215948B1 (ko) 신체정보 및 얼굴인식에 기반한 감시 시스템의 영상정보 마스킹 방법
KR20180072561A (ko) 비디오 감시 시스템에서 경보들을 발생시키는 방법
KR101464344B1 (ko) 감시 영상의 정상 상태 학습을 통한 이상 상태 감지 방법과 이를 적용한 감시 카메라 및 영상 관리 시스템
US20160142680A1 (en) Image processing apparatus, image processing method, and storage medium
KR102195706B1 (ko) 침입 탐지방법 및 그 장치
US20070229663A1 (en) Image processing apparatus, monitoring camera, and image monitoring system
KR102058452B1 (ko) IoT 융합 지능형 영상분석 플랫폼 시스템
JP5217106B2 (ja) 映像監視システム、監視映像の異常検出方法及び監視映像の異常検出プログラム
JP3924171B2 (ja) 監視対象物を識別する監視装置
KR102174784B1 (ko) 딥 러닝과 멀티 에이전트를 활용한 대규모 개체 식별 및 추적 방법
JP4622301B2 (ja) 監視システム、および監視カメラ
KR20190016900A (ko) 정보 처리장치, 정보 처리방법 및 기억매체
KR102131437B1 (ko) 적응형 영상 감시 시스템 및 방법
KR101470314B1 (ko) 객체 자동 인식/분류 cctv 시스템 및 그 방법
KR101075550B1 (ko) 이미지 센싱 에이전트 및 usn 복합형 보안 시스템
KR101454644B1 (ko) 보행자 추적기를 이용한 서성거림을 탐지하는 방법
KR20210104979A (ko) 영상 검색 장치 및 이를 포함하는 네트워크 감시 카메라 시스템
JPWO2008035411A1 (ja) 移動体情報検出装置、移動体情報検出方法および移動体情報検出プログラム
JPH09252467A (ja) 移動体検出装置
JP4171310B2 (ja) 侵入物体検出方法及び侵入物体検出装置
KR100871833B1 (ko) 자동 추적 카메라 장치
KR101695127B1 (ko) 영상을 이용한 집단 행동 분석 방법

Legal Events

Date Code Title Description
A201 Request for examination