KR20210100937A - 이종 센서 융합을 이용한 행동 분석 장치 - Google Patents

이종 센서 융합을 이용한 행동 분석 장치 Download PDF

Info

Publication number
KR20210100937A
KR20210100937A KR1020200014926A KR20200014926A KR20210100937A KR 20210100937 A KR20210100937 A KR 20210100937A KR 1020200014926 A KR1020200014926 A KR 1020200014926A KR 20200014926 A KR20200014926 A KR 20200014926A KR 20210100937 A KR20210100937 A KR 20210100937A
Authority
KR
South Korea
Prior art keywords
image
module
behavior analysis
analysis device
sensor fusion
Prior art date
Application number
KR1020200014926A
Other languages
English (en)
Other versions
KR102514301B1 (ko
Inventor
김종원
김진수
Original Assignee
주식회사 딥아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥아이 filed Critical 주식회사 딥아이
Priority to KR1020200014926A priority Critical patent/KR102514301B1/ko
Publication of KR20210100937A publication Critical patent/KR20210100937A/ko
Application granted granted Critical
Publication of KR102514301B1 publication Critical patent/KR102514301B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0269System arrangements wherein the object is to detect the exact location of child or item using a navigation satellite system, e.g. GPS
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 이종 센서 융합을 이용한 행동 분석 기술에 관한 것으로, 더욱 상세하게는 RGB 영상 내의 객체 정보와 열 영상 내의 객체 정보를 융합하여 객체 탐지의 정확도를 높이는 한편, 영상 전체가 아니라 탐지된 객체의 부분 영상을 시계열적으로 분석하여 객체의 행동이 어떤 상황을 의미하는지를 비교적 가벼운 시스템으로 판단할 수 있는 행동 분석 장치에 관한 것이다. 일 실시예에 따른 이종 센서 융합을 이용한 행동 분석 장치는, 제1 센서의 RGB 영상에서 추출된 제1 특징정보와 제2 센서의 열 영상에서 추출된 제2 특징정보를 융합(fusion)하여 객체를 탐지(detect)하는 객체탐지부 및 상기 탐지된 객체의 부분 영상을 시계열적으로 분석하여 객체의 상황을 판단하는 상황판단부를 포함하여 이루어진다.

Description

이종 센서 융합을 이용한 행동 분석 장치 {DEVICE FOR IDENTIFYING THE SITUATON OF OBJECT'S CONDUCT USING SENSOR FUSION}
본 발명은 이종 센서 융합을 이용한 행동 분석 기술에 관한 것으로, 더욱 상세하게는 RGB 영상 내의 객체 정보와 열 영상 내의 객체 정보를 융합하여 객체 탐지의 정확도를 높이는 한편, 영상 전체가 아니라 탐지된 객체의 부분 영상을 시계열적으로 분석하여 객체의 행동이 어떤 상황을 의미하는지를 비교적 가벼운 시스템으로 판단할 수 있는 행동 분석 장치에 관한 것이다.
사람의 활동 범위가 넓어짐에 따라 화재, 비행기의 추락, 어선의 침몰 등으로 인한 사고의 인명 구조 활동은 다양한 영역에서 요구되고 있다. 특히, 해상에서의 사고는 해·조류의 영향으로 사고 선박과 조난자가 수색 범위를 빠르게 이탈하여 육상과는 달리 광범위한 사고 지역에 대한 정보가 신속하고 정확하게 수집되어야 한다.
하지만 현재 구조 지침과 기술로는 감시자가 사고 현장의 영상을 직접 관측하여 인명 구조에 필요한 상황 정보를 수동적으로 수집하는 것에 그치고 있다. 또한, 야간에 발생하는 해상사고가 가장 많은 인명 피해로 이어지고 있으며 시야 확보가 어려운 야간 환경의 특성이 고려된 상황에서는 단순히 조명을 비추거나 조명탄을 활용한 육안 수색에 의존하고 있어 많은 인력과 시간이 소요되고 있다.
비단 해상 조난자의 탐지 뿐만 아니라 보안 분야에서 침입자의 탐지, 동물원에서 특정 동물의 이상 행동 감시 등 영상을 분석하여 비정상적인 상황을 인식하는 각종 모니터링 서비스의 요구가 증가하고 있다.
전통적인 컴퓨터 비전 분야의 영상처리 기법을 기반으로 한 객체 탐지는 영상 전체를 프로세싱하여 객체를 식별하는 방식이므로 이미지 프로세싱을 위해 매우 무거운 하드웨어 사양을 요구한다. 그러나 드론과 같은 이동형의 탐색 장치는 제한된 파워와 하드웨어 사양으로 인해 전통적인 영상처리 기법을 적용하기 어려운 문제가 있다.
이러한 문제점을 극복하기 위해 CNN과 같이 비교적 가벼운 방식으로 객체를 탐지하는 기법이 제시되기도 하였지만, CNN 은 단일 프레임의 정지된 이미지를 대상으로 객체 자체를 탐지할 뿐 객체가 어떤 행동을 하고 있는지 또는 객체가 어떤 상황에 처해 있는지 까지는 판단할 수 없다.
또한 기존의 객체 탐지 기법은 객체 탐지를 위한 특징(feature)을 사람이 직접 정의하는데, 통상 객체의 대표적인 특징으로 색상, 크기, 형태를 정의하고, 촬영된 영상으로부터 상기 특징들을 추출하여 객체를 탐지하는 방식이다.
그러나, 기존의 객체 탐지 기법은 객체의 특징이 바뀌는 경우 매번 새롭게 특징을 추출해야 하고, 객체의 구체적인 특징을 일반화하기 어렵다는 점에서 한계가 존재한다. 이로 인해 객체 탐지의 성능에 대한 신뢰도는 낮아질 수밖에 없다.
따라서 객체 탐지의 신뢰성을 높이는 한편 탐지된 객체의 행동을 분석하여 객체의 상황까지 판단해 줄 수 있는 기술의 개발이 요구되는 실정이다.
본 발명이 해결하고자 하는 일 과제는, 종래의 영상처리 기반의 객체 탐지 기술이 가지는 수동성과 낮은 신뢰도의 단점을 극복하는 능동적이고 지능적인 객체 탐지 기술을 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는, 전체 영상이 아니라 탐지된 객체가 포함된 부분 영상을 분석함으로써 비교적 가벼운 시스템 자원으로 객체의 행동 패턴을 파악하는 기술을 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는, RGB 센서와 열 영상 센서를 융합하여 각 센서가 가지는 기능상 한계점을 보완하는 기술을 제공하는 것이다.
위의 과제를 해결하기 위해 본 발명은, 제1 센서의 RGB 영상에서 추출된 제1 특징정보와 제2 센서의 열 영상에서 추출된 제2 특징정보를 융합(fusion)하여 객체를 탐지(detect)하는 객체탐지부; 및 상기 탐지된 객체의 부분 영상을 시계열적으로 분석하여 객체의 상황을 판단하는 상황판단부를 포함하는 이종 센서 융합을 이용한 행동 분석 장치를 일 실시예로 제안한다.
상기 행동 분석 장치는 RGB 영상과 열 영상을 상기 객체탐지부에 입력하기에 앞서 RGB 영상 및 열 영상을 대상으로 시야각 보정을 수행하고, 열 영상을 대상으로 에지 보정을 수행하는 전처리부를 더 포함할 수 있다.
상기 객체탐지부는, RGB 영상으로부터 객체의 경계상자(bbc) 및 신뢰도 점수(SC)를 포함하는 제1 특징정보를 추출하는 제1탐지모듈; 열 영상으로부터 객체의 경계상자(bbt) 및 신뢰도 점수(ST)를 포함하는 제2 특징정보를 추출하는 제2탐지모듈; 상기 제1탐지모듈 및 상기 제2탐지모듈의 출력이 실제 정답(ground-truth)과 더 의미 있는 상관 관계를 가지도록 영상별 신뢰도 점수(SC, ST)를 재설정하는 센서융합모듈; 및 상기 재설정된 신뢰도 점수(SC', ST')를 기초로 최종 특징정보를 도출하는 최종탐지모듈을 포함하여 이루어질 수 있다.
여기서 상기 센서융합모듈은, 상기 제1 특징정보 및 제2 특징정보를 이용하여, 영상별 신뢰도 점수(SC, ST), 영상별 경계상자(bbc, bbt), 상기 영상별 경계상자의 중심좌표의 평균값(μx, μy), 상기 영상별 경계상자의 중심좌표의 분산값(σx, σy), 상기 영상별 경계상자를 모두 포함하는 최소 경계상자(bbm) 중 적어도 하나를 포함하는 융합 특징정보(F)를 도출하는 추출 모듈; 및 상기 영상별 경계상자(bbc, bbt)와 실제 정답(ground-truth)의 경계상자(bbg)의 교차 영역의 상대적인 넓이(Intersection Of Union; IOU)로 타겟값이 설정된 멀티 레이어 퍼셉트론(multi-layer perceptron)에 상기 융합 특징정보(F)를 입력하는 학습 모듈을 포함하여 이루어질 수 있다.
또한 상기 상황판단부는, t (t는 1 이상의 정수) 시점에서 탐지한 객체의 특징정보에 t -1 시점에서 탐지한 객체의 특징정보를 가중치로 반영하여 t 시점의 출력값을 도출하는 연산모듈; 및 객체가 탐지된 시점부터 미리 설정된 시점까지 상기 연산모듈의 출력값의 시퀀스(sequence)를 분석하여 객체의 상황을 판단하는 분석모듈을 포함하여 이루어질 수 있다.
상기 연산모듈은, 입력층(x), 은닉층(h), 출력층(y)을 포함하며, 상기 은닉층에는 t-1 시점의 객체의 탐지정보를 t 시점으로 전달하는 순환 엣지가 추가된 순환 신경망(recurrent neural network)을 이용할 수 있다.
또한 상기 연산모듈은, 상기 순환 신경망에 파라미터 저장을 위한 메모리 블록을 추가한 LSTM(long short term memory) 네트워크를 이용할 수 있다.
본 실시예의 행동 분석 장치는, 상기 판단된 상황을 무선망을 통해 원격지의 관제 단말에 전송하기 위한 통신모듈; 상기 행동 분석 장치를 목적지로 이동시키기 위한 이동모듈; 및 상기 행동 분석 장치의 위치를 파악하기 위한 GPS모듈 중 적어도 하나를 더 포함할 수 있다.
본 발명의 실시예들에 의하면 딥 러닝에 의한 지능적이고 능동적인 객체 탐지가 가능하므로 종래에 영상처리 기반의 객체 탐지 기술에서 객체 특징이 업데이트될 때마다 매번 특징 정보를 새로이 입력해야 하는 번거로움과 객체의 구체적인 특징을 일반화하기 어려운 한계점을 극복할 수 있다.
본 발명의 실시예들에 의하면 객체의 행동 분석을 위해 영상 전체를 프로세싱할 필요가 없으므로 드론과 같이 제한된 자원을 가지는 모바일 기기에서도 충분한 품질로 객체의 행동 패턴을 파악할 수 있다.
본 발명의 실시예들에 의하면 RGB 센서가 가지는 한계점인 외부 광량이 부족하거나 과도한 경우의 탐지 성능 저하를 열 영상 센서로 보완함으로써 신뢰성 있는 객체 탐지 및 행동 분석이 가능해진다.
본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 실시예 1의 행동 분석 시스템 및 그 시스템에 포함되는 행동 분석 장치의 구성도이다.
도 2는 CNN의 동작 원리를 도시한 개념도이다.
도 3은 객체탐지부의 동작 과정을 도시한 블록도이다.
도 4는 센서융합모듈의 동작 원리를 상세히 도시한 개념도이다.
도 5는 RNN의 동작 알고리즘을 설명하는 개념도이다.
도 6은 상황판단부의 동작 알고리즘을 도시한 개념도이다.
도 7은 도 6의 알고리즘 원리를 직관적으로 도시한 개념도이다.
도 8은 실시예 2의 행동 분석 시스템 및 그 시스템에 포함되는 행동 분석 장치의 구성도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에서 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 명세서에서 기재한 모듈(MODULE)이란 용어는 특정한 기능이나 동작을 처리하는 하나의 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합을 의미할 수 있다.
또한 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 발명에서 "객체"라 함은 RGB 영상 또는 열 영상 안에 포함된 분석 대상(analysis target)을 가리키며 경우에 따라 사람, 자동차, 애완동물 등 설정 조건에 따라 다양하게 정의될 수 있다. 본 명세서에서는 객체를 사람으로 가정하여 설명하지만 반드시 이에 한정하는 것은 아니다.
이하, 첨부한 도면들을 참조하여 본 발명에 따른 실시예들을 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성 요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
<실시예 1>
실시예 1은 영상의 촬영, 객체의 탐지 및 상황의 판단을 자체적으로 수행하는 행동 분석 장치에 관한 것이다.
도 1은 실시예 1의 행동 분석 시스템 및 그 시스템에 포함되는 행동 분석 장치의 구성도이다.
도 1에서 보듯, 실시예 1의 행동 분석 시스템은 행동 분석 장치(1)와 원격지의 관제 단말(2)을 포함하여 이루어진다.
행동 분석 장치(1)는, RGB 영상을 촬영하는 제1 센서(10), 열 영상을 촬영하는 제2 센서(20), 제1 센서(10)의 RGB 영상에서 추출된 제1 특징정보와 제2 센서(20)의 열 영상에서 추출된 제2 특징정보를 융합(fusion)하여 객체를 탐지(detect)하는 객체탐지부(200) 및 상기 탐지된 객체의 부분 영상을 시계열적으로 분석하여 객체의 상황을 판단하는 상황판단부(300)를 포함하여 이루어지며, 객체 탐지가 용이하도록 RGB 영상 및 열 영상을 보정하는 전처리부(100)를 더 포함할 수 있다.
이해를 돕기 위해, 실시예 1의 시스템에서 행동 분석 장치(1)는 해양 사고 조난자를 탐색하기 위한 드론으로 구현되고, 관제 단말(2)은 상기 드론과 무선통신망으로 연결된 이동통신단말기로 구현된다고 가정한다.
이 경우, 행동 분석 장치(1)는, 자신의 위치를 파악하기 위한 GPS모듈(30), 상황판단부(300)에서 판단된 상황 및/또는 GPS모듈(30)가 파악한 위치 정보를 무선망을 통해 원격지의 관제 단말에 전송하기 위한 통신모듈(40), 및 행동 분석 장치를 목적지로 이동시키기 위한 이동모듈(50)를 더 포함할 수 있다.
이동모듈(50)는 바퀴, 캐터필러, 프로펠러, 제트추진기, 쿼드롭터 팬 또는 이와 유사한 다양한 이동수단으로 구현된다. 상기 가정과 같이 비행형 드론으로 구현될 경우, 쿼드롭터 팬이 적용될 수 있다.
전처리부 (100)는 RGB 영상과 열 영상을 객체탐지부(200)에 입력하기에 앞서서 RGB 영상 및 열 영상을 대상으로 시야각 보정을 수행하고, 열 영상을 대상으로 에지 보정을 수행한다. 시야각 보정과 에지 보정은 선택적으로 어느 하나만 수행될 수도 있다.
제1 센서(10)와 제2 센서(20)는 3차원의 객체를 2차원으로 투영시켜 이미지를 생성하는데 각 센서가 설치되는 위치가 상이하므로 각 센서에서 동일한 객체를 바라보더라도 시야각에 따라 촬영되는 이미지에 차이가 발생한다. 동일한 장면에 대한 RGB 영상과 열 영상의 위치 정보가 일치해야 추후 설명할 센서 융합이 용이하기 때문에 두 영상에 대한 위치 정보의 일치가 필요하다. 따라서 전처리부 (100)는 열화상 카메라로부터 수집되는 복수의 열 정적 이미지와 색상 카메라로부터 수집되는 복수의 색상 정적 이미지에 대한 시야각을 일치시킨다.
또한, 제1 센서(10)는 무수히 많은 픽셀과 색상으로 표시되는 RGB 영상을 획득하는 데 비해 제2 센서(20)는 그레이 스케일(gray scale) 계열의 열 영상을 획득하므로, 열 영상에 포함된 객체의 에지나 윤곽을 정확히 표현하지 못한다. 따라서 전처리부(100)는 열 영상의 시각적 대비를 높이기 위한 에지 필터를 적용하여 객체의 에지를 보정한다. 에지 필터의 예로, 소벨(Sobel) 에지 검출 필터, 캐니(Canny) 에지 검출 필터 등을 들 수 있으며, 이들 외에도 동일 기능의 필터라면 어떠한 것이라도 적용 가능하다.
이하, 객체탐지부(200)와 상황판단부(300)를 중심으로 상세히 설명한다.
객체탐지부(200)는 RGB 영상 및 열 영상으로부터 객체를 탐지하기 위해 컨볼루션 뉴럴 네트워크(Convolution Neural Network; CNN)를 이용할 수 있다.
도 2는 CNN의 동작 원리를 도시한 개념도이다.
도 2에서 보듯, CNN은 입력된 영상 데이터로부터 합성곱 연산을 통해 특징을 추출하고, 추출된 특징을 통해 영상 데이터에 포함된 객체를 탐지하는 네트워크로서, 객체의 특징정보를 추출하는 특징 추출 계층(feature extraction layers)과, 추출된 특징정보를 이용하여 객체를 분류하는 전체 연결 계층(fully connected layers)으로 구성된다. 다시 말해 CNN은 영상 데이터에 포함된 특정 객체의 크기나 위치 등의 기하학적 정보를 도출(localization)하고 상기 특정 객체를 분류(classification)하는 객체 탐지(object detection) 기술 중 하나로 정의될 수 있다.
특징 추출 계층은 복수 개의 컨볼루션 계층으로 구성되며, 어느 일 단계의 컨볼루션 계층은 입력 데이터(영상 데이터, 특징 맵)와 필터의 역할을 담당하는 합성 커널의 합성곱 연산을 통해 새로운 특징 맵(feature map)을 생성하고, 생성된 특징 맵을 다음 단계의 컨볼루션 계층에 입력한다. 각 컨볼루션 계층은 학습에 따라 값이 변하는 파라미터인 가중치, 바이어스로 구성되며 색상, 형태, 윤곽선 등과 같이 객체 탐지에 유용한 정보를 추출하도록 학습 과정에서 합성 커널의 값이 자동으로 조정된다.
전체 연결 계층은 특징 추출 계층에서 추출된 다차원 특징 맵을 1차원으로 변환하는 편평화 계층(flatten layer)과 멀티 계층 퍼셉트론(multi-layer perceptron, MLP)으로 구성된다. 1차원으로 변환된 특징 맵을 학습 알고리즘인 MLP에 입력함으로써 영상 데이터의 파라미터를 조정한다.
객체탐지부(200)는 RGB 영상 및 열 열상 각각에 대하여 CNN의 특징 추출 계층을 수행하되, 센서 융합이 적용된 편평화 계층을 멀티 계층 퍼셉트론에 입력하는 방식으로 전체 연결 계층을 수행함으로써 각 영상의 특징(feature)에 대한 신뢰성을 재평가한 후, 신뢰성이 높은 특징으로 객체를 최종 탐지한다.
도 3은 객체탐지부(200)의 동작 과정을 도시한 블록도이다.
도 3에서 보듯, 객체탐지부(200)는 제1탐지모듈(210), 제2탐지모듈(220), 센서융합모듈(230) 및 최종탐지모듈(240)을 포함하여 이루어진다.
제1탐지모듈(210)은 RGB 영상으로부터 객체를 탐지하고 해당 객체의 특징정보를 출력한다. 그리고 제2탐지모듈(220)은 열 영상으로부터 객체를 탐지하고 해당 객체의 특징정보를 출력한다. 즉, 제1탐지모듈(210) 및 제2탐지모듈(220)은 각각 RGB 영상 및 열 영상에 대하여 전술한 CNN의 특징 추출 계층을 수행하는 것으로 이해할 수 있다.
CNN의 특징 추출 계층은 객체 탐지를 위한 단계의 개수에 따라 단일 단계 탐지기(Single-stage detector)와 두 단계 탐지기(Two-stage detector)로 구분된다. ‘Two-stage detector’는 객체를 탐지하기 이전에 영상 데이터 내부에 객체가 존재할 법한 영역(Region Of Interest, ROI)을 제안하고 해당 영역 내부에서 객체를 탐지하는 2개의 단계로 이루어진다. 이에 비해 ‘Single-stage detector’는 영상 데이터 내부에 포함된 객체의 위치를 찾는 과정과 객체를 탐지하는 과정이 동시에 이루어진다.
단일 단계 탐지기의 예로 YOLO v1, v2, v3, SSD, DSSD, DSOD, RetinaNet, RefineDet, M2Det 등을 들 수 있고, 두 단계 탐지기의 예로 R-CNN, Fast R-CNN, Faster R-CNN, R-FCN, Mask R-CNN 등을 들 수 있다.
이하에서는 제1탐지모듈(210)과 제2탐지모듈(220)이 단일 단계 탐지기(Single-stage detector) 중 실시간 객체 탐지 알고리즘 YOLO(You Only Look Once)을 이용하는 예를 설명하지만 당업자라면 위에서 예시한 다른 알고리즘을 용이하게 대체 적용할 수 있을 것이다. 제1탐지모듈(210)은 RGB 영상을 대상으로 한다는 의미에서 YOLO-C라는 명칭으로 혼용될 수 있고, 제2탐지모듈(220)은 열 영상을 대상으로 한다는 의미에서 YOLO-T라는 명칭으로 혼용될 수 있다.
YOLO는 각 이미지를 S x S 개의 그리드로 분할하고, 그리드의 신뢰도를 계산한다. 신뢰도는 그리드 내 객체 인식 시 정확성을 반영한다. 처음에는 객체 인식과 동떨어진 경계 상자가 설정되지만, 신뢰도를 계산하여 경계상자의 위치를 조정함으로써, 가장 높은 객체 인식 정확성을 가지는 경계 상자를 얻을 수 있다. 그리드에 객체 포함 여부를 계산하기 위해, 객체 클래스 점수를 계산한다. 이 결과로 총 S x S x N 객체가 예측된다. 그리드의 대부분은 낮은 신뢰도를 가지며, 신뢰도를 높이기 위해 주변의 그리드를 병합한 후 임계값을 설정하여 불필요한 부분은 제거한다.
센서융합모듈(230)은 제1탐지모듈(210) 및 제2탐지모듈(220)의 탐지 결과를 융합하여 객체 탐지의 정확도를 높이거나 어느 한 쪽의 센서에 객체가 미 검출되더라도 객체 탐지가 가능하도록 한다.
RGB 영상을 촬영하는 제1센서(10)는 물체로부터 반사된 가시광선을 고해상도의 영상 데이터로 표현하여 사람의 시각과 유사하게 영상 데이터를 나타내기 때문에 다양한 인식 센서 중 탐지할 객체의 형태와 색상이 가장 잘 나타난다.
하지만 외부환경에 취약하기 때문에 광량이 충분하지 않거나 반대로 광량이 갑자기 과도하게 입력되는 경우에는 영상 데이터에서 탐지할 객체가 잘 나타나지 않는다. 예를 들어, 광량이 부족한 야간이나 햇빛을 똑바로 보아서 순간적으로 외부 광의 영향을 크게 받는 경우에는 RGB 영상 기반의 객체 탐지 시스템의 탐지 성능이 급격하게 떨어진다.
이에 비해, 열 영상을 촬영하는 제2센서(20)는 적외선에 따라 물체가 방출하는 복사에너지를 온도로 변환하여 영상 데이터로 나타낸다. 제2센서(20)는 외부환경의 영향을 덜 받기 때문에 갑자기 광량이 과도해지는 상황에서도 탐지할 객체를 잘 표현하며 특히, 광량이 적은 야간에서도 객체 탐지 성능이 타 센서에 비해 높은 편이다. 그러나 영상 데이터의 해상도가 낮으므로 객체 탐지의 정확도가 떨어지는 경향이 있다.
센서융합모듈(230)은 YOLO-C, YOLO-T에서 출력되는 경계상자 및 신뢰도 점수를 기반으로 탐지 결과를 융합하여 각 센서의 장단점을 상호 보완함으로써 높은 신뢰도와 탐지 성능을 발휘할 수 있게 한다.
도 4는 센서융합모듈(230)의 동작 원리를 상세히 도시한 개념도이다.
도 3 및 도 4에서 보듯, 센서융합모듈(230)은 CNN의 편평화 레이어에 일부 대응하는 추출 모듈(231)과, MLP에 대응하는 학습 모듈(232)을 포함한다.
추출 모듈(231)은 제1탐지모듈(210) 및 제2탐지모듈(220)에서 출력된 특징정보 중에서 신뢰도 점수(SC, ST)와 경계상자(bbc, bbt)를 선택하고, 두 경계상자의 중심좌표의 평균값(μx, μy)과 두 경계상자의 중심좌표의 분산값(σx, σy)을 산출하고, 두 경계상자(bbc, bbt)를 모두 포함하는 최소 경계상자(bbm)를 산출한다. 여기서 경계상자(bbc, bbt, bbm)라 함은 전술한 바와 같이 객체가 포함된 사각 영역의 중심좌표 및 폭과 높이를 포함하는 정보를 가리킨다.
이와 같이 선택 또는 산출된 신뢰도 점수(SC, ST), 경계상자(bbc, bbt), 중심좌표의 평균값(μx, μy), 중심좌표의 분산값(σx, σy), 최소 경계상자(bbm)를 입력 데이터(input data)로 정의할 때, 상기 입력 데이터는 MLP로 입력되는 융합 특징정보(F)로서 아래의 수학식으로 표현될 수 있다.
[수학식 1]
F = (SC, ST, bbc, bbt, μx, μy, σx, σy, bbm)
학습 모듈(232)은 YOLO-C, YOLO-T에서 출력된 경계상자(bbc, bbt)와 실제 정답(Ground-truth)의 경계상자(bbg) 간의 다차원 비선형 매핑(일례로 multi-layer perceptron, MLP)을 학습한다. MLP 학습을 통해 YOLO-C, YOLO-T의 출력이 실제 정답과 더 의미 있는 상관 관계를 갖도록 신뢰도 점수를 재설정한다.
구체적으로, 학습 모듈(232)은 MLP의 타겟값을, YOLO-C, YOLO-T에서 출력된 경계상자(bbc, bbt)와 실제 정답의 경계상자(bbg)의 교차 영역의 상대적인 넓이(Intersection Of Union; IOU)로 설정함으로써 기존의 신뢰도 점수보다 더 높은 실제 정답과의 연관성을 갖도록 학습한다.
최종탐지모듈(240)은 센서융합모듈(130)에서 출력된 두 개의 경계상자(bbc, bbt) 와 MLP에 의해 갱신된 신뢰도(SC', ST')를 참고하여 미리 정해진 규칙에 따라 최종 경제박스 및 신뢰도 점수(bbf, SF)를 도출한다.
이상에서는 객체탐지부(200)가 CNN을 변형한 알고리즘을 이용하여 최적의 객체 탐지를 수행하는 내용을 설명하였다. CNN은 정확도 높은 객체 추출이 가능하나, 수많은 이미지를 CNN으로 실행하는 것이 매우 어렵다는 난점이 있다. 다라서 다른 실시예에서 객체탐지부(200)는 영역(region)을 고려한 R-CNN 알고리즘을 통해 객체 분류에 필요한 경계 상자의 수를 줄일 수 있다.
다음으로, 상황판단부(300)의 동작을 상세히 설명한다.
상황판단부(300)는 객체탐지부(200)에서 탐지된 객체의 영상 즉, 객체가 포함된 특정 영역의 영상을 분석하여 객체의 상황을 판단한다.
드론이 촬영한 영상 안에 다수의 객체 즉, 일례로 다수의 사람이 포함된 경우, 전통적인 영상처리로는 엄청난 정보처리 리소스를 요구하지만 드론이라는 제한된 파워 및 정보처리 리소스로는 감당할 수 없다. 따라서 본 발명에서는 우선 CNN과 같은 객체 탐지 네트워크로 사람을 찾은 후, 사람이 포함된 특정 영역의 영상만을 시계열적으로 분석하여 그 사람의 행동이 어떤 행위를 의미하는지를 판단하는 2단계의 분석 기법을 제안한다.
특히 단일 프레임의 정지 영상 (image)으로 사람의 행위를 판단하기는 어려운데, 예를 들면, 조난자를 탐지하는 드론 시스템에서 CNN과 같은 객체 탐지 네트워크를 이용하여 바다 위에 떠 있는 사람을 탐지했다 하더라도 팔을 흔들고 있는 한 컷의 정지 영상만으로는 그 사람이 안전 상황에서 정상적인 수영을 하고 있는 것인지 조난 상황에서 구조 요청을 하고 있는 것인지 판단하기가 어렵다. 따라서 객체 탐지 네트워크를 통해 우선 사람을 탐지하고, 탐지 영역의 단일 이미지 프레임이 아닌 시계열적으로 연속되는 여러 장의 이미지 프레임을 대상으로 사람의 행동의 맥락(sequence)을 분석함으로써 수영인지 또는 구조요청인지 등과 같은 움직임의 유형을 판단한다.
시계열적으로 연속되는 여러 장의 이미지 프레임을 시계열 데이터라 정의할 때, 시계열 데이터는 시간에 따라 가변적인 길이를 가지며 데이터의 특성이 변화하는 동적(dynamic) 데이터이다. 특히 긴 시간 동안의 시계열 데이터를 분석하기 위해서는 데이터가 취득된 시점에서부터 마지막 시점 까지의 데이터를 대상으로 문맥(sequence)을 파악해야 하며 기존의 MLP, CNN을 활용하는 경우 긴 시간 동안의 시계열 데이터의 문맥을 파악하는 데에 한계점이 존재한다.
따라서, 본 발명에서는 CNN이 탐지한 객체의 비디오의 여러 장의 프레임을 효과적으로 분석하기 위한 일례의 알고리즘으로 순환 신경망(Recurrent Neural Network, RNN)을 사용한다. RNN은 순차적으로 입력되는 시계열 데이터를 분석함으로써 객체의 상황 즉, 객체의 상황을 판단한다.
이를 위해 상황판단부(300)는, t (t는 1 이상의 정수) 시점에서 탐지한 객체의 특징정보에 t -1 시점에서 탐지한 객체의 특징정보를 가중치로 반영하여 t 시점의 출력값을 도출하는 연산모듈(미도시)과, 객체가 탐지된 시점부터 미리 설정된 시점까지 연산모듈(미도시)의 출력값의 시퀀스(sequence)를 분석하여 객체의 상황을 판단하는 분석모듈(미도시)을 포함하여 이루어진다.
도 5는 RNN의 동작 알고리즘을 설명하는 개념도이다.
도 5에서 보듯, RNN은 MLP와 순환 엣지(W)가 결합된 형태로서, 시계열 데이터를 입력 받을 때 순환 엣지를 통해 과거의 출력값을 함께 입력 받는다. 따라서, t 시점에서의 RNN의 출력값은 이전 t-1 시점의 출력값에 영향을 받는다는 점에서 과거 값을 기억하는 ‘메모리(memory)’정보를 포함하는 피드백 구조의 네트워크라 정의할 수 있다.
도 6은 상황판단부(300)의 동작 알고리즘을 도시한 개념도이고, 도 7은 도 6의 알고리즘 원리를 직관적으로 도시한 개념도이다.
도 6에서 보듯, 도 5의 통상적인 RNN이 하나의 데이터(예를 들어 단일 정지 프레임)에 대해 순환 엣지를 적용하는 것과는 달리, 상황판단부(300)의 RNN은 시계열적으로 나열된 데이터(예를 들어 복수의 연속된 비디오 프레임)를 대상으로 RNN의 피드백 구조가 반복(recurrent)되는 이른 바 "펼쳐진(unfold) 구조의 RNN" 이다.
연산모듈(미도시)의 RNN은 MLP와 같이 주어진 입력 데이터로부터 타겟값과 가까운 출력값을 예측하는 파라미터를 찾는 역할을 수행하며, 시점의 흐름에 따라 새로운 데이터를 입력받고 이전 시점에서의 가중치를 통해 출력값을 계산한다.
도 6에서 보듯, RNN은 입력층(x), 은닉층(h), 출력층(y)으로 구성되고 은닉층에는 순환 엣지가 추가된다. 순한 엣지(W)는 시점 t-1의 정보를 시점 t로 전달하는 역할을 담당한다.
시간에 따라 X=(xt=1, xt=2, ..., xt=T)가 순차적으로 입력되고, 입력 데이터 X에 가중치 U를 반영하여 은닉층 값이 계산된다. 시점 t에서의 은닉층 값 h(t)는 입력값 x(t)와 바로 이전의 시점 t-1의 은닉층 값 h(t-1)에 따라 계산되며, 시간에 따라 Y=(yt=1, yt=2, ..., yt=T)가 출력된다. 이와 같은 과정을 수학식으로 표현하면 수학식 2와 같다.
[수학식 2]
h(t) = f(h(t-1) * W+x(t) * U) (t>=2인 경우)
h(t) = f(xt * U) (t=1인 경우)
여기에서, f(x)는 활성화 함수(Activation function)이다.
분석모듈은 객체가 탐지된 시점부터 미리 설정된 시점까지 연산모듈(미도시)의 출력값의 시퀀스(sequence)를 분석하여 객체의 상황을 판단한다.
한편, RNN으로 시계열 데이터를 처리하는 경우 입력 데이터가 취득된 시점이 길어 데이터의 길이가 긴 경우에는 파라미터가 소멸되는 'gradient vanishing' 문제가 발생할 수 있다. 따라서 다른 실시예에서, 상황판단부(300)의 연산모듈(미도시)은 RNN에 메모리 블록을 추가하여 긴 시계열 데이터를 처리하는 LSTM(Long Short Term Memory)을 이용할 수 있다.
LSTM은 시점 t에서의 은닉층 값은 이전 시점인 t-1의 은닉층 값의 영향을 받기 때문에 동적 영상의 시점이 종료될 때까지의 해당 입력 데이터의 문맥을 파악하여 최종 출력값 y(T)을 산출하며, 이러한 문맥 파악 과정을 통해 객체의 상황을 판단한다.
<실시예 2>
실시예 2는 영상의 촬영 및 전송은 촬영 단말이 담당하고, 객체의 탐지와 상황의 판단은 이격지에 위치한 행동 분석 서버가 담당하는 경우에 관한 것이다.
도 8은 실시예 2에 따른 행동 분석 시스템 및 그 시스템에 포함되는 행동 분석 장치의 구성도이다.
실시예 2의 행동 분석 시스템은, 촬영 단말(3)과 행동 분석 서버(4)를 포함하여 이루어진다.
이해를 돕기 위해, 실시예 2의 시스템에서 행동 분석 장치(3)는 백화점에서 고객의 행동을 촬영하는 CCTV로 구현되고, 행동 분석 서버(4)는 상기 CCTV와 무선 또는 유선통신망으로 연결된 보안 서버로 구현된다고 가정한다.
촬영 단말(3)은 매장 상황의 RGB 영상을 촬영하는 제1 센서(11), 동일 매장 상황의 열 영상을 촬영하는 제2 센서(21), 촬영된 두 영상을 유선망 또는 무선망을 통해 행동 분석 서버(4)로 전송하기 위한 통신모듈(41)을 포함한다. 제1 센서(11) 및 제2 센서(21)의 구성은 전술한 실시예 1의 제1 센서(10) 및 제2 센서(20)와 동일하다.
행동 분석 서버(4)는 제1 센서(11)의 RGB 영상에서 추출된 제1 특징정보와 제2 센서(21)의 열 영상에서 추출된 제2 특징정보를 융합(fusion)하여 객체를 탐지(detect)하는 객체탐지부(201) 및 상기 탐지된 객체의 시계열적 영상을 분석하여 객체의 상황을 판단하는 상황판단부(301)를 포함하여 이루어지며, 객체 탐지가 용이하도록 RGB 영상 및 열 영상을 보정하는 전처리부(101)와 촬영 단말(3)과 통신하기 위한 통신모듈(42)을 더 포함할 수 있다. 여기서 전처리부(101), 객체탐지부(201) 및 상황판단부(301)의 구성은 전술한 실시예 1의 전처리부(100), 객체탐지부(200) 및 상황판단부(300)와 동일하다.
이상에서 설명한 실시예에서는 행동 분석 장치가 주로 인명 구조 및 수색을 위해 사용되는 경우를 설명하였으나 반드시 이에 한정될 필요는 없다.
예를 들어 오프라인 의류매장에서 특정 고객을 연령과 성별로 분류한 후 행동 분석을 통해 30대 여성은 어떤 제품을 가장 많이 입어보고 어떤 제품을 가장 많이 구매하는지를 파악할 수 있다. 또한 어린이집에 설치된 CCTV를 통해 특정 아이가 어떤 수업을 할 때 활동적인지, 연령별로 어떠한 행동 특성이 나타나는지를 분석할 수 있다. 이와 같이 분석된 행동 분류 데이터를 통해 제품의 출시 계획을 구축하는 과정에서 구매자의 취향을 파악하는 등 다양한 분야에서 활용될 수 있다.
이상에서 설명한 행동 분석 장치 또는 행동 분석 시스템의 전체 또는 부분적 기능들은 일련의 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 기계어로 번역한 소프트웨어로 구현되거나, 그러한 소프트웨어가 컴퓨터를 통해 판독될 수 있는 기록매체에 포함되어 제공될 수 있음을 당업자가 쉽게 이해할 수 있을 것이다. 상기 컴퓨터 판독 가능한 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, USB 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 외에도, 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있다.
또한 이상에서는 본 발명에 관한 몇 가지 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
1: 행동 분석 장치 2: 관제 단말
3: 촬영 단말 4: 행동 분석 서버
10, 11: 제1센서 20, 21: 제2센서
30 : GPS모듈 40, 41: 통신모듈
50: 이동모듈
100: 전처리부 200: 객체탐지부
210: 제1탐지모듈 220: 제2탐지모듈
230: 센서융합모듈 240: 최종탐지모듈
300: 상황판단부

Claims (10)

  1. 제1 센서의 RGB 영상에서 추출된 제1 특징정보와 제2 센서의 열 영상에서 추출된 제2 특징정보를 융합(fusion)하여 객체를 탐지(detect)하는 객체탐지부; 및
    상기 탐지된 객체의 부분 영상을 시계열적으로 분석하여 객체의 상황을 판단하는 상황판단부
    를 포함하는 이종 센서 융합을 이용한 행동 분석 장치.
  2. 제1항에 있어서,
    RGB 영상과 열 영상을 상기 객체탐지부에 입력하기에 앞서 RGB 영상 및 열 영상을 대상으로 시야각 보정을 수행하고, 열 영상을 대상으로 에지 보정을 수행하는 전처리부
    를 더 포함하는 이종 센서 융합을 이용한 행동 분석 장치.
  3. 제1항에 있어서,
    상기 객체탐지부는,
    RGB 영상으로부터 객체의 경계상자(bbc) 및 신뢰도 점수(SC)를 포함하는 제1 특징정보를 추출하는 제1탐지모듈;
    열 영상으로부터 객체의 경계상자(bbt) 및 신뢰도 점수(ST)를 포함하는 제2 특징정보를 추출하는 제2탐지모듈;
    상기 제1탐지모듈 및 상기 제2탐지모듈의 출력이 실제 정답(ground-truth)과 상관 관계를 가지도록 영상별 신뢰도 점수(SC, ST)를 재설정하는 센서융합모듈; 및
    상기 재설정된 신뢰도 점수(SC', ST')를 기초로 최종 특징정보를 도출하는 최종탐지모듈
    을 포함하는 것을 특징으로 하는 이종 센서 융합을 이용한 행동 분석 장치.
  4. 제3항에 있어서,
    상기 센서융합모듈은,
    상기 제1 특징정보 및 제2 특징정보를 이용하여, 영상별 신뢰도 점수(SC, ST), 영상별 경계상자(bbc, bbt), 상기 영상별 경계상자의 중심좌표의 평균값(μx, μy), 상기 영상별 경계상자의 중심좌표의 분산값(σx, σy), 상기 영상별 경계상자를 모두 포함하는 최소 경계상자(bbm) 중 적어도 하나를 포함하는 융합 특징정보(F)를 도출하는 추출 모듈; 및
    상기 영상별 경계상자(bbc, bbt)와 실제 정답(ground-truth)의 경계상자(bbg)의 교차 영역의 상대적인 넓이(Intersection Of Union; IOU)로 타겟값이 설정된 멀티 레이어 퍼셉트론(multi-layer perceptron)에 상기 융합 특징정보(F)를 입력하는 학습 모듈
    을 포함하는 것을 특징으로 하는 이종 센서 융합을 이용한 행동 분석 장치.
  5. 제3항 또는 제4항에 있어서,
    상기 제1탐지모듈 및 상기 제2탐지모듈은 객체 탐지를 위해 YOLO(You Only Look Once) 알고리즘을 사용하는 것을 특징으로 하는 이종 센서 융합을 이용한 행동 분석 장치.
  6. 제1항에 있어서,
    상기 상황판단부는,
    t (t는 1 이상의 정수) 시점에서 탐지한 객체의 특징정보에 t -1 시점에서 탐지한 객체의 특징정보를 가중치로 반영하여 t 시점의 출력값을 도출하는 연산모듈과,
    객체가 탐지된 시점부터 미리 설정된 시점까지 상기 연산모듈의 출력값의 시퀀스(sequence)를 분석하여 객체의 상황을 판단하는 분석모듈
    을 포함하는 것을 특징으로 하는 이종 센서 융합을 이용한 행동 분석 장치.
  7. 제6항에 있어서,
    상기 연산모듈은,
    입력층(x), 은닉층(h), 출력층(y)을 포함하며, 상기 은닉층에는 t-1 시점의 객체의 탐지정보를 t 시점으로 전달하는 순환 엣지가 추가된 순환 신경망(recurrent neural network)을 이용하는 것을 특징으로 하는 이종 센서 융합을 이용한 행동 분석 장치.
  8. 제7항에 있어서,
    상기 연산모듈은,
    상기 순환 신경망에 파라미터 저장을 위한 메모리 블록을 추가한 LSTM(long short term memory) 네트워크를 이용하는 것을 특징으로 하는 이종 센서 융합을 이용한 행동 분석 장치.
  9. 제1항에 있어서,
    상기 판단된 상황을 무선망을 통해 원격지의 관제 단말에 전송하기 위한 통신모듈을 더 포함하는 이종 센서 융합을 이용한 행동 분석 장치.
  10. 제9항에 있어서,
    상기 행동 분석 장치를 목적지로 이동시키기 위한 이동모듈; 및
    상기 행동 분석 장치의 위치를 파악하기 위한 GPS모듈
    를 더 포함하는 이종 센서 융합을 이용한 행동 분석 장치.
KR1020200014926A 2020-02-07 2020-02-07 이종 센서 융합을 이용한 행동 분석 장치 KR102514301B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200014926A KR102514301B1 (ko) 2020-02-07 2020-02-07 이종 센서 융합을 이용한 행동 분석 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200014926A KR102514301B1 (ko) 2020-02-07 2020-02-07 이종 센서 융합을 이용한 행동 분석 장치

Publications (2)

Publication Number Publication Date
KR20210100937A true KR20210100937A (ko) 2021-08-18
KR102514301B1 KR102514301B1 (ko) 2023-03-27

Family

ID=77464708

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200014926A KR102514301B1 (ko) 2020-02-07 2020-02-07 이종 센서 융합을 이용한 행동 분석 장치

Country Status (1)

Country Link
KR (1) KR102514301B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102556447B1 (ko) 2023-02-16 2023-07-18 주식회사 슈퍼스타트 패턴 분석을 통한 상황 판단 시스템
CN116704386A (zh) * 2023-08-01 2023-09-05 四川开澜科技有限公司 一种基于ai的精准应急救援方法及装置
WO2023229327A1 (ko) * 2022-05-23 2023-11-30 서울대학교산학협력단 영상 기반 군집 개체들의 군집 행동 패턴 분석 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197263A (ja) * 2018-05-07 2019-11-14 コニカミノルタ株式会社 システム、およびシステムの制御方法
JP2020004260A (ja) * 2018-06-29 2020-01-09 国立大学法人名古屋大学 観測位置推定装置、その推定方法、及びプログラム
JP2020017155A (ja) * 2018-07-27 2020-01-30 株式会社システック 携帯飛行監視端末、監視装置および監視方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197263A (ja) * 2018-05-07 2019-11-14 コニカミノルタ株式会社 システム、およびシステムの制御方法
JP2020004260A (ja) * 2018-06-29 2020-01-09 国立大学法人名古屋大学 観測位置推定装置、その推定方法、及びプログラム
JP2020017155A (ja) * 2018-07-27 2020-01-30 株式会社システック 携帯飛行監視端末、監視装置および監視方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Alireza Asvadi, ET AL:"Multimodal vehicle detection: fusing 3D-LIDAR and color camera data", Pattern Recognition Letters. (2018.11.02.). 1부.* *
Yongwoo Lee ET AL:"Pedestrian Detection based on Deep Fusion Network using Feature Correlation", Asia-Pacific Signal and Information Processing Association Annual Conference. (2018.11.12.). 1부.* *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023229327A1 (ko) * 2022-05-23 2023-11-30 서울대학교산학협력단 영상 기반 군집 개체들의 군집 행동 패턴 분석 장치 및 방법
KR102556447B1 (ko) 2023-02-16 2023-07-18 주식회사 슈퍼스타트 패턴 분석을 통한 상황 판단 시스템
KR102585665B1 (ko) 2023-02-16 2023-10-10 주식회사 슈퍼스타트 위험 상황 분석 및 위험 객체 수색 시스템
CN116704386A (zh) * 2023-08-01 2023-09-05 四川开澜科技有限公司 一种基于ai的精准应急救援方法及装置
CN116704386B (zh) * 2023-08-01 2023-10-20 四川开澜科技有限公司 一种基于ai的精准应急救援方法及装置

Also Published As

Publication number Publication date
KR102514301B1 (ko) 2023-03-27

Similar Documents

Publication Publication Date Title
US11042755B2 (en) Method for foreign object debris detection
US11205274B2 (en) High-performance visual object tracking for embedded vision systems
KR101995107B1 (ko) 딥 러닝을 이용한 인공지능 기반 영상 감시 방법 및 시스템
US10672140B2 (en) Video monitoring method and video monitoring system
Portmann et al. People detection and tracking from aerial thermal views
US11195038B2 (en) Device and a method for extracting dynamic information on a scene using a convolutional neural network
US10970871B2 (en) Estimating two-dimensional object bounding box information based on bird&#39;s-eye view point cloud
US8923556B2 (en) Method and apparatus for detecting people within video frames based upon multiple colors within their clothing
KR101764845B1 (ko) 다중 이동 물체의 겹침 제거 및 추적을 위한 영상 감시 장치 및 방법
Alexandrov et al. Analysis of machine learning methods for wildfire security monitoring with an unmanned aerial vehicles
KR102514301B1 (ko) 이종 센서 융합을 이용한 행동 분석 장치
KR101839827B1 (ko) 원거리 동적 객체에 대한 얼굴 특징정보(연령, 성별, 착용된 도구, 얼굴안면식별)의 인식 기법이 적용된 지능형 감시시스템
JP2008542922A (ja) 保安用途向けの人間の検出及び追跡
US20230201642A1 (en) Fire detection system
US20200394384A1 (en) Real-time Aerial Suspicious Analysis (ASANA) System and Method for Identification of Suspicious individuals in public areas
US20220366570A1 (en) Object tracking device and object tracking method
Dinnbier et al. Target detection using Gaussian mixture models and fourier transforms for UAV maritime search and rescue
Li et al. An early forest fire detection system based on dji m300 drone and h20t camera
CN111801689A (zh) 使用图像和尺寸特征进行实时对象检测和辨识的系统
Chandana et al. Autonomous drones based forest surveillance using Faster R-CNN
CN112800918A (zh) 一种非法运动目标的身份识别方法及装置
Wang et al. Human detection based on a sequence of thermal images using deep learning
Abidha et al. Reducing false alarms in vision based fire detection with nb classifier in eadf framework
Candamo et al. Vision-based on-board collision avoidance system for aircraft navigation
Morawski et al. Detection of Moving Heat-Emitting Object Using Single IR Camera

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant