KR100822476B1 - 원격 응급상황 모니터링 시스템 및 방법 - Google Patents

원격 응급상황 모니터링 시스템 및 방법 Download PDF

Info

Publication number
KR100822476B1
KR100822476B1 KR1020060081073A KR20060081073A KR100822476B1 KR 100822476 B1 KR100822476 B1 KR 100822476B1 KR 1020060081073 A KR1020060081073 A KR 1020060081073A KR 20060081073 A KR20060081073 A KR 20060081073A KR 100822476 B1 KR100822476 B1 KR 100822476B1
Authority
KR
South Korea
Prior art keywords
emergency
background
state
image data
object area
Prior art date
Application number
KR1020060081073A
Other languages
English (en)
Other versions
KR20080018642A (ko
Inventor
임혁규
윤경애
최석재
임형민
황보택근
오해석
Original Assignee
브이앤아이 주식회사
경원대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브이앤아이 주식회사, 경원대학교 산학협력단 filed Critical 브이앤아이 주식회사
Priority to KR1020060081073A priority Critical patent/KR100822476B1/ko
Publication of KR20080018642A publication Critical patent/KR20080018642A/ko
Application granted granted Critical
Publication of KR100822476B1 publication Critical patent/KR100822476B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/016Personal emergency signalling and security systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/185Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system
    • G08B29/186Fuzzy logic; neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

본 발명은 원격 응급상황 모니터링 시스템 및 방법에 관한 것으로서, 환자가 있는 곳이나 위험이 상존하는 지역 등 각종 현장의 응급상황에 대하여 신속한 처리를 수행할 수 있도록 하는 것을 목적으로 한다.
본 발명의 원격 응급상황 모니터링 시스템은, 감시카메라(10)와; 상기 감시카메라로부터 입력되는 연속적인 영상데이터를 프레임별로 저장하고, 상기 영상데이터의 화면 프레임을, 객체가 포함되지 않은 상태로 모델링된 배경화면에 대하여 감산하는 배경감산을 통해, 배경화면에 추가된 움직임이 있는 객체영역을 분리하고 점진적으로 갱신함으로써, 정의된 동작 특성과 객체영역과의 비교를 통한 동작분석에 의하여 응급상황을 분석하는 시스템 제어기와; 그리고, 상기 시스템 제어기에 의한 응급상황 분석결과와 현재 영상데이터를 표시하는 모니터(50);를 포함하는 것을 특징으로 한다.
원격, 응급상황, 동작, 분석, 모니터링, 신경망, 환자

Description

원격 응급상황 모니터링 시스템 및 방법{REMOTE EMERGENCY MONITORING SYSTEM AND METHOD}
도 1은, 본 발명에 따른 원격 응급상황 모니터링 시스템을 나타내는 구성도이다.
도 2는, 본 발명에 따른 원격 응급상황 모니터링 시스템의 다른 예를 나타내는 구성도이다.
도 3은, 본 발명에 따른 원격 응급상황 모니터링 방법을 나타내는 흐름도이다.
도 4는, 배경감산에 의해 객체의 동작을 분석하여 객체영역을 분리하는 과정을 나타내는 흐름도이다.
도 5는, 배경감산에 의해 객체를 분리하는 과정을 나타내는 사진이다.
도 6은, 추출된 객체를 수평투영 및 수직투영시킨 사진이다.
도 7a 내지 도 7c는, 각각 신경망 학습에 사용되는 동작패턴을 나타내는 사진들로서, 도 7a는 정상동작상태의 예, 도 7b는 이상동작상태의 예, 그리고 도 7c는 준정지상태의 예를 각각 나타낸다.
<도면의 주요 부분에 대한 부호의 설명>
10 : 감시카메라 20 : 시스템 제어기
30 : 원격통신시스템 40 : 영상수집서버
50 : 모니터
본 발명은 원격 응급상황 모니터링 시스템 및 방법에 관한 것으로서, 특히 환자가 있는 곳이나 위험이 상존하는 지역 등 각종 현장에서 감시카메라로부터 전송되는 영상데이터를 시스템 제어기에 받아 저장하고, 상기 시스템 제어기에서 상기 영상데이터의 화면과 모델링된 배경화면과의 배경감산(Background Subtraction)을 통해 움직임이 있는 객체영역을 분리하고 점진적으로 갱신함으로써, 정의된 동작 특성과 객체영역과의 비교를 통한 동작분석에 의하여 응급상황을 분석하여 모니터에 표시함으로써, 현장의 응급상황에 대하여 늦지 않게 신속한 처리를 할 수 있도록 하는 원격 응급상황 모니터링 시스템 및 방법에 관한 것이다.
예컨대, 교통분야에 적용되는 감시카메라를 이용한 원격 모니터링 시스템을 살펴보면, 감시카메라를 통해 현장의 영상이 본부에 전송되어 모니터에 표시되고, 상기 모니터를 담당자가 상존하여 감시함으로써, 모니터에 응급상황이 나타날 때 담당자가 이를 인식하여 필요한 조치를 취하도록 되어 있다.
그런데, 이러한 시스템에서는, 담당자가 항상 모니터에서 눈을 떼지 않고 항상 모니터를 감시하여야만 하고, 부주의로 모니터에 나타나는 응급상황을 담당자가 보지 못한 경우에는 현장의 응급상황을 본부에서 알 수 없어, 필요한 조치를 취할 수 없게 된다. 원격 모니터링 시스템이 요구되는 분야에서는, 대부분 상기한 바와 같은 체계의 비효율적인 원격 모니터링 시스템이 적용되고 있어, 이를 개선시킬 필요성이 대두되고 있다.
이러한 문제점의 인식하에, 영상데이터로부터 동작분석을 통해 응급상황을 인식할 수 있도록 하는 여러 가지 방법이 종래 제시된 바 있으나, 기존의 동작분석 방법들은, 처리할 데이터의 양이 많고 분석방법이 복잡하여 처리시간이 많이 소요되기 때문에, 응급상황에 신속하게 대응하기 힘든 문제점이 있다.
한편, 의료기술의 발달로 고령 노인인구는 지속적으로 증가하고 있고, 최근에는 독거노인도 늘어나는 추세에 있으나, 이에 대응한 의료서비스의 체계가 미비한 관계로, 의료분야의 응급상황 발생시 신속한 의료 서비스를 받기가 쉽지 않은 것이 현실이다.
따라서, 의료분야에도 원격 응급상황 모니터링 시스템을 적용하여, 현장의 응급상황을 의료기관 등에서 실시간으로 감시함으로써, 응급상황을 신속하고 용이하게 감지하여, 이에 의해 현장에서 돌연사의 위험에 빠진 환자나 응급상황에 놓인 환자에 대하여 신속한 조치를 취할 수 있도록 할 필요가 있다.
본 발명은 상기한 종래 문제점을 고려하여 이루어진 것으로서, 환자가 있는 곳이나 위험이 상존하는 지역 등 각종 현장에서 감시카메라로부터 전송되는 영상데이터를 시스템 제어기에 받아 저장하고, 상기 시스템 제어기에서 상기 영상데이터의 화면과 모델링된 배경화면과의 배경감산을 통해 움직임이 있는 객체영역을 분리 하고 점진적으로 갱신함으로써, 정의된 동작 특성과 객체영역과의 비교를 통한 동작분석에 의하여 응급상황을 분석하여 모니터에 표시함으로써, 현장의 응급상황에 대하여 신속한 처리를 할 수 있도록 하는 것을 목적으로 한다.
상기 목적을 달성하기 위하여, 본 발명에 따른 원격 응급상황 모니터링 시스템은, 현장의 영상을 촬영하여 전송하는 감시카메라와; 상기 감시카메라로부터 입력되는 연속적인 영상데이터를 저장하고, 상기 영상데이터의 화면 프레임을, 객체가 포함되지 않은 상태로 모델링된 배경화면에 대하여 감산하는 배경감산을 통해, 배경화면에 추가된 움직임이 있는 객체영역을 분리하고 점진적으로 갱신함으로써, 정의된 동작 특성과 객체영역과의 비교를 통한 동작분석에 의하여 응급상황을 분석하는 시스템 제어기와; 상기 시스템 제어기에 의한 응급상황 분석결과와 현재 영상데이터를 표시하는 모니터;를 포함하여 이루어지는 것을 특징으로 한다.
또한, 본 발명에 따른 원격 응급상황 모니터링 시스템은, 현장의 영상을 촬영하여 전송하는 감시카메라와; 상기 감시카메라에 의하여 촬영된 영상데이터를 수집하고, 이것을 통해 응급상황 분석하여 그 결과와 현재 영상데이터를 전송하는 시스템 제어기와; 상기 시스템 제어기로부터 원격통신시스템을 통해 데이터를 전송받아 종합하는 영상수집서버와; 그리고, 상기 영상수집서버에 의해 분석된 응급상황 분석결과와 현재의 영상데이터를 표시하는 모니터를 포함하여 이루어질 수 있다.
또한, 본 발명에 따른 원격 응급상황 모니터링 방법은, 감시카메라에 의하여 현장의 영상을 촬영하여 전송하는 단계와; 상기 감시카메라로부터 입력되는 연속적 인 영상데이터를 시스템 제어기에 받아 저장하고, 상기 시스템 제어기에서, 상기 영상데이터의 화면 프레임을, 객체가 포함되지 않은 모델링 배경화면에 대하여 감산하는 배경감산을 통해, 배경화면에 추가된 움직임이 있는 객체영역을 분리하고 점진적으로 갱신함으로써, 정의된 동작 특성과 객체영역과의 비교를 통한 동작분석에 의하여 응급상황을 분석하는 단계와; 그리고, 상기 시스템 제어기에 의한 응급상황 분석결과와 현재 영상데이터를 모니터에 표시하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따르면, 분리된 객체영역으로부터 동작을 분석하는 과정에서, 특징 벡터를 생성한 후, 생성된 특징 벡터를 이용하여 신경망을 구성하여 동작을 분석하는 것이 바람직하다.
본 발명의 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는, 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
도 1에는 본 발명에 따른 원격 응급상황 모니터링 시스템이 도시되어 있다.
본 발명에 따른 원격 응급상황 모니터링 시스템은, 예컨대 환자가 있는 거주지에 감시카메라를 설치하여 상기 환자의 거동을 모니터링함으로써, 상기 환자가 돌연사의 위험에 빠지거나 응급상황에 놓이는 것을 배경감산 기법을 통하여 실시간으로 동작분석하여, 상기 환자에 대하여 늦지 않게 신속한 조치를 취할 수 있도록 할 목적으로 제공될 수 있다. 다른 분야에 적용되는 시스템의 경우에도 그 개념은 이와 동일하므로, 여기서는 의료체계에 적용되어 환자를 모니터링하는 시스템에 대해서만 설명하기로 한다.
이러한 의료체계에 적용되는 시스템의 경우, 사람의 팔, 다리 등 세부적인 신체구조의 분석보다는 전체적인 응급상황의 인지만을 필요로 하므로, 단순한 데이터의 처리를 통해 실시간 처리가 가능하고, 복잡한 동작의 분석보다는 특정한 응급상황의 판별을 위주로 하는 동작 분석 기법이 적용될 필요가 있다. 이러한 특정한 동작 상태를 분석하기 위해서, 객체 부분의 특징을 추출하고 이로부터 동작 상태를 분석하기 위해 단순한 연산에 의해 가장 유사한 패턴을 분류할 수 있는 신경망(Neural Network)을 사용하는 것이 바람직하다.
이러한 개념하에 이루어지는 본 발명의 원격 응급상황 모니터링 시스템은, 도 1에 도시된 바와 같이, 감시카메라(10)와, 시스템 제어기(20)와, 그리고 모니터(50)를 포함하여 이루어진다.
상기 감시카메라(10)는, 촬영 객체, 예컨대 환자가 거동을 하는 장소에 설치되어 객체의 거동을 촬영하기 위한 것으로서, CCD 모듈 카메라(11), 웹카메라(12) 등이 적용될 수 있고, 이들이 동시에 구비되어 촬영하도록 이루어질 수도 있다.
상기 감시카메라(10)로는, 다음의 표 1에 나타낸 규격의 것이 적용될 수 있다.
촬영소자 1/3" CCD
신호규격 NTSC 흑백
화소 - 800(H)×500(V) : 최대 - 580(H)×350(V) : 최소
해상도 수평 해상도 570TV 본
영상출력레벨 1.0Vp-p (75Ω, Composite)
S/N비 50dB 이상
렌즈 마운트 C/CS 마운트
동작온도 -10 ~ +50℃
감시영역 안에서 사람의 전신이 영상에 포함되도록 감시카메라(10)가 설치되어야 하며, 예컨대 초당 15프레임의 영상을 640*480 해상도를 가지는 RGB칼라의 영상을 촬영할 수 있는 감시카메라(10)가 적용될 수 있다.
상기 시스템 제어기(20)는, 본 발명 시스템에 있어서의 핵심적인 구성요소로서, 상기 감시카메라(10)로부터 전송되는 연속적인 영상데이터를 저장하여, 이 영상데이터로부터 신경망을 이용한 동작분석에 의해 응급상황을 분석하도록 되어 있다.
즉, 상기 시스템 제어기(20)는, 저장된 영상데이터의 화면 프레임을, 객체가 포함되지 않은 상태로 모델링된 배경화면에 대하여 감산하는 배경감산을 통해, 배경화면에 추가된 움직임이 있는 객체영역을 분리하고 점진적으로 갱신함으로써, 정의된 동작 특성과 객체영역과의 비교를 통한 동작분석에 의하여 응급상황을 분석하도록 되어 있다.
상기 시스템 제어기(20)로는, 표 2에 나타낸 규격의 것이 적용될 수 있다.
메인 프로세서 32비트 이상
512KB 이상(프로그램 저장용)
512KB 이상(파라미터, 데이터 테이블, 버퍼용) 배터리 백업 기능
리얼 타임 클록 1/100초, 초, 분, 시간, 요일, 일, 월 및 계산 기능 내장
배터리 백업 기능 내장
* 커뮤니케이션
- 포트수 2포트(메인티넌스 : 1포트, 중앙시스템과의 통신 : 1포트)
- 통신방식 동기 또는 비동기
- 통신속도 9,600bps 이상
- 인터페이스 RS-232C 또는 RS-422
* 동작온도 -34℃ ~ +73℃
상기 시스템 제어기(20)는, 예컨대, 초당 1장의 프레임을 메모리에 저장할 수 있고, 10장의 저장된 프레임을 사용하여 배경화면의 갱신에 사용될 수 있다. 동작분석 알고리즘은 초당 3장의 영상에 대해서 처리를 하며, 결과를 분석하고, 응급상황이 발생했을 때, 저장된 화면, 즉 응급상황 분석결과와 현재 영상데이터가 모니터(50)에 전송하여 표시하게 된다. 이 모니터(50)에 나타나는 화면을 통해 현장의 응급상황을 확인할 수 있고, 그 확인 결과에 따라 응급상황을 신속하게 처리할 수 있다.
예컨대, 3장의 영상을 분석하여 결과를 출력하고, 이 중 1장의 화면은 배경화면의 갱신을 위해 프레임 메모리에 저장할 수 있다. 프레임 메모리는 링버퍼를 구성하여 FIFO 형태를 구현함으로써, 최근 10초 동의 영상을 1초 간격으로 저장하도록 이루어질 수 있다.
한편, 본 발명에 따른 원격 응급상황 모니터링 시스템은, 도 2에 도시된 바와 같이 구성될 수 있는데, 감시카메라(10)와, 상기 감시카메라(10)에 의하여 촬영된 영상데이터를 수집하고, 이것을 통해 응급상황 분석하여 그 결과와 현재 영상데이터를 전송하는 시스템 제어기(20)와, 상기 시스템 제어기(20)로부터 현장측 통신장비(31), 통신선로(32) 및 센터측 통신장비(33)로 구성된 원격통신시스템(30)을 통해 데이터를 전송받아 종합하는 영상수집서버(40)와, 그리고 상기 영상수집서버(40)에 의해 분석된 응급상황 분석결과와 현재의 영상데이터를 표시하는 모니터(50)를 포함하여 이루어질 수 있다.
상기 통신선로(32)로 예컨대, ADSL, 전용회선, 임대망, 무선망 등이 이용될 수 있다.
즉, 이 시스템은, 전술한 예에서 원격통신시스템(30)과 영상수집서버(40)가 추가된 것으로서, 예컨대 의료센터의 영상수집서버(40)와 통신시스템과 연계하여 많은 환자들의 응급상황을 효과적으로 감시하는데 유용하다.
다음에, 상기한 바와 같이 구성된 본 발명에 따른 원격 응급상황 모니터링 시스템에 의하여 응급상황을 모니터링 하는 방법에 대하여 설명한다.
도 1 및 도 3에 도시된 바와 같이, 감시카메라(10)에 의하여 촬영된 영상은 아날로그 신호 형태로 시스템 제어기(20)로 전송된다(S10).
상기 감시카메라(10)는 원하는 활동 공간에서 가능하면 객체의 전신 모습이 포함되도록 설치되어야 한다. 또한, 기절이나 기타 응급상황에 의해 발생하는 비정상 동작의 검출을 목적으로 하므로, 화면분석이 행해지는 공간은 서 있거나 앉아 있는 등 일반적인 작업공간이나 활동영역으로 제한된다. 이는 누워있거나 수면상태의 경우 현실적으로 화면만을 통해 객체의 응급상황을 구분할 수 없고, 부가적인 맥박이나 혈압 등의 측정을 통해서만 객체의 응급상황을 구분할 수 있다는 점을 고려한 것이다.
상기 시스템 제어기(20)는 연속적으로 입력되는 아날로그 신호를 디지털 신호로 변환하여 저장한다(S20).
상기 시스템 제어기(20)는 입력되는 영상데이터를 분석하여 응급상황 여부를 분석하게 되는데, 이 분석 기법으로, 예컨대 연속된 영상신호에서 움직임이 있는 객체의 분리를 위해 연속된 두 프레임간의 차를 구하여 움직임이 있는 부분만을 검출하는 방법과, 저장된 배경화면과 입력화면의 비교를 통해 객체 부분을 분리하는 방법이 고려될 수 있다.
전자의 경우, 움직임이 큰 부분에서만 객체(즉, 환자)의 동작 부분을 분리할 수 있기 때문에, 객체가 정지해 있는 경우는 분리해 낼 수 없고, 조명의 변화나 잡음의 영향을 많이 받는다. 그러므로, 본 발명에서는, 정확한 객체의 분리를 위해 후자의 방법과 같이 배경화면(배경모델)과 현재의 화면을 감산함으로써, 배경화면에 추가된 객체영역을 분리해 내는 배경감산에 의해 동작을 분석하여 응급상황 결과를 도출해내는 방법이 적용된다(S30).
또한, 조명의 변화나 시간의 흐름에 따른 점진적인 배경화면의 변화를 반영하기 위하여 배경화면을 갱신해 나가며(S40), 이러한 과정을 통해 객체영역을 분리하고(S50), 이것을 통해 신경망 동작분석 기법을 적용하여 객체의 동작을 분석한다(S60).
도 4에는 배경감산에 의해 객체의 동작을 분석하여 객체영역을 분리하는 일련의 과정이 도시되어 있다.
즉, 현재 화면과 배경화면을 비교하고, 형태 연산자(Morphological Operator)를 통해 객체영역을 추정하여 객체를 분리하며, 이러한 과정에서 배경화면을 갱신하여 새로운 현재 화면과 비교한다.
이러한 과정을 좀 더 구체적으로 설명하면, 영상데이터를 통한 동작분석은 여러 가지 방법에 의해 수행될 수 있는데, 이러한 동작분석방법은, 측정하려는 대상과 응용분야에 따라 인간의 신체를 팔과, 다리, 머리 등과 같이 여러 기능적인 부분으로 분해하여 각 부분의 연결 상태를 분석하는 신체구조분석(Body Structure Analysis), 신체의 분리없이 인간의 움직임을 추적하는 움직임 추적(Motion Tracking), 연속적인 동영상으로부터 인간의 활동 상태를 추정하는 움직임 인식(Human Activity Recognition) 등으로 구분할 수 있다.
상기 신체구조분석은, 인간의 신체 구조를 여러 가지 형태로 모델링하고, 입력 영상과의 비교를 통해 해당 신체 부분의 동작 상태를 분석하는 방법이다. 상기 움직임 추적은, 신체의 각 부분의 움직임보다는 몸 전체의 움직임을 추적하기 위한 방법으로, 객체의 위치나, 속도, 모양, 색상의 변화와 같이 객체와 관련된 여러 정보의 변화를 분석하기 위한 방법이다.
또한, 상기 움직임 인식은, 각 신체 부분의 연속적인 움직임이나 전체적인 움직임의 특징을 분석하여, 이러한 움직임이 어떠한 동작에 의해 발생했는지를 추정하고 인식하는 방법이다.
본 발명에서는 이러한 동작분석 기법중에서 움직임 추적 기법이 적용될 수 있는데, 신체의 각 부분을 분리하여 다양한 움직임을 분석하는 대신, 세 가지의 동작상태 즉, 서있는 상태, 쓰러진 상태, 앉아있는 상태만을 구분하도록 한다. 이러한 동작 상태를 구분하기 위해서, 감시카메라(10)로부터 전송되는 연속적인 영상데이터를 시스템 제어기(20)에서 프레임별로 저장한다.
시스템 제어기(20)는, 배경화면과 현재의 입력화면을 배경감산한다(S30).
이 배경감산법은 배경화면과 현재 입력된 화면의 차이를 구하여, 그 차이값이 임계치 이상일 때 객체영역으로 판단하는 기법을 사용하는 것으로서, 목표로 하는 객체나 환경에 대한 사전 지식이 없는 상황에서 고정된 감시카메라(10)를 사용한 움직임 검출에 가장 널리 사용되는 방법이다. 즉, 연속된 장면에서 움직이는 객체는, 현재의 입력 프레임과 객체가 포함되지 않은 배경화면(배경모델)의 차를 구함으로써 검출될 수 있다.
그런데, 배경화면도 시간이 지남에 따라 밝기나 그림자의 위치 등이 변하게 되므로, 이러한 배경화면의 변화를 반영하기 위해, 입력된 영상으로부터 배경영역을 추정하고 배경화면을 갱신하는 과정을 거치게 된다(S40).
다음에, 객체의 분리를 위해, 입력 영상데이터의 에지(Edge)를 강조하고, 형태 연산자를 통해 객체 부분만을 분리해낸다(S50).
배경감산을 이용한 객체 분리는 화소단위의 갱신과정을 포함하는데, 입력된 영상으로부터 각 화소가 배경에 포함되는지, 혹은 움직이는 객체의 일부인지를 판단하여, 배경모델의 갱신을 하거나, 객체영역으로 판별한다. 연속된 프레임에서 움직이는 객체는 현재의 프레임과 배경모델의 차를 구함으로써 검출될 수 있다.
배경감산에 의한 배경차 영상은 임계치와 비교하여 이치화(二値化, Binarization)되고, 객체의 복장이나 색상의 영향을 줄이기 위해 이치화된 영상을 이용하여 객체영역을 분리한다. 그러나, 이치화된 결과는 감시카메라(10)의 조그마한 환경 변화에도 민감하게 반응하므로, 객체영역의 인식시 노이즈(Noise)가 많이 생기게 된다. 이를 해결하기 위하여, 형태 연산자인 클로징(Closing) 함수를 사용하여 끊어진 화소들을 연결하고, 외곽 부분의 화소에 대해 사슬탐색(Chain Search) 알고리즘을 사용하여 정해진 크기 이하의 영역을 삭제하며, 삭제되고 남은 영역에 화소값을 채워 객체영역을 설정한다.
도 5는 상기한 바와 같은 배경과정을 통해 객체를 분리하는 과정을 나타내는 사진이 도시되어 있다.
다음에, 상기한 바와 같이 분리된 객체영역으로부터 동작을 구분해 낼 수 있도록 특징 벡터를 생성한 후, 생성된 특징 벡터를 이용하여 동작을 분석하기 위해 신경망을 사용한다(S60).
즉, 대표적인 동작의 특징 벡터를 생성한 후, 이를 바탕으로 구성된 신경망을 학습시킨다. 학습된 신경망의 가중치를 이용해서 임의의 입력에 대한 특징 벡터로부터 결과를 구해내고, 이로 부터 동작을 구분해 냄으로써, 응급상황 동작분석을 수행할 수 있다.
이를 위하여, 세 가지의 기본적인 동작 상태를 정의하고, 이를 분리하기 위해 객체영역의 화소를 수평과 수직으로 투영(Projection)하여 화소의 배치상태를 정의한다. 수직 수평 투영에 입력화면의 각 화소를 사용하면, 객체의 복장이나 색상에 영향을 많이 받으므로, 객체영역과 배경영역을 분리하여 이치화시킨 후, 객체영역에 포함되는 화소의 수 만을 계수하여 투영한다. 이 경우, 사람의 머리나 팔, 다리 등을 정확히 구분할 수 없으나, 팔, 다리가 겹쳐지거나 팔, 다리를 구부리는 등 대략적인 정보를 알 수 있으므로, 투영된 객체의 화소수를 특징 벡터로 사용한다. 또한, 객체영역의 세로 폭과 가로 폭의 비율을 계산하여 특징 벡터로 사용한다.
도 6에는 추출된 객체를 수평투영 및 수직투영시킨 사진이 도시되어 있다.
이 경우에, 객체의 크기나 영역에 따라 화소의 개수가 달라지므로, 정규화(Normalization)를 통해 크기에 상관없이 모양에만 영향을 받고, 특징 벡터의 개수가 일정하도록 해주어야 한다. 이를 위해서, 수평, 수직으로 투영된 값을 일정한 크기의 벡터로 스케일하게 된다. 예컨대, 수평, 수직 공통적으로 16개의 벡터로 정규화하여 처리할 수 있으며, 이 때 실제 이치화된 화소 라인번호가 정규화된 특징 벡터의 위치와 일치할 수 없으므로, 쌍선성 보간법(Bilinear Interpolation)에 의해 16개의 특징 벡터로 정규화한다. 특징 벡터의 각 요소는 0에서 1 사이의 값을 가지도록 하기 위해, 계수된 화소수를 전체 화소의 개수로 나누어 주어야 한다.
이러한 과정을 통하여 얻은 결과를 이용하여 특징 벡터로 구성된 신경망을 통해 동작을 분석하기 위하여, 응급상황을 인지한다는 목적을 감안하여, 분석을 통한 행동 양식을 제한하게 되는데, 본 발명에서는 동작상태를 서있는 상태인 정상동작상태, 기절이나 기타 응급상태로 인한 이상동작상태, 의자에 앉아있는 준정지상태로 구분한다. 이러한 동작상태를 구분하기 위하여, 전술한 특징 벡터는 수평방향의 투영벡터, 수직방향의 투영벡터, 객체 영역의 세로/가로 비율 등을 사용한 것이다.
본 발명에 따르면, 다층 퍼셉트론(Mutilayer Perception-MLP)을 사용하여 표준 동작에 대한 특징 벡터를 정의하여 구성된 신경망을 학습시킬 수 있는데, 상기 다층 퍼셉트론의 입력층은 10개의 노드(Node)로, 은익층은 10개의 노드로, 그리고 출력층은 3개의 노드로 각각 구성될 수 있고, 출력의 세 노드에 정상동작상태, 이상동작상태 및 준정지상태를 할당하여, 가장 유사한 동작이 입력되면, 해당 노드의 출출력이 1에 가까운 출력이 나오도록 설정될 수 있다.
신경망의 학습을 위하여, 대표적인 동작패턴을 정의하고, 이에 대한 출력결과르 설정하여 학습시킨다. 동작의 종류별로 입력패턴을 추출한 후 신경망의 입력으로 사용되고, 대응하는 출력을 지정하여 역전파(Back-Propagation) 알고리즘에 의해 노드 사이의 연결강도를 나타내는 가중치를 갱신한다. 전체 입력패턴에 대한 신경망의 출력 결과와 원하는 출력 결과 사이의 오차를 계산하여, 임계치 이하가 될 때까지 학습을 반복하고, 학습이 완료되면 레이어별 가중치를 저장한다. 학습과정에서 얻어진 가중치를 이용하여, 다층 퍼셉트론의 구조를 구현하고, 임의의 특징 벡터가 입력되면, 이를 입력으로 하여 신경망의 출력값을 계산한다. 출력값의 분포로부터 어떤 종류의 표준패턴에 가장 가까운지 결정함으로써, 동작을 분류한다.
본 발명에 따르면, 크기와 상태를 달리하는 표준패턴을 정의하기 위하여, 예컨대 도 7a에 도시된 바와 같이 정상동작상태에 해당하는 입력패턴 10개, 도 7b에 도시된 바와 같이 이상동작상태에 해당하는 입력패턴 10개, 도 7c에 도시된 바와 같이 준정지상태에 해당하는 입력패턴 10개 등을 선정하고, 이로부터 특징 벡터를 구하여 신경망이 학습될 수 있다.
상기한 바와 같이, 검출된 객체영역으로부터 사람의 동작을 나타낼 수 있는 특징 벡터로 변환하고, 이를 이용해 신경망을 구성하여 동작을 분석한 다음(S60), 분석된 동작 분석결과로 응급상황 유무를 판단한 결과(S70), 응급상황에 대한 동작 분석결과가 인지되면, 이를 조치할 수 있는 담당자나 의료센터에 알려준다.
도 1의 시스템에서는 응급상황 분석 결과와 현재의 영상데이터를 모니터(50)에 전송하여 표시하게 되고, 도 2의 시스템에서는 통신시스템을 통해 응급상황 분석 결과와 현재의 영상데이터를 영상수집서버(40)에 전송하고, 상기 영상수집서버(40)에서 수신된 데이터를 종합하여, 모니터(50)에 표시하게 된다(S80).
따라서, 모니터(50)에 나타나는 화면을 통해 응급상황을 검증하여, 신속한 조치를 취할 수 있다.
상기한 바와 같이 구성된 본 발명에 따른 원격 응급상황 모니터링 시스템에 의하면, 예컨대 환자가 있는 곳이나 응급상황 발생 여부를 감시하여야 할 장소에 감시카메라(10)를 설치하고, 실시간으로 움직이는 대상인 객체의 동작을 배경화면과 비교하여 감산하는 배경감산 방법으로 분리하고 점진적으로 갱신하며, 정의된 동작 특성과 객체영역과의 비교를 통한 동작분석에 의하여 응급상황을 분석하여 모니터(50)에 표시함으로써, 현장의 응급상황에 대하여 신속한 처리를 할 수 있으므로, 객체가 응급상황에서 신속한 처리를 받지 못해 사망하거나 위험한 상태에 빠지는 것을 방지할 수 있는 효과가 있다.

Claims (4)

  1. 삭제
  2. 객체의 활동영역 현장의 영상을 촬영하여 아날로그 신호형태로 시스템제어기로 전송하는 감시카메라(10)와; 상기 감시카메라(10)로부터 전송되는 영상데이터를 받아 저장하고 정의된 동작특성과 객체영역과의 비교를 통한 동작분석에 의해 응급상황을 분석하는 시스템 제어기(20)와; 상기 시스템제어기(20)로부터 원격통신시스템(30)을 통해 데이터를 전송받아 종합하는 영상수집서버(40)와; 상기 영상수집서버(40)에 의해 분석된 응급상황 분석결과 및 현재의 영상데이터를 표시하는 모니터(50);를 포함하여 이루어져, 혼자 생활하는 노인이나 보호자 없는 환자 등의 일상생활을 관찰하고 특정행위만을 자동으로 인지하여 이를 담당자나 의료센터에 통보하기 위한 원격 응급상황 모니터링 시스템에 있어서,
    상기 시스템 제어기(20)는,
    상기 감시카메라(10)에 의해 촬영된 영상데이터를 서있는 상태(정상동작상태), 쓰러진 상태(이상동작상태), 앉아있는 상태(준정지상태)로 구분하여 디지털신호로 변환하여 저장하고,
    저장된 배경화면과 현재 입력된 화면의 차이를 구하여 그 차이값이 임계치 이상일 때 객체영역으로 판단하는 배경감산법에 의해, 배경화면에 추가된 객체영역을 분리해 내며,
    조명의 변화나 시간의 흐름에 따른 점진적인 배경화면의 변화를 반영하기 위하여 배경화면을 갱신해 나가고,
    배경화면에서 객체영역을 분리할 때, 객체의 복장이나 색상의 영항을 줄이기 위해 객체영역과 배경영역을 분리하여 이치화(Binarization)시킨 후, 객체영역에 포함되는 화소의 수만을 계수하여 수평과 수직으로 투영하여 화소의 배치상태를 정의하며,
    형태연산자인 클로징(Closing) 함수를 사용하여 끊어진 화소들을 연결하고, 외곽 부분의 화소에 대해 사슬탐색(Chain Search) 알고리즘을 사용하여 정해진 크기 이하의 영역을 삭제하며, 삭제되고 남은 영역에 화소값을 채워 객체영역을 설정하는 과정을 통해 객체영역을 분리해 내고,
    객체의 서있는 상태(정상동작상태), 쓰러진 상태(이상동작상태). 앉아있는 상태(준정지상태)의 기본적 동작상태를 구분하기 위해, 수평방향의 투영벡터, 수직방향의 투영벡터, 객체 영역의 세로/가로 비율을 사용하여 특징 벡터를 생성하며,
    다층 퍼셉트론(Multilayer Perception-MLP)을 사용하여 표준 동작에 대한 특징 벡터를 정의하여 신경망을 학습시키고, 학습이 완료되면 레이어(Layer)별 가중치(Weight)를 저장하고,
    학습과정에서 얻어진 신경망의 가중치를 이용하여 임의의 특징 벡터가 입력되면 이에 의해 신경망의 출력값을 계산하여, 상기 출력값의 분포로부터 어떤 종류의 패턴에 가장 가까운지를 결정함으로써 응급상황의 동작분석을 수행하는 것을 특징으로 하는 원격 응급상황 모니터링 시스템.
  3. 삭제
  4. 삭제
KR1020060081073A 2006-08-25 2006-08-25 원격 응급상황 모니터링 시스템 및 방법 KR100822476B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060081073A KR100822476B1 (ko) 2006-08-25 2006-08-25 원격 응급상황 모니터링 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060081073A KR100822476B1 (ko) 2006-08-25 2006-08-25 원격 응급상황 모니터링 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20080018642A KR20080018642A (ko) 2008-02-28
KR100822476B1 true KR100822476B1 (ko) 2008-04-16

Family

ID=39385641

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060081073A KR100822476B1 (ko) 2006-08-25 2006-08-25 원격 응급상황 모니터링 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR100822476B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100994418B1 (ko) * 2008-05-16 2010-11-15 주식회사 윈포넷 건물의 침입 감지를 위한 촬영 이미지 처리 시스템 및 방법
KR101021276B1 (ko) 2009-06-29 2011-03-11 주식회사 엠씨넥스 영상 처리 장치
KR101046163B1 (ko) * 2009-04-30 2011-07-04 동서대학교산학협력단 실시간 다중물체 추적 방법
KR101374138B1 (ko) 2012-09-17 2014-03-25 주식회사 제론헬스케어 비정상적인 상황 인식시스템
KR102019439B1 (ko) * 2018-05-18 2019-09-06 조선대학교산학협력단 영유아 안전관리를 위한 얼굴인식 카메라

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8126833B2 (en) * 2008-09-11 2012-02-28 Behavioral Recognition Systems, Inc. Detecting anomalous events using a long-term memory in a video analysis system
US8121968B2 (en) 2008-09-11 2012-02-21 Behavioral Recognition Systems, Inc. Long-term memory in a video analysis system
KR101669463B1 (ko) * 2010-03-18 2016-10-26 삼성전자주식회사 지능형 카메라
KR101309366B1 (ko) * 2012-02-16 2013-09-17 부경대학교 산학협력단 영상 기반 이상 동작 감시 시스템 및 방법
KR101970611B1 (ko) * 2012-08-14 2019-04-19 에스케이 텔레콤주식회사 프레임률에 따라 학습률을 가변하는 이동객체 검출장치 및 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100233109B1 (ko) 1994-03-16 1999-12-01 윤종용 자동 감시 방법 및 장치
KR20020067286A (ko) * 2001-02-16 2002-08-22 주식회사 이스턴정보통신 객체기반 영상 감시시스템
KR20020097269A (ko) * 2001-03-15 2002-12-31 코닌클리케 필립스 일렉트로닉스 엔.브이. 수시 도움을 요구하는 독거인을 모니터링하기 위한 자동시스템
KR20050002106A (ko) * 2003-06-30 2005-01-07 송현종 화상비교를 통한 금융보안 시스템 및 그 방법
KR20050051600A (ko) * 2005-04-12 2005-06-01 와이즈임베드(주) 구호통보장치와 그 방법
KR20050090947A (ko) * 2004-03-10 2005-09-14 이상로 실버텔 운영 시스템
KR20050122677A (ko) * 2004-06-25 2005-12-29 (주)내일커뮤니티 건강관리시스템
KR20060031832A (ko) * 2006-03-22 2006-04-13 뷰웨이 주식회사 실시간 행위분석 및 상황인지 기반 스마트 영상 보안시스템

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100233109B1 (ko) 1994-03-16 1999-12-01 윤종용 자동 감시 방법 및 장치
KR20020067286A (ko) * 2001-02-16 2002-08-22 주식회사 이스턴정보통신 객체기반 영상 감시시스템
KR20020097269A (ko) * 2001-03-15 2002-12-31 코닌클리케 필립스 일렉트로닉스 엔.브이. 수시 도움을 요구하는 독거인을 모니터링하기 위한 자동시스템
KR20050002106A (ko) * 2003-06-30 2005-01-07 송현종 화상비교를 통한 금융보안 시스템 및 그 방법
KR20050090947A (ko) * 2004-03-10 2005-09-14 이상로 실버텔 운영 시스템
KR20050122677A (ko) * 2004-06-25 2005-12-29 (주)내일커뮤니티 건강관리시스템
KR20050051600A (ko) * 2005-04-12 2005-06-01 와이즈임베드(주) 구호통보장치와 그 방법
KR20060031832A (ko) * 2006-03-22 2006-04-13 뷰웨이 주식회사 실시간 행위분석 및 상황인지 기반 스마트 영상 보안시스템

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100994418B1 (ko) * 2008-05-16 2010-11-15 주식회사 윈포넷 건물의 침입 감지를 위한 촬영 이미지 처리 시스템 및 방법
KR101046163B1 (ko) * 2009-04-30 2011-07-04 동서대학교산학협력단 실시간 다중물체 추적 방법
KR101021276B1 (ko) 2009-06-29 2011-03-11 주식회사 엠씨넥스 영상 처리 장치
KR101374138B1 (ko) 2012-09-17 2014-03-25 주식회사 제론헬스케어 비정상적인 상황 인식시스템
KR102019439B1 (ko) * 2018-05-18 2019-09-06 조선대학교산학협력단 영유아 안전관리를 위한 얼굴인식 카메라

Also Published As

Publication number Publication date
KR20080018642A (ko) 2008-02-28

Similar Documents

Publication Publication Date Title
KR100822476B1 (ko) 원격 응급상황 모니터링 시스템 및 방법
KR101729327B1 (ko) 듀얼 카메라를 이용한 체온 추적 모니터링 시스템
KR101806400B1 (ko) 흑체를 이용한 듀얼 카메라 기반 체온 감시 시스템
Tzeng et al. Design of fall detection system with floor pressure and infrared image
EP2467805B1 (en) Method and system for image analysis
CN110477925A (zh) 一种针对敬老院老人的跌倒检测与预警方法及系统
WO2016006027A1 (ja) 脈波検出方法、脈波検出プログラム及び脈波検出装置
KR101309366B1 (ko) 영상 기반 이상 동작 감시 시스템 및 방법
EP3308702B1 (en) Pulse estimation device, and pulse estimation method
Joshi et al. A fall detection and alert system for an elderly using computer vision and Internet of Things
KR101514061B1 (ko) 노인 관리용 무선 카메라 장치 및 이를 통한 노인 관리 시스템
CN108898079A (zh) 一种监控方法及装置、存储介质、拍摄终端
CN112949417A (zh) 一种摔倒行为识别方法、设备及系统
KR20090001848A (ko) 얼굴표정 감시 방법 및 얼굴표정 감시 시스템
ElSayed et al. Ambient and wearable sensing for gait classification in pervasive healthcare environments
KR20180096038A (ko) 행위 예측을 위한 다중 모션 기반 옴니뷰 기법
CN115116133A (zh) 一种用于独居老人监护的异常行为检测系统及方法
Basavaraj et al. Vision based surveillance system for detection of human fall
KR20200056660A (ko) 얼굴 내 미세움직임 기반 통증 모니터링 방법 및 시스템
CN110910449A (zh) 识别物体三维位置的方法和系统
CN115731563A (zh) 一种远距离监控人员倒地识别方法
KR101704471B1 (ko) 낙상 검출 장치 및 그 방법
Kavya et al. Human Fall Detection Using Video Surveillance
CN113660455A (zh) 一种基于dvs数据的跌倒检测方法、系统、终端
Khawandi et al. Integrated monitoring system for fall detection in elderly

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130207

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140603

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150416

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160825

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20170907

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20180409

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee