상기 목적을 달성하기 위하여, 본 발명에 따른 원격 응급상황 모니터링 시스템은, 현장의 영상을 촬영하여 전송하는 감시카메라와; 상기 감시카메라로부터 입력되는 연속적인 영상데이터를 저장하고, 상기 영상데이터의 화면 프레임을, 객체가 포함되지 않은 상태로 모델링된 배경화면에 대하여 감산하는 배경감산을 통해, 배경화면에 추가된 움직임이 있는 객체영역을 분리하고 점진적으로 갱신함으로써, 정의된 동작 특성과 객체영역과의 비교를 통한 동작분석에 의하여 응급상황을 분석하는 시스템 제어기와; 상기 시스템 제어기에 의한 응급상황 분석결과와 현재 영상데이터를 표시하는 모니터;를 포함하여 이루어지는 것을 특징으로 한다.
또한, 본 발명에 따른 원격 응급상황 모니터링 시스템은, 현장의 영상을 촬영하여 전송하는 감시카메라와; 상기 감시카메라에 의하여 촬영된 영상데이터를 수집하고, 이것을 통해 응급상황 분석하여 그 결과와 현재 영상데이터를 전송하는 시스템 제어기와; 상기 시스템 제어기로부터 원격통신시스템을 통해 데이터를 전송받아 종합하는 영상수집서버와; 그리고, 상기 영상수집서버에 의해 분석된 응급상황 분석결과와 현재의 영상데이터를 표시하는 모니터를 포함하여 이루어질 수 있다.
또한, 본 발명에 따른 원격 응급상황 모니터링 방법은, 감시카메라에 의하여 현장의 영상을 촬영하여 전송하는 단계와; 상기 감시카메라로부터 입력되는 연속적 인 영상데이터를 시스템 제어기에 받아 저장하고, 상기 시스템 제어기에서, 상기 영상데이터의 화면 프레임을, 객체가 포함되지 않은 모델링 배경화면에 대하여 감산하는 배경감산을 통해, 배경화면에 추가된 움직임이 있는 객체영역을 분리하고 점진적으로 갱신함으로써, 정의된 동작 특성과 객체영역과의 비교를 통한 동작분석에 의하여 응급상황을 분석하는 단계와; 그리고, 상기 시스템 제어기에 의한 응급상황 분석결과와 현재 영상데이터를 모니터에 표시하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따르면, 분리된 객체영역으로부터 동작을 분석하는 과정에서, 특징 벡터를 생성한 후, 생성된 특징 벡터를 이용하여 신경망을 구성하여 동작을 분석하는 것이 바람직하다.
본 발명의 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는, 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
도 1에는 본 발명에 따른 원격 응급상황 모니터링 시스템이 도시되어 있다.
본 발명에 따른 원격 응급상황 모니터링 시스템은, 예컨대 환자가 있는 거주지에 감시카메라를 설치하여 상기 환자의 거동을 모니터링함으로써, 상기 환자가 돌연사의 위험에 빠지거나 응급상황에 놓이는 것을 배경감산 기법을 통하여 실시간으로 동작분석하여, 상기 환자에 대하여 늦지 않게 신속한 조치를 취할 수 있도록 할 목적으로 제공될 수 있다. 다른 분야에 적용되는 시스템의 경우에도 그 개념은 이와 동일하므로, 여기서는 의료체계에 적용되어 환자를 모니터링하는 시스템에 대해서만 설명하기로 한다.
이러한 의료체계에 적용되는 시스템의 경우, 사람의 팔, 다리 등 세부적인 신체구조의 분석보다는 전체적인 응급상황의 인지만을 필요로 하므로, 단순한 데이터의 처리를 통해 실시간 처리가 가능하고, 복잡한 동작의 분석보다는 특정한 응급상황의 판별을 위주로 하는 동작 분석 기법이 적용될 필요가 있다. 이러한 특정한 동작 상태를 분석하기 위해서, 객체 부분의 특징을 추출하고 이로부터 동작 상태를 분석하기 위해 단순한 연산에 의해 가장 유사한 패턴을 분류할 수 있는 신경망(Neural Network)을 사용하는 것이 바람직하다.
이러한 개념하에 이루어지는 본 발명의 원격 응급상황 모니터링 시스템은, 도 1에 도시된 바와 같이, 감시카메라(10)와, 시스템 제어기(20)와, 그리고 모니터(50)를 포함하여 이루어진다.
상기 감시카메라(10)는, 촬영 객체, 예컨대 환자가 거동을 하는 장소에 설치되어 객체의 거동을 촬영하기 위한 것으로서, CCD 모듈 카메라(11), 웹카메라(12) 등이 적용될 수 있고, 이들이 동시에 구비되어 촬영하도록 이루어질 수도 있다.
상기 감시카메라(10)로는, 다음의 표 1에 나타낸 규격의 것이 적용될 수 있다.
촬영소자 |
1/3" CCD |
신호규격 |
NTSC 흑백 |
화소 |
- 800(H)×500(V) : 최대 - 580(H)×350(V) : 최소 |
해상도 |
수평 해상도 570TV 본 |
영상출력레벨 |
1.0Vp-p (75Ω, Composite) |
S/N비 |
50dB 이상 |
렌즈 마운트 |
C/CS 마운트 |
동작온도 |
-10 ~ +50℃ |
감시영역 안에서 사람의 전신이 영상에 포함되도록 감시카메라(10)가 설치되어야 하며, 예컨대 초당 15프레임의 영상을 640*480 해상도를 가지는 RGB칼라의 영상을 촬영할 수 있는 감시카메라(10)가 적용될 수 있다.
상기 시스템 제어기(20)는, 본 발명 시스템에 있어서의 핵심적인 구성요소로서, 상기 감시카메라(10)로부터 전송되는 연속적인 영상데이터를 저장하여, 이 영상데이터로부터 신경망을 이용한 동작분석에 의해 응급상황을 분석하도록 되어 있다.
즉, 상기 시스템 제어기(20)는, 저장된 영상데이터의 화면 프레임을, 객체가 포함되지 않은 상태로 모델링된 배경화면에 대하여 감산하는 배경감산을 통해, 배경화면에 추가된 움직임이 있는 객체영역을 분리하고 점진적으로 갱신함으로써, 정의된 동작 특성과 객체영역과의 비교를 통한 동작분석에 의하여 응급상황을 분석하도록 되어 있다.
상기 시스템 제어기(20)로는, 표 2에 나타낸 규격의 것이 적용될 수 있다.
메인 프로세서 |
32비트 이상 |
롬 |
512KB 이상(프로그램 저장용) |
램 |
512KB 이상(파라미터, 데이터 테이블, 버퍼용) 배터리 백업 기능 |
리얼 타임 클록 |
1/100초, 초, 분, 시간, 요일, 일, 월 및 계산 기능 내장 |
배터리 백업 기능 내장 |
* 커뮤니케이션 |
- 포트수 |
2포트(메인티넌스 : 1포트, 중앙시스템과의 통신 : 1포트) |
- 통신방식 |
동기 또는 비동기 |
- 통신속도 |
9,600bps 이상 |
- 인터페이스 |
RS-232C 또는 RS-422 |
* 동작온도 |
-34℃ ~ +73℃ |
상기 시스템 제어기(20)는, 예컨대, 초당 1장의 프레임을 메모리에 저장할 수 있고, 10장의 저장된 프레임을 사용하여 배경화면의 갱신에 사용될 수 있다. 동작분석 알고리즘은 초당 3장의 영상에 대해서 처리를 하며, 결과를 분석하고, 응급상황이 발생했을 때, 저장된 화면, 즉 응급상황 분석결과와 현재 영상데이터가 모니터(50)에 전송하여 표시하게 된다. 이 모니터(50)에 나타나는 화면을 통해 현장의 응급상황을 확인할 수 있고, 그 확인 결과에 따라 응급상황을 신속하게 처리할 수 있다.
예컨대, 3장의 영상을 분석하여 결과를 출력하고, 이 중 1장의 화면은 배경화면의 갱신을 위해 프레임 메모리에 저장할 수 있다. 프레임 메모리는 링버퍼를 구성하여 FIFO 형태를 구현함으로써, 최근 10초 동의 영상을 1초 간격으로 저장하도록 이루어질 수 있다.
한편, 본 발명에 따른 원격 응급상황 모니터링 시스템은, 도 2에 도시된 바와 같이 구성될 수 있는데, 감시카메라(10)와, 상기 감시카메라(10)에 의하여 촬영된 영상데이터를 수집하고, 이것을 통해 응급상황 분석하여 그 결과와 현재 영상데이터를 전송하는 시스템 제어기(20)와, 상기 시스템 제어기(20)로부터 현장측 통신장비(31), 통신선로(32) 및 센터측 통신장비(33)로 구성된 원격통신시스템(30)을 통해 데이터를 전송받아 종합하는 영상수집서버(40)와, 그리고 상기 영상수집서버(40)에 의해 분석된 응급상황 분석결과와 현재의 영상데이터를 표시하는 모니터(50)를 포함하여 이루어질 수 있다.
상기 통신선로(32)로 예컨대, ADSL, 전용회선, 임대망, 무선망 등이 이용될 수 있다.
즉, 이 시스템은, 전술한 예에서 원격통신시스템(30)과 영상수집서버(40)가 추가된 것으로서, 예컨대 의료센터의 영상수집서버(40)와 통신시스템과 연계하여 많은 환자들의 응급상황을 효과적으로 감시하는데 유용하다.
다음에, 상기한 바와 같이 구성된 본 발명에 따른 원격 응급상황 모니터링 시스템에 의하여 응급상황을 모니터링 하는 방법에 대하여 설명한다.
도 1 및 도 3에 도시된 바와 같이, 감시카메라(10)에 의하여 촬영된 영상은 아날로그 신호 형태로 시스템 제어기(20)로 전송된다(S10).
상기 감시카메라(10)는 원하는 활동 공간에서 가능하면 객체의 전신 모습이 포함되도록 설치되어야 한다. 또한, 기절이나 기타 응급상황에 의해 발생하는 비정상 동작의 검출을 목적으로 하므로, 화면분석이 행해지는 공간은 서 있거나 앉아 있는 등 일반적인 작업공간이나 활동영역으로 제한된다. 이는 누워있거나 수면상태의 경우 현실적으로 화면만을 통해 객체의 응급상황을 구분할 수 없고, 부가적인 맥박이나 혈압 등의 측정을 통해서만 객체의 응급상황을 구분할 수 있다는 점을 고려한 것이다.
상기 시스템 제어기(20)는 연속적으로 입력되는 아날로그 신호를 디지털 신호로 변환하여 저장한다(S20).
상기 시스템 제어기(20)는 입력되는 영상데이터를 분석하여 응급상황 여부를 분석하게 되는데, 이 분석 기법으로, 예컨대 연속된 영상신호에서 움직임이 있는 객체의 분리를 위해 연속된 두 프레임간의 차를 구하여 움직임이 있는 부분만을 검출하는 방법과, 저장된 배경화면과 입력화면의 비교를 통해 객체 부분을 분리하는 방법이 고려될 수 있다.
전자의 경우, 움직임이 큰 부분에서만 객체(즉, 환자)의 동작 부분을 분리할 수 있기 때문에, 객체가 정지해 있는 경우는 분리해 낼 수 없고, 조명의 변화나 잡음의 영향을 많이 받는다. 그러므로, 본 발명에서는, 정확한 객체의 분리를 위해 후자의 방법과 같이 배경화면(배경모델)과 현재의 화면을 감산함으로써, 배경화면에 추가된 객체영역을 분리해 내는 배경감산에 의해 동작을 분석하여 응급상황 결과를 도출해내는 방법이 적용된다(S30).
또한, 조명의 변화나 시간의 흐름에 따른 점진적인 배경화면의 변화를 반영하기 위하여 배경화면을 갱신해 나가며(S40), 이러한 과정을 통해 객체영역을 분리하고(S50), 이것을 통해 신경망 동작분석 기법을 적용하여 객체의 동작을 분석한다(S60).
도 4에는 배경감산에 의해 객체의 동작을 분석하여 객체영역을 분리하는 일련의 과정이 도시되어 있다.
즉, 현재 화면과 배경화면을 비교하고, 형태 연산자(Morphological Operator)를 통해 객체영역을 추정하여 객체를 분리하며, 이러한 과정에서 배경화면을 갱신하여 새로운 현재 화면과 비교한다.
이러한 과정을 좀 더 구체적으로 설명하면, 영상데이터를 통한 동작분석은 여러 가지 방법에 의해 수행될 수 있는데, 이러한 동작분석방법은, 측정하려는 대상과 응용분야에 따라 인간의 신체를 팔과, 다리, 머리 등과 같이 여러 기능적인 부분으로 분해하여 각 부분의 연결 상태를 분석하는 신체구조분석(Body Structure Analysis), 신체의 분리없이 인간의 움직임을 추적하는 움직임 추적(Motion Tracking), 연속적인 동영상으로부터 인간의 활동 상태를 추정하는 움직임 인식(Human Activity Recognition) 등으로 구분할 수 있다.
상기 신체구조분석은, 인간의 신체 구조를 여러 가지 형태로 모델링하고, 입력 영상과의 비교를 통해 해당 신체 부분의 동작 상태를 분석하는 방법이다. 상기 움직임 추적은, 신체의 각 부분의 움직임보다는 몸 전체의 움직임을 추적하기 위한 방법으로, 객체의 위치나, 속도, 모양, 색상의 변화와 같이 객체와 관련된 여러 정보의 변화를 분석하기 위한 방법이다.
또한, 상기 움직임 인식은, 각 신체 부분의 연속적인 움직임이나 전체적인 움직임의 특징을 분석하여, 이러한 움직임이 어떠한 동작에 의해 발생했는지를 추정하고 인식하는 방법이다.
본 발명에서는 이러한 동작분석 기법중에서 움직임 추적 기법이 적용될 수 있는데, 신체의 각 부분을 분리하여 다양한 움직임을 분석하는 대신, 세 가지의 동작상태 즉, 서있는 상태, 쓰러진 상태, 앉아있는 상태만을 구분하도록 한다. 이러한 동작 상태를 구분하기 위해서, 감시카메라(10)로부터 전송되는 연속적인 영상데이터를 시스템 제어기(20)에서 프레임별로 저장한다.
시스템 제어기(20)는, 배경화면과 현재의 입력화면을 배경감산한다(S30).
이 배경감산법은 배경화면과 현재 입력된 화면의 차이를 구하여, 그 차이값이 임계치 이상일 때 객체영역으로 판단하는 기법을 사용하는 것으로서, 목표로 하는 객체나 환경에 대한 사전 지식이 없는 상황에서 고정된 감시카메라(10)를 사용한 움직임 검출에 가장 널리 사용되는 방법이다. 즉, 연속된 장면에서 움직이는 객체는, 현재의 입력 프레임과 객체가 포함되지 않은 배경화면(배경모델)의 차를 구함으로써 검출될 수 있다.
그런데, 배경화면도 시간이 지남에 따라 밝기나 그림자의 위치 등이 변하게 되므로, 이러한 배경화면의 변화를 반영하기 위해, 입력된 영상으로부터 배경영역을 추정하고 배경화면을 갱신하는 과정을 거치게 된다(S40).
다음에, 객체의 분리를 위해, 입력 영상데이터의 에지(Edge)를 강조하고, 형태 연산자를 통해 객체 부분만을 분리해낸다(S50).
배경감산을 이용한 객체 분리는 화소단위의 갱신과정을 포함하는데, 입력된 영상으로부터 각 화소가 배경에 포함되는지, 혹은 움직이는 객체의 일부인지를 판단하여, 배경모델의 갱신을 하거나, 객체영역으로 판별한다. 연속된 프레임에서 움직이는 객체는 현재의 프레임과 배경모델의 차를 구함으로써 검출될 수 있다.
배경감산에 의한 배경차 영상은 임계치와 비교하여 이치화(二値化, Binarization)되고, 객체의 복장이나 색상의 영향을 줄이기 위해 이치화된 영상을 이용하여 객체영역을 분리한다. 그러나, 이치화된 결과는 감시카메라(10)의 조그마한 환경 변화에도 민감하게 반응하므로, 객체영역의 인식시 노이즈(Noise)가 많이 생기게 된다. 이를 해결하기 위하여, 형태 연산자인 클로징(Closing) 함수를 사용하여 끊어진 화소들을 연결하고, 외곽 부분의 화소에 대해 사슬탐색(Chain Search) 알고리즘을 사용하여 정해진 크기 이하의 영역을 삭제하며, 삭제되고 남은 영역에 화소값을 채워 객체영역을 설정한다.
도 5는 상기한 바와 같은 배경과정을 통해 객체를 분리하는 과정을 나타내는 사진이 도시되어 있다.
다음에, 상기한 바와 같이 분리된 객체영역으로부터 동작을 구분해 낼 수 있도록 특징 벡터를 생성한 후, 생성된 특징 벡터를 이용하여 동작을 분석하기 위해 신경망을 사용한다(S60).
즉, 대표적인 동작의 특징 벡터를 생성한 후, 이를 바탕으로 구성된 신경망을 학습시킨다. 학습된 신경망의 가중치를 이용해서 임의의 입력에 대한 특징 벡터로부터 결과를 구해내고, 이로 부터 동작을 구분해 냄으로써, 응급상황 동작분석을 수행할 수 있다.
이를 위하여, 세 가지의 기본적인 동작 상태를 정의하고, 이를 분리하기 위해 객체영역의 화소를 수평과 수직으로 투영(Projection)하여 화소의 배치상태를 정의한다. 수직 수평 투영에 입력화면의 각 화소를 사용하면, 객체의 복장이나 색상에 영향을 많이 받으므로, 객체영역과 배경영역을 분리하여 이치화시킨 후, 객체영역에 포함되는 화소의 수 만을 계수하여 투영한다. 이 경우, 사람의 머리나 팔, 다리 등을 정확히 구분할 수 없으나, 팔, 다리가 겹쳐지거나 팔, 다리를 구부리는 등 대략적인 정보를 알 수 있으므로, 투영된 객체의 화소수를 특징 벡터로 사용한다. 또한, 객체영역의 세로 폭과 가로 폭의 비율을 계산하여 특징 벡터로 사용한다.
도 6에는 추출된 객체를 수평투영 및 수직투영시킨 사진이 도시되어 있다.
이 경우에, 객체의 크기나 영역에 따라 화소의 개수가 달라지므로, 정규화(Normalization)를 통해 크기에 상관없이 모양에만 영향을 받고, 특징 벡터의 개수가 일정하도록 해주어야 한다. 이를 위해서, 수평, 수직으로 투영된 값을 일정한 크기의 벡터로 스케일하게 된다. 예컨대, 수평, 수직 공통적으로 16개의 벡터로 정규화하여 처리할 수 있으며, 이 때 실제 이치화된 화소 라인번호가 정규화된 특징 벡터의 위치와 일치할 수 없으므로, 쌍선성 보간법(Bilinear Interpolation)에 의해 16개의 특징 벡터로 정규화한다. 특징 벡터의 각 요소는 0에서 1 사이의 값을 가지도록 하기 위해, 계수된 화소수를 전체 화소의 개수로 나누어 주어야 한다.
이러한 과정을 통하여 얻은 결과를 이용하여 특징 벡터로 구성된 신경망을 통해 동작을 분석하기 위하여, 응급상황을 인지한다는 목적을 감안하여, 분석을 통한 행동 양식을 제한하게 되는데, 본 발명에서는 동작상태를 서있는 상태인 정상동작상태, 기절이나 기타 응급상태로 인한 이상동작상태, 의자에 앉아있는 준정지상태로 구분한다. 이러한 동작상태를 구분하기 위하여, 전술한 특징 벡터는 수평방향의 투영벡터, 수직방향의 투영벡터, 객체 영역의 세로/가로 비율 등을 사용한 것이다.
본 발명에 따르면, 다층 퍼셉트론(Mutilayer Perception-MLP)을 사용하여 표준 동작에 대한 특징 벡터를 정의하여 구성된 신경망을 학습시킬 수 있는데, 상기 다층 퍼셉트론의 입력층은 10개의 노드(Node)로, 은익층은 10개의 노드로, 그리고 출력층은 3개의 노드로 각각 구성될 수 있고, 출력의 세 노드에 정상동작상태, 이상동작상태 및 준정지상태를 할당하여, 가장 유사한 동작이 입력되면, 해당 노드의 출출력이 1에 가까운 출력이 나오도록 설정될 수 있다.
신경망의 학습을 위하여, 대표적인 동작패턴을 정의하고, 이에 대한 출력결과르 설정하여 학습시킨다. 동작의 종류별로 입력패턴을 추출한 후 신경망의 입력으로 사용되고, 대응하는 출력을 지정하여 역전파(Back-Propagation) 알고리즘에 의해 노드 사이의 연결강도를 나타내는 가중치를 갱신한다. 전체 입력패턴에 대한 신경망의 출력 결과와 원하는 출력 결과 사이의 오차를 계산하여, 임계치 이하가 될 때까지 학습을 반복하고, 학습이 완료되면 레이어별 가중치를 저장한다. 학습과정에서 얻어진 가중치를 이용하여, 다층 퍼셉트론의 구조를 구현하고, 임의의 특징 벡터가 입력되면, 이를 입력으로 하여 신경망의 출력값을 계산한다. 출력값의 분포로부터 어떤 종류의 표준패턴에 가장 가까운지 결정함으로써, 동작을 분류한다.
본 발명에 따르면, 크기와 상태를 달리하는 표준패턴을 정의하기 위하여, 예컨대 도 7a에 도시된 바와 같이 정상동작상태에 해당하는 입력패턴 10개, 도 7b에 도시된 바와 같이 이상동작상태에 해당하는 입력패턴 10개, 도 7c에 도시된 바와 같이 준정지상태에 해당하는 입력패턴 10개 등을 선정하고, 이로부터 특징 벡터를 구하여 신경망이 학습될 수 있다.
상기한 바와 같이, 검출된 객체영역으로부터 사람의 동작을 나타낼 수 있는 특징 벡터로 변환하고, 이를 이용해 신경망을 구성하여 동작을 분석한 다음(S60), 분석된 동작 분석결과로 응급상황 유무를 판단한 결과(S70), 응급상황에 대한 동작 분석결과가 인지되면, 이를 조치할 수 있는 담당자나 의료센터에 알려준다.
도 1의 시스템에서는 응급상황 분석 결과와 현재의 영상데이터를 모니터(50)에 전송하여 표시하게 되고, 도 2의 시스템에서는 통신시스템을 통해 응급상황 분석 결과와 현재의 영상데이터를 영상수집서버(40)에 전송하고, 상기 영상수집서버(40)에서 수신된 데이터를 종합하여, 모니터(50)에 표시하게 된다(S80).
따라서, 모니터(50)에 나타나는 화면을 통해 응급상황을 검증하여, 신속한 조치를 취할 수 있다.