KR20090042503A - 사용자의 행동인식 및 위치추적 시스템 - Google Patents

사용자의 행동인식 및 위치추적 시스템 Download PDF

Info

Publication number
KR20090042503A
KR20090042503A KR1020070108292A KR20070108292A KR20090042503A KR 20090042503 A KR20090042503 A KR 20090042503A KR 1020070108292 A KR1020070108292 A KR 1020070108292A KR 20070108292 A KR20070108292 A KR 20070108292A KR 20090042503 A KR20090042503 A KR 20090042503A
Authority
KR
South Korea
Prior art keywords
user
location
situation
behavior
image
Prior art date
Application number
KR1020070108292A
Other languages
English (en)
Other versions
KR100944934B1 (ko
Inventor
남윤영
조용원
김진형
조위덕
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020070108292A priority Critical patent/KR100944934B1/ko
Publication of KR20090042503A publication Critical patent/KR20090042503A/ko
Application granted granted Critical
Publication of KR100944934B1 publication Critical patent/KR100944934B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 스마트 펜던트의 카메라 영상만을 이용하여 사용자의 행동을 인식하고 GPS를 통해 위치를 파악하여 사용자에게 안전을 제공해 줄 수 있는 사람의 행동인식 및 위치추적 시스템에 관한 것으로, 영상을 이용하여 사용자의 행동을 인식 및 분석한 상황정보, 영상 및 GPS 위치정보를 전송하는 스마트 펜던트; 상기 스마트 펜던트(200)로부터 수신된 신호를 저장 및 전송하는 상황인지서버 및 상기 상황인지서버(300)로부터 수신된 신호를 디스플레이하여 상기 스마트 펜던트 사용자의 행동 및 위치를 파악하는 모니터링 장치(350)를 포함하여, 사용자가 스마트 펜던트를 몸에 착용하여 사용자의 행동상태와 위치를 외부 장치에 실시간으로 전달함으로써, 유아, 장애우 및 노약자들을 위한 안전장치로서 활용이 가능할 뿐만 아니라, 유아 및 치매노인들의 범죄 및 실종을 사전에 예방할 수 있다.

Description

사용자의 행동인식 및 위치추적 시스템{SYSTEM FOR HUMAN ACTIVITY RECOGNITION AND LOCATION TRACKING}
본 발명은 사람의 행동인식 및 위치추적 시스템에 관한 것으로, 더욱 상세하게는 스마트 펜던트의 카메라 영상만을 이용하여 사용자의 행동을 인식하고 GPS를 통해 위치를 파악하여 사용자에게 안전을 제공해 줄 수 있는 사람의 행동인식 및 위치추적 시스템에 관한 것이다.
최근, 유아, 장애우 및 노약자들의 안전을 위한 서비스가 중요한 분야로 대두되고 있으며, 사람의 안전을 제공해 주기 위한 새로운 웨어러블 컴퓨팅 시스템이 필요하다.
이러한 안전을 위한 서비스를 제공하기 위해서는 사람의 행동 인식 및 위치 파악이 선행되어야 한다.
종래에는 각종 센서를 이용하여 자동적으로 사람의 행동 및 위치를 인식하는 방법이 있다.
예를 들면, 종래의 센서를 이용한 사용자 행동 및 위치 측정장치가 대한민국 공개특허 제10-2006-0018128호에 개시되어 있다.
즉, 도 1에 나타낸 바와 같이, 종래의 사용자 위치 측정장치는 보행자의 진행방향을 검출하기 위한 3축의 지자기 방위센서(10)와, 외란으로부터 방위각을 보정하기 위한 자이로센서(20)와, 이동속도와 운동거리를 검출하기 위한 3축의 가속도센서(30)와, 출발점으로부터의 이동방위와 운동거리 정보로부터의 상대 위치를 추정한 다음 이를 연산하여 제어하도록 신호를 처리하는 연산제어부(40)와, 외부 프로세서와의 데이터 통신을 위해 시리얼 포트가 구비되어 있는 통신단말부(50)와, 이동 궤적 및 위치를 디스플레이시키고 오차 및 측정결과를 사용자가 용이하게 확인할 수 있도록 표시하는 모니터 표시부(60)와, 사용자가 필요한 정보를 입력하거나 작동기능을 선택할 수 있도록 다수개의 스위치와 시리얼 포트로 이루어진 입력수단부(70)와, 상기의 구성부들에 대한 안정적이고 원활한 구동을 위해 직류전압과 같은 전원을 공급하는 전원부(80)를 포함하여 이루어진다.
그러나, 상기와 같은 종래의 복수개의 센서를 이용한 사용자 행동 및 위치 인식 장치는, 전력 지원 문제와 복수개의 센서를 복합적으로 구비하여야 하는 문제점이 있다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 그 목적은 각종 센서를 사용하지 않고 카메라의 영상만을 이용하여 사용자의 행동을 인식하고 GPS를 이용하여 사용자의 위치를 파악할 수 있는 사용자의 행동인식 및 위치추적 시스 템을 제공하는 것이다.
즉, 상기의 목적을 달성하기 위한 본 발명에 따른 사용자의 행동인식 및 위치추적 시스템은, 영상을 이용하여 사용자의 행동을 인식 및 분석한 상황정보, 영상 및 GPS 위치정보를 전송하는 스마트 펜던트(200); 상기 스마트 펜던트(200)로부터 수신된 신호를 저장 및 전송하는 상황인지서버(300); 및 상기 상황인지서버(300)로부터 수신된 신호를 디스플레이하여 상기 스마트 펜던트 사용자의 행동 및 위치를 파악하는 모니터링 장치(350)를 포함하되, 상기 스마트 팬던트(200)는, 외부로부터 입력되는 영상을 이용하여 사용자의 행동을 인식 및 분석하여 사용자의 현재 상황을 파악하는 행동인식 분석부(210)와, 상기 행동인식 분석부(210)의 내부에 설치된 카메라를 통해 입력되는 영상을 캡쳐하는 자동 캡쳐부(220)와, 사용자의 움직이는 상황을 동영상으로 기록하는 녹화부(230)와, 사용자의 위치를 추적할 수 있도록 GPS로부터 현재 시간, 경도, 위도로 구성된 스트링 신호 값을 수신하는 위치 분석부(250)를 포함한다.
본 발명에 따른 사용자의 행동인식 및 위치추적 시스템에 따르면, 사용자가 스마트 펜던트를 몸에 착용하여 사용자의 행동상태와 위치를 외부 장치에 실시간으로 전달함으로써, 유아, 장애우 및 노약자들을 위한 안전장치로서 활용이 가능할 뿐만 아니라, 유아 및 치매노인들의 범죄 및 실종을 사전에 예방할 수 있다.
이하, 첨부한 도면을 참조하여 본 발명에 따른 사용자 행동인식 및 위치인식 시스템을 상세하게 설명하기로 한다.
도 2는 본 발명의 일실시예에 따른 사용자의 행동인식 및 위치추적 시스템을 나타내는 도면이고, 도 3은 본 발명에 적용되는 스마트 펜던트를 나타내는 도면이다.
또한, 도 4는 본 발명의 일실시예에 따른 사용자의 현재 행동을 인식한 화면을 일정한 간격으로 캡쳐한 이미지 영상을 나타낸 도면이고, 도 5는 본 발명에 적용되는 스마트 펜던트를 착용하고 특정 지역을 이동한 모습을 나타내는 도면이며, 도 6은 본 발명에 적용되는 스마트 펜던트를 사용자가 착용한 모습을 나타내는 도면이다.
도 2에 나타낸 바와 같이, 본 발명의 일실시예에 따른 사용자 행동인식 및 위치인식 시스템은, 스마트 펜던트(200), 상황인지서버(300), 보호자 단말기인 모니터링 장치(350)를 포함한다.
이때, 도 3에 도시된 스마트 펜던트(200)는 영상을 이용하여 사용자의 행동을 인식 및 분석한 상황정보와 GPS 위치정보를 상황인지서버(300)에 전송하는 장치로서, 행동인식 분석부(210), 자동 캡쳐부(220), 녹화부(230) 및 위치 분석부(240)로 구성된다.
구체적으로, 행동인식 분석부(210)는 내부에 설치된 카메라에 입력되는 영상을 이용하여, 사용자의 네 가지 동작, 즉 '걷기(Walk)', '멈춤(Stop)', '좌회전(Left Turn)', '우회전(Right Turn)을 인식 및 분석하여 사용자의 현재 상황을 일정 시간마다 상황인지서버(300)에 전송한다.
이때, 행동인식 분석부(210)가 사용자의 현재 상황에 대한 행동을 분석하는 과정은 다음과 같다.
첫째, 사용자의 'Walk'와 'Stop'을 인식하기 위해 아래의 수학식 1을 사용하여 카메라 영상간의 차이를 분석한다.
이때, 'Walk'일 때와 'Stop'일 때에는, 카메라를 통해 입력되는 영상에 분포된 0~255 사이의 픽셀 값들 중에서 '0'인 픽셀을 이용하며, 이 픽셀을 이용하여 현재 프레임과 이전 프레임간에 픽셀 값의 차이를 구한다.
ΔK = Kt - Kt -1
여기서, K는 픽셀값의 평균값이다.
둘째, 다양한 조명 변화와 환경 변화에 적응할 수 있도록, 아래의 식 2를 적용하여 임계값을 구한다.
이때, 정확한 인식을 위해서는 현재의 영상과 이전의 영상을 필터링해서 노이즈를 제거한다.
Figure 112007076909158-PAT00001
여기서 Dk는 임계값에 따른 인식결과이다.
즉, 연속된 두 프레임간에 분포된 특정 픽셀 값의 평균값의 차이를 구한 후, 변화된 값이 임계값(Threshold)보다 크면 'Walk', 임계값보다 작으면 'Stop'으로 인식한다.
셋째, 'Left Turn' 및 'Right turn'을 분석할 수 있도록 연속된 2차원 영상에서 패턴의 움직임 정보를 추출하기 위해, 아래의 수학식 3과 같은 옵티컬 플로우 방식을 사용한다.
Figure 112007076909158-PAT00002
여기서,
Figure 112007076909158-PAT00003
는 각각 x축, y축, 시간축 방향의 밝기 변화율을 나타낸다.
이때, 옵티컬 플로우 방식은, 이동한 점은 원래 위치에서 멀리 움직이지 않았다는 것과 점이 이동한 후에도 색상은 변하지 않았다는 것을 가정한다.
즉, 카메라를 통해 입력된 영상이 오른쪽 또는 왼쪽으로 돌 때 벡터들의 움직임이 달라지며, 옵티컬 플로우 방식을 이용해서 움직임 벡터를 추출한다.
넷째, 현재 프레임의 특징점 P(x, y)t와, 이전 프레임의 특징점 Q(x, y)t-1을 찾아, 가우시안 피라미드(Gaussian Pyramid)를 통해 필요한 특징점만 추출하여 움직임 좌표값을 처리한다.
이때, 움직임 좌표값은 V(u, v)t이며, 해당 픽셀의 x(수평좌표), y(수직좌 표)에 대한 시간적인 변위(u, v)는 아래의 수학식 4와 같다.
u = (xp - xq), v = (yp - yq)
여기서, u 및 v는 해당 픽셀의 x, y에 대한 시간적인 변위이다.
다섯째, 사용자가 오른쪽으로 돌 때와 왼쪽으로 돌 때에는 벡터의 방향이 서로 다르므로, 벡터의 방향성을 찾기 위해 특징 점들의 각도를 계산한다.
추출된 특징 점간의 각도(θ)는 아래의 수학식 5와 같다.
Figure 112007076909158-PAT00004
특징 점간의 각도(θ) 값을 구한 후 각도의 범위를 두 개의 범위로 구분하여, -90°~ 90°는 왼쪽 방향, 90°~ -90°는 오른쪽 방향으로 정의하고, 각 방향에 대한 벡터들의 집합을 평균화하여 오른쪽과 왼쪽 방향을 구분한다.
또한, 'Walk' 또는 'Stop'일 때, 'Turn'을 잘못 인식할 수 있기 때문에, 정확한 인식을 위해 벡터의 길이를 이용하여 'Turn'을 하는 경우에는 'Walk' 또는 'Stop'인 경우보다 벡터의 길이가 커지므로, 이 벡터의 길이가 커진 값이 특정 임계값 이상일 경우를 'Turn'으로 인식한다.
한편, 자동 캡쳐부(220)는 행동인식 분석부(210)의 내부에 설치된 카메라를 통해 입력되는 영상을 캡쳐한다.
이때, 상기 자동 캡쳐부가 카메라를 통해 입력되는 영상을 캡쳐하는 방식은 다음과 같다.
1. 통상적인 카메라 및 카메라 기능이 내장된 셀룰러 폰의 기능처럼, 사용자가 특정 버튼을 이용하여 현재의 상황을 캡쳐한다. 이 방식은 사용자가 위험한 순간이나 특별한 상황이 발생했을 때 사용할 수 있다.
2. 사용자가 원하는 시간만큼 캡쳐 저장간격을 설정(예를 들어, 10분 내지 15분)한 후, 자동 캡쳐 버튼을 누르면 사용자의 현재 상황을 자동적으로 저장한다.
3. 유아나 장애우 및 노약자 등을 고려하여, 사용자의 움직임이 일정시간(예컨대, 3분 내지 5분) 없을 때에는 위험한 상황이라고 판단하여 영상을 캡쳐한다.
녹화부(230)는 사용자의 움직이는 상황을 기록하기 위해 동영상으로 촬영한다.
위치 분석부(250)는 사용자의 위치를 추적할 수 있도록 GPS(Global Positioning System)로부터 현재 시간, 경도, 위도로 구성된 GPGSV(GPS Satellites in View), GPGSA(GPS DOP and active satellites), GPRMC(Recommended Minimum data), GPGGA(Global Positioning System Fix Data)의 스트링 신호 값을 수신한 후, 상황인지서버(300)로 GPS 패킷을 전송한다.
여기서, 상기 행동인식 분석부(210), 자동 캡쳐부(220), 녹화부(230) 및 위치 분석부(240) 각각에서의 신호는 도시되지 않은 전송부에 의해 무선통신 방식으로 상황인지서버(300)에 전송된다.
한편, 상황인지서버(300)는 상기 복수개의 스마트 펜던트(200)로부터 수신된 신호를 각각 저장하여, 보호자 단말기인 모니터링 장치(350)에 전송하는 장치로서, 행동인식 데이터 저장부(310), 위치 데이터 저장부(320) 및 상황 전송부(330)로 구성된다.
구체적으로, 행동인식 데이터 저장부(310)는 행동인식 분석부(210)로부터 사용자의 현재 상황에 대한 분석 신호를 수신하여 저장한다.
즉, 복수개의 스마트 펜던트의 모델 또는 기종에 따라 각각 수신된 분석 신호를 저장하여, 해당 스마트 펜던트 사용자를 파악할 수 있게 한다.
한편, 위치 데이터 저장부(320)는 스마트 펜던트(100)의 위치 분석부(240)로부터 수신된 GPS 패킷을 저장함과 동시에, 사용자가 어느 위치에 있는지를 경도와 위도를 통해 지도상에 표시하게 한다.
또한, 상황 전송부(330)는 행동인식 데이터 저장부(310)에 저장된 사용자의 행동, 자동 캡쳐부(220)를 통해 캡쳐한 이미지 영상, 녹화부(230)를 통해 녹화한 동영상 데이터 및 위치 데이터 저장부(320)에 저장된 위치 데이터를 외부의 보호자 단말기인 모니터링 장치(350)에 전송한다.
한편, 모니터링 장치(350)는 상기 상황인지서버(300)의 상황 전송부(330)로부터 수신된 신호를 도 4 및 도 5에 나타낸 바와 같이 디스플레이하여, 스마트 펜던트 사용자의 보호자가, 사용자의 행동 및 위치를 파악할 수 있게 한다.
이하, 본 발명의 일실시예에 따른 실험예를 설명한다.
실험을 위해 스마트 펜던트 V1.2 프로토타입과, 인텔 코어 솔로 프로세서 U1500 1.33GHz CPU와 1GB 메모리에 Windows Vista 기반의 UMPC를 이용하였으며, 위치 추적을 위해 블루투스 방식의 GPS 모듈을 사용하였으며, 서버는 인텔 듀얼 코어 프로세서와 Window XP가 설치된 PC를 사용하였다.
또한, 본 발명의 구현에 사용된 개발 언어는 Visual C++와 인텔에서 제공하는 OpenCV 라이브러리를 이용하여 구현하였고 실험은 건물 내부와 와부 공간에서 수행하였다.
먼저, 사용자가 도 6에 도시된 바와 같이 스마트 펜던트(200)를 착용한 후, 건물 내부 공간에서 5분간 캡쳐 및 녹화를 해보았다. 예를 들어, 사용자의 현재 행동을 인식한 화면을 일정한 간격으로 캡쳐한 이미지 영상이 도 4에 나타나 있다.
도 4에 도시된 이미지 영상은 1초에 15프레임으로 캡쳐하였으며 이미지 사이즈는 320*240으로 하였다.
또한, 스마트 펜던트(200)를 착용하고 건물 외부 공간의 특정 지역을 이동한 모습이 도 5와 같이 나타났다. 위치 분석부(240)를 이용하여 사용자가 이동한 경로에 대한 위도와 경도를 분석한 후 사용자의 위치를 구글맵(Google Map)에 표시하였다.
한편, 스마트 펜던트(200)에서 사람의 행동 인식을 확인하기 위해 1시간 동안 10분 간격으로 'Walk', 'Stop', 'Turn'에 대한 행동 인식률을 확인해 보았다. 스마트 펜던트를 이용하여 사용자의 행동을 인식할 때 다양한 외부 조건들(외부 객체 출현, 카메라의 작은 움직임, 조명 등)에 의해 인식률의 차이가 발생할 수 있다.
스마트 펜던트(200)를 몸에 착용한 후 사용자가 여러 동작을 수행하여 행동 인식률을 측정해 본 결과, 아래의 표 1과 같은 결과가 나타났다.
구분 인식률
행동 상황 Walk Stop Turn
걷기 객체 미 출현 80% 20% 3%
객체 출현 85% 15% 10%
앉고 서기 95% 5% 15%
돌기 90% 10% 95%
멈춤 객체 미 출현 10% 90% 1%
객체 출현 45% 55% 5%
앉고 서기 60% 40% 10%
돌기 65% 35% 95%
상기 표 1의 실험결과를 보면, 'Walk'와 'Stop'에 비해서 'Turn'은 다른 여러 가지 상황에서도 95%의 높은 인식률을 보였다. 특히, 'Walk'의 경우에는 어떠한 상황이라도 인식률이 높았다. 또한, 'Stop'은 네 가지 상황중에서 객체가 출현하지 않을 때가 가장 높은 인식률을 보였다.
또한, '멈춤' 행동에서 '객체 출현'이거나 '앉고 서기'를 하는 경우 'Walk'와 'Stop'의 인식률이 높지 않았다.
이상에서는 본 발명의 일실시예에 따라 본 발명을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 변경 및 변형한 것도 본 발명에 속함은 당연하다.
즉, 본 발명의 일실시예에서는 스마트 펜던트를 이용하여 사용자의 행동을 인식하고 위치를 추적하였지만, 카메라 기능이 있는 셀룰라 폰에 스마트 펜던트의 기능을 탑재하여 사용자의 행동을 인식하고 위치를 추적할 수 있음은 물론이다.
도 1은 종래의 사용자 위치 측정장치를 나타낸 도면.
도 2는 본 발명의 일실시예에 따른 사용자의 행동인식 및 위치추적 시스템을 나타내는 도면.
도 3은 본 발명에 적용되는 스마트 펜던트를 나타내는 도면.
도 4는 본 발명의 일실시예에 따른 사용자의 현재 행동을 인식한 화면을 일정한 간격으로 캡쳐한 이미지 영상을 나타낸 도면.
도 5는 본 발명에 적용되는 스마트 펜던트를 착용하고 특정 지역을 이동한 모습을 나타내는 도면.
도 6은 본 발명에 적용되는 스마트 펜던트를 사용자가 착용한 모습을 나타내는 도면.

Claims (5)

  1. 영상을 이용하여 사용자의 행동을 인식 및 분석한 상황정보, 영상 및 GPS 위치정보를 전송하는 스마트 펜던트(200);
    상기 스마트 펜던트(200)로부터 수신된 신호를 저장 및 전송하는 상황인지서버(300); 및
    상기 상황인지서버(300)로부터 수신된 신호를 디스플레이하여 상기 스마트 펜던트 사용자의 행동 및 위치를 파악하는 모니터링 장치(350)를 포함하되,
    상기 스마트 팬던트(200)는,
    외부로부터 입력되는 영상을 이용하여 사용자의 행동을 인식 및 분석하여 사용자의 현재 상황을 파악하는 행동인식 분석부(210)와,
    상기 행동인식 분석부(210)의 내부에 설치된 카메라를 통해 입력되는 영상을 캡쳐하는 자동 캡쳐부(220)와,
    사용자의 움직이는 상황을 동영상으로 기록하는 녹화부(230)와,
    사용자의 위치를 추적할 수 있도록 GPS로부터 현재 시간, 경도, 위도로 구성된 스트링 신호 값을 수신하는 위치 분석부(250)를 포함하는 것을 특징으로 하는 사용자의 행동인식 및 위치추적 시스템.
  2. 제 1항에 있어서,
    상기 상황인지서버(300)는,
    상기 스마트 펜던트(200)로부터 수신된 사용자의 행동 분석 데이터, 이미지 영상 및 동영상 데이터를 저장하는 행동인식 데이터 저장부(310)와,
    상기 위치 분석부(240)의 분석을 통해 상기 스마트 펜던트(100)로부터 수신된 위치 데이터 패킷을 저장하고, 사용자가 어느 위치에 있는지를 경도와 위도를 통해 지도상에 표시하게 하는 위치 데이터 저장부(320)와,
    상기 행동인식 데이터 저장부(310)에 저장된 사용자의 행동 분석 데이터, 이미지 영상, 동영상 데이터 및 위치 데이터 저장부(320)에 저장된 위치 데이터를 보호자 단말기인 상기 모니터링 장치(350)에 전송하는 상황 전송부(330)를 포함하는 것을 특징으로 하는 사용자의 행동인식 및 위치추적 시스템.
  3. 제 1항에 있어서,
    상기 행동인식 분석부(210)는 내부에 설치된 카메라를 통해 입력되는 영상을 이용하여 사용자의 '걷기(Walk)', '멈춤(Stop)', '좌회전(Left Turn)' 및 '우회전(Right Turn)에 따른 영상을 인식 및 분석하는 것을 특징으로 하는 사용자의 행동인식 및 위치추적 시스템.
  4. 제 3항에 있어서,
    상기 행동인식 분석부(210)는 사용자의 '걷기(Walk)' 및 '멈춤(Stop)'은 현재 프레임과 이전 프레임간에 픽셀 값의 차이를 이용하여 분석하고, '좌회전(Left Turn)' 및 '우회전(Right Turn)은 좌측 및 우측 방향에 따라 추출된 특징 점들의 각도(θ)를 계산하여, 특징 점들의 각도가 -90°~ 90°는 좌회전(Left Turn), 90°~ -90°는 우회전(Right Turn)으로 분석하는 것을 특징으로 하는 사용자의 행동인식 및 위치추적 시스템.
  5. 제 1항에 있어서,
    자동 캡쳐부(220)는 사용자가 위험한 순간이나 특별한 상황이 발생했을 때 특정 버튼을 이용하여 현재의 상황을 캡쳐하고, 사용자가 원하는 시간만큼 캡쳐 저장간격을 설정하여 자동 캡쳐 버튼을 누르면 사용자의 현재 상황을 자동적으로 저장하며, 사용자의 움직임이 일정시간 없을 때에는 위험한 상황이라고 판단하여 영상을 캡쳐하는 방식 중 어느 하나를 통해 캡쳐하는 것을 특징으로 하는 사용자의 행동인식 및 위치추적 시스템.
KR1020070108292A 2007-10-26 2007-10-26 사용자의 행동인식 및 위치추적 시스템 KR100944934B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070108292A KR100944934B1 (ko) 2007-10-26 2007-10-26 사용자의 행동인식 및 위치추적 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070108292A KR100944934B1 (ko) 2007-10-26 2007-10-26 사용자의 행동인식 및 위치추적 시스템

Publications (2)

Publication Number Publication Date
KR20090042503A true KR20090042503A (ko) 2009-04-30
KR100944934B1 KR100944934B1 (ko) 2010-03-02

Family

ID=40765228

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070108292A KR100944934B1 (ko) 2007-10-26 2007-10-26 사용자의 행동인식 및 위치추적 시스템

Country Status (1)

Country Link
KR (1) KR100944934B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101270901B1 (ko) * 2011-07-07 2013-06-07 황광진 유괴 및 범죄방지용 영상촬영장치
KR101383953B1 (ko) * 2012-07-25 2014-04-14 에스케이씨앤씨 주식회사 위치/시간 기반의 자동 신변 보호 방법 및 시스템
KR20140074129A (ko) * 2012-12-07 2014-06-17 삼성전자주식회사 상황 인지 서비스를 제공하기 위한 장소 인식 장치 및 방법
KR101481051B1 (ko) * 2013-09-12 2015-01-16 (주)유즈브레인넷 개인용 블랙박스 장치 및 그의 동작 방법
WO2015099500A1 (ko) * 2013-12-27 2015-07-02 엘지전자 주식회사 차량 사고 녹화 장치 및 그것의 방법
US9860821B2 (en) 2015-01-27 2018-01-02 Electronics And Telecommunications Research Institute Method and apparatus for secure access controlling of terminal
KR102326193B1 (ko) * 2021-02-24 2021-11-15 주식회사 케이엔엑스정보통신 영상 융합형 비상문 통합 안전 관리 시스템

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9303999B2 (en) * 2013-12-30 2016-04-05 Google Technology Holdings LLC Methods and systems for determining estimation of motion of a device
US9277361B2 (en) 2014-02-20 2016-03-01 Google Inc. Methods and systems for cross-validating sensor data acquired using sensors of a mobile device
CN105373774B (zh) * 2015-10-10 2018-12-28 安徽清新互联信息科技有限公司 一种幼师体罚小孩行为的检测方法
KR102288860B1 (ko) * 2021-03-04 2021-08-11 주식회사 스누아이랩 지능형 유아관찰장치 및 그 장치의 구동방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100405636B1 (ko) * 2000-05-23 2003-11-15 이성환 시각 장애인용 착용 가능 보행 안내 장치 및 방법
KR100729104B1 (ko) 2006-07-25 2007-06-14 주식회사 엘지씨엔에스 휴대용 무선데이터 송수신기를 이용한 가족지킴서비스시스템 및 그 서비스방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101270901B1 (ko) * 2011-07-07 2013-06-07 황광진 유괴 및 범죄방지용 영상촬영장치
KR101383953B1 (ko) * 2012-07-25 2014-04-14 에스케이씨앤씨 주식회사 위치/시간 기반의 자동 신변 보호 방법 및 시스템
KR20140074129A (ko) * 2012-12-07 2014-06-17 삼성전자주식회사 상황 인지 서비스를 제공하기 위한 장소 인식 장치 및 방법
KR101481051B1 (ko) * 2013-09-12 2015-01-16 (주)유즈브레인넷 개인용 블랙박스 장치 및 그의 동작 방법
WO2015099500A1 (ko) * 2013-12-27 2015-07-02 엘지전자 주식회사 차량 사고 녹화 장치 및 그것의 방법
US9860821B2 (en) 2015-01-27 2018-01-02 Electronics And Telecommunications Research Institute Method and apparatus for secure access controlling of terminal
KR102326193B1 (ko) * 2021-02-24 2021-11-15 주식회사 케이엔엑스정보통신 영상 융합형 비상문 통합 안전 관리 시스템

Also Published As

Publication number Publication date
KR100944934B1 (ko) 2010-03-02

Similar Documents

Publication Publication Date Title
KR100944934B1 (ko) 사용자의 행동인식 및 위치추적 시스템
US9303999B2 (en) Methods and systems for determining estimation of motion of a device
ATE365941T1 (de) Mobiles gerät mit optischer on-screen navigation
US11365974B2 (en) Navigation system
US20100261984A1 (en) Physiology sensing apparatus with navigation capability
JPWO2018025531A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2004038659A3 (en) Method and system for performing surveillance
KR101104591B1 (ko) 휴대폰의 내장된 센서를 이용한 위치 추적 장치 및 그 추적 방법
Burion Human detection for robotic urban search and rescue
He et al. Wearable ego-motion tracking for blind navigation in indoor environments
FR2937423A1 (fr) Dispositif de determination d'une trajectoire formee de positions successives sensiblement coplanaires d'un accelerometre triaxial lie de maniere solidaire a un element mobile
Jansi et al. Detection of fall for the elderly in an indoor environment using a tri-axial accelerometer and Kinect depth data
Aubeck et al. Camera based step detection on mobile phones
US20160216118A1 (en) Method and apparatus for misalignment between device and pedestrian using vision
Cardile et al. A vision-based system for elderly patients monitoring
Cahyadi et al. Infrared indoor positioning using invisible beacon
US20150185855A1 (en) Method and apparatus to continuously maintain users eyes focused on an electronic display when either one or both are moving
EP3767581A1 (en) Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, computer program, and storage medium
Moder et al. Indoor positioning for visually impaired people based on smartphones
JP6822571B2 (ja) 端末装置、危険予測方法、プログラム
CN114999222B (zh) 异常举动通知装置、通知系统、通知方法以及记录介质
US20150177832A1 (en) Electronic Device, Display Control Method, and Recording Medium
KR20120059752A (ko) 감정을 인식하는 시각장애인용 안내 장치, 안내 시스템, 그를 이용한 안내방법, 및 그 기록매체
Chirakkal et al. Exploring smartphone-based indoor navigation: A QR code assistance-based approach
KR20150006582A (ko) 열화상 카메라에서 촬영된 개체가 사람인지 여부를 판단하는 방법 및 이를 이용한 열화상 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130111

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140103

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20141226

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20151224

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170102

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190107

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 11