KR101228336B1 - 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법 및 이를 위한 모바일 단말기 - Google Patents

모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법 및 이를 위한 모바일 단말기 Download PDF

Info

Publication number
KR101228336B1
KR101228336B1 KR1020110030160A KR20110030160A KR101228336B1 KR 101228336 B1 KR101228336 B1 KR 101228336B1 KR 1020110030160 A KR1020110030160 A KR 1020110030160A KR 20110030160 A KR20110030160 A KR 20110030160A KR 101228336 B1 KR101228336 B1 KR 101228336B1
Authority
KR
South Korea
Prior art keywords
information
data
behavior
user
location
Prior art date
Application number
KR1020110030160A
Other languages
English (en)
Other versions
KR20120111592A (ko
Inventor
최호진
김승석
오교중
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020110030160A priority Critical patent/KR101228336B1/ko
Publication of KR20120111592A publication Critical patent/KR20120111592A/ko
Application granted granted Critical
Publication of KR101228336B1 publication Critical patent/KR101228336B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephone Function (AREA)

Abstract

본 발명의 사용자 행동패턴을 이용하여 개인화 서비스를 제공할 수 있는 모바일 단말기는 모바일 단말기의 위치정보를 수집하여 위치 데이터를 생성하는 위치 데이터 생성부; 상기 모바일 단말기의 움직임 정보를 수집하고 상기 움직임 정보와 기 저장된 제스쳐 정보를 비교하여 행동 데이터를 생성하는 행동 데이터 생성부; 및 상기 행동 데이터에 대응하는 움직임의 발생 시점에 따라 정리된 상기 위치데이터 및 상기 행동 데이터로부터 행동 패턴을 분석하는 행동 패턴 분석부를 포함한다.

Description

모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법 및 이를 위한 모바일 단말기{Personalization Service Providing Method by Using Mobile Terminal User's Activity Pattern and Mobile Terminal therefor}
본 발명은 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법 및 이를 위한 모바일 단말기에 관한 것이다.
종래에 사용자의 의도를 파악해 사용자의 의도에 따른 서비스 제공 방법이 존재했다. 예컨대, 사용자의 움직임을 담은 영상 정보를 분석하여 사용자의 행동 패턴을 인식하거나, 사용자의 뇌파를 분석하여 사용자의 의도를 파악하거나, 계측 장치로 사용자의 위치를 파악하여 사용자의 필요에 따른 서비스를 제공하는 것이다. 하지만, 종래의 사용자 의도에 따른 서비스 제공 방법은 특정 목적에 한정되었을 뿐 아니라 복잡한 장치들의 동반이 요구되어 서비스 제공이 제한적이었다.
최근에, 각종 계측 장치들이 장착된 스마트폰(smart phone)과 같은 모바일 단말기(mobile terminal)의 사용이 늘고 있다. 이러한 모바일 단말기를 통한 사용자의 상황 인지 서비스에 관심이 증폭되고 있다. 하지만, 현재 제공되고 있는 이러한 서비스는 사용자의 의도와 무관하게 제공되는 문제점이 있다.
대표적으로 각종 계측 장치들이 장착된 모바일 단말기를 통해 간접적인 위치 정보를 이용한 위치 기반 서비스가 제공되고 있다. 하지만 이러한 위치 기반 서비스는, 모바일 단말기의 사용자가 실외에 위치하는 경우에는 GPS(global positioning system) 계측 장치 등을 통하여 사용자의 위치를 감지하고 사용자가 실내에 위치하는 경우에는 통신회사의 네트워크 망을 통해서 간접적으로 사용자가 위치하는 건물의 위치를 추정하여 서비스를 제공한다. GPS 계측 장치는 일반적으로 그 오차 범위가 크며 사용자가 실내에 위치하는 경우에도 네트워크 망을 통해서는 간접적인 건물 위치 정보만이 제공되므로, 종래의 위치 기반 시스템으로는 사용자의 위치에 맞는 서비스를 제공하는데 문제가 있었다. 특히, 이러한 문제점은 사용자가 실내에 위치하는 경우에 두드러진다.
또한, 사용자의 위치 정보만을 가지고 사용자의 의도를 감지하는 것으로는 한계가 있다. 따라서, 사용자의 행동을 정확히 인식하여 사용자의 의도에 맞는 서비스를 제공할 필요가 있다.
본 발명은 전술한 종래 기술의 필요성 및 문제점을 해결하기 위해 고안된 것으로서 모바일 단말기 사용자의 시간에 따른 위치 및 행동을 명확히 인식하고 정보화시켜 행동패턴을 분석함으로써 특정 상황에서 사용자의 의도에 따른 개인화 서비스를 제공하는 것을 목적으로 한다. 또한, 이러한 개인화 서비스를 제공할 수 있는 모바일 단말기를 제공하는 것을 목적으로 한다.
본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 본 발명의 기재로부터 당해 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 사용자 행동패턴을 이용하여 개인화 서비스를 제공할 수 있는 모바일 단말기는 모바일 단말기의 위치정보를 수집하여 위치 데이터를 생성하는 위치 데이터 생성부; 상기 모바일 단말기의 움직임 정보를 수집하고 상기 움직임 정보와 기 저장된 제스쳐 정보를 비교하여 행동 데이터를 생성하는 행동 데이터 생성부; 및 상기 행동 데이터에 대응하는 움직임의 발생 시점에 따라 정리된 상기 위치데이터 및 상기 행동 데이터로부터 행동 패턴을 분석하는 행동 패턴 분석부를 포함하고, 상기 행동 데이터 생성부는: 상기 움직임 정보를 수집하는 움직임 정보 수집모듈; 기 설정된 제스쳐 정보가 저장된 제스쳐 정보 데이터베이스; 및 상기 움직임 정보를 상기 제스쳐 정보 데이터베이스에 저장된 제스쳐 정보와 비교하여 상기 움직임 정보로부터 제스쳐를 인식하여 행동 데이터를 생성하는 제스쳐 인식모듈을 포함하며, 상기 인식된 제스쳐에 대응하는 사용자 의도가 상기 모바일 단말기에 입력된다.
본 발명의 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법은 모바일 단말기의 위치정보를 수집하여 위치 데이터를 생성하는 단계; 상기 모바일 단말기의 움직임 정보를 수집하고 상기 움직임 정보와 기 저장된 제스쳐 정보를 비교하여 행동 데이터를 생성하는 단계; 상기 행동 데이터에 대응하는 움직임의 발생 시점에 따라 상기 위치데이터 및 상기 행동 데이터를 정리하여 행동 로그를 생성하는 단계; 및 상기 행동 데이터에 대응하는 움직임의 발생 시점에 따라 정리된 상기 위치데이터 및 상기 행동 데이터로부터 행동 패턴을 분석하는 단계를 포함하고, 상기 행동 데이터 생성단계는: 상기 움직임 정보를 수집하는 단계; 및 상기 움직임 정보를 기 설정된 제스쳐 정보와 비교하여 상기 움직임 정보로부터 제스쳐를 인식하는 단계를 포함하며, 상기 인식된 제스쳐에 대응하는 사용자 의도가 상기 모바일 단말기에 입력된다.
본 발명에 따르면, 모바일 단말기 사용자의 시간에 따른 위치 및 행동을 명확히 인식하고 정보화시켜 행동패턴을 분석함으로써 상황에 따라 사용자의 의도에 따른 개인화 서비스를 제공할 수 있다. 또한, 본 발명은 실내에서도 모바일 단말기의 정확한 위치를 인식하는 것에 기반하여 사용자 의도에 따른 개인화 서비스를 제공할 수 있다. 또한, 본 발명은 상기와 같은 개인화 서비스를 제공할 수 있는 모바일 단말기를 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 개인화 서비스를 제공하기 위한 전체 구성도이다.
도 2는 도 1의 위치 데이터 생성부(100)의 동작 과정의 일 실시예를 나타내는 흐름도이다.
도 3은 3축 가속도 센서를 이용하여 사용자의 움직임 정보를 수집하는 과정의 일 실시예를 나타낸다.
도 4는 사용자의 움직임의 벡터 성분을 분석하여 사용자의 움직임으로부터 제스쳐를 인식하는 과정의 일 실시예를 나타낸다.
도 5는 시간에 따라 사용자의 위치 및 행동을 데이터화하여 행동로그를 생성하는 과정의 일 실시예를 나타낸다.
도 6은 시간에 따른 사용자의 위치 및 행동 데이터로부터 행동패턴을 분석하는 일 예를 도시한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 설명한다. 그러나, 본 발명의 실시형태는 여러 가지의 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시형태로만 한정되는 것은 아니다. 참고로 본 발명을 설명함에 있어서 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 본 발명의 실시예에 따른 개인화 서비스를 제공하기 위한 모바일 단말기의 전체 구성도이다. 본 발명의 실시예에 따른 개인화 서비스를 제공할 수 있는 모바일 단말기는 모바일 단말기의 위치정보를 수집하여 위치 데이터를 생성하는 위치데이터 생성부(100), 상기 모바일 단말기의 움직임 정보를 수집하고 상기 움직임 정보와 기 저장된 제스쳐 정보를 비교하여 행동 데이터를 생성하는 행동 데이터 생성부(200) 및 상기 행동 데이터에 대응하는 움직임의 발생 시점에 따라 정리된 상기 위치 데이터 및 상기 행동 데이터로부터 행동 패턴을 분석하는 행동 패턴 분석부(300)를 포함한다.
상기 모바일 단말기는 위치 및 사용자의 움직임 등을 감지할 수 있는 각종 계측장치들이 부착되어 있는 것으로서 사용자가 휴대할 수 있는 것이면 어떤 형태라도 가능하다. 예컨대, 상기 모바일 단말기는 스마트폰, PDA (Personal Digital Assistant), 또는 태플릿 PC(tablet PC), 노트북 등을 포함할 수 있다.
상기 위치 데이터 생성부(100)는 위치정보를 수집하는 위치정보 수집 모듈(110), 과거의 위치 데이터가 저장된 위치정보 데이터베이스(130) 및 상기 수집된 위치정보가 상기 위치정보 데이터베이스에 존재하는지를 검색하여 그 결과에 따라 상기 위치 데이터를 결정하는 위치검색모듈(120)을 포함할 수 있다.
상기 위치정보 수집모듈(110)은 무선 네트워크 접속 모듈을 포함할 수 있다. 또한 상기 위치정보 수집모듈(110)은 GPS (Global Positioning System) 센서를 포함할 수 있다. 상기 무선 네트워크는 Wi-Fi와 같은 무선 인터넷 네트워크를 포함할 수 있다. 이와 같이, 본 발명의 실시예에 따른 위치정보 수집모듈(110)로서 무선 네트워크 접속 모듈이 사용됨으로써 모바일 단말기의 사용자가 실내에 위치하는 경우에도 사용자의 정확한 위치 측정이 가능하다.
도 2는 도 1의 위치 데이터 생성부(100)의 동작 과정의 일 실시예를 나타내는 흐름도이다. 도 2에서는 위치 데이터를 생성하는 과정의 일 실시예가 도시된다. 도 2에서는 상기 무선 네트워크로서 Wi-Fi가 사용되는 경우를 예시한다.
본 발명의 일 실시예에 따라 위치 데이터를 생성하는 과정은 Wi-Fi가 사용되는지 유무를 검사한다(410). Wi-Fi가 사용되지 않는 경우에는 GPS 신호를 수신한다(430). 그리고 GPS 수신 함수(431)를 통해서 GPS 정보를 획득한다(432). 그 다음 상기 GPS 정보를 이용하여 위치 데이터가 결정될 수 있다(440). 상기 위치 데이터는 사용자들의 입력에 따라 정의되는 장소를 포함할 수 있다. 또한, 상기 위치 데이터는 클러스터링(clustering) 기법을 통해 인식의 오차가 감소될 수 있다.
상기 Wi-Fi가 사용되는지 유무를 검사하는 단계(410)에서 Wi-Fi가 사용되는 것으로 판단한 경우에는 Wi-Fi 신호가 우선적으로 수신된다(420). 이와 같이 Wi-Fi 신호를 우선적으로 수신함으로써 사용자가 실내에 있는 경우에도 사용자의 위치를 검출하는데 오차를 줄일 수 있다. Wi-Fi 신호 수신 함수(421)를 통해 수신된 Wi-Fi 신호들 중 신호세기가 가장 센 액세스 포인트(AP: Access Point)의 정보를 획득한다. 상기 액세스 포인트의 정보로부터 상기 액세스 포인트의 매체접근제어 주소(MAC address: Media Access Control Address)를 추출한다.
상기 위치검색모듈(120)은 상기 MAC 주소가 상기 위치정보 데이터베이스(130) 내에 존재하는지를 검색한다(423). 만약 상기 MAC 주소가 상기 데이터베이스 내에 존재한다면 기존에 정의된 기록으로 상기 단말기의 위치 데이터를 결정할 수 있다(440). 만약 상기 MAC 주소가 상기 데이터베이스 내에 존재하지 않는 새로운 주소인 경우에는 이를 새로운 위치정보로서 상기 위치정보 데이터베이스(130) 내에 저장한다(424). 상기 AP의 위치는 MAC에서 GPS 정보를 통해 획득될 수 있다(425). 또한, 이러한 AP 위치에 대한 GPS 정보를 통해서 위치 데이터가 결정될 수 있다(S440).
상기 행동 데이터 생성부(200)는 상기 움직임 정보를 수집하는 움직임 정보 수집모듈(210), 기 설정된 제스쳐 정보가 저장된 제스쳐 정보 데이터베이스(230), 상기 움직임 정보를 상기 제스쳐 정보 데이터베이스(230)에 저장된 제스쳐 정보와 비교하여 상기 움직임 정보로부터 제스쳐를 인식하여 행동 데이터를 생성하는 제스쳐 인식모듈(220)을 포함한다. 상기 움직임은 모바일 단말기의 움직임으로써 상기 모바일 단말기를 사용하는 사용자의 팔의 움직임을 나타낼 수 있다.
이와 같이, 본 발명에 따르면 사용자의 의도를 정확히 파악하기 위해 모바일 단말기의 위치뿐 아니라 사용자의 행동, 즉 움직임을 감지하는 것을 포함한다. 상기 움직임이 의미하는 특정 제스쳐를 인식함으로써 사용자의 의도를 보다 명확히 파악할 수 있어 사용자의 의도에 따른 개인화 서비스가 보다 효율적으로 제공될 수 있다.
또한, 전술한 바와 같이 모바일 단말기의 특정 움직임을 제스처로 인식할 수 있으므로, 이는 사용자의 의도를 보다 용이하게 모바일 단말기에 입력할 수 있는 하나의 수단이 될 수 있다.
상기 움직임 정보 수집모듈(210)은 가속도 센서와 조도 센서 중 적어도 하나를 포함할 수 있다. 도 3은 3축 가속도 센서를 이용하여 사용자의 움직임 정보를 수집하는 과정의 일 실시예를 나타낸다. 우선, 3축 가속도 센서 하드웨어(H/W) 제어함수(510)를 통해서 X, Y, Z 좌표 축 각각의 가속도 값(522)과 방위, 각도 및 회전각 값(521)을 추출한다. 이때, 상기 값들을 상대 좌표계로 변환하여 움직임 인식의 오차를 줄일 수 있다. 공간을 3차원에서 2차원으로 변환시키는 함수(530)를 통해 상기 추출된 값(521, 522)을 가상의 2차원 공간의 좌표 값으로 표현한다. 가상의 2차원 상대 좌표계에서 X축과 Y축 변화값(531, 53)을 측정하고 오차를 처리한다(541, 542). 그 후, 상기 처리 결과에 따라 상기 모바일 단말기의 움직임, 즉 사용자의 팔의 움직임을 8가지 방향으로 인식할 수 있다. 예컨대, 상기 X축 값의 증가 여부(551)에 따라 왼쪽(561) 또는 오른쪽(562) 방향을 나타낼 수 있다. 예컨대, X축 값이 증가하는 경우 오른쪽(562) 방향을 나타낼 수 있으며 감소하는 경우 왼쪽(561) 방향을 나타낼 수 있다. 유사하게 상기 Y축 값의 증가 여부(552)에 따라 아래(563) 또는 위(564) 방향을 나타낼 수 있다. 예컨대, Y축 값이 증가하는 경우 위(564) 방향을 나타낼 수 있으며 감소하는 경우 아래(563) 방향을 나타낼 수 있다. 이러한 방향성에 대하여 X축이나 Y축 값의 변화량이 0인 경우는 정지 상태로 정의될 수 있다. 따라서, 이러한 방향성의 조합에 따라 모바일 단말기의 움직임은 8방향으로 인식될 수 있다. 상기 8가지의 상태 값은 (왼쪽, 위), (정지, 위), (오른쪽, 위), (왼쪽, 정지), (오른쪽, 정지), (왼쪽, 아래), (정지, 아래), (오른쪽, 아래)로 정의될 수 있으며 화면을 통해 이의 궤적을 디스플레이할 수 있다(570).
도 4는 사용자의 움직임의 벡터 성분을 분석하여 사용자의 움직임으로부터 제스쳐를 인식하는 과정의 일 실시예를 나타낸다. 도 4에서는 도3에서 획득한 모바일 단말기의 궤적 정보로부터 모수적 은닉 마코프 모델(Parametric hidden Markov Model) 알고리즘 기법을 이용하여 제스쳐를 인식하는 과정을 나타낸다.
우선, 상기 도3의 움직임 정보, 예컨대 움직임의 궤적 정보로부터 방향을 감지(610)하여 상기 감지된 방향에 대한 벡터를 도식화한다(620). 만약 상기 벡터의 크기가 소정값보다 작은 경우에는 오차로 판단하여 무시할 수 있다. 즉, 상기 벡터의 크기가 무시할만한 오차값인지를 판단(630)한 후 그러한 경우에는 무시하고 다시 방향 감지(610) 단계로 회귀한다. 상기 벡터의 크기가 무시할만한 오차값이 아닌 경우에는 벡터 끝 부분의 좌표(640)를 초기 좌표값 데이터(650)로 설정하고 움직임의 벡터 정보(660)를 획득한다. 이때 상기 벡터는 디스플레이에 도시될 수 있다.
상기 움직임의 벡터 정보(660)를 기 정의된 제스쳐(680)와 비교함으로써 상기 움직임이 나타내는 제스쳐를 인식한다. 이때 상기 제스쳐 정의(680)는 사용자 또는 모바일 단말기 공급자에 의해 미리 지정될 수 있다. 상기 움직임의 벡터 정보(660)와 상기 기 정의된 제스쳐(680)에 대한 벡터의 시작점 개수, 방향 개수 및/또는 종료 점 좌표 등을 비교함으로써 상기 움직임이 나타내는 제스쳐를 인식할 수 있다(670). 예컨대, 상기 비교 세트 각각에서 유사도 지수가 소정값 이상인 경우에는 상기 움직임은 기 정의된 특정 제스쳐로 인식될 수 있다. 기 정의가 없는 정보는 처음엔 인식되지 않으나, 반복적으로 같은 패턴이 인식되는 경우에는 프로그램의 기계학습 알고리즘을 통해 사용자 제스처로 인식할 수 있다.
마지막으로 상기 움직임으로부터 인식된 특정 제스쳐가 행동 데이터(690)로 생성된다. 상기 행동 데이터(690)는 위치 데이터 생성부(100)에서 생성된 위치 데이터(140)와 함께 행동패턴 분석부(300)로 전달될 수 있다.
전술한 바와 같이, 본 발명의 실시예에 따르면 사용자가 특정 움직임에 대해 미리 제스쳐를 정의하여 저장하고 향후 해당 제스쳐를 모바일 단말기를 쥔 손의 움직임으로 표현하여 사용자의 의도를 간단히 표현할 수 있다. 이에 의해 일반적으로 모바일 단말기를 한 손만으로 쥐는 점, 및 이 때 한 손으로 사용자의 의도를 나타내는 행동을 정의하는 것이 용이하지 않은 점 등을 보완할 수 있다. 즉, 모바일 단말기의 움직임으로 사용자의 의도를 용이하게 표현할 수 있다. 또한, 이러한 사용자의 의도를, 상기 움직임을 특정 제스쳐로 인식하여 용이하게 파악할 수 있다.
상기 행동패턴 분석부(300)는 위치 데이터(140) 및 행동 데이터(240)를 상기 행동 데이터에 대응하는 움직임의 발생시점에 따라 정리하고 데이터화하여 행동 로그를 생성하는 행동로그 생성모듈(310), 시간 및 위치에 따라 정리된 사용자의 과거의 행동을 저장하는 사용자의 상황정보 데이터베이스, 및 상기 행동로그를 상기 사용자의 상황정보 데이터베이스와 비교하여 상기 사용자의 행동패턴을 분석하는 행동패턴 분석 모듈을 포함할 수 있다.
도 5는 시간에 따라 사용자의 위치 및 행동을 데이터화하여 행동로그를 생성하는 과정의 일 실시예를 나타낸다. 상기 행동 데이터에 대응하는 움직임이 발생할 때까지 시간 정보를 수집한다(710). 만약 상기 행동 데이터에 대응하는 움직임이 발생(720)하면 상기 위치 데이터(140)와 행동 데이터(240)를 상기 움직임이 발생한 시간 정보와 함께 정리하여 행동로그(730)로 데이터화 한다. 상기 행동로그(730)를 기존의 사용자의 상황정보 기록과 비교하여 사용자의 행동 패턴을 분석한다(740). 예컨대, 상기 사용자의 시간에 따른 위치 및 행동을 지속적으로 검출하고 이를 데이터마이닝(data mining) 기법을 통해 사용자의 행동 정보를 분석하여 상황에 적절한 개인화 서비스를 제공할 수 있다.
도 6은 시간 및 위치에 따른 사용자의 행동 데이터로부터 사용자의 행동패턴을 분석하는 일 예를 도시한다. 도6에 3차원 좌표에 도시된 원형상 각각은 시간 및 장소에 따른 행동으로서 “상황”으로 정의될 수 있다.
도6에는 사각 박스 형태 내부에 상기 상황이 밀집된 것을 볼 수 있다. 이는 사용자의 행동 패턴을 형성할 수 있으며 만약 사용자의 신규로 저장되는 행동로그의 시간 및 위치에 따른 행동 데이터가 상기 패턴에서 크게 벗어난다면 이는 비정상적인 행동으로 인식될 수 있다. 이러한 경우에는 모바일 단말기가 불의의 사고 발생과 같은 것으로 인식하여 사용자를 대신하여 사용자의 상태와 상황 인지 정보를 네트워크나 응급 단체에 스스로 전파할 수 있다.
또한, 상기 분석된 사용자의 행동 패턴으로부터 특정 장소나 시간 대에 사용자가 원하는 서비스를 유추하여 사용자에게 제공할 수도 있다.
전술한 바와 같이, 본 발명의 실시예에 따르면 사용자가 의도하지 않는 동안에 모바일 단말기 사용자의 위치 및 행동을 시간대 별로 검출하여 이를 데이터화할 수 있다. 그리하여, 상황에 따른 사용자의 행동 패턴의 분석이 가능하며 특정 상황에서 상기 분석된 행동 패턴에 따라 사용자의 의도에 맞는 서비스를 제공할 수 있는 것이다. 여기서 상기 상황이라 함은 특정 위치(또는 장소) 및 시간을 포함할 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 하고, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 위치 데이터 생성부
110: 위치정보 수집모듈
120: 위치검색 모듈
130: 위치정보 DB
140: 위치 데이터
200: 행동 데이터 생성부
210: 움직임정보 수집모듈
220: 제스쳐 인식 모듈
230: 제스쳐정보 DB
240: 행동 데이터
300: 행동패턴 분석부
310: 행동로그 생성모듈
320: 행동패턴 분석모듈
330: 사용자의 상황정보 DB

Claims (15)

  1. 모바일 단말기의 위치정보를 수집하여 위치 데이터를 생성하는 위치 데이터 생성부;
    상기 모바일 단말기의 움직임 정보를 수집하고 상기 움직임 정보와 기 저장된 제스쳐 정보를 비교하여 행동 데이터를 생성하는 행동 데이터 생성부; 및
    상기 행동 데이터에 대응하는 움직임의 발생 시점에 따라 정리된 상기 위치데이터 및 상기 행동 데이터로부터 행동 패턴을 분석하는 행동 패턴 분석부를 포함하고,
    상기 행동 데이터 생성부는:
    상기 움직임 정보를 수집하는 움직임 정보 수집모듈;
    기 설정된 제스쳐 정보가 저장된 제스쳐 정보 데이터베이스; 및
    상기 움직임 정보를 상기 제스쳐 정보 데이터베이스에 저장된 제스쳐 정보와 비교하여 상기 움직임 정보로부터 제스쳐를 인식하여 행동 데이터를 생성하는 제스쳐 인식모듈을 포함하며,
    상기 인식된 제스쳐에 대응하는 사용자 의도가 상기 모바일 단말기에 입력되는 사용자 행동패턴을 이용하여 개인화 서비스를 제공할 수 있는 모바일 단말기.
  2. 제1항에 있어서,
    상기 위치 데이터 생성부는:
    상기 위치정보를 수집하는 위치정보 수집모듈;
    과거의 위치 데이터가 저장된 위치정보 데이터베이스; 및
    상기 수집된 위치정보가 상기 위치정보 데이터베이스에 존재하는지를 검색하여 그 결과에 따라 상기 위치 데이터를 결정하는 위치검색모듈을 포함하는 것을 특징으로 하는 사용자 행동패턴을 이용하여 개인화 서비스를 제공할 수 있는 모바일 단말기.
  3. 제2항에 있어서,
    상기 위치정보 수집모듈은 GPS 센서와 무선 네크워크 접속 모듈 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 행동패턴을 이용하여 개인화 서비스를 제공할 수 있는 모바일 단말기.
  4. 삭제
  5. 제1항에 있어서,
    상기 움직임 정보 수집모듈은 3축 가속도 센서인 것을 특징으로 하는 사용자 행동패턴을 이용하여 개인화 서비스를 제공할 수 있는 모바일 단말기.
  6. 제5항에 있어서,
    상기 제스쳐 인식모듈은 상기 움직임 정보를 상기 움직임의 벡터 정보로 변환하고, 상기 움직임의 벡터 정보를 상기 저장된 제스쳐의 벡터 정보와 비교하는 것을 특징으로 하는 사용자 행동패턴을 이용하여 개인화 서비스를 제공할 수 있는 모바일 단말기.
  7. 제1항에 있어서,
    상기 행동패턴 분석부는:
    상기 위치 데이터 및 상기 행동 데이터를 상기 행동 데이터에 대응하는 움직임의 발생시점에 따라 정리하여 데이터화하는 행동로그 생성모듈;
    시간 및 위치에 따라 정리된 사용자의 과거의 행동을 저장하는 사용자의 상황정보 데이터베이스; 및
    상기 행동로그를 상기 사용자의 상황정보 데이터베이스와 비교하여 상기 사용자의 행동패턴을 분석하는 행동패턴 분석모듈을 포함하는 것을 특징으로 하는 사용자 행동패턴을 이용하여 개인화 서비스를 제공할 수 있는 모바일 단말기.
  8. 모바일 단말기의 위치정보를 수집하여 위치 데이터를 생성하는 단계;
    상기 모바일 단말기의 움직임 정보를 수집하고 상기 움직임 정보와 기 저장된 제스쳐 정보를 비교하여 행동 데이터를 생성하는 단계;
    상기 행동 데이터에 대응하는 움직임의 발생 시점에 따라 상기 위치데이터 및 상기 행동 데이터를 정리하여 행동 로그를 생성하는 단계; 및
    상기 행동 데이터에 대응하는 움직임의 발생 시점에 따라 정리된 상기 위치데이터 및 상기 행동 데이터로부터 행동 패턴을 분석하는 단계를 포함하고,
    상기 행동 데이터 생성단계는:
    상기 움직임 정보를 수집하는 단계; 및
    상기 움직임 정보를 기 설정된 제스쳐 정보와 비교하여 상기 움직임 정보로부터 제스쳐를 인식하는 단계를 포함하며,
    상기 인식된 제스쳐에 대응하는 사용자 의도가 상기 모바일 단말기에 입력되는 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법.
  9. 제8항에 있어서,
    상기 위치 데이터 생성 단계는:
    상기 위치정보를 수집하는 단계; 및
    상기 수집된 위치정보를 과거의 위치 데이터가 저장된 위치정보 데이터베이스에 존재하는지를 검색하고 그 결과에 따라 상기 위치 데이터를 결정하는 단계를 포함하는 것을 특징으로 하는 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법.
  10. 제9항에 있어서,
    상기 위치정보를 수집하는 단계는 GPS 정보와 무선 네트워크 액세스 포인트 정보 중 적어도 하나를 수집하는 단계를 포함하는 것을 특징으로 하는 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법.
  11. 삭제
  12. 제8항에 있어서,
    상기 움직임 정보를 수집하는 단계는 3축 가속도 센서를 이용하여 수행되는 것을 특징으로 하는 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법.
  13. 제12항에 있어서,
    상기 제스쳐를 인식하는 단계는 상기 움직임의 벡터 정보를 획득하여 상기 움직임의 벡터 정보를 상기 저장된 제스쳐의 벡터 정보와 비교하는 단계를 포함하는 것을 특징으로 하는 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법.
  14. 제8항에 있어서,
    상기 행동 패턴을 분석하는 단계는:
    상기 위치 데이터 및 상기 행동 데이터를 상기 행동 데이터에 대응하는 움직임의 발생시점에 따라 정리하여 데이터화하여 행동로그를 생성하는 단계; 및
    상기 행동로그를 시간 및 위치에 따라 정리된 사용자의 과거의 행동을 저장하는 사용자의 상황정보 데이터베이스와 비교하여 상기 사용자의 행동패턴을 분석하는 단계를 포함하는 것을 특징으로 하는 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법.
  15. 제8항 내지 제10항 또는 제12항 내지 제14항 중 어느 한 항에 따른 방법을 컴퓨터에서 수행하기 위한 명령어를 저장하는 컴퓨터 판독가능 기록매체.
KR1020110030160A 2011-04-01 2011-04-01 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법 및 이를 위한 모바일 단말기 KR101228336B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110030160A KR101228336B1 (ko) 2011-04-01 2011-04-01 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법 및 이를 위한 모바일 단말기

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110030160A KR101228336B1 (ko) 2011-04-01 2011-04-01 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법 및 이를 위한 모바일 단말기

Publications (2)

Publication Number Publication Date
KR20120111592A KR20120111592A (ko) 2012-10-10
KR101228336B1 true KR101228336B1 (ko) 2013-01-31

Family

ID=47282275

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110030160A KR101228336B1 (ko) 2011-04-01 2011-04-01 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법 및 이를 위한 모바일 단말기

Country Status (1)

Country Link
KR (1) KR101228336B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101848232B1 (ko) * 2017-08-07 2018-04-12 주식회사 키위플러스 위치행동패턴 자동 분석방법 및 자동 분석을 이용한 위치정보 보정방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102317899B (zh) 2011-08-02 2014-01-22 华为终端有限公司 一种信息生成和处理方法及装置
KR20150069388A (ko) * 2013-12-13 2015-06-23 삼성전자주식회사 서버 및 이의 데이터 전송 방법, 그리고 모바일 디바이스 및 이의 센싱 방법
KR102172367B1 (ko) 2014-01-20 2020-10-30 삼성전자주식회사 사용자 맞춤형 정보를 제공하는 방법 및 장치
KR101611898B1 (ko) * 2014-05-24 2016-04-12 주식회사 브이터치 매칭 시스템
KR102012804B1 (ko) * 2018-01-11 2019-08-21 경희대학교 산학협력단 사용자 행위를 인지하는 방법, 장치 및 컴퓨터 프로그램
KR102257403B1 (ko) 2020-01-06 2021-05-27 주식회사 에스앤피랩 개인정보 관리 장치, 개인정보 관리 시스템, 그 개인정보 관리 방법, 및 이를 기록한 컴퓨터 판독가능 기록매체
KR102426783B1 (ko) * 2020-10-26 2022-07-28 삼성전자주식회사 사용자 맞춤형 정보를 제공하는 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070074085A (ko) * 2006-01-06 2007-07-12 엘지전자 주식회사 천체 정보 출력 기능을 갖는 이동 단말기 및 천체 정보출력 방법
KR20090024347A (ko) * 2007-09-04 2009-03-09 성균관대학교산학협력단 시간에 따른 모바일 유저의 빈발한 행동패턴 추출방법
KR20090050405A (ko) * 2007-11-15 2009-05-20 한국전자통신연구원 상황 인식 시스템 환경에서 발생한 이벤트 로그에 기초하여사용자의 행위를 분류하는 방법 및 장치
KR20100063395A (ko) * 2008-12-03 2010-06-11 한국전자통신연구원 장소 및 행동패턴을 이용한 사용자 인증 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070074085A (ko) * 2006-01-06 2007-07-12 엘지전자 주식회사 천체 정보 출력 기능을 갖는 이동 단말기 및 천체 정보출력 방법
KR20090024347A (ko) * 2007-09-04 2009-03-09 성균관대학교산학협력단 시간에 따른 모바일 유저의 빈발한 행동패턴 추출방법
KR20090050405A (ko) * 2007-11-15 2009-05-20 한국전자통신연구원 상황 인식 시스템 환경에서 발생한 이벤트 로그에 기초하여사용자의 행위를 분류하는 방법 및 장치
KR20100063395A (ko) * 2008-12-03 2010-06-11 한국전자통신연구원 장소 및 행동패턴을 이용한 사용자 인증 시스템 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101848232B1 (ko) * 2017-08-07 2018-04-12 주식회사 키위플러스 위치행동패턴 자동 분석방법 및 자동 분석을 이용한 위치정보 보정방법

Also Published As

Publication number Publication date
KR20120111592A (ko) 2012-10-10

Similar Documents

Publication Publication Date Title
KR101228336B1 (ko) 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법 및 이를 위한 모바일 단말기
US8892391B2 (en) Activity detection
KR101939683B1 (ko) 사용자 행동 실시간 인식장치 및 방법
US10126825B2 (en) Method for recognizing handwriting on a physical surface
KR20120035529A (ko) 휴대용 단말기에서 적응적 제스처 인식 장치 및 방법
CN103493006A (zh) 基于位置来阻止用户内容
WO2019141085A1 (zh) 电子装置、碰撞数据处理方法及相关产品
US11822731B2 (en) Gesture detection using external sensors
CN110619027A (zh) 一种房源信息的推荐方法、装置、终端设备及介质
KR101995799B1 (ko) 상황 인지 서비스를 제공하기 위한 장소 인식 장치 및 방법
CN107533371A (zh) 使用影响手势的用户接口控制
CN105653589A (zh) 信息处理方法及装置
KR20210087181A (ko) 위치를 탐지하는 전자 장치 및 그 방법
US10165415B2 (en) Method and apparatus for geomagnetic signal processing
CN112416115B (zh) 一种用于控件交互界面中进行人机交互的方法与设备
JP2016090371A (ja) センサ情報を処理する情報処理装置、情報管理システム、情報表示システム、情報処理方法、プログラム、記録媒体及びサーバ装置
KR20160132752A (ko) 사용자 단말 장치 및 그 제어 방법
CN114264365A (zh) 风噪检测方法、装置、终端设备及存储介质
EP3848778B1 (en) Fingertip detection method, fingertip detection means, fingertip detection device, and medium
CN112230980A (zh) 一种依赖关系检测方法、装置、电子设备及存储介质
US11959772B2 (en) Odometer interpolation using GPS data
CN117055738B (zh) 手势识别方法、可穿戴设备及存储介质
CN103076878A (zh) 显示终端遥控操作方法及装置
CN112230979A (zh) 一种依赖关系检测方法、装置、电子设备及存储介质
CN114157950A (zh) 头部运动检测方法、智能耳机和计算机可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151229

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee