KR20180028358A - Terminal and method of controlling the same - Google Patents

Terminal and method of controlling the same Download PDF

Info

Publication number
KR20180028358A
KR20180028358A KR1020170041938A KR20170041938A KR20180028358A KR 20180028358 A KR20180028358 A KR 20180028358A KR 1020170041938 A KR1020170041938 A KR 1020170041938A KR 20170041938 A KR20170041938 A KR 20170041938A KR 20180028358 A KR20180028358 A KR 20180028358A
Authority
KR
South Korea
Prior art keywords
data
user
terminal
sensor
state
Prior art date
Application number
KR1020170041938A
Other languages
Korean (ko)
Inventor
홍규석
조현정
홍승범
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20180028358A publication Critical patent/KR20180028358A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6822Neck
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/683Means for maintaining contact with the body
    • A61B5/6831Straps, bands or harnesses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0247Pressure sensors

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephone Function (AREA)

Abstract

According to the present specification, a terminal and a control method thereof are disclosed. According to an embodiment of the present invention, a terminal comprises: a first sensor; a second sensor for sensing situation recognition data; and a control unit for determining whether or not a user is in a first state by extracting first data from sensing data of the first sensor, determining whether or not the user is in a second state by extracting second data from sensing data of the second sensor when the user is in the first state according to the determination result, and generating a control command when the user is in the second state according to the determination result so that the control command is transmitted to an external terminal.

Description

단말기 및 그 제어 방법{TERMINAL AND METHOD OF CONTROLLING THE SAME}[0001] TERMINAL AND METHOD OF CONTROLLING THE SAME [0002]

본 발명은 단말기 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 적어도 하나의 센서를 통해 획득되는 데이터에 기초한 서비스 처리에 관한 것이다.The present invention relates to a terminal and its control method, and more particularly to service processing based on data obtained through at least one sensor.

단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 이동 단말기는 다시 유저의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다. A terminal can be divided into a mobile / portable terminal and a stationary terminal depending on whether the terminal is movable or not. The mobile terminal can be divided into a handheld terminal and a vehicle mounted terminal according to whether the user can directly carry the mobile terminal.

이동 단말기의 기능은 다양화되고 있다. 예를 들면, 데이터와 음성 통신, 카메라를 통한 사진 촬영 및 비디오 촬영, 음성 녹음, 스피커 시스템을 통한 음악 파일 재생 그리고 디스플레이부에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자 게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히, 최근 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다.The functions of mobile terminals are diversified. For example, there are data and voice communication, photographing and video shooting through a camera, voice recording, music file playback through a speaker system, and outputting an image or video on a display unit. Some terminals are equipped with an electronic game play function or a multimedia player function. In particular, recently mobile terminals can receive multicast signals that provide visual content such as broadcast and video or television programs.

이와 같은 단말기는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기 형태로 구현되고 있다. Such a terminal is being implemented in the form of a multimedia device having a complex function such as photographing and photographing of a moving picture, reproduction of a music or a moving picture file, reception of a game, and broadcasting, for various functions.

이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.In order to support and enhance the functionality of such terminals, it may be considered to improve the structural and / or software parts of the terminal.

종래에는 유저의 순간적인 낙상 모션만 감지하여 이를 관리자에게 보고하였다. 예컨대, 종래 방식에서는 일정 충격이 감지되어야만 유저의 낙상을 감지할 수 있어, 낙상 전에는 상기 유저의 위기 상황 등을 알 수 없어 이를 미연에 방지하기 어려웠다. 다시 말해, 낙상 상황이 발생하는 경우에만 이를 감지하고 관리자에게 보고하는 체계여서 문제가 있었다. 따라서, 유아, 노인, 몸 등이 불편한 사람 등과 같이, 본인의 의지로 위기 상황이나 응급 상황을 인지하고 적절하게 대응 또는 회피하거나 이를 보고할 수 없는 경우에는 문제가 있었다. 또한, 종래에는 단순 충격에 따른 낙상 상황을 감지하여 상기 낙상 상황에 대한 오인식, 및 그러한 오인식에 따른 오동작 문제가 있었다.Conventionally, only a momentary fall motion of the user is detected and reported to the manager. For example, in the conventional system, the fall of the user can be detected only when a certain impact is sensed, and it is difficult to prevent the user from knowing the crisis situation before the fall and prevent it from occurring. In other words, there was a problem because it is a system to detect and report to the manager only when a fall situation occurs. Therefore, there was a problem when it was not possible to recognize a crisis situation or an emergency situation with the intention of the person, such as an infant, an elderly person, or an uncomfortable body, and to respond appropriately or avoid or report it. In addition, there has been a problem of erroneous recognition of the falling condition and malfunction due to such a false sense by sensing a falling condition due to a simple impact.

본 발명은 상기와 같은 문제점을 해소하기 위한 것으로, 본 발명은 유저에게 발생한 이벤트(event)뿐만 아니라 상기 이벤트 발생 전과 후에 유저의 상황을 인지(circumstance recognition)하여 적절히 대응하는 시스템 체계를 형성하는 것을 일 과제로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to recognize a circumstance recognition of a user's situation before and after an event, We will do it.

본 발명은 적어도 하나 이상의 센서를 통해 획득되는 데이터에 기초하여 상기 이벤트와 관련되는 상황을 더욱 정밀하고 정확하게 인지하는 것을 다른 과제로 한다.Another object of the present invention is to more precisely and accurately recognize a situation related to the event based on data obtained through at least one sensor.

본 발명은 이벤트 발생 전, 이벤트 발생, 그리고 이벤트 발생 후에 따라 정확하게 유저의 상황을 인지하여 어드밴스드 서비스(advanced service)를 제공하여 시스템 또는 단말기의 효율성과 신뢰도를 높이는 것을 또 다른 과제로 한다.Another problem is to increase the efficiency and reliability of a system or a terminal by providing an advanced service by recognizing the user's situation accurately before, during, and after an event occurs.

본 발명에서 이루고자 하는 기술적 과제는 상기 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problem to be solved by the present invention is not limited to the above-described technical problems and other technical problems which are not mentioned can be clearly understood by those skilled in the art from the following description .

본 명세서에서는 본 발명에 따른 단말기 및 그 제어 방법에 대한 다양한 실시 예(들)을 개시한다.Various embodiments (s) of a terminal and a control method thereof according to the present invention are disclosed herein.

본 발명의 일 실시 예에 따른 단말기는, 제1센서; 상황 인지 데이터를 센싱하는 제2센서; 및 상기 제1센서의 센싱 데이터로부터 제1데이터를 추출하여 유저의 제1상태 여부를 판단하고, 상기 판단 결과 유저가 제1상태이면 상기 제2센서의 센싱 데이터로부터 제2데이터를 추출하여 상기 유저의 제2상태 여부를 판단하고, 상기 판단 결과 유저가 제2상태이면 제어 커맨드를 생성하여 외부 단말로 전송하는 제어부를 포함한다.A terminal according to an embodiment of the present invention includes a first sensor; A second sensor for sensing context aware data; And extracting first data from the sensing data of the first sensor to determine whether the user is in a first state and extracting second data from the sensing data of the second sensor if the user is in the first state, And if the user is in the second state, generates a control command and transmits the control command to the external terminal.

본 발명에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical solutions obtained by the present invention are not limited to the above-mentioned solutions, and other solutions not mentioned are clearly described to those skilled in the art from the following description. It can be understood.

본 발명에 따르면, 다음과 같은 효과가 있다.According to the present invention, there are the following effects.

본 발명의 다양한 실시 예들 중 적어도 하나의 실시 예에 의하면, 유저에게 발생한 이벤트뿐만 아니라 상기 이벤트 발생 전과 후에 유저의 상황을 인지하여 적절히 대응할 수 있는 효과가 있다.According to at least one embodiment of the various embodiments of the present invention, there is an effect that not only the event that occurs to the user but also the situation of the user before and after the occurrence of the event can be recognized and appropriately responded.

본 발명의 다양한 실시 예들 중 적어도 하나의 실시 예에 의하면, 적어도 하나 이상의 센서를 통해 획득되는 데이터에 기초하여 상기 이벤트와 관련되는 상황을 더욱 정밀하고 정확하게 인지할 수 있는 효과가 있다.According to at least one embodiment of the various embodiments of the present invention, there is an effect that a situation related to the event can be recognized more precisely and accurately based on data obtained through at least one sensor.

본 발명의 다양한 실시 예들 중 적어도 하나의 실시 예에 의하면, 이벤트 발생 전, 이벤트 발생, 그리고 이벤트 발생 후에 따라 정확하게 유저의 상황을 인지하여 어드밴스드 서비스를 제공하여 시스템 또는 단말기의 효율성을 제고하고 신뢰도를 높일 수 있는 효과가 있다.According to at least one embodiment of the various embodiments of the present invention, the efficiency of the system or the terminal is improved and the reliability is improved by providing the advanced service by recognizing the user's situation accurately before, during, and after the event occurrence There is an effect that can be.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description will be.

도 1a는 본 발명에 따른 스마트 컨트롤링 디바이스를 포함한 디지털 시스템의 개략도,
도 1b는 본 발명과 관련된 스마트 컨트롤링 디바이스의 외관을 도시한 도면,
도 2는 본 발명의 일 실시 예에 따른 단말기의 형상 내지 외관을 도시한 도면,
도 3은 본 발명과 관련된 이동 단말기의 구성 블록도,
도 4는 본 발명의 다른 일 실시 예와 관련된 와치 타입의 단말기의 일 예를 보인 사시도,
도 5는 본 발명의 또 다른 일 실시 예와 관련된 글래스 타입의 단말기의 일 예를 보인 사시도,
도 6은 본 발명의 일 실시 예에 따른 스마트 컨트롤링 디바이스의 구성 블록도,
도 7은 본 발명의 일 실시 예에 따른 단말기의 데이터 처리 방법을 설명하기 위해 도시한 순서도,
도 8은 본 발명의 일 실시 예에 따른 낙상 모션에 대한 데이터 그래프를 도시한 도면,
도 9는 본 발명의 일 실시 예에 따른 낙상 알고리즘과 관련된 자세 측정 방법을 설명하기 위해 도시한 도면,
도 10은 본 발명의 일 실시 예에 따른 상황 인지 데이터의 파라미터 중 하나로 장소를 설명하기 위해 도시한 도면,
도 11은 본 발명의 일 실시 예에 따른 상황 인지 데이터의 파라미터로 일상생활패턴과 비정상에 관해 설명하기 위해 도시한 도면,
도 12는 본 발명의 일 실시 예에 따른 상황 인지 데이터의 파라미터 중 하나로 유저의 머리 방향에 대해 설명하기 위해 도시한 도면,
도 13은 본 발명의 일 실시 예에 따른 상황 인지 데이터의 파라미터 중 하나로 음성 또는 오디오에 대해 설명하기 위해 도시한 도면,
도 14는 본 발명의 일 실시 예에 따른 상황 인지 데이터의 파라미터 중 하나로 유저의 위치 찾기에 대해 설명하기 위해 도시한 도면,
도 15는 본 발명의 일 실시 예에 따른 호흡/심박동 데이터 그래프를 도시한 도면,
도 16과 17은 본 발명의 일 실시 예에 따른 낙상 알고리즘을 구성하는 상태를 설명하기 위해 도시한 도면,
도 18은 본 발명에 따른 상황 인지 파라미터 중 하나로 유저의 움직임 존재 여부를 설명하기 위해 도시한 도면,
도 19는 본 발명의 일 실시 예에 따른 낙상 검출 알고리즘을 설명하기 위해 도시한 순서도,
도 20은 상기 도 19와 관련하여, 가속도와 버퍼 데이터에 관한 데이터 그래프,
도 21은 본 발명의 일 실시 예에 따른 움직임 여부 판단 알고리즘을 설명하기 위해 도시한 순서도,
도 22는 상기 도 21과 관련된 심박동 관련 데이터 그래프의 일 예를 도시한 도면,
도 23은 본 발명의 일 실시 예에 따라 수면과 움직임이 없는 경우를 구분하기 위한 알고리즘을 설명하기 위해 도시한 데이터 그래프,
도 24 내지 26은 본 발명의 일 실시 예에 따른 유저가 비정상 상태임을 구분하기 위한 알고리즘을 설명하기 위해 도시한 순서도,
도 27 내지 29는 본 발명의 일 실시 예에 따라 누워 있는 자세와 비정상 여부 판단 알고리즘의 상관관계를 설명하기 위해 도시한 도면,
도 30은 본 발명의 다른 실시 예에 따라 비정상 여부 판단 방법을 설명하기 위해 도시한 순서도, 그리고
도 31은 상기 도 30의 비정상 여부 판단과 관련된 데이터 그래프이다.
FIG. 1A is a schematic diagram of a digital system including a smart control ring device according to the present invention,
1B is a view showing the appearance of a smart control ring device related to the present invention,
2 is a view illustrating a shape or appearance of a terminal according to an embodiment of the present invention;
3 is a configuration block diagram of a mobile terminal according to the present invention;
4 is a perspective view showing an example of a watch-type terminal according to another embodiment of the present invention,
5 is a perspective view illustrating an example of a glass-type terminal according to another embodiment of the present invention.
6 is a block diagram of a smart control device according to an embodiment of the present invention.
7 is a flowchart illustrating a data processing method of a terminal according to an embodiment of the present invention.
FIG. 8 illustrates a data graph for falling motion according to an embodiment of the present invention; FIG.
FIG. 9 is a view illustrating a method of measuring a posture associated with an fall algorithm according to an embodiment of the present invention.
FIG. 10 is a view for explaining a place as one of parameters of context awareness data according to an embodiment of the present invention; FIG.
FIG. 11 is a diagram for explaining an everyday life pattern and an abnormality as parameters of context-aware data according to an embodiment of the present invention,
12 is a view for explaining a head direction of a user as one of parameters of context awareness data according to an embodiment of the present invention,
FIG. 13 is a view for explaining voice or audio as one of parameters of context-aware data according to an embodiment of the present invention;
FIG. 14 is a view for explaining a user's location search as one of the parameters of the context-aware data according to an embodiment of the present invention;
FIG. 15 is a graph showing a breathing / heartbeat data graph according to an embodiment of the present invention; FIG.
16 and 17 are diagrams for explaining states constituting a fall algorithm according to an embodiment of the present invention,
FIG. 18 is a view for explaining whether a user exists or not in one of the context-aware parameters according to the present invention;
FIG. 19 is a flowchart illustrating a fall detection algorithm according to an embodiment of the present invention;
FIG. 20 is a graph showing a graph of data on acceleration and buffer data,
21 is a flowchart illustrating a motion determination algorithm according to an embodiment of the present invention.
FIG. 22 is a view showing an example of a heart rate-related data graph related to FIG. 21,
FIG. 23 is a graph illustrating a data graph for illustrating an algorithm for distinguishing sleeping and non-moving scenes according to an embodiment of the present invention,
24 to 26 are flowcharts illustrating an algorithm for identifying a user in an abnormal state according to an embodiment of the present invention,
27 to 29 are diagrams for explaining a correlation between a lying posture and an abnormality determination algorithm according to an embodiment of the present invention,
30 is a flowchart illustrating an abnormality determination method according to another embodiment of the present invention, and FIG.
31 is a data graph related to the abnormality determination of FIG.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

제1, 제2등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

본 명세서에서 설명되는 단말기는 이동 단말기를 예로 하여 설명하나, 반드시 이에 한정되는 것은 아니다. 예컨대, 상기 이동 단말기에는 휴대폰, 스마트폰, 노트북 컴퓨터, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기(smart watch), 글래스형 단말기(smart glass), HMD(head mounted display)) 등이 포함될 수 있다. 다만, 본 명세서에서는 본 발명의 이해를 돕고 설명의 편의를 위하여 상기 단말기는 예컨대, 후술할 도 2의 단말기를 예로 하여 설명한다. 도 2의 단말기는 예컨대, 유저의 몸, 옷 등에 부착하거나 심는 형태로 구현된 예시이다.Although the terminal described in the present specification is described as an example of a mobile terminal, it is not limited thereto. For example, the mobile terminal may be a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC, a tablet PC, an ultrabook, a wearable device (e.g., a smart watch, a glass glass, a head mounted display (HMD)), and the like. However, in order to facilitate understanding of the present invention, and for convenience of explanation, the terminal will be described with reference to the terminal of FIG. 2 to be described later, for example. The terminal of Fig. 2 is an example implemented in the form of being attached to, for example, a user's body, clothing, or the like.

본 명세서에서 설명되는 “스마트 컨트롤링 디바이스(smart controlling device)”는, 음성, 텍스트, 이미지, 모션 등 다양한 입력에 기초하여 연결된 또는 연결 가능한 적어도 하나의 디바이스에 데이터를 전송하여 출력 또는 소정 동작을 수행하도록 제어하는 모든 디바이스를 포함하는 용어이다. 상기 스마트 컨트롤링 디바이스는, 인공 지능(AI: Artificial Intelligence) 기능을 탑재 또는/및 음성 인식이 가능한 모든 전자 장치를 포함할 수 있다. 이러한 스마트 컨트롤링 디바이스로 음성 인식이 가능하여 예컨대, 입력되는 유저의 음성 명령에 따라 소정 디바이스에 컨트롤 커맨드(control command)를 전송하여 동작을 제어하는 오디오 장치도 포함될 수 있다. 이하 본 명세서에서는 본 발명의 이해를 돕고 설명의 편의를 위하여, 인공 지능 (기능)이 탑재되고 음성 인식이 가능한 오디오 장치(또는 스마트 스피커)를 예로 하여 설명한다. 다만, 이에 한정되는 것이 아님은 미리 밝혀 둔다.The " smart controlling device " described in the present specification is a device that transmits data to at least one device connected or connectable based on various inputs such as voice, text, image, motion, The term " device " The smart control ring device may include all electronic devices equipped with an artificial intelligence (AI) function and / or capable of voice recognition. The smart control ring device may include an audio device capable of voice recognition and controlling an operation by transmitting a control command to a predetermined device according to a voice command of an input user, for example. Hereinafter, an audio device (or smart speaker) equipped with an artificial intelligence (function) and capable of voice recognition will be described as an example of the present invention for the purpose of facilitating understanding of the present invention and for convenience of explanation. It should be noted, however, that the present invention is not limited thereto.

본 명세서에서는 본 발명에 따라 일상생활에서 발생 가능한 다양한 이벤트(event)에 대하여 적어도 하나의 센서(sensor)를 통해 획득되는 데이터로 상기 이벤트의 단순 감지(detect)뿐만 아니라 상황 인지(context awareness)에 기초하여 상기 이벤트를 정확하게 감지하고, 오감지로 인한 오동작(malfunction) 우려를 줄이고자 한다. 다시 말해, 본 발명은 이벤트의 발생 시뿐만 아니라 상기 이벤트의 발생 전에 상기 상황 인지를 통해 이벤트 발생을 예측하여 상기 이벤트 발생에 따른 영향을 방지할 수 있다. 또한, 본 발명에서는 이벤트의 발생 시에 이를 정확하게 감지하여 이벤트 발생 후에 그에 관하여 적절하게 대응 준비 또는 대응할 수 있어, 이벤트 발생에 따른 영향을 최소화하거나 상기 이벤트 발생에 따른 추가 이벤트의 발생과 그와 관련된 영향을 최소화할 수 있다. 따라서, 본 명세서에서는 본 발명에 따라 이벤트 발생의 위험 요소를 예측하여 가이드 등 대응할 수 있고, 관련 트레이닝(training) 등과도 연계할 수 있다.In this specification, the present invention is based on data obtained through at least one sensor for various events that can occur in everyday life, based on not only simple detection of the event but also context awareness So as to accurately detect the event and reduce malfunctions caused by a false sense. In other words, the present invention predicts occurrence of an event not only at the time of the occurrence of the event but also before the occurrence of the event, thereby preventing the influence of the occurrence of the event. Further, in the present invention, when an event occurs, it can be precisely detected and appropriately prepared or responded to after the occurrence of the event, so that the effect of event occurrence can be minimized, or the occurrence of an additional event due to the event occurrence, Can be minimized. Therefore, according to the present invention, the risk factors of event occurrence can be predicted and guided by the present invention, and can be associated with related training and the like.

이하 본 명세서에서 이벤트라 함은, 일상생활에서 유저에게 발생 가능한 다양한 상황을 모두 포함하는 개념이나, 특히 상기 이벤트에서 어떤 상황이 유저에게 위험을 야기하거나 동반하는 상황을 예로 하여 설명한다. 이에 본 발명의 이해를 돕고 출원인의 설명의 편의를 위하여 이하에서는 어린 아이, 노인, 몸이 불편한 사람 등에게 주로 발생 가능하고 위험을 야기하거나 동반할 수 있는 낙상 경우를 예로 하여 설명한다. 다만, 본 발명의 권리범위가 상기 예시에 한정되는 것은 아님은 미리 밝혀 둔다.Hereinafter, an event refers to a concept including all the various situations that can occur to a user in daily life, and in particular, a situation in which a situation causes a risk to the user or accompanies the event. In order to facilitate the understanding of the present invention and for convenience of the applicant's explanation, the following description will be made by taking as an example a case where a child, elderly person, a person who is physically uncomfortable, It should be noted, however, that the scope of the present invention is not limited to the above examples.

도 1A는 본 발명에 따른 스마트 컨트롤링 디바이스를 포함한 디지털 시스템의 개략도이고, 도 1B는 본 발명과 관련된 스마트 컨트롤링 디바이스의 외관을 도시한 도면이고, 도 2는 본 발명의 일 실시 예에 따른 단말기의 형상 내지 외관을 도시한 도면이고, 도 6은 본 발명의 일 실시 예에 따른 스마트 컨트롤링 디바이스(110)의 구성 블록도이다.FIG. 1A is a schematic view of a digital system including a smart control ring device according to the present invention, FIG. 1B is a view showing the appearance of a smart control ring device related to the present invention, FIG. FIG. 6 is a block diagram of a configuration of a smart control device 110 according to an embodiment of the present invention. Referring to FIG.

도 1a에서는 설명의 편의를 위하여 홈 네트워크를 통해 서로 연결된 또는 연결 가능한 스마트 컨트롤링 디바이스(110)를 포함한 다양한 장치가 포함된 디지털 시스템을 예로 한다. 상기 스마트 컨트롤링 디바이스(110)는, 적어도 하나 이상의 외부 디바이스와 근거리 또는 원거리 유/무선 통신을 통하여 데이터 커뮤니케이션을 수행할 수 있으며, 그에 기초하여 상기 적어도 하나 이상의 외부 디바이스를 제어할 수 있다. 예컨대, 상기 스마트 컨트롤링 디바이스(110)는 도 1의 디지털 시스템에서 컨트롤러(controller)의 기능을 수행할 수 있다. 한편, 상기 스마트 컨트롤링 디바이스(110)는, 도 1에 도시된 바와 같이, 외부 서버(external server)(140)와 데이터 커뮤니케이션을 수행할 수 있다. 이때, 상기 외부 서버(140)와의 데이터 커뮤니케이션은 상기 스마트 컨트롤링 디바이스(110) 외에 다른 디바이스도 가능하며, 상기 스마트 컨트롤링 디바이스(110)는 상기 다른 디바이스를 통해 간접적으로 상기 외부 서버(140)와 데이터 커뮤니케이션을 수행할 수도 있다. 도 1의 외부 서버 또는 디지털 시스템 내에서 이루어지는 데이터 커뮤니케이션은 와이-파이(Wi-Fi; Wireless-Fidelity), 블루투스(BluetoothTM), 제트-웨이브(Z-wave), 적외선 통신, 지그비, RS 등 통신 프로토콜 중 적어도 하나에 기초하여 이루어질 수 있다. 다만, 상기한 통신 프로토콜에 한정되는 것은 아니며, 이에 대해서는 후술하는 통신 프로토콜 등이 더 이용될 수도 있다. 한편, 상기 데이터 커뮤니케이션은 디바이스와 디바이스 사이에 직접 이루어질 수도 있고, 중계기(relay), 갭-필러(gap filler) 등과 같은 디바이스를 통해 간접적으로 이루어질 수도 있다.In FIG. 1A, for convenience of explanation, a digital system including various devices including a smart control ring device 110 connected to or connectable with each other through a home network is exemplified. The smart control ring device 110 may perform data communication with at least one external device via local or remote wired / wireless communication, and may control the at least one external device based thereon. For example, the smart control ring device 110 may perform the function of a controller in the digital system of FIG. Meanwhile, the smart control device 110 may perform data communication with an external server 140 as shown in FIG. At this time, data communication with the external server 140 may be performed by a device other than the smart control device 110, and the smart control device 110 may indirectly communicate with the external server 140 through the other device Data communication may also be performed. Fig data communication takes place within an external server or a digital system of Figure 1 is Y-fi (Wi-Fi; Wireless-Fidelity ), Bluetooth (Bluetooth TM), jet-wave (Z-wave), Infrared Communication, ZigBee, RS and communication Protocol. ≪ / RTI > However, the present invention is not limited to the communication protocol described above, and a communication protocol or the like described later may be further used. Meanwhile, the data communication may be performed directly between the device and the device, or indirectly through a device such as a relay, a gap filler, or the like.

도 1에서는 편의상 디지털 시스템을 구성하는 스마트 컨트롤링 디바이스(110)와 타 디바이스들(122, 124, 126, 128, 130)은 동일 네트워크에 속한 것을 예로 하나, 반드시 상기한 동일 네트워크에 한정될 필요는 없다. 한편, 상기 타 디바이스들로 도 1을 참조하면, 디지털 TV(122), 스마트폰(124), 전기 또는 로봇 청소기(126), 냉장고(128), 세탁기(130) 등과 같은 전자 디바이스들을 예시하였다. 다만, 이러한 전자 디바이스들에 한정되는 것은 아니다.In FIG. 1, the smart control device 110 and the other devices 122, 124, 126, 128, and 130 constituting the digital system are illustrated as belonging to the same network, but they need not necessarily be limited to the same network none. 1, electronic devices such as a digital TV 122, a smart phone 124, an electric or robot cleaner 126, a refrigerator 128, a washing machine 130, and the like are illustrated. However, the present invention is not limited to these electronic devices.

한편, 도 1b를 참조하면, 상기 스마트 컨트롤링 디바이스(110)는, 바디부의 외측면에 유저 입력부(163), 음향 출력부(152) 및 광 출력부(154)를 구비할 수 있다. 유저 입력부(163)는 유저로부터 제어 명령을 수신하도록 형성될 수 있으며, 복수로 구비될 수 있다. 이하, 복수의 유저 입력부에 대하여, 각각 제1유저 입력부(163a), 제2유저 입력부(163b) 및 제3유저 입력부(163c)라고 명명하여 설명한다. 마찬가지로, 광 출력부(154)도 복수로 구비될 수 있고, 각각 제1광출력부(154a) 및 제2광출력부(154b)라고 명명하여 설명한다. 상기 복수의 유저 입력부 및 광 출력부를 총칭하는 경우, 도면 부호 163 및 154를 이용하여 설명한다. 1B, the smart control ring device 110 may include a user input unit 163, an acoustic output unit 152, and a light output unit 154 on the outer surface of the body unit. The user input unit 163 may be configured to receive a control command from a user, and may be provided in plurality. Hereinafter, a plurality of user input units will be referred to as a first user input unit 163a, a second user input unit 163b, and a third user input unit 163c, respectively. Likewise, a plurality of optical output sections 154 may be provided, and will be referred to as a first optical output section 154a and a second optical output section 154b, respectively. When the plurality of user input units and optical output units are collectively referred to, the reference numerals 163 and 154 are used.

상기 바디부는 원통형일 수 있으며, 그 자체가 울림통의 기능을 가질 수 있다. 그리고 바디부는 디자인을 고려하여 그 크기가 결정될 수 있다. 한편, 바디부의 형태는 다양하게 변경 가능할 수 있다. The body part may be cylindrical, and may have a function as a ring-shaped body. The size of the body part can be determined considering the design. On the other hand, the shape of the body part can be variously changed.

상기 바디부는 원통의 측면을 이루는 제1영역(170), 원통의 밑면을 이루는 제2영역(180) 및 상기 제2영역(180)과 마주보도록 형성되며, 상기 원통의 또 다른 밑면을 이루는 제3영역(190)을 포함할 수 있다. 상기 제2영역(180)과 상기 제3영역(190)은 서로 동일한 면적을 가질 수도 있고, 서로 상이한 면적을 가질 수도 있다. The body portion includes a first region 170 forming a side face of the cylinder, a second region 180 forming a bottom face of the cylinder, and a third region 180 facing the second region 180, Area 190. The < / RTI > The second region 180 and the third region 190 may have the same area or different areas.

상기 제1영역(170)을 외측면, 상기 제2영역(180) 및 제3영역(190)을 외측 상면 및 외측 하면이라고 명명할 수도 있으나, 이하에서는, 제1, 제2및 제3영역이라는 용어를 사용하여 설명한다. The first region 170 may be referred to as the outer surface, the second region 180 and the third region 190 may be referred to as the outer upper surface and the outer bottom surface. Hereinafter, the first, second, The terms are used to describe them.

상기 제1영역(170)에는, 제3유저 입력부(163c), 제2광 출력부(154b), 적외선 출력부(155) 및 음향 출력부(152)를 구비할 수 있다. 예를 들어, 제2광 출력부(154c) 및 음향 출력부(152)는 서로 이격하여 형성될 수 있다. 또는, 상기 제2광 출력부(154c)의 적어도 일부는 음향 출력부(152)와 레이어 구조를 이루며 서로 중첩되도록 형성될 수 있다. 이러한 사항은 설계자의 설계에 의하여 용이하게 변경될 수 있다. The first region 170 may include a third user input portion 163c, a second optical output portion 154b, an infrared ray output portion 155, and an acoustic output portion 152. For example, the second light output section 154c and the sound output section 152 may be formed apart from each other. Alternatively, at least a part of the second light output section 154c may have a layer structure with the sound output section 152 and overlap each other. These matters can be easily changed by the designer's design.

상기 제2광 출력부(154b) 및 음향 출력부(152)는 바디부의 제1영역(170)을 둘러싸도록 형성될 수 있다. 따라서, 음향 출력부(152)는 바디부를 기준으로 사방으로 소리가 출력되도록 형성되고, 제2광 출력부(154c)는 바디부를 기준으로 사방으로 광을 출력할 수 있다. The second light output portion 154b and the acoustic output portion 152 may be formed to surround the first region 170 of the body portion. Accordingly, the sound output unit 152 is configured to output sound in all directions with respect to the body unit, and the second light output unit 154c outputs light in all directions with respect to the body unit.

상기 제3유저 입력부(163c)는 제1영역(170)의 상단에 배치될 수 있다. 상기 제3유저 입력부(163c)는 바디부의 중심점을 중심으로 회전되도록 형성될 수 있다. 따라서, 유저는 제3유저 입력부(163c)를 회전시켜, 스마트 컨트롤링 디바이스(110)의 음량을 크게 또는 작게 할 수 있다. The third user input unit 163c may be disposed at the top of the first area 170. [ The third user input unit 163c may be formed to rotate around the center of the body. Therefore, the user can rotate the third user input portion 163c to make the volume of the smart control ring device 110 large or small.

상기 적외선 출력부(155)는 적외선 신호가 사방으로 출력될 수 있는 위치에 배치될 수 있다. 예를 들어, 제1영역(170)의 상단에 적외선 출력부를 배치할 수 있다. 또 다른 예로, 제1영역(170)의 상단 중 회전 가능하도록 형성된 영역에 배치될 수 있다. 따라서, 적외선 출력부(155)는 임의의 위치에 위치한 외부 기기에 적외선 신호가 도달하도록 적외선 신호를 출력할 수 있다. 한편, 적외선 출력부의 배치 위치는 당업자의 설계에 의하여 적외선 신호가 사방으로 출력될 수 있는 위치로 변경될 수 있다. The infrared ray output unit 155 may be disposed at a position where an infrared ray signal can be output in all directions. For example, an infrared ray output unit may be disposed at an upper end of the first area 170. As another example, the first region 170 may be disposed at an upper portion of the first region 170 so as to be rotatable. Accordingly, the infrared ray output unit 155 can output an infrared ray signal so that an infrared ray signal reaches an external device located at an arbitrary position. On the other hand, the arrangement position of the infrared ray output portion can be changed to a position where the infrared ray signal can be output in all directions by the design of a person skilled in the art.

상기 제2영역(180)에는 디스플레이부(151), 제1및 제2유저 입력부(163a, 163b), 제1광 출력부(154a) 및 온도/습도 센서가 배치될 수 있다. In the second region 180, a display unit 151, first and second user input units 163a and 163b, a first light output unit 154a, and a temperature / humidity sensor may be disposed.

상기 디스플레이부(151)는 유저의 시각을 확보할 수 있도록 제2영역(180)의 중앙에 배치될 수 있다. 디스플레이부(151)의 주변 영역에는 유저 입력을 수신하도록 제1및 제2유저 입력부(163a, 163b)가 배치될 수 있다. The display unit 151 may be disposed at the center of the second area 180 so as to secure the time of the user. The first and second user input units 163a and 163b may be arranged to receive a user input in a peripheral area of the display unit 151. [

상기 제1및 제2유저 입력부(163a, 163b)는 눌림 조작에 의하여 동작하도록 버튼 식으로 형성되거나, 터치 조작에 의하여 동작하도록 터치 식으로 형성될 수 있다. 상기 제1및 제2유저 입력부(163a, 163b)는 서로 다른 기능이 수행되도록 형성될 수 있다. 예를 들어, 상기 제1유저 입력부(163a)는 음성 인식을 중단하기 위한 제어 명령을 입력하는 버튼이고, 상기 제2유저 입력부(163b)는 전원을 온/오프하기 위한 제어 명령을 입력하는 버튼일 수 있다. The first and second user input units 163a and 163b may be formed in a button manner to operate by a pressing operation or may be formed in a touch manner to operate by a touch operation. The first and second user input units 163a and 163b may be configured to perform different functions. For example, the first user input unit 163a is a button for inputting a control command for stopping speech recognition, and the second user input unit 163b is a button for inputting a control command for turning on / .

상기 제1광 출력부(154a)는 상기 제2영역(180)의 외곽을 따라 형성될 수 있다. 즉, 제1광 출력부(154a)는 제2영역(180)의 외곽을 둘러싸는 띠(band) 형태를 가질 수 있다. 예를 들어, 제1광 출력부(154a)는 제2영역(180)이 원형이면, 원을 둘러싸는 띠 형태가 될 수 있다. The first light output portion 154a may be formed along the outer edge of the second region 180. [ That is, the first light output portion 154a may have a band shape surrounding the outer region of the second region 180. [ For example, if the second region 180 is circular, the first light output portion 154a may be in the form of a band surrounding the circle.

상기 광 출력부(154)는 광원에서 빛이 방출되도록 형성될 수 있다. 이러한 광원으로 LED(light emitted diode)가 이용될 수 있다. 광원은 광 출력부(154)의 내주면에 위치하고, 광원에서 출력된 빛은 광 출력부(154)를 통과하여 외부를 비추게 된다. 이러한 광 출력부(154)는 빛이 투과할 수 있는 투명 또는 반투명의 재질로 이루어진다. The light output unit 154 may be formed to emit light from the light source. A light emitting diode (LED) may be used as such a light source. The light source is located on the inner circumferential surface of the light output section 154, and the light output from the light source passes through the light output section 154 to illuminate the outside. The light output portion 154 is made of a transparent or semitransparent material through which light can pass.

상기 광 출력부(154)는 스마트 컨트롤링 디바이스(110)에서 발생한 이벤트와 관련된 알림 정보를 광으로 출력할 수 있다. 예를 들어, 스마트 컨트롤링 디바이스(110)에서 음성 인식이 수행되는 중인 경우, 적색 광을 출력할 수 있다. 또한, 스마트 컨트롤링 디바이스(110)에서 수정 명령을 대기 중인 경우, 노란색 광을 출력할 수 있다. The light output unit 154 may output light information related to an event occurring in the smart control ring device 110 as light. For example, when speech recognition is being performed in the smart control ring device 110, red light may be output. Further, when the smart controlling device 110 is waiting for a correction command, it can output yellow light.

온도/습도 센서는 외부 온도 및 습도를 감지할 수 있도록 외부와 직접 닿을 수 있는 제2영역(180)에 배치될 수 있다. The temperature / humidity sensor may be disposed in a second area 180 that can be in direct contact with the outside so as to sense external temperature and humidity.

비록 도시되지는 않았지만, 제3영역(190)에는 외부로부터 전원을 수신하기 위한 전원 공급부 및 외부 장치와의 데이터 송수신을 위한 인터페이스, 음향 수신을 위한 오디오 입력부(마이크) 등이 더 배치될 수 있다. Although not shown, the third area 190 may further include a power supply for receiving power from the outside, an interface for transmitting and receiving data to and from an external device, and an audio input (microphone) for receiving sound.

관련하여, 본 발명에 따른 외부 디바이스들을 제어하는 일 예로, 스마트 컨트롤링 디바이스(110)는 적외선 통신을 통하여, 에어컨의 전원을 켜거나 에어컨의 온도를 조절할 수 있다. 이렇게 스마트 컨트롤링 디바이스(110)는 사물 인터넷 환경(Internet of Things, IoT) 하에서 외부 기기를 제어하는 컨트롤러 역할을 수행할 수 있다. As an example of controlling external devices according to the present invention, the smart controlling device 110 may turn on the air conditioner or adjust the temperature of the air conditioner through infrared communication. The smart control ring device 110 may serve as a controller for controlling an external device under the Internet of Things (IOT).

한편, 도 2를 참조하여 본 발명의 일 실시 예에 따른 단말기의 외관 내지 형상을 설명하면, 다음과 같다.Referring to FIG. 2, the appearance and shape of a terminal according to an embodiment of the present invention will be described.

도 2a의 단말기는 예컨대, 넥밴드 형태로 구현된 단말기이다. 도 2a를 참조하면, 단말기는 넥밴드(210)와 크래들(cradle)(230)로 구성된다. 상기 넥밴드(210)와 결합하여 하나의 단말기를 구성하되, 크래들(230)은 상기 넥밴드(210)가 거치될 수 있으며, 상기 거치되어 상기 넥밴드(210)로 전원을 공급할 수 있다. 상기 넥밴드(210)는 예컨대, 유저(사람)의 목에 거치 가능한 형태로 굴곡을 가지거나 유선 형상으로 구현될 수 있다. 한편, 상기 넥밴드(210)의 양 단에는 유저의 신체와 접촉 또는 비접촉을 통해 생체 신호를 센싱하는 구성(222,224)이 결합 또는 포함될 수 있다. 상기 크래들(230)는 전술한 바와 같이, 상기 넥밴드(210)에 전원 공급 이외에도 그 자체가 통신 기기로서 상기 넥밴드(210)의 센싱된 생체 신호를 유선 또는 무선으로 수신하고, 수신된 생체 신호에 기초하여 외부(관리자의 단말기, 서버 등)로 경고 신호, 제어 커맨드 등을 전송할 수도 있다. 한편, 상기 경고 신호, 제어 커맨드 등의 전송은 반드시 크래들(230)을 통해 이루어질 필요는 없고, 상기 넥밴드(210)를 통해서 이루어질 수도 있다.The terminal of FIG. 2A is a terminal implemented, for example, in the form of a neckband. Referring to FIG. 2A, the terminal includes a neckband 210 and a cradle 230. The neckband 210 may be coupled to the cradle 230 so that the neckband 210 may be mounted on the cradle 230 and the cradle 230 may be mounted on the neckband 210 to supply power to the neckband 210. For example, the neckband 210 may be bent in a form that can be mounted on the neck of a user (person), or may be realized in a wired form. On the other hand, both ends of the neckband 210 may be combined or included with a configuration 222, 224 for sensing a living body signal through contact or non-contact with a user's body. As described above, the cradle 230 receives the sensed living body signal of the neckband 210 as a communication device itself, in addition to power supply to the neckband 210, either by wire or wirelessly, and transmits the received living body signal (A terminal, a server, etc. of an administrator) on the basis of the received information. The transmission of the warning signal, the control command, and the like is not necessarily performed through the cradle 230, but may be performed through the neckband 210.

도 2b의 단말기는 전술한 도 2a의 단말기(210)와 유사하되, 넥밴드 형태가 아니라 목걸이와 유사한 형태로 구현된 예시이다. 이러한 단말기는 유저의 목 등을 통해 고정될 수 있는 줄과 센싱부로 구현될 수 있다.The terminal of FIG. 2B is similar to the terminal 210 of FIG. 2A described above, but is implemented in a form similar to a necklace rather than a neckband. Such a terminal may be implemented as a line and a sensing unit that can be fixed through a user's neck or the like.

도 2c의 단말기는 전술한 도 2a 내지 2b와 달리, 유저의 신체나 유저의 옷 등에 부착할 수 있는 형태로 구현된 예시이다.The terminal of FIG. 2C is an example implemented in a form that can be attached to a body of a user or clothes of a user, unlike the above-described FIGs. 2A to 2B.

전술한 바와 같이, 도 2b의 단말기와 도 2c의 단말기 모두 도시되진 않았으나, 도 2a에 설명한 크래들(230)과 같은 충전 구성을 통해 전원을 공급받을 수 있다. 그밖에, 본 발명에 따른 단말기는 도시된 외의 형태로 구현 가능함을 당업자에게 자명하다 할 것이다.As described above, both the terminal of FIG. 2B and the terminal of FIG. 2C are not shown, but may be powered through a charging arrangement such as the cradle 230 described in FIG. 2A. In addition, it will be apparent to those skilled in the art that the terminal according to the present invention can be implemented in other forms.

이하 도 1, 2 및 6을 참조하여, 본 발명에 따른 단말기를 설명한다. Hereinafter, a terminal according to the present invention will be described with reference to FIGS. 1, 2 and 6. FIG.

도 6을 참조하면, 단말기는 신호 수신부(610), 제어부(620), 신호 처리부(630), 메모리(640), 신호 출력부(650) 등 중 적어도 하나 이상을 포함하여 구성된다. 여기서, 상기 제어부(620)는 분석부(622), AI 처리부(624) 등이 포함될 수 있다. 다시 말해, 상기 분석부(622), AI 처리부(624)는 개별 구성일 수도 있고, 모듈화되어 하나의 구성일 수도 있다. 6, the terminal includes at least one of a signal receiving unit 610, a control unit 620, a signal processing unit 630, a memory 640, and a signal output unit 650. Here, the controller 620 may include an analyzer 622, an AI processor 624, and the like. In other words, the analyzing unit 622 and the AI processing unit 624 may be individually configured or may be modularized to have one configuration.

신호 수신부(610)는, 유저의 음성 명령, 센서를 통한 센싱 신호를 수신한다. 이때, 상기 음성 명령은 예컨대, ‘앨리스”와 같은 시작 신호와 상기 시작 신호 외의 명령, 요청 등과 같은 동작 신호로 구분될 수 있다. 이하 본 명세서에서는, 상기 시작 신호는 시작 데이터, 음성 명령 트리거 신호, 음성 명령 트리거 데이터, 트리거 신호, 트리거 데이터 등 다양하게 호칭될 수 있는데, 편의상 트리거 데이터로 설명한다. 이때, 신호와 데이터는 예컨대, 형태 내지 포맷의 차이는 있으나, 실질적으로 동일한 의미로 사용될 수 있다. 따라서, 특별히 구분하지 않는 한, 본 명세서에서 상기 신호와 데이터는 동일한 의미로 해석될 수 있다. 한편, 상기 트리거 데이터를 제외한 입력 신호 내 데이터는 커맨드 데이터(또는 리얼 데이터)로 명명하여 설명한다. 이러한 커맨드 데이터는 예컨대, 발화자(유저)의 실제 명령 데이터를 의미한다. 신호 수신부(610)는 수신된 음성 명령을 제어부(620)로 전송한다. 이때, 상기 전송되는 음성 명령에서 트리거 데이터는 제외될 수 있다. 예컨대, 신호 수신부(610)는 상기 트리거 데이터가 포함되거나 입력되지 않은 경우에 수신되는 신호는 무시하거나 제어부(620)로 전달하지 않을 수 있다. 한편, 신호 수신부(610)는 상기에서는 음성 명령을 예로 하였으나, 이에 한정되는 것은 아니다. 따라서, 상기 신호 수신부(610)는, 텍스트, 모션, 터치 등 다양한 신호를 수신할 수 있으며, 그를 위한 인터페이스 등을 구비할 수 있다. The signal receiving unit 610 receives a voice command of the user and a sensing signal through the sensor. At this time, the voice command may be classified into a start signal such as 'Alice' and an operation signal such as an instruction other than the start signal, a request, or the like. Hereinafter, the start signal may be variously referred to as start data, voice command trigger signal, voice command trigger data, trigger signal, trigger data, and the like. At this time, the signal and data may be used in substantially the same meaning, for example, although there is a difference in form or format. Therefore, unless otherwise specified, the signal and data in this specification may be interpreted in the same sense. On the other hand, the data in the input signal excluding the trigger data is referred to as command data (or real data). Such command data means, for example, actual command data of a speaking person (user). The signal receiving unit 610 transmits the received voice command to the controller 620. At this time, the trigger data in the transmitted voice command can be excluded. For example, when the trigger data is included or not input, the signal receiving unit 610 may ignore the received signal or may not transmit the signal to the controller 620. In the meantime, the signal receiving unit 610 has exemplified the voice command in the above, but the present invention is not limited thereto. Accordingly, the signal receiving unit 610 can receive various signals such as text, motion, touch, and the like, and can include an interface therefor.

제어부(620)는 전술한 바와 같이, 인식부(622), AI 처리부(624) 등을 포함한다. 상기 인식부(622)는 신호 수신부(210)로부터 수신되는 입력 신호 내 트리거 데이터와 커맨드 데이터를 그 입력 신호 포맷에 따라 인식한다. 예컨대, 상기 신호 수신부(610)를 통한 입력 신호가 음성 포맷이면, 상기 인식부(622)는 음성 인식 기능, 툴, 모듈, 엔진 등 하드웨어 또는 소프트웨어를 이용하여 상기 입력 신호를 인식한다. 이때, 상기 인식부(622)는 상기 음성 입력 신호를 STT(Sound to Text)(또는 경우에 따라 TTS(Text to Sound))에 기초하여 텍스트 포맷으로 전환한 후에 AI 처리부(624)로 전달하여 분석 등에 이용될 수 있다. 상기 AI 처리부(624)는 인식부(622)로부터 전달되는 입력 신호 데이터를 분석한다. 예컨대, 상기 인식부(622) 또는 AI 처리부(624)는 수신되는 입력 신호 내 트리거 데이터가 인식 내지 분석되면, 그에 따라 후술하는 바와 같이, 본 발명에 따라 인접 디스플레이 디바이스를 디텍팅, 선택, 제어 등을 할 수 있다. 상기 AI 처리부(624)는, 인식부(622)를 통해 인식된 입력 신호를 분석하여 응답 데이터를 생성한다. 상기에서, 분석이라 함은 예를 들어, 유효한 입력 신호 여부, 트리거 또는 커맨드 데이터에 대한 속성, 종류, 타입 등을 판단하는 것을 의미할 수 있다. The control unit 620 includes a recognition unit 622, an AI processing unit 624, and the like, as described above. The recognition unit 622 recognizes the trigger data and the command data in the input signal received from the signal receiving unit 210 according to the input signal format. For example, if the input signal through the signal receiving unit 610 is a voice format, the recognizing unit 622 recognizes the input signal using hardware or software such as a voice recognition function, a tool, a module, and an engine. At this time, the recognition unit 622 converts the voice input signal into a text format based on STT (Sound to Text) (or TTS (Text to Sound) in some cases), and then transfers the voice input signal to the AI processing unit 624 And the like. The AI processing unit 624 analyzes the input signal data transmitted from the recognizing unit 622. For example, when the trigger data in the received input signal is recognized or analyzed, the recognition unit 622 or the AI processing unit 624 may detect the adjacent display device according to the present invention, can do. The AI processing unit 624 analyzes the input signal recognized by the recognition unit 622 and generates response data. In the above, the analysis may mean, for example, judging whether or not a valid input signal, attribute, type, and type of trigger or command data.

한편, 상기 AI 처리부(624)는, 인공 지능 기술에 기반하여 정보들을 처리하는 역할을 수행하는 것으로, 정보의 학습, 정보의 추론, 정보의 지각, 자연 언어의 처리 중 적어도 하나를 수행하는 하나 이상의 모듈을 포함할 수 있다. Meanwhile, the AI processing unit 624 plays a role of processing information based on artificial intelligence technology. The AI processing unit 624 includes at least one or more of AI learning, information inference, information perception, Modules.

AI 처리부(624)는 머신 러닝(machine running) 기술을 이용하여, 단말기 내에 저장된 정보, 단말기 주변의 환경 정보, 통신 가능한 외부 저장소에 저장된 정보 등 방대한 양의 정보(빅 데이터, big data)를 학습, 추론, 처리 중 적어도 하나를 수행할 수 있다. 그리고 AI 처리부(624)는 상기 머신 러닝 기술을 이용하여 학습된 정보들을 이용하여, 실행 가능한 적어도 하나의 단말기의 동작을 예측(또는 추론)하고, 상기 적어도 하나의 예측된 동작들 중 가장 실현성이 높은 동작이 실행되도록 단말기를 제어할 수 있다. The AI processing unit 624 can use a machine running technology to learn a large amount of information (big data, big data) such as information stored in the terminal, environment information around the terminal, information stored in a communicable external storage, Inference, and processing. The AI processing unit 624 predicts (or inferences) the operation of at least one executable terminal by using the learned information using the machine learning technique, and the AI processing unit 624 determines the most feasible The terminal can be controlled so that the operation is performed.

상기 머신 러닝 기술은 적어도 하나의 알고리즘에 근거하여, 대규모의 정보들을 수집 및 학습하고, 학습된 정보를 바탕으로 정보를 판단 및 예측하는 기술이다. 정보의 학습이란 정보들의 특징, 규칙, 판단 기준 등을 파악하여, 정보와 정보 사이의 관계를 정량화하고, 정량화된 패턴을 이용하여 새로운 데이터들을 예측하는 동작이다. The machine learning technique collects and learns a large amount of information based on at least one algorithm, and determines and predicts information based on the learned information. The learning of information is an operation that grasps the characteristics, rules, and judgment criteria of information, quantifies the relationship between information and information, and predicts new data using a quantified pattern.

이러한 머신 러닝 기술이 사용하는 알고리즘은 통계학에 기반한 알고리즘이 될 수 있으며, 예를 들어, 트리 구조 형태를 예측 모델로 사용하는 의사 결정 나무(decision tree), 생물의 신경 네트워크 구조와 기능을 모방하는 인공 신경망(neural network), 생물의 진화 알고리즘에 기반한 유전자 프로그래밍(genetic programming), 관측된 예를 군집이라는 부분집합으로 분배하는 군집화(Clustering), 무작위로 추출된 난수를 통해 함수값을 확률로 계산하는 몬테카를로 방법(Monter carlo method) 등이 될 수 있다. The algorithms used by such machine learning techniques may be statistical based algorithms, for example, a decision tree that uses the tree structure type as a prediction model, an artificial tree that mimics the neural network structure and function of the organism Neural networks, genetic programming based on biological evolutionary algorithms, clustering to distribute observed examples to a subset of clusters, Monte Carlo computation of probability values through randomly extracted random numbers, Method (Monter carlo method) or the like.

머신 러닝 기술의 한 분야로써, 딥 러닝(deep running) 기술은 인공 신경망 알고리즘을 이용하여, 정보들을 학습, 판단, 처리 중 적어도 하나를 수행하는 기술이다. 인공 신경망은 레이어(layer)와 레이어 사이를 연결하고, 레이어와 레이어 사이의 데이터를 전달하는 구조를 가질 수 있다. 이러한 딥러닝 기술은 병렬 연산에 최적화된 GPU(graphic processing unit)를 이용하여 인공 신경망을 통하여 방대한 양의 정보를 학습할 수 있다. As a field of machine learning technology, deep running technology is a technology that performs at least one of learning, judging, and processing information using an artificial neural network algorithm. An artificial neural network can have a structure that links layers and layers, and conveys data between layers and layers. This deep learning technique can learn vast amount of information through artificial neural network using GPU (graphic processing unit) optimized for parallel computing.

한편, AI 처리부(624)는 머신 러닝 기술을 적용하기 위한 방대한 양의 정보들을 수집하기 위하여, 단말기의 구성 요소들에서 입력 또는 출력되는 신호, 데이터, 정보 등을 수집(감지, 모니터링, 추출, 검출, 수신)할 수 있다. 또한, AI 처리부(624)는 통신을 통하여 연결되는 외부 저장소(예를 들어, 클라우드 서버, cloud server)에 저장된 데이터, 정보 등을 수집(감지, 모니터링, 추출, 검출, 수신)할 수 있다. 보다 구체적으로, 정보의 수집이란, 센서를 통하여 정보를 감지하거나, 메모리(640)에 저장된 정보를 추출하거나, 통신을 통하여, 외부 저장소로부터 정보들을 수신하는 동작을 포함하는 용어로 이해될 수 있다. Meanwhile, the AI processing unit 624 collects (detects, monitors, extracts, and detects signals, data, information, and the like) input or output from the components of the terminal to collect vast amounts of information for applying the machine learning technology , Receiving). The AI processing unit 624 can collect (detect, monitor, extract, detect, and receive) data, information, and the like stored in an external storage (for example, a cloud server) More specifically, the collection of information can be understood as including the operation of sensing information through a sensor, extracting information stored in the memory 640, or receiving information from an external storage through communication.

AI 처리부(624)는 센싱부(미도시)를 통하여, 단말기 내 정보, 단말기를 둘러싼 주변 환경 정보 및 유저 정보를 감지할 수 있다. 또한, AI 처리부(624)는 무선 통신부(미도시)를 통하여, 방송 신호 및/또는 방송 관련된 정보, 무선 신호, 무선 데이터 등을 수신할 수 있다. 또한, AI 처리부(624)는 입력부로부터 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터 또는 유저로부터 입력되는 정보를 입력받을 수 있다. The AI processing unit 624 can detect information in the terminal, surrounding environment information surrounding the terminal, and user information through a sensing unit (not shown). In addition, the AI processing unit 624 can receive broadcast signals and / or broadcast-related information, wireless signals, wireless data, and the like through a wireless communication unit (not shown). The AI processing unit 624 can receive image information (or signal), audio information (or signal), data, or information input from the user from the input unit.

이러한 AI 처리부(624)는 백그라운드 상에서 실시간으로 방대한 양의 정보들을 수집하고, 이를 학습하여, 적절한 형태로 가공한 정보(예를 들어, 지식 그래프, 명령어 정책, 개인화 데이터베이스, 대화 엔진 등)를 메모리(640)에 저장할 수 있다. The AI processing unit 624 collects a large amount of information in real time in the background, learns it, and stores information (for example, a knowledge graph, a command policy, a personalization database, 640).

그리고 AI 처리부(624)는 머신 러닝 기술을 이용하여 학습된 정보들을 바탕으로, 단말기의 동작이 예측되면, 이러한 예측된 동작을 실행하기 위하여, 단말기의 구성 요소들을 제어하거나, 예측된 동작을 실행하기 위한 제어 명령을 제어부(620)로 전달할 수 있다. 제어부(620)는 제어 명령에 근거하여, 단말기를 제어함으로써, 예측된 동작을 실행할 수 있다. When the operation of the terminal is predicted based on the information learned using the machine learning technology, the AI processing unit 624 controls the elements of the terminal, executes the predicted operation, To the control unit 620. [0064] The control unit 620 can execute the predicted operation by controlling the terminal based on the control command.

한편, AI 처리부(624)는 특정 동작이 수행되면, 머신 러닝 기술을 통하여, 특정 동작의 수행을 나타내는 이력 정보를 분석하고, 이러한 분석 정보를 바탕으로 기존의 학습된 정보에 대한 업데이트를 수행할 수 있다. 이에, AI 처리부(224)는 정보 예측의 정확도를 향상시킬 수 있다. On the other hand, when the specific operation is performed, the AI processing unit 624 analyzes the history information indicating the performance of the specific operation through the machine learning technique, and updates the existing learned information based on the analysis information have. Accordingly, the AI processing unit 224 can improve the accuracy of information prediction.

한편, 본 명세서에서, 인식부(622) 또는/및 AI 처리부(624)는, 제어부(620)와 동일한 구성요소로 이해될 수 있다. 이 경우, 본 명세서에서 설명되는 제어부(620)에서 수행되는 기능은, 인식부(622) 또는/및 AI 처리부(624)에서 수행된다고 표현할 수 있으며, 그 반대도 마찬가지이다.In the present specification, the recognition unit 622 and / or the AI processing unit 624 may be understood as the same components as the control unit 620. [ In this case, the functions performed in the control unit 620 described in this specification can be expressed as being performed in the recognition unit 622 and / or the AI processing unit 624, and vice versa.

또한, 이와 다르게, 본 명세서에서, 인식부(622) 또는/및 AI 처리부(624)와 제어부(620)는 별도의 구성요소로 이해될 수 있다. 이 경우, 인식부(622) 또는/및 AI 처리부(624)는, 제어부(620)와 서로 데이터 교환을 통하여, 단말기상에서 다양한 제어를 수행할 수 있다. 제어부(620)는 AI 처리부(624)에서 도출된 결과를 기반으로, 단말기 상에서 적어도 하나의 기능을 수행하거나, 단말기의 구성요소 중 적어도 하나를 제어할 수 있다. 나아가, AI 처리부(624) 또한, 제어부(620)의 제어 하에 동작될 수 있다.Alternatively, in the present specification, the recognition unit 622 and / or the AI processing unit 624 and the control unit 620 can be understood as separate components. In this case, the recognition unit 622 and / or the AI processing unit 624 can perform various controls on the terminal by exchanging data with the control unit 620. The control unit 620 may perform at least one function on the terminal or control at least one of the components of the terminal based on the results obtained from the AI processing unit 624. [ Furthermore, the AI processing unit 624 can also be operated under the control of the control unit 620. [

메모리(640)는, 상기 수신되는 음성 명령의 분석, 상기 컨트롤 커맨드 등 단말기의 데이터 처리 등과 관련하여 필요한 데이터를 저장한다. 또한, 메모리(640)는 단말기의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(640)는 단말기에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 단말기의 동작을 위한 데이터들, 명령어들, AI 처리부(624)의 동작을 위한 데이터들(예를 들어, 머신 러닝을 위한 적어도 하나의 알고리즘 정보 등)을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 한편, 응용 프로그램은, 메모리(640)에 저장되고, 단말기 상에 설치되어, 제어부(620)에 의하여 상기 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 640 stores necessary data related to analysis of the received voice command, data processing of the terminal such as the control command, and the like. Also, the memory 640 stores data supporting various functions of the terminal. The memory 640 stores a plurality of application programs or applications running on the terminal, data for operation of the terminal, commands, data for operation of the AI processing unit 624 (for example, At least one algorithm information for machine learning, etc.). At least some of these applications may be downloaded from an external server via wireless communication. Meanwhile, the application program may be stored in the memory 640, installed on the terminal, and operated by the control unit 620 to perform the operation (or the function) of the terminal.

신호 처리부(630)는, 상기 제어부(620)의 제어에 따라 해당 신호를 생성한다. 이렇게 생성되는 신호에는 예컨대, 전술한 컨트롤 커맨드가 포함될 수 있다. 또한, 신호 처리부(630)는, 그 외 단말기에서 필요한 다양한 데이터를 처리할 수 있다.The signal processing unit 630 generates the corresponding signal under the control of the control unit 620. For example, the aforementioned control command may be included in the generated signal. In addition, the signal processing unit 630 can process various data required by other terminals.

신호 출력부(650)는, 신호 처리부(630)에서 처리된 신호를 소정 출력 방식에 따라 내부 또는 외부 디바이스로 전송한다. 이때, 상기 출력 방식은, 통신 프로토콜, 목적 디바이스, 출력 신호의 종류 등 중 적어도 하나에 따라 결정 또는 달라질 수 있다.The signal output unit 650 transmits a signal processed by the signal processing unit 630 to an internal or external device according to a predetermined output method. At this time, the output method may be determined or changed according to at least one of a communication protocol, a destination device, a kind of an output signal, and the like.

도시되진 않았으나, 단말기는 필요에 따라 신호/데이터의 송수신을 위해 필요한 통신 인터페이스 등을 더 포함할 수 있다.Although not shown, the terminal may further include a communication interface necessary for transmitting / receiving signals / data as required.

이하에서 본 발명에 따른 단말기와 데이터 커뮤니케이션을 수행하는 단말기의 하나로 고정형 디바이스로는 네트워크 TV, HBBTV(Hybrid Broadcast Broadband TV), 스마트 TV, IPTV(Internet Protocol TV), PC(Personal Computer) 등이 포함될 수 있다. 한편, 상기 단말기는, 단지 디스플레이 패널만을 구비한 사이니지(Signage) 형태 또는 다른 구성 예를 들어, 셋-톱 박스(STB: Set-top Box) 등과 함께 세트(SET) 형태로 구현될 수도 있다.Hereinafter, a fixed device such as a network TV, a Hybrid Broadcast Broadband TV (HBBTV), a Smart TV, an IPTV (Internet Protocol TV), a PC (Personal Computer), etc. may be included as one of terminals for performing data communication with a terminal according to the present invention have. Meanwhile, the terminal may be implemented in the form of a sign with only a display panel or a SET with another configuration, for example, a set-top box (STB).

한편, 상기 단말기는, 범용 OS(Operating System), 웹OS(Web OS) 등이 이용될 수 있으며, 범용 OS 커널(OS kernel), 리눅스 커널(Linux kernel) 등에 다양한 서비스나 애플리케이션을 추가, 삭제, 수정, 업데이트 등 처리가 가능하며, 그를 통해 더욱 유저 친화적인 환경을 제공할 수 있다.The terminal may be a general OS (Operating System), a web OS (OS), or the like. The terminal may add various services and applications to an OS kernel, a Linux kernel, Modify, update, etc., thereby providing a more user-friendly environment.

상기 단말기는 예컨대, 디스플레이를 포함하는 디바이스를 모두 포함하는 의미로, 디스플레이 디바이스로도 명명할 수 있다. 이하, 도 4에서는 디스플레이 디바이스의 일 예로 디지털 TV를, 그리고 도 5에서는 디스플레이 디바이스의 다른 예로 이동 단말기를 예로 하여 설명한다. 다만, 전술한 바와 같이, 단말기는 도 4와 5에 한정되지 않고 디스플레이를 포함한 모든 장치를 포함할 수 있다.The terminal may also be referred to as a display device in the sense that it includes all of the devices including a display. Hereinafter, FIG. 4 illustrates a digital TV as an example of a display device, and FIG. 5 illustrates a mobile terminal as another example of a display device. However, as described above, the terminal is not limited to Figs. 4 and 5, and may include all devices including a display.

전술한 도 3a 내지 4b의 구성은 디지털 TV(400)와 같은 고정 단말기에만 적용 가능한 경우를 제외하면, 후술하는 이동 단말기에도 적용될 수도 있음을 본 기술 분야의 당업자라면 쉽게 알 수 있다.It will be readily apparent to those skilled in the art that the configurations of FIGS. 3A through 4B may be applied to a mobile terminal, which will be described later, except when the configuration is applicable only to a fixed terminal such as the digital TV 400. [

예컨대, 본 명세서에서 설명되는 이동 단말기에는 음성 인식 스피커, 휴대폰, 스마트폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기(smart watch), 글래스형 단말기(smart glass), HMD(head mounted display)) 등이 포함될 수 있다.For example, the mobile terminal described herein may include a voice recognition speaker, a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP) A slate PC, a tablet PC, an ultrabook, a wearable device (e.g., a smart watch, a glass glass, an HMD (head mounted) display)), and the like.

본 명세서에서 본 발명에 따른 스마트 컨트롤링 디바이스(110)와 데이터 커뮤니케이션을 수행하는 단말기의 다른 하나로 이동 단말기는 다음과 같다.Hereinafter, a smart control device 110 according to an embodiment of the present invention will be described.

도 3은 본 발명과 관련된 이동 단말기의 구성 블록도이다.3 is a configuration block diagram of a mobile terminal according to the present invention.

도 3a를 참조하면, 상기 이동 단말기(300)는 무선 통신부(310), 입력부(320), 감지부(340), 출력부(350), 인터페이스부(360), 메모리(370), 제어부(380), 전원 공급부(390) 등을 포함할 수 있다. 도 3a에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 3A, the mobile terminal 300 includes a wireless communication unit 310, an input unit 320, a sensing unit 340, an output unit 350, an interface unit 360, a memory 370, a controller 380 A power supply unit 390, and the like. The components shown in FIG. 3A are not essential for implementing a mobile terminal, so that the mobile terminal described herein may have more or fewer components than the components listed above.

보다 구체적으로, 상기 구성요소들 중 무선 통신부(310)는, 이동 단말기(300)와 무선 통신 시스템 사이, 이동 단말기(300)와 다른 이동 단말기(300) 사이, 또는 이동 단말기(300)와 외부 서버 사이의 무선 통신을 가능하게 하는 적어도 하나의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(310)는, 이동 단말기(300)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The wireless communication unit 310 may be connected between the mobile terminal 300 and the wireless communication system or between the mobile terminal 300 and another mobile terminal 300 or between the mobile terminal 300 and the external server 300. [ And at least one module that enables wireless communication between the base station and the base station. In addition, the wireless communication unit 310 may include one or more modules for connecting the mobile terminal 300 to one or more networks.

이러한 무선 통신부(310)는, 방송 수신 모듈(311), 이동 통신 모듈(312), 무선 인터넷 모듈(313), 근거리 통신 모듈(314), 위치 정보 모듈(315) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 310 may include at least one of a broadcast receiving module 311, a mobile communication module 312, a wireless Internet module 313, a short distance communication module 314, and a location information module 315 .

입력부(320)는, 영상 신호 입력을 위한 카메라(321) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 322), 또는 오디오 입력부, 유저로부터 정보를 입력받기 위한 유저 입력부(323, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(320)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 유저의 제어 명령으로 처리될 수 있다.The input unit 320 includes a camera 321 or an image input unit for inputting a video signal, a microphone 322 for inputting an audio signal or an audio input unit and a user input unit 323 for receiving information from a user A touch key, a mechanical key, and the like). The voice data or image data collected by the input unit 320 may be analyzed and processed by the user's control command.

센싱부(340)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 유저 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(340)는 근접 센서(341, proximity sensor), 조도 센서(342, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문 인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(321 참조)),마이크로폰(microphone, 322 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스-케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 340 may include at least one sensor for sensing at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information. For example, the sensing unit 340 may include a proximity sensor 341, an illumination sensor 342, a touch sensor, an acceleration sensor, a magnetic sensor, A G-sensor, a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor, a finger scan sensor, an ultrasonic sensor, A microphone 322, a battery gauge, an environmental sensor (for example, a barometer, a hygrometer, a thermometer, a radiation detection sensor, a temperature sensor, A thermal sensor, a gas sensor, etc.), a chemical sensor (e.g., an electronic nose, a health-care sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in the present specification can combine and utilize information sensed by at least two of the sensors.

출력부(350)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(351), 음향 출력부(552), 햅팁 모듈(353), 광 출력부(354), 적외선 출력부(355) 중 적어도 하나를 포함할 수 있다. 디스플레이부(351)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(300)와 유저 사이의 입력 인터페이스를 제공하는 유저 입력부(323)로써 기능함과 동시에, 이동 단말기(300)와 유저 사이의 출력 인터페이스를 제공할 수 있다.The output unit 350 is for generating output related to the visual, auditory or tactile sense and includes a display unit 351, an acoustic output unit 552, a haptrip module 353, a light output unit 354, an infrared output unit 355 < / RTI > The display unit 351 may have a mutual layer structure with the touch sensor or may be integrally formed to realize a touch screen. The touch screen functions as a user input unit 323 that provides an input interface between the mobile terminal 300 and a user and can provide an output interface between the mobile terminal 300 and a user.

인터페이스부(360)는 이동 단말기(300)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(360)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O 포트, 이어폰 포트 중 적어도 하나를 포함할 수 있다. 이동 단말기(300)에서는, 상기 인터페이스부(360)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 360 serves as a pathway to various kinds of external devices connected to the mobile terminal 300. The interface unit 360 may include a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / ) Port, a video I / O port, and an earphone port. In the mobile terminal 300, corresponding to the connection of the external device to the interface unit 360, it is possible to perform appropriate control related to the connected external device.

또한, 메모리(370)는 이동 단말기(300)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(370)는 이동 단말기(300)에서 구동되는 다수의 응용 프로그램, 이동 단말기(300)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(300)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(300)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(370)에 저장되고, 이동 단말기(300) 상에 설치되어, 제어부(380)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 370 stores data supporting various functions of the mobile terminal 300. The memory 370 may store a plurality of application programs driven by the mobile terminal 300, data for operation of the mobile terminal 300, and commands. At least some of these applications may be downloaded from an external server via wireless communication. At least some of these application programs may be present on the mobile terminal 300 from the time of shipment for the basic functions (e.g., call incoming, outgoing, message reception, origination) of the mobile terminal 300 . Meanwhile, the application program may be stored in the memory 370, installed on the mobile terminal 300, and operated by the control unit 380 to perform the operation (or function) of the mobile terminal.

제어부(380)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(300)의 전반적인 동작을 제어한다. 제어부(380)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(370)에 저장된 응용 프로그램을 구동함으로써, 유저에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The control unit 380 controls the overall operation of the mobile terminal 300, in addition to the operations related to the application program. The control unit 380 may process or process signals, data, information, and the like input or output through the above-described components, or may drive an application program stored in the memory 370 to provide or process appropriate information or functions to the user.

또한, 제어부(380)는 메모리(370)에 저장된 응용 프로그램을 구동하기 위하여, 도 3과 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(380)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(300)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the controller 380 may control at least some of the components illustrated in FIG. 3 to drive an application program stored in the memory 370. In addition, the controller 380 can operate at least two of the components included in the mobile terminal 300 in combination with each other for driving the application program.

전원 공급부(390)는 제어부(380)의 제어 하에서, 외부의 전원, 내부의 전원을 인가받아 이동 단말기(300)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원 공급부(390)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.The power supply unit 390 receives external power and internal power under the control of the controller 380 and supplies power to the respective components included in the mobile terminal 300. The power supply unit 390 includes a battery, which may be an internal battery or a replaceable battery.

상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어 방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어 방법은 상기 메모리(370)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다. At least some of the components may operate in cooperation with one another to implement a method of operation, control, or control of a mobile terminal according to various embodiments described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 370. [

이하에서는, 위에서 살펴본 이동 단말기(300)를 통하여 구현되는 다양한 실시 예들을 살펴 보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 5를 참조하여 보다 구체적으로 살펴본다.Hereinafter, the components listed above will be described in more detail with reference to FIG. 5 before explaining various embodiments implemented through the mobile terminal 300 as described above.

먼저, 무선 통신부(310)에 대하여 살펴 보면, 무선 통신부(310)의 방송 수신 모듈(311)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동 단말기(300)에 제공될 수 있다.Referring to the wireless communication unit 310, the broadcast receiving module 311 of the wireless communication unit 310 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. Two or more broadcast receiving modules may be provided to the mobile terminal 300 for simultaneous broadcast reception or broadcast channel switching for at least two broadcast channels.

이동 통신 모듈(312)은, 이동 통신을 위한 기술 표준들 또는 통신 방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(LTE-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module 312 may be a mobile communication module that is capable of communicating with a plurality of mobile communication devices such as a mobile communication module, a mobile communication module, a mobile communication module, a mobile communication module, (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE-Advanced), or the like) on a mobile communication network.

상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(313)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(300)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(313)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The wireless Internet module 313 is a module for wireless Internet access, and may be embedded in the mobile terminal 300 or externally. The wireless Internet module 313 is configured to transmit and receive wireless signals in a communication network according to wireless Internet technologies.

무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA, HSUPA, LTE, LTE-A 등이 있으며, 상기 무선 인터넷 모듈(513)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.Wireless Internet technologies include, for example, wireless LAN (WLAN), wireless fidelity (Wi-Fi), wireless fidelity (Wi-Fi) Direct, DLNA (Digital Living Network Alliance), WiBro The wireless Internet module 513 transmits and receives data according to at least one wireless Internet technology in a range including Internet technologies not listed in the above. do.

WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선 인터넷 접속은 이동 통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동 통신망을 통해 무선 인터넷 접속을 수행하는 상기 무선 인터넷 모듈(313)은 상기 이동 통신 모듈(312)의 일종으로 이해될 수도 있다.In view of wireless Internet access by WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A and the like through a mobile communication network, the wireless Internet module 313 May be understood as a kind of the mobile communication module 312.

근거리 통신 모듈(314)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi, Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(314)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 이동 단말기(300)와 무선 통신 시스템 사이, 이동 단말기(300)와 다른 이동 단말기(300) 사이, 또는 이동 단말기(300)와 다른 이동 단말기(또는 외부 서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.The short-range communication module 314 is for short-range communication. The short-range communication module 314 may be a Bluetooth ™, a Radio Frequency Identification (RFID), an Infrared Data Association (IrDA), an Ultra Wideband (UWB) (Near Field Communication), Wi-Fi, Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technology. The short range communication module 314 may be connected to the wireless communication system between the mobile terminal 300 and another mobile terminal 300 or between the mobile terminal 300 and the mobile terminal 300 through wireless local area networks ) And a network in which another mobile terminal (or an external server) is located. The short-range wireless communication network may be a short-range wireless personal area network.

여기에서, 다른 이동 단말기(300)는 본 발명에 따른 이동 단말기(300)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smart watch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(314)은, 이동 단말기(300) 주변에, 상기 이동 단말기(300)와 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(380)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 이동 단말기(300)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(300)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(314)을 통해 웨어러블 디바이스로 전송할 수 있다. 따라서, 웨어러블 디바이스의 유저는, 이동 단말기(300)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 이에 따르면 유저는, 이동 단말기(300)에 전화가 수신된 경우, 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 이동 단말기(300)에 메시지가 수신된 경우, 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.Herein, another mobile terminal 300 is a wearable device (e.g., a smart watch, a smart phone, etc.) capable of exchanging data with the mobile terminal 300 according to the present invention Glass (smart glass), head mounted display (HMD)). The short range communication module 314 may detect (or recognize) a wearable device capable of communicating with the mobile terminal 300 around the mobile terminal 300. [ If the detected wearable device is a device authenticated to communicate with the mobile terminal 300 according to the present invention, the control unit 380 may transmit at least a part of the data processed by the mobile terminal 300 to the short- 314 to the wearable device. Therefore, the user of the wearable device can use the data processed by the mobile terminal 300 through the wearable device. For example, according to this, when a telephone is received in the mobile terminal 300, the user performs a telephone conversation via the wearable device, or when a message is received in the mobile terminal 300, It is possible to check the message.

위치 정보 모듈(315)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 Wi-Fi 모듈이 있다. 예를 들어, 이동 단말기는 GPS 모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 이동 단말기의 위치를 획득할 수 있다. 다른 예로서, 이동 단말기는 Wi-Fi 모듈을 활용하면, Wi-Fi 모듈과 무선 신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 이동 단말기의 위치를 획득할 수 있다. 필요에 따라서, 위치 정보 모듈(315)은 치환 또는 부가적으로 이동 단말기의 위치에 관한 데이터를 얻기 위해 무선 통신부(310)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치 정보 모듈(315)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 이동 단말기의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.The position information module 315 is a module for obtaining the position (or current position) of the mobile terminal, and a representative example thereof is a Global Positioning System (GPS) module or a Wi-Fi module. For example, when the mobile terminal utilizes the GPS module, it can acquire the position of the mobile terminal by using a signal transmitted from the GPS satellite. As another example, when the mobile terminal utilizes the Wi-Fi module, it can acquire the position of the mobile terminal based on information of a wireless access point (AP) that transmits or receives the wireless signal with the Wi-Fi module. Optionally, the location information module 315 may perform any of the other functions of the wireless communication unit 310 to obtain data relating to the location of the mobile terminal, in addition or alternatively. The position information module 315 is a module used for obtaining the position (or current position) of the mobile terminal, and is not limited to the module for directly calculating or acquiring the position of the mobile terminal.

다음으로, 입력부(320)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 유저로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 이동 단말기(300)는 하나 또는 복수의 카메라(321)를 구비할 수 있다. 카메라(321)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(351)에 표시되거나 메모리(370)에 저장될 수 있다. 한편, 이동 단말기(300)에 구비되는 복수의 카메라(321)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(321)를 통하여, 이동 단말기(300)에는 다양한 각도 또는 초점을 갖는 복수의 영상 정보가 입력될 수 있다. 또한, 복수의 카메라(321)는 입체 영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.The input unit 320 is for inputting image information (or signal), audio information (or signal), data, or information input from a user. For inputting image information, Or a plurality of cameras 321. The camera 321 processes an image frame such as a still image or moving image obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame may be displayed on the display unit 351 or stored in the memory 370. [ A plurality of cameras 321 provided in the mobile terminal 300 may be arranged to have a matrix structure and various angles or foci may be provided to the mobile terminal 300 through the camera 321 having a matrix structure A plurality of pieces of image information can be input. In addition, the plurality of cameras 321 may be arranged in a stereo structure to acquire a left image and a right image for realizing the stereoscopic image.

마이크로폰(322)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동 단말기(300)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(322)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 322 processes the external acoustic signal into electrical voice data. The processed voice data can be utilized variously according to a function (or a running application program) being executed in the mobile terminal 300. Meanwhile, various noise elimination algorithms may be implemented in the microphone 322 to remove noise generated in receiving an external sound signal.

유저 입력부(323)는 유저로부터 정보를 입력받기 위한 것으로서, 유저 입력부(323)를 통해 정보가 입력되면, 제어부(380)는 입력된 정보에 대응되도록 이동 단말기(300)의 동작을 제어할 수 있다. 이러한, 유저 입력부(323)는 기계식(mechanical) 입력 수단(또는, 메커니컬 키, 예를 들어, 이동 단말기(300)의 전/후면 또는 측면에 위치하는 버튼, 돔 스위치(dome switch), 조그휠, 조그 스위치 등) 및 터치식 입력 수단을 포함할 수 있다. 일 예로서, 터치식 입력 수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽, 텍스트, 아이콘, 비디오 또는 이들의 조합으로 이루어질 수 있다. The user input unit 323 is for receiving information from the user. When information is input through the user input unit 323, the control unit 380 can control the operation of the mobile terminal 300 to correspond to the input information . The user input unit 323 may include a mechanical input unit (or a mechanical key such as a button located at the front / rear or side of the mobile terminal 300, a dome switch, a jog wheel, Jog switches, etc.) and touch-type input means. For example, the touch-type input means may comprise a virtual key, a soft key or a visual key displayed on the touch screen through software processing, And a touch key disposed on the touch panel. Meanwhile, the virtual key or the visual key can be displayed on the touch screen having various forms, for example, graphics, text, icons, video, or a combination thereof.

한편, 센싱부(340)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 유저 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(380)는 이러한 센싱 신호에 기초하여, 이동 단말기(300)의 구동 또는 동작을 제어하거나, 이동 단말기(300)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행할 수 있다. 센싱부(340)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.Meanwhile, the sensing unit 340 senses at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information, and generates a corresponding sensing signal. The control unit 380 may control the driving or operation of the mobile terminal 300 or may perform data processing, function or operation related to the application program installed in the mobile terminal 300 based on the sensing signal. Representative sensors among various sensors that may be included in the sensing unit 340 will be described in more detail.

먼저, 근접 센서(341)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(341)는 위에서 살펴본 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(341)가 배치될 수 있다. First, the proximity sensor 341 refers to a sensor that detects the presence of an object approaching a predetermined detection surface, or the presence of an object in the vicinity of the detection surface without mechanical contact by using electromagnetic force or infrared rays. The proximity sensor 341 may be disposed in the inner area of the mobile terminal or the proximity sensor 341 near the touch screen.

근접 센서(341)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(341)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다. Examples of the proximity sensor 341 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. In the case where the touch screen is electrostatic, the proximity sensor 341 can be configured to detect the proximity of the object with a change in the electric field along the proximity of the object having conductivity. In this case, the touch screen (or touch sensor) itself may be classified as a proximity sensor.

한편, 설명의 편의를 위해, 터치스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접센서(341)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(380)는 위와 같이, 근접 센서(341)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치스크린 상에 출력시킬 수 있다. 나아가, 제어부(380)는, 터치스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 이동 단말기(300)를 제어할 수 있다.On the other hand, for convenience of explanation, the act of recognizing that the object is located on the touch screen in proximity with no object touching the touch screen is referred to as "proximity touch & The act of actually touching an object on the screen is called a "contact touch. &Quot; The position at which the object is closely touched on the touch screen means a position where the object corresponds to the touch screen vertically when the object is touched. The proximity sensor 341 is capable of sensing a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, have. The control unit 380 processes the data (or information) corresponding to the proximity touch operation and the proximity touch pattern sensed through the proximity sensor 341 as described above, and further stores the visual information corresponding to the processed data It can be output on the touch screen. Further, the control unit 380 can control the mobile terminal 300 such that different operations or data (or information) are processed depending on whether the touch to the same point on the touch screen is a proximity touch or a contact touch .

터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치 방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(351))에 가해지는 터치(또는 터치 입력)을 감지한다.The touch sensor uses a touch (or touch input) applied to the touch screen (or the display unit 351) by using at least one of various touch methods such as a resistance film type, a capacitive type, an infrared type, an ultrasonic type, Detection.

일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. For example, the touch sensor may be configured to convert a change in a pressure applied to a specific portion of the touch screen or a capacitance generated in a specific portion to an electrical input signal. The touch sensor may be configured to detect a position, an area, a pressure at the time of touch, a capacitance at the time of touch, and the like where a touch object touching the touch screen is touched on the touch sensor. Here, the touch object may be a finger, a touch pen, a stylus pen, a pointer, or the like as an object to which a touch is applied to the touch sensor.

이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(380)로 전송한다. 이로써, 제어부(380)는 디스플레이부(351)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(380)와 별도의 구성요소일 수 있고, 제어부(380) 자체일 수 있다. Thus, when there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits corresponding data to the controller 380. Thus, the control unit 380 can know which area of the display unit 351 is touched or the like. Here, the touch controller may be a separate component from the control unit 380, and may be the control unit 380 itself.

한편, 제어부(380)는, 터치스크린(또는 터치스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 이동 단말기(300)의 동작 상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다. Meanwhile, the control unit 380 can perform different controls or perform the same control according to the type of the touch object, which touches the touch screen (or a touch key provided in the touch screen). Whether to perform different controls or to perform the same control according to the type of the touch object may be determined according to the current state of the mobile terminal 300 or an application program being executed.

한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.On the other hand, the touch sensors and the proximity sensors discussed above can be used independently or in combination to provide a short touch (touch), a long touch, a multi touch, a drag touch ), Flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, and the like. Touch can be sensed.

초음파 센서는 초음파를 이용하여, 감지 대상의 위치 정보를 인식할 수 있다. 한편, 제어부(380)는 광센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.The ultrasonic sensor can recognize the position information of the object to be sensed by using ultrasonic waves. Meanwhile, the controller 380 can calculate the position of the wave generating source through the information sensed by the optical sensor and the plurality of ultrasonic sensors. The position of the wave source can be calculated using the fact that the light is much faster than the ultrasonic wave, that is, the time when the light reaches the optical sensor is much faster than the time the ultrasonic wave reaches the ultrasonic sensor. More specifically, the position of the wave generating source can be calculated using the time difference with the time when the ultrasonic wave reaches the reference signal.

한편, 입력부(320)의 구성으로 살펴본, 카메라(321)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.The camera 321 includes at least one of a camera sensor (for example, a CCD, a CMOS, etc.), a photo sensor (or an image sensor), and a laser sensor.

카메라(321)와 레이저 센서는 서로 조합되어, 3차원 입체 영상에 대한 감지 대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지 대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 포토다이오드(Photo Diode)와 TR(Transistor)를 실장하여 포토다이오드에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지 대상의 좌표 계산을 수행하며, 이를 통하여 감지 대상의 위치 정보가 획득될 수 있다.The camera 321 and the laser sensor may be combined with each other to sense the touch of the sensing object with respect to the three-dimensional stereoscopic image. The photosensor can be laminated to the display element, which is adapted to scan the movement of the object to be detected proximate to the touch screen. More specifically, the photo sensor mounts a photodiode and a transistor (TR) in a row / column, and scans the contents loaded on the photosensor using an electrical signal that varies according to the amount of light applied to the photodiode . That is, the photo sensor performs coordinate calculation of the object to be sensed according to the amount of change of light, and position information of the object to be sensed can be obtained through the calculation.

디스플레이부(351)는 이동 단말기(300)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(351)는 이동 단말기(300)에서 구동되는 응용프로그램의 실행화면 정보, 또는 이러한 실행 화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. The display unit 351 displays (outputs) information to be processed by the mobile terminal 300. For example, the display unit 351 can display UI (User Interface) and GUI (Graphic User Interface) information according to execution screen information of an application program driven by the mobile terminal 300 or such execution screen information .

또한, 상기 디스플레이부(351)는 입체 영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.In addition, the display unit 351 may be configured as a stereoscopic display unit for displaying a stereoscopic image.

상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다. In the stereoscopic display unit, a three-dimensional display system such as a stereoscopic system (glasses system), an autostereoscopic system (no-glasses system), and a projection system (holographic system) can be applied.

음향 출력부(352)는 호신호 수신, 통화 모드 또는 녹음 모드, 음성 인식 모드, 방송 수신 모드 등에서 무선 통신부(310)로부터 수신되거나 메모리(370)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(352)는 이동 단말기(300)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(352)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The sound output unit 352 can output audio data received from the wireless communication unit 310 or stored in the memory 370 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output unit 352 also outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile terminal 300. [ The sound output unit 352 may include a receiver, a speaker, a buzzer, and the like.

햅틱 모듈(haptic module)(353)은 유저가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(353)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(353)에서 발생하는 진동의 세기와 패턴 등은 유저의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(353)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 353 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 353 may be vibration. The intensity and pattern of the vibration generated in the haptic module 353 can be controlled by the user's selection or setting of the control unit. For example, the haptic module 353 may combine and output different vibrations or sequentially output the vibrations.

햅틱 모듈(353)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to vibration, the haptic module 353 may be configured to perform various functions such as a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or suction force of the air through the injection port or the suction port, a touch on the skin surface, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(353)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 유저가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(353)은 이동 단말기(300)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 353 can transmit a tactile effect through direct contact, and can be implemented so that a user can feel a tactile effect through a muscular sense such as a finger or an arm. The haptic module 353 may include two or more haptic modules according to the configuration of the mobile terminal 300.

광출력부(354)는 이동 단말기(300)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(300)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.The light output unit 354 outputs a signal for notifying the occurrence of an event using the light of the light source of the mobile terminal 300. Examples of events that occur in the mobile terminal 300 may include message reception, call signal reception, missed call, alarm, schedule notification, email reception, information reception through an application, and the like.

광출력부(354)가 출력하는 신호는 이동 단말기가 전면이나 후면으로 단색이나 복수 색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 이동 단말기가 유저의 이벤트 확인을 감지함에 의하여 종료될 수 있다. The signal output from the light output unit 354 is implemented as the mobile terminal emits light of a single color or a plurality of colors to the front or rear surface. The signal output may be terminated by the mobile terminal detecting the event confirmation of the user.

적외선 출력부(355)는 외부 기기를 제어하기 위한 적외선(infrared ray) 신호를 출력할 수 있다. 외부 기기는 적외선 수신기를 구비한 기기로써, 적외선 신호에 따라 전원을 온/오프(on/off) 하는 등과 같은 제어가 수행될 수 있는 기기이다. 예를 들어, 외부 기기는 TV, 조명, 에어컨, 냉장고, 세탁기, 보일러, 스위치, 플러그, 가스락, 홈 CCTV 등이 될 수 있다. The infrared ray output unit 355 may output an infrared ray signal for controlling an external device. The external device is an apparatus equipped with an infrared receiver, and can be controlled such that the power is turned on / off according to an infrared signal. For example, the external device may be a TV, a light, an air conditioner, a refrigerator, a washing machine, a boiler, a switch, a plug, a gas lock, and a home CCTV.

적외선 신호는 발광부에서 적외선을 발광함으로써 구현될 수 있다. 예를 들어, 발광부는 적외선 발광 다이오드(Infrared emitting diode)로 구현될 수 있다. 이러한 적외선 신호는 유저 요청에 근거하여, 출력될 수 있다. The infrared signal can be realized by emitting infrared light from the light emitting portion. For example, the light emitting portion may be implemented as an infrared light emitting diode. Such an infrared signal can be output based on a user request.

인터페이스부(360)는 이동 단말기(300)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(360)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(300) 내부의 각 구성요소에 전달하거나, 이동 단말기(300) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O 포트, 비디오 I/O 포트, 이어폰 포트 등이 인터페이스부(360)에 포함될 수 있다.The interface unit 360 serves as a pathway to all external devices connected to the mobile terminal 300. The interface unit 360 receives data from an external device or supplies power to each component in the mobile terminal 300 or transmits data in the mobile terminal 300 to an external device. For example, you can connect a device with a wired / wireless headset port, external charger port, wired / wireless data port, memory card port, identification module, audio I / O port, video I / O port, May be included in the interface unit 360.

한편, 식별 모듈은 이동 단말기(300)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 유저 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 유저 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(360)를 통하여 단말기(300)와 연결될 수 있다.The identification module is a chip for storing various information for authenticating the usage right of the mobile terminal 300 and includes a user identification module (UIM), a subscriber identity module (SIM) A universal subscriber identity module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 300 through the interface unit 360. [

또한, 상기 인터페이스부(360)는 이동 단말기(300)가 외부 크래들과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(300)에 공급되는 통로가 되거나, 유저에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(300)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(300)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.When the mobile terminal 300 is connected to the external cradle, the interface unit 360 may be a path through which the power from the cradle is supplied to the mobile terminal 300, May be a channel through which the mobile terminal 300 is transmitted. Various command signals or power from the cradle can be operated as a signal for recognizing that the mobile terminal 300 is correctly mounted on the cradle.

메모리(370)는 제어부(380)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(370)는 상기 터치 스크린상의 터치 입력 시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 370 may store a program for the operation of the control unit 380 and temporarily store input / output data (e.g., a phone book, a message, a still image, a moving picture, etc.). The memory 370 may store data on vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리(370)는 플래시 메모리 타입(flash memory type), 하드디스크타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(300)는 인터넷상에서 상기 메모리(370)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 370 may be a flash memory type, a hard disk type, a solid state disk type, an SDD type (Silicon Disk Drive type), a multimedia card micro type ), Card type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read memory, a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and / or an optical disk. The mobile terminal 300 may operate in association with a web storage that performs the storage function of the memory 370 over the Internet.

한편, 앞서 살펴본 것과 같이, 제어부(380)는 응용 프로그램과 관련된 동작과, 통상적으로 이동 단말기(300)의 전반적인 동작을 제어한다. 예를 들어, 제어부(380)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 유저의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다. Meanwhile, as described above, the control unit 380 controls an operation related to an application program and an overall operation of the mobile terminal 300. [ For example, when the state of the mobile terminal meets a set condition, the controller 380 can execute or release a lock state for restricting input of a user's control command to applications.

또한, 제어부(380)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(380)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 이동 단말기(300) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.The control unit 380 performs control and processing related to voice communication, data communication, video call, and the like, or performs pattern recognition processing to recognize handwriting input or drawing input performed on the touch screen as characters and images, respectively . Further, the controller 380 may control any one or a plurality of the above-described components in order to implement various embodiments described below on the mobile terminal 300 according to the present invention.

전원 공급부(390)는 제어부(380)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원 공급부(390)는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 단말기 바디에 착탈 가능하게 결합될 수 있다.The power supply unit 390 receives external power and internal power under the control of the controller 380 and supplies power necessary for operation of the respective components. The power supply unit 390 includes a battery, the battery may be an internal battery configured to be chargeable, and may be detachably coupled to the terminal body for charging or the like.

또한, 전원 공급부(390)는 연결 포트를 구비할 수 있으며, 연결 포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(360)의 일 예로서 구성될 수 있다.In addition, the power supply unit 390 may include a connection port, and the connection port may be configured as an example of an interface 360 through which an external charger for supplying power for charging the battery is electrically connected.

다른 예로서, 전원 공급부(390)는 상기 연결 포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다. 이 경우에, 전원 공급부(390)는 외부의 무선 전력 전송 장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식이나 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 중 하나 이상을 이용하여 전력을 전달받을 수 있다.As another example, the power supply unit 390 may be configured to charge the battery in a wireless manner without using the connection port. In this case, the power supply unit 390 may use at least one of an inductive coupling method based on a magnetic induction phenomenon from an external wireless power transmission apparatus or a magnetic resonance coupling method based on an electromagnetic resonance phenomenon Power can be delivered.

한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. In the following, various embodiments may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

이상 상기에서는 상기 단말기는 그 구현 형태에 따라서 오디오 장치, 비디오 장치 등 다양한 명칭으로 호칭될 수도 있다.In the above description, the terminal may be called various names such as an audio device, a video device, and the like according to its implementation.

한편, 단말기는 사용자가 주로 손에 쥐고 사용하는 차원을 넘어서, 신체에 착용할 수 있는 웨어러블 디바이스(wearable device)로 확장될 수 있다. 이러한 웨어러블 디바이스에는 스마트 워치, 스마트 글래스, HMD 등이 있다. 이하, 웨어러블 디바이스로 확장된 단말기의 예들에 대하여 설명하기로 한다.On the other hand, the terminal can be extended to a wearable device which can be worn on the body beyond the dimension that the user holds mainly in the hand. Such wearable devices include smart watch, smart glass, and HMD. Hereinafter, examples of terminals extended to a wearable device will be described.

웨어러블 디바이스는 다른 단말기(100)와 데이터를 상호 교환(또는 연동) 가능하게 이루어질 수 있다. 근거리 통신 모듈(114)은, 단말기(100) 주변에 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 감지된 웨어러블 디바이스가 단말기(100)와 통신하도록 인증된 디바이스인 경우, 단말기(100)에서 처리되는 데이터의 적어도 일부를, 근거리 통신 모듈(114)을 통하여 웨어러블 디바이스로 전송할 수 있다. 따라서, 사용자는 단말기(100)에서 처리되는 데이터를 웨어러블 디바이스를 통하여 이용할 수 있다. 예를 들어, 단말기(100)에 전화가 수신된 경우 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 단말기(100)에 메시지가 수신된 경우 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.The wearable device can be made to be capable of mutually exchanging (or interlocking) data with the other terminal 100. The short range communication module 114 can detect (or recognize) a wearable device capable of communicating around the terminal 100. [ If the detected wearable device is a device authenticated to communicate with the terminal 100, the control unit 180 transmits at least a part of the data processed by the terminal 100 to the wearable device through the short distance communication module 114 . Accordingly, the user can use the data processed by the terminal 100 through the wearable device. For example, when a phone call is received in the terminal 100, it is possible to make a phone call through the wearable device or to confirm the received message through the wearable device when the message is received in the terminal 100. [

도 4는 본 발명의 다른 일 실시 예와 관련된 와치 타입의 단말기(200)의 일 예를 보인 사시도이다.4 is a perspective view showing an example of a watch-type terminal 200 according to another embodiment of the present invention.

도 4를 참조하면, 와치 타입의 단말기(400)는 디스플레이부(451)를 구비하는 본체(401) 및 본체(401)에 연결되어 손목에 착용 가능하도록 구성되는 밴드(402)를 포함한다. 일반적으로 단말기(400)는 도 3a 내지 3c의 단말기의 특징 또는 그와 유사한 특징을 포함할 수 있다.4, a watch-type terminal 400 includes a body 401 having a display unit 451 and a band 402 connected to the body 401 and configured to be worn on the wrist. In general, the terminal 400 may include features of the terminals of Figures 3A-3C or similar features.

본체(401)는 외관을 형성하는 케이스를 포함한다. 도시된 바와 같이, 케이스는 각종 전자부품들을 수용하는 내부 공간을 마련하는 제1케이스(401a) 및 제2케이스(401b)를 포함할 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 하나의 케이스가 상기 내부 공간을 마련하도록 구성되어 유니 바디의 단말기(400)가 구현될 수도 있다.The main body 401 includes a case which forms an appearance. As shown, the case may include a first case 401a and a second case 401b that provide an internal space for accommodating various electronic components. However, the present invention is not limited to this, and one case may be configured to provide the internal space, so that a unibody terminal 400 may be realized.

와치 타입의 단말기(200)는 무선 통신이 가능하도록 구성되며, 본체(401)에는 상기 무선 통신을 위한 안테나가 설치될 수 있다. 한편, 안테나는 케이스를 이용하여 그 성능을 확장시킬 수 있다. 예를 들어, 도전성 재질을 포함하는 케이스가 안테나와 전기적으로 연결되어 그라운드 영역 또는 방사 영역을 확장시키도록 구성될 수 있다.The watch-type terminal 200 is configured to be capable of wireless communication, and the main body 401 may be provided with an antenna for the wireless communication. On the other hand, the antenna can expand its performance by using a case. For example, a case comprising a conductive material may be configured to electrically connect with the antenna to extend the ground or radiating area.

본체(401)의 전면에는 디스플레이부(451)가 배치되어 정보를 출력할 수 있으며, 디스플레이부(451)에는 터치 센서가 구비되어 터치스크린으로 구현될 수 있다. 도시된 바와 같이, 디스플레이부의 윈도우(451a)는 제1케이스(401a)에 장착되어 제1케이스(401a)와 함께 단말기 바디의 전면을 형성할 수 있다.A display unit 451 is disposed on a front surface of the main body 401 to output information, and a touch sensor is provided on the display unit 451 to implement a touch screen. As shown in the figure, the window 451a of the display unit may be mounted on the first case 401a to form a front surface of the terminal body together with the first case 401a.

본체(401)에는 음향 출력부(452), 카메라(421), 마이크로폰(422), 사용자 입력부(423) 등이 구비될 수 있다. 디스플레이부(451)가 터치스크린으로 구현되는 경우, 사용자 입력부(423)로 기능할 수 있으며, 이에 따라 본체(401)에 별도의 키가 구비되지 않을 수 있다.The main body 401 may include an audio output unit 452, a camera 421, a microphone 422, a user input unit 423, and the like. When the display unit 451 is implemented as a touch screen, the display unit 451 may function as a user input unit 423, so that the main body 401 may not have a separate key.

밴드(402)는 손목에 착용되어 손목을 감싸도록 이루어지며, 착용이 용이하도록 플렉시블 재질로 형성될 수 있다. 그러한 예로서, 밴드(402)는 가죽, 고무, 실리콘, 합성수지 재질 등으로 형성될 수 있다. 또한, 밴드(402)는 본체(401)에 착탈 가능하게 구성되어, 사용자가 취향에 따라 다양한 형태의 밴드로 교체 가능하게 구성될 수 있다.The band 402 is worn on the wrist so as to enclose the wrist, and may be formed of a flexible material for easy wearing. As an example, the band 402 may be formed of leather, rubber, silicone, synthetic resin, or the like. The band 402 may be detachably attached to the main body 401 and may be configured to be replaceable by various types of bands according to the user's preference.

한편, 밴드(402)는 안테나의 성능을 확장시키는 데에 이용될 수 있다. 예를 들어, 밴드에는 안테나와 전기적으로 연결되어 그라운드 영역을 확장시키는 그라운드 확장부(미도시)가 내장될 수 있다.On the other hand, the band 402 can be used to expand the performance of the antenna. For example, the band may include a ground extension (not shown) that is electrically connected to the antenna and extends the ground region.

밴드(402)에는 파스너(fastener; 402a)가 구비될 수 있다. 파스너(402a)는 버클(buckle), 스냅-핏(snap-fit)이 가능한 후크(hook) 구조, 또는 벨크로(velcro; 상표명) 등에 의하여 구현될 수 있으며, 신축성이 있는 구간 또는 재질을 포함할 수 있다. 도 4에서는, 파스너(402a)가 버클 형태로 구현된 예를 제시하고 있다.The band 402 may be provided with a fastener 402a. The fastener 402a may be embodied by a buckle, a snap-fit hook structure, or a velcro (trademark), and may include a stretchable section or material have. 4 shows an example in which the fastener 402a is embodied as a buckle.

도 5는 본 발명의 또 다른 일 실시 예와 관련된 글래스 타입의 단말기(300)의 일 예를 보인 사시도이다.5 is a perspective view illustrating an example of a glass-type terminal 300 according to another embodiment of the present invention.

글래스 타입의 단말기(500)는 인체의 두부에 착용 가능하도록 구성되며, 이를 위한 프레임부(케이스, 하우징 등)를 구비할 수 있다. 프레임부는 착용이 용이하도록 플렉시블 재질로 형성될 수 있다. 도 5에서는, 프레임부가 서로 다른 재질의 제1프레임(501)과 제2프레임(502)을 포함하는 것을 예시하고 있다. 일반적으로 단말기(500)는 도 3a 내지 3c의 단말기(300)의 특징 또는 그와 유사한 특징을 포함할 수 있다.The glass-type terminal 500 is configured to be worn on the head of a human body, and a frame portion (a case, a housing, etc.) may be provided. The frame portion may be formed of a flexible material to facilitate wearing. 5 illustrates that the frame portion includes a first frame 501 and a second frame 502 of different materials. In general, terminal 500 may include features of terminal 300 of Figures 3A-3C or similar features.

프레임부는 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임부에는 제어 모듈(580), 음향 출력 모듈(552) 등과 같은 전자 부품이 장착될 수 있다. 또한, 프레임부에는 좌안 및 우안 중 적어도 하나를 덮는 렌즈(503)가 착탈 가능하게 장착될 수 있다.The frame portion is supported on the head portion, and a space for mounting various components is provided. As shown in the figure, electronic components such as a control module 580, an audio output module 552, and the like may be mounted on the frame portion. Further, a lens 503 covering at least one of the left and right eyes may be detachably mounted on the frame portion.

제어 모듈(580)은 단말기(500)에 구비되는 각종 전자 부품을 제어하도록 이루어진다. 제어 모듈(580)은 앞서 설명한 제어부(380)에 대응되는 구성으로 이해될 수 있다. 도 5에서는, 제어 모듈(580)이 일측 두부 상의 프레임부에 설치된 것을 예시하고 있다. 하지만, 제어 모듈(580)의 위치는 이에 한정되지 않는다.The control module 580 controls various electronic components included in the terminal 500. The control module 580 can be understood as a configuration corresponding to the control unit 380 described above. 5 illustrates that the control module 580 is installed in the frame portion on one side of the head. However, the position of the control module 580 is not limited thereto.

디스플레이부(551)는 헤드 마운티드 디스플레이(HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 사용자가 글래스 타입의 이동 단말기(500)를 착용하였을 때, 사용자의 눈앞에 직접 영상을 제공할 수 있도록, 디스플레이부(551)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다. 본 도면에서는, 사용자의 우안을 향하여 영상을 출력할 수 있도록, 디스플레이부(551)가 우안에 대응되는 부분에 위치한 것을 예시하고 있다.The display unit 551 may be implemented as a head-mounted display (HMD). The HMD type refers to a display method that is mounted on the head and displays images directly in front of the user's eyes. When the user wears the glass-type mobile terminal 500, the display unit 551 may be disposed so as to correspond to at least one of the left and right eyes so as to provide images directly to the user's eyes. In this figure, the display unit 551 is located at a portion corresponding to the right eye so that an image can be output toward the user's right eye.

디스플레이부(551)는 프리즘을 이용하여 사용자의 눈으로 이미지를 투사할 수 있다. 또한, 사용자가 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)를 함께 볼 수 있도록, 프리즘은 투광성으로 형성될 수 있다.The display unit 551 can project an image using the prism to the user's eyes. Further, the prism may be formed to be transmissive so that the user can view the projected image and the general view of the front (the range that the user views through the eyes) together.

이처럼 디스플레이부(551)를 통하여 출력되는 영상은, 일반 시야와 오버랩(overlap)되어 보여질 수 있다. 단말기(500)는 이러한 디스플레이의 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수 있다.The image output through the display unit 551 may be overlapped with the general visual field. The terminal 500 can provide an Augmented Reality (AR) in which a virtual image is superimposed on a real image or a background and displayed as a single image using the characteristics of the display.

카메라(521)는 좌안 및 우안 중 적어도 하나에 인접하게 배치되어, 전방의 영상을 촬영하도록 형성된다. 카메라(521)가 눈에 인접하여 위치하므로, 카메라(521)는 사용자가 바라보는 장면을 영상으로 획득할 수 있다.The camera 521 is disposed adjacent to at least one of the left eye and the right eye, and is configured to photograph a forward image. Since the camera 521 is located adjacent to the eyes, the camera 521 can acquire a scene viewed by the user as an image.

도 5에서는, 카메라(521)가 제어 모듈(580)에 구비된 것을 예시하고 있으나, 반드시 이에 한정되는 것은 아니다. 카메라(521)는 상기 프레임부에 설치될 수도 있으며, 복수 개로 구비되어 입체 영상을 획득하도록 이루어질 수도 있다.Although the camera 521 is provided in the control module 580 in FIG. 5, it is not limited thereto. The camera 521 may be installed in the frame part, or may be provided in a plurality of ways to acquire a stereoscopic image.

글래스 타입의 단말기(500)는 제어 명령을 입력받기 위하여 조작되는 사용자 입력부(523a, 523b)를 구비할 수 있다. 사용자 입력부(523a, 523b)는 터치, 푸시 등 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 도 5에서는, 프레임부와 제어 모듈(580)에 각각 푸시 및 터치 입력 방식의 사용자 입력부(523a, 523b)가 구비된 것을 예시하고 있다.The glass-type terminal 500 may have user inputs 523a and 523b operated to receive control commands. The user input units 523a and 523b can be employed in any manner as long as the user operates in a tactile manner such as touch, push, or the like with a tactile impression. 5 illustrates that the frame unit and the control module 580 are provided with user input units 523a and 523b of a push and touch input method, respectively.

또한, 글래스 타입의 단말기(500)에는 사운드를 입력받아 전기적인 음성 데이터로 처리하는 마이크로폰(미도시) 및 음향을 출력하는 음향 출력 모듈(552)이 구비될 수 있다. 음향 출력 모듈(552)은 일반적인 음향 출력 방식 또는 골전도 방식으로 음향을 전달하도록 이루어질 수 있다. 음향 출력 모듈(552)이 골전도 방식으로 구현되는 경우, 사용자가 단말기(500)를 착용시, 음향 출력 모듈(552)은 두부에 밀착되며, 두개골을 진동시켜 음향을 전달하게 된다.In addition, the glass-type terminal 500 may be provided with a microphone (not shown) for receiving sound and processing it as electrical voice data and an acoustic output module 552 for outputting sound. The sound output module 552 may be configured to transmit sound in a general sound output mode or a bone conduction mode. When the sound output module 552 is implemented in a bone conduction manner, when the user wears the terminal 500, the sound output module 552 closely contacts the head and vibrates the skull to transmit sound.

다음으로, 본 발명에 따른 단말기를 통해 실시 가능한 통신 시스템에 대하여 살펴본다. Next, a communication system that can be implemented through a terminal according to the present invention will be described.

먼저, 통신 시스템은, 서로 다른 무선 인터페이스 및/또는 물리 계층을 이용할 수도 있다. 예를 들어, 통신 시스템에 의해 이용 가능한 무선 인터페이스에는, 주파수 분할 다중 접속(Frequency Division Multiple Access, FDMA), 시분할 다중 접속(Time Division Multiple Access, TDMA), 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 범용 이동 통신 시스템(Universal Mobile Telecommunications Systems, UMTS)(특히, LTE, LTE-A), 이동 통신 글로벌 시스템(Global System for Mobile Communications, GSM) 등이 포함될 수 있다.First, the communication system may use different wireless interfaces and / or physical layers. For example, wireless interfaces that can be used by a communication system include Frequency Division Multiple Access (FDMA), Time Division Multiple Access (TDMA), Code Division Multiple Access (CDMA) , Universal Mobile Telecommunications Systems (UMTS) (especially LTE, LTE-A), Global System for Mobile Communications (GSM), and the like.

이하에서는 설명의 편의를 위하여, CDMA에 한정하여 설명하도록 한다. 그러나 본 발명은, CDMA 무선 통신 시스템뿐만 아니라 OFDM(Orthogonal Frequency Division Multiplexing) 무선 통신 시스템을 포함한 모든 통신 시스템 적용될 수 있음은 자명하다.Hereinafter, for the convenience of explanation, the description will be limited to CDMA. However, it is apparent that the present invention can be applied to all communication systems including an OFDM (Orthogonal Frequency Division Multiplexing) wireless communication system as well as a CDMA wireless communication system.

CDMA 무선 통신 시스템은, 적어도 하나의 단말기(100), 적어도 하나의 기지국(Base Station, BS(Node B 혹은 Evolved Node B로 명칭될 수도 있다.)), 적어도 하나의 기지국 제어부(Base Station Controllers, BSCs), 이동 스위칭 센터(Mobile Switching Center, MSC)를 포함할 수 있다. MSC는, 일반 전화 교환망(Public Switched Telephone Network, PSTN) 및 BSCs와 연결되도록 구성된다. BSCs는, 백홀 라인(backhaul line)을 통하여, BS와 짝을 이루어 연결될 수 있다. 백홀 라인은, E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL 또는 xDSL 중 적어도 하나에 따라서 구비될 수 있다. 따라서, 복수의 BSCs가 CDMA 무선 통신 시스템에 포함될 수 있다.A CDMA wireless communication system includes at least one terminal 100, at least one base station (BS) (also referred to as a Node B or Evolved Node B), at least one Base Station Controllers (BSCs) , And a Mobile Switching Center (MSC). The MSC is configured to be coupled to a Public Switched Telephone Network (PSTN) and BSCs. The BSCs may be paired with the BS via a backhaul line. The backhaul line may be provided according to at least one of E1 / T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL or xDSL. Thus, a plurality of BSCs may be included in a CDMA wireless communication system.

복수의 BS 각각은 적어도 하나의 섹터를 포함할 수 있고, 각각의 섹터는, 전방향성 안테나 또는 BS로부터 방사상의 특정 방향을 가리키는 안테나를 포함할 수 있다. 또한, 각각의 섹터는, 다양한 형태의 안테나를 두 개 이상 포함할 수도 있다. 각각의 BS는, 복수의 주파수 할당을 지원하도록 구성될 수 있고, 복수의 주파수 할당은 각각 특정 스펙트럼(예를 들어, 1.25MHz, 5MHz 등)을 가질 수 있다.Each of the plurality of BSs may comprise at least one sector, and each sector may comprise an omnidirectional antenna or an antenna pointing to a particular direction of radial from the BS. In addition, each sector may include two or more antennas of various types. Each BS may be configured to support a plurality of frequency assignments, and a plurality of frequency assignments may each have a specific spectrum (e.g., 1.25 MHz, 5 MHz, etc.).

섹터와 주파수 할당의 교차는, CDMA 채널이라고 불릴 수 있다. BS는, 기지국 송수신 하부 시스템(Base Station Transceiver Subsystem, BTSs)이라고 불릴 수 있다. 이러한 경우, 하나의 BSC 및 적어도 하나의 BS를 합하여 "기지국"이라고 칭할 수 있다. 기지국은, 또한 "셀 사이트"를 나타낼 수도 있다. 또는, 특정 BS에 대한 복수의 섹터들 각각은, 복수의 셀 사이트로 불릴 수도 있다.The intersection of sector and frequency assignment may be referred to as a CDMA channel. The BS may be referred to as a base station transceiver subsystem (BTSs). In this case, a combination of one BSC and at least one BS may be referred to as a "base station ". The base station may also indicate a "cell site ". Alternatively, each of the plurality of sectors for a particular BS may be referred to as a plurality of cell sites.

방송 송신부(Broadcasting Transmitter, BT) 는, 시스템 내에서 동작하는 단말기들(100)에게 방송 신호를 송신한다. 도 1a에 도시된 방송 수신 모듈(111)은, BT에 의해 전송되는 방송 신호를 수신하기 위해 단말기(100) 내에 구비된다.A broadcast transmission unit (BT) transmits a broadcast signal to terminals 100 operating in the system. The broadcast receiving module 111 shown in FIG. 1A is provided in the terminal 100 to receive a broadcast signal transmitted by the BT.

뿐만 아니라, CDMA 무선 통신 시스템에는 단말기(100)의 위치를 확인하기 위한, GPS와 연계될 수 있다. 상기 위성은, 단말기(100)의 위치를 파악하는 것을 돕는다. 유용한 위치 정보는, 두 개 이하 또는 이상의 위성들에 의해 획득될 수도 있다. 여기에서는, GPS 추적 기술뿐만 아니라 위치를 추적할 수 있는 모든 기술들을 이용하여 단말기(100)의 위치가 추적될 수 있다. 또한, GPS 위성 중 적어도 하나는, 선택적으로 또는 추가로 위성 DMB 전송을 담당할 수도 있다.In addition, the CDMA wireless communication system may be associated with a GPS for identifying the position of the terminal 100. The satellite aids in locating the terminal 100. Useful location information may be obtained by two or more satellites. Here, the position of the terminal 100 can be tracked using all the techniques capable of tracking the location as well as the GPS tracking technology. Also, at least one of the GPS satellites may optionally or additionally be responsible for satellite DMB transmission.

단말기에 구비된 위치 정보 모듈(115)은 단말기의 위치를 탐지, 연산 또는 식별하기 위한 것으로, 대표적인 예로는 GPS 모듈 및 Wi-Fi 모듈을 포함할 수 있다. 필요에 따라서, 위치 정보 모듈(115)은 치환 또는 부가적으로 단말기의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. The location information module 115 provided in the terminal is for detecting, computing, or identifying the location of the terminal, and may include a GPS module and a Wi-Fi module as typical examples. Optionally, the location information module 115 may perform any of the other functions of the wireless communication unit 110 to obtain replacement or additionally data regarding the location of the terminal.

상기 GPS 모듈(115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다. 다만, 실내와 같이 위성 신호의 음영 지대에서는 GPS 모듈을 이용하여 정확히 단말기의 위치를 측정하는 것이 어렵다. 이에 따라, GPS 방식의 측위를 보상하기 위해, 와이-파이 위치 추적 시스템(WPS)이 활용될 수 있다. The GPS module 115 calculates distance information and accurate time information from three or more satellites and then applies trigonometry to the calculated information to accurately calculate three-dimensional current position information according to latitude, longitude, and altitude can do. At present, a method of calculating position and time information using three satellites and correcting an error of the calculated position and time information using another satellite is widely used. In addition, the GPS module 115 can calculate speed information by continuously calculating the current position in real time. However, it is difficult to accurately measure the position of a terminal using a GPS module in a shadow area of a satellite signal, such as in a room. Accordingly, a Wi-Fi location tracking system (WPS) can be utilized to compensate for GPS-based positioning.

와이-파이 위치 추적 시스템(WPS)은 단말기(100)에 구비된 Wi-Fi 모듈 및 상기 Wi-Fi 모듈과 무선 신호를 송신 또는 수신하는 무선 AP를 이용하여, 단말기(100)의 위치를 추적하는 기술로서, Wi-Fi를 이용한 WLAN 기반의 위치 측위 기술을 의미한다. The Wi-Fi location tracking system (WPS) tracks the location of the terminal 100 using a Wi-Fi module included in the terminal 100 and a wireless AP transmitting or receiving a wireless signal with the Wi-Fi module Technology refers to a WLAN-based location positioning technique using Wi-Fi.

와이-파이 위치 추적 시스템은 와이-파이 위치 측위 서버, 단말기(100), 상기 단말기(100)와 접속된 무선 AP, 임의의 무선 AP 정보가 저장된 데이터 베이스를 포함할 수 있다.The Wi-Fi location tracking system may include a Wi-Fi location server, a terminal 100, a wireless AP connected to the terminal 100, and a database in which certain wireless AP information is stored.

무선 AP와 접속 중인 단말기(100)는 와이-파이 위치 측위 서버로 위치 정보 요청 메시지를 전송할 수 있다.The terminal 100 connected to the wireless AP can transmit a location information request message to the Wi-Fi location server.

와이-파이 위치 측위 서버는 단말기(100)의 위치 정보 요청 메시지(또는 신호)에 근거하여, 단말기(100)와 접속된 무선 AP의 정보를 추출한다. 상기 단말기(100)와 접속된 무선 AP의 정보는 단말기(100)를 통해 상기 와이-파이 위치 측위 서버로 전송되거나, 무선 AP에서 와이-파이 위치 측위 서버로 전송될 수 있다.The Wi-Fi location server extracts information of the wireless AP connected to the terminal 100 based on the location information request message (or signal) of the terminal 100. [ The information of the wireless AP connected to the terminal 100 may be transmitted to the Wi-Fi positioning server through the terminal 100 or may be transmitted from the wireless AP to the Wi-Fi positioning server.

상기 단말기(100)의 위치 정보 요청 메시지에 근거하여, 추출되는 무선 AP의 정보는 MAC Address, SSID(Service Set IDentification), RSSI(Received Signal Strength Indicator), RSRP(Reference Signal Received Power), RSRQ(Reference Signal Received Quality), 채널 정보, Privacy, Network Type, 신호 세기(Signal Strength) 및 노이즈 세기(Noise Strength) 중 적어도 하나일 수 있다.The information of the wireless AP to be extracted based on the location information request message of the MS 100 includes a MAC address, an SSID (Service Set IDentification), a Received Signal Strength Indicator (RSSI), a Reference Signal Received Power (RSRP) Signal Received Quality), channel information, Privacy, Network Type, Signal Strength, and Noise Strength.

와이-파이 위치 측위 서버는 위와 같이, 단말기(100)와 접속된 무선 AP의 정보를 수신하여, 미리 구축된 데이터베이스로부터 단말기가 접속 중인 무선 AP와 대응되는 무선 AP 정보를 추출할 수 있다. 이때, 상기 데이터베이스에 저장되는 임의의 무선 AP 들의 정보는 MAC Address, SSID, 채널정보, Privacy, Network Type, 무선 AP의 위경도 좌표, 무선 AP가 위치한 건물명, 층수, 실내 상세 위치 정보(GPS 좌표 이용 가능), AP 소유자의 주소, 전화번호 등의 정보일 수 있다. 이때, 측위 과정에서 이동형 AP나 불법 MAC 주소를 이용하여 제공되는 무선 AP를 측위 과정에서 제거하기 위해, 와이-파이 위치 측위 서버는 RSSI가 높은 순서대로 소정 개수의 무선 AP 정보만을 추출할 수도 있다.As described above, the Wi-Fi location server can receive the information of the wireless AP connected to the terminal 100 and extract the wireless AP information corresponding to the wireless AP to which the terminal is connected from the pre-established database. The information of any wireless APs stored in the database includes at least one of MAC address, SSID, channel information, privacy, network type, radius coordinates of the wireless AP, building name, Available), the address of the AP owner, and the telephone number. In this case, in order to remove the wireless AP provided using the mobile AP or the illegal MAC address in the positioning process, the Wi-Fi location server may extract only a predetermined number of wireless AP information in order of RSSI.

이후, 와이-파이 위치 측위 서버는 데이터 베이스로부터 추출된 적어도 하나의 무선 AP 정보를 이용하여 단말기(100)의 위치 정보를 추출(또는 분석)할 수 있다. 포함된 정보와 상기 수신된 무선 AP 정보를 비교하여, 상기 단말기(100)의 위치 정보를 추출(또는 분석)한다. Then, the Wi-Fi location server can extract (or analyze) the location information of the terminal 100 using at least one wireless AP information extracted from the database. And compares the received information with the received wireless AP information to extract (or analyze) the location information of the terminal 100.

단말기(100)의 위치 정보를 추출(또는 분석)하기 위한 방법으로, Cell-ID 방식, 핑거 프린트 방식, 삼각 측량 방식 및 랜드마크 방식 등이 활용될 수 있다. As a method for extracting (or analyzing) the position information of the terminal 100, a Cell-ID method, a fingerprint method, a triangulation method, and a landmark method can be utilized.

Cell-ID 방식은 단말기가 수집한 주변의 무선 AP 정보 중 신호 세기가 가장 강한 무선 AP의 위치를 단말기의 위치로 결정하는 방법이다. 구현이 단순하고 별도의 비용이 들지 않으며 위치 정보를 신속히 얻을 수 있다는 장점이 있지만 무선 AP의 설치 밀도가 낮으면 측위 정밀도가 떨어진다는 단점이 있다. The Cell-ID method is a method for determining the location of the wireless AP having the strongest signal strength among the neighboring wireless AP information collected by the terminal as the location of the terminal. Although the implementation is simple, it does not cost extra and it can acquire location information quickly, but there is a disadvantage that positioning accuracy is lowered when the installation density of the wireless AP is low.

핑거 프린트 방식은 서비스 지역에서 참조 위치를 선정하여 신호 세기 정보를 수집하고, 수집한 정보를 바탕으로 이동 단말기에서 전송하는 신호 세기 정보를 통해 위치를 추정하는 방법이다. 핑거 프린트 방식을 이용하기 위해서는, 사전에 미리 전파 특성을 데이터베이스화할 필요가 있다. The fingerprint method collects signal strength information by selecting a reference position in a service area, and estimates the position based on the signal strength information transmitted from the mobile terminal based on the collected information. In order to use the fingerprint method, it is necessary to previously convert the propagation characteristics into a database.

삼각 측량 방식은 적어도 세 개의 무선 AP의 좌표와 단말기 사이의 거리를 기초로 단말기의 위치를 연산하는 방법이다. 단말기와 무선 AP 사이의 거리를 측정하기 위해, 신호 세기를 거리 정보로 변환하거나, 무선 신호가 전달되는 시간(Time of Arrival, ToA), 신호가 전달되는 시간 차이(Time Difference of Arrival, TDoA), 신호가 전달되는 각도(Angle of Arrival, AoA) 등을 이용할 수 있다. The triangulation method is a method of calculating the position of the terminal based on the coordinates of at least three wireless APs and the distance between the terminals. In order to measure the distance between the terminal and the wireless AP, the signal intensity is converted into distance information, the time of arrival (ToA) of the wireless signal, the time difference of arrival (TDoA) Angle of Arrival (AoA) or the like can be used.

랜드마크 방식은 위치를 알고 있는 랜드마크 발신기를 이용하여 단말기의 위치를 측정하는 방법이다. The landmark method is a method of measuring the position of a terminal using a landmark transmitter that knows the location.

열거된 방법 이외에도 다양한 알고리즘이 단말기의 위치 정보를 추출(또는 분석)하기 위한 방법으로 활용될 수 있다. Various algorithms can be utilized as a method for extracting (or analyzing) the location information of the terminal.

이렇게 추출된 단말기(100)의 위치 정보는 상기 와이-파이 위치 측위 서버를 통해 단말기(100)로 전송됨으로써, 단말기(100)는 위치 정보를 획득할 수 있다.The extracted location information of the terminal 100 is transmitted to the terminal 100 through the Wi-Fi location server, so that the terminal 100 can acquire the location information.

단말기(100)는 적어도 하나의 무선 AP에 접속됨으로써, 위치 정보를 획득할 수 있다. 이때, 단말기(100)의 위치 정보를 획득하기 위해 요구되는 무선 AP의 개수는 단말기(100)가 위치한 무선 통신 환경에 따라 다양하게 변경될 수 있다. The terminal 100 may be connected to at least one wireless AP to obtain location information. At this time, the number of wireless APs required to acquire the location information of the terminal 100 can be variously changed according to the wireless communication environment in which the terminal 100 is located.

앞서, 도 1a를 통해 살펴본 바와 같이, 본 발명에 따른 단말기에는 블루투스, RFID, 적외선 통신(IrDA), UWB, 지그비(ZigBee), NFC(Near Field Communication), Wireless USB 등의 근거리 통신 기술이 적용될 수 있다.1A, short-range communication technologies such as Bluetooth, RFID, IrDA, UWB, ZigBee, NFC (Near Field Communication), and Wireless USB may be applied to the terminal according to the present invention. have.

이 중, 단말기에 구비된 NFC 모듈은 10cm 안팎의 거리에서 단말 간 비접촉식 근거리 무선 통신을 지원한다. NFC 모듈은 카드 모드, 리더 모드 및 P2P 모드 중 어느 하나로 동작할 수 있다. NFC 모듈이 카드 모드로 운용되기 위해서, 단말기(100)는 카드 정보를 저장하는 보안 모듈을 더 포함할 수도 있다. 여기서, 보안 모듈이란 UICC(Universal Integrated Circuit Card)(예컨대, SIM 또는 USIM), Secure micro SD 및 스티커 등 물리적 매체일 수도 있고, 단말기에 임베디드되어 있는 논리적 매체(예컨대, embedded SE(Secure element))일 수도 있다. NFC 모듈과 보안 모듈 사이에는 SWP(Single Wire Protocol)에 기반한 데이터 교환이 이루어질 수 있다.Among them, the NFC module provided in the terminal supports non-contact type short-range wireless communication at a distance of about 10 cm. The NFC module may operate in either a card mode, a reader mode, or a P2P mode. In order for the NFC module to operate in the card mode, the terminal 100 may further include a security module for storing card information. Here, the security module may be a physical medium such as a UICC (Universal Integrated Circuit Card) (for example, SIM or USIM), Secure micro SD and a sticker, or a logical medium (e.g., embedded SE It is possible. Data exchange based on SWP (Single Wire Protocol) can be made between NFC module and security module.

NFC 모듈이 카드 모드로 운용되는 경우, 단말기는 전통적인 IC 카드처럼 저장하고 있는 카드 정보를 외부로 전달할 수 있다. 구체적으로, 신용카드 또는 버스 카드 등 결제용 카드의 카드 정보를 저장하는 단말기를 요금 결제기에 근접시키면, 모바일 근거리 결제가 처리될 수 있고, 출입용 카드의 카드 정보를 저장하는 단말기를 출입 승인기에 근접시키면, 출입의 승인 절차가 시작될 수 있다. 신용카드, 교통카드 및 출입카드 등의 카드는 애플릿(applet) 형태로 보안 모듈에 탑재되고, 보안 모듈은 탑재된 카드에 대한 카드 정보를 저장할 수 있다. 여기서, 결제용 카드의 카드 정보는 카드 번호, 잔액, 사용 내역 중 적어도 하나일 수 있고, 출입용 카드의 카드 정보는, 사용자의 이름, 번호(예컨대, 사용자의 학번 또는 사번), 출입 내역 중 적어도 하나일 수 있다. When the NFC module is operated in the card mode, the terminal can transmit the stored card information to the outside such as a conventional IC card. Specifically, when a terminal storing card information of a payment card such as a credit card or a bus card is brought close to the fare payment machine, the mobile local payment can be processed, and the terminal storing the card information of the access card can be processed , The approval process for access can be started. Cards such as credit cards, transportation cards, and access cards are mounted on the security module in the form of an applet, and the security module can store card information on the mounted card. Here, the card information of the payment card may be at least one of a card number, balance, and usage details, and the card information of the access card may include at least one of a name, a number (e.g., It can be one.

NFC 모듈이 리더 모드로 운용되는 경우, 단말기는 외부의 태그(Tag)로부터 데이터를 독출할 수 있다. 이때, 이동 단말기가 태그로부터 수신하는 데이터는 NFC 포럼에서 정하는 데이터 교환 포맷(NFC Data Exchange Format)으로 코딩될 수 있다. 아울러, NFC 포럼에서는 4개의 레코드 타입을 규정한다. 구체적으로, NFC 포럼에서는 스마트 포스터(Smart Poster), 텍스트(Text), URI(Uniform Resource Identifier), 일반 제어 등 4개의 RTD(Record Type Definition)를 규정한다. 태그로부터 수신한 데이터가 스마트 포스터 타입이면, 제어부는 브라우저(예컨대, 인터넷 브라우저)를 실행하고, 태그로부터 수신한 데이터가 텍스트 타입인 경우, 제어부는 텍스트 뷰어를 실행할 수 있다. 태그로부터 수신한 데이터가 URI 타입이면, 제어부는 브라우저를 실행하거나 전화를 걸고, 태그로부터 수신한 데이터가 일반 제어 타입이면, 제어 내용에 따라 적절한 동작을 실행할 수 있다.When the NFC module is operated in the reader mode, the terminal can read data from an external tag. At this time, the data received from the mobile terminal by the tag may be coded into a data exchange format (NFC Data Exchange Format) defined by the NFC Forum. In addition, the NFC Forum defines four record types. Specifically, the NFC Forum defines four RTDs (Record Type Definitions) including Smart Poster, Text, Uniform Resource Identifier (URI), and General Control. If the data received from the tag is a smart poster type, the control unit executes a browser (e.g., an Internet browser), and if the data received from the tag is a text type, the control unit can execute the text viewer. If the data received from the tag is a URI type, the control unit executes the browser or makes a telephone call, and if the data received from the tag is of the general control type, appropriate operation can be executed according to the control contents.

NFC 모듈이 P2P(Peer-to-Peer) 모드로 운용되면, 단말기는 다른 단말기와 P2P 통신을 수행할 수 있다. 이때, P2P 통신에는 LLCP(Logical Link Control Protocol)가 적용될 수 있다. P2P 통신을 위해 단말기와 다른 단말기 사이에는 커넥션(connection)이 생성될 수 있다. 이때, 생성되는 커넥션은 1개의 패킷을 교환하고 종료되는 비접속형 모드(connectionless mode)와 연속적으로 패킷을 교환하는 접속형 지향 모드(connection-oriented mode)로 구분될 수 있다. P2P 통신을 통해, 전자적 형태의 명함, 연락처 정보, 디지털 사진, URL 등의 데이터 및 블루투스, Wi-Fi 연결을 위한 셋-업 파라미터 등이 교환될 수 있다. 다만, NFC 통신의 가용 거리는 짧으므로, P2P 모드는 크기가 작은 데이터를 교환하는 것에 효과적으로 활용될 수 있을 것이다.When the NFC module operates in the peer-to-peer mode, the terminal can perform P2P communication with another terminal. At this time, LLCP (Logical Link Control Protocol) may be applied to P2P communication. For P2P communication, a connection may be created between the terminal and another terminal. At this time, the generated connection can be divided into a connectionless mode in which one packet is exchanged and terminated, and a connection-oriented mode in which packets are exchanged consecutively. Through peer-to-peer communications, data such as business cards in an electronic form, contact information, digital photos, URLs, and Bluetooth and set-up parameters for Wi-Fi connectivity can be exchanged. However, since the usable distance of NFC communication is short, the P2P mode can be effectively used to exchange small-sized data.

이하에서는 이와 같이 구성된 단말기에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.Hereinafter, embodiments related to a control method that can be implemented in a terminal configured as described above will be described with reference to the accompanying drawings. It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof.

종래 단말기는 특정 순간의 낙상을 감지하여 경고(alert)를 전송하는 것에 한정되었다. 다만, 본 발명에서는 일상생활에서 측정된 데이터로 낙상 위험(risk)을 예측하고 그에 따른 제어를 한다. 다시 말해, 본 발명에서는 단순히 모션에 의한 낙상 검출이 아닌 상황 인지(context awareness)를 활용해 상기 낙상 검출율 및 낙상 오검출을 낮추고, 응급 순간 이전에 미리 주의를 주어 응급 상황 전에 조치할 수 있도록 돕는 것이 그 목적이다. 이를 통해 본 발명에 따르면, 위험 요소들을 추정하여 가이드(guide) 할 수 있고, 그에 기반하여 트레이닝(training)을 연계할 수도 있다.Conventionally, the terminal is limited to detecting a fall of a specific moment and transmitting an alert. However, in the present invention, the risk of falling is predicted by data measured in everyday life, and control is accordingly performed. In other words, in the present invention, the fall detection rate and the falloff detection are lowered by using context awareness rather than motion fall detection alone, and attention is paid prior to the emergency moment to help the user to take measures before an emergency situation That is the purpose. Thus, according to the present invention, it is possible to estimate and guide the risk factors, and to link the training based on the guidance.

낙상이나 위급 상황을 인식과 관련하여, 원격에서 영상을 보고 보호자가 상기 낙상이나 위급 상황을 직접 판단하는 것이 하나의 방법이다. 그러나 상기 방법은 기술적인 문제는 차치하고 개인의 사생활 침해 등의 문제가 대두되고 있다. 따라서, 자동으로 인식하더라도 영상을 이용하면 유저가 거부감을 느낄 수 있다. 따라서, 본 발명에서는 영상을 보고 보호자가 판단하는 프로세스를 참고하되, 상기 영상을 위한 센서가 아닌 다른 센서를 통해 위급 상황을 검출하고, 이렇게 검출된 데이터를 활용하고자 한다.In connection with recognizing a fall or an emergency, it is one way to see the image remotely and the caregiver to directly judge the fall or emergency situation. However, the above method is different from a technical problem, and a problem such as a privacy invasion of an individual is emerging. Therefore, even if the image is automatically recognized, the user can feel the rejection feeling by using the image. Accordingly, the present invention refers to a process of judging a parent by looking at an image, and detects an emergency through a sensor other than the sensor for the image, and utilizes the detected data.

도 7은 본 발명의 일 실시 예에 따른 단말기의 데이터 처리 방법을 설명하기 위해 도시한 순서도이다.7 is a flowchart illustrating a data processing method of a terminal according to an embodiment of the present invention.

단말기는 센서를 통하여 가속도 데이터를 센싱하고, 수집한다(S702).The terminal senses and collects the acceleration data through the sensor (S702).

단말기는 이렇게 수집된 가속도 데이터에 기반하여 먼저 유저가 충격을 받았는지 여부를 판단한다(S704). 단말기는 상기 수집된 가속도 데이터에 기초하여 유저의 자세를 판단한다(S706). 여기서, 자세는 예컨대, S704 단계에서 유저가 충격을 받았다고 판단되면, 상기 받은 충격으로 인해 유저가 쓰러졌거나 휘청이거나 등의 자세를 판단하기 위함이다.Based on the acceleration data thus collected, the terminal first determines whether the user is shocked (S704). The terminal determines the user's posture based on the collected acceleration data (S706). Here, for example, if it is determined in step S704 that the user has been impacted, the posture is for judging the posture such as the user being knocked down or wobbled due to the received impact.

다음으로, 단말기는 상기 수집된 가속도 데이터에 기초하여 유저의 움직임이 있는지 여부를 판단한다(S708). 여기서, 상기 S708 단계 역시, 전술한 S704 또는 S706 단계 중 적어도 하나에 기초하여 유저의 움직임이 있는지 여부를 판단하는 것이다.Next, the terminal determines whether there is a movement of the user based on the collected acceleration data (S708). Here, in step S708, it is determined whether or not the user moves based on at least one of steps S704 and S706.

이러한 S704 단계 내지 S706 단계는 예컨대, 도시된 바와 같이 순차로 모두 판단될 수도 있고, 상기 단계들 중 어느 하나만 판단될 수도 있고, 도 7에 도시된 순서와 다른 순서로 판단될 수도 있다. 이러한 S704 단계 내지 S706 단계는 가속도 기반 낙상 알고리즘(720)이라고 명명할 수 있다.For example, the steps S704 to S706 may be sequentially determined as shown in FIG. 7, and only one of the steps may be determined, or may be determined in a different order from that shown in FIG. The steps S704 to S706 may be referred to as an acceleration-based fall algorithm 720.

이러한 가속도 기반 낙상 알고리즘(720)은 도시된 바와 다른 단계가 더 추가되어 구현될 수도 있고, 반대로 도시된 일부 단계가 제거되어 구현될 수도 있다. 또한, 상기 가속도 기반 낙상 알고리즘(720)은 도시되지 않은 전혀 다른 단계(들)로 구현될 수도 있다. 또는, 상기 낙상 알고리즘(720)은 가속도 데이터 기반이 아니라 전혀 다른 데이터에 기초하거나 다른 데이터와 조합되어 구현될 수도 있다. 다만, 편의상 도 7에서는 상기 단계들이 순차로 판단되는 것으로 설명한다.This acceleration-based fall algorithm 720 may be implemented by adding further steps as shown, or vice versa. In addition, the acceleration-based fall algorithm 720 may be implemented with completely different step (s) not shown. Alternatively, the fall algorithm 720 may be based on totally different data rather than on an acceleration data basis, or in combination with other data. However, for the sake of convenience, it is explained in FIG. 7 that the above steps are sequentially determined.

본 발명에 따른 단말기는 상기 낙상 알고리즘(720)을 통해 판단된 바에 더하여, 상황 인지 데이터를 센싱하고 수집한다(S710). 여기서, 상기 상황 인지 데이터는 예컨대, 단말기 내에 센서를 통해 수집되어 생성될 수도 있고, 단말기 외의 센서들로부터 데이터를 수신하여 생성될 수도 있다. 단말기는, 상기 수집된 상황 인지 데이터에 기초하여, 이미 낙상 알고리즘(720)을 통해 판단된 유저의 낙상 여부를 재검증한다. 다시 말해, 단말기는 비록 낙상 알고리즘(720)을 통해 유저가 낙상한 것으로 판단되었다고 하더라도, 가속도 데이터 이외의 상황 인지 데이터를 기초하여 상기 판단된 유저의 낙상 여부가 정확한 것인지 한 번 더 판단하는 것이다.The terminal according to the present invention senses and collects context-aware data in addition to the determination made through the fall algorithm 720 (S710). Here, the context awareness data may be collected and generated through a sensor in the terminal, or may be generated by receiving data from sensors other than the terminal. The terminal re-verifies whether or not the user has fallen, based on the collected context-aware data, through the fall algorithm 720. In other words, even if the user determines that the user has fallen through the fall algorithm 720, the terminal determines again whether the fall of the determined user is correct based on the situation recognition data other than the acceleration data.

이하, 도 8과 9를 참조하여, 상술한 낙상 알고리즘(720)을 더욱 상세하게 설명하면, 다음과 같다.Hereinafter, with reference to FIGS. 8 and 9, the fall algorithm 720 will be described in more detail as follows.

도 8에서는, 낙상 모션을 설명하는 부분(810)과 상기 낙상 모션의 데이터 그래프 부분(820)이 도시되었다.In Fig. 8, a portion 810 describing fall motion and a data graph portion 820 of the fall motion are shown.

낙상 모션 설명 부분(810)은, 수평축을 기준으로 좌에서 우로 서 있는 자세(A)부터 낙상 자세(D-F)까지 낙상에 따른 모션을 순차로 도시하고 있다. 여기서, 낙상 자세 D, E, F는 모두 낙상으로 인해 유저가 누웠거나 엎드려 있는 자세인데, D 또는 E가 낙상 자세라면 E 또는 F는 상기 낙상 D 또는 E 이후에 움직임이 없는 것을 표현한 것으로 볼 수 있다.The fall motion description part 810 sequentially shows the motions according to falls from the posture A standing from left to right with respect to the horizontal axis and the fall posture D-F. Herein, the falling postures D, E, and F are all a user's lying or lying posture due to falls. If D or E is a falling posture, E or F can be regarded as representing that there is no movement after the fall D or E .

데이터 그래프 부분(820)은 상기 낙상 모션에 따른 데이터를 그래프 형태로 표현한 것으로, 상기 데이터는 가속도 센서나 자이로 센서에 기반한 것일 수 있다. 다만, 이에 한정되는 것은 아니다. The data graph portion 820 represents the data according to the fall motion in graph form, and the data may be based on an acceleration sensor or a gyro sensor. However, the present invention is not limited thereto.

한편, 데이터 그래프 부분(820)은 상기 낙상 모션과 상기 낙상 모션에 따른 데이터 그래프를 참조하여, 페이지 1(Phase 1)(830)에서 페이지 4(Phase 4)(860)로 구분할 수 있다.On the other hand, the data graph portion 820 can be divided into page 4 (Phase 1) 830 to page 4 (Phase 4) 860 referring to the fall motion and the data graph according to the fall motion.

상기 데이터 그래프를 참조하면, 서 있는 자세(A)부터 완전히 넘어지는 낙상 자세(D) 전까지를 페이지 1(810)으로 명명한다. 상기 낙상 자세(D)는 페이지 2(840)로 명명한다. 상기 낙상 자세(D) 이후에 낙상 자세(F) 전까지를 페이지 3(Phase 3)(850)으로 명명한다. 마지막으로, 낙상 자세(F) 이후를 페이지 4로 명명한다.Referring to the data graph, the page before the falling posture D completely falling from the standing posture A is referred to as page 1 (810). The fall position (D) is referred to as page 2 (840). The position before the fall position F after the fall position D is named as Phase 3 (850). Finally, after the fall position (F), we call it page 4.

낙상 모션을 참조하면, 유저에 대한 충격은 페이지 2(840)에서 발생하고, 판단될 수 있다. 예컨대, 페이지 2(840)에서는 낙상으로 인해 유저가 넘어지면서 충격을 받더라도, 상기 받은 충격이 유저가 충분히 허용할 수 있는 정도 예컨대, 정신을 잃거나 부상을 당하거나 등이 아니면, 다시 활동을 할 수 있으므로, 이러한 충격 정도까지 관리자 등에게 보고하면, 오검출로 인한 오동작 우려가 있으므로, 이러한 경우에 낙상으로부터 배제할 수 있다. 즉, 페이지 2(840)에서는 유저의 낙상에 따른 충격량이 미리 정의된 임계치(Threshold) 이하인지 판단한다. 여기서, 상기 임계치는 예컨대, 단말기에 등록된 또는 단말기를 소지한 유저의 나이, 건강 상태, 성별, 기타 설정된 내용에 따라 임의적일 수 있다.Referring to falling motion, the impact on the user occurs on page two 840 and can be determined. For example, in page 2 (840), even if a user falls down due to falls, the impact can be re-activated if the impact is not enough to allow the user enough, such as being mental or injured Therefore, if such a degree of shock is reported to a manager or the like, there is a risk of malfunction due to erroneous detection. In such a case, it can be excluded from the fall. In other words, page 2 (840) determines whether the amount of impact due to the user's fall is below a predetermined threshold. Here, the threshold may be arbitrary depending on, for example, the age, health status, sex, and other settings of the user registered or having the terminal.

단말기는 페이지 3(850) 이후부터는 낙상 이후에 유저의 움직임이 있는지 판단할 수 있다. 이는 추후 유저의 낙상에 따른 충격량 판단에 영향을 줄 수도 있고, 기타 후술할 상황 인지 데이터에도 영향을 줄 수 있다.After the page 3 (850), the terminal can determine whether there is a movement of the user after the fall. This may affect the determination of the amount of impact due to the user's fall in the future, and may also affect the situation recognition data to be described later.

페이지 3(850)에서는 낙상 이후의 유저의 움직임을 센싱한다. 상기 센싱 결과 만약 유저의 움직임이 없으면, 상기 페이지 3(850)는 페이지 4(860)로 전환되고, 상기 전환 시점에 관리자 또는 그의 단말기로 알람, 제어 커맨드 등이 전송될 수 있다.On page 3 (850), the user's movement after the fall is sensed. As a result of the sensing, if there is no movement of the user, the page 3 850 is switched to page 4 (860), and an alarm, a control command, or the like may be transmitted to the manager or his terminal at the switching point.

도 9를 참조하면, 낙상 알고리즘에 관한 것으로 특히, 자세 측정에 관한 것이다.Referring to FIG. 9, this invention relates to a fall algorithm, and more particularly to attitude measurement.

도 9를 참조하면, 예컨대, 센서가 몸에 부착된 경우에, 누워 있는 자세를 정확하게 인식할 수 있다.Referring to Fig. 9, for example, when the sensor is attached to the body, the lying posture can be accurately recognized.

도 9a는 X, Y, 및 Z축에 대한 센싱 데이터 그래프이다. 한편, 도 9b는 유저가 서 있는 경우에 Y축과 Z축을 표시한 도면이고, 도 9c는 상기 유저가 누워 있는 경우에 Y축과 Z축을 표시한 도면이다.9A is a graph of sensing data for the X, Y, and Z axes. 9B shows the Y axis and the Z axis when the user is standing, and FIG. 9C shows the Y axis and Z axis when the user is lying.

먼저, 도 9a를 참조하면, X축(910), Y축(920), Z축(930)과 벡터 합(Vector sum)(940)에 대한 그래프가 수평축 샘플들과 수직축 밸류에 기초하여 도시되었다.9A, a graph for an X axis 910, a Y axis 920, a Z axis 930, and a vector sum 940 is shown based on the horizontal axis samples and the vertical axis values .

도 9a에서 박스 1은 충격이 없는 경우를, 박스 2는 충격이 가해진 경우, 박스 3은 모션이 없는 경우, 그리고 박스 4는 초기 상태를 나타낸다.In FIG. 9A, Box 1 shows no impact, Box 2 shows an impact, Box 3 shows no motion, and Box 4 shows an initial state.

도 9에서 중력축은 Y에서 Z 방향으로 변경되고, 매우 낮은 주파수로 기울기를 판단할 수 있다.In Fig. 9, the gravity axis changes from Y to Z, and the slope can be judged at a very low frequency.

도 10은 본 발명의 일 실시 예에 따른 상황 인지 데이터의 파라미터 중 하나로 장소를 설명하기 위해 도시한 도면이다.FIG. 10 is a view for explaining a place as one of the parameters of the context-aware data according to an embodiment of the present invention.

본 발명에 따른 다양한 상황 인지 데이터의 파라미터들 중 하나로 장소를 설명한다. 여기서, 상기 장소라 함은, 위치, 포지션 등 다양한 명칭으로 불릴 수 있다.The location is described as one of the parameters of various context awareness data according to the present invention. Here, the place may be referred to as various names such as a position and a position.

예컨대, 1차로 단말기를 소지한 유저가 낙상이라고 하더라도 그 정도의 차이가 있을 수 있다. 다시 말해, 상기 유저가 낙상하였다고 하더라도 상기 낙상에 대한 데이터만으로는 유저의 낙상에 따른 경고나 주의를 관리자 등에게 반드시 하여야 하는 것은 아니다. 즉, 유저의 낙상이 해당 유저에게 충분히 위험하고 그런 상황이 가정되어야지 그렇지 않으면 유저에게도 그리고 관리자에게도 불필요한 시간 낭비가 될 수 있다.For example, even if a user who has a terminal primarily includes a fall, there may be a difference in degree. In other words, even if the user hurts, the data on the fall does not necessarily warn the administrator or warn the user of the fall. That is, the user's fall is sufficiently dangerous to the user, and such a situation should be assumed, otherwise unnecessary time may be wasted both for the user and for the administrator.

따라서, 본 발명에서는 이러한 1차적인 단말기 소지 유저의 낙상에 대하여 관리자 등에게 경고나 주의를 줄 정도인지 보다 정확하게 판단하기 위하여 상황 인지 데이터를 채택하여 정확하고 효율적인 관리 시스템을 제공하고자 한다.Accordingly, in the present invention, an attempt is made to provide an accurate and efficient management system by adopting context-aware data in order to more accurately determine whether or not the primary terminal owner has fallen a warning or caution to a manager.

관련하여, 상황 인지 데이터는 다양하게 정의될 수 있는데, 그 하나로 먼저 장소에 대한 내용을 개시하고 설명한다.In this regard, context awareness data can be defined in various ways, one of which is to disclose and explain the place first.

유저가 예컨대, 낙상과 유사한 누운 자세를 취하고 있다고 하면, 종래 센서는 이를 낙상으로 판단하여 관리자에게 노티스(notice) 할 수 있다. 그런데 실질적으로는 유저는 단지 쉬고자 편안히 누운 경우일 수도 있다. 다시 말해, 유저가 누운 자세를 취하더라도 그것이 낙상의 의미인지는 예컨대, 상기 유저가 누운 장소에 따라 다르게 인식될 수 있다. 일 예로, 유저가 침대에 누워 있는 경우와 취침이나 휴식과는 무관한 주방이나 화장실에 누워 있는 경우는 이를 다르게 해석하고 인지한 후 후속 처리를 하여야 할 것이다.If the user is taking a lying position similar to a fall, for example, the conventional sensor may determine that the fall is a fall and notify the manager of the fall. In practice, however, the user may simply be lying comfortably at rest. In other words, even if the user takes a lying posture, whether or not it is the meaning of the fall can be recognized differently depending on the place where the user is lying. For example, when a user is lying in a bed or lying in a kitchen or toilet that is not related to a bed or a rest, the user must interpret and perceive this differently and perform subsequent processing.

상황 인지 파라미터들 중 하나인 장소 파라미터와 관련하여, 유저의 위치가 중요하다. 즉, 유저의 현재 위치가 실내, 실외, 실내 화장실, 침실, 거실, 주방 등 중 어디인지가 해당 유저의 상태 판단에 중요한 요소가 될 수 있다.With respect to the location parameter, which is one of the context-aware parameters, the user's location is important. That is, whether the current position of the user is indoors, outdoors, an indoor restroom, a bedroom, a living room, or a kitchen may be an important factor in determining the status of the user.

또한, 현재 유저가 움직임이 없는 상태인데 그 위치가 주방, 화장실, 침실, 거실 등에 따라 상기 유저의 상태 판단에 중요한 요소가 될 수 있다. 예컨대, 현재 유저가 움직임이 없는 상태에서 이전에 낙상했던 장소인 화장실에 위치한 경우에는 다른 장소에 비하여 가중치가 부여될 수 있다. 또는 통상 많은 유저가 낙상하는 장소의 경우에도 다른 장소에 비하여 가중치가 부여될 수 있다.In addition, the current user is in a state in which there is no movement, and its position may be an important factor in determining the state of the user depending on a kitchen, a toilet, a bedroom, a living room, and the like. For example, in the case where the user is located in the toilet room where the user has previously fallen in the state of no movement, a weight can be given to the user in comparison with other places. Or, in the case of a place where many users usually fall, the weight may be given to the other places.

이하에서는 단말기 장소 인식 방법에 대하여 기술한다.Hereinafter, a terminal location recognition method will be described.

통상 카메라 등을 통한 영상으로 장소를 확인하는 경우에는, 유저가 누워 있거나 움직임이 없는 자세일 때 주방이나 화장실 바닥, 또는 거실 바닥이라면 바로 비정상적인 상태로 판단할 수 있다. 또는, 실내와 실외 등을 구분하는 경우에는 주기적인 GPS 온 또는 오프를 통해 알 수 있다. 예컨대, 실내에서는 GPS가 오프되거나 온 되더라도 센싱 데이터를 획득하기 어렵다. 그리고 다른 방법으로는 배터리 소모를 줄이기 위해 조도 센서를 이용하여 실내와 실외를 조도량 차이로 구분할 수도 있다. 즉, 조도 센서를 통해 센싱된 조도량이 많으면 실외를 반대로 적으면 실내로 판단할 수 있다.In the case of confirming a place with an image through a camera or the like, when the user is in a lying position or in a motionless position, the user can judge that the user is in an abnormal state immediately if the user is in the kitchen, toilet floor or living room floor. Alternatively, when the indoor and the outdoor are distinguished, it can be known through periodic GPS on or off. For example, it is difficult to acquire sensing data even when the GPS is turned off or turned on in the room. Alternatively, to reduce battery consumption, indoor and outdoor can be divided into different levels of illumination using an illumination sensor. That is, if there is a large amount of illuminance sensed by the illuminance sensor, it is possible to judge that the room is indoors if the outside is reversed.

그 밖에, 단말기의 조도 센서를 통해 센싱되는 조도량의 차이가 발생하는 경우에만 GPS 센서를 온하여 실내와 실외를 확인 후에 오프하는 방법으로 장소 확인이 가능할 수도 있다.In addition, it may be possible to confirm the location by turning on the GPS sensor, checking the indoor and outdoor areas, and then turning off the GPS sensor only when there is a difference in the amount of the sensing sensed by the ambient light sensor of the terminal.

한편, 단말기를 통해 실내에서의 공간 인식은 종래 RSSI(Received Signal Strength Indicator)를 이용하거나 LED를 이용하여 모듈화(modulation)된 신호를 송출하여 공간을 인식할 수도 있다. 이에 대해서는 도 10을 참조하여 후술한다.On the other hand, the spatial recognition in the room through the terminal can recognize a space by using a received signal strength indicator (RSSI) or a modulated signal using an LED. This will be described later with reference to FIG.

또한, 단말기의 지자기(Magnetic) 센서를 이용해 초기에 공간에 대한 지자계 값을 조정(Calibration)하는 방식을 사용할 수도 있다.Also, it is possible to use a method of initially calibrating the earth magnetic field value with respect to the space by using a magnetic sensor of the terminal.

도 10은 특히, 상기 장소와 관련하여, LED 램프 기반으로 공간을 인식하는 것에 대해 기술하고 있다.Fig. 10 particularly describes the recognition of space with an LED lamp base, in relation to said place.

실내에 설치된 조명장치 또는 발광소자(LED)에서 빛을 조사하면, 비록 사람의 눈으로는 인식하기 어려우나 매우 빠르게 온/오프가 이루어져 ID를 변조한다. 본 발명에서는 이에 착안하여, 예컨대, 도 10a에 도시된 바와 같이, 천장 등에 설치된 발광소자에서 조사되는 빛의 변조 ID(‘101111’)를 유저가 소지한 단말기의 조도 센서를 통해 상기 발광소자에서 조사되는 빛을 수광하여 상기 변조된 발광소자의 ID로부터 복조된 ID(‘101101’)를 얻을 수 있다. 그리고 이렇게 복조된 ID를 통해 유저가 위치한 공간을 인식할 수 있다. 도 10a 내지 10c는 각각 해당 공간의 발광소자에서 조사되는 빛의 변조 ID가 고유한 값을 가질 수 있는 도 10a에선 ID가 ‘101111’이고, 도 10b에서는 ID가 ‘101100’이고, 도 10c에서는 ID가 ‘101101’이다. 상기 다른 ID는 각각 특정 장소 내지 공간과 매핑되어, 예컨대, 도 10a의 ID는 화장실, 도 10b의 ID는 안방, 그리고 도 10c의 ID는 거실을 의미할 수도 있다.If light is irradiated from a lighting device or a light emitting device (LED) installed in a room, the ID is modulated by turning on / off very quickly even though it is difficult to recognize by the human eye. 10A, a modulation ID ('101111') of light emitted from a light emitting element provided on a ceiling or the like is irradiated from the light emitting element through the illuminance sensor of the terminal held by the user And obtains a demodulated ID ('101101') from the ID of the modulated light emitting device. Then, the user can recognize the space where the user is located through the ID thus demodulated. 10A to 10C are diagrams illustrating a case where the ID is '101111' in FIG. 10A, the ID is '101100' in FIG. 10B and the ID Quot; 101101 ". The other IDs are respectively mapped to a specific place or space. For example, the IDs in FIG. 10A may be a toilet, the IDs in FIG. 10B may be a room, and the IDs in FIG. 10C may mean a living room.

전술한 바와 같이, 도 10과 같이, 본 발명에 따라 미리 공간과 ID를 매핑하고, 이를 통해 유저 또는 유저의 단말기의 위치 인식이 가능하다. 한편, 상기 매핑 시에 단지 공간과 ID만을 매핑하는 것이 아니라 상기 공간들은 낙상 장소와 관련되므로, 미리 해당 공간에 대한 가중치(weight)를 정의할 수 있다. 한편, 본 발명의 상황 인지 파라미터와 관련하여, 생활패턴 분석을 통해 비정상(abnormality) 상태 여부를 검출하거나 낙상 후 장시간 방치된 상태(False Negative activity(step, distance, calorie)와 위치 인식, 앰비언트(ambient) 조도 등을 조합하면 생활패턴 분석, 낙상 위험도 예측 등이 가능할 수 있다. 상기에서 폴스 네거티브(false negative)는 예컨대, 낙상인데 낙상이 아니라고 오인식한 경우를 나타내는 의미이다. 반면, 폴스 포지티브(false positive)라 함은 낙상이 아님에도 불구하고 낙상으로 오인식한 경우를 나타내는 의미이다. 또한, 도시되진 않았으나, 본 발명에 따라 낙상, 낙상 위험 등을 외부에 위험 신호를 알려 빛이 닿는 공간에 있는 디스플레이 장치에 위험을 알릴 수도 있다.As described above, according to the present invention, space and ID are mapped in advance as shown in FIG. 10, and the position of the terminal of the user or the user can be recognized through this mapping. On the other hand, in the mapping, not only the space and the ID are mapped, but the spaces are related to the fall place, so the weight for the space can be defined in advance. Meanwhile, in relation to the context-awareness parameter of the present invention, it is possible to detect abnormality status through life pattern analysis or to detect false negative activity (step, distance, calorie), position recognition, ambient ), Etc., can be used to analyze the life pattern and to predict the risk of falling, etc. In the above, a false negative means, for example, a case where a fall is mistakenly regarded as not falling, whereas a false positive The present invention is not limited to this, but may be applied to a display device in a space in which a light is incident by notifying a danger signal to the outside of a fall, a risk of falling, You may be aware of the danger.

도 11은 본 발명의 일 실시 예에 따른 상황 인지 데이터의 파라미터로 일상생활패턴과 비정상에 관해 설명하기 위해 도시한 도면이다.FIG. 11 is a diagram for explaining an everyday life pattern and an abnormality as parameters of context-aware data according to an embodiment of the present invention.

도 11에서는 상황 인지 데이터의 파라미터들 중 하나로 전술한 도 10의 장소, 위치 등의 파라미터에 이어 생활패턴 파라미터에 대해 설명한다.In Fig. 11, one of the parameters of the context recognition data will be described with reference to the parameters such as the location and position in Fig. 10 described above.

대부분의 유저는 일상생활 속에서 일정한 생활패턴을 가지고 있다. 특히, 본 발명과 같이, 상황 인지가 필요한 노인, 어린이, 몸이 불편한 사람 등의 경우에는 이러한 생활패턴이 더욱 중요한 의미를 가진 요소가 될 수 있다. Most users have a certain life pattern in daily life. Particularly, in the case of an elderly person, a child, a person who is uncomfortable in the body, etc. who need to be aware of the situation, as in the present invention, this life pattern can be a more important factor.

예를 들어, 일정한 패턴의 변화는 상술한 유저의 경우에는 위험적인 요소가 될 수 있다.For example, a certain pattern change can be a dangerous factor in the case of the above-mentioned users.

이러한 생활패턴의 경우에는, 단말기에 미리 설정해 놓을 수도 있지만, 주기적인 생활패턴의 측정과 동일 또는 유사한 나이, 환경의 유저 등의 평균적인 생활패턴들 등을 적절히 조합하고 업데이트하여 결정될 수 있다. In the case of such a life pattern, it may be set in advance in the terminal, but it may be determined by appropriately combining and updating the life patterns of the same or similar age as the measurement of the periodic life pattern and the average user of the environment.

따라서, 단말기는 유저의 평균적인 생활패턴을 벗어나는 행동 등에 대해서는 이를 사고 등 소정 이벤트의 발생 이전에 미리 판단하고, 주의, 관찰 등을 통해 상기 이벤트 등에 따라 위험 등의 요소를 사전에 방지 또는 제거 등을 할 수 있다.Accordingly, the terminal can determine beforehand the occurrence of an event such as an accident before the occurrence of an event such as an accident, and prevent or remove factors such as a danger according to the event through attention, observation, etc. can do.

생활패턴과 관련하여, 다음과 같은 개별 요소 또는 요소들이 참고될 수 있다. 유저의 하루 또는 일주일간의 총 스텝 수의 변화, 유저가 실내 각 공간에서 머문 시간, 유저의 실내에서의 공간별 머문 시간 비율, 유저가 실내/외 머문 비율, 유저의 시간대별 공간의 이동 변화, 유저의 침대에 누워 있는 시간 또는 총 누워 있는 시간, 유저의 수면 시간, 유저의 실내에서 움직인 시간, 유저의 주변 사물들과 부딪힌 횟수, 유저의 생체 신호 측정 시 평균값과의 차이, 유저의 보행 속도 저하 등이 상기 생활패턴 파라미터의 요소로 고려될 수 있다. 여기서, 상기 각 요소 또는 적어도 둘 이상의 요소들의 조합이 상기 생활패턴 파라미터로 고려된다.With regard to the life pattern, the following individual elements or elements may be referred to. A change in the total number of steps per day or week of the user, a time spent by the user in each room of the room, a ratio of time spent by the user in the room in the room, a ratio of the user staying indoor / The time spent lying on the bed of the user, the total sleeping time, the user's sleeping time, the time the user moved inside the room, the number of times the user collided with surrounding objects, the difference between the average value of the user's bio- Etc. may be considered as an element of the life pattern parameter. Here, each of the elements or a combination of at least two elements is considered as the life pattern parameter.

한편, 단말기는 상기와 같은 요소 또는 요소들의 조합을 소정 시간 또는 기간 단위로 데이터를 수집하고, 이를 평균하여 유저의 평균 패턴과 미리 정한 임계치 이상 차이가 나면, 비정상 이벤트로 판단하여 노티스 신호를 발생하여 관리자 등에게 전달할 수 있다.Meanwhile, if the terminal collects data on a predetermined time or period basis and then averages them, the terminal determines that it is an abnormal event and generates a notify signal if a difference between the average pattern of the user exceeds a predetermined threshold value It can be delivered to the manager or the like.

또한, 관리자의 입장에서는 단말기마다 컬러로 구분하여 해당 단말기를 소지한 유저를 더욱 빠르고 편리하게 관리할 수도 있다. 상기 컬러는 단말기 내 수집되는 각 파라미터에 대해서도 적용될 수 있다. 예컨대, 전술한 다수의 요소들이 생활패턴 파라미터로 고려된다고 가정하면, 모든 요소들이 결과 비교시에 다 위험 요소가 되는 것은 아니다. 따라서, 각 요소의 상태 비교 결과에 따라 요소단위로 컬러를 다르게 설정될 수 있다. 하나의 요소를 가정하면, 해당 요소가 비교 시점에 현재 안정 상태라면 녹색 컬러로 표시하고, 위험 상태이거나 주의 또는 관찰이 필요한 상태로 판단되면 노란색 컬러로 표시하고, 위험 상태가 발생한 것으로 판단되면 빨간색(필요 시 점멸 등)으로 표시하여 관리자의 관리 편의를 기할 수 있다. 또한, 해당 유저가 소지한 단말기에서도 상기 유저의 상태에 따라 컬러를 다르게 표시되도록 하여 관리자 외에도 타인이 상기 유저의 단말기를 보고 해당 유저의 상태를 판단 가능하도록 하여 위험 방지의 기능도 수행될 수 있다. 상기 비교 시에 예컨대, 단말기를 통해 수집된 특정 요소의 평균값이 기설정된 평균값보다 10% 이상 차이가 나면, 위험 예지 단계로 노란색 컬러로 변경되고, 20% 이상 차이가 나면, 위험 발생 단계로 빨간색 컬러로 변경될 수 있다. 또한, 상기 유저의 상태 변화시 또는 위험 발생 단계 시에는 단말기에서 자체적으로 관리자 또는 미리 설정된 서버나 단말기로 해당 이벤트 발생 사실을 브로드캐스팅(broadcasting)하도록 설정할 수도 있다.In addition, the administrator can manage the user who has the terminal by dividing each terminal into colors in a faster and more convenient manner. The color may also be applied to each parameter collected in the terminal. For example, assuming that many of the above-mentioned elements are considered as life pattern parameters, not all elements are at all dangerous when comparing results. Therefore, the color can be set differently on a per element basis according to the state comparison result of each element. Assuming one element, it is displayed in green color if the element is currently stable at the time of comparison, and displayed in yellow if it is determined to be in a dangerous state, a state requiring attention or observation, and a red Flashing when necessary), so that the management convenience of the manager can be improved. In addition, the color of the terminal may be displayed differently according to the status of the user even in the terminal owned by the user, so that a risk prevention function can be performed by allowing the other terminal to view the terminal of the user so that the status of the user can be determined. For example, when the average value of the specific elements collected through the terminal differs by 10% or more from the predetermined average value at the time of the comparison, the yellow color is changed to the yellow color at the risk prediction step. If the difference is more than 20% . ≪ / RTI > In addition, the terminal may set itself to broadcast an event occurrence to an administrator or a preset server or a terminal at the time of the user's state change or the risk occurrence phase.

한편, 상술한 요소들 중 하나가 기설정된 임계치를 넘거나 각 요소는 기설정된 임계치를 넘지 않더라도 상기 요소들의 총합이 기설정된 임계치를 초과하는 경우에도 이벤트 발생으로 판단할 수 있다. 후자의 경우에는, 사전 예측의 측면을 고려한 것으로 이에 대해서는 임의 설정 가능하다. 여기서, 이벤트라 함은 위험 발생뿐만 아니라 위험 발생 예측 단계도 포함될 수 있다.On the other hand, even if one of the above-mentioned elements exceeds a preset threshold value or each element does not exceed a predetermined threshold value, it can be determined that an event has occurred even if the total of the elements exceeds a predetermined threshold value. In the latter case, consideration is given to the aspect of the prediction, which can be arbitrarily set. Here, an event may include not only a risk occurrence but also a risk occurrence prediction step.

상술한 내용이 도 11의 관리자 단말기(1110) 상에 특정 유저(예를 들어, 홍길동)를 선택하면, 선택된 유저의 현재 상태 정보(1120)가 제공되는 것을 알 수 있다.If the above-described contents are selected on the administrator terminal 1110 of FIG. 11, the current state information 1120 of the selected user is provided.

도 12는 본 발명의 일 실시 예에 따른 상황 인지 데이터의 파라미터 중 하나로 유저의 머리 방향에 대해 설명하기 위해 도시한 도면이다.12 is a diagram for explaining the head direction of a user as one of the parameters of the context-aware data according to an embodiment of the present invention.

도 12는 상황 인지 파라미터들 중 또 다른 하나로 유저에 대한 방향성 데이터를 설명한다.Figure 12 illustrates directional data for the user as yet another of the context-aware parameters.

특히, 도 12의 경우에는, 유저의 움직임이 없는 경우에 해당 유저의 현재 방향 구체적으로, 머리 방향을 인지하여 상기 유저의 상태를 상황 인지할 수 있다.In particular, in the case of FIG. 12, when there is no movement of the user, it is possible to recognize the current direction of the user, specifically the head direction, and recognize the state of the user.

통상 공간상에서 유저의 방향 즉, 머리 방향은 예를 들어, 해당 공간의 특성이나 목적 등을 고려하면, 일정하거나 정해져 있을 수 있다. 예컨대, 침대에 누워 있는 유저의 머리 방향은 당연히 침대에 따라 정해질 수 있다. The direction of the user in the normal space, that is, the head direction, may be fixed or fixed in consideration of, for example, the characteristics and purpose of the space. For example, the head direction of the user lying in the bed can be determined according to the bed.

다만, 유저가 움직임이 없거나 큰 충격을 받은 후에는, 이러한 유저의 머리 방향이 기존 생활패턴에서 없었던 자세라면 이를 하나의 위험 요소 또는 상황으로 인지할 수도 있다. 특히, 이러한 머리 방향 등은 예컨대, 단말기에 구비되거나 해당 공간에 설치된 지자기 센서, 가속도 센서 등을 통해 센싱 가능하다.However, if the head direction of the user is not in the existing life pattern after the user has no movement or a large impact, it may be recognized as a risk factor or situation. In particular, the head direction and the like can be sensed through, for example, a geomagnetic sensor or an acceleration sensor provided in the terminal or installed in the corresponding space.

다시 말해, 단말기는 일상생활패턴에서 특히, 실내의 특정 공간에 유저가 머무르는 경우, 유저의 머리의 위치, 방향 또는 유저의 시선 방향 등을 측정하여 이를 상황 인지 데이터로 이용할 수 있다.In other words, the terminal can measure the position and direction of the head of the user, the direction of the user's gaze, etc., and use it as the situation recognition data, especially when the user stays in a specific space in the daily life pattern.

도 12를 참조하면, 유저의 공간상에서 자세를 센싱하여 상황 인지에 이용할 수 있다.Referring to FIG. 12, it is possible to use the sensing of the posture on the space of the user to recognize the situation.

관리자는 유저의 누워 있는 자세와 움직임 여부 등을 센싱하여, 상기 유저의 현재 상태를 판단할 수 있다.The manager can determine the current state of the user by sensing the user's lying posture and whether the user is moving.

예컨대, 도 12에서 안방을 예로 들면, 원래 정상 자세(Normal)는 침대에 누워있고, 머리 방향 역시 평면 기준으로 동쪽이어야 하나, 유저가 특히, 침대 위치가 아닌 곳에 누워있고 머리 방향이 동쪽이 아니라면 이는 정상이 아닌 상태(Abnormal)로 판단할 수 있다. 한편, 이 경우, 유저 위치가 침대가 아니거나 머리 방향이 동쪽이 아니라고 하더라도 움직임이 있거나 상기 머리 방향이 동쪽에 가까운 경우에는 관찰 요망 상태(Observer)로 표시할 수 있다. 12, for example, the original normal position is lying on the bed and the head direction should also be east on a plane basis. However, if the user is lying not in the bed position and the head direction is not on the east side It can be determined that the state is not normal (Abnormal). On the other hand, in this case, if the user position is not a bed, or if the head direction is not the east direction, or if the head direction is close to the east, it can be displayed as the observation demand state (Observer).

이러한 내용은, 도 12에 도시된 바와 같이, 주방, 거실, 욕실, 현관 등에도 동일 또는 유사한 방식으로 적용될 수 있다.This can be applied to the kitchen, the living room, the bathroom, the entrance, etc., in the same or similar manner, as shown in Fig.

다시 말해, 유저가 침대에서 낙상 시 이를 정확하게 측정하는 것이 어려울 수 있으나 기존 수면 자세와 다른 자세로 누워 있어, 머리 방향이 다르고, 움직임까지 없다면, 이는 비정상으로 판단하고 확인해 보는 것이 좋다는 제어 커맨드를 전송하는 것이 바람직할 것이다.In other words, it may be difficult for a user to accurately measure when falling from a bed, but if the head is different from the existing sleeping posture and is in a different posture and there is no movement, it is transmitted as a control command Lt; / RTI >

또한, 상기 경우에, 상기와 같은 상태로 판단된 상태에서, 만약 주변에 영상을 획득할 수 있는 다른 센서가 있는 경우에는 그를 통해 한 번 더 확인하는 것이 정확성을 높일 수 있다.In this case, if there is another sensor capable of acquiring an image in the surrounding state in the state determined as described above, it may be more accurate to confirm one more time through the sensor.

그 밖에, 낙상의 판단 요소 중 하나로 충격의 강도의 경우, 만약 유저가 충격 강도가 임계치 미만인 경우에는, 이를 낙상으로 바로 판단하는 것이 어렵다. 따라서, 종래 단말기에서 충격의 강도만으로 낙상 여부를 판단하는 경우에는, 이를 놓칠 수 있어, 문제가 될 수 있으나, 본 발명에서는 비록 낙상 판단을 위한 충격 강도가 임계치 미만이라고 하더라도 상황 인지를 통하여 낙상 여부를 재검증 또는 재판단하여 낙상 여부 판단의 정확성을 높일 수 있다. 이는 충격 강도가 센 경우에는 반대로 낙상 오검출을 방지할 수 있어 시스템 효율을 높일 수 있다.In addition, in the case of the intensity of the impact as one of the determining factors of falling, it is difficult for the user to immediately judge it as a fall if the impact strength is less than the threshold value. Accordingly, in the conventional terminal, if it is judged that the fall is caused only by the intensity of the impact, it may be a problem. However, even if the impact intensity for the fall determination is less than the threshold value, It is possible to re-verify or re-determine the accuracy of the fall determination. This makes it possible to prevent falloff detection when the impact strength is high, thereby improving system efficiency.

도 13은 본 발명의 일 실시 예에 따른 상황 인지 데이터의 파라미터 중 하나로 음성 또는 오디오에 대해 설명하기 위해 도시한 도면이다.13 is a diagram for explaining voice or audio as one of parameters of context-aware data according to an embodiment of the present invention.

다음으로, 상황 인지 파라미터들 중 또 다른 하나로 음성 또는 오디오(이하 오디오) 파라미터에 대해 설명한다.Next, voice or audio (hereinafter audio) parameters will be described as another of the context-aware parameters.

통상 센서를 인체의 모든 부분에 부착하는 것은 어렵다. 따라서, 센서가 부착되지 않은 부분에 충격이 오는 경우에는 충격의 세기를 정확히 센싱하지 못하는 등 충격 감지의 정확성이 떨어질 수 있다. 본 발명과 관련하여, 낙상은 특히, 어린이, 노인 등 감시, 관리 등이 필요한 유저에게 중요한 사항인데, 이와 같이 충격 감지나 위급 상황 인지는 단 한 번이라도 큰 영향을 줄 수 있어, 제품 또는 시스템에 대한 신뢰를 떨어뜨릴 수 있다.It is usually difficult to attach the sensor to all parts of the human body. Therefore, when an impact is applied to a portion where the sensor is not attached, the accuracy of impact detection may be deteriorated such that the strength of the impact can not be precisely sensed. In relation to the present invention, falls are particularly important for users who need to monitor, manage, and the like, such as children and the elderly. Such a shock detection or emergency situation can have a great impact even once, You can lower your confidence.

전술한 상황의 해결책의 하나로, 오디오 센서를 이용할 수 있다. 예컨대, 통상 충격은 오디오 발생을 동반할 가능성이 매우 높다. 여기서, 오디오 발생은, 충격 그 자체에 대한 사운드일 수도 있으나, 충격으로 인한 유저의 신음소리 등 오디오도 포함된다.As one solution to the situation described above, an audio sensor can be used. For example, the normal impact is very likely to accompany audio generation. Here, the audio generation may be a sound for the impact itself, but also audio such as moaning sound of the user due to impact.

따라서, 단말기는 유저로부터 센싱된 오디오 데이터를 분석하여, 평소 목소리와 다르거나 평소 유저의 오디오 레벨(예컨대, db) 즉, 평균 오디오 레벨로부터 임계치 이상의 레벨 차이가 감지되면, 이를 충격 또는 위험 상황으로 인지하여, 본 발명에 따른 후속 처리를 시작할 수 있다.Accordingly, the terminal analyzes the audio data sensed by the user, and if the level difference is different from the normal voice or the audio level (e.g., db) of the normal user, that is, the average audio level, So that the subsequent processing according to the present invention can be started.

도 13a에서는 유저의 음성 데이터의 그래프를 도시하였고, 도 13b에서는 그를 분석한 데이터 그래프를 도시하였다.FIG. 13A shows a graph of voice data of a user, and FIG. 13B shows a data graph obtained by analyzing the graph.

도 13a와 13b를 참조하면, 제1포인트(1310)와 제2포인트(1320)에서 유저의 오디오 레벨이 현저히 차이나는 것을 알 수 있다. 따라서, 단말기는 도 13a와 13b와 같이, 유저의 오디오 레벨 센싱 데이터로부터 유저의 충격, 위험상황 등 상태를 판단할 수 있으며, 이를 상황 인지 파라미터로 이용하여, 정확한 유저의 상태 센싱이 가능할 수 있다.Referring to FIGS. 13A and 13B, it can be seen that the user's audio level is significantly different at the first point 1310 and the second point 1320. [ 13A and 13B, the terminal can determine the state of the user, such as a shock or a dangerous situation, from the audio level sensing data of the user, and can accurately sense the state of the user by using it as a context recognition parameter.

특히, 도 13a와 13b에서, 제1포인트(1310)는 충격 포인트로 알 수 있고, 제2포인트(1320) 역시 충격 포인트로 판단할 수 있다. 또는, 상기 제1포인트(1320)에서 충격이 가해지고, 제2포인트(1320)는 상기 제1포인트(1310)의 충격 여부를 재검증하도록 하는 데이터일 수 있다. 후자의 경우, 유저는 최초 충격(1310)이 가해진 후에, 해당 충격이 임계치를 넘어갔으면, 상기 충격에 대한 반응으로 인해 신음소리(1320) 등을 내기에, 상기 제2포인트(1320)는 상기 제1포인트(1310)에서 충격이 실제 상황임을 인지하도록 하는 보조 데이터 기능도 할 수 있다.13A and 13B, the first point 1310 can be known as an impact point, and the second point 1320 can also be determined as an impact point. Alternatively, an impact may be applied at the first point 1320, and the second point 1320 may be data to re-verify whether the first point 1310 is impacted. In the latter case, after the first impact 1310 is applied, if the impact exceeds the threshold value, the user makes a moan sound 1320 due to the reaction to the impact, One point 1310 may also function as an ancillary data function to recognize that the impact is a real situation.

특히, 도 13a에서는 충격 소리 등은 고주파 영역에서 높은 강도를 기록하여 마치 도 13b에서는 임펄스(impulse) 신호처럼 전 영역의 주파수대에서 측정될 수 있다.In particular, in FIG. 13A, the impact sound or the like records a high intensity in the high frequency range and can be measured in the entire frequency band like an impulse signal in FIG. 13B.

한편, 상황 인지와 관련하여, 센서 착용 여부도 하나의 파라미터로 인식할 수 있다. 여기서, 이하 낙상 센서 또는 디바이스(이하 낙상 디바이스)는 도 2에 도시된 디바이스 중 하나를 참조할 수 있다.On the other hand, regarding the recognition of the situation, whether the sensor is worn can also be recognized as one parameter. Hereinafter, the fall sensor or device (hereinafter, fall-away device) may refer to one of the devices shown in Fig.

예를 들어, 낙상 디바이스가 단말기 또는 유저에게 미착용되었으면, 유저의 낙상 여부를 측정할 수 없다. 관련하여, 낙상 디바이스의 미착용 상황을 모니터링하는 것도 중요하고, 미착용 시에 낙상 알고리즘이 동작하면 오검출이 많이 발생할 수 있다.For example, if the fall device has not been used by the terminal or the user, it is impossible to measure whether or not the user falls. In connection with this, it is also important to monitor the non-use status of the fall device, and if the fall algorithm operates when there is no use, many false detections may occur.

따라서, 본 발명과 관련하여, 근접 센서와 가속도 센서를 통한 낙상 디바이스 착용 인식의 트리거(trigger)를 수행할 수 있다. 예컨대, 유저가 낙상 디바이스를 착용을 하려면 움직임이 발생하므로 가속도 신호가 특정 값 이상이면, 근접 센서를 온 시켜서 소정 시간동안 모니터링한다. 한편, 충전의 경우에는 크래들과의 연결을 통해 확인할 수 있으며, 한편 낙상 디바이스의 착용은 근접 센서가 트루(true)로 되고 움직임이 발생하게 되나, 미착용 시에는 근접 센서가 폴스(false) 된 경우, 트루 시에는 움직임이 없는 경우로 판단할 수 있다. 특히, 근접 센서와 지면 연결된 경우에 그렇게 인식할 수 있다.Accordingly, in connection with the present invention, it is possible to trigger a recognition of wear device wearing through the proximity sensor and the acceleration sensor. For example, when the user wears the fall-down device, movement occurs. Therefore, if the acceleration signal is greater than a specific value, the proximity sensor is turned on and monitored for a predetermined time. On the other hand, in case of charging, it can be confirmed through connection with the cradle. On the other hand, when the fall-down device is worn, the proximity sensor becomes true and movement occurs. However, It can be judged that there is no movement in True City. In particular, it can be recognized when connected to the proximity sensor on the ground.

한편, 낙상 디바이스는 피부에 직접 착용하는 경우에는 터치 센서로서 사용할 수도 있다. 예컨대, 이러한 낙상 디바이스는 사물과 피부의 정전용량 차이로 착용과 미착용을 구분할 수 있다. 따라서, 착용 시에는 터치 센서가 트루 값을 가지고, 미 착용 시에는 터치 센서가 폴스 값을 가질 수 있다.On the other hand, the fall device can be used as a touch sensor when it is worn directly on the skin. For example, such a fall device can distinguish wear and non-wear due to differences in capacitance between objects and skin. Therefore, the touch sensor has a true value when worn, and the touch sensor can have a false value when not worn.

또한, 낙상 디바이스는 목걸이 형태일 수도 있다. 이 경우, 상기 낙상 디바이스는 예컨대, 무게 센서를 이용하여 센싱된 값을 통해 센싱 가능하다. 예컨대, 스위치 온 및 센서의 특정 축이 중력 축으로 작동하면 해당 낙상 디바이스가 착용된 경우로 볼 수 있고, 스위치가 오프되거나 센서의 특정 축이 중력축이 아니면 미착용 경우로 판단할 수 있다.The fall-down device may also be in the form of a necklace. In this case, the fall device is capable of sensing through a value sensed using a weight sensor, for example. For example, when the specific axis of the sensor is operated as a gravity axis, it can be regarded as a case where the falling device is worn. If the switch is turned off or the specific axis of the sensor is not the gravity axis,

한편, 도시되진 않았으나, 상황 인지 파라미터 중 하나로 상태 확인 데이터를 이용할 수 있다.On the other hand, although not shown, status check data can be used as one of the context-aware parameters.

예컨대, 물리적인 응답 1은, 낙상 디바이스(또는 단말기)를 통해 유저에게 소리, 진동 등의 자극 후에 움직임 여부를 확인하고, 자극에 대한 강도를 점진적으로 높일 수 있다. 여기서, 상기 자극은 전기 자극, 혈당 측정 등 다양한 내용이 포함될 수 있다. 또는 이를 오디오 또는 이미지 출력을 통해 주변 사람에게 요청할 수도 있다.For example, in the physical response 1, it is possible to confirm whether or not the user moves after the stimulation such as sound or vibration through the fall device (or terminal), and gradually increase the intensity of the stimulus. Here, the stimulus may include various contents such as electric stimulation, blood glucose measurement, and the like. Alternatively, it may be requested to the surrounding people via audio or image output.

다음으로, 생물학적 상태(Physiological State)를 판단할 수도 있다. 예컨대, 유저의 기본적인 생체 신호는 응급 시 참고 자료가 될 수 있다. 이 경우, 신호의 질에 따라 응급 정보로 활용할 수도 있고, 참고 치로 사용 가능하다. 또한, 유저의 질병 기록 등을 통해 판단 결과, 유저가 만성 질환자라면, 해당 질환의 생체 정보를 측정하는 것이 매우 중요하다. 예컨대, 바이탈 사인(Vital sign)(혈압, 맥박, 체온, SpO2, 호흡, 혈당?)을 측정하여 보호자/관리자에게 보낼 수 있다.Next, the physiological state can be judged. For example, a user's basic bio-signal can be an emergency reference material. In this case, it can be used as emergency information according to the quality of the signal, and it can be used as a reference value. In addition, if the user is a chronic disease patient, it is very important to measure the biometric information of the disease as a result of the user's disease record or the like. For example, a vital sign (blood pressure, pulse, body temperature, SpO2, respiration, blood glucose?) Can be measured and sent to the guardian / manager.

센서를 추가하지 않아도 낙상 디바이스에서 이용하는 가속도 센서만으로 호흡, 심박동 등을 도 15와 같이, 측정할 수 있다.Even if the sensor is not added, breathing, heart rate, etc. can be measured with the acceleration sensor used in the fall-down device as shown in Fig.

도 15a와 15b는 호흡에 관한 데이터 그래프이고, 도 15c 내지 15e는 심박동에 대한 데이터 그래프이다.15A and 15B are graphs of respiration data, and FIGS. 15C to 15E are graphs of heart rate data.

따라서, 도 15를 참조하면, 유저가 누울 때, 엎드릴 때, 가슴 왼쪽, 오른쪽, 센터에서 호흡, 심박동 등을 측정할 수 있으며, 이 경우 도시된 것과 같이, 상기 유저의 호흡, 심박동 상태를 추정 가능한 정도로 신호를 수신하여 이용할 수 있다. 다만, 심박동이 약한 노인의 경우나 엎드린 경우에는 바닥의 특성에 따라 신호가 약할 수도 있다.Therefore, referring to FIG. 15, it is possible to measure respiration, heart rate, etc. at the left, right, and center of the chest when the user is lying down, and in this case, It is possible to receive and use signals as much as possible. However, the signal may be weak depending on the characteristics of the floor in case of the elderly with weak heartbeat or lying down.

정리하면, 이상이 있을 것 같은 유저(환자)를 봤을 때, 일반적으로 흔들어보거나 물리적인 자극을 주어 움직이는지 파악, 물리적 자극은 오검출 시에 사용자가 성가시지 않도록 강도를 점차 증가시켜서 줄 수 있다.In summary, when the user (patient) likely to have an abnormality is seen, it is generally grasped whether it is shaking or moving with physical stimulation, and the physical stimulation can be gradually increased to prevent the user from being intrusive at the time of erroneous detection.

도 14는 본 발명의 일 실시 예에 따른 상황 인지 데이터의 파라미터 중 하나로 유저의 위치 찾기에 대해 설명하기 위해 도시한 도면이다.FIG. 14 is a diagram for explaining a user's location search as one of the parameters of the context-aware data according to an embodiment of the present invention.

일반적으로 실외에서는 환자의 위치를 찾을 때 GPS를 사용하고, 실내에서는 와이-파이(wi-fi)나 RSSI(Received Signal Strength Indicator)를 사용한다. 그러나 실내에서 비콘(Beacon)이 없을 수도 있고, 고층 건물의 경우 층수를 찾기가 힘들다. Generally, outdoor use uses GPS to locate a patient, and indoor use wi-fi or RSSI (Received Signal Strength Indicator). However, there may be no beacon in the room, and it is difficult to find the number of floors in a tall building.

따라서, 본 발명에서는 도 14와 같이, 절대적인 위치를 파악하는 것보다, 관리자와 유저의 환경 차이를 상기 관리자에게 전달하여, 상대적 신호들을 보고 위치를 추정할 수 있다.Therefore, according to the present invention, as shown in FIG. 14, rather than grasping the absolute position, the manager can communicate the environmental difference between the manager and the user to the manager, and can estimate the position by reporting the relative signals.

먼저, 고도차의 경우에는, 예를 들어 1층에 도달했을 때, 관리자는 유저의 압력값과 온도값을 받아서, 1층의 값과 비교할 수 있고, 고도 환산 공식으로 대략적인 고도값 추정할 수 있다. 이렇게 추정된 고도값을 이용하면, 유저가 몇 층에 위치한 것인지 대략적으로 판단할 수 있어, 빠른 대처가 가능하다.First, in the case of the altitude difference, for example, when the first floor is reached, the manager can receive the user's pressure value and temperature value, compare with the value of the first floor, and estimate the approximate altitude value with the altitude conversion formula . Using this estimated altitude value, it is possible to roughly determine which floor the user is located in, so that quick action is possible.

다음으로, 온도차의 경우에는, 상기 온도차가 크면 환산 공식의 고도 차이의 신뢰성이 떨어지므로 신뢰성 지표로 사용할 수 있다. 예컨대, 온도만으로도 지하실 등 특정 공간을 추정할 수도 있다.Next, in the case of the temperature difference, if the temperature difference is large, the reliability of the difference in altitude difference of the conversion formula is lowered, so that it can be used as a reliability index. For example, a specific space, such as a basement, may be estimated by temperature alone.

또한, 지자계 센싱 값의 차리, 조도 센서를 통한 실내, 실외 구분 등을 통해서도 상기 유저의 위치 추정을 할 수 있다.In addition, the position of the user can be estimated by adjusting the ground sensing value, indoor or outdoor classification through the illuminance sensor, and the like.

또는, 고층 건물에서 유저의 층수를 정확하게 알지 못하는 때에는, GPS 고도 측정 불가능하고, 블루투스를 이용할 수 있으나, 이는 근거리에서만 유효한 데이터를 센싱할 수 있다. 또한, 압력 센서를 통하여 고도가 나오지만 온도에 영향을 받을 수 있는바, 압력 센서만의 데이터로부터 획득된 고도 데이터는 절대 수치로 보기 어렵다.Alternatively, when the number of users is not known accurately in a high-rise building, the GPS altitude can not be measured, and Bluetooth can be used, but it is possible to sense valid data only at a close range. In addition, although the altitude is outputted through the pressure sensor, the altitude data obtained from the data of only the pressure sensor can not be seen as an absolute value because it can be influenced by the temperature.

따라서, 도 14에 도시된 바와 같이, 상대 수치를 받아서 관리자의 고도값과 비교하고, 온도 차이까지 고려하여야 한다. 예컨대, 건물 내부 온도가 비슷하다고 할 때, 관리자의 고도와 유저의 고도를 비교하여 동일 건물 내에서는 상기 상대 수치를 통해서 대략적인 위치 즉, 층수를 계산해 낼 수 있다.Therefore, as shown in FIG. 14, the relative value should be received and compared with the elevation value of the manager, and the temperature difference should be considered. For example, when the temperature inside the building is similar, the approximate position, that is, the number of floors can be calculated through the relative value in the same building by comparing the manager's altitude with the user's altitude.

반면, 건물 내부 온도를 참고할 때, 관리자의 환경 온도와 유저의 환경 온도의 차이가 크다면, 상기 유저의 압력과 고도 값을 받아서 관리자의 데이터와 비교하여 층수를 추정할 수 있다. 이 경우, 다른 건물에 있을 때에도 센싱이 가능할 수 있다.On the other hand, when the internal temperature of the building is referred to, if the difference between the manager's environment temperature and the user's environment temperature is large, the user's pressure and altitude value can be received and compared with the manager's data. In this case, sensing may be possible even in a different building.

한편, 동일 층수의 야외 환자의 경우에는, GPS 데이터를 이용하여 근방까지 간 이후에, 관리자의 온도 데이터와 유저의 온도 데이터를 비교하고, 조도 데이터로 실내, 실외를 확인한 후에, 블루투스나 RSSI를 이용하여 세부 위치를 모니터링할 수도 있다.On the other hand, in the case of an outdoor patient having the same number of floors, after the temperature data of the manager and the temperature data of the user are compared with each other after the GPS data has been used up to the neighborhood, the room and the outside are checked with the illuminance data, So that the detailed position can be monitored.

다음으로, 종래 낙상 검출 알고리즘은 낙상 상황만을 검출 즉, 낙상이 아닌 경우에는 이를 검출하여 예방 등을 할 수 없어 일상에서 거의 서비스가 이루어지지 않기에 사용자의 불안감 조성 내지 신뢰도를 떨어뜨릴 수 있는바, 본 발명에서는 위험한 영역을 검출하고 관리함으로써 응급 상황을 미리 검출하여 예방하고 일상생활에서도 항상 서비스가 가능하도록 할 수 있다.Next, the conventional fall detection algorithm can only detect a fall situation, that is, if it is not a fall, it can not be prevented from being detected by preventing it from falling, so that it is possible to lower the anxiety composition and reliability of the user, According to the present invention, an emergency situation can be detected and prevented in advance by detecting and managing a dangerous area, and services can be always provided even in daily life.

따라서, 본 발명에 따르면, 그 설정에 따라 종래와 유사하게 낙상 상황도 정확하게 검출할 수 있을 뿐만 아니라, 위험 요소가 있을 때 주의/관찰함으로써 사전 검출도 가능하다. 또한, 본 발명에 따르면, 위험 상황이 아니라고 하더라도 관련 상황을 계속하여 검출하고 데이터를 누적하고 학습하여 어떤 이벤트가 발생한 경우에 그 이벤트의 가부, 이벤트의 타입(예컨대, 낙상인지 판단 등), 다양하게 이용하여, 시스템의 효율과 높은 신뢰도의 서비스가 가능한 장점이 있다.Therefore, according to the present invention, it is possible not only to accurately detect the fall situation similarly to the prior art, but also to detect in advance by caution / observation when there is a risk factor. Further, according to the present invention, even if it is not a dangerous situation, it is possible to continuously detect a related situation, accumulate and learn data to learn the event type, event type (e.g., It is possible to provide services of system efficiency and high reliability.

도 16과 17은 전술한 바와 같이, 종래 낙상 알고리즘과 달리, 정상 상태, 주의/관찰 상태, 및 위급 상태를 구분하여 정의하고, 그에 따른 검출, 처리 등의 동작을 수행할 수 있다. 또한, 전술한 바와 같이, 이러한 데이터는 누적하여 학습하여 보다 정확한 검출 및 처리에 이용할 수도 있다.16 and 17, as described above, unlike the conventional fall algorithm, the steady state, the attention / observation state, and the emergency state can be separately defined, and the detection, processing, and the like can be performed accordingly. Further, as described above, such data can be accumulated and used for learning and more accurate detection and processing.

특히, 도 17은 비정상 상태와 주의 단계를 주의/관찰 단계(1710)로 두어, 전술한 또는 후술할 상황 인지 파라미터들을 통해 보다 정확한 유저의 상태 검출, 및 처리가 가능하다. 반면, 종래 낙상 알고리즘은 단지 낙상 여부만 판단하고, 바로 관리자에게 보고하는 것으로 종료하여, 유저의 보호, 신뢰 등에 문제가 있었다.In particular, FIG. 17 allows for more accurate user state detection and processing through context awareness parameters described above or below, by placing the abnormal state and attention state at attention / observation step 1710. On the other hand, the conventional fall algorithm only ends when it judges only whether or not the fall occurs, and reports it directly to the manager, and there is a problem of protection and trust of the user.

관련하여, 이러한 낙상 알고리즘은 다양한 파라미터들의 고려와 다양한 패턴의 이벤트로 인해 그 개발이 매우 어렵다.In connection with this fall algorithm, it is very difficult to develop due to consideration of various parameters and various patterns of events.

따라서, 어떠한 데이터가 센싱되더라도 이로부터 낙상 여부를 판단하기에는 많은 요소가 고려되어야 하는바, 실제 검출된 데이터로부터 판단된 낙상 여부의 오검출 확률이 매우 높고, 이는 신뢰도를 떨어뜨리고 효율을 떨어뜨리는 요소가 되고 있다.Therefore, even if any data is sensed, many factors must be taken into account in determining whether or not a fall has occurred. Therefore, the probability of false detection of fall or not, determined from the actually detected data, is very high, .

또한, 낙상 검출은 유저에게 많은 또는 심각한 결과를 초래할 수 있으므로, 이에 대한 검출 정확성을 높일 필요가 있다. 예컨대, 오검출에 비하여 미검출의 경우에는 더욱 나쁜 결과를 발생시킬 수 있다.In addition, fall detection may result in many or serious consequences for the user, and it is therefore necessary to increase the detection accuracy of the fall detection. For example, in the case of non-detection compared to false detection, a worse result can be generated.

관련하여, 본 발명에서는 시뮬레이션된 데이터를 실제 세계에 적용하여, 유저의 상태를 판단할 수 있는데, 이를 위해 다음과 같이 판단할 수 있다.In this regard, in the present invention, the simulated data can be applied to the real world to determine the state of the user.

예컨대, 환자 매일 생활패턴 또는 활동(Activity of Daily Living(ADL)) 평가 항목으로, 유저의 1주일간 활동 데이터를 측정, 유저의 활동 레벨, 움직임 정보, 수면 위치 등 정보 습득하여 조정할 수 있다. 한편, 이 기간동안은 위급 상황을 검출하지 않고, 위급 상황 발생시 재조정(re-calibration)이 필요할 수 있다. 또한, 측정된 데이터를 기준으로 감도를 다르게 적용할 수 있는데 예컨대, 실내에서 활동이 거의 없는 경우에는 감도 높게 적용하고, 조정은 관리자가 언제든지 다시 설정하면 족하다.For example, the activity daily living (ADL) evaluation item of the patient can be used to adjust the activity data of the user for one week by measuring the user's activity level, motion information, and sleeping position. On the other hand, during this period, re-calibration may be necessary in case of an emergency, without detecting an emergency situation. In addition, the sensitivity can be applied differently based on the measured data. For example, when there is little activity in the room, the sensitivity may be applied to a higher level, and the adjustment may be set by the administrator at any time.

한편, 환자 상태 설문 평가도 하나의 데이터로 이용할 수 있는데, 설문 평가를 통해 환자의 감도를 다르게 적용할 수도 있다. 예컨대, 디폴트 상태보다 더 민감하게 판단해야 할 케이스를 이를 통해 구분할 수도 있다. 예컨대, 혼자 사는지 여부, 나이, 과거에 몇 번이나 낙상 경험이 있는지, 과거 낙상으로 인해 의료 도움을 받은 적이 몇 번이나 있는지 여부, 하루 기준으로 얼마나 많은 의료 도움이 필요한지 여부, 유저의 활동성, 침대 밖이나 계단 등에서 얼마나 자주 이동 중 도움이 필요하거나 낙상했는지 여부, 긴급 상황에서 유저에게 어떠한 의료적인 도움이 요구되는지 등의 요소들을 통해 유저에 대한 낙상 여부 판단에 근거로 삼을 수 있다.On the other hand, the patient status questionnaire evaluation can also be used as one data, and the patient's sensitivity can be applied differently through questionnaire evaluation. For example, it may be possible to identify cases that should be more sensitive than the default state. For example, whether you live alone, your age, how many times you have fallen in the past, how many times you have had medical help from a past fall, how much medical help you need on a day-to-day basis, How often a person needs help or hurts while moving, and what medical help is needed for the user in an emergency situation.

본 발명과 관련하여, 외부의 위급한 상황을 실내에 있는 사람 예컨대, 관리자에게 알리는 방법에 관하여 살펴보면, 다음과 같다.In connection with the present invention, a method of informing a person in the room, for example, an administrator, of an external emergency situation will be described as follows.

관련하여, 종래에는 스피커 외에는 수동적으로 실내에 있는 사람에게 알리는 방법이 없었다. 예컨대, 주로 액티브하게 라디오를 듣거나, 전화를 걸어서 확인하거나 TV/인터넷 등을 통해 정보를 직접 확인해야만 하였다. 이는 특히, 관리 시설이 ㅇ있는 경우에 더욱 그러하였다.Conventionally, there has been no way to notify a person in the room passively other than a speaker. For example, they had to listen to the radio mainly, actively check it by telephone, or directly check the information through the TV / Internet. This was particularly the case with management facilities.

반면, 노약자의 경우에는, 외부 위험시 대피 등이 더욱 힘드나, 소리에 민감하지 않을 수 있어 다른 알림 신호 필요할 수도 있다.On the other hand, in the case of elderly persons, evacuation in the case of external danger may be more difficult, but may not be sensitive to sound, and other notification signals may be required.

따라서, 본 발명에서는, 이러한 상황에 도 2와 같은, 단말기 예컨대, 웨어러블 디바이스의 진동을 통해 관리 시설로부터 알림을 유저가 바로 식별 가능하도록 할 수 있다. 또는, 단말기를 통해 붉은색 점등을 하거나 특정 패턴의 컬러나 이미지 데이터를 출력하도록 조명을 변화하여 유저가 해당 상황을 더욱 쉽고 편리하게 인식할 수 있도록 할 수도 있다. 그 밖에, TV와 같이 디스플레이가 구비된 디바이스가 유저의 단말기 주변에 위치한 것으로 인식되면, 상기 디바이스의 디스플레이상에 경고 메시지, 대피방법 등에 대한 정보를 출력하여 이를 유저가 인식 가능하도록 유도할 수 있다. 또한, 화재 등으로 인한 정전 시에도 배터리를 통해 충분히 동작 가능하도록 유도하고, 대피를 위한 인도어 네비게이션(indoor navigation)을 통해 관리자가 대피 가능한 곳을 선택하면, 유저에게 전달되거나 해당 시설물 등이 표시되도록 할 수도 있다. 그 밖에, 비상 상황 등의 발생 경우에도 유저가 좋아하는 음악이나 클래식과 같은 음악 애플리케이션이 실행되거나 음악이 출력되도록 하여, 유저의 심신 안정을 유도하고 IoT나 주변 디바이스를 통해 이를 인식하도록 유도할 수 있다.Therefore, according to the present invention, in such a situation, it is possible for the user to immediately recognize the notification from the management facility through the vibration of the terminal, for example, the wearable device, as shown in Fig. Alternatively, it may be possible to allow the user to recognize the situation more easily and conveniently by changing the illumination so as to turn on red light through the terminal or to output color or image data of a specific pattern. In addition, if it is recognized that a device equipped with a display such as a TV is located around the user's terminal, information on a warning message, a evacuation method, and the like may be output on the display of the device so that the user can recognize the device. In addition, if a power failure due to a fire or the like occurs, the user is guided to operate sufficiently through the battery, and when an administrator selects a place where the user can evacuate through indoor navigation for evacuation, It is possible. In addition, even in the event of an emergency, a music application such as a music or a classical music that the user likes is executed or music is outputted, thereby inducing the user's mental and physical stability and inducing the user to recognize it through the IoT or peripheral device .

전술한 바와 같이, 본 발명에 따른 낙상 디바이스는 도 2에 도시된 바와 같이, 넥밴드 형태로 구현 가능한데, 이를 통해 유저의 라이프메이트 기능(Lifemate function)을 실행할 수 있다.As described above, the fall device according to the present invention can be implemented in the form of a neckband, as shown in FIG. 2, through which a lifemate function of the user can be performed.

여기서, 라이프메이트 기능은 예컨대, 종래 손목이나 목걸이 형태와는 상이하게 넥밴드 형태를 가지고 있어 체중심과 붙어 있어 자세 추정에 유리하고 유저의 신체와 접촉하도록 설치, 고정 등이 되어 Sp02, ECG, 맥박, 체온 등과 같은 유저의 생체 신호를 바로 측정 가능하고, 낙상도 검출할 수 있다.Here, the life-mate function is, for example, different from a conventional wrist or necklace shape, and has a neckband shape, is attached to the body center, is advantageous for posture estimation, and is installed and fixed so as to come into contact with the user's body. , Body temperature, etc. of the user can be measured immediately, and falling can also be detected.

예컨대, 일반적인 낙상계는 가속도계를 이용해 충격 및 자세를 측정하여 낙상을 검출하나, 이 경우 자세를 이용하려면 몸의 체중심에 낙상계가 별도로 부착되어 있어야만 한다. 그러나 본 발명과 같이, 넥밴드 형태로 구현하면, 그 자체로 자세를 측정할 수 있으며, 가속도계, 고도(압력) 센서, 지자기 센서 등 중 적어도 하나와 조합함으로써 낙상을 정확하게 검출할 수 있다.For example, a general fall system uses an accelerometer to measure impact and posture to detect falls. In this case, a fall system must be attached to the center of the body to use the posture. However, when implemented in the form of a neckband as in the present invention, the attitude itself can be measured, and the fall can be accurately detected by combining with an accelerometer, an altitude (pressure) sensor, a geomagnetic sensor or the like.

한편, 이와 같은, 본 발명에 따른 낙상 디바이스에 의하면, 유저의 움직임 여부도 검출 가능하다. 예컨대, 낙상 디바이스를 부착한 또는 착용한 유저가 오랫동안 움직임이 없으면 위험한 상태로 인식하여 관리자에게 경고를 보낼 수 있다.On the other hand, according to the fall device according to the present invention, it is also possible to detect whether or not the user is moving. For example, if the user wearing or wearing the fall-down device has not been in motion for a long time, it can recognize the dangerous state and send a warning to the administrator.

또한, 설치형 낙상 검출 시스템의 경우에는, 움직임이 없을 때 수면과 구분이 힘들어 최대 8시간 이상 움직임이 없으면 경고를 하였으나, 본 발명에 따른 낙상 디바이스에 의하면, 수면의 움직임 패턴과 움직임 여부의 움직임 패턴을 구분하여 검출 가능하다. 이때, 본 발명에서는 수면 실험한 가속도 데이터를 분석하여 위험 상황일 때 기본적인 움직임들과의 차이를 분석함으로써 이를 구분 검출할 수 있다. 이의 보다 상세한 설명은 후술한다.In the case of the installed type fall detection system, a warning is issued when there is no movement for a maximum of 8 hours due to difficulty in distinguishing from the sleep when there is no movement. However, according to the fall device according to the present invention, And can be detected separately. At this time, in the present invention, it is possible to analyze the acceleration data of the sleep experiment and to detect the difference by analyzing the difference from the basic motions in a dangerous situation. A more detailed description thereof will be described later.

또한, 본 발명에 따른 낙상 디바이스에 의하면, 낙상이 아니더라도 특정 값 이상의 충격을 받는 행동을 검출할 수 있다. 이 경우, 일 예로, 상기 낙상 디바이스이 가속도 센서를 이용할 수 있다. 예컨대, 낙상 디바이스를 통해, 유저가 큰 충격을 느꼈을 때, 낙상 디바이스에서 직접 유저의 상태를 확인함으로써 해당 유저의 심신 안정을 유도할 수 있다. 또한, 이러한 데이터는 누적하여 이용 가능한데 예컨대, 노인과 같이, 외부 충격이 많은 유저는 그만큼 낙상 위험율이 높아지는 것이므로 누적 관리를 통해 보다 정확하게 현재 상태 또는 낙상 여부를 구분하여 판단할 수 있다.Further, according to the fall device according to the present invention, it is possible to detect a behavior that is impacted by a specific value or more even if it is not a fall. In this case, for example, the acceleration device can use the acceleration sensor. For example, when the user feels a large impact through the fall device, the state of the user can be directly detected in the fall-down device, thereby inducing the user's mental and physical stability. In addition, such data can be used cumulatively. For example, a user having a large external impact, such as an elderly person, has a high risk of falling, so that cumulative management can more accurately determine whether the current state or fall is classified.

그 밖에, 본 발명의 상황 인지 파라미터와 관련하여, 일상생활의 습관 데이터는 반복적인 데이터이므로 이를 활용하여 일상적이지 않은 공간에 위치한 유저를 빠르게 확인 가능하고 낙상 위험율 등이 높은 행동을 미리 판단할 수 있다. 예를 들어, 유저가 댁내에서도 기존에 머무르지 않던 곳에 오래 머무르거나 누워 있는 것으로 식별할 수 있으며, 이를 비정상적인 상태로 위험한 상태일 확률이 높으므로, 유저의 댁내에서 자세와 위치를 모니터링하여 비정상 상황을 빠르게 검출할 수 있다.In addition, with respect to the context-awareness parameter of the present invention, the habit data of daily life is repetitive data, so that the user located in a non-ordinary space can be quickly identified and a behavior with a high risk of falling can be determined in advance . For example, the user may be identified as staying or lying at a place where the user has not stayed in the home, and it is highly likely that the user is in an abnormal state. Therefore, the position and position of the user are monitored at the user's home, Can be detected quickly.

한편, 공간 위치는 여러 가지 방식으로 가능하지만 자세는 1개의 센서로 측정해야 하기 때문에 상세한 자세를 추정하는 것이 쉽지 않다. On the other hand, the spatial position can be obtained in various ways, but it is difficult to estimate the detailed posture because the posture must be measured by one sensor.

따라서, 본 발명에 따른 낙상 디바이스는 머리의 방향을 측정 가능하며, 지자기 센서의 센싱 값으로 절대 좌표 방위를 측정함으로써 상기 자세를 추정할 수 있다. 예컨대, 유저의 수면 시 침대에 눕는 방향이 일정하기 때문에 침실에서 다른 방향을 누워 있으면 위험 상황일 확률이 높다고 판단할 수 있다. 이와 관련된 더욱 상세한 설명은 후술한다.Therefore, the falling device according to the present invention can measure the head direction and can estimate the posture by measuring the absolute coordinate orientation with the sensing value of the geomagnetic sensor. For example, since the direction in which the user lays down on the bed is constant, it can be determined that if the user lays the bed in the other direction, the risk is high. A more detailed description thereof will be described later.

그 밖의 활동량, 실내/외 활동 시간, 수면 시간, 눕는 시간 등 활동 기반의 측정값들로 습관성 생활패턴을 구하고 특정 시점에 기존 바운더리(boundary)를 넘어서는 경우를 검출하여 상황 인지 파라미터 중 하나인 생활패턴 요소 데이터로 활용할 수도 있다.The habitual life pattern is obtained from the activity-based measurement values such as the activity amount, the indoor / outdoor activity time, the sleeping time, the lying-on time, etc. and detects a case where the boundary exceeds the boundary at a certain point, It can also be used as element data.

다음으로, 보행과 관련하여, 유저가 (노인성) 질환이 있으면, 보행에 영향을 받는 경우가 많다. 예컨대, 유저의 보행 속도, 보폭 거리/시간, 보폭 밸런스 등 중 적어도 하나를 측정하여 평균값 또는 임계치와 비교를 통해 감소 또는 증가되는 양상을 검출하여 이를 통해 유저의 낙상 여부 또는 비정상 여부를 판단할 수도 있다.Next, with respect to the gait, when the user has (senile) disease, it is often affected by walking. For example, at least one of a walking speed, a stride distance / time, a stride balance, etc. of a user may be measured and an aspect that is reduced or increased through comparison with an average value or a threshold value may be detected to determine whether the user has fallen or abnormality .

자세 역시 마찬가지이다. 넥밴드 형태의 낙상 디바이스를 통해 유저가 걷을 때 허리가 굽는 정도도 측정 가능한데, 예컨대 노인의 경우 허리가 굽는 변화를 모니터링함으로써 유저의 상태를 주기적으로 관리하고 가이드할 수도 있다.The attitude is also the same. It is also possible to measure the degree to which the user bends the waist when the user walks through the neckband-type fall device. For example, in the case of the elderly, the status of the user can be periodically managed and guided by monitoring the change of the waist.

한편, 생체 정보는 일반적으로 웨어러블 디바이스나 웨어러블 시스템에서 생체 신호를 측정하여 이를 진료 정보로도 활용할 수 있다. 그러나 생체 신호가 시시각각 변하기 때문에 어느 시점/어떤 행위를 하고 있었는지에 대한 정보 없이 측정된 생체 신호는 큰 의미가 없을 수 있는바, 본 발명에 따른 낙상 디바이스를 통해 특정 시점의 생체 정보만을 측정함으로써 이에 기반하여 유저의 상태를 검출하고 판단할 수 있다. 상기 특정 시점은 예컨대, 수면 직후, 수면 중 최대/최소, 기상 직후, 오전/오후 평균, 최대/최소, 모두 움직임이 거의 없을 때 중 적어도 한 시점을 의미할 수 있다. 예컨대, 기상 직후의 심박동 값이 통상의 경우보다 증가하면 생리적인 컨디션에 문제가 있을 수 있어, 하루 중 강한 활동을 제한해야 하고, 지속적인 증가는 생리적 기능 저하를 의미할 수도 있다. On the other hand, biometric information can generally be used as medical information by measuring a biological signal in a wearable device or a wearable system. However, since the bio-signal varies instantaneously, the measured bio-signal may not have a significant meaning without information on the point of time / action, so that only the biomedical information at a specific time point is measured by the fall- It is possible to detect and determine the state of the user. The specific time may refer to at least one of, for example, immediately after sleeping, maximum / minimum in sleep, immediately after the wake, morning / afternoon, maximum / minimum, and almost no movement. For example, if the value of the heartbeat immediately after the wakeup is higher than that in the normal case, there may be a problem in the physiological condition, and the strong activity should be limited during the day, and the continuous increase may mean a decrease in the physiological function.

또한, 낙상 위험도 예측이 가능한데, 예컨대 주요 낙상의 원인은 인지 장애, 생리적인 질환, 보행 장애 등에 의해서 발생한다. 이러한 낙상의 원인이 되는 요인이 증가하는 것을 모니터링하여 낙상 위험도를 예측하여 사전에 예방할 수 있다.It is also possible to predict fall risk, for example, the cause of major falls is caused by cognitive disorders, physiological disorders, and walking disorders. It is possible to prevent the fall risk by monitoring the increase of the factors causing the fall.

다음으로, 도 18은 본 발명에 따른 상황 인지 파라미터 중 하나로 유저의 움직임 존재 여부를 설명하기 위해 도시한 도면이다.Next, FIG. 18 is a diagram for explaining whether or not the user exists in one of the context-aware parameters according to the present invention.

즉, 도 18에서는 일반적으로 유저가 움직임이 없다고 하면, 통상 가속도 센서의 값이 변화가 없거나 특정 값(예를 들어, zero)을 가지는 경우로 볼 수 있다.That is, in FIG. 18, when the user generally does not move, it can be seen that the value of the acceleration sensor usually has no change or has a specific value (for example, zero).

도 18a 내지 18c는 예컨대, 손목을 통한 수면 중 가속도 데이터를 분석한 데이터 그래프를 도시한 것이다.18A to 18C are graphs of data obtained by analyzing acceleration data during sleeping, for example, through the wrist.

본 발명에 따른 낙상 디바이스에서는, 심장 부위에 착용하기 때문에 호흡과 심장 진동에 의한 움직임에 대한 센싱이 가능한바 이를 통해 상기 호흡과 심장 진동의 최대값보다 크고 움직임이 없는 경우를 검출할 수 있다. 또한, 수면의 경우에는, 움직임이 없는 상태가 지속되지만 위험한 상황은 아니기 때문에 이는 비정상 경우와는 구분되어야 하며 이를 비정상 데이터로 검출하지 않는 것이 바람직하다. 다만, 수면 데이터는 후술하는 바와 같이, 비정상 상태 검출을 위한 비교 데이터로 활용하거나 기타 데이터로 활용하기 위하여 센싱하고 누적하여 이용할 수 있음은 별론이다.In the fall-down device according to the present invention, it is possible to sense motion due to breathing and heart vibration because it is worn on the heart part, thereby detecting a case where the breathing and the heart vibration are larger than the maximum value and there is no motion. Also, in the case of sleeping, it is preferable not to detect it as abnormal data because it is in a state of no motion, but it is not a dangerous situation. However, it is different from the fact that the sleeping data can be used as comparison data for detecting an abnormal condition or used for other data, as described later, and can be accumulated and used.

일반적으로 유저의 움직임이 없다고 하면, 일정 시간(예를 들어, 8시간) 이상 움직임이 없는 경우가 지속되는 것을 의미하는데, 만약 실제 위험 상황에서 상기 일정 시간 동안 이를 검출하지 못하고 방치하는 경우에는 위험한 상황을 초래할 수 있으므로 이는 디바이스 또는 시스템 신뢰도에 영향을 줄 수 있다.Generally, if there is no movement of the user, it means that there is no movement for a predetermined period of time (for example, 8 hours). If the user does not detect the movement for a predetermined period of time in a real dangerous situation, , Which may affect device or system reliability.

따라서, 가속도 센서를 착용하고 수면을 했을 때의 패턴을 분석하여 움직임이 없는 경우와 구분되는 임계치를 설정하고, 상기 시간보다 빨리 움직임이 없는 경우와 수면 상태를 구분하여 검출하는 것이 필요하다.Therefore, it is necessary to analyze the pattern when the sleeping surface is worn by wearing the acceleration sensor, to set a threshold value different from the case where there is no motion, and to detect the sleeping state separately from the case where there is no movement earlier than the time.

도 19는 본 발명의 일 실시 예에 따른 낙상 검출 알고리즘을 설명하기 위해 도시한 순서도이고, 도 20은 상기 도 19와 관련하여, 가속도와 버퍼 데이터에 관한 데이터 그래프이다.FIG. 19 is a flowchart illustrating a fall detection algorithm according to an embodiment of the present invention, and FIG. 20 is a graph of data relating to acceleration and buffer data with reference to FIG.

도 19와 20은 전술한 도 8의 페이지 상태를 참고한다.19 and 20 refer to the page status of FIG. 8 described above.

도 19를 참조하면, 먼저 단말기는 각종 데이터를 센싱한다(S1902). 이때, 상기 단말기는 가속도 센서, 고도 센서 등 다양한 센서를 통해 센싱된 데이터를 버퍼에 계속하여 저장한다. 본 단계가 페이지 1에 해당할 수 있다.Referring to FIG. 19, the terminal senses various data (S1902). At this time, the terminal continuously stores the sensed data in a buffer through various sensors such as an acceleration sensor and an altitude sensor. This step may correspond to page 1.

다음으로, 페이지 2는 다음과 같은 과정이 수행될 수 있다. 단말기는 상기 센싱한 데이터에 기초하여 유저가 스몰 쇼크인지 판단한다(S1904). 이때, 상기 스몰 쇼크 여부 판단을 위하여, 단말기는 샘플링을 100Hz로 수행할 수 있다. 여기서, 낙상 충격의 신호 주파수가 100Hz 이상이지만 샘플링을 높이면 배터리 소모가 크고, 100Hz 미만에서는 정확한 충격값이 측정되지 않을 수 있기 때문이다. 다만, 상기 신호 주파수는 일 실시 예로서, 본 발명은 상기 신호 주파수에 한정되는 것은 아니다. 한편, 상기 스몰 쇼크라 함은 예를 들어, 2g 이하의 값의 움직임인 경우에는 낙상 피쳐(Fall Feature) 계산을 하지 않을 정도의 쇼크 세기를 의미할 수 있다. 이는 예컨대, 배터리 소모를 줄이기 위함일 수 있다. 한편, 상기 스몰 쇼크의 기준은 본 발명의 이해를 돕고 설명의 편의를 위한 일 실시 예로서 상기한 수치에 한정되는 것은 아니다.Next, the following process can be performed on page 2. The terminal determines whether the user is a small shock based on the sensed data (S1904). At this time, in order to determine whether the small shock exists, the terminal may perform sampling at 100 Hz. Here, the signal frequency of the fall impact is 100 Hz or more, but if the sampling is increased, the battery consumption is large. If the frequency is less than 100 Hz, the accurate shock value may not be measured. However, the signal frequency is one example, and the present invention is not limited to the signal frequency. On the other hand, the small shock refers to a shock intensity that does not calculate a fall feature when the motion has a value of 2 g or less, for example. This may be for example to reduce battery consumption. On the other hand, the reference of the small shock is not limited to the above-mentioned numerical values in order to facilitate understanding of the present invention and for convenience of explanation.

단말기는 예컨대, 소정 크기의 버퍼에 데이터를 순환하여 저장하다가 상기 스몰 쇼크를 초과하는 값이 나오면 최대값이 버퍼의 가운데에 올 때까지 계속하여 저장한다. 이는 예컨대, 최대한 좋은 낙상 피쳐를 추출 또는 검출하기 위함일 수 있다.For example, if the terminal encounters a value exceeding the small shock, the terminal continuously stores the data until the maximum value reaches the center of the buffer. This may be, for example, to extract or detect the best fall feature.

상기 쇼크 값이 스몰 쇼크가 아니면 즉, 쇼크가 임계치를 넘어서면, 그것이 위험 정도의 임계치 이상인지 즉, 빅 쇼크인지 판단한다(S1906). 상기 S1906 단계 판단 결과, 만약 빅 쇼크로 판단되면, 단말기를 빅 쇼크 이벤트를 발생시켜 경고한다(S1908).If the shock value is not a small shock, that is, if the shock exceeds a threshold value, it is determined whether the shock value is greater than or equal to a dangerous critical value, that is, a big shock (S1906). If it is determined in step S1906 that a big shock has occurred, the terminal generates a big shock event and warns it (S1908).

상기와 같이, 유저의 쇼크가 스몰 쇼크는 초과하나 빅 쇼크 미만이면, 단말기는 낙상 피쳐를 검출하기 위한 계산한다(S1910). 이러한 낙상 피쳐 검출을 위하여, 가속도 피쳐는 max(VS), max(diff(VS)), High Frequency feature max(Z2) 등이 이용될 수 있다.As described above, if the user's shock is smaller than the small shock but smaller than the big shock, the terminal calculates to detect the fall feature (S1910). For such fall feature detection, the acceleration features may be used, such as max (VS), max (diff (VS)), high frequency feature max (Z2)

이렇게 계산된 낙상 피쳐 값으로부터 바디 포스쳐(Body Posture)를 추정한다(S1912). 이렇게 추정된 바디 포스쳐가 낙상 페이지 3에 해당하는지 판단한다(S1914). The body posture is estimated from the fall feature value thus calculated (S1912). It is determined whether the estimated body posture corresponds to fall page 3 (S1914).

상기 바디 포스쳐 추정은 예컨대, 페이지 3구간에 미리 정의된 시간마다 계속하여 측정될 수 있다. 포스쳐는 예를 들어, 가속도 3축 중 지면과 수직인 축의 미리 정의된 시간 동안 평균값으로 계산하고 그 값이 예컨대, 미리 정의된 값(예를 들어, 0.6g) 이하이면, 누운 자세로 판단할 수 있다. 다만, 여기서, 상기 평균값은 빠르게 이동하지 않으면 평균이 거의 0 내지 1g 정도 계산되고, 지면에 완전 수평으로 누우면 0, 수직으로 서 있으면 1이 나올 수 있다.The body posture estimate may be continuously measured, for example, at a predefined time in the page 3 section. For example, if the posture is calculated as an average value for a predefined time period of an axis perpendicular to the paper plane of the acceleration triaxial axis and the value is, for example, less than a predefined value (for example, 0.6 g) . In this case, if the average value does not move quickly, the average is calculated to be about 0 to 1 g, and if it lies completely horizontally on the ground, it can be 0, and if standing vertically,

상기 낙상 페이지 3단계 판단은 이전에 계산된 낙상 피쳐들이 임계치 이상이고, 누워 있고 움직임이 없는 비율이 미리 정한 임계치(예컨대, 70%) 이상이어야 하고, 해당 기간 동안 변화된 고도값이 임계치(예컨대, 00/키cm) 이상이어야 한다.The falling page 3 step determination may be made such that the previously calculated falling features are above a threshold value and the ratio of lying and motionless is not less than a predetermined threshold value (e.g., 70%) and the altitude value changed during that period is a threshold value / Key cm).

즉, 페이지 3과 관련하여, 단말기는 움직임이 없는 비율을 계산하고(S1916), 페이지 3단계의 듀레이션(duration)을 카운트한다(S1918). 이후 단말기는 상기 움직임 없는 비율이 제1임계치를 초과하는지 판단한다(S1920).That is, with reference to page 3, the terminal computes a rate without motion (S1916) and counts the duration of the page 3 step (S1918). Then, the terminal determines whether the motionless rate exceeds a first threshold (S1920).

그리고 상기 움직임 없는 비율이 제1임계치를 초과하면, 상기 페이지 3단계의 듀레이션이 제2임계치를 초과하는지 판단한다(S1922).If the motionless ratio exceeds the first threshold value, it is determined whether the duration of the page 3 step exceeds the second threshold value (S1922).

이후 단말기는 고도 변화를 계산하는데 이러한 고도 변화는 페이지 2단계 직전부터 페이지 3단계가 끝나는 시점까지의 변화를 계산한다. 이는 최대 고도 값과 최소 고도값의 차로 계산될 수 있다(S1924). 고도 센서의 노이즈가 커서 필터링을 하기 때문에 응답 속도가 느리고, 여러 번의 떨어짐이 발생할 수 있다.The terminal then computes the altitude change, which is calculated from the time immediately before the page 2 step to the end of the page 3 step. This can be calculated as the difference between the maximum altitude value and the minimum altitude value (S1924). Since the noise of the altitude sensor is large and the filtering is performed, the response speed is slow and several drops may occur.

상기 계산된 고도 변화가 미리 정한 제3임계치를 초과하는지 판단하고(S1926), 상기 조건을 만족하면, 낙상으로 검출한다(S1928). 그리고 단말기는 자체적으로 또는 타 단말기를 통해서 진동을 주어 실제 낙상인지 사용자에게 확인을 받는다(S1930). 이때, 유저가 버튼을 눌러 취소할 수 있고(S1932), 그렇지 않으면 즉, 사용자가 의식이 없으면 소정 시간 경과 후에 자동으로 관리자(예컨대, care-giver)에게 낙상 경고가 제공된다(S1934). 본 단계가 페이지 4단계에 해당한다.It is determined whether the calculated altitude change exceeds a predetermined third threshold value (S1926). If the calculated altitude change value satisfies the above condition, it is detected as fall (S1928). Then, the terminal vibrates itself or through another terminal, and receives confirmation from the user whether it is an actual fall (S1930). At this time, the user can cancel by pressing the button (S1932). Otherwise, if the user is unconscious, the fall warning is automatically provided to the administrator (for example, the care-giver) after a predetermined time elapses (S1934). This step corresponds to page 4.

한편, 도 20에서 제1선(2010)은 스몰 쇼크 기준 레벨을 의미하고, 구간들(2020,2030,2040,2050)은 각각 2초 버퍼를 나타낸다. 그리고 구간(2060)은 낙상 피쳐 계산 버퍼 구간을 의미하고, 구간(2070)은 바디 포스쳐 계산 버퍼 구간을 의미한다. 이때, 3축 가속도 벡터썸(VS)는 각 축의 센싱 값의 2제곱승의 평균값일 수 있다.In FIG. 20, the first line 2010 denotes a small shock reference level, and the intervals 2020, 2030, 2040, and 2050 each indicate a two second buffer. The interval 2060 denotes a fall feature calculation buffer interval, and the interval 2070 denotes a body posture calculation buffer interval. At this time, the three-axis acceleration vector thumb (VS) may be an average value of the square powers of the sensing values of the respective axes.

도 21은 본 발명의 일 실시 예에 따른 움직임 여부 판단 알고리즘을 설명하기 위해 도시한 순서도이고, 도 22는 상기 도 21과 관련된 심박동 관련 데이터 그래프의 일 예를 도시한 도면이다.FIG. 21 is a flowchart illustrating a motion determination algorithm according to an embodiment of the present invention, and FIG. 22 is a diagram illustrating an example of a heartbeat-related data graph associated with FIG.

도 21은 움직임 없음을 판단하기 위한 구체적인 판단 알고리즘을 예시한 순서도이다. 21 is a flowchart illustrating a concrete determination algorithm for determining no motion.

통상 낙상은 충격이 동반되는 위험 상황으로 볼 수 있다. 그러나 노인이나 어린 아이의 경우에는 충격이 없거나 아주 조그만 충격에도 위험한 상황이 발생할 수 있다.Normally, falls can be seen as a dangerous situation accompanied by an impact. However, in the case of an elderly person or a child, a dangerous situation can occur even if there is no impact or a very small impact.

이러한 위험한 상황이 발생하면, 웨어러블 디바이스 즉, 본 발명에 따른 단말기에 구비된 응급 콜 등을 통해 위험 상황을 주변 또는 관리자에게 알릴 수 있으나, 어린 아이나 의식을 잃은 유저의 경우에는 이를 타인 등에게 알릴 수 없다. 따라서, 이러한 경우에, 단말기에서 자체적으로 위험 상황을 감지하여 자동으로 위험 상황을 주변 등으로 알릴 수 있는 수단이 요구된다.When such a dangerous situation occurs, it is possible to notify the surrounding or the manager of the dangerous situation through the wearable device, that is, the emergency call provided in the terminal according to the present invention, but in the case of the user who has lost the child or unconsciousness, none. Therefore, in such a case, a means is required for the terminal to detect the dangerous situation by itself and to automatically notify the dangerous situation to the surrounding area or the like.

한편, 통상 설치형(non-wearable) 센서들은 수면과의 응급 상황의 구분이 힘들어, 평균적인 수면 시간보다 긴 시간(예를 들어, 8시간) 이상 움직임이 없으면 그때서야 위험 상황으로 경고를 전송할 수 있다.Non-wearable sensors, on the other hand, can not distinguish an emergency from sleeping, and can only send a warning to a dangerous situation if there is no movement for longer than the average sleeping time (for example, 8 hours) .

그러나 상기 시간은 매우 긴 시간으로 응급 상황에서는 매우 위험한 상황에 놓일 수 있다. 따라서, 이러한 경우에는 본 발명에 따른 단말기에서 수면과 위험 상황을 검출 및 구분하여, 자동 처리가 필요하다.However, the time is very long and can be very dangerous in an emergency situation. Therefore, in such a case, it is necessary to detect and distinguish sleeping and dangerous situations in the terminal according to the present invention, and to perform automatic processing.

관련하여, 본 발명에 따른 단말기는 항상 인체에 부착하거나 소지할 수 있도록 구현하여, 설치형보다 빠른 판단 및 처리가 가능하다. 예컨대, 본 발명에 따른 단말기는 인체에 부착되어 생체 리듬이나 생체 신호로부터 직접 유저의 수면 상태 또는 움직임 없는 상태, 낙상 상태 등을 구분할 수 있다. 수면 상태와의 구분의 경우에는, 센싱된 값으로부터 유저의 평소 수면 패턴과의 비교를 통해 이를 구분할 수 있다.In this regard, the terminal according to the present invention can always be attached to or held on a human body, and thus can be judged and processed faster than the installed type. For example, the terminal according to the present invention can be attached to a human body and can distinguish a sleeping state, a motionless state, a falling state, etc. of a user directly from a biorhythm or a biological signal. In the case of the distinction from the sleep state, it can be distinguished from the sensed value by comparison with the user's usual sleep pattern.

또한, 수면과 생체 데이터의 가속도(진동) 데이터를 분석하여 수면과 움직임 없는 경우의 구분이 요구되고 그 기준을 설정할 수 있다. 예를 들어, 단말기는 이러한 구분을 위하여, 예컨대 매2초마다 2초 버퍼의 최대값(max)과 최소값(min)의 차이 값을 구한다. 이렇게 구한 값에 기초하여, 움직임 없는 것인지 수면 상태인지를 판단할 수 있다. 예컨대, 가슴 부위에 착용된 단말기는, 유저의 움직임이 없어도 생체 진동(호흡, 심박)이 나올 수 있어, 움직임에 대한 설정값을 너무 작게 설정하면, 실제 움직임이 없는데도 알람이 울릴 수 있다. 따라서, 단말기가 가슴 부위에 착용되는 경우에는, 생체 진동보다는 크고 움직임이 없는 설정값(Thr1)보다는 작게 설정하는 것이 바람직하다.In addition, the distinction between sleeping and non-moving is required by analyzing the acceleration (vibration) data of the water surface and the biometric data, and the reference can be set. For example, the terminal obtains the difference between the maximum value (max) and the minimum value (min) of a two second buffer every two seconds for this classification. Based on the values thus obtained, it is possible to judge whether there is a motionless state or a sleep state. For example, a terminal worn on the chest area may have vital vibration (breathing, heartbeat) even if there is no movement of the user, and if the set value of motion is set too small, an alarm may sound even though there is no actual movement. Therefore, when the terminal is worn on the chest area, it is preferable to set it smaller than the set value Thr1 which is larger than the living body vibration and does not move.

한편, 단말기(또는 센서)가 가슴 부위에 부착되면, 생체 진동 최대값을 실험을 통해 구하여 제1임계치로 설정하고, 움직임 없는 경우와 수면 상태의 구분 기준으로 삼을 수 있다.On the other hand, when the terminal (or sensor) is attached to the chest area, the maximum value of the bio-vibrations can be obtained through experiments and set to the first threshold value, and the distinction criterion between the no-motion state and the sleep state can be used.

또한, 움직임이 없는 경우는 비단 낙상 경우뿐만 아니라 수면 상태에서도 발생할 수 있는데, 수면 중에는 경고를 울리면 안되기 때문에 구분이 필요하다.In addition, when there is no movement, it may occur not only in the case of a fall, but also in a sleep state.

수면 중의 움직임 없는 경우와 응급 상황의 움직임 없는 경우, 양자를 구분하기 위하여, 상기 조건에 해당하는 움직임 없는 경우가 발생하면, 해당 시간을 카운트한다.In the case of no motion during sleep and in the case of no movement of an emergency situation, when there is a motionless case corresponding to the above condition, the corresponding time is counted.

만약 상기 조건이 만족하지 않으면 움직임 없는 시간을 재설정할 수 있다. 단말기는 연속으로 누적된 움직임 없는 시간이 제2임계치(예를 들어, 110분) 이상이면, 이를 응급 상황의 움직임 없는 경우로 판단하여 움직임 없음 경고를 브로드캐스트할 수 있다.If the above condition is not satisfied, the motionless time can be reset. If the mobile station has accumulated a continuous motionless time period longer than a second threshold value (for example, 110 minutes), it can determine that the motionless motionless state is anomalous and broadcast a no motion warning.

여기서, 제2임계치는 유저의 수면 데이터 또는 객관적인 수면 실험을 통해 얻어질 수 있으며, 주기적인 수면 단계 변화로 인하여 수면 전구간의 움직임이 없는 시간은 수면 시간보다 훨씬 짧음을 알 수 있다. 이는 이하 도 23에서 보다 상세하게 설명한다.Here, the second threshold value can be obtained through user's sleep data or objective sleep experiments, and it can be seen that the time without movement of the whole sleeping area is much shorter than the sleeping time due to the periodical change of the sleeping phase. This is described in more detail below in FIG.

움직임 없음 이벤트가 발생하면, 단말기는 자체적으로 또는 타 단말기로 진동이나 부저와 같은 알람을 제공하고, 사용자의 의식 회복이나 움직임 없는 상태의 변화를 유도하고, 제3임계치를 초과하는 인기척 즉, 움직임이 있으면 상기 알람을 취소하나 그렇지 않으면, 관리자에게 응급 콜 또는 알람을 제공한다.When a no-motion event occurs, the terminal provides an alarm, such as a vibration or a buzzer, to the terminal itself or to another terminal, induces a change of the user's consciousness recovery or motionless state, If so, the alarm is canceled, otherwise, an emergency call or alarm is provided to the administrator.

정리하면, 단말기는 가속도 센싱을 하고(S2102), 최대 VS와 최소 VS의 차이값을 계산한다(S2104). 움직임 없는 시간을 재설정하고(S2106), 상기 최대 VS와 최소 VS의 차이값이 제1임계치를 초과하는지 판단한다(S2108).In summary, the terminal performs acceleration sensing (S2102), and calculates the difference between the maximum VS and the minimum VS (S2104). (S2106), and determines whether the difference between the maximum VS and the minimum VS exceeds a first threshold (S2108).

상기 S2108 판단 결과, 상기 최대 VS와 최소 VS의 차이값이 제1임계치를 초과하면, 움직임 없는 시간을 카운트하고(S2110), 상기 카운트한 움직임 없는 시간이 제2임계치를 초과하는지 다시 판단한다(S2112).If it is determined in step S2108 that the difference between the maximum VS and the minimum VS exceeds the first threshold value, the motionless time is counted (S2110), and it is determined again whether the counted motionless time exceeds the second threshold value (S2112 ).

여기서, 상기 S2112 단계 판단 결과, 상기 카운트한 움직임 없는 시간이 제2임계치를 초과하면, 움직임 없음 이벤트를 생성하여 경고한다(S2114). 이후 다시 최대 VS와 최소 VS 차이값을 재계산하고(S2116), 상기 최대 VS와 최소 VS 차이값을 재계산값이 제3임계치를 초과하는지 판단한다(S2118). 상기 S2118 단계 판단 결과, 초과하지 않았으면 상기 움직임 없음 이벤트를 취소하고(S2120), 그렇지 않으면 상기 생성한 이벤트를 관리자에게 전송하여 경고한다(S2122).If it is determined in step S2112 that the counted motionless time exceeds the second threshold, a no-motion event is generated and a warning is generated (S2114). Thereafter, the maximum VS and minimum VS difference values are re-calculated (S2116), and the maximum VS and minimum VS difference values are determined to be greater than the third threshold (S2118). If it is determined in step S2118 that the event has not been exceeded, the no-motion event is canceled (S2120). Otherwise, the generated event is notified to the administrator (S2122).

도 22a와 22b에서는 각각 가슴 부위에서 심박동이 측정되는 경우와 심박동이 측정되지 않는 경우를 도시한 것으로, 각 도면에서는 임계치와 최대 VS, 최소 VS, 그리고 그 차이값을 도시하였다.FIGS. 22A and 22B show the case where the heart rate is measured at the chest region and the case where the heart rate is not measured, respectively. In each figure, the threshold value, the maximum VS, the minimum VS, and the difference value are shown.

도 23은 본 발명의 일 실시 예에 따라 수면과 움직임이 없는 경우를 구분하기 위한 알고리즘을 설명하기 위해 도시한 데이터 그래프이다.FIG. 23 is a data graph illustrating an algorithm for distinguishing between sleeping and non-sleeping according to an embodiment of the present invention.

도 23에서는 전술한 수면 시간과 움직임 없는 구간을 구분하기 위한 알고리즘을 도시하였다.FIG. 23 shows an algorithm for distinguishing the sleep time from the motionless interval.

도 23a에서는 수면 사이클을 그래프 형태로 도시한 것이고, 도 23b는 실제 수면 데이터를 도시한 것이다.FIG. 23A shows a sleep cycle in a graph form, and FIG. 23B shows actual sleep data.

도 23을 참조하면, 수면 시 움직임 레벨로 임계치를 잡는 것은 매우 어렵다. 왜냐하면, 사람마다 수면 패턴이 모두 다르기 때문이다.Referring to FIG. 23, it is very difficult to set a threshold to the motion level in the sleep state. Because people have different sleep patterns.

다만, 수면으로부터 움직임 없음 주기를 분석하여 최대값을 찾을 수 있다.However, the maximum value can be found by analyzing the no-motion cycle from the water surface.

이 경우, 특이한 경우에는 상기 움직임 없음 주기 분석을 통해 찾은 최대값을 초과하는 경우도 있지만, 통상 수면만 놓고 판단하면, 상기 최대값을 초과하는 비정상적인 수면 상태는 특정 유저에게는 위험 요소가 될 수 있다.In this case, in a specific case, the maximum value found through the above-mentioned no-motion period analysis may be exceeded. However, if it is judged that the normal sleep surface is left alone, an abnormal sleep state exceeding the maximum value may become a risk factor for a specific user.

도 23a를 참조하면, 수면(REM) 구간은 총 4단계로 구성되고, 수면 동안에 상기 4단계가 반복적으로 수행된다. 여기서, 특히, 본 발명과 관련하여, 총 4단계의 수면 구간 중 움직임 없는 구간으로 볼 수 있는 단계는 예컨대, 제3구간과 제4구간을 예로 할 수 있다.Referring to FIG. 23A, the sleep (REM) section is composed of four steps in total, and the above four steps are repeatedly performed during sleep. Here, in particular, with respect to the present invention, the steps that can be regarded as a motion-free section among the total of four sleep sections may be, for example, a third section and a fourth section.

따라서, 상기 제3구간과 제4구간이 장시간 계속하여 유지 또는 반복되는 경우는 통상적인 수면 구간 내지 단계를 기준으로 판단할 때, 비정상적인 것으로 판단 가능하고, 이 경우에는 해당 상태를 경고하는 것이 바람직할 수 있다.Therefore, when the third section and the fourth section are continuously maintained or repeated for a long time, it can be determined that the third section and the fourth section are abnormal when judging based on a usual sleep section or step, and in this case, .

도 23b를 참조하면, 가속도 센서를 통해 센싱된 데이터 그래프로부터 움직임 없는 수면 구간을 구하고 시간을 누적하여 상기 움직임 없는 수면 구간의 연속 시간이 임계치를 넘으면 경고할 수 있다.Referring to FIG. 23B, a motion-free sleep interval is obtained from a data graph sensed by an acceleration sensor, and the time is accumulated to warn when the continuous duration of the motionless sleep interval exceeds a threshold value.

따라서, 모든 수면 시간을 움직임 없이 자면 매임계치 시간마다 경고가 수면 중 울리나, 이 상태는 수면 쪽에서도 비정상적인 상태로 판단할 수 있다.Therefore, if all the sleeping times are left without movement, a warning will sound during the sleeping at every threshold time, but this state can be judged to be abnormal even in the sleeping side.

도 24 내지 26은 본 발명의 일 실시 예에 따른 유저가 비정상 상태임을 구분하기 위한 알고리즘을 설명하기 위해 도시한 순서도이다.24 to 26 are flowcharts illustrating an algorithm for identifying a user in an abnormal state according to an embodiment of the present invention.

이와 같이, 상황 인지 파라미터의 하나 또는 그들을 통해 판단된 상태가 비정상이라 함은 다양하게 정의할 수 있다.As described above, it can be defined variously that one of the context-aware parameters or the status judged through them is abnormal.

통상 사람들은 일상생활 과정에서 습관된 행동을 반복하여 일정한 패턴을 형성할 수 있다. 따라서, 상기 습관적인 행동을 통해 형성된 패턴으로부터 벗어나면, 특정 유저에게는 위험 상황을 초래할 가능성이 높아진다. 따라서, 그 경우에는 원치 않는 이벤트가 발생하기 전에 미리 해당 상황을 주의, 경고 등을 통해 이를 유저 또는 관리자에게 인식시키고 후속 관리 또는 처리를 통하여 상기 이벤트 발생을 예방할 수 있다.Normally, people can repeat certain behaviors in daily life and form a certain pattern. Therefore, if the pattern is formed out of the habitual behavior, there is a high possibility of causing a dangerous situation to a specific user. Therefore, in this case, before the occurrence of an unwanted event, the user or the manager can recognize the situation in advance through caution, warning, etc., and prevent the occurrence of the event through subsequent management or processing.

유저의 눕는 패턴을 예로 하여 설명하면, 다음과 같다. 해당 유저는 일반적으로 누웠을 때의 위치/방향의 습관화된 패턴을 일상생활에서 측정하고, 이를 벗어난 패턴으로 누워 있으면 비정상 이벤트를 줄 수 있다. 예컨대, 유저가 기존에는 누워있지 않은 곳에 누워 있거나, 기존에는 눕지 않는 방향으로 누워있는 것을 검출하여 주의 관찰이 필요함을 경고할 수 있다.An example of a user lying down pattern is as follows. The user can generally measure the habituated pattern of the position / orientation when lying down in everyday life and give an abnormal event if lying in a pattern that is out of this. For example, it is possible to detect that the user is lying in a place where the user is not lying, or that the user is lying in a direction that is not lying in the past, and can warn that a careful observation is necessary.

이러한 비정상적인 습관이나 행동들을 더 찾아서 특정 유저의 관리에 활용하면, 예방 효과가 뛰어날 수 있다.If more abnormal habits or behaviors are found and used for the management of specific users, the prevention effect can be excellent.

한편, 유저의 누워 있는 자세는 가속도 센서를 통하여 센싱함으로써 이를 판단할 수 있고, 유저의 누운 위치는 전술한 IOT 센서(상황 인지: 위치)와 연계되어 측정할 수 있다. 여기서, 상기 가속도 센서의 AC 커플링(coupling) 된 신호를 통하여 유저의 눕기/서있기 구분할 수도 있다.On the other hand, the user's lying posture can be determined by sensing through the acceleration sensor, and the user's lying position can be measured in conjunction with the above-mentioned IOT sensor (situation recognition: position). Here, it is also possible to distinguish the user's lying-up / standing by an AC coupled signal of the acceleration sensor.

또한, 상기 유저의 누워 있는 방향은 지자기 센서를 이용해 방위각(Azimuth)을 구함으로써 방향을 추정할 수 있다. In addition, the orientation of the user can be estimated by finding an azimuth using a geomagnetic sensor.

그 밖에, 데이터를 모아서 그날 밤에 비정상 케이스를 제거 후에 가속도 기반으로 패턴을 분류하여 특정 자세만 주기적인 조정을 할 수도 있다.In addition, data can be collected to classify patterns based on acceleration after removing abnormal cases that night, and periodic adjustments can be made to specific postures.

먼저, 도 24는 본 발명의 일 실시 예에 따른 단말기의 최초 세팅 시에 설정 데이터를 조정하는 것을 설명하기 위해 도시한 순서도이다.24 is a flowchart illustrating the adjustment of setting data at the time of initial setting of a terminal according to an embodiment of the present invention.

단말기는 가속도 센서의 데이터를 센싱하여(S2402), 바디 포스쳐를 추정한다(S2404). The terminal senses the data of the acceleration sensor (S2402) and estimates the body posture (S2404).

이렇게 추정된 바디 포스쳐에 기초하여 단말기는 유저가 누워 있는지 그리고 움직임이 없는지 여부를 판단한다(S2410). 상기 판단 이후 유저의 눕기 여부와 움직임 없음 유무에 대한 데이터를 생성하고, 단말기는 내부 센서 또는 외부 센서나 디바이스를 통해 유저의 현재 위치를 센싱하고 센싱된 데이터를 획득한다(S2412). 그리고 이렇게 센싱된 데이터를 정상값으로 저장한다(S2414).Based on the estimated body posture, the terminal determines whether the user is lying and whether there is motion (S2410). After the determination, the terminal generates data on whether the user lie down or not, and the terminal senses the current position of the user through the internal sensor or the external sensor or device and acquires the sensed data (S2412). Then, the sensed data is stored as a normal value (S2414).

한편, 단말기는 지자기 센서를 이용하여 데이터를 센싱하여(S2406), 상기 센싱된 지자기 센서 데이터에 방위각 값을 코버트한다(S2408). 그리고 이렇게 코버트된 센서 데이터를 정상값으로 저장한다(S2414).Meanwhile, the terminal senses data using the geomagnetism sensor (S2406), and co-ordinates the azimuth angle value with the sensed geomagnetic sensor data (S2408). The covert sensor data is stored as a normal value (S2414).

이러한 동작을 통해 단말기의 비정상 판단을 위한 센서 등의 기준 데이터를 수집하고 누적하여 정상값을 형성할 수 있다. 상기 과정은 최초 한 번 또는 누적 데이터에 기반하여 수회 수행하여 평균값을 이용하여 정상값을 추출할 수도 있다. 일 예로, 도 24에 의하면, 저장값은 위치는 침실, 자세는 누워있음, 방위각은 50도와 같을 수 있다.Through this operation, standard data such as sensors for abnormal determination of the terminal can be collected and accumulated to form a steady value. The process may be performed several times based on the first time or the cumulative data, and the normal value may be extracted using the average value. For example, referring to FIG. 24, the stored value may be the same as the bedroom, the posture lying, and the azimuth angle equal to 50 degrees.

반면, 도 25는 상기 도 24 이후에 동작 모드를 설명하기 위해 도시한 순서도이고, 도 26은 도 25의 상세 동작을 설명하기 위해 도시한 순서도이다.On the other hand, FIG. 25 is a flowchart illustrating the operation mode after FIG. 24, and FIG. 26 is a flowchart illustrating the detailed operation of FIG.

도 25에서 기본 순서는 즉, S2502 내지 S2514 단계는 전술한 도 24의 S2402 내지 S2414 단계와 동일 또는 유사하다.25, the basic steps S2502 to S2514 are similar to or similar to steps S2402 to S2414 of Fig. 24 described above.

다만, 도 25에서는 초기 설정 및 조정 모드가 아니라 그 이후에 동작 모드에 관한 것으로, 이 경우에는 도 25의 S2514 단계에서 획득되고 저장된 데이터를 도 24의 S2414 단계를 통해 저장된 정상 데이터와 비교한다. 즉, 도 25의 S2514 단계에서 획득된 데이터와 도 24의 S2414 단계를 통해 저장된 정상 데이터를 비교하여, 그 각도 차이 또는 거리 차이가 임계치를 초과하는지 판단하고(S2516), 상기 판단 결과 만약 초과하였다면, 현재 정상이 아닌 즉, 비정상 이벤트가 발생한 것으로 판단하여, 경고를 전송할 수 있다(S2518).25, the operation mode is not the initial setting and adjustment mode but the operation mode after that. In this case, the data obtained and stored in step S2514 of FIG. 25 is compared with the normal data stored in step S2414 of FIG. That is, the data obtained in step S2514 of FIG. 25 is compared with the normal data stored in step S2414 of FIG. 24, and it is determined whether the angle difference or the distance difference exceeds the threshold value (S2516) It is determined that the abnormal event is not currently occurring, that is, an abnormal event has occurred, and the alert can be transmitted (S2518).

한편, 상기에서 비정상 여부 판단은 도 26을 참조하여 이루어질 수도 있다.The abnormality determination may be made with reference to FIG.

단말기는 최대 VS와 최소 VS의 차이값을 계산하고(S2602), 이렇게 계산된 최대 VS와 최소 VS의 차이값이 임계치를 초과하는지 판단하여(S2604), 최종적으로 비정상 이벤트 발생 유무를 판단할 수 있다. 예컨대, 상기에서 최대 VS와 최소 VS의 차이값이 임계치를 초과하였으면, 바로 비정상 상태 또는 움직임이 없는 상태로 판단하여 단말기 자체 또는 관리자에게 경고를 전송하나(S2606), 반대의 경우에는, 해당 비정상 상태 또는 움직임 없음 상태를 해제 또는 취소한다(S2608).The terminal calculates the difference value between the maximum VS and the minimum VS (S2602), determines whether the difference between the calculated maximum VS and the minimum VS exceeds the threshold (S2604), and finally determines whether an abnormal event has occurred . For example, if the difference between the maximum VS and the minimum VS exceeds the threshold value, it is determined that the current state is an abnormal state or no motion and the alarm is transmitted to the terminal itself or the manager (S2606). In the opposite case, Or the motionless state is canceled or canceled (S2608).

도 27 내지 29는 본 발명의 일 실시 예에 따라 누워 있는 자세와 비정상 여부 판단 알고리즘의 상관관계를 설명하기 위해 도시한 도면이다.FIGS. 27 to 29 are diagrams for explaining a correlation between a lying posture and an abnormality determination algorithm according to an embodiment of the present invention.

도 27 내지 29는 각각 유저의 누워 있는 자세 데이터에 기초하여 유저의 비정상 유무를 판단하는 방법을 설명하기 위한 것이다.FIGS. 27 to 29 illustrate a method for determining whether or not the user is abnormal based on the user's lying posture data.

도 27을 참조하면, 상기 유저의 누워 있는 자세 즉, 바디 포스쳐는 움직임이 없거나 적은 구간에서 주로 측정될 수 있다. 예컨대, 스몰 쇼크보다 큰 가속도 신호가 버퍼에 있으면 눕기 계산은 수행하지 않고, 버퍼의 모든 값이 스몰 쇼크의 이하의 값일 때에만 바디 포스쳐를 측정할 수 있다. 이때, 유저가 누워있는 위치에 대한 데이터는 다른 설치형 센서 등을 통해 수신할 수 있다.Referring to FIG. 27, the lying posture of the user, that is, the body posture, can be mainly measured in the absence or small motion. For example, if an acceleration signal larger than the small shock is present in the buffer, the body posture can be measured only when all the values of the buffer are equal to or smaller than the value of the small shock, without performing a lie calculation. At this time, the data about the position where the user is lying can be received through another installable sensor or the like.

도 27a는 서 있는 자세를 도시한 것으로, 유저의 몸에 센서(2712)가 부착되어 있어, 바디 포스쳐와 관련된 X축, Y축, 및 Z축 데이터를 센싱할 수 있다. 한편, 도 27b는 누워 있는 자세를 도시한 것으로 유저의 몸에는 센서(2714)가 부착되어 있어, 바디 포스쳐와 관련된 X축, Y축 및 Z축 데이터를 센싱할 수 있다. 여기서, 도 27b의 센서는 도 27a의 센서와 동일한 것으로, 상기 도 27a를 기준으로 측정된 X, Y 및 Z축의 값은 도 27b와 다름을 알 수 있다. 이로부터 상기 유저가 누워 있는지 또는 서 있는지 여부를 충분히 판단할 수 있다. 한편, 도 27a를 기준으로 도 27b를 비교하면, 각 축의 방향이 틀어진 것을 알 수 있다. 따라서, 각 축을 기준으로 센싱되는 데이터는 서로 달라질 수밖에 없음을 미리 알 수 있다.27A shows a standing posture, in which a sensor 2712 is attached to a user's body, and X-axis, Y-axis, and Z-axis data related to the body posture can be sensed. On the other hand, FIG. 27B shows a lying posture, in which a sensor 2714 is attached to the body of the user, so that X-axis, Y-axis, and Z-axis data related to the body posture can be sensed. Here, the sensor of FIG. 27B is the same as the sensor of FIG. 27A, and the values of the X, Y, and Z axes measured based on FIG. 27A are different from those of FIG. 27B. From this, it is possible to sufficiently judge whether the user is lying or standing. On the other hand, when FIG. 27B is compared with FIG. 27A, it can be seen that the directions of the respective axes are different. Therefore, it can be known in advance that the data to be sensed on the basis of each axis are different from each other.

도 27c에서는 아래에서부터 x축 데이터, y축 데이터 및 벡터썸에 대한 데이터 그래프를 도시하였다. 도 27d 역시, 도 27c의 데이터 그래프를 다른 방식으로 표현한 것이다.In FIG. 27C, data graphs for x-axis data, y-axis data, and vector thumb are shown from the bottom. FIG. 27D is another representation of the data graph of FIG. 27C.

도 27c와 27d를 참조하면, 바디 포스쳐는 2초 버퍼의 평균값의 절대값이 0.35보다 크면 누운 것으로 판단할 수 있다. 다만, 상기 수치에 한정되는 것은 아니다. 한편, 상치 수치는 다른 곳에 비스듬히 기댄 상태도 누운 것으로 판단하기 위해 고려된 값이다. 한편, 지자기 센서를 통해 센싱된 데이터는 정지된 장소에서는 누워 있는지 아니면 서있는지 여부를 구분할 수 있다. 예컨대, 상기 X축 데이터의 변화를 통해 이를 유추할 수 있다. 그러나 수평 이동을 하는 경우에도 상기 값이 변할 수 있기 때문에 자세는 가속도를 통해 추정하는 것이 바람직하다.Referring to FIGS. 27C and 27D, the body posture can be determined to be louder if the absolute value of the average value of the 2-second buffer is greater than 0.35. However, the present invention is not limited to the above numerical values. On the other hand, the threshold value is the value considered to judge that the obliquely leaning condition is also lying elsewhere. On the other hand, the data sensed by the geomagnetic sensor can be distinguished whether it is lying or standing at a stationary place. For example, it can be inferred from the change of the X-axis data. However, it is preferable to estimate the posture through the acceleration because the above value may change even in the case of horizontal movement.

한편, 도 27c에서 A는 서 있는 상태에 대한 X, Y축 및 벡터썸의 데이터이고, B는 누운 상태에 대한 X, Y축 및 벡터썸의 데이터이다. 도 27c와 27d를 보면, 상기 서 있는 자세와 누운 자세의 사이의 데이터 변화가 극심한 것을 알 수 있으며, 이로부터 자세 변화를 예측할 수 있다. 그리고 이를 통해 언제 충격이 가해지거나 비정상 상태가 되는 지 등도 어느 정도 유추할 수도 있다.On the other hand, in FIG. 27C, A is the X, Y axis and vector thumb data for the standing state, and B is the X, Y axis and vector thumb data for the lying state. 27C and 27D, it can be seen that the data change between the standing posture and the lying posture is extremely severe, and the posture change can be predicted from this. It can also be used to infer some degree of shock or abnormal condition.

도 28a와 28b는 각각 도 27a와 27b와 대동소이하나, 도 28c는 다른 방향으로 유저가 누운 상태를 도시한 것이다. Figs. 28A and 28B show a state in which the user is lying in the other direction, Figs. 27A and 27B, and Figs. 28A and 28B, respectively.

한편, 도 28d와 28e는 도 27c와 27d와 각각 대응되는 것으로, 도 28a 내지 28c에 대한 센싱 데이터 그래프를 도시한 것이다.Figs. 28D and 28E correspond to Figs. 27C and 27D, respectively, and show graphs of sensing data for Figs. 28A to 28C.

도 28d를 참조하면, A는 도 28a의 서있는 자세, B는 도 28b의 제1방향으로 누운 자세, 그리고 C는 도 28c의 제2방향으로 누운 자세에 대한 데이터 그래프이다. 상기 각 자세 변화 시에는 급격한 데이터 그래프의 변화를 감지할 수 있으며, 이로부터 이벤트 발생을 예측할 수도 있다. 도 28e와 28f는 상기 도 28a 내지 28c에 대한 데이터로 도 28d를 다른 식으로 표현한 데이터 그래프이다.Referring to FIG. 28D, A is a standing posture in FIG. 28A, B is a posture in a first direction in FIG. 28B, and C is a data graph in a posture in a second direction in FIG. 28C. At the time of each posture change, a sudden change in the data graph can be detected, and event occurrence can be predicted therefrom. Figs. 28E and 28F are graphs of data expressing Fig. 28D in a different manner from the data for Figs. 28A to 28C.

한편, 상기 유저의 누운 자세에서 머리의 방향을 추정하는 방법은 다음과 같은 수식이 이용될 수 있다. 여기서, 상기 머리 방향의 추정은 예컨대, 지자기 센서와 가속도 센서의 조합으로 이루어질 수 있다.On the other hand, the following equation can be used as a method of estimating the head direction in the user's lying position. Here, the head direction estimation may be performed by a combination of a geomagnetic sensor and an acceleration sensor, for example.

롤(Roll)과 피치(Pitch)는 가속도 센서를 통해 구해지고(aX,aY,aZ 가속도 센서 값), 나머지는 지자기 센서를 통해 구해진다(mX, mY, mZ 지자기 센서 값). 이는 다음 내용이 참고될 수 있다. The roll and pitch are obtained through the acceleration sensor (aX, aY, aZ acceleration sensor values) and the rest are obtained via the geomagnetic sensor (mX, mY, mZ geomagnetic sensor values). This can be referred to the following.

roll = atan(aY/sqrt(aX.^2+aZ.^2));roll = atan (aY / sqrt (aX. ^ 2 + aZ. ^ 2));

pitch = atan(sqrt(aY.^2+aZ.^2)/aX);pitch = atan (sqrt (aY. ^ 2 + aZ. ^ 2) / aX);

Xh = mXcos(roll)+mYsin(pitch)sin(roll)-mZcos(pitch)sin(roll)Xh = mXcos (roll) + mY sin (pitch) sin (roll) -mZ cos (pitch)

Yh = mYcos(pitch)+mZsin(pitch) (mX,mY,mZ magnetic값)Yh = mYcos (pitch) + mZsin (pitch) (mX, mY, mZ magnetic values)

한편, 다음 내용을 통하여 머리 방향이 최종 계산될 수 있다.On the other hand, the head direction can be finally calculated through the following.

Heading = atan(Yh/Xh)Heading = assign (Yh / Xh)

1바퀴 돌 때 0 내지 360도가 되도록 맞춤.Fit to 0 to 360 degrees for one turn.

if (Xh == 0 && Yh < 0) Yaw = 90; if (Xh == 0 && Yh < 0) Yaw = 90;

if (Xh == 0 && Yh > 0) Yaw = 270; if (Xh == 0 && Yh > 0) Yaw = 270;

if (Xh < 0) Yaw = 180-atan(Yh/Xh)*180/PI;if (Xh < 0) Yaw = 180-assigned (Yh / Xh) * 180 / PI;

if (Xh > 0 && Yh < 0) Yaw = -atan(Yh/Xh)*180/PI;if (Xh > 0 && Yh < 0) Yaw = -atan (Yh / Xh) * 180 / PI;

if (Xh > 0 && Yh > 0) Yaw = 360-atan(Yh/Xh)*180/PI; if (Xh > 0 && Yh > 0) Yaw = 360-assigned (Yh / Xh) * 180 / PI;

도 29는 비정상 판단과 관련하여, 방위각과 관련된 도면이다.29 is a diagram related to the azimuth angle in relation to the abnormal judgment.

도 29a와 29b를 통해 방위각으로 유저가 누워 있는지 여부를 판단할 수 있다. 특히, 도 29a에서 제1구간의 데이터(2910)에 기초하면 유저가 해당 구간에서 누워 있음을 알 수 있다.29A and 29B, it can be determined whether or not the user is lying at the azimuth angle. In particular, based on the data 2910 of the first section in FIG. 29A, it can be seen that the user lies in the corresponding section.

보다 구체적으로 설명하면, 방위각은 0 내지 360도 사이 값을 갖는다. 다만, 센서 특성상 노이즈가 있어 값이 변동할 수 있는데, 360도나 0도 부근에 있으면 도 29b에서와 같이, 0도와 360도 사이를 반복할 수도 있다.More specifically, the azimuth angle has a value between 0 and 360 degrees. However, due to the nature of the sensor, there is noise, and the value may fluctuate. If the angle is near 360 degrees or 0 degrees, as shown in FIG. 29B, 0 degrees and 360 degrees may be repeated.

여기서, 예컨대, 350도와 10도는 20도밖에 차이가 나지 않지만, 방위의 경우 340도 차이 나는 것으로 볼 수 있다.Here, for example, there is only a difference of 350 degrees and 10 degrees between 20 degrees, but it can be seen that a difference of 340 degrees is obtained in the case of the bearing.

또한, 도 29a 또는 29b에서와 같이, 0도에서 노이즈가 10도 정도 있으면 355도와 5도 사이를 반복하여 약 350도의 노이즈가 발생하는 것으로 보일 수도 있다.Also, as shown in FIG. 29A or 29B, if the noise is about 10 degrees at 0 degree, noise of about 350 degrees may be generated by repeating between 355 and 5 degrees.

이를 해소하기 위해, 좌표값으로 바꿔서 거리를 계산(cos(Azimuth), sin(Azimuth))할 수 있다. 그러나 이 경우 연상량이 많다. 관련 내용은 다음과 같다.In order to solve this problem, it is possible to calculate the distance (cos (Azimuth), sin (Azimuth)) by changing the coordinate value. However, in this case, there are many associations. Related contents are as follows.

Sqrt((Cos(d1)-cos(d2))^2 + (sin(d1)-sin(d2))^2)Sqrt ((Cos (d1) - cos (d2)) ^ 2 + (sin (d1)

또는, 두값을 뺄 때 시계 방향으로 뺄지 반시계방향으로 뺄지 결정하고, 빼는 값 사이에 '0’구간을 넘을 때는 360을 더해서 빼기, 두 각의 뺄셈은 180보다 작도록 할 수도 있다. 관련 내용은 다음과 같다.Alternatively, when subtracting two values, determine whether to subtract clockwise or counterclockwise, and subtract 360 by subtracting the difference between the subtraction values when the value exceeds the interval '0'. Related contents are as follows.

d1d2 = abs(d1-d2)d1d2 = abs (d1-d2)

if (d1d2 > 180)if (d1d2 > 180)

d1d2 = abs(360-d1d2)d1d2 = abs (360-d1d2)

저장된 포인트와 측정된 포인트 사이의 거리1(d1) 또는 거리2(d2)를 비교하여 차이 값이 제1임계치를 초과하면, 비정상으로 판단할 수 있다.When the difference between the stored point and the measured point is 1 (d1) or 2 (d2) and the difference exceeds the first threshold value, it can be judged to be abnormal.

상기 비정상 판단 후 디바이스에 알람을 주어 유저를 한 번 깨워보고 움직임이 제2임계치를 넘어가는 움직임이 있으면 이를 캔슬하고 그렇지 않으면, 관리자에게 경고할 수 있다.An alarm is given to the device after the abnormal state to wake up the user once, and if there is a movement exceeding the second threshold, the motion is canceled, and if not, the administrator can be warned.

도 30은 본 발명의 다른 실시 예에 따라 비정상 여부 판단 방법을 설명하기 위해 도시한 순서도이고, 도 31은 상기 도 30의 비정상 여부 판단과 관련된 데이터 그래프이다.FIG. 30 is a flowchart illustrating an abnormality determination method according to another embodiment of the present invention, and FIG. 31 is a data graph related to the abnormality determination of FIG.

이하에서는 상술한 도 24 내지 29의 내용을 빅 데이터 기반으로 계속하여 ㄴ누적하여 조정함으로써 보다 정확성을 추구하고자 한다.Hereinafter, the above-described contents of FIGS. 24 to 29 are continuously accumulated on the basis of the big data, and it is desired to pursue more accuracy.

도 30을 참조하면, 유저의 위치 데이터와 방위각 데이터를 각각 누적하여 저장한다(S3002-1, S3002-2). 그리고 이렇게 저장 누적된 유저의 위치 데이터와 방위각 데이터에 기초하여 도 31b와 같이, 히스토그램 데이터(Histogram data)를 계산하고(S3004), 계산된 히스토그램 데이터에 기초하여 분포도(DR: Distribution Ratio)를 계산한다(S3006).Referring to FIG. 30, the user's position data and azimuth data are accumulated and stored (S3002-1, S3002-2). 31B, histogram data (Histogram data) is calculated (S3004) on the basis of the accumulated user's position data and azimuth data, and a distribution ratio (DR) is calculated based on the calculated histogram data (S3006).

이후 상기 분포도(DR)가 제1임계치를 초과하는지 판단한다(S3008). 상기 판단 결과 분포도(DR)가 제1임계치를 초과하면, 이전 정상값과 현재 정상값의 차가 제2임계치 미만인지 다시 판단한다(S3010).Then, it is determined whether the distribution diagram DR exceeds the first threshold (S3008). As a result of the determination, if the distribution map DR exceeds the first threshold value, it is determined again whether the difference between the previous normal value and the current normal value is less than the second threshold value (S3010).

상기 판단 결과에 따라 만약 상기 이전 정상값과 현재 정상값의 차가 제2임계치를 초과하면, 정상값을 업데이트하여 재조정한다(S3012).According to the determination result, if the difference between the previous normal value and the current normal value exceeds the second threshold, the normal value is updated and readjusted (S3012).

다시 말해, 계속하여 데이터만 저장 후에 이상이 없을 때 정상 케이스의 데이터로서 조정한다.In other words, if there is no abnormality after the data is stored continuously, it is adjusted as data of the normal case.

상기 S3002 단계에서 저장되는 데이터 값은 최초 calibration과는 다른 값일 수 있다. 다시 말해, 최초 조정된 값에서 아주 서서히 변하는 값을 찾는 과정이라고 할 수 있으며, 이는 주변 자속의 변화나 사용자의 미세한 습관 변화라고도 할 수 있다.The data value stored in step S3002 may be different from the initial calibration. In other words, it is a process of finding a value which varies very slowly from the originally adjusted value, which can be referred to as a change in ambient flux or a change in a user's minute habit.

이를 위해, 예컨대, 본 발명에서는 1일 이상의 위치, 바디 포스쳐, 방위각 데이터 등을 저장한다. 그리고 각 위치 및 각 자세의 정상 케이스를 저장한다. 여기서, 눕기를 예를 들면, 누적된 값의 모드 즉, 도 31b의 히스토그램에서 누적 수가 가장 많은 중앙값을 주기적인 조정 기준값으로 잡고, 순간적인 비정상(3120)의 경우 이 값과 비교하여 비정상 여부를 판단한다.For this purpose, for example, the present invention stores a position, body posture, azimuth data, and the like for one or more days. And stores the normal case of each position and each posture. In this case, for example, in the case of lying down, a cumulative value mode, that is, a median value having the largest cumulative number in the histogram of FIG. 31B is regarded as a periodic adjustment reference value, and in the case of an instantaneous abnormality 3120, do.

도 31a와 같이, 눕기의 방위각이 한 각도에 집중되지 않고 다양한 각도들로 분포된 데이터에서는 주기적인 조정을 실시하지 않을 수 있다. 특히, 분포도(DR)는 제1임계치보다 작을 때에는 조정을 하지 않을 수 있다.As shown in FIG. 31A, periodic adjustment may not be performed in data where the azimuth angle of the lying-down is not concentrated at one angle but distributed at various angles. Particularly, when the distribution diagram DR is smaller than the first threshold value, adjustment may not be performed.

한편, 도 31b의 히스토그램에서 보는 바와 같이 최대 모드 값에서 거리가 먼 것일수록 비정상일 확률이 높다고 볼 수 있다.On the other hand, as shown in the histogram of FIG. 31B, the greater the distance from the maximum mode value, the higher the probability of abnormality is.

도 30 및 31을 참조하면, 예컨대 침실의 경우에는, 정상 케이스는 침대에 누워 침대 헤드 방향으로 머리를 대고 눕는 형태로 볼 수 있고, 비정상 케이스는 헤드 방향에서 소정 각도 이상으로 누워 움직임이 없는 상태 또는 비슷하게 누워 움직임이 없는 상태, 기존 저장된 패턴과 다른 상태를 포함할 수 있다. 또는, 부엌의 경우, 비정상 상태는 일반적으로 부엌에서 누워 있지 않을 것이므로 모든 누워있는 자세의 상태는 다 비정상으로 볼 수 있다. 한편, 화장실은, 욕조에 누워 있으면 정상으로 판단할 수 있으나, 욕조 방향에서 소정 각도가 틀어져 누워있거나 방향이 비스듬한 방향으로 소정 시간 이상을 해당 자세를 유지하면, 이를 비정상으로 볼 수 있다. 마지막으로 거실의 경우에는 소파에서 눕거나 바닥에 누워서 수면을 취하는 경우에는 정상으로 볼 수 있으나, 소파에 앉거나 누워 있는 방향과는 다른 방향으로 누워 소정 시간 이상 유지되면, 이를 비정상으로 볼 수도 있다. 예컨대, 소파에서 주로 TV를 시청하는 경우에 그 방향이 기본 방향 또는 정상 방향으로 본다면, 그와 반대되는 방향으로 눕는 경우에는 비정상으로 볼 수 있을 것이다.30 and 31, for example, in the case of a bedroom, the normal case may be seen as lying on the bed and lying head-to-head in the direction of the bed head, and the abnormal case may be in a state It can include a state in which there is no motion, a state in which it is similar to the existing stored pattern, and another state. Or, in the case of a kitchen, an abnormal state would not normally lie in the kitchen, so all lying postures can be viewed as abnormal. On the other hand, if the toilet is lying in the bathtub, it can be judged as normal, but if the bathtub is laid with a predetermined angle in the direction of the bathtub or if it maintains the posture for a predetermined time or more in a direction in which the direction is oblique, it can be regarded as abnormal. Finally, in the case of a living room, it can be seen as a normal state when lying on a sofa or lying on the floor and taking a sleep, but it may be regarded abnormal if it is laid in a direction different from the direction of sitting or lying on the sofa and kept for a predetermined time or more. For example, when watching a TV mainly on a sofa, if the direction is viewed in the normal direction or in the normal direction, it may be seen as abnormal when lying in the opposite direction.

이상 상술한 본 발명의 다양한 실시 예들 중 적어도 하나에 따르면, 입력 신호를 인식하고 인식된 입력 신호를 인공 지능에 기초하여 분석하여 상기 입력 신호에 대응할 수 있고, 상기 입력 신호로 음성에 한정되지 않고 출력 신호가 오디오가 아닌 경우에도 이를 쉽고 빠르게 처리할 수 있으며, 인접한 다른 디바이스의 디스플레이를 이용하여 발화자(유저)의 상황 등 이벤트에 기초하여 적응적인 응답을 제공함으로써 상기 발화자의 의도에 부합하고 편의성을 향상시킬 수 있다.According to at least one of the various embodiments of the present invention described above, the input signal may be recognized and the recognized input signal may be analyzed based on artificial intelligence to correspond to the input signal, Even if the signal is not audio, it can be processed easily and quickly, and an adaptive response is provided based on an event such as a situation of a speaker (user) by using a display of another adjacent device, thereby improving the convenience .

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). Also, the computer may include a control unit 180 of the terminal. Accordingly, the above description should not be construed in a limiting sense in all respects and should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

110: 스마트 컨트롤링 디바이스
610: 신호 수신부 620: 제어부
622: 분석부 624: AI 처리부
630: 신호 처리부 640: 메모리
650: 신호 출력부
110: Smart control ring device
610: Signal receiving section 620:
622: Analysis section 624: AI processing section
630: Signal processor 640: Memory
650: Signal output section

Claims (15)

제1센서;
상황 인지 데이터를 센싱하는 제2센서; 및
상기 제1센서의 센싱 데이터로부터 제1데이터를 추출하여 유저의 제1상태 여부를 판단하고, 상기 판단 결과 유저가 제1상태이면 상기 제2센서의 센싱 데이터로부터 제2데이터를 추출하여 상기 유저의 제2상태 여부를 판단하고, 상기 판단 결과 유저가 제2상태이면 제어 커맨드를 생성하여 외부 단말로 전송하는 제어부를 포함하는 단말기.
A first sensor;
A second sensor for sensing context aware data; And
Extracting first data from the sensing data of the first sensor to determine whether the user is in a first state, extracting second data from the sensing data of the second sensor if the user is in the first state, And if the user is in the second state, generates a control command and transmits the control command to the external terminal.
제1항에 있어서,
상기 제1데이터는,
충격 데이터인 것을 특징으로 하는 단말기.
The method according to claim 1,
Wherein the first data comprises:
Shock data.
제2항에 있어서,
상기 제1상태 판단은,
상기 충격 데이터가 제1임계치를 초과 여부로 판단하는 것을 특징으로 하는 단말기.
3. The method of claim 2,
The first state determination may include:
And determines that the impact data exceeds a first threshold value.
제3항에 있어서,
상기 제2데이터는,
자세 데이터, 움직임 데이터, 조도 데이터, GPS 데이터, 위치 데이터, 온도 데이터, 지자기 데이터, 압력 데이터, 고도 데이터, 생체 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 단말기.
The method of claim 3,
Wherein the second data comprises:
The at least one of the position data, the movement data, the illumination data, the GPS data, the position data, the temperature data, the geomagnetism data, the pressure data, the altitude data and the biometric data.
제4항에 있어서,
상기 제2상태 판단은,
상기 제2데이터 중 적어도 하나에 기초하여 제2임계치를 초과하면, 낙상으로 판단하는 것을 특징으로 하는 단말기.
5. The method of claim 4,
The second state determination may include:
And when the second threshold is exceeded based on at least one of the first data and the second data, falls.
제4항에 있어서,
상기 제2상태 판단은,
상기 제1상태 판단 결과 상기 충격 데이터가 제1임계치를 초과하고, 상기 제2데이터가 제2임계치를 초과하는 경우에만, 낙상으로 판단하는 것을 특징으로 하는 단말기.
5. The method of claim 4,
The second state determination may include:
And judges the fall only when the impact data exceeds the first threshold as a result of the first state determination and the second data exceeds the second threshold.
제1항에 있어서,
상기 제2상태는,
낙상 여부에 대한 상태로, 상기 낙상은 복수의 페이지 상태로 구분되되,
제1페이지 상태는 상기 제1상태가 충족되지 않은 경우이고,
제2페이지 상태는 상기 제1상태를 충족하고 제2상태 판단을 위한 제2데이터 중 누운 자세에 기초하여 결정되고,
제3페이지 상태는 상기 제2페이지 상태에서 움직임 없음 비율은 제3임계치를 초과하는 경우이고,
제4페이지 상태는 상기 제3페이지 상태에서 움직임 없음의 지속 시간이 제4임계치를 초과하는 경우로 판단하는 것을 특징으로 하는 단말기.
The method according to claim 1,
The second state may comprise:
Wherein the falling state is divided into a plurality of page states,
The first page state is when the first state is not satisfied,
The second page state is determined based on the lying position of the second data for the second state determination and satisfying the first state,
The third page state is a case where the no-motion ratio in the second page state exceeds a third threshold,
And the fourth page state is determined to be a case in which the duration of no motion in the third page state exceeds a fourth threshold value.
제7항에 있어서,
상기 제어부는,
상기 제3또는 제4페이지 상태를 제2상태 판단 시에 낙상 상태로 판단하는 것을 특징으로 하는 단말기.
8. The method of claim 7,
Wherein,
And determines the third or fourth page state as a fall state when determining the second state.
제7항에 있어서,
상기 움직임 없는 비율과 움직임 없음 지속 시간은,
제1또는 제2센서 중 하나인 가속도 센서를 통해 센싱된 가속도 데이터에 기반하여 판단하는 것을 특징으로 하는 단말기.
8. The method of claim 7,
The rate of motionlessness and the duration of no-motion-
Wherein the determination is made based on the acceleration data sensed by the acceleration sensor, which is one of the first and second sensors.
제6항에 있어서,
상기 제2데이터는,
수면 데이터과 방위각 데이터를 더 포함하는 것을 특징으로 하는 단말기.
The method according to claim 6,
Wherein the second data comprises:
Further comprising sleep data and azimuth data.
제10항에 있어서,
상기 제어부는,
상기 제2상태 판단 시에,
단말기를 통해 센싱되는 유저의 수면 데이터와 방위각 데이터를 누적하고 평균화하여 저장한 후,
상기 수면 데이터를 움직임 데이터와 비교하여, 상기 단말기 유저의 수면 여부를 판단하고,
상기 방위각 데이터를 상기 움직임 데이터와 비교하여, 상기 단말기 유저의 수면 여부 및 낙상 상태 여부를 판단하는 것을 특징으로 하는 단말기.
11. The method of claim 10,
Wherein,
Upon determining the second state,
The user accumulates and averages the surface data and the azimuth data of the user sensed through the terminal,
Compares the sleeping data with motion data to determine whether or not the terminal user is sleeping,
And compares the azimuth data with the motion data to determine whether the user is sleeping and whether the user is in a falling state.
제11항에 있어서,
상기 방위각 데이터는,
상기 단말기 유저의 머리 방향에 대한 센싱 데이터와 관련되는 것을 특징으로 하는 단말기.
12. The method of claim 11,
The azimuth data may include:
Wherein the terminal is related to sensing data for the head direction of the terminal user.
제1항에 있어서,
상기 단말기는,
음성 인식 기능 또는 인공 지능 기능 중 적어도 하나를 탑재하고,
단말기 유저의 인체에 부착 가능한 적어도 하나의 패드를 포함한 넥밴드, 브로치, 및 목걸이 형태 중 어느 하나로 구현되는 것을 특징으로 하는 단말기.
The method according to claim 1,
The terminal comprises:
A voice recognition function, or an artificial intelligence function,
Wherein the terminal is implemented in any one of a neckband, a brooch, and a necklace including at least one pad attachable to a human body of a terminal user.
제1항에 있어서,
상기 제1센서는,
가속도 센서, 자이로 센서, 고도 센서, 및 압력 센서 중 적어도 하나인 것을 특징으로 하는 단말기.
The method according to claim 1,
Wherein the first sensor comprises:
An acceleration sensor, a gyro sensor, an altitude sensor, and a pressure sensor.
제1항에 있어서,
상기 제2센서는,
지자기 센서, 조도 센서, 및 GPS 센서 중 적어도 하나인 것을 특징으로 하는 단말기.
The method according to claim 1,
Wherein the second sensor comprises:
A geomagnetic sensor, an illuminance sensor, and a GPS sensor.
KR1020170041938A 2016-09-08 2017-03-31 Terminal and method of controlling the same KR20180028358A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662385248P 2016-09-08 2016-09-08
US62/385,248 2016-09-08

Publications (1)

Publication Number Publication Date
KR20180028358A true KR20180028358A (en) 2018-03-16

Family

ID=61910453

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170041938A KR20180028358A (en) 2016-09-08 2017-03-31 Terminal and method of controlling the same

Country Status (1)

Country Link
KR (1) KR20180028358A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020204594A1 (en) * 2019-04-04 2020-10-08 주식회사 코믹스브이 Virtual reality device and method for controlling same
KR20200137698A (en) * 2019-05-31 2020-12-09 (주)엘센 System and method for detecting fall and falldown using wearable sensor device
KR102408312B1 (en) * 2021-12-29 2022-06-14 주식회사 누리온 Emergency monitoring system based on vital sign sensor
CN117268460A (en) * 2023-08-16 2023-12-22 广东省泰维思信息科技有限公司 Indoor and outdoor linkage monitoring method and system based on Internet of things

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020204594A1 (en) * 2019-04-04 2020-10-08 주식회사 코믹스브이 Virtual reality device and method for controlling same
KR20200137698A (en) * 2019-05-31 2020-12-09 (주)엘센 System and method for detecting fall and falldown using wearable sensor device
KR102408312B1 (en) * 2021-12-29 2022-06-14 주식회사 누리온 Emergency monitoring system based on vital sign sensor
CN117268460A (en) * 2023-08-16 2023-12-22 广东省泰维思信息科技有限公司 Indoor and outdoor linkage monitoring method and system based on Internet of things
CN117268460B (en) * 2023-08-16 2024-04-09 广东省泰维思信息科技有限公司 Indoor and outdoor linkage monitoring method and system based on Internet of Things

Similar Documents

Publication Publication Date Title
Ometov et al. A survey on wearable technology: History, state-of-the-art and current challenges
KR101554188B1 (en) Wearable device and method for controlling the same
CN105373219B (en) Wearable device and its operating method
US10354511B2 (en) Geolocation bracelet, system, and methods
EP3445201B1 (en) Mobility devices having smart features and charging mounts for same
KR101562591B1 (en) Mobile terminal and method for processing the car accident usgin mobile terminal
US10206573B2 (en) Method of obtaining biometric information in electronic device and electronic device for the same
Alemdar et al. Wireless sensor networks for healthcare: A survey
US10354551B2 (en) Mobile terminal and method for controlling the same
KR20180028358A (en) Terminal and method of controlling the same
KR20160142128A (en) Watch type mobile terminal and method for controlling the same
KR20150112621A (en) Mobile terminal and control method thereof
WO2017018941A1 (en) Smart devices that capture images and sensed signals
KR20170123209A (en) Watch type terminal and controlling the same
KR20150039467A (en) Mobile terminal and dangerous situation notification method therof
EP3203803A1 (en) Mobile terminal and control method therefor
KR20150016021A (en) Mobile terminal and control method thereof
KR20190056132A (en) Wearable device
KR20180090103A (en) Mobile robot and method for controlling the same
KR101741074B1 (en) Automatic recording device and method for car accident
KR102415548B1 (en) Wearable device and operating method thereof
Horng et al. The smart fall detection mechanism for healthcare under free-living conditions
KR20160104288A (en) Wearable device for determining eating connected with a mobile device and, the method thereof
KR20180113115A (en) Mobile terminal and method for controlling the same
KR20160124483A (en) Management system for old or feeble person, method for controlling the same, and management server for controlling the same