KR20160146424A - 전자 장치 및 그 제어 방법 - Google Patents

전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20160146424A
KR20160146424A KR1020150083697A KR20150083697A KR20160146424A KR 20160146424 A KR20160146424 A KR 20160146424A KR 1020150083697 A KR1020150083697 A KR 1020150083697A KR 20150083697 A KR20150083697 A KR 20150083697A KR 20160146424 A KR20160146424 A KR 20160146424A
Authority
KR
South Korea
Prior art keywords
electronic device
user
behavior
evaluation level
information
Prior art date
Application number
KR1020150083697A
Other languages
English (en)
Other versions
KR102320815B1 (ko
Inventor
김미영
황태호
김진성
황보민수
김선아
김종태
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150083697A priority Critical patent/KR102320815B1/ko
Priority to US15/095,967 priority patent/US10620593B2/en
Priority to PCT/KR2016/006182 priority patent/WO2016200204A1/en
Publication of KR20160146424A publication Critical patent/KR20160146424A/ko
Application granted granted Critical
Publication of KR102320815B1 publication Critical patent/KR102320815B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/028Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using expert systems only
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/02Detectors of external physical values, e.g. temperature
    • G04G21/025Detectors of external physical values, e.g. temperature for measuring physiological data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Abstract

전자 장치가 개시된다. 전자 장치는, 사용자의 생체 신호를 획득하는 센싱부, 외부 전자 장치와 통신을 수행하는 통신부 및 생체 신호에 기초하여 사용자의 행동 평가 레벨을 결정하고, 외부 전자 장치와 페어링을 수행하여, 행동 평가 레벨 및 페어링된 외부 전자 장치에 대응되는 제어 정보를 결정하고, 결정된 제어 정보를 페어링된 외부 전자 장치로 전송하도록 통신부를 제어하는 제어부를 포함한다. 이에 따라, 전자 장치를 통해 사용자의 행동 패턴을 자연스럽게 측정하여 사용자에게 알림을 주고, 외부 전자 장치와 연동하여 사용자의 행동을 개선할 수 있다.

Description

전자 장치 및 그 제어 방법{WEARABLE APPARATUS AND THE CONTROLLING METHOD THEREOF}
본 발명은 전자 장치 그 제어 방법에 관한 것으로서, 보다 상세하게는 사용자의 행동 패턴을 측정하여 피드백을 제공하는 전자 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 제품들이 개발 및 보급되고 있다. 특히, TV, 휴대폰, PC, 노트북 PC, PDA 등과 같은 각종 디스플레이 장치들은 대부분의 일반 가정에서도 많이 사용되고 있다. 이와 더불어, 안경, 시계, 의복 등과 같이 착용할 수 있는 형태로 사용자가 거부감 없이 신체의 일부처럼 항상 착용하여 사용할 수 있는 전자 장치 특히, 웨어러블 장치가 보급화되고 있다.
이에 따라, 전자 장치에서 수행되는 기능들도 다양해지게 되었다. 특히, 전자 장치는 사용자의 몸에 주로 착용된다는 점에서 사용자의 생체 정보나 행동 반응 정보 등을 수집하고 이에 기초하여 다양한 기능을 수행할 수 있다.
이와 관련하여, 사용자의 행동 개선을 위해 평상시에 전자 장치가 사용자의 행동 패턴을 수집 및 측정하고, 수집 및 측정된 사용자의 행동 패턴에 기초하여 적절한 피드백을 제공함으로써 사용자의 행동을 개선하고자 하는 필요성이 생겨나게 되었다. 또한, 이러한 전자 장치가 서버와 연동하여 사용자에게 피드백을 제공하게 하는 필요성도 생겨나게 되었다.
이에 따라, 사용자의 행동 패턴을 측정하여 사용자의 행동 개선을 위한 피드백을 제공하기 위한 다양한 방법을 제안하고자 한다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 결정된 사용자의 행동 평가 레벨에 따라 외부 전자 장치가 기 설정된 사용 환경에서 동작하도록 하는 제어 정보를 외부 전자 장치로 전송하는 전자 장치 및 그 제어 방법을 제공함에 있다.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 외부 전자 장치를 제어하는 전자 장치의 제어 방법은, 사용자의 생체 신호를 획득하는 단계, 상기 생체 신호에 기초하여 상기 사용자의 행동 평가 레벨을 결정하는 단계, 외부 전자 장치와 페어링을 수행하는 단계, 상기 결정된 행동 평가 레벨 및 상기 페어링된 외부 전자 장치에 대응되는 제어 정보를 결정하는 단계 및 상기 결정된 제어 정보를 상기 페어링된 외부 전자 장치로 전송하는 단계를 포함한다.
여기서, 상기 제어 정보는, 상기 페어링된 외부 전자 장치에 대한 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 제어 명령 중 적어도 하나를 포함할 수 있다.
그리고, 상기 행동 평가 레벨은, 상기 획득된 생체 신호를 활동성, 언어 행동 및 충동성 중 적어도 하나의 항목에 대하여 가중치를 부여하고 수치화하여 산출된 값에 기초하여 결정될 수 있다.
또한, 상기 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 제어 명령은, 상기 결정된 행동 평가 레벨에 따라 변경 가능하다.
여기서, 상기 전송하는 단계는, 상기 전자 장치의 사용자가 상기 페어링된 외부 전자 장치에 대해 사용자 인증을 수행하면 상기 제어 정보를 상기 외부 전자 장치로 전송할 수 있다.
또한, 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은 상기 결정된 행동 평가 레벨에 따른 피드백을 제공하는 단계를 더 포함할 수 있다.
또한, 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은 상기 사용자의 행동 개선 항목 및 행동 패턴 측정 시간을 설정하는 사용자 조작을 입력받는 단계를 더 포함하며, 상기 생체 신호를 획득하는 단계는, 상기 설정된 항목과 관련된 행동 패턴을 결정하고, 상기 결정된 행동 패턴을 측정하기 위한 데이터를 상기 설정된 시간에 따라 센싱할 수 있다.
여기서, 상기 행동 평가 레벨을 결정하는 단계는, 상기 획득된 생체 신호에 기초하여 측정된 사용자의 행동 패턴을 기 설정된 항목별로 그룹핑하고, 상기 그룹핑된 사용자의 행동 패턴에 대해 상기 각 항목별로 가중치를 부여하여 평균값을 산출하며, 상기 산출된 평균값에 기초하여 상기 행동 평가 레벨을 결정할 수 있다.
또한, 상기 행동 평가 레벨을 결정하는 단계는, 상기 산출된 평균값과 기 설정된 기준 값을 비교하고 편차에 따라 상기 행동 평가 레벨을 결정할 수 있다.
한편, 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은 상기 사용자의 행동 패턴 이력 정보를 저장하는 단계를 더 포함하며, 상기 행동 평가 레벨을 결정하는 단계는, 상기 획득된 생체 신호에 기초하여 측정된 사용자의 행동 패턴과 상기 사용자의 행동 패턴 이력 정보 간의 유사도를 측정하여 상기 행동 평가 레벨을 결정할 수 있다.
한편, 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은 상기 결정된 행동 평가 레벨에 따라, 상기 사용자에 관한 영상이 상기 페어링된 외부 전자 장치를 통해 디스플레이되도록 하는 제어 신호를 상기 페어링된 외부 전자 장치로 전송하는 단계를 더 포함할 수 있다.
본 발명의 일 실시 예에 따른 외부 전자 장치를 제어하는 전자 장치는,
사용자의 생체 신호를 획득하는 센싱부, 외부 전자 장치와 통신을 수행하는 통신부 및 상기 생체 신호에 기초하여 상기 사용자의 행동 평가 레벨을 결정하고, 상기 외부 전자 장치와 페어링을 수행하여, 상기 행동 평가 레벨 및 페어링된 외부 전자 장치에 대응되는 제어 정보를 결정하고, 상기 결정된 제어 정보를 상기 페어링된 외부 전자 장치로 전송하도록 상기 통신부를 제어하는 제어부를 포함한다.
여기서, 상기 제어 정보는, 상기 페어링된 외부 전자 장치에 대한 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 제어 명령 중 적어도 하나를 포함할 수 있다.
또한, 상기 제어 명령은, 상기 사용 가능 시간 정보 및 사용 가능 컨텐츠 정보 중 적어도 하나에 기초하여 상기 페어링된 외부 전자 장치가 동작되도록 하는 정보를 포함할 수 있다.
또한, 상기 행동 평가 레벨은, 상기 획득된 생체 신호를 활동성, 언어 행동 및 충동성 중 적어도 하나의 항목에 대하여 가중치를 부여하고 수치화하여 산출된 값에 기초하여 결정될 수 있다.
또한, 상기 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 제어 명령은, 상기 결정된 행동 평가 레벨에 따라 변경 가능하다.
그리고, 상기 제어부는, 상기 전자 장치의 사용자가 상기 페어링된 외부 전자 장치에 대해 사용자 인증을 수행하면 상기 제어 정보를 상기 외부 전자 장치로 전송할 수 있다.
또한, 상기 제어부는, 상기 결정된 행동 평가 레벨에 따른 피드백을 제공할 수 있다.
한편, 본 발명의 일 실시 예에 따른 전자 장치는 상기 사용자의 행동 개선 항목 및 행동 패턴 측정 시간을 설정하는 사용자 조작을 입력받는 입력부를 더 포함하며, 상기 제어부는, 상기 설정된 항목과 관련된 행동 패턴을 결정하고, 상기 결정된 행동 패턴을 측정하기 위한 데이터를 상기 설정된 시간에 따라 센싱하도록 상기 센싱부를 제어할 수 있다.
한편, 본 발명의 일 실시 예에 따른 시스템은, 제1 전자 장치 및 제2 전자 장치와 통신을 수행하는 통신부 및 상기 제1 전자 장치로부터 수신된 생체 신호에 기초하여 사용자의 행동 평가 레벨을 결정하고, 상기 제1 전자 장치 및 제2 전자 장치 중 적어도 하나로부터 상기 제1 전자 장치와 페어링된 상기 제2 전자 장치 정보가 수신되면, 상기 행동 평가 레벨 및 상기 수신된 제2 전자 장치 정보와 대응되는 제어 정보를 결정하고, 상기 결정된 제어 정보를 상기 제2 전자 장치로 전송하는 제어부를 포함한다.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 전자 장치를 통해 사용자의 행동 패턴을 자연스럽게 측정하여 사용자에게 알림을 주고, 외부 전자 장치와 연동하여 사용자의 행동을 개선할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 전자 장치의 구성을 도시한 블럭도이다.
도 2는 본 발명의 일 실시 예에 따른 제어부의 동작 과정을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 사용자의 행동 패턴을 측정하기 위한 데이터 즉, 생체 신호의 예를 나타낸 도면이다.
도 4는 본 발명의 다른 실시 예에 따른 제1 전자 장치(100)의 구성을 도시한 블럭도이다.
도 5는 본 발명의 일 실시 예에 따른 다양한 센서들을 포함하는 제1 전자 장치를 도시한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 행동 평가 레벨 결정 과정을 나타낸 도면이다.
도 7은 본 발명의 일 실시 예에 따른 패턴 매칭에 따라 행동 평가 레벨을 결정하는 것을 나타낸 도면이다.
도 8은 본 발명의 일 실시 예에 따른 손목 조임 피드백을 제공하는 과정을 설명하는 타이밍도이다.
도 9 및 도 10은 본 발명의 일 실시 예에 따라 손목 조임 피드백 효과를 구현하기 위한 물리적인 구성을 도시한 도면이다.
도 11은 본 발명의 일 실시 예에 따른 제어 정보에 포함되는 사용 환경의 다양한 예를 도시한 도면이다.
도 12a는 본 발명의 일 실시 예에 따른 서버의 구성을 도시한 블록도이다.
도 12b는 본 발명의 일 실시 예에 따른 제1 전자 장치, 제2 전자 장치 및 서버를 포함하는 시스템을 도시한 도면이다.
도 13은 본 발명의 일 실시 예에 따른 제1 전자 장치, 서버 및 제2 전자 장치를 포함하는 시스템상에서 수행되는 과정을 도시한 도면이다.
도 14는 본 발명의 일 실시 예에 따른 ADHD 증상이 있는 사용자의 제2 전자 장치 사용시 수행 능력을 판단하고 행동 개선 여부를 판단하는 과정을 도시한 도면이다.
도 15는 본 발명의 일 실시 예에 따라 일상 생활에 제1 전자 장치를 사용하는 상황을 설명하기 위한 도면이다.
도 16은 도 1에 도시된 제1 전자 장치의 구체적인 구성을 나타내는 블럭도이다.
도 17은 본 발명의 일 실시 예에 따른 저장부에 저장된 소프트웨어 모듈에 관한 도면이다.
도 18은 본 발명의 일 실시 예에 따른 제1 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 19 내지 도 22는 본 발명의 다양한 실시 예에 따른 동작 과정을 설명하기 위한 타이밍도이다.
이하에서는 도면을 참조하여 본 발명을 더욱 상세하게 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관계 등에 따라 달라질 수 있다. 그러므로, 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시 예에 따른 전자 장치의 구성을 도시한 블럭도이다.
도 1을 참조하면, 전자 장치(100)는 센싱부(110), 통신부(120) 및 제어부(130)를 포함한다. 본 명세서에서 사용되는 전자 장치(100)는 일반적인 전자 장치 중에서도 사용자의 생체 신호를 획득하여 사용자의 행동 평가 레벨을 결정하는 전자 장치를 의미하여, 이러한 전자 장치(100)는 TV, 노트북, 태블릿, 데스크 톱, 셋톱 박스, 게임 콘솔, 오디오, 휴대폰, 스마트 와치, 이어폰, 안경, 고글, 헬멧, 머리띠, HMD(Head Mounted Display), 팔찌, 반지, 목걸이, 신발, 의복, 모자, 신발 스티커, 클립 등으로 구현될 수 있으며, 이에 한정되지 않는다.
특히, 본 발명의 일 실시 예에 따른 전자 장치(100)는 스마트폰이나 태블릿과 무선으로 연동하여 사용하는 착용가능한 장치를 포함할 수 있다. 본 발명에서는 전자 장치(100)가 다양한 형태의 장치들 중에서 스마트 와치로 구현된 경우를 예로 들어 설명하기로 하며, 후술할 전자 장치(100)의 동작은 상술한 다양한 형태의 장치에 적용 가능함은 당연하다.
한편, 본 발명의 일 실시 예에 따른 전자 장치(100)는 외부 전자 장치의 사용 범위를 제어함을 목적으로 한다. 여기서, 전자 장치(100)는 유/무선 통신 방식을 통해 외부 전자 장치의 사용 범위를 제어할 수 있다.
또한, 외부 전자 장치라 함은, 사용자의 생체 신호를 획득하여 사용자의 행동 평가 레벨을 결정하는 전자 장치를 제외한 전자 장치를 의미하며, TV, 노트북, 태블릿, 데스크 톱, 셋톱 박스, 게임 콘솔, 오디오, 휴대폰 등으로 구현될 수 있다. 즉, 본 발명의 일 실시 예에 따른 외부 전자 장치는 사용자의 생체 신호를 획득하여 사용자의 행동 평가 레벨을 결정하기 위한 전자 장치가 아닌, 사용자가 일반적으로 컨텐츠를 재생하기 위한 목적으로 사용하는 전자 장치를 의미한다.
여기서, 외부 전자 장치의 사용 범위란, 전자 장치(100)를 사용하는 사용자가 외부 전자 장치를 사용하는데 있어서, 사용자의 행동 평가 레벨에 대응하여 외부 전자 장치가 동작하는 기 설정된 조건, 범위 또는 모드를 의미한다. 즉, 후술하겠지만 전자 장치를 사용하는 사용자의 행동 평가 레벨에 따라 사용자의 외부 전자 장치 사용 범위가 변경될 수 있는데, 외부 전자 장치가 동작하는 시간 또는 외부 전자 장치에서 실행 가능한 프로그램의 종류 등이 변경될 수 있다. 즉, 본 명세서에서 기재된 외부 전자 장치의 사용 범위는 전자 장치(100)를 사용하는 사용자에 대응하여 외부 전자 장치가 동작 가능한 시간 및 외부 전자 장치가 제공 가능한 서비스 중 적어도 하나를 의미한다.
한편, 전자 장치(100)와 외부 전자 장치의 용어를 명확히 구별하기 위하여 본 명세서에서는 전자 장치(100)를 제1 전자 장치로, 외부 전자 장치를 제2 전자 장치로 매칭하여 설명하기로 한다.
센싱부(110)는 사용자의 생체 신호 및 제1 전자 장치(100)의 사용 정보 중 적어도 하나를 포함하는 데이터를 획득할 수 있다.
여기서, 생체 신호란, 인체의 미세한 세포 간의 전기적인 신호를 의미한다. 예를 들어, 뇌파, 근전도, 심전도 등이 대표적인 생체 신호이며, 센싱부(110)는 상술한 생체 신호를 포함하는 데이터로서 심박수, 호흡수, 이동 거리, 걸음 수, 동작 형태별 지속 시간, 손가락 움직임 횟수, 목소리 음량, 말하는 시간, 울음 시간, 특정 단어사용 패턴 횟수, 대화 끼어들기 횟수, 감정상태 지속 시간 및 감정상태 변화 횟수 중 적어도 하나를 측정할 수 있다.
또한, 제1 전자 장치(100)의 사용 정보란, 사용자가 직/간접적으로 제1 전자 장치(100)를 사용하면서 생성되는 정보를 의미한다. 사용자가 직접적으로 제1 전자 장치(100)를 사용하면서 생성되는 정보는 사용자가 제1 전자 장치(100)를 직접 조작하면서 생성되는 사용 이력 정보나 제1 전자 장치(100)를 조작하는 횟수, 터치 횟수, 기능 키 누름 횟수, 화면 전화 횟수, 음성 명령 발화 횟수, 모션 감지 횟수 등에 관한 정보를 포함할 수 있다. 즉, 사용자가 직접적으로 제1 전자 장치(100)를 사용하여 생성되는 정보는 사용자가 직접적으로 제1 전자 장치(100)를 조작하면서 생성되는 모든 정보를 포함할 수 있다.
또한, 사용자가 간접적으로 제1 전자 장치(100)를 사용하면서 생성되는 정보는 사용자가 제1 전자 장치(100)를 사용하고자 하는 의도 없이 수행한 행동들에 기초하여 생성되는 정보를 의미한다. 예를 들어, 사용자가 제1 전자 장치(100)를 착용하지 않고 제1 전자 장치(100)를 책상에 놓아둔 상태에서 사용자가 취하는 행동, 사용자가 발화하는 음성, 시선 방향, 눈 깜박임 등은 제1 전자 장치(100)에 구비된 카메라 렌즈, 적외선 센서, 마이크 등을 통해 감지될 수 있으며, 따라서, 제1 전자 장치(100)는 사용자가 제1 전자 장치(100)를 직접 조작하지 않더라도 사용자에 관한 정보를 획득할 수 있다. 본 명세서에서는 사용자가 제1 전자 장치(100)를 직접 조작하지 않고 획득되는 사용자에 관한 정보를 사용자가 간접적으로 제1 전자 장치(100)를 사용하면서 생성되는 정보로 정의하기로 한다.
구체적으로, 센싱부(110)는 평상시 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱하기 위하여 다양한 센서를 포함한다. 예를 들어, 센싱부(110)는 심박수 또는 호흡수를 측정하기 위한 PPG(Photo-plethysmography) 센서, 이동 거리, 걸음수 및 회전량 등을 측정하기 위한 가속도 센서 또는 자이로 센서, 피부 전기 전도도를 측정하는 GSR(Galvanic Skin Response) 센서, 체온을 측정하기 위한 체온 센서, 근전도를 측정하기 위한 EMG(Electromyogram) 센서, 위치 정보를 획득하기 위한 GPS 센서, 심전도를 측정하기 위한 ECG(Electrocardiogram) 센서, 사용자의 모션을 감지하기 위한 모션 센서 등을 포함할 수 있으며, 사용자의 음성을 수신하는 마이크도 포함할 수 있다. 또한, 센싱부(110)는 상술한 예로 설명한 센서에 한정되지 않고 사용자의 위치, 움직임, 생체 신호 등을 측정하기 위한 다양한 센서들을 포함할 수 있다.
그리고, 제어부(130)는 센싱부(110)에 포함된 다양한 센서를 통해 센싱된 데이터에 기초하여 사용자의 행동 패턴을 측정할 수 있다. 예를 들어, PPG 센서를 통해 사용자의 심박수에 관한 데이터가 센싱되면, 제어부(130)는 센싱된 심박수에 관한 데이터를 분석하여 심박수가 빠른지, 느린지, 규칙적인지 불규칙적인지 등의 심박수에 관한 행동 패턴을 측정할 수 있다. 센싱부(110)를 통해 센싱되는 데이터에 관한 자세한 설명은 도 3을 통해 후술하기로 한다.
한편, 통신부(120)는 다양한 유형의 통신 방식에 따라 적어도 하나의 제2 전자 장치와 통신을 수행할 수 있다. 여기서, 통신부(120)는 BT(BlueTooth), WI-FI(Wireless Fidelity), Zigbee, IR(Infrared), Serial Interface, USB(Universal Serial Bus), NFC(Near Field Communication) 등과 같은 다양한 통신 방식을 통해 적어도 하나의 제2 전자 장치와 통신을 수행할 수 있다. 또한, 제2 전자 장치는 TV, 전자 칠판, 전자 테이블, LFD(Large Format Display), 스마트 폰, 태블릿, 데스크탑 PC, 노트북, 서버 등과 같은 다양한 형태의 전자 장치로 구현될 수 있다.
그리고, 제어부(130)는 센싱부(110)를 통해 센싱된 데이터에 기초하여 결정된 사용자의 행동 평가 레벨에 대응하여, 제1 전자 장치(100)와 페어링된 제2 전자 장치가 기 설정된 사용 범위 내에서 동작하도록 하는 제어 정보를 페어링된 제2 전자 장치로 전송하도록 제어할 수 있다.
구체적으로, 제어부(130)는 측정된 사용자의 행동 패턴에 기초하여 사용자의 행동 평가 레벨을 결정할 수 있다. 그리고, 제어부(130)는 제2 전자 장치와 페어링을 수행하도록 통신부(120)를 제어할 수 있다. 여기서, 페어링이란, 제1 전자 장치(100)와 제2 전자 장치 간에 통신 세션이 연결되어 네트워크 상에서 서로 간의 통신이 수행 가능하도록 매칭되는 것을 의미한다. 이러한 페어링은 WiFi, WiFi Direct, Bluetooth 방식 등을 통해 수행될 수 있다
또한, 제어부(130)는 결정된 행동 평가 레벨 및 페어링된 제2 전자 장치에 대응되는 제어 정보를 결정하고, 결정된 제어 정보를 페어링된 제2 전자 장치로 전송할 수 있다. 구체적으로, 제1 전자 장치(100)와 제2 전자 장치 간에 페어링이 수행되면, 통신부(120)는 페어링된 제2 전자 장치로부터 제2 전자 장치를 식별할 수 있는 식별 정보를 수신할 수 있으며, 여기서 식별 정보는 제2 전자 장치의 종류, 품번, 시리얼번호, 기기명, 네트워크 상 주소(Mac/IP 주소) 등을 의미한다. 제어부(130)는 이렇게 수신된 전자 장치의 식별 정보를 통해 페어링된 제2 전자 장치의 종류, 품번, 시리얼번호, 기기명, 네트워크 상 주소(Mac/IP 주소) 등과 같은 페어링된 제2 전자 장치에 관한 정보를 획득할 수 있다. 그리고, 제어부(130)는 획득된 제2 전자 장치에 관한 정보에 기초하여 제2 전자 장치가 식별되면, 식별된 제2 전자 장치와 결정된 행동 평가 레벨에 대응되는 제어 정보를 결정할 수 있다. 예를 들어, 제어부(130)는 식별된 제2 전자 장치가 TV인지, HMD 장치인지, 노트북인지 등을 식별하고, 식별된 장치의 종류 및 결정된 행동 평가 레벨에 대응되는 제어 정보를 결정할 수 있다. 이러한 제어 정보는 페어링된 제2 전자 장치의 종류, 사용 가능 시간, 허용 컨텐츠 등에 관한 정보를 포함할 수 있으며, 이에 대한 자세한 설명은 후술하기로 한다. 또한, 이러한 제어 정보는 물리적으로, 데이터 패킷 또는 전송 프레임 등으로 구현될 수 있다.
이와 관련하여 제어부(130)의 전체적인 동작을 나타내는 과정을 도 2를 통해 설명하기로 한다.
도 2는 본 발명의 일 실시 예에 따른 제어부의 동작 과정을 설명하기 위한 도면이다.
도 2를 참조하면, 먼저 행동 개선 항목이 설정되면(210), 제어부(130)는 설정된 항목에 따라 센싱된 데이터에 기초하여 사용자의 행동 패턴을 측정하고(220), 측정된 행동 패턴에 기초하여 사용자의 행동 평가 레벨을 결정한다(230). 그리고, 제어부(130)는 결정된 행동 평가 레벨에 따라 적절한 행동 개선 서비스를 제공할 수 있는데, 이러한 행동 개선 서비스에는 사용자에게 피드백을 제공(240)하거나, 제2 전자 장치와 연동하여 서비스를 제공(250)하거나, 행동 개선 정도를 모니터링하는 서비스를 제공(260)할 수 있다.
여기서, 행동 평가 레벨이란, 사용자의 행동을 생체 신호에 관한 항목별로 수치화하여 산출된 값에 기초하여 결정되는, 사용자의 행동에 대응되는 평가 레벨을 의미한다. 구체적으로, 센싱부(110)를 통해 획득된 데이터에 기초하여 산출된 평균 값으로부터 사용자의 행동이 기 설정된 복수의 평가 레벨들 중에서 어떤 평가 레벨에 속하는지가 결정될 수 있으며, 결정된 평가 레벨이 사용자의 행동 평가 레벨에 해당된다. 특히, 이러한 행동 평가 레벨은 획득된 생체 신호를 활동성, 언어 행동 및 충동성 중 적어도 하나의 항목에 대하여 가중치를 부여하고 수치화하여 산출된 값에 기초하여 결정될 수 있다.
또한, 제어 정보란, 상술한 제2 전자 장치에 대한 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 제어 명령 중 적어도 하나를 포함하며, 제2 전자 장치는 이러한 제어 정보에 기초하여 동작하게 된다. 예를 들어, 제2 전자 장치의 사용 범위가 제1 전자 장치(100)를 사용하는 사용자에 대응하여 제2 전자 장치가 동작 가능한 시간 및 제2 전자 장치가 제공 가능한 서비스에 관한 것이면, 제어 정보는 제2 전자 장치가 몇 시간 동안 동작 가능한지에 관한 정보, 제2 전자 장치가 제공하는 서비스의 종류에 관한 정보 및 제2 전자 장치가 상술한 동작 가능 시간 및 서비스의 종류에 따라 동작하도록 하는 제어 정보를 포함할 수 있다.
한편, 도 2에서는 제1 전자 장치(100)의 제어부(130)가 행동 개선 항목이 설정되면(210) 행동 패턴 측정(220), 행동 평가 레벨 결정(230), 사용자에게 피드백 제공(240), 외부기기 연동 서비스(250) 및 행동 개선 정도 모니터링(260) 제공 등의 동작을 수행하는 것으로 도시되어 있으나, 제어부(130)는 서버(미도시)와 연동하여 상술한 동작들을 처리할 수도 있으며, 이에 대해서는 후술하기로 한다.
즉, 제어부(130)는 센싱부(110)를 통해 센싱된 데이터로부터 사용자의 행동 패턴을 측정하고, 측정된 행동 패턴으로부터 사용자의 행동 평가 레벨을 결정한 후, 결정된 사용자의 행동 평가 레벨에 따라 적절한 행동 개선 서비스를 제공할 수 있으며, 이에 대해 구체적으로 설명하기로 한다.
도 3은 본 발명의 일 실시 예에 따른 사용자의 행동 패턴을 측정하기 위한 데이터 즉, 생체 신호의 예를 나타낸 도면이다.
도 3을 참조하면, 사용자의 행동 패턴을 측정하기 위한 생체 신호는 크게 활동성 항목(310), 언어 행동 항목(320) 및 충동성 항목(330)으로 구별될 수 있으며, 활동성 항목(310)에는 심박수, 호흡수, 이동 거리, 걸음 수, 동작 형태(뛰기, 걷기, 앉아 있기)별 지속시간 및 손가락 움직임 횟수 등에 관한 정보가 포함되고, 언어행동 항목(320)에는 목소리 음량, 말하는 시간, 울음 시간, 특정 단어사용 패턴 횟수, 대화 끼어들기 횟수에 관한 정보가 포함될 수 있으며, 충동성 항목(330)에는 감정 상태(흥분, 분노) 지속시간, 감정상태 변화 횟수 등에 관한 정보가 포함될 수 있다. 물론, 사용자의 행동 패턴을 측정하기 위한 데이터는 도 3에 도시된 예에 한정되지 아니하며, 사용자가 착용 가능한 전자 기기를 사용하는데 있어서 전자 기기의 착용/미착용 반복 횟수, 메뉴 이동 간격 시간 또는 주어진 수행 과제를 잘 수행하는지에 대한 수행능력, 뇌파 등을 포함할 수 있으며, 이외에 사용자의 생체 신호, 음성, 모션, 감정 변화, 움직임 등에 관한 모든 정보를 포함할 수 있다.
한편, 센싱부(110)는 상술한 사용자의 행동 패턴을 측정하기 위한 데이터를 기 설정된 주기로 센싱할 수 있다. 예를 들어, 센싱부(110)에 포함된 PPG 센서는 사용자의 심박수가 1분에 몇 회인지 센싱할 수 있고, 또한, 사용자의 호흡수가 1분에 몇 회인지 센싱할 수 있다. 센싱부(110)에 포함된 가속도 센서는 사용자의 이동 거리가 1시간에 몇 Km를 가는지 센싱할 수 있고, 사용자의 걸음수가 1시간에 몇 회인지 센싱할 수 있으며, 뛰기, 걷기, 앉아 있기와 같이 동작 형태별 지속시간이 1일에 몇 시간인지 센싱할 수도 있다. 또한, 센싱부(110)에 포함된 마이크는 사용자의 목소리 음량이 1일에 평균 몇 dB 인지 센싱할 수 있고, 사용자가 말하는 시간이 1일에 몇 시간인지 센싱할 수 있다. 또한, 센싱부(110)에 포함된 마이크는 사용자의 울음 시간이 1일에 몇 시간인지 센싱할 수 있고, 특정 단어 사용 패턴 횟수가 1일에 몇 회인지 및 대화 끼어들기 횟수가 1일에 몇회인지 등을 센싱할 수 있다.
또한, 센싱부(110)에 포함된 GSR 센서는 사용자의 감정 상태(흥분, 분노) 지속 시간이 1일에 몇 시간 되는지 및 사용자의 감정 상태 변화 횟수가 1일에 몇 회인지 등을 센싱할 수 있다.
또한, 센싱부(110)에 포함된 터치 센서는 사용자가 사용하는 전자 기기의 착용/미착용 반복 횟수가 하루에 몇 회인지 및 메뉴 이동 간격 시간이 1분에 몇 회인지 등을 센싱할 수 있다.
또한, 이러한 센싱부(110)에 의해 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱하는 주기는 사용자의 조작에 따라 변경 가능하다. 그리고, 제어부(130)는 센싱부(110)를 통해 센싱된 값들을 각 기 설정된 주기별로 평균값을 산출할 수 있다. 예를 들어, 센싱부(110)에 포함된 마이크를 통해 1일동안 센싱된 사용자의 목소리 음량에 기초하여 1일동안의 사용자의 평균 목소리 음량을 산출할 수 있다. 그리고, 이렇게 각 기 설정된 주기별로 산출된 평균값을 센싱 대표값으로 사용할 수 있다.
그리고, 제어부(130)는 센싱부(110)를 통해 센싱된 데이터로부터 행동 패턴을 측정할 수 있다. 예를 들어, 센싱부(110)를 통해 사용자의 심박수가 1분에 70회라고 센싱되면 제어부(130)는 이전 심박수에 관한 정보와 현재 센싱된 심박수에 관한 정보에 기초하여 행동을 평가하는데 사용할 수 있다. 이러한 심박수에 관한 행동 패턴은 심박수가 점점 빨라진다, 점점 느려진다, 불규칙하다, 규칙적이다로 표현될 수 있다.
또 다른 예로, 센싱부(110)를 통해 감정 상태 변화 횟수가 1일에 2회라고 센싱되면, 제어부(130)는 이전 감정 상태 변화 횟수에 관한 정보와 현재 센싱된 감정 상태 변화 횟수에 관한 정보에 기초하여 감정 상태 변화 횟수에 관한 행동 패턴을 측정할 수 있다. 이러한 감정 상태 변화 횟수에 관한 행동 패턴은 감정 기복이 심하다, 감정 기복이 심하지 않다 등으로 표현될 수 있다.
또 다른 예로, 센싱부(110)를 통해 뇌파가 센싱되면, 제어부(130)는 이전 뇌파에 관한 정보와 현재 센싱된 뇌파에 관한 정보에 기초하여 뇌파에 관한 행동 패턴을 측정할 수 있다. 구체적으로, 제어부(130)는 뇌파의 진동수가 어떻게 되는지, 뇌파의 형태가 어떻게 변경되는지 등을 통해 뇌파에 관한 행동 패턴을 측정할 수 있다.
한편, 센싱부(110)는 사용자의 행동 개선 항목에 대응되는 데이터를 행동 패턴 측정 시간에 따라 센싱할 수 있다. 도 4를 통해 상세히 설명하기로 한다.
도 4는 본 발명의 다른 실시 예에 따른 제1 전자 장치(100)의 구성을 도시한 블럭도이다.
도 4를 참조하면, 제1 전자 장치(100)는 센싱부(110), 통신부(120), 제어부(130), 입력부(140) 및 저장부(150)를 포함한다. 여기서, 센싱부(110), 통신부(120) 및 제어부(130)에 대해서는 미리 설명하였으므로 상세한 설명은 생략하기로 한다.
제1 전자 장치(100)는 입력부(140)를 더 포함할 수 있는데, 여기서 입력부(140)는 사용자의 행동 개선 항목 및 행동 패턴 측정 시간을 설정하는 사용자 조작을 입력받을 수 있다.
입력부(140)는 터치 패널을 구비한 디스플레이, 물리적인 기능키 등으로 구현될 수 있으며, 사용자는 입력부(140)를 통해 개선하고자 하는 행동 개선 항목과 행동 패턴 측정 시간을 입력할 수 있다. 그리고, 행동 개선 항목과 행동 패턴 측정 시간은 디스플레이 상에서 유저 인터페이스 화면의 GUI, 아이콘 등과 같은 형태로 디스플레이 될 수 있다.
예를 들어, 행동 개선 항목은 수업/공부 중 주의 집중력 항목, 수업/공부 중 졸음 항목, 수업/공부 중 자리에서 과도한 움직임 항목, 특정 비속어/욕설 사용 항목, 지나치게 울음이나 소리를 지르는 항목 등을 포함할 수 있다.
그리고, 행동 패턴 측정 시간은 학교 수업 시간 항목, 자습 시간 항목 등을 포함할 수 있으며, 또는 9시부터 15시와 같이 특정 시간 범위를 설정하는 항목을 포함할 수도 있다. 여기서, 행동 패턴 측정 시간은 모바일이나 서버에 저장된 일정을 바탕으로 자동 또는 수동으로 선택될 수 있다.
이에 따라, 사용자는 원하는 행동 개선 항목을 설정하고 원하는 행동 패턴 측정 시간을 설정할 수 있다.
그리고, 제어부(130)는 설정된 행동 개선 항목과 관련된 행동 패턴을 결정할 수 있다. 예를 들어, 설정된 행동 개선 항목이 수업/공부 중 주의 집중력 항목인 경우, 제어부(130)는 수업/공부 중 주의 집중력 항목과 관련하여 동작 형태(앉아있기)별 지속 시간, 손가락 움직임 횟수, 말하는 시간, 특정 단어사용 패턴 횟수 등의 필요한 행동 패턴을 결정할 수 있다.
그리고, 제어부(130)는 결정된 행동 패턴을 측정하기 위한 데이터를 설정된 행동 패턴 측정 시간에 따라 센싱하도록 센싱부(110)를 제어할 수 있다. 즉, 제어부(130)는 수업/공부 중 주의 집중력 항목과 관련하여 동작 형태(앉아있기)별 지속 시간, 손가락 움직임 횟수, 말하는 시간, 특정 단어사용 패턴 횟수 등의 필요한 행동 패턴을 측정하기 위한 데이터를 학교 수업 시간 동안 센싱하도록 센싱부(110)를 제어할 수 있다.
또한, 제어부(130)는 센싱부(110)를 통해 사용자의 제1 전자 장치(100)의 착용 여부를 감지하고, 사용자가 제1 전자 장치(100)를 착용시에만 센싱부(110)를 활성화시켜 자동적으로 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱하도록 제어할 수도 있다. 여기서, 제어부(130)는 사용자가 제1 전자 장치(100)를 착용하지 않는 경우에도 센싱이 가능한 행동 패턴 예를 들어, 사용자의 모션, 동공 확장, 시선 등을 센싱하도록 센싱부(110)를 제어할 수 있다.
또는, 상술한 바와 같이, 제어부(130)는 입력부(110)를 통해 사용자 조작에 따라 설정된 행동 패턴 측정 시간 및 제외 시간에 기초하여, 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱하도록 센싱부(110)를 제어할 수도 있다.
한편, 센싱부(110)를 통해 센싱된 사용자의 뇌파, 심박수, 호흡수 등에 기초하여 제어부(130)는 사용자의 수면 여부를 판단하고, 사용자가 수면 상태라고 판단된 경우 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱하지 않도록 센싱부(110)를 제어할 수도 있다. 또는 제어부(130)는 사용자가 수면 상태라고 판단된 경우 센싱된 사용자의 행동 패턴을 측정하기 위한 데이터는 추후 사용자의 행동 평가 레벨을 결정하는데 있어서 고려하지 않을 수 있다.
또한, 제어부(130)는 센싱부(110)의 광량 센서, GPS 센서, 가속도 센서 등을 통해 센싱된 데이터를 토대로 현재 사용자가 실내인지 실외인지를 판단하고, 사용자가 실내에 있는 경우에 한하여 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱하도록 센싱부(110)를 제어할 수도 있다. 여기서, 제어부(130)는 Background nnoise 분석, GPS 수신률, WiFi 수신률, 특정 범위 반경 내에서의 움직임 인식 등을 이용하여 사용자가 현재 실내인지 실외인지를 판단할 수도 있다.
한편, 도 5는 본 발명의 일 실시 예에 따른 다양한 센서들을 포함하는 제1 전자 장치(100)를 도시한 도면이다.
도 5를 참조하면, 제1 전자 장치(100)는 스마트 와치로 구현되었으며, 3축 가속도 센서나 GPS 센서(510)는 스마트 와치의 디스플레이 전면부 내에 구비될 수 있고, 마이크(520)는 스마트 와치의 디스플레이의 일 측면에 구비될 수 있으며, EMG 센서(530) 및 피부 온도/피부전도도 센서(550)는 스마트 와치의 밴드에 구비될 수 있다. 또한, PPG 센서(540)는 스마트 와치의 디스플레이 후면부 내에 구비될 수 있다. 도 5에 도시된 다양한 센서들의 배치는 일 예일 뿐이며, 스마트 와치와 밴드 내의 다양한 위치에 배치될 수 있음은 당연하다.
한편, 제어부(130)는 센싱된 데이터에 기초하여 측정된 사용자의 행동 패턴에 기초하여 사용자의 행동 평가 레벨을 결정할 수 있다.
구체적으로, 제어부(130)는 측정된 사용자의 행동 패턴을 기 설정된 항목별로 그룹핑하고, 그룹핑된 사용자의 행동 패턴에 대해 각 항목별로 가중치를 부여하여 평균값을 산출하며, 산출된 평균값에 기초하여 행동 평가 레벨을 결정할 수 있다.
도 3을 참조하면, 심박수, 호흡수, 이동거리, 걸음수, 동작 형태별 지속시간은 활동성 항목(310)으로 그룹핑될 수 있고, 목소리 음량, 말하는 시간, 울음 시간, 특정 단어 사용 패턴 횟수, 대화 끼어들기 횟수는 언어행동 항목(320)으로 그룹핑될 수 있으며, 감정 상태(흥분, 분노) 지속 시간, 감정상태 변화 횟수는 충동성 항목(330)으로 그룹핑될 수 있다.
또한, 도 3에 도시되지는 않았으나, 전자 기기의 착용 미착용 반복 횟수, 메뉴 이동 간격 시간은 기기조작 패턴 항목으로 그룹핑될 수 있고, Neurofeedback, cognitive trainig 등과 같은 훈련 실시 중 수행 능력은 훈련 수행 능력 항목으로 그룹핑될 수 있으며, HMD를 이용하여 측정된 뇌파, 일상 생활 중 또는 기기 이용 훈련 중 측정된 뇌파, Bete/theta 파의 변화, 주의집중력 뇌파 지표 변화 등은 뇌파 변화 항목으로 그룹핑될 수 있다.
다만, 도 3에 도시된 그룹핑 항목과 상술한 예는 일 예일 뿐이며, 목소리 음량, 울음 시간 등이 충동성 항목(330)으로 중복적으로 그룹핑될 수 있음은 당연하다.
한편, 도 6은 본 발명의 일 실시 예에 따른 행동 평가 레벨 결정 과정을 나타낸 도면이다.
도 6을 참조하면, 제어부(130)는 활동성(310), 언어행동(320), 충동성(330) 각 항목별 세부 측정값이 로딩되면(610), 사용자의 나이 정보를 로딩하고(620), 사용자의 나이 정보와 관련하여 나이대별 각 항목의 평균/표준편차를 로딩할 수 있다(630).
그리고, 제어부(130)는 각 항목별 세부 측정값을 정규화할 수 있다(640). 구체적으로, 하기의 수학식 1을 통해 각 항목별 세부 측정값을 정규화할 수 있다.
Figure pat00001
즉, 제어부(130)는 수학식 1을 사용하여 각 항목별 세부 측정값과 나이대별 각 항목의 평균 및 표준편차를 사용하여 각 항목별 세부 측정값을 정규화할 수 있다.
그리고, 제어부(130)는 정규화된 각 항목별 세부 측정값에 대해 각 항목별로 가중치를 부여하여 평균값을 계산할 수 있다(650). 여기서, 제어부(130)는 사용자의 행동 개선 항목에 기초하여 각 항목별로 가중치를 상이하게 부여할 수 있다. 예를 들어, 제어부(130)는 행동 개선 항목이 수업/공부 중 졸음 항목인 경우 활동성 항목(310)에 상대적으로 높은 가중치를 부여할 수 있다. 또한, 제어부(130)는 행동 개선 항목이 특정 비속어/욕설 사용인 경우 언어행동 항목(320)에 상대적으로 높은 가중치를 부여할 수 있다. 특히, 제어부(130)는 하기의 수학식 2와 같이 각 항목별 세부 측정값에 대해 가중치를 부여할 수 있다.
Figure pat00002
여기서, 수학식 2는 활동성 항목(310)에 대해 가중치를 부여하는 수식을 나타내고 있으나, 언어행동 항목(320) 및 충동성 항목(330)에도 동일하게 적용가능하다. 구체적으로, 제어부(130)는 활동성 항목(310)에 해당되는 심박수에 관한 행동 패턴이 정규화된 수치(Tk)에 가중치(Wk)를 부여하고 행동 패턴 측정 시간 동안 합산하여 활동성 항목(301)의 세부 측정값에 대한 평균값을 산출할 수 있다.
그리고, 제어부(130)는 하기의 수학식 3을 통해 활동성 항목(310), 언어행동 항목(320) 및 충동성 항목(330)별로 산출된 세부 측정값의 평균값을 모두 합산하여 전체 항목에 대한 평균값을 계산할 수 있다(660).
Figure pat00003
전체 항목에 대한 평균값을 계산하는 경우에도 각 항목별로 가중치를 상이하게 부여하여 합산함으로써 평균값을 계산할 수 있다.
그리고, 제어부(130)는 이렇게 계산된 전체 항목에 대한 평균값에 기초하여 사용자의 행동 평가 레벨을 결정할 수 있다. 구체적으로, 제어부(130)는 산출된 전체 항목에 대한 평균값과 기 설정된 기준 값을 비교하고 편차에 따라 행동 평가 레벨을 결정할 수 있다.
예를 들어, 제어부(130)는 로딩받은 나이대별 각 항목의 평균/표준 편차를 기초로 기준값을 설정할 수 있고, 이러한 기준값을 행동 평가 레벨이 보통 단계인 것으로 결정할 수 있다. 그리고, 46이상 50이하의 수치를 갖는 기준값의 행동 평가 레벨이 보통인 단계로 결정된 경우, 제어부(130)는 전체 항목에 대한 평균값이 40 이하인 경우 행동 평가 레벨이 매우 양호하다고 결정할 수 있고, 전체 항목에 대한 평균값이 41 이상 45이하인 경우 행동 평가 레벨이 양호하다고 결정할 수 있으며, 전체 항목에 대한 평균값이 46 이상 50이하인 경우 행동 평가 레벨이 보통이라고 결정할 수 있다. 또한, 제어부(130)는 전체 항목에 대한 평균값이 51 이상 55이하인 경우 행동 평가 레벨이 나쁘다라고 결정할 수 있고, 전체 항목에 대한 평균값이 56이상의 경우 심각하다고 결정할 수 있다. 일례를 정리하면 다음의 표1과 같다:
전체 항목 평균 값 40이하 41~45 46~50 51~55 56이상
행동 평가 레벨 매우 양호 양호 보통 나쁨 심각
한편, 도 4를 참조하면, 제1 전자 장치(100)는 사용자의 행동 패턴 이력 정보를 저장하는 저장부(150)를 더 포함할 수 있다.
여기서, 제어부(130)는 측정된 사용자의 행동 패턴과 사용자의 행동 패턴 이력 정보 간의 유사도를 측정하여 행동 평가 레벨을 결정할 수 있다.
즉, 도 6과 같이, 측정된 사용자의 행동 패턴을 수식화하여 수치화하기 어려운 경우에는 일정 기간 동안 수집된 사용자의 행동 패턴을 모델링하여 사용자의 행동 패턴 이력 정보를 저장할 수 있고, 제어부(130)는 이렇게 저장된 사용자의 행동 패턴 이력 정보와 측정된 사용자의 행동 패턴을 패턴 매칭을 통해 행동 평가 레벨을 결정할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 패턴 매칭에 따라 행동 평가 레벨을 결정하는 것을 나타낸 도면이다.
도 7을 참조하면, 사용자의 행동 패턴 이력 정보가 활동성 지표, 충동성 지표 및 언어행동 지표가 x, y, z 축에 매핑된 좌표계에 표시될 수 있음을 알 수 있다. 즉, 활동성 지표, 충동성 지표 및 언어행동 지표가 x, y, z 축에 매핑된 좌표계에서 사용자의 행동 패턴 이력 정보는 제1 영역(710)에 분포되어 있음을 알 수 있다.
그리고, 측정된 사용자의 행동 패턴이 좌표계 상에서 제2 영역(720)에 위치하는 경우, 제어부(130)는 측정된 사용자의 행동 패턴과 행동 패턴 이력 정보를 비교하여 활동성 항목은 행동 패턴 이력 정보가 배치된 제1 영역(710)보다 높은 쪽으로 많이 벗어나 있고, 충동성 항목과 언어행동 항목은 행동 패턴 이력 정보가 배치된 제1 영역(710) 내에 위치하고 있음을 판단하여, 사용자의 행동 평가 레벨이 나쁘다고 결정할 수 있다.
한편, 행동 패턴 이력 정보는 복수의 사용자로부터 일정 기간 동안 수집된 것일 수도 있으며, 이는 연령별, 지역별, 국가별 등으로 분류되어 저장될 수 있다. 이에 따라, 제어부(130)는 각 연령별, 지역별, 국가별 등의 다양한 사용자의 행동 패턴 이력 정보와 현재 측정된 사용자의 행동 패턴을 비교하여 사용자의 행동 평가 레벨을 결정할 수도 있다.
또한, 도 7에서는 활동성 지표, 충동성 지표 및 언어행동 지표상에서 측정된 사용자의 행동 패턴과 행동 패턴 이력 정보가 표시되었으나, 심박수, 호흡수 등과 같은 행동 패턴을 측정하기 위한 데이터 단위로 표시될 수도 있다.
그리고, 제어부(130)는 결정된 행동 평가 레벨에 따른 피드백을 제공할 수 있다. 구체적으로, 제어부(130)는 결정된 행동 평가 레벨에 따라 손목 조임, 진동 등과 같은 피드백을 줄 수도 있고, 음향 신호 또는 영상 신호를 사용하여 피드백을 줄 수도 있다.
예를 들어, 제어부(130)는 결정된 행동 평가 레벨이 나쁜 경우 손목을 조이거나 "이러면 안돼요"와 같은 경고성 멘트를 출력할 수도 있고, 성난 얼굴이 그려진 GUI 등을 디스플레이할 수 있다.
또한, 제어부(130)는 결정된 행동 평가 레벨이 양호한 경우, "짝짝 잘하고 있어요"와 같은 긍정적인 멘트를 출력하거나 웃는 얼굴이 그려진 GUI를 디스플레이할 수 있으며, 게임 어플리케이션 상에서 점수가 추가되는 피드백을 제공할 수도 있다.
한편, 제어부(130)가 결정된 행동 평가 레벨에 따라 손목 조임 피드백을 제공하는 과정을 도 8을 통해 상세히 설명하기로 한다.
도 8은 본 발명의 일 실시 예에 따른 손목 조임 피드백을 제공하는 과정을 설명하는 타이밍도이다.
도 8을 참조하면, 제어부(130)는 활동성 항목(310), 언어 행동 항목(320), 충동성 항목(330)의 평균값을 실시간으로 측정하고(810), 전체 항목에 대한 평균값이 50 이상이면 행동 평가 레벨이 나쁘다라고 판단하고, 전체 항목에 대한 평균값이 50 이하이면 행동 평가 레벨이 나쁘지 않다라고 판단한다(820).
그리고, 행동 평가 레벨이 나쁘다라고 판단된 경우, 제어부(130)는 스마트 와치의 밴드 내부 압력 값을 증가시키도록 구동부(미도시)를 제어하고(830), 저항값이 기준치를 넘는지 여부를 판단한다(840). 저항값이 기준치를 넘지 않는다면 제어부(130)는 계속적으로 스마트 와치의 밴드 내부 압력 값을 증가시키도록 구동부(미도시)를 제어하고, 저항값이 기준치를 넘는다면 제어부(130)는 스마트 와치의 밴드 내부 압력 값을 2초 동안 유지한 후 밴드 내부의 압력 값을 0으로 변환(860)하여, 손목 조임을 해제할 수 있다.
또한, 행동 평가 레벨이 나쁘지 않다라고 판단된 경우, 제어부(130)는 스마트 와치의 밴드 내부 압력 값을 0으로 유지한다(870).
또한, 도 8에서는 도시하지 않았으나, 결정된 행동 평가 레벨의 레벨에 따라 제어부(130)는 스마트 와치의 밴드 내부 압력 값을 상이하게 증가시킬 수도 있다. 예를 들어, 행동 평가 레벨이 나쁘다고 판단된 경우, 제어부(130)는 스마트 와치의 밴드 내부 압력 값을 5로 증가시키도록 구동부(미도시)를 제어할 수 있고, 행동 평가 레벨이 심각하다고 판단된 경우, 제어부(130)는 스마트 와치의 밴드 내부 압력 값을 10으로 증가시키도록 구동부(미도시)를 제어할 수 있다.
한편, 도 9 및 도 10은 본 발명의 일 실시 예에 따라 손목 조임 피드백 효과를 구현하기 위한 물리적인 구성을 도시한 도면이다.
도 9를 참조하면, 압력 센서(910)를 사용하여 스마트 와치의 밴드 내부의 공기압을 조절함으로써, 손목 조임 효과가 구현될 수 있음을 알 수 있다.
또한, 도 10을 참조하면, 자성체(1010)를 사용한 자기적 특성을 이용하여 손목 조임 효과가 구현될 수 있음을 알 수 있다. 이러한 도 9 및 도 10의 구현 예를 통해 제어부(130)는 결정된 행동 평가 레벨에 따라 상이하게 공기압을 조절하거나 자기력을 조정하여 사용자에게 직접적인 손목 조임 효과를 제공할 수 있으며, 이러한 손목 조임 효과는 다른 제3 자에게 알리지 않고 사용자에게만 피드백을 제공함으로써 사용자가 스스로 피드백을 통해 행동을 개선할 수 있도록 하는 효과가 있다.
도 8 내지 도 10에서는 제어부(130)가 결정된 행동 평가 레벨에 따라 사용자에게 직접적인 피드백을 제공하는 실시 예를 설명하였다. 한편, 제어부(130)는 제2 전자 장치와 연동하여 사용자에게 피드백을 제공할 수도 있다.
구체적으로, 제어부(130)는 제2 전자 장치가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 하는 제어 정보를 제2 전자 장치로 전송할 수 있다. 여기서, 사용 환경이라 함은 제2 전자 장치 각각에 대해 설정되는 사용 가능 시간 및 사용 가능한 컨텐츠를 의미한다.
특히, 제어부(130)는 결정된 행동 평가 레벨에 대응되는 제어 정보를 생성할 수 있다. 이와 관련하여, 제1 전자 장치(100)의 저장부(150)는 제어 정보 생성에 필요한 데이터를 포함할 수 있다.
구체적으로, 제어 정보 생성에 필요한 데이터는 제2 전자 장치의 종류, 행동 평가 레벨에 따른 제2 전자 장치의 사용 가능 시간, 행동 평가 레벨에 따른 제2 전자 장치에서 재생이 허용 가능한 컨텐츠의 종류, 제2 전자 장치를 제어하기 위한 제어 정보 및 제2 전자 장치에 대한 사용자의 로그인 정보 중 적어도 하나를 포함할 수 있으며, 이러한 데이터는 룩업 테이블로 데이터 베이스화 되어 저장부(150)에 저장될 수 있다. 이에 따라, 제어부(130)는 행동 평가 레벨 및 제1 전자 장치(100)와 페어링이 수행되어 통신 세션이 연결되거나 사용자 인증이 수행된 제2 전자 장치의 종류가 결정되면, 이에 기초하여 룩업 테이블로부터 행동 평가 레벨에 따른 제2 전자 장치의 사용 가능 시간, 행동 평가 레벨에 따른 제2 전자 장치에서 재생이 허용 가능한 컨텐츠의 종류 및 제2 전자 장치를 제어하기 위한 제어 정보 등을 선택하여, 제2 전자 장치의 종류, 행동 평가 레벨에 따른 제2 전자 장치의 사용 가능 시간, 행동 평가 레벨에 따른 제2 전자 장치에서 재생이 허용 가능한 컨텐츠의 종류, 제2 전자 장치를 제어하기 위한 제어 정보 및 제2 전자 장치에 대한 사용자의 로그인 정보 등에 관한 구체적인 값을 포함하는 제어 정보를 생성할 수 있다.
물론, 제어부(130)는 저장부(150)에 저장된 룩업 테이블을 사용하지 않고, 사용자의 행동 평가 레벨과 제2 전자 장치의 종류가 결정되면 기 설정된 연산 방법을 통해 결정된 행동 평가 레벨에 따른 제2 전자 장치의 사용 가능 시간, 재생 가능한 컨텐츠의 종류, 제어 정보 등을 결정할 수 있다.
예를 들어, 제어부(130)는 제2 전자 장치의 종류가 TV로 결정되면, 사용자의 행동 평가 레벨(심각, 나쁨, 보통, 양호, 매우 양호)에 대응하여 기 설정된 연산 방법을 통해 TV의 사용 가능 시간(0분, 최소 설정 시간, 최소 설정 시간+0.5*(최대 설정 시간-최소 설정 시간), 최소 설정 시간+0.8*(최대 설정 시간-최소 설정 시간), 최대 설정 시간)을 산출할 수 있다.
또한, 제어부(130)는 사용자의 행동 평가 레벨(심각, 나쁨, 보통, 양호, 매우 양호)에 대응하여 기 설정된 연산 방법을 통해 재생 가능한 컨텐츠의 종류(허용 불가, 최소 허용 채널, 채널 허용 50프로, 채널 허용 80프로, 최대 허용 채널)를 산출할 수 있다.
이와 같이, 제어부(130)는 기 저장된 데이터 베이스를 통해 제어 정보를 생성할 수도 있고, 기 설정된 연산 방법을 통해 제어 정보를 생성할 수도 있으며, 이외에 모든 가능한 방식을 동원하여 제어 정보를 생성할 수 있음은 당연하다. 물론, 사용자 또는 제3 자가 제어 정보를 구성하는 제2 전자 장치의 사용 가능 시간 항목, 재생 가능한 컨텐츠 항목 등을 직접 설정하는 것도 가능하다. 하기에서는 제어 정보의 다양한 예를 들어 설명하기로 한다.
즉, 제어 정보는 제2 전자 장치 각각에 대한 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 사용 가능 시간 정보 및 사용 가능 컨텐츠 정보에 따라 제2 전자 장치가 동작하도록 하는 제어 명령 중 적어도 하나를 포함할 수 있다. 또한, 제2 전자 장치에 대한 사용 가능 시간 정보 및 제2 전자 장치에서 사용 가능한 컨텐츠 정보는 결정된 행동 평가 레벨에 따라 변경 가능할 수 있다. 즉, 결정된 행동 평가 레벨 레벨에 따라 제2 전자 장치의 사용 가능 시간의 범위가 늘어나거나 줄어들 수 있고, 제2 전자 장치에서 사용 가능한 컨텐츠의 종류가 늘어나거나 제한될 수 있다.
예를 들어, 제어부(130)는 결정된 행동 평가 레벨에 따라 사용자가 하루에 TV는 60분 시청 가능하게 하는 제어 정보를 TV로 전송할 수 있다. 여기서, 제어 정보는, TV가 동작 가능하도록 설정된 60분 및 설정된 60분에 따라 TV가 동작하도록 하는 제어 명령 즉, 실행어 또는 명령어 등을 포함할 수 있다.
이러한 제어 정보는 하기 표2와 같이 데이터가 저장된 테이블의 형태로 구현될 수 있다.
장치 사용가능시간 컨텐츠 제어 명령
TV 60분 - 동작 실행 및 동작 종료
또한, 제어부(130)는 결정된 행동 평가 레벨에 따라 사용자가 하루에 HMD 장치는 70분 사용 가능하도록 하는 제어 정보를 HMD 장치로 전송할 수 있다. 마찬가지로, 여기서, 제어 정보는, HMD 장치가 동작 가능하도록 설정된 70분 및 설정된 70분에 따라 HMD 장치가 동작하도록 하는 제어 명령 즉, 실행어 또는 명령어 등을 포함할 수 있다.
이러한 제어 정보는 상술한 바와 같이 하기 표3과 같은 데이터가 저장된 테이블의 형태로 구현될 수 있다.
장치 사용가능시간 컨텐츠 제어 명령
HMD 장치 70분 - 동작 실행 및 동작 종료
또한, 제어부(130)는 사용자가 TV를 통해 채널 00번에서 출력되는 교육 방송만 시청 가능하도록 하는 제어 정보를 TV로 전송할 수도 있다. 여기서, 제어 정보는, TV가 동작 가능하도록 설정된 70분 및 설정된 70분에 따라 TV가 동작하도록 하는 제어 명령 및 TV가 제공 가능한 컨텐츠는 교육 방송으로 한정되는 정보 및 TV가 교육 방송만을 제공하도록 동작 가능하게 하는 제어 명령 즉, 실행어 또는 명령어 등을 포함할 수 있다.
마찬가지로, 제어 정보는 하기 표4와 같은 데이터가 저장된 테이블의 형태로 구현될 수 있다.
장치 사용가능시간 컨텐츠 제어 명령
TV 70분 채널 00번에서 출력되는 교육방송 동작 실행 및 동작 종료
또한, 복수의 제2 전자 장치에 대한 제어 정보의 예로, 사용자가 이전에는 하루에 130분 동안 TV를 60분 시청하고 HMD 장치는 70분 동안 사용한 경우, 제어부(130)는 결정된 행동 평가 레벨에 따라 사용자가 하루에 130분 동안 TV는 80분 신청하고 HMD 장치는 50분 동안 사용하도록 하는 제어 정보를 TV 및 HMD 장치로 전송할 수 있다. 여기서, 제어 정보는, TV가 동작 가능하도록 설정된 시간은 80분이고 HMD 장치가 동작 가능하도록 설정된 시간은 50분이며, TV 장치 및 HMD 장치가 각각 설정된 80분 및 50분에 따라 동작하도록 하는 제어 명령 즉, 실행어 또는 명령어를 포함할 수 있다.
마찬가지로, 제어 정보는 하기 표 5와 같은 데이터가 저장된 테이블의 형태로 구현될 수 있다.
장치 사용가능시간 컨텐츠 제어 명령
TV 80분 - 동작 실행 및 동작 종료
HMD 장치 50분 - 동작 실행 및 동작 종료
또한, 제어부(130)는 결정된 행동 평가 레벨이 매우 양호하다고 결정된 경우, 사용자가 TV 장치에서 100분 동안 게임을 할 수 있도록 하는 제어 정보를 TV 장치로 전송할 수 있고, 제어부(130)는 결정된 행동 평가 레벨이 양호하다고 결정된 경우, 사용자가 TV 장치를 통해 50분 동안 만화를 시청하고 50분 동안 게임을 할 수 있도록 하는 제어 정보를 TV 장치로 전송할 수 있다. 또한, 제어부(130)는 결정된 행동 평가 레벨이 보통이라고 결정된 경우, 사용자가 TV 장치를 통해 50분 동안 만화를 시청하고 50분 동안 교육 방송을 시청하도록 하는 제어 정보를 TV 장치로 전송할 수 있다. 또한, 제어부(130)는 결정된 행동 평가 레벨이 나쁘다고 결정된 경우, 사용자가 TV 장치를 통해 100분 동안 교육 방송만을 시청하도록 하는 제어 정보를 TV 장치로 전송할 수 있고, 제어부(130)는 결정된 행동 평가 레벨이 심각하다고 결정된 경우, 사용자가 TV 장치를 시청하지 못하도록 하는 제어 정보를 TV 장치로 전송할 수도 있다.
이와 같이, 제어부(130)는 결정된 행동 평가 레벨에 따라 하나의 제2 전자 장치 또는 복수의 제2 전자 장치에 대해 상이하게 설정된 사용 환경에서 동작하도록 하는 제어 정보를 적어도 하나의 제2 전자 장치로 전송할 수 있다.
또한, 상술한 예에서는 제어 정보가 제2 전자 장치 각각에 대한 사용 가능 시간 정보 및 사용 가능 컨텐츠 정보를 포함하는 것으로 설명하였으나, 이에 한정되지 않으며, 제2 전자 장치에서 수행 가능한 기능 제한에 관한 정보 등도 포함할 수 있으며 이외 다양한 사용 환경에 대한 정보를 포함할 수 있다.
도 11은 본 발명의 일 실시 예에 따른 제어 정보에 포함되는 사용 환경의 다양한 예를 도시한 도면이다.
도 11을 참조하면, 일 예로 스마트 폰/태블릿(게임기), HMD, PC및 TV에 관한 사용 환경이 행동 평가 레벨에 따라 다르게 결정될 수 있음을 알 수 있다. 구체적으로, 결정된 행동 평가 레벨과 스마트 폰/태블릿(게임기)에 대응되는 제어 정보에 따라 제한되는 항목의 적용 가능성이 달라지게 된다. 예를 들어, 행동 평가 레벨이 양호하거나 매우 양호하여 Reward가 필요한 경우 로그인 허용 항목, 컨텐츠 종류 확대 항목, 사용 시간 증가 항목, 사이버 머니 증가 항목 및 데이터 용량 증가 항목 등이 스마트 폰/태블릿(게임기)에 적용될 수 있다. 또한, 행동 평가 레벨이 나쁘거나 심각하여 Punishment가 필요한 경우 로그인 불가 항목, 컨텐츠 종류 제한 항목, 사용 시간 감소 항목, 사이버 머니 감소 항목 및 데이터 용량 감소 항목 등이 스마트 폰/태블릿(게임기)에 적용될 수 있다.
이러한 제한 항목에 따라 스마트 폰/태블릿(게임기)에 적용되는 구체적인 사용 환경은 행동 평가 레벨의 레벨에 따라 달라진다.
예를 들어, 행동 평가 레벨이 심각한 경우 스마트 폰/태블릿(게임기)이 통화 기능 또는 문자 송수신 기능 등과 같은 기본적인 기능만 제공하도록 하는 사용 환경이 스마트 폰/태블릿(게임기)에 설정될 수 있고, 행동 평가 레벨이 나쁜 경우 스마트 폰/태블릿(게임기)은 지정 훈련 컨텐츠를 제공하면서 컨텐츠 간의 이동을 제한하여 사용자가 지정된 훈련 컨텐츠만 시청하도록 하고, 사용자가 인터넷 브라우저 앱을 20분 동안 사용하도록 하고, 음악 앱을 1 시간 동안 사용하도록 하는 사용 환경이 스마트 폰/태블릿(게임기)에 설정될 수 있다.
또한, 행동 평가 레벨이 보통인 경우 스마트 폰/태블릿(게임기)이 훈련 컨텐츠 옵션을 제공하여 사용자가 선택할 수 있도록 하고, 사용자가 인터넷 브라우저 앱을 40분 동안 사용하도록 하고, 음악 앱을 2 시간 동안 사용하도록 하며, SNS 앱을 20분 동안 사용하도록 하고, 위시리스트에 포함된 앱 1개를 1 시간 동안 사용하도록 하는 사용 환경이 스마트 폰/태블릿(게임기)에 설정될 수 있다.
그리고, 행동 평가 레벨이 양호한 경우 스마트 폰/태블릿(게임기)이 사용자가 5 시간 동안 컨텐츠나 앱의 종류 제한 없이 사용하도록 하고, 사이버 머니를 15000원 지급하는 사용 환경이 스마트 폰/태블릿(게임기)에 설정될 수 있다.
또한, 행동 평가 레벨이 매우 양호한 경우 스마트 폰/태블릿(게임기)이 사용자가 아무 제한 없이 사용하도록 하고, 사이버 머니를 20000원 지급하는 사용 환경이 스마트 폰/태블릿(게임기)에 설정될 수 있다.
상술한 바와 같이, 행동 평가 레벨에 따라 제2 전자 장치의 사용 시간, 컨텐츠의 종류, 앱의 종류, 사이버 머니의 액수 등을 구별하여 제한하는 사용 환경이 제2 전자 장치에 설정될 수 있다. 마찬가지로, HMD 장치, PC/노트북, TV에도 행동 평가 레벨에 따라 사용 시간, 컨텐츠의 종류, 앱의 종류, 사이버 머니의 액수 등을 구별하여 제한하는 사용 환경이 제2 전자 장치에 설정될 수 있으며, 도 11에 도시되어 있음을 알 수 있다.
또한, 도 11에 도시된 각 제2 전자 장치 별로 행동 평가 레벨에 따라 설정되는 사용 환경은 제어 정보에 포함될 수 있으며, 제어부(130)가 이러한 제어 정보를 제2 전자 장치에 전송하면 제2 전자 장치는 도 11과 같이 설정된 사용 환경에서 동작할 수 있다.
또한, 제어부(130)는 제1 전자 장치(100)의 사용자가 제2 전자 장치에 대해 사용자 인증을 수행하면 제어 정보를 제2 전자 장치로 전송할 수 있다. 구체적으로, 제어부(130)는 제1 전자 장치(100)의 사용자가 제2 전자 장치에 대해 사용자 인증을 수행하고 난 후, 사용자 인증이 수행된 제2 전자 장치가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 하는 제어 정보를 사용자 인증이 수행된 제2 전자 장치로 전송할 수 있다.
여기서, 사용자 인증이란, 제1 전자 장치(100)를 착용한 사용자가 전자 장치를 사용하기 위해 전자 장치에 대해 사용자 본인임을 확인시키는 과정을 의미한다. 전자 장치에 대해 사용자 본인임을 확인시키는 다양한 실시 예에 대해서는 후술하기로 한다.
그리고, 제2 전자 장치는 사용자 인증이 수행된 후, 인증된 사용자의 행동 평가 레벨에 따라 결정된 사용 환경을 설정하기 위한 제어 정보를 수신하고, 인증된 사용자에 대해 제어 정보에 따른 사용 환경에서 동작할 수 있다.
한편, 사용자는 제2 전자 장치에 대해 사용자 인증을 수행하고자 하는 경우, 착용하고 있는 제1 전자 장치(100)를 사용하여 사용자 인증을 수행할 수 있다. 구체적으로, 제1 전자 장치(100)와 제2 전자 장치 간에 근거리 무선 통신 방식(Bluetooth, WiFi, NFC, 적외선 통신 등)을 통해 통신을 수행하여 사용자 인증이 수행될 수 있다. 예를 들어, 제1 전자 장치(100)가 근거리 무선 통신 방식을 통해 암호화된 정보를 제2 전자 장치로 전송하면, 제2 전자 장치는 암호화된 정보를 처리하고 저장된 정보와 비교하여 일치하면 사용자 인증을 수행할 수 있다.
또는, 사용자는 제2 전자 장치에 대해 사용자 인증을 수행하고자 하는 경우, 지문 인식, 홍채 인식, 얼굴 인식, Finger ECG 센서 등을 통해 검출된 심전도 인식, 마이크 등을 이용한 고유의 목소리 인식, 가속도 센서나 카메라 등을 이용하여 검출된 개인별 보행 유형(gait pattern) 인식 등을 사용하여 사용자 인증을 수행할 수도 있다. 예를 들어, 사용자는 스마트 폰에 대해 지문 인식을 통해 사용자 인증을 수행할 수 있고, TV에 설치된 카메라를 통해 얼굴 인식을 수행하여 사용자 인증을 수행할 수도 있다. 또한, 사용자는 VR 장치에 대해 홍채 인식을 통해 사용자 인증을 수행할 수 있다.
또한, 사용자는 제2 전자 장치 자체에 대해 사용자 인증을 수행하지 않고, 리모컨에 구비된 지문 인식 센서를 통해 지문 인식을 수행하여 TV에 대해 사용자 인식을 수행할 수도 있고, 리모컨에 구비된 카메라를 통해 얼굴 인식을 수행하여 TV에 대해 사용자 인식을 수행할 수도 있다.
한편, 사용자 인증을 수행하는 과정 없이, 제1 전자 장치(100)가 제어 정보를 제2 전자 장치로 전송하는 경우도 상정해볼 수 있다. 즉, 제어부(130)는 반드시 제1 전자 장치(100)의 사용자가 제2 전자 장치에 대해 사용자 인증을 수행해야만 제어 정보를 제2 전자 장치로 전송할 수도 있으나, 제1 전자 장치(100)의 사용자가 제2 전자 장치에 대해 사용자 인증을 수행하지 않고 제1 전자 장치(100)가 제2 전자 장치로부터 기 설정된 범위 내에 진입하게 되면 자동적으로 제어 정보를 제2 전자 장치로 전송할 수도 있다.
예를 들어, 제1 전자 장치(100)를 소지한 사용자가 제2 전자 장치로부터 기 설정된 범위 내에 진입하게 되면, 제1 전자 장치(100)는 무선 통신 방식 또는 센서부(110)를 통해 제2 전자 장치를 감지할 수 있고, 이에 따라 제어부(130)는 감지된 제2 전자 장치에 대응되는 제어 정보를 감지된 제2 전자 장치로 전송할 수 있다. 이에 따라, 제1 전자 장치(100)를 소지한 사용자가 제2 전자 장치에 대해 사용자 인증을 수행하지 않아도 제2 전자 장치는 제1 전자 장치(100)로부터 수신된 제어 정보에 기초하여 동작할 수 있게 된다.
특히, 제어부(130)는 제2 전자 장치가 감지되면 감지된 제2 전자 장치와 페어링을 수행하여 통신 세션을 연결할 수 있다. 여기서, 제1 전자 장치(100)와 제2 전자 장치 간의 통신 연결 동작을 페어링이라고 정의하기로 하며, 이러한 페어링은 WiFi, WiFi Direct, Bluetooth 방식 등을 통해 수행될 수 있다. 그리고, 제어부(130)제2 전자 장치와의 페어링을 수행함으로써, 외부 장치와 원활하게 통신을 수행하기 위한 통신 세션을 연결할 수 있다. 그리고, 제어부(130)는 생성된 제어 정보를 제2 전자 장치로 전송할 수 있다.
여기서, 제어부(130)는 감지된 모든 제2 전자 장치와 페어링을 수행하여 통신 세션을 연결할 수도 있으나, 감지된 제2 전자 장치 중에서 제1 전자 장치(100)에 대해 제어 정보를 요청하는 제2 전자 장치와만 페어링을 수행하여 통신 세션을 연결할 수도 있다
한편, 제어부(130)는 결정된 행동 평가 레벨에 따라, 사용자에게 관한 영상이 제1 전자 장치(100)와 페어링된 제2 전자 장치를 통해 디스플레이 되도록 하는 제어 신호를 제1 전자 장치(100)와 페어링된 제2 전자 장치로 전송할 수 있다.
구체적으로, 제어부(130)는 결정된 행동 평가 레벨이 나쁘거나 심각하다고 결정된 경우, 사용자에 관한 영상을 녹화 또는 녹취하여 저장부(150)에 저장할 수도 있고, 사용자에 관한 영상에 관한 정보를 페어링된 제2 전자 장치로 전송하고 페어링된 제2 전자 장치를 통해 사용자에 관한 영상이 디스플레이 되도록 하는 제어 신호를 페어링된 제2 전자 장치로 전송할 수 있다.
이에 따라, 제3자는 제1 전자 장치(100)의 저장부(150)에 저장된 사용자에 관한 영상을 재생하여 모니터링을 할 수 있고, 또는 제1 전자 장치(100)로부터 실시간으로 전송되는 사용자에 관한 영상을 제2 전자 장치를 통해 시청함으로써, 모니터링을 할 수 있다.
또한, 제어부(130)는 제1 전자 장치(100)로부터 기설정된 범위 내에 제2 전자 장치가 존재할 경우 제1 전자 장치(100)와 제2 전자 장치는 자동적으로 페어링됨으로써 자동적으로 사용자에 관한 영상이 제2 전자 장치를 통해 디스플레이 되도록 하는 제어 신호를 제2 전자 장치로 전송할 수도 있다.
또한, 제어부(130)는 사용자에 관한 영상에 관한 정보를 다른 제2 전자 장치로 전송하여 제2 전자 장치 내에 저장하도록 할 수도 있고, 서버에 전송하여 서버 내에 저장하도록 할 수도 있다.
한편, 도 1 내지 도 11에서는 제1 전자 장치(100)가 행동 개선 항목이 설정되면 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱하고 사용자의 행동 패턴을 측정하며, 측정된 행동 패턴에 기초하여 행동 평가 레벨을 결정하고, 결정된 행동 평가 레벨에 따라 사용자에게 피드백을 제공하거나 외부기기와 연동하여 서비스를 제공하거나 행동 개선 정도 모니터링 서비스를 제공하였다. 그러나, 측정된 행동 패턴에 기초하여 행동 평가 레벨을 결정하고, 결정된 행동 평가 레벨에 따라 제2 전자 장치와 연동하여 서비스를 제공하거나 행동 개선 정도 모니터링 서비스를 제공하는 기능은 서버에서도 수행될 수 있다. 즉, 제1 전자 장치(100)와 서버가 연동하여 사용자의 행동 패턴을 측정하고 행동 평가 레벨을 결정하며 사용자에게 피드백을 제공하거나 제2 전자 장치와 연동하여 서비스를 제공하거나 행동 개선 정도 모니터링 서비스를 제공할 수 있다. 또한, 제1 전자 장치(100)는 사용자의 행동 패턴을 측정하기 위한 데이터, 측정된 사용자의 행동 패턴, 결정된 사용자의 행동 평가 레벨, 제2 전자 장치가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 하는 제어 정보에 관한 모든 정보들을 서버로 전송하여 저장하도록 할 수 있다.
도 12a는 본 발명의 일 실시 예에 따른 서버의 구성을 도시한 블록도이다.
도 12a를 참조하면, 서버(1220)는 통신부(1221) 및 제어부(1222)를 포함한다. 여기서, 서버(1220)는 사전적 의미로 서버 프로그램이 실행되고 있는 컴퓨터 하드웨어를 의미한다. 본 발명의 일 실시 예에 따른 서버(1220)는 상술한 전자 장치에서 수행되는 획득된 생체 신호에 기초하여 사용자의 행동 평가 레벨을 결정하고, 행동 평가 레벨에 대응되는 제어 정보를 생성하며, 제2 전자 장치와 페어링을 수행하여 통신 세션을 연결하고 제어 정보를 제2 전자 장치로 전송하는 과정을 수행할 수 있다.
구체적으로, 통신부(1221)는 제1 전자 장치 및 제2 전자 장치와 통신을 수행할 수 있다. 제1 전자 장치 및 제2 전자 장치 각각은 상술한 전자 장치(100)와 외부 전자 장치에 대응될 수 있으며, 각각의 제1 전자 장치 및 제2 전자 장치는 서버(1220)의 통신부(1221)와 WiFi 또는 AP(Access Point)를 통해 페어링을 수행하여 통신 세션을 연결할 수 있다.
그리고, 제어부(1222)는 제1 전자 장치로부터 수신된 생체 신호에 기초하여 사용자의 행동 평가 레벨을 결정하고, 제1 전자 장치 및 제2 전자 장치 중 적어도 하나로부터 제1 전자 장치와 페어링된 제2 전자 장치 정보가 수신되면, 행동 평가 레벨 및 수신된 제2 전자 장치 정보와 대응되는 제어 정보를 결정하고, 결정된 제어 정보를 제2 전자 장치로 전송하도록 제어할 수 있다.
통신부(1221)는 제1 전자 장치(100)로부터 사용자의 생체 신호를 수신할 수 있다. 즉, 제1 전자 장치(100)에 구비된 센싱부(110)를 통해 사용자의 생체 신호가 획득되면, 제1 전자 장치(100)는 획득된 생체 신호를 서버(200)로 전송할 수 있고, 이에 따라, 서버(1220)의 통신부(1221)는 제1 전자 장치(100)로부터 생체 신호를 수신할 수 있다.
그리고, 제어부(1222)는 수신된 생체 신호에 기초하여 사용자의 행동 평가 레벨을 결정하고, 행동 평가 레벨에 대응되는 제어 정보를 생성하며, 제2 전자 장치와 통신 세션을 연결하고 제어 정보를 제2 전자 장치로 전송하도록 제어할 수 있다.
여기서, 수신된 생체 신호에 기초하여 사용자의 행동 평가 레벨을 결정하고, 행동 평가 레벨에 대응되는 제어 정보를 생성하며, 제2 전자 장치와 통신 세션을 연결하고, 제어 정보를 제2 전자 장치로 전송하는 과정 및 제어 정보의 상세한 구성에 대해서는 이미 제1 전자 장치(100)에서 설명하였으며, 동일하게 적용될 수 있다.
도 12b는 본 발명의 일 실시 예에 따른 제1 전자 장치(1210), 제2 전자 장치(1230) 및 서버를 포함하는 시스템을 도시한 도면이다.
시스템(1200)은 제1 전자 장치(1210), 서버(200) 및 제2 전자 장치(1230)를 포함한다. 여기서, 제1 전자 장치(1210)는 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱하고 센싱된 데이터에 기초하여 측정된 사용자의 행동 패턴에 기초하여 사용자의 행동 평가 레벨을 결정하며, 제2 전자 장치(1230)가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 하는 제어 정보를 서버(1220)로 전송한다.
그리고, 서버(200)는 사용자가 제2 전자 장치(1230)에 대해 사용자 인증을 수행하면 제어 정보를 제2 전자 장치(1230)로 전송한다.
또한, 제2 전자 장치(1230)는 사용자 인증이 수행된 사용자에 대해 서버(1220)로부터 수신된 제어 정보에 기초하여 동작할 수 있다.
한편, 제1 전자 장치(1210)는 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱한 후, 센싱된 데이터들을 서버(1220)로 전송할 수 있다. 그리고, 서버(1220)는 제1 전자 장치(1210)에서 센싱된 사용자의 행동 패턴을 측정하기 위한 데이터에 기초하여 사용자의 행동 패턴을 측정할 수 있다. 그리고, 서버(1220)는 측정된 사용자의 행동 패턴에 기초하여 사용자의 행동 평가 레벨을 결정할 수 있으며, 결정된 사용자의 행동 평가 레벨에 관한 정보를 제1 전자 장치(1210)로 전송한다. 그리고, 제1 전자 장치(1210)는 수신된 사용자의 행동 평가 레벨에 관한 정보에 기초하여 사용자에게 직접적인 피드백을 제공하고, 서버(1220)는 제2 전자 장치(1230)가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 하는 제어 정보를 제2 전자 장치(1230)로 전송한다. 구체적으로, 서버(1220)는 제1 전자 장치(1210) 및 제2 전자 장치(1230) 중 적어도 하나로부터 제1 전자 장치(1210)와 페어링된 제2 전자 장치 정보가 수신되면, 행동 평가 레벨 및 수신된 제2 전자 장치 정보와 대응되는 제어 정보를 결정하고, 결정된 제어 정보를 제2 전자 장치(1230)로 전송할 수 있다.
여기서, 서버(1220)는 제2 전자 장치(1230)에 대해 사용자가 사용자 인증을 수행한 경우에 한하여 제2 전자 장치(1230)로 제어 정보를 전송한다. 그리고, 제2 전자 장치(1230)는 사용자가 사용자 인증을 수행한 경우에 한하여 서버(1220)로부터 제어 정보를 수신하고, 수신된 제어 정보에 기초하여 사용자의 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작한다. 물론, 제2 전자 장치(1230)는 사용자가 사용자 인증을 수행한 경우에 한하여 직접 서버(1220)로 제어 정보를 요청하는 신호를 전송할 수도 있다.
이러한, 제1 전자 장치(1210), 서버(1220) 및 제2 전자 장치(1230) 간의 연동 과정을 도 13을 통해 상세히 설명하기로 한다.
도 13은 본 발명의 일 실시 예에 따른 제1 전자 장치(1210), 서버(1220) 및 제2 전자 장치(1230)를 포함하는 시스템상에서 수행되는 과정을 도시한 도면이다. 여기서, 제1 전자 장치(1210)은 제1 전자 장치(100)와 동일하며, 이에 따라, 제1 전자 장치(1210)에 포함되는 구성 요소 역시 제1 전자 장치(100)의 구성 요소와 동일하다.
도 13을 참조하면, 행동 개선 항목이 설정되면(1310), 제1 전자 장치(1210)의 센싱부(110)가 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱하고, 제어부(130)는 센싱된 데이터에 기초하여 사용자의 행동 패턴을 측정(1320)할 수 있으며, 측정된 사용자의 행동 패턴을 서버(1370)로 전송할 수 있다. 또는 제어부(130)는 센싱된 데이터를 서버(1370)로 전송하고, 서버(1370)가 센싱된 데이터에 기초하여 사용자의 행동 패턴을 측정할 수도 있다.
또한, 제어부(130)는 측정된 사용자의 행동 패턴에 기초하여 사용자의 행동 평가 레벨을 결정(1330)할 수 있으며, 결정된 행동 평가 레벨에 관한 정보를 서버(1370)로 전송할 수 있다. 마찬가지로, 서버(1370)가 센싱된 데이터에 기초하여 사용자의 행동 패턴을 측정한 경우, 측정된 사용자 행동 패턴에 기초하여 사용자의 행동 평가 레벨을 결정할 수 있으며, 결정된 사용자의 행동 평가 레벨에 관한 정보를 제1 전자 장치(100)로 전송할 수 있다.
그리고, 제어부(130)는 사용자에게 결정된 행동 평가 레벨에 따라 피드백을 제공(1340)할 수 있고, 제2 전자 장치(1230)가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 하는 제어 정보를 제2 전자 장치(1230)로 전송하여 제2 전자 장치(1230)가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 함으로써, 외부기기와 연동하여 행동 개선 서비스를 제공(1350)할 수도 있다. 또한, 제어부(130)는 행동 개선 정도 모니터링에 관한 정보 예를 들면, 사용자에 관한 녹화 영상 또는 실시간 영상에 관한 정보를 제2 전자 장치(1230)로 전송할 수 있다.
한편, 제어부(130)는 사용자에게 결정된 행동 평가 레벨에 따라 피드백을 제공(1340)하고, 서버(200)가 제2 전자 장치가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 하는 제어 정보를 제2 전자 장치(1230)로 전송하여 제2 전자 장치(1230)가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 함으로써, 외부기기와 연동하여 행동 개선 서비스를 제공(1350)할 수도 있다. 또한, 서버(1370)는 행동 개선 모니터링에 관한 정보 예를 들면, 사용자에 관한 녹화 영상 또는 실시간 영상에 관한 정보를 제2 전자 장치로 전송할 수도 있다.
한편, 서버(1370)는 제1 전자 장치(1210)로부터 수신된 사용자의 행동 패턴을 측정하기 위하여 센싱된 데이터 및 사용자의 행동 패턴에 기초하여 행동 패턴 이력 정보를 생성할 수 있고, 복수의 사용자에 관한 행동 패턴을 측정하기 위하여 센싱된 데이터 및 행동 패턴에 기초하여 나이대별, 지역별, 국가별 등과 같이 분류하여 데이터 베이스를 구축할 수 있다.
또한, 서버(1370)는 결정된 행동 평가 레벨에 따라 제2 전자 장치(1230)의 사용 환경이 변경되는 것으로 설정되면, 이에 대응하여 제어 정보를 변경하여 업데이트 할 수도 있고, 이러한 변경된 제어 정보에 기초하여 사용자별로 데이터 베이스를 구축할 수도 있다.
한편, 본 발명의 일 실시 예에 따른 제1 전자 장치(100)는 ADHD 증상을 자동적으로 파악하고 그 증상을 완화하기 위한 피드백을 제공하기 위해 사용될 수 있다.
ADHD(Attention Deficit/Hyperactivity Disorder) 증상은 주의력 결핍/과잉행동 장애는 아동기에 많이 나타나는 장애로, 지속적으로 주의력이 부족하여 산만하고 과다활동, 충동성을 보이는 상태를 의미한다. 따라서, ADHD 증상은 주의력 결핍, 충동성, 과잉 행동성 등의 증상을 보인다.
이에 따라, ADHD 증상이 있는 사용자가 제1 전자 장치(100)를 착용하게 되면, 제1 전자 장치(100)의 센싱부(110)는 사용자의 심박수, 호흡수, 이동 거리, 걸음 수, 동작 형태(뛰기, 걷기, 앉아 있기)별 지속시간, 손가락 움직임 횟수, 목소리 음량, 말하는 시간, 울음 시간, 특정 단어사용 패턴 횟수, 대화 끼어들기 횟수, 감정 상태(흥분, 분노) 지속시간, 감정상태 변화 횟수 등에 관한 데이터를 센싱하고, 제어부(130)는 센싱된 데이터에 기초하여 사용자의 행동 패턴을 측정할 수 있다. 그리고, 제어부(130)는 측정된 행동 패턴에 기초하여 도 6에서 설명한 것처럼 사용자의 행동 평가 레벨을 결정할 수 있다. 미리 행동 평가 레벨을 결정하는 과정에서 설명한 바와 같이, ADHD 증상이 있는 사용자의 행동 평가 레벨 역시 매우 양호, 양호, 보통, 나쁨, 심각으로 구별되어 결정될 수 있으며, 제어부(130)는 미리 설명한 바와 같이, 결정된 행동 평가 레벨에 따라 ADHD 사용자의 손목을 조이는 형식으로 피드백을 제공하거나, 음향 신호 또는 영상 신호를 사용하여 피드백을 제공할 수 있고, ADHD 증상이 있는 사용자가 사용자 인증을 수행한 제2 전자 장치가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 하는 제어 정보를 제2 전자 장치로 전송할 수 있다. 구체적으로, 제어부(130)는 제2 전자 장치와 페어링을 수행하고, 행동 평가 레벨 및 페어링된 제2 전자 장치에 대응되는 제어 정보를 결정하고, 결정된 제어 정보를 페어링된 제2 전자 장치로 전송할 수 있다. 또한, 제어부(130)는 결정된 행동 평가 레벨에 따라 ADHD 증상이 있는 사용자에 관한 영상이 제2 전자 장치를 통해 디스플레이 되도록 하는 제어 신호를 제2 전자 장치로 전송하여 모니터링이 수행될 수 있도록 할 수 있다.
또한, 미리 설명한 바와 같이, 제1 전자 장치(100)와 서버(200)가 연동하여 ADHD 증상이 있는 사용자의 행동 패턴을 측정하고, 측정된 행동 패턴에 기초하여 행동 평가 레벨을 결정하며, 결정된 행동 평가 레벨에 따라 ADHD 증상이 있는 사용자에게 피드백을 제공하거나, 제2 전자 장치가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 하는 제어 정보를 제2 전자 장치로 전송함으로써 제2 전자 장치와 연동하여 행동 개선 서비스를 제공하며, ADHD 증상이 있는 사용자의 영상을 녹화하여 녹화된 영상을 외부기기로 전송하거나 ADHD 증상이 있는 사용자의 영상을 실시간으로 제2 전자 장치로 전송하여 모니터링이 수행될 수 있도록 할 수 있다.
이와 같이, 도 1 내지 도 13에서 설명한 제1 전자 장치(100, 1210), 서버(1220) 및 제2 전자 장치(1230)의 동작 및 수행되는 기능, 데이터, 제어 정보 등은 모두 ADHD 증상이 있는 사용자에 대해서도 동일하게 적용될 수 있다.
한편, ADHD 증상이 있는 사용자가 수신된 제어 정보에 기초하여 설정된 사용 환경에 동작하는 제2 전자 장치(1230)를 사용하는데 있어서, 제1 전자 장치(100, 1210)는 ADHD 증상이 있는 사용자가 이러한 제2 전자 장치(1230)의 사용 환경을 잘 수용하여 행동하는지에 대한 데이터를 센싱하여 분석할 수 있다.
예를 들어, 제1 전자 장치(100, 1210)는 수신된 제어 정보에 기초하여 설정된 사용 환경에 동작하는 제2 전자 장치(1230)를 사용하는 ADHD 증상이 있는 사용자의 뇌파를 측정하여 주의 집중력 관련 뇌파 지표를 분석하고, 제2 전자 장치(1230)에서 제공하는 훈련 컨텐츠의 수행 여부를 검출하여 행동 개선 여부를 판단할 수 있다.
또한, 제1 전자 장치(100, 1210))는 제2 전자 장치(1230) 내에서 메뉴를 이동시키는 횟수, 프로그램 리셋 횟수, HMD 장치와 같은 제2 전자 장치(1230)의 탈착 횟수 등을 센싱하여 ADHD 증상이 있는 사용자의 제2 전자 장치(1230) 사용 시의 행동을 판단할 수 있다.
또한, 제1 전자 장치(100, 1210)는 제2 전자 장치(1230)에서 제공하는 컨텐츠들 중 한가지 컨텐츠에 머무르는 시간, 단위 시간당 컨텐츠 간 hopping하는 횟수 등을 센싱하여 ADHD 증상이 있는 사용자의 제2 전자 장치(1230) 사용 시의 행동을 판단할 수도 있다.
또한, 제1 전자 장치(100, 1210)는 ADHD 증상이 있는 사용자의 시선 추적 정보를 이용하여 시선 고정 능력을 판단하고 불필요한 대상에 대한 시선 억제 능력까지 판단함으로써, ADHD 증상이 있는 사용자의 제2 전자 장치(1230) 사용 시의 행동을 판단할 수도 있다.
물론, 상술한 예에서는 제1 전자 장치(100, 1210)가 제2 전자 장치(1230)를 사용 중인 ADHD 증상이 있는 사용자의 생체 신호, 움직임, 훈련 컨텐츠 수행 능력 등을 판단하는 것으로 설명하였으나, 제2 전자 장치(1230)가 ADHD 증상이 있는 사용자의 생체 신호, 움직임, 훈련 컨텐츠 수행 능력 등을 판단할 수도 있다.
도 14는 본 발명의 일 실시 예에 따른 ADHD 증상이 있는 사용자의 제2 전자 장치 사용시 수행 능력을 판단하고 행동 개선 여부를 판단하는 과정을 도시한 도면이다.
도 14를 참조하면, 제1 전자 장치(100)는 ADHD 증상이 있는 사용자의 제2 전자 장치에 대한 daily logging 정보 및 최근까지의 훈련 task 수행 능력에 기초하여 ADHD 증상이 있는 사용자의 세부적인 상태를 파악한다(1410).
그리고, 제1 전자 장치(100)는 파악된 ADHD 증상이 있는 사용자의 세부적인 상태에 기초하여 최적의 훈련 컨텐츠를 판단하고, 판단된 최적의 훈련 컨텐츠를 제공하도록 하는 제어 신호를 제2 전자 장치로 전송한다(1420).
이후, ADHD 증상이 있는 사용자가 제2 전자 장치로부터 제공된 훈련 컨텐츠를 수행하는 중 제1 전자 장치(100)는 ADHD 증상이 있는 사용자의 뇌파, 음성, 모션 및 생체 신호를 센싱할 수 있다(1430).
그리고, 제1 전자 장치(100)는 센싱된 ADHD 증상이 있는 사용자의 뇌파, 음성, 모션 및 생체 신호에 기초하여 ADHD 증상이 있는 사용자의 훈련 컨텐츠 수행 능력을 판단하고, 훈련 컨텐츠 수행 능력에 관한 정보를 업데이트 할 수 있다(1440). 물론, 서버(200)가 ADHD 증상이 있는 사용자의 훈련 컨텐츠 수행 능력에 관한 정보를 지속적으로 저장하면서 업데이트할 수도 있다.
이에 따라, 제1 전자 장치(100)는 제2 전자 장치에서 제공되는 훈련 컨텐츠를 통해 ADHD 증상이 있는 사용자의 훈련 컨텐츠 수행 능력을 판단하고, 훈련 컨텐츠 수행 능력에 관한 정보를 업데이트 할 수 있다.
한편, 제1 전자 장치(100)는 기 설정된 기간(1일 또는 1주일 등)동안 사용자의 생체 신호를 획득하고, 획득된 생체 신호를 바탕으로 사용자의 행동 패턴을 판단한 후, 판단된 행동 패턴으로부터 ADHD 증상 개선 항목을 자동적으로 선택할 수 있다. 즉, 사용자 또는 제3자가 제1 전자 장치(100) 또는 다른 전자 장치를 통해 ADHD 증상 개선 항목을 직접적으로 입력하지 않더라도, 사용자가 제1 전자 장치(100)를 소지한 채 기 설정된 기간 동안 사용하게 되면, 제1 전자 장치(100)는 기 설정된 기간 동안 사용자의 생체 신호를 획득하고, 획득된 사용자의 생체 신호에 기초하여 ADHD 증상 개선 항목을 자동적으로 판단할 수 있다. 예를 들어, 제1 전자 장치(100)는 획득된 사용자의 생체 신호에 기초하여 ADHD 증상 개선 항목과 관련하여 “수업/공부 중 주의 집중력이 부족하다”, “수업/공부 중 과도하게 움직인다”, “감정의 변화가 심하다” 등을 개선 항목으로 선정할 수 있다.
그리고, 제1 전자 장치(100)는 선정된 개선 항목과 관련하여 사용자의 생체 신호를 획득하고, 획득된 사용자의 생체 신호에 기초하여 사용자의 행동 평가 레벨을 결정할 수 있게 된다. 여기서, 제1 전자 장치(100)는 단순히 사용자의 행동 평가 레벨을 결정하는 것만이 아닌, 결정된 행동 평가 레벨에 기초하여 목표 행동 평가 레벨을 새롭게 설정할 수 있다.
이에 따라, 제1 전자 장치(100)는 새롭게 설정된 목표 행동 평가 레벨을 기준으로 사용자의 행동 평가 레벨이 일정 범위를 넘어서게 되면 사용자에게 손목 조임 효과를 주거나, 제2 전자 장치의 사용 가능 시간 또는 제2 전자 장치가 제공하는 컨텐츠의 종류를 조정함으로써 제2 전자 장치와 연동하여 사용자에게 피드백을 제공할 수 있다. 이와 같이, 제1 전자 장치(100)는 목표 행동 평가 레벨을 새롭게 설정하고, 새롭게 설정된 목표 행동 평가 레벨과 현재 결정된 사용자의 행동 평가 레벨을 비교하여 사용자에게 피드백을 제공함으로써, 지속적으로 사용자의 행동을 개선할 수 있도록 한다.
한편, 앞에서 행동 수준을 결정하는 과정에 관해 설명한 바 있으며, ADHD 증상과 관련하여 행동 수준을 결정하는 과정을 좀더 상세히 설명하기로 한다.
구체적으로, 제어부(130)는 항목별로 산출된 평균 값과 기 설정된 기준 값을 비교하여 행동 수준을 결정하게 되는데, 여기서, 기 설정된 기준 값으로서 정상 범위에 해당하는 값과 정상 범위 평균 값과의 표준 편차를 예로 들 수 있다.
예를 들어, 기 설정된 기준 값으로서, 활동성 항목 중 심박수의 정상 범위 평균 값은 85이고 정상 범위로 추정되는 표준 편차는 10이라고 설정되고, 걸음수의 정상 범위 평균 값은 5000이고 정상 범위로 추정되는 표준 편차는 700이라고 설정되었다고 가정한 상태에서 측정된 사용자의 평균 심박수가 95이고, 측정된 사용자의 평균 걸음수가 4000보인 경우 제어부(130)는 정상 범위 평균 값과 표준 편차를 고려하여, 측정된 평균 심박수에 대응되는 평균 값을 60, 측정된 평균 걸음수에 대응되는 평균 값을 64라고 산출할 수 있다.
그리고, 제어부(130)는 측정된 평균 심박수에 대응되는 평균 값 60과 측정된 평균 걸음수에 대응되는 평균 값 64에 기초하여 활동성 항목에 관한 평균 값을 60으로 산출할 수 있다.
또한, 기 설정된 기준 값으로서, 언어 행동 항목 중 말하는 시간의 정삼 범위 평균 값은 180분이고 정상 범위로 추정되는 표준 편차는 60분이라고 설정되었다고 가정한 상태에서 측정된 사용자의 말하는 시간이 300분인 경우 제어부(130)는 정상 범위 평균 값과 표준 편차를 고려하여, 측정된 말하는 시간에 대응되는 평균 값은 70이라고 산출할 수 있다.
그리고, 제어부(130)는 측정된 말하는 시간에 대응되는 평균 값에 기초하여 언어 행동 항목에 관한 평균 값을 65라고 산출할 수 있다.
그리고, 제어부(130)는 특히 더 개선이 필요하거나 중요도에 따라 항목별로 상이하게 가중치를 부여할 수 있는데, 예를 들어, 활동성, 언어 행동 및 충동성에 대해 1.1:1.0:1.2와 같은 형식으로 가중치를 부여할 수 있다. 즉, 제어부(130)는 언어 행동 항목을 기준으로 활동성 항목과 충동성의 개선이 좀더 필요하다고 보고 가중치를 상대적으로 높게 부여하였다.
이후, 제어부(130)는 이러한 항목별 가중치에 기초하여 총 항목별 평균 값을 산출해낼 수 있다. 이에 대해서는 앞서 설명하였으므로 자세한 설명은 생략하기로 한다.
도 15는 본 발명의 일 실시 예에 따라 일상 생활에 제1 전자 장치(100)를 사용하는 상황을 설명하기 위한 도면이다.
도 15를 참조하면, 오전 8시에 사용자의 부모는 행동 개선 항목을 선정할 수 있다. 구체적으로, 행동 개선 항목은 수업/공부 중 주의 집중력 항목, 수업/공부 중 졸음 항목, 수업/공부 중 자리에서 과도한 움직임 항목, 특정 비속어/욕설 사용 항목, 지나치게 울음이나 소리를 지르는 항목을 포함할 수 있으며, 사용자의 부모는 이들 중 하나를 선택할 수 있다.
그리고, 제1 전자 장치(100)는 선택된 행동 개선 항목과 관련되는 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱한다. 특히, 제1 전자 장치(100)는 설정된 행동 패턴 측정 시간에 따라 선택된 행동 개선 항목과 관련되는 사용자의 행동 패턴을 측정하기 위한 데이터를 센싱할 수 있다.
예를 들어, 설정된 행동 패턴 측정 시간이 수업 시간이라면 학교 수업 시간인 1교시부터 6교시까지 즉, 오전 9시부터 오후 2시 40분까지 선택된 행동 개선 항목과 관련되는 사용자의 행동 패턴을 측정하기 위한 데이터를 누적하여 센싱한다.
그리고, 제1 전자 장치(100)는 누적하여 센싱된 데이터에 기초하여 사용자의 행동 평가 레벨을 결정하고, 기 설정된 시간에 결정된 행동 평가 레벨을 서버(200)로 전송한다.
물론, 제1 전자 장치(100)는 센싱된 데이터에 기초하여 지속적으로 사용자의 행동 평가 레벨을 결정할 수도 있으며, 이에 따라, 사용자의 행동 평가 레벨이 기준값을 넘어설 경우 손목 조임과 같은 피드백을 사용자에게 제공할 수 있다.
이후, 사용자가 학교 수업을 마치고 집으로 돌아와서 스마트 폰이나 TV에 사용자 인증을 수행한 경우 서버(200)는 스마트 폰이나 TV가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 하는 제어 정보를 스마트 폰이나 TV에 전송할 수 있다.
이에 따라, 사용자의 결정된 행동 평가 레벨이 나쁜 경우에는 스마트 폰이나 TV는 사용 시간이 줄어드는 사용 환경으로 설정될 수 있고, 사용자의 결정된 행동 평가 레벨이 양호한 경우에는 스마트 폰이나 TV는 사용 시간이 늘어나는 사용 환경으로 설정될 수 있다.
한편, 본 발명의 일 실시 예에 따른 전자 장치는 사용자의 운동 부족을 개선하기 위해 사용될 수도 있다. 사용자 또는 제3자가 전자 장치 또는 다른 전자 장치를 통해 사용자의 운동 목표 시간 또는 소비 칼로리 목표치를 설정할 수 있다. 예를 들어, 사용자 또는 제3자는 일상 생활에서 측정 가능한 항목 별로 수치를 입력할 수 있는데, 계단 오르내리기 200회, 걸어다니기 1000보 및 뛰기 500m와 같은 형식으로, 제1 전자 장치(100) 또는 다른 전자 장치를 통해 입력할 수 있다.
이와 같이, 계단 오르내리기, 걸어다니기 및 뛰기 항목별로 수치가 입력되면 제1 전자 장치(100)는 사용자가 최초 사용시, 일상 상태에서의 사용자의 평균 심박수를 측정할 수 있다. 아동 같은 경우 일상 상태에서의 평균 심박수는 80~90회라고 알려져 있다.
그리고, 제1 전자 장치(100)는 측정된 사용자의 평균 심박수를 저장한 후, 평균 심박수 이상이 되는 경우에 한하여 사용자의 활동성을 측정할 수 있다. 즉, 제1 전자 장치(100)는 측정된 사용자의 평균 심박수가 90인 경우, 사용자의 심박수가 90이상인 경우에 한하여 사용자의 활동성을 측정하게 된다. 이는 사용자가 가만히 앉아서 제1 전자 장치(100)를 흔들기만 하는 상황을 활동성 측정에서 제외함으로써 정확하게 사용자의 활동성을 측정하기 위함이다. 그리고, 제1 전자 장치(100)는 사용자의 심박수가 90이상인 상태에서 가속도계 센서 또는 자이로계 센서 등을 사용하여 동작 형태 별(오르내리기 동작, 걷기, 뛰기)로 사용자의 활동성을 측정할 수 있다. 물론, 제1 전자 장치(100)는 측정된 사용자의 활동성에 기초하여 소모 칼로리 량도 산출할 수 있다.
이후, 제1 전자 장치(100)는 기 설정된 기간 별로 사용자의 운동 목표 시간 또는 소비 칼로리 목표치 등과 비교하여 사용자의 운동 목표 달성 여부 또는 목표 소비 칼로리 달성 여부 등을 체크할 수 있고, 각 항목 별(계단 오르내리기, 걸어다니기, 뛰기 등)로 달성률을 계산할 수도 있다. 또한, 제1 전자 장치(100)는 각 항목별로 달성률을 백분위로 계산하여 퍼센트 구간 별로 그 결과를 사용자에게 제공할 수도 있다. 예를 들어, 제1 전자 장치(100)는 각 항목별로 달성률을 50퍼센트 이하인 구간, 50~80퍼센트인 구간, 80~100퍼센트인 구간, 100~120 퍼센트인 구간, 120퍼센트 이상인 구간 등으로 분류하여 그 결과를 사용자에게 제공할 수 있다. 그리고, 앞서 설명한 바와 같이, 각 퍼센트 구간 별로 사용자에게 상이하게 피드백(예를 들어, 손목 조임 효과 등)을 직접적으로 제공할 수도 있고, 제2 전자 장치(휴대폰, TV, HMD 장치 등)의 사용 시간 또는 제2 전자 장치가 제공하는 컨텐츠 등을 조정함으로써 제2 전자 장치와 연동하여 사용자에게 피드백을 제공할 수도 있음은 당연하다.
또한, 기 설정된 기간 별로 사용자의 운동 목표 시간 또는 소비 칼로리 목표치 등과 비교하여 사용자의 운동 목표 달성 여부 또는 목표 소비 칼로리 달성 여부 등을 체크하는 과정, 각 항목 별(계단 오르내리기, 걸어다니기, 뛰기 등)로 달성률을 계산하는 과정 및 각 항목별로 달성률을 백분위로 계산하여 퍼센트 구간 별로 그 결과를 사용자에게 제공하는 과정 등은 서버(200)에서도 수행될 수 있다.한편, 본 발명의 일 실시 예에 따른 전자 장치는 언어 습관을 개선하는데 있어서도 사용될 수 있다.
사용자가 본인이 개선하고자 하는 언어를 전자 장치 또는 다른 전자 장치를 통해 텍스트 또는 음성 녹음 형식으로 직접 입력할 수도 있고, 제1 전자 장치(100)가 마이크를 통해 일정 기간 동안 사용자의 발화된 언어를 모니터링 하여 무의미하게 자주 사용되는 언어를 선정하여 언어 리스트를 생성할 수도 있다.
그리고, 제1 전자 장치(100)는 사용자에 의해 직접적으로 입력된 언어 또는 모니터링 결과 선정된 언어가 개선하고자 하는 언어로 설정될 경우, 사용자가 말할 때 설정된 언어가 사용될 경우 해당 구간을 녹음하고 설정된 언어의 사용 횟수를 카운트할 수 있다.
그리고, 제1 전자 장치(100)는 설정된 언어의 사용 횟수가 기 설정된 횟수를 넘어서게 되면 사용자에게 직접적인 피드백(예를 들어, 손목 조임 효과, 영상 신호 또는 음성 신호 등)을 제공할 수 있다.
또한, 제1 전자 장치(100)는 설정된 언어가 사용될 경우 녹음된 녹음 파일 또는 설정된 언어의 사용 회수에 관한 정보를 제2 전자 장치로 전송하고, 제2 전자 장치는 수신된 녹음 파일 또는 사용 횟수에 관한 정보에 기초하여 개선하고자 선정된 언어가 사용된 횟수, 녹음된 언어 재생, 사용 이력 재생 등을 통해 사용자가 모니터링 할 수 있도록 할 수 있다. 이에 따라, 사용자는 일정 시간 동안의 행동 습관을 제2 전자 장치를 통해 모니터링 할 수 있게 된다.
또한, 사용자는 프레젠테이션 연습을 하는 경우 단 기간 동안의 행동 습관을 모니터링 하기 위해 제1 전자 장치(100)를 습관 개선 모드로 동작하도록 설정한 후, 제1 전자 장치(100)의 습관 개선 모드에서의 동작이 해제되기 전까지 제1 전자 장치(100)가 사용자의 사용 언어를 녹음하거나 사용 횟수를 카운트하도록 할 수 있다. 이에 따라, 제1 전자 장치(100)는 습관 개선 모드가 턴 온 된 상태에서만 사용자의 사용 언어를 녹음하거나 사용 횟수를 카운트하고, 이에 관한 정보를 제2 전자 장치에 제공하여 사용자로 하여금 모니터링 하도록 함으로써, 사용자가 단 기간 동안의 행동 습관을 모니터링 하도록 할 수 있다.
한편, 개선하고자 설정된 언어의 1일 목표 허용 횟수가 5회라면, 제1 전자 장치(100)는 사용자가 발화하는 언어 중 설정된 언어의 사용 횟수를 측정하고, 측정된 언어의 사용 횟수와 목표 허영 횟수에 기초하여 백분위 등급으로 산출할 수 있으며, 이에 대해서는 미리 설명하였으므로, 자세한 설명은 생략하기로 한다.
도 16은 도 1에 도시된 제1 전자 장치(100)의 구체적인 구성을 나타내는 블럭도이다.
도 16을 참조하면, 제1 전자 장치(100')는 센싱부(110), 통신부(120), 제어부(130), 입력부(140), 저장부(150), 디스플레이부(160), 오디오 처리부(170) 및 구동부(180)를 포함한다. 또한, 도시되지는 않았지만 스피커부(미도시)도 더 포함할 수 있다. 도 16에 도시된 구성 중 도 1 및 4에 도시된 구성과 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.
제어부(130)는 제1 전자 장치(100')의 동작을 전반적으로 제어한다.
구체적으로, 제어부(130)는 RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n), 버스(136)를 포함한다.
RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n) 등은 버스(136)를 통해 서로 연결될 수 있다.
제1 내지 n 인터페이스(135-1 내지 135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
메인 CPU(133)는 저장부(150)에 액세스하여, 저장부(150)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 저장부(140)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
ROM(132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(133)는 ROM(132)에 저장된 명령어에 따라 저장부(140)에 저장된 O/S를 RAM(131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(133)는 저장부(150)에 저장된 각종 어플리케이션 프로그램을 RAM(131)에 복사하고, RAM(131)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
그래픽 처리부(134)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부(미도시)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부(미도시)에서 생성된 화면은 디스플레이(160)를 통해 디스플레이될 수 있다.
한편, 도 1 내지 도 15에서 상술한 제어부(130)의 동작은 저장부(150)에 저장된 프로그램에 의해 이루어질 수 있다.
저장부(150)는 제1 전자 장치(100')를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 각종 멀티미디어 컨텐츠와 같은 다양한 데이터를 저장한다.
특히, 저장부(150)는 제어부(130)가 생체 신호에 기초하여 사용자의 행동 평가 레벨을 결정하고, 구체적으로, 센싱된 데이터에 기초하여 사용자의 행동 패턴을 측정하고, 측정된 행동 패턴에 기초하여 사용자의 행동 평가 레벨을 결정하고, 제2 전자 장치와 페어링을 수행하며 행동 평가 레벨 및 제2 전자 장치에 대응되는 제어 정보를 결정하고 결정된 제어 정보를 제2 전자 장치로 전송하도록 제어하기 위한 다양한 소프트웨어 모듈을 포함한다. 이에 대해서는 도 17을 통해 상세히 설명하기로 한다.
오디오 처리부(170)는 오디오 신호를 스피커부(미도시)의 출력 레인지 및 음질에 관한 사용자 설정에 부합하도록 처리할 수 있다.
또한, 구동부(180)는 제1 전자 장치(100')의 밴드에 구비된 압력 센서(910)를 사용하여 밴드 내부의 공기압을 조절하거나 자성체(1010)를 사용한 자기적 특성을 이용하여 손목 조임 효과를 구현할 수 있다.
도 17은 본 발명의 일 실시 예에 따른 저장부에 저장된 소프트웨어 모듈에 관한 도면이다.
도 17을 참조하면, 저장부(150)에는 센싱 모듈(151), 통신 모듈(152), 행동 패턴 측정 모듈(153), 행동 평가 레벨 결정 모듈(154), 제어 정보 생성 모듈(155) 등의 프로그램이 저장되어 있을 수 있다.
한편, 상술한 제어부(130)의 동작은 저장부(150)에 저장된 프로그램에 의해 이루어질 수 있다. 이하에서는 저장부(150)에 저장된 프로그램을 이용한 제어부(130)의 세부 동작에 대해 자세히 설명하도록 한다.
센싱 모듈(151)은 각종 센서들로부터 정보를 수집하고, 수집된 정보를 분석 및 관리하는 모듈이다. 구체적으로, 센싱 모듈(151)은 사용자의 행동 패턴을 측정하기 위한 데이터를 수집하여 센싱값을 분석 및 관리한다. 센싱 모듈(142)은 생체 신호 인식 모듈, 터치 인식 모듈, 헤드 방향 인식 모듈, 얼굴 인식 모듈, 음성 인식 모듈, 모션 인식 모듈, NFC 인식 모듈, 뇌파 인식 모듈, 감정 상태 인식 모듈 등을 포함할 수도 있다.
통신 모듈(152)은 제2 전자 장치와 통신 또는 페어링을 수행하기 위한 모듈이다. 통신 모듈(152)은 외부 장치와 통신에 이용되는 디바이스 모듈, 메신저 프로그램, SMS(Short Message Service) & MMS(Multimedia Message Service) 프로그램, 이메일 프로그램 등과 같은 메시징 모듈, 전화 정보 수집기(Call Info Aggregator) 프로그램 모듈, VoIP 모듈 등을 포함하는 전화 모듈을 포함할 수 있다.
행동 패턴 측정 모듈(153)은 센싱된 데이터에 기초하여 사용자의 행동 패턴을 측정하는 기능을 수행한다.
행동 평가 레벨 결정 모듈(154)은 측정된 사용자의 행동 패턴에 기초하여 사용자의 행동 평가 레벨을 결정하는 기능을 수행한다. 도 6에서 설명한 바와 같이 수학식 1, 2, 3을 사용하여 전체 항목에 대한 평균값을 계산하고, 산출된 전체 항목에 대한 평균값과 기 설정된 기준 값을 비교하고 편차에 따라 행동 평가 레벨을 결정하거나, 저장된 사용자의 행동 패턴 이력 정보와 측정된 사용자의 행동 패턴을 패턴 매칭을 통해 행동 평가 레벨을 결정하는 기능을 수행한다.
제어 정보 생성 모듈(155)는 제2 전자 장치가 결정된 행동 평가 레벨에 따라 설정된 사용 환경에서 동작하도록 하는 제어 정보를 생성하는 기능을 수행한다. 이러한 제어 정보는 도 11에서 설명한 바와 같이 행동 평가 레벨의 레벨 및 제2 전자 장치의 종류에 따라 상이한 사용 환경에 관한 정보를 포함한다.
도 18은 본 발명의 일 실시 예에 따른 제1 전자 장치(100)의 제어 방법을 설명하기 위한 흐름도이다.
도 18에 도시된 제1 전자 장치(100)의 제어 방법에 따르면, 사용자의 생체 신호를 획득한다(S1810).
그리고, 생체 신호에 기초하여 사용자의 행동 평가 레벨을 결정한다(S1820).
이후, 제2 전자 장치와 페어링을 수행한다(S1830).
그리고, 결정된 행동 평가 레벨 및 페어링된 제2 전자 장치에 대응되는 제어 정보를 결정한다(S1840).
여기서, 제어 정보는, 제2 전자 장치의 사용 범위에 관한 정보 및 사용 범위에 관한 정보에 기초하여 제2 전자 장치가 동작되도록 하는 제어 정보를 포함할 수 있다. 특히, 제어 정보는, 페어링된 제2 전자 장치에 대한 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 제어 명령 중 적어도 하나를 포함할 수 있다.
그리고, 행동 평가 레벨은 획득된 생체 신호를 항목별로 수치화하여 산출된 값에 기초하여 결정될 수 있다. 즉, 행동 평가 레벨은 획득된 생체 신호를 활동성, 언어 행동 및 충동성 중 적어도 하나의 항목에 대하여 가중치를 부여하고 수치화하여 산출된 값에 기초하여 결정될 수 있다.
또한, 제2 전자 장치의 사용 범위는, 행동 평가 레벨에 대응하여 제2 전자 장치가 동작하는 기 설정된 조건, 기 설정된 범위 및 기 설정된 모드 중 적어도 하나를 포함할 수 있다.
또한, 제2 전자 장치에 대한 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 제어 명령은 결정된 행동 평가 레벨에 따라 변경 가능하다.
이후, 결정된 제어 정보를 페어링된 제2 전자 장치로 전송한다(S1850).
한편, 전송하는 단계(S1850)는, 제1 전자 장치(100)의 사용자가 페어링된 제2 전자 장치에 대해 사용자 인증을 수행하면 제어 정보를 제2 전자 장치로 전송할 수 있다.. 물론, 전송하는 단계(S1850)는 제1 전자 장치(100)의 사용자가 제2 전자 장치에 대해 사용자 인증을 수행하는 과정 없이, 제1 전자 장치(100)와 제2 전자 장치가 페어링을 수행하여 통신 세션이 연결되면, 연결된 제2 전자 장치로 제어 정보를 전송할 수도 있다.
또한, 본 발명의 일 실시 예에 따른 제1 전자 장치의 제어 방법은 결정된 행동 평가 레벨에 따른 피드백을 제공하는 단계를 더 포함할 수 있다.
한편, 본 발명의 일 실시 예에 따른 제1 전자 장치(100)의 제어 방법은 사용자의 행동 개선 항목 및 행동 패턴 측정 시간을 설정하는 사용자 조작을 입력받는 단계를 더 포함하며, 생체 신호를 획득하는 단계(S1810)는 설정된 항목과 관련된 행동 패턴을 결정하고, 결정된 행동 패턴을 측정하기 위한 데이터를 설정된 시간에 따라 센싱한다.
또한, 결정하는 단계(S1820)는 측정된 사용자의 행동 패턴을 기 설정된 항목별로 그룹핑하고, 그룹핑된 사용자의 행동 패턴에 대해 각 항목별로 가중치를 부여하여 평균값을 산출하며, 산출된 평균값에 기초하여 행동 평가 레벨을 결정한다.
또한, 행동 평가 레벨을 결정하는 단계(S1820)는 측정된 사용자의 행동 패턴을 기 설정된 항목별로 그룹핑하고, 그룹핑된 사용자의 행동 패턴에 대해 각 항목별로 가중치를 부여하여 평균값을 산출하며, 산출된 평균값에 기초하여 행동 평가 레벨을 결정할 수 있다.
또한, 행동 평가 레벨을 결정하는 단계(S1820)는, 산출된 평균값과 기 설정된 기준 값을 비교하고 편차에 따라 행동 평가 레벨을 결정할 수 있다.
또한, 본 발명의 일 실시 예에 따른 제1 전자 장치의 제어 방법은 사용자의 행동 패턴 이력 정보를 저장하는 단계를 더 포함하며, 행동 평가 레벨을 결정하는 단계(S1820)는, 측정된 사용자의 행동 패턴과 사용자의 행동 패턴 이력 정보 간의 유사도를 측정하여 행동 평가 레벨을 결정한다.
또한, 본 발명의 일 실시 예에 따른 제1 전자 장치의 제어 방법은 결정된 행동 평가 레벨에 따라, 사용자에 관한 영상이 페어링된 제2 전자 장치를 통해 디스플레이 되도록 하는 제어 신호를 페어링된 제2 전자 장치로 전송하는 단계를 더 포함할 수 있다.
한편, 도 19 내지 도 22는 본 발명의 다양한 실시 예에 따른 동작 과정을 설명하기 위한 타이밍도이다. 특히, 도 19 내지 도 22에서는 제1 전자 장치(100)를 웨어러블 장치로 특정하였고, 제2 전자 장치는 웨어러블 장치 외부에 존재하는 외부 기기로 특정하였으며, 모바일 장치는 웨어러블 장치와 연동하여 행동 개선 항목을 선택하는 장치로 예로 들어 설명하기로 한다. 또한, 도 19 내지 도 22는 사용자 인증을 수행하는 과정을 포함하지 않고 있는 경우를 도시하고 있으나, 외부기기에 대해 얼마든지 사용자 인증이 수행될 수 있으며, 사용자 인증은 외부기기와 다른 전자 장치 즉, 웨어러블 장치, 서버, 모바일 장치 등과 연동과정을 수행하기 전/후에 관계없이 수행될 수 있음은 당연하다.
또한, 도 19 내지 도 22에서 각 전자 기기 간의 연결 상태를 명확히 표시하기 위하여 동그란 점을 표시하였으며, 표시된 동그란 점은 곧 각 전자 기기 간에 통신이 연결되어 있음을 나타낸다.
도 19를 참조하면, 웨어러블 장치(2310)와 외부 기기(2320)만을 포함하는 행동 개선 시스템의 타이밍도가 도시되어 있으며, 웨어러블 장치(2310)는 사용자 조작에 따라 행동 개선 항목 및 데이터 센싱 측정 시간과 같은 기능들을 설정하고(2311), 설정된 항목 및 측정 시간에 따라 데이터를 센싱하며(2312), 센싱된 데이터에 기초하여 사용자의 행동 평가 레벨을 결정할 수 있다(2313).
그리고, 웨러러블 장치(2310)와 외부 기기(2320)는 페어링을 수행하여 통신 세션을 연결하는 연동 과정(2315)을 수행할 수 있다. 여기서, 웨어러블 장치(2310) 및 외부 기기(2320)는 WiFi Direct 또는 Blutooth 등의 통신 방식을 통해 페어링을 수행하여 통신 세션을 연결하는 연동 과정(2315)을 수행할 수 있다.
이후, 연동 과정(2315)이 완료되면, 웨어러블 장치(2310)는 결정된 행동 평가 레벨 및 페어링이 수행된 외부 기기(2320)에 대응되는 제어 정보를 생성할 수 있다(2314).
그리고, 웨어러블 장치(2310)는 제어 정보를 외부 기기(2320)로 전송할 수 있다(2316). 그리고, 외부 기기(2320)는 수신된 제어 정보에 따라 동작할 수 있다.
도 20을 참조하면, 웨어러블 장치(2410), 서버(2420) 및 제2 전자 장치(2430)을 포함하는 행동 개선 시스템의 타이밍도가 도시되어 있으며, 웨어러블 장치(2410)는 사용자 조작에 따라 행동 개선 항목 및 데이터 센싱 측정 시간과 같은 기능들을 설정하고(2411), 설정된 항목 및 측정 시간에 따라 데이터를 센싱할 수 있다(2412). 이후, 웨어러블 장치(2410)는 WiFi 또는 AP를 통해 서버(2420)와 통신 세션을 연결하고, 센싱된 데이터를 서버(2420)로 전송할 수 있으며, 서버(2420)는 수신된 데이터에 기초하여 사용자의 행동 평가 레벨을 결정할 수 있다(2421).
그리고, 웨어러블 장치(2410) 및 외부 기기(2430)는 서로 간에 페어링을 수행하여 통신 세션을 연결하는 연동 과정(2423)을 수행할 수 있다. 마찬가지로, 웨어러블 장치(2410) 및 외부 기기(2430)는 WiFi 또는 AP를 통해 제2 전자 장치(2430)와 통신 세션을 연결하는 연동 과정(2423)을 수행할 수 있다.
이후, 연동 과정(2423)이 완료되면 웨어러블 장치(2410)는 페어링된 외부 기기(2430)에 대한 정보를 서버(2420)로 전송할 수 있다(2413).
그리고, 서버(2420)는 결정된 행동 평가 레벨 및 웨어러블 장치(2410)로부터 수신된 외부 기기(2430)에 대한 정보에 대응되는 제어 정보를 결정할 수 있다(2422).
그리고, 서버(2420)는 제어 정보를 외부 기기(2430)로 전송할 수 있다(2424).
그리고, 외부 기기(2430)는 수신된 제어 정보에 따라 동작할 수 있다.
도 21을 참조하면, 웨어러블 장치(2510), 모바일 장치(2520) 및 외부 기기(2530)를 포함하는 행동 개선 시스템의 타이밍도가 도시되어 있으며, 웨어러블 장치(2510)와 모바일 장치(2520)는 WiFi, WiFi Direct, Bluetooth 방식을 통해 페어링을 수행하여 통신 세션을 연결하는 연동 과정(2511)을 수행할 수 있다.
그리고, 웨어러블 장치(2510)과 모바일 장치(2520) 간에 연동 과정(2511)이 수행되면, 모바일 장치(2520)는 사용자 조작에 따라 행동 개선 항목 및 데이터 센싱 측정 시간과 같은 기능들을 설정하고(2521), 설정된 기능들에 관한 정보를 웨어러블 장치(2510)로 전송할 수 있으며, 웨어러블 장치(2510)는 설정된 항목 및 측정 시간에 따라 데이터를 센싱할 수 있다(2512). 모바일 장치(2520) 또한 설정된 항목 및 측정 시간에 따라 데이터를 센싱할 수 있다. 그리고, 웨어러블 장치(2510)가 센싱된 데이터를 모바일 장치(2520)로 전송하면, 모바일 장치(2520)는 수신된 데이터에 기초하여 사용자의 행동 평가 레벨을 결정할 수 있다(2522).
그리고, 외부 기기(2530)와 모바일 장치(2520)는 WiFi, WiFi Direct, Bluetooth 방식을 통해 페어링을 수행하고 통신 세션을 연결하는 연동 과정(2531)을 수행할 수 있다.
이후, 연동 과정(2531)이 완료되면 모바일 장치(2520)는 결정된 행동 평가 레벨 및 페어링된 외부 기기(2530)에 대응되는 제어 정보를 결정할 수 있다(2523).
그리고, 모바일 장치(2520)는 제어 정보를 외부 기기(2530)로 전송할 수 있다(2524).
그리고, 외부 기기(2530)는 수신된 제어 정보에 따라 동작할 수 있다.
도 22를 참조하면, 웨어러블 장치(2610), 모바일 장치(2620), 서버(2630) 및 외부 기기(2640)를 포함하는 행동 개선 시스템의 타이밍도가 도시되어 있으며, 웨어러블 장치(2610)는 사용자 조작에 따라 행동 개선 항목 및 데이터 센싱 측정 시간과 같은 기능들을 설정할 수 있다(2611). 또한, 모바일 장치(2620)도 사용자 조작에 따라 행동 개선 항목 및 데이터 센싱 측정 시간과 같은 기능들을 설정할 수 있다(2621). 이후, 웨어러블 장치(2610) 및 모바일 장치(2620)는 WiFi, WiFi Direct, Bluetooth 방식을 통해 페어링을 수행하여 통신 세션을 연결하는 연동 과정(2612)을 수행할 수 있다. 그리고, 웨어러블 장치(2610)는 설정된 항목 및 측정 시간에 따라 데이터를 센싱할 수 있다(2613). 이후, 웨어러블 장치(2610)는 센싱된 데이터를 모바일 장치(2620)로 전송할 수 있고, 모바일 장치(2620)는 수신된 데이터를 가공한다(2622). 그리고, 모바일 장치(2620)는 가공된 데이터를 서버(2630)로 전송할 수 있으며 서버(2630)는 수신된 데이터에 기초하여 사용자의 행동 평가 레벨을 결정할 수 있다(2631).
그리고 모바일 장치(2620)와 외부 기기(2640)는 WiFi 또는 AP를 통해 페어링을 수행하여 통신 세션을 연결하는 연동 과정(2641)을 수행할 수 있다.
이후, 연동 과정(2641)이 완료되면, 서버(2630)는 결정된 행동 평가 레벨 및 페어링된 외부 기기(2640)에 대응되는 제어 정보를 결정할 수 있다(2632).
그리고, 서버(2630)는 제어 정보를 외부 기기(2640)로 전송할 수 있다(2633). 구체적으로, 서버(2630)는 모바일 장치(2620)로부터 외부기기(2640)에 대한 네트워크 주소 또는 맥 주소를 수신하여 제어 정보를 외부 기기(2640)로 전송할 수 있다. 물론, 외부 기기(2640)로부터 제어 정보에 대한 요청이 수신되면 서버(2630)은 수신된 요청에 대응하여 결정된 제어 정보를 외부 기기(2640)로 전송할 수도 있다.
그리고, 외부 기기(2640)는 수신된 제어 정보에 따라 동작할 수 있다.
한편, 모바일 장치(2620)는 사용자 조작에 따라 설정된 항목 및 측정 시간, 센싱된 데이터의 가공 등에 관한 이력 정보를 저장할 수 있으며, 사용자 조작에 따라 저장된 이력 정보를 조회할 수 있다(2623).
한편, 미리 설명한 바와 같이, 상술한 도 19 내지 도 22는 외부 기기에 대한 사용자 인증을 수행하는 과정은 포함하고 있지 않으나, 외부 기기에 대한 사용자 인증을 수행하는 과정은 도 19 내지 도 22 각각에 포함될 수 있으며, 구체적으로, 외부 기기가 웨어러블 장치, 모바일 장치 및 서버 중 적어도 하나와 통신 세션을 연결하는 연동 과정을 수행하기 전에 외부 기기에 대한 사용자 인증이 수행될 수도 있고, 연동 과정을 수행한 후에 외부 기기에 대한 사용자 인증이 수행될 수도 있다. 여기서, 외부 기기는 지문 인식, 얼굴 인식, 비밀번호 입력 등과 같은 방법을 통해 사용자 인증을 수행할 수 있다.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 제1 전자 장치의 제어 방법은 컴퓨터로 실행가능한 프로그램 코드로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 제어부에 의해 실행되도록 각 장치들에 제공될 수 있다.
일 예로, 사용자의 생체 신호를 획득하는 단계, 생체 신호에 기초하여 사용자의 행동 평가 레벨을 결정하는 단계, 외부 전자 장치와 페어링을 수행하는 단계, 결정된 행동 평가 레벨 및 페어링된 외부 전자 장치에 대응되는 제어 정보를 생성하는 단계 및 결정된 제어 정보를 페어링된 외부 전자 장치로 전송하는 단계를 포함하는 제어 방법을 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 제1 전자 장치에 대해 도시한 상술한 블록도에서는 버스(bus)를 미도시하였으나, 제1 전자 장치에서 각 구성요소 간의 통신은 버스를 통해 이루어질 수도 있다. 또한, 각 디바이스에는 상술한 다양한 단계를 수행하는 CPU, 마이크로 제어부 등과 같은 제어부가 더 포함될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100, 1210: 제1 전자 장치 110: 센싱부
120: 통신부 130: 제어부
1220: 서버 1230: 제2 전자 장치

Claims (20)

  1. 외부 전자 장치를 제어하는 전자 장치의 제어 방법에 있어서,
    사용자의 생체 신호를 획득하는 단계;
    상기 생체 신호에 기초하여 상기 사용자의 행동 평가 레벨을 결정하는 단계;
    외부 전자 장치와 페어링을 수행하는 단계;
    상기 결정된 행동 평가 레벨 및 상기 페어링된 외부 전자 장치에 대응되는 제어 정보를 결정하는 단계; 및
    상기 결정된 제어 정보를 상기 페어링된 외부 전자 장치로 전송하는 단계;를 포함하는 전자 장치의 제어 방법.
  2. 제1항에 있어서,
    상기 제어 정보는, 상기 페어링된 외부 전자 장치에 대한 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 제어 명령 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치의 제어 방법.
  3. 제1항에 있어서,
    상기 행동 평가 레벨은,
    상기 획득된 생체 신호를 활동성, 언어 행동 및 충동성 중 적어도 하나의 항목에 대하여 가중치를 부여하고 수치화하여 산출된 값에 기초하여 결정되는 것을 특징으로 하는 전자 장치의 제어 방법.
  4. 제2항에 있어서,
    상기 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 제어 명령은, 상기 결정된 행동 평가 레벨에 따라 변경 가능한 것을 특징으로 하는 전자 장치의 제어 방법.
  5. 제1항에 있어서,
    상기 전송하는 단계는, 상기 전자 장치의 사용자가 상기 페어링된 외부 전자 장치에 대해 사용자 인증을 수행하면 상기 제어 정보를 상기 외부 전자 장치로 전송하는 것을 특징으로 하는 전자 장치의 제어 방법.
  6. 제1항에 있어서,
    상기 결정된 행동 평가 레벨에 따른 피드백을 제공하는 단계;를 더 포함하는 것을 특징으로 하는 전자 장치의 제어 방법.
  7. 제1항에 있어서,
    상기 사용자의 행동 개선 항목 및 행동 패턴 측정 시간을 설정하는 사용자 조작을 입력받는 단계;를 더 포함하며,
    상기 생체 신호를 획득하는 단계는,
    상기 설정된 항목과 관련된 행동 패턴을 결정하고, 상기 결정된 행동 패턴을 측정하기 위한 데이터를 상기 설정된 시간에 따라 센싱하는 것을 특징으로 하는 전자 장치의 제어 방법.
  8. 제1항에 있어서,
    상기 행동 평가 레벨을 결정하는 단계는,
    상기 생체 신호에 기초하여 측정된 사용자의 행동 패턴을 기 설정된 항목별로 그룹핑하고, 상기 그룹핑된 사용자의 행동 패턴에 대해 상기 각 항목별로 가중치를 부여하여 평균값을 산출하며, 상기 산출된 평균값에 기초하여 상기 행동 평가 레벨을 결정하는 것을 특징으로 하는 방법.
  9. 제8항에 있어서,
    상기 행동 평가 레벨을 결정하는 단계는,
    상기 산출된 평균값과 기 설정된 기준 값을 비교하고 편차에 따라 상기 행동 평가 레벨을 결정하는 것을 특징으로 하는 전자 장치의 제어 방법.
  10. 제1항에 있어서,
    상기 사용자의 행동 패턴 이력 정보를 저장하는 단계;를 더 포함하며,
    상기 행동 평가 레벨을 결정하는 단계는,
    상기 생체 신호에 기초하여 측정된 사용자의 행동 패턴과 상기 사용자의 행동 패턴 이력 정보 간의 유사도를 측정하여 상기 행동 평가 레벨을 결정하는 것을 특징으로 하는 전자 장치의 제어 방법.
  11. 제1항에 있어서,
    상기 결정된 행동 평가 레벨에 따라, 상기 사용자에 관한 영상이 상기 페어링된 외부 전자 장치를 통해 디스플레이되도록 하는 제어 신호를 상기 페어링된 외부 전자 장치로 전송하는 단계;를 더 포함하는 것을 특징으로 하는 전자 장치의 제어 방법.
  12. 외부 전자 장치를 제어하는 전자 장치에 있어서,
    사용자의 생체 신호를 획득하는 센싱부;
    상기 외부 전자 장치와 통신을 수행하는 통신부; 및
    상기 생체 신호에 기초하여 상기 사용자의 행동 평가 레벨을 결정하고, 상기 외부 전자 장치와 페어링을 수행하여, 상기 행동 평가 레벨 및 페어링된 외부 전자 장치에 대응되는 제어 정보를 결정하고, 상기 결정된 제어 정보를 상기 페어링된 외부 전자 장치로 전송하도록 상기 통신부를 제어하는 제어부;를 포함하는 전자 장치.
  13. 제12항에 있어서,
    상기 제어 정보는,
    상기 페어링된 외부 전자 장치에 대한 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 제어 명령 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치.
  14. 제13항에 있어서,
    상기 제어 명령은,
    상기 사용 가능 시간 정보 및 사용 가능 컨텐츠 정보 중 적어도 하나에 기초하여 상기 페어링된 외부 전자 장치가 동작되도록 하는 정보를 포함하는 것을 특징으로 하는 전자 장치.
  15. 제12항에 있어서,
    상기 행동 평가 레벨은,
    상기 획득된 생체 신호를 활동성, 언어 행동 및 충동성 중 적어도 하나의 항목에 대하여 가중치를 부여하고 수치화하여 산출된 값에 기초하여 결정되는 것을 특징으로 하는 전자 장치.
  16. 제12항에 있어서,
    상기 사용 가능 시간 정보, 사용 가능 컨텐츠 정보 및 제어 명령은, 상기 결정된 행동 평가 레벨에 따라 변경 가능한 것을 특징으로 하는 전자 장치.
  17. 제12항에 있어서,
    상기 제어부는,
    상기 전자 장치의 사용자가 상기 페어링된 외부 전자 장치에 대해 사용자 인증을 수행하면 상기 제어 정보를 상기 외부 전자 장치로 전송하는 것을 특징으로 하는 전자 장치.
  18. 제12항에 있어서,
    상기 제어부는,
    상기 결정된 행동 평가 레벨에 따른 피드백을 제공하는 것을 특징으로 하는 전자 장치.
  19. 제12항에 있어서,
    상기 사용자의 행동 개선 항목 및 행동 패턴 측정 시간을 설정하는 사용자 조작을 입력받는 입력부;를 더 포함하며,
    상기 제어부는,
    상기 설정된 항목과 관련된 행동 패턴을 결정하고, 상기 결정된 행동 패턴을 측정하기 위한 데이터를 상기 설정된 시간에 따라 센싱하도록 상기 센싱부를 제어하는 것을 특징으로 하는 전자 장치.
  20. 제1 전자 장치 및 제2 전자 장치와 통신을 수행하는 통신부; 및
    상기 제1 전자 장치로부터 수신된 생체 신호에 기초하여 사용자의 행동 평가 레벨을 결정하고, 상기 제1 전자 장치 및 제2 전자 장치 중 적어도 하나로부터 상기 제1 전자 장치와 페어링된 상기 제2 전자 장치 정보가 수신되면, 상기 행동 평가 레벨 및 상기 수신된 제2 전자 장치 정보와 대응되는 제어 정보를 결정하고, 상기 결정된 제어 정보를 상기 제2 전자 장치로 전송하는 제어부;를 포함하는 서버.
KR1020150083697A 2015-06-12 2015-06-12 전자 장치 및 그 제어 방법 KR102320815B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020150083697A KR102320815B1 (ko) 2015-06-12 2015-06-12 전자 장치 및 그 제어 방법
US15/095,967 US10620593B2 (en) 2015-06-12 2016-04-11 Electronic device and control method thereof
PCT/KR2016/006182 WO2016200204A1 (en) 2015-06-12 2016-06-10 Electronic device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150083697A KR102320815B1 (ko) 2015-06-12 2015-06-12 전자 장치 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20160146424A true KR20160146424A (ko) 2016-12-21
KR102320815B1 KR102320815B1 (ko) 2021-11-02

Family

ID=57503671

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150083697A KR102320815B1 (ko) 2015-06-12 2015-06-12 전자 장치 및 그 제어 방법

Country Status (3)

Country Link
US (1) US10620593B2 (ko)
KR (1) KR102320815B1 (ko)
WO (1) WO2016200204A1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10909877B2 (en) * 2015-03-02 2021-02-02 Sony Corporation Information processing system and control method
US20180150622A1 (en) * 2016-11-28 2018-05-31 Lenovo (Singapore) Pte. Ltd. Authentication session management
JP6605442B2 (ja) * 2016-12-27 2019-11-13 本田技研工業株式会社 情報提供装置および情報提供方法
CN107329498B (zh) * 2017-07-11 2021-03-02 歌尔光学科技有限公司 调节设备及方法
US10269017B1 (en) 2017-11-21 2019-04-23 Capital One Services, Llc Transaction confirmation and authentication based on device sensor data
WO2019140284A1 (en) 2018-01-11 2019-07-18 Access Solutions, LLC Systems and methods for foreign material exclusion accountability
SG10201801749PA (en) 2018-03-05 2019-10-30 Kaha Pte Ltd Methods and system for determining and improving behavioural index
US11204988B2 (en) * 2018-04-20 2021-12-21 Spotify Ab Association via voice
US11195619B2 (en) 2018-09-18 2021-12-07 International Business Machines Corporation Real time sensor attribute detection and analysis
US11308979B2 (en) 2019-01-07 2022-04-19 Stmicroelectronics, Inc. Open vs enclosed spatial environment classification for a mobile or wearable device using microphone and deep learning method
US10943602B2 (en) * 2019-01-07 2021-03-09 Stmicroelectronics International N.V. Open vs enclosed spatial environment classification for a mobile or wearable device using microphone and deep learning method
US10769933B2 (en) * 2019-01-27 2020-09-08 Iris Forbes Safety wearable device
US10805801B1 (en) * 2019-10-02 2020-10-13 International Business Machines Corporation Automatic mobile device usage restriction
CN213457688U (zh) * 2020-09-29 2021-06-15 瑞声科技(新加坡)有限公司 智能手表

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110064526A (ko) * 2009-12-08 2011-06-15 한국전자통신연구원 감성신호 감지 장치 및 그 방법
KR20140146366A (ko) * 2013-06-17 2014-12-26 삼성전자주식회사 웨어러블 기기 및 웨어러블 기기를 이용한 통신 방법

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5527239A (en) * 1993-02-04 1996-06-18 Abbondanza; James M. Pulse rate controlled exercise system
KR100429706B1 (ko) 2001-02-23 2004-05-03 학교법인 한양학원 웹 기반의 집중력 향상 서비스 방법 및 시스템
KR100601932B1 (ko) * 2003-09-04 2006-07-14 삼성전자주식회사 바이오피드백을 이용한 훈련제어방법 및 장치
US8473043B1 (en) 2004-12-22 2013-06-25 Neuro Wave Systems Inc. Neuro-behavioral test method for screening and evaluating therapy for ADHD and system
US20070139553A1 (en) * 2005-12-20 2007-06-21 Kister Thomas F Remote monitoring system and method responsive to a signal reaching a threshold
JP2007267966A (ja) 2006-03-31 2007-10-18 Railway Technical Res Inst 異常行動抑制装置
US20100298649A1 (en) 2007-11-02 2010-11-25 Siegbert Warkentin System and methods for assessment of the aging brain and its brain disease induced brain dysfunctions by speech analysis
US8170656B2 (en) 2008-06-26 2012-05-01 Microsoft Corporation Wearable electromyography-based controllers for human-computer interface
US8814671B2 (en) * 2010-11-11 2014-08-26 International Business Machines Corporation Access control for electronic entertainment systems including health metrics and physical activity
US20120229270A1 (en) * 2011-03-11 2012-09-13 Christopher Morley Wearable biofeedback system
US20120315016A1 (en) * 2011-06-12 2012-12-13 Hei Tao Fung Multi-Purpose Image and Video Capturing Device
KR101790017B1 (ko) 2011-09-30 2017-10-25 삼성전자 주식회사 제스처 기반의 통신 채널 운용 제어 방법 및 이를 지원하는 휴대 단말기 시스템
US20130086056A1 (en) 2011-09-30 2013-04-04 Matthew G. Dyor Gesture based context menus
CA2851443C (en) * 2011-10-09 2022-07-12 The Medical Research, Infrastructure and Health Services Fund of the Tel Aviv Medical Center Virtual reality for movement disorder diagnosis and/or treatment
WO2014102722A1 (en) * 2012-12-26 2014-07-03 Sia Technology Ltd. Device, system, and method of controlling electronic devices via thought
WO2014107795A1 (en) * 2013-01-08 2014-07-17 Interaxon Inc. Adaptive brain training computer system and method
US20150007307A1 (en) * 2013-03-10 2015-01-01 eBravium, Inc. Method and System for Integration of Instruction and Task Completion Based Access to Mobile Device Operating Systems
US20140272847A1 (en) * 2013-03-14 2014-09-18 Edulock, Inc. Method and system for integrated reward system for education related applications
US9442570B2 (en) * 2013-03-13 2016-09-13 Google Technology Holdings LLC Method and system for gesture recognition
EP2972678A4 (en) * 2013-03-15 2016-11-02 Interaxon Inc CLOTHING COMPUTER APPARATUS AND ASSOCIATED METHOD
US9545221B2 (en) * 2013-11-27 2017-01-17 Samsung Electronics Co., Ltd. Electronic system with dynamic localization mechanism and method of operation thereof
US10321842B2 (en) * 2014-04-22 2019-06-18 Interaxon Inc. System and method for associating music with brain-state data
US20160014307A1 (en) 2014-07-14 2016-01-14 Larview Technologies Corp. Image capturing module having a built-in flexible dustproof structure
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
WO2016070188A1 (en) * 2014-11-02 2016-05-06 Kim Revyn Smart audio headphone system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110064526A (ko) * 2009-12-08 2011-06-15 한국전자통신연구원 감성신호 감지 장치 및 그 방법
KR20140146366A (ko) * 2013-06-17 2014-12-26 삼성전자주식회사 웨어러블 기기 및 웨어러블 기기를 이용한 통신 방법

Also Published As

Publication number Publication date
WO2016200204A1 (en) 2016-12-15
US10620593B2 (en) 2020-04-14
US20160363914A1 (en) 2016-12-15
KR102320815B1 (ko) 2021-11-02

Similar Documents

Publication Publication Date Title
KR102320815B1 (ko) 전자 장치 및 그 제어 방법
US11839473B2 (en) Systems and methods for estimating and predicting emotional states and affects and providing real time feedback
US10216474B2 (en) Variable computing engine for interactive media based upon user biometrics
US10366778B2 (en) Method and device for processing content based on bio-signals
US10824232B2 (en) Sound outputting apparatus, electronic apparatus, and control method thereof
US10885800B2 (en) Human performance optimization and training methods and systems
US10475351B2 (en) Systems, computer medium and methods for management training systems
US10345901B2 (en) Sound outputting apparatus, electronic apparatus, and control method thereof
CN103561652B (zh) 用于辅助患者的方法和系统
CN111936036A (zh) 使用生物特征传感器数据检测神经状态来指导现场娱乐
US20170143246A1 (en) Systems and methods for estimating and predicting emotional states and affects and providing real time feedback
US20210401338A1 (en) Systems and methods for estimating and predicting emotional states and affects and providing real time feedback
CN112352390A (zh) 利用用于检测神经状态的传感器数据进行内容生成和控制
US20200322301A1 (en) Message delivery and presentation methods, systems and devices using receptivity
US20210272698A1 (en) Personality based wellness coaching
JP7364099B2 (ja) 出力制御装置、出力制御方法およびプログラム
US11779275B2 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
Sun et al. Biosensors toward behavior detection in diagnosis of alzheimer’s disease
US11900723B2 (en) Smart eyeglasses for special needs children and adults
US20230095350A1 (en) Focus group apparatus and system
CA3230610A1 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
CN115397331A (zh) 控制装置和控制方法
US20230338698A1 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
WO2023187660A1 (en) Meditation systems and methods
Chayleva Zenth: An Affective Technology for Stress Relief

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant