KR20160130015A - 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법 - Google Patents

휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법 Download PDF

Info

Publication number
KR20160130015A
KR20160130015A KR1020150061725A KR20150061725A KR20160130015A KR 20160130015 A KR20160130015 A KR 20160130015A KR 1020150061725 A KR1020150061725 A KR 1020150061725A KR 20150061725 A KR20150061725 A KR 20150061725A KR 20160130015 A KR20160130015 A KR 20160130015A
Authority
KR
South Korea
Prior art keywords
content
user
visual fatigue
control unit
portable device
Prior art date
Application number
KR1020150061725A
Other languages
English (en)
Other versions
KR102072788B1 (ko
Inventor
문선호
최종호
곽세진
김성수
김화경
류종엽
이상협
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150061725A priority Critical patent/KR102072788B1/ko
Priority to US15/078,445 priority patent/US10130279B2/en
Priority to EP16786793.6A priority patent/EP3291167B1/en
Priority to PCT/KR2016/004526 priority patent/WO2016175607A1/ko
Publication of KR20160130015A publication Critical patent/KR20160130015A/ko
Priority to US16/166,834 priority patent/US10561334B2/en
Priority to US16/728,482 priority patent/US10791954B2/en
Application granted granted Critical
Publication of KR102072788B1 publication Critical patent/KR102072788B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/375Electroencephalography [EEG] using biofeedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • A61B5/279Bioelectric electrodes therefor specially adapted for particular uses
    • A61B5/291Bioelectric electrodes therefor specially adapted for particular uses for electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • A61B5/374Detecting the frequency distribution of signals, e.g. detecting delta, theta, alpha, beta or gamma waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Neurology (AREA)
  • Dermatology (AREA)
  • Neurosurgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Tourism & Hospitality (AREA)
  • Physical Education & Sports Medicine (AREA)

Abstract

휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법이 제공된다. 보다 상세하게는 사용자의 시각 피로도가 증가하는 경우, 표시되는 콘텐트를 변경하는 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법이 제공된다. 개시된 실시예 중 일부는 웨어러블 장치에서부터 수신되는 사용자 뇌파 정보를 이용하여 시각 피로도를 산출하고, 산출된 시각 피로도가 증가하는 경우, 표시되는 콘텐트를 다른 콘텐트로 변경하는 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법이 제공된다.

Description

휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법{PORTABLE APPARATUS AND METHOD FOR CHANGING A SCREEN OF CONTENT}
아래 실시예들은 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법에 관한 것으로, 상세하게는 사용자의 시각 피로도가 증가하는 경우, 표시되는 콘텐트를 다른 콘텐트로 변경하는 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법에 관한 것이다.
최근 휴대 장치에서 제공하는 다양한 서비스 및 기능들은 점차 확대되고 있다. 또한, 휴대 장치는 고 해상도의 화면을 사용자에게 제공하고 있다.
고 휘도, 고 해상도의 화면을 오랜 시간 사용함으로써 사용자에게 시각적 피로의 발생이 증가되고 있다. 시각적 피로가 누적되는 경우, 사용자에게 VDT(visual display terminals) 증후군이 생길 수 있다. 또한, 시각적 피로가 누적되어 사용자의 시력 저하 및/또는 안과 질환이 발생하고 있다.
사용자의 시각 피로도의 산출 및 시각 피로도 증가에 대한 솔루션이 필요할 수 있다.
본 발명의 실시예에 따른 휴대 장치의 콘텐트 화면 변경방법은 콘텐트를 표시하는 단계, 웨어러블 장치에서부터 사용자 뇌파 정보를 수신하는 단계, 상기 뇌파 정보에 기초하여 시각 피로도를 산출하는 단계, 및 상기 시각 피로도의 증가에 대응하여 상기 콘텐트를 다른 콘텐트로 변경하는 단계를 포함한다.
본 발명의 실시예에 따른 휴대 장치는 콘텐트를 표시하는 터치 스크린, 웨어러블 장치와 연결되는 통신부, 및 상기 터치 스크린 및 상기 통신부를 제어하는 제어부를 포함하고, 상기 제어부는 상기 통신부를 통해 상기 웨어러블 장치에서부터 수신된 사용자 뇌파 정보를 이용하여 시각 피로도를 산출하고, 상기 시각 피로도의 증가에 대응하여 상기 콘텐트를 다른 콘텐트로 변경할 수 있다.
본 발명의 다른 실시예에 따른 웨어러블 장치는 웨어러블 장치의 본체 내측에 위치하고, 사용자의 신체에 는 측정 전극 및 레퍼런스 전극을 포함하는 센서, 휴대 장치에 연결되는 통신부, 및 상기 센서 및 상기 통신부를 제어하는 제어부를 포함하고, 상기 제어부는 상기 센서를 이용하여 사용자의 뇌파를 검출하고, 상기 통신부를 통해 상기 뇌파에 대응되는 사용자 뇌파 정보를 상기 휴대 장치로 전송하고, 상기 본체는 원형, 타원형 및 다각형 중 하나의 형상을 가진다.
사용자의 시각 피로도 증가에 대응하여 표시되는 콘텐트를 다른 콘텐트로 변경가능한 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법이 제공될 수 있다.
사용자의 시각 피로도 증가에 대응하여 표시되는 콘텐트를 다른 콘텐트로 변경하여 시각 피로도를 완화하는 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법이 제공될 수 있다.
사용자의 시각 피로도 증가에 대응하여 표시되는 콘텐트를 시각 피로도를 완화하는 다양한 콘텐트로 변경하는 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법이 제공될 수 있다.
사용자의 뇌파 데이터를 이용하여 사용자의 시각 피로도를 산출 가능한 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법이 제공될 수 있다.
웨어러블 장치에서부터 수신되는 사용자 뇌파 정보를 이용하여 산출된 시각 피로도의 증가에 대응하여 표시되는 콘텐트를 다른 콘텐트로 변경하는 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법이 제공될 수 있다.
웨어러블 장치에서부터 수신되는 사용자 뇌파 정보를 이용하여 산출된 시각 피로도의 증가에 대응하여 표시되는 콘텐트를 눈 운동 가이드를 포함하는 다른 콘텐트로 변경하고, 카메라를 이용하여 사용자의 눈 운동 여부를 검출가능한 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법이 제공될 수 있다.
이에 한정되지 않고 본 발명의 다양한 실시예에 따르면, 외부에서 수신되는 뇌파 정보를 이용하여 시각 피로도를 산출 가능한 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법이 제공될 수 있다.
도 1은 본 발명의 실시예에 따른 휴대 장치, 웨어러블 장치 및 서버의 연결을 나타내는 개략적인 도면이다.
도 2는 본 발명의 실시예에 따른 휴대 장치, 웨어러블 장치 및 서버를 나타내는 개략적인 블럭도이다.
도 3은 본 발명의 실시예에 따른 웨어러블 장치를 나타내는 개략적인 사시도이다.
도 4는 본 발명의 실시예에 따른 휴대 장치의 콘텐트 화면 변경방법을 나타내는 개략적인 순서도이다.
도 5a 내지 11b는 본 발명의 실시예에 따른 휴대 장치의 콘텐트 화면 예를 나타내는 도면이다.
도 12a 내지 도 12c는 본 발명의 실시예에 따른 휴대 장치의 환경 설정 화면 예를 나타내는 도면이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명을 제조하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다.
"제1", "제2" 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어플리케이션(application)은 컴퓨터용 OS(Operating System) 또는 모바일 OS에서 실행되어 사용자에게 서비스(또는 정보)를 제공하는 응용 소프트웨어를 의미한다. 예를 들어, 어플리케이션은 워드 프로세서, 스프레드 시트, 연락처(contacts) 어플리케이션, 캘린더(calendar) 어플리케이션, 메모(memo) 어플리케이션, 알람(alarm) 어플리케이션, SNS(Social Network System) 어플리케이션, 채팅(chatting) 어플리케이션, 지도(Map) 어플리케이션, 뮤직 플레이어, 시각 피로도 관리 어플리케이션 또는 비디오 플레이어를 포함할 수 있다. 본 발명의 실시예에 따른 어플리케이션은 휴대 장치에서 실행되는 시각 피로도 관리 어플리케이션 또는 휴대 장치와 무선 또는 유선으로 연결되는 웨어러블 장치(예를 들어, 뇌파 측정 웨어러블 장치 등)에서 실행되는 시각 피로도 관리 어플리케이션을 의미할 수 있다. 또한, 본 발명의 실시예에 따른 어플리케이션은 수신되는 사용자 입력(예를 들어, 터치 등)에 응답하여 휴대 장치에서 실행되는 소프트웨어를 의미할 수 있다.
본 발명의 실시예에서, 웨어러블 장치(200)의 상태(status)는 웨어러블 장치(200)의 상황(context)를 의미할 수 있다. 웨어러블 장치(200)의 상태에 대응되는 상태 정보는 웨어러블 장치(200)의 상황 정보(context information)를 의미할 수 있다. 웨어러블 장치(200)의 상태 변경은 웨어러블 장치(200)의 상황 변경과 동일한 의미일 수 있다.
위젯(widget)은 사용자와 어플리케이션 또는 OS와의 상호 작용을 보다 원활하게 지원해주는 그래픽 유저 인터페이스(GUI, Graphic User Interface) 중 하나인 미니 어플리케이션을 의미한다. 예를 들어, 날씨 위젯, 계산기 위젯, 시계 위젯 등이 있다.
콘텐트(content)는 휴대 장치(100) 또는 웨어러블 장치(200)에서 실행되는 어플리케이션에서 표시될 수 있다. 예를 들어, 콘텐트는 어플리케이션 중 하나인 비디오 플레이어에서 재생되는 비디오 파일 또는 오디오 파일, 뮤직 플레이어에서 재생되는 뮤직 파일, 포토 갤러리에서 표시되는 포토 파일, 웹 브라우저에서 표시되는 웹 페이지 파일 등을 포함할 수 있다. 또한, 콘텐트는 어플리케이션에서 표시되거나 또는 실행되는 비디오 파일, 오디오 파일, 텍스트 파일, 이미지 파일 또는 웹 페이지를 포함할 수 있다. 본 발명의 실시예에서 "비디오"라는 용어는 동영상과 동일한 의미로 사용될 수 있다. 또한, 콘텐트는 수신되는 사용자 입력(예를 들어, 터치 등)에 대응하여 실행되는 비디오 파일, 오디오 파일, 텍스트 파일, 이미지 파일 또는 웹 페이지를 포함할 수 있다.
콘텐트는 휴대 장치(100) 또는 웨어러블 장치(200)에서 실행되는 어플리케이션 화면 및 어플리케이션 화면을 구성하는 유저 인터페이스(user interface)를 포함할 수 있다. 또한, 콘텐트는 하나의 콘텐트 또는 복수의 콘텐츠를 포함할 수도 있다.
본 발명의 실시예에서, 디스플레이(display)는 콘텐트가 표시되는 터치 스크린의 화면 또는 디스플레이부의 화면을 포함할 수 있다.
본 발명의 실시예에서, 사용자의 생체 정보는 사용자의 뇌파, 체온, 맥박, 심장 박동, 맥박 변이도, 혈압, 혈당, 호흡 정보, 산소 포화도, 피부 상태, 운동량, 스트레스, 스트레스 지수, 수면 정보 등을 포함할 수 있다.
본 발명의 실시예에서, 웨어러블 장치는 사용자의 생체 정보를 검출하는 생체 정보 검출 장치를 의미할 수 있다. 생체 정보 검출 장치는 손목 시계, 안경, 반지, 팔찌, 목걸이 또는 머리띠 등으로 구현될 수 있다.
본 발명의 실시예에서, 다른 콘텐트의 변경은 표시되는 어플리케이션에서 표시되는 콘텐트의 폰트 크기, 콘텐트에 컬러 화면 추가, 콘텐트에 눈 운동 가이드 표시, 또는 콘텐트에 눈 운동 애니메이션이 표시를 포함할 수 있다.
시각 피로도(visual fatigue)는 휴대 장치에 표시되는 콘텐트에 집중하거나 또는 장시간 콘텐트를 시청하는 사용자에게 발생할 수 있다. 시각 피로도를 발생시키는 주위 환경 요소(예를 들어, 주위 조명, 온도, 습도 등) 및 사용자 생체 요소(예를 들어, 체온, 심장 박동 등과 같은 생체 정보에 대응되는)는 다양할 수 있다. 시각 피로도를 발생시키는 요소는 눈부심, 습도, 눈의 충혈, 글자의 흐릿함, 어지러움, 시선의 무기력/무감각, 또는 눈의 신체적 이상 정도를 포함할 수 있다. 또한, 시각 피로도를 발생시키는 요소는 목과 등 부위의 피로도, 팔/손목/어깨의 피로도, 다리 부위의 피로도 또는 두통을 포함할 수 있다. 또한, 시각 피로도를 발생시키는 요소는 주위 조명의 밝기 정도 또는 주변 소음 정도를 포함할 수 있다.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.
도 1은 본 발명의 실시예에 따른 휴대 장치, 외부 장치 및 서버의 연결을 나타내는 개략적인 도면이다.
도 1을 참조하면, 휴대 장치(100), 웨어러블 장치(200) 및 서버(300)는 각각의 통신부(도 2 참조)를 이용하여 무선으로 서로 연결될 수 있다. 예를 들어, 휴대 장치(100), 웨어러블 장치(200) 및 서버(300)는 애드 혹 모드(ad-hoc mode) 또는 AP(access point)를 통해 무선으로 상호 연결되는 인프라스트럭쳐 모드(infra-structure mode)로 연결될 수 있다. 휴대 장치(100) 및 웨어러블 장치(200)는 서버(300)에서부터 수신된 콘텐트를 각각 서로에게 전송할 수 있다.
서버(300)는 휴대 장치(100) 및 웨어러블 장치(200)의 주변에 위치하거나 또는 원격(예를 들어, 클라우드 서버 등)에 위치할 수 있다.
무선 통신은 예를 들어, 무선 랜(Wi-Fi), 블루투스, 블루투스 저 에너지(Bluetooth low energy), 지그비, WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다. 또한, 휴대 장치(100), 전자 장치(101), 서버(300) 및 웨어러블 장치(200)는 커넥터를 통해 유선으로도 연결 가능하다.
휴대 장치(100)는 웨어러블 장치(200)의 상태 변경(예를 들어, 전원 온/오프, 뇌파 검출 등)에 대응되는 상태 변경 정보를 어플리케이션을 통해 웨어러블 장치(200)에서부터 수신할 수 있다. 또한, 휴대 장치(100)는 웨어러블 장치(200)의 상태 변경(예를 들어, 전원 온/오프, 뇌파 검출 등)에 대응되는 상태 변경 정보를 서버(300)를 통해 수신할 수 있다.
휴대 장치(100)는 어플리케이션 및 서버(300) 중 하나를 통해 웨어러블 장치(200)의 상태를 변경(예를 들어, 전원 온, 뇌파 검출 요청)할 수 있다.
도 1에서, 휴대 장치(100), 웨어러블 장치(200) 및 서버(300)가 직접 연결되는 것으로 도시하고 설명하였지만, 각각의 장치는 공유기, 라우터, 또는, 무선 인터넷 망 등을 통하여 연결될 수도 있다.
도 2는 본 발명의 실시예에 따른 휴대 장치, 웨어러블 장치 및 서버를 나타내는 개략적인 블럭도이다.
도 2를 참조하면, 휴대 장치(100)는 이동 통신부(120), 서브 통신부(130) 및 커넥터(165)를 이용하여 다른 장치(예를 들어, 웨어러블 장치(200), 또는 서버(300))와 유선 또는 무선으로 연결될 수 있다.
본 발명의 실시예에 따른 휴대 장치(100)는 웨어러블 장치(200)에서부터 수신된 사용자 뇌파(EEG, Electroencephalogram)를 포함하는 생체 정보 및 어플리케이션을 이용하여 사용자의 시각 피로도(visual fatigue)를 산출할 수 있는 장치 및/또는 웨어러블 장치(200)에서부터 수신된 사용자 생체 정보(예를 들어, 뇌파) 없이 어플리케이션을 이용하여 사용자의 시각 피로도(visual fatigue)를 추론할 수 있는 장치를 의미할 수 있다.
휴대 장치(100)는 산출된 시각 피로도에 대응하여 터치 스크린 또는 디스플레이부에 표시되는 콘텐트를 변경할 수 있는 장치를 의미할 수 있다. 예를 들어, 휴대 장치(100)는 휴대폰, 스마트폰, 태블릿(tablet) 장치, 디스플레이부를 가지는 머리 장착 디스플레이 장치(head mounted display apparatus), MP3 플레이어, 동영상 플레이어, 전자 칠판, 모니터, 디스플레이부를 가지는 전자 장치(예를 들어, 냉장고, 세탁기, 또는 에어컨 등), 또는 디스플레이 장치(201) 등을 포함할 수 있다. 휴대 장치(100) 중 하나인 머리 장착 디스플레이 장치(도시되지 아니함)는 사용자 뇌파를 검출할 수 있는 센서(예를 들어, 전극)를 포함할 수 있다. 사용자 뇌파를 검출할 수 있는 센서(예를 들어, 전극)를 포함하는 머리 장착 디스플레이 장치(도시되지 아니함)는 센서를 통해 검출된 시각 피로도가 증가하는 경우, 머리 장착 디스플레이 장치(도시되지 아니함)는 디스플레이부(도시되지 아니함)에서 표시되는 콘텐트를 시각 피로도를 감소하는 다른 콘텐트로 변경할 수 있다.
디스플레이 장치(201)는 아날로그 TV, 디지털 TV, 3D-TV, 스마트 TV, LED TV, OLED TV, 플라즈마 TV, 고정 곡률(curvature) 화면을 가지는 커브드(curved) TV, 고정 곡률 화면을 가지는 플렉시블(flexible) TV, 고정 곡률 화면을 가지는 벤디드(bended) TV, 및/또는 수신되는 사용자 입력에 의해 화면의 곡률을 변경가능한 곡률 가변형 TV 등으로 구현될 수 있으나, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
휴대 장치(100)는 터치 스크린(190)을 가지고 통신부(120 또는 130)를 통해 데이터(또는 콘텐트)를 외부로 송신 또는 외부에서부터 수신할 수 있다. 휴대 장치(100)는 입력 펜(167) 및 터치 스크린(190)을 가지고 통신부(120 또는 130)를 통해 데이터(또는 콘텐트)를 외부로 송신 또는 외부에서부터 수신할 수 있다. 휴대 장치(100)는 터치 스크린(190)에서 입력되는 인터랙션(예를 들어, 터치 또는 터치 제스처)에 대응하여 데이터(또는 콘텐트)를 외부로 송신 또는 외부에서부터 수신할 수 있다. 또한, 휴대 장치(100)는 디스플레이 패널만 있는 디스플레이부(예를 들어, 터치 패널은 없는 경우, 도시되지 아니함)를 가지고 통신부(120 또는 130)를 통해 데이터(또는 콘텐트)를 외부로 송신 또는 외부에서부터 수신할 수 있다.
휴대 장치(100)는 제어부(110), 이동 통신부(120), 서브 통신부(130), 멀티미디어부(140), 카메라(150), GPS(global positioning system, 155), 입/출력부(160), 센서부(170), 저장부(175) 및 전원 공급부(180)를 포함한다. 또한, 휴대 장치(100)는 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 포함한다.
제어부(110)는 프로세서(Processor, 111), 휴대 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 휴대 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 저장하거나, 휴대 장치(100)에서 수행되는 다양한 작업에 대한 저장 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다.
제어부(110)는 휴대 장치(100)의 전반적인 동작 및 휴대 장치(100)의 내부 구성 요소들(120 내지 195)간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부(110)는 전원 공급부(180)를 이용하여 내부 구성 요소들(120 내지 195)에게 전원 공급을 제어한다. 또한, 사용자의 입력이 수신되거나 또는 설정된 조건을 만족하는 경우, 제어부(110)는 센서부(170)의 센서를 동작시키거나, 저장부(175)에 저장된 OS(Operating System) 또는 어플리케이션을 실행할 수 있다.
프로세서(111)는 그래픽 처리를 위한 GPU(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서(111)는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 포함하는 SoC(System On Chip) 형태로 구현될 수 있다. 프로세서(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 또한, 프로세서(111), 롬(112) 및 램(113)은 버스(bus)로 상호 연결될 수 있다.
제어부(110)는 이동 통신부(120), 서브 통신부(130), 멀티미디어부(140), 카메라(150), GPS(155), 입/출력부(160), 센서부(170), 저장부(175), 전원 공급부(180), 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 제어할 수 있다.
본 발명의 실시예에 따른 제어부(110)는 화면에 콘텐트를 표시하고, 통신부를 통해 웨어러블 장치와 연결하고, 상기 통신부를 통해 상기 웨어러블 장치(200)에서부터 수신된 사용자 뇌파 정보를 이용하여 시각 피로도를 산출하고, 상기 시각 피로도의 증가에 대응하여 상기 콘텐트를 다른 콘텐트로 변경한다.
제어부(110)는 콘텐트를 표시하고, 웨어러블 장치에서부터 사용자 뇌파 정보를 수신하고, 상기 뇌파 정보에 기초하여 시각 피로도를 산출하고, 상기 시각 피로도의 증가에 대응하여 상기 콘텐트를 다른 콘텐트로 변경할 수 있다.
제어부(110)는 상기 통신부를 통해 상기 웨어러블 장치에게 뇌파 검출을 요청하도록 제어할 수 있다.
상기 다른 콘텐트가 눈 운동 가이드를 포함하는 콘텐트인 경우, 제어부(110)는 상기 시각 피로도 증가에 따라 상기 눈 운동 가이드를 포함하는 상기 다른 콘텐트가 실행에 대응하여 카메라(150)를 실행하도록 제어할 수 있다.
제어부(110)는 상기 콘텐트를 표시하는 어플리케이션에 대응하여 각각 다른 컬러 화면을 표시하도록 제어할 수 있다.
제어부(110)는 상기 콘텐트를 표시하는 상기 제2 어플리케이션에 대응하여 상기 다른 콘텐트를 변경하도록 제어할 수 있다.
제어부(110)는 시각 피로도 증가에 대응되는 팝업창을 표시하도록 제어할 수 있다.
제어부(110)는 시각 피로도 증가에 대응되는 피드백을 제공하도록 제어할 수 있다.
본 발명의 실시예에서 "제어부"라는 용어는 프로세서(111), 롬(112) 및 램(113)을 포함한다.
이동 통신부(120)는 제어부(110)의 제어에 의해 하나 또는 둘 이상의 안테나를 이용하여 이동 통신망을 통해 다른 장치(예를 들어, 웨어러블 장치(200) 또는 서버(300))와 연결할 수 있다. 이동 통신부(120)는 제어부(110)의 제어에 의해 웨어러블 장치(200)에서부터 뇌파 데이터를 수신할 수 있다. 수신된 뇌파 데이터(예를 들어, 아날로그 데이터 또는 디지털 데이터)는 제어부(110)의 제어에 의해 저장부(175)에 저장될 수 있다.
이동 통신부(120)는 연결가능한 전화 번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 휴대 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS), 멀티미디어 메시지(MMS) 및 데이터 통신을 위한 무선 신호를 송/수신할 수 있다.
서브 통신부(130)는 제어부(110)의 제어에 의해 무선랜(131), 근거리 통신부(132)를 통해 다른 장치(예를 들어, 웨어러블 장치(200) 또는 서버(300))와 연결할 수 있다. 서브 통신부(130)는 무선랜(131)과 근거리 통신부(132) 중 적어도 하나(예를 들어, 무선랜(131) 및 근거리 통신부(132) 중 하나, 또는 무선랜(131)과 근거리 통신부(132) 모두)를 포함할 수 있다.
서브 통신부(130)는 제어부(110)의 제어에 의해 웨어러블 장치(200)에서부터 뇌파 데이터를 수신할 수 있다. 수신된 뇌파 데이터(예를 들어, 아날로그 데이터 또는 디지털 데이터)는 제어부(110)의 제어에 의해 저장부(175)에 저장될 수 있다.
무선랜(131)은 제어부(110)의 제어에 의해 AP(access point)가 설치된 장소에서 무선으로 AP와 연결될 수 있다. 무선랜(131)은 예를 들어, 와이-파이(Wi-Fi)를 포함할 수 있다. 무선랜(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리 통신부(132)은 제어부(110)의 제어에 의해 AP없이 무선으로 휴대 장치(100)와 외부 장치 사이에 근거리 통신을 할 수 있다. 근거리 통신은 블루투스(bluetooth), 블루투스 저 에너지(bluetooth low energy), 적외선 통신(IrDA, infrared data association), UWB(Ultra Wideband) 및 NFC(Near Field Communication) 등을 포함할 수 있다.
휴대 장치(100)는 성능에 따라 이동 통신부(120), 무선랜(131), 및 근거리 통신부(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 휴대 장치(100)는 이동 통신부(120), 무선랜(131), 및 근거리 통신부(132) 중 하나, 또는 이동 통신부(120), 무선랜(131), 및 근거리 통신부(132)의 조합을 포함할 수 있다. 휴대 장치(100)는 이동 통신부(120) 및 서브 통신부(130) 중 하나를 이용하여 다양한 외부의 액세서리(예를 들어, 무선 스피커, 무선 헤드셋 등)와 연결할 수 있다.
본 발명의 실시예에서 “통신부”라는 용어는 이동 통신부(120), 서브 통신부(130)를 포함한다.
멀티 미디어부(140)는 제어부(110)의 제어에 의해 외부의 방송을 수신, 오디오 및/또는 동영상을 재생할 수 있다. 멀티 미디어부(140)는 방송 수신부(141), 오디오 재생부(142) 또는 동영상 재생부(143)를 포함할 수 있다.
방송 수신부(141)는 제어부(110)의 제어에 의해 안테나(도시되지 아니함)를 통해 외부의 방송국에서부터 송출되는 방송 신호(예를 들어, TV 방송 신호, 라디오 방송 신호 또는 데이터 방송 신호) 및 방송 부가 정보(예를 들어, EPG(Electronic Program Guide) 또는 ESG(Electronic Service Guide))를 수신할 수 있다. 또한, 제어부(110)는 수신된 방송 신호 및 방송 부가 정보를 터치 스크린, 비디오 코덱(video code, 도시되지 아니함) 및 오디오 코덱(audio codec, 도시되지 아니함)을 이용하여 재생하도록 제어할 수 있다.
오디오 재생부(142)는 제어부(110)의 제어에 의해 휴대 장치(100)의 저장부(175)에 기 저장되거나 또는 외부에서부터 수신되는 오디오 소스(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav를 포함하는 오디오 파일)를 오디오 코덱을 이용하여 재생할 수 있다.
본 발명의 실시예에 따라 오디오 재생부(142)는 시각 피로도 증가에 응답하여 변경되는 콘텐트에 대응되는 청각 피드백을 재생할 수 있다. 예를 들어, 오디오 재생부(142)는 제어부(110)의 제어에 의해 웨어러블 장치(200)에서부터 뇌파 정보를 수신, 수신된 뇌파 정보의 분석을 통해 시각 피로도 증가에 응답하여 변경되는 콘텐트에 대응되는 청각 피드백(예를 들어, 저장부에 저장된 오디오 소스의 출력 등)을 오디오 코덱을 통해 재생할 수 있다.
본 발명의 실시예에 따라 오디오 재생부(142)는 제어부(110)의 제어에 의해 터치 스크린(190)에서 검출되는 터치 또는 터치의 연속적인 움직임에 대응되는 청각 피드백(예를 들어, 저장부에 저장된 오디오 소스의 출력 등)을 오디오 코덱을 통해 재생할 수 있다.
동영상 재생부(143)는 제어부(110)의 제어에 의해 휴대 장치(100)의 저장부(175)에 기 저장되거나 또는 외부에서부터 수신되는 디지털 동영상 소스(예를 들어, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv를 포함하는 비디오 파일)을 비디오 코덱을 이용하여 재생할 수 있다. 휴대 장치(100)에 설치가능한 멀티미디어 어플리케이션은 오디오 코덱 및/또는 비디오 코덱을 이용하여 오디오 소스 또는 동영상 소스를 재생할 수 있다. 또한, 휴대 장치(100)에 설치가능한 멀티미디어 어플리케이션은 하드웨어 코덱(도시되지 아니함) 및/또는 소프트웨어 코덱(도시되지 아니함)을 이용하여 동영상 소스를 재생할 수 있다.
본 발명의 실시예에 따라 동영상 재생부(143)는 시각 피로도 증가에 응답하여 변경되는 콘텐트에 대응되는 시각 피드백을 재생할 수 있다. 예를 들어, 동영상 재생부(143)은 제어부(110)의 제어에 의해 웨어러블 장치(200)에서부터 뇌파 정보를 수신, 수신된 뇌파 정보의 분석을 통해 시각 피로도 증가에 응답하여 변경되는 콘텐트에 대응되는 시각 피드백(예를 들어, 저장부에 저장된 동영상 소스의 출력 등)을 비디오 코덱을 통해 재생할 수 있다.
다양한 파일 확장자를 가지는 오디오/비디오 파일을 재생가능한 다양한 종류의 비디오 코덱 및 오디오 코덱이 생산 및 판매되고 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
멀티미디어부(140)는 휴대 장치(100)의 성능 또는 구조에 대응하여 방송 수신부(141)을 제외하고 오디오 재생부(142)과 동영상 재생부(143)를 포함할 수 있다. 또한, 제어부(110)는 멀티미디어부(140)의 오디오 재생부(142) 또는 동영상 재생부(143)를 포함하도록 구현될 수도 있다.
본 발명의 실시예에서 "오디오 코덱"이라는 용어는 하나 또는 둘 이상의 오디오 코덱을 포함할 수 있다. 본 발명의 실시예에서 "비디오 코덱"이라는 용어는 하나 또는 둘 이상의 비디오 코덱을 포함할 수 있다.
카메라(150)는 제어부(110)의 제어에 의해 정지 이미지 또는 동영상을 촬영할 수 있다. 카메라(150)는 전면(도 5a의 100a)의 제1 카메라(도 5a의 151) 및 후면(도시되지 아니함)의 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 예를 들어, 카메라(150)는 제1 카메라(151) 및 제2 카메라(152) 중 하나 또는 양자를 모두 포함할 수 있다. 또한, 제1 카메라(151) 또는 제2 카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예를 들어, 플래시(153))을 포함할 수 있다.
카메라(150)는 전면의 제1 카메라(151) 및 제1 카메라(151)에 인접한 추가 카메라(예를 들어, 제3 카메라(도시되지 아니함))를 더 포함하는 형태로 구현될 수 있다. 예를 들어, 제3 카메라(도시되지 아니함)와 제1 카메라(151)의 간격은 30 ㎜ 보다 크고 80 ㎜ 보다 작도록 구현될 수 있다. 제3 카메라(도시되지 아니함)를 더 포함하는 경우, 제어부(110)는 제1 카메라(151) 및 제3 카메라(도시되지 아니함)를 이용하여 3차원 정지 이미지 또는 3차원 동영상을 촬영할 수 있다.
카메라(150)는 후면의 제2 카메라(152) 및 제2 카메라(152)에 인접한 추가 카메라(예를 들어, 제4 카메라(도시되지 아니함))를 더 포함하는 형태로 구현될 수 있다. 예를 들어, 제4 카메라(도시되지 아니함)와 제2 카메라(152)의 간격은 30 ㎜ 보다 크고 80 ㎜ 보다 작도록 구현될 수 있다. 제4 카메라(도시되지 아니함)를 더 포함하는 경우, 제어부(110)는 제2 카메라(151) 및 제4 카메라(도시되지 아니함)를 이용하여 3차원 정지 이미지 또는 3차원 동영상을 촬영할 수 있다. 또한, 카메라(150, 152)는 별도의 어댑터(도시되지 아니함)에 착탈가능한 추가 렌즈(도시되지 아니함)를 이용하여 광각, 망원 및 접사 촬영을 할 수 있다.
GPS(155)는 지구 궤도상에 있는 복수의 GPS 위성(도시되지 아니함)에서부터 주기적으로 신호(예를 들어, GPS 위성의 궤도 정보, 위성의 시간 정보 및 항법 메시지 등)를 수신한다. 실외의 경우, 휴대 장치(100)는 복수의 GPS위성(도시되지 아니함)에서부터 수신되는 신호를 이용하여 복수의 GPS 위성(도시되지 아니함)과 휴대 장치(100)의 위치를 산출하고, 송/수신 시간차를 이용하여 거리를 산출할 수 있다. 삼각 측량을 통해 휴대 장치(100)의 위치, 시간 또는 이동 속도를 산출할 수 있다. 궤도 보정 또는 시간 보정을 위해 추가의 GPS 위성이 필요할 수 있다. 복수의 GPS 위성(도시되지 아니함)에서부터 GPS(155)를 통해 신호가 수신되는 실내의 경우도 휴대 장치(100)는 휴대 장치(100)의 위치, 시간 또는 이동 속도를 산출할 수 있다.
실내의 경우, 휴대 장치(100)는 무선 AP(도시되지 아니함)를 이용하여 휴대 장치(100)의 위치 또는 이동 속도를 검출할 수 있다. 실내에서 휴대 장치(100)의 위치 검출은 무선 AP의 ID를 이용한 셀 아이디(cell-ID) 방식, 무선 AP의 ID와 RSS(Received signal strength)를 이용한 강화 셀 아이디(enhanced cell-ID) 방식 또는 AP에서부터 전송된 신호의 휴대 장치(100)에 수신되는 각도를 이용한 AoA(Angle of Arrival) 방식을 이용할 수 있다.
또한, 휴대 장치(100)는 무선 비컨(beacon, 도시되지 아니함)을 이용하여 실내에 위치하는 휴대 장치(100)의 위치 또는 이동 속도를 검출할 수 있다. 상기의 방식뿐만 아니라 다양한 방식을 통해 휴대 장치(100)의 실내 위치를 검출할 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
입/출력부(160)는 하나 또는 둘 이상의 버튼(161), 마이크(162), 스피커(163), 진동 모터(164), 커넥터(165), 키패드(166) 및 입력 펜(167) 중 적어도 하나를 포함할 수 있다.
도 1 및 도 5a를 참조하면, 버튼(161)은 휴대 장치(100) 전면(100a)의 하부에 있는 홈 버튼(161a), 메뉴 버튼(161b), 및/또는 돌아가기 버튼(161c)을 포함한다. 버튼(161)은 휴대 장치(100) 측면(100b)의 전원/잠금 버튼(161d) 및 적어도 하나의 볼륨 버튼(161e)을 포함할 수 있다. 또한, 휴대 장치(100)의 버튼(161)은 홈 버튼(161a), 전원/잠금 버튼(161d) 및 볼륨 버튼(161e)만을 포함할 수 있다. 휴대 장치(100)의 버튼(161)은 물리적 버튼뿐만 아니라 터치 스크린(190)의 터치 버튼으로 구현될 수 있다. 또한, 휴대 장치(100)의 버튼(161)은 터치 스크린(190)상에 텍스트, 이미지 또는 아이콘 형태로 표시될 수 있다. 도 1 및 도 5a에 도시된 버튼(161)의 형태, 위치, 기능, 명칭 등은 설명을 위한 하나의 실시예이며, 이에 한정되지 않고 변경, 변형 또는 수정할 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
마이크(162)는 제어부(110)의 제어에 의해 외부에서부터 음성(voice) 또는 사운드(sound)를 입력받아 전기적인 신호를 생성한다. 마이크(162)에서 생성된 전기적인 신호는 제어부(110)의 제어에 의해 오디오 코덱에서 변환되어 저장부(175)에 저장되거나 또는 스피커(163)를 통해 출력될 수 있다. 도 5a를 참조하면, 마이크(162)는 휴대 장치(100)의 전면(100a), 측면(100b) 및/또는 후면에 하나 또는 둘 이상 위치할 수 있다. 또한, 휴대 장치(100)의 측면(100b)에만 하나 또는 둘 이상의 마이크가 위치할 수도 있다.
스피커(163)는 제어부(110)의 제어에 의해 오디오 코덱에 의해 디코딩되는 다양한 신호(예를 들어, 무선 신호, 방송 신호, 오디오 소스, 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 출력할 수 있다.
스피커(163)는 휴대 장치(100)가 수행하는 기능에 대응되는 사운드(예를 들어, 전화 번호 입력에 대응되는 터치 조작음, 또는 사진 촬영버튼 조작음)를 출력할 수 있다. 도 1 및 도 5a를 참조하면, 휴대 장치(100)의 전면(100a), 측면(100b) 및/또는 후면에 하나 또는 복수의 스피커(163)가 위치할 수 있다. 휴대 장치(100)의 전면(100a)에 하나 또는 복수의 스피커가 위치할 수 있다. 또한, 휴대 장치(100)의 전면 및 후면에 각각 하나의 스피커가 위치할 수 있다. 휴대 장치(100)의 전면(100a)에 하나의 스피커(163a) 및 후면에 복수의 스피커(도시되지 아니함)이 위치할 수 있다.
휴대 장치(100) 측면(100b)에 복수의 스피커(도시되지 아니함)가 위치할 수 있다. 휴대 장치(100) 측면(100b)에 추가 스피커(도시되지 아니함)가 위치하는 휴대 장치(100)는 전면(100a) 및 후면에 스피커가 위치하는 다른 휴대 장치(도시되지 아니함)와 구별되는 사운드 효과를 사용자에게 제공할 수 있다.
본 발명의 실시예에 따라 스피커(163)는 시각 피로도 증가에 응답하여 변경되는 콘텐트에 대응되는 청각 피드백을 출력할 수 있다. 예를 들어, 스피커(163)는 제어부(110)의 제어에 의해 웨어러블 장치(200)에서부터 뇌파 정보를 수신, 수신된 뇌파 정보의 분석을 통해 시각 피로도 증가에 응답하여 변경되는 콘텐트에 대응하여 청각 피드백을 출력할 수 있다.
진동 모터(164)는 제어부(110)의 제어에 의해 전기적 신호를 기계적 진동으로 변환할 수 있다. 진동 모터(164)는 리니어 진동 모터, 바 타입 진동 모터, 코인 타입 진동 모터 또는 압전 소자 진동 모터를 포함할 수 있다. 예를 들어, 다른 휴대 장치(도시되지 아니함)에서부터 음성 통화 요청이 수신되는 경우, 진동 모드인 휴대 장치(100)에서 진동 모터(164)는 제어부(110)의 제어에 의해 동작할 수 있다.
진동 모터(164)는 휴대 장치(100)에 하나 또는 둘 이상으로 위치할 수 있다. 또한, 진동 모터(164)는 휴대 장치(100) 전체를 진동시키거나 또는 휴대 장치(100)의 일 부분만을 국부적으로(locally) 진동시킬 수도 있다.
본 발명의 실시예에 따라 진동 모터(164)는 시각 피로도 증가에 응답하여 변경되는 콘텐트에 대응되는 촉각 피드백을 출력할 수 있다. 예를 들어, 진동 모터(164)는 제어부(110)의 제어에 의해 웨어러블 장치(200)에서부터 뇌파 정보를 수신, 수신된 뇌파 정보의 분석을 통해 시각 피로도 증가에 응답하여 변경되는 콘텐트에 대응하여 촉각 피드백을 출력할 수 있다. 또한, 진동 모터(164)는 제어부(110)의 제어 명령에 기초하여 기 저장되거나 외부에서부터 수신된 다양한 촉각 피드백(예를 들어, 진동의 세기 및 진동 지속 시간)을 제공할 수 있다.
커넥터(165)는 휴대 장치(100)와 외부 장치(도시되지 아니함) 또는 전원 소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다.
휴대 장치(100)는 제어부(110)의 제어에 의해 커넥터(165)에 연결된 유선 케이블을 통해 저장부(175)에 저장된 데이터(또는 콘텐트)를 외부로 전송하거나 또는 외부에서부터 수신할 수 있다. 휴대 장치(100)는 제어부(110)의 제어에 의해 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)에서부터 전원을 입력받거나 또는 배터리(도시되지 아니함)를 충전할 수 있다. 또한, 휴대 장치(100)는 커넥터(165)를 통해 액세서리(예를 들어, 스피커(도시되지 아니함), 키보드 도크(keyboard dock, 도시되지 아니함))와 연결될 수 있다.
키패드(166)는 휴대 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 휴대 장치(100)의 전면에 형성되는 물리적인 키패드(도시되지 아니함), 터치 스크린(190)내 표시되는 가상 키패드(도시되지 아니함) 및 무선 또는 유선으로 연결가능한 물리적인 키패드(도시되지 아니함)를 포함한다. 휴대 장치(100)의 전면에 형성되는 물리적인 키패드(도시되지 아니함)는 휴대 장치(100)의 성능 또는 구조에 따라 제외될 수 있다는 것은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
입력 펜(167)은 사용자에 의해 휴대 장치(100)의 터치 스크린(190) 또는 필기/그리기 어플리케이션에 표시되는 화면(예를 들어, 메모 화면, 노트 패드 화면, 캘린더 화면, 등)에 표시되는(또는, 구성하는) 오브젝트(object, 예를 들어, 메뉴, 텍스트, 이미지, 비디오, 도형, 아이콘 및 단축아이콘)를 터치(또는, 선택)할 수 있다.
입력 펜(167)은 사용자에 의해 휴대 장치(100)의 터치 스크린(190) 또는 필기/그리기 어플리케이션에 표시되는 화면(예를 들어, 메모 화면, 노트 화면, 캘린더 화면 등)에 표시되는 콘텐트(content, 예를 들어, 텍스트 파일, 이미지 파일, 오디오 파일, 비디오 파일 또는 웹 페이지)를 터치하거나 선택할 수 있다.
입력 펜(167)은 사용자에 의해 휴대 장치(100)의 터치 스크린(190)에 표시되는 필기 어플리케이션(예를 들어, 메모 화면 등) 또는 그리기 어플리케이션의 화면(예를 들어, 캔버스 화면 등)에서 필기(handwriting) 또는 그리기(drawing, painting or sketching)를 할 수 있다.
입력 펜(167)은 정전 용량 방식, 저항막 방식, 또는 전자기 공명(electromagnetic resonance, EMR)의 터치 스크린을 터치하거나 또는 표시되는 가상 키패드를 이용하여 문자 등을 입력할 수 있다. 입력 펜(167)은 스타일러스 펜 또는 내장된 진동 소자(예를 들어, 액추에이터(actuator) 또는 진동 모터)가 진동하는 햅틱 펜(haptic pen, 도시되지 아니함)을 포함할 수 있다. 또한, 입력 펜(167)은 휴대 장치(100)에서부터 수신되는 제어 정보뿐만 아니라 입력 펜(167)에 내장된 센서(예를 들어, 가속도 센서, 도시되지 아니함)에서 검출된 센싱 정보에 대응하여 진동 소자를 동작(예를 들어, 진동)시킬 수 있다.
입력 펜(167)이 삽입구(도시되지 아니함)에서 인출되는 경우, 제어부(110)는 설정된 필기/그리기 어플리케이션을 실행하여 터치 스크린(190)에 필기/그리기 어플리케이션의 화면(도시되지 아니함)을 표시할 수 있다.
입력 펜(167)은 사용자의 손가락(예를 들어, 엄지를 포함)을 포함할 수 있다. 예를 들어, 정전 용량 방식 터치 스크린 또는 저항막 방식 터치 스크린에 표시되는 어플리케이션에서, 사용자의 손가락에 의해 필기 또는 그리기가 입력될 수 있다.
정전 용량 방식 터치 스크린 또는 저항막 방식 터치 스크린에 표시되는 어플리케이션에서 사용자의 손가락에 의해 필기 또는 그리기가 입력되는 경우, 제어부(110)는 엄지를 포함하는 손가락 중 하나의 터치를 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 이용하여 검출할 수 있다.
휴대 장치(100)의 삽입구(도시되지 아니함)의 형상 및/또는 입력 펜(167)의 형상(예를 들어, 원형 단면 또는 다각형 단면) 또는 구조(예를 들어, 배터리(도시되지 아니함)를 포함)는 휴대 장치(100)의 성능 또는 구조에 따라 변경될 수 있다는 것은 당해 기술분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
센서부(170)는 휴대 장치(100)의 상태 및/또는 휴대 장치(100)의 주변 상태를 검출할 수 있다. 센서부(170)는 하나 또는 복수의 센서를 포함할 수 있다. 예를 들어, 센서부(170)는 사용자의 휴대 장치(100)에 대한 접근 여부를 검출하는 근접 센서(171), 휴대 장치(100) 주변의 빛의 양을 검출하는 조도 센서(172), 휴대 장치(100)의 회전관성을 이용하여 방향을 검출하는 자이로 센서(173)를 포함할 수 있다. 또한, 센서부(170)는 휴대 장치(100)에 가해지는 3축(예를 들어, x축, y축, z축)의 가속도를 검출하는 가속도 센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 또는 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다.
센서부(170)는 휴대 장치(100)의 운동 가속도와 중력 가속도를 각각 측정할 수 있다. 휴대 장치(170)가 움직이지 않는 경우, 센서부(170)는 중력 가속도만을 측정할 수 있다. 또한, 센서부(170)는 사용자의 지문을 검출하는 지문 센서(도시되지 아니함), 또는 사용자의 심장 박동을 검출하는 심박 센서(도시되지 아니함)를 더 포함할 수 있다.
센서부(170)에 포함되는 적어도 하나의 센서는 휴대 장치(100)의 상태를 검출하고, 검출에 대응되는 전기적인 신호를 생성하여 제어부(110)로 전송한다. 센서부(170)에 포함되는 센서는 휴대 장치(100)의 성능에 따라 추가, 변경, 또는, 삭제될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
저장부(175)는 제어부(110)의 제어에 의해 이동 통신부(120), 서브 통신부(130), 멀티 미디어부(140), 카메라(150), GPS(155), 입/출력부(160), 센서부(170), 및 터치 스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 휴대 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램과 제조사에서 제공되거나 외부로부터 다운로드 받은 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 이미지들, 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
본 발명의 실시예에 따른 저장부(175)는 휴대 장치 정보, 웨어러블 장치 장치 정보 또는 서버 정보를 저장할 수 있다.
저장부(175)는 수신된 웨어러블 장치 상태 정보를 저장할 수 있다.
저장부(175)는 제1 터치 내지 제3 터치, 제1 터치 위치 내지 제3 터치 위치, 제1 터치 위치 정보 및 제3 터치 위치 정보를 저장할 수 있다.
저장부(175)는 시각 피로도 증가에 대응하여 터치 스크린(190)에 출력되는 사용자가 인지가능한 시각 피드백(예를 들어, 비디오 소스 등), 스피커(163)에서 출력되는 사용자가 인지가능한 청각 피드백(예를 들어, 사운드 소스 등) 및 진동 모터(164)에서 출력되는 사용자가 인지가능한 촉각 피드백(예를 들어, 햅틱 패턴 등)을 저장할 수 있다.
저장부(175)는 사용자에게 제공되는 피드백의 피드백 제공 시간(예를 들어, 300 msec)을 저장할 수 있다.
본 발명의 실시예에서 “저장부”라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 휴대 장치(100)에 장착되는 메모리 카드(도시되지 아니함)(예를 들어, micro SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
전원 공급부(180)는 제어부(110)의 제어에 의해 휴대 장치(100) 내부에 위치하는 구성 요소(120 내지 195)에게 전원을 공급할 수 있다. 전원 공급부(180)는 제어부(110)의 제어에 의해 커넥터(165)와 연결된 유선 케이블(도시되지 아니함)을 통해 외부의 전원 소스(도시되지 아니함)에서부터 입력되는 전원을 휴대 장치(100)의 각 구성 요소들에게 공급할 수 있다. 또한, 전원 공급부(180)는 제어부(110)의 제어에 의해 하나 또는 둘 이상의 배터리(도시되지 아니함)에 전원을 공급하여 충전할 수 있다. 하나 또는 둘 이상의 배터리(도시되지 아니함)는 전면(100a)에 위치하는 터치 스크린(190)과 후면(100c) 사이에 위치할 수 있다.
전원 공급부(180)는 제어부(110)의 제어에 의해 하나 또는 둘 이상의 배터리(도시되지 아니함)를 무선 충전(예를 들어, 자기 공명 방식, 전자기파 방식, 또는 자기 유도 방식)할 수 있다.
터치 스크린(190)은 터치 입력을 수신하는 터치 패널(도시되지 아니함)과 화면 표시를 위한 디스플레이 패널(도시되지 아니함)을 포함한다. 터치 스크린(190)은 사용자에게 다양한 서비스(예를 들어, 음성 통화, 영상 통화, 데이터 전송, 방송 수신, 사진 촬영, 동영상 보기, 또는 어플리케이션 실행)에 대응되는 GUI(Graphical User Interface)를 제공할 수 있다. 터치 스크린(190)은 홈 화면(191) 또는 GUI를 통해 입력되는 싱글 터치 또는 멀티 터치에 대응되는 아날로그 신호를 터치 스크린 컨트롤러(195)로 전송한다. 터치 스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 입력 펜(167)을 통해 싱글 터치 또는 멀티 터치를 입력 받을 수 있다.
디스플레이 패널(도시되지 아니함)은 다수의 픽셀들(pixels)을 구비하고, 상기 픽셀들을 통해 영상을 표시한다. 예를 들어, 디스플레이 패널(도시되지 아니함)은 액정 표시 장치(LCD), 발광 다이오드(LED), 또는 유기 발광 다이오드(Organic LED) 등을 포함할 수 있다. 디스플레이 패널(도시되지 아니함)은 휴대 장치(100)의 각종 동작 상태, 애플리케이션 또는 서비스 실행 등에 따른 다양한 영상과 복수의 객체들을 표시할 수 있다.
본 발명의 실시예에서 터치는 터치 스크린(190)과 사용자의 신체 또는 입력 펜(167)의 접촉에 한정되지 않고, 비접촉을 포함한다. 예를 들어, 비접촉은 터치 스크린(190)과 사용자의 신체 또는 입력 펜(167)과의 간격이 50 mm 이하의 호버링(hovering)을 포함할 수 있다. 터치 스크린(190)에서 검출가능한 비접촉 간격은 휴대 장치(100)의 성능 또는 구조에 따라 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
터치 스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전 용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
터치 스크린(190)은 전자기 공명 방식(electromagnetic resonance, EMR) 을 포함할 수 있다. 전자기 공명 방식의 터치 스크린은 전자기 공명 방식의 루프 코일에 공진하는 공진 회로를 가지는 입력 펜(도시되지 아니함)의 입력을 수신하기 위한 별도의 전자기 공명 방식의 터치 패널(도시되지 아니함)을 더 포함한다.
본 발명의 실시예에 따른 터치 스크린(190)는 시각 피로도 증가에 응답하여 변경되는 콘텐트에 대응되는 시각 피드백을 출력할 수 있다. 터치 스크린(190)는 제어부(110)의 제어에 의해 웨어러블 장치(200)에서부터 뇌파 정보를 수신, 수신된 뇌파 정보의 분석을 통해 시각 피로도 증가에 응답하여 변경되는 콘텐트에 대응되는 시각 피드백을 표시할 수 있다.
본 발명의 실시예에서, 디스플레이부는 터치 스크린(190)을 포함하는 의미일 수 있다.
터치 스크린 컨트롤러(195)는 터치 스크린(190)에서부터 수신된 싱글 터치 또는 멀티 터치에 대응되는 아날로그 신호를 디지털 신호로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치 스크린 컨트롤러(195)에서부터 수신된 디지털 신호를 이용하여 터치 스크린(190) 상의 터치 위치에 대응되는 X좌표와 Y좌표를 산출할 수도 있다.
제어부(110)는 터치 스크린 컨트롤러(195)에서부터 수신된 디지털 신호를 이용하여 터치 스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 입력된 터치에 응답하여 터치 스크린(190)에 표시된 단축 아이콘(예를 들어, 도 5a의 193a)을 다른 단축 아이콘(예를 들어, 193b 내지 193h)과 구분되게 표시하거나 또는 선택된 단축 아이콘(도 5a의 193a)에 대응되는 어플리케이션(예를 들어, 전화)를 실행하여 터치 스크린(190)에 어플리케이션 화면을 표시할 수 있다.
터치 스크린 컨트롤러(195)는 하나 또는 복수의 터치 스크린 컨트롤러(195)로 구현될 수 있다. 휴대 장치(100)의 성능 또는 구조에 대응하여 터치 스크린 컨트롤러(195)는 제어부(110)에 포함될 수도 있다.
터치 스크린 컨트롤러(195)는 터치 스크린(190)에서부터 수신된 싱글 터치 또는 멀티 터치에 대응되는 아날로그 신호와 별개로 전자기 공명 방식의 터치 스크린에서 수신되는 터치에 대응되는 아날로그 신호를 디지털 신호로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치 스크린 컨트롤러(195)에서부터 수신된 디지털 신호를 이용하여 전자기 공명 방식의 터치 스크린에서 상의 터치 위치에 대응되는 X와 Y좌표를 산출할 수도 있다. 또한, 전자기 공명 방식의 터치 스크린의 경우, 전자기 공명 방식의 터치 스크린 컨트롤러(도시되지 아니함)를 이용할 수 있다.
도 1 및 도 2에서 도시된 휴대 장치(100)는 하나의 터치 스크린에 대해서만 도시하였으나, 복수의 터치 스크린을 구비할 수 있다. 각각의 터치 스크린은 각각의 하우징(도시되지 아니함)에 위치하며 각각의 하우징(도시되지 아니함)은 힌지(도시되지 아니함)에 의해 상호 연결될 수 있다. 또한, 하나의 하우징(도시되지 아니함)에 플렉시블한 복수의 터치 스크린이 위치할 수 있다. 플렉시블한 복수의 터치 스크린은 하나의 디스플레이 패널과 복수의 터치 패널을 포함하여 구성될 수 있다. 플렉시블한 복수의 터치 스크린은 복수의 디스플레이 패널에 대응되는 하나의 터치 패널을 포함하여 구성될 수 있다. 또한, 플렉시블한 복수의 터치 스크린은 복수의 디스플레이 패널에 대응되는 복수의 터치 패널을 포함하여 구성될 수 있다.
도 2에 도시된 휴대 장치(100)의 구성 요소들은 휴대 장치(100)의 성능에 대응하여 적어도 하나의 구성요소가 추가, 삭제 또는 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 1 및 도 2를 참조하면, 웨어러블 장치(200)는 통신부(230)를 이용하여 휴대 장치(100) 또는 서버(300)와 유선 또는 무선으로 연결될 수 있다.
본 발명의 실시예에 따른 웨어러블 장치(200)는 생체 정보(예를 들어, 사용자의 뇌파(EEG, Electroencephalogram))를 검출할 수 있는 장치를 의미할 수 있다. 예를 들어, 사용자의 생체 정보는 사용자의 뇌파, 체온, 맥박, 심장 박동, 맥박 변이도, 혈압, 혈당, 호흡 정보, 산소 포화도, 피부 상태, 운동량, 스트레스, 스트레스 지수, 수면 정보 등을 포함할 수 있다. 또한, 웨어러블 장치(200)는 검출된 뇌파를 휴대 장치(100) 및/또는 서버(300)로 전송할 수 있는 장치를 의미할 수 있다. 예를 들어, 사용자의 뇌파를 검출가능한 웨어러블 장치(200)는 헤드 밴드 타입(headband type) 웨어러블 장치, 운동 모자 타입(cap type) 웨어러블 장치, 중절모 타입(hat type) 웨어러블 장치, 헤드셋 타입(headset type) 웨어러블 장치, 또는, 헤드폰 타입(headphone type) 웨어러블 장치 등을 포함할 수 있다.
웨어러블 장치(200)는 통신부(230)를 이용하여 휴대 장치(100) 또는 서버(300)와 연결될 수 있다. 웨어러블 장치(200)는 제어부(210)의 제어에 의해 접촉식 센서(270) 또는 비 접촉식 센서(270)를 이용하여 사용자의 뇌파를 검출할 수 있다.
웨어러블 장치(200)는 제어부(210), 통신부(230), 입/출력부(260), 센서(270), 저장부(275), 배터리(280) 및 디스플레이부(290)를 포함할 수 있다.
제어부(210)는 프로세서(Processor, 211), 웨어러블 장치(200)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 212) 및 웨어러블 장치(200)의 외부로부터 입력되는 신호 또는 데이터를 저장하거나, 웨어러블 장치(200)에서 수행되는 다양한 작업에 대한 저장 영역으로 사용되는 램(RAM, 213)을 포함할 수 있다.
제어부(210)는 웨어러블 장치(200)의 전반적인 동작 및 웨어러블 장치(200)의 내부 구성 요소들(220 내지 290)간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부(210)는 전원 공급부(280)를 제어하여 내부 구성 요소들(220 내지 290)에게 전원 공급 또는 전원 차단할 수 있다. 또한, 사용자의 입력 또는 설정된 조건을 만족하는 경우, 제어부(210)는 센서(270)를 동작시킬 수 있다.
프로세서(211)는 그래픽 처리를 위한 GPU(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서(211)는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 포함하는 SoC(System On Chip) 형태로 구현될 수 있다. 프로세서(211)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 또한, 프로세서(211), 롬(212) 및 램(213)은 버스(bus)로 상호 연결될 수 있다.
제어부(210)는 통신부(230), 기능부(260), 센서(270), 저장부(275), 전원 공급부(280), 및 디스플레이부(290)를 제어할 수 있다.
본 발명의 실시예에 따른 제어부(210)는 센서(270)를 이용하여 사용자의 뇌파를 검출하거나 또는, 별도의 센서(도시되지 아니함)을 통해 웨어러블 장치(200)의 상태를 검출하도록 제어할 수 있다.
제어부(210)는 검출된 사용자 뇌파에 대응되는 사용자 뇌파 정보를 통신부(230)를 통해 휴대 장치(100) 또는 서버(300)로 전송할 수 있다.
제어부(210)는 통신부(230) 및 저장된 휴대 장치정보를 이용하여 변경된 웨어러블 장치 상태 정보를 휴대 장치(100)로 전송하도록 제어할 수 있다.
본 발명의 실시예에서 "웨어러블 장치(200)의 제어부(210)"라는 용어는 프로세서(211), 롬(212) 및 램(213)을 포함한다.
통신부(230)는 무선랜(231), 및/또는 근거리 통신부(232)를 이용하여 휴대 장치(100) 또는 서버(300)와 연결할 수 있다. 통신부(230)는 제어부(210)의 제어에 의해 사용자 뇌파 정보를 휴대 장치(100) 또는 서버(300)로 전송할 수 있다.
통신부(230)는 무선랜(231) 및/또는 근거리 통신부(232)를 포함할 수 있다. 예를 들어, 통신부(2300)는 무선랜(231) 및 근거리 통신부(232) 중 하나 또는 무선랜(231) 및 근거리 통신부(232) 모두를 포함할 수 있다. 또한, 통신부(230)는 유선 이더넷(233)를 더 포함할 수 있다.
무선랜(231)은 제어부(210)의 제어에 의해 AP(access point)가 설치된 장소에서 무선으로 AP와 연결될 수 있다. 무선랜(131)은 예를 들어, 와이-파이(Wi-Fi)를 포함할 수 있다. 무선랜(231)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리 통신부(232)은 제어부(210)의 제어에 의해 AP없이 무선으로 휴대 장치(100)와 외부 장치 사이에 근거리 통신을 할 수 있다. 근거리 통신은 블루투스(bluetooth), 블루투스 저 에너지(bluetooth low energy), 적외선 통신(IrDA, infrared data association), UWB(Ultra Wideband) 및 NFC(Near Field Communication) 등을 포함할 수 있다.
통신부(230)는 제어부(210)의 제어에 의해 센서(270)에서 검출된(또는 저장된) 사용자 뇌파를 휴대 장치(100) 또는 서버(300)로 전송할 수 있다. 통신부(230)는 제어부(210)의 제어에 의해 센서(270)에서 검출된(또는 저장된) 사용자 뇌파를 휴대 장치(100) 또는 서버(300)로 주기적(예를 들어, 500 msec, 변경 가능)으로 전송할 수 있다. 또한, 통신부(230)는 휴대 장치(100) 및/또는 서버(300)에서부터 검출된(또는 저장된) 사용자 뇌파 또는 웨어러블 장치 상태 정보의 전송 요청을 수신할 수 있다.
웨어러블 장치(200)는 통신부(230)를 이용하여 다른 외부 장치(예를 들어, 무선 스피커, 무선 헤드셋 또는 다른 사용자 뇌파 검출 장치 등)와 연결할 수 있다.
또한, 웨어러블 장치(200)는 이동 통신부(도시되지 아니함)를 포함할 수 있다. 웨어러블 장치(200)의 이동 통신부(도시되지 아니함)는 연결가능한 전화 번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿 PC, 태블릿 장치 또는 다른 휴대 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS), 멀티미디어 메시지(MMS) 및 데이터 통신을 위한 무선 신호를 송/수신할 수 있다.
웨어러블 장치(200)는 제어부(210)의 제어에 의해 정지 이미지 또는 동영상을 촬영하는 카메라(도시되지 아니함)를 포함할 수 있다. 카메라(도시되지 아니함)는 웨어러블 장치(200)의 정면(예를 들어, 사용자의 이마 영역)에 위치할 수 있다.
웨어러블 장치(200)는 GPS(도시되지 아니함)를 포함할 수 있다. 웨어러블 장치(200)는 GPS(도시되지 아니함)를 이용하여 실외 웨어러블 장치(200)의 현재 위치 및 AP를 이용하여 실내 웨어러블 장치(200) 위치를 산출할 수 있다.
입/출력부(260)는 하나 또는 둘 이상의 버튼(도시되지 아니함), 마이크(도시되지 아니함), 스피커(도시되지 아니함), 진동 모터(도시되지 아니함) 중 커넥터(도시되지 아니함) 중 적어도 하나를 포함할 수 있다.
버튼(도시되지 아니함)은 전원 버튼을 포함한다. 버튼은 볼륨 버튼(도시되지 아니함) 또는 돌아가기 버튼(도시되지 아니함)을 포함할 수 있다. 또한, 버튼은 터치 버튼을 포함할 수도 있다.
마이크(도시되지 아니함)는 제어부(210)의 제어에 의해 외부에서부터 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.
스피커(도시되지 아니함)는 제어부(210)의 제어에 의해 웨어러블 장치(200)에서 수행되는 기능 또는 동작에 대응되는 사운드를 출력할 수 있다.
진동 모터(도시되지 아니함)는 제어부(210)의 제어에 의해 웨어러블 장치(200)에서 수행되는 기능 또는 동작에 대응되는 진동(haptic)을 출력할 수 있다.
커넥터(도시되지 아니함)는 제어부(210)의 제어에 의해 웨어러블 장치(200)의 저장부(275)에 저장된 데이터(예를 들어, 사용자 뇌파 등)을 외부로 전송하거나 배터리(280)를 충전할 수 있다.
센서(270)는 제어부(210)의 제어에 의해 사용자의 뇌파를 검출할 수 있다. 센서(270)는 복수의 전극을 가질 수 있다. 센서(270)는 복수의 전극을 통해 뇌파를 검출할 수 있다. 전극의 재질은 전도성 섬유(예를 들어, 은 섬유), 전도성 폴리머(예를 들어, 폴리아세틸렌, 폴리파라페닐렌, 폴리피르롤, 폴리아닐린 등) 또는 고 전도성 금속이 코팅된 금속을 포함할 수 있다. 센서(270)는 복수의 전극에서 발생하는 전위차를 검출할 수 있다. 뇌파 측정은 임피던스(impedance)가 매우 큰(예를 들어, 저항이 높은) 전압 측정과 유사할 수 있다. 센서(270)에서 검출된 뇌파 데이터는 제어부(210)로 전송될 수 있다. 예를 들어, 뇌파 데이터는 원시 데이터(raw data)인 아날로그 데이터 또는 원시 데이터를 프로세싱(processing)한 디지털 데이터를 포함할 수 있다. 검출된 뇌파 데이터는 제어부(210)의 제어에 의해 저장부(275)에 저장될 수 있다.
사용자의 뇌파는 뇌의 활동에 따라 일어나는 전류 또는 그것을 도출, 증폭하여 기록한 파형을 의미할 수 있다. 복잡한 패턴으로 진동하는 뇌파의 종류는 주파수 대역에 따라서 크게 델타(δ)파(0.2 ~ 3.99 ㎐), 세타(θ)파(4 ~ 7.99 ㎐), 알파(α)파(8 ~ 12 ㎐), 베타(β)파(13 ~ 29.99 ㎐), 및 감마(γ)파(30 ~ 50 ㎐)로 구분할 수 있다. 상술한 뇌파의 주파수 대역은 하나의 예이며, 주변 환경 및 검출 장치에 의해 주파수 대역이 변경될 수 있다는 것은 당해 기술 분야의 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
델타(δ)파는 깊은 수면 중인 사용자 또는 신생아에게서 두드러지게 검출될 수 있다. 세타(θ)파는 정서 안정 또는 수면으로 진입하는 어린이에게서 주로 검출될 수 있다. 알파(α)파는 긴장 이완과 같은 편안한 상태에서 주로 검출될 수 있다. 베타(β)파는 사용자의 전두부(frontal region)에서 주로 검출되며, 깨어 있을 때 또는 말할 때와 같은 의식적인 활동을 할 때 검출될 수 있다. 감마(γ)파는 베타(β)파보다 더 빠르게 진동하며 정서적으로 초초한 상태이거나 고도의 인지 정보를 처리할 때 검출될 수 있다.
또한, 센서(270)는 웨어러블 장치(200)의 내부 상태 또는 외부 상태를 검출할 수 있다. 또한, 센서(270)는 제어부(210)의 제어에 의해 웨어러블 장치(200)의 내부 상태 변경 또는, 외부 상태 변경을 검출할 수 있다. 예를 들어, 센서(270)는 웨어러블 장치(200)에 가해지는 3축(예를 들어, x축, y축, z축)의 가속도를 검출하는 가속도 센서(도시되지 아니함) 또는 외부 장치(200)의 회전관성을 이용하여 방향을 검출하는 자이로 센서(도시되지 아니함)를 포함할 수 있다. 센서(270)에 포함되는 센서는 외부 장치(200)의 성능에 따라 추가, 변경, 또는, 삭제될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
저장부(275)는 제어부(210)의 제어에 의해 통신부(230), 입/출력부(260), 센서(270), 및 디스플레이부(290)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(275)는 웨어러블 장치(200) 또는 제어부(210)의 제어를 위한 제어 프로그램과 제조사에서 제공되거나 외부로부터 다운로드 받은 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 이미지들, 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
저장부(275)는 제어부(210)의 제어에 의해 웨어러블 장치(200)의 동작에 관련된 데이터 또는 센서(270)에 의해 검출된 환경 정보(예를 들어, 온도, 가속도, 조도 등) 또는 상태 정보(예를 들어, 전원 온, 동작 등)를 저장할 수 있다.
저장부(275)는 센서(270)에서 검출된 뇌파 데이터를 저장할 수 있다.
저장부(275)는 원시 데이터 및 디지털 데이터 중 적어도 하나를 포함하는 사용자 뇌파 정보를 저장할 수 있다.
저장부(275)는 웨어러블 장치(200)에 대응되는 웨어러블 장치 정보, 휴대 장치(100)에 대응되는 휴대 장치 정보, 또는 서버(300)에 대응되는 서버 정보를 저장할 수 있다. 예를 들어, 장치 정보는 이력 관리를 위한 식별자(1D), 장치 식별자(ID), 장치 이름, 장치 URI 및, 장치 상태를 나타내는 복수의 항목을 포함할 수 있으며, 이에 한정되지 않고 장치의 다양한 상태를 나타낼 수 있는 항목들을 포함한다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
배터리(280)는 제어부(210)의 제어에 의해 웨어러블 장치(200) 내부에 위치하는 구성 요소(230 내지 290)에게 전원을 공급할 수 있다. 전원 공급부(도시되지 아니함)는 제어부(210)의 제어에 의해 커넥터(도시되지 아니함)와 연결된 유선 케이블(도시되지 아니함)을 통해 외부의 전원 소스(도시되지 아니함)에서부터 입력되는 전원을 웨어러블 장치(200)로 공급할 수 있다. 또한, 전원 공급부(도시되지 아니함)는 제어부(210)의 제어에 의해 공급되는 전원으로 하나 또는 둘 이상의 배터리(280)를 출전할 수 있다.
전원 공급부(도시되지 아니함)는 제어부(210)의 제어에 의해 하나 또는 둘 이상의 배터리(280)를 무선 충전(예를 들어, 자기 공명 방식, 전자기파 방식, 또는 자기 유도 방식)할 수 있다.
디스플레이부(290)는 제어부(210)의 제어에 의해 사용자에게 다양한 서비스(예를 들어, 음성 통화, 영상 통화, 데이터 전송, 방송 수신, 사진 촬영, 동영상 보기, 또는 어플리케이션 실행)에 대응되는 GUI(Graphical User Interface)를 제공할 수 있다. 디스플레이 패널(도시되지 아니함)은 다수의 픽셀들(pixels)을 구비하고, 상기 픽셀들을 통해 영상을 표시한다. 예를 들어, 디스플레이 패널(도시되지 아니함)로는 액정 표시 장치(LCD), 유기 발광 다이오드(Organic LED), LED 등이 있다. 디스플레이 패널(도시되지 아니함)은 웨어러블 장치(200)의 각종 동작 상태, 애플리케이션 또는 서비스 실행 등에 따른 다양한 영상과 복수의 객체들을 표시할 수 있다.
디스플레이부(290)는 디스플레이 패널(도시되지 아니함) 및 터치 패널(도시되지 아니함)을 포함하는 터치 스크린(도시되지 아니함)를 포함할 수 있다. 터치 스크린(290)은 예를 들어, 저항막(resistive) 방식, 정전 용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
본 발명의 실시예에 따라 디스플레이부(290)는 제어부(210)의 제어에 의해 사용자 뇌파 검출에 대응되는 시각 피드백을 출력할 수 있다.
도 1 및 도 2에서, 휴대 장치(100)와 웨어러블 장치(200)로 구분하였으나, 동일 종류인 복수의 휴대 장치(예를 들어, 태블릿 장치 1, 2)로 구현될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 2에 도시된 웨어러블 장치(200)의 구성 요소들은 웨어러블 장치(200)의 성능에 대응하여 적어도 하나의 구성요소가 추가, 변경되거나 삭제될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 2를 참조하면, 서버(300)는 통신부(도시되지 아니함)를 통해 휴대 장치(100) 및 웨어러블 장치(200) 중 적어도 하나와 무선 또는 유선으로 연결할 수 있다. 서버(300)는 웨어러블 장치(200)에게 상태 정보를 요청할 수 있다. 서버(300)는 웨어러블 장치(200)에서부터 상태 정보를 수신할 수 있다. 서버(300)는 휴대 장치(100)에서부터 웨어러블 장치(200)의 상태 정보의 전송에 대응되는 요청을 수신할 수 있다. 서버(300)는 휴대 장치(100)로 웨어러블 장치(200)의 상태 정보를 전송할 수 있다.
본 발명의 실시예에서, 서버(300)는 웨어러블 장치(200)에서부터 수신된 뇌파 데이터를 저장하고, 저장된 뇌파 데이터를 휴대 장치(100)로 전송할 수 있는 컴퓨팅 장치(computing apparatus)를 의미할 수 있다. 서버(300)는 웨어러블 장치(200)에서부터 수신된 뇌파 데이터를 저장하고, 저장된 뇌파 데이터를 이용하여 시각 피로도를 산출 가능한 컴퓨팅 장치(computing apparatus)를 의미할 수 있다.
또한, 서버(300)는 웨어러블 장치(200)에서부터 수신된 웨어러블 장치(200)의 상태 정보를 저장하고, 저장된 웨어러블 장치(200)의 상태 정보를 휴대 장치(100)로 전송할 수 있는 컴퓨팅 장치(computing apparatus)를 의미할 수 있다. 서버(300)는 게이트웨이(gateway, 도시되지 아니함), 홈 네트워크 서버(도시되지 아니함) 또는 클라우드 서버(cloud server, 도시되지 아니함)를 포함할 수 있다. 홈 네트워크 환경에서, 디스플레이 장치(도시되지 아니함) 또는 냉장고(도시되지 아니함)가 서버(300) 역할을 수행할 수도 있다.
도 1 및 도 2의 서버(300)는 서버(300)의 성능에 대응하여 적어도 하나의 구성요소가 추가, 변경되거나 삭제될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
도 3은 본 발명의 실시예에 따른 웨어러블 장치를 나타내는 개략적인 사시도이다.
도 3의 (a) 및 (b)를 참조하면, 사용자의 머리에 착용되는 웨어러블 장치(200)는 환형(ring shape)으로 구현될 수 있다. 환형은 동심원(concentric circle) 또는 타원형(ellipse)을 포함할 수 있다. 웨어러블 장치(200)는 3개 이상의 꼭지점(vertex)을 가지는 다각형(polygon)으로 구현될 수도 있다. 또한, 웨어러블 장치(200)는 헤드 밴드 타입 웨어러블 장치, 헤드셋 타입 웨어러블 장치 또는 헬멧(helmet) 타입 웨어러블 장치로 구현될 수 있다. 웨어러블 장치(200)는 상술된 타입의 웨어러블 장치뿐만 아니라 다양한 형상 또는 타입으로 구현되어 사용자의 뇌파를 검출할 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
웨어러블 장치(200)의 본체(200a, body)는 고분자 화합물(high molecular compound), 금속(metal), 섬유(fiber) 또는 세라믹(ceramics)으로 구현될 수 있다. 탄성을 가지는 웨어러블 장치(200)의 본체(200a)는 착용되는 경우와 착용되지 않는 경우에 따라 크기(예를 들어, 지름) 차이를 발생할 수 있다. 웨어러블 장치(200)는 사용자의 두상(head-shape)의 크기에 대응하여 다양한 지름을 가지는 가질 수 있다. 예를 들어, 웨어러블 장치(200)는 유아용(infant), 어린이용(kid), 청소년(youth), 또는, 성인용(adult)으로 구별될 수 있다.
웨어러블 장치(200)의 본체(200a) 내부에 도 2에서 도시된 구성 요소(210 내지 290) 중 일부가 위치할 수 있다. 또한, 입/출력부(260)의 버튼 또는 디스플레이부(290)가 웨어러블 장치(200)의 본체(200a) 외부로 노출될 수 있다. 또한, 센서(270)는 웨어러블 장치(200)의 외부로 노출될 수 있다.
웨어러블 장치(200)에서, 본체(200a)의 내측면(200a1)에 하나 또는 복수의 전극(271, 272)이 노출될 수 있다. 센서(270)는 뇌파를 검출하는 측정 전극(271) 및 레퍼런스 전극(예를 들어, 접지(ground), 272)를 포함할 수 있다. 전극(271)의 구성과 전극(272)의 구성은 실질적으로 동일하므로 중복되는 설명은 생략된다.
전극(271)의 재질은 전도성 섬유(예를 들어, 은 섬유), 전도성 폴리머(예를 들어, 폴리아세틸렌, 폴리파라페닐렌, 폴리피르롤, 폴리아닐린 등) 또는 전도성 금속이 코팅된 금속을 포함할 수 있다.
전극(271)은 사용자의 신체(예를 들어, 머리)와 접촉할 수 있다. 전극(271)은 하나의 돌기(271a1)를 가질 수 있다. 전극(271)의 돌기(271a1)는 탄성을 가질 수 있다.
탄성을 가지는 돌기(271a1)가 사용자의 신체와 접촉하는 경우, 웨어러블 장치(200)의 이동 방향에 대응하여 돌기(271a1)가 굽혀질 수 있다. 예를 들어, 웨어러블 장치(200)가 사용자에 의해 착용되는 경우, 돌기(271a1)는 웨어러블 장치(200)의 이동 방향(예를 들어, 착용 방향)의 반대로 굽혀질 수 있다. 또한, 웨어러블 장치(200)가 사용자의 신체에서 분리되는 경우, 돌기(271a1)는 웨어러블 장치(200)의 이동 방향의 반대로 복원될 수 있다.
웨어러블 장치(200)에서 전극(271, 272)의 위치는 웨어러블 장치(200)의 전극(271, 272) 개수에 따라 다를 수 있다. 사용자의 뇌파를 측정하는 측정 전극(271)의 위치 및 레퍼런스 전극(272)의 위치는 시각 피질의 활성화 정도와 이를 인지하여 처리하는 전두엽을 기준으로 결정될 수 있다.
아래 표 1은 웨어러블 장치(200)에서 측정 전극(271)의 개수에 대응되는 측정 전극(271) 위치 및 레퍼런스 전극(272) 위치의 예를 나타낼 수 있다.
측정 전극 개수 측정 전극 위치 레퍼런스 전극 위치
2 이마 중앙 영역, 뒤통수 중앙 영역 귀 영역, 양쪽 귀 영역
3 이마 중앙 영역,
뒤통수 중앙을 기준으로 양쪽 영역
귀 영역, 양쪽 귀 영역
도 3의 (a)에서, 측정 전극(271)의 개수가 2인 경우, 측정 전극(271)의 위치는 이마 중앙 영역(예를 들어, 전두엽(frontal lobe)에 대응되는 전두골(frontal bone) 또는 미간(glabella) 영역) 및 뒤통수 중앙 영역(예를 들어, 후두엽(occipital lobe)에 대응되는 후두골(occipital bone) 영역)에 위치할 수 있다. 레퍼런스 전극(272)의 위치는 귀 영역(예를 들어, 측두엽(temporal lobe)에 대응되는 측두골(temporal bone) 또는 양쪽 귀 영역에 위치할 수 있다.
측정 전극(271)의 위치와 레퍼런스 전극(272)의 위치는 상호 교차(예를 들어, 45 내지 135° 사이)할 수 있다. 복수의 측정 전극의 위치는 상호 대면하고 있다. 또한, 각각의 레퍼런스 전극(272)는 상호 대면하고 있다. 각 레퍼런스 전극(272)는 상호 교차(예를 들어, 45 내지 135° 사이)할 수 있다.
도 3의 (b)에서, 측정 전극(271)의 개수가 3인 경우, 측정 전극(271)의 위치는 이마 중앙 영역(예를 들어, 전두엽(frontal lobe)에 대응되는 전두골(frontal bone) 또는 미간(glabella) 영역)에 하나 및 뒤통수 중앙 영역(예를 들어, 후두엽(occipital lobe)에 대응되는 후두골(occipital bone) 영역)에 둘 위치할 수 있다. 레퍼런스 전극(272)의 위치는 귀 영역(예를 들어, 측두엽(temporal lobe)에 대응되는 측두골(temporal bone) 또는 양쪽 귀 영역에 위치할 수 있다.
측정 전극(271)의 위치와 레퍼런스 전극(272)의 위치는 상호 교차할 수 있다. 복수의 측정 전극 중 이마에 위치하는 측정 전극(271)에서부터 뒤통수 방향으로 가상의 연장선을 기준으로 뒤통수에 위치하는 복수의 측정 전극(271)는 동일한 간격(예를 들어, 왼쪽 및 오른쪽)으로 위치할 수 있다. 또한, 복수의 레퍼런스 전극(272)의 위치는 상호 대면하고 있다. 각 레퍼런스 전극(272)는 상호 교차(예를 들어, 45 내지 135° 사이)할 수 있다.
측정 전극(271)의 개수가 증가하는 경우, 측정 전극(271)의 위치는 정수리 영역(예를 들어, 두정부엽(parietal lobe)에 대응되는 두정부골(parietal bone) 영역에 위치할 수 있다.
표 1에서, 측정 전극(271)의 개수, 측정 전극(271)의 위치 및 레퍼런스 전극(272)의 위치와 같이 상술된 항목에 한정되지 않고 측정 전극(271)의 개수에 대응되는 측정 전극(271) 위치 및 레퍼런스 전극(272)의 위치에 대한 다양한 조합을 나타낼 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
도 4는 본 발명의 실시예에 따른 휴대 장치의 콘텐트 화면 변경방법을 나타내는 개략적인 순서도이다.
도 5a 내지 12b는 본 발명의 실시예에 따른 휴대 장치의 화면 예를 나타내는 도면이다.
도 4의 단계(S410)에서, 휴대 장치에서 어플리케이션이 실행된다.
도 5a를 참조하면, 휴대 장치(100)는 상태바(status bar, 192)와 구분되는 홈 화면(191)에 어플리케이션(예를 들어, 단축 아이콘(193a 내지 193i)에 대응되는) 또는 위젯(194)을 표시할 수 있다. 또한, 사용자는 웨어러블 장치(200)를 착용한다. 웨어러블 장치(200)는 사용자의 머리에 착용될 수 있다.
사용자는 휴대 장치(100)의 화면에 표시된 단축 아이콘(193a 내지 193h) 중에서 선택 대상인 시각 피로도 어플리케이션(예를 들어, Smart-eye)에 대응되는 단축 아이콘(193g)을 터치(501)할 수 있다. 사용자의 시각 피로도의 산출은 시각 피로도 산출 어플리케이션, 시각 피로도 산출 OS(operating system) 또는 시각 피로도 산출 미들웨어로 구현될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
제어부(110)는 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 이용하여 제1 터치(501)를 검출할 수 있다. 제어부(110)는 터치 스크린 컨트롤러(195)에서부터 수신되는 전기 신호를 이용하여 제1 터치(501)에 대응되는 제1 터치 위치(예를 들어, X1와 Y1좌표, 501a)를 산출할 수 있다.
제어부(110)는 제1 터치 위치(501a)에 대응되는 제1 터치 위치 정보를 저장부(175)에 저장할 수 있다. 저장되는 제1 터치 위치 정보는 이력 관리를 위한 터치 식별자(ID), 터치 위치, 터치 검출 시간, 또는 터치 정보(예를 들어, 터치 압력, 터치 방향, 터치 지속 시간 등)를 포함할 수 있다.
제어부는 터치 스크린(190)과 터치 스크린 컨트롤러(195)를 이용하여 제1 호버링(도시되지 아니함)을 검출할 수 있다. 제어부는 터치 스크린 컨트롤러(195)에서부터 수신되는 전기 신호를 이용하여 제1 호버링에 대응되는 제1 호버링 위치(도시되지 아니함, 예를 들어, X11와 Y11좌표)를 산출할 수 있다.
제어부는 제1 호버링 위치에 대응되는 제1 호버링 위치 정보를 저장부(175)에 저장할 수 있다. 저장되는 제1 호버링 위치 정보는 이력 관리를 위한 호버링 식별자(ID), 호버링 검출 위치, 호버링 검출 시간, 또는 호버링 정보(예를 들어, 호버링 높이(h), 호버링 방향, 호버링 지속 시간 등)를 포함할 수 있다.
입력 펜(167)의 터치는 싱글 포인트 터치이다. 제어부는 입력 펜(167)의 터치를 싱글 포인트 터치로 검출할 수 있다. 또한, 전자기 공명 방식의 입력 펜(도시되지 아니함)의 경우, 제어부는 제2 터치 패널(도시되지 아니함)을 통해 입력 펜의 터치를 결정할 수 있다. 전자기 공명 방식이 아닌 입력 펜(예를 들어, 정전 용량 방식 등)의 경우, 제어부는 싱글 포인트 터치 여부로 입력 펜의 터치를 결정할 수 있다.
도 5b를 참조하면, 전자 장치(100)의 제어부(110)는 전자 장치(100)의 화면에 제1 터치(501)에 대응되는 어플리케이션(Smart-eye) 화면(600)을 표시할 수 있다. 제1 터치(501)에 대응되어 표시되는 어플리케이션의 화면(600)은 어플리케이션의 홈 화면을 포함할 수 있다.
어플리케이션의 홈 화면(600)은 어플리케이션(Smart-eye)를 소개하는 소개 영역(601) 및 어플리케이션과 사용자 사이의 인터랙션(예를 들어, 터치 또는 터치 제스처 입력 등)을 수신하는 인터랙션 영역(602)을 포함할 수 있다. 인터랙션 영역(602)에 웨어러블 장치 연결(connect the headband)에 대응되는 버튼(602a) 및/또는 시각 피로도에 대응되는 뇌파 측정 시작(start checking)에 대응되는 버튼(602b)이 표시될 수 있다.
도 12a 내지 도 12c는 본 발명의 실시 예에 따른 휴대 장치의 환경 설정 화면 예를 나타내는 도면이다.
사용자가 어플리케이션의 홈 화면(600)의 상단에 위치하는 환경 설정에 대응되는 단축 아이콘(600a)을 선택하는 경우, 제어부(110)는 환경 설정 화면(800, 도 12a 참조)을 표시할 수 있다. 사용자에 의해 단축 아이콘(600a)이 선택되는 경우, 제어부(110)는 어플리케이션의 홈 화면(600)을 시각 피로도에 대응되는 환경 설정 화면(800)으로 변경할 수 있다.
표시되는 환경 설정 화면(800)에 표시되는 항목은 각 어플리케이션에 따라 시각 피로도 설정을 하는 어플리케이션(801) 및 시간에 따라 시각 피로도를 설정하는 시간대(time zone, 802)를 포함할 수 있다. 환경 설정 화면(800)에 표시되는 항목은 휴대 장치(100)의 기능 및/또는 성능에 따라 추가, 변경되거나 또는 삭제될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
사용자에 의해 어플리케이션 별로 시각 피로도 설정을 위한 메뉴인 어플리케이션(801)이 선택되는 경우, 제어부(110)는 각 어플리케이션에 따른 시각 피로도 설정 화면(810)을 표시할 수 있다.
도 12b는 각 어플리케이션에 따른 시각 피로도 설정 화면(810)의 하나의 예를 나타낸다. 도 12b를 참조하면, 어플리케이션에 따른 시각 피로도 설정 화면(810)에 표시되는 항목은 전자책(811), 인터넷(web browser, 812), 비디오(video player, 813), 게임(game, 814), 매거진(magazine, 815), 또는, 소셜 네트워크(social network system, 816)을 포함할 수 있다. 사용자는 각 항목(811 내지 816)을 선택하고, 상세한 환경 설정을 할 수 있다. 예를 들어, 사용자에 의해 인터넷(812)이 선택되는 경우, 사용자는 인터넷(812)에 대한 상세한 시각 피로도 환경 설정을 할 수 있다. 인터넷(812)에 대한 상세한 시각 피로도 환경 설정은 눈 운동 가이드(812a), 폰트 변경(812b) 및 콘텐트 UI 변경(812c)를 포함할 수 있다. 또한, 인터넷(812)에 대한 상세한 시각 피로도 환경 설정은 컬러 화면(예를 들어, 컬러 필터) 제어, 휘도 제어, 색상 제어, 채도 제어 등을 포함할 수 있다.
어플리케이션에 따른 시각 피로도 설정 화면(810)에 표시되는 항목(예를 들어, 어플리케이션(811 내지 816), 시각 피로도 대응 항목(812a 내지 812c) 등)은 휴대 장치(100)의 기능 및/또는 성능에 따라 추가, 변경되거나 또는 삭제될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
사용자에 의해 시간대(802)가 선택되는 경우, 제어부(110)는 각 시간대에 따른 시각 피로도 설정 화면(820)을 표시할 수 있다. 도 12c는 시간 대 별로 시각 피로도 설정을 할 수 있는 시각 피로도 설정 화면의 일 예를 나타낸다. 도 12c를 참조하면, 시간대에 따른 시각 피로도 설정 화면(820)에 표시되는 항목은 8시 ~ 17시(821) 및, 17시 ~ 24시(822)를 포함할 수 있다. 사용자는 항목(821 및 822)을 선택하고, 상세한 환경 설정을 할 수 있다. 예를 들어, 사용자에 의해 17시 ~ 24시(822)가 선택되는 경우, 사용자는 17시 ~ 24시(822)에 대한 상세한 시각 피로도 환경 설정을 할 수 있다. 17시 ~ 24시(822)에 대한 상세한 시각 피로도 환경 설정은 눈 운동 가이드(822a), 폰트 변경(822b) 및 콘텐트 UI 변경(822c)를 포함할 수 있다.
시간대에 따른 시각 피로도 설정 화면(820)에 표시되는 항목(예를 들어, 시간대(821 및 822), 시각 피로도 대응 항목(822a 내지 822c) 등)은 휴대 장치(100)의 기능 및/또는 성능에 따라 추가, 변경되거나 또는 삭제될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
도 4의 단계(S420)에서, 웨어러블 장치가 연결된다.
도 5b를 참조하면, 사용자는 어플리케이션(Smart-eye)의 화면(600)에서 웨어러블 장치 연결(connect the headband)에 대응되는 버튼(602a)에 제2 터치(502)할 수 있다.
제어부(110)는 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 이용하여 제2 터치(502)를 검출할 수 있다. 제어부(110)는 터치 스크린 컨트롤러(195)에서부터 수신되는 전기 신호를 이용하여 제2 터치(502)에 대응되는 제2 터치 위치(예를 들어, X2와 Y2좌표, 502a)를 산출할 수 있다.
제어부(110)는 제2 터치 위치(502a)에 대응되는 제2 터치 위치 정보를 저장부(175)에 저장할 수 있다. 저장되는 제2 터치 위치 정보는 이력 관리를 위한 터치 식별자(ID), 터치 위치, 터치 검출 시간, 또는 터치 정보(예를 들어, 터치 압력, 터치 방향, 터치 지속 시간 등)를 포함할 수 있다.
도 4의 단계(S420)에서 제2 호버링의 검출은 도 4의 단계(S410)에서 제1 호버링 검출과 실질적으로 유사하므로 중복되는 설명은 생략된다.
휴대 장치(100)의 제어부(110)는 통신부를 이용하여 주변의 웨어러블 장치(200)를 검색할 수 있다. 휴대 장치(100)의 화면에 표시되는 웨어러블 장치의 검색 결과에 대응되는 검색 목록(도시되지 아니함)에서 연결 대상인 웨어러블 장치(200)가 선택될 수 있다. 연결 대상인 웨어러블 장치(200)는 사용자에 의해 또는 제어부(110)에 의해 선택될 수 있다. 표시되는 검색 목록(도시되지 아니함)에서 연결 대상인 웨어러블 장치(200)만 검색되는 경우, 제어부(110)는 사용자 입력 없이 연결 대상인 웨어러블 장치(200)를 선택할 수도 있다.
휴대 장치(100)의 제어부(110)는 선택에 대응하여 통신부를 이용하여 웨어러블 장치(200)의 통신부와 제1 무선 통신으로 연결할 수 있다. 예를 들어, 제1 무선 통신은 한정된 전송 거리(예를 들어, 1 m 이하, 50 m 이하, 또는, 100 m 이하 등)롤 가지는 무선 통신(예를 들어, 근거리 무선 통신)일 수 있다. 휴대 장치(100)와 웨어러블 장치(200)는 한정된 전송 거리를 가지는 제1 무선 통신으로 연결될 수 있다. 제1 무선 통신은 근거리 무선 통신일 수 있으며, 이에 한정되지 않는다. 또한, 제2 무선 통신은 원거리 무선 통신일 수 있으며, 예를 들어, 이동 통신을 포함할 수 있으나, 이에 제한되지 않는다.
휴대 장치(100)와 웨어러블 장치(200)가 제1 무선 통신 중 하나인 블루투스로 연결되는 경우, 휴대 장치(100)와 웨어러블 장치(200)는 상호 지원되는 프로파일(예를 들어, SPP(serial port profile), A2DP(advanced audio distribution profile), AVRCP(audio/video remote control profile), HSP(headset profile), 또는, HFP(hands-free profile))로 연결될 수 있다. 또한, 휴대 장치(100)와 웨어러블 장치(200)가 제1 무선 통신 중 하나인 무선 랜(Wi-Fi)으로 연결될 수도 있다. 상술된 프로파일은 하나의 예이며, 휴대 장치(100)와 웨어러블 장치(200)에서 상호 지원되는 프로파일이 추가, 변경되거나 삭제될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
휴대 장치(100)와 웨어러블 장치(200)가 연결되는 경우, 휴대 장치(100)의 제어부(110)는 웨어러블 장치(200)에서부터 수신되는 웨어러블 장치 정보를 저장부(175)에 저장할 수 있다. 저장되는 웨어러블 장치 정보는 무선 연결 정보(예를 들어, SSID, IP 주소, MAC 주소, 채널 번호 또는 보안 키 등을 포함), 웨어러블 장치(200) 이름(product name), 웨어러블 장치(200) 식별자(ID), 웨어러블 장치(200) MAC 주소, 웨어러블 장치(200) 종류, 웨어러블 장치(200) 프로파일 또는 웨어러블 장치(200) 통신 방식 등을 포함할 수 있다.
휴대 장치(100)와 웨어러블 장치(200)가 연결되는 경우, 웨어러블 장치(200)의 제어부(210)는 휴대 장치(100)에서부터 수신되는 휴대 장치 정보를 저장부(275)에 저장할 수 있다. 웨어러블 장치(200)의 저장부(275)에 저장되는 휴대 장치 정보는 휴대 장치(100)의 저장부(175)에 저장되는 웨어러블 장치 정보와 실질적으로 유사하므로 중복되는 설명은 생략된다.
휴대 장치(100)와 웨어러블 장치(200)가 연결되는 경우, 휴대 장치(100)의 제어부(110)는 웨어러블 장치(200)에게 현재 상태(status)를 요청할 수 있다. 웨어러블 장치(200)의 현재 상태는 동작(working, 또는 busy), 대기(standby), 절전(sleep), 또는 잠금(hold)를 포함할 수 있다.
본 발명의 실시예에서, 웨어러블 장치(200)의 현재 상태는 대기(standby)일 수 있다.
웨어러블 장치(200)의 제어부(210)는 요청에 대응하여 웨어러블 장치 상태 정보를 통신부(230)를 통해 휴대 장치(100)로 전송할 수 있다. 휴대 장치(100)의 제어부(110)는 수신된 웨어러블 장치 상태 정보를 저장부(175)에 저장할 수 있다.
휴대 장치(100)와 웨어러블 장치(200)가 연결되는 경우, 휴대 장치(100)의 제어부(110)는 어플리케이션 화면(600)을 표시할 수 있다.
본 발명의 다른 실시예에서, 전원 온(power-on)된 웨어러블 장치(200)의 제어부(210)는 통신부(230)를 이용하여 주변의 휴대 장치(100)를 검색할 수 있다. 웨어러블 장치(200)의 디스플레이부(290)에 표시되는 휴대 장치의 검색 결과에 대응되는 검색 목록(도시되지 아니함)에서 휴대 장치(100)가 선택될 수 있다. 연결 대상인 휴대 장치(100)는 사용자에 의해 또는 제어부(210)에 의해 선택될 수 있다. 표시되는 검색 목록(도시되지 아니함)에서 연결 대상인 휴대 장치(100)만 검색되는 경우, 제어부(210)는 사용자 입력 없이 연결 대상인 휴대 장치(100)를 선택할 수도 있다.
웨어러블 장치(200)의 제어부(210)는 선택에 대응하여 통신부(230)를 이용하여 휴대 장치(100)의 통신부와 무선으로 연결할 수 있다.
휴대 장치(100)와 웨어러블 장치(200)가 연결되는 경우, 웨어러블 장치(200)의 제어부(210)는 휴대 장치(100)에서부터 수신된 휴대 장치 정보를 저장부(275)에 저장할 수 있다. 저장되는 휴대 장치 정보는 무선 연결 정보(예를 들어, SSID, IP 주소, MAC 주소, 채널 번호 또는 보안 키 등을 포함), 휴대 장치(100) 이름(product name), 휴대 장치(100) 식별자(ID), 휴대 장치(100) MAC 주소, 휴대 장치(100) 종류, 휴대 장치(100) 프로파일 또는 휴대 장치(100) 통신 방식 등을 포함할 수 있다.
도 4의 단계(S430)에서, 시각 피로도 측정이 시작된다.
시각 피로도 측정 및 산출 방법에 대해서는 후술하는 부분에서 구체적으로 설명한다.
도 5b를 참조하면, 사용자는 어플리케이션(Smart-eye) 화면(600)에서 시각 피로도 측정 시작(start checking)에 대응되는 버튼(602b)에 제3 터치(503)할 수 있다.
제어부(110)는 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 이용하여 제3 터치(503)를 검출할 수 있다. 제어부(110)는 터치 스크린 컨트롤러(195)에서부터 수신되는 전기 신호를 이용하여 제3 터치(503)에 대응되는 제3 터치 위치(예를 들어, X3와 Y3좌표, 503a)를 산출할 수 있다.
제어부(110)는 제3 터치 위치(503a)에 대응되는 제3 터치 위치 정보를 저장부(175)에 저장할 수 있다. 저장되는 제3 터치 위치 정보는 이력 관리를 위한 터치 식별자(ID), 터치 위치, 터치 검출 시간, 또는 터치 정보(예를 들어, 터치 압력, 터치 방향, 터치 지속 시간 등)를 포함할 수 있다.
도 4의 단계(S430)에서 제3 호버링의 검출은 도 4의 단계(S410)에서 제1 호버링 검출과 실질적으로 유사하므로 중복되는 설명은 생략된다.
제어부(110)는 제3 터치에 대응하여 웨어러블 장치(200)에게 사용자의 뇌파 측정을 요청할 수 있다. 제3 터치가 검출되는 경우, 제어부(110)는 사용자의 뇌파 측정 요청에 대응되는 제어 커맨드(예를 들어, 컨트롤 패킷)를 생성할 수 있다.
제어부(110)는 생성된 제어 커맨드를 통신부를 통해 웨어러블 장치(200)로 전송할 수 있다. 통신부를 통해 웨어러블 장치(200)로 전송되는 제어 커맨드의 구조는 계층적(hierarchical) 구조를 가질 수 있다.
제어 커맨드에 대응되는 컨트롤 패킷은 수신처(예를 들어, 웨어러블 장치) 주소 및 길이(length)에 대응되는 MAC 헤더(MAC header, 도시되지 아니함), 웨어러블 장치의 뇌파 측정 요청에 대응되는 페이로드(payload, 도시되지 아니함) 및 전송 오류 검출에 대응되는 CRC(cyclical redundancy check, 도시되지 아니함)를 포함하는 3개의 프레임으로 구성될 수 있다.
저장부(175)는 제어부(110)의 제어에 의해 웨어러블 장치(200)에서의 사용자 뇌파 측정 요청에 대응하여 생성된 제어 커맨드를 저장할 수 있다.
웨어러블 장치(200)의 제어부(210)는 휴대 장치(100)에서부터 전송되는 사용자 뇌파 측정의 요청에 대응되는 제어 커맨드를 수신할 수 있다. 수신된 제어 커맨드는 제어부(210)의 제어에 의해 저장부(275)에 저장될 수 있다.
웨어러블 장치(200)의 제어부(210)는 수신된 제어 커맨드에 대응하여 사용자의 뇌파 측정을 시작할 수 있다. 웨어러블 장치(200)의 제어부(210)는 측정 전극(271) 및 레퍼런스 전극(275)을 이용하여 사용자의 뇌파에 대응되는 원시 데이터를 측정할 수 있다. 측정된 사용자 뇌파에 대응되는 원시 데이터는 제어부(210)의 제어에 의해 저장부(275)에 저장될 수 있다.
웨어러블 장치(200)의 제어부(210)는 측정된 원시 데이터를 디지털 데이터로 변환할 수도 있다. 변경된 디지털 데이터는 제어부(210)의 제어에 의해 저장부(275)에 저장될 수도 있다.
원시 데이터는 이력 관리를 위한 식별자(ID), 웨어러블 장치 이름, 센서 개수, 전극 개수, 측정 날짜, 측정 시간, 또는, 원시 데이터(또는 변환된 디지털 데이터)를 포함하는 사용자 뇌파 정보로써 저장부(275)에 저장될 수 있다.
웨어러블 장치(200)의 제어부(210)는 통신부(230)를 통해 저장부(275)에 저장된 원시 데이터, 디지털 데이터 및 사용자 뇌파 정보 중 적어도 하나를 휴대 장치(100)로 전송할 수 있다. 또한, 웨어러블 장치(200)의 제어부(210)는 통신부(230)를 통해 저장부(275)에 저장된 사용자 뇌파 정보를 휴대 장치(100)로 전송할 수 있다.
본 발명의 실시예에서, 사용자 뇌파 정보는 원시 데이터 또는 변환된 디지털 데이터를 포함하는 의미를 포함할 수 있다.
웨어러블 장치(200)의 제어부(210)는 통신부(230)를 통해 저장된 원시 데이터 및/또는 디지털 데이터를 휴대 장치(100)로 주기적(예를 들어, 100 msec, 설정에 의해 변경 가능)으로 전송할 수 있다.
휴대 장치(100)의 제어부(210)는 통신부를 통해 웨어러블 장치(200)에서 전송되는 사용자 뇌파 정보를 수신할 수 있다. 저장부(175)는 제어부(110)의 제어에 의해 수신된 사용자 뇌파 정보를 저장할 수 있다.
도 4의 단계(S440)에서, 휴대 장치의 화면에 콘텐트가 표시된다.
도 5c를 참조하면, 휴대 장치(100)의 제어부(110)는 화면에 콘텐트(예를 들어, 웹 페이지, 700)를 표시할 수 있다. 사용자는 웹 브라우저에 대응되는 단축 아이콘(193d, 도 5a 참조)에 터치(도시되지 아니함)를 한다.
제어부(110)는 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 이용하여 터치(도시되지 아니함)를 검출할 수 있다. 제어부(110)는 터치 스크린 컨트롤러(195)에서부터 수신되는 전기 신호를 이용하여 터치(도시되지 아니함)에 대응되는 터치 위치(예를 들어, X와 Y좌표, 도시되지 아니함)를 산출할 수 있다.
도 4의 단계(S440)에서 웹 브라우저에 대응되는 단축아이콘에 대한 터치의 검출은 도 4의 단계(S410)에서 제1 터치의 검출과 실질적으로 유사하므로 중복되는 설명은 생략된다.
도 5c를 참조하면, 제어부(110)는 터치에 대응하여 웹 브라우저를 실행할 수 있다. 제어부(110)는 터치에 대응하여 실행되는 웹 브라우저를 통해 웹 페이지(700)를 표시할 수 있다. 사용자는 표시되는 웹 브라우저를 이용하여 웹 서핑(web surfing)을 할 수 있다.
콘텐트(예를 들어, 웹 페이지)를 표시하는 웹 브라우저는 본 발명의 다양한 실시예 중 하나이며, 오디오 파일 또는, 비디오 파일을 재생하는 비디오 플레이어, 뮤직 파일을 재생하는 뮤직 플레이어, 포토 파일을 표시하는 포토 갤러리, 문서를 작성하는 워드 프로세서 등을 포함하는 다양한 콘텐트를 표시(또는 재생)하는 다양한 어플리케이션이 사용자의 입력에 의해 실행될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
도 4의 단계(S450)에서, 웨어러블 장치에서부터 뇌파 정보가 수신된다.
도 5d를 참조하면, 휴대 장치(100)의 제어부(110)는 통신부를 통해 웨어러블 장치(200)에서부터 사용자 뇌파 정보를 수신할 수 있다. 수신되는 사용자 뇌파 정보는 원시 데이터 또는 변환된 디지털 데이터를 포함할 수 있다.
웨어러블 장치(200)에서부터 수신되는 사용자 뇌파 정보는 웨어러블 장치(200)의 측정 전극(271)의 개수에 대응하여 다를 수 있다. 웨어러블 장치(200)의 측정 전극이 2 개(예를 들어, 도 3a 참조)인 경우, 수신되는 사용자 뇌파 정보는 2 채널에 대응될 수 있다. 웨어러블 장치(200)의 측정 전극이 3 개(예를 들어, 도 3b 참조)인 경우, 수신되는 사용자 뇌파 정보는 2 채널에 대응될 수 있다. 도 5d의 (a)에서 웨어러블 장치(200)에서부터 수신되는 사용자 뇌파 정보는 4 채널에 대응될 수 있다.
저장부(175)는 제어부(110)의 제어에 의해 수신된 사용자 뇌파 정보를 저장할 수 있다.
제어부(110)는 웨어러블 장치(200)를 이용하여 휴식 상태(rest state)인 사용자의 시각 피로도를 먼저 산출할 수 있다.
사용자의 시각 피로도를 산출하는 일반적인 식은 아래의 수학식 1로 나타낼 수 있다. 제어부(110)는 하기의 수학식 1을 이용한 연산을 수행하여 사용자의 시각 피로도들 산출할 수 있다.
Figure pat00001
상술된 수학식 1에서, θ는 세타 파의 크기, α는 알파 파의 크기 β는 베타 파의 크기를 의미할 수 있다. 수학식 1을 이용하여 산출된 시각 피로도는 0.1 내지 3.4의 범위를 가질 수 있다. 휴식 상태에서의 시각 피로도는 2.2 이하일 수 있다. 또한, 시각 피로도가 2.6 이상인 경우, 제어부는 시각 피로도 증가를 결정할 수 있다.
제어부(110)는 수신된 사용자 뇌파 및 수학식 1을 이용하여 휴식 상태의 사용자 시각 피로도를 결정할 수 있다. 또한, 제어부(110)는 기저장된 사용자 시각 피로도 범위(예를 들어, 수학식 1을 이용하여 산출)에 의해 수신된 사용자 뇌파를 이용하여 휴식 상태의 사용자 시각 피로도를 결정할 수 있다. 예를 들어, 휴식 상태의 사용자 시각 피로도는 약 2.2 이하 일 수 있다. 시각 피로도의 증가에 대응되는 임계값은 2.6 일 수 있다. 임계값은 사용자의 신체 상황 및/또는 주위 환경에 따라 변경될 수 있다.
산출된 휴식 상태의 사용자 시각 피로도는 제어부(110)의 제어에 의해 저장부(175)에 저장될 수 있다.
산출된 휴식 상태의 사용자 시각 피로도는 사용자의 신체 상태 또는 주위 환경에 의해 변경될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
제어부(110)는 기 저장된 휴식 상태의 사용자 시각 피로도를 이용하여 사용자의 시각 피로도 증가를 결정할 수 있다.
도 4의 단계(S460)에서, 수신된 사용자 뇌파 정보가 분석된다.
도 5d를 참조하면, 제어부(110)는 수신된 사용자 뇌파 정보 및 시각 피로도 어플리케이션을 이용하여 사용자의 시각 피로도를 산출할 수 있다. 제어부(100)는 시각 피로도 어플리케이션을 이용하여 사용자 뇌파를 주파수 대역 별 분석할 수 있다. 제어부(110)는 수신된 사용자 뇌파 정보를 빠른 푸리에 변환(fast Fourier transform, FFT)하여 분석할 수 있다. 예를 들어, 도 5d의 (a)에서 가로 축(예를 들어, 시간)에 대한 진폭 변화가 큰 경우, 도 5d의 (b)에서 주파수 성분은 세로 축(예를 들어, 파워)의 높은 영역에 위치할 수 있다.
제어부(110)는 수신된 사용자 뇌파 정보에서 시각 자극을 받아들이는 후두엽의 측정 전극(711)과 이를 처리하는 전두엽의 측정 전극(711)에서 측정된 두 뇌파의 최고 값(peak value)의 레이턴시(latency)의 차이를 이용하여 시각 피로도를 산출할 수 있다. 레이턴시는 사용자의 피로도가 증가하면 자극이 수신된 후에 뇌파의 파형이 크게 튀는 시점을 의미할 수 있다. 제어부(110)는 빠른 푸리에 변환을 통해 사용자 뇌파가 수집되는 전체 기간 동안 뇌파의 평균 주파수 성분을 생성할 수 있다.
산출된 시각 피로도는 제어부(110)의 제어에 의해 저장부(175)에 저장될 수 있다.
도 4의 단계(S470)에서, 시각 피로도의 증가가 결정된다.
도 5d의 (b1) 및 (b2)에서, 제어부(110)는 시각 피로도의 증가를 결정할 수 있다. 사용자의 시각 피로도가 증가하는 경우, 세타(θ)파 및 알파(α)파 대역의 파워(power)가 증가할 수 있다. 사용자 뇌파 분석을 통해 세타(θ)파 대역인 6 ~ 7 ㎐ 대역에서 파워가 증가하는 경우, 제어부(110)는 사용자의 시각 피로도의 발생을 결정할 수 있다. 또한, 사용자 뇌파 분석을 통해 알파(α)파 대역인 8 ~11 ㎐의 대역에서 파워가 증가하는 경우, 제어부(110)는 사용자의 시각 피로도의 발생을 결정할 수 있다.
제어부(110)는 기저장된 휴식 상태의 시각 피로도와 수신된 사용자 뇌파 정보에서 산출된 시각 피로도를 비교할 수 있다. 수신된 사용자 뇌파 정보 및 수학식 1을 이용하여 산출된 시각 피로도가 2.6 이상인 경우, 제어부(110)는 사용자 시각 피로도의 증가를 결정할 수 있다.
제어부(110)는 세타(θ)파 대역의 파워 증가 및 알파(α)파 대역의 파워 증가 중 하나, 또는 세타(θ)파 대역 및 알파(α)파 대역 모두 파워 증가를 이용하여 사용자 시각 피로도의 증가를 결정할 수 있다.
도 4의 단계(S460)에서, 시각 피로도가 발생하지 않는 경우, 휴대 장치의 콘텐트 화면 변경방법이 종료된다.
도 4의 단계(S480)에서, 표시되는 콘텐트가 변경된다.
도 5e 내지 도 11b를 참조하면, 제어부(110)는 웹 브라우저에서 표시되는 콘텐트(예를 들어, 웹 페이지)를 변경할 수 있다.
도 5e를 참조하면, 제어부(110)는 사용자의 시각 피로도 발생에 대응되는 팝업창(pop-up, 701)을 표시할 수 있다. 제어부(110)는 팝업창(701)을 웹 페이지(700)와 구별되게 표시할 수 있다. 또한, 제어부(110)는 투명도(transparency, 예를 들어, 0 내지 100 % 사이의 값)를 가지는 팝업창(701)을 표시할 수 있다. 투명도는 환경 설정을 통해 변경될 수 있다.
제어부(110)는 팝업창(701)을 웹 페이지(700)에 중첩되게 표시할 수 있다. 제어부(110)는 팝업창(701)을 결정된 시간(예를 들어, 1 sec, 환경 설정에 의해 변경 가능)동안 표시할 수 있다.
표시되는 팝업창(701)의 크기는 웹 페이지(700)의 크기보다 작다. 예를 들어, 팝업창(701)의 크기는 웹 페이지(700)의 크기를 기준으로 10 내지 85 % 사이를 포함할 수 있다. 또한, 팝업창(701)의 크기는 웹 페이지(700)의 크기를 기준으로 30 내지 55 % 사이를 포함할 수 있다.
아이콘(701a)이 선택되는 경우, 제어부(110)는 표시되는 팝업창(701)을 사라지게 할 수 있다.
또한, 제어부(110)는 웹 브라우저에서 표시되는 콘텐트(700)를 팝업창(701)의 표시 없이 다른 콘텐트(710)로 변경할 수도 있다. 제어부(110)는 웹 브라우저에서 표시되는 콘텐트(700)를 별도의 팝업창(701)을 표시하지 않고 다른 콘텐트(710)로 빠르게(예를 들어, 팝업창(701)의 표시 시간에 대응) 변경할 수도 있다.
설정된 시간이 경과하거나 또는 아이콘(701a)이 선택되는 경우, 제어부(110)는 표시되는 웹 페이지(700)를 변경할 수 있다. 설정된 시간이 경과하거나 또는 아이콘(701a)이 선택되는 경우, 제어부(110)는 표시되는 웹 페이지(700)를 환경 설정(시각 피로도 환경 설정, 예를 들어, 도 12 참조)을 이용하여 변경할 수 있다. 또한, 설정된 시간이 경과하거나 또는 아이콘(701a)이 선택되는 경우, 제어부(110)는 표시되는 웹 페이지(700)를 환경 설정(시각 피로도 환경 설정, 예를 들어, 도 12 참조) 및 휴대 장치 정보(예를 들어, 해상도, 화면 크기 등)을 이용하여 변경할 수 있다.
도 5f를 참조하면, 사용자의 시각 피로도 증가에 대응하여 제어부(110)는 웹 페이지(700)를 변경된 폰트 크기를 가지는 다른 웹 페이지(710)로 변경할 수 있다. 변경된 웹 페이지(710)의 폰트 크기는 원래의 웹 페이지(700)의 폰트 크기보다 클 수 있다. 예를 들어, 원래의 웹 페이지(700)의 폰트 크기가 20 픽셀(pixel)인 경우, 변경된 웹 페이지(710)의 폰트 크기는 40 픽셀(예를 들어, 2 배 큰)일 수 있다. 폰트 크기는 sp(scale-independent pixel) 또는, dp(device-independent pixel)를 포함할 수 있다.
변경된 웹 페이지(710)에서 폰트 크기의 2 배 증가는 하나의 실시예이며, 다양한 폰트 크기로 변경될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
폰트 크기는 휴대 장치(100)에서 실행되는 어플리케이션에 대응하여 변경될 수 있다. 사용자의 시각 피로도가 발생되는 경우, 제어부(110)는 휴대 장치(100)에서 실행되는 어플리케이션에 대응하여 폰트 크기를 다르게 변경할 수 있다. 예를 들어, 사용자의 시각 피로도가 발생되는 경우, 제어부(110)는 웹 브라우저에 표시되는 웹 페이지의 폰트 크기와 워드 프로세서에 표시되는 텍스트의 폰트 크기를 다르게 변경할 수 있다.
도 5f에서, 변경된 폰트 크기를 가지는 웹 페이지(710)에 의해 사용자의 시각 피로도가 감소될 수 있다.
다른 콘텐트로 변경되는 경우, 제어부(110)는 수신된 사용자의 뇌파 정보를 이용하여 시각 피로도를 계속 산출할 수 있다.
산출된 사용자의 시각 피로도가 감소되는 경우, 제어부(11)는 표시되는 다른 콘텐트(710)를 변경 이전의 콘텐트(700)로 복원할 수 있다.
웹 브라우저와 워드 프로세서의 다른 폰트 크기는 하나의 실시예이며, 다양한 어플리케이션에 대응하여 폰트 크기가 변경될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다. 또한, 사용자의 시각 피로도 증가에 대응하여 폰트 크기는 휴대 장치(100)의 화면 크기 및/또는 해상도에 대응하여 변경될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
도 6을 참조하면, 사용자의 시각 피로도 증가에 대응하여 제어부(100)는 웹 페이지(700)를 변경된 레이아웃(layout)을 가지는 다른 웹 페이지(720)로 변경할 수 있다. 변경된 웹 페이지(720)의 레이아웃은 원래의 웹 페이지(700)를 세 개의 영역(예를 들어, 도 6의 (b), (c), (d)) 또는 네 개의 영역(예를 들어, 도 6의 (a))으로 구분되는 레이아웃일 수 있다. 변경된 웹 페이지(720)의 레이아웃은 두 개의 영역(도시되지 아니함) 또는 다섯 개 이상의 영역으로 구분될 수 있다. 또한, 변경된 웹 페이지(720)의 레이아웃에 원래의 웹 페이지(700)에 포함되는 텍스트, 이미지, 또는 동영상(예를 들어, 플래시 등)이 표시될 수 있다.
도 6의 (a)에서, 변경된 웹 페이지(720)의 레이아웃은 하나의 가로 영역(720a) 및 세 개의 세로 영역(720b 내지 720d)을 포함할 수 있다. 각 영역(720a 내지 720d) 사이의 여백의 너비는 각 영역의 높이 및 너비 중 하나보다 작을 수 있다. 또한, 세 개의 세로 영역(720b 내지 720d)에서 각 세로 영역의 면적은 다를 수 있다.
도 6의 (b)에서, 변경된 웹 페이지(721)의 레이아웃은 세 개의 세로 영역(721a 내지 721c)을 포함할 수 있다. 각 영역(721a 내지 721c) 사이의 여백의 너비는 각 영역의 너비 중 하나의 너비보다 작을 수 있다. 세 개의 세로 영역(721a 내지 721c)에서 각 세로 영역의 면적은 다를 수 있다. 또한, 세 개의 세로 영역(721a 내지 721c)에서 두 개의 세로 영역의 면적은 동일할 수 있다.
도 6의 (c)에서, 변경된 웹 페이지(721)의 레이아웃은 하나의 가로 영역(722a) 및 두 개의 세로 영역(722b 및 722c)을 포함할 수 있다. 각 영역(722a 내지 722c) 사이의 여백의 너비는 각 영역의 높이 및 너비 중 하나보다 작을 수 있다. 두 개의 세로 영역(722b 및 722c)에서 각 세로 영역의 면적은 다를 수 있다. 또한, 세 개의 세로 영역(722a 내지 721c)에서 두 개 영역의 면적은 동일할 수 있다.
도 6의 (d)에서, 변경된 웹 페이지(723)의 레이아웃은 세 개의 가로 영역(723a 내지 723c)을 포함할 수 있다. 각 영역(723a 내지 723c) 사이의 여백의 너비는 각 영역의 너비 중 하나의 높이보다 작을 수 있다. 세 개의 가로 영역(723a 내지 723c)에서 각 가로 영역의 면적은 다를 수 있다. 또한, 세 개의 가로 영역(723a 내지 723c)에서 두 개의 가로 영역의 면적은 동일할 수 있다.
도 6에서 변경된 웹 페이지(720)의 레이아웃에 의한 시선 이동 방향의 변경 및/또는 초점 방향의 변경에 의해 사용자의 시각 피로도를 감소시킬 수 있다.
다른 콘텐트로 변경되는 경우, 제어부(110)는 수신된 사용자의 뇌파 정보를 이용하여 시각 피로도를 계속 산출할 수 있다.
산출된 사용자의 시각 피로도가 감소되는 경우, 제어부(11)는 표시되는 다른 콘텐트(720 내지 723)를 변경 이전의 콘텐트(700)로 복원할 수 있다.
도 6의 (a) 내지 (d)에 도시된 레이아웃은 하나의 실시예이며, 다양한 어플리케이션에 대응하여 레이아웃, 레이아웃에 포함되는 영역 및 레이아웃에 포함되는 영역의 위치가 변경될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
도 7a 및 도 7b를 참조하면, 사용자의 시각 피로도 증가에 대응하여 제어부(100)는 웹 페이지(700)를 컬러 화면(color screen, 730, 731)을 포함하는 웹 페이지(700)로 변경(또는 추가)할 수 있다. 컬러 화면(730, 731)은 사용자의 눈에 대한 자극이 크지 않는 녹색(green) 또는 녹색 계열(예를 들어, 연두색, 또는 진한 녹색 등)의 영역을 포함할 수 있다. 컬러 화면(730, 731)은 "컬러 필터"를 포함하는 의미로 사용될 수 있다.
제어부(110)는 컬러 화면(730, 731)을 웹 페이지(700)에 설정된 영역에 표시할 수 있다. 제어부(110)는 컬러 화면(730, 731)을 웹 페이지(700)에 중첩되게 추가할 수 있다. 컬러 화면(730, 731)은 투명도(예를 들어, 0 내지 100 % 사이의 값, 환경 설정에 의해 변경 가능)를 가질 수 있다.
컬러 화면(730)의 면적은 웹 페이지(700)의 면적의 30 내지 50 % 사이일 수 있다. 컬러 화면(731)의 면적은 웹 페이지(700)의 면적과 동일할 수 있다. 컬러 화면(731)의 면적은 웹 페이지(700)에서 주소 표시줄(700a), 탭 아이콘(700b) 및 검색 아이콘(700c) 중 적어도 하나를 제외한 면적일 수 있다. 또한, 컬러 화면(731)의 면적은 상태바(192) 및 웹 페이지(700)를 포함할 수 있다.
표시되는 컬러 화면(730)은 다각형, 원형 및 자유형의 형상(shape)을 포함할 수 있다. 컬러 화면(730)은 웹 페이지(700)의 중심 영역을 기준으로 상단 영역, 중심 영역 및 하단 영역 중 하나의 영역에 위치할 수 있다.
컬러 화면(730, 731)에 대응되는 컬러 화면 정보(예를 들어, 이력 관리를 위한 식별자(ID), 컬러 화면의 컬러, 컬러 화면의 크기, 컬러 화면의 저장 위치, 또는 컬러 화면의 웹 페이지 내 위치 등)가 제어부(110)의 제어에 의해 저장부(175)에 저장될 수 있다.
제어부(110)는 컬러 화면(730, 731)에 대응되게 웹 페이지(700)의 배경색(background color)을 녹색 및 녹색 계열 중 하나로 변경할 수도 있다.
도 7c를 참조하면, 사용자의 시각 피로도 증가에 대응하여 제어부(100)는 웹 페이지(700)에 시각 피로도 완화 동영상(visual fatigue relax video, 732)을 포함하는 웹 페이지(700)로 변경할 수 있다.
시각 피로도 완화 동영상(732)은 사용자의 눈에 대한 자극이 크지 않는 녹색(green) 또는 녹색 계열(예를 들어, 연두색, 또는 진한 녹색 등)의 시각 피로도 완화 동영상(예를 들어, 숲 속 풍경 등, 732)일 수 있다.
제어부(110)는 시각 피로도 완화 동영상(732)을 웹 페이지(700)에 중첩되게 표시할 수 있다. 시각 피로도 완화 동영상(732)은 투명도(예를 들어, 0 내지 100 % 사이의 값, 환경 설정에 의해 변경 가능)를 가질 수 있다.
시각 피로도 완화 동영상(732)의 면적은 웹 페이지(700)의 면적의 25 내지 85 % 사이일 수 있다. 또한, 시각 피로도 완화 동영상(732)의 면적은 웹 페이지(700)의 면적과 동일할 수도 있다. 시각 피로도 완화 동영상(732)는 웹 페이지(700)의 중심 영역을 기준으로 상단 영역, 중심 영역 및 하단 영역 중 하나의 영역에 위치할 수 있다.
시각 피로도 완화 동영상(732)에 대응되는 시각 피로도 완화 동영상 정보(예를 들어, 이력 관리를 위한 식별자(ID), 시각 피로도 완화 동영상 이름, 시각 피로도 완화 동영상 재생 시간, 시각 피로도 완화 동영상 저장 위치, 또는 시각 피로도 완화 동영상의 웹 페이지 내 위치 등)가 제어부(110)의 제어에 의해 저장부(175)에 저장될 수 있다.
시각 피로도 완화 동영상(732)는 TTS(text to speech) 서비스를 포함할 수 있다. 사용자의 시각 피로도 증가에 대응하여 제어부(100)는 웹 페이지(700)에 포함되는 텍스트를 음성으로 변환하여 출력할 수 있다. 텍스트가 변환되어 음성으로 출력되는 경우, 제어부(110)는 스피커 아이콘(732)를 표시할 수 있다.
다른 콘텐트로 변경되는 경우, 제어부(110)는 수신된 사용자의 뇌파 정보를 이용하여 시각 피로도를 계속 산출할 수 있다.
산출된 사용자의 시각 피로도가 감소되는 경우, 제어부(11)는 표시되는 다른 콘텐트(730 내지 732)를 변경 이전의 콘텐트(700)로 복원할 수 있다.
도 8을 참조하면, 휴대 장치(100)의 화면에 제1 전자책 화면(e-book, 740)이 표시될 수 있다. 제1 전자책 화면(740)에서 사용자에 의해 현재 페이지(741)가 왼쪽으로 넘어가는 경우, 사용자의 시각 피로도 증가에 대응하여 제어부(100)는 제1 전자책 화면(740)의 다음 페이지(742)에 시각 피로도 완화 컬러 화면(visual fatigue relax color screen, 742a)을 표시할 수 있다.
사용자 입력에 의해 현재 페이지(741)가 볼록하게 변형되어 넘어가는 경우, 제어부(110)는 시각 피로도 완화 컬러 화면(742a)을 다음 페이지(742)에 중첩되게 표시할 수 있다. 시각 피로도 완화 컬러 화면(742a)은 투명도(예를 들어, 0 내지 100 % 사이의 값, 환경 설정에 의해 변경 가능)를 가질 수 있다.
사용자 입력(예를 들어, 터치 또는 터치 제스처)의 위치에 대응하여 현재 페이지(741)가 볼록하게 변형되어 넘어가는 경우(예를 들어, 도 8의 (a) 및 (b)), 제어부(110)는 다음 페이지(742)에 표시되는 시각 피로도 완화 컬러 화면(742a)을 다르게 표시할 수 있다.
사용자 입력에 의해 현재 페이지(741)가 상방으로 볼록하게 변형되어 점진적으로 왼쪽으로 넘어가는 경우, 제어부(110)는 다음 페이지(742)에 시각 피로도 완화 컬러 화면(742a)을 더 많이 표시되게 할 수 있다.
제어부(110)는 시각 피로도 완화 컬러 화면(742a)에 대응하여 다음 페이지(742)의 배경색(background color)를 녹색 및 녹색 계열 중 하나로 변경할 수 있다.
다른 콘텐트로 변경되는 경우, 제어부(110)는 수신된 사용자의 뇌파 정보를 이용하여 시각 피로도를 계속 산출할 수 있다.
산출된 사용자의 시각 피로도가 감소되는 경우, 제어부(11)는 표시되는 다른 콘텐트(742)를 변경 이전의 콘텐트(741)로 복원할 수 있다.
도 9를 참조하면, 휴대 장치(100)의 화면에 제2 전자책 화면(e-book, 750)이 표시될 수 있다. 제2 전자책 화면(750)에서 사용자에 의해 현재 페이지(751)가 왼쪽으로 넘어가는 경우, 사용자의 시각 피로도 증가에 대응하여 제어부(100)는 제2 전자책 화면(750)에서 현재 페이지(751)의 배면(751a)에 시각 피로도 완화 컬러 화면(visual fatigue relax color screen, 753)을 표시할 수 있다. 다음 페이지(752)는 시각 피로도 완화 컬러 화면(753)과 중첩되지 않는다.
사용자 입력에 의해 현재 페이지(751)가 접혀서 넘어가는 경우, 제어부(110)는 시각 피로도 완화 컬러 화면(753)을 현재 페이지(751)의 배면(751a)에 중첩되게 표시할 수 있다. 시각 피로도 완화 컬러 화면(753)은 투명도(예를 들어, 0 내지 100 % 사이의 값, 환경 설정에 의해 변경 가능)를 가질 수 있다.
사용자 입력(예를 들어, 터치 또는 터치 제스처)의 위치에 대응하여 현재 페이지(751)가 접혀서 넘어가는 경우(예를 들어, 도 9의 (a)에서부터 (c)까지), 제어부(110)는 현재 페이지(751)의 배면(751a)을 다르게 표시할 수 있다.
사용자 입력에 의해 현재 페이지(751)가 접혀서 점진적으로 왼쪽으로 넘어가는 경우, 제어부(110)는 현재 페이지(751)의 배면(751a)에 시각 피로도 완화 컬러 화면(753)을 더 많이 표시되게 할 수 있다.
다른 콘텐트로 변경되는 경우, 제어부(110)는 수신된 사용자의 뇌파 정보를 이용하여 시각 피로도를 계속 산출할 수 있다.
산출된 사용자의 시각 피로도가 감소되는 경우, 제어부(11)는 표시되는 다른 콘텐트(753)를 변경 이전의 콘텐트(751)로 복원할 수 있다.
도 10a를 참조하면, 휴대 장치(100)의 화면에 제3 전자책 화면(e-book, 760)이 표시될 수 있다. 제3 전자책 화면(760)에서 사용자에 의해 현재 페이지(761)가 왼쪽으로 넘어가는 경우, 사용자의 시각 피로도 증가에 대응하여 제어부(100)는 제3 전자책 화면(760)에서 현재 페이지(761)의 배면(761a)에 눈 운동 가이드(ocular movement guide, 763)를 표시할 수 있다. 예를 들어, 눈 운동 가이드(763)은 "눈을 깜박여 주세요", "눈을 상, 하로 이동해 주세요", "눈을 좌, 우로 이동해 주세요" 또는 "눈을 상, 하, 좌, 우로 이동해 주세요"를 포함할 수 있다.
현재 페이지(761)의 배면(761a)에 표시되는 눈 운동 가이드(763)는 텍스트, 이미지 및 동영상 중 하나로 구현될 수 있다. 예를 들어, 눈 운동 가이드(763)가 텍스트인 경우, 표시되는 텍스트의 폰트 크기는 배면(761a)의 면적에 대응될 수 있다. 예를 들어, 도 10a처럼 현재 페이지(761)의 배면(761a)의 면적이 현재 페이지(761)의 20%인 경우, 눈 운동 가이드(763)에서 텍스트의 폰트 크기는 20 픽셀일 수 있다. 현재 페이지(761)가 왼쪽으로 더 넘어가서, 배면(761a)의 면적이 현재 페이지(761)의 40%인 경우, 눈 운동 가이드(763)에서 텍스트의 폰트 크기는 넓어진 배면(761a)의 면적에 대응하여 35 픽셀일 수 있다. 배면(761a)의 면적이 넓어질수록 눈 운동 가이드(763)에서 텍스트의 폰트 크기는 커질 수 있다.
현재 페이지(761)의 배면(761a)에 표시되는 눈 운동 가이드(763)는 다음 페이지(762)와 중첩되지 않는다.
사용자 입력에 의해 현재 페이지(761)가 접혀서 넘어가는 경우, 제어부(110)는 눈 운동 가이드(763)를 현재 페이지(761)의 배면(761a)에 표시할 수 있다. 또한, 사용자 입력에 의해 현재 페이지(761)가 접혀서 넘어가는 경우, 제어부(110)는 눈 운동 가이드(763)를 현재 페이지(761)의 배면(761a)에 중첩되게 표시할 수 있다. 눈 운동 가이드(763)가 현재 페이지(761)의 배면(761a)에 중첩되는 경우, 눈 운동 가이드(763)는 투명도(예를 들어, 0 내지 100 % 사이의 값, 환경 설정에 의해 변경 가능)를 가질 수 있다.
도 10a에서, 휴대 장치(100)의 화면에 제3 전자책 화면(e-book, 760)이 표시되는 경우, 제어부(110)는 제1 카메라(151)를 실행할 수 있다.
제어부(110)는 제1 카메라(151)를 이용하여 눈 운동 가이드(763)에 대응되는 사용자의 눈 운동 실행 여부를 검출할 수 있다. 제어부(110)는 제1 카메라(151) 및 얼굴 인식(face recognition)을 이용하여 사용자의 눈 운동 실행 여부를 검출할 수 있다. 사용자가 눈 운동 가이드(763)에 대응되는 눈을 깜빡이는 경우, 제어부(110)는 제1 카메라(151) 및 얼굴 인식을 이용하여 사용자의 눈 깜박임(nictation)을 검출할 수 있다. 예를 들어, 표시되는 눈 운동 가이드(763)가 "눈을 10 회 깜박여 주세요"인 경우, 제어부(110)는 제1 카메라(151) 및 얼굴 인식을 이용하여 사용자의 눈 깜박임 회수를 카운트할 수 있다. 눈 깜박임 회수가 10 회에 미달인 경우, 제어부(110)는 현재 페이지(761)를 넘기지 않고 유지할 수도 있다.
시각 피로도 증가 정도에 대응하여 표시되는 눈 운동 가이드(763)가 변경(예를 들어, 시각 피로도가 증가될수록 눈 깜박임 횟수도 증가)될 수 있다.
본 발명의 실시예에서, 눈 운동 가이드는 눈 운동 애니메이션을 포함하는 의미일 수 있다. 또한, 눈 운동 애니메이션은 제1 내지 제3 운동 애니메이션(도 10b의 764, 도 11a의 771, 또는 도 11b의 775)을 포함할 수 있다. 애니메이션은 동영상을 의미할 수 있다.
다른 콘텐트로 변경되는 경우, 제어부(110)는 수신된 사용자의 뇌파 정보를 이용하여 시각 피로도를 계속 산출할 수 있다.
산출된 사용자의 시각 피로도가 감소되는 경우, 제어부(11)는 표시되는 다른 콘텐트(761b)를 변경 이전의 콘텐트(760)로 복원할 수 있다.
도 10b를 참조하면, 휴대 장치(100)의 화면에 제3 전자책 화면(e-book, 760)이 표시될 수 있다. 제3 전자책 화면(760)에서 사용자에 의해 현재 페이지(761)가 왼쪽으로 넘어가는 경우, 사용자의 시각 피로도 증가에 대응하여 제어부(100)는 제3 전자책 화면(760)에서 현재 페이지(761)의 배면(761a)에 제1 눈 운동 애니메이션(ocular movement animation, 764)을 표시할 수 있다.
제1 눈 운동 애니메이션(764)은 사용자의 시선을 추적하는 아이 트랙킹(eye-tracking)에 대응되는 애니메이션일 수 있다. 예를 들어, 제어부(110)는 제1 카메라(151)를 이용하여 제1 눈 운동 애니메이션(764)에서 최초 위치인 제1 포인트(764a)에 위치하는 사용자 시선을 검출할 수 있다.
제1 포인트(764a)에서 사용자 시선이 검출되는 경우, 제어부(110)는 사용자 시선을 아래 방향으로 유도하는 경로(trajectory, 764t)를 표시할 수 있다. 또한, 제어부(110)는 경로(764t)에 인접하고, 사용자 시선을 아래 방향으로 유도하는 방향 기호(765)를 더 표시할 수 있다. 제어부(110)는 방향 기호(765)를 현재 페이지(761) 또는 다음 페이지(762)에 표시할 수 있다.
경로(764t)는 제1 포인트(764a)에서부터 중간 포인트(764b, 764c) 및 최종 위치인 제4 포인트(764d)를 포함할 수 있다. 경로(764t)는 복수의 포인트를 포함하며, 4개의 포인트(764a 내지 764d)는 하나의 실시 예 일 뿐이다.
제어부(110)는 제1 카메라(151) 및 아이 트랙킹을 이용하여 경로(764t)를 따라가는 사용자 시선을 검출할 수 있다. 제어부(110)는 제1 카메라(151)를 이용하여 제1 눈 운동 애니메이션(764)에서 최종 위치인 제4 포인트(764d)에 위치하는 사용자 시선을 검출할 수 있다. 제4 포인트 (764d)에서 사용자 시선이 검출되는 경우, 제어부(110)는 제1 눈 운동 애니메이션(764)를 반복할 수 있다.
제1 눈 운동 애니메이션(764)의 반복 횟수에 미달인 경우 또는 제1 포인트(764a)에서부터 시작된 사용자 시선이 제4 포인트(764d)에서 검출되지 않는 경우, 제어부(110)는 현재 페이지(761)를 넘기지 않고 유지할 수도 있다.
시각 피로도 증가 정도에 대응하여 표시되는 제1 눈 운동 애니메이션(764)이 변경(예를 들어, 시각 피로도가 증가될수록 경로(764t)가 더 휘어지는)될 수 있다.
다른 콘텐트로 변경되는 경우, 제어부(110)는 수신된 사용자의 뇌파 정보를 이용하여 시각 피로도를 계속 산출할 수 있다.
산출된 사용자의 시각 피로도가 감소되는 경우, 제어부(11)는 표시되는 다른 콘텐트(764)를 변경 이전의 콘텐트(760)로 복원할 수 있다.
도 11a를 참조하면, 사용자의 시각 피로도 증가에 대응하여 제어부(100)는 웹 페이지(700)를 컬러 화면(770a)을 포함하는 웹 페이지(770)로 변경할 수 있다. 컬러 화면(770a)은 사용자의 눈에 대한 자극이 크지 않는 녹색(green) 또는 녹색 계열(예를 들어, 연두색, 또는 진한 녹색 등)의 영역을 포함할 수 있다.
제어부(110)는 웹 페이지(770)의 컬러 화면(770a)에 중첩되게 제2 눈 운동 애니메이션(771)을 표시할 수 있다. 제2 눈 운동 애니메이션(771)은 투명도(예를 들어, 0 내지 100 % 사이의 값, 환경 설정에 의해 변경 가능)를 가질 수 있다.
제2 눈 운동 애니메이션(771)은 사용자의 홍채를 인식가능한 홍채 인식(iris recognition)에 대응되는 애니메이션일 수 있다. 예를 들어, 제어부(110)는 제1 카메라(151)를 이용하여 제2 눈 운동 애니메이션(771)에서 눈은 뜬(예를 들어, 홍채 인식된) 최초 위치(771a)에 위치하는 사용자의 홍채를 검출할 수 있다.
제1 위치(771a)에서 사용자 홍채가 검출되는 경우, 제어부(110)는 사용자 시선을 아래 방향으로 유도하는 방향 기호(772)를 표시할 수 있다.
제어부(110)는 제1 카메라(151) 및 홍채 인식을 이용하여 방향 기호(772)에 대응되는 사용자의 눈 깜박임을 검출할 수 있다. 제어부(110)는 제1 카메라(151)를 이용하여 제2 눈 운동 애니메이션(771)에서 최종 위치인 제2 위치(771b)에서 사용자의 눈 감음(eyelid closure)을 검출할 수 있다. 제2 위치(771b)에서 사용자의 눈 감음이 검출되는 경우, 제어부(110)는 제2 눈 운동 애니메이션(771)를 반복할 수 있다.
제2 눈 운동 애니메이션의 반복 횟수는 카운터(773)에 표시될 수 있다. 카운터(773)는 총 반복 횟수 및 현재 반복 횟수를 표시할 수 있다.
제2 눈 운동 애니메이션(764)의 총 반복 횟수에 미달인 경우, 제어부(110)는 웹 페이지(770)를 변경하지 않고 유지할 수도 있다.
시각 피로도 증가 정도에 대응하여 표시되는 제2 눈 운동 애니메이션(771)이 변경(예를 들어, 시각 피로도가 증가될수록 반복 횟수가 증가)될 수 있다.
다른 콘텐트로 변경되는 경우, 제어부(110)는 수신된 사용자의 뇌파 정보를 이용하여 시각 피로도를 계속 산출할 수 있다.
산출된 사용자의 시각 피로도가 감소되는 경우, 제어부(11)는 표시되는 다른 콘텐트(771, 772, 773)를 변경 이전의 콘텐트(770)로 복원할 수 있다.
도 11b를 참조하면, 사용자의 시각 피로도 증가에 대응하여 제어부(100)는 웹 페이지(700)를 컬러 화면(770a)을 포함하는 웹 페이지(770)로 변경할 수 있다. 컬러 화면(770a)은 사용자의 눈에 대한 자극이 크지 않는 녹색(green) 또는 녹색 계열(예를 들어, 연두색, 또는 진한 녹색 등)의 영역을 포함할 수 있다.
제어부(110)는 웹 페이지(770)의 컬러 화면(770a)에 중첩되게 제3 눈 운동 애니메이션(775)을 표시할 수 있다. 제3 눈 운동 애니메이션(775)은 투명도(예를 들어, 0 내지 100 % 사이의 값, 환경 설정에 의해 변경 가능)를 가질 수 있다.
제3 눈 운동 애니메이션(771)은 사용자의 시선을 추적가능한 아이 트랙킹에 대응되는 애니메이션일 수 있다. 예를 들어, 제어부(110)는 제1 카메라(151)를 이용하여 제3 눈 운동 애니메이션(775)에서 양쪽 눈을 왼쪽 이동된 상태(1)에 대응되는 사용자의 홍채를 검출할 수 있다.
양쪽 눈을 왼쪽 이동된 상태(1)에서 사용자 홍채가 검출되는 경우, 제어부(110)는 사용자 시선을 우측 방향으로 유도하는 방향 기호(775a)를 표시할 수 있다.
제어부(110)는 제1 카메라(151) 및 홍채 인식을 이용하여 방향 기호(775a)에 대응되는 사용자의 눈 움직임을 검출할 수 있다. 제어부(110)는 제1 카메라(151)를 이용하여 제3 눈 운동 애니메이션(771)에서 최종 위치인 양쪽 눈을 오른쪽 이동된 상태(8)에서 사용자의 홍채를 검출할 수 있다. 최종 위치(8)에서 사용자의 홍채가 검출되는 경우, 제어부(110)는 제3 눈 운동 애니메이션(775)를 반복할 수 있다.
제3 눈 운동 애니메이션의 반복 횟수는 카운터(776)에 표시될 수 있다. 카운터(776)는 총 반복 횟수 및 현재 반복 횟수를 표시할 수 있다.
제3 눈 운동 애니메이션(775)의 총 반복 횟수에 미달인 경우, 제어부(110)는 웹 페이지(770)를 변경하지 않고 유지할 수도 있다.
시각 피로도 증가 정도에 대응하여 표시되는 제3 눈 운동 애니메이션(771)이 변경(예를 들어, 시각 피로도가 증가될수록 반복 횟수가 증가)될 수 있다.
다른 콘텐트로 변경되는 경우, 제어부(110)는 수신된 사용자의 뇌파 정보를 이용하여 시각 피로도를 계속 산출할 수 있다.
산출된 사용자의 시각 피로도가 감소되는 경우, 제어부(11)는 표시되는 다른 콘텐트(775, 776)를 변경 이전의 콘텐트(770)로 복원할 수 있다.
도 4의 단계(S480)에서, 표시되는 콘텐트가 변경되는 경우, 휴대 장치의 콘텐트 화면 변경방법이 종료된다.
본 발명의 다른 실시예에서, 웨어러블 장치(200)에서부터 수신되는 사용자 생체 정보(예를 들어, 뇌파 정보) 없이 휴대 장치(100)에서 시각 피로도를 추론할 수 있다.
휴대 장치(100)의 제어부(110)는 웨어러블 장치(200)에서 수신되는 사용자 생체 정보(예를 들어, 뇌파 정보)에 기초하여 산출되는 시각 피로도에 대응되는 시각 피로도 데이터 베이스를 저장부(175)에 저장할 수 있다. 휴대 장치(100)의 제어부(110)는 저장된 시각 피로도 데이터 베이스를 이용하여 웨어러블 장치(200)에서부터 수신되는 사용자의 생체 정보(예를 들어, 뇌파 정보) 없이 시각 피로 발생 시작 시간을 추론할 수 있다.
시각 피로도 데이터 베이스에 포함되는 시각 피로도 항목은 이력 관리를 위한 식별자(ID), 휴대 장치(100)에서 실행되는 어플리케이션 종류(예를 들어, 웹 브라우저, 비디오 플레이어, 게임 등), 콘텐트 타입(예를 들어, 웹 페이지, 비디오, 게임 등), 어플리케이션 실행 시작 시간, 시각 피로 발생 시간, 시각 피로 지속 시간, 시각 피로 발생 주기, 사용자 피로 생체 정보(예를 들어, 시각 피로 발생하는 경우의 심장 박동수 체온 등), 또는 다른 콘텐트 변경 정보(예를 들어, 다른 콘텐트 종류, 다른 콘텐트 변경 시작 시간 등) 등을 포함할 수 있다.
제어부(110)는 축적되는 시각 피로도 데이터 베이스를 이용하여 사용자의 시각 피로도 이력을 관리할 수 있다. 제어부(110)는 저장된 시각 피로도 데이터 베이스 및 머신 러닝(machine learning)를 이용하여 사용자의 시각 피로도를 학습할 수 있다. 제어부(110)는 저장된 시각 피로도 데이터 베이스, 통계 분석, 빅(big) 데이터 분석, 또는 머신 러닝(machine learning)를 이용하여 사용자의 시각 피로도를 학습할 수 있다. 통계 분석은 통계 전용 소프트웨어에서 회귀분석, 시계열분석, 정규 검정 등의 실행을 이용한 분석을 의미할 수 있다. 또한, 머신 러닝은 축적된 빅 데이터(big data)를 컴퓨팅 장치에서 데이터의 패턴을 추출(또는, 검색), 분석, 판단하고 결과를 추론할 수 있다. 제어부(110)는 시각 피로도 학습의 축적을 통해 시각 피로도를 추론할 수 있다. 제어부(110)는 저장된 시각 피로도 데이터 베이스, 통계 분석, 빅 데이터 분석 또는 머신 러닝을 이용하여 사용자의 시각 피로도를 추론할 수 있다.
예를 들어, 사용자가 웹 브라우저를 실행하는 경우, 웨어러블 장치(200)에서부터 수신되는 사용자의 생체 정보(예를 들어, 뇌파 정보) 없이 제어부(110)는 시각 피로도 데이터 베이스를 이용하여 웹 브라우저의 실행에 대응되는 사용자 시각 피로 발생 시간, 시각 피로 지속 시간, 시각 피로 발생 주기 등을 추론할 수 있다.
사용자의 시각 피로도가 증가하는 경우, 제어부(110)는 도 5a 및 도 11b와 같이 시각 피로도 감소에 대응되는 다른 콘텐트를 사용자에게 제공할 수 있다.
웨어러블 장치(200)에서부터 수신되는 사용자 생체 정보(예를 들어, 뇌파 정보)의 수신 없이 시각 피로도 증가에 대응되는 다른 콘텐트 제공은 도 5a 및 도 11b와 같이 시각 피로도 감소에 대응되는 다른 콘텐트의 제공과 실질적으로 유사하므로 중복되는 설명은 생략된다.
본 발명의 다른 실시예에서, 웨어러블 장치(200)에서부터 전송되는 사용자 생체 정보(예를 들어, 뇌파 정보)를 수신하는 서버(300)에서 시각 피로도를 산출할 수 있다.
웨어러블 장치(200)는 검출된 사용자 생체 정보(예를 들어, 뇌파 정보)를 서버(300)로 전송할 수 있다. 휴대 장치(100)는 실행되는 어플리케이션에 대응되는 어플리케이션 정보(예를 들어, 어플리케이션 종류, 콘텐트 타입, 어플리케이션 실행 시작 시간 등)를 서버(300)로 전송할 수 있다.
서버(300)의 제어부(도시되지 아니함)는 웨어러블 장치(200)에서 수신되는 사용자 생체 정보(예를 들어, 뇌파 정보) 및 휴대 장치(100)에서부터 수신되는 어플리케이션 정보에 기초하여 시각 피로도를 산출할 수 있다. 제어부(도시되지 아니함)는 산출되는 시각 피로도에 대응되는 시각 피로도 데이터 베이스를 서버(300)의 저장부(도시되지 아니함)에 저장할 수 있다. 시각 피로도 데이터 베이스에 포함되는 시각 피로도 항목은 이력 관리를 위한 식별자(ID), 휴대 장치(100)에서 실행되는 어플리케이션 종류(예를 들어, 웹 브라우저, 비디오 플레이어, 게임 등), 콘텐트 타입(예를 들어, 웹 페이지, 비디오, 게임 등), 어플리케이션 실행 시작 시간, 시각 피로 발생 시간, 시각 피로 지속 시간, 시각 피로 발생 주기, 사용자 피로 생체 정보(예를 들어, 시각 피로 발생하는 경우의 심장 박동수 체온 등), 또는 다른 콘텐트 변경 정보(예를 들어, 다른 콘텐트 종류, 다른 콘텐트 변경 시작 시간 등) 등을 포함할 수 있다.
서버(300)의 제어부(도시되지 아니함)는 축적되는 시각 피로도 데이터 베이스를 이용하여 사용자의 시각 피로도 이력을 관리할 수 있다. 서버(300)의 제어부(도시되지 아니함)는 저장된 시각 피로도 데이터 베이스 및 머신 러닝(machine learning)를 이용하여 사용자의 시각 피로도를 학습할 수 있다. 제어부(110)는 저장된 시각 피로도 데이터 베이스, 통계 분석, 빅 데이터 분석, 또는 머신 러닝(machine learning)를 이용하여 사용자의 시각 피로도를 학습할 수 있다. 통계 분석은 통계 전용 소프트웨어에서 회귀분석, 시계열분석, 정규 검정 등의 실행을 이용한 분석을 의미할 수 있다. 또한, 머신 러닝은 축적된 빅 데이터(big data)를 컴퓨팅 장치에서 데이터의 패턴을 추출(또는, 검색), 분석, 판단하고 결과를 추론할 수 있다.
서버(300)의 제어부(도시되지 아니함)는 시각 피로도 학습의 축적을 통해 시각 피로도를 추론할 수도 있다. 서버(300)의 제어부(도시되지 아니함)는 저장된 시각 피로도 데이터 베이스, 통계 분석, 빅 데이터 분석 또는 머신 러닝을 이용하여 사용자의 시각 피로도를 추론할 수 있다.
서버(300)의 제어부(도시되지 아니함)는 산출된 시각 피로도에 대응되는 시각 피로도 정보를 통신부(도시되지 아니함)을 통해 휴대 장치(100)로 전송할 수 있다. 예를 들어, 시각 피로도 정보는 어플리케이션 종류, 콘텐트 타입, 현재 시각 피로도 지수, 시각 피로 발생 시간, 또는 시각 피로 지속 시간 등을 포함할 수 있다.
산출된 사용자의 시각 피로도가 증가(예를 들어, 시각 피로도가 2.6 이상)하는 경우, 서버(300)의 제어부(도시되지 아니함)는 증가된 사용자 시각 피로도에 대응되는 시각 피로도 정보를 통신부(도시되지 아니함)을 통해 휴대 장치(100)로 전송할 수 있다.
시각 피로도 증가에 대응되는 시각 피로도 정보가 서버(300)에서부터 수신되는 경우, 휴대 장치(100)의 제어부(110)는 도 5a 및 도 11b와 같이 시각 피로도 증가에 대응되는 다른 콘텐트 중 하나의 다른 콘텐트를 사용자에게 제공할 수 있다.
서버(300)에서부터 수신되는 시각 피로도 정보에 대응되는 다른 콘텐트 제공은 도 5a 및 도 11b와 같이 시각 피로도 증가에 대응되는 다른 콘텐트의 제공과 실질적으로 유사하므로 중복되는 설명은 생략된다.
본 발명의 다른 실시예에서, 웨어러블 장치(200)에서부터 전송되는 사용자 생체 정보(예를 들어, 뇌파 정보) 없이 서버(300)는 시각 피로도를 추론할 수 있다.
서버(300)는 사용자 생체 정보(예를 들어, 뇌파 정보)를 검출하는 웨어러블 장치(200)와 통신부(도시되지 아니함)을 통해 연결되지 않고, 휴대 장치(100)에서 실행되는 어플리케이션에 대응되는 어플리케이션 정보(예를 들어, 어플리케이션 종류, 콘텐트 타입, 어플리케이션 실행 시작 시간 등)를 수신할 수 있다.
제어부(도시되지 아니함)는 기 산출되는 시각 피로도에 대응되는 시각 피로도 데이터 베이스를 서버(300)의 저장부(도시되지 아니함)에 저장할 수 있다. 시각 피로도 데이터 베이스에 포함되는 시각 피로도 항목은 이력 관리를 위한 식별자(ID), 휴대 장치(100)에서 실행되는 어플리케이션 종류(예를 들어, 웹 브라우저, 비디오 플레이어, 게임 등), 콘텐트 타입(예를 들어, 웹 페이지, 비디오, 게임 등), 어플리케이션 실행 시작 시간, 시각 피로 발생 시간, 시각 피로 지속 시간, 시각 피로 발생 주기, 사용자 피로 생체 정보(예를 들어, 시각 피로 발생하는 경우의 심장 박동수 체온 등), 또는 다른 콘텐트 변경 정보(예를 들어, 다른 콘텐트 종류, 다른 콘텐트 변경 시작 시간 등) 등을 포함할 수 있다.
서버(300)의 제어부(도시되지 아니함)는 축적되는 시각 피로도 데이터 베이스를 이용하여 사용자의 시각 피로도 이력을 관리할 수 있다. 웨어러블 장치(200)에서부터 수신되는 사용자의 생체 정보(예를 들어, 뇌파 정보) 없이 서버(300)의 제어부(도시되지 아니함)는 저장된 시각 피로도 데이터 베이스 및 머신 러닝(machine learning)를 이용하여 사용자의 시각 피로도를 학습할 수 있다. 제어부(110)는 저장된 시각 피로도 데이터 베이스, 통계 분석, 빅 데이터 분석, 또는 머신 러닝(machine learning)를 이용하여 사용자의 시각 피로도를 학습할 수 있다. 통계 분석은 통계 전용 소프트웨어에서 회귀분석, 시계열분석, 정규 검정 등의 실행을 이용한 분석을 의미할 수 있다. 또한, 머신 러닝은 축적된 빅 데이터(big data)를 컴퓨팅 장치에서 데이터의 패턴을 추출(또는, 검색), 분석, 판단하고 결과를 추론할 수 있다.
서버(300)의 제어부(도시되지 아니함)는 시각 피로도 학습의 축적을 통해 시각 피로도를 추론할 수 있다. 서버(300)의 제어부(도시되지 아니함)는 저장된 시각 피로도 데이터 베이스, 통계 분석, 빅 데이터 분석 또는 머신 러닝을 이용하여 사용자의 시각 피로도를 추론할 수 있다.
서버(300)의 제어부(도시되지 아니함)는 추론된 시각 피로도에 대응되는 시각 피로도 정보를 통신부(도시되지 아니함)을 통해 휴대 장치(100)로 전송할 수 있다. 예를 들어, 시각 피로도 정보는 어플리케이션 종류, 콘텐트 타입, 현재 시각 피로도 지수, 시각 피로 발생 시간, 또는 시각 피로 지속 시간 등을 포함할 수 있다.
산출된 사용자의 시각 피로도가 증가(예를 들어, 시각 피로도가 2.6 이상)하는 경우, 서버(300)의 제어부(도시되지 아니함)는 증가된 사용자 시각 피로도에 대응되는 시각 피로도 정보를 통신부(도시되지 아니함)를 통해 휴대 장치(100)로 전송할 수 있다.
시각 피로도 증가에 대응되는 시각 피로도 정보가 서버(300)에서부터 수신되는 경우, 휴대 장치(100)의 제어부(110)는 도 5a 및 도 11b와 같이 시각 피로도 증가에 대응되는 다른 콘텐트 중 하나의 다른 콘텐트를 사용자에게 제공할 수 있다.
서버(300)에서부터 수신되는 시각 피로도 정보에 대응되는 다른 콘텐트 제공은 도 5a 및 도 11b와 같이 시각 피로도 증가에 대응되는 다른 콘텐트의 제공과 실질적으로 유사하므로 중복되는 설명은 생략된다.
본 발명의 예시적 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 예를 들어, 상기 컴퓨터 판독 가능 매체는 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다.
휴대 장치 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
이상과 같이 본 발명은 비록 한정된 예시적 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 예시적 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 예시적 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
100: 휴대 장치 110: 휴대 장치 제어부
130: 휴대 장치 통신부 175: 휴대 장치 저장부
190: 휴대 장치 터치 스크린
200: 웨어러블 장치 210: 웨어러블 장치 제어부
230: 웨어러블 장치 통신부 275: 웨어러블 장치 저장부
300: 서버

Claims (17)

  1. 콘텐트를 표시하는 단계;
    웨어러블 장치에서부터 사용자 생체 정보를 수신하는 단계;
    상기 생체 정보에 기초하여 시각 피로도를 산출하는 단계; 및
    상기 시각 피로도의 증가에 대응하여 상기 콘텐트를 다른 콘텐트로 변경하는 단계를 포함하는 휴대 장치의 콘텐트 화면 변경방법.
  2. 제1항에 있어서,
    상기 다른 콘텐트는 상기 시각 피로도의 증가에 대응하여 상기 콘텐트에 텍스트, 이미지 및 동영상 중 하나를 추가하는 콘텐트인 휴대 장치의 콘텐트 화면 변경방법.
  3. 제1항에 있어서,
    상기 다른 콘텐트는 상기 콘텐트의 폰트 크기의 변경, 상기 콘텐트 레이아웃의 변경 및 상기 콘텐트에 중첩되는 컬러 화면의 추가 중 하나를 포함하는 휴대 장치의 콘텐트 화면 변경방법.
  4. 제1항에 있어서,
    상기 다른 콘텐트는 눈 운동 가이드를 포함하는 콘텐트이고,
    상기 콘텐트 화면 변경 방법은 카메라 유닛을 이용하여 상기 눈 운동 가이드에 대응되어 사용자의 눈 운동 여부를 검출하는 휴대 장치의 콘텐트 화면 변경방법.
  5. 제1항에 있어서,
    상기 시각 피로도 산출은 제1 어플리케이션에 의해 수행되고,
    상기 콘텐트는 제2 어플리케이션에 의해 표시되며,
    상기 다른 콘텐트는 상기 콘텐트를 표시하는 상기 제2 어플리케이션에 대응하여 다르게 변경되는 휴대 장치의 콘텐트 화면 변경방법.
  6. 제1항에 있어서,
    상기 생체 정보는 뇌파 정보를 포함하고,
    상기 웨어러블 장치에서 검출된 원시 데이터 및 상기 원시 데이터를 프로세싱한 디지털 데이터를 포함하는 휴대 장치의 콘텐트 화면 변경방법.
  7. 제1항에 있어서,
    상기 시각 피로도 증가에 대응되는 팝업창을 표시하는 단계를 더 포함하는 휴대 장치의 콘텐트 화면 변경방법.
  8. 제1항에 있어서,
    상기 시각 피로도 증가에 대응되는 사용자 피드백을 제공하는 단계를 더 포함하고,
    상기 사용자 피드백은 시각 피드백, 청각 피드백 및 촉각 피드백 중 하나를 포함하는 휴대 장치의 콘텐트 화면 변경방법.
  9. 콘텐트를 표시하는 디스플레이부;
    웨어러블 장치와 연결되는 통신부; 및
    상기 터치 스크린 및 상기 통신부를 제어하는 제어부를 포함하고,
    상기 제어부는
    상기 통신부를 통해 상기 웨어러블 장치에서부터 수신된 사용자 생체 정보를 이용하여 시각 피로도를 산출하고, 상기 시각 피로도의 증가에 대응하여 상기 콘텐트를 다른 콘텐트로 변경하는 휴대 장치.
  10. 제9항에 있어서,
    상기 제어부는 상기 통신부를 통해 상기 웨어러블 장치에게 생체 검출을 요청하는 휴대 장치.
  11. 제9항에 있어서,
    카메라를 더 포함하고,
    상기 다른 콘텐트는 눈 운동 가이드를 포함하는 콘텐트이고,
    상기 눈 운동 가이드를 포함하는 상기 다른 콘텐트가 실행되는 경우, 상기 제어부는 상기 카메라를 실행하는 휴대 장치.
  12. 제9항에 있어서,
    상기 제어부는 상기 콘텐트를 표시하는 어플리케이션에 대응하여 각각 다른 컬러 화면을 표시하는 휴대 장치.
  13. 제9항에 있어서,
    카메라를 더 포함하고,
    상기 제어부는 상기 카메라를 이용하여 시선 추적 및 홍채 인식 중 하나를 수행하는 휴대 장치.
  14. 제9항에 있어서,
    상기 다른 콘텐트에 의해 시각 피로도가 감소되는 경우, 상기 제어부는 다른 콘텐트를 변경 이전의 콘텐트로 복원하는 휴대 장치.
  15. 웨어러블 장치의 본체 내측에 위치하고, 사용자의 신체에 접촉되는 측정 전극 및 레퍼런스 전극을 포함하는 센서;
    휴대 장치와 연결되는 통신부; 및
    상기 센서 및 상기 통신부를 제어하는 제어부를 포함하고,
    상기 제어부는
    상기 센서를 이용하여 사용자의 뇌파를 검출하고, 상기 통신부를 통해 상기 뇌파에 대응되는 사용자 뇌파 정보를 상기 휴대 장치로 전송하고,
    상기 본체는 원형, 타원형 및 다각형 중 하나의 형상을 가지는 웨어러블 장치.
  16. 제15항에 있어서,
    상기 측정 전극은 복수 개이고,
    상기 복수의 측정 전극 중 하나의 측정 전극의 위치는 상기 레퍼런스 전극의 위치와 교차하는 웨어러블 장치.
  17. 제15항에 있어서,
    상기 측정 전극 및 상기 레퍼런스 전극은 탄성을 가지는 돌기를 포함하는 웨어러블 장치.
KR1020150061725A 2015-04-30 2015-04-30 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법 KR102072788B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020150061725A KR102072788B1 (ko) 2015-04-30 2015-04-30 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법
US15/078,445 US10130279B2 (en) 2015-04-30 2016-03-23 Portable apparatus and method of changing screen of content thereof
EP16786793.6A EP3291167B1 (en) 2015-04-30 2016-04-29 Mobile device and method for changing content display of mobile device
PCT/KR2016/004526 WO2016175607A1 (ko) 2015-04-30 2016-04-29 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법
US16/166,834 US10561334B2 (en) 2015-04-30 2018-10-22 Portable apparatus and method of changing screen of content thereof
US16/728,482 US10791954B2 (en) 2015-04-30 2019-12-27 Portable apparatus and method of changing screen of content thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150061725A KR102072788B1 (ko) 2015-04-30 2015-04-30 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법

Publications (2)

Publication Number Publication Date
KR20160130015A true KR20160130015A (ko) 2016-11-10
KR102072788B1 KR102072788B1 (ko) 2020-03-12

Family

ID=57199485

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150061725A KR102072788B1 (ko) 2015-04-30 2015-04-30 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법

Country Status (4)

Country Link
US (3) US10130279B2 (ko)
EP (1) EP3291167B1 (ko)
KR (1) KR102072788B1 (ko)
WO (1) WO2016175607A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022149748A1 (ko) * 2021-01-05 2022-07-14 삼성전자 주식회사 콘텐츠를 표시하기 위한 전자 장치 및 그의 동작 방법
US12063346B2 (en) 2021-01-05 2024-08-13 Samsung Electronics Co., Ltd. Electronic device for displaying content and method of operation thereof

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10448825B2 (en) 2013-05-01 2019-10-22 Musc Foundation For Research Development Monitoring neurological functional status
US20150348278A1 (en) * 2014-05-30 2015-12-03 Apple Inc. Dynamic font engine
CN105983235B (zh) * 2015-02-10 2019-12-10 安徽华米信息科技有限公司 一种提供游戏场景的方法和装置
US9712736B2 (en) * 2015-12-15 2017-07-18 Intel Coprporation Electroencephalography (EEG) camera control
CN105786377B (zh) * 2016-02-17 2019-08-06 京东方科技集团股份有限公司 触控监测方法及装置、终端
KR20170100309A (ko) 2016-02-25 2017-09-04 삼성전자주식회사 음성 인식 제어를 제공하는 전자 장치 및 그 동작 방법
US20190377113A1 (en) * 2016-11-29 2019-12-12 Huawei Technologies Co., Ltd. Picture Display Method and Electronic Device
US20180184935A1 (en) * 2017-01-04 2018-07-05 BrainCo Inc. Systems and methods for neuro-feedback training using iot devices
KR102094541B1 (ko) * 2017-03-15 2020-03-27 주식회사 에스엔케이테크놀러지스 생체공명 감지 장치
WO2018213245A1 (en) * 2017-05-15 2018-11-22 Musc Foundation For Research Development Device, system and method for monitoring neurological functional status
US11723579B2 (en) 2017-09-19 2023-08-15 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement
FR3072196B1 (fr) * 2017-10-11 2022-11-11 Laurent Tucherer Procede de lecture anti fatigue sur ecran portable
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
EP3731749A4 (en) 2017-12-31 2022-07-27 Neuroenhancement Lab, LLC NEURO-ACTIVATION SYSTEM AND METHOD FOR ENHANCING EMOTIONAL RESPONSE
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
US11457860B2 (en) * 2018-07-09 2022-10-04 Cheng Qian Human-computer interactive device and method
EP3849410A4 (en) 2018-09-14 2022-11-02 Neuroenhancement Lab, LLC SLEEP ENHANCEMENT SYSTEM AND METHOD
WO2020102671A1 (en) * 2018-11-15 2020-05-22 Worcester Polytechnic Institute Text simplification system utilizing eye-tracking
JP1671702S (ja) * 2018-12-24 2020-11-02 乗用自動車
CN109581665A (zh) * 2019-01-02 2019-04-05 京东方科技集团股份有限公司 一种显示装置及其显示方法、头戴式虚拟显示设备
CN109875500B (zh) * 2019-01-30 2021-08-03 北京津发科技股份有限公司 心理学实验数据采集装置及方法
CN109917916A (zh) * 2019-03-05 2019-06-21 浙江强脑科技有限公司 电子书控制方法、电子设备及计算机可读存储介质
CN110007758B (zh) * 2019-03-26 2021-07-23 维沃移动通信有限公司 一种终端的控制方法及终端
US10980415B1 (en) 2019-04-23 2021-04-20 Facebook Technologies, Llc Systems and methods for eye tracking using modulated radiation
US11455411B2 (en) 2019-04-25 2022-09-27 Motorola Mobility Llc Controlling content visibility on a computing device based on computing device location
US11082402B2 (en) 2019-04-25 2021-08-03 Motorola Mobility Llc Controlling computing device virtual private network usage with a wearable device
US11093659B2 (en) 2019-04-25 2021-08-17 Motorola Mobility Llc Controlling content visibility on a computing device based on wearable device proximity
US11562051B2 (en) 2019-04-25 2023-01-24 Motorola Mobility Llc Varying computing device behavior for different authenticators
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
KR102385910B1 (ko) * 2021-03-05 2022-04-14 주식회사 국약마인드핏 스마트글래스 장치를 이용한 정신치료 보조 시스템
CN113031766B (zh) * 2021-03-15 2022-09-23 哈尔滨工业大学 一种通过脑电解码汉语发音的方法
EP4270160A4 (en) * 2022-03-03 2024-06-26 Samsung Electronics Co., Ltd. METHOD FOR REDUCING THE LEVEL OF EYE FATIGUE AND ASSOCIATED ELECTRONIC DEVICE

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020011615A (ko) * 2000-08-03 2002-02-09 강병호 안구피로예방을 위한 적응형 화면변환장치
JP2002511950A (ja) * 1996-07-26 2002-04-16 ワグナー、ロジャー 眼精疲労防止装置および方法
JP2004191628A (ja) * 2002-12-11 2004-07-08 Nec Software Chubu Ltd 生体固有情報を用いた表示システム及び表示方法
KR20090001342A (ko) * 2007-06-29 2009-01-08 진경수 무선을 이용한 안구전위 기반 안구운동과 수면학습을 위한 안대장치 및 그 제어 방법
KR20090044200A (ko) * 2007-10-31 2009-05-07 (주)레드로버 안구운동 장치
WO2010143455A1 (ja) * 2009-06-11 2010-12-16 株式会社日立製作所 表示装置
KR20130025675A (ko) * 2011-09-02 2013-03-12 삼성전자주식회사 3d안경과 디스플레이장치를 포함하는 사용자 건강 모니터링 시스템 및 디스플레이장치와 그 제어방법
JP2013077013A (ja) * 2012-11-20 2013-04-25 Sony Corp 表示装置、表示方法
JP2013215356A (ja) * 2012-04-06 2013-10-24 Panasonic Corp 眼疲労計測装置およびその方法
KR20140021208A (ko) * 2012-08-09 2014-02-20 숭실대학교산학협력단 학습 의지 및 학습 능률 패턴 변동 예측을 통해 개인화된 콘텐츠 제공 장치 및 방법
US20140081117A1 (en) * 2012-03-21 2014-03-20 Panasonic Corporation Eye fatigue determination apparatus and eye fatigue determination method
JP5503081B2 (ja) * 2011-05-19 2014-05-28 パナソニック株式会社 画像表示システムおよび3次元用メガネ
KR20140094851A (ko) * 2013-01-23 2014-07-31 서울시립대학교 산학협력단 휴대용 단말기에서 감각 기관의 운동을 보조하는 장치 및 방법
JP2014194540A (ja) * 2013-02-28 2014-10-09 Semiconductor Energy Lab Co Ltd 画像情報の処理および表示方法、プログラム、情報処理装置
US20140347265A1 (en) * 2013-03-15 2014-11-27 Interaxon Inc. Wearable computing apparatus and method
JP2015046885A (ja) * 2014-09-24 2015-03-12 ソニー株式会社 表示装置、表示方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100463345B1 (ko) 1997-08-20 2005-05-19 삼성에스디아이 주식회사 눈의피로도에반응하는디스플레이시스템및디스플레이방법
KR20000046835A (ko) 1998-12-31 2000-07-25 구자홍 안구 운동 기능을 가지는 티브이
TW455769B (en) 1999-08-18 2001-09-21 Jian Huei Jiuan Eye-protection method and apparatus set up for monitor screen
JP2004110546A (ja) 2002-09-19 2004-04-08 Denso Corp 表示装置、音響装置、およびアクチュエータ制御装置
JP2005230030A (ja) 2004-02-17 2005-09-02 Daikin Ind Ltd 健康管理システム、ヘルメット、処理装置、サーバ装置及び健康管理方法
US8926531B2 (en) * 2006-05-29 2015-01-06 Sharp Kabushiki Kaisha Fatigue estimation device and electronic apparatus having the fatigue estimation device mounted thereon
US9841811B2 (en) * 2008-11-03 2017-12-12 Bruce Reiner Visually directed human-computer interaction for medical applications
US8832564B2 (en) * 2011-02-11 2014-09-09 Sony Corporation Personalized second display browsing experience due to multiple session feature
US20140276090A1 (en) * 2011-03-14 2014-09-18 American Vehcular Sciences Llc Driver health and fatigue monitoring system and method using optics
KR101267637B1 (ko) 2011-03-28 2013-05-24 한국과학기술원 3차원 영상의 시각 피로감 측정 장치 및 유발 요인 추출 장치, 그리고 그 방법
JP2012227752A (ja) 2011-04-20 2012-11-15 Nec Casio Mobile Communications Ltd 表示装置、表示制御方法及びプログラム
CN103281959A (zh) * 2011-05-20 2013-09-04 松下电器产业株式会社 视觉疲劳度测定装置、视觉疲劳度测定方法、视觉疲劳度测定系统及三维眼镜
KR101402739B1 (ko) 2011-11-01 2014-06-30 기초과학연구원 뇌파 변화 분석을 통한 시각 피로도 측정 장치 및 방법
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
KR101432044B1 (ko) 2013-01-28 2014-08-22 서울대학교산학협력단 뇌파 기반의 시각 피로도 측정장치 및 측정방법
US20150213634A1 (en) * 2013-01-28 2015-07-30 Amit V. KARMARKAR Method and system of modifying text content presentation settings as determined by user states based on user eye metric data
TWI601031B (zh) * 2013-05-13 2017-10-01 國立成功大學 適用於電子裝置之提醒閱讀疲勞方法及其系統
CN103414908B (zh) * 2013-08-05 2016-06-22 深圳Tcl新技术有限公司 3d眼镜、3d电视及其图像景深控制的方法
KR102153606B1 (ko) * 2013-08-13 2020-09-08 삼성전자주식회사 동영상 콘텐트에 대한 사용자 피로도 예측 장치 및 방법
KR102366230B1 (ko) * 2015-03-30 2022-02-23 삼성전자 주식회사 디스플레이장치 및 그 제어방법

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002511950A (ja) * 1996-07-26 2002-04-16 ワグナー、ロジャー 眼精疲労防止装置および方法
KR20020011615A (ko) * 2000-08-03 2002-02-09 강병호 안구피로예방을 위한 적응형 화면변환장치
JP2004191628A (ja) * 2002-12-11 2004-07-08 Nec Software Chubu Ltd 生体固有情報を用いた表示システム及び表示方法
KR20090001342A (ko) * 2007-06-29 2009-01-08 진경수 무선을 이용한 안구전위 기반 안구운동과 수면학습을 위한 안대장치 및 그 제어 방법
KR20090044200A (ko) * 2007-10-31 2009-05-07 (주)레드로버 안구운동 장치
WO2010143455A1 (ja) * 2009-06-11 2010-12-16 株式会社日立製作所 表示装置
JP5503081B2 (ja) * 2011-05-19 2014-05-28 パナソニック株式会社 画像表示システムおよび3次元用メガネ
KR20130025675A (ko) * 2011-09-02 2013-03-12 삼성전자주식회사 3d안경과 디스플레이장치를 포함하는 사용자 건강 모니터링 시스템 및 디스플레이장치와 그 제어방법
US20140081117A1 (en) * 2012-03-21 2014-03-20 Panasonic Corporation Eye fatigue determination apparatus and eye fatigue determination method
JP2013215356A (ja) * 2012-04-06 2013-10-24 Panasonic Corp 眼疲労計測装置およびその方法
KR20140021208A (ko) * 2012-08-09 2014-02-20 숭실대학교산학협력단 학습 의지 및 학습 능률 패턴 변동 예측을 통해 개인화된 콘텐츠 제공 장치 및 방법
JP2013077013A (ja) * 2012-11-20 2013-04-25 Sony Corp 表示装置、表示方法
KR20140094851A (ko) * 2013-01-23 2014-07-31 서울시립대학교 산학협력단 휴대용 단말기에서 감각 기관의 운동을 보조하는 장치 및 방법
JP2014194540A (ja) * 2013-02-28 2014-10-09 Semiconductor Energy Lab Co Ltd 画像情報の処理および表示方法、プログラム、情報処理装置
US20140347265A1 (en) * 2013-03-15 2014-11-27 Interaxon Inc. Wearable computing apparatus and method
JP2015046885A (ja) * 2014-09-24 2015-03-12 ソニー株式会社 表示装置、表示方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022149748A1 (ko) * 2021-01-05 2022-07-14 삼성전자 주식회사 콘텐츠를 표시하기 위한 전자 장치 및 그의 동작 방법
US12063346B2 (en) 2021-01-05 2024-08-13 Samsung Electronics Co., Ltd. Electronic device for displaying content and method of operation thereof

Also Published As

Publication number Publication date
EP3291167C0 (en) 2023-11-15
US20190053731A1 (en) 2019-02-21
EP3291167A1 (en) 2018-03-07
US10561334B2 (en) 2020-02-18
US10791954B2 (en) 2020-10-06
US20160317056A1 (en) 2016-11-03
US10130279B2 (en) 2018-11-20
EP3291167A4 (en) 2018-05-02
EP3291167B1 (en) 2023-11-15
KR102072788B1 (ko) 2020-03-12
US20200129083A1 (en) 2020-04-30
WO2016175607A1 (ko) 2016-11-03

Similar Documents

Publication Publication Date Title
US10791954B2 (en) Portable apparatus and method of changing screen of content thereof
US10691220B2 (en) Method for display of information from real world environment on a virtual reality (VR) device and VR device thereof
KR102637662B1 (ko) 디바이스를 이용한 화면 처리 방법 및 장치
US10366778B2 (en) Method and device for processing content based on bio-signals
KR102471977B1 (ko) 복수의 전자장치 사이에서 가상 객체를 표시하는 방법 및 이를 지원하는 전자 장치
KR102299076B1 (ko) 콘텐츠를 표시하는 방법 및 이를 위한 전자 장치
US9602954B2 (en) Mobile terminal and method for controlling the same
CN106462356B (zh) 用于控制多个显示器的方法和装置
JP6361649B2 (ja) 情報処理装置、通知状態制御方法及びプログラム
KR102414356B1 (ko) 전자 장치 및 그의 햅틱 피드백 제공 방법
US20170351330A1 (en) Communicating Information Via A Computer-Implemented Agent
KR20170028193A (ko) 히든 디스플레이를 갖는 전자 장치 및 정보 표시 방법
CN106605414A (zh) 旋转设备和具有该旋转设备的电子设备
US20160154777A1 (en) Device and method for outputting response
EP3113014B1 (en) Mobile terminal and method for controlling the same
US20240028129A1 (en) Systems for detecting in-air and surface gestures available for use in an artificial-reality environment using sensors at a wrist-wearable device, and methods of use thereof
CN106454499A (zh) 移动终端及其控制方法
KR102620967B1 (ko) 전자 장치 및 그의 자세 교정 방법
US20240019938A1 (en) Systems for detecting gestures performed within activation-threshold distances of artificial-reality objects to cause operations at physical electronic devices, and methods of use thereof
CN109799912A (zh) 一种显示控制方法、设备及计算机可读存储介质
WO2024001828A1 (zh) 腕戴设备控制方法及相关系统、存储介质
KR20200075773A (ko) 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템들 및 방법들
US20190265794A1 (en) Haptic feedback for opportunistic displays
CN109799937A (zh) 一种输入控制方法、设备及计算机可读存储介质
KR20160081084A (ko) 콘텐츠를 표시하는 방법 및 이를 위한 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant