KR20160080975A - 포터블 디바이스 및 그 제어 방법 - Google Patents

포터블 디바이스 및 그 제어 방법 Download PDF

Info

Publication number
KR20160080975A
KR20160080975A KR1020140193823A KR20140193823A KR20160080975A KR 20160080975 A KR20160080975 A KR 20160080975A KR 1020140193823 A KR1020140193823 A KR 1020140193823A KR 20140193823 A KR20140193823 A KR 20140193823A KR 20160080975 A KR20160080975 A KR 20160080975A
Authority
KR
South Korea
Prior art keywords
portable device
information
wearable device
processor
footwearable
Prior art date
Application number
KR1020140193823A
Other languages
English (en)
Other versions
KR102345344B1 (ko
Inventor
박시화
이주환
이도영
천시내
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140193823A priority Critical patent/KR102345344B1/ko
Priority to PCT/KR2015/000619 priority patent/WO2016108325A1/en
Priority to US14/634,141 priority patent/US9817473B2/en
Publication of KR20160080975A publication Critical patent/KR20160080975A/ko
Application granted granted Critical
Publication of KR102345344B1 publication Critical patent/KR102345344B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1112Global tracking of patients, e.g. by using GPS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6804Garments; Clothes
    • A61B5/6807Footwear
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6829Foot or ankle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Footwear And Its Accessory, Manufacturing Method And Apparatuses (AREA)

Abstract

본 명세서의 일 실시예에 따라 포터블 디바이스의 제어 방법에 있어서, 제 1 오브젝트 및 제 2 오브젝트를 포함하는 제 1 어플리케이션을 디스플레이하는 단계, 풋 웨어러블 디바이스로부터 상기 풋 웨어러블 디바이스의 전면 방향이 제 1 방향임을 나타내는 제 1 트리거링 신호를 수신하는 단계, 상기 포터블 디바이스의 앞면 방향이 제 2 방향임을 디텍트하는 단계, 상기 제 1 오브젝트를 상기 제 1 방향을 기준으로 디스플레이하는 단계 및 상기 제 2 오브젝트를 상기 제 2 방향을 기준으로 디스플레이하는 단계;를 포함할 수 있다.

Description

포터블 디바이스 및 그 제어 방법{The Apparatus and Method for Portable Device}
본 명세서는 포터블 디바이스 및 그 제어 방법에 대한 것이다.
최근, 포터블 디바이스의 사용이 증가하고 있다. 또한, 유저의 몸에 착용되어 이용되는 웨어러블 디바이스의 사용이 증가하고 있다. 이때, 포터블 디바이스 및 웨어러블 디바이스는 서로 연동되어 사용될 수 있다. 즉, 포터블 디바이스와 웨어러블 디바이스는 커뮤니케이션 유닛을 통해 서로 인포메이션을 공유할 수 있다. 이때, 웨어러블 디바이스는 유저의 몸에 착용되는 디바이스일 수 있다. 이때, 일 예로, 웨어러블 디바이스는 유저의 발에 착용되는 디바이스일 수 있다. 이때, 유저의 발에 착용되는 웨어러블 디바이스를 포터블 디바이스와 연동하여 사용하는 방법에 대한 필요성이 요구된다.
본 명세서는, 포터블 디바이스 및 그 제어 방법을 제공하는데 목적을 가지고 있다.
또한, 포터블 디바이스 및 풋 웨어러블 디바이스를 포함하는 시스템을 제공하는데 목적을 가지고 있다.
또한, 포터블 디바이스의 앞면 방향 및 풋 웨어러블 디바이스의 전면 방향에 기초하여 어플리케이션을 디스플레이하는 방법을 제공하는데 목적을 가지고 있다.
또한, 포터블 디바이스에서 제 1 어플리케이션에 포함된 제 1 오브젝트를 풋 웨어러블 디바이스의 전면 방향을 기준으로 디스플레이하는 방법을 제공하는데 목적을 가지고 있다.
또한, 포터블 디바이스에서 제 1 어플리케이션에 포함된 제 2 오브젝트를 포터블 디바이스의 앞면 방향을 기준으로 디스플레이하는 방법을 제공하는데 목적을 가지고 있다.
또한, 포터블 디바이스는 포터블 디바이스의 현재 위치 정보에 기초하여 경로 정보를 제공하는데 목적을 가지고 있다.
또한, 포터블 디바이스는 풋 웨어러블 디바이스의 착용 여부 정보에 기초하여 포터블 디바이스의 동작을 제어하는 방법을 제공하는데 목적을 가지고 있다.
또한, 풋 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스는 유저 정보에 기초하여 동작을 제어하는 방법을 제공하는데 목적을 가지고 있다.
또한, 풋 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스의 착용 여부에 기초하여 복수의 디바이스들의 동작을 제어하는 방법을 제공하는데 목적을 가지고 있다.
본 명세서의 일 실시예에 따라 포터블 디바이스를 제공할 수 있다. 이때, 포터블 디바이스는 비주얼 정보를 디스플레이하는 디스플레이 유닛, 포터블 디바이스의 방향 정보를 디텍트하는 방향 정보 센싱 유닛, 풋 웨어러블 디바이스(foot wearable device)로부터 인포메이션을 수신하는 커뮤니케이션 유닛 및 디스플레이 유닛, 방향 정보 센싱 유닛 및 커뮤니케이션 유닛을 제어하는 프로세서를 포함할 수 있다. 이때, 프로세서는 제 1 오브젝트 및 제 2 오브젝트를 포함하는 제 1 어플리케이션을 디스플레이하고, 풋 웨어러블 디바이스로부터 풋 웨어러블 디바이스의 전면 방향이 제 1 방향임을 나타내는 제 1 트리거링 신호를 수신하고, 포터블 디바이스의 앞면 방향이 제 2 방향임을 디텍트하는 경우, 제 1 오브젝트를 제 1 방향을 기준으로 디스플레이하고, 제 2 오브젝트를 제 2 방향을 기준으로 디스플레이할 수 있다.
본 명세서의 일 실시예에 따라 포터블 디바이스의 제어 방법에 있어서, 제 1 오브젝트 및 제 2 오브젝트를 포함하는 제 1 어플리케이션을 디스플레이하는 단계, 풋 웨어러블 디바이스로부터 풋 웨어러블 디바이스의 전면 방향이 제 1 방향임을 나타내는 제 1 트리거링 신호를 수신하는 단계, 포터블 디바이스의 앞면 방향이 제 2 방향임을 디텍트하는 단계, 제 1 오브젝트를 제 1 방향을 기준으로 디스플레이하는 단계 및 제 2 오브젝트를 제 2 방향을 기준으로 디스플레이하는 단계를 포함할 수 있다.
본 명세서는, 포터블 디바이스 및 그 제어 방법을 제공할 수 있다.
또한, 본 명세서에 따르면, 포터블 디바이스 및 풋 웨어러블 디바이스를 포함하는 시스템을 제공할 수 있다.
또한, 본 명세서에 따르면, 포터블 디바이스의 앞면 방향 및 풋 웨어러블 디바이스의 전면 방향에 기초하여 어플리케이션을 디스플레이하는 방법을 제공할 수 있다.
또한, 본 명세서에 따르면, 포터블 디바이스는 제 1 어플리케이션에 포함된 제 1 오브젝트를 풋 웨어러블 디바이스의 전면 방향을 기준으로 디스플레이할 수 있다.
또한, 본 명세서에 따르면, 포터블 디바이스는 제 1 어플리케이션에 포함된 제 2 오브젝트를 포터블 디바이스의 앞면 방향을 기준으로 디스플레이할 수 있다.
또한, 본 명세서에 따르면, 포터블 디바이스는 포터블 디바이스의 현재 위치 정보에 기초하여 경로 정보를 제공할 수 있다.
또한, 본 명세서에 따르면, 포터블 디바이스는 풋 웨어러블 디바이스의 착용 여부 정보에 기초하여 포터블 디바이스의 동작을 제어할 수 있다.
또한, 본 명세서에 따르면, 풋 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스는 유저 정보에 기초하여 동작을 제어할 수 있다.
또한, 풋 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스의 착용 여부에 기초하여 복수의 디바이스들의 동작을 제어할 수 있다.
도 1은 본 명세서의 일 실시예에 따른 포터블 디바이스의 블록도를 나타낸 도면이다.
도 2는 본 명세서의 일 실시예에 따른 풋 웨어러블 디바이스의 블록도를 나타낸 도면이다.
도 3a 및 도 3b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스를 포함하는 시스템을 나타낸 도면이다.
도 4는 본 명세서의 일 실시예에 따라 포터블 디바이스가 풋 웨어러블 디바이스의 전면 방향에 기초하여 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다.
도 5는 본 명세서의 일 실시예에 따라 포터블 디바이스에서 기설정된 방향에 기초하여 제 1 오브젝트를 디스플레이하는 방법을 나타낸 도면이다.
도 6은 본 명세서의 일 실시예에 따라 포터블 디바이스가 풋 웨어러블 디바이스의 전면 방향에 기초하여 제 1 오브젝트를 디스플레이하는 방법을 나타낸 도면이다.
도 7a 및 도 7b는 본 명세서의 일 실시예에 따라 포터블 디바이스가 제 1 오브젝트 및 제 2 오브젝트를 포함하는 제 1 어플리케이션을 디스플레이하는 방법을 나타낸 도면이다.
도 8은 본 명세서의 일 실시예에 따라 포터블 디바이스가 경로 정보에 기초하여 피드백을 제공하는 방법을 나타낸 도면이다.
도 9는 본 명세서의 일 실시예에 따라 포터블 디바이스가 제 1 어플리케이션을 디스플레이하는 방법을 나타낸 도면이다.
도 10은 본 명세서의 일 실시예에 따라 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스가 광원을 방출하는 방법을 나타낸 도면이다.
도 11은 본 명세서의 일 실시예에 따라 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스와 포터블 디바이스의 연동 방법을 나타낸 도면이다.
도 12a 및 도 12b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스와 포터블 디바이스의 연동 방법을 나타낸 도면이다.
도 13은 본 명세서의 일 실시예에 따라 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스와 포터블 디바이스의 연동 방법을 나타낸 도면이다.
도 14는 본 명세서의 일 실시예에 따라 포터블 디바이스의 제어 방법을 나타낸 도면이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시예를 상세하게 설명하지만, 청구하고자 하는 범위는 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
그리고 본 명세서에서 제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 명세서의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게, 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
또한 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 그리고 명세서에 기재된 “…유닛”, “…부” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.
도 1는 본 명세서의 일 실시예에 따른 포터블 디바이스의 블록도를 나타낸 도면이다. 포터블 디바이스(100)는 비주얼 정보를 디스플레이하고, 다른 디바이스와 커뮤니케이션을 수행하는 디바이스일 수 있다. 이때, 일 예로, 포터블 디바이스(100)는 스마트폰, 스마트 패드, 노트북 등일 수 있다. 또 다른 일 예로, 포터블 디바이스(100)는 유저에 의해 착용되는 웨어러블 디바이스일 수 있다. 일 예로, 포터블 디바이스(100)는 스마트 와치, HMD 등일 수 있다. 즉, 포터블 디바이스(100)는 유저에게 비주얼 정보를 제공하고, 다른 디바이스와 커뮤니케이션을 수행하는 디바이스일 수 있으며, 상술한 실시예로 한정되지 않는다.
포터블 디바이스(100)는 디스플레이 유닛(110), 방향 정보 센싱 유닛(120), 커뮤니케이션 유닛(130) 및 프로세서(170)를 포함할 수 있다. 또한, 포터블 디바이스(100)는 옵셔널한 구성으로 위치 정보 센싱 유닛(140)을 더 포함할 수 있다. 또한, 포터블 디바이스(100)는 옵셔널한 구성으로 스토리지 유닛(150)을 더 포함할 수 있다. 또한, 포터블 디바이스(100)는 옵셔널한 구성으로 착용 센서 유닛(160)을 더 포함할 수 있다. 이때, 일 예로, 각각의 유닛들은 포터블 디바이스(100)를 이루는 구성 요소 또는 부품일 수 있다. 즉, 각각의 유닛들은 포터블 디바이스(100)가 기능을 실행하기 위해 하우징된 하나의 독립한 유닛일 수 있으며, 상술한 실시예로 한정되지 않는다.
디스플레이 유닛(110)은 프로세서(170)에 의해 제어될 수 있다. 이때, 디스플레이 유닛(110)은 비주얼 정보를 디스플레이할 수 있다. 이때, 비주얼 정보는 정지 영상, 동영상, 텍스트 중 적어도 하나를 포함하여 유저에 의해 시각적으로 인식될 수 있는 정보를 의미할 수 있다. 또한, 일 예로, 포터블 디바이스(100)가 웨어러블 디바이스인 경우, 비주얼 정보는 버추얼 이미지일 수 있다. 즉, 비주얼 정보는 유저에 의해 시각적으로 인식될 수 있는 정보로서 상술한 실시예로 한정되지 않는다. 즉, 디스플레이 유닛(110)은 비주얼 정보를 유저에게 제공하는 유닛일 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 방향 정보 센싱 유닛(120)은 프로세서(170)에 의해 제어될 수 있다. 이때, 일 예로, 방향 정보 센싱 유닛(120)은 포터블 디바이스(100)의 앞면 방향을 디텍트할 수 있다. 이때, 일 예로, 포터블 디바이스(100)의 앞면 방향은 비주얼 정보가 디스플레이되는 방향일 수 있다. 보다 상세하게는, 프로세서(170)는 비주얼 정보를 포터블 디바이스(100)의 앞면 방향을 기준으로 디스플레이할 수 있다. 일 예로, 프로세서(170)는 포트레이트 모드 또는 랜드스케이프 모드로 비주얼 정보를 디스플레이할 수 있다. 이때, 포트레이트 모드는 포터블 디바이스(100)가 세워진 상태일 수 있다. 이때, 일 예로, 포터블 디바이스(100)의 앞면 방향은 포터블 디바이스에서 세워진 위쪽 방향일 수 있다. 또한, 랜드 스케이프 모드는 포터블 디바이스(100)가 누워진 상태일 수 있다. 이때, 일 예로, 포터블 디바이스(100)의 앞면 방향은 포터블 디바이스가 누워진 상태에서 위쪽 방향일 수 있다. 즉, 포터블 디바이스(100)의 앞면 방향은 비주얼 정보가 디스플레이되는 기준 방향일 수 있다. 이때, 일 예로, 방향 정보 센싱 유닛(120)은 자이로 센서, 가속도 센서, 중력 센서 중 적어도 하나의 센싱 수단을 포함할 수 있다. 이를 통해, 방향 정보 센싱 유닛(120)은 포터블 디바이스(100)의 앞면 방향 정보를 디텍트하고, 비주얼 정보를 디스플레이할 수 있다. 또 다른 일 예로, 방향 정보 센싱 유닛(120)은 포터블 디바이스(100)의 외부에서 포터블 디바이스(100)의 앞면 방향 정보를 디텍트할 수 있다. 이때, 앞면 방향 정보는 현실세계에서 방위에 기초하여 포터블 디바이스(100)의 앞면 방향이 향하는 방향일 수 있다. 즉, 방향 정보 센싱 유닛(120)은 비주얼 정보가 디스플레이되는 기준 방향과 포터블 디바이스(100)의 외부에서의 앞면 방향을 디텍트할 수 있으며, 이와 관련해서는 도 7a에서 후술한다.
또한, 커뮤니케이션 유닛(130)은 프로세서(170)에 의해 제어될 수 있다. 이때, 커뮤니케이션 유닛(130)은 포터블 디바이스(100) 또는 외부 디바이스와 다양한 프로토콜을 사용하여 통신을 수행하고, 이를 통해 데이터를 송신 및 수신할 수 있다. 또한, 커뮤니케이션 유닛(130)은 유선 또는 무선으로 네트워크에 접속하여, 컨텐츠 등의 디지털 데이터를 송신 및 수신할 수 있다. 즉, 커뮤니케이션 유닛(130)은 외부 디바이스와 인포메이션을 교환하는 유닛일 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 위치 정보 센싱 유닛(140)은 프로세서(170)에 의해 제어될 수 있다. 이때, 위치 정보 수신 유닛(140)은 포터블 디바이스(100)의 위치 정보를 수신할 수 있다. 이때, 일 예로, 위치 정보 수신 유닛(140)은 GPS를 포함할 수 있으며, 위성을 통해 포터블 디바이스(100)의 위치 정보를 수신할 수 있다. 또한, 위치 정보 수신 유닛(140)은 근거리 통신망 또는 기지국 정보를 이용하여 포터블 디바이스(100)의 위치 정보를 수신하는 유닛일 수 있다. 즉, 위치 정보 수신 유닛(140)은 포터블 디바이스(100)의 위치 정보를 수신하는 유닛일 수 있으며, 상술한 실시예로 한정되지 않는다. 이때, 위치 정보 수신 유닛(140)은 포터블 디바이스(100)의 위치 정보를 주기적으로 수신하고 획득할 수 있다. 포터블 디바이스(100)는 주기적으로 획득한 포터블 디바이스(100)의 위치 정보를 이용하여 포터블 디바이스(100)의 이동 경로를 디텍트할 수 있다. 즉, 위치 정보 수신 유닛(130)은 포터블 디바이스(100)가 활용하는 위치 정보를 수신할 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 스토리지 유닛(150)은 프로세서(170)에 의해 제어될 수 있다. 이때, 스토리지 유닛(150)은 동영상, 오디오, 이미지, 애플리케이션 등 다양한 디지털 데이터를 저장할 수 있다. 또한, 일 예로서, 스토리지 유닛(150)은 프로세서(170)의 제어를 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수도 있다. 스토리지 유닛(150)은 플래쉬 메모리, RAM(Random Access Memory), SSD(Solid State Drive) 등의 다양한 디지털 데이터 저장 공간을 포함할 수 있다.
또한, 착용 센서 유닛(160)은 프로세서(170)에 의해 제어될 수 있다. 이때, 일 예로, 포터블 디바이스(100)는 웨어러블 디바이스일 수 있다. 이때, 착용 센서 유닛(160)은 포터블 디바이스(100)의 착용 여부를 디텍트할 수 있다. 실시예로서, 포터블 디바이스(100)는 근접 센서를 사용하여 포터블 디바이스(100)의 착용 여부를 디텍트할 수 있다. 또는 포터블 디바이스(100)는 포터블 디바이스(100)의 버클의 체결부에 구비된 센서를 사용하여 착용 여부를 디텍트할 수 있다. 즉, 착용 센서 유닛(160)은 포터블 디바이스(100)의 착용 여부를 상술한 센서 유닛들을 사용하여 유저에 의해 착용된 상태인지 여부를 결정할 수 있다. 이러한 판단의 기초가 되는 센싱 결과를 제공하는 상술한 센싱 유닛들 중 적어도 하나를 본 발명에서는 착용 센서 유닛(160)이라고 지칭한다.
프로세서(170)는 디스플레이 유닛(110), 방향 정보 센싱 유닛(120) 및 커뮤니케이션 유닛(130) 중 적어도 하나를 제어하는 유닛일 수 있다. 또한, 프로세서(170)는 위치 정보 수신 유닛(140), 스토리지 유닛(150) 및 착용 센서 유닛(160) 중 적어도 하나를 더 제어할 수 있다. 이때, 일 예로, 프로세서(170)는 디스플레이 유닛(110)을 이용하여 제 1 오브젝트 및 제 2 오브젝트를 포함하는 제 1 어플리케이션을 디스플레이할 수 있다. 이때, 일 예로, 제 1 어플리케이션은 지도 어플리케이션일 수 있다. 또한, 일 예로, 포터블 디바이스(100)는 위치 정보 센싱 유닛(140)을 이용하여 포터블 디바이스(100)의 현재 위치 정보를 디텍트할 수 있다. 이때, 제 1 오브젝트는 포터블 디바이스(100)의 현재 위치 정보를 나타내는 오브젝트일 수 있다. 이때, 일 예로, 제 1 오브젝트는 제 1 어플리케이션 내에서 위치 정보 및 방향 정보를 나타낼 수 있다. 이와 관련해서는 도 7a 및 도 7b에서 후술한다. 또한, 일 예로, 제 2 오브젝트는 포터블 디바이스(100)의 현재 위치 정보에 기초하여 포터블 디바이스(100) 주변의 리얼 오브젝트에 대한 정보를 나타내는 오브젝트일 수 있다. 일 예로, 제 2 오브젝트는 복수의 리얼 오브젝트에 대응하는 오브젝트일 수 있다. 즉, 제 2 오브젝트는 제 1 어플리케이션 내에서 리얼 오브젝트에 대응하는 건물, 도로, 표지판 등에 대한 정보를 나타내는 오브젝트일 수 있으며, 단수 또는 복수의 오브젝트일 수 있다. 또한, 프로세서(170)는 커뮤니케이션 유닛(130)을 이용하여 풋 웨어러블 디바이스(200)로부터 제 1 트리거링 신호를 수신할 수 있다. 이때, 제 1 트리거링 신호는 풋 웨어러블 디바이스(200)의 전면 방향이 제 1 방향임을 나타내는 정보일 수 있다. 일 예로, 풋 웨어러블 디바이스(200)는 스마트 슈즈(smart shoes) 또는 스마트 인솔(smart insole)일 수 있다. 이때, 풋 웨어러블 디바이스(200)의 앞이 향하는 방향이 풋 웨어러블 디바이스(200)의 전면 방향일 수 있다. 이와 관련해서는 도 2에서 후술한다. 또한, 프로세서(170)는 방향 정보 센싱 유닛(120)을 이용하여 포터블 디바이스(100)의 앞면 방향이 제 2 방향임을 디텍트할 수 있다. 이때, 상술한 바와 같이, 앞면 방향은 비주얼 정보가 디스플레이되는 기준 방향일 수 있다. 이때, 프로세서(170)는 제 1 오브젝트를 풋 웨어러블 디바이스(200)의 전면 방향인 제 1 방향을 기준으로 디스플레이할 수 있다. 또한, 프로세서(170)는 제 2 오브젝트를 포터블 디바이스(100)의 앞면 방향을 기준으로 디스플레이할 수 있다. 즉, 방향 정보를 포함하는 제 1 오브젝트는 풋 웨어러블 디바이스(200)를 기준으로 디스플레이될 수 있다. 또한, 주변 정보를 나타내는 제 2 오브젝트는 포터블 디바이스(100)의 앞면 방향을 기준으로 디스플레이될 수 있다. 또한, 프로세서(170)는 경로 정보를 디스플레이할 수 있다. 이때, 프로세서(170)는 경로 정보에 대한 히스토리 정보를 스토리지 유닛(150)에 저장할 수 있다. 또한, 프로세서(170)는 착용 센서 유닛(160)을 이용하여 포터블 디바이스(100)의 착용 여부에 기초하여 제 1 어플리케이션의 실행 여부를 제어할 수 있다.
또한, 상술한 엘레먼트들은 별도의 엘리먼트로 포터블 디바이스(100)에 포함되거나, 적어도 하나 이상의 엘리먼트로 통합되어 포함될 수 있다.
도 2는 본 명세서의 일 실시예에 따른 풋 웨어러블 디바이스의 블록도를 나타낸 도면이다. 이때, 풋 웨어러블 디바이스(200)는 유저의 발에 착용되는 디바이스일 수 있다. 일 예로, 풋 웨어러블 디바이스(200)는 신발 자체일 수 있다. 즉, 신발은 다양한 유닛들을 포함하여 오퍼레이션을 실행할 수 있다. 또 다른 일 예로, 풋 웨어러블 디바이스(200)는 깔창일 수 있다. 즉, 풋 웨어러블 디바이스(200)는 신발 안에 들어가는 깔창 형태로 제작된 디바이스일 수 있다. 즉, 풋 웨어러블 디바이스(200)는 유저의 발에 의해 제어되는 디바이스일 수 있으며, 상술한 실시예로 한정되지 않는다.
풋 웨어러블 디바이스(200)는 커뮤니케이션 유닛(210), 방향 정보 센싱 유닛(220) 및 프로세서(280)를 포함할 수 있다. 또한, 풋 웨어러블 디바이스(200)는 옵셔널한 구성으로 카메라 유닛(230)을 더 포함할 수 있다. 또한, 풋 웨어러블 디바이스(200)는 옵셔널한 구성으로 위치 정보 센싱 유닛(240)을 더 포함할 수 있다. 또한, 풋 웨어러블 디바이스(200)는 옵셔널한 구성으로 조도 센싱 유닛(250)을 더 포함할 수 있다. 또한, 풋 웨어러블 디바이스(200)는 옵셔널한 구성으로 모션 센서 유닛(260)을 더 포함할 수 있다. 또한, 풋 웨어러블 디바이스(200)는 옵셔널한 구성으로 착용 센서 유닛(270)을 더 포함할 수 있다.
이때, 일 예로, 커뮤니케이션 유닛(210)은 프로세서(280)에 의해 제어될 수 있다. 이때, 커뮤니케이션 유닛(210)은 풋 웨어러블 디바이스(200) 또는 외부 디바이스와 다양한 프로토콜을 사용하여 통신을 수행하고, 이를 통해 데이터를 송신 및 수신할 수 있다. 또한, 커뮤니케이션 유닛(130)은 유선 또는 무선으로 네트워크에 접속하여, 컨텐츠 등의 디지털 데이터를 송신 및 수신할 수 있다. 즉, 커뮤니케이션 유닛(210)은 외부 디바이스와 인포메이션을 교환하는 유닛일 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 방향 정보 센싱 유닛(220)은 프로세서(280)에 의해 제어될 수 있다. 이때, 일 예로, 방향 정보 센싱 유닛(220)은 풋 웨어러블 디바이스(200)의 전면 방향을 디텍트할 수 있다. 이때, 일 예로, 풋 웨어러블 디바이스(200)의 앞이 향하는 방향이 전면 방향일 수 있다. 즉, 신발 또는 깔창에 있어서 발가락이 향하는 부분이 전면 방향일 수 있다. 또한, 일 예로, 방향 정보 센싱 유닛(220)은 자이로 센서, 가속도 센서, 중력 센서 중 적어도 하나의 센싱 수단을 포함할 수 있다. 이를 통해, 방향 정보 센싱 유닛(220)은 유저가 이동하는 방향을 디텍트할 수 있다.
또한, 카메라 유닛(230)은 프로세서(280)에 의해 제어될 수 있다. 이때, 카메라 유닛(230)은 풋 웨어러블 디바이스(200) 주변의 이미지를 캡처링하는 유닛일 수 있다. 즉, 풋 웨어러블 디바이스(200)는 카메라 유닛을 통해 주변 이미지를 캡처링 할 수 있다.
또한, 위치 정보 센싱 유닛(240)은 프로세서(280)에 의해 제어될 수 있다. 이때, 위치 정보 수신 유닛(240)은 풋 웨어러블 디바이스(200)의 위치 정보를 수신할 수 있다. 이때, 일 예로, 위치 정보 수신 유닛(240)은 GPS를 포함할 수 있으며, 위성을 통해 풋 웨어러블 디바이스(200)의 위치 정보를 수신할 수 있다. 또한, 위치 정보 수신 유닛(240)은 근거리 통신망 또는 기지국 정보를 이용하여 풋 웨어러블 디바이스(200)의 위치 정보를 수신하는 유닛일 수 있다. 즉, 위치 정보 수신 유닛(240)은 풋 웨어러블 디바이스(200)의 위치 정보를 수신하는 유닛일 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 조도 센싱 유닛(250)은 프로세서(280)에 의해 제어될 수 있다. 이때, 일 예로, 조도 센싱 유닛(250)은 조도를 측정하는 유닛일 수 있다. 즉, 프로세서(280)는 어두운 상황에서 조도 센싱 유닛(250)을 이용하여 조도를 측정할 수 있으며, 이와 관련해서는, 도 10에서 후술한다.
또한, 모션 센싱 유닛(260)은 프로세서(280)에 의해 제어될 수 있다. 이때, 일 예로, 모션 센싱 유닛(260)은 유저 발의 움직임을 디텍트할 수 있다. 또한, 모션 센싱 유닛(260)은 디텍트된 유저의 발 움직임에 대한 정보를 프로세서(280)로 전달할 수 있다. 프로세서(280)는 디텍트된 발 움직임 정보에 기초하여 패턴 정보를 획득할 수 있다. 이와 관련해서는 도 12a에서 후술한다. 이때, 일 예로, 모션 센싱 유닛(260)은 자이로 센서, 가속도 센서, 중력 센서 중 적어도 하나의 센싱 수단을 포함할 수 있다. 즉, 모션 센싱 유닛(260)은 유저의 발 패턴을 디텍트하는 유닛일 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 착용 센서 유닛(270)은 프로세서(280)에 의해 제어될 수 있다. 이때, 착용 센서 유닛(220)은 풋 웨어러블 디바이스(200)의 착용 여부를 디텍트할 수 있다. 실시예로서, 풋 웨어러블 디바이스(200)는 근접 센서를 사용하여 풋 웨어러블 디바이스(200)의 착용 여부를 디텍트할 수 있다. 이때, 일 예로, 풋 웨어러블 디바이스(200)는 유저의 기설정된 식별 정보에 기초하여 착용 여부를 디텍트할 수 있다. 즉, 착용 센서 유닛(270)은 풋 웨어러블 디바이스(200)의 착용 여부를 디텍트하는 유닛일 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 프로세서(280)는 커뮤니케이션 유닛(210) 및 방향 정보 센싱 유닛(220)을 제어할 수 있다. 또한, 프로세서(280)는 카메라 유닛(230), 위치 정보 센싱 유닛(240), 조도 센싱 유닛(250), 모션 센싱 유닛(260) 및 착용 센서 유닛(270) 중 적어도 하나를 더 제어할 수 있다. 일 예로, 프로세서(280)는 방향 정보 센싱 유닛(220)을 이용하여 풋 웨어러블 디바이스(200)의 전면 방향이 제 1 방향임을 디텍트할 수 있다. 이때, 프로세서(280)는 커뮤니케이션 유닛(210)을 이용하여 제 1 방향에 대한 정보를 포함하는 제 1 트리거링 신호를 포터블 디바이스(100)로 송신할 수 있다. 이때, 포터블 디바이스(100)는 수신된 제 1 트리거링 신호에 기초하여 제 1 오브젝트를 디스플레이할 수 있다. 또한, 프로세서(280)는 카메라 유닛(230)을 이용하여 주변 지형 정보를 디텍트할 수 있다. 이때, 프로세서(280)는 주변 지형 정보를 커뮤니케이션 유닛(210)을 이용하여 포터블 디바이스(100)로 송신할 수 있다. 또한, 프로세서(280)는 위치 정보 센싱 유닛(240)을 이용하여 풋 웨어러블 디바이스(240)의 위치 정보를 디텍트할 수 있다. 또한, 프로세서(280)는 조도 센싱 유닛(250)을 이용하여 풋 웨어러블 디바이스(200) 주변의 조도를 디텍트할 수 있다. 또한, 프로세서(280)는 모션 센싱 유닛(260)을 이용하여 유저의 발 움직임을 디텍트할 수 있다. 이를 통해 프로세서(280)는 보안 모드를 실행할 수 있다. 또한, 프로세서(280)는 착용 센서 유닛(270)을 이용하여 풋 웨어러블 디바이스(200)의 착용 여부를 디텍트할 수 있다. 이를 통해, 프로세서(280)는 착용 여부 정보에 기초하여 다른 디바이스와 동기화를 수행할 수 있다.
도 3a 및 도 3b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스를 포함하는 시스템을 나타낸 도면이다. 포터블 디바이스(100) 및 풋 웨어러블 디바이스(200)는 하나의 시스템일 수 있다. 보다 상세하게는, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)로부터 전면 방향 정보를 수신할 수 있다. 이때, 포터블 디바이스(100)는 수신된 전면 방향 정보에 기초하여 제 1 어플리케이션에 포함된 제 1 오브젝트 및 제 2 오브젝트를 디스플레이할 수 있다. 즉, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)와 하나의 시스템으로서, 서로 연동되어 동작될 수 있다.
이때, 일 예로, 도 3a를 참조하면 포터블 디바이스(100)는 스마트폰일 수 있다. 또한, 풋 웨어러블 디바이스(200)는 신발 또는 깔창일 수 있다. 즉, 풋 웨어러블 디바이스(200)는 유저의 발에 의해 착용되는 디바이스일 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 도 3b를 참조하면 포터블 디바이스(100)는 웨어러블 디바이스일 수 있다. 일 예로, 포터블 디바이스(100)는 스마트 워치일 수 있다. 즉, 포터블 디바이스(100)는 유저에 의해 착용되어 비주얼 정보를 제공하는 디바이스일 수 있다. 포터블 디바이스(100)와 풋 웨어러블 디바이스(200)는 하나의 시스템으로 동작할 수 있으며, 상술한 실시예로 한정되지 않는다.
도 4는 본 명세서의 일 실시예에 따라 포터블 디바이스가 풋 웨어러블 디바이스의 전면 방향에 기초하여 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다. 포터블 디바이스(100)는 풋 웨어러블 디바이스(100)로부터 제 1 트리거링 신호를 수신할 수 있다. 이때, 제 1 트리거링 신호는 풋 웨어러블 디바이스(100)의 전면 방향이 제 1 방향임을 나타내는 신호일 수 있다. 이때, 포터블 디바이스(100)는 제 1 오브젝트(410)를 제 1 방향을 기준으로 디스플레이할 수 있다. 이때, 일 예로, 제 1 오브젝트(410)는 화살표 모양일 수 있다. 즉, 제 1 오브젝트는 방향 정보를 나타낼 수 있는 오브젝트일 수 있다. 이때, 제 1 오브젝트(410)는 풋 웨어러블 디바이스(200)의 전면 방향에만 의존하는 오브젝트일 수 있다. 보다 상세하게는, 제 1 오브젝트(410)의 방향은 풋 웨어러블 디바이스(200)의 전면 방향이 변경되는 경우에만 변경될 수 있다. 또한, 제 1 오브젝트(410)의 방향은 포터블 디바이스(100)의 앞면 방향이 변경되는지 여부와 무관할 수 있다. 즉, 제 1 오브젝트(410)는 풋 웨어러블 디바이스(200)의 방향에만 의존하는 오브젝트일 수 있다. 이때, 유저의 이동 방향과 신발 방향은 동일한바, 유저는 자신의 이동 방향을 쉽게 확인할 수 있다.
도 5는 본 명세서의 일 실시예에 따라 포터블 디바이스에서 기설정된 방향에 기초하여 제 1 오브젝트를 디스플레이하는 방법을 나타낸 도면이다. 풋 웨어러블 디바이스(200)는 착용 센서 유닛(270)을 이용하여 풋 웨어러블 디바이스(200)의 착용 여부를 디텍트할 수 있다. 이때, 풋 웨어러블 디바이스(200)가 풋 웨어러블 디바이스(200)가 착용됨을 디텍트하는 경우, 풋 웨어러블 디바이스(200)는 착용됨을 나타내는 트리거링 신호를 포터블 디바이스(100)로 송신할 수 있다.
일 예로, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)가 착용됨을 나타내는 트리거링 신호를 수신하면 제 1 어플리케이션을 디스플레이할 수 있다. 이때, 상술한 바와 같이 제 1 오브젝트는 풋 웨어러블 디바이스(200)의 전면 방향에 기초하여 디스플레이될 수 있다. 또한, 제 2 오브젝트는 포터블 디바이스(100)의 앞면 방향에 기초하여 디스플레이될 수 있다. 이때, 일 예로, 풋 웨어러블 디바이스(200)는 풋 웨어러블 디바이스(200)의 착용이 해제됨을 디텍트할 수 있다. 이때, 풋 웨어러블 디바이스(200)는 착용이 해제됨을 나타내는 트리거링 신호를 포터블 디바이스(100)로 송신할 수 있다. 즉, 포터블 디바이스(100)는 제 1 어플리케이션을 디스플레이한 상태에서 풋 웨어러블 디바이스(200)의 착용이 해제됨을 디텍트할 수 있다. 이때, 포터블 디바이스(100)는 제 1 오브젝트 및 제 2 오브젝트를 제 2 방향을 기준으로 디스플레이할 수 있다. 즉, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)가 착용되지 않은 상태에서는 제 1 오브젝트를 포터블 디바이스(100)의 앞면 방향에 기초하여 디스플레이할 수 있다.
또 다른 일 예로, 풋 웨어러블 디바이스(200)가 착용되지 않은 경우, 포터블 디바이스(100)는 제 1 오브젝트 및 제 2 오브젝트의 디스플레이 방법을 다르게 설정될 수 있다. 보다 상세하게는, 제 1 오브젝트는 포터블 디바이스(100)의 외부에서 포터블 디바이스(100)의 앞면 방향을 기준으로 디스플레이될 수 있다. 이때, 제 1 오브젝트는 현실 세계의 방위 정보에 기초하여 디스플레이될 수 있다. 또한, 제 2 오브젝트는 포터블 디바이스(100)의 내부에서 포터블 디바이스 앞면 방향을 기준으로 디스플레이될 수 있다. 이때, 앞면 방향은 비주얼 정보가 디스플레이되는 방향일 수 있다. 즉, 제 2 오브젝트는 현실 세계의 방위 정보가 아닌 포터블 디바이스(100) 내부의 기준 방향으로 디스플레이될 수 있다.
도 6는 본 명세서의 일 실시예에 따라 포터블 디바이스가 풋 웨어러블 디바이스의 전면 방향에 기초하여 제 1 오브젝트를 디스플레이하는 방법을 나타낸 도면이다. 풋 웨어러블 디바이스(200)는 착용 센서 유닛(270)을 이용하여 유저의 의해 착용됨을 디텍트할 수 있다. 이때, 풋 웨어러블 디바이스(200)는 착용됨을 나타내는 트리거링 신호를 포터블 디바이스(100)로 송신할 수 있다. 이때, 포터블 디바이스(100)는 수신된 트리거링 신호에 기초하여 제 1 오브젝트(410)를 디스플레이할 수 있다. 이때, 일 예로, 풋 웨어러블 디바이스(200)는 풋 웨어러블 디바이스의 전면 방향이 제 1 방향이면 제 1 트리거링 신호를 포터블 디바이스(100)로 송신할 수 있다. 이때, 포터블 디바이스(100)는 제 1 오브젝트(410)는 제 1 방향을 기준으로 디스플레이할 수 있다.
이때, 도 6을 참조하면, 포터블 디바이스(100)는 포터블 디바이스(100)의 앞면 방향과 무관하게 제 1 오브젝트(410)를 제 1 방향에 기초하여 디스플레이할 수 있다. 보다 상세하게는, 유저는 웨어러블 디바이스(100)인 포터블 디바이스(100)를 착용할 수 있다. 이때, 유저가 팔을 앞뒤로 움직이는 경우, 포터블 디바이스의 앞면 방향은 변경될 수 있다. 이때, 포터블 디바이스(100)에서 디스플레이되는 비주얼 정보는 포터블 디바이스(100) 방향에 따라 디스플레이될 수 있다, 이때, 일 예로, 제 1 오브젝트(410)는 포터블 디바이스(100)의 앞면 방향의 변경 여부와 무관하게 디스플레이될 수 있다. 즉, 제 1 오브젝트(410)는 풋 웨어러블 디바이스(100)의 방향이 변경되지 않으면 지속적으로 제 1 방향을 기준으로 디스플레이될 수 있다.
도 7a 및 도 7b는 본 명세서의 일 실시예에 따라 포터블 디바이스가 제 1 오브젝트 및 제 2 오브젝트를 포함하는 제 1 어플리케이션을 디스플레이하는 방법을 나타낸 도면이다. 풋 웨어러블 디바이스(200)는 전면 방향이 제 1 방향임을 디텍트하면 제 1 트리거링 신호를 포터블 디바이스(100)로 송신할 수 있다. 또한, 포터블 디바이스(100)는 포터블 디바이스(100)의 앞면 방향이 제 2 방향임을 디텍트할 수 있다. 이때, 포터블 디바이스(100)는 제 1 트리거링 신호에 기초하여 제 1 오브젝트(410)를 제 1 방향을 기준으로 디스플레이할 수 있다. 또한, 포터블 디바이스(100)는 디텍트된 앞면 방향에 기초하여 제 2 오브젝트(710)를 제 2 방향을 기준으로 디스플레이할 수 있다. 이때, 일 예로, 풋 웨어러블 디바이스(200)는 전면 방향이 제 1 방향에서 제 3 방향으로 전환되면 제 2 트리거링 신호를 포터블 디바이스(100)로 송신할 수 있다. 이때, 포터블 디바이스(100)는 제 1 오브젝트(410)를 전환된 제 3 방향을 기준으로 디스플레이할 수 있다. 이때, 포터블 디바이스(100)는 제 2 오브젝트(710)를 제 2 방향을 기준으로 디스플레이할 수 있다. 즉, 포터블 디바이스(100)는 제 1 오브젝트(410)만을 풋 웨어러블 디바이스(200)의 전면 방향을 기준으로 디스플레이할 수 있다. 또 다른 일 예로, 포터블 디바이스(100)는 포터블 디바이스(100)의 전면 방향이 제 2 방향에서 제 3 방향으로 전환됨을 디텍트할 수 있다. 이때, 일 예로, 포터블 디바이스(100)는 제 2 오브젝트(710)를 전환된 제 3 방향을 기준으로 디스플레이할 수 있다. 이때, 포터블 디바이스(100)는 제 1 오브젝트(410)를 제 1 방향을 기준으로 디스플레이할 수 있다. 즉, 포터블 디바이스(100)는 제 2 오브젝트(710)만을 포터블 디바이스(100)의 앞면 방향을 기준으로 디스플레이할 수 있다.
일 예로, 도 7a를 살펴보면, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)의 전면 방향과 무관하게 제 1 오브젝트(410) 및 제 2 오브젝트(710)를 디스플레이할 수 있다. 이때, 일 예로, 제 1 오브젝트(410)는 포터블 디바이스(100)의 현재 위치 정보 및 방향 정보를 나타내는 오브젝트일 수 있다. 또한, 제 2 오브젝트(710)는 포터블 디바이스(100)의 현재 위치 정보를 기준으로 주변 상황 정보를 나타내는 오브젝트일 수 있다. 일 예로, 제 2 오브젝트(710)는 지도 어플리케이션에서 건물, 도로 등에 대한 정보를 나타내는 오브젝트일 수 있으며, 복수의 오브젝트일 수 있다. 이때, 포터블 디바이스(100)는 포터블 디바이스(100)의 앞면 방향에 기초하여 제 1 오브젝트(410) 및 제 2 오브젝트(710)를 디스플레이할 수 있다. 이때, 일 예로, 제 1 오브젝트(410)와 제 2 오브젝트(710)의 디스플레이 방법이 다를 수 있다. 일 예로, 포터블 디바이스(100)는 제 1 오브젝트(410)를 포터블 디바이스(100)의 앞면 방향으로서, 현실 세계에서 방위 정보에 기초하여 디스플레이할 수 있다. 즉, 포터블 디바이스(100)는 포터블 디바이스(100)의 외부에서 앞면 방향이 향하는 방위를 기준으로 디스플레이될 수 있다. 또한, 포터블 디바이스(100)는 제 2 오브젝트(710)는 포터블 디바이스의 내부에서 앞면 방향에 기초하여 디스플레이될 수 있다. 즉, 제 2 오브젝트(710)는 포터블 디바이스(100)의 내부에서 유저가 앞면을 바라볼 때 디스플레이되는 방향을 기준으로 디스플레이될 수 있다. 이때, 일 예로, 포터블 디바이스(100)는 지도 어플리케이션인 제 1 어플리케이션을 실행할 수 있다. 이때, 포터블 디바이스(100)는 주변 건물 및 도로 정보인 제 2 오브젝트(710)를 디스플레이할 수 있다. 또한, 포터블 디바이스(100)는 현재 위치 및 방향 정보인 제 1 오브젝트(410)를 디스플레이할 수 있다. 이때, 포터블 디바이스(100)는 제 1 오브젝트(410)를 포터블 디바이스(100)의 외부에서 앞면 방향이 향하는 방위로 디스플레이할 수 있다. 이때, 제 1 오브젝트(410)가 향하는 방향은 지도 어플리케이션 위에서 도로가 향하는 방향일 수 있다. 이때, 일 예로, 포터블 디바이스(100)의 앞면 방향이 변경될 수 있다. 이때, 포터블 디바이스(100)는 변경된 방향에 기초하여 제 1 오브젝트(410)의 방향을 변경할 수 있다. 이때, 제 2 오브젝트(710)는 포터블 디바이스(100) 내부에서 앞면 방향을 기준으로 디스플레이되는바, 동일한 형태로 디스플레이될 수 있다. 이때, 제 1 오브젝트(410)가 향하는 방위는 지도 어플리케이션에서 도로가 향하는 방향과 다른 방향일 수 있다. 즉, 포터블 디바이스(100)의 앞면 방향이 변경되는 경우, 제 2 오브젝트(710)는 동일한 형태로 디스플레이되고, 제 1 오브젝트(410)는 현실 세계의 방위에 기초하여 변경되어 디스플레이될 수 있다. 이때, 유저는 포터블 디바이스(100)의 앞면 방향을 내부 및 외부가 동일하도록 변경하여 지도 어플리케이션을 이용해야 하는 불편함이 있다.
이때, 도 7b를 참조하면, 포터블 디바이스(100)는 제 1 오브젝트(410)를 풋 웨어러블 디바이스(200)의 전면 방향을 기준으로 디스플레이할 수 있다. 또한, 포터블 디바이스(100)는 제 2 오브젝트(710)를 포터블 디바이스(100)의 앞면 방향을 기준으로 디스플레이할 수 있다. 이때, 상술한 바와 같이, 포터블 디바이스(100)는 내부의 앞면 방향을 기준으로 제 2 오브젝트(710)를 디스플레이할 수 있다. 이때, 일 예로, 풋 웨어러블 디바이스(200)의 전면 방향이 제 1 방향일 수 있다. 이때, 제 1 방향은 지도 어플리케이션에서 도로가 향하는 방향일 수 있다. 이때, 포터블 디바이스(100)의 앞면 방향은 제 2 방향일 수 있다. 이때, 제 2 방향은 포터블 디바이스(100)를 바라보는 유저의 방향에 기초하여 설정될 수 있다. 이때, 일 예로, 제 2 방향이 제 3 방향으로 변경될 수 있다. 즉, 포터블 디바이스(100)의 앞면 방향이 변경될 수 있다. 이때, 상술한 바와 같이 제 2 오브젝트(710)는 동일한 형태로 디스플레이될 수 있다. 또한, 포터블 디바이스(100)는 제 1 오브젝트(410)를 동일한 제 1 방향으로 유지할 수 있다. 즉, 풋 웨어러블 디바이스(200)의 전면 방향이 도로가 향하는 방향에서 변경되지 않은 경우, 포터블 디바이스(100)는 포터블 디바이스(100)의 앞면 방향이 변경되어도 지도 어플리케이션에서 제 1 오브젝트(410)가 향하는 방향을 유지할 수 있다. 이를 통해, 유저는 포터블 디바이스(100)의 움직임과 무관하게 움직이는 방향을 확인할 수 있다.
도 8은 본 명세서의 일 실시예에 따라 포터블 디바이스가 경로 정보에 기초하여 피드백을 제공하는 방법을 나타낸 도면이다. 포터블 디바이스(100)가 제 1 어플리케이션을 디스플레이하는 경우, 포터블 디바이스(100)는 경로 정보를 나타내는 제 1 인터페이스(810)를 더 디스플레이할 수 있다. 이때, 일 예로, 제 1 어플리케이션은 지도 어플리케이션일 수 있다. 이때, 일 예로, 제 1 인터페이스(810)는 유저 또는 프로세서(170)에 의해 기설정된 경로 정보일 수 있다. 또한, 일 예로, 포터블 디바이스(100)는 제 1 인터페이스(810)에서 포터블 디바이스(100)의 위치 정보에 기초하여 경로 이동 방향을 나타내는 제 1 인디케이터(820)를 더 디스플레이할 수 있다. 이를 통해, 유저는 목적지로 향하는 방향을 알 수 있다. 이때, 일 예로, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)의 전면 방향이 제 1 방향이면 제 1 오브젝트(410)를 제 1 방향을 기준으로 디스플레이할 수 있다. 이때, 일 예로, 제 1 인터페이스의 경로 이동 방향과 제 1 방향이 동일하지 않은 경우, 포터블 디바이스(100)는 피드백을 제공할 수 있다. 이때, 일 예로, 피드백은 오디오 피드백, 비주얼 피드백 및 택타일 피드백 중 적어도 하나를 포함할 수 있다. 즉, 풋 웨어러블 디바이스(200)의 전면 방향에 기초하여 유저가 목적지와 다른 방향으로 이동하는 경우, 포터블 디바이스(100)는 유저에게 피드백을 제공할 수 있다. 이를 통해, 유저는 풋 웨어러블 디바이스(100)의 전면 방향을 기준으로 경로를 따라 이동하는지 여부를 판단할 수 있다.
또 다른 일 예로, 풋 웨어러블 디바이스(100)는 전면 방향에 기초하여 풋 웨어러블 디바이스(100) 주변의 주변 지형 정보를 디텍트할 수 있다. 이때, 일 예로, 풋 웨어러블 디바이스(100)는 카메라 유닛(230)을 이용하여 주변 지형 정보를 디텍트할 수 있다. 이때, 풋 웨어러블 디바이스(200)는 주변 지형 정보를 포터블 디바이스(100)로 송신할 수 있다. 이때, 일 예로, 포터블 디바이스(100)는 수신된 주변 지형 정보에 기초하여 제 1 인터페이스(810)의 경로 정보를 변경할 수 있다. 일 예로, 장애물이 존재하는 경우, 포터블 디바이스(100)는 수신된 주변 지형 정보에 기초하여 제 1 인터페이스(810)의 경로 정보를 변경할 수 있다. 이를 통해, 유저는 목적지로 향하는 안전한 길을 안내 받을 수 있다.
또 다른 일 예로, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200) 및 포터블 디바이스(100)가 착용된 상태에서 이동 경로에 대한 히스토리 정보를 저장할 수 있다. 이때, 일 예로, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)부터 전면 방향에 대한 정보를 주기적으로 수신할 수 있다. 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)의 전면 방향 정보에 기초하여 이동 경로에 대한 히스토리 정보를 저장할 수 있다. 이를 통해, 유저는 풋 웨어러블 디바이스(200)를 착용한 상태에서 이동에 대한 정보를 확인할 수 있다.
도 9는 본 명세서의 일 실시예에 따라 포터블 디바이스가 제 1 어플리케이션을 디스플레이하는 방법을 나타낸 도면이다. 풋 웨어러블 디바이스(200)는 유저의 컨트롤 인풋을 디텍트할 수 있다. 이때, 일 예로, 풋 웨어러블 디바이스(200)는 컨트롤 인풋 센싱 유닛(미도시)을 더 포함할 수 있다. 풋 웨어러블 디바이스(200)는 컨트롤 인풋 센싱 유닛을 이용하여 유저의 컨트롤 인풋을 디텍트할 수 있다. 이때, 일 예로, 컨트롤 인풋은 유저가 발을 구르는 동작에 의해 디텍트되는 인풋일 수 있다. 보다 상세하게는, 일 예로, 풋 웨어러블 디바이스(200)는 압력을 측정할 수 있는 센서(미도시)를 더 포함할 수 있다. 이때, 풋 웨어러블 디바이스(200)는 압력이 기설정된 값 이상으로 변경됨을 디텍트할 수 있다. 이때, 풋 웨어러블 디바이스(200)는 컨트롤 인풋을 디텍트할 수 있다. 또한, 풋 웨어러블 디바이스(200)는 다양한 방법으로 컨트롤 인풋을 디텍트할 수 있으며, 상술한 실시예로 한정되지 않는다. 풋 웨어러블 디바이스(200)가 컨트롤 인풋을 디텍트한 경우, 풋 웨어러블 디바이스(200)는 컨트롤 인풋에 대한 트리거링 신호를 포터블 디바이스(100)로 송신할 수 있다. 이때, 포터블 디바이스(100)는 트리거링 신호를 수신하면 제 1 어플리케이션을 디스플레이할 수 있다. 즉, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)에 의해 수신된 트리거링 신호에 기초하여 제 1 어플리케이션을 실행할 수 있다. 이를 통해, 유저는 풋 웨어러블 디바이스(200)를 통해서 포터블 디바이스(100)의 어플리케이션을 실행할 수 있다.
도 10은 본 명세서의 일 실시예에 따라 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스가 광원을 방출하는 방법을 나타낸 도면이다. 풋 웨어러블 디바이스(200)는 조도 센싱(250)를 이용하여 주변의 조도를 측정할 수 있다. 이때, 일 예로, 풋 웨어러블 디바이스(200) 주변의 기설정된 값 이하의 조도를 가질 수 있다. 일 예로, 풋 웨어러블 디바이스(200) 주변은 어두운 상태일 수 있다. 이때, 풋 웨어러블 디바이스(200)는 센서 유닛(미도시)를 이용하여 유저의 발(1010)이 기설정된 거리 이내로 들어옴을 디텍트할 수 있다. 일 예로, 풋 웨어러블 디바이스(200)는 근접 센서를 통해 유저의 발(1010)이 기설정된 거리 이내에 위치함을 디텍트할 수 있다. 또한, 풋 웨어러블 디바이스(200)는 다양한 방법으로 유저의 발(1010)이 기설정된 거리 이내에 들어옴을 디텍트할 수 있으며, 상술한 실시예로 한정되지 않는다. 이때, 일 예로, 기설정된 거리는 임계 거리일 수 있으며, 일정한 오차를 가질 수 있다. 이때, 풋 웨어러블 디바이스(200)는 광원 유닛(미도시)를 더 포함할 수 있다. 이때, 광원 유닛(미도시)는 빛을 발광하는 유닛일 수 있다. 풋 웨어러블 디바이스(200)가 유저의 발(1010)이 기설정된 거리 이내로 위치함을 디텍트한 경우, 풋 웨어러블 디바이스(200)는 광원 유닛을 통해 빛을 조사할 수 있다. 즉, 풋 웨어러블 디바이스(200)는 유저의 발(1010)이 가까워지면 빛을 내어 풋 웨어러블 디바이스(200)의 위치 정보를 전달할 수 있다. 이때, 일 예로, 포터블 디바이스(100)는 유저의 발(1010)이 풋 웨어러블 디바이스(200)와 가까이 위치함을 나타내는 비주얼 정보를 더 디스플레이할 수 있다. 또한, 풋 웨어러블 디바이스(200)는 착용 센서 유닛(270)을 통해 풋 웨어러블 디바이스(200)가 착용됨을 디텍트할 수 있다. 이때, 풋 웨어러블 디바이스(200)는 광원 유닛을 제어하여 빛이 조사되지 않도록 할 수 있다. 이를 통해, 유저는 주변이 어두운 상태에서 풋 웨어러블 디바이스(200)를 쉽게 찾아 착용할 수 있다.
도 11은 본 명세서의 일 실시예에 따라 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스와 포터블 디바이스의 연동 방법을 나타낸 도면이다. 풋 웨어러블 디바이스(200)는 착용 센서 유닛(270)을 통해 유저에 의해 착용됨을 디텍트할 수 있다. 이때, 일 예로, 풋 웨어러블 디바이스(200)가 유저에 의해 착용됨을 디텍트하는 경우, 풋 웨어러블 디바이스(200)는 유저의 상태 정보를 디텍트할 수 있다. 보다 상세하게는, 풋 웨어러블 디바이스(200)는 착용된 상태에서 유저의 발을 이용하여 유저의 상태 정보를 판단할 수 있다. 이때, 일 예로, 상태 정보는 몸무게, 맥박 정보, 몸상태 정보 등일 수 있다. 또한, 상태 정보는 센서 유닛(미도시)를 통해 디텍트될 수 있는 정보일 수 있으며 상술한 실시예로 한정하지 않는다. 이때, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)로부터 유저의 상태 정보를 수신할 수 있다. 이때, 포터블 디바이스(100)는 유저의 상태 정보를 디스플레이할 수 있다. 이를 통해, 유저는 풋 웨어러블 디바이스(200)를 착용함을 통해서 유저의 상태 정보를 수시로 확인할 수 있다.
도 12a 및 도 12b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스와 포터블 디바이스의 연동 방법을 나타낸 도면이다.
이때, 도 12a를 참조하면, 풋 웨어러블 디바이스(200)는 보안 모드를 실행할 수 있다. 이때, 보안 모드는 기설정된 유저에 의해 착용되는지 여부를 판단하는 모드일 수 있다. 보다 상세하게는, 풋 웨어러블 디바이스(200)는 유저에 의해 착용된 상태에서 패턴 정보를 디텍트할 수 있다. 이때, 일 예로, 풋 웨어러블 디바이스(200)는 모션 센싱 유닛(260)을 이용하여 유저의 발이 착용된 풋 웨어러블 디바이스(200)의 이동을 디텍트할 수 있다. 이때, 일 예로, 패턴 정보는 풋 웨어러블 디바이스(200)가 기설정된 방향으로 이동하는 정보일 수 있다. 풋 웨어러블 디바이스(200)가 기설정된 패턴 정보를 디텍트한 경우, 풋 웨어러블 디바이스(200)는 보안 모드를 실행할 수 있다. 이때, 일 예로, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)로부터 보안 모드에 대한 정보를 수신할 수 있다. 포터블 디바이스(100)는 수신된 보안 모드 정보를 디스플레이할 수 있다.
또한, 일 예로, 도 12b를 참조하면, 보안 모드가 설정된 경우, 풋 웨어러블 디바이스(200)는 기설정된 유저가 아닌 다른 유저에 의해 착용됨을 디텍트할 수 있다. 이때, 풋 웨어러블 디바이스(200)는 다른 유저에 의해 풋 웨어러블 디바이스(200)가 착용되는지 여부에 대한 정보를 포터블 디바이스(100)로 송신할 수 있다. 이때, 포터블 디바이스(100)는 다른 유저에 의해 풋 웨어러블 디바이스(200)가 착용되는지 여부에 대한 정보를 피드백으로 제공할 수 있다. 이때, 일 예로, 피드백은 오디오 피드백, 비주얼 피드백 및 택타일 피드백 중 적어도 하나를 포함할 수 있다. 또 다른 일 예로, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)가 포터블 디바이스(100)와 기설정된 거리 이상 위치함을 디텍트할 수 있다. 이때, 포터블 디바이스(100)는 유저에게 피드백을 제공할 수 있다. 즉, 보안 모드는 기설정된 유저가 아닌 다른 유저에 의해 풋 웨어러블 디바이스(200)가 착용되는지 여부를 확인하는 모드일 수 있으며, 상술한 실시예로 한정되지 않는다. 이를 통해, 유저는 풋 웨어러블 디바이스(200)를 착용하지 않은 상태에서 다른 유저에 의한 도난을 방지할 수 있다.
도 13은 본 명세서의 일 실시예에 따라 웨어러블 디바이스를 포함하는 시스템에서 풋 웨어러블 디바이스와 포터블 디바이스의 연동 방법을 나타낸 도면이다. 포터블 디바이스(100)와 풋 웨어러블 디바이스(200)는 하나의 시스템일 수 있다. 이때, 일 예로, 시스템은 다른 디바이스들(1310, 1320, 1330)들을 더 포함할 수 있다. 이때, 일 예로, 시스템은 HMD 디바이스(1310)를 포함할 수 있다. 또 다른 일 예로, 시스템은 이어폰(1320)을 더 포함할 수 있다. 또 다른 일예로, 시스템은 스마트폰(1330)을 더 포함할 수 있다. 즉, 시스템은 유저가 사용하는 복수의 디바이스를 포함할 수 있으며, 상술한 실시예로 한정되지 않는다. 이때, 일 예로, 시스템에서 외출 모드가 설정되는 경우, 복수의 디바이스들(100, 200, 1310, 1320, 1330) 각각은 오퍼레이션을 실행할 수 있다.
일 예로, 시스템이 외출 모드로 설정되는 경우, HMD 디바이스(1310)는 유저가 자주 이용하는 버스 정보를 디스플레이할 수 있다. 또한, 이어폰(1320)은 가장 최근에 플레이된 음악을 연속하여 디스플레이할 수 있다. 또한, 포터블 디바이스(100)인 스마트 워치는 시계 정보를 디스플레이할 수 있다. 또한, 스마트폰(1330)은 하루 스케줄 정보를 디스플레이할 수 있다. 또한, 풋 웨어러블 디바이스(200)는 네비게이션 기능을 실행할 수 있다. 즉, 시스템이 외출 모드로 전환되는 경우, 시스템에 포함된 복수의 디바이스들(100, 200, 1310, 1320, 1330) 각각은 기설정된 오퍼레이션을 실행할 수 있다.
이때, 일 예로, 시스템은 풋 웨어러블 디바이스(200)에 기초하여 외출 모드를 설정할 수 있다. 보다 상세하게는, 시스템은 풋 웨어러블 디바이스(200)가 착용됨을 디텍트하면 외출 모드를 실행할 수 있다. 이때, 일 예로, 유저가 외출하는 경우, 유저는 복수의 디바이스들(100, 200, 1310, 1320, 1330) 중 풋 웨어러블 디바이스(200)를 가장 마지막에 착용할 수 있다. 따라서, 시스템은 풋 웨어러블 디바이스(200)를 기준으로 외출 모드를 설정할 수 있다. 즉, 풋 웨어러블 디바이스(100)가 착용됨은 외출 모드를 실행하는 트리거링 신호일 수 있다. 이를 통해, 유저는 별도의 컨트롤 인풋이 없어도 복수의 디바이스들을 제어할 수 있다.
도 14은 본 명세서의 일 실시예에 따라 포터블 디바이스의 제어 방법을 나타낸 도면이다. 포터블 디바이스(100)는 제 1 오브젝트 및 제 2 오브젝트를 포함하는 제 1 어플리케이션을 디스플레이할 수 있다.(S1410) 이때, 도 1에서 상술한 바와 같이, 제 1 오브젝트는 포터블 디바이스(100)의 현재 위치 정보 및 방향 정보를 나타내는 오브젝트일 수 있다. 또한, 제 2 오브젝트는 포터블 디바이스(100)의 현재 위치 정보에 기초하여 주변에 대한 정보일 수 있다. 이때, 일 예로, 제 2 오브젝트는 건물, 도로 등일 수 있다.
다음으로, 포터블 디바이스(100)는 풋 웨어러블 디바이스로부터 풋 웨어러블 디바이스의 전면 방향이 제 1 방향임을 나타내는 제 1 트리거링 신호를 수신할 수 있다.(S1420) 이때, 도 1에서 상술한 바와 같이, 풋 웨어러블 디바이스(200)는 커뮤니케이션 유닛을 통해 풋 웨어러블 디바이스(200)의 전면 방향 정보를 포터블 디바이스(100)로 송신할 수 있다. 이때, 풋 웨어러블 디바이스(200)의 전면 방향 정보는 유저의 이동 방향과 동일할 수 있다. 즉, 포터블 디바이스(100)는 풋 웨어러블 디바이스(200)의 전면 방향에 대한 정보를 수신하여 유저의 이동 방향에 대한 정보를 확인할 수 있다.
다음으로, 포터블 디바이스(100)는 포터블 디바이스(100)의 앞면 방향이 제 2 방향임을 디텍트할 수 있다.(S1430) 이때, 도 1에서 상술한 바와 같이, 이때, 일 예로, 포터블 디바이스(100)의 앞면 방향은 비주얼 정보가 디스플레이되는 방향일 수 있다. 보다 상세하게는, 프로세서(170)는 비주얼 정보를 포터블 디바이스(100)의 앞면 방향을 기준으로 디스플레이할 수 있다. 일 예로, 프로세서(170)는 포트레이트 모드 또는 랜드스케이프 모드로 비주얼 정보를 디스플레이할 수 있다. 이때, 포트레이트 모드는 포터블 디바이스(100)가 세워진 상태일 수 있다. 이때, 일 예로, 포터블 디바이스(100)의 앞면 방향은 포터블 디바이스에서 세워진 위쪽 방향일 수 있다. 또한, 랜드 스케이프 모드는 포터블 디바이스(100)가 누워진 상태일 수 있다. 이때, 일 예로, 포터블 디바이스(100)의 앞면 방향은 포터블 디바이스가 누워진 상태에서 위쪽 방향일 수 있다. 즉, 포터블 디바이스(100)의 앞면 방향은 비주얼 정보가 디스플레이되는 기준 방향일 수 있다.
다음으로, 포터블 디바이스(100)는 제 1 오브젝트를 제 1 방향을 기준으로 디스플레이할 수 있다.(S1440) 이때, 도 7b에서 상술한 바와 같이, 포터블 디바이스(100)는 제 1 오브젝트를 풋 웨어러블 디바이스(200)의 전면 방향을 기준으로 디스플레이할 수 있다. 이때, 풋 웨어러블 디바이스(200)의 전면 방향이 변경되는 경우, 포터블 디바이스(100)는 제 1 오브젝트를 변경된 풋 웨어러블 디바이스(200)의 전면 방향을 기준으로 디스플레이할 수 있다. 즉, 제 1 오브젝트는 풋 웨어러블 디바이스(200)의 전면 방향에 의해서만 디스플레이 방법이 변경되는 오브젝트일 수 있다.
다음으로, 포터블 디바이스(100)는 제 2 오브젝트를 제 2 방향을 기준으로 디스플레이할 수 있다.(S1450) 이때, 도 7b에서 상술한 바와 같이, 포터블 디바이스(100)는 제 2 오브젝트를 포터블 디바이스(100)의 앞면 방향을 기준으로 디스플레이할 수 있다. 이때, 상술한 바와 같이, 제 2 오브젝트는 포터블 디바이스(100)의 내부에서 비주얼 정보가 디스플레이되는 방향에 기초하여 디스플레이되는 오브젝트일 수 있다. 즉, 제 2 오브젝트는 포터블 디바이스(100) 내에서 일정한 방향으로 디스플레이되는 비주얼 정보일 수 있다. 이때, 일 예로, 포터블 디바이스(100)의 앞면 방향이 변경되는 경우, 포터블 디바이스(100)는 변경된 앞면 방향에 기초하여 제 2 오브젝트를 디스플레이할 수 있다. 즉, 제 2 오브젝트는 포터블 디바이스(100)의 앞면 방향에 의해서면 디스플레이 방법이 변경되는 오브젝트일 수 있다.
나아가, 설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 명세서에 따른 포터블 디바이스(100) 및 그 제어 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 명세서의 포터블 디바이스(100) 및 제어 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있으며, 또한, 인터넷을 통한 송신 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 명세서의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 명세서의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
그리고 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.
100 : 포터블 디바이스
110 : 디스플레이 유닛
120 : 방향 정보 센싱 유닛
130 : 커뮤니케이션 유닛
140 : 위치 정보 센싱 유닛
150 : 스토리지 유닛
160 : 착용 센서 유닛
170 : 프로세서
200 : 풋 웨어러블 디바이스
210 : 커뮤니케이션 유닛
220 : 착용 센서 유닛
230 : 카메라 유닛
240 : 위치 정보 센싱 유닛
250 : 조도 센싱 유닛
260 : 모션 센싱 유닛
270 : 프로세서

Claims (20)

  1. 포터블 디바이스에 있어서,
    비주얼 정보를 디스플레이하는 디스플레이 유닛;
    상기 포터블 디바이스의 방향 정보를 디텍트하는 방향 정보 센싱 유닛;
    풋 웨어러블 디바이스(foot wearable device)로부터 인포메이션을 수신하는 커뮤니케이션 유닛;
    상기 디스플레이 유닛, 상기 방향 정보 센싱 유닛 및 상기 커뮤니케이션 유닛을 제어하는 프로세서를 포함하는 포터블 디바이스로서,
    상기 프로세서는,
    제 1 오브젝트 및 제 2 오브젝트를 포함하는 제 1 어플리케이션을 디스플레이하고,
    상기 풋 웨어러블 디바이스로부터 상기 풋 웨어러블 디바이스의 전면 방향이 제 1 방향임을 나타내는 제 1 트리거링 신호를 수신하고, 상기 포터블 디바이스의 앞면 방향이 제 2 방향임을 디텍트하는 경우,
    상기 제 1 오브젝트를 상기 제 1 방향을 기준으로 디스플레이하고, 상기 제 2 오브젝트를 상기 제 2 방향을 기준으로 디스플레이하는, 포터블 디바이스.
  2. 제 1 항에 있어서,
    상기 프로세서는,
    상기 풋 웨어러블 디바이스로부터 상기 풋 웨어러블 디바이스의 상기 전면 방향이 상기 제 1 방향에서 제 3 방향으로 전환됨을 나타내는 제 2 트리거링 신호를 수신하는 경우, 상기 제 1 오브젝트를 상기 전환된 제 3 방향을 기준으로 디스플레이하고, 상기 제 2 오브젝트는 상기 제 2 방향을 기준으로 디스플레이하는, 포터블 디바이스.
  3. 제 1 항에 있어서,
    상기 프로세서는,
    상기 포터블 디바이스의 상기 앞면 방향이 상기 제 2 방향에서 제 3 방향으로 전환됨을 디텍트하는 경우, 상기 제 1 오브젝트를 상기 제 1 방향을 기준으로 디스플레이하고, 상기 제 2 오브젝트를 상기 전환된 제 3 방향을 기준으로 디스플레이하는, 포터블 디바이스.
  4. 제 1 항에 있어서,
    상기 포터블 디바이스의 위치 정보를 디텍트하는 위치 정보 센싱 유닛;을 더 포함하는, 포터블 디바이스.
  5. 제 4 항에 있어서,
    상기 제 1 오브젝트는 상기 포터블 디바이스의 현재 위치 정보를 나타내는 오브젝트인, 포터블 디바이스.
  6. 제 4 항에 있어서,
    상기 제 2 오브젝트는 상기 포터블 디바이스의 현재 위치 정보에 기초하여 상기 포터블 디바이스 주변의 리얼 오브젝트에 대한 정보를 나타내는 오브젝트인, 포터블 디바이스.
  7. 제 4 항에 있어서,
    상기 프로세서는,
    상기 제 1 어플리케이션을 디스플레이하는 경우, 경로 정보를 나타내는 제 1 인터페이스를 더 디스플레이하는, 포터블 디바이스.
  8. 제 7 항에 있어서,
    상기 프로세서는,
    상기 포터블 디바이스의 위치 정보에 기초하여 상기 제 1 인터페이스 내에서 경로 이동 방향을 나타내는 제 1 인디케이터를 더 디스플레이하는, 포터블 디바이스.
  9. 제 8 항에 있어서,
    상기 프로세서는,
    상기 제 1 인디케이터의 상기 경로 이동 방향과 상기 제 1 방향이 동일하지 않으면 피드백을 제공하는, 포터블 디바이스.
  10. 제 9 항에 있어서,
    상기 피드백은 오디오 피드백, 비주얼 피드백 및 택타일 피드백 중 적어도 하나를 포함하는, 포터블 디바이스.
  11. 제 7 항에 있어서,
    상기 풋 웨어러블 디바이스는 상기 전면 방향에 기초하여 상기 풋 웨어러블 디바이스의 주변 지형 정보를 디텍트하고, 상기 디텍트된 주변 지형 정보를 상기 포터블 디바이스로 송신하는, 포터블 디바이스.
  12. 제 11 항에 있어서,
    상기 프로세서는,
    상기 풋 웨어러블 디바이스로부터 상기 주변 지형 정보를 수신하고,
    상기 제 1 인터페이스의 상기 경로 정보를 상기 수신된 주변 지형 정보에 기초하여 설정하는, 포터블 디바이스.
  13. 제 1 항에 있어서,
    상기 프로세서는,
    상기 풋 웨어러블 디바이스로부터 제 2 트리거링 신호를 수신하면 상기 제 1 어플리케이션을 디스플레이하는, 포터블 디바이스.
  14. 제 13 항에 있어서,
    상기 풋 웨어러블 디바이스는 유저의 컨트롤 인풋을 디텍트하면 상기 제 2 트리거링 신호를 상기 포터블 디바이스로 송신하는, 포터블 디바이스.
  15. 제 1 항에 있어서,
    상기 프로세서는,
    상기 제 1 어플리케이션이 디스플레이된 상태에서 상기 풋 웨어러블 디바이스의 착용이 해제됨을 나타내는 제 2 트리거링 신호를 수신하면 상기 제 1 오브젝트 및 상기 제 2 오브젝트를 상기 제 2 방향을 기준으로 디스플레이하는, 포터블 디바이스.
  16. 제 1 항에 있어서,
    인포메이션을 저장하는 스토리지 유닛;을 더 포함하고,
    상기 프로세서는,
    상기 풋 웨어러블 디바이스 및 상기 포터블 디바이스가 착용된 상태에서 이동되는 경우, 상기 풋 웨어러블 디바이스의 전면 방향에 기초하여 이동 경로에 대한 히스토리 정보를 저장하는, 포터블 디바이스.
  17. 웨어러블 디바이스를 포함하는 시스템은,
    전면 방향이 제 1 방향임을 디텍트하면 포터블 디바이스로 제 1 트리거링 신호를 송신하는 풋 웨어러블 디바이스; 및
    앞면 방향이 제 2 방향임을 디텍트하고, 상기 수신된 제 1 트리거링 신호 및 상기 디텍트된 앞면 방향 정보에 기초하여 제 1 오브젝트 및 제 2 오브젝트를 포함하는 제 1 어플리케이션을 디스플레이하는 상기 포터블 디바이스;를 포함하되,
    상기 포터블 디바이스에서 상기 제 1 오브젝트는 상기 제 1 방향을 기준으로 디스플레이되고, 상기 제 2 오브젝트는 상기 제 2 방향을 기준으로 디스플레이되는, 웨어러블 디바이스를 포함하는 시스템.
  18. 포터블 디바이스의 제어 방법에 있어서,
    제 1 오브젝트 및 제 2 오브젝트를 포함하는 제 1 어플리케이션을 디스플레이하는 단계;
    풋 웨어러블 디바이스로부터 상기 풋 웨어러블 디바이스의 전면 방향이 제 1 방향임을 나타내는 제 1 트리거링 신호를 수신하는 단계;
    상기 포터블 디바이스의 앞면 방향이 제 2 방향임을 디텍트하는 단계;
    상기 제 1 오브젝트를 상기 제 1 방향을 기준으로 디스플레이하는 단계; 및
    상기 제 2 오브젝트를 상기 제 2 방향을 기준으로 디스플레이하는 단계;를 포함하는 포터블 디바이스의 제어 방법.
  19. 제 18 항에 있어서,
    상기 풋 웨어러블 디바이스로부터 상기 풋 웨어러블 디바이스의 상기 전면 방향이 상기 제 1 방향에서 제 3 방향으로 전환됨을 나타내는 제 2 트리거링 신호를 수신하는 단계; 및
    상기 제 1 오브젝트를 상기 전환된 제 3 방향을 기준으로 디스플레이하고, 상기 제 2 오브젝트를 상기 제 2 방향을 기준으로 디스플레이하는 단계;를 더 포함하는 포터블 디바이스의 제어 방법.
  20. 제 18 항에 있어서,
    상기 포터블 디바이스의 상기 앞면 방향이 상기 제 2 방향에서 제 3 방향으로 전환됨을 디텍트하는 단계; 및
    상기 제 1 오브젝트를 상기 제 1 방향을 기준으로 디스플레이하고, 상기 제 2 오브젝트를 상기 전환된 제 3 방향을 기준으로 디스플레이하는 단계;를 더 포함하는 포터블 디바이스의 제어 방법.
KR1020140193823A 2014-12-30 2014-12-30 포터블 디바이스 및 그 제어 방법 KR102345344B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140193823A KR102345344B1 (ko) 2014-12-30 2014-12-30 포터블 디바이스 및 그 제어 방법
PCT/KR2015/000619 WO2016108325A1 (en) 2014-12-30 2015-01-21 Portable device and method of controlling therefor
US14/634,141 US9817473B2 (en) 2014-12-30 2015-02-27 Portable device and method of controlling therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140193823A KR102345344B1 (ko) 2014-12-30 2014-12-30 포터블 디바이스 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20160080975A true KR20160080975A (ko) 2016-07-08
KR102345344B1 KR102345344B1 (ko) 2021-12-30

Family

ID=56164079

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140193823A KR102345344B1 (ko) 2014-12-30 2014-12-30 포터블 디바이스 및 그 제어 방법

Country Status (3)

Country Link
US (1) US9817473B2 (ko)
KR (1) KR102345344B1 (ko)
WO (1) WO2016108325A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102345344B1 (ko) * 2014-12-30 2021-12-30 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
WO2017054165A1 (zh) * 2015-09-30 2017-04-06 华为技术有限公司 交互设备的选择方法和装置
US9817439B2 (en) * 2016-02-29 2017-11-14 JumpStartCSR, Inc. System, method and device for designing, manufacturing, and monitoring custom human-interfacing devices
US10353489B2 (en) * 2016-04-13 2019-07-16 Seiko Epson Corporation Foot input device and head-mounted display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6452544B1 (en) * 2001-05-24 2002-09-17 Nokia Corporation Portable map display system for presenting a 3D map image and method thereof
US20070190494A1 (en) * 2005-04-04 2007-08-16 Outland Research, Llc Multiplayer gaming using gps-enabled portable gaming devices
US8526677B1 (en) * 2012-07-16 2013-09-03 Google Inc. Stereoscopic camera with haptic feedback for object and location detection

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8280682B2 (en) 2000-12-15 2012-10-02 Tvipr, Llc Device for monitoring movement of shipped goods
US6614352B2 (en) * 2001-10-31 2003-09-02 Nokia Corporation Accurate stepmeter for location-based services
DE10232197B4 (de) 2002-07-16 2005-03-03 Peter Seitz Kennzeichnungselement und Verwendung desselben
US7299034B2 (en) 2005-06-21 2007-11-20 Lawrence Kates System and method for wearable electronics
US20070006489A1 (en) * 2005-07-11 2007-01-11 Nike, Inc. Control systems and foot-receiving device products containing such systems
US7911339B2 (en) 2005-10-18 2011-03-22 Apple Inc. Shoe wear-out sensor, body-bar sensing system, unitless activity assessment and associated methods
KR100782502B1 (ko) 2006-03-09 2007-12-05 삼성전자주식회사 개인 무선 통신망을 이용한 분실 방지 방법 및 그 장치와분실방지 기능을 갖춘 신발
KR100688225B1 (ko) * 2006-04-04 2007-03-02 삼성전자주식회사 센서 내장 신발과 휴대용 무선 단말기를 이용한 댄스 강습방법 및 시스템
FR2912813B1 (fr) * 2007-02-19 2009-07-31 Commissariat Energie Atomique Mesure magnetique de la cadence et de l'orientation du mouvement d'un objet
US9095251B2 (en) * 2011-02-16 2015-08-04 Bryce Benjamin Purks Circuits, systems, and methods for monitoring and coaching a person's sideways spacing foot placement and roll, shoe life, and other running/walking characteristics
JP4997617B1 (ja) 2011-10-26 2012-08-08 株式会社チェリー・Bpm 靴に装着して用いる通報装置、靴に装着して用いる通報装置を搭載した靴、および通報システム。
FI124665B (en) 2012-01-11 2014-11-28 Indooratlas Oy Creating a magnetic field map for indoor positioning
US8947382B2 (en) * 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
US20130231889A1 (en) * 2012-03-01 2013-09-05 Lockheed Martin Corporation Method and apparatus for an inertial navigation system
US9052199B2 (en) * 2013-03-15 2015-06-09 Google Inc. System and method for indicating user location and facing direction on a digital map
US9727296B2 (en) * 2014-06-27 2017-08-08 Lenovo (Beijing) Co., Ltd. Display switching method, information processing method and electronic device
WO2016018057A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Method and device for providing function of mobile terminal
KR102345344B1 (ko) * 2014-12-30 2021-12-30 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6452544B1 (en) * 2001-05-24 2002-09-17 Nokia Corporation Portable map display system for presenting a 3D map image and method thereof
US20070190494A1 (en) * 2005-04-04 2007-08-16 Outland Research, Llc Multiplayer gaming using gps-enabled portable gaming devices
US8526677B1 (en) * 2012-07-16 2013-09-03 Google Inc. Stereoscopic camera with haptic feedback for object and location detection

Also Published As

Publication number Publication date
KR102345344B1 (ko) 2021-12-30
US20160187965A1 (en) 2016-06-30
WO2016108325A1 (en) 2016-07-07
US9817473B2 (en) 2017-11-14

Similar Documents

Publication Publication Date Title
EP3165939B1 (en) Dynamically created and updated indoor positioning map
US9677901B2 (en) System and method for providing navigation instructions at optimal times
KR102216050B1 (ko) 운동경로 추천 시스템 및 방법
CN105388994B (zh) 可穿戴手表及其操作方法
CN105814609B (zh) 用于用户识别、跟踪与设备关联的融合设备与图像运动
US9629774B2 (en) Smart necklace with stereo vision and onboard processing
US20140225814A1 (en) Method and system for representing and interacting with geo-located markers
CA3044609C (en) Object-tracking system
CN108700942A (zh) 在虚拟/增强现实系统中改变对象位置的技术
KR20150140021A (ko) 위치 정보를 제공하기 위한 방법 및 장치
KR20140099831A (ko) 웨어러블 디바이스 매니저
KR102345344B1 (ko) 포터블 디바이스 및 그 제어 방법
US20140320121A1 (en) Measurements of earth's magnetic field indoors
Kuriakose et al. Smartphone navigation support for blind and visually impaired people-a comprehensive analysis of potentials and opportunities
CN109564644B (zh) 工业电子徽章
US20230141870A1 (en) Information processing apparatus, information processing method, and program
US10192332B2 (en) Display control method and information processing apparatus
KR101523147B1 (ko) 실내 측위 장치 및 방법
KR102578119B1 (ko) 모바일 디바이스와 연동하는 스마트 안경 작동 방법
KR20180026919A (ko) 증강현실 또는 가상현실 시스템
EP3695622B1 (en) Adaptation of presentation speed
KR20170098638A (ko) 인솔 및 이동 단말기
Monteserin Multi sensor system for pedestrian tracking and activity recognition in indoor environments
KR101485710B1 (ko) 스마트 시계 제어 장치, 방법 및 기록매체
KR101854112B1 (ko) 이동 단말 및 그의 도서 추적 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant