KR102334084B1 - 전자 장치 및 그의 제어 방법 - Google Patents

전자 장치 및 그의 제어 방법 Download PDF

Info

Publication number
KR102334084B1
KR102334084B1 KR1020150085031A KR20150085031A KR102334084B1 KR 102334084 B1 KR102334084 B1 KR 102334084B1 KR 1020150085031 A KR1020150085031 A KR 1020150085031A KR 20150085031 A KR20150085031 A KR 20150085031A KR 102334084 B1 KR102334084 B1 KR 102334084B1
Authority
KR
South Korea
Prior art keywords
strap
electronic device
user
unit
user interaction
Prior art date
Application number
KR1020150085031A
Other languages
English (en)
Other versions
KR20160148266A (ko
Inventor
정연희
김지현
이용연
임은영
곽지연
박해윤
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150085031A priority Critical patent/KR102334084B1/ko
Priority to PCT/KR2016/006387 priority patent/WO2016204526A1/en
Priority to CN201680035522.2A priority patent/CN107820588A/zh
Priority to EP16811939.4A priority patent/EP3311252B1/en
Priority to US15/184,541 priority patent/US10089007B2/en
Publication of KR20160148266A publication Critical patent/KR20160148266A/ko
Application granted granted Critical
Publication of KR102334084B1 publication Critical patent/KR102334084B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/04Supports for telephone transmitters or receivers
    • H04M1/05Supports for telephone transmitters or receivers specially adapted for use on head, throat or breast

Abstract

전자 장치가 개시된다. 본 전자 장치는, 스트랩, 스트랩의 구부러진 위치 및 각도를 측정하는 센싱부, 스트랩과 일 측이 연결된 디스플레이부, 및, 측정된 위치 및 각도에 대응되는 UI 요소가 디스플레이부에 디스플레이되도록 하는 제어부를 포함한다.

Description

전자 장치 및 그의 제어 방법{ELECTRONIC APPARATUS AND METHOD FOR CONTROLLING THEREOF}
본 발명은 전자 장치 및 그의 제어 방법에 관한 것으로, 더욱 상세하게는 스트랩의 다양한 배치 형태를 사용자 인터랙션으로 이용할 수 있는 전자 장치 및 그의 제어 방법에 관한 것이다.
최근에는 컴퓨터 기술이 발달함에 따라, 의류 등에 구비되어 사용자가 착용할 수 있는 웨어러블(wearable) 컴퓨터가 도입되고 있다. 웨어러블 컴퓨터는, 의류에 PC에 기능을 담은 컴퓨터로, 군사 훈련용으로 개발되기 시작하여, 점점 일상생활은 물론, 패션/이동통신기기 및 디지털 제품에까지 그 영역을 넓이고 있다.
이와 같이 웨어러블 컴퓨터는 사용자의 몸에 착용 가능한 형태로 구현되기 때문에, 소형으로 구현되는 것이 일반적이고, 그에 따라 작은 디스플레이만이 배치되었다.
그러나 작은 크기가 작기 때문에 웨어러블 장치를 조작하는데 필요한 버튼의 개수나 화면의 크기는 제한되기 때문에, 웨어러블 장치를 손쉽게 조작하기에 어려운 점이 있었다.
따라서, 본 발명의 목적은 스트랩의 다양한 배치 형태를 사용자 인터랙션으로 이용할 수 있는 전자 장치 및 그의 제어 방법을 제공하는 데 있다.
상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치는, 스트랩, 상기 스트랩의 구부러진 위치 및 각도를 측정하는 센싱부, 상기 스트랩과 일 측이 연결된 디스플레이부, 및, 상기 측정된 위치 및 각도에 대응되는 UI 요소가 상기 디스플레이부에 디스플레이되도록 하는 제어부를 포함한다.
이 경우, 상기 제어부는, 상기 측정된 위치 및 각도에 대응되는 사용자 인터랙션을 감지하고, 상기 감지된 사용자 인터랙션에 대응되는 UI 요소가 상기 디스플레이부에 디스플레이되도록 할 수 있다.
한편, 상기 스트랩은, 상기 스트랩의 형상을 유지하도록 하는 가요선(flexible wire)을 포함하고, 상기 센싱부는, 상기 스트랩 내부에 배치되는 플렉스 센서(flex sensor)를 포함할 수 있다.
한편, 상기 센싱부는, 상기 스트랩과 상기 디스플레이부 간의 상대적인 위치를 감지하는 위치 센서를 더 포함하고, 상기 제어부는, 상기 측정된 위치 및 각도와 상기 감지된 상대적인 위치에 기초하여 사용자 인터랙션을 감지할 수 있다.
이 경우, 상기 제어부는, 상기 감지된 상대적인 위치에 기초하여 상기 전자 장치의 착용 형태를 판별할 수 있다.
한편, 상기 제어부는, 상기 감지된 상대적인 위치에 기초하여 상기 전자 장치의 동작 상태를 구분할 수 있다.
이 경우, 상기 제어부는, 상기 감지된 상대적이 위치에 기초하여 동일 방향에 배치된 스트랩 개수를 판별하고, 판별된 스트랩 개수에 기초하여 상기 전자 장치의 동작 상태를 구분할 수 있다.
한편, 상기 제어부는, 상기 구분된 동작 상태 및 상기 감지된 사용자 인터랙션에 대응되는 UI 요소가 상기 디스플레이부에 디스플레이되도록 할 수 있다.
한편, 상기 위치 센서는, 상기 스트랩에 배치되는 복수의 자석 및 상기 디스플레이부에 배치되는 복수의 홀 센서로 구성될 수 있다.
또는, 상기 위치 센서는, 상기 스트랩에 배치되는 복수의 홀 센서 및 상기 디스플레이부에 배치되는 복수의 자석으로 구성될 수도 있다.
한편, 본 전자 장치는, 상기 디스플레이부 주변에 배치되며, 사용자 터치를 감지하는 터치부를 더 포함하고, 상기 제어부는, 사용자 터치가 감지된 경우에만 상기 측정된 위치 및 각도에 대응되는 사용자 인터랙션을 감지할 수도 있다.
한편, 본 발명의 다른 실시 예에 따른 전자 장치는, 스트랩, 상기 스트랩의 구부러진 위치 및 각도를 측정하는 센싱부, 상기 측정된 위치 및 각도에 대응되는 사용자 인터랙션을 감지하는 제어부, 및, 상기 감지된 사용자 인터랙션에 대응되는 제어 명령을 다른 전자 장치에 전송하는 통신 인터페이스부를 포함한다.
이 경우, 상기 스트랩은, 상기 스트랩의 형상을 유지하도록 하는 가요선(flexible wire)을 포함하고, 상기 센싱부는, 상기 스트랩 내부에 배치되는 플렉스 센서(flex sensor)를 포함할 수 있다.
한편, 상기 센싱부는, 상기 스트랩의 양 끝단의 상대적인 위치를 감지하는 위치 센서를 더 포함하고, 상기 제어부는, 상기 감지된 상대적인 위치에 기초하여 사용자 인터랙션을 감지할 수 있다.
한편, 상기 센싱부는, 방위 센서 및 가속도 센서 중 적어도 하나를 포함하여, 상기 전자 장치의 방향 정보를 감지하고, 상기 제어부는, 상기 감지된 전자 장치의 방향 정보에 기초하여 사용자 인터랙션을 감지할 수도 있다.
한편, 본 전자 장치는, 상기 스트랩에 부착되어, 상기 전자 장치의 동작 상태를 표시하는 디스플레이부를 더 포함할 수 있다.
한편, 본 전자 장치는, 상기 스트랩에 부착되어, 음파를 녹취하여 음성 데이터를 생성하는 마이크를 더 포함하고, 상기 통신 인터페이스부는, 상기 생성된 음성 데이터를 상기 다른 전자 장치로 전송할 수 있다.
한편, 상기 통신 인터페이스부는, 상기 다른 전자 장치로부터 음성 데이터를 수신하고, 상기 전자 장치는, 상기 스트랩에 부착되어, 상기 수신된 음성 데이터를 출력하는 스피커를 더 포함할 수 있다.
한편, 본 발명의 일 실시 예에 따른 스트랩을 포함하는 전자 장치의 제어 방법은, 상기 스트랩의 구부러진 위치 및 각도를 측정하는 단계, 및 상기 측정된 위치 및 각도에 대응한 UI 요소를 디스플레이하는 단계를 포함한다.
이 경우, 사용자 터치 제스처를 감지하는 단계를 더 포함하고, 상기 디스플레이하는 단계는, 사용자 터치 제스처가 감지된 경우에만 상기 측정된 위치 및 각도에 대응되는 UI 요소를 표시할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 전자 장치의 형태를 설명하기 위한 도면,
도 2는 도 1의 전자 장치의 구체적인 구성을 도시한 도면,
도 3 내지 도 6은 스트랩을 이용한 다양한 인터랙션을 설명하기 위한 도면,
도 7 내지 도 12는 스트랩과 메인 바디부 간의 배치 형태에 따른 다양한 인터랙션을 설명하기 위한 도면,
도 13은 스트랩과 메인 바디부 간의 배치 형태에 따라 착용 상태를 구분하는 방법을 설명하기 위한 도면,
도 14 및 도 15는 사용자의 의도적 또는 비의도적 인터랙션을 구분하는 방법을 설명하기 위한 도면,
도 16 및 도 17은 디스플레이부의 배치 위치에 따른 다양한 동작 상태의 예를 도시한 도면,
도 18 내지 도 20은 사용자 인터랙션에 대응하여 표시 가능한 사용자 인터페이스 창의 예를 도시한 도면,
도 21은 제2 실시 예에 따른 전자 장치의 형태를 설명하기 위한 도면,
도 22는 도 21의 전자 장치의 구체적인 구성을 도시한 도면,
도 23은 도 21의 스트랩을 구체적으로 설명하기 위한 도면,
도 24 내지 38은 제2 실시 예에 따른 전자 장치를 이용한 다양한 인터랙션을 설명하기 위한 도면,
도 39 및 도 40은 전자 장치의 다른 사용 태양을 설명하기 위한 도면, 그리고,
도 41은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시 예에 따른 전자 장치의 형태를 설명하기 위한 도면이다.
도 1을 참조하면, 본 실시 예에 따른 전자 장치(100)는 디스플레이부(120)가 배치되는 메인 바디부(110) 및 메인 바디부(110)와 일 측이 연결된 스트랩(130)으로 구성된다. 이와 같은 전자 장치(100)는 도시된 바와 같이 회중 시계(pocket watch) 형태의 스마트 와치(smart watch)일 수 있다. 여기서, 스마트 와치는 시계의 일반적인 기능인 시간 정보를 표시하는 것뿐만 아니라, 다른 장치와의 연동을 통하여 다양한 정보의 표시가 가능한 시계 형태의 전자 장치이다.
이에 따라, 본 실시 예에 따른 전자 장치(100)는 각종 정보를 표시하는 디스플레이부가 배치되는 메인 바디부(110)와 메인 바디부(110)를 사용자에 고정해 주는 스트랩(130)으로 구성된다.
메인 바디부(110)에는 스트랩(130)을 제외한 전자 장치(100) 내의 각종 구성들이 배치된다. 메인 바디부(110)에 배치되는 구체적인 구성에 대해서는 도 2를 참조하여 후술한다.
디스플레이부(120)는 전자 장치(100) 내의 각종 정보를 사용자에게 제공할 수 있다. 그리고 디스플레이부(120)는 후술한 스트랩(130)에서 생성되는 벤딩 정보에 대응되는 UI 요소를 표시할 수 있다. 여기서 UI 정보는 기설정된 정보를 나타내는 텍스트, 특정 정보에 대응되는 아이콘, 위젯 정보, 배경 화면 등일 수 있다. 그리고, 벤딩 정보는 스트랩(130)의 구부러진 위치 및 각도 등의 정보일 수 있다.
한편, 메인 바디부(110)는 사용자의 터치를 감지할 수 있다. 구체적으로, 메인 바디부(110)는 사용자의 조작 및 터치를 감지하는 터치 정보를 생성할 수 있다. 이에 따라, 기구적으로, 디스플레이부(120) 외부의 구성을 메인 바디부(110)로 지칭하였지만, 전기적으로 터치부(115)로 지칭할 수 있다. 즉, 메인 바디부(110)가 금속의 물질로 구성되고, 사용자의 정전기 등을 감지할 수 있는 센서가 메인 바디부(110)에 부착되어 메인 바디부(110)는 터치부(115)로서 기능할 수 있다.
한편, 이상에서는 디스플레이부(120) 외부의 메인 바디부(110)에 대한 사용자의 터치만을 감지하는 것으로 설명하였지만, 구현시에 메인 바디부(110)는 디스플레이부(120) 외부의 메인 바디부(110)에서의 사용자 터치뿐만 아니라, 디스플레이부(120)에서의 터치에 대해서도 터치 정보를 생성할 수 있다.
이러한 터치 정보는 스트랩(130)에서 생성되는 벤딩 정보가 사용자의 의도에 의한 것인지 아닌지를 구분하는데 이용할 수 있다. 예를 들어, 사용자가 전자 장치(100)에 특정 명령을 입력하기 위하여 메인 바디부(110)를 잡아 스트랩의 형태를 조작하는 경우에는, 터치 정보와 벤딩 정보가 함께 생성될 것이다.
그러나 사용자의 움직임(예를 들어, 걷기 동작에 따른 손목의 이동 등)에 의하여 스트랩의 형태가 변형된 경우에는 터치 정보 없이 벤딩 정보만이 생성될 것인바, 이러한 경우에는 사용자의 의도가 없는 것으로 판단할 수 있다.
스트랩(130)은 일 측이 메인 바디부(110)에 연결되며, 유연한 재질의 형태 변경이 가능하며 스트랩의 형상을 유지하도록 하는 가요선(flexible wire)을 포함하여, 메인 바디부(110)가 사용자의 특정 신체(예를 들어, 손목 또는 목 등)에 고정되도록 할 수 있다. 한편, 스트랩(130)은 부드러운 접촉감을 확보하기 위하여 경도가 낮은 고무(rubber, silicone, urethan)재질을 외부에 사용할 수 있다. 그리고 스트랩(130)은 충분한 변형률과 복원력을 확보하기 위하여 고탄성소재(Ultem, PEI polyeherimyde, 고탄성강, TR 90, 폴리 올레핀 계열 SRP) 등을 포함할 수 있다.
본 실시 예에 따른 스트랩(130)은 다양한 길이를 가질 수 있는데, 최소한으로, 스트랩(130)은 사용자의 손목을 감쌀 정도의 길이를 가지며, 최대한으로는 통상적인 목걸이 정도의 길이를 가질 수 있다. 예를 들어, 스트랩(130)이 통상적인 목걸이 정도의 길이를 갖는 경우, 사용자는 전자 장치(100)를 목걸이와 같이 목에 걸어 이용할 수도 있다. 또한, 손목에 스트랩을 복수 회 감아 손목시계와 같은 형태로도 이용할 수도 있다. 손목 시계 형태로 이용하는 실시 예에 대해서는 도 3 및 4를 참조하여 후술하고, 목걸이 형태로 이용하는 실시 예에 대해서는 도 5 및 도 5를 참조하여 후술한다.
여기서 가요선(flexible wire)은 자유로이 굽히거나 펼 수 있는 선으로, 스트랩(130)의 외부가 가요선으로 구성될 수 있으며, 스트랩(130)의 내부에 가요선이 포함될 수도 있다. 또한, 본 실시 예에 따른 스트랩(130)은 사용자의 조작에 따라 다양한 형태 변화가 가능하도록 탄성(또는 스트레처블(stretchable)) 성질을 가질 수 있다.
그리고 스트랩(130) 내부에는 스트랩의 구부러진 위치 및 각도를 감지할 수 있는 플렉스 센서(또는 벤딩 센서)가 배치된다. 따라서, 스트랩(130)은 사용자의 조작에 따라 변환되는 형태 변화를 감지할 수 있다. 그리고 스트랩(130) 내부의 구부러진 위치 및 각도는 벤딩 정보로서 메인 바디부(110)로 전달될 수 있다. 이에 따라, 스트랩(130)과 메인 바디부(110)는 물리적으로뿐만 아니라 전기적으로 연결될 수 있다.
여기서, 플렉스 센서는 구부러질 수 있는 기판 상에 구부러진 정도에 따라 다른 저항값을 가지는 복수의 벤딩 저항 소자가 복수개 배치된 센서로, 각 복수의 벤딩 저항 소자로부터 전달되는 저항값(또는 전압 값)에 기초하여 벤딩이 발생한 영역 및 해당 영역에서의 휘어진 정도를 감지할 수 있다.
또한, 스트랩(130) 내부의 특정 위치에는 메인 바디부(110)와의 방향을 감지할 수 있는 홀 센서 또는 자석이 배치될 수 있다. 구체적으로, 스트랩(130) 내부의 특정 위치에 홀 센서가 배치되고, 메인 바디부(110)의 기설정된 영역에 자석이 배치될 수 있다. 반대로, 스트랩(130) 내부의 특정 위치에 자석이 배치되고, 메인 바디부(110)의 기설정된 영역에 홀 센서가 배치될 수도 있다.
또한, 스트랩(130) 내부에는 스트랩의 이동 방향을 감지할 수 있는 가속도 센서, 스트랩에 대한 사용자 그랩을 감지할 수 있는 압력 센서 등이 추가로 배치될 수도 있다.
여기서 홀 센서는 전류가 흐르는 도체에 자기장을 걸어 주면 전류와 자기장에 수직 방향으로 전압이 발생하는 홀 효과를 이용하여 자기장의 방향과 크기를 알아내는 센서이다. 자석은 자성을 지니는 구성으로, 구현시에는 영구 자석뿐만 아니라 전자적이 이용될 수 있다.
이상에서와 같이 본 실시 예에 따른 전자 장치(100)는 벤딩 상태를 감지할 수 있는 스트랩을 이용하여 사용자의 다양한 인터랙션(interaction)을 입력받을 수 있다. 또한, 입력된 다양한 인터랙션에 대응되는 다양한 기능을 제공할 수 있다.
한편, 도시된 예에서는 시계 형태의 웨어러블 전자 장치를 도시하였지만, 구현시에 전자 장치(100)는 사용자가 움직일 수 있거나, 움직이면서 작동시킬 수 있는 것이라면, 노트북, 태블릿 컴퓨터, MP3 플레이어, PMP(Portable Multimedia Player), 휴대폰 등일 수 있다.
한편, 이상에서는 메인 바디부(110)에는 디스플레이부(120)만이 배치되는 것으로 설명하였지만, 메인 바디부(110)에는 특정 명령을 입력받기 위한 버튼이 추가적으로 배치될 수 있으며, 촬상을 위한 촬상 소자, 사용자의 음성을 녹취하기 위한 마이크, 기설정된 음향을 출력하기 위한 스피커 등이 추가적으로 배치될 수 있다.
또한, 이상에서는 스트랩(130)이 메인 바디부(110)의 일 측에만 연결되는 것으로 도시하였지만, 구현시에는 스트랩(130)의 양단이 메인 바디부(110)에 연결될 수도 있다. 또한, 스트랩(130)과 메인 바디부(110)는 체결 도구를 통하여 선택적으로 연결 또는 분리될 수 있다.
도 2는 도 1의 전자 장치의 구체적인 구성을 도시한 도면이다.
도 2를 참조하면, 전자 장치(100)는 터치부(115), 디스플레이부(120), 센싱부(140), 통신부(150), 저장부(160) 및 제어부(170)로 구성된다. 여기서 전자 장치(100)는 노트북, 태블릿 컴퓨터, MP3 플레이어, PMP (Portable Multimedia Player), 휴대폰, 전자 시계 등일 수 있다.
터치부(115)는 사용자의 터치를 감지할 수 있다. 구체적으로, 터치부(115)는 메인 바디부(110)에 대한 사용자의 터치를 감지할 수 있다. 이때, 터치부(115)는 디스플레이부(120)를 감싸는 메인 바디부(110)에 대한 사용자 터치뿐만 아니라, 디스플레이부(120)에 대한 사용자의 터치도 감지할 수도 있다.
즉, 터치부(115)는 메인 바디부(110)의 사용자 터치를 감지하는 제1 터치 센서와 디스플레이부(120) 상의 사용자 터치를 감지하는 제2 터치 센서로 구성될 수 있다.
한편, 구현시에 제2 터치 센서와 디스플레이부(120)는 하나의 물리적인 구성이 터치 스크린으로 구성될 수 있다. 한편, 전자 장치(100)는 손목에 착용할 수 있는바, 디스플레이부와 반대되는 방향에는 항시 손목이 접촉될 수 있다.
따라서, 제1 터치 센서는 메인 바디부(110)의 일부 측면(하부 면과 일정 거리 이격된 상부 측면)과 디스플레이부가 배치되는 상부 면의 사용자 터치만을 감지하는 것이 바람직하다.
디스플레이부(120)는 전자 장치(100)에서 지원하는 각종 정보를 표시할 수 있다. 구체적으로, 디스플레이부(120)는 후술할 제어부(170)에서 인식된 사용자 인터랙션에 대응되는 UI 요소를 표시할 수 있다.
구현시에 디스플레이부(120)는 입력 및 출력 기능이 하나의 장치에서 동작하는 터치 스크린으로 구현될 수 있다. 디스플레이부(120)에서 표시될 수 있는 다양한 사용자 인터페이스 창에 대해서는 도 16 내지 도 20을 참조하여 후술한다.
센싱부(140)는 스트랩(130)의 플렉스 센서로부터의 전달되는 신호를 기초로 스트랩(130)의 구부러진 위치 및 각도를 측정할 수 있다. 구체적으로, 센싱부(140)는 플렉스 센서 내의 복수의 벤딩 저항 소자 각각의 전압값을 측정하여, 벤딩이 발생한 영역 및 그 영역에서의 벤딩 정도(또는 벤딩 각도)를 감지할 수 있다.
그리고 센싱부(140)는 메인 바디부(110)와 스트랩(130) 간의 상대적인 위치를 감지할 수 있다. 구체적으로, 스트랩(130) 내의 기설정된 위치에 홀 센서가 배치되면, 메인 바디부(110)의 기설정된 영역에는 자석이 배치될 수 있다. 이 경우, 센싱부(140)는 스트랩(130) 내의 홀 센서로부터 전달되는 신호에 기초하여 메인 바디부(110)(또는 디스플레이부(120))와 스트랩(130) 간의 배치 형태를 감지할 수 있다. 이와 같은 동작에 대해서는 도 7 내지 도 13을 참조하여 후술한다. 한편, 구현시에는 스트랩(130) 내의 기설정된 위치에 자석이 배치되고, 메인 바디부(110)의 기설정된 영역에 홀 센서가 배치될 수도 있다.
한편, 이상에서는 센싱부(140)가 메인 바디부(110)와 스트랩(130) 간의 상대적인 위치를 감지한다고 표현하였지만, 메인 바디부(110)에는 디스플레이부가 배치된다. 따라서, 센싱부(140)는 디스플레이부(120)와 스트랩(130) 간의 상대적인 위치를 감지하는 것으로 표현할 수도 있다.
그리고 센싱부(140)는 전자 장치(100)의 방향 및 이동 정보 중 적어도 하나를 감지할 수 있다. 구체적으로, 센싱부(140)는 전자 장치(100)의 방위를 감지할 수 있는 방위 센서 및 전자 장치(100)의 이동 방향과 가속도를 감지할 수 있는 가속도 센서 등을 포함하며, 방위 센서 및 가속도 센서를 이용하여 전자 장치(100)의 이동 방향 및 속도 등을 감지할 수 있다.
통신부(150)는 다른 단말장치(또는 호스트 장치) 또는 인터넷 망과 연결하기 위해 형성되며, 무선 또는 유선 방식으로 접속될 수 있다. 구체적으로, 통신부(150)는 외부 장치(예를 들어, 스마트 폰)와 블루투스, RF 통신, WiFi, NFC 등과 같은 무선 통신 방식을 통하여 데이터를 송수신할 수 있다. 이때, 송수신되는 데이터는 날씨 정보와 같은 컨텐츠 정보뿐만 아니라, 스마트폰으로부터 전달되는 전화 스트리밍, 음악 스트리밍 데이터일 수도 있다.
그리고 통신부(150)는 외부 장치(예를 들어, PC)와 유선 통신 방식으로 연결될 수 있으며, 연결된 유선 통신 방식으로 각종 데이터를 입출력할 수 있다. 한편, 외부 장치와 유선으로 연결되기 위한 포트는 전자 장치(100) 내의 배터리를 충전하는데 이용될 수 있다.
저장부(160)는 전자 장치(100)의 구동을 위한 프로그램을 저장한다. 구체적으로, 저장부(160)는 전자 장치(100)의 구동시 필요한 각종 명령어의 집합인 프로그램을 저장할 수 있다. 여기서 프로그램은 특정된 서비스를 제공하기 위한 응용 프로그램뿐만 아니라, 응용 프로그램을 구동시키기 위한 운영체제를 포함한다.
그리고 저장부(160)는 전자 장치(100) 내의 저장 매체 및 외부 저장 매체, 예를 들어, USB 메모리를 포함한 Removable Disk, 네트워크를 통한 웹서버(Web server) 등으로 구현될 수 있다.
제어부(170)는 전자 장치(100) 내의 각 구성에 대한 제어를 수행한다. 구체적으로, 제어부(170)는 전자 장치(100)의 동작 상태(또는 동작 모드)를 결정한다. 보다 구체적으로, 기설정된 시간 동안 사용자의 입력이 없거나, 기설정된 시간 동안 작업을 수행하지 않는 경우, 제어부(170)는 전자 장치(100)의 동작 상태를 절전 상태(또는 절전 모드)로 결정할 수 있다.
한편, 절전 상태 시에 사용자의 터치 및 새로운 벤딩 정보가 입력되거나, 외부 장치(미도시)로부터 데이터의 수신 또는 웨이크업 명령이 통신부(150)를 통하여 수신되면, 제어부(170)는 전자 장치(100)의 동작 상태를 노멀 상태(또는 노말 모드, 액티브 모드)로 결정할 수 있다.
또한, 제어부(170)는 디스플레이부(120)와 스트랩(130) 간의 배치 형태에 따라 전자 장치(100)의 운용 상태를 결정할 수 있다. 여기서, 운용 상태는 전자 장치(100)가 지원하는 다양한 기능에 대응되는 것으로, 음악 재생 상태, 촬영 상태, 음성 통화 상태, 업무 상태, 워크 아웃 상태, 운동 상태, 페스티벌 상태 등으로 구성할 수 있다.
여기서, 음악 재생 상태는 전자 장치(100)에서 음악을 재생하는 상태이고, 촬영 상태는 전자 장치(100)에 내장된 촬상 소자를 이용하여 촬상을 수행하는 상태이고, 음성 통화 상태는 전자 장치(100) 내의 스피커 및 마이크를 이용하여 통화를 하는 상태이고, 업무 상태는 통상적인 시간 정보 등을 제공하는 상태이고, 워크 아웃 상태는 외부 활동과 관련된 정보를 제공하는 상태이고, 운동 상태는 사용자가 운동을 수행하는 중인 경우에 운동 상태에 대한 정보를 제공하는 상태이다. 그리고 페스티벌 상태는 특정의 이벤트 상황에서 기설정된 그래픽 이미지를 표시하는 상태이다.
여기서 배치 형태는 스트랩의 기설정된 영역이 디스플레이부(120)를 기준으로 좌측에 배치되는지 우측에 배치되는지 등과 같은 배치 방향 정보와, 해당 배치 방향으로 감지되는 스트랩의 개수 등의 정보를 포함할 수 있다. 디스플레이부와 스트랩의 다양한 배치 형태에 대해서는 도 7 내지 도 13을 참조하여 후술한다.
이와 같은 전자 장치(100)의 운영 상태는 디스플레이부와 스트랩 간의 배치 형태뿐만 아니라, 전자 장치(100)에 전자 장치(100)의 착용 상태, 기 실행중인 애플리케이션의 종류 및 기등록된 사용자 스케줄 정보 등을 고려하여 결정할 수 있다.
그리고 제어부(170)는 전자 장치(100)의 착용상태를 판별할 수 있다. 구체적으로, 제어부(170)는 스트랩(130)과 메인 바디부(110)의 배치 상태를 기초로 전자 장치(100)가 목걸이 형태로 사용자에게 착용되었는지, 손목 시계 형태로 사용자에게 착용되었는지를 판별할 수 있다. 이와 같은 판별 결과에 따라 제어부(170)는 UI 요소의 표시 방향을 결정하고, 결정된 표시 방향으로 UI 요소를 표시할 수 있다.
그리고 제어부(170)는 결정된 동작 상태에 대응되게 전자 장치(100)의 각 구성을 제어할 수 있다. 구체적으로, 전자 장치(100)의 동작 상태가 절전 상태로 변경되면, 제어부(170)는 디스플레이부(120)가 기설정된 정보를 표시하지 않도록 제어할 수 있다.
또한, 제어부(170)는 노말 상태 시에는 기결정된 운영 상태에 대응되는 UI 요소가 표시되도록 디스플레이부(120)를 제어할 수 있다. 또한, 스트랩의 벤딩 상태가 변화되는 경우, 제어부(170)는 스트랩의 변화 상태에 대응되는 UI 요소가 디스플레이부(120)에 표시할 수 있다. 구체적으로, 제어부(170)는 측정된 위치 및 각도에 대응되는 UI 요소가 디스플레이부(120)에 디스플레이되도록 할 수 있다.
이를 위하여, 제어부(170)는 우선적으로 사용자의 인터랙션을 감지한다. 보다 구체적으로, 제어부(170)는 스트랩의 형상 변화에 따른 벤딩 정보 및 스트랩과 디스플레이 간의 상대적인 위치 정보 중 적어도 하나를 이용하여 사용자 인터랙션을 감지할 있다. 스트랩을 이용한 사용자 인터랙션은 다양한 형태가 있을 수 있는데 이에 대해서는 도 3 내지 도 6을 참조하여 후술한다.
그리고 제어부(170)는 상술한 바와 같은 벤딩 정보 및 상대적인 위치 정보를 이용하여 사용자 인터랙션을 감지할 때, 터치부(115)를 통하여 사용자의 터치가 감지되었는지를 확인할 수 있다. 이를 통하여 사용자의 터치가 감지된 경우에는 상술한 바와 같은 스트랩의 변화가 사용자가 인터랙션을 위한 조작인 것으로 판단할 수 있다.
반대로, 사용자의 터치가 감지되지 않은 경우에는 사용자가 의도적으로 인터랙션을 위하여 조작한 것이 아니라, 사용자의 자세 변화나 이동에 따라 스트랩의 형태가 변화된 것으로 파악하여, 제어부(170)는 상술한 바와 같은 인터랙션 감지를 수행하지 않을 수 있다. 즉, 제어부(170)는 평상시에는 벤딩 정보 등을 이용하지 않다가, 사용자 터치가 감지되는 경우에만 벤딩 정보를 이용하여 사용자 인터랙션을 감지할 수 있다.
또한, 구현시에는 항시 사용자의 인터랙션을 감지하다가, 사용자 터치가 감지되는 경우에만 감지된 인터랙션에 대응되는 액션을 수행하는 형태로도 구현될 수 있다.
그리고 제어부(170)는 감지된 사용자 인터랙션에 대응되는 UI 요소가 디스플레이부(120)에 디스플레이되도록 할 수 있다. 예를 들어, 사용자의 인터랙션이 절전 상태의 해지인 경우에 제어부(170)는 디스플레이부(120)가 현재 운영 상태에 대응되는 UI 요소(예를 들어, 시간 정보 등)를 표시하도록 할 수 있다.
이상과 같이 본 실시 예에 따른 전자 장치(100)는 스트랩의 벤딩 상태 등을 이용하여 사용자 인터랙션을 입력받을 수 있는바, 사용자는 다양한 기능 명령을 손쉽게 입력할 수 있다.
도 3 내지 도 6은 스트랩을 이용한 다양한 인터랙션을 설명하기 위한 도면이다.
도 3은 제1 사용자 인터랙션을 설명하기 위한 도면이다. 구체적으로, 제1 사용자 인터랙션은 사용자가 메인 바디부(110)(또는 디스플레이부(120))를 우측으로 밀거나 당기는 인터랙션이다.
도 3a와 같이 사용자가 메인 바디부(110)를 우측으로 민 경우, 메인 바디부(110)에 연결된 스트랩은 도 3b와 같이 벤딩 상태가 변화하게 된다. 예를 들어, 메인 바디부(110)가 우측으로 밀리게 되면, a 영역, c 영역의 각도는 줄어들게 되고, b 영역, d 영역의 각도는 늘어나게 된다.
따라서 전자 장치(100)는 플렉스 센서로부터 4개의 영역의 각도 정보를 읽고, a 영역 및 c 영역의 각도는 줄어들었으나, b 영역과 d 영역의 각도가 늘었으면, 사용자가 제1 인터랙션을 한 것으로 판단할 수 있다.
한편, 제1 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으며, 전자 장치(100)의 동작 상태 및 운용 상태에 따라 서로 다른 기능으로 동작할 수 있다.
예를 들어, 전자 장치(100)가 절전 상태인 경우, 제1 사용자 인터랙션은 노말 상태로 전환을 알리는 명령으로 이용될 수 있다. 또한, 전자 장치(100)가 노말 상태인 경우, 제1 사용자 인터랙션은 전자 장치(100)의 운용 상태를 다른 운용 상태로 전환하는 명령, 다음 음악 재생 또는 우측 이동 명령 등으로 이용될 수 있다.
도 4는 제2 사용자 인터랙션을 설명하기 위한 도면이다. 구체적으로, 제2 사용자 인터랙션은 사용자가 메인 바디부(110)(또는 디스플레이부(120))를 좌측으로 밀거나 당기는 인터랙션이다.
도 4a와 같이 사용자가 메인 바디부(110)를 좌측으로 민 경우, 메인 바디부(110)에 연결된 스트랩은 도 4b와 같이 벤딩 상태가 변화하게 된다. 예를 들어, 메인 바디부(110)가 좌측으로 밀리게 되면, b 영역, d 영역의 각도는 줄어들게 되고, a 영역, c 영역의 각도는 늘어나게 된다.
따라서 전자 장치(100)는 플렉스 센서로부터 4개의 영역의 각도 정보를 읽고, b 영역 및 d 영역의 각도는 줄어들었으나, a 영역과 c 영역의 각도가 늘었으면, 사용자가 제2 인터랙션을 한 것으로 판단할 수 있다.
한편, 제2 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으며, 전자 장치(100)의 동작 상태 및 운용 상태에 따라 서로 다른 기능으로 동작할 수 있다.
예를 들어, 전자 장치(100)가 노말 상태인 경우, 제2 사용자 인터랙션은 절전 상태로 전환을 알리는 명령으로 이용될 수 있다. 또한, 전자 장치(100)가 노말 상태인 경우, 제2 사용자 인터랙션은 전자 장치(100)의 운용 상태를 다른 운용 상태로 전환하는 명령, 이전 음악 전환 또는 좌측 이동 명령 등으로 이용될 수 있다.
한편, 도 3 및 도 4에 도시된 바와 같이 사용자가 인터랙션을 위하여, 메인 바디부(110)를 좌측 또는 우측으로 밀거나 당기는 경우, 해당 인터랙션 이후에 스트랩(130)은 탄성에 위하여 사용자의 인터랙션과 반대되는 방향으로 이동하는 동작이 수행된다.
그러나 본 실시 예에서는 앞서 상술한 바와 같이 사용자가 메인 바디부(110) 또는 디스플레이부(120)를 터치한 상태에서의 스트랩의 변화만을 인터랙션으로 이용하는바, 사용자가 메인 바디부(110)를 만지지 않은 상태에서의 스트랩의 탄성에 의한 복귀 동작은 사용자 인터랙션으로 이용되지 않는다.
한편, 이상에서는 전자 장치(100)가 사용자의 손목에 감겨있는 상태에서 동작하는 것으로 설명하였지만, 구현시에 전자 장치(100)는 목걸이 형태로 구현될 수 있으며, 그 경우의 인터랙션에 대해서는 도 5 내지 도 6을 참조하여 후술한다.
도 5는 제3 사용자 인터랙션을 설명하기 위한 도면이다. 구체적으로, 제3 사용자 인터랙션은 사용자가 메인 바디부(110)(또는 디스플레이부(120))를 아래로 밀거나 당기는 인터랙션이다.
도 5a와 같이 사용자가 전자 장치(100)를 목걸이와 같이 착용한 상태에서, 메인 바디부(110)를 아래로 당긴 경우, 메인 바디부(110)에 연결된 스트랩은 도 5b와 같이 벤딩 상태가 변화하게 된다.
예를 들어, 메인 바디부(110)가 아래로 내려가게 되면, a 영역, c 영역의 각도는 줄어들게 되고, b 영역, d 영역의 각도는 늘어나게 된다. 따라서 전자 장치(100)는 플렉스 센서로부터 4개의 영역의 각도 정보를 읽고, a 영역 및 c 영역의 각도는 줄어들었으나, b 영역과 d 영역의 각도가 늘었으면, 사용자가 제3 인터랙션을 한 것으로 판단할 수 있다. 한편, 제3 인터랙션의 각도 변화는 제1 인터랙션의 각도 변화와 동일하다.
따라서, 전자 장치(100)는 제1 인터랙션과 제3 인터랙션을 구분하기 위하여, 홀 센서로부터 입력되는 메인 바디부(110)와 스트랩(130) 간의 상대적인 위치를 통하여 착용 상태를 구분하고, 착용상태에 따라 두 인터랙션을 구분할 수 있다. 구체적인 착용 상태의 구분에 대해서는 도 13을 참조하여 후술한다.
한편, 제3 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으며, 전자 장치(100)의 동작 상태 및 운용 상태에 따라 서로 다른 기능으로 동작할 수 있다. 예를 들어, 전자 장치(100)가 절전 상태인 경우, 제3 사용자 인터랙션은 노말 상태로 전환을 알리는 명령으로 이용될 수 있다. 또한, 전화가 걸려오고 있는 상태에서는, 전화를 받는 인터랙션으로 이용될 수 있다.
도 6은 제4 사용자 인터랙션을 설명하기 위한 도면이다. 구체적으로, 제4 사용자 인터랙션은 사용자가 메인 바디부(110)(또는 디스플레이부(120))를 좌측 아래로 밀거나 당기는 인터랙션이다.
도 6a와 같이 사용자가 전자 장치(100)를 목걸이와 같이 착용한 상태에서, 메인 바디부(110)를 좌측 아래로 당긴 경우, 메인 바디부(110)에 연결된 스트랩은 도 6b와 같이 벤딩 상태가 변화하게 된다.
예를 들어, 메인 바디부(110)가 좌측 아래로 내려가게 되면, a 영역, c 영역의 각도는 줄어들게 되고, b 영역, d 영역의 각도는 늘어나게 된다. 또한, a와 c에서 줄어는 각도 크기가 상이하고, b와 d 영역에서 늘어나는 각도도 다르게 된다. 따라서 전자 장치(100)는 플렉스 센서로부터 4개의 영역의 각도 정보를 읽고, a 영역 및 c 영역의 각도는 줄어들었으나, b 영역과 d 영역의 각도가 늘었고, a 영역이 c 영역보다 많은 각도가 줄어들었으면, 사용자가 제4 인터랙션을 한 것으로 판단할 수 있다.
한편, 제4 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으며, 전자 장치(100)의 동작 상태 및 운용 상태에 따라 서로 다른 기능으로 동작할 수 있다.
도 7 내지 도 12는 스트랩과 메인 바디부 간의 배치 형태에 따른 다양한 인터랙션을 설명하기 위한 도면이다.
구체적으로, 도 7은 제1 배치 상태를 설명하기 위한 도면이다. 보다 구체적으로, 제1 배치 상태는 메인 바디부(110)의 좌측에 추가 스트랩이 배치되는 배치 상태이다.
도 7과 같이 메인 바디부가 사용자의 손목에 배치되고, 추가 스트랩이 메인 바디부의 좌측에 배치되는 경우, 또한, 홀 센서가 스트랩에 배치되는 경우, 홀 센서는 우측에 전자 장치(100)가 배치된다는 정보를 제공할 수 있다. 따라서, 이러한 정보를 통하여, 전자 장치(100)는 추가 스트랩이 메인 바디부(110)의 좌측에 배치되는 것임을 인지할 수 있다.
한편, 여기서 추가 스트랩은 전자 장치(100)와 물리적으로 구분된 별도의 스트랩일 수 있다. 또한, 추가 스트랩은 전자 장치(100)에 연결된 스트랩이 손목에 복수 회 감김으로써 나타내는 스트랩의 일부 영역일 수 있다.
이러한 제1 배치 상태는 다양한 운영 상태로 매핑될 수 있는데, 예를 들어, 시간 정보를 표시하는 오피스 상태로 이용될 수 있다. 따라서, 사용자가 제1 배치 상태에서 스트랩을 우측 또는 좌측으로 민다면 시간 정보를 나타내는 UI 요소가 디스플레이부(120)에 표시될 수 있다.
도 8은 제2 배치 상태를 설명하기 위한 도면이다. 보다 구체적으로, 제2 배치 상태는 메인 바디부(110)의 우측에 추가 스트랩이 배치되는 배치 상태이다.
도 8과 같이 메인 바디부가 사용자의 손목에 배치되고, 추가 스트랩이 메인 바디부의 우측에 배치되는 경우, 또한, 홀 센서가 스트랩에 배치되는 경우, 홀 센서는 좌측에 전자 장치(100)가 배치된다는 정보를 제공할 수 있다. 따라서, 이러한 정보를 통하여, 전자 장치(100)는 추가 스트랩이 메인 바디부(110)의 우측에 배치되는 것임을 인지할 수 있다.
이러한 제2 배치 상태는 다양한 운영 상태로 매핑될 수 있는데, 예를 들어, 운동 상태로 이용될 수 있다. 따라서, 사용자가 제2 배치 상태에서 스트랩을 우측 또는 좌측으로 민다면 운동 상태를 나타내는 UI 요소가 디스플레이부(120)에 표시될 수 있다.
도 9는 제3 배치 상태를 설명하기 위한 도면이다. 보다 구체적으로, 제2 배치 상태는 메인 바디부(110)의 좌측 및 우측에 추가 스트랩이 배치되는 배치 상태이다.
도 9와 같이 메인 바디부가 사용자의 손목에 배치되고, 추가 스트랩이 메인 바디부의 좌측 및 우측에 배치되는 경우, 또한, 홀 센서가 스트랩에 배치되는 경우, 홀 센서는 좌측 및 우측에 전자 장치(100)가 배치된다는 복수의 정보를 제공할 수 있다. 따라서, 이러한 정보를 통하여, 전자 장치(100)는 두 개의 추가 스트랩 각각이 메인 바디부(110)의 좌측과 우측에 배치되는 것임을 인지할 수 있다.
이러한 제3 배치 상태는 다양한 운영 상태로 매핑될 수 있는데, 예를 들어, 워크 아웃 상태로 이용될 수 있다. 따라서, 사용자가 제3 배치 상태에서 스트랩을 우측 또는 좌측으로 민다면 음악 재생 상태 또는 지도 표시 상태 등을 나타내는 UI 요소가 디스플레이부(120)에 표시될 수 있다.
도 10 내지 도 12는 제1 배치 상태에서의 다양한 인터랙션을 설명하기 위한 도면이다.
구체적으로, 도 10은 제1 배치 상태에서 제2 사용자 인터랙션이 입력된 경우의 동작을 설명하기 위한 도면이다. 앞서 설명한 바와 같이 제2 사용자 인터랙션은 사용자가 메인 바디부(110)(또는 디스플레이부(120))를 좌측으로 밀거나 당기는 인터랙션이다.
도 10과 같이 메인 바디부(110)의 좌측에 보조 스트랩이 있는 상태에서, 사용자가 메인 바디부(110)를 좌측으로 민 경우, 홀 센서에서 감지되는 자기장의 세기는 증가한다.
또한, 경우에 따라 사용자가 메인 바디부(110)를 보조 스트랩보다 더 좌측으로 밀게 되면, 감지되는 자기장의 방향이 역전된다. 예를 들어, 홀 센서가 메인 바디부(110)에 배치된 상태라면, 제1 배치 상태에서는 홀 센서는 좌측 방향에서 자기장을 감지할 것이다. 이러한 상태에서 도 10과 같이 메인 바디부(110)가 이동한다면, 홀 센서는 감지되는 자기장의 세기가 증가하다가, 감지되는 자기장의 방향이 변경되는 것을 감지할 수 있다. 따라서 전자 장치(100)는 자기장 정보의 변화를 통하여 사용자가 제2 인터랙션을 한 것으로 판단할 수 있다.
한편, 이와 같은 인터랙션이 입력된 경우에는 앞서 도 4와 다르게 전자 장치(100)는 사용자가 매너 모드를 설정한 것으로 판단할 수도 있다. 또는 타 단말장치와 링크하는 명령으로 이용할 수도 있다.
도 11은 제1 배치 상태에서 제2 사용자 인터랙션이 기설정된 시간 이상으로 지속되는 경우의 동작을 설명하기 위한 도면이다. 앞서 설명한 바와 같이 제2 사용자 인터랙션은 사용자가 메인 바디부(110)(또는 디스플레이부(120))를 좌측으로 밀거나 당기는 인터랙션이다.
도 11과 같이 메인 바디부(110)의 좌측에 보조 스트랩이 있는 상태에서, 사용자가 메인 바디부(110)를 좌측으로 민 경우, 홀 센서에서 감지되는 자기장의 방향은 역전된다.
예를 들어, 홀 센서가 메인 바디부(110)에 배치된 상태라면, 제1 배치 상태에서 홀 센서는 좌측 방향에서 자기장을 감지할 것이다. 이때, 도 11과 같이 메인 바디부(110)가 이동하고, 메인 바디부(110)를 보조 스트랩에 걸쳐놓게 되면, 홀 센서에서 감지되는 자기장의 세기는 최대가 되고, 전자 장치(100)는 자기장 정보의 변화를 통하여 사용자가 제5 인터랙션을 한 것으로 판단할 수 있다.
도 12는 제1 배치 상태에서 제1 사용자 인터랙션이 입력된 경우의 동작을 설명하기 위한 도면이다. 앞서 설명한 바와 같이 제1 사용자 인터랙션은 사용자가 메인 바디부(110)(또는 디스플레이부(120))를 우측으로 밀거나 당기는 인터랙션이다.
도 12와 같이 메인 바디부(110)의 좌측에 보조 스트랩이 있는 상태에서, 사용자가 메인 바디부(110)를 우측으로 민 경우, 홀 센서에서 감지되는 자기장의 방향은 그대로이나, 자기장의 세기는 줄어들게 된다.
예를 들어, 홀 센서가 메인 바디부(110)에 배치된 상태라면, 제1 배치 상태에서는 홀 센서는 좌측 방향에서 자기장을 감지할 것이다. 이러한 상태에서 도 11과 같이 메인 바디부(110)가 이동한다면, 홀 센서는 좌측 방향에서 작아진 자기장을 감지하게 될 것이고, 따라서 전자 장치(100)는 자기장 정보의 변화를 통하여 사용자가 제1 인터랙션을 한 것으로 판단할 수 있다.
한편, 도 3 내지 도 6에서는 벤딩 정보만으로 인터랙션을 판단하고, 도 10 내지 도 12에서는 홀 센서에서 감지되는 자기장의 방향만으로 인터랙션을 판단하는 것으로 설명하였지만, 구현시에는 벤딩 정보와 자기장 정보를 함께 이용하여 사용자의 인터랙션을 감지할 수도 있다.
도 13은 스트랩과 메인 바디부 간의 배치 형태에 따라 착용 상태를 구분하는 방법을 설명하기 위한 도면이다.
도 13을 참조하면, 전자 장치(100)가 손목에 감기고, 도 13a와 같이 홀 센서가 메인 바디부에 배치된다면, 홀 센서에서 감지되는 두 개의 자기장의 방향은 일직선이 된다.
반면에, 전자 장치(100)가 목걸이 형태로 착용된 경우, 도 13b와 같이 홀 센서에서 감지되는 두 개의 자기장은 상단 좌우 방향이 된다.
따라서, 전자 장치(100)는 홀 센서에서 감지되는 자기장의 방향을 기초로 전자 장치가 손목에 감겼는지, 목걸이 형태로 착용되었는지를 구분할 수 있다.
이와 같은 동작 구분에 의하여 전자 장치(100)는 디스플레이부의 표시 방향을 결정할 수 있다. 예를 들어, 도 13a와 같이 손목 시계 형태로 배치된 것으로 판단되면, 전자 장치(100)는 스트랩의 배치 방향과 수직되는 방향으로 텍스트가 배치되도록 디스플레이할 수 있다.
반대로, 도 13b와 같이 목걸이 형태로 배치된 것으로 판단되면, 전자 자치(100)는 스트랩의 배치 방향과 수평되는 방향으로 텍스트가 배치되도록 디스플레이할 수 있다.
이때, 자기장 방향에 기초하여 사용자의 시선 방향으로 파악할 수 있으며, 전자 장치(100)는 파악된 시선 방향에 맞게 텍스트를 배치할 수 있다. 예를 들어, 도 13b에서의 경우에는 텍스트의 읽기 방향이 우측에서 좌측방향이 되도록 텍스트를 배치할 수 있다.
도 14 및 도 15는 사용자의 의도적 또는 비의도적 인터랙션을 구분하는 방법을 설명하기 위한 도면이다.
구체적으로, 본 실시 예에 따른 전자 장치(100)는 웨어러블 디바이스이기 때문에, 사용자의 손목 또는 목에 착용되어 동작한다. 따라서, 도 14a와 같이 사용자가 걷는 과정에서 메인 바디부(110)와 스트랩(130)은 앞선 제1 사용자 인터랙션 또는 제2 사용자 인터랙션과 동일한 형태로 이동될 수 있다. 또한, 도 14b와 같이 사용자가 뛰는 과정에서 메인 바디부(110)와 스트랩(130)은 앞선 제3 사용자 인터랙션 또는 제4 사용자 인터랙션과 동일한 형태로 이동될 수 있다.
그러나 이와 같은 전자 장치의 이동은 사용자가 의도한 것은 아닌바, 이러한 동작에 대응하여 전자 장치가 동작하게 되면, 불필요한 전원 낭비 및 오작동이 발생하게 된다.
한편, 사용자의 의도된 조작은 메인 바디부(110) 또는 디스플레이부(120)를 직접 손으로 조작하여 동작하는 것인바, 본 실시 예에서는 메인 바디부(110) 또는 디스플레이부(120)에 대한 사용자의 터치가 있는지 여부를 감지하고, 이를 기초로 벤딩 정보가 사용자의 의도에 의한 정보인지 의도하지 않은 것에 의한 정보인지를 구분하여 이용할 수 있다.
도 16 및 도 17은 디스플레이의 배치 위치에 따른 다양한 동작 상태의 예들을 도시한 도면이다.
도 16a는 오피스 상태인 경우에 표시되는 사용자 인터페이스 창의 예를 도시한 도면이다. 도 16a를 참조하면, 오피스 상태인 경우의 디스플레이부(120)는 기본적인 시간 정보, 요일 정보 등을 표시할 수 있다.
도 16b는 워크 아웃 상태인 경우에 표시되는 사용자 인터페이스 창의 예를 도시한 도면이다. 도 16b를 참조하면, 워크 아웃 상태인 경우의 디스플레이부(120)는 운동, 음악, 지도 등 사용자가 외부 활동중인 경우에 이용할 여지가 높은 정보를 표시할 수 있다.
도 16c는 페스티벌 상태로, 분위기에 어울리는 화려한 그래픽 효과를 표시하는 상태이다. 이와 같은 모드는 사용자가 도 16c와 같은 배치 형태로 배치한 형태뿐만 아니라, 하이파이브와 같은 사용자 제스처를 수행한 경우에도 수행될 수 있다. 이와 같은 하이파이브가 발생되었는지는 가속도 센서 및 방위 센서를 이용하여 판단할 수 있다.
도 17은 스트랩 개수의 따른 동작 상태의 구분을 설명하기 위한 도면이다. 도 17a는 하나의 스트랩으로 전자 장치가 사용자의 손목에 착용된 경우의 도면이고, 도 17b는 두 개의 스트랩으로 전자 장치가 사용자의 손목에 착용된 경우의 도면이고, 도 17c는 세 개의 스트랩으로 전자 장치가 사용자의 소목에 착용된 것이다. 이상에서는 스트랩 개수가 복수개로 변경된 것으로 설명하였지만, 구현시에 이는 일방향에서 손목을 보왔을 때, 스트랩 개수가 변화하는 것일 뿐, 물리적인 스트랩 개수는 하나일 수 있다.
한편, 이상에서는 도 17a, 도 17b, 도 17c 모두 동일한 UI 요소를 표시하는 것으로 도시하였지만, 구현시에는 감지되는 스트랩 개수에 따라 전자 장치는 다른 운용 상태에 매핑될 수 있으며, 그 경우 다른 UI 요소들을 표시할 수 있다.
도 18 내지 도 20은 사용자 인터랙션에 대응하여 표시 가능한 사용자 인터페이스 창의 예를 도시한 도면이다.
구체적으로, 도 18은 절전 상태에서 사용자 인터랙션이 입력되는 경우에 표시되는 사용자 인터페이스 예를 도시한 도면이다.
도 18을 참조하면, 사용자 인터페이스 창(1810)은 아무런 UI 요소를 표시하지 않는다. 구체적으로, 전자 장치(100)는 절전 상태 상태인바 디스플레이부(120)는 전원 오프 상태이다.
이와 같은 상태에서 도 3과 같은 제1 사용자 인터랙션 또는 도 4와 같은 제2 사용자 인터랙션이 감지되면, 사용자 인터페이스 창(1820)은 현재 운용 상태에 대응되는 UI 요소를 표시할 수 있다. 예를 들어, 현재 전자 장치(100)의 운용 상태가 오피스 상태이면, 사용자 인터페이스 창(1820)은 오피스 상태에 대응되는 UI 요소(예를 들어, 시간 UI, 요일 UI, 기본 메뉴 UI 등)을 표시할 수 있다.
한편, 사용자 인터랙션 이후에 사용자가 메인 바디부(110)를 놓게 되면, 스트랩(130)의 탄성에 의하여 기존의 사용자는 인터랙션 방향과 반대되는 방향으로 이동하게 된다. 그러나 이러한 이동은 사용자 터치가 없는 상태에서의 이동인바, 사용자 인터페이스 창(1830)은 이러한 이동에 대응하여 UI 요소의 변동 없이 앞선 과정에서 표시되는 것과 동일한 UI 요소를 표시할 수 있다.
다만, 이와 같은 표시 이후에 사용자로부터 새로운 인터랙션을 기설정된 시간 이상 받지 않으면, 절전 상태로 전환되고, 다시 사용자 인터페이스 창(1810)과 같은 상태로 변환될 수 있다.
한편, 이상에서는 사용자의 릴리즈에 대응하여 UI 요소를 지속적으로 표시하는 것으로 설명하였지만, 구현시에는 사용자가 스트랩을 잡아당길 때에만, 즉 사용자 인터랙션이 있는 경우에만 해당 인터랙션에 대응되는 UI 요소를 표시하고, 해당 인터랙션이 없어진 경우에는 표시 동작은 중단하는 형태로도 구현될 수 있다.
도 19는 운동 상태인 경우에서 사용자 인터랙션이 입력되는 경우에 표시되는 사용자 인터페이스 예를 도시한 도면이다.
도 19를 참조하면, 사용자 인터페이스 창(1910)은 아무런 UI 요소를 표시하지 않는다. 구체적으로, 전자 장치(100)는 절전 상태 상태인바 디스플레이부(120)는 전원 오프 상태이다.
이와 같은 상태에서 도 3과 같은 제1 사용자 인터랙션 또는 도 4와 같은 제2 사용자 인터랙션이 감지되면, 사용자 인터페이스 창(1920)은 현재 운용 상태에 대응되는 UI 요소를 표시할 수 있다. 예를 들어, 현재 전자 장치(100)의 운용 상태가 운동 상태이면, 사용자 인터페이스 창(1920)은 운동 상태에 대응되는 UI 요소(예를 들어, 시간 UI, 요일 UI, 뛴 거리 UI, 심박수 UI, 소비 칼로리 UI 등)를 표시할 수 있다.
도 20은 음악 재생 상태인 경우에서 사용자 인터랙션이 입력되는 경우에 표시되는 사용자 인터페이스 예를 도시한 도면이다.
도 20을 참조하면, 사용자 인터페이스 창(1920)은 현재 운용 상태인 음악 재생에 대응되는 UI 요소(예를 들어, 현재 재생중인 컨텐츠의 정보, 음악 재생과 관련된 제어 명령을 입력받기 위한 UI 등)을 표시할 수 있다.
한편, 도 1 내지 도 20을 설명함에 있어서, 전자 장치(100)가 사용자 인터랙션에 대응한 UI 요소를 표시하기 위한 디스플레이부가 배치되는 것으로 설명하였다. 그러나 구현시 전자 장치(100)는 사용자 인터랙션과 관련된 정보 제공이 없는 형태로도 구현될 수 있다. 즉, 감지된 인터랙션을 전자 장치 자체적으로 이용하는 것이 아니라, 다른 전자 장치에서 이용하는 형태로도 구현될 수 있다. 이와 같은 실시 형태에 대해서는 도 21 내지 도 36을 참조하여 이하에서 설명한다.
도 21은 제2 실시 예에 따른 전자 장치의 형태를 설명하기 위한 도면이다.
도 21을 참조하면, 제2 실시 예에 따른 전자 장치(200)는 스트랩(210) 및 스트랩 상에 배치되는 디스플레이부(220) 및 음향 입출력부(230)로 구성된다.
스트랩(210)은 유연한 재질의 형태 변경이 가능하며 스트랩의 형상을 유지하도록 하는 가요선(flexible wire)을 포함하여, 사용자의 특정 신체(예를 들어, 손목 또는 목 등)에 고정되도록 할 수 있다.
본 실시 예에 따른 스트랩(210)은 다양한 길이를 가질 수 있는데, 최소한으로, 스트랩(210)은 사용자의 손목을 감쌀 정도의 길이를 가지며, 최대한으로는 통상적인 목걸이 정도의 길이를 가질 수 있다. 예를 들어, 스트랩(210)이 목걸이와 같은 길이를 갖는 경우, 사용자는 전자 장치(200)를 목걸이와 같이 목에 걸어 이용할 수도 있다. 또한, 손목에 스트랩에 복수 회 감는 형태로도 이용될 수 있다.
여기서 가요선(flexible wire)은 자유로이 굽히거나 펼 수 있는 선으로, 스트랩(210)의 외부가 가요선으로 구성될 수 있으며, 스트랩(210)의 내부에 가요선이 포함될 수도 있다. 또한, 본 실시 예에 따른 스트랩(210)은 사용자의 조작에 따라 다양한 형태 변화가 가능하도록 탄성(또는 스트레처블(stretchable)) 성질을 가질 수 있다.
그리고 스트랩(210) 내부에는 스트랩의 구부러진 위치 및 각도를 감지할 수 있는 플렉스 센서(또는 벤딩 센서)가 배치된다. 따라서, 스트랩(210)은 사용자의 조작에 따라 변환되는 형태 변화를 감지할 수 있다.
여기서, 플렉스 센서는 구부러질 수 있는 기판 상에 구부러진 정도에 따라 다른 저항값을 가지는 복수의 벤딩 저항 소자가 복수개 배치된 센서로, 각 복수의 벤딩 저항 소자로부터 전달되는 저항값(또는 전압 값)에 기초하여 벤딩이 발생한 영역 및 해당 영역에서의 휘어진 정도를 감지할 수 있다.
그리고 스트랩(210) 내부의 특정 위치에는 스트랩이 끝이 상호 연결되었는지를 감지하는 홀 센서 및 자석이 배치될 수 있다. 구체적으로, 스트랩(210)의 양 끝단에 홀 센서와 자석 각각이 배치될 수 있다.
여기서 홀 센서는 전류가 흐르는 도체에 자기장을 걸어 주면 전류와 자기장에 수직 방향으로 전압이 발생하는 홀 효과를 이용하여 자기장의 방향과 크기를 알아내는 센서이다. 자석은 자성을 지니는 구성으로, 구현시에는 영구 자석뿐만 아니라 전자적이 이용될 수 있다.
그리고 스트랩(210) 내부에는 스트랩(210)의 이동 방향을 감지할 수 있는 가속도 센서, 스트랩에 대한 사용자 그랩을 감지할 수 있는 압력 센서 등이 배치될 수 있다.
스트랩(210)의 일 측에는 디스플레이부(220)가 배치될 수 있다. 여기서, 디스플레이부(220)는 제1 실시 예와 같은 다양한 정보를 제공하는 장치가 아니라, LCD와 같이 현재 전자 장치(200)가 동작 중인지 등의 간단한 정보만을 제공하는 구성이다.
그리고 스트랩(210)의 일 측에는 음향 입출력부(230)가 배치될 수 있다. 여기서, 음향 입출력부(230)는 스피커 및 마이크 중 적어도 하나를 포함하여, 기설정된 음성을 출력하거나, 사용자의 목소리 등을 녹취할 수 있다.
또한, 스트랩(210)의 표면은 사용자의 터치를 감지할 수 있다. 이러한 사용자 터치를 감지하기 위하여 스트랩(210)의 전 영역에 터치 센서가 배치될 수 있으며, 아니면 기설정된 일부 영역에만 터치 센서가 배치될 수도 있다.
이상에서와 같이 제2 실시 예에 따른 전자 장치(200)는 벤딩 상태를 감지할 수 있는 스트랩을 이용하여 사용자의 다양한 인터랙션을 입력받을 수 있다.
한편, 도시된 예에서는 스트랩 단독의 웨어러블 전자 장치를 도시하였지만, 구현시에 디스플레이부를 갖는 다른 장치와 결합하여 도 1과 같은 실시 형태로도 동작할 수 있다.
또한, 이상에서는 스트랩(210)에는 디스플레이부(220) 및 음향 입출력부(230)만이 배치되는 것으로 설명하였지만, 스트랩(210)에는 특정 명령을 입력받기 위한 버튼이 추가적으로 배치될 수 있으며, 촬상을 위한 촬상 소자, 스트랩의 이동을 방향을 감지하기 위한 각종 센서 등이 추가적으로 배치될 수 있다.
한편, 도 21을 도시하고 설명함에 있어서, 전자 장치(200)에 디스플레이부(220) 및 음향 입출력부(230)가 포함되는 것으로 도시하고 설명하였지만, 구현시에는 두 구성은 생략된 형태라도 구현될 수 있다. 즉, 후술한 센싱부의 구성 및 외부 장치와 통신하기 위한 구성만을 포함하는 형태로도 구현될 수 있다.
도 22는 도 21의 전자 장치의 구체적인 구성을 도시한 도면이다.
도 22를 참조하면, 전자 장치(200)는 디스플레이부(220), 음향 입출력부(230), 통신부(240), 센싱부(250), 터치부(260) 및 제어부(270)로 구성된다.
디스플레이부(220)는 전자 장치(200)에서 지원하는 각종 정보를 표시할 수 있다. 구체적으로, 디스플레이부(220)는 LED와 같은 장치로 구성될 수 있으며, 전자 장치(200)의 동작 상태(동작 중인지를 표시) 또는 에러 상태(충전 필요, 충전중) 등을 불빛으로 표시할 수 있다.
음향 입출력부(230)는 스트랩(210)의 기설정된 영역에 배치될 수 있다. 음향 입출력부(230)는 마이크 및 스피커로 구성될 수 있다. 구현시에 음향 입출력부(230)는 마이크(미도시)만을 포함하거나, 스피커(미도시)만을 포함하는 형태로도 구현될 수 있다.
마이크는 스트랩의 기설정된 영역에 부착되어, 음파를 녹취하여 음성 데이터를 생성한다. 생성된 음성 데이터는 후술할 통신부(240)를 통하여 다른 전자 장치로 전달될 수 있다.
스피커는 음성 데이터를 출력하는 장치로, 후술할 통신부(240)를 통하여 수신하는 음성 데이터를 음파로 출력할 수 있다.
통신부(240)는 다른 단말장치(또는 호스트 장치) 또는 인터넷 망과 연결하기 위해 형성되며, 무선 또는 유선 방식으로 접속될 수 있다. 구체적으로, 통신부(240)는 외부 장치(예를 들어, 스마트 폰)와 블루투스, RF 통신, WiFi, NFC 등과 같은 무선 통신 방식을 통하여 데이터를 송수신할 수 있다. 이때, 송수신되는 데이터는 날씨 정보와 같은 컨텐츠 정보뿐만 아니라, 스마트폰으로부터 전달되는 전화 스트리밍, 음악 스트리밍 데이터일 수도 있다. 예를 들어, 통신부(240)는 외부 장치로부터 음성 데이터를 수신하거나, 마이크에서 생성된 음성 데이터를 외부 장치로 송신할 수 있다.
그리고 통신부(240)는 외부 장치(예를 들어, PC)와 유선 통신 방식으로 연결될 수 있으며, 연결된 유선 통신 방식으로 각종 데이터를 입출력할 수 있다. 한편, 외부 장치와 유선으로 연결되기 위한 포트는 전자 장치(200) 내의 배터리를 충전하는데 이용될 수 있다.
센싱부(250)는 스트랩(210) 내부의 플렉스 센서로부터의 전달되는 신호를 기초로 스트랩(210)의 구부러진 위치 및 각도를 측정할 수 있다. 구체적으로, 센싱부(250)는 플렉스 센서 내의 복수의 벤딩 저항 소자 각각의 전압값을 측정하여, 벤딩이 발생한 영역 및 그 영역에서의 벤딩 정도를 감지할 수 있다.
그리고 센싱부(250)는 스트랩(210)의 끝 단의 연결 상태를 감지할 수 있다. 구체적으로, 스트랩(210) 내의 기설정된 위치(예를 들어, 양 끝단)에 홀 센서 및 자석이 각각 배치될 수 있다. 이 경우, 센싱부(250)는 홀 센서에서 감지되는 자기장의 세기를 기초로 스트랩(210)의 양 끝단이 연결되었는지를 판단할 수 있다.
그리고 센싱부(250)는 전자 장치(200)의 방향 및 이동 정보 중 적어도 하나를 감지할 수 있다. 구체적으로, 센싱부(250)는 전자 장치(200)의 방위를 감지할 수 있는 방위 센서 및 전자 장치(200)의 이동 방향 및 가속도를 감지할 수 있는 가속도 센서 등을 포함하며, 방위 센서 및 가속도 센서를 이용하여 전자 장치(200)의 이동 방향 및 속도 등을 감지할 수 있다.
그리고 센싱부(250)는 복수의 압력 센서를 구비하고, 기설정된 특정 영역에서의 사용자 그랩을 감지할 수 있다. 또한, 센싱부(250)는 복수의 가속도 센서를 구비하고, 기설정된 복수의 특정 영역에 대한 사용자의 조작 방향을 감지할 수 있다.
터치부(260)는 사용자의 터치를 감지할 수 있다. 구체적으로, 터치부(260)는 스트랩(210)에 대한 사용자의 터치를 감지할 수 있다.
제어부(270)는 전자 장치(200) 내의 각 구성에 대한 제어를 수행한다. 구체적으로, 제어부(270)는 스트랩의 배치 형태에 따라 스트랩의 착용 상태를 결정할 수 있다. 구체적으로, 스트랩(210)의 양 끝단이 연결되었는지 여부로, 양끝이 연결되었으면, 사용자의 손목에 착용된 것으로 판단할 수 있다. 반대로, 스트랩(210)의 양 끝단이 연결되지 않았으면, 사용자의 목에 놓여 있는 것으로 판단할 수 있다.
그리고 제어부(270)는 결정된 동작 상태에 대응되게 전자 장치(200)의 각 구성을 제어할 수 있다. 구체적으로, 스트랩의 벤딩 상태가 변화되는 경우, 제어부(270)는 스트랩의 변화 상태에 대응되는 사용자의 인터랙션을 감지한다. 스트랩을 이용하여 사용자 인터랙션은 다양한 형태가 있을 수 있는데 이에 대해서는 도 24 내지 도 36을 참조하여 후술한다.
그리고 제어부(270)는 상술한 바와 같은 벤딩 정보를 이용하여 사용자 인터랙션을 감지할 때, 터치부(260)를 통하여 사용자의 터치가 감지되었는지를 확인할 수 있다. 이를 통하여 사용자의 터치가 감지된 경우에는 상술한 바와 같은 스트랩의 변화가 사용자가 인터랙션을 위한 조작인 것으로 판단할 수 있다. 반대로, 사용자의 터치가 감지되지 않은 경우에는 사용자가 의도적으로 인터랙션을 위하여 조작한 것이 아니라, 사용자의 자세 변화나 이동에 따라 스트랩의 형태가 변화된 것으로 파악하여 상술한 바와 같은 인터랙션 감지를 수행하지 않을 수 있다.
즉, 제어부(270)는 평상시에는 벤딩 정보 등을 이용하지 않다가, 사용자 터치가 감지되는 경우에만 벤딩 정보를 이용하여 사용자 인터랙션을 감지할 수 있다. 또한, 구현시에는 항시 사용자의 인터랙션을 감지하다가, 사용자 터치가 감지되는 경우에만 감지된 인터랙션에 대응되는 액션을 수행하는 형태로도 구현될 수 있다. 한편, 이상에서는 사용자의 터치 정보를 이용하여 사용자의 의도적인 조작인지를 판단하는 것으로 설명하였지만, 구현시에는 터치 정보 이외에 압력 센서에서의 압력 정보를 이용하여 사용자의 의도적인 조작인지를 판단할 수도 있다.
그리고 제어부(270)는 감지된 사용자 인터랙션에 대응되는 제어 명령이 다른 전자 장치에 전송되도록 통신부(240)를 제어할 수 있다. 한편, 이상에서는 전자 장치(200) 측에서 사용자 인터랙션을 식별하고, 식별된 인터랙션에 대응되는 제어 명령을 타 전자 장치에 전송하는 것으로 설명하였지만, 구현시에는 센싱부(250)에서 감지된 벤딩 정보가 그대로 다른 전자 장치로 전달되고, 다른 전자 장치 측에서 전달된 벤딩 정보를 기초로 사용자 인터랙션을 식별하는 형태로도 구현될 수 있다.
이상과 같이 본 실시 예에 다른 전자 장치(200)는 스트랩의 벤딩 상태 등을 이용하여 사용자 인터랙션을 입력받을 수 있는바, 사용자는 다양한 기능 명령을 손쉽게 입력할 수 있다.
도 23은 도 21의 스트랩을 구체적으로 설명하기 위한 도면이다.
도 23을 참조하면, 스트랩(210)은 기설정된 길이를 가진다. 본 실시 예에 따른 스트랩(210)은 탄성을 갖는다, 따라서, 사용자의 조작에 따라 기설정된 길이만큼 늘어날 수 있으며, 기설정된 영역이 벤딩될 수 있다.
한편, 스트랩(210)은 부드러운 접촉감을 확보하기 위하여 경도가 낮은 고무(rubber, silicone, urethan)재질을 외부에 사용할 수 있다. 그리고 스트랩(210)은 충분한 변형률과 복원력을 확보하기 위하여 고탄성소재(Ultem, PEI polyeherimyde, 고탄성강, TR 90, 폴리 올레핀 계열 SRP) 등을 포함할 수 있다.
그리고 스트랩(210) 내부에는 플렉스 센서가 위치하는바, 스트랩의 벤딩된 영역 및 해다 영역에서의 벤딩 각도 정보가 감지될 수 있다.
도 24 내지 38은 제2 실시 예에 따른 전자 장치를 이용한 다양한 인터랙션을 설명하기 위한 도면이다.
구체적으로, 도 24는 제6 사용자 인터랙션을 설명하기 위한 도면이다. 여기서, 제6 사용자 인터랙션은 사용자가 스트랩(210)의 일 정 영역을 잡아당기는 인터랙션이다.
도 24a와 같이 스트랩(210)은 사용자의 손목에 감기는 형태로 착용될 수 있다. 이때, 사용자가 도 24b와 같이 스트랩(210)의 일 측을 잡아당기는 경우, 스트랩의 일정 영역은 벤딩 상태가 변화하게 된다. 구체적으로, 사용자가 잡아당기는 부분의 벤딩 각도는 줄어들게 된다.
한편, 제6 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으며, 전자 장치(200)의 동작 상태 및 운용 상태에 따라 서로 다른 기능으로 동작할 수 있다. 예를 들어, 전자 장치(200)가 외부의 스마트 폰과 연동되어 있으면, 스마트 폰에서의 전화 통화를 수신하는 명령으로 이용될 수 있다. 또한, 외부의 스마트 폰의 카메라 기능을 활성화하는 명령으로 이용될 수도 있다.
도 25는 제7 사용자 인터랙션을 설명하기 위한 도면이다. 여기서, 제7 사용자 인터랙션은 사용자가 스트랩의 일 정 영역을 잡아당겨 비트는 인터랙션이다.
스트랩(210)은 사용자의 손목에 감기는 형태로 착용될 수 있다. 이때, 사용자가 도 25와 같이 스트랩(210)의 일 측을 잡아당기고, 비튼 경우, 스트랩의 일정 영역은 벤딩 상태가 변화하게 된다. 예를 들어, 사용자가 잡아당기는 영역의 각도는 줄어들게 되며, 해당 영역과 인접한 다른 영역에서는 앞선 영역과 다른 방향으로 벤딩 각도가 변화하게 된다. 따라서, 전자 장치(200)는 인접한 여러 영역에 대해서 서로 다른 방향의 각도 변화가 감지되면, 제7 사용자 인터랙션이 입력되는 것으로 판단할 수 있다.
한편, 제7 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으며, 전자 장치(200)의 동작 상태 및 운용 상태에 따라 서로 다른 기능으로 동작할 수 있다. 예를 들어, 전자 장치(200)가 외부의 스마트 폰과 연동되어 있으면, 스마트 폰에서의 전화 통화를 거절하는 명령으로 이용될 수 있다.
도 26은 제8 사용자 인터랙션을 설명하기 위한 도면이다. 여기서, 제8 사용자 인터랙션은 사용자가 스트랩의 일정 영역을 잡아당겨 손가락에 스트랩을 걸치는 인터랙션이다.
스트랩(210)은 사용자의 손목에 감기는 형태로 착용될 수 있다. 이때, 사용자가 도 26과 같이 스트랩(210)의 일 측을 잡아당겨 손가락 사이에 걸 수 있다. 이 경우, 특정 영역의 벤딩 각도는 줄어들게 된다. 한편, 제6 사용자 인터랙션과 그 형태가 유사하나 사용자 손가락에 스트랩에 걸리기 위해서는 스트랩은 보다 많이 잡아 당겨져야 한다. 즉, 도 24보다 스트랩 내의 탄성이 더 증가하며, 특정 영역에서의 각도가 앞선 제6 사용자 인터랙션보다 좁아진다. 따라서, 전자 장치(200)는 이러한 특징이 감지되면 제8 사용자 인터랙션이 입력되는 것으로 판단할 수 있다.
한편, 제8 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으며, 전자 장치(200)의 동작 상태 및 운용 상태에 따라 서로 다른 기능으로 동작할 수 있다. 예를 들어, 전자 장치(200)가 외부의 스마트 폰과 연동되어 있으면, 스마트 폰의 카메라는 활성화하는 기능으로 이용될 수 있다.
도 27은 제9 사용자 인터랙션을 설명하기 위한 도면이다. 여기서, 제9 사용자 인터랙션은 사용자가 스트랩을 회전시키는 인터랙션이다.
도 27과 같이 사용자가 스트랩(210)을 회전시키는 경우, 스트랩(210) 내의 가속도 센서와 방위 센서는 스트랩(210)이 회전되는 것임을 감지할 수 있다. 따라서, 전자 장치(200)는 스트랩이 벤딩 변화없이 방위 정보가 변화되는 것을 감지하면, 제9 사용자 인터랙션이 입력되는 것으로 판단할 수 있다.
한편, 제9 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으나, 예를 들어, 연결된 외부 장치의 소리를 음소거로 전환하는 기능으로 이용될 수 있다.
도 28은 제10 사용자 인터랙션을 설명하기 위한 도면이다. 여기서, 제10 사용자 인터랙션은 사용자가 스트랩의 일정 영역을 잡아당겨 손가락에 스트랩을 걸친 상태에서, 스트랩을 일정 방향으로 터치하는 인터랙션이다.
사용자는 스트랩(210)의 일 측을 잡아당겨 손가락 사이에 걸 수 있다. 이 경우, 특정 영역의 각도는 줄어들게 된다. 이러한 배치 형태에서, 사용자는 각도가 줄어든 특정 영역의 인근에 대해서 터치를 할 수 있다. 따라서, 전자 장치(200)는 상술한 바와 같은 벤딩 정보와 터치 정보가 일괄적으로 입력되면, 제10 사용자 인터랙션이 입력되는 것으로 판단할 수 있다.
한편, 제10 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으며, 예를 들어, 연결된 전자 장치의 볼륨을 조절하는 기능으로 이용될 수 있다. 그리고 이러한 제10 사용자 인터랙션은 사용자의 터치 위치 및 터 치 방향에 따라 인터랙션이 구분될 수도 있다.
예를 들어, 특정 영역의 좌측 영역에 대한 터치가 감지되면 볼륨을 업하고, 우측 영역에 대해선 터치가 감지되면 볼륨을 다운하는 명령으로 구분될 수 있다. 또는 특정 영역을 기준으로 멀어지는 연속적인 터치에 대해서 볼륨을 업하고, 특정 영역을 기준으로 가까워지는 연속적인 터치에 대해서는 볼륨을 다운하는 것으로 이용될 수도 있다.
한편, 이상에서는 전자 장치(200)가 사용자의 손목에 감겨있는 상태에서 동작하는 것으로 설명하였지만, 구현시에 전자 장치(200)는 목걸이 형태로 구현될 수 있으며, 그 경우의 인터랙션에 대해서는 도 29 내지 도 36을 참조하여 후술한다.
도 29는 제11 사용자 인터랙션을 설명하기 위한 도면이다. 여기서, 제11 사용자 인터랙션은 스트랩의 특정 두 영역에 대해서 잡는(grap) 인터랙션이다.
사용자는 스트랩(210)을 목에 걸쳐 놓을 수 있으며, 도 29와 같이 사용자는 스트랩(210)의 양 단을 잡을 수 있다. 스트랩(210)의 특정 영역에는 사용자의 그랩을 감지할 수 있는 압력 센서가 배치되는바, 전자 장치(200)는 기설정된 두 압력 센서에 사용자 그랩이 감지되면 이를 제11 사용자 인터랙션으로 판단할 수 있다.
한편, 제11 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으며, 예를 들어, 전자 장치(200)를 특정의 장치(예를 들어, TV)와 연동하는 기능으로 이용될 수 있다.
도 30은 제12 사용자 인터랙션을 설명하기 위한 도면이다. 여기서, 제12 사용자 인터랙션은 스트랩의 특정 두 영역에 대해서 잡는(grap) 인터랙션이다.
사용자는 스트랩(210)을 목에 걸쳐 놓을 수 있으며, 도 30과 같이 사용자는 스트랩(210)의 일 단을 잡아당길 수 있다. 스트랩(210)의 특정 영역에는 사용자의 그랩을 감지할 수 있는 압력 센서가 배치되고, 스트랩(210) 내에서는 전자 장치(200)의 이동을 감지하는 가속도 센서가 배치되는바, 전자 장치(200)는 기설정된 압력 센서에 사용자 그립이 감지되고, 스트랩의 특정 방향으로의 이동이 감지되면, 이를 제12 사용자 인터랙션으로 판단할 수 있다.
한편, 제12 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으나. 예를 들어, 연동된 장치의 볼륨을 조절하는 기능으로 이용될 수 있다.
도 31은 제13 사용자 인터랙션을 설명하기 위한 도면이다. 여기서, 제13 사용자 인터랙션은 스트랩의 특정 두 영역을 잡고 상호 교차하는 인터랙션이다.
사용자는 스트랩(210)을 목에 걸쳐 놓을 수 있으며, 도 31과 같이 사용자는 스트랩(210)의 양 끝단을 잡고 스트랩이 상호 교차하도록 할 수 있다. 스트랩(210)의 특정 영역에는 사용자의 그랩을 감지할 수 있는 압력 센서가 배치되고, 스트랩(210) 내에서는 특정 영역이 벤딩되는 것을 감지하는 플렉스 센서가 배치되는바, 전자 장치(200)는 기설정된 압력 센서에 사용자 그립이 감지되고, 스트랩의 특정 영역에 벤딩이 감지되면, 이를 제13 사용자 인터랙션으로 판단할 수 있다.
한편, 제13 사용자 인터랙션은 예를 들어, 연동된 장치의 동작 상태를 전환하거나 채널을 변경하는 기능에 이용될 수 있으나, 이에 한정되지는 않는다.
도 32 및 도 33은 제14 및 제 15 사용자 인터랙션을 설명하기 위한 도면이다. 여기서, 제14 및 제 15 사용자 인터랙션은 스트랩의 특정 두 영역을 잡아당기는 인터랙션이다.
사용자는 도 32과 같이 스트랩(210)을 목에 걸쳐 놓을 수 있으며, 이 경우, 사용자는 스트랩(210)의 양 끝단을 아래 방향으로 잡아당길 수 있다. 스트랩(210)의 특정 영역에는 사용자의 그랩을 감지할 수 있는 압력 센서가 배치되고, 스트랩(210) 내에서는 특정 영역이 벤딩되는 것을 감지하는 플렉스 센서가 배치되는바, 사용자가 아래의 방향으로 잡아당기는 경우, 사용자 목 부분의 벤딩 상태가 변화하게 된다. 따라서, 전자 장치(200)는 기설정된 압력 센서에 사용자 그립이 감지되고, 스트랩의 특정 영역에 벤딩이 감지되면, 이를 제14 및 제 15 사용자 인터랙션으로 판단할 수 있다. 그리고 전자 장치(200)는 스트랩의 벤딩 상태의 변화가 급격한지 여부에 따라 제14 사용자 인터랙션과 제15 사용자 인터랙션을 구분할 수 있다.
한편, 제14 사용자 인터랙션은 예를 들어, 연동된 스마트폰의 전화를 수신하거나, 연동된 장치의 영상을 재생(또는 일시정지)하는 기능에 이용될 수 있으나, 이에 한정되지는 않는다.
그리고 제15 사용자 인터랙션은 예를 들어, 연동된 스마트폰의 전화를 끊거나 거절하거나, 연동된 장치의 영상을 시작 또는 종료하는 기능에 이용될 수 있으나, 이에 한정되지는 않는다.
도 34는 제 16 사용자 인터랙션을 설명하기 위한 도면이다. 여기서, 제16 사용자 인터랙션은 스트랩의 특정 두 영역을 어깨 방향으로 잡아당기는 인터랙션이다.
사용자는 스트랩(210)을 목에 걸쳐 놓을 수 있으며, 이 경우, 사용자는 스트랩(210)의 양 끝단을 좌/우측 방향으로 잡아당길 수 있다. 스트랩(210)의 특정 영역에는 사용자의 그랩을 감지할 수 있는 압력 센서가 배치되고, 스트랩(210) 내에서는 특정 영역이 벤딩되는 것을 감지하는 플렉스 센서가 배치되는바, 사용자가 좌/우측으로 잡아당기는 경우, 벤딩된 영역의 각도가 기존보다 넓어지게 된다. 따라서, 전자 장치(200)는 기설정된 압력 센서에 사용자 그립이 감지되고, 스트랩의 특정 영역에 벤딩 각도의 변화가 감지되면, 이를 제16 사용자 인터랙션으로 판단할 수 있다.
한편, 제16 사용자 인터랙션은 예를 들어, 연동된 스마트폰의 볼륨을 음소거로 변경하거나, 연동된 장치의 음향 출력 방식을 변환하는 기능에 이용될 수 있으나, 이에 한정되지는 않는다.
도 31은 제17 사용자 인터랙션을 설명하기 위한 도면이다. 구체적으로, 제17 사용자 인터랙션은 스트랩의 특정 한 영역을 잡고 스트랩을 비트는 인터랙션이다.
사용자는 스트랩(210)을 목에 걸쳐 놓을 수 있으며, 이 경우, 사용자는 스트랩(210)의 일 단을 잡고 비틀 수 있다. 스트랩(210)의 특정 영역에는 사용자의 그랩을 감지할 수 있는 압력 센서가 배치되고, 스트랩(210) 내에서는 전자 장치(200)의 이동을 감지하는 가속도 센서가 배치되는바, 전자 장치(200)는 기설정된 압력 센서 하나에만 사용자 그립이 감지되고, 스트랩의 특정 방향(스트랩의 배치 방향과 다른 방향)으로의 이동이 감지되면, 이를 제17 사용자 인터랙션으로 판단할 수 있다.
한편, 제17 사용자 인터랙션에 대해서는 다양한 기능이 매핑될 수 있으나. 예를 들어, 연동된 장치와의 연결을 종료하는 기능으로 이용될 수 있다.
도 36은 제18 사용자 인터랙션을 설명하기 위한 도면이다. 구체적으로, 제18 사용자 인터랙션은 스트랩의 양 끝단을 잡고 각 끝단을 조이스틱과 같이 조정하는 인터랙션이다.
스트랩의 양 끝단에는 가속도 센서가 개별적으로 배치될 수 있다. 따라서 사용자는 스트랩을 목에 걸치고, 스트랩의 양 끝단을 조이스틱과 같이 이용할 수 있다. 전자 장치(200)는 연동된 장치의 동작이 게임이고, 기설정된 두 개의 압력 센서에 사용자 그립이 감지되면, 이를 제18 사용자 인터랙션으로 판단할 수 있다. 한편, 구현시에는 사용자의 방향조작이 조이스틱에 대응될 수 있을 뿐만 아니라, 다양한 운동 형태에 대응되게 조작될 수도 있다.
한편, 이상에서는 제1 및 제2 전자 장치를 사용자의 몸에 착용하여 이용하는 것에 대해서 설명하였지만, 구현시에는 사용자 몸에 착용 되지 않은 상태에서도 동작할 수 있다. 이에 대해서는 도 37 내지 도 38을 참조하여 후술한다.
도 37은 놓인 전자 장치를 회전하는 사용자 인터랙션을 설명하기 위한 도면이다.
도 37을 참조하면, 제1 실시 에에 따른 전자 장치(100) 및 제2 실시 예에 따른 전자 장치(200) 모두 내부에 가속도 센서가 배치될 수 있다. 따라서, 사용자는 특정 위치를 기준으로 전자 장치를 회전하는 조작을 수행할 수 있다. 전자 장치(100)는 특정 방향으로 회전하는 것을 감지하면, 이를 제19 사용자 인터랙션으로 판단할 수 있다.
이와 같은 제19 사용자 인터랙션은 전자 장치의 동작 상태를 홈 상태(또는 기본 상태)로 변경하는 기능으로 이용될 수 있으나, 이에 한정되지 않는다.
도 38은 전자 장치를 쥐는 사용자 인터랙션을 설명하기 위한 도면이다.
도 38을 참조하면, 사용자는 전자 장치(100, 200)의 스트랩을 도 38과 같이 쥐는 인터랙션을 수행할 수 있다. 이와 같은 동작에 대응하여, 전자 장치는 스트랩의 복수의 영역에서 벤딩이 발생되는 것을 감지할 수 있다. 따라서, 전자 장치는 스트랩의 복수의 영역에서 벤딩이 발생되는 것을 감지하면, 이를 제20 사용자 인터랙션으로 판단할 수 있다.
이와 같은 제20 사용자 인터랙션은 연동된 장치를 일시 정지하는 기능에 매핑될 수 있으나, 이에 한정되지 않는다.
도 39 및 도 40은 전자 장치의 다른 사용 태양을 설명하기 위한 도면이다.
도 39를 참조하면, 전자 장치는 사물에 매달린 상태로 배치된다. 이 경우, 사용자는 전자 장치를 흔드는 동작을 통하여 전자 장치의 화면을 킬 수 있다. 이러한 경우, 전자 장치는 소리 알림을 통하여 메시지 수신 등을 알릴 수 있다.
도 40을 참조하면, 본 실시 예에 따른 스트랩은 특정의 형상을 유지할 수 있다. 따라서, 사용자가 일정 이상의 힘을 주어 그 형상을 변경할 수 있으나, 그 일정 이상의 힘이 주어지지 않으면 스트랩은 그 형상을 유지하게 된다. 따라서, 도 40과 같이 사용자는 스트랩을 특정의 형상을 갖도록 변경하고, 기설정된 사운드가 지속적으로 출력할 수도 있다.
도 41은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 41을 참조하면, 스트랩의 구부러진 위치 및 각도를 측정한다(S4110). 구체적으로, 스트랩 내부의 플렉스 센서로부터 전달되는 정보에 기초하여 스트랩의 구부러진 위치 및 각도를 측정할 수 있다.
그리고 측정된 위치 및 각도에 대응한 UI 요소를 디스플레이할 수있다(S4120). 구체적으로, 측정된 위치 및 각도에 대응하여 사용자 인터랙션을 감지하고, 감지된 사용자 인터랙션에 대응되는 UI 요소를 표시할 수 있다. 사용자 인터랙션을 감지는 메인 바디부에 대한 터치가 감지된 경우에만 수행될 수 있다. 한편, 동일한 사용자 인터랙션도 전자 장치의 동작 상태 및 스트랩과 메인 바디부 간의 배치 형태에 따라 다른 기능이 수행될 수 있다.
따라서, 본 실시 예에 따른 제어 방법은, 벤딩 상태를 감지할 수 있는 스트랩을 이용하여 사용자의 다양한 인터랙션을 입력받을 수 있다. 또한, 입력된 다양한 인터랙션에 대응되는 다양한 기능을 제공할 수 있다. 도 41과 같은 제어 방법은 도 2의 구성을 가지는 전자 장치상에서 실시될 수 있으며, 그 밖의 구성을 가지는 전자 장치상에서도 실행될 수 있다.
또한, 상술한 바와 같은 제어 방법은, 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 애플리케이션)으로 구현될 수 있고, 상기 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 애플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어 져서는 안 될 것이다.
100: 전자 장치 110: 메인 바디부
115: 터치부 120: 디스플레이부
130: 스트랩 140: 센싱부
150: 통신부 160: 저장부
170: 제어부

Claims (20)

  1. 전자 장치에 있어서,
    스트랩;
    센싱부;
    상기 스트랩과 일 측이 연결된 디스플레이부; 및
    상기 센싱부를 통해 상기 스트랩의 구부러진 위치, 각도 및 상기 스트랩과 상기 디스플레이부 간의 상대적인 위치를 식별하고,
    상기 스트랩의 구부러진 위치, 각도 및 상기 스트랩과 상기 디스플레이부 간의 상대적인 위치에 기초하여 사용자 인터랙션을 식별하고,
    상기 식별된 사용자 인터랙션에 대응되는 UI 요소가 상기 디스플레이부에 디스플레이되도록 하는 제어부;를 포함하는 전자 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 스트랩은,
    상기 스트랩의 형상을 유지하도록 하는 가요선(flexible wire)을 포함하고,
    상기 센싱부는,
    상기 스트랩 내부에 배치되는 플렉스 센서(flex sensor)를 포함하는 전자 장치.
  4. 삭제
  5. 제1항에 있어서,
    상기 제어부는,
    상기 식별된 상대적인 위치에 기초하여 상기 전자 장치의 착용 형태를 판별하는 전자 장치.
  6. 제1항에 있어서,
    상기 제어부는,
    상기 식별된 상대적인 위치에 기초하여 상기 전자 장치의 동작 상태를 구분하는 전자 장치.
  7. 제6항에 있어서,
    상기 제어부는,
    상기 식별된 상대적이 위치에 기초하여 동일 방향에 배치된 스트랩 개수를 판별하고, 판별된 스트랩 개수에 기초하여 상기 전자 장치의 동작 상태를 구분하는 전자 장치.
  8. 제6항에 있어서,
    상기 제어부는,
    상기 구분된 동작 상태 및 상기 식별된 사용자 인터랙션에 대응되는 UI 요소가 상기 디스플레이부에 디스플레이되도록 하는 전자 장치.
  9. 제1항에 있어서,
    상기 센싱부는,
    상기 스트랩에 배치되는 복수의 자석 및 상기 디스플레이부에 배치되는 복수의 홀 센서를 포함하는, 전자 장치.
  10. 제1항에 있어서,
    상기 센싱부는,
    상기 스트랩에 배치되는 복수의 홀 센서 및 상기 디스플레이부에 배치되는 복수의 자석을 포함하는, 전자 장치.
  11. 제1항에 있어서,
    상기 디스플레이부 주변에 배치되며, 사용자 터치를 감지하는 터치부;를 더 포함하고,
    상기 제어부는,
    사용자 터치가 감지된 경우에만 사용자 인터랙션을 식별하는 전자 장치.
  12. 전자 장치에 있어서,
    스트랩;
    센싱부;
    통신 인터페이스부;
    상기 스트랩에 부착되어, 상기 전자 장치의 동작 상태를 표시하는 디스플레이부; 및
    상기 센싱부를 통해 상기 스트랩의 구부러진 위치, 각도 및 상기 스트랩과 상기 디스플레이부 간의 상대적인 위치를 식별하고,
    상기 스트랩의 구부러진 위치, 각도 및 상기 스트랩과 상기 디스플레이부 간의 상대적인 위치에기초하여 사용자 인터랙션을 식별하고,
    상기 식별된 사용자 인터랙션에 대응되는 제어 명령을 다른 전자 장치로 전송하도록 상기 통신 인터페이스부를 제러하는 제어부;를 포함하는 전자 장치.
  13. 제12항에 있어서,
    상기 스트랩은,
    상기 스트랩의 형상을 유지하도록 하는 가요선(flexible wire)을 포함하고,
    상기 센싱부는,
    상기 스트랩 내부에 배치되는 플렉스 센서(flex sensor)를 포함하는 것을 특징으로 하는 전자 장치.
  14. 삭제
  15. 제12항에 있어서,
    상기 센싱부는,
    방위 센서 및 가속도 센서 중 적어도 하나를 포함하여, 상기 전자 장치의 방향 정보를 획득하고,
    상기 제어부는,
    상기 획득된 전자 장치의 방향 정보에 기초하여 사용자 인터랙션을 식별 하는 전자 장치.
  16. 삭제
  17. 제12항에 있어서,
    상기 스트랩에 부착되어, 음파를 녹취하여 음성 데이터를 획득하는 마이크;를 더 포함하고,
    상기 제어부는, 상기 획득된 음성 데이터를 상기 다른 전자 장치로 전송하도록 상기 통신 인터페이스부를 제어하는 전자 장치.
  18. 제12항에 있어서,
    상기 스트랩에 부착된 스피커;를 더 포함하며,
    상기 제어부는,
    상기 통신 인터페이스부를 통해 상기 다른 전자 장치로부터 음성 데이터가 수신되면, 상기 스피커를 통해 상기 음성 데이터를 출력하는 전자 장치.
  19. 스트랩을 포함하는 전자 장치의 제어 방법에 있어서,
    상기 스트랩의 구부러진 위치, 각도 및 상기 스트랩과 디스플레이부 간의 상대적인 위치를 식별하는 단계;
    상기 스트랩의 구부러진 위치, 각도 및 상기 스트랩과 상기 디스플레이부 간의 상대적인 위치에기초하여 사용자 인터랙션을 식별하는 단계; 및
    상기 식별된 사용자 인터랙션에 대응되는 UI 요소를 디스플레이하는 단계;를 포함하는 제어 방법.
  20. 제19항에 있어서,
    사용자 터치 제스처를 획득하는 단계;를 더 포함하고,
    상기 디스플레이하는 단계는,
    사용자 터치 제스처가 획득된 경우에만 상기 식별된 사용자 인터랙션에 대응되는 UI 요소를 디스플레이하는 제어 방법.

KR1020150085031A 2015-06-16 2015-06-16 전자 장치 및 그의 제어 방법 KR102334084B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020150085031A KR102334084B1 (ko) 2015-06-16 2015-06-16 전자 장치 및 그의 제어 방법
PCT/KR2016/006387 WO2016204526A1 (en) 2015-06-16 2016-06-16 Electronic apparatus including a strap and method of controlling the same
CN201680035522.2A CN107820588A (zh) 2015-06-16 2016-06-16 包括带子在内的电子设备及其控制方法
EP16811939.4A EP3311252B1 (en) 2015-06-16 2016-06-16 Electronic apparatus including a strap and method of controlling the same
US15/184,541 US10089007B2 (en) 2015-06-16 2016-06-16 Electronic apparatus including a strap and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150085031A KR102334084B1 (ko) 2015-06-16 2015-06-16 전자 장치 및 그의 제어 방법

Publications (2)

Publication Number Publication Date
KR20160148266A KR20160148266A (ko) 2016-12-26
KR102334084B1 true KR102334084B1 (ko) 2021-12-03

Family

ID=57546563

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150085031A KR102334084B1 (ko) 2015-06-16 2015-06-16 전자 장치 및 그의 제어 방법

Country Status (5)

Country Link
US (1) US10089007B2 (ko)
EP (1) EP3311252B1 (ko)
KR (1) KR102334084B1 (ko)
CN (1) CN107820588A (ko)
WO (1) WO2016204526A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105045394A (zh) * 2015-08-03 2015-11-11 歌尔声学股份有限公司 一种可穿戴式电子终端中预设功能的启动方法和装置
KR102390437B1 (ko) * 2017-12-12 2022-04-26 삼성디스플레이 주식회사 전자장치 및 그 구동방법
CN109960404B (zh) * 2019-02-15 2020-12-18 联想(北京)有限公司 一种数据处理方法及装置
US11178342B2 (en) * 2019-07-18 2021-11-16 Apple Inc. Camera systems for bendable electronic devices
CN111309098B (zh) * 2020-01-22 2020-12-01 鄢家厚 基于传感器判断读写状态的方法
CN113341681B (zh) * 2021-06-22 2023-07-14 歌尔科技有限公司 腕戴设备、显示方法和计算机可读存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4181901B2 (ja) 2002-05-10 2008-11-19 アルプス電気株式会社 入力装置及び電子機器
KR101341717B1 (ko) 2006-12-26 2013-12-16 엘지전자 주식회사 목걸이형 휴대용기기 및 이의 조작방법
US8851372B2 (en) * 2011-07-18 2014-10-07 Tiger T G Zhou Wearable personal digital device with changeable bendable battery and expandable display used as standalone electronic payment card
US8279716B1 (en) 2011-10-26 2012-10-02 Google Inc. Smart-watch including flip up display
US20140118270A1 (en) * 2012-10-26 2014-05-01 Qualcomm Incorporated System and method for providing infrared gesture interaction on a display
US8725842B1 (en) * 2013-07-11 2014-05-13 Khalid Al-Nasser Smart watch
WO2015038684A1 (en) 2013-09-10 2015-03-19 Polyera Corporation Attachable article with signaling, split display and messaging features
EP2866101B1 (en) 2013-10-16 2020-07-15 Lg Electronics Inc. Watch type mobile terminal
KR102169952B1 (ko) * 2013-10-18 2020-10-26 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
DE112013007524T5 (de) * 2013-10-24 2016-08-04 Apple Inc. Armbandgerät-Eingabe mittels Handgelenkbewegung
KR102145735B1 (ko) * 2013-11-07 2020-08-19 엘지전자 주식회사 이동단말기 및 그 제어방법
CN103558918B (zh) * 2013-11-15 2016-07-27 上海威璞电子科技有限公司 在智能手表中实现手势识别技术的方法
KR20150063677A (ko) 2013-12-02 2015-06-10 삼성전자주식회사 휴대장치 및 그 제어방법
CN103713740A (zh) * 2013-12-31 2014-04-09 华为技术有限公司 腕戴式终端设备及其显示控制方法
US20150227245A1 (en) * 2014-02-10 2015-08-13 Polyera Corporation Attachable Device with Flexible Electronic Display Orientation Detection
KR102204553B1 (ko) * 2014-05-23 2021-01-19 엘지전자 주식회사 와치 타입 이동 단말기 및 그것의 제어방법
KR20160134310A (ko) * 2015-05-15 2016-11-23 삼성전자주식회사 전자 장치 및 그의 제어 방법
CN104978142B (zh) * 2015-06-17 2018-07-31 华为技术有限公司 一种智能穿戴设备及智能穿戴设备的控制方法

Also Published As

Publication number Publication date
EP3311252A4 (en) 2018-06-20
US10089007B2 (en) 2018-10-02
WO2016204526A1 (en) 2016-12-22
EP3311252B1 (en) 2021-06-02
CN107820588A (zh) 2018-03-20
EP3311252A1 (en) 2018-04-25
KR20160148266A (ko) 2016-12-26
US20160370881A1 (en) 2016-12-22

Similar Documents

Publication Publication Date Title
KR102334084B1 (ko) 전자 장치 및 그의 제어 방법
US11153431B2 (en) Mobile terminal and method of operating the same
JP6844665B2 (ja) 端末装置、端末装置の制御方法およびプログラム
US10143403B2 (en) System and method for rehabilitation exercise of the hands
US10216274B2 (en) Systems, articles, and methods for wearable human-electronics interface devices
US9372535B2 (en) Systems, articles, and methods for electromyography-based human-electronics interfaces
CN104364727B (zh) 多段可穿戴配件
US20150160622A1 (en) Smart watch and control method thereof
US20150261306A1 (en) Systems, devices, and methods for selecting between multiple wireless connections
KR102127390B1 (ko) 무선 리시버 및 그 제어 방법
KR20140062895A (ko) 외부 장치를 제어하기 위한 웨어러블 디바이스 및 그 방법
KR20150033902A (ko) 스마트 와치 및 제어 방법
KR102033334B1 (ko) 변형가능한 기재를 가지는 손목착용형 장치
CN105094288B (zh) 一种控制电子设备的方法及电子设备
EP3093732B1 (en) Electronic apparatus and method for controlling thereof
KR20160008890A (ko) 신체를 이용하여 터치 입력을 제공하는 장치 및 방법
US9304613B2 (en) Multimedia device and method for controlling operation thereof
US20230076068A1 (en) Systems for interpreting a digit-to-digit gesture by a user differently based on roll values of a wrist-wearable device worn by the user, and methods of use thereof
JP6828134B2 (ja) 情報処理装置、方法およびプログラム
CN109891364B (zh) 信息处理装置、方法和程序
CN105630357B (zh) 一种电子设备及信息处理方法
KR101790216B1 (ko) 사용자 인터페이스를 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR101521889B1 (ko) 디지털 장치 및 그 제공방법
KR20220167978A (ko) 웨어러블 디바이스 및 그 제어 방법
WO2023034631A1 (en) Systems for interpreting a digit-to-digit gesture by a user differently based on roll values of a wrist- wearable device worn by the user, and methods of use thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant