KR20190043018A - 사용자 입력을 수신하여 동작을 수행하는 웨어러블 전자 장치 및 그 전자 장치의 제어 방법 - Google Patents

사용자 입력을 수신하여 동작을 수행하는 웨어러블 전자 장치 및 그 전자 장치의 제어 방법 Download PDF

Info

Publication number
KR20190043018A
KR20190043018A KR1020170134792A KR20170134792A KR20190043018A KR 20190043018 A KR20190043018 A KR 20190043018A KR 1020170134792 A KR1020170134792 A KR 1020170134792A KR 20170134792 A KR20170134792 A KR 20170134792A KR 20190043018 A KR20190043018 A KR 20190043018A
Authority
KR
South Korea
Prior art keywords
user input
electronic device
user
display
operation corresponding
Prior art date
Application number
KR1020170134792A
Other languages
English (en)
Inventor
발레리 프루신스키
문석현
이대기
허창룡
김중현
이준영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170134792A priority Critical patent/KR20190043018A/ko
Publication of KR20190043018A publication Critical patent/KR20190043018A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자 입력에 대응되는 동작을 수행하기 위한 정보를 저장한 메모리; 상기 전자 장치를 착용한 사용자의 신체에 접촉하여 상기 신체의 진동(oscillation)을 감지하는 마이크; 및 상기 메모리 및 상기 마이크와 전기적으로 연결될 프로세서;를 포함하고, 상기 프로세서는, 상기 마이크를 통해 감지된 상기 신체의 진동에 기초하여 상기 사용자 입력이 수신되었는지 판단하고, 상기 사용자 입력이 수신된 것으로 판단되면, 상기 수신된 사용자 입력에 대응되는 동작을 수행할 수 있는 전자 장치가 개시된다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

사용자 입력을 수신하여 동작을 수행하는 웨어러블 전자 장치 및 그 전자 장치의 제어 방법{WEARABLE ELECTRONIC APPARATUS THAT PERFORMS OPERATION BY RECEIVING USER INPUT AND CONTROLLING METHOD THEREOF}
본 문서에서 개시되는 실시 예들은, 수신된 사용자 입력에 대응되는 동작을 수행하는 기술과 관련된다.
사용자의 신체에 직접 착용할 수 있는 웨어러블(wearable) 전자 장치의 개발이 활발하게 이루어지고 있다. 웨어러블 전자 장치는 손목, 발목, 목, 허리, 머리 등의 신체에 착용되어 이동성(mobility) 및 휴대성(portability)이 향상될 수 있다.
사용자의 신체에 장착된 웨어러블 전자 장치는 사용자의 입력에 따라 음성 통화, 영상 통화 등과 같은 통화 기능, SMS(short message service), MMS(multimedia message service), 이메일(e-mail) 등과 같은 메시지 송수신 기능, 전자 수첩 기능, 촬영 기능, 동영상 재생 기능, 인터넷 기능 등을 사용자에게 제공할 수 있다.
웨어러블 전자 장치가 하드웨어 키(hardware key) 또는 터치 스크린 디스플레이를 통해 사용자 입력을 수신하는 경우, 수신할 수 있는 사용자 입력의 종류가 제한적이고, 정확한 사용자 입력을 수신하기 어렵다. 또한, 사용자가 물건을 옮기는 등의 신체를 이용한 행동을 하고 있는 경우, 하드웨어 키 또는 터치 스크린 디스플레이를 통해 입력하기 어렵다.
또한, 웨어러블 전자 장치는 마이크를 통해 사용자의 발화를 사용자 입력으로 수신하여 사용자 입력에 대응되는 동작을 수행하는 경우, 주변에서 발생한 소음에 의해 사용자의 음성 입력을 정확하게 수신하기 어렵다.
본 발명의 다양한 실시 예는 주변 소음에 방해 받지 않고 사용자 입력을 수신할 수 있는 웨어러블 전자 장치를 제공할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 웨어러블 전자 장치는, 사용자 입력에 대응되는 동작을 수행하기 위한 정보를 저장한 메모리; 상기 전자 장치를 착용한 사용자의 신체에 접촉하여 상기 신체의 진동(oscillation)을 감지하는 마이크; 및 상기 메모리 및 상기 마이크와 전기적으로 연결될 프로세서;를 포함하고, 상기 프로세서는, 상기 마이크를 통해 감지된 상기 신체의 진동에 기초하여 상기 사용자 입력이 수신되었는지 판단하고, 상기 사용자 입력이 수신된 것으로 판단되면, 상기 수신된 사용자 입력에 대응되는 동작을 수행할 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 웨어러블 전자 장치의 제어 방법은, 마이크를 통해 상기 전자 장치를 착용한 사용자의 신체에 접촉하여 상기 신체의 진동(oscillation)을 감지하는 동작; 상기 감지된 상기 신체의 진동에 기초하여 상기 사용자 입력이 수신되었는지 판단하는 동작; 및 상기 사용자 입력이 수신된 것으로 판단되면, 상기 수신된 사용자 입력에 대응되는 동작을 수행하는 동작;을 포함할 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 기록매체는, 마이크를 통해 웨어러블(wearable) 전자 장치를 착용한 사용자의 신체에 접촉하여 상기 신체의 진동(oscillation)을 감지하는 동작; 상기 감지된 상기 신체의 진동에 기초하여 상기 사용자에 의한 사용자 입력이 수신되었는지 판단하는 동작; 및 상기 사용자 입력이 수신된 것으로 판단되면, 상기 발생된 사용자 입력에 대응되는 동작을 수행하는 동작;을 포함하는 방법을 수행하는 프로그램이 기록될 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 웨어러블 전자 장치는 비언어적 소리를 포함하는 사용자 입력에 의한 사용자의 신체의 진동을 감지하여 사용자 입력을 수신함으로써, 주변 소음에 영향을 받지 않고 사용자 입력을 수신할 수 있다. 또한, 웨어러블 전자 장치는 신체의 진동의 지속 시간 또는 발생 횟수에 기초하여 동작을 실행함으로써 한정된 비언어적 소리를 구별하여 사용자 입력에 대응되는 복수의 동작을 실행할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 다양한 실시 예에 따른 웨어러블(wearable) 전자 장치를 나타낸 도면이다.
도 2는 다양한 실시 예에 따른 전자 장치의 구성을 나타낸 블록도이다.
도 3은 일 실시 예에 따른 전자 장치에 포함된 마이크의 위치를 나타낸 도면이다.
도 4는 일 실시 예에 따른 전자 장치가 진동을 감지하는 방법을 나타낸 도면이다.
도 5는 일 실시 예에 따른 전자 장치가 수신하는 비언어적 소리를 포함하는 사용자 입력을 나타낸 도면이다.
도 6 및 도 7은 다양한 실시 예에 따른 전자 장치가 수신한 비언어적 소리의 진동을 나타낸 그래프이다.
도 8 및 도 9는 일 실시 예에 따른 전자 장치가 사용자 입력에 따라 디스플레이에 표시된 화면이 변경되는 것을 나타낸 도면이다.
도 10 내지 도 14는 다양한 실시 예에 따른 전자 장치의 화면이 변경되는 것을 나타낸 도면이다.
도 15은 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도를 나타낸다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은 다양한 실시 예에 따른 웨어러블(wearable) 전자 장치를 나타낸 도면이다.
도 1을 참조하면, 웨어러블 전자 장치(또는, 전자 장치)(100)는 사용자 입력을 수신하여 디스플레이에 표시된 이미지를 변경할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자의 신체(10)에 착용될 수 있다. 다시 말해, 사용자는 전자 장치(100)를 사용자의 신체에 착용할 수 있다. 예를 들어, 전자 장치(100)는 사용자의 손목에 착용되는 스마트 워치(smart watch)일 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자 입력을 수신할 수 있다. 예를 들어, 전자 장치(100)는 사용자의 비언어적 소리(non-speech sound)를 사용자 입력으로 수신할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 상기 비언어적 소리에 의한 신체의 진동을 통해 사용자 입력을 수신할 수 있다. 상기 비언어적 소리는, 예를 들어, 신체의 적어도 일부를 사용하여 발생시킨 언어적 의미를 포함하지 않는 소리일 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 수신된 사용자 입력에 대응되는 동작을 수행할 수 있다. 예를 들어, 전자 장치(100)는 디스플레이에 표시된 화면을 변경하기 위한 사용자 입력을 수신하고, 사용자 입력에 따라 디스플레이에 표시된 이미지를 변경할 수 있다.
도 2는 다양한 실시 예에 따른 전자 장치의 구성을 나타낸 블록도이다.
도 2를 참조하면, 웨어러블 전자 장치(100)는 메모리(110), 마이크(120), 디스플레이(130) 및 프로세서(140)를 포함할 수 있다.
일 실시 예에 따르면, 메모리(110)는 전자 장치(100)의 동작을 제어하기 위한 정보를 저장할 수 있다. 예를 들어, 메모리(110)는 사용자 입력을 수신하기 위한 제어 정보를 저장할 수 있다. 상기 사용자 입력을 수신하기 위한 정보는, 예를 들어, 사용자 입력(예: 비언어적 소리)이 수신되었는지 판단하기 위한 진동의 크기 정보를 포함할 수 있다. 다른 예를 들어, 메모리(100)는 사용자 입력에 대응되는 동작을 실행하기 위한 정보를 저장할 수 있다. 상기 사용자 입력에 대응되는 동작을 수행하기 위한 정보는, 예를 들어, 사용자 입력의 지속 시간 정보 및 발생 횟수 정보를 포함할 수 있다. 또한, 상기 사용자 입력에 대응되는 동작을 수행하기 위한 정보는, 예를 들어, 디스플레이(130)에 표시하기 위한 이미지 정보를 포함할 수 있다.
일 실시 예에 따르면, 마이크(120)는 신체의 진동을 감지할 수 있다. 예를 들어, 마이크(120)의 멤브레인(membrane)은 사용자의 신체에 접촉하여 상기 신체의 진동을 감지할 수 있다.
일 실시 예에 따르면, 디스플레이(130)는 이미지를 표시할 수 있다. 예를 들어, 디스플레이(130)는 어플리케이션 프로그램(application program)(또는, 어플리케이션)의 UI(user interface) 이미지를 표시할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(140)는 메모리(110), 마이크(120) 및 디스플레이(130)와 전기적으로 연결되어 전자 장치(100)의 전반적인 동작을 제어할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 마이크(120)를 통해 사용자 입력을 수신할 수 있다. 예를 들어, 프로세서(140)는 마이크(120)를 통해 사용자 입력에 의한 신체의 진동을 감지함으로써 사용자 입력을 수신할 수 있다. 상기 사용자 입력은, 예를 들어, 사용자의 신체의 적어도 일부를 이용하여 발생시킨 비언어적 소리를 포함할 수 있다 다시 말해, 프로세서(140)는 마이크(120)를 통해 비언어적 소리를 사용자 입력으로 수신할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 마이크(120)를 통해 감지된 신체의 진동에 기초하여 사용자 입력이 수신되었는지 판단할 수 있다. 프로세서(140)는 메모리(110)에 저장된 제어 정보를 이용하여 사용자 입력이 수신되었는지 판단할 수 있다. 예를 들어, 프로세서(140)는 지정된 크기 이상의 진동이 감지되면, 사용자 입력이 수신된 것으로 판단할 수 있다.
일 실시 예에 따르면, 프로세서(140)는 상기 사용자 입력이 수신된 것으로 판단되면, 상기 수신된 사용자 입력에 대응되는 동작을 수행할 수 있다. 프로세서(140)는 메모리(110)에 저장된 제어 정보를 이용하여 사용자 입력에 대응되는 동작을 수행할 수 있다. 예를 들어, 프로세서(140)는 사용자 입력에 의해 발생된 진동의 지속 시간에 기초하여 사용자 입력에 대응되는 동작을 수행할 수 있다. 다른 예를 들어, 프로세서(140)는 사용자 입력에 의해 발생된 진동의 발생 횟수에 기초하여 사용자 입력에 대응되는 동작을 수행할 수 있다. 상기 사용자 입력에 의해 발생된 진동은, 예를 들어, 지정된 크기 이상의 진동일 수 있다.
일 실시 예에 따르면, 프로세서(140)는 사용자 입력에 대응되는 이미지를 디스플레이(130)에 표시할 수 있다. 상기 디스플레이(130)에 표시되는 이미지는, 예를 들어, 실행된 어플리케이션의 UI 이미지일 수 있다.
도 3 및 도 4는 일 실시 예에 따른 전자 장치가 사용자 입력을 수신하는 방법을 나타낸 도면이다.
도 3를 참조하면, 마이크(예: 도 2의 마이크(120))는 전자 장치(100)서 신체의 진동을 감지하기 위해 상기 신체와 접촉될 수 있는 위치에 배치될 수 있다. 일 실시 예에 따르면, 마이크는 진동을 감지하기 위한 멤브레인이 사용자의 신체와 접촉될 수 있는 위치에 배치될 수 있다. 예를 들어, 마이크는 사용자의 신체(예: 손목)에 접촉할 수 있는 전자 장치(100)의 하면(100a)에 배치될 수 있다.
도 4를 참조하면, 사용자의 신체(10)에 접촉되는 위치(100a)에 배치된 마이크는 사용자 입력에 의한 신체(10)의 진동을 감지할 수 있다. 일 실시 예에 따르면, 마이크는 비언어적 소리에 의한 사용자의 신체(10)의 진동을 감지할 수 있다. 상기 비언어적 소리에 의한 진동은, 예를 들어, 신체(10)의 뼈(bone)(11), 근육(muscle)(13) 및 힘줄(tendons)(15) 및 조직(17)을 통해 마이크로 전달될 수 있다.
이에 따라, 전자 장치(10)는 비언어적 소리를 포함하는 사용자 입력을 공기의 진동을 통해서가 아닌, 사용자의 신체의 진동을 통해 수신할 수 있다.
도 5는 일 실시 예에 따른 전자 장치가 수신하는 비언어적 소리를 포함하는 사용자 입력을 나타낸 도면이다.
도 5를 참조하면, 사용자는 사용자 입력을 위한 비언어적 소리(non-speech sound)를 발생시킬 수 있다.
일 실시 예에 따르면, 사용자는 신체의 적어도 일부를 이용하여 비언어적 소리를 포함하는 사용자 입력을 발생시킬 수 있다. (a)를 참조하면, 상기 비언어적 소리는, 예를 들어, 사용자는 손(10)(또는, 손가락)으로 두드리는(knocking) 소리(1)를 포함할 수 있다. (b)를 참조하면, 상기 비언어적 소리는, 다른 예를 들어, 사용자의 손가락들(10) 사이의 마찰(friction) 소리(3)일 수 일 수 있다. 그 밖에도, 상기 비언어적 소리는 사용자의 숨을 내쉬는(breathing out) 소리, 사용자의 휘파람(whistling) 소리, 사용자의 외치는(shouting) 소리, 사용자의 속삭이는(whispering) 소리, 사용자의 혀를 차는(clicking) 소리 및 사용자의 옷의 바스락거리는(rustling) 소리 중 어느 하나를 포함할 수 있다. 이에 따라, 상기 비언어적 소리에 의해 사용자 신체의 진동이 발생할 수 있다.
도 6 및 도 7은 다양한 실시 예에 따른 전자 장치가 수신한 비언어적 소리의 진동을 나타낸 그래프이다.
도 6을 참조하면, 전자 장치(100)(예: 도 2의 마이크(120))는 지속 시간을 변경할 수 있는 비언어적 소리를 포함하는 사용자 입력에 의해 발생된 신체의 진동을 감지할 수 있다. 상기 비언어적 소리는, 예를 들어, 숨을 내쉬는 소리, 휘파람 소리, 외치는 소리 등, 사용자의 목(throat) 및 폐(lungs)에 의해서 발생되는 소리일 수 있다.
(a)를 참조하면, 전자 장치(100)는 사용자의 숨을 내쉬는 소리 또는 휘파람 소리를 포함하는 사용자 입력에 의한 신체의 진동을 감지할 수 있다. 상기 신체의 진동은 심장의 동작에 따른 진동(611) 및 사용자 입력에 의한 진동(613, 615)을 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 지정된 크기(L, L') 이상의 진동(613, 615)을 감지하면, 사용자 입력이 수신된 것으로 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 지정된 크기(L, L') 이상의 진동(613, 615)의 지속 시간(t1, t2)을 측정할 수 있다. 전자 장치(100)는 상기 측정된 지속 시간(t1, t2)에 기초하여 사용자 입력에 대응되는 동작을 수행할 수 있다.
(b)를 참조하면, 전자 장치(100)는 사용자의 외치는 소리를 포함하는 사용자 입력에 의한 신체의 진동을 감지할 수 있다. 상기 신체의 진동은 심장의 동작에 따른 진동(621) 및 사용자 입력에 의한 진동(623, 625)을 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 지정된 크기(L, L') 이상의 진동(623, 625)을 감지하여 사용자 입력이 수신된 것으로 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 상기 수신된 사용자 입력의 지속 시간(t3, t4)을 측정하여 사용자 입력에 대응되는 동작을 수행할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자 입력의 지속 시간(t1 ~ t4)에 기초하여 상기 사용자 입력에 대응되는 동작을 실행할 수 있다. 예를 들어, 전자 장치(100)는 지정된 시간(ts)을 기준으로 지정된 크기(L, L') 이상의 진동(613, 615, 623, 625)의 지속 시간(t1 ~ t4)에 따라 수신된 사용자 입력을 구별하여 사용자 입력에 대응되는 동작을 실행할 수 있다. 전자 장치(100)는 제1 진동(613)(또는, 제2' 진동(625))의 지속 시간(t1)(또는, t4)이 지정된 시간(ts) 미만이면, 제1 동작을 수행할 수 있다. 전자 장치(100)는 제2 진동(615)(또는, 제1' 진동(623))의 지속 시간(t2)(또는, t3)이 지정된 시간(ts) 이상이면, 상기 제1 동작과 상이한 제2 동작을 수행할 수 있다.
도 7을 참조하면, 전자 장치(100)는 지속 시간을 변경하기 어려운 비언어적 소리를 포함하는 사용자 입력에 의해 발생된 신체의 진동을 감지할 수 있다. 상기 비언어적 소리는, 예를 들어, 손으로 두드리는 소리, 손가락들 사이의 마찰 소리, 혀를 차는 소리 등, 사용자의 손, 혀 등에 의해서 발생되는 소리일 수 있다.
(a)를 참조하면, 전자 장치(100)는 사용자의 손가락들 사이의 마찰 소리를 포함하는 사용자 입력에 의한 신체의 진동을 감지할 수 있다. 상기 신체의 진동은 심장의 동작에 따른 진동(711) 및 사용자 입력에 의한 진동(713, 715, 717)을 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 지정된 크기(L, L') 이상의 진동(713, 715, 717)을 감지하면, 사용자 입력이 수신된 것으로 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 지정된 크기(L, L') 이상의 진동(713, 715, 717)의 발생 횟수를 측정할 수 있다. 전자 장치(100)는 상기 측정된 발생 횟수에 기초하여 사용자 입력에 대응되는 동작을 수행할 수 있다.
(b)를 참조하면, 전자 장치(100)는 사용자의 전자 장치(100)를 착용한 팔의 손으로 테이블을 두드리는 소리를 포함하는 사용자 입력에 의한 신체의 진동을 감지할 수 있다. 상기 신체의 진동은 심장의 동작에 따른 진동(721) 및 사용자 입력에 의한 진동(723, 725, 727)을 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 지정된 크기(L, L') 이상의 진동(723, 725, 727)을 감지하여 사용자 입력이 수신된 것으로 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 상기 수신된 사용자 입력의 발생 횟수를 측정하여 사용자 입력에 대응되는 동작을 수행할 수 있다.
(c)를 참조하면, 전자 장치(100)는 사용자의 전자 장치(100)를 착용한 팔과 다른 팔의 손으로 테이블을 두드리는 소리를 포함하는 사용자 입력에 의한 신체의 진동을 감지할 수 있다. 상기 신체의 진동은 심장의 동작에 따른 진동(731) 및 사용자 입력에 의한 진동(733, 735, 737)을 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 지정된 크기(L, L') 이상의 진동(733, 735, 737)을 감지하여 사용자 입력이 수신된 것으로 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 상기 수신된 사용자 입력의 발생 횟수를 측정하여 사용자 입력에 대응되는 동작을 수행할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자 입력의 발생 횟수에 기초하여 상기 사용자 입력에 대응되는 동작을 실행할 수 있다. 예를 들어, 전자 장치는 지정된 시간(ts')을 기준으로 지정된 크기(L, L') 이상의 진동 (713, 715, 717, 723, 725, 727, 733, 735, 737)의 발생 횟수에 따라 사용자 입력에 대응되는 동작을 실행할 수 있다. 상기 발생 횟수는, 예를 들어, 지정된 시간(ts') 내에 발생된 진동의 횟수일 수 있다. 전자 장치(100)는 지정된 시간(ts') 내에 발생한 1회의 진동(예: 제3 진동(713) 또는 제4 진동(723))에 대응되는 제3 동작을 수행할 수 있다. 전자 장치(100)는 지정된 시간(ts') 내에 발생한 2회의 진동(예: 제3' 진동(715) 및 제3'' 진동(717), 또는 제4' 진동(735) 및 제4'' 진동(737)) 에 대응되는 제4 동작을 수행할 수 있다. 또한, 전자 장치(100)는 지정된 시간(ts') 내에 발생한 3회의 진동(예: 제5 진동(733), 제5' 진동(755) 및 제5'' 진동(757))에 대응되는 제5 동작을 수행할 수 있다.
도 8 및 도 9는 일 실시 예에 따른 전자 장치가 사용자 입력에 따라 디스플레이에 표시된 화면이 변경되는 것을 나타낸 도면이다.
도 8을 참조하면, 전자 장치(100)는 수신된 사용자 입력에 대응되는 이미지를 디스플레이(예: 도 2의 디스플레이(130))에 표시할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 사용자 입력을 수신할 수 있다. 상기 제1 사용자 입력은, 예를 들어, 지정된 시간(예: 도 6의 지정된 시간(ts)) 이상으로 지속될 수 있다. 다시 말해, 제1 사용자 입력에 의한 신체(10)의 진동은 지정된 시간 이상으로 지속될 수 있다. 이에 따라, 전자 장치(100)는 디스플레이에 표시된 제1 이미지(1)를 제2 이미지(2)로 변경할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제2 사용자 입력을 수신할 수 있다. 다시 말해, 제2 사용자 입력에 의한 신체(10)의 진동은 지정된 시간 미만으로 지속될 수 있다. 이에 따라, 전자 장치(100)는 디스플레이에 표시된 제2 이미지(2)를 제1 이미지(1)로 변경할 수 있다. 일 실시 예에 따르면, 제1 이미지(1)는 제2 이미지(2) 전에 디스플레이에 표시된 이미지일 수 있다. 다시 말해, 제2 이미지(2)는 제1 이미지(1) 전에 디스플레이에 표시된 이미지일 수 있다.
다른 실시 예에 따르면, 전자 장치(100)는 사용자 입력의 발생한 횟수에 따라 디스플레이에 표시된 이미지를 변경할 수 있다. 예를 들어, 전자 장치(100)는 1회의 사용자 입력을 수신하면, 디스플레이의 제1 이미지(1)를 제2 이미지(2)로 변경할 수 있다. 또한, 전자 장치(100)는 2회의 사용자 입력을 수신하면, 디스플레이의 제2 이미지(2)를 제1 이미지(1)로 변경할 수 있다.
도 9를 참조하면, 전자 장치(100)는 복수의 사용자 입력을 수신하고, 상기 복수의 사용자 입력 각각에 대응되는 이미지를 변경할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 복수의 동일한 사용자 입력을 수신할 수 있다. 상기 복수의 동일한 사용자 입력은, 예를 들어, 지정된 시간을 초과(예: 도 7의 지정된 시간(ts')) 하여 수신될 수 있다. 이에 따라, 전자 장치(100)는 상기 복수의 사용자 입력 각각 수신하였을 때, 디스플레이에 표시된 이미지를 제1 이미지(1) 내지 제5 이미지(5)로 순차적으로 변경할 수 있다.
도 10 내지 도 14는 다양한 실시 예에 따른 전자 장치의 화면이 변경되는 것을 나타낸 도면이다.
도 10을 참조하면, 전자 장치(100)는 비언어적 소리를 포함하는 사용자 입력에 따라 디스플레이(1000)에 표시된 이미지를 줌인(zoom-in) 또는 줌아웃(zoom-out)할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 사용자 입력에 따라 디스플레이(1000)에 표시된 이미지(1010)를 줌인된 이미지(1020)로 변경할 수 있다. 상기 제1 사용자 입력은, 예를 들어, 지정된 시간(ts) 이상인 긴 비언어적 소리(long non-speech sound)를 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제2 사용자 입력에 따라 디스플레이(1000)에 표시된 이미지(1020)를 줌아웃된 이미지(1010)로 변경할 수 있다. 상기 제2 사용자 입력은, 예를 들어, 지정된 시간(ts) 미만인 짧은 비언어적 소리(short non-speech sound)를 포함할 수 있다.
다른 실시 예에 따르면, 전자 장치는(100)는 발생 횟수에 따라 사용자 입력에 따라 디스플레이(1000)에 표시된 이미지를 줌인 또는 줌아웃할 수 있다.
도 11을 참조하면, 전자 장치(100)는 사용자 입력에 따라 전자 장치(100)의 설정(예: 볼륨)을 변경할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 사용자 입력(예: 긴 비언어적 소리)에 따라 전자 장치(100)의 볼륨을 증가시킬 수 있다. 전자 장치(100)는 상기 제1 사용자 입력에 따라 변경된 볼륨 (1120)을 디스플레이(1100)에 표시할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제2 사용자 입력(예: 짧은 비언어적 소리)에 따라 전자 장치(100)의 볼륨을 감소시킬 수 있다. 전자 장치(100)는 상기 제2 사용자 입력에 따라 변경된 볼륨(1110)을 디스플레이(110)에 표시할 수 있다.
도 12를 참조하면, 전자 장치(100)는 사용자 입력에 따라 실행된 앱의 선택된 메뉴를 변경할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 사용자 입력(예: 긴 비언어적 소리)에 따라 실행된 네비게이션 앱의 선택된 메뉴를 제1 메뉴(1210)에서 제2 메뉴(1220)로 변경할 수 있다. 예를 들어, 전자 장치(100)는 제2 메뉴(1220)가 선택된 UI 이미지를 디스플레이(100)에 표시할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제2 사용자 입력(예: 짧은 비언어적 소리)에 따라 실행된 네비게이션 앱의 선택된 메뉴를 제2 메뉴(1220)에서 제1 메뉴(1210)로 변경할 수 있다. 예를 들어, 전자 장치(100)는 제1 메뉴(1210)가 선택된 UI 이미지를 디스플레이(100)에 표시할 수 있다.
도 13을 참조하면, 전자 장치(100)는 사용자 입력에 따라 디스플레이(1300)에 표시된 컨텐츠(contents)를 변경할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 사용자 입력(예: 긴 비언어적 소리)에 따라 디스플레이(1300)에 표시된 제1 연락처(1310)를 제2 연락처(1320)로 변경할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제2 사용자 입력(예: 짧은 비언어적 소리)에 따라 디스플레이(1300)에 표시된 제2 연락처(1320)를 제1 연락처(1310)로 변경할 수 있다.
도 14를 참조하면, 전자 장치(100)는 비언어적 소리를 포함하는 사용자 입력에 따라 디스플레이(1400)에 표시된 이미지에 포함된 리스트의 선택된 항목을 변경할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 사용자 입력(예: 긴 비언어적 소리)에 따라 선택된 항목을 제1 항목(1410)에서 제2 항목(1420)으로 변경할 수 있다. 예를 들어, 전자 장치(100)는 선택된 제2 항목(1420)을 디스플레이(1400)에 표시(1400a)할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제2 사용자 입력(예: 짧은 비언어적 소리)에 따라 선택된 항목을 제2 항목(1420)에서 제1 항목(1410)으로 변경할 수 있다. 예를 들어, 전자 장치(100)는 선택된 제1 항목(1410)을 디스플레이(1400)에 표시(1400a)할 수 있다.
도 1 내지 도 14에서 설명한 본 발명에 따른 웨어러블 전자 장치(100)는 비언어적 소리를 포함하는 사용자 입력에 의한 사용자의 신체의 진동을 감지하여 사용자 입력을 수신함으로써, 주변 소음에 영향을 받지 않고 사용자 입력을 수신할 수 있다. 또한, 웨어러블 전자 장치(100)는 신체의 진동의 지속 시간 또는 발생 횟수에 기초하여 동작을 실행함으로써 한정된 비언어적 소리를 구별하여 사용자 입력에 대응되는 복수의 동작을 실행할 수 있다.
도 15은 다양한 실시 예들에 따른 네트워크 환경(1500) 내의 전자 장치(1501)의 블록도 이다. 본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치(예: PDA(personal digital assistant), 태블릿 PC(tablet PC), 랩탑 PC(, 데스크톱 PC, 워크스테이션, 또는 서버), 휴대용 멀티미디어 장치(예: 전자 책 리더기 또는 MP3 플레이어), 휴대용 의료 기기(예: 심박, 혈당, 혈압, 또는 체온 측정기), 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용 형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착 형(예: 스킨 패드 또는 문신), 또는 생체 이식 형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오 장치, 오디오 액세서리 장치(예: 스피커, 헤드폰, 또는 헤드 셋), 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토메이션 컨트롤 패널, 보안 컨트롤 패널, 게임 콘솔, 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder)(예: 차량/선박/비행기 용 블랙박스(black box)), 자동차 인포테인먼트 장치(예: 차량용 헤드-업 디스플레이), 산업용 또는 가정용 로봇, 드론(drone), ATM(automated teller machine), POS(point of sales) 기기, 계측 기기(예: 수도, 전기, 또는 가스 계측 기기), 또는 사물 인터넷 장치(예: 전구, 스프링클러 장치, 화재 경보기, 온도 조절기, 또는 가로등) 중 적어도 하나를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 또한, 예를 들면, 개인의 생체 정보(예: 심박 또는 혈당)의 측정 기능이 구비된 스마트폰의 경우처럼, 복수의 장치들의 기능들을 복합적으로 제공할 수 있다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 15을 참조하여, 네트워크 환경(1500)에서 전자 장치(1501)(예: 도 1의 전자 장치(100))는 근거리 무선 통신(1598)을 통하여 전자 장치(1502)와 통신하거나, 또는 네트워크(1599)를 통하여 전자 장치(1504) 또는 서버(1508)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(1501)는 서버(1508)을 통하여 전자 장치(1504)와 통신할 수 있다.
일 실시 예에 따르면, 전자 장치(1501)는 버스(1510), 프로세서(1520)(예: 도 2의 프로세서(140)), 메모리(1530)(예: 도 2의 메모리(110)), 입력 장치(1550)(예: 마이크 또는 마우스), 표시 장치(1560), 오디오 모듈(1570), 센서 모듈(1576), 인터페이스(1577), 햅틱 모듈(1579), 카메라 모듈(1580), 전력 관리 모듈(1588), 및 배터리(1589), 통신 모듈(1590), 및 가입자 식별 모듈(1596)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(1501)는 구성요소들 중 적어도 하나(예: 표시 장치(1560) 또는 카메라 모듈(1580))를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스(1510)는, 구성요소들(1520-1590)을 서로 연결하고, 구성요소들 간의 신호(예: 제어 메시지 또는 데이터)를 전달하는 회로를 포함할 수 있다.
프로세서(1520)는, 중앙처리장치(central processing unit, CPU), 어플리케이션 프로세서(application processor, AP), GPU(graphics processing unit), 카메라의 ISP(image signal processor), 또는 CP(communication processor) 중 하나 또는 그 이상을 포함할 수 있다. 일 실시 예에 따르면, 프로세서(1520)는 SoC(system on chip) 또는 SiP(system in package)로 구현될 수 있다. 프로세서(1520)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(1520)에 연결된 전자 장치(1501)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(1520)는 다른 구성요소들(예: 통신 모듈(1590)) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리(1532)에 로드 하여 처리하고, 결과 데이터를 비 휘발성 메모리(1534)에 저장할 수 있다.
메모리(1530)는, 휘발성 메모리(1532) 또는 비 휘발성 메모리(1534)를 포함할 수 있다. 휘발성 메모리(1532)는, 예를 들면, RAM(random access memory)(예: DRAM, SRAM, 또는 SDRAM)로 구성될 수 있다. 비 휘발성 메모리(1534)는, 예를 들면, PROM(programmable read-only memory), OTPROM(one time PROM), EPROM(erasable PROM), EEPROM(electrically EPROM), mask ROM, flash ROM, 플래시 메모리, HDD(hard disk drive), 또는 SSD(solid state drive)로 구성될 수 있다. 또한, 비 휘발성 메모리(1534)는, 전자 장치(1501)와의 연결 형태에 따라, 그 안에 배치된 내장 메모리(1536), 또는 필요 시에만 연결하여 사용 가능한 스탠드-얼론(stand-alone) 형태의 외장 메모리(1538)로 구성될 수 있다. 외장 메모리(1538)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card), 또는 메모리 스틱을 포함할 수 있다. 외장 메모리(1538)는 유선(예: 케이블 또는 USB(universal serial bus)) 또는 무선(예: Bluetooth)을 통하여 전자 장치(1501)와 기능적으로 또는 물리적으로 연결될 수 있다.
메모리(1530)는, 예를 들면, 전자 장치(1501)의 적어도 하나의 다른 소프트웨어 구성요소, 예를 들어, 프로그램(1540)에 관계된 명령 또는 데이터를 저장할 수 있다. 프로그램(1540)은, 예를 들면, 커널(1541), 라이브러리(1543), 어플리케이션 프레임워크(1545), 또는 어플리케이션 프로그램(interchangeably "어플리케이션")(1547)을 포함할 수 있다.
입력 장치(1550)는, 마이크(예: 도 2의 마이크(120)), 마우스, 또는 키보드를 포함할 수 있다. 일 실시 예에 따르면, 키보드는 물리적인 키보드로 연결되거나, 표시 장치(1560)를 통해 가상 키보드로 표시될 수 있다.
표시 장치(1560)는, 디스플레이(예: 도 2의 디스플레이(130)), 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 디스플레이는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 마이크로 전자기계 시스템(MEMS) 디스플레이, 또는 전자 종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이는, 일 실시 예에 따르면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 디스플레이는 사용자의 터치, 제스처, 근접, 또는 호버링(hovering) 입력을 감지할 수 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(interchangeably "force sensor")를 포함할 수 있다. 상기 터치 회로 또는 압력 센서는 디스플레이와 일체형으로 구현되거나, 또는 디스플레이와는 별도의 하나 이상의 센서들로 구현될 수 있다. 홀로그램 장치는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(1501)의 내부 또는 외부에 위치할 수 있다.
오디오 모듈(1570)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(1570)은, 입력 장치(1550)(예: 마이크)를 통해 소리를 획득하거나, 또는 전자 장치(1501)에 포함된 출력 장치(미 도시)(예: 스피커 또는 리시버), 또는 전자 장치(1501)와 연결된 외부 전자 장치(예: 전자 장치(1502)(예: 무선 스피커 또는 무선 헤드폰) 또는 전자 장치(1506)(예: 유선 스피커 또는 유선 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(1576)은, 예를 들면, 전자 장치(1501)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 고도, 습도, 또는 밝기)를 계측 또는 감지하여, 그 계측 또는 감지된 상태 정보에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(1576)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러(color) 센서(예: RGB(red, green, blue) 센서), IR(infrared) 센서, 생체 센서(예: 홍채 센서, 지문 센서, 또는 HRM(heartbeat rate monitoring) 센서, 후각(electronic nose) 센서, EMG(electromyography) 센서, EEG(Electroencephalogram) 센서, ECG(Electrocardiogram) 센서), 온도 센서, 습도 센서, 조도 센서, 또는 UV(ultra violet) 센서를 포함할 수 있다. 센서 모듈(1576)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(1501)는 프로세서(1520) 또는 프로세서(1520)와는 별도의 프로세서(예: 센서 허브)를 이용하여, 센서 모듈(1576)을 제어할 수 있다. 별도의 프로세서(예: 센서 허브)를 이용하는 경우에, 전자 장치(1501)는 프로세서(1520)가 슬립(sleep) 상태에 있는 동안, 프로세서(1520)를 깨우지 않고 별도의 프로세서의 작동에 의하여 센서 모듈(1576)의 동작 또는 상태의 적어도 일부를 제어할 수 있다.
인터페이스(1577)는, 일 실시 예에 따르면, HDMI(high definition multimedia interface), USB, 광 인터페이스(optical interface), RS-232(recommended standard 232), D-sub(D-subminiature), MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다. 연결 단자(1578)는 전자 장치(1501)와 전자 장치(1506)를 물리적으로 연결시킬 수 있다. 일 실시 예에 따르면, 연결 단자(1578)는, 예를 들면, USB 커넥터, SD 카드/MMC 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(1579)은 전기적 신호를 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 예를 들면, 햅틱 모듈(1579)은 사용자에게 촉각 또는 운동 감각과 관련된 자극을 제공할 수 있다. 햅틱 모듈(1579)은 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(1580)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있다. 카메라 모듈(1580)는, 일 실시 예에 따르면, 하나 이상의 렌즈(예: 광각 렌즈 및 망원 렌즈, 또는 전면 렌즈 및 후면 렌즈), 이미지 센서, 이미지 시그널 프로세서, 또는 플래시(예: 발광 다이오드 또는 제논 램프(xenon lamp) 등)를 포함할 수 있다.
전력 관리 모듈(1588)은 전자 장치(1501)의 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(1589)는, 예를 들면, 1차 전지, 2차 전지, 또는 연료 전지를 포함하여 외부 전원에 의해 재충전되어, 상기 전자 장치(1501)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다.
통신 모듈(1590)은, 예를 들면, 전자 장치(1501)와 외부 장치(예: 제1 외부 전자 장치(1502), 제2 외부 전자 장치(1504), 또는 서버(1508)) 간의 통신 채널 수립 및 수립된 통신 채널을 통한 유선 또는 무선 통신의 수행을 지원할 수 있다. 일 실시 예에 따르면, 통신 모듈(1590)은 무선 통신 모듈(1592) 또는 유선 통신 모듈(1594)을포함하고, 그 중 해당하는 통신 모듈을 이용하여 제1 네트워크(1598)(예: Bluetooth 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(1599)(예: 셀룰러 네트워크와 같은 원거리 통신 네트워크)를 통하여 외부 장치와 통신할 수 있다.
무선 통신 모듈(1592)은, 예를 들면, 셀룰러 통신, 근거리 무선 통신, 또는 GNSS 통신을 지원할 수 있다. 셀룰러 통신은, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications)을 포함할 수 있다. 근거리 무선 통신은, 예를 들면, Wi-Fi(wireless fidelity), Wi-Fi Direct, Li-Fi(light fidelity), Bluetooth, BLE(Bluetooth low energy), Zigbee, NFC(near field communication), MST(magnetic secure transmission), RF(radio frequency), 또는 BAN(body area network)을 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo(the European global satellite-based navigation system)을 포함할 수 있다. 본 문서에서 "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다.
일 실시 예에 따르면, 상기 무선 통신 모듈(1592)은, 셀룰러 통신을 지원하는 경우, 예를 들면, 가입자 식별 모듈(1596)을 이용하여 통신 네트워크 내에서 전자 장치(1501)의 구별 및 인증을 수행할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(1592)은 프로세서(1520)(예: AP)와 별개인 CP를 포함할 수 있다. 이런 경우, CP는, 예를 들면, 프로세서(1520)가 인액티브(예: 슬립) 상태에 있는 동안 프로세서(1520)를 대신하여, 또는 프로세서(1520)가 액티브 상태에 있는 동안 프로세서(1520)과 함께, 전자 장치(1501)의 구성요소들(1510-1596) 중 적어도 하나의 구성 요소와 관련된 기능들의 적어도 일부 기능을 수행할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(1592)은 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS 통신 모듈 중 해당하는 통신 방식만을 지원하는 복수의 통신 모듈들로 구성될 수 있다.
유선 통신 모듈(1594)은, 예를 들면, LAN(local area network), 전력선 통신 또는 POTS(plain old telephone service)를 포함할 수 있다.
제1 네트워크(1598)는, 예를 들어, 전자 장치(1501)와 제1 외부 전자 장치(1502)간의 무선으로 직접 연결을 통해 명령 또는 데이터를 송신 또는 수신 할 수 있는 Wi-Fi 다이렉트 또는 Bluetooth를 포함할 수 있다. 제2 네트워크(1599)는, 예를 들어, 전자 장치(1501)와 제2 외부 전자 장치(1504)간의 명령 또는 데이터를 송신 또는 수신할 수 있는 텔레커뮤니케이션 네트워크(예: LAN(local area network)나 WAN(wide area network)와 같은 컴퓨터 네트워크, 인터넷(internet), 또는 텔레폰(telephone) 네트워크)를 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 명령 또는 상기 데이터는 제2 네트워크에 연결된 서버(1508)를 통해서 전자 장치(1501)와 제2 외부 전자 장치(1504)간에 송신 또는 수신될 수 있다. 제1 및 제2 외부 전자 장치(1502, 1504) 각각은 전자 장치(1501)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시 예들에 따르면, 전자 장치(1501)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(1502, 1504), 또는 서버(1508)에서 실행될 수 있다. 일 실시 예에 따르면, 전자 장치(1501)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(1501)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(1502, 1504), 또는 서버(1508))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(1502, 1504), 또는 서버(1508))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(1501)로 전달할 수 있다. 전자 장치(1501)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 설정된(adapted to or configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 설정된 (또는 구성된) 프로세서"는 해당 동작들을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치(예: 메모리 1530)에 저장된 하나 이상의 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 AP)를 의미할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어(firmware)로 구성된 유닛(unit)을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.
다양한 실시 예들에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(1530))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(1520))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체(예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램 모듈) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소를 더 포함할 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램 모듈)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른 모듈, 프로그램 모듈 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.

Claims (20)

  1. 웨어러블(wearable) 전자 장치에 있어서,
    사용자 입력에 대응되는 동작을 수행하기 위한 정보를 저장한 메모리;
    상기 전자 장치를 착용한 사용자의 신체에 접촉하여 상기 신체의 진동(oscillation)을 감지하는 마이크; 및
    상기 메모리 및 상기 마이크와 전기적으로 연결될 프로세서;를 포함하고,
    상기 프로세서는,
    상기 마이크를 통해 감지된 상기 신체의 진동에 기초하여 상기 사용자 입력이 수신되었는지 판단하고,
    상기 사용자 입력이 수신된 것으로 판단되면, 상기 수신된 사용자 입력에 대응되는 동작을 수행하는, 전자 장치.
  2. 청구항 1에 있어서,
    상기 사용자 입력은 비언어적 소리(non-speech sound)인, 전자 장치.
  3. 청구항 2에 있어서,
    상기 비언어적 소리는, 사용자의 숨을 내쉬는(breathing out) 소리, 사용자의 휘파람(whistling) 소리, 사용자의 외치는(shouting) 소리, 사용자의 속삭이는(whispering) 소리, 사용자의 혀를 차는(clicking) 소리, 사용자의 옷의 바스락거리는(rustling) 소리, 사용자의 손가락들 사이의 마찰(friction) 소리 및 사용자의 손으로 두드리는(knocking) 소리 중 적어도 하나를 포함하는, 전자 장치.
  4. 청구항 1에 있어서,
    상기 프로세서는,
    상기 마이크를 통해 지정된 크기 이상의 진동이 감지되면, 상기 사용자 입력이 수신된 것으로 판단하는, 전자 장치.
  5. 청구항 4에 있어서,
    상기 프로세서는,
    상기 사용자 입력에 의해 발생된 상기 지정된 크기 이상의 진동의 지속 시간에 기초하여 상기 사용자 입력에 대응되는 동작을 수행하는, 전자 장치.
  6. 청구항 5에 있어서,
    상기 프로세서는,
    상기 사용자 입력에 의해 발생된 상기 지정된 크기 이상의 진동의 지속 시간이 지정된 시간 미만이면, 상기 사용자 입력에 대응되는 제1 동작을 수행하고,
    상기 사용자 입력에 의해 발생한 상기 지정된 크기 이상의 진동의 지속 시간이 상기 지정된 시간 이상이면, 상기 사용자 입력에 대응되는 제2 동작을 수행하는, 전자 장치.
  7. 청구항 4에 있어서,
    상기 프로세서는,
    상기 사용자 입력에 의해 발생된 상기 지정된 크기 이상의 진동의 발생 횟수에 기초하여 상기 사용자 입력에 대응되는 동작을 수행하는, 전자 장치.
  8. 청구항 1에 있어서,
    상기 사용자 입력에 대응되는 동작은, 상기 전자 장치의 설정을 변경하는 동작인, 전자 장치.
  9. 청구항 1에 있어서,
    이미지를 표시하는 디스플레이를 더 포함하고,
    상기 메모리에 저장된 상기 정보는 상기 디스플레이에 표시하기 위한 이미지를 포함하고,
    상기 프로세서는,
    상기 발생된 사용자 입력에 대응되는 이미지를 상기 디스플레이에 표시하는, 전자 장치.
  10. 청구항 9에 있어서,
    상기 사용자 입력에 대응되는 동작은, 상기 디스플레이에 표시된 이미지의 전 또는 후에 표시되는 이미지를 상기 디스플레이에 표시하는, 전자 장치.
  11. 청구항 9에 있어서,
    상기 사용자 입력에 대응되는 동작은, 상기 디스플레이에 표시된 이미지를 줌인(zoom-in) 또는 줌아웃(zoom-out)하는 동작인, 전자 장치.
  12. 청구항 9에 있어서,
    상기 사용자 입력에 대응되는 동작은, 상기 디스플레이에 표시된 이미지에 포함된 리스트 중 선택된 항목을 변경하는 동작인, 전자 장치.
  13. 청구항 9에 있어서,
    상기 사용자 입력에 대응되는 동작은, 상기 디스플레이에 표시된 이미지에 포함된 컨텐츠(contents)를 변경하는 동작인, 전자 장치.
  14. 웨어러블(wearable) 전자 장치의 제어 방법에 이어서,
    마이크를 통해 상기 전자 장치를 착용한 사용자의 신체에 접촉하여 상기 신체의 진동(oscillation)을 감지하는 동작;
    상기 감지된 상기 신체의 진동에 기초하여 상기 사용자 입력이 수신되었는지 판단하는 동작; 및
    상기 사용자 입력이 수신된 것으로 판단되면, 상기 수신된 사용자 입력에 대응되는 동작을 수행하는 동작;을 포함하는, 방법.
  15. 청구항 14에 있어서,
    상기 사용자 입력이 수신되었는지 판단하는 동작은,
    상기 마이크를 통해 지정된 크기 이상의 진동이 감지되면, 상기 사용자 입력이 수신된 것으로 판단하는 동작;을 포함하는, 방법.
  16. 청구항 14에 있어서,
    상기 사용자 입력에 대응되는 동작을 수행하는 동작은,
    상기 사용자 입력에 의해 발생된 상기 지정된 크기 이상의 진동의 지속 시간에 기초하여 상기 사용자 입력에 대응되는 동작을 수행하는 동작;을 포함하는, 방법.
  17. 청구항 14에 있어서,
    상기 사용자 입력에 대응되는 동작을 수행하는 동작은,
    상기 사용자 입력에 의해 발생된 상기 지정된 크기 이상의 진동의 발생 횟수에 기초하여 상기 사용자 입력에 대응되는 동작을 수행하는 동작;을 포함하는, 방법.
  18. 청구항 1에 있어서,
    상기 사용자 입력에 대응되는 동작을 수행하는 동작은,
    상기 발생된 사용자 입력에 대응되는 이미지를 디스플레이에 표시하는 동작;을 포함하는, 방법.
  19. 마이크를 통해 웨어러블(wearable) 전자 장치를 착용한 사용자의 신체에 접촉하여 상기 신체의 진동(oscillation)을 감지하는 동작;
    상기 감지된 상기 신체의 진동에 기초하여 상기 사용자에 의한 사용자 입력이 수신되었는지 판단하는 동작; 및
    상기 사용자 입력이 수신된 것으로 판단되면, 상기 발생된 사용자 입력에 대응되는 동작을 수행하는 동작;을 포함하는 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능 기록매체.
  20. 청구항 19에 있어서,
    상기 사용자 입력이 수신되었는지 판단하는 동작은,
    상기 마이크를 통해 지정된 크기 이상의 진동이 감지되면, 상기 사용자에 의해 상기 사용자 입력이 수신된 것으로 판단하는 동작;을 포함하는, 기록매체.
KR1020170134792A 2017-10-17 2017-10-17 사용자 입력을 수신하여 동작을 수행하는 웨어러블 전자 장치 및 그 전자 장치의 제어 방법 KR20190043018A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170134792A KR20190043018A (ko) 2017-10-17 2017-10-17 사용자 입력을 수신하여 동작을 수행하는 웨어러블 전자 장치 및 그 전자 장치의 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170134792A KR20190043018A (ko) 2017-10-17 2017-10-17 사용자 입력을 수신하여 동작을 수행하는 웨어러블 전자 장치 및 그 전자 장치의 제어 방법

Publications (1)

Publication Number Publication Date
KR20190043018A true KR20190043018A (ko) 2019-04-25

Family

ID=66283673

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170134792A KR20190043018A (ko) 2017-10-17 2017-10-17 사용자 입력을 수신하여 동작을 수행하는 웨어러블 전자 장치 및 그 전자 장치의 제어 방법

Country Status (1)

Country Link
KR (1) KR20190043018A (ko)

Similar Documents

Publication Publication Date Title
US10229565B2 (en) Method for producing haptic signal and electronic device supporting the same
KR102534724B1 (ko) 전자 장치 및 그의 동작 방법
KR102561587B1 (ko) 전자 장치 및 그의 동작 방법
KR102620178B1 (ko) 전자 장치 및 그의 동작 방법
US20160063767A1 (en) Method for providing visual reality service and apparatus for the same
KR20170028193A (ko) 히든 디스플레이를 갖는 전자 장치 및 정보 표시 방법
CN110622108B (zh) 提供触觉反馈的方法以及执行该方法的电子装置
KR20160105242A (ko) 스크린 미러링 서비스 제공장치 및 방법
KR102401932B1 (ko) 생체 정보를 측정하는 전자 장치와 이의 동작 방법
KR20170109297A (ko) 전방위 영상을 제공하는 전자 장치 및 방법
KR102572446B1 (ko) 도어의 개폐 상태를 감지하기 위한 센싱 장치 및 그 센싱 장치를 제어하는 방법
KR102656528B1 (ko) 전자 장치, 외부 전자 장치 및 전자 장치와 외부 전자 장치를 연결하기 위한 방법
CN105892572B (zh) 用于显示内容的方法和装置
KR20190130770A (ko) Vr/ar 콘텐트를 제공하는 전자 장치
KR102358849B1 (ko) 스마트 워치에 대한 정보를 제공하는 전자 장치와 이의 동작 방법
CN108431731B (zh) 用于执行基于生物计量信号的功能的方法、存储介质和电子设备
KR20170105262A (ko) 전자장치 및 그의 생체 정보 획득 방법
KR102547054B1 (ko) 카메라 모듈의 활성화를 제어하기 위한 전자 장치 및 방법
EP3385841B1 (en) Device for connecting external device and updating data
KR20180050143A (ko) 눈을 촬영하여 정보를 획득하는 방법 및 장치
KR20180050174A (ko) 전자 장치 및 그 제어 방법
KR20170079610A (ko) 전자 장치 및 그의 동작 방법
KR20170081925A (ko) 영상 저장을 위한 방법 및 그 장치
KR20180065203A (ko) 영상을 표시하는 전자 장치 및 방법
KR20220115040A (ko) 휘트니스 상품 거래 플랫폼을 운용하는 서버 및 그 동작 방법