KR20160105694A - 전자 장치 및 전자 장치의 제어 방법 - Google Patents

전자 장치 및 전자 장치의 제어 방법 Download PDF

Info

Publication number
KR20160105694A
KR20160105694A KR1020150028700A KR20150028700A KR20160105694A KR 20160105694 A KR20160105694 A KR 20160105694A KR 1020150028700 A KR1020150028700 A KR 1020150028700A KR 20150028700 A KR20150028700 A KR 20150028700A KR 20160105694 A KR20160105694 A KR 20160105694A
Authority
KR
South Korea
Prior art keywords
gesture
electronic device
user
input
control module
Prior art date
Application number
KR1020150028700A
Other languages
English (en)
Other versions
KR102318920B1 (ko
Inventor
이재욱
조안기
조준형
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150028700A priority Critical patent/KR102318920B1/ko
Priority to EP16157714.3A priority patent/EP3062208B1/en
Priority to AU2016224175A priority patent/AU2016224175B2/en
Priority to PCT/KR2016/001965 priority patent/WO2016137294A1/en
Priority to US15/056,119 priority patent/US10365820B2/en
Priority to CN201610113218.7A priority patent/CN105930072A/zh
Publication of KR20160105694A publication Critical patent/KR20160105694A/ko
Priority to US16/516,892 priority patent/US11281370B2/en
Application granted granted Critical
Publication of KR102318920B1 publication Critical patent/KR102318920B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 다양한 실시 예에 따른 전자 장치는, 전자 장치와 기능적으로 연결되어 제스처를 센싱하는 입력 모듈, 적어도 하나의 방향 조합을 저장하는 메모리 및 제스처에 대응되는 복수의 방향들을 포함하는 방향 조합을 메모리에 저장된 적어도 하나의 방향 조합과 비교하고, 비교 결과에 따라 전자 장치의 상태를 제1 상태에서 제2 상태로 변경(transitioning)하는 제어 모듈을 포함할 수 있다. 또한, 다른 실시 예들도 가능하다.

Description

전자 장치 및 전자 장치의 제어 방법{ElECTRONIC DEVICE AND CONTROLLING METHOD THEREOF}
본 발명은 사용자 입력에 따라 동작을 수행하는 전자 장치의 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 장치들이 개발 및 보급되고 있다. 특히, 스마트폰, 태블릿 PC 등과 같은 스마트 전자 장치의 보급이 확대되고 있다.
스마트폰과 같은 스마트 전자 장치는 연락처, 사진, 대화 내용, 메일 등 다양한 개인 정보가 저장되어 있으며, 다른 사용자에 의해 사용되거나 정보가 유출되는 일이 발생하지 않도록 잠금 상태를 제공하고 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 상기 전자 장치와 기능적으로 연결되어 제스처를 센싱하는 입력 모듈, 적어도 하나의 방향 조합을 저장하는 메모리 및 상기 제스처에 대응되는 복수의 방향들을 포함하는 방향 조합을 상기 메모리에 저장된 적어도 하나의 방향 조합과 비교하고, 상기 비교 결과에 따라 상기 전자 장치의 상태를 제1 상태에서 제2 상태로 변경(transitioning)하는 제어 모듈을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 상기 전자 장치와 기능적으로 연결되어 제스처를 센싱하는 입력 모듈, 메모리 및 상기 제스처에 대응되는 복수의 방향을 판단하고, 복수의 방향들을 포함하는 방향 조합을 상기 메모리에 저장하는 제어 모듈을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 제어 방법은, 상기 전자 장치와 기능적으로 연결된 입력 모듈을 통하여 제스처를 입력받는 동작, 상기 제스처에 대응되는 복수의 방향들을 포함하는 방향 조합을 판단하는 동작, 상기 방향 조합을 메모리에 기 저장된 적어도 하나의 방향 조합과 비교하는 동작 및 상기 비교 결과에 기초하여, 하나 이상의 프로세서를 이용하여, 상기 전자 장치의 상태를 제1 상태에서 제2 상태로 변경(transitioning)하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 모드 전환 방법은, 상기 전자 장치에 대한 상황 정보를 획득하는 동작, 상기 상황 정보가 지정된 조건에 해당하는지를 판단하는 동작 및 적어도 하나의 프로세서를 이용하여, 상기 전자 장치의 잠금 해제 모드를 제 1 모드에서 제 2 모드로 전환하는 동작을 포함할 수 있다..
본 발명의 다양한 실시 예에 따르면, 전자 장치의 사용자는 입력 형태, 입력 영역에 제한되지 않고 다양한 형태로 패턴을 입력할 수 있으며, 이에 따라, 한손만으로도 전자 장치의 잠금을 해제할 수 있다. 또한, 자신이 입력한 패턴을 확인할 수 없는 시각 장애인들도 정보노출 없이 편리하게 전자 장치의 잠금을 해제할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 2는 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다.
도 3은 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다.
도 4는 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다.
도 5는 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다.
도 6은 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다.
도 7은 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다.
도 8은 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다.
도 9는 본 발명의 다양한 실시 예에 따라 사용자 조작의 각도 변화를 판단하는 동작을 설명하기 위한 도면이다.
도 10은 본 발명의 다양한 실시 예에 따라 사용자 조작의 센싱 영역을 판단하는 동작을 설명하는 도면이다.
도 11은 본 발명의 다양한 실시 예에 따라 사용자 조작이 입력된 장치를 판단하는 동작을 설명하는 도면이다.
도 12는 본 발명의 다양한 실시 예에 따라 사용자 조작에 대응되는 가이드를 표시하는 동작을 나타내는 도면이다.
도 13은 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향에 대응되는 오브젝트를 표시하는 동작을 나타내는 도면이다.
도 14 및 도 15는 본 발명의 다양한 실시 예에 따라 디스플레이에 표시되는 사용자 인터페이스를 나타내는 도면이다.
도 16은 본 발명의 다양한 실시 예에 따른 전자 장치의 제어 방법을 나타내는 흐름도이다.
도 17은 본 발명의 다양한 실시 예에 따른 전자 장치의 잠금 해제 모드 전환 방법을 나타내는 흐름도이다.
이하, 본 문서의 다양한 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.
본 문서의 다양한 실시예들에 따른 전자 장치(예: 제1 전자 장치, 제2 전자 장치 또는 주변 전자 장치)는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 스마트 안경, 머리 착용형 장치(head-mounted-device(HMD) 등), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트 미러, 또는 스마트 와치(smart watch)) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에서, 전자 장치는 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 1을 참조하면 전자 장치(100)는 입력 모듈(110), 메모리(120), 통신 인터페이스(130), 센서 모듈(140), 디스플레이(150), 오디오 모듈(160), 모터(170) 또는 제어 모듈(180)을 포함할 수 있다.
일 실시 예에 따르면, 입력 모듈(110)은 사용자 조작(또는, 제스처)을 센싱할 수 있다. 일 실시 예에 따르면, 입력 모듈(110)은 터치 센서 패널(111), 펜 센서 패널(113), 제스처 센서(115) 또는 음성 인식 센서(117)를 포함할 수 있다.
사용자의 터치 조작을 센싱하는 터치 센서 패널(111), 사용자의 펜 조작을 센싱하는 펜 센서 패널(113), 사용자의 움직임을 인식하는 제스처 센서(115)(또는, 모션 인식 센서) 또는 사용자의 음성을 인식하는 음성 인식 센서(117)를 포함할 수 있다.
터치 센서 패널(111)은 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 센서 패널(111)은 제어 회로를 더 포함할 수도 있다. 터치 센서 패널(111)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. 펜 센서 패널(113)은, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다.
일 실시 예에 따르면, 제스처 센서(115)(또는, 모션 인식 센서)는 카메라를 포함할 수 있으며 카메라로 사용자의 움직임(예: 팔 또는 손가락의 움직임)을 촬상하여 사용자의 제스처를 인식할 수 있다. 일 실시 예에 따르면, 제스처 센서(115)에 포함된 카메라는 사용자의 제스처를 인식하기 위한 적외선 센서를 포함할 수 있다.
일 실시 예에 따르면, 음성 인식 센서(117)는 마이크를 포함할 수 있으며 마이크로 입력되는 사용자의 음성을 인식할 수 있다. 본 명세서에서 사용자 조작의 의미는 사용자의 음성에 의해 인식되는 음성 조작을 포함할 수 있다.
일 실시 예에 따르면, 입력 모듈(110)에 입력되는 사용자 조작은 연속적 또는 비연속적으로 입력될 수 있다. 연속적 입력의 경우, 예를 들어, 하나의 사용자 조작이 복수의 방향을 포함할 수 있으며, 사용자는 복수(예: 네 개)의 방향을 입력하기 위해 하나의 사용자 조작을 입력할 수 있다. 비연속적 입력의 경우, 예를 들어, 하나의 사용자 조작은 하나의 방향을 포함할 수 있으며, 사용자는 복수의 방향을 입력하기 위해 비연속적으로 복수의 사용자 조작을 입력할 수 있다.
일 실시 예에 따르면, 입력 모듈(110)은 사용자 조작(또는, 제스처)이 터치 센서 패널 위에 직접적으로 접촉할 때뿐만 아니라, 터치 센서 패널에 직접적으로 접촉하지 않으면서 펜 센서 패널(113), 제스처 센서(115)(또는, 모션 인식센서) 등을 통해 특정 거리 이내에서 입력되는 사용자 조작을 센싱할 수 있다. 일 실시 예에 따르면, 사용자 조작을 입력하기 위해 접근하는 물체(예: 펜 또는 사용자의 손가락)는 근접 센서(147)를 이용하여 인식할 수 있다.
일 실시 예에 따르면, 입력 모듈(110)은 전자 장치(100)에 내장된 형태뿐만 아니라 전자 장치(100)와 분리된 형태로 구현되어 전자 장치(100)와 유/무선으로 연결된 외부 입력 장치를 포함할 수 있다.
일 실시 예에 따르면, 입력 모듈(110)(예: 터치 센서 패널(111) 또는 펜 센서 패널(113))은 복수(예: 두 개 이상)의 영역을 포함할 수 있다. 입력 모듈(110)은 복수의 영역 중 적어도 일부에 입력되는 사용자 조작을 센싱할 수 있다. 예를 들어, 사용자는 복수의 영역 중 하나에 사용자 조작을 입력하거나 복수의 영역을 모두 포함하도록 사용자 조작을 입력할 수 있다.
일 실시 예에 따르면, 입력 모듈(110)(예: 터치 센서 패널(111)은 복수의 영역 중 사용자 조작이 예측되는 일부 영역만 활성화할 수 있다. 예를 들어, 사용자가 왼손으로 전자 장치를 조작할 경우, 입력 모듈(110)은 복수의 영역 중 왼손에 대응되는 일부 영역을 활성화하여 사용자로부터 입력을 수신할 수 있다.일 실시 예에 따르면, 입력 모듈(110)은 디스플레이(150)의 온/오프 상태와 관계없이 사용자 조작을 센싱할 수 있다. 예를 들어, 입력 모듈(110)(예: 터치 센서 패널)은 디스플레이(150)의 전원이 오프된 상태(또는, 대기 상태)에서도 전력을 공급받아 사용자 조작을 센싱할 수 있다.
일 실시 예에 따르면, 메모리(120)는 적어도 하나의 방향 조합을 저장할 수 있다. 일 실시 예에 따르면, 방향 조합은 사용자 조작의 방향, 입력 순서, 센싱 영역, 및 사용자 조작이 입력된 장치의 종류 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 메모리(120)는 적어도 하나의 방향 조합 각각에 제어 모듈(180)에 의해 수행될 수 있는 동작(또는, 커맨드)을 매핑하여 저장할 수 있다. 예를 들어, 제1 방향 조합은 전자 장치의 잠금을 해제하는 동작(또는, 커맨드)와 매핑하여 저장하고, 제2 방향 패턴은 카메라 어플리케이션을 실행시키는 동작(또는, 커맨드)와 매핑하여 저장할 수 있다.
일 실시 예에 따르면, 메모리(120)에 저장된 방향 조합 및 동작은 사용자에 의해 설정될 수 있다. 예를 들어, 전자 장치(100)는 사용자로부터 잠금을 해제하기 위한 방향 조합 및 대응되는 동작을 미리 입력받을 수 있으며, 사용자에 의해 입력된 방향 조합은 메모리(120)에 저장될 수 있다. 일 실시 예에 따르면, 메모리(120)에 저장된 방향 조합 및 대응되는 동작은 사용자에 의해 변경될 수 있다.
일 실시 예에 따르면, 통신 모듈(130)은 외부 장치와 연결되어 통신할 수 있다. 통신 모듈(130)은 외부 장치와 유/ 무선으로 연결될 수 있다. 일 실시 예에 따르면, 통신 모듈(130)은 외부 장치와 유선 또는 블루투스, NFC(near field communication), 지그비(zigbee), Wi-Fi(wirelss-fidelity), 3G(third generation), LTE(long term evolution), GNSS(global navigation satellite system) 등의 무선 통신기술로 연결될 수 있다.
통신 모듈(130)은, 예를 들면, 셀룰러 모듈(131), WiFi 모듈(133), 블루투스 모듈(135), GNSS 모듈(137)(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈(138) 및 RF(radio frequency) 모듈(139)를 포함할 수 있다.
셀룰러 모듈(131)은, 예를 들면, 셀룰러 네트워크를 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(131)은 가입자 식별 모듈(예: SIM 카드)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다.
Wi-Fi 모듈(133), 블루투스 모듈(135), GNSS 모듈(137) 또는 NFC 모듈(138) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(131), WiFi 모듈(133), 블루투스 모듈(135), GNSS 모듈(137) 또는 NFC 모듈(138) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈(139)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(139)은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(131), WiFi 모듈(133), 블루투스 모듈(135), GNSS 모듈(137) 또는 NFC 모듈(138) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.
일 실시 예에 따르면, 통신 모듈(130)은 외부 입력 장치로부터 외부 입력 장치에 센싱된 사용자 조작을 수신할 수 있다. 예를 들어, 통신 모듈(130)은 외부 입력 장치가 터치 센서 패널 또는 펜 센서 패널이면 사용자의 터치 조작 또는 펜 조작이 입력된 좌표값을 수신할 수 있다.
일 실시 예에 따르면, 셀룰러 모듈(131)은 셀룰러 네트워크를 통해 서빙셀 식별 정보를 획득할 수 있다. 일 실시 예에 따르면, Wi-Fi 모듈(133)은 Wi-Fi(wireless-fedelity) 네트워크를 통해 AP(access point) 식별 정보를 획득할 수 있다. 일 실시 예에 따르면, GNSS 모듈(137)은 전자 장치(100)의 현재 위치 정보를 획득할 수 있다. 일 실시 예에 따르면, 블루투스 모듈(135) 또는 NFC 모듈(137)은 차량과 연결될 수 있으며, 차량으로부터 차량과 관련된 다양한 정보를 수신할 수 있다.
일 실시 예에 따르면, 센서 모듈(140)은 전자 장치(100) 또는 전자 장치(100) 주변 상태(또는, 상황)을 센싱할 수 있다. 일 실시 예에 따르면, 센서 모듈(140)은 가속도 센서(141), 자이로 센서(143), 조도 센서(145), 또는 근접 센서(147)를 포함할 수 있다. 가속도 센서(141)는 전자 장치(100)의 가속도를 판단할 수 있다. 일 실시 예에 따르면, 가속도 센서(141)는 중력의 방향(또는, 전자 장치의 기울기)을 측정할 수 있다. 일 실시 예에 따르면, 가속도 센서(141)는 중력 가속도를 센싱하여 중력의 방향을 측정할 수 있다. 또한, 가속도 센서는 중력 가속도를 이용하여 전자 장치(100)의 기울기를 센싱할 수 있다. 일 실시 예에 따르면, 자이로 센서(143)는 전자 장치의 회전을 판단할 수 있다. 일 실시 예에 따르면, 조도 센서(145)는 전자 장치 주변의 조도(또는, 밝기)를 센싱할 수 있다. 근접 센서(147)는 전자 장치(100)로 물체(예: 사용자의 손 등)가 접근하는 경우 전자 장치(100)에 근접한 물체의 위치를 센싱할 수 있다.
일 실시 예에 따르면, 디스플레이(150)는 각종 텍스트, 아이콘 또는 이미지를 포함하는 사용자 인터페이스를 표시할 수 있다. 일 실시 예에 따르면, 디스플레이(150)에 표시되는 사용자 인터페이스는 사용자 조작의 방향을 판단하는 기준이 될 수 있다. 일 실시 예에 따르면, 디스플레이(150)는 사용자 조작을 도와주는 가이드를 표시할 수 있다.
일 실시 예에 따르면, 디스플레이(150)는 사용자 조작의 방향을 표시하는 오브젝트를 표시할 수 있다. 일 실시 예에 따르면, 디스플레이(150)는 패널, 홀로그램 장치, 또는 프로젝터를 포함할 수 있다. 패널은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널은 터치 센서 패널(111)과 하나의 모듈로, 즉, 터치 스크린으로 구성될 수도 있다. 홀로그램 장치는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(100)의 내부 또는 외부에 위치할 수 있다.
일 실시 예에 따르면, 디스플레이(150)는 사용자 조작의 방향에 따라 상이한 오브젝트를 표시할 수 있다. 예를 들어, 디스플레이는 사용자 조작의 방향을 나타내는 화살표, 텍스트 또는 동영상 효과(예: 사용자 조작 방향으로의 페이지 넘김 효과)를 표시할 수 있다.
오디오 모듈(160)은 전기적 형태의 오디오 신호를 소리로 변환하여 출력할 수 있다. 예를 들어, 오디오 모듈은 스피커 또는 이어폰(또는, 헤드폰)을 연결할 수 있는 오디오 인터페이스 또는, 내장 스피커를 포함할 수 있다.
일 실시 예에 따르면, 오디오 모듈(160)은 사용자 조작의 방향에 대응되는 오디오 신호를 출력할 수 있다. 일 실시 예에 따르면, 오디오 모듈(160)은 사용자 조작의 방향에 따라 상이한 오디오 신호를 출력할 수 있다. 예를 들어, 오디오 모듈(160)은 '상', '하', '좌' 및 '우'를 나타내는 음성 신호뿐만 아니라 각각의 방향에 대응되는 상이한 음악, 동물 울음소리, 경고음 또는 방향성을 가지는 스테레오 음성 등을 출력할 수 있다.
일 실시 예에 따르면, 오디오 모듈(160)은 오디오 신호가 출력되는 장치에 따라 상이한 오디오 신호를 출력할 수 있다. 예를 들어, 오디오 인터페이스에 이어폰(또는, 헤드폰)이 연결된 경우에는 보안성이 보장될 수 있으므로 오디오 모듈(160)은 이어폰을 통해 ‘상’, ‘하, ‘좌’, ‘우’ 등 직접적으로 방향을 알 수 있는 오디오 신호를 출력할 수 있다. 다른 예를 들어, 오디오 모듈(160)은 외부 스피커가 오디오 인터페이스에 연결되거나, 오디오 인터페이스에 아무런 외부 장치가 연결되지 않아 내장 스피커를 통해 오디오 신호를 출력하는 경우, 각각의 방향에 대응되는 동물 울음소리, 경고음 등 간접적으로 방향을 알 수 있는 오디오 신호를 출력할 수 있다.
모터(170)는 전기적 신호를 기계적 진동으로 변환할 수 있으며, 진동(vibration) 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 일 실시 예에 따르면, 모터(170)는 사용자 조작의 방향에 따라 상이한 진동을 발생시킬 수 있다.일 실시 예에 따르면, 모터(170)는 사용자 조작의 방향에 따라 횟수, 시간 또는 패턴이 상이한 진동을 발생시킬 수 있다. 예를 들어, 모터(170)는 상측 방향의 사용자 조작이 입력되면 짧은 진동을 발생시키고, 하측 방향의 사용자 조작이 입력되면 두번의 짧은 진동을 발생시키고, 좌측 방향의 사용자 조작이 입력되면 한번의 짧은 진동 후 한번의 긴 진동을 발생시키고, 우측 방향의 사용자 조작이 입력되면 한번의 긴 진동 후 한번의 짧은 진동을 발생시킬 수 있다.
일 실시 예에 따르면, 모터(170)는 사용자 조작의 방향에 대응되는 방향성을 가지는 진동을 발생시킬 수 있다. 예를 들어, 모터(170)는 우측 방향의 사용자 조작이 입력되면 전자 장치(100)의 좌측(또는, 중심)에서 우측으로 향하는 진동을 발생시키고, 상측 방향의 사용자 조작이 입력되면 전자 장치의 하측(또는, 중심)에서 상측 방향으로 향하는 진동을 발생시킬 수 있다.
일 실시 예에 따르면, 모터(170)는 복수개의 모터를 포함할 수 있다. 예를 들어, 전자 장치(100)는 각각의 방향에 대응되는 위치에 모터(170)를 포함할 수 있으며, 사용자 조작이 입력되면 사용자 조작의 방향에 대응되는 모터(170)가 진동할 수 있다.
제어 모듈(180)은 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어 모듈(180)은 입력 모듈(110), 메모리(120), 통신 모듈(130), 센서 모듈(140), 디스플레이(150), 오디오 모듈(160) 및 모터(170) 각각을 제어하여 본 발명의 다양한 실시 예에 따라 전자 장치(100)의 잠금을 해제하도록 제어할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 입력 모듈(110)에 의해 센싱된 사용자 조작의 방향 조합을 판단할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 입력 모듈(110)에 의해 센싱된 사용자 조작의 방향을 판단할 수 있다. 예를 들어, 제어 모듈(180)은 사용자 조작을 분석하여 네 방향(예: 우측, 좌측, 상측 및 하측) 중 하나로 판단할 수 있다. 다른 예를 들어, 제어 모듈(180)은 사용자 조작을 분석하여 여덟 방향(예: 우측, 좌측, 상측, 하측, 우상측, 우하측, 좌상측 및 좌하측) 중 하나로 판단할 수 있다. 본 명세서에 사용자 조작의 방향은 사용자 조작의 각도와 동일한 의미로 해석될 수 있다. 예를 들어, 사용자 조작의 시작점을 2차원 좌표계의 원점으로 간주하는 경우 사용자 조작의 방향을 각도로 변경하여 나타낼 수 있다. 예를 들어, 우측, 상측, 좌측 및 하측은 각각 0˚, 90˚, 180˚ 및 270˚에 대응될 수 있으며, 우상측, 좌상측, 우하측 및 좌하측은 각각 45˚, 135˚, 225˚ 및 315˚에 대응될 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 디스플레이(150)의 온/오프 여부, 디스플레이(150)에 표시된 사용자 인터페이스, 사용자에 의한 전자 장치(100)의 파지 상태 또는 사용자 설정에 따라 사용자 조작을 입력받기 위한 영역을 선택적으로 활성화할 수 있다. 예를 들어, 제어 모듈(180)은 사용자의 파지 상태(hand grip status)를 감지하여, 사용자가 입력 모듈(110)을 왼손으로 조작하는지 오른손으로 조작하는지 확인할 수 있다. 제어 모듈(180)은 사용자의 파지 상태에 대응되는 입력 모듈(110)(예: 터치 센서 패널 또는 펜 센서 패널)의 특정 영역(예: 센서 모듈의 왼쪽 상단 또는 센서 모듈의 오른쪽 하단) 내에서 센싱되는 사용자 조작만을 처리할 수 있으며 나머지 영역에서 센싱되는 사용자 조작은 무시할 수 있다. 다른 예를 들어, 제어 모듈(180)은 센서 모듈(110)이 특정 영역만을 센싱하고 나머지 영역은 센싱하지 않도록 제어할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 디스플레이(150)가 오프된 상태에서는 입력 모듈(110)(예: 터치 센서 패널(111))에 특정 사용자 조작(예: 더블탭)이 입력된 이후의 사용자 조작에 대해서 방향을 판단할 수 있다. 즉, 사용자는 전자 장치(100)의 잠금을 해제하기 위한 트리거 동작을 입력한 후 방향성을 가지는 사용자 조작을 입력할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작이 비연속적으로 입력되는 경우 사용자 조작의 시작 지점으로부터 종료 지점으로의 방향을 사용자 조작의 방향으로 판단할 수 있다. 예를 들어, 제어 모듈(180)은 사용자 조작의 시작 지점 및 종료 지점이 동일하며 경로가 상이한 복수의 사용자 조작이 입력되면 복수의 사용자 조작의 방향을 동일하게 판단할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 복수의 사용자 조작이 비연속적으로 입력되는 경우 각각의 사용자 조작이 입력될 수 있는 시간(예: 3초)을 설정하고, 설정된 시간 내에 센싱되는 사용자 조작만을 방향 조합에 포함시킬 수 있다. 예를 들어, 제어 모듈(180)은 제1 제스처가 센싱된 후 설정된 시간 내에 제2 제스처가 센싱되면 제2 제스처에 대응되는 방향을 상기 방향 조합에 포함시킬 수 있으며, 제1 제스처가 센싱된 후 지정된 시간이 경과한 후에 제2 제스처가 센싱되면 제2 제스처에 대응되는 방향을 상기 방향 조합에서 제외할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 하나의 사용자 조작이 입력된 후 다음 사용자 조작이 설정된 시간 내에 입력되지 않는 경우 방향 조합을 입력받기 위한 사용자 조작이 종료되었다고 판단할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 하나의 사용자 조작이 입력되는 시점에 다음 사용자 조작이 입력될 수 있는 시간을 카운팅할 수 있다. 예를 들어, 제어 모듈(180)은 제1 사용자 조작이 센싱되면 제2 사용자 조작이 입력될 수 있는 시간을 카운팅하고, 설정된 시간 내에 내에 제2 사용자 조작이 센싱되면 제3 사용자 조작이 입력될 수 있는 시간을 카운팅할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작이 특정 방향으로 기 정의된 길이 이상 센싱되면 특정 방향으로 사용자 조작이 입력되었다고 판단할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작이 기 정의된 길이 이상 센싱되면, 동일한 방향으로 사용자 조작이 계속 센싱되더라도 특정 방향으로 하나의 사용자 조작이 입력되었다고 판단할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작이 특정 방향으로 기 정의된 시간 이상 센싱되면 특정 방향으로 사용자 조작이 입력되었다고 판단할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작이 제1 방향으로 기 정의된 길이 또는 기 정의된 시간 이상 입력된 후 연속적으로 제2 방향으로 기 정의된 길이 또는 기 정의된 시간 이상 입력되면 제1 방향 및 제2 방향으로 순차적으로 복수의 사용자 조작이 입력되었다고 판단할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 모션 인식 센서를 통해 사용자 조작(또는, 제스쳐)를 입력받는 경우 시간의 흐름에 따른 사용자의 모션에 따라 사용자 조작의 방향을 판단할 수 있다. 예를 들어, 제어 모듈(180)은 사용자가 팔을 좌측에서 우측으로 이동하면 우측 방향으로 사용자 조작이 입력되었다고 판단할 수 있다. 다른 예를 들어, 사용자가 책상에 손가락을 이동시켜 방향을 그리면, 사용자의 손가락의 이동에 따라 특정 방향으로 사용자 조작이 입력되었다고 판단할 수 있다.
사용자 조작의 방향을 판단하는 다양한 실시 예에 대해 도 2 내지 도 8을 참조하여 설명한다.
도 2는 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다. 특히, 도 2는 사용자가 하나의 사용자 조작으로 네 가지 방향 중 하나의 방향을 입력한 경우의 예를 나타낸다.
도 2의 (a) 내지 (d)는 입력 모듈(예: 터치 센서 패널)(110)에 의해 센싱된 사용자 조작의 다양한 예를 나타낸다. 일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작이 움직이는 위치(또는, 사용자 조작의 시작점 및 종료점의 위치)에 따라 사용자 조작의 방향을 판단할 수 있다. 예를 들어, 도 2의 (a)와 같이 사용자 조작이 시작점으로부터 우측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 우측으로 판단할 수 있다. 다른 예를 들어, 도 2의 (b)와 같이 사용자 조작이 시작점으로부터 좌측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 좌측으로 판단할 수 있다. 또 다른 예를 들어, 도 2의 (c)와 같이 사용자 조작이 시작점으로부터 상측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 상측으로 판단할 수 있다. 또 다른 예를 들어, 도 2의 (d)와 같이 사용자 조작이 시작점으로부터 하측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 하측으로 판단할 수 있다.
도 3은 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다. 특히, 도 3은 사용자가 하나의 사용자 조작으로 여덟 가지 방향 중 하나의 방향을 입력한 경우의 예를 나타낸다.
도 3의 (a) 내지 (h)는 입력 모듈(예: 터치 센서 패널)(110)에 의해 센싱된 사용자 조작의 다양한 예를 나타낸다. 일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작의 시작점 및 종료점의 위치에 따라 사용자 조작의 방향을 판단할 수 있다. 예를 들어, 도 3의 (a)와 같이 사용자 조작이 시작점으로부터 우측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 우측으로 판단할 수 있다. 다른 예를 들어, 도 3의 (b)와 같이 사용자 조작이 시작점으로부터 좌측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 좌측으로 판단할 수 있다. 또 다른 예를 들어, 도 3의 (c)와 같이 사용자 조작이 시작점으로부터 상측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 상측으로 판단할 수 있다. 또 다른 예를 들어, 도 3의 (d)와 같이 사용자 조작이 시작점으로부터 하측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 하측으로 판단할 수 있다. 또 다른 예를 들어, 도 3의 (e)와 같이 사용자 조작이 시작점으로부터 우상측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 우상측으로 판단할 수 있다. 또 다른 예를 들어, 도 3의 (f)와 같이 사용자 조작이 시작점으로부터 좌하측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 좌하측으로 판단할 수 있다. 또 다른 예를 들어, 도 3의 (g)와 같이 사용자 조작이 시작점으로부터 좌상측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 좌상측으로 판단할 수 있다. 또 다른 예를 들어, 도 3의 (h)와 같이 사용자 조작이 시작점으로부터 우하측으로 기 정의된 길이 또는 기 정의된 시간 이상 센싱된 후 종료되면, 제어 모듈(180)은 사용자 조작의 방향을 우하측으로 판단할 수 있다.
도 4는 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다. 특히, 도 4는 사용자가 하나의 사용자 조작으로 복수의 방향을 입력한 경우의 예를 나타낸다.
도 4의 (a) 내지 (e)는 입력 모듈(예: 터치 센서 패널)(110)에 의해 센싱된 사용자 조작의 다양한 예를 나타낸다. 일 실시 예에 따르면, 제어 모듈(180)은 하나의 사용자 조작이 제1 방향으로 기 정의된 길이 또는 기 정의된 시간 이상 입력된 후 연속적으로 제2 방향으로 기 정의된 길이 또는 기 정의된 시간 이상 입력되면 제1 방향 및 제2 방향으로 순차적으로 복수의 사용자 조작이 입력되었다고 판단할 수 있다. 예를 들어, 도 4의 (a)와 같은 사용자 조작이 센싱되면, 제어 모듈(180)은 우하측 및 좌하측 방향의 사용자 조작이 연속적으로 입력되었다고 판단할 수 있다. 다른 예를 들어, 도 4의 (b)와 같은 사용자 조작이 센싱되면, 제어 모듈(180)은 좌하측 및 우하측 방향의 사용자 조작이 연속적으로 입력되었다고 판단할 수 있다. 또 다른 예를 들어, 도 4의 (c)와 같은 사용자 조작이 센싱되면, 제어 모듈(180)은 우상측 및 우하측 방향의 사용자 조작이 연속적으로 입력되었다고 판단할 수 있다. 다른 예를 들어, 도 4의 (b)와 같은 사용자 조작이 센싱되면, 제어 모듈(180)은 우하측 및 우상측 방향의 사용자 조작이 연속적으로 입력되었다고 판단할 수 있다. 또 다른 예를 들어, 도 4의 (e)와 같은 사용자 조작이 센싱되면, 제어 모듈(180)은 하측, 좌측, 하측, 우측 및 하측 방향의 사용자 조작이 연속적으로 입력되었다고 판단할 수 있다. 다른 예를 들어, 도 4의 (f)와 같은 사용자 조작이 센싱되면, 제어 모듈(180)은 상측, 좌측, 하측, 우측, 하측 및 우측 방향의 사용자 조작이 연속적으로 입력되었다고 판단할 수 있다. 또 다른 예를 들어, 도 4의 (g)와 같은 사용자 조작이 센싱되면, 제어 모듈(180)은 하측, 좌측, 우하측, 좌측, 우하측 및 하측 방향의 사용자 조작이 연속적으로 입력되었다고 판단할 수 있다. 또 다른 예를 들어, 도 4의 (h)와 같은 사용자 조작이 센싱되면, 제어 모듈(180)은 하측, 우상측, 좌측, 우하측 및 상측 방향의 사용자 조작이 연속적으로 입력되었다고 판단할 수 있다. 일 실시 예에 따르면, 사용자 조작은 터치 센서 패널에 가해지는 직접적인 사용자 조작 뿐만 아니라 터치 센서 패널(111)에서 특정 거리 이내에서 입력되는 사용자 조작을 포함할 수 있다.
도 5는 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다. 특히, 도 5는 사용자 조작이 어떠한 방향으로 이동하였는지 판단하는 기준을 설명하는 도면이다.
도 5의 (a)는 인식 가능한 방향의 개수가 네 가지인 경우에 방향을 판단하는 기준을 설명하는 도면이다. 도 5의 (a)를 참조하면 입력 모듈(예: 터치 센서 패널)(110)에 현재 센싱되는 사용자 조작의 위치(10)를 기준으로 인접하는 방향 사이의 각도를 이등분하는 두 개의 직선(13, 15)을 생성할 수 있다. 센서 모듈(예: 터치 센서 패널)(110)은 두 개의 직선에 의해 네 개의 영역으로 구분될 수 있으며 각각의 영역은 하나의 방향을 포함할 수 있다. 이후, 사용자 조작의 위치가 변경되면 네 개의 영역 중 하나에 위치할 수 있다. 제어 모듈(180)은 변경된 사용자 조작이 어떠한 영역에 위치하는지를 기준으로 사용자 조작의 방향을 판단할 수 있다. 즉, 변경된 사용자 조작이 위치하는 영역이 포함하는 방향으로 사용자 조작이 이동하였다고 판단할 수 있다. 사용자 조작의 위치가 변경되면 센서 모듈(예: 터치 센서 패널)(110)은 변경된 위치를 기준으로 새롭게 네 개의 영역으로 구분될 수 있다. 제어 모듈(180)은 새롭게 구분된 영역을 기준으로 또다시 사용자 조작이 이동한 방향을 판단할 수 있다. 제어 모듈(180)은 상술한 방법으로 사용자 조작이 움직이는 방향을 순차적으로 판단할 수 있으며, 사용자 조작이 특정 방향으로 기 정의된 길이 또는 기 정의된 시간 이상 연속적으로 센싱되면 특정 방향으로 사용자 조작이 입력되었다고 판단할 수 있다.
도 5의 (b)는 인식 가능한 방향의 개수가 여덟 가지인 경우에 방향을 판단하는 기준을 설명하는 도면이다. 도 5의 (b)를 참조하면 입력 모듈(예: 터치 센서 패널)(110)에 현재 센싱되는 사용자 조작의 위치(20)를 기준으로 인접하는 방향 사이의 각도를 이등분하는 네 개의 직선(21, 23, 25, 27)을 생성할 수 있다. 센서 모듈(예: 터치 센서 패널)(110)은 네 개의 직선에 의해 여덟 개의 영역으로 구분될 수 있으며 각각의 영역은 하나의 방향을 포함할 수 있다. 이후, 사용자 조작의 위치가 변경되면 여덟 개의 영역 중 하나에 위치할 수 있다. 제어 모듈(180)은 변경된 사용자 조작이 어떠한 영역에 위치하는지를 기준으로 사용자 조작의 방향을 판단할 수 있다. 즉, 변경된 사용자 조작이 위치하는 영역이 포함하는 방향으로 사용자 조작이 이동하였다고 판단할 수 있다. 사용자 조작의 위치가 변경되면 센서 모듈(예: 터치 센서 패널)(110)은 변경된 위치를 기준으로 새롭게 여덟 개의 영역으로 구분될 수 있다. 제어 모듈(180)은 새롭게 구분된 영역을 기준으로 또다시 사용자 조작이 이동한 방향을 판단할 수 있다. 제어 모듈(180)은 상술한 방법으로 사용자 조작이 움직이는 방향을 연속적으로 판단할 수 있으며, 사용자 조작이 특정 방향으로 기 정의된 길이 또는 기 정의된 시간 이상 연속적으로 센싱되면 특정 방향으로 사용자 조작이 입력되었다고 판단할 수 있다.
도 6은 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다. 특히, 도 6은 곡선 형태의 사용자 조작이 센싱된 경우 사용자 조작의 방향을 판단하는 동작을 설명하는 도면이다.
도 6을 참조하면 (예: 터치 센서 패널)(110)에 의해 센싱된 곡선 형태의 연속적인 사용자 조작(30)의 예를 나타낸다. 도 6에 도시된 사용자 조작(30)은 최초 P1 지점으로부터 P2 내지 P5를 거쳐 P6 지점으로 연속적으로 센싱되었다. 도 5의 (a)를 참조하여 설명한 바에 따르면, 제어 모듈(180)은 변경된 사용자 조작이 어떠한 영역에 위치하는지를 기준으로 사용자 조작의 방향을 판단할 수 있다. 예를 들어, P1 지점으로부터 P2 지점까지의 사용자 조작은 우측 방향을 포함하는 영역내에서 움직이므로, 제어 모듈(180)은 P1 지점으로부터 P2 지점까지 우측 방향의 사용자 조작이 입력되었다고 판단할 수 있다. P2 지점으로부터 P3지점까지의 사용자 조작은 하측 방향을 포함하는 영역내에서 움직이므로, 제어 모듈(180)은 P2 지점으로부터 P3 지점까지 하측 방향의 사용자 조작이 입력되었다고 판단할 수 있다. P3 지점으로부터 P4지점까지의 사용자 조작은 좌측 방향을 포함하는 영역내에서 움직이므로, 제어 모듈(180)은 P3 지점으로부터 P4 지점까지 좌측 방향의 사용자 조작이 입력되었다고 판단할 수 있다. P4 지점으로부터 P5지점까지의 사용자 조작은 하측 방향을 포함하는 영역내에서 움직이므로, 제어 모듈(180)은 P4 지점으로부터 P5 지점까지 하측 방향의 사용자 조작이 입력되었다고 판단할 수 있다. P5 지점으로부터 P6지점까지의 사용자 조작은 우측 방향을 포함하는 영역내에서 움직이므로, 제어 모듈(180)은 P5 지점으로부터 P6 지점까지 좌측 방향의 사용자 조작이 입력되었다고 판단할 수 있다.
도 7은 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다. 특히, 도 7은 디스플레이에 표시되는 컨텐츠를 기준으로 사용자 조작의 방향을 판단하는 동작을 설명하는 도면이다.
일 실시 예에 따르면, 전자 장치(100)는 전(前)면에 디스플레이(150)를 포함할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 디스플레이(150)에 표시되는 컨텐츠를 기준으로 사용자 조작의 방향을 판단할 수 있다. 예를 들어, 제어 모듈(180)은 디스플레이(150)에 표시된 컨텐츠(예: 이미지 또는 텍스트)의 방향에 대응되도록 사용자 조작의 방향을 판단할 수 있다. 도 7의 (a)를 참조하면, 제어 모듈(180)은 디스플레이(150)에 표시되는 컨텐츠를 기준으로 우측, 하측 및 좌측 방향의 사용자 조작이 순차적으로 입력되었다고 판단할 수 있다. 도 7의 (b)를 참조하면, 제어 모듈(180)은 디스플레이(150)에 표시되는 컨텐츠를 기준으로 상측, 우측 및 하측 방향의 사용자 조작이 순차적으로 입력되었다고 판단할 수 있다. 도 7의 (a) 및 (b)를 비교하면 제어 모듈(180)은 동일한 위치에 사용자 조작이 입력되더라도 컨텐츠의 표시 방향에 따라 사용자 조작의 방향을 상이하게 판단할 수 있다.
도 8은 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향을 판단하는 동작을 설명하기 위한 도면이다. 특히, 도 8은 중력 방향을 기준으로 사용자 조작의 방향을 판단하는 동작을 설명하는 도면이다.
일 실시 예에 따르면, 제어 모듈(180)은 중력 방향을 기준으로 사용자 조작의 방향을 판단할 수 있다. 예를 들어, 제어 모듈(180)은 중력 방향을 나타내는 벡터를 센서 모듈(예: 터치 센서 패널)(110)이 이루는 평면에 투영시켜, 투영된 벡터의 방향을 하측 방향으로 판단할 수 있다. 도 8의 (a)를 참조하면 전자 장치(100)의 상부가 좌측으로 기울어진 상태에서 사용자 조작이 센싱될 수 있다. 제어 모듈(180)은 중력 방향을 기준으로 우측, 하측 및 좌측 방향의 사용자 조작이 순차적으로 입력되었다고 판단할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작의 방향을 판단할 때, 전자 장치(100)의 기울기값을 이용하여 사용자 조작의 각도를 보정할 수 있다. 예를 들어, 센서 모듈(예: 터치 센서 패널)(110)이 이루는 평면이 좌측 또는 우측으로 특정 각도만큼 기울어져 있는 상태에서 사용자 조작이 센싱되면, 센싱된 사용자 조작을 기울어져 있는 각도만큼 회전시킨 후 사용자 조작의 방향을 판단할 수 있다.
도 9는 본 발명의 다양한 실시 예에 따라 사용자 조작의 각도 변화를 판단하는 동작을 설명하기 위한 도면이다.
일 실시 예에 따르면, 제어 모듈(180)은 입력 모듈(110)에 의해 센싱된 사용자 조작을 분석하여 사용자 조작의 각도 변화를 판단할 수 있다. 예를 들어, 제어 모듈(180)은 사용자 조작의 방향이 제1 방향에서 제2 방향으로 변경되면 제1 방향과 제2 방향이 이루는 각도 변화를 판단할 수 있다.
도 9는 입력 모듈(예: 터치 센서 패널)(110)에 의해 센싱된 사용자 조작의 예를 나타낸다. 도 9를 참조하면 상측, 우측, 상측, 우측, 하측 및 우측 방향의 사용자 조작이 연속적으로 센싱되었으며, 사용자 조작의 방향이 총 5회 변경되었음을 알 수 있다. 제어 모듈(180)은 각각의 방향 변화에 대해 사용자 조작의 각도 변화를 판단할 수 있다. 예를 들어, 제어 모듈(180)은 변경 전 사용자 조작의 방향 및 변경 후 사용자 조작의 시작점을 2차원 좌표계의 원점으로 간주하여 좌표계에 표시하는 경우 변경 전 사용자 조작의 방향과 변경 후 사용자 조작의 방향의 상대적인 각도 변화를 판단할 수 있다. 즉, 제어 모듈(180)은 변경 전 사용자 조작의 방향 및 변경 후 사용자 조작의 방향을 나타내는 벡터의 상대적인 각도 변화를 판단할 수 있다.
도 9를 참조하면, 첫번째 방향 변화(41)는 사용자 조작의 방향이 상측에서 우측으로, 즉, 90˚에서 0˚로 변경되었으므로 -90˚로 판단할 수 있다. 두번째 방향 변화(43)는 우측에서 상측으로, 즉, 0˚에서 90˚로 변경되었으므로 +90˚로 판단할 수 있다. 세번째 방향 변화(45)는 상측에서 우측으로, 즉, 90˚에서 0˚로 변경되었으므로 -90˚로 판단할 수 있다. 네번째 방향 변화(47)는 우측에서 하측으로, 즉, 90˚에서 270˚(또는, -90˚)로 변경되었으므로 -90˚로 판단할 수 있다. 다섯번째 방향 변화(49)는 하측에서 우측으로, 즉, 270˚에서 0˚로 변경되었으므로 +90˚로 판단할 수 있다. 따라서, 제어 모듈(180)은 도 9에 도시된 사용자 조작에 대해 -90˚, +90˚, -90˚, -90˚ 및 +90˚로 순차적으로 각도가 변경되었다고 판단할 수 있다.
도 10은 본 발명의 다양한 실시 예에 따라 사용자 조작의 센싱 영역을 판단하는 동작을 설명하는 도면이다.
일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작의 센싱 영역을 판단할 수 있다. 예를 들어, 입력 모듈(예: 터치 센서 패널)(110)은 복수의 영역을 포함할 수 있으며, 제어 모듈(180)은 사용자 조작이 복수의 영역 중 어떠한 영역에서 센싱되었는지 판단할 수 있다. 다른 예를 들어, 제어 모듈(180)은 사용자 조작이 복수의 영역에 걸쳐 센싱되면, 사용자 조작이 센싱된 영역의 순서를 판단할 수 있다.
도 10의 (a)를 참조하면, 입력 모듈(110)은 연속된 복수(예: 두 개 이상)의 영역으로 구분될 수 있다. 예를 들어, 입력 모듈(110)은 연속된 제1 영역(111) 및 제2 영역(112)을 포함할 수 있다. 일 실시 예에 따르면, 제2 영역(112)은 디스플레이(150)의 우측 가장자리에 대응되는 영역일 수 있다.
도 10의 (b)를 참조하면, 제어 모듈(180)은 입력 모듈(110)에 입력되는 사용자 조작이 센싱되는 영역을 판단할 수 있다. 예를 들어, 도 10의 (b)에 도시된 복수의 사용자 조작(51, 53, 55, 57. 59) 중 상측을 기준으로 첫번째 사용자 조작(51)이 센싱되면, 제어 모듈(180)은 사용자 조작이 센서 모듈(110)의 제1 영역(111)에서 상측 방향으로 입력되었다고 판단할 수 있다. 두번째 사용자 조작(53)이 센싱되면, 제어 모듈(180)은 사용자 조작이 제1 영역(111) 및 제2 영역(112)에서 우측 방향으로 입력되었으며, 제1 영역(111)으로부터 제2 영역(112) 순서로(또는, 방향으로) 입력되었다고 판단할 수 있다. 세번째 사용자 조작(55)이 센싱되면, 제어 모듈(180)은 사용자 조작이 제2 영역(111)에서 하측 방향으로 입력되었다고 판단할 수 있다. 네번째 사용자 조작(53)이 센싱되면, 제어 모듈(180)은 사용자 조작이 제1 영역(111) 및 제2 영역(112)에서 좌측 방향으로 입력되었으며, 제2 영역(112)으로부터 제1 영역(111) 순서로(또는, 방향으로) 입력되었다고 판단할 수 있다. 다섯번째 사용자 조작(59)이 센싱되면, 제어 모듈(180)은 사용자 조작이 제2 영역(112)에서 우측 방향으로 입력되었다고 판단할 수 있다. 도 10의 (b)에 도시된 사용자 조작은 일 실시 예에 불과하며, 입력 모듈(110)은 도 10에 도시된 사용자 조작 외에 다양한 사용자 조작을 입력받을 수 있다.
도 11은 본 발명의 다양한 실시 예에 따라 사용자 조작이 입력된 장치를 판단하는 동작을 설명하는 도면이다.
도 11을 참조하면, 전자 장치(100)는 케이스 장치(200)와 결합될 수 있다. 일 실시 예에 따르면, 케이스 장치(200)는 별도의 입력 모듈(210)을 포함할 수 있다. 일 실시 예에 따르면, 케이스 장치(200)에 포함된 입력 모듈(210)은 사용자의 터치 조작을 센싱하는 터치 센서 패널 또는 사용자의 펜 조작을 센싱하는 펜 센서 패널을 포함할 수 있다. 전자 장치(100)는 도 1에 도시된 통신 모듈(130)을 통해 케이스 장치(200)의 입력 모듈(210)과 유/무선으로 연결될 수 있다. 통신 모듈(130)은 케이스 장치(200)의 입력 모듈(210)에 의해 센싱되는 사용자 조작을 수신할 수 있다. 예를 들어, 통신 모듈(130)은 케이스 장치(200)의 입력 모듈(210)이 터치 센서 패널 또는 펜 센서 패널이면 사용자의 터치 조작 또는 펜 조작이 입력된 좌표값을 수신할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작이 입력된 장치(또는, 입력 모듈)의 종류를 판단할 수 있다. 예를 들어, 제어 모듈(180)은 현재 센싱되는 사용자 조작이 터치 센서 패널(111)에서 센싱되었는지 또는 제스처 센서(115)에 의해 센싱되었는지 판단할 수 있다. 다른 예를 들어, 현재 센싱되는 사용자 조작이 전자 장치(100)에 포함된 입력 모듈(110)에서 센싱되었는지 또는 케이스 장치(200)에 포함된 입력 모듈(210)에서 센싱되었는지 판단할 수 있다. 도 11에 도시된 사용자 조작(61, 63, 65, 67) 중 첫번째 사용자 조작(61)이 센싱되면, 제어 모듈(180)은 사용자 조작이 케이스 장치(200)에 포함된 입력 모듈(210)에서 하측 방향으로 입력되었다고 판단할 수 있다. 두번째 사용자 조작(63)이 센싱되면, 제어 모듈(180)은 사용자 조작이 케이스 장치(200)에 포함된 입력 모듈(210)에 포함된 입력 모듈(110)에서 우측 방향으로 입력되었다고 판단할 수 있다. 세번째 사용자 조작(65)이 센싱되면, 제어 모듈(180)은 사용자 조작이 전자 장치(100)에 포함된 입력 모듈(110)에서 상측 방향으로 입력되었다고 판단할 수 있다. 네번째 사용자 조작(67)이 센싱되면, 제어 모듈(180)은 사용자 조작이 전자 장치(100)에 포함된 입력 모듈(110)에서 좌측 방향으로 입력되었다고 판단할 수 있다.
도 12는 본 발명의 다양한 실시 예에 따라 사용자 조작에 대응되는 가이드를 표시하는 동작을 나타내는 도면이다.
도 12의 (a)를 참조하면 제어 모듈(180)은 사용자 조작이 최초로 센싱되는 위치에 대응하여 디스플레이(150)에 사용자 조작의 입력을 도와주는 가이드(71)를 표시할 수 있다. 일 실시 예에 따르면, 가이드(71)는 인식 가능한 방향을 알려주는 방향 가이드(73)를 포함할 수 있다. 예를 들어, 인식 가능한 방향의 개수가 여덟 개인 경우, 도 12의 (a)와 같이 사용자 조작의 센싱 위치를 기준으로 각각의 방향에 대응하는 여덟 개의 방향 가이드(73)가 표시될 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작이 최초 위치로부터 방향 가이드(73)가 표시된 위치까지 이동되면 특정 방향으로 사용자 조작이 입력되었다고 판단할 수 있다.
도 12의 (b)를 참조하면, 제어 모듈(180)은 사용자 조작의 위치가 변경되면 변경된 위치에 대응하여 가이드(71)를 표시하도록 제어할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작의 센싱 위치가 변경되면 가이드(71)가 사라지도록 제어할 수 있으며, 사용자 조작이 특정 방향으로 기 정의된 길이 이상 입력되면 변경된 위치에 오브젝트(73)를 다시 표시하도록 제어할 수 있다.
도 12의 (c) 및 (d)를 참조하면, 사용자 조작이 연속적으로 입력되는 경우, 제어 모듈(180)은 사용자 조작이 센싱되는 위치를 추적하여 대응되는 위치에 가이드(71)를 지속적으로 표시하도록 제어할 수 있다.
도 12의 (b) 내지 (d)를 참조하면, 제어 모듈(180)은 사용자 조작이 연속적으로 입력되는 경우, 사용자 조작이 입력된 경로(또는, 방향)를 나타내는 오브젝트(75)를 표시하도록 제어할 수 있다. 예를 들어, 제어 모듈(180)은 사용자 조작의 입력 경로를 선으로 표시하도록 제어할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작의 방향 조합에 기초하여 특정 동작을 수행할 수 있다. 예를 들어, 제어 모듈(180)은 사용자 조작의 방향에 기초하여 전자 장치의 잠금을 해제할 수 있다. 다른 예를 들어, 제어 모듈(180)은 사용자 조작의 방향에 기초하여 특정 어플리케이션(예: 카메라 어플리케이션 또는 메시징 어플리케이션)을 실행시킬 수 있다. 또 다른 예를 들어, 제어 모듈(180)은 사용자 조작의 방향에 기초하여 전자 장치의 잠금을 해제하고, 전자 장치의 잠금이 해제되면 특정 어플리케이션을 실행시킬 수 있다. 또는, 제어 모듈(180)은 사용자 조작의 방향에 기초하여 전자 장치의 다양한 계정의 잠금을 해제할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작의 방향 조합을 메모리(120)에 기 저장된 적어도 하나의 방향 조합과 비교하여 일치하는 방향 조합에 대응되는 동작을 수행할 수 있다. 예를 들어, 제어 모듈(180)은 사용자 조작의 방향 및 입력 순서를 메모리(120)에 저장된 사용자 조작의 방향 및 입력 순서와 비교하여 일치하는 방향 조합에 대응되는 동작을 수행할 수 있다. 다른 예를 들어, 제어 모듈(180)은 사용자 조작의 방향, 입력 순서 및 센싱 영역을 메모리(120)에 저장된 사용자 조작의 방향, 입력 순서 및 센싱 영역과 비교하여 일치하는 방향 조합에 대응되는 동작을 수행할 수 있다. 또 다른 예를 들어, 제어 모듈(180)은 사용자 조작의 방향, 입력 순서 및 입력 장치를 메모리(120)에 저장된 사용자 조작의 방향, 입력 순서 및 입력 장치와 비교하여 일치하는 방향 조합에 대응되는 동작을 수행할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 방향 조합 중 사용자 조작의 방향을 비교할 때, 입력 모듈(110)에서 센싱된 사용자 조작 및 메모리(120)에 저장하기 위해 입력된 사용자 조작의 길이(또는, 비율)에 관계없이 사용자 조작의 방향만을 비교하여 방향 조합의 일치 여부를 할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작의 각도 변화에 기초하여 특정 동작을 수행할 수 있다. 예를 들어, 제어 모듈(180)은, 사용자 조작의 각도 변화 및 각도 변화의 순서를 미리 설정된 사용자 조작의 각도 변화 및 각도 변화의 순서와 비교하여 일치 여부에 따라 특정 동작을 수행할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 사용자에 의해 입력된 방향 조합이 메모리(120)에 저장된 방향 조합과 기 정의된 횟수 이상 일치하지 않은 경우 PIN(personal identification number) 번호를 입력받아 특정 동작을 수행하도록 할 수 있다. 예를 들어, 제어 모듈(180)은 방향 조합을 이용한 잠금 해제가 기 정의된 횟수 이상 실패하면 디스플레이(150)가 PIN 번호를 입력할 수 있는 사용자 인터페이스를 표시하도록 제어할 수 있다.
일 실시 예에 따르면, 사용자 조작의 방향을 판단하는 방법은 사용자에 의해 설정될 수 있다. 예를 들어, 사용자는 하나의 사용자 조작으로 하나의 방향만을 인식할지 또는 복수의 방향을 인식할지 여부를 설정할 수 있다. 다른 예를 들어, 사용자는 사용자 조작이 움직이는 위치에 따라 사용자 조작의 방향을 판단할지 또는 사용자 조작이 센싱된 모양으로 사용자 조작의 방향을 판단할지 여부를 설정할 수 있다. 또 다른 예를 들어, 사용자는 인식 가능한 방향의 개수(예: 네 가지 또는 여덟 가지)를 설정할 수 있다. 또 다른 예를 들어, 사용자는 사용자 조작이 입력될 수 있는 영역을 설정할 수 있다.
일 실시 예에 따르면, 방향 조합의 일치 여부를 판단하는 방법은 사용자에 의해 설정될 수 있다. 예를 들어, 사용자는 사용자 조작이 센싱되는 영역을 고려하여 방향 조합의 일치 여부를 판단할지 또는 사용자 조작이 센싱되는 영역을 고려하지않고 방향 조합의 일치 여부를 판단할지 설정할 수 있다. 다른 예를 들어, 사용자는 외부 입력 장치로부터 수신되는 사용자 조작을 고려하여 방향 조합의 일치 여부를 판단할지 또는 외부 입력 장치로부터 수신되는 사용자 조작은 무시할지 설정할 수 있다.
일 실시 예에 따르면, 사용자 조작의 방향의 인식에 따라 사용자에게 제공되는 오브젝트, 오디오 또는 진동은 사용자에 의해 설정될 수 있다. 예를 들어, 사용자는 오브젝트, 오디오 또는 진동을 제공받을지 여부를 각각 설정할 수 있다. 다른 예를 들어, 사용자는 제공받을 오브젝트, 오디오 또는 진동의 종류를 설정할 수 있다.
도 13은 본 발명의 다양한 실시 예에 따라 사용자 조작의 방향에 대응되는 오브젝트를 표시하는 동작을 나타내는 도면이다.
도 13의 (a) 내지 (d)는 각각 도 2의 (a) 내지 (d)에 도시된 사용자 조작이 입력된 경우 디스플레이(150)에 표시되는 오브젝트의 예를 나타낸다. 도 13의 (a)를 참조하면, 제어 모듈(180)은 도 2의 (a)에서와 같이 우측 방향의 사용자 조작이 입력되면, 디스플레이(150)에 우측 방향의 화살표(81)와 같은 사용자 조작의 방향을 나타내는 아이콘 오브젝트를 표시하도록 제어할 수 있다. 또는, 제어 모듈(180)은 디스플레이(150)에 “오른쪽 방향이 입력되었습니다.”(82)와 같은 사용자 조작의 방향을 알려주는 텍스트 오브젝트를 표시하도록 제어할 수 있다. 도 13의 (b)를 참조하면, 제어 모듈(180)은 도 2의 (b)에서와 같이 좌측 방향의 사용자 조작이 입력되면, 디스플레이(150)에 좌측 방향의 화살표(83)와 같은 사용자 조작의 방향을 나타내는 아이콘 오브젝트를 표시하도록 제어할 수 있다. 또는, 제어 모듈(180)은 디스플레이(150)에 “왼쪽 방향이 입력되었습니다.”(84)와 같은 사용자 조작의 방향을 알려주는 텍스트 오브젝트를 표시하도록 제어할 수 있다. 도 13의 (c)를 참조하면, 제어 모듈(180)은 도 2의 (c)에서와 같이 상측 방향의 사용자 조작이 입력되면, 디스플레이(150)에 상측 방향의 화살표(85)와 같은 사용자 조작의 방향을 나타내는 아이콘 오브젝트를 표시하도록 제어할 수 있다. 또는, 제어 모듈(180)은 디스플레이(150)에 “위쪽 방향이 입력되었습니다.”(86)와 같은 사용자 조작의 방향을 알려주는 텍스트 오브젝트를 표시하도록 제어할 수 있다. 도 13의 (c)를 참조하면, 제어 모듈(180)은 도 2의 (c)에서와 같이 하측 방향의 사용자 조작이 입력되면, 디스플레이(150)에 하측 방향의 화살표(87)와 같은 사용자 조작의 방향을 나타내는 아이콘 오브젝트를 표시하도록 제어할 수 있다. 또는, 제어 모듈(180)은 디스플레이(150)에 “아래쪽 방향이 입력되었습니다.”(88)와 같은 사용자 조작의 방향을 알려주는 텍스트 오브젝트를 표시하도록 제어할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 통신 모듈(130) 또는 센서 모듈(140)에 의해 획득되는 전자 장치의 상황 정보에 기초하여 전자 장치(100)의 잠금 해제 모드를 변경할 수 있다. 상황 정보는, 예를 들어, 상기 전자 장치의 위치, 움직임, 차량 탑재 여부, 및 상기 전자 장치에 포함된 디스플레이의 가시성 정보 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 전자 장치(100)의 상황 정보가 지정된 조건에 해당하는지 판단할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 현재 GPS 정보 또는 서빙셀 식별 정보를 이용하여 전자 장치(100)가 지정된 위치에 해당하는지 판단할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 AP 식별 정보를 이용하여 전자 장치(100)가 특정 공간(예: 회사 또는 집)에 위치하는지 판단할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 전자 장치(100)의 움직임 정보를 이용하여 전자 장치(100)가 움직이는 상태인지 판단할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 차량 정보를 이용하여 전자 장치(100)가 차량에 탑재된 상태인지(또는, 사용자가 운전 중인 상태인지) 판단할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 전자 장치(100) 주변의 밝기 정보 및 디스플레이(150)의 밝기 정보를 이용하여 디스플레이(150)의 가시성을 판단할 수 있다. 전자 장치(100) 주변의 밝기는 예를 들어, 조도 센서(145)에 의해 측정될 수 있다. 예를 들어, 제어 모듈(180)은 전자 장치(100) 주변이 어둡고 디스플레이(150)가 밝으면 가시성이 높다고 판단할 수 있다. 다른 예를 들어, 제어 모듈(180)은 전자 장치(100) 주변이 밝고 디스플레이(150)가 어두우면 가시성이 낮다고 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 전자 장치(100) 주변의 밝기 및 디스플레이(150)의 밝기를 비교하여 지정된 값 이상 차이가 나는지 판단할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 는 전자 장치 주변 이미지를 이용하여 전자 장치(100) 주변에 지정된 사람(예: 가족)이 존재하는지 판단할 수 있다. 일 실시예에 따르면, 제어 모듈(180)은 실내 측위 기술(indoor positioning system)로 외부 전자 장치를 확인하여 전자 장치(100) 주변에 상기 외부 전자 장치와 매핑(mapping)되는 지정된 사람(예: 회사 동료)이 존재하는지 판단할 수 있다.
제어 모듈(180)은 상황 정보가 지정된 조건에 해당한다고 판단되면, 전자 장치(100)의 잠금 해제 모드를 제1 모드에서 제2 모드로 전환할 수 있다. 예를 들어, 제1 모드는 PIN 번호를 이용한 잠금 해제 모드(또는, PIN 번호 모드) 또는 지정된 수(예: 9개)의 포인트를 이용한 잠금 해제 모드(또는, 포인트 모드)이며, 제2 모드는 방향 조합을 이용한 잠금 해제 모드(또는, 방향 모드)일 수 있다. 다른 예를 들어, 제1 모드는 방향 조합을 이용한 잠금 모드이며, 제2 모드는 PIN 번호를 이용한 잠금 모드일 수 있다.
다양한 실시 예에 따르면, 제어 모듈(180)은 전자 장치(100)의 잠금 해제 모드를 전자 장치(100)의 상황 정보에 따라 지속적으로 변경될 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 전자 장치(100)의 위치가 사용자의 집이라고 판단되면 보안레벨이 상대적으로 낮은 방향 모드를 이용한 잠금 해제 모드로 동작하고, 전자 장치(100)의 위치가 회사라고 판단되면 보안레벨이 상대적으로 높은 포인트 모드 또는 PIN 번호 모드로 동작하도록 제어할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 전자 장치(100)는 디스플레이(150)의 가시성이 높으면 정확한 위치에 입력을 요구하는 PIN 번호 모드 또는 포인트 모드로 동작하고, 디스플레이(150)의 가시성이 낮으면 정확한 입력이 필요 없는 방향 모드로 동작하도록 제어할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 전자 장치(100)가 차량에 탑재된 상태(또는, 운전중인 상태)이면 사용자의 정확한 입력을 요구할 수 없으므로 방향 모드로 동작하고, 차량에 탑재된 상태가 아니면 PIN 번호 모드 또는 포인트 모드로 동작하도록 제어할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 사용자가 걷거나 달리는 상태라고 판단할 경우 방향 모드로 동작하고, 사용자가 정지 상태라고 판단할 경우 PIN 번호 모드 또는 포인트 모드로 동작하도록 제어할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 전자 장치 주변에 가족이 있다고 판단되면 보안레벨이 상대적으로 낮은 방향 모드로 동작하고, 전자 장치 주변에 회사 동료 또는 친구가 위치한다고 판단되면 보안레벨이 상대적으로 높은 PIN 모드 또는 포인트 모드로 동작하도록 제어할 수 있다.
도 14 및 도 15는 본 발명의 다양한 실시 예에 따라 디스플레이에 표시되는 사용자 인터페이스를 나타내는 도면이다.
도 14의 (a)를 참조하면, 디스플레이(150)에 전자 장치(100)의 환경 설정 메뉴를 포함하는 사용자 인터페이스가 표시될 수 있다. 사용자 인터페이스는 방향 잠금 해제 모드(또는, 방향 모드)를 설정할 수 있는 메뉴(91) 및 가변적인 잠금 해제 모드(또는, 가변 모드)를 설정할 수 있는 메뉴(92)를 포함할 수 있다. 사용자가 방향 모드 메뉴(91)을 선택하면, 디스플레이(150)에 도 14의 (b)와 같은 사용자 인터페이스가 표시될 수 있다. 도 14의 (b)에 도시된 사용자 인터페이스는 방향 모드와 관련된 다양한 메뉴를 포함할 수 있다. 예를 들어, 사용자 인터페이스는 방향 조합을 설정할 수 있는 메뉴(93)를 포함할 수 있다. 사용자가 설정 메뉴(93)를 선택하면 디스플레이(150)에 도 14의 (c)에 도시된 사용자 인터페이스가 표시될 수 있다. 사용자가 방향 조합을 설정하기 위한 사용자 조작을 입력하면 도 14의 (d)에 도시된 사용자 인터페이스가 표시될 수 있다. 도 14의 (d)를 참조하면 사용자 인터페이스는 입력된 사용자 조작의 방향을 나타내는 오브젝트(94)를 포함할 수 있다. 사용자가 방향 조합을 설정하기 위한 사용자 조작을 추가적으로 입력하면, 디스플레이(150)에 도 14의 (e)에 도시된 사용자 인터페이스가 표시될 수 있다. 도 14의 (e)를 참조하면 사용자 인터페이스는 현재까지 입력된 사용자 조작의 방향을 순서가 표시될 수 있다. 사용자 조작이 입력된 후 사용자가 “CONTINUE”를 선택하면, 디스플레이(150)에 도 14의 (f)에 도시된 방향 조합의 재입력을 요구하는 사용자 인터페이스가 표시될 수 있다. 사용자가 방향 조합을 재입력하면, 디스플레이(150)에 도 15의 (a)에 도시된 PIN 번호를 설정할 수 있는 사용자 인터페이스가 표시될 수 있다. 사용자가 PIN 번호를 입력하면 도 15의 (b)에 도시된 PIN 번호의 재입력을 요구하는 사용자 인터페이스가 표시될 수 있다. 사용자가 PIN 번호를 재입력하면 도 15의 (c)에 도시된 방향 모드와 관련된 메뉴를 포함하는 사용자 인터페이스가 표시될 수 있다.
전자 장치(100)의 잠금 해제 모드가 방향 모드로 설정된 상태에서 전자 장치(100)가 잠금 상태로 진입하면, 디스플레이(150)에 도 15의 (d)에 도시된 사용자 인터페이스가 표시될 수 있다. 도 15의 (d)를 참조하면 사용자 인터페이스는 전자 장치(100)의 잠금을 해제하기 위해 방향 입력을 요구하는 메시지(95)를 포함할 수 있다. 사용자는 도 15의 (d)에 도시된 사용자 인터페이스를 통해 설정된 방향 조합에 대응되는 사용자 조작을 입력할 수 있다. 사용자가 입력한 방향 조합이 설정된 방향 조합과 상이한 경우에는 도 15의 (e)에 도시된 사용자 인터페이스가 표시될 수 있다. 도 15의 (e)를 참조하면 사용자 인터페이스는 잘못된 방향 조합이 입력되었음을 알리는 메시지(96)를 포함할 수 있다.
도 14의 (a)에 도시된 사용자 인터페이스에서 사용자가 가변 모드 메뉴(92)를 선택하면 디스플레이(150)에 도 15의 (f)에 도시된 사용자 인터페이스가 표시될 수 있다. 도 15의 (f)에 도시된 사용자 인터페이스는 가변 모드와 관련된 다양한 메뉴를 포함할 수 있다. 예를 들어, 사용자 인터페이스는 위치에 기반한 가변 모드를 설정할 수 있는 메뉴(97) 및 전자 장치(100)의 상태에 기반한 가변 모드를 설정할 수 있는 메뉴(98)를 포함할 수 있다. 일 실시 예에 따르면, 위치에 기반한 가변 모드 및 상태에 기반한 가변 모드는 동시에 설정될 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 상기 전자 장치와 기능적으로 연결되어 제스처를 센싱하는 입력 모듈, 적어도 하나의 방향 조합을 저장하는 메모리 및 상기 제스처에 대응되는 복수의 방향들을 포함하는 방향 조합을 상기 메모리에 저장된 적어도 하나의 방향 조합과 비교하고, 상기 비교 결과에 따라 상기 전자 장치의 상태를 제1 상태에서 제2 상태로 변경(transitioning)하는 제어 모듈을 포함할 수 있다.
일 실시 예에 따르면, 상기 제1 상태는 잠금 상태이며, 상기 제2 상태는 잠금 해제 상태일 수 있다.
일 실시 예에 따르면, 상기 방향 조합은, 제스처의 방향, 입력 순서, 센싱 영역, 및 제스처가 입력된 장치의 종류 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 상기 제스처는 비연속적으로 입력되는 복수의 제스처를 포함하며, 상기 복수의 제스처 각각은 하나의 방향을 포함할 수 있다.
일 실시 예에 따르면, 상기 제어 모듈은, 상기 복수의 제스처 각각의 시작 지점으로부터 종료 지점으로의 방향을 상기 복수의 제스처 각각의 방향으로 판단할 수 있다.
일 실시 예에 따르면, 상기 제어 모듈은, 상기 복수의 제스처 중 제1 제스처가 센싱된 후 지정된 시간 내에 제2 제스처가 센싱되면 상기 제2 제스처에 대응되는 방향을 상기 방향 조합에 포함시키고, 제1 제스처가 센싱된 후 지정된 시간이 경과한 후에 제2 제스처가 센싱되면 상기 제2 제스처에 대응되는 방향을 상기 방향 조합에서 제외할 수 있다.
일 실시 예에 따르면, 상기 제어 모듈은, 상기 제스처가 제1 방향으로 기 정의된 길이 이상 센싱되면 상기 제1 방향으로 제스처가 입력되었다고 판단할 수 있다.
일 실시 예에 따르면, 상기 제어 모듈은, 상기 제스처가 제1 방향으로 기 정의된 시간 이상 센싱되면 상기 제1 방향으로 제스처가 입력되었다고 판단할 수 있다.
일 실시 예에 따르면, 상기 제어 모듈은, 하나의 제스처가 제1 방향에서 제2 방향으로 변경되면, 상기 제1 방향 및 제2 방향으로 순차적으로 복수의 제스처가 입력되었다고 판단할 수 있다.
일 실시 예에 따르면, 상기 전자 장치는 디스플레이를 더 포함하며, 상기 제어 모듈은, 상기 디스플레이에 표시되는 컨텐츠를 기준으로 상기 제스처의 방향을 판단할 수 있다.
일 실시 예에 따르면, 상기 전자 장치는 중력의 방향을 측정하는 가속도 센서를 더 포함하며, 상기 제어 모듈은, 상기 중력 방향을 기준으로 상기 제스처의 방향을 판단할 수 있다.
일 실시 예에 따르면, 상기 입력 모듈은 상기 제스처를 센싱하는 제스처 센서를 포함할 수 있다.
일 실시 예에 따르면, 상기 입력 모듈은 터치 센서 패널을 포함하고, 상기 제어 모듈은, 사용자의 상기 전자 장치에 대한 파지 상태를 확인하고, 상기 파지 상태에 기초하여 상기 터치 센서 패널의 적어도 일부를 활성화하도록 제어할 수 있다.
일 실시 예에 따르면, 상기 전자 장치는 디스플레이를 더 포함하며, 상기 입력 모듈은, 상기 디스플레이의 전원이 꺼진 상태에서 상기 제스처를 입력받을 수 있다.
일 실시 예에 따르면, 상기 전자 장치는 상기 제스처의 방향에 따라 상이한 오디오 신호를 출력하는 오디오 모듈, 상기 제스처의 방향에 따라 상이한 오브젝트를 표시하는 디스플레이 및 상기 제스처의 방향에 따라 상이한 진동을 발생시키는 모터 중 적어도 하나를 더 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 상기 전자 장치와 기능적으로 연결되어 제스처를 센싱하는 입력 모듈, 메모리 및 상기 제스처에 대응되는 복수의 방향을 판단하고, 복수의 방향들을 포함하는 방향 조합을 상기 메모리에 저장하는 제어 모듈을 포함할 수 있다.
도 16은 본 발명의 다양한 실시 예에 따른 전자 장치의 제어 방법을 나타내는 흐름도이다. 도 16에 도시된 흐름도는 도 1에 도시된 전자 장치(100)에서 처리되는 동작들로 구성될 수 있다. 따라서, 이하에서 생략된 내용이라 하더라도 도 1 내지 도 15를 참조하여 전자 장치(100)에 관하여 기술된 내용은 도 16에 도시된 흐름도에도 적용될 수 있다.
도 16를 참조하면, 전자 장치(100)는, 1610 동작에서, 사용자 조작(또는, 제스처)을 입력받을 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 도 1에 도시된 입력 모듈(110)을 통하여 사용자 조작을 입력받을 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 터치 센서 패널(111) 또는 펜 센서 패널(113)을 통해 사용자 조작을 입력받는 경우, 사용자 조작이 입력되는 영역을 복수(예: 두 개 이상)의 영역으로 구분할 수 있으며, 복수의 영역 중 적어도 일부에 입력되는 사용자 조작을 센싱할 수 있다. 예를 들어, 전자 장치(100)는 복수의 영역 중 하나 또는 복수의 영역을 모두 포함하는 사용자 조작을 센싱할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 디스플레이(150)의 온/오프 여부, 디스플레이(150)에 표시된 사용자 인터페이스, 사용자에 의한 전자 장치(100)의 파지 상태 또는 사용자 설정에 따라 터치 센서 패널(111) 또는 펜 센서 패널(113)의 터치 센서 패널의 적어도 일부를 활성화할 수 있다.
전자 장치(100)는, 1620 동작에서, 사용자 조작의 방향 조합을 판단할 수 있다. 일 실시 예에 따르면, 방향 조합은 사용자 조작의 방향, 입력 순서, 센싱 영역, 및 사용자 조작이 입력된 장치의 종류 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자 조작을 분석하여 네 방향(예: 우측, 좌측, 상측 및 하측) 중 하나로 판단할 수 있다. 일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작을 분석하여 여덟 방향(예: 우측, 좌측, 상측, 하측, 우상측, 우하측, 좌상측 및 좌하측) 중 하나로 판단할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 디스플레이(150)가 오프된 상태에서는 입력 모듈(110)(예: 터치 센서 패널(111))에 특정 사용자 조작(예: 더블탭)이 입력된 이후의 사용자 조작에 대해서 방향을 판단할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자 조작이 움직이는 위치(또는, 사용자 조작의 시작점 및 종료점의 위치)에 따라 사용자 조작의 방향을 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자 조작의 모양에 따라 사용자 조작의 방향을 판단할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자 조작이 특정 방향으로 기 정의된 길이 이상 센싱되면 특정 방향으로 사용자 조작이 입력되었다고 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자 조작이 특정 방향으로 기 정의된 시간 이상 센싱되면 특정 방향으로 사용자 조작이 입력되었다고 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자 조작이 제1 방향으로 기 정의된 길이 또는 기 정의된 시간 이상 입력된 후 연속적으로 제2 방향으로 기 정의된 길이 또는 기 정의된 시간 이상 입력되면 제1 방향 및 제2 방향으로 순차적으로 복수의 사용자 조작이 입력되었다고 판단할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 디스플레이(150)에 표시되는 컨텐츠를 기준으로 사용자 조작의 방향을 판단할 수 있다. 예를 들어, 전자 장치(100)는 디스플레이(150)에 표시된 컨텐츠(예: 이미지 또는 텍스트)의 방향에 대응되도록 사용자 조작의 방향을 판단할 수 있다
일 실시 예에 따르면, 전자 장치(100)는 중력 방향을 기준으로 사용자 조작의 방향을 판단할 수 있다. 예를 들어, 전자 장치(100)는 중력 방향을 나타내는 벡터를 터치 센서 패널 또는 펜 센서 패널이 이루는 평면에 투영시켜, 투영된 벡터의 방향을 하측 방향으로 판단할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자 조작의 방향을 판단할 때, 전자 장치(100)의 기울기값을 이용하여 사용자 조작의 각도를 보정할 수 있다. 예를 들어, 터치 센서 패널 또는 펜 센서 패널이 이루는 평면이 좌측 또는 우측으로 특정 각도만큼 기울어져 있는 상태에서 사용자 조작이 센싱되면, 센싱된 사용자 조작을 기울어져 있는 각도만큼 회전시킨 후 사용자 조작의 방향을 판단할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자 조작의 방향에 따라 상이한 오디오 신호를 출력할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자 조작의 방향에 따라 상이한 오브젝트를 표시할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는, 상기 사용자 조작의 방향에 따라 상이한 진동을 발생시킬 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작의 센싱 영역을 판단할 수 있다. 예를 들어, 입력 모듈(예: 터치 센서 패널)(110)은 복수의 영역을 포함할 수 있으며, 제어 모듈(180)은 사용자 조작이 복수의 영역 중 어떠한 영역에서 센싱되었는지 판단할 수 있다.
일 실시 예에 따르면, 제어 모듈(180)은 사용자 조작이 입력된 장치(또는, 입력 모듈)의 종류를 판단할 수 있다. 예를 들어, 제어 모듈(180)은 현재 센싱되는 사용자 조작이 터치 센서 패널(111)에서 센싱되었는지 또는 제스처 센서(115)에 의해 센싱되었는지 판단할 수 있다. 다른 예를 들어, 현재 센싱되는 사용자 조작이 전자 장치(100)에 포함된 입력 모듈(110)에서 센싱되었는지 또는 케이스 장치(200)에 포함된 입력 모듈(210)에서 센싱되었는지 판단할 수 있다.
전자 장치(100)는, 1630 동작에서, 방향 조합을 메모리(120)에 저장된 적어도 하나의 방향 조합과 비교할 수 있다. 일 실시 예에 따르면, 전자 장치(100) 적어도 하나의 방향 조합 각각에 제어 모듈(180)에 의해 수행될 수 있는 동작(또는, 커맨드)을 매핑하여 메모리(120)에 미리 저장할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자 조작의 방향 및 입력 순서를 메모리(120)에 저장된 사용자 조작의 방향 및 입력 순서와 비교할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자 조작의 센싱 영역을 판단하고, 사용자 조작의 방향, 입력 순서 및 센싱 영역을 메모리(120)에 저장된 사용자 조작의 방향, 입력 순서 및 센싱 영역과 비교할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자 조작이 입력된 장치의 종류를 판단하고, 사용자 조작의 방향, 입력 순서 및 입력 장치를 메모리(120)에 저장된 사용자 조작의 방향, 입력 순서 및 입력 장치와 비교할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자에 의해 입력된 방향 조합이 메모리(120)에 저장된 방향 조합과 기 정의된 횟수 이상 일치하지 않은 경우 PIN(personal identification number) 번호를 입력받아 특정 동작을 수행하도록 할 수 있다.
전자 장치(100)는, 1640 동작에서, 상태를 변경할 수 있다. 상기 메모리에 저장된 방향 조합 중 상기 사용자에 의해 입력된 방향 조합과 일치하는 방향 조합에 대응되는 동작을 수행할 수 있다. 예를 들어, 전자 장치(100)는 사용자 조작의 방향에 기초하여 전자 장치의 상태를 잠금 상태에서 잠금 해제 상태로 변경할 수 있다. 다른 예를 들어, 전자 장치(100)는 사용자 조작의 방향에 기초하여 특정 어플리케이션(예: 카메라 어플리케이션 또는 메시징 어플리케이션)을 실행시킬 수 있다. 또 다른 예를 들어, 전자 장치(100)는 사용자 조작의 방향에 기초하여 전자 장치의 잠금을 해제하고, 전자 장치의 잠금이 해제되면 특정 어플리케이션을 실행시킬 수 있다.
도 17는 본 발명의 다양한 실시 예에 따른 전자 장치의 잠금 해제 모드 전환 방법을 나타내는 흐름도이다.
도 17를 참조하면, 전자 장치(100)는, 1710 동작에서, 전자 장치(100)에 대한 상황 정보(또는, 상태 정보)를 획득할 수 있다. 상황 정보는, 예를 들어, 상기 전자 장치의 위치, 움직임, 차량 탑재 여부, 및 상기 전자 장치에 포함된 디스플레이의 가시성 정보 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 GPS(global positioning system)를 이용하여 현재 위치 정보를 획득할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 셀룰러 네트워크를 통해 서빙셀 식별 정보를 획득할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 Wi-Fi(wireless-fedelity) 네트워크를 통해 AP(access point) 식별 정보를 획득할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 가속도 센서 또는 자이로 센서 등을 이용하여 전자 장치(100)의 움직임 정보를 획득할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 차량과 통신하여 차량과 관련된 다양한 정보를 획득할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 조도 센서를 이용하여 전자 장치(100) 주변의 밝기 정보를 획득할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 디스플레이(150)의 밝기 정보를 획득할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 카메라를 이용하여 전자 장치 주변 이미지를 획득할 수 있다.
전자 장치(100)는, 1720 동작에서, 상황 정보가 지정된 조건에 해당하는지 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 현재 GPS 정보 또는 서빙셀 식별 정보를 이용하여 전자 장치(100)가 지정된 위치에 해당하는지 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 AP 식별 정보를 이용하여 전자 장치(100)가 특정 공간(예: 회사 또는 집)에 위치하는지 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 전자 장치(100)의 움직임 정보를 이용하여 전자 장치(100)가 움직이는 상태인지 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 차량 정보를 이용하여 전자 장치(100)가 차량에 탑재된 상태인지(또는, 사용자가 운전 중인 상태인지) 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 전자 장치(100) 주변의 밝기 정보 및 디스플레이(150)의 밝기 정보를 이용하여 디스플레이(150)의 가시성을 판단할 수 있다. 예를 들어, 전자 장치(100)는 전자 장치 주변이 어둡고 디스플레이(150)가 밝으면 가시성이 높다고 판단할 수 있다. 다른 예를 들어, 전자 장치(100)는 전자 장치(100) 주변이 밝고 디스플레이(150)가 어두우면 가시성이 낮다고 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 전자 장치(100) 주변의 밝기 및 디스플레이(150)의 밝기를 비교하여 지정된 값이상 차이가 나는지 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 전자 장치(100) 주변 이미지를 이용하여 전자 장치(100) 주변에 지정된 사람(예: 가족)이 존재하는지 판단할 수 있다.
전자 장치(100)는 상황 정보가 지정된 조건에 해당한다고 판단되면, 1730 동작에서, 전자 장치(100)의 잠금 해제 모드를 제1 모드에서 제2 모드로 전환할 수 있다. 예를 들어, 제1 모드는 PIN 번호를 이용한 잠금 해제 모드(또는, PIN 번호 모드) 또는 지정된 수(예: 9개)의 포인트를 이용한 잠금 해제 모드(또는, 포인트 모드)이며, 제2 모드는 방향 조합을 이용한 잠금 해제 모드(또는, 방향 모드)일 수 있다. 다른 예를 들어, 제1 모드는 방향 조합을 이용한 잠금 모드이며, 제2 모드는 PIN 번호를 이용한 잠금 모드일 수 있다.
다양한 실시 예에 따르면, 전자 장치(100)의 잠금 해제 모드는 전자 장치(100)의 상황 정보에 따라 지속적으로 변경될 수 있다. 일 실시 예에 따르면, 전자 장치(100)의 위치가 사용자의 집이라고 판단되면 보안레벨이 상대적으로 낮은 방향 모드로 동작하고, 전자 장치(100)의 위치가 회사라고 판단되면 보안레벨이 상대적으로 높은 포인트 모드 또는 PIN 번호 모드로 동작할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 디스플레이(150)의 가시성이 높으면 정확한 위치에 입력을 요구하는 PIN 번호 모드 또는 포인트 모드로 동작하고, 디스플레이(150)의 가시성이 낮으면 정확한 입력이 필요 없는 방향 모드로 동작할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 전자 장치(100)가 차량에 탑재된 상태(또는, 운전중인 상태)이면 사용자의 정확한 입력을 요구할 수 없으므로 방향 모드로 동작하고, 차량에 탑재된 상태가 아니면 PIN 번호 모드 또는 포인트 모드로 동작할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 전자 장치(100) 주변에 가족이 있다고 판단되면 보안레벨이 상대적으로 낮은 방향 모드로 동작하고, 전자 장치(100) 주변에 회사 동료 또는 친구가 위치한다고 판단되면 보안레벨이 상대적으로 높은 PIN 모드 또는 포인트 모드로 동작할 수 있다.본 발명의 다양한 실시 예에 따른 전자 장치의 제어 방법은, 상기 전자 장치와 기능적으로 연결된 입력 모듈을 통하여 제스처를 입력받는 동작, 상기 제스처에 대응되는 복수의 방향들을 포함하는 방향 조합을 판단하는 동작, 상기 방향 조합을 메모리에 기 저장된 적어도 하나의 방향 조합과 비교하는 동작 및 상기 비교 결과에 기초하여, 하나 이상의 프로세서를 이용하여, 상기 전자 장치의 상태를 제1 상태에서 제2 상태로 변경(transitioning)하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 모드 전환 방법은, 상기 전자 장치에 대한 상황 정보를 획득하는 동작, 상기 상황 정보가 지정된 조건에 해당하는지를 판단하는 동작 및 적어도 하나의 프로세서를 이용하여, 상기 전자 장치의 잠금 해제 모드를 제 1 모드에서 제 2 모드로 전환하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 상황 정보는 상기 전자 장치의 위치, 움직임, 차량 탑재 여부, 및 상기 전자 장치에 포함된 디스플레이의 가시성 정보 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 상기 제1 모드는 PIN 번호 또는 지정된 수의 포인트를 이용한 잠금 해제 모드이며, 상기 제2 모드는 방향 조합을 이용한 잠금 해제 모드일 수 있다.
상술한 본 발명의 다양한 실시 예에 따르면, 사용자가 터치 스크린(또는, 터치 패널)에 방향 조합을 입력 할 때, 터치 스크린 상의 특정 영역(또는, 지점)에 고정되지 않고 자유롭게 입력할 수 있으므로 전자 장치가 넓은 화면을 가진 경우에도 한손으로 입력할 수 있다. 또한, 방향 조합은 사용자 조작의 방향, 순서, 센싱 영역, 및 사용자 조작이 입력된 장치의 종류에 따라 다양한 조합을 가질 수 있으므로 높은 보안성을 제공할 수 있다. 또한, 음성, 시각, 진동 등을 통해 방향에 대한 피드백을 제공함으로써 사용자는 방향 조합을 입력한 결과를 확인할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면,"모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 제어 모듈(180)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리(120)가 될 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.
100 : 전자 장치 110 : 입력 모듈
120 : 메모리 130 : 통신 모듈
140 : 센서 모듈 150 : 디스플레이
160 : 오디오 모듈 170 : 모터
180 : 제어 모듈

Claims (35)

  1. 전자 장치에서,
    상기 전자 장치와 기능적으로 연결되어 제스처를 센싱하는 입력 모듈;
    적어도 하나의 방향 조합을 저장하는 메모리; 및
    상기 제스처에 대응되는 복수의 방향들을 포함하는 방향 조합을 상기 메모리에 저장된 적어도 하나의 방향 조합과 비교하고, 상기 비교 결과에 따라 상기 전자 장치의 상태를 제1 상태에서 제2 상태로 변경(transitioning)하는 제어 모듈;을 포함하는 전자 장치.
  2. 제1항에 있어서,
    상기 제1 상태는 잠금 상태이며, 상기 제2 상태는 잠금 해제 상태인 전자 장치.
  3. 제1항에 있어서,
    상기 방향 조합은,
    제스처의 방향, 입력 순서, 센싱 영역 및 제스처가 입력된 장치의 종류 중 적어도 하나를 포함하는 전자 장치.
  4. 제1항에 있어서,
    상기 제스처는 비연속적으로 입력되는 복수의 제스처를 포함하며, 상기 복수의 제스처 각각은 하나의 방향을 포함하는 전자 장치.
  5. 제4항에 있어서,
    상기 제어 모듈은,
    상기 복수의 제스처 각각의 시작 지점으로부터 종료 지점으로의 방향을 상기 복수의 제스처 각각의 방향으로 판단하는 전자 장치.
  6. 제4항에 있어서,
    상기 제어 모듈은,
    상기 복수의 제스처 중 제1 제스처가 센싱된 후 지정된 시간 내에 제2 제스처가 센싱되면 상기 제2 제스처에 대응되는 방향을 상기 방향 조합에 포함시키고, 제1 제스처가 센싱된 후 지정된 시간이 경과한 후에 제2 제스처가 센싱되면 상기 제2 제스처에 대응되는 방향을 상기 방향 조합에서 제외하는 전자 장치.
  7. 제1항에 있어서,
    상기 제어 모듈은,
    상기 제스처가 제1 방향으로 기 정의된 길이 이상 센싱되면 상기 제1 방향으로 제스처가 입력되었다고 판단하는 전자 장치.
  8. 제1항에 있어서,
    상기 제어 모듈은,
    상기 제스처가 제1 방향으로 기 정의된 시간 이상 센싱되면 상기 제1 방향으로 제스처가 입력되었다고 판단하는 전자 장치.
  9. 제1항에 있어서,
    상기 제어 모듈은,
    하나의 제스처가 제1 방향에서 제2 방향으로 변경되면, 상기 제1 방향 및 제2 방향으로 순차적으로 복수의 제스처가 입력되었다고 판단하는 전자 장치.
  10. 제1항에 있어서,
    디스플레이;를 더 포함하며,
    상기 제어 모듈은,
    상기 디스플레이에 표시되는 컨텐츠를 기준으로 상기 제스처의 방향을 판단하는 전자 장치.
  11. 제1항에 있어서,
    중력의 방향을 측정하는 가속도 센서;를 더 포함하며,
    상기 제어 모듈은,
    상기 중력 방향을 기준으로 상기 제스처의 방향을 판단하는 전자 장치.
  12. 제1항에 있어서,
    상기 입력 모듈은 상기 제스처를 센싱하는 제스처 센서;를 포함하는 전자 장치.
  13. 제1항에 있어서,
    상기 입력 모듈은 터치 센서 패널;을 포함하고,
    상기 제어 모듈은,
    사용자의 상기 전자 장치에 대한 파지 상태를 확인하고, 상기 파지 상태에 기초하여 상기 터치 센서 패널의 적어도 일부를 활성화하도록 제어하는 전자 장치.
  14. 제1항에 있어서,
    디스플레이;를 더 포함하며,
    상기 입력 모듈은,
    상기 디스플레이의 전원이 꺼진 상태에서 상기 제스처를 입력받는 전자 장치.
  15. 제1항에 있어서,
    상기 제스처의 방향에 따라 상이한 오디오 신호를 출력하는 오디오 모듈;
    상기 제스처의 방향에 따라 상이한 오브젝트를 표시하는 디스플레이; 및
    상기 제스처의 방향에 따라 상이한 진동을 발생시키는 모터; 중 적어도 하나를 더 포함하는 전자 장치.
  16. 전자 장치에 있어서,
    상기 전자 장치와 기능적으로 연결되어 제스처를 센싱하는 입력 모듈;
    메모리; 및
    상기 제스처에 대응되는 복수의 방향을 판단하고, 복수의 방향들을 포함하는 방향 조합을 상기 메모리에 저장하는 제어 모듈;을 포함하는 전자 장치.
  17. 제16항에 있어서,
    상기 제스처는 비연속적으로 입력되는 복수의 제스처를 포함하며, 상기 복수의 제스처 각각은 하나의 방향을 포함하는 전자 장치.
  18. 제16항에 있어서,
    상기 제어 모듈은,
    상기 복수의 제스처 각각의 시작 지점으로부터 종료 지점으로의 방향을 상기 복수의 제스처 각각의 방향으로 판단하는 전자 장치.
  19. 제16항에 있어서,
    상기 제어 모듈은,
    상기 복수의 제스처 중 제1 제스처가 센싱된 후 지정된 시간 내에 제2 제스처가 센싱되면 상기 제2 제스처에 대응되는 방향을 상기 방향 조합에 포함시키고, 제1 제스처가 센싱된 후 지정된 시간이 경과한 후에 제2 제스처가 센싱되면 상기 제2 제스처에 대응되는 방향을 상기 방향 조합에서 제외하는 전자 장치.
  20. 전자 장치의 제어 방법에 있어서,
    상기 전자 장치와 기능적으로 연결된 입력 모듈을 통하여 제스처를 입력받는 동작;
    상기 제스처에 대응되는 복수의 방향들을 포함하는 방향 조합을 판단하는 동작;
    상기 방향 조합을 메모리에 기 저장된 적어도 하나의 방향 조합과 비교하는 동작; 및
    상기 비교 결과에 기초하여, 하나 이상의 프로세서를 이용하여, 상기 전자 장치의 상태를 제1 상태에서 제2 상태로 변경(transitioning)하는 동작;을 포함하는 방법.
  21. 제20항에 있어서,
    상기 방향 조합은,
    제스처의 방향, 입력 순서, 센싱 영역 및 제스처가 입력된 장치의 종류 중 적어도 하나를 포함하는 방법.
  22. 제20항에 있어서,
    상기 제스처를 입력받는 동작은,
    비연속적으로 복수의 제스처를 입력 받는 동작;을 포함하며,
    상기 복수의 제스처 각각은 하나의 방향을 포함하는 방법.
  23. 제22항에 있어서,
    상기 방향 조합을 판단하는 동작은,
    상기 복수의 제스처 각각의 시작 지점으로부터 종료 지점으로의 방향을 상기 복수의 제스처 각각의 방향으로 판단하는 동작;을 포함하는 방법.
  24. 제22항에 있어서,
    상기 방향 조합을 판단하는 동작은,
    상기 복수의 제스처 중 제1 제스처가 센싱된 후 지정된 시간 내에 제2 제스처가 센싱되면 상기 제2 제스처에 대응되는 방향을 상기 방향 조합에 포함시키는 동작; 및
    제1 제스처가 센싱된 후 지정된 시간이 경과한 후에 제2 제스처가 센싱되면 상기 제2 제스처에 대응되는 방향을 상기 방향 조합에서 제외하는 동작;을 포함하는 방법.
  25. 제20항에 있어서,
    상기 제스처의 방향 조합을 판단하는 동작은,
    상기 제스처가 제1 방향으로 기 정의된 길이 이상 센싱되면 상기 제1 방향으로 제스처가 입력되었다고 판단하는 동작;을 포함하는 방법.
  26. 제20항에 있어서,
    상기 제스처의 방향 조합을 판단하는 동작은,
    상기 제스처가 제1 방향으로 기 정의된 시간 이상 센싱되면 상기 제1 방향으로 제스처가 입력되었다고 판단하는 동작;을 포함하는 방법.
  27. 제20항에 있어서,
    상기 제스처의 방향 조합을 판단하는 동작은,
    하나의 제스처가 제1 방향에서 제2 방향으로 변경되면, 상기 제1 방향 및 제2 방향으로 순차적으로 복수의 제스처가 입력되었다고 판단하는 동작;을 포함하는 방법.
  28. 제20항에 있어서,
    상기 제스처의 방향 조합을 판단하는 동작은,
    디스플레이에 표시되는 컨텐츠를 기준으로 제스처의 방향을 판단하는 동작;을 포함하는 방법.
  29. 제20항에 있어서,
    상기 제스처의 방향 조합을 판단하는 동작은,
    중력의 방향을 측정하는 동작; 및
    상기 중력 방향을 기준으로 상기 제스처의 방향을 판단하는 동작;을 포함하는 방법.
  30. 제20항에 있어서,
    상기 입력 모듈은 터치 센서 패널;을 포함하고,
    사용자의 상기 전자 장치에 대한 파지 상태를 확인하는 동작; 및
    상기 파지 상태에 기초하여 상기 터치 센서 패널의 적어도 일부를 활성화하는 동작;을 더 포함하는 방법.
  31. 제20항에 있어서,
    상기 제스처를 입력받는 동작은,
    디스플레이의 전원이 꺼진 상태에서 상기 제스처를 입력받는 동작;을 포함하는 방법.
  32. 제20항에 있어서,
    상기 제스처의 방향에 따라 상이한 오디오 신호를 출력하는 동작;
    상기 제스처의 방향에 따라 상이한 오브젝트를 표시하는 동작; 및
    상기 제스처의 방향에 따라 상이한 진동을 발생시키는 동작; 중 적어도 하나를 더 포함하는 방법.
  33. 전자 장치의 모드 전환 방법에 있어서,
    상기 전자 장치에 대한 상황 정보를 획득하는 동작;
    상기 상황 정보가 지정된 조건에 해당하는지를 판단하는 동작; 및
    적어도 하나의 프로세서를 이용하여, 상기 전자 장치의 잠금 해제 모드를 제1 모드에서 제2 모드로 전환하는 동작;을 포함하는 방법.
  34. 제33항에 있어서,
    상기 상황 정보는 상기 전자 장치의 위치, 움직임, 차량 탑재 여부, 및 상기 전자 장치에 포함된 디스플레이의 가시성 정보 중 적어도 하나를 포함하는 방법.
  35. 제33항에 있어서,
    상기 제1 모드는 PIN 번호 또는 지정된 수의 포인트를 이용한 잠금 해제 모드이며, 상기 제2 모드는 방향 조합을 이용한 잠금 해제 모드인 방법.








KR1020150028700A 2015-02-28 2015-02-28 전자 장치 및 전자 장치의 제어 방법 KR102318920B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020150028700A KR102318920B1 (ko) 2015-02-28 2015-02-28 전자 장치 및 전자 장치의 제어 방법
EP16157714.3A EP3062208B1 (en) 2015-02-28 2016-02-26 Electronic device and control method thereof
AU2016224175A AU2016224175B2 (en) 2015-02-28 2016-02-26 Electronic device and control method thereof
PCT/KR2016/001965 WO2016137294A1 (en) 2015-02-28 2016-02-26 Electronic device and control method thereof
US15/056,119 US10365820B2 (en) 2015-02-28 2016-02-29 Electronic device and touch gesture control method thereof
CN201610113218.7A CN105930072A (zh) 2015-02-28 2016-02-29 电子设备和电子设备的控制方法
US16/516,892 US11281370B2 (en) 2015-02-28 2019-07-19 Electronic device and touch gesture control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150028700A KR102318920B1 (ko) 2015-02-28 2015-02-28 전자 장치 및 전자 장치의 제어 방법

Publications (2)

Publication Number Publication Date
KR20160105694A true KR20160105694A (ko) 2016-09-07
KR102318920B1 KR102318920B1 (ko) 2021-10-29

Family

ID=55484833

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150028700A KR102318920B1 (ko) 2015-02-28 2015-02-28 전자 장치 및 전자 장치의 제어 방법

Country Status (6)

Country Link
US (2) US10365820B2 (ko)
EP (1) EP3062208B1 (ko)
KR (1) KR102318920B1 (ko)
CN (1) CN105930072A (ko)
AU (1) AU2016224175B2 (ko)
WO (1) WO2016137294A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190004547A (ko) * 2017-07-04 2019-01-14 현대자동차주식회사 차량 시스템 및 그 제어 방법

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741150B2 (en) * 2013-07-25 2017-08-22 Duelight Llc Systems and methods for displaying representative images
WO2015180103A1 (zh) * 2014-05-29 2015-12-03 华为技术有限公司 一种选择终端模式的方法和装置
EP3329477A1 (en) * 2015-07-28 2018-06-06 Koninklijke Philips N.V. Check-in service on personal help button
US20170091431A1 (en) * 2015-09-26 2017-03-30 Qualcomm Incorporated Secure identification information entry on a small touchscreen display
EP3208733B1 (en) * 2016-02-19 2020-07-01 Sony Corporation Terminal device, method, and program
DE102016120740B4 (de) * 2016-10-31 2022-07-28 Krohne Messtechnik Gmbh System aus Messeinheit und Steckmodul
US10447394B2 (en) * 2017-09-15 2019-10-15 Qualcomm Incorporated Connection with remote internet of things (IoT) device based on field of view of camera
CN108121963B (zh) * 2017-12-21 2021-08-24 北京奇虎科技有限公司 视频数据的处理方法、装置及计算设备
CN107995442A (zh) * 2017-12-21 2018-05-04 北京奇虎科技有限公司 视频数据的处理方法、装置及计算设备
CN109062400A (zh) * 2018-07-06 2018-12-21 深圳臻迪信息技术有限公司 图像采集器的控制方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130159939A1 (en) * 2011-10-12 2013-06-20 Qualcomm Incorporated Authenticated gesture recognition
US20140137234A1 (en) * 2008-05-17 2014-05-15 David H. Chin Mobile device authentication through touch-based gestures
US20140176448A1 (en) * 2012-12-20 2014-06-26 Synaptics Incorporated Detecting a gesture
US20140191954A1 (en) * 2004-03-23 2014-07-10 Fujitsu Limited Gesture Based User Interface Supporting Preexisting Symbols

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6094506A (en) * 1995-10-25 2000-07-25 Microsoft Corporation Automatic generation of probability tables for handwriting recognition systems
US7302099B2 (en) * 2003-11-10 2007-11-27 Microsoft Corporation Stroke segmentation for template-based cursive handwriting recognition
US20050219211A1 (en) * 2004-03-31 2005-10-06 Kotzin Michael D Method and apparatus for content management and control
WO2008020446A1 (en) * 2006-08-15 2008-02-21 N-Trig Ltd. Gesture detection for a digitizer
US10503376B2 (en) * 2007-12-20 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for adjusting an image and control guides displayed on a display
KR20090077480A (ko) * 2008-01-11 2009-07-15 삼성전자주식회사 조작 가이드를 표시하는 ui 제공방법 및 이를 적용한멀티미디어 기기
JP2010015238A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び補助情報の表示方法
EP2344942B1 (en) 2008-10-06 2019-04-17 BlackBerry Limited Method for application launch and system function invocation
KR101565768B1 (ko) 2008-12-23 2015-11-06 삼성전자주식회사 휴대단말의 잠금 모드 해제 방법 및 장치
US20120327009A1 (en) * 2009-06-07 2012-12-27 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US20110055753A1 (en) * 2009-08-31 2011-03-03 Horodezky Samuel J User interface methods providing searching functionality
US20110090155A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
JP5433375B2 (ja) * 2009-10-23 2014-03-05 楽天株式会社 端末装置、機能実行方法、機能実行プログラム及び情報処理システム
WO2011073992A2 (en) * 2009-12-20 2011-06-23 Keyless Systems Ltd. Features of a data entry system
US20110273379A1 (en) * 2010-05-05 2011-11-10 Google Inc. Directional pad on touchscreen
CN103218067A (zh) 2012-01-19 2013-07-24 群康科技(深圳)有限公司 触控装置及其手势解锁方法
US8504842B1 (en) * 2012-03-23 2013-08-06 Google Inc. Alternative unlocking patterns
KR101323281B1 (ko) * 2012-04-06 2013-10-29 고려대학교 산학협력단 입력 장치 및 문자 입력 방법
KR101483776B1 (ko) 2012-05-07 2015-01-26 이문상 락 스크린의 제공 방법 및 그 제공 방법이 구현된 단말 장치
US8674900B2 (en) * 2012-05-14 2014-03-18 Lg Electronics Inc. Portable device and method for controlling the same
TWI522842B (zh) * 2012-06-15 2016-02-21 Pattern cryptographic track setting system and its method
KR102043146B1 (ko) * 2012-08-02 2019-11-11 엘지전자 주식회사 전자 기기 및 전자 기기를 이용한 전자 노트 시스템
KR20140047948A (ko) * 2012-10-15 2014-04-23 엘지전자 주식회사 영상표시장치, 및 그 동작방법
CN103455272A (zh) 2013-01-26 2013-12-18 曾昭兴 电子设备通信方法及电子设备通信系统
WO2014119894A1 (en) 2013-01-29 2014-08-07 Samsung Electronics Co., Ltd. Method of performing function of device and device for performing the method
US8959620B2 (en) * 2013-03-14 2015-02-17 Mitac International Corp. System and method for composing an authentication password associated with an electronic device
KR102083595B1 (ko) 2013-03-15 2020-03-02 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20140292668A1 (en) * 2013-04-01 2014-10-02 Lenovo (Singapore) Pte. Ltd. Touch input device haptic feedback
KR20140126129A (ko) * 2013-04-22 2014-10-30 삼성전자주식회사 잠금 및 해제를 제어하는 장치 및 방법
CN105378636B (zh) * 2013-07-17 2018-12-14 崔敬淳 触摸用户界面方法和成像装置
JP6054892B2 (ja) * 2014-01-14 2016-12-27 レノボ・シンガポール・プライベート・リミテッド 複数のディスプレイに対するアプリケーション画像の表示方法、電子機器およびコンピュータ・プログラム
US20160042172A1 (en) * 2014-08-06 2016-02-11 Samsung Electronics Co., Ltd. Method and apparatus for unlocking devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140191954A1 (en) * 2004-03-23 2014-07-10 Fujitsu Limited Gesture Based User Interface Supporting Preexisting Symbols
US20140137234A1 (en) * 2008-05-17 2014-05-15 David H. Chin Mobile device authentication through touch-based gestures
US20130159939A1 (en) * 2011-10-12 2013-06-20 Qualcomm Incorporated Authenticated gesture recognition
US20140176448A1 (en) * 2012-12-20 2014-06-26 Synaptics Incorporated Detecting a gesture

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190004547A (ko) * 2017-07-04 2019-01-14 현대자동차주식회사 차량 시스템 및 그 제어 방법

Also Published As

Publication number Publication date
CN105930072A (zh) 2016-09-07
WO2016137294A1 (en) 2016-09-01
AU2016224175A1 (en) 2017-08-17
US20160252969A1 (en) 2016-09-01
EP3062208B1 (en) 2020-08-26
AU2016224175B2 (en) 2018-07-12
US11281370B2 (en) 2022-03-22
EP3062208A1 (en) 2016-08-31
US20190339856A1 (en) 2019-11-07
KR102318920B1 (ko) 2021-10-29
US10365820B2 (en) 2019-07-30

Similar Documents

Publication Publication Date Title
KR102318920B1 (ko) 전자 장치 및 전자 장치의 제어 방법
KR102398320B1 (ko) 경로 정보 제공 방법 및 그 방법을 처리하는 전자 장치
US8150384B2 (en) Methods and apparatuses for gesture based remote control
KR102409782B1 (ko) 초기 설정을 위한 방법 및 그 전자 장치
KR102187833B1 (ko) 전자 장치의 기능 실행 방법 및 이를 사용하는 전자 장치
US9767338B2 (en) Method for identifying fingerprint and electronic device thereof
EP3033669B1 (en) Context sensitive actions in response to touch input
US11067662B2 (en) Electronic device for verifying relative location and control method thereof
US9426606B2 (en) Electronic apparatus and method of pairing in electronic apparatus
KR101696930B1 (ko) 이동 단말기에서 보호 모드 실행방법 및 그 방법을 이용한 이동 단말기
KR20160025258A (ko) 제어 방법 및 그 방법을 처리하는 전자장치
EP3472695B1 (en) Electronic device having a plurality of displays and operating method thereof
KR20160050682A (ko) 전자장치의 화면 표시 제어 방법 및 장치
KR102504308B1 (ko) 디스플레이의 밝기를 제어하는 방법, 전자 장치 및 컴퓨터 판독가능 기록매체
KR102655014B1 (ko) 전자 장치 및 전자 장치에서 위치를 식별하기 위한 방법
KR20160009323A (ko) 사용자 인터페이스를 활성화하는 방법 및 이를 제공하는 전자 장치
KR20170049991A (ko) 압력 터치를 이용한 사용자 인터렉션 제공 방법 및 그를 이용하는 전자 장치
KR20160045428A (ko) 잠금 해제 방법 및 장치
US10306402B2 (en) Method and apparatus for providing notification information
KR102296168B1 (ko) 위치 결정 방법 및 전자 장치
KR20160047148A (ko) 오디오 출력 장치, 전자 장치 및 그 체지방 측정 방법
KR20150054559A (ko) 전자 기기 및 전자 기기의 제어 방법
KR20150081768A (ko) 전자 장치의 콘텐츠 표시 제어 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right