KR20150082032A - 전자 장치 및 전자 장치의 제어 방법 - Google Patents

전자 장치 및 전자 장치의 제어 방법 Download PDF

Info

Publication number
KR20150082032A
KR20150082032A KR1020140020935A KR20140020935A KR20150082032A KR 20150082032 A KR20150082032 A KR 20150082032A KR 1020140020935 A KR1020140020935 A KR 1020140020935A KR 20140020935 A KR20140020935 A KR 20140020935A KR 20150082032 A KR20150082032 A KR 20150082032A
Authority
KR
South Korea
Prior art keywords
electronic device
user input
display
information
function
Prior art date
Application number
KR1020140020935A
Other languages
English (en)
Inventor
김광태
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to CN201510006056.2A priority Critical patent/CN104765446A/zh
Priority to US14/591,461 priority patent/US20150192989A1/en
Priority to EP15150298.6A priority patent/EP2905679B1/en
Publication of KR20150082032A publication Critical patent/KR20150082032A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치는 이미지를 출력하기 위한 디스플레이; 상기 디스플레이와 기능적으로 연결된 제어부를 포함하고, 상기 제어부는, 상기 디스플레이의 적어도 하나의 측면을 통하여 사용자 입력을 획득하고, 상기 사용자 입력에 기반하여 상기 전자 장치에 관련된 상기 사용자 입력에 대한 그립 정보를 판단하고, 상기 전자 장치를 통하여 상기 그립 정보에 대응하는 애플리케이션 또는 기능 중 적어도 하나를 제공하도록 설정된 전자 장치.

Description

전자 장치 및 전자 장치의 제어 방법{Electronic Device And Method For Controlling Thereof}
본 개시는 전자 장치의 측면을 통해 사용자 입력을 인식하고 인식된 사용자 입력을 기반으로 전자 장치를 제어하는 방법 및 이 방법을 포함하는 전자 장치에 관한 것이다.
일반적으로 스마트 폰(Smart Phone), 태블릿 PC(Tablet PC), PMP(Portable Multimedia Player), PDA(Personal Digital Assistant), 랩탑 PC(Laptop Personal Computer) 및 손목 시계(Wrist watch), HMD(Head-Mounted Display)와 같은 웨어러블 기기(Wearable device) 등의 전자 장치는 최근 전화 기능뿐 만 아니라 다른 다양한 기능(예를 들어, 소셜 네트워크 서비스(SNS), 인터넷, 멀티미디어, 사진 동영상 촬영 및 실행)을 포함한다.
현재 기술에 따른, 전자 장치는 전자 장치의 전면부에 있는 디스플레이를 통해서 또는 전자 장치의 한 일면에 위치하는 하드웨어 키를 통해서 사용자의 입력을 획득하고, 입력에 기반하여 전자 장치의 어플리케이션 또는 기능을 제공할 수 있다.
본 개시의 다양한 실시예는, 예를 들면, 전자 장치의 적어도 한 측면부에 대응하는 사용자 입력을 획득하기 위한 적어도 하나 이상의 센서 패드를 포함하는 전자 장치 및 그 제어 방법을 제공하고자 한다. 또한, 본 개시의 다양한 실시예는, 예를 들면, 전자 장치에 관련된 사용자의 그립 정보를 판단하고, 사용자 입력 또는 그립 정보 중 적어도 하나에 기반하여, 전자 장치를 통하여 애플리케이션 또는 기능을 제공하는 전자 장치 및 그 제어 방법을 제공하고자 한다.
본 개시의 다양한 실시예에 따른 전자 장치는 이미지를 출력하기 위한 디스플레이; 상기 디스플레이와 기능적으로 연결된 제어부를 포함하고, 상기 제어부는, 상기 디스플레이의 적어도 하나의 측면을 통하여 사용자 입력을 획득하고, 상기 사용자 입력에 기반하여 상기 전자 장치에 관련된 상기 사용자 입력에 대한 그립 정보를 판단하고, 상기 전자 장치를 통하여 상기 그립 정보에 대응하는 애플리케이션 또는 기능 중 적어도 하나를 제공하도록 설정된 전자 장치.
본 개시의 다양한 실시예에 따른 제어 방법은 디스플레이의 블랙 마스크(Black Mask) 영역에 포함된 적어도 하나 이상의 센서 패드를 통해 사용자 입력을 수신하는 동작; 상기 사용자 입력에 기반하여 전자 장치에 관련된 사용자의 그립 정보를 판단하는 동작; 및 상기 사용자 입력 및 상기 그립 정보 중 적어도 어느 하나에 기반하여 애플리케이션 또는 기능을 제공하는 동작을 포함할 수 있다.
본 개시의 다양한 실시예에 따른 기록 매체는 전자 장치 제어 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 상기 방법은 적어도 하나 이상의 센서 패드를 통해 사용자 입력을 수신하는 동작; 상기 사용자 입력에 기반하여 전자 장치에 관련된 사용자의 그립 정보를 판단하는 동작; 및 상기 사용자 입력 및 상기 그립 정보 중 적어도 어느 하나에 기반하여 애플리케이션 또는 기능을 제공하는 동작을 포함하는 것을 컴퓨터로 읽을 수 있다.
본 개시에 따른 전자 장치 및 전자 장치의 제어 방법은 전자 장치의 적어도 한 측면을 통해 사용자 입력을 인식할 수 있다. 본 개시에 따른 전자 장치 및 전자 장치의 제어 방법은 사용자 그립 정보에 적어도 일부 기반하여, 전자 장치를 통하여 애플리케이션 또는 기능을 제공할 수 있다.
도 1은 본 개시의 다양한 실시예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 2는 본 개시의 다양한 실시예들에 따른 전자 장치의 블록도를 도시한다.
도 3a 내지 도 3d는 본 개시의 다양한 실시예에 따른 적어도 하나 이상의 센서 패드를 포함하는 전자 장치의 도면이다.
도 4a 내지 도 4c는 본 개시의 다양한 실시예에 따른 전자 장치의 제어 방법을 나타내는 순서도이다.
도 5는 본 개시의 다양한 실시예에 따른 카메라 기능 제어 방법을 나타내는 도면이다.
도 6은 본 개시의 다양한 실시예에 따른 미디어 기능 제어 방법을 나타내는 도면이다.
도 7a 내지 도 7b는 본 개시의 다양한 실시예에 따른 전자 장치의 디스플레이에 표시된 정보를 제어하는 방법을 나타내는 도면이다.
도 8a 내지 도 8b는 본 개시의 다양한 실시예에 따른 전자 장치의 디스플레이에 표시된 정보를 제어하는 방법을 나타내는 도면이다.
도 9는 본 개시의 다양한 실시예에 따른 애플리케이션 제어 방법을 나타내는 도면이다.
도 10은 본 개시의 다양한 실시예에 따른 탭메뉴 제어 방법을 나타내는 도면이다.
도 11은 본 개시의 다양한 실시예에 따른 선택 리스트 제어 방법을 나타내는 도면이다.
도 13는 본 개시의 다양한 실시예에 따른 전자 장치의 사운드 출력 장치 제어 방법을 나타내는 도면이다.
도 14는 본 개시의 다양한 실시예에 따른 전자 장치의 화면 출력 제어 방법을 나타내는 도면이다.
도 15는 본 개시의 다양한 실시예에 따른 전자 장치의 디스플레이 조도 제어 방법을 나타내는 도면이다.
도 16a 내지 도 16b는 본 개시의 다양한 실시예에 따른 전자 장치의 디스플레이 영역 제어 방법을 나타내는 도면이다
도 17은 본 개시의 다양한 실시예에 따른 전자 장치의 잠금 화면 제어 방법을 설명하는 도면이다.
도 18a 내지 도 18b는 본 개시의 다양한 실시예에 따른 전자 장치의 표시 영역 제어 방법을 나타내는 도면이다.
도 19는 본 개시의 다양한 실시예에 따른 애플리케이션 제어 방법을 나타내는 도면이다.
도 20a 내지 도 20c은 본 개시의 다양한 실시예에 따른 전자 장치의 기능 제공 방법을 나타내는 순서도이다.
도 21a 내지 도 21e는 본 개시의 다양한 실시예에 따른 기능 오브젝트 표시 방법을 나타내는 도면이다.
도 22는 본 개시의 다양한 실시예에 따른 전자 장치의 기능 제공 방법을 나타내는 도면이다.
도 23a 내지 도 23e는 본 개시의 다양한 실시예에 따른 전자 장치의 기능 제공 방법을 나타내는 도면이다.
이하, 첨부된 도면들을 참조하여 본 개시(present disclosure)의 다양한 실시예들을 상세히 설명한다. 이때, 첨부된 도면들에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한 본 개시의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 하기의 설명에서는 본 개시의 다양한 실시 예들에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 개시의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.
본 개시의 다양한 실시예에서 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 개시의 다양한 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시의 다양한 실시예에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 개시의 다양한 실시예에서 사용된 “제 1,”“제2,”“첫째,”또는“둘째,”등의 표현들은 다양한 실시예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 다양한 실시예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 개시의 다양한 실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시의 다양한 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시의 다양한 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시의 다양한 실시예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 개시의 다양한 실시예에 따른 전자 장치는, 통신 기능 이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능 을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSync ™, 애플TV™, 또는 구글 TV™), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 개시의 다양한 실시예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 개시의 다양한 실시예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 개시의 다양한 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 개시의 실시예에 따른 전자 장치(100)를 포함하는 네트워크 환경(101)을 도시한다.
도 1을 참조하면, 전자 장치(100)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(140), 디스플레이(150), 통신 인터페이스(160) 및 애플리케이션 제어 모듈(170)을 포함할 수 있다.
버스(110)는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
프로세서(120)는 버스(110)를 통해 전술한 다른 구성요소들(예: 메모리(130), 입출력 인터페이스(140), 디스플레이(150), 통신 인터페이스(160) 및 애플리케이션 제어 모듈(170))로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다. 전자 장치(200)의 제어부는 프로세서(120)로 구현 가능하다.
메모리(130)는 프로세서(120) 또는 다른 구성요소들(예: 입출력 인터페이스(140), 디스플레이(150), 통신 인터페이스(160) 및 애플리케이션 제어 모듈(170))로부터 수신되거나 프로세서(120) 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 메모리(130)는 커널(131), 미들웨어(132), 애플리케이션 프로그래밍 인터페이스(API: application programming interface, 133) 또는 애플리케이션(134) 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
커널(131)은 나머지 다른 프로그래밍 모듈들 미들웨어(132), API(133) 또는 애플리케이션(134)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스 (110), 프로세서(120) 또는 메모리(130))을 제어 또는 관리할 수 있다. 또한, 커널(131)은 미들웨어(132), API(133) 또는 애플리케이션(134)에서 전자 장치(100)의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(132)는 API(133) 또는 애플리케이션(134)이 커널(131)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(132)는 애플리케이션(134)으로부터 수신된 작업 요청들과 관련하여, 예를 들면, 애플리케이션(134) 중 적어도 하나의 애플리케이션에 전자 장치(100)의 시스템 리소스(예: 버스(110), 프로세서(120) 또는 메모리(130))를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
API(133)는 애플리케이션(134)이 커널(131) 또는 미들웨어(132)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
다양한 실시예에 따르면, 애플리케이션(134)은 SMS/MMS 애플리케이션, 이메일 애플리케이션, 달력 애플리케이션, 알람 애플리케이션, 건강 관리(health care) 애플리케이션(예: 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 애플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 애플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 애플리케이션(134)은 전자 장치(100)와 외부 전자 장치(예: 전자 장치 104) 사이의 정보 교환과 관련된 애플리케이션일 수 있다. 정보 교환과 관련된 애플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 애플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 애플리케이션을 포함할 수 있다.
예를 들면, 알림 전달 애플리케이션은 전자 장치(100)의 다른 애플리케이션(예: SMS/MMS 애플리케이션, 이메일 애플리케이션, 건강 관리 애플리케이션 또는 환경 정보 애플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치 104)로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 알림 전달 애플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치 104)로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 장치 관리 애플리케이션은, 예를 들면, 전자 장치(100)와 통신하는 외부 전자 장치(예: 전자 장치 104)의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 외부 전자 장치에서 동작하는 어플리케이션 또는 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다.
다양한 실시예에 따르면, 애플리케이션(134)은 외부 전자 장치(예: 전자 장치 104)의 속성(예: 전자 장치의 종류)에 따라 지정된 애플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 애플리케이션(134)은 음악 재생과 관련된 애플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 애플리케이션(134)은 건강 관리와 관련된 애플리케이션을 포함할 수 있다. 일 실시예에 따르면, 애플리케이션(134)은 전자 장치(100)에 지정된 애플리케이션 또는 외부 전자 장치(예: 서버 106 또는 전자 장치 104)로부터 수신된 애플리케이션 중 적어도 하나를 포함할 수 있다.
입출력 인터페이스(140)는, 입출력 장치(예: 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 버스(110)를 통해 프로세서(120), 메모리(130), 통신 인터페이스(160), 또는 애플리케이션 제어 모듈(170)에 전달할 수 있다. 예를 들면, 입출력 인터페이스(140)는 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 프로세서(120)로 제공할 수 있다. 또한, 입출력 인터페이스(140)는, 예를 들면, 버스(110)를 통해 프로세서(120), 메모리(130), 통신 인터페이스(160), 또는 애플리케이션 제어 모듈(170)로부터 수신된 명령 또는 데이터를 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 입출력 인터페이스(140)는 프로세서(120)를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
디스플레이(150)는 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다.
통신 인터페이스(160)는 전자 장치(100)와 외부 장치(예: 전자 장치 104 또는 서버 106) 간의 통신을 연결할 수 있다. 예를 들면, 통신 인터페이스(160)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치와 통신할 수 있다. 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 네트워크(162)는 통신 네트워크(telecommunications network)일 수 있다. 통신 네트워크 는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(100)와 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 애플리케이션(134), 애플리케이션 프로그래밍 인터페이스(133), 미들웨어(132), 커널(131) 또는 통신 인터페이스(160) 중 적어도 하나에서 지원될 수 있다.
도 2는 본 개시의 실시예들에 따른 전자 장치(200)의 블록도를 도시한다. 예를 들어, 전자 장치(200)는 도 1에 도시된 전자 장치(100)의 전체 또는 일부를 구성할 수 있다.
도 2를 참조하면, 전자 장치(200)는 하나 이상의 애플리케이션 프로세서(AP: application processor, 210), 통신 모듈(220), SIM(subscriber identification module) 카드(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력관리 모듈(295), 배터리(296), 인디케이터(297) 및 모터(298)를 포함할 수 있다.
AP(210)는 운영체제 또는 응용 프로그램을 구동하여 AP(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 예를 들어, AP(210)는 SoC(system on chip) 로 구현될 수 있다. 일 실시예에 따르면, AP(210)는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
통신 모듈(220)(예: 통신 인터페이스(160))은 전자 장치(200)(예: 도 1의 전자 장치(100))와 네트워크를 통해 연결된 다른 전자 장치들(예: 도 1의 전자 장치(104) 또는 서버(106)) 간의 통신에서 데이터 송수신을 수행할 수 있다. 일 실시예에 따르면, 통신 모듈(220)은 셀룰러 모듈(221), Wifi 모듈(223), BT 모듈(225), GPS 모듈(227), NFC 모듈(228) 및 RF(radio frequency) 모듈(229)을 포함할 수 있다.
셀룰러 모듈(221)은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 예를 들어, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드(224))을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 일 실시예에 따르면, 셀룰러 모듈(221)은 AP(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 셀룰러 모듈(221)은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
일 실시예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 예를 들어, 셀룰러 모듈(221)은 SoC로 구현될 수 있다. 셀룰러 모듈(221)은(예: 커뮤니케이션 프로세서) 메모리(230) 또는 전력관리 모듈(295) 등의 구성요소들이 AP(210)와 별개의 구성요소로 도시되어 있으나, 일 실시예에 따르면, AP(210)가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈(221))를 포함하도록 구현될 수 있다.
일 실시예에 따르면, AP(210) 또는 셀룰러 모듈(221)(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP(210) 또는 셀룰러 모듈(221)은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
예를 들어, Wifi 모듈(223), BT 모듈(225), GPS 모듈(227) 또는 NFC 모듈(228) 각각은 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다.
셀룰러 모듈(221), Wifi 모듈(223), BT 모듈(225), GPS 모듈(227) 또는 NFC 모듈(228)이 각각 별개의 블록으로 도시되었으나, 일 실시예에 따르면, 셀룰러 모듈(221), Wifi 모듈(223), BT 모듈(225), GPS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈(221), Wifi 모듈(223), BT 모듈(225), GPS 모듈(227) 또는 NFC 모듈(228) 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈(221)에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈(223)에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
RF 모듈(229)은 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 예를 들어, RF 모듈(229)은 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 예를 들어, RF 모듈(229)은 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품 도체 또는 도선 등을 더 포함할 수 있다. 셀룰러 모듈(221), Wifi 모듈(223), BT 모듈(225), GPS 모듈(227) 또는 NFC 모듈(228)이 하나의 RF 모듈(229)을 서로 공유하는 것으로 도시되어 있으나, 일 실시예에 따르면, 셀룰러 모듈(221), Wifi 모듈(223), BT 모듈(225), GPS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
SIM 카드(224_1~N)는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치(200)의 특정 위치에 형성된 슬롯(225_1~N)에 삽입될 수 있다. SIM 카드(224_1~N)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 도 1의 메모리 130)는 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 예를 들어, 내장 메모리(232)는 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 내장 메모리(232)는 Solid State Drive (SSD)일 수 있다. 외장 메모리(234)는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(200)과 기능적으로 연결될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
센서 모듈(240)은 물리량을 계측하거나 전자 장치(200)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 예를 들어, 센서 모듈(240)은 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K) 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(240)은 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infrared) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시), 지자계 센서(미도시) 등을 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
본 개시에서, “센서”라는 용어는, 외부 물체의 움직임에 따른 적어도 하나의 물리적 현상의 변화를 검출하여, 사용자의 제스처를 감지할 수 있도록 구성된 하나 이상의 장치, 부품, 하드웨어, 펌웨어, 소프트웨어, 또는 이들 중 둘 이상의 조합을 일컬을 수 있다. 입력 장치(250)는 터치 패널(touch panel, 252), 펜 센서(pen sensor, 254), 키(key, 256) 또는 초음파(ultrasonic) 입력 장치(258)를 포함할 수 있다. 예를 들어, 터치 패널(252)은 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널(252)은 사용자에게 촉각 반응을 제공할 수 있다.
예를 들어, 펜 센서(254)는 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 예를 들어, 키 (256)는 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 초음파(ultrasonic) 입력 장치(258)는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치(200)에서 마이크(예: 마이크(288))로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 일 실시예에 따르면, 전자 장치(200)는 통신 모듈(220)을 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
디스플레이(260)(예: 도 1의 디스플레이(150))는 표시 패널(262), 홀로그램 장치(264) 또는 프로젝터(266)를 포함할 수 있다. 예를 들어, 표시 패널(262)은 LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 예를 들어, 표시 패널(262)은 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 표시 패널(262)은 터치 패널(252)과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 예를 들어, 스크린은 전자 장치(200)의 내부 또는 외부에 위치할 수 있다. 일 실시예에 따르면, 디스플레이(260)는 표시 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
예를 들어, 인터페이스(270)는 HDMI(high-definition multimedia interface, 272), USB(universal serial bus, 274), 광 인터페이스(optical interface, 276) 또는 D-sub(D-subminiature, 278)를 포함할 수 있다. 예를 들어, 인터페이스(270)는 도 1에 도시된 통신 인터페이스(160)에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 예를 들어, 오디오 모듈(280)의 적어도 일부 구성요소는 도 1 에 도시된 입출력 인터페이스(140)에 포함될 수 있다. 예를 들어, 오디오 모듈(280)은 스피커(282), 리시버(284), 이어폰(286) 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
일 실시예에 따르면, 카메라 모듈(291)은 정지 영상 및 동영상을 촬영할 수 있는 장치로서 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
전력 관리 모듈(295)은 전자 장치(200)의 전력을 관리할 수 있다. 도시하지는 않았으나, 전력 관리 모듈(295)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
예를 들어, PMIC는 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 일 실시예에 따르면, 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
예를 들어, 배터리 게이지는 배터리(296)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 배터리(296)는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 전자 장치(200)에 전원을 공급할 수 있다. 예를 들어, 배터리(296)는 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터(297)는 전자 장치(200) 혹은 그 일부(예: AP(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 전자 장치(200)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 예를 들어, 모바일 TV지원을 위한 처리 장치는 DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어 플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 개시의 실시예에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 개시에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 개시에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 개시에 사용된 용어 “모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 개시에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
도 3a 내지 도 3d는 본 개시의 다양한 실시예에 따른 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 포함하는 전자 장치(200)의 도면이다.
도 3a 내지 도 3b에서, 전자 장치(200)의 디스플레이(예, 디스플레이(260))는, 예를 들면, 영상을 출력하기 위한 표시 패널(예, 표시 패널(262))과 터치 패널(252)을 포함하는 터치 스크린으로 구현될 수 있다. 한 실시예에 따르면, 디스플레이(260)는 터치 컨트롤러(또는 터치 IC(Integrated Circuit), 2700), 메인 터치 센서(예를 들어, 터치 패널(252)) 또는적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536), 적어도 하나 이상의 트레이스(2631, 2632, 2633, 2634, 2635, 2636) 등을 포함할 수 있다.
터치 컨트롤러(2700)는, 예를 들면, 메인 터치 센서(예를 들어, 터치 패널(252)) 또는 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로 전류를 공급하고, 메인 터치 센서(예를 들어, 터치 패널(252)) 또는 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 사용자의 손가락 등에 의해 입력되는 터치에 의한 신호를 수신할 수 있다. 예를 들어, 터치 컨트롤러(2700)는 적어도 하나 이상의 트레이스(2631, 2632, 2633, 2634, 2635, 2636)를 통해 메인 터치 센서와 연결될 수 있다. 한 실시예에 따르면, 터치 컨트롤러(2700)는 메인 터치 센서로부터 사용자 입력(예, 터치 입력)이 감지되면, 메인 터치 센서로부터 적어도 하나 이상의 트레이스(2631, 2632, 2633, 2634, 2635, 2636)를 통해 사용자 입력(예, 터치 입력)에 대응하는 신호를 수신할 수 있다. 그리고, 터치 컨트롤러(2700)는 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)와 연결될 수 있다. 터치 컨트롤러(2700)는 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력이 입력되면, 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)와 연결된 적어도 하나 이상의 트레이스(2631, 2632, 2633, 2634, 2635, 2636)를 통해 사용자 입력(예, 터치 입력)에 대응하는 신호를 수신할 수 있다.
터치 컨트롤러(2700)는 메인 터치 센서(예를 들어, 터치 패널(252)) 또는 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신되는 신호에 기반하여 사용자 손가락 등의 객체 등에 의하여 터치가 입력되는 좌표 등에 대한 데이터를 산출할 수 있다. 이를 위해, 터치 컨트롤러(2700)는 ADC(Analog to Digital Converter) 및 DSP(Digital Signal Processor) 등을 추가로 포함할 수 있다. ADC는 수신되는 아날로그(analog) 형태의 신호를 디지털(digital) 형태의 신호로 변환하여 DSP로 출력할 수 있다. DSP는 ADC로부터 출력된 디지털 형태의 신호에 기초하여 터치 입력 좌표(예를 들어, 터치된 지점의 x, y 좌표 등)를 산출할 수 있다.
또한, 본 개시의 다양한 실시예에 따른 터치 컨트롤러(2700)는 정전 용량 방식을 지원할 수 있다. 예를 들어, 터치 컨트롤러(2700)는 자기 정전 용량(self capacitance, 센서 패터(또는 전극)과 접지(ground) 사이의 정전 용량) 방식 또는 상호 정전 용량(mutual capacitance, 구동 라인 및 수신 라인 간 정전 용량) 방식을 모두 지원할 수 있다. 이를 위해, 터치 컨트롤러(2700)는 자기 정전 용량 방식 및 상호 정전 용량 방식 간 전환 기능을 제공하기 위한 스위칭 소자를 추가로 포함할 수 있다. 다시 말해, 사용자 손가락 등의 외부 물체에 의한 입력에 따라 예를 들어, 외부 물체가 디스플레이(260)에 근접함에 따라 근접 터치가 입력되는 상태에서 외부 물체가 디스플레이(260)에 접촉하면, 접촉 터치 입력을 수신하기 위하여 터치 컨트롤러(2700)는 스위칭 소자를 통해 자기 정전 용량 방식에서 상호 정전 용량 방식으로 전환하도록 제어할 수 있다. 한편, 터치 컨트롤러(2700)는 정전 용량 방식 외에 저항막 방식(resistive overlay type), 압력 방식(pressure type), 적외선 감지 방식(infrared beam type), 표면 초음파 방식(surface acoustic wave type) 등 다양한 방식을 지원할 수도 있다. 그리고, 이와 같은 터치 컨트롤러(2700)의 기능이 다른 모듈 예를 들어, 프로세서(120)를 통해 수행되는 경우 터치 컨트롤러(2700)는 생략될 수 있다.
메인 터치 센서(예를 들어, 터치 패널(252))는 사용자의 손가락 등의 외부 물체로부터 사용자 입력(예, 터치 입력)을 입력 받을 수 있다. 메인 터치 센서(예를 들어, 터치 패널(252))는 외부 물체로부터 터치를 입력 받기 위하여 적어도 하나의 전극을 포함할 수 있다.
한 실시예에서, 메인 터치 센서(예를 들어, 터치 패널(252))가 자기 정전 용량 방식을 지원하는 경우, 전극은 평행하게 배치된 복수의 스트라입(strip) 형태 또는 직교 좌표계 상의 x, y 축을 교차하는(또는, 가로지는) 형태(다만, 접촉하지는 않음)로 패턴화되어 형성될 수 있다. 다만, 이러한 전극의 패턴 형태는 예시이며, 마름모 형태를 비롯하여, 정방형, 원형, 타원형, 삼각형, 다각형 등의 다양한 형태로 형성될 수 있다. 그리고, 메인 터치 센서(예를 들어, 터치 패널(252))는 적어도 하나 이상의 트레이스(2631, 2632, 2633, 2634, 2635, 2636)를 통해 메인 터치 센서(예를 들어, 터치 패널(252))로 전류가 공급되면, 객체 사이에 형성되는 정전 용량의 변화량 예를 들어, 정전 용량 변화량의 크기, 정전 용량이 변화되는 시간 등을 통해 감지할 수 있다. 메인 터치 센서(예를 들어, 터치 패널(252))는 감지된 정전 용량 변화량을 포함하는 신호를 터치 컨트롤러(2700)로 전달할 수 있다. 이를 통해, 터치 컨트롤러(2700)는 사용자 입력(예, 터치 입력)이 감지된 좌표 위치를 산출할 수 있다.
다른 실시예에서, 메인 터치 센서(예를 들어, 터치 패널(252))가 상호 정전 용량 방식을 지원하는 경우, 메인 터치 센서(예를 들어, 터치 패널(252))는 2 이상의 전극들을 포함할 수 있다. 예를 들어, 2 이상의 전극들 각각은 직교 좌표계 상에서 x축으로 구동 전극(또는 ‘구동 라인’으로 지칭됨) 및 y축으로 수신 전극(또는 ‘감지 전극’으로 지칭됨)을 형성할 수 있다. 그리고, 메인 터치 센서는 구동 전극으로 전류가 공급되면, 수신 전극은 구동 전극으로부터 발생되는 전기력선을 수신할 수 있다(또는 구동 전극 및 수신 전극 간 정전 용량 형성). 객체가 터치 스크린에 접촉하는 경우, 메인 터치 센서(예를 들어, 터치 패널(252))는 수신 전극에서 수신되는 전기력선의 변화(예를 들어, 전기력선의 개수 변화 또는 외부 물체 및 수신 전극 간 기생 정전 용량의 변화)를 감지할 수 있다. 메인 터치 센서(예를 들어, 터치 패널(252))는 감지된 전기력선의 변화량을 포함하는 신호를 터치 컨트롤러(2700)로 전달하고, 터치 컨트롤러(2700)는 사용자 입력(예, 터치 입력)이 감지된 좌표 위치를 산출할 수 있다.
한 실시예에 따르면, 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)는 정전 용량 방식으로 구현될 수 있으며, 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)는 각각 전극을 포함할 수 있다. 그리고, 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)는 전자 장치(200)의 측면으로부터 입력되는 근접 터치에 대한 신호를 수신할 수 있다. 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)는 각각 트레이스(2631, 2632, 2633, 2634, 2635, 2636)를 통해 터치 컨트롤러(2700)와 연결되며, 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)가 수신하는 신호를 터치 컨트롤러(2700)로 전달할 수 있다. 또한, 한 실시예에 따르면, 적어도 하나의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536) 중 적어도 하나는, 추가적으로 압력 센서(예: 압전형 압력 센서 또는 피에조 센서)를 포함하거나 또는 대체적으로 압력 센서로 구현될 수 있다.
전자 장치(200)의 일 측에 배치되는 센서 패드들(2531, 2532, 2533)또는 다른 일 측에 배치되는 센서 패드들(2534, 2535, 2536)을 도시하고 있지만, 이에 한정되지 않는다. 다시 말해, 센서 패드들(2531, 2532, 2533, 2534, 2535, 2536)의 배치 및 개수는 다양하게 변경될 수 있다. 예를 들어, 터치 컨트롤러(2700)의 개수 또는 위치, 터치 컨트롤러(2700) 및 메인 터치 센서(252)에 포함된 전극 패턴을 연결하는 트레이스(2631, 2632, 2633, 2634, 2635, 2636)의 배치 형태 등에 따라, 센서 패드들(2531, 2532, 2533, 2534, 2535, 2536)의 개수는 6 개 이하 또는 6개 이상으로 마련될 수 있다. 또한, 센서 패드들(2531, 2532, 2533, 2534, 2535, 2536)은 전자 장치(200) 일 측에만 배치되거나 다른 일 측에만 배치될 수도 있으며 전자 장치(200) 상측, 하측 또는 후면에도 배치될 수 있다. 추가적으로 또는 대체적으로, 센서 패드들(2531, 2532, 2533, 2534, 2535, 2536)은 전자 장치(200)의 외부로 노출될 수도 있고, 내부에만 실장될 수도 있다.
본 개시의 일 실시예에서, 센서 패드(253)는 메인 터치 센서(또는 메인 터치 센서에 포함된 전극) 및 터치 컨트롤러(2700)를 연결하는 트레이스(2631, 2632, 2633, 2634, 2635, 2636)가 형성되는 부분에 배치될 수 있다. 도 3a 내지 도 3b를 통하여, 센서 패드(253) 및 메인 터치 센서(252)를 별개의 구성요소로 도시하였지만, 한 실시예에 따르면, 센서 패드(253) 및 메인 터치 센서(252)는 하나의 하드웨어 모듈로 구현될 수 있다. 또한, 도 3a 내지 도 3b를 통하여, 센서 패드들(2531, 2532, 2533, 2534, 2535, 2536)을 별개의 구성요소로 도시하였지만, 한 실시예에 따르면, 센서 패드들의 적어도 일부 및 메인 터치 센서(252)는 하나의 하드웨어 모듈로 구현될 수 있다.
일 실시예에서, 메인 터치 센서 및 적어도 하나의 센서 패드는 인듐-틴-옥사이드(Indium Tin Oxide, ITO), 인듐-징크-옥사이드(IZO), AZO(Al doped ZnO), 탄소나노튜브(CNT), 전도성 고분자(PEDOT), 은(Ag), 구리(Cu) 등 투명 도전성 매체로 형성될 수 있다.
도 3c는 본 개시의 다양한 실시예에 따른 전자장치(200)의 신호 입력을 설명하기 위한 도면을 나타낸다. 다시 말해, 도3c는 본 개시의 다양한 실시예에 따라 전자 장치(200)의 하우징(580) 측면에 접촉 또는 근접하는 객체와의 관계에서 디스플레이(260)가 생성하는 신호를 설명하기 위한 도면을 나타낸다.
전자 장치(200)는 윈도우(window, 261), 메인 터치 센서(예를 들어, 터치 패널(252)), 센서 패드(253), 디스플레이(260) 및 하우징(580) 등을 포함할 수 있다.
센서 패드(253) 및 메인 터치 센서(예를 들어, 터치 패널(252))는 디스플레이(260) 내에서 일체로 형성될 수 있다. 또는, 메인 터치 센서(예를 들어, 터치 패널(252))는 디스플레이(260)의 표시 영역(B, 예를 들어, 표시 패널(262) 영역)의 적어도 일부 영역으로 확장될 수 있다.
윈도우(261)는 압력 또는 외부 자극에 의한 전자 장치(200) 손상을 방지할 수 있다. 이러한 윈도우(261)는 투명 재질의 물질 예를 들어, 유리 재질이나 플라스틱 재질의 PC(Poly Carbonate) 등으로 형성될 수 있다.
접착층(520)은 접착 기능을 제공할 수 있다. 예를 들어, 윈도우(261)와 디스플레이(260)의 편광층(530)을 접착할 수 있다. 이러한 접착층(520)은 시인성이 우수한 매개 물질 예를 들어, OCA(Optically Clear Adhesive) 또는 SVR(Super View Resin)로 형성될 수 있다. 다만, 이러한 접착층(520)은 실시예에 따라 생략될 수 있다.
디스플레이(260)는 편광층(530) 및 디스플레이층(560)을 포함할 수 있다. 편광층(530)은 디스플레이층(560)으로부터 방출되는 광들 중 특정 방향의 광을 통과시킬 수 있다. 그리고, 디스플레이층(560)은 구현되는 방식에 따라 LCD(liquid-crystal display), AM-OLED(active-matrix organic light-emitting diode), 플렉서블 디스플레이(Flexible display) 또는 투명 디스플레이 등으로 구성될 수 있다. 또한, 디스플레이(260)는 하우징(580) 일 면에 놓이고, 표시 영역 및 비표시 영역을 포함할 수 있다. 디스플레이(260)는 하우징(580)의 하측면 위에 적층되며, 화면 데이터가 표시되는 표시 영역 (B)및 화면 데이터가 표시되지 않는 비표시 영역을 포함할 수 있다.
하우징(580)은 전자 장치(200) 일 면에 배치되어 윈도우(261), 메인 터치 센서(예를 들어, 터치 패널(252)), 센서 패드(253), 디스플레이(260) 등을 지지할 수 있다.
전자 장치(200)는 수평축을 기준으로 화면에 데이터를 표시하는 화면 표시 영역 B 및 화면에 데이터를 표시하지 않는 화면 비표시 영역 (C, 또는 블랙 마스크 영역(black mask)로 구분될 수 있다.
디스플레이(260)는 손가락 등의 객체로부터 센서 패드(253) 또는 메인 터치 센서(252)로 다양한 신호를 수신할 수 있다. 예를 들어, 센서 패드(253)는 전자 장치(200) 측면(예, 전자 장치(200)의 일 측면 또는 전자 장치(200)의 일 면과 상기 일 면과 연결되는 전자 장치(200)의 다른 면 사이의 경계 영역 등)에 손가락 등이 접촉되는 경우, 센서 패드(253) 또는 메인 터치 센서(252)에 인접한 하우징(580) 측면 지점을 중심으로 일정 거리에 있는 손가락 부분으로부터 사용자 입력(예, 터치 입력)에 의한 제 1 신호(591)를 수신할 수 있다. 그리고, 손가락 등의 객체가 하우징(580)의 측면의 수평한 면에 접촉하는 경우 (예를 들어, 손가락 등이 하우징 580의 상측면에 접촉하는 경우), 센서 패드(253)는 하우징(580) 측면 지점을 중심으로 일정 거리에 있는 손가락 부분으로부터 제 2 신호 (592)를 수신할 수 있다. 이와 유사하게, 메인 터치 센서(252)는 하우징(580)의 상측면 지점을 중심으로 일정 거리에 있는 손가락 부분으로부터 제 3 신호(593)를 수신할 수 있다. 한 실시예에서, 센서 패드(253)는 제 1 신호(591) 및 제 2 신호(592)를 터치 컨트롤러(2700)에 전달할 수 있다. 그리고, 터치 컨트롤러(2700)는 제 1 신호(591) 및 제 2 신호(592)에 기반하여 좌표를 산출할 수 있다. 또한, 다른 실시예에서 메인 터치 센서(252)는 수신된 제 3 신호(593)를 터치 컨트롤러(2700)로 전달하고, 터치 컨트롤러(2700)는 제 1 신호(591), 제 2 신호(592) 및 제 3 신호 (593)에 기반하여 보다 정확한 좌표를 산출할 수도 있다. 이는 예시이며 본 개시의 기술적 사상을 제한하지 않는다. 예를 들어, 다른 실시예에서, 제 1 신호(591)의 크기가 작은 경우 이를 증폭하여 출력할 수도 있다. 이를 위해, 하드웨어적으로 추가로 증폭 회로를 구성하거나 소프트웨어적으로 제 1 신호(591)에 가중치를 두는 방식을 채용할 수 있다.
또한, 센서 패드(253)는 사용자 입력(예, 터치 입력)에 의한 제 4 신호(594) 또는 제 5 신호(596)를 수신할 수 있다. 그리고, 메인 터치 센서(252)는 사용자 입력(예, 터치 입력)에 의한 제 6 신호(596) 또는 제 7 신호(597)를 수신할 수 있다. 센서 패드(253) 및 메인 터치 센서(252)는 제 4 신호(594) 내지 제 7 신호 (597)를 터치 컨트롤러(2700)로 전달할 수 있다. 한 실시예에서, 터치 컨트롤러 (2700)는 수신되는 입력의 정전 용량 변화량 예를 들어, 객체와 센서 패드(253) 또는 메인 터치 센서(252)와의 관계에서 형성되는 전기력선의 차이(예를 들어, 전기력선의 방향) 등에 기반하여 제 1 신호(591) 내지 제 7 신호(597)를 구분할 수 있다.
본 개시의 한 실시예에서, 프로세서(120)는 센서 패드(253) 및 메인 터치 센서(252)의 활성/비활성화 여부에 따라 4가지 동작 모드를 설정할 수 있다. 아래 [표 1]은 4가지 동작 모드를 나타낸다.
제 1 모드 제 2 모드 제 3 모드 제 4 모드
(잠금 모드)
터치 패드 활성화 활성화 비활성화 비활성화
메인 터치 센서 활성화 비활성화 활성화 비활성화
여기서, 센서 패드(253)의 활성화는 센서 패드(253)가 전자 장치(200)의 일 면에 대한 사용자 입력(예, 터치 입력)에 의해 생성되는 제 1 신호(591) 및 제 2 신호 (592)만을 수신(예를 들어, 센서 패드(253)로 수신되는 제 4 신호(594) 및 제 5 신호(595)는 제외 또는 필터링)하도록 설정할 수 있다. 예를 들어, 센서 패드(253)로 수신되는 제 1 신호(591), 제 2 신호(592), 제 4 신호(594), 제 5 신호(595) 중 제 4 신호(594) 및 제 5 신호(595)는 터치 컨트롤러(2700) 또는 프로세서(120)가 필터링하여 삭제하도록 설정할 수 있다. 그리고 메인 터치 센서(252)의 활성화는 사용자 입력에 의한 제 6 신호(596) 또는 제 7 신호 (597)만을 수신하도록 설정할 수 있다. 예를 들어, 메인 터치 센서(252)로 수신되는 제 3 신호(593), 제 6 신호(596) 및 제 7 신호(597) 중 제 3 신호(593)는 터치 컨트롤러(2700) 또는 프로세서(120)가 필터링하여 삭제하도록 설정할 수 있다. 이와 같은 4가지 동작 모드는 사용자에 의해 설정될 수 있다. 또한, 실행하는 애플리케이션 등에 따라 4가지 동작 모드를 설정할 수 있다. 예를 들어, MP3 애플리케이션에 대하여 제 2 모드로 동작하도록 설정하면, MP3 어플리케이션을 실행하는 동안 메인 터치 센서(252)를 비활성화하거나 메인 터치 센서(252)로 수신되는 입력을 무효 처리할 수 있다. 반면, 센서 패드(253)로 수신되는 입력에 대하여 유효 처리할 수 있다.
이와 같은, 4가지 동작 모드는 예시에 불과하며, 본 개시의 기술적 사상을 이에 제한하지 않는다. 예를 들어, 제 1 신호 (591) 내지 제 7 신호(597)에 기반하여 제 1 신호(591) 내지 제 7 신호(597)의 유효/무효 처리의 조합에 따라 다양한 동작 모드를 설정할 수 있다.
도 3d와 같이, 전자 장치(200)는 랩-어라운드(wrap-around) 디스플레이(260)로 구현될 수 있다. 도 3d를 참조하면, 전자 장치(200)은 전자 장치의 적어도 한 측면부에 대응하는 영역에도 디스플레이를 포함할 수 있다. 예컨대, 전자 장치(200)는 모서리 부분까지(예를 들어, 어느 일 측면에서 다른 일 측면까지) 디스플레이(260)로 구현될 수 있다. 한 실시예에 따르면, 랩-어라운드 디스플레이(260)는, 랩-어라운드 디스플레이(260)가 형성된 전자 장치(200)의 정면과 그 배면의 끝 단은 서로 직접적으로 연결된(예: 정면과 배면의 모서리가 서로 맞닿거나 정면과 배면이 완전히 일체인 하나의 면으로 구성) 형상일 수 있다. 예컨대, 전자 장치(200)의 정면 또는 배면 중 적어도 하나는 휘어져 전자 장치(200)의 정면과 그 배면 사이에 위치하는 전자 장치(200)의 적어도 하나의 측면이 제거될 수 있다. 예를 들면, 전자 장치(200)는 적어도 하나의 면을 가지는 공(ball) 형상, 원통 형상 또는 12면체 등 다양한 입체 형상을 가질 수 있다. 또한, 입체 형상을 구성하는 적어도 하나의 면은, 예를 들면, 디스플레이를 포함할 수 있다. 한 실시예에 따르면, 전자 장치(200)의 모서리 부분에 위치한 디스플레이(260) 내에 센서 패드(253)가 아닌 터치 패널(252) 또는 추가적인 센서(예: 압력 센서)을 이용하여 전자 장치(200)의 적어도 한 측면부에 대응하는 사용자 입력 또는 그립 정보를 획득할 수 있다.
전자 장치(200)의 모서리 부분에 위치한 디스플레이(260) 내에 센서 패드(253)가 아닌 터치 패널(252)을 이용하여 센서 패드(253)와 동일한 기능을 수행할 수 있다.
도 4a 내지 도 4b는 본 개시의 다양한 실시예에 따른 전자 장치(200)의 제어 방법을 나타내는 순서도이다.
도 4a에서, 전자 장치(200)는 410 과정에서, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호를 감지할 수 있다. 전자 장치(200)에 포함된 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)는 410 과정에서, 감지된 사용자 입력 신호를 프로세서(120)로 전달할 수 있다. 전자 장치(200)는 410 과정에서, 전자 장치(200)의 일 측면의 소정 영역에 포함된 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호를 감지할 수 있다.
전자 장치(200)는 420 과정에서, 감지된 사용자 입력 신호에 기반하여 그립 정보(grip information)를 판단할 수 있다. 프로세서(120)는 420 과정에서, 감지된 사용자 입력 신호에 기반하여 그립 정보를 판단할 수 있다. 그립 정보는 사용자의 전자 장치(200)에 대한 그립 형태를 포함하는 정보로서, 사용자가 전자 장치(200)를 잡은 손가락의 위치, 전자 장치(200)를 잡은 손가락의 개수와 같은 정보를 포함할 수 있다.
전자 장치(200)는 420 과정에서, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통한 사용자 입력이 지정된 기준값 이상으로 수신되는 경우, 사용자 입력 신호가 있다고 판단하여 그립 정보를 생성할 수 있다. 예를 들어, 전자 장치(200)는 420 과정에서, 사용자 입력 신호에 따른 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)의 정전 용량 변화량이 기준 정전 용량 변화량을 초과하는 경우에 사용자 입력 신호가 있다고 판단하여 그립 정보를 생성할 수 있다. 프로세서(120)는 420 과정에서, 사용자 입력 신호에 따른 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)의 정전 용량 변화량이 기준 정전 용량 변화량을 초과하는 경우에 사용자 입력 신호가 있다고 판단하여 그립 정보를 생성할 수 있다. 예를 들어, 전자 장치(200)는 420 과정에서, 기준 정전 용량 변화량을 초과하는 사용자 입력 신호에 따른 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)의 정전 용량 변화량 만을 사용자 입력 신호로서 사용하여, 그립 정보를 생성할 수 있다. 프로세서(120)는 420 과정에서, 기준 정전 용량 변화량을 초과하는 사용자 입력 신호에 따른 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)의 정전 용량 변화량 만을 사용자 입력 신호로서 사용하여, 그립 정보를 생성할 수 있다.
다른 실시예에서, 전자 장치(200)는 420 과정에서, 사용자 입력 신호 및 적어도 하나 이상의 가속도 센서(240E), 자이로 센서(240B) 및 지자계 센서(미도시)를 통해 획득한 전자 장치(200)의 위치 정보 또는 방향 정보 중 어느 하나에 기반하여 그립 정보를 판단할 수 있다. 예를 들어, 전자 장치(200)는 420 과정에서, 사용자 입력 신호 및 전자 장치(200)의 위치 정보 또는 방향 정보 중 어느 하나에 기반하여 그립 정보를 판단할 수 있다. 이에 대하여 도 4b에서 전자 장치(200)의 위치 정보 또는 방향 정보에 따라 그립 정보를 판단하는 방법을 상세히 후술한다.
한 실시예에서, 사용자 입력 신호에 따른 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)의 입력 효율을 향상시키기 위해, 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)에서 신호 수신시 바이어스 트래킹(bias tracking) 방법 또는 저역 필터(low pass filter)를 이용할 수 있다. 예를 들어, 바이어스 트래킹(bias tracking) 방법은 기준 노이즈를 0으로 가정하고, 사용자 입력 발생 시 임계값을 넘는 신호를 피크로 인식하여 사용자 입력으로 인식하는 방법이다. 저역 필터를 이용하여 저역 대역의 신호를 걸러내서, 노이즈를 줄여 사용자 입력 신호를 효율적으로 수신할 수 있다.
전자 장치(200)는 430 과정에서, 사용자 입력 신호 및/또는 그립 정보에 기반하여 전자 장치(200)에 포함된 애플리케이션 또는 기능을 실행할 수 있다. 사용자 입력 신호 및/또는 그립 정보에 기반하여 전자 장치(200)에 포함된 애플리케이션 또는 기능을 실행하는 것은 다음과 같다.
한 실시예에 따르면, 전자 장치(200)는 430 과정에서, 그립 정보에 기반하여 카메라 모듈(291)을 활성화시켜 카메라 관련 어플리케이션 또는 기능을 실행할 수 있다.
예를 들어, 전자 장치(200)는 430 과정에서, 카메라 기능이 실행된 상태에서 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 수신되는 경우, 카메라 모듈(291)을 통해 이미지를 획득하는 동작, 카메라 모듈(291)을 통해 피사체를 줌-인(zoom-in), 줌-아웃(zoom-out)하는 기능, 초점에 관련된 기능(예: 반셔터 기능), 카메라의 메뉴를 선택하는 기능, 전후면 카메라를 전환하는 기능, 지정된 기능을 자동으로 실행하는 기능중 어느 하나를 제공할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 430 과정에서, 카메라 기능이 실행된 상태에서 프리뷰가 전면 카메라를 통해 획득되는 영상을 표시하거나, 전자 장치(200)의 방향이 가로이거나, 그립 정보가 지정된 모드(예: 한 손 모드)인 경우 또는 그 조합 중 적어도 하나를 만족하는 경우, 카메라 모듈(291)을 통해 이미지를 획득하는 경우 자동으로 타이머를 실행할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 430 과정에서, 그립 정보에 기반하여 전자 장치(200)의 화면 회전 동작을 제어하는 기능을 실행할 수 있다. 전자 장치(200)의 위치 또는 방향에 따라 화면을 회전할 수 있도록 미리 설정된 경우라도, 전자 장치(200)는 그립 정보에 기반하여 화면 회전 동작을 무효화할 수 있거나 그립 정보에 기반하여 화면 회전 동작을 방지할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 430 과정에서, 그립 정보에 기반하여 전자 장치(200)에 포함된 스피커 출력을 변경하거나 무음으로 하는 기능을 실행할 수 있다. 전자 장치(200)가 스피커로 전화 벨이나 소리를 출력할 있게 미리 설정된 경우라도, 전자 장치(200)는 그립 정보에 기반하여 스피커로 출력되지 않도록 기능을 제어할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 430 과정에서, 그립 정보에 기반하여 제 1 스피커(예, 리시버(282))를 이용한 사운드 출력 모드 또는 제 2 스피커(예, 스피커(284))를 이용한 사운드 출력 모드로 전환할 수 있다. 전자 장치(200)가 제 2 스피커(예, 스피커(284))를 이용하여 소리를 출력할 수 있게 미리 설정한 경우라도, 전자 장치(200)는 그립 정보에 기반하여 제 1 스피커(예, 리시버(282))를 이용한 사운드 출력 모드로 전환할 수 있도록 기능을 제어할 수 있다. 반대로, 전자 장치(200)가 제 1 스피커(예, 리시버(282))를 이용하여 소리를 출력할 수 있게 미리 설정한 경우라도, 전자 장치(200)는 그립 정보에 기반하여 2 스피커(예, 스피커(284))를 이용한 사운드 출력 모드로 전환할 수 있도록 기능을 제어할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 430 과정에서, 사용자 입력 신호에 기반하여 실행 중인 미디어의 재생 진행을 변경할 수 있다. 전자 장치(200)는 430 과정에서, 사용자 입력 신호에 기반하여 실행 중인 미디어의 재생 진행을 변경하고, 이를 프로그레스 바 형태의 사용자 인터페이스(User Interface)에 반영하여 표시할 수 있다. 전자 장치(200)는 430 과정에서, 사용자 입력 신호에 기반하여 실행 중인 미디어의 재생 진행을 소정 시간 앞으로 가기, 소정 시간 뒤로 가기, 재생 속도 빠르게 가기, 재생 속도 느리게 가기, 재생 정지 동작을 수행할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 430 과정에서, 사용자 입력 신호에 기반하여 디스플레이(260)에 표시된 정보를 스크롤(scroll)하는 동작, 디스플레이(260)에 표시된 정보를 확대하는 동작, 디스플레이(260)에 표시된 정보를 축소하는 동작, 디스플레이(260)에 표시된 정보를 전환하는 동작 중 하나를 수행할 수 있다. 디스플레이(260)에 표시된 정보를 전환하는 동작은 웹 브라우저에서 앞으로, 뒤로 동작을 의미할 수 있다. 디스플레이(260)에 표시된 정보를 전환하는 동작은 전자 문서에서 다음 화면, 이전 화면을 표시하는 동작일 수 있다.
한 실시예에 따르면, 전자 장치(200)는 430 과정에서, 애플리케이션을 전환하는 동작을 제공할 수 있다. 애플리케이션을 전환하는 동작은 사용자 입력 신호에 기반하여 백그라운드에서 실행 중인 애플리케이션을 포어그라운드로 변경하거나 포어그라운드에서 실행 중인 애플리케이션을 백그라운드로 변경하는 동작일 수 있다. 전자 장치(200)는 430 과정에서, 사용자 입력 신호에 기반하여 전자 장치(200)의 백그라운드에서 실행 중인 애플리케이션과 지금 실행 중인 애플리케이션을 전환할 수 있다. 예컨대, 전자 장치(200)는 애플리케이션의 방향 정보(예: 기본 실행 방향 또는 실행 중인 방향)에 적어도 일부 기반하여, 전환되는 애플리케이션을 달리 할 수 있다. 예를 들어, 전자 장치는(200), 전자 장치(200)가 가로 방향인 경우에, 가로 방향에 대응하는 지정된 제 1 애플리케이션 그룹 중에서 애플리케이션 전환을 할 수 있다. 또는, 전자 장치는(200), 전자 장치(200)가 세로 방향인 경우에, 세로 방향에 대응하는 지정된 제 2 애플리케이션 그룹 중에서 애플리케이션 전환을 할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 사용자가 선택할 수 있는 적어도 하나 이상의 목록(1011, 1012, 1013, 1014)을 포함하는 탭 메뉴를 표시할 수 있다. 전자 장치(200)는 430 과정에서, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 수신한 사용자 입력 신호에 기반하여 탭 메뉴에 포함된 목록을 제어할 수 있다. 이때, 탭 메뉴에 포함된 각각의 목록들은 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)와 맵핑될 수 있다.
한 실시예에 따르면, 전자 장치(200)는 적어도 하나 이상의 선택 가능한 리스트를 표시할 수 있으며, 전자 장치(200)는 430 과정에서, 사용자 입력 및 상기 그립 정보 중 적어도 어느 하나에 기반하여 적어도 하나 이상의 리스트를 선택할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 430 과정에서, 그립 정보에 기반하여 디스플레이(260)의 밝기를 조정하는 기능을 실행할 수 있다. 전자 장치(200)가 소정 시간 동안 디스플레이(260)를 턴-온(turn-on)시킬 수 있게 미리 설정한 경우라도, 전자 장치(200)는 그립 정보에 기반하여 디스플레이(260)를 그립 정보가 수신되는 동안은 계속 디스플레이(260)를 턴-온(turn-on)시킬 수 있게 제어할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 430 과정에서, 그립 정보에 따라 전체 화면을 축소하여 디스플레이(260) 상의 소정 영역에 표시하거나, 그립 정보에 따라 디스플레이(260) 상에 소정의 오브젝트의 표시를 달리 할 수 있다. 예를 들어, 사용자가 왼손으로 전자 장치(200)를 잡으면, 전자 장치(200)는 사용자 왼손이 전자 장치(200)를 파지한 것으로 판단하여 디스플레이(260) 좌측 영역에 전체 화면을 축소하여 표시하는 것을 포함할 수 있다. 예를 들어, 사용자가 오른손으로 전자 장치(200)를 잡으면, 전자 장치(200)는 사용자 오른손이 전자 장치(200)를 파지한 것으로 판단하여 디스플레이(260) 우측 영역에 전체 화면을 축소하여 표시하는 것을 포함할 수 있다. 예를 들어, 그립 정보에 따라 디스플레이(260) 상에 소정의 오브젝트의 위치 혹은 형태를 변경하여 표시하는 동작은 다음과 같다. 예를 들어, 사용자가 왼손으로 전자 장치(200)를 잡으면, 전자 장치(200)는 사용자 왼손이 전자 장치(200)를 파지한 것으로 판단하여 디스플레이(260) 좌측 영역에 소정의 오브젝트(가상 키보드, 윈도우(window), 또는 팝업-창)를 표시할 수 있다. 사용자가 오른손으로 전자 장치(200)를 잡으면, 전자 장치(200)는 사용자 오른손이 전자 장치(200)를 파지한 것으로 판단하여 디스플레이(260) 우측 영역에 소정의 오브젝트(가상 키보드, 윈도우(window), 또는 팝업-창)를 표시할 수 있다. 전자 장치(200)는, 그립 정보가 사용자가 양손으로 전자 장치를 잡은 것에 대응하는 경우, 지정된 오브젝트(예: 가상 키보드, 윈도우(window), 또는 팝업-창, 가상 키보드 등)를 분할하여 디스플레이(260) 양쪽에 나누어 표시할 수 있다. 지정된 오브젝트를 분할하여 양쪽에 표시하는 것은 가상 키보드를 분할한 스플릿 키보드 형태일 수 있다.
한 실시예에 따르면, 전자 장치(200)는 430과정에서, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 수신된 사용자 입력 신호 또는 사용자 그립 정보에 따라 잠금 화면을 해제하고 실행 중인 화면 또는 대기 화면을 표시할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 디스플레이(260)의 제 1 영역을 통하여 제 1 애플리케이션을 제공하고(예를 들어, 제 1 애플리케이션의 실행 화면을 제공), 디스플레이(260)의 제 2 영역을 통하여 제 2 애플리케이션(예를 들어, 제 2 애플리케이션의 실행 화면을 제공)을 할 수 있다. 전자 장치(200)는 디스플레이(260)를 분할하여 적어도 하나 이상의 애플리케이션의 실행화면을 표시할 수 있다. 전자 장치(200)는 430과정에서, 사용자 입력 신호의 입력 위치가 상기 제 1 영역에 대응하는 경우, 사용자 입력 신호를 통해 제 1 애플리케이션을 제어할 수 있으며, 사용자 입력 신호의 입력 위치가 제 2 영역에 대응하는 경우, 사용자 입력 신호를 통해 제 2 애플리케이션을 제어할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 사용자 입력 신호에 기반하여 실행 중인 애플리케이션 GUI 요소를 제어할 수 있다. 전자 장치(200)는 사용자 입력 신호에 기반하여 실행 중인 게임 애플리케이션의 GUI 요소를 제어할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 사용자 입력 신호에 기반하여 센서 패드에 지정된 애플리케이션을 자동으로 실행 할 수 있다.
한 실시예에 따르면, 전자 장치(200)는 사용자 입력 신호에 기반하여 센서 패드에 물리키(하드키)를 지정하여 전자 장치(200)를 제어 할 수 있다. 한 실시예에 따르면, 전자 장치(200)는 사용자 입력 신호에 기반하여 악기 연주 어플리케이션 실행 시 센서 패드에 악기를 제어하는 건반, 줄, 구멍 등을 지정하여 악기를 연주 할 수 있도록 전자 장치(200)를 제어 할 수 있다. 한 실시예에 따르면, 전자 장치(200)는 센서 패드를 키보드의 shift키에 대응하는 기능을 지정하여 전자 장치(200)를 제어 할 수 있다. 한 실시예에 따르면, 전자 장치(200)는 사용자 입력 신호에 기반하여 전자 장치(200)의 커버를 열면 지정된 애플리케이션을 자동으로 실행 할 수 있다. 한 실시예에 따르면, 전자 장치(200)는 사용자 입력 신호에 기반하여 퀵 패널을 표시할 때 다른 종류의 퀵 패널을 표시 할 수 있다. 한 실시예에 따르면, 전자 장치(200)는 사용자 입력 신호에 기반하여 필기 또는 그림을 그릴 수 있는 애플리케이션에서 오브젝트 삭제 기능을 제공 할 수 있다. 한 실시예에 따르면, 전자 장치(200)는 사용자 입력 신호에 기반하여 점자 입력 또는 확대경 기능을 제공할 수 있다. 한 실시예에 따르면, 전자 장치(200)는 사용자 입력 신호에 기반하여 동일한 패턴이 입력 된 복수의 전자 장치(200)를 전자 장치(200) 간 직접 통신 방식(예: 블루투스, NFC, Wifi direct 등)을 통해 연결 할 수 있다. 여기서 동일한 패턴의 입력은 두개의 전자 장치(200)를 인접하여 위치시키고 단말의 측면부를 동시에 슬라이드하거나 동일한 순서 또는 그립으로 전자 장치(200)의 측면에 사용자 입력을 인가 하는 경우를 포함 할 수 있다.
도 4b는 본 개시의 일 실시예에 따른 전자 장치(200)의 위치 정보 또는 방향 정보에 따라 그립 정보를 판단하는 동작을 나타내는 순서도이다.
전자 장치(200)는 441 과정에서, 전자 장치(200)가 지정된 위치(position, 또는 자세) 또는 방향(orientation)에 있는지 여부를 판단할 수 있다. 예를 들어, 전자 장치(200)는 441 과정에서, 적어도 하나 이상의 가속도 센서(240E), 자이로 센서(240B) 및 지자계 센서(미도시)를 통해 획득한 전자 장치(200)의 위치 정보 또는 방향 정보에 따라 전자 장치(200)가 지정된(specified) 위치 또는 방향에 있는지 여부를 판단할 수 있다.
예를 들어, 사용자는 카메라 기능을 실행하기 위해서, 전자 장치(200)의 배면에 위치한 카메라 모듈(291)이 피사체를 향하게 하고 디스플레이(260)는 사용자를 향하게 위치할 수 있다. 또한, 사용자는 카메라 기능을 실행하기 위해서 전자 장치(200)를 세로(portrait) 또는 가로(landscape)로 위치하게 할 수 있다. 이러한 전자 장치(200)의 위치 정보 또는 방향 정보는 적어도 하나 이상의 가속도 센서(240E), 자이로 센서(240B) 및 지자계 센서(미도시)를 통해 획득한 신호를 통해 판단할 수 있다.
전자 장치(200)가 전자 장치(200)의 위치 정보 또는 방향 정보가 지정된 위치 또는 방향에 있는지 여부를 판단하는 방법에 대해 전자 장치(200)의 움직임을 나타내는 오일러 각(Euler Angle)을 예를 들어 설명하면 다음과 같다. 전자 장치(200)의 키놀이(pitching) 각 및 옆놀이(rolling) 각을 적어도 하나 이상의 가속도 센서(240E), 자이로 센서(240B) 및 지자계 센서(미도시)를 통해 획득할 수 있다. 이때, 전자 장치(200)는 전자 장치(200)의 키놀이(pitching) 각이 수직(90°)에서 허용 범위 각(예를 들어, 90°± 10°) 이내이고, 전자 장치(200)의 옆놀이(rolling) 각이 수평(0°)에서 허용 범위 각(예를 들어, 0°± 10°) 이내이면 전자 장치(200)가 지정된 위치 또는 방향에 위치된 것으로 판단할 수 있다.
전자 장치(200)가 지정된 위치 또는 방향에 있다고 판단되지 않으면, 또는 전자 장치(200)가 지정된 위치 또는 방향을 소정 시간 이상 유지하지 않으면, 전자 장치(200)는 451 과정으로 분기하여 현재 수행 중인 해당 기능을 계속 유지할 수 있다.
전자 장치(200)가 지정된 위치 또는 방향에 있다고 판단되면, 전자 장치(200)는 443 과정에서, 프로세서(120)를 활성화(또는 인에이블(enable))시킬 수 있다. 예를 들어, 전자 장치(200)가 지정된 위치 또는 방향을 소정 시간 동안 유지하면, 전자 장치(200)는 프로세서(120)를 활성화(또는 인에이블) 할 수 있다.
전자 장치(200)는 445 과정에서, 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 활성화(또는 인에이블(enable))시킬 수 있다. 예를 들어, 전자 장치(200)는 443 과정에서, 프로세서(120)를 활성화시키고 나서 다음 과정으로 사용자의 입력을 수신할 수 있도록 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 활성화 시킬 수 있다. 다른 예에서, 전자 장치(200)가 지정된 위치 또는 방향에 있다고 판단되면, 전자 장치(200)는 프로세서(120) 및 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 동시에 활성화 시킬 수 있다.
적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)가 활성화되면, 전자 장치(200)는 447 단계에서, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 있는지 여부를 판단할 수 있다.
적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 입력되지 않는다고 판단되면, 전자 장치(200)는 451 단계로 분기하여 현재 수행 중인 해당 기능을 계속 유지할 수 있다.
적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 입력되면, 전자 장치(200)는 449 과정에서, 그립 정보를 판단할 수 있다. 프로세서(120)는 449 과정에서, 감지된 사용자 입력 신호에 기반하여 그립 정보를 판단할 수 있다. 그립 정보는 사용자의 전자 장치(200)에 대한 그립 형태를 포함하는 정보로서, 사용자가 전자 장치(200)를 잡은 손가락의 위치, 전자 장치(200)를 잡은 손가락의 개수와 같은 정보를 포함할 수 있다.
도 4c는 본 개시의 일 실시예에 따른 전자 장치(200)의 위치 정보 또는 방향 정보 또는 사용자 입력에 따른 전자 장치(200)를 제어 방법을 나타내는 순서도이다.
전자 장치(200)는 461 과정에서, 전자 장치(200)의 상태 정보를 감지할 수 있다. 전자 장치(200)의 상태 정보는 전자 장치(200)의 위치(position, 또는 자세) 또는 방향(orientation)에 관한 정보이다. 전자 장치(200)가 지정된 위치(position, 또는 자세) 또는 방향(orientation)에 있는지 여부를 감지할 수 있다. 예를 들어, 전자 장치(200)는 461 과정에서, 적어도 하나 이상의 가속도 센서(240E), 자이로 센서(240B) 및 지자계 센서(미도시)를 통해 획득한 전자 장치(200)의 위치 정보 또는 방향 정보에 따라 전자 장치(200)가 지정된(specified) 위치 또는 방향에 있는지 여부를 감지할 수 있다.
전자 장치(200)의 상태 정보를 감지하여 전자 장치(200)가 지정된 위치 또는 방향에 있다고 판단되면, 전자 장치(200)는 463 과정에서, 지정된 입력이 획득되었는지 판단할 수 있다. 예를 들면, 전자 장치(200)은 지정 시간 내에 전자 장치(200)의 측면에 위치한 센서 패드(253)로부터 지정된 횟수의 또는 지정된 시간 이상의 연속적인 사용자 입력이 있는지 여부를 판단할 수 있다.예를 들면, 지정 시간 내에 전자 장치(200)의 측면에 위치한 센서 패드(253)로부터 지정된 횟수(예: 2회 이상)의 사용자 입력이 있는지를 판단할 수 있다. 전자 장치(200)는 465 과정에서, 지정된 입력 외의 입력이 있는지 판단할 수 있다. 예를 들면, 전자 장치는 지정된 입력 지점(예: 지정된 위치에 대응하는 입력) 외의 사용자 입력이 있는지 판단할 수 있다. 예컨대, 지정된 입력 지점 외의 사용자 입력은 센서 패드(253)외에 터치 패널(252) 상의 불규칙한 멀티 터치(예, 3개 이상의 터치) 또는 센서 패드(253) 상 사용자 입력이 없는데 외부환경으로 인한 사용자 입력일 수 있다. 예를 들어, 터치 패널(252) 상에 물(water) 또는 헝겊에 의한 3개 이상의 불규칙한 멀티 터치 또는 헝겊에 의한 복수의 호버링(hovering) 동작 또는 빛(예: 삼파장, LED 등)에 의해 지정된 입력 지점과 근접한 센서 패드에 동일한 입력 신호가 동시에 발생하면, 전자 장치(200)는 지정된 사용자 입력이 있어도 애플리케이션 또는 기능을 실행하지 않게 함으로써 오동작을 방지할 수 있다. 한 실시예에 따르면, 전자 장치(200)는 지정된 횟수의 사용자 입력이 지정된 시간 간격으로 발생하는지 판단할 수 있다.
지정된 입력 지점 외의 사용자 입력이 없으면, 전자 장치(200)는 467 과정에서, 전자 장치(200)에 포함된 애플리케이션 또는 기능을 실행할 수 있다. 예를 들어, 전자 장치(200)에 포함된 애플리케이션 또는 기능을 실행은 카메라 기능의 실행일 수 있다. 지정된 입력 지점 외의 사용자 입력이 있으면, 전자 장치(200)는 전자 장치(200)에 포함된 애플리케이션 또는 기능을 실행하지 않는다.
지정 시간 내에 제 1 시간 간격으로 전자 장치(200)의 측면에 위치한 센서 패드(253)로부터 2회의 사용자 입력이 없으면, 전자 장치(200)는 469 과정에서, 지정 시간을 초과하였는지 판단한다.
지정 시간을 초과하지 않았으면, 전자 장치(200)는 471 과정에서, 사용자 입력을 1회 인식하였는지 판단한다. 지정 시간을 초과하였으면, 전자 장치(200)는 전자 장치(200)에 포함된 애플리케이션 또는 기능을 실행하지 않는다.
사용자 입력을 1회 인식하면, 전자 장치(200)는 473 과정에서, 제 2 시간 간격으로 사용자 입력이 추가되었는지 판단한다. 제 2 시간 간격은 제 1 시간 간격과 동일하거나 작을 수 있다. 사용자 입력을 1회 인식하지 못한 경우, 전자 장치(200)는 전자 장치(200)에 포함된 애플리케이션 또는 기능을 실행하지 않는다.
사용자 입력을 1회 인식 후 제 2시간 간격으로 추가입력이 없었으나 가속도 센서등의 센서 동작을 입력 받으면 전자장치(200)는 465 과정으로 분기한다.
제 2 시간 간격으로 사용자 입력이 추가되면, 전자 장치(200)는 465 과정으로 분기한다. 제 2 시간 간격으로 사용자 입력이 추가되지 않으면(예, 제 2시간 간격보다 작거나 크게 시용자 입력 추가), 전자 장치(200)는 전자 장치(200)에 포함된 애플리케이션 또는 기능을 실행하지 않는다. 한 실시예에서, 사용자 입력 신호에 따른 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)의 입력 효율을 향상시키기 위해, 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)에서 신호 수신시 바이어스 트래킹(bias tracking) 방법 또는 저역 필터(low pass filter)를 이용할 수 있다. 예를 들어, 바이어스 트래킹(bias tracking) 방법은 기준 노이즈를 0으로 가정하고, 사용자 입력 발생 시 임계값을 넘는 신호를 피크로 인식하여 사용자 입력으로 인식하는 방법이다. 저역 필터를 이용하여 저역 대역의 신호를 걸러내서, 노이즈를 줄여 사용자 입력 신호를 효율적으로 수신할 수 있다.
도 5는 본 개시의 다양한 실시예에 따른 카메라 기능 제어 방법을 나타내는 도면이다.
사용자(10)가 전자 장치(200)를 지정된 위치 또는 방향에 위치하게 하면, 전자 장치(200)는 적어도 하나 이상의 가속도 센서(240E), 자이로 센서(240B) 및 지자계 센서(미도시)를 통해 획득한 신호를 통해 지정된 위치 또는 방향에 있는지 여부 판단할 수 있다. 전자 장치(200)는 지정된 위치 또는 방향에 있다고 판단되면 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 사용자 입력 신호를 수신할 수 있다. 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호 및 전자 장치(200)의 위치 정보 또는 방향 정보에 따라 그립 정보를 판단할 수 있다.
도 5에서, 사용자(10)가 전자 장치(200)를 가로(landscape)방향으로 그립하고 카메라 모듈(291)을 피사체(500)로 향하게 하면, 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 사용자 입력 신호를 수신한다. 이때, 사용자(10)가 양손으로 전자 장치(200)의 모서리를 들게 되면, 전자 장치(200)에 사용자 입력 신호를 수신하는 센서 패드와 사용자 입력 신호를 수신하지 않는 센서 패드가 존재하게 된다. 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신된 사용자 입력 신호에 따라 그립 정보를 판단한다. 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 수신한 사용자 입력 신호를 비교하여 사용자(10)의 전자 장치(200)에 대한 그립 형태, 사용자(10)가 전자 장치(200)를 잡는 손가락의 위치, 전자 장치(200)를 잡은 손가락의 개수, 사용자(10)가 전자 장치(200)를 잡은 손가락의 위치, 전자 장치(200)를 잡은 손가락의 개수를 파악할 수 있다.
예를 들어, 사용자(10)가 양손으로 전자 장치(200)의 모서리를 들게 되면, 제 1 센서 패드(2531), 제 3 센서 패드(2533), 제 4 센서 패드(2534) 및 제 6 센서 패드(2536)는 사용자 입력 신호를 설정값 이상으로 수신하고, 제 2 센서 패드(2532), 제 5 센서 패드(2535)는 사용자 입력 신호를 수신하지 못하거나 설정값 이하로 수신할 수 있다. 여기서, 설정값은 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통한 사용자 입력의 유무를 판단하는 기준값과 같거나 클 수 있다. 전자 장치(200)는 제 1 센서 패드(2531), 제 3 센서 패드(2533), 제 4 센서 패드(2534) 및 제 6 센서 패드(2536)를 통해 수신한 사용자 입력 신호와 제 2 센서 패드(2532), 제 5 센서 패드(2535)를 통해 수신한 사용자 입력 비교하여 그립 정보를 판단한다. 도 5를 예를 들면, 전자 장치(200)는 사용자(10)의 양손으로 전자 장치(200)의 네 모퉁이를 잡고 있는 것을 그립 정보로서 판단할 수 있다. 다시 말해서, 전자 장치(200)는 사용자 입력 신호 및 전자 장치(200)의 위치 정보 또는 방향 정보 중 적어도 하나에 기반하여 그립 정보를 판단할 수 있으며, 전자 장치(200)는 그립 정보에 기반하여 카메라 모듈(291)을 활성화시켜 카메라 기능을 실행할 수 있다. 또는 전자 장치(200)의 지정된 센서 패드(예: 제3 센서 패드(2533))에 지정된 사용자 입력(예: 더블탭, 롱탭 또는 스와이프)이 수신되는 경우, 전자 장치(200)는 카메라 모듈(291)을 활성화시켜 카메라 기능을 실행 할 수 있다. 카메라 기능이 실행된 상태에서 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 설정값 이상으로 수신되는 경우, 전자 장치(200)는 카메라 모듈(291)을 통해 이미지를 획득하는 기능, 카메라 모듈(291)을 통해 피사체를 줌-인(zoom-in), 줌-아웃(zoom-out)하는 기능, 초점에 관련된 기능(예: 반셔터 기능), 카메라의 메뉴를 선택하는 기능, 전후면 카메라를 전환하는 기능, 지정된 기능을 자동으로 실행하는 기능 중 어느 하나를 제공할 수 있다. 예를 들어, 카메라 기능이 실행된 상태에서, 제 3 센서 패드(2533)를 통해 사용자 입력 신호를 수신하면, 전자 장치(200)는 카메라 모듈(291)을 통해 이미지를 획득하는 기능을 제공할 수 있다. 예를 들어, 카메라 기능이 실행된 상태에서, 제 1 센서 패드(2531)을 통해 사용자 입력 신호를 수신하면, 전자 장치(200)는 카메라 모듈(291)을 통해 피사체를 줌-인(zoom-in)하는 기능을 제공할 수 있다. 예를 들어, 카메라 기능이 실행된 상태에서, 제 2 센서 패드(2532)을 통해 사용자 입력 신호를 수신하면, 전자 장치(200)는 카메라 모듈(291)을 통해 피사체를 줌-아웃(zoom-out)하는 기능을 제공할 수 있다. 이때, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호를 감지하는 방법은 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)에 가까운 전자 장치(200)의 측면을 사용자(10)가 접촉하는 방법도 있지만, 사용자(10)가 그립 상태를 해제하는 것도 사용자 입력 신호를 감지하는 방법일 수 있다. 예를 들어, 도 5와 같이, 사용자(10)가 전자 장치(200)를 잡은 상태에서, 제 3 센서 패드(2533)를 사용자(10)가 접촉(또는 터치)을 해제했다 다시 접촉(또는 터치)하면, 전자 장치(200)는 카메라 모듈(291)을 통해 이미지를 획득하는 기능을 제공할 수 있다. 다른 예에서, 도 5와 같이, 사용자(10)가 전자 장치(200)를 잡은 상태에서, 제 3 센서 패드(2533)를 사용자(10)가 접촉(또는 터치)을 해제하면, 전자 장치(200) 접촉(또는 터치)을 해제하는 것을 사용자 입력 신호로 판단하여 전자 장치(200)는 카메라 모듈(291)을 통해 이미지를 획득하는 기능을 제공할 수 있다.
또, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호를 감지하는 방법은 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)에 가까운 전자 장치(200)의 측면을 사용자(10)가 소정 시간 이상 접촉을 유지(예, 롱 프레스(long press))하면 실행되는 기능을 계속 유지할 수 있다. 예를 들어, 제 1 센서 패드(2531)을 사용자(10)가 소정 시간 이상 접촉을 유지 (예, 롱 프레스(long press))하면, 전자 장치(200)는 최대치까지 피사체를 줌-인할 수 있다. 예를 들어, 제 2 센서 패드(2532)을 사용자(10)가 소정 시간 이상 접촉을 유지 (예, 롱 프레스(long press))하면, 전자 장치(200)는 최대치까지 피사체를 줌-아웃할 수 있다.
도 6은 본 개시의 다양한 실시예에 따른 미디어 기능 제어 방법을 나타내는 도면이다.
전자 장치(200)는 전자 장치(200)의 적어도 한 측면부에 대응하는 사용자 입력(예: 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력)에 따라 그립 정보를 판단할 수 있다. 예를 들면, 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신된 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다. 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 수신한 사용자 입력 신호를 비교하여 사용자(10)의 전자 장치(200)에 대한 그립 형태, 사용자(10)가 전자 장치(200)를 잡는 손가락의 위치, 전자 장치(200)를 잡은 손가락의 개수를 파악할 수 있다.
예를 들어, 사용자(10)가 양손으로 전자 장치(200)의 모서리를 들게 되면, 제 1 센서 패드(2531), 제 3 센서 패드(2533), 제 4 센서 패드(2534) 및 제 6 센서 패드(2536)는 사용자 입력 신호를 설정값 이상으로 수신하고, 제 2 센서 패드(2532), 제 5 센서 패드(2535)는 사용자 입력 신호를 수신하지 못하거나 설정값 이하로 수신할 수 있다. 여기서, 설정값은 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통한 사용자 입력의 유무를 판단하는 기준값과 같거나 클 수 있다. 전자 장치(200)는 제 1 센서 패드(2531), 제 3 센서 패드(2533), 제 4 센서 패드(2534) 및 제 6 센서 패드(2536)를 통해 수신한 사용자 입력 신호와 제 2 센서 패드(2532), 제 5 센서 패드(2535)를 통해 수신한 사용자 입력 비교하여 그립 정보를 판단한다. 도 6을 예를 들면, 전자 장치(200)는 사용자(10)의 양손으로 전자 장치(200)의 네 모퉁이를 잡고 있는 것을 그립 정보로서 판단할 수 있다. 다시 말해서, 전자 장치(200)는 사용자 입력 신호에 기반하여 그립 정보를 판단할 수 있으며, 전자 장치(200)는 그립 정보에 기반하여 제공 중인 미디어(610)를 제어하는 기능을 실행할 수 있다. 예를 들어, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 수신되는 경우, 전자 장치(200)는 실행 중인 미디어(610)의 재생 진행을 변경하고, 이를 프로그레스 바 형태의 사용자 인터페이스(User Interface, 620)에 반영하여 표시할 수 있다. 전자 장치(200)는 사용자 입력 신호에 기반하여 실행 중인 미디어(620)의 재생 진행을 소정 시간 앞으로 가기, 소정 시간 뒤로 가기, 재생 속도 빠르게 가기, 재생 속도 느리게 가기, 재생 정지 동작을 수행할 수 있다.
예를 들어, 제 3 센서 패드(2533)를 통해 사용자 입력 신호를 수신하면, 전자 장치(200)는 실행 중인 미디어(620)의 재생 진행을 소정 시간 “앞으로 가기”로 제어하거나 실행 중인 미디어(620)의 재생 진행의 속도를 빠르게 제어할 수 있다.
예를 들어, 제 1 센서 패드(2531)을 통해 사용자 입력 신호를 수신하면, 전자 장치(200)는 실행 중인 미디어(620)의 재생 진행을 소정 시간 “뒤로 가기”로 제어하거나 실행 중인 미디어(620)의 재생 진행의 속도를 느리게 제어할 수 있다.
이때, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호를 수신하는 방법은 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)에 가까운 전자 장치(200)의 측면을 사용자(10)가 접촉하는 방법도 있지만, 사용자(10)가 그립 상태를 해제하는 것도 사용자 입력 신호를 감지하는 방법일 수 있다. 예를 들어, 도 6와 같이, 사용자(10)가 전자 장치(200)를 잡은 상태에서, 제 3 센서 패드(2533)를 사용자(10)가 접촉(또는 터치)을 해제했다 다시 접촉(또는 터치)하면, 전자 장치(200)는 실행 중인 미디어(620)의 재생 진행을 소정 시간 “앞으로 가기”로 제어하거나 실행 중인 미디어(620)의 재생 진행의 속도를 빠르게 제어할 수 있다.
다른 예에서, 도 6과 같이, 사용자(10)가 전자 장치(200)를 잡은 상태에서, 제 3 센서 패드(2533)를 사용자(10)가 접촉(또는 터치)을 해제하면, 전자 장치(200) 접촉(또는 터치)을 해제하는 것을 사용자 입력 신호로 판단하여 실행 중인 미디어(620)의 재생 진행을 소정 시간 “앞으로 가기”로 제어하거나 실행 중인 미디어(620)의 재생 진행의 속도를 빠르게 제어할 수 있다.
또, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호를 감지하는 방법은 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)에 가까운 전자 장치(200)의 측면을 사용자(10)가 소정 시간 이상 접촉을 유지(예, 롱 프레스(long press))하면 실행되는 기능을 계속 유지할 수 있다. 예를 들어, 제 3 센서 패드(2533)을 사용자(10)가 소정 시간 이상 접촉을 유지 (예, 롱 프레스(long press))하면, “앞으로 가기” 기능을 유지할 수 있다.
도 7a 내지 도 7b는 본 개시의 다양한 실시예에 따른 전자 장치(200)의 디스플레이(260)에 표시된 정보(710)를 제어하는 방법을 나타내는 도면이다.
도 7a에서, 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
예를 들어, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 수신되는 경우, 사용자 입력 신호에 기반하여 디스플레이(260)에 표시된 정보(710)를 스크롤(scroll, 720)하는 기능을 제공할 수 있다.
예를 들어, 사용자가 제 1 센서 패드(2531), 제 2 센서 패드(2532) 및 제 3 센서 패드(2533)를 순차적으로 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 디스플레이(260)에 표시된 정보(710)를 아래 방향으로 스크롤(scroll, 720)하는 기능을 제공할 수 있다. 예를 들어, 사용자가 제 3 센서 패드(2533), 제 2 센서 패드(2532) 및 제 1 센서 패드(2531)를 순차적으로 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 디스플레이(260)에 표시된 정보(710)를 위 방향으로 스크롤(scroll, 720)하는 기능을 제공할 수 있다. 다른 예에서, 사용자가 전자 장치(200)의 모서리 일 부분을 슬라이드하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 디스플레이(260)에 표시된 정보(710)를 스크롤(scroll, 720)하는 기능을 제공할 수 있다.
도 7b에서, 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
예를 들어, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 수신되는 경우, 사용자 입력 신호에 기반하여 디스플레이(260)에 표시된 정보(710)를 확대 또는 축소하는 기능(730)을 제공할 수 있다.
예를 들어, 사용자가 제 3 센서 패드(2533) 및 제 4 센서 패드(2534)를 동시에 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 디스플레이(260)에 표시된 정보(710)를 확대 하거나 축소하는 기능(730)을 제공할 수 있다. 사용자가 전자 장치(200)의 모서리 일 부분을 멀티 터치하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 디스플레이(260)에 표시된 정보(710)를 확대 또는 축소하는 기능(730)을 제공할 수 있다.
도 8a 내지 도 8b는 본 개시의 다양한 실시예에 따른 전자 장치(200)의 디스플레이(260)에 표시된 정보를 제어하는 방법을 나타내는 도면이다.
도 8a에서, 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
예를 들어, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 수신되는 경우, 사용자 입력 신호에 기반하여 디스플레이(260)에 표시된 정보(810)를 전환하는 기능을 제공할 수 있다.
예를 들어, 사용자가 제 1 센서 패드(2531)를 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 디스플레이(260)에 현재 표시된 정보(810)에서 다음에 표시될 정보(820)를 제공할 수 있다. 다른 예에서, 사용자가 전자 장치(200)의 모서리 일 부분을 터치하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 디스플레이(260)에 현재 표시된 정보(810)에서 다음에 표시될 정보(820)를 표시하는 기능을 제공할 수 있다.
도 8b에서, 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
예를 들어, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 수신되는 경우, 사용자 입력 신호에 기반하여 디스플레이(260)에 표시된 정보(810)를 전환하는 기능을 제공할 수 있다.
예를 들어, 사용자가 제 2 센서 패드(2532)를 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 디스플레이(260)에 현재 표시된 정보(810)에서 이전에 표시된 정보(830)를 제공할 수 있다. 다른 예에서, 사용자가 전자 장치(200)의 모서리 일 부분을 터치하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 디스플레이(260)에 현재 표시된 정보(810)에서 이전에 표시될 정보(830)를 표시하는 기능을 제공할 수 있다.
도 8a 내지 도 8b에서, 디스플레이(260)에 표시된 정보를 전환하는 기능은, 예를 들어, 웹 브라우저에서 앞으로, 뒤로 동작과 맵핑(mapping)될 수 있으며. 다른 예에서, 디스플레이(260)에 표시된 정보를 전환하는 기능은 전자 문서에서 다음 화면, 이전 화면을 표시하는 동작과 맵핑될 수 있다.
도 9는 본 개시의 다양한 실시예에 따른 애플리케이션 제어 방법을 나타내는 도면이다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
예를 들어, 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 수신되는 경우, 사용자 입력 신호에 기반하여 백그라운드에서 제공 중인 애플리케이션을 포어그라운드에서 실행하도록 변경하거나 포어그라운드에서 제공 중인 애플리케이션을 백그라운드에서 제공하도록 변경하는 동작일 수 있다.
예를 들어, 사용자가 제 1 센서 패드(2531)를 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 현재 포어그라운드에서 제공 중인 제 1 애플리케이션(910)을 대신하여 백그라운드에서 제공 중인 제 2 애플리케이션(920)을 포어그라운드에 제공할 수 있다. 예를 들어, 사용자가 제 4 센서 패드(2534)를 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 현재 포어그라운드에서 제공 중인 제 1 애플리케이션(910)을 대신하여 백그라운드에서 제공 중인 제 3 애플리케이션(930)을 포어그라운드에 제공할 수 있다.
도 10은 본 개시의 다양한 실시예에 따른 탭 메뉴(1010) 제어 방법을 나타내는 도면이다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
전자 장치(200)는 사용자가 선택할 수 있는 적어도 하나 이상의 목록(1011, 1012, 1013, 1014)을 포함하는 탭 메뉴(1010)를 표시할 수 있다. 예를 들어, 탭 메뉴(1010)에 포함된 적어도 하나 이상의 목록(1011, 1012, 1013, 1014)은 전화 연결(1011), 장치 관리(1012), 계정 설정(1013) 또는 다른 탭 메뉴 목록 보기(1014)일 수 있으나 목록을 본 개시에서 한정하는 것은 아니다. 탭 메뉴(1010)에 포함된 적어도 하나 이상의 목록(1011, 1012, 1013, 1014)은 사용자 설정에 의해 변경될 수 있다.
탭 메뉴에 포함된 각각의 목록들은 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)와 맵핑될 수 있다. 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 수신한 사용자 입력 신호에 기반하여 탭 메뉴에 포함된 목록을 제어할 수 있다.
예를 들어, 사용자가 제 1 센서 패드(2531)를 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 제 1 센서 패드(2531)에 맵핑된 탬 메뉴인 전화 연결(1011)을 제어할 수 있다. 예를 들어, 사용자가 제 2 센서 패드(2532)를 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 제 2 센서 패드(2532)에 맵핑된 탬 메뉴인 장치 관리(1012)를 제어할 수 있다. 예를 들어, 사용자가 제 3 센서 패드(2533)를 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 제 3 센서 패드(2533)에 맵핑된 탬 메뉴인 계정 설정(1013)를 제어할 수 있다. 예를 들어, 사용자가 제 4 센서 패드(2534)를 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 제 4 센서 패드(2534)에 맵핑된 탬 메뉴인 다른 탭 메뉴 목록 보기(1014)를 제어할 수 있다.
도 11은 본 개시의 다양한 실시예에 따른 선택 리스트 제어 방법을 나타내는 도면이다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
전자 장치(200)는 적어도 하나 이상의 선택 가능한 리스트(1101, 1102, 1103, 1104, 1105, 1106, 1107, 1108, 1109)를 표시할 수 있다. 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호가 수신되는 경우, 전자 장치(100)는 사용자 입력 신호에 기반하여 선택 가능한 리스트들(1101, 1102, 1103, 1104, 1105, 1106, 1107, 1108, 1109) 중에서 적어도 하나 이상의 리스트(1101, 1102, 1103, 1104)를 선택하는 기능을 제공할 수 있다.
예를 들어, 사용자가 제 1 센서 패드(2531), 제 2 센서 패드(2532) 및 제 3 센서 패드(2533)를 순차적으로 접촉(또는 터치)하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 선택 가능한 리스트들(1101, 1102, 1103, 1104, 1105, 1106, 1107, 1108, 1109) 중에서 적어도 하나 이상의 리스트(1101, 1102, 1103, 1104)를 선택하는 기능을 제공할 수 있다. 다른 예에서, 사용자가 전자 장치(200)의 모서리 일 부분을 슬라이드하면, 전자 장치(200)는 수신된 사용자 입력 신호에 기반하여 선택 가능한 리스트들(1101, 1102, 1103, 1104, 1105, 1106, 1107, 1108, 1109) 중에서 적어도 하나 이상의 리스트(1101, 1102, 1103, 1104)를 선택하는 기능을 제공할 수 있다.
도 12는 본 개시의 다양한 실시예에 따른 전자 장치(200)의 출력 음량 제어 방법을 나타내는 도면이다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
전자 장치(200)는 그립 정보에 기반하여 스피커의 출력 음량을 변경하거나 무음으로 하는 기능을 실행할 수 있다. 예를 들어, 전자 장치(200)가 스피커로 전화 벨이나 소리를 출력할 있게 미리 설정된 경우라도, 전자 장치(200)는 그립 정보에 기반하여 스피커로 출력되지 않도록 기능을 제어할 수 있다.
도 13는 본 개시의 다양한 실시예에 따른 전자 장치(200)의 사운드 출력 장치 제어 방법을 나타내는 도면이다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
전자 장치(200)는 그립 정보에 기반하여 제 1 스피커(예, 리시버(282))를 이용한 사운드 출력 모드 또는 제 2 스피커(예, 스피커(284))를 이용한 사운드 출력 모드로 전환할 수 있다. 전자 장치(200)가 제 2 스피커(예, 스피커(284))를 이용하여 소리를 출력할 수 있게 미리 설정한 경우라도, 전자 장치(200)는 그립 정보에 기반하여 제 1 스피커(예, 리시버(282))를 이용한 사운드 출력 모드로 전환할 수 있도록 기능을 제어할 수 있다. 반대로, 전자 장치(200)가 제 1 스피커(예, 리시버(282))를 이용하여 소리를 출력할 수 있게 미리 설정한 경우라도, 전자 장치(200)는 그립 정보에 기반하여 2 스피커(예, 스피커(284))를 이용한 사운드 출력 모드로 전환할 수 있도록 기능을 제어할 수 있다.
예를 들어, 사용자(10)가 통화를 수신하기 위해 전자 장치(100)를 들어올리면, 전자 장치(200)는 제 2 스피커(예, 스피커(284))를 이용하여 소리를 출력할 수 있게 미리 설정한 경우라도 전자 장치(200)는 그립 정보에 기반하여 제 1 스피커(예, 리시버(282))를 이용한 사운드 출력 모드로 전환할 수 있도록 기능을 제어할 수 있다.
도 14는 본 개시의 다양한 실시예에 따른 전자 장치(200)의 화면 출력 제어 방법을 나타내는 도면이다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
전자 장치(200)는 그립 정보에 기반하여 전자 장치(200)의 화면 출력(1510) 회전 동작을 제어하는 기능을 실행할 수 있다. 전자 장치(200)의 위치 또는 방향에 따라 화면 출력(1510)을 회전할 수 있도록 미리 설정된 경우라도, 전자 장치(200)는 그립 정보에 기반하여 화면 출력(1510) 회전 동작을 무효화할 수 있거나 그립 정보에 기반하여 화면 회전 동작을 방지할 수 있다.
도 15는 본 개시의 다양한 실시예에 따른 전자 장치(200)의 디스플레이(260) 조도 제어 방법을 나타내는 도면이다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
전자 장치(200)는 그립 정보에 기반하여 디스플레이(260)의 조도(예를 들어, 밝기)를 조정하는 기능을 실행할 수 있다. 전자 장치(200)가 소정 시간 동안 디스플레이(260)를 턴-온(turn-on)시킬 수 있게 미리 설정한 경우라도, 전자 장치(200)는 그립 정보에 기반하여 디스플레이(260)를 그립 정보가 수신되는 동안은 계속 디스플레이(260)를 턴-온(turn-on)시킬 수 있게 제어할 수 있다. 예를 들어, 전자 장치(200)는 그립 정보에 기반하여 디스플레이(260)의 조도(예를 들어, 밝기)를 유지하는 기능을 실행할 수 있다. 예를 들어, 전자 장치(200)는 그립 정보에 기반하여 디스플레이(260)의 디밍(dimming)를 제어하는 기능을 실행할 수 있다. 예를 들어, 전자 장치(200)는 그립 정보에 기반하여 디스플레이(260)의 조명 출력 시간을 제어하는 기능을 실행할 수 있다.
도 16a 내지 도 16e는 본 개시의 다양한 실시예에 따른 전자 장치(200)의 표시 영역 제어 방법을 나타내는 도면이다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
전자 장치(200)는 그립 정보에 따라 전체 화면을 축소하여 디스플레이(260) 상의 소정 영역에 표시(1610)하거나, 그립 정보에 따라 디스플레이(260) 상에 소정의 오브젝트의 위치 혹은 형태를 변경하여 표시(1620)할 수 있다. 도 16a에서, 그립 정보에 따라 전체 화면을 축소하여 디스플레이(260) 상의 소정 영역에 표시(1610)하는 동작은 사용자가 왼손으로 전자 장치(200)를 잡은 것으로 그립 정보를 판단하면, 디스플레이(260) 좌측 영역에 전체 화면을 축소하여 표시(1610)하는 것을 포함할 수 있다. 그립 정보에 따라 전체 화면을 축소하여 디스플레이(260) 상의 소정 영역에 표시하는 동작은 사용자가 오른손으로 전자 장치(200)를 잡은 것으로 그립 정보를 판단하면, 디스플레이(260) 우측 영역에 전체 화면을 축소하여 표시하는 것을 포함할 수 있다. 도 16b에서, 그립 정보에 따라 디스플레이(260) 상에 소정의 오브젝트의 위치 혹은 형태를 변경하여 표시하는 동작은 사용자가 왼손으로 전자 장치(200)를 잡은 것으로 그립 정보를 판단하면, 디스플레이(260) 좌측 영역에 소정의 오브젝트(예, 윈도우(window), 또는 팝업-창, 1620)를 표시할 수 있다. 그립 정보에 따라 디스플레이(260) 상에 소정의 오브젝트 영역을 표시하는 동작은 사용자가 오른손으로 전자 장치(200)를 잡은 것으로 그립 정보를 판단하면, 디스플레이(260) 우측 영역에 소정의 오브젝트(예, 윈도우(window), 또는 팝업-창, 1620)를 표시할 수 있다. 예를 들어, 그립 정보에 따라 전체 화면을 축소하여 디스플레이(260) 상의 소정 영역에 표시하는 동작은 사용자가 오른손으로 전자 장치(200)를 잡은 것으로 그립 정보를 판단하면, 디스플레이(260) 우측 영역에 전체 화면을 축소하여 표시하는 것을 포함할 수 있다. 도 16c에서, 그립 정보에 따라 디스플레이(260) 상에 소정의 오브젝트의 위치 혹은 형태를 변경하여 표시하는 동작은 사용자가 왼손으로 전자 장치(200)를 잡은 것으로 그립 정보를 판단하면, 디스플레이(260) 좌측 영역에 소정의 오브젝트(예, 가상 키보드, 1630)를 표시할 수 있다. 도 16d에서, 그립 정보에 따라 디스플레이(260) 상에 소정의 오브젝트의 위치 혹은 형태를 변경하여 표시하는 동작은 사용자가 오른손으로 전자 장치(200)를 잡은 것으로 그립 정보를 판단하면, 디스플레이(260) 우측 영역에 소정의 오브젝트(예, 가상 키보드, 1630)를 표시할 수 있다. 디스플레이(260) 우측 영역에 소정의 오브젝트(가상 키보드, 윈도우(window), 또는 팝업-창)를 표시할 수 있다. 도 16e에서, 전자 장치(200)는 그립 정보가 사용자가 양손으로 전자 장치를 잡은 것에 대응하는 경우 지정된 오브젝트(예: 가상 키보드, 윈도우(window), 또는 팝업-창, 등)를 분할하여 디스플레이(260) 양쪽에 나누어 표시할 수 있다. 지정된 오브젝트를 분할하여 양쪽에 표시하는 것은 가상 키보드를 분할한 스플릿 키보드 형태일 수 있다.
도 17은 본 개시의 다양한 실시예에 따른 전자 장치(200)의 잠금 화면 제어 방법을 나타내는 도면이다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)를 통해 사용자 입력 신호를 수신하면, 사용자 입력 신호에 따라 잠금 화면(1710)을 해제하고 실행 중인 화면 또는 대기 화면(1720)을 표시할 수 있다. 전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)에 연속적 또는 불연속적으로 입력되는 사용자 입력 신호를 패턴으로 인식하여, 지정된 패턴과 일치하는 경우에만 잠금 화면(1710)을 해제하고 실행 중인 화면 또는 대기 화면(1720)을 표시할 수 있다.
도 18a 내지 도 18b는 본 개시의 다양한 실시예에 따른 전자 장치(200)의 표시 영역 제어 방법을 나타내는 도면이다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
도 18a에서, 전자 장치(200)는 그립 정보에 기반하여 디스플레이(260)의 제 1 영역(1810)에 표시 영역을 제공하고, 디스플레이(260)의 제 2 영역(1820), 제 3 영역(1830)에 표시 영역을 할 수 있다. 전자 장치(200)는 그립 정보에 기반하여 디스플레이(260)를 분할하여 적어도 하나 이상의 정보를 표시할 수 있다.사용자 입력 신호의 입력 위치가 제 1 영역(1810)에 대응하는 경우, 사용자 입력 신호를 통해 제 1 영역(1810)의 기능을 제어할 수 있다. 예를 들어, 제 1 영역(1810)을 제어할 수 있는 제 1 센서 패드(2531) 또는 제 4 센서 패드(2534)를 통해 사용자 입력 신호가 수신되는 경우 제 1 영역(1810)의 기능을 제어할 수 있다. 사용자 입력 신호의 입력 위치가 제 2 영역(1820)에 대응하는 경우, 사용자 입력 신호를 통해 제 2 영역(1820)의 기능을 제어할 수 있다. 예를 들어, 제 2 영역(1820)을 제어할 수 있는 제 2 센서 패드(2532) 또는 제 5 센서 패드(2535)를 통해 사용자 입력 신호가 수신되는 경우 제 2 영역(1820)의 기능을 제어할 수 있다. 사용자 입력 신호의 입력 위치가 제 3 영역(1830)에 대응하는 경우, 사용자 입력 신호를 통해 제 3 영역(1830)의 기능을 제어할 수 있다. 예를 들어, 제 3 영역(1830)을 제어할 수 있는 제 3 센서 패드(2533) 또는 제 6 센서 패드(2536)를 통해 사용자 입력 신호가 수신되는 경우 제 3 영역(1830)의 기능을 제어할 수 있다.
도 18b에서, 전자 장치(200)는 사용자 입력 신호의 입력 위치가 제 4 영역(1840)에 대응하는 경우, 사용자 입력 신호를 통해 제 4 영역(1840)의 기능을 제어할 수 있다. 예를 들어, 제 4 영역(1840)을 제어할 수 있는 제 1 센서 패드(2531) 또는 제 4 센서 패드(2534)를 통해 사용자 입력 신호가 수신되는 경우 제 3 영역(1830)의 기능을 제어할 수 있다. 사용자 입력 신호의 입력 위치가 제 4 영역(1840)에 대응하는 경우, 사용자 입력 신호를 통해 제 4 영역(1840)의 기능을 제어할 수 있다. 예를 들어, 제 4 영역(1840)을 제어할 수 있는 제 3 센서 패드(2533) 또는 제 6 센서 패드(2536)를 통해 사용자 입력 신호가 수신되는 경우 제 3 영역(1830)의 기능을 제어할 수 있다. 이와 같이, 전자 장치(200)가 그립 정보에 기반하여 디스플레이(260)의 센서 패드에 대응되는 2개 또는 3개의 표시 영역을 가로로 분할 표시 영역을 제공하고. 센서 패드를 이용하여 표시 영역을 제어하는 것은 예시에 불과하며, 본 개시의 기술적 사상을 이에 제한하지 않는다. 예를 들어, 전자 장치는 3개 이상 표시 영역을 가로 또는 세로 분할하여 표시 영역을 제공하고. 센서 패드를 이용하여 표시 영역을 제어할 수 있다.
도 19는 본 개시의 다양한 실시예에 따른 애플리케이션 제어 방법을 나타내는 도면이다.
전자 장치(200)는 적어도 하나 이상의 센서 패드(2531, 2532, 2533, 2534, 2535, 2536)로부터 수신한 사용자 입력 신호에 따라 그립 정보를 판단할 수 있다.
전자 장치(200)는 사용자 입력 신호에 기반하여 실행 중인 애플리케이션 GUI 요소(1910)를 제어할 수 있다. 전자 장치(200)는 사용자 입력 신호에 기반하여 실행 중인 게임 애플리케이션의 GUI 요소(1910)를 제어할 수 있다. 이때, 애플리케이션은 게임일 수 있고, GUI 요소(1910)는 게임 내의 표시되는 캐릭터일 수 있다.
도 20a 내지 도 20c는 본 개시의 다양한 실시예에 따른 전자 장치(200)의 기능 제공 방법을 나타내는 순서도이다.
전자 장치(200)는 적어도 하나 이상의 가속도 센서(240E), 자이로 센서(240B) 및 지자계 센서(미도시)를 통해 획득한 신호를 통해 지정된 위치 또는 방향에 있는지 여부 판단할 수 있다. 예컨대, 전자 장치(200)는 일체로 구성된 디스플레이(260)가 전자 장치(200)를 감싸는 형상일 수 있다. 전자 장치(200)는 좌우측면에 사용자 입력을 수신할 수 있는 터치 패널(252)을 포함할 수 있다.
도 20a에서,전자 장치(200)는 2001 과정에서, 전자 장치(200)의 일 측으로부터 사용자에 의한 복수의 터치 입력 영역에 대한 정보를 수집할 수 있다. 해당 영역은 사용자가 전자 장치(200)를 파지했을 때 파지 상태에 따라 전자 장치(200) 측면에 감지된 손가락(손의 일부)의 접촉면이 될 수 있다.
전자 장치(200)는 2003 과정에서, 수집한 복수의 측면 터치 영역 정보에 기반하여 디스플레이(260) 영역 내에 오브젝트를 표시하기 위한 후보 영역을 결정한다. 예를 들어, 측면에 감지된 손가락의 접촉면 주변의 디스플레이(260) 일부 영역을 특정 오브젝트를 표시하기 위한 후보 영역으로 설정할 수 있다. 전자 장치(200) 우측면에 한 개의 접촉 영역이 감지되고, 좌측면에 세 개의 접촉 영역이 감지 되었다면, 우측면 접촉 영역 주변의 디스플레이(260) 일부 영역 한 개와 좌측면 접촉 영역 주변의 디스플레이(260) 일부 영역 세 개를 오브젝트를 표시할 후보 영역으로 결정할 수 있다.
전자 장치(200)는 2005 과정에서, 전자 장치(200)의 상태 정보를 수집한다. 예를 들어, 전자 장치(200)의 상태 정보는 화면에 표시되는 애플리케이션 정보, 가속도 센서(240E), 자이로 센서(240B), 또는 지자기 센서(미도시)를 통해 알 수 있는 전자 장치(200)의 위치(position, 또는 자세) 또는 방향(orientation) 정보(예, 가로, 세로, 움직임 등) 또는 그립 센서(240F)를 통해 알 수 있는 전자 장치(200)의 파지된 상태 정보 등을 포함할 수 있다.
전자 장치(200)는 2007 과정에서, 수집한 사용자에 의한 복수의 터치 입력 정보 또는 전자 장치(200)의 상태 정보를 기반으로 결정된 후보 영역 중, 오브젝트를 표시하기 위한 영역을 결정한다. 예를 들어, 전자 장치(200)가 세로 방향 자세를 유지하고 있고, 카메라 애플리케이션의 화면에 표시되고, 복수의 측면 터치 영역 정보를 기반으로 엄지 손가락의 위치가 우측 접촉면이라고 판단된 경우, 상기 결정된 후보 영역 중 우측 접촉면 주변의 디스플레이(260) 일부와 관련된 적어도 하나의 후보 영역을 촬영 기능 버튼이 표시될 영역으로 결정할 수 있다. 이와 같이 전자 장치(200)의 상태 정보와 측면 접촉면 정보를 이용하여 최적의 오브젝트 표시 위치를 결정할 수 있다.
전자 장치(200)는 2007 과정에서, 결정된 영역에 오브젝트를 표시할 수 있다.
도 20b에서, 전자 장치(200)는 2011 과정에서, 실행 중인 애플리케이션 정보에 대한 오브젝트 생성 조건을 확인한다. 예를 들어, 오브젝트 생성 조건은 측면 터치 입력으로 트리거할 기능 정보가 무엇인지, 전자 장치(200)의 자세(예: 가로, 세로, 움직임 등) 조건은 무엇인지, 전자 장치(200)의 각 자세에 대한 버튼 표시 영역의 우선 순위는 어느 영역인지, 입력된 측면 터치 영역의 패턴에 대한 우선 순위는 어느 영역인지 등을 확인할 수 있다.
전자 장치(200)는 2013 과정에서, 전자 장치(200)의 상태가 제 1 조건인지 여부를 판단한다. 예를 들어, 전자 장치(200)가 세로 방향으로 있는 경우를 제 1 조건으로 설정할 수 있다. 이는 예시에 불과할 뿐이고, 전자 장치(200)가 세로 방향으로 있는 경우를 제 1 조건으로 한정하는 것은 아니다. 추가적으로 또는 대체적으로, 전자 장치(200)가 가로 방향으로 있는 경우를 제 1 조건으로 설정할 수 있다.
전자 장치(200)는 2015 과정에서, 전자 장치(200)의 상태가 제 1 조건을 만족한다면 해당 조건일 때 우선 순위가 높은 제 1 후보 영역을 오브젝트 표시 영역으로 결정할 수 있다.
제 1 조건을 만족하지 않는다면(예, 제 2 조건을 만족한다면), 전자 장치(200)는 2017 과정에서, 해당 조건일 때 우선 순위가 높은 제 2 후보 영역을 오브젝트 표시 영역으로 결정할 수 있다.
전자 장치(200)는 2019 과정에서, 결정된 오브젝트 표시 영역에 오브젝트를 표시할 수 있다. 전자 장치(200)는 오브젝트 표시 동작(2009)을 진행하기 전에 제스처 센서(240A)를 통해 전자 장치(200)의 정적인 포지션을 감지하여, 사용자의 기능 이용 준비 상태(예, 카메라 모듈(291)을 이용한 촬영이 준비된 상태)를 판단하고, 사용자의 기능을 이용할 수 있는 상태(예, 카메라 모듈(291)을 이용한 촬영이 준비된 상태)라고 판단될 경우 오브젝트 표시를 위한 동작(2001,2003,2005,2007)을 진행할 수 있다.
전자 장치(200)는 2003 과정에서, 전자 장치(200)는 디스플레이(200) 영역 내에 오브젝트를 표시하기 위한 후보 영역을 결정할 수 있다.
도 20c에서, 전자 장치(200)는 2021 과정에서, 수집한 사용자에 의한 복수의 터치 입력 정보 또는 전자 장치(200)의 상태 정보를 기반으로 오브젝트의 표시 영역을 결정되면 결정된 영역에 오브젝트를 표시할 수 있다.
전자 장치(200)는 2023 과정에서, 오브젝트 표시 영역과 관련된 측면 터치 영역의 입력이 해제 되었는지 판단한다. 한 실시예에 따르면, 전자 장치(200)는 2023 과정에서, 오브젝트 표시 영역과 관련된 측면 터치 영역의 입력이 압력을 가하는 입력인지 판단한다. 한 실시예에 따르면, 전자 장치(200)는 2023 과정에서, 오브젝트 표시 영역과 관련된 측면 터치 영역의 입력이 슬라이딩 입력인지 판단한다. 한 실시예에 따르면, 전자 장치(200)는 2023 과정에서, 오브젝트 표시 영역과 관련된 측면 터치 영역의 입력이 스윕 입력인지 판단한다. 한 실시예에 따르면, 전자 장치(200)는 2023 과정에서, 오브젝트 표시 영역과 관련된 측면 터치 영역의 입력이 탭 입력인지 판단한다. 한 실시예에 따르면, 전자 장치(200)는 2023 과정에서, 오브젝트 표시 영역과 관련된 측면 터치 영역의 입력이 더블 탭 입력인지 판단한다. 한 실시예에 따르면, 전자 장치(200)는 플렉서블 디스플레이(260)를 포함하고, 2023 과정에서, 오브젝트 표시 영역과 관련된 측면 터치 영역의 입력이 플렉서블 디스플레이(260)를 비트는 입력인지 판단한다. 한 실시예에 따르면, 전자 장치(200)는 플렉서블 디스플레이(260)를 포함하고, 2023 과정에서, 오브젝트 표시 영역과 관련된 측면 터치 영역의 입력이 플렉서블 디스플레이(260)를 잡아 당기는 입력인지 판단한다.한 실시예에 따르면, 전자 장치(200)는 플렉서블 디스플레이(260)를 포함하고, 2023 과정에서, 오브젝트 표시 영역과 관련된 측면 터치 영역의 입력이 플렉서블 디스플레이(260)를 구부리는 입력인지 판단한다.
전자 장치(200)는 2023 단계에서, 오브젝트 표시 영역과 관련된 측면 터치 영역의 입력이 해제되었다고 판단되면, 해제된 시간이 지정된 시간을 경과하였는지 여부를 판단한다.
전자 장치(200)는 2029 단계에서, 해제된 시간이 지정된 시간을 경과되지 않았다고 판단되면, 지정된 시간 내에 사용자 입력 신호가 재입력되었는지 여부를 판단한다.
전자 장치(200)는 2029 단계에서, 지정된 시간 내에 사용자 입력 신호가 재입력여부를 판단한다. 지정된 시간 내에 사용자 입력 신호가 재입력되면, 전자 장치(200)는 2031 단계에서, 오브젝트에 맵핑된 기능을 제공한다.
전자 장치(200)는 2027 단계에서, 해제된 시간이 지정된 시간을 경과되었다고 판단되면, 표시 영역에서 오브젝트 표시를 제거할 수 있다.
도 21a 내지 도 21e는 본 개시의 다양한 실시예에 따른 오브젝트 표시 방법을 나타내는 도면이다.
도 21a에서, 사용자(10)가 전자 장치(200)를 가로(landscape)로 위치하게 하고 카메라 모듈(291)을 피사체로 향하게 하면, 전자 장치(200)는 전자 장치(200)의 일 측으로부터 사용자에 의한 복수의 터치 입력 영역에 대한 정보를 수신할 수 있다. 이때, 사용자(10)가 양손으로 전자 장치(200)의 모서리를 들게 되면, 수신한 복수의 터치 입력 영역에 대한 정보에 따라 그립 정보를 판단한다.
예를 들어, 사용자(10)가 양손으로 전자 장치(200)의 모서리를 잡고(파지하고) 들게 되면, 전자 장치(200)는 사용자(10)의 양손으로 전자 장치(200)의 네 모퉁이를 잡고 있는 것을 그립 정보로서 판단할 수 있다. 이때, 전자 장치(200)는 카메라 기능이 실행된 상태에서 그립 정보에 기반하여 사용자(10)가 전자 장치(200)를 파지한 지점과 근접한 표시 영역에 기능 오브젝트를 표시할 수 있다. 예를 들어, 오브젝트(2110)는 카메라 촬영 기능과 연관된 촬영 버튼일 수 있다. 오브젝트(2110)는 카메라 형태의 GUI 요소로서, 지정된 영역을 갖는 반구형의 부채꼴 음영 안에 카메라 형태의 GUI 요소가 포함되어 있고, 반구형의 부채꼴의 지름이 전자 장치(200)의 측면을 향할 수 있다. 이는 예시로서, 오브젝트(2110)는 다각형 또는 곡면으로 이루어져 있으며, 어느 일 측이 전자 장치(200)의 측면을 향할 수 있다.
도 21b에서, 사용자(10)가 전자 장치(200)를 가로(landscape)로 위치하게 하고 카메라 모듈(291)을 피사체로 향하게 하면, 전자 장치(200)의 일 측으로부터 사용자에 의한 복수의 터치 입력 영역에 대한 정보를 수신할 수 있다. 이때, 사용자(10)가 한 손으로 전자 장치(200)의 모서리를 잡고(파지하고) 들게 되면, 수신한 복수의 터치 입력 영역에 대한 정보에 따라 그립 정보를 판단한다.
예를 들어, 사용자(10)가 한 손으로 전자 장치(200)의 모서리를 잡고(파지하고) 들게 되면, 전자 장치(200)는 사용자(10)의 한 손으로 전자 장치(200)의 두 모퉁이를 잡고 있는 것을 그립 정보로서 판단할 수 있다. 이때, 전자 장치(200)는 카메라 기능이 실행된 상태에서 그립 정보에 기반하여 사용자(10)가 전자 장치(200)를 파지한 지점과 근접한 표시 영역에 기능 오브젝트를 표시할 수 있다. 예를 들어, 오브젝트(2110)는 카메라 촬영 기능과 연관된 촬영 버튼일 수 있다.
도 21c에서, 사용자(10)가 전자 장치(200)를 세로(portrait)로 위치하게 하고 카메라 모듈(291)을 피사체로 향하게 하면, 전자 장치(200)의 일 측으로부터 사용자에 의한 복수의 터치 입력 영역에 대한 정보를 수신할 수 있다. 이때, 사용자(10)가 한 손으로 전자 장치(200)를 잡고(파지하고) 들게 되면, 수신한 복수의 터치 입력 영역에 대한 정보에 따라 그립 정보를 판단한다.
예를 들어, 사용자(10)가 한 손(예, 왼손)으로 전자 장치(200)를 세로 방향으로 잡고(파지하고) 들게 되면, 전자 장치(200)는 사용자(10)의 한 손(예, 왼손)으로 세로 방향으로 잡고 있는 것을 그립 정보로서 판단할 수 있다. 이때, 전자 장치(200)는 카메라 기능이 실행된 상태에서 그립 정보에 기반하여 사용자(10)가 전자 장치(200)를 파지한 지점과 근접한 표시 영역에 오브젝트를 표시할 수 있다. 예를 들어, 오브젝트(2110)는 카메라 촬영 기능과 연관된 촬영 버튼일 수 있다.
도 21d 및 도 21e에서, 사용자(10)가 전자 장치(200)를 세로(portrait)로 위치하게 하면, 전자 장치(200)의 일 측으로부터 사용자에 의한 복수의 터치 입력 영역에 대한 정보를 수신할 수 있다. 이때, 사용자(10)가 한 손으로 전자 장치(200)를 잡고(파지하고) 들게 되면, 전자 장치(200)는 사용자(10)의 한 손(예, 왼손)으로 세로 방향으로 잡고 있는 것을 그립 정보로서 판단할 수 있다. 이때, 전자 장치(200)는 카메라 기능이 실행된 상태에서 그립 정보에 기반하여 사용자(10)가 전자 장치(200)를 파지한 지점과 근접한 표시 영역에 오브젝트를 표시할 수 있다. 예를 들어, 오브젝트(2110)는 카메라 촬영 기능과 연관된 촬영 버튼일 수 있다. 예를 들어,오브젝트(2120)는 전화 기능과 연관된 녹음 버튼일 수 있고, 다른 오브젝트(2130)는 전화 기능과 연관된 전화 버튼일 수 있다. 이때 오브젝트는 도 21e와 같이, 디스플레이(260) 상에 표시된 오브젝트(2121)와 비슷거나 동일한 색상, 명도, 채도, 모양 또는 패턴을 가지는 오브젝트(2122)일 수 있다. 또, 다른 오브젝트는 도 21e와 같이, 디스플레이(260) 상에 표시된 다른 오브젝트(2131)와 비슷하거나 동일한 색상, 명도, 채도, 모양 또는 패턴을 가지는 오브젝트(2132)일 수 있다.
도 22는 본 개시의 다양한 실시예에 따른 전자 장치(200)의 기능 제공 방법을 나타내는 도면이다.
2201 도면에서, 사용자(10)가 전자 장치(200)를 가로(landscape)로 위치하게 하고 카메라 모듈(291)을 피사체로 향하게 하면, 전자 장치(200)의 일 측으로부터 사용자에 의한 복수의 터치 입력 영역에 대한 정보를 수신할 수 있다. 이때, 사용자(10)가 양 손으로 전자 장치(200)의 모서리를 잡고(파지하고) 들게 되면, 수신한 복수의 터치 입력 영역에 대한 정보에 따라 그립 정보를 판단한다.
전자 장치(200)는 사용자(10)의 양손으로 전자 장치(200)의 네 모퉁이를 잡고 있는 것을 그립 정보로서 판단할 수 있다. 이때, 전자 장치(200)는 카메라 기능이 실행된 상태에서 그립 정보에 기반하여 사용자(10)가 전자 장치(200)를 파지한 지점과 근접한 표시 영역에 오브젝트를 표시할 수 있다. 예를 들어, 오브젝트(2110)는 카메라 촬영 기능과 연관된 촬영 버튼일 수 있다. 오브젝트(2110)는 카메라 형태의 GUI 요소로서, 지정된 영역을 갖는 반구형의 부채꼴 음영 안에 카메라 형태의 GUI 요소가 포함되어 있고, 반구형의 부채꼴의 지름이 전자 장치(200)의 측면을 향할 수 있다. 이는 예시로서, 오브젝트(2110)는 다각형 또는 곡면으로 이루어져 있으며, 어느 일 측이 전자 장치(200)의 측면을 향할 수 있다.
2202 도면에서, 사용자(10)가 오브젝트(21100) 표시 영역과 관련된 수신한 복수의 터치 입력 영역에 대한 정보를 해제시키면, 전자 장치(200)는 해제된 시간이 지정된 시간을 경과하였는지 여부를 판단한다. 이때, 전자 장치(200)는 카메라 기능이 실행된 상태에서 그립 정보에 기반하여 사용자(10)가 파지를 해제한 지점과 근접한 표시 영역에 오브젝트를 표시할 수 있다. 예를 들어, 오브젝트(2110)는 카메라 촬영 기능과 연관된 촬영 버튼일 수 있다. 오브젝트(2110)는 카메라 형태의 GUI 요소로서, 지정된 영역을 갖는 원형의 음영 안에 카메라 형태의 GUI 요소가 포함되어 있다. 이는 예시로서, 오브젝트(2110)는 다각형 또는 곡면으로 이루어져 있을 수 있다.
2203 도면에서, 지정된 시간 내에 사용자 입력 신호가 재입력되면, 전자 장치(200)는 오브젝트(2210)에 맵핑된 기능을 실행한다. 예를 들어, 기능 오브젝트(2210)에 맵핑된 기능이 촬영 기능이라면, 전자 장치(200)는 카메라 모듈(291)을 통한 피사체를 촬영할 수 있다.
도 23a 내지 도 23e는 본 개시의 다양한 실시예에 따른 오브젝트 표시 방법을 나타내는 도면이다.
도 23a에서, 전자 장치(200)가 제 1 측면과 제 2 측면이 각각 세 개의 센싱 영역(2311, 2312, 2313, 2314, 2315, 2316)을 가지고 있다고 할 때, 전자 장치(200)는 센싱할 수 있는 접촉 영역의 총 개수인 6개만큼 오브젝트 표시 가능 영역을 총 6개로 미리 설정할 수 있다. 그리고, 6개로 미리 설정한 오브젝트 표시 가능 영역과 관련된 측면 터치 입력을 기반하여 오브젝트를 생성하기 위한 후보 영역을 설정하고, 도 20a 내지 도 20c의 나타난 과정을 통해 오브젝트를 표시할 위치를 결정할 수 있다. 오브젝트 표시 가능 영역과 관련된 측면 터치 입력이 발생한 제 1 영역(2311), 제 3 영역(2313), 제 4 영역(2314), 제 6 영역(2316)을 오브젝트을 생성하기 위한 후보 영역을 결정하고, 최적 위치인 제 3영역(2313)에 오브젝트를 표시할 수 있다.
도 23b에서, 도 23a와 같이 전자 장치(200)를 양 손으로 잡던 손 중에서 오른 손에 의해 접촉 된 두 영역이 해제되면 해당 조건에서 우선 순위가 그 다음으로 높은 왼쪽 상단의 후보영역을 촬영 버튼을 표시할 영역(제 1 영역(2311))으로 결정한다.
도 23c는 전자 장치(200)의 자세가 세로인 조건일 때 생성되는 동적인 버튼의 실시 예를 설명한다. 오브젝트 표시 가능 영역과 관련된 측면 터치 입력이 발생한 제 2 영역(2312), 제 5 영역(2315), 제 6 영역(2316)을 오브젝트를 생성하기 위한 후보 영역을 결정하고, 최적 위치인 제 2 영역(2312)에 오브젝트를 표시할 수 있다.
도 23d에서, 전자 장치(200)의 자세가 가로인 조건일 때, 오브젝트 표시 가능 영역과 관련된 측면 터치 입력이 발생한 제 1 영역(2311), 제 3 영역(2313), 제 4 영역(2314), 제 6 영역(2316)을 오브젝트를 생성하기 위한 후보 영역을 결정하고, 적어도 하나 이상의 영역(제 1 영역(2311), 제 3 영역(2313), 제 4 영역(2314), 제 6 영역(2316))에 각각에 적어도 하나의 오브젝트를 표시할 수 있다. 적어도 하나 이상의 영역 각각에 표시되는 오브젝트는 서로 다를 수 있다. 예를 들어, 제 1 영역(2311)에는 플래시와 관련된 오브젝트(2320), 제 3 영역(2313)에는 캡쳐와 관련된 오브젝트(2310), 제 4영역(2314)에는 촬영 타이머와 관련된 오브젝트(2330), 제 6영역(2316)에는 동영상과 관련된 오브젝트(2340)를 표시할 수 있다.
도 23e에서, 전자 장치(200)의 자세가 세로인 조건일 때, 오브젝트 표시 가능 영역과 관련된 측면 터치 입력이 발생한 제 3 영역(2313), 제 6 영역(2316)을 오브젝트를 생성하기 위한 후보 영역을 결정하고, 적어도 하나 이상의 영역(제 3 영역(2313), 제 6 영역(2316))에 각각에 적어도 하나의 오브젝트를 표시할 수 있다. 적어도 하나 이상의 영역 각각에 표시되는 오브젝트는 서로 다를 수 있다. 예를 들어, 제 3 영역(2313)에는 캡쳐와 관련된 오브젝트(2310), 제 6 영역(2316)에는 동영상과 관련된 오브젝트(2310)를 표시할 수 있다.
표시된 오브젝트는 사용자 입력에 기반하여 위치, 크기, 모양 또는 기능 중 적어도 하나가 변경될 수 있다. 예를 들어, 상기 오브젝트가 디스플레이에 표시되면 표시된 영역과 관련된 디스플레이 영역 또는 측면 영역에 대한 사용자 입력에 기반하여 오브젝트의 위치, 크기, 모양 또는 기능 중 적어도 하나가 변경될 수 있다. 예를 들어, 기능 오브젝트가 표시된 디스플레이 영역에 사용자에 의한 드래그 입력을 수신하면 해당 입력에 반응하여 오브젝트의 위치를 변경하여 표시할 수 있다. 또 다른 예로 기능 오브젝트가 표시된 디스플레이와 관련된 측면 영역에 사용자에 의한 드래그 입력을 수신하면 해당 입력에 반응하여 오브젝트의 크기가 변경될 수 있다.
다양한 실시예들에 따르면, 본 개시에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서 210)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리 220가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서210에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 개시의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 개시에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 개시에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 명세서와 도면에 개시된 실시 예들은 본 개시의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 따라서 본 개시의 범위는 여기에 개시된 실시 예들 이외에도 본 개시의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.

Claims (22)

  1. 이미지를 출력하기 위한 디스플레이;
    상기 디스플레이와 기능적으로 연결된 제어부를 포함하고,
    상기 제어부는,
    상기 디스플레이의 적어도 하나의 측면을 통하여 사용자 입력을 획득하고,
    상기 사용자 입력에 기반하여 상기 전자 장치에 관련된 상기 사용자 입력에 대한 그립 정보를 판단하고,
    상기 전자 장치를 통하여 상기 그립 정보에 대응하는 애플리케이션 또는 기능 중 적어도 하나를 제공하도록 설정된 전자 장치.
  2. 제 1 항에 있어서, 상기 전자 장치는,
    상기 사용자 입력을 획득하기 위한 적어도 하나의 센서 패드를 포함하는 전자 장치.
  3. 제 2 항에 있어서,
    상기 적어도 하나 이상의 센서 패드 중 적어도 일부는, 상기 디스플레이의 블랙 마스크가 위치하는 영역에 위치하는 전자 장치.
  4. 제 1 항에 있어서,
    상기 전자 장치는 제 1 스피커 및 제 2 스피커를 더 포함하며,
    상기 제어부는 상기 사용자 입력 또는 상기 그립 정보 중 적어도 하나에 기반하여 상기 제 1 스피커 또는 상기 제 2 스피커 중 적어도 하나를 통해 오디오를 출력하도록 설정된 전자 장치.
  5. 제 2항에 있어서,
    상기 제어부는
    상기 사용자 입력에 기반하여 상기 디스플레이에 표시된 정보를 스크롤, 확대, 축소 또는 전환하는 기능 중 적어도 하나를 제공하도록 설정된 전자 장치.
  6. 제 2항에 있어서,
    상기 전자 장치는 상기 디스플레이의 제 1 영역을 통하여 제 1 애플리케이션을 제공하고, 상기 디스플레이의 제 2 영역을 통하여 제 2 애플리케이션을 제공하며,
    상기 제어부는 상기 사용자 입력이 상기 제 1 영역에 대응하는 경우, 상기 사용자 입력을 통해 상기 제 1 애플리케이션을 제어하고, 상기 사용자 입력이 상기 제 2 영역에 대응하는 경우, 상기 사용자 입력을 통해 상기 제 2 애플리케이션을 제어하도록 설정된 전자 장치.
  7. 제 1항에 있어서,
    상기 제어부는
    상기 사용자 입력에 기반하여 적어도 하나 이상의 오브젝트를 선택하는 기능을 제공하도록 설정된 전자 장치.
  8. 제 2항에 있어서
    상기 제어부는
    상기 그립 정보에 기반하여 상기 디스플레이를 제어하는 기능을 제공하도록 설정된 전자장치.
  9. 제 1항에 있어서,
    상기 제어부는
    상기 그립 정보에 기반하여 전체 화면을 축소하여 표시하거나 소정의 오브젝트 영역의 위치 또는 형태를 변경하여 표시하는 기능 중 하나를 제공하도록 설정된 전자 장치.
  10. 제 1항에 있어서,
    상기 전자 장치는
    상기 전자 장치에 대응하는 위치 정보 또는 방향 정보 중 적어도 하나를 획득하기 위한 적어도 하나의 가속도 센서, 자이로 센서 또는 지자계 센서 중 적어도 하나를 포함하며,
    상기 제어부는,
    상기 위치 정보 또는 상기 방향 정보 중 적어도 하나에 기반하여 상기 그립 정보를 판단하도록 설정된 전자 장치.
  11. 디스플레이의 블랙 마스크(Black Mask) 영역에 포함된 적어도 하나 이상의 센서 패드를 통해 사용자 입력을 수신하는 동작;
    상기 사용자 입력에 기반하여 전자 장치에 관련된 사용자의 그립 정보를 판단하는 동작; 및
    상기 사용자 입력 및 상기 그립 정보 중 적어도 어느 하나에 기반하여 애플리케이션 또는 기능을 제공하는 동작을 포함하는 제어 방법.
  12. 제 11항에 있어서,
    상기 그립 정보를 판단하는 동작은
    상기 사용자 입력이 지정된 기준값 이상으로 수신되는 경우, 상기 그립 정보를 판단하는 제어 방법.
  13. 제 11항에 있어서,
    상기 그립 정보를 판단하는 동작은
    상기 전자 장치의 위치 정보 또는 방향 정보 중 어느 하나에 기반하여 상기 그립 정보를 판단하는 동작을 포함하는 제어 방법.
  14. 제 11항에 있어서
    상기 애플리케이션 또는 기능을 제공하는 동작은,
    지정된 사용자의 그립 정보 또는 상기 센서 패드를 통해서 지정된 입력이 획득되면, 카메라를 실행하는 기능을 제공하는 동작을 포함하는 제어 방법.
  15. 제 11항에 있어서,
    상기 애플리케이션 또는 기능을 제공하는 동작은
    카메라를 실행하는 동작, 카메라를 통해 이미지를 획득하는 기능, 카메라를 줌-인하는 기능 및 카메라를 줌-아웃하는 기능, 초점 관련 기능, 카메라의 메뉴를 선택하는 기능, 전후면 카메라를 전환하는 기능, 기정의 된 기능을 자동으로 실행하는 기능 중 적어도 하나를 제공하는 동작을 포함하는 제어 방법.
  16. 제 11항에 있어서,
    상기 애플리케이션 또는 기능을 제공하는 동작은
    상기 그립 정보에 기반하여 상기 전자 장치의 화면 회전 동작을 제어하는 기능을 제공하는 동작을 포함하는 제어 방법.
  17. 제 11항에 있어서,
    상기 애플리케이션 또는 기능을 제공하는 동작은
    상기 전자 장치에 기능적으로 연결된 스피커의 출력 음량을 변경하거나 무음으로 변경하는 기능을 제공하는 동작을 포함하는 제어 방법.
  18. 제 11항에 있어서,
    상기 애플리케이션 또는 기능을 제공하는 동작은
    상기 사용자 입력에 기반하여, 제 1 애플리케이션 및 제 2 애플리케이션 간의 전환을 제어하는 기능을 제공하는 동작을 포함하는 제어 방법.
  19. 제 11항에 있어서,
    상기 애플리케이션 또는 기능을 제공하는 동작은
    상기 사용자 입력에 기반하여 잠금화면을 해제하는 기능을 제공하는 동작을 포함하는 제어 방법.
  20. 제 11항에 있어서,
    상기 적어도 하나 이상의 센서 패드는 디스플레이의 블랙 마스크 영역에 포함되는 것을 특징으로 제어 방법.
  21. 제 11항에 있어서,
    상기 그립 정보에 기반하여 오브젝트의 표시 영역을 결정하는 동작;
    상기 결정된 표시 영역에 상기 오브젝트를 표시하는 동작;
    상기 오브젝트 표시 영역과 관련된 지정된 사용자 입력 신호를 수신하는 동작;
    상기 지정된 사용자 입력은 사용자 입력 신호를 해제하는 동작, 사용자 입력 신호를 재입력하는 동작 또는 다른 종류의 신호가 입력되는 동작 중 적어도 하나를 포함하며, 상기 지정된 상기 지정된 사용자 입력 신호를 수신하면 상기 기능 오브젝트와 관련된 기능을 제공하는 동작을 더 포함하는 제어 방법.
  22. 전자 장치 제어 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 상기 방법은
    적어도 하나 이상의 센서 패드를 통해 사용자 입력을 수신하는 동작;
    상기 사용자 입력에 기반하여 전자 장치에 관련된 사용자의 그립 정보를 판단하는 동작; 및
    상기 사용자 입력 및 상기 그립 정보 중 적어도 어느 하나에 기반하여 애플리케이션 또는 기능을 제공하는 동작을 포함하는 것을 컴퓨터로 읽을 수 있는 기록 매체.
KR1020140020935A 2014-01-07 2014-02-21 전자 장치 및 전자 장치의 제어 방법 KR20150082032A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201510006056.2A CN104765446A (zh) 2014-01-07 2015-01-07 电子设备和控制电子设备的方法
US14/591,461 US20150192989A1 (en) 2014-01-07 2015-01-07 Electronic device and method of controlling electronic device
EP15150298.6A EP2905679B1 (en) 2014-01-07 2015-01-07 Electronic device and method of controlling electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201461924542P 2014-01-07 2014-01-07
US61/924,542 2014-01-07

Publications (1)

Publication Number Publication Date
KR20150082032A true KR20150082032A (ko) 2015-07-15

Family

ID=53793704

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140020935A KR20150082032A (ko) 2014-01-07 2014-02-21 전자 장치 및 전자 장치의 제어 방법

Country Status (1)

Country Link
KR (1) KR20150082032A (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018236047A1 (ko) * 2017-06-20 2018-12-27 주식회사 하이딥 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
WO2019143188A1 (ko) * 2018-01-18 2019-07-25 삼성전자 주식회사 제한 영역을 포함하는 디스플레이를 이용하여 동작을 제어하기 위한 전자 장치 및 그 동작 방법
KR20200051768A (ko) * 2017-09-30 2020-05-13 후아웨이 테크놀러지 컴퍼니 리미티드 태스크 전환 방법 및 단말기
KR20210033141A (ko) * 2019-09-18 2021-03-26 삼성전자주식회사 디스플레이장치 및 그의 제어방법
US11113996B2 (en) 2017-10-12 2021-09-07 Samsung Electronics Co., Ltd Display including bending area and electronic device comprising same
KR20210127200A (ko) * 2019-02-28 2021-10-21 비보 모바일 커뮤니케이션 컴퍼니 리미티드 이동 단말 및 사운드 출력 제어 방법
WO2023191314A1 (ko) * 2022-03-31 2023-10-05 삼성전자 주식회사 정보를 제공하는 방법 및 이를 지원하는 전자 장치

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018236047A1 (ko) * 2017-06-20 2018-12-27 주식회사 하이딥 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
KR20180137985A (ko) * 2017-06-20 2018-12-28 주식회사 하이딥 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
KR20200051768A (ko) * 2017-09-30 2020-05-13 후아웨이 테크놀러지 컴퍼니 리미티드 태스크 전환 방법 및 단말기
US11113996B2 (en) 2017-10-12 2021-09-07 Samsung Electronics Co., Ltd Display including bending area and electronic device comprising same
WO2019143188A1 (ko) * 2018-01-18 2019-07-25 삼성전자 주식회사 제한 영역을 포함하는 디스플레이를 이용하여 동작을 제어하기 위한 전자 장치 및 그 동작 방법
US11221761B2 (en) 2018-01-18 2022-01-11 Samsung Electronics Co., Ltd. Electronic device for controlling operation by using display comprising restriction area, and operation method therefor
KR20210127200A (ko) * 2019-02-28 2021-10-21 비보 모바일 커뮤니케이션 컴퍼니 리미티드 이동 단말 및 사운드 출력 제어 방법
KR20210033141A (ko) * 2019-09-18 2021-03-26 삼성전자주식회사 디스플레이장치 및 그의 제어방법
WO2023191314A1 (ko) * 2022-03-31 2023-10-05 삼성전자 주식회사 정보를 제공하는 방법 및 이를 지원하는 전자 장치

Similar Documents

Publication Publication Date Title
EP2905679B1 (en) Electronic device and method of controlling electronic device
CN106293055B (zh) 电子设备以及用于提供其触觉反馈的方法
KR20150135905A (ko) 폴더형 표시부를 가지는 전자 장치 및 이의 운영 방법
KR20150082032A (ko) 전자 장치 및 전자 장치의 제어 방법
KR20150092588A (ko) 전자장치에서 플랙서블 디스플레이의 표시 제어 방법 및 장치
KR20150099297A (ko) 전자장치의 화면 표시 방법
KR20150140043A (ko) 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법
KR20150127989A (ko) 사용자 인터페이스 제공 방법 및 장치
KR102616430B1 (ko) 터치의 압력 입력에 기반하여 선택 영역을 결정하는 전자 장치 및 방법
KR20160005895A (ko) 전자 장치 및 전자 장치의 인터페이스 제공 방법, 전자 장치를 위한 액세서리
KR20150085650A (ko) 터치 스크린을 이용한 입력 처리 방법 및 장치
KR20150108216A (ko) 입력 처리 방법 및 그 전자 장치
KR20160059264A (ko) 화면 제어 방법 및 그 방법을 처리하는 전자 장치
US20150370317A1 (en) Electronic device and method for controlling display
KR20150094289A (ko) 전자 장치의 촬영 방법 및 그 전자 장치
KR20150129423A (ko) 전자 장치 및 전자 장치의 제스처 인식 방법 및 전자 장치
KR20160046099A (ko) 전자장치에서 표시 제어 방법 및 장치
KR20150135893A (ko) 홈스크린 구성 방법 및 이를 이용한 전자 장치
KR20170002051A (ko) 한 손 조작 사용자 인터페이스 구현 방법 및 이를 수행하는 전자 장치
KR102423145B1 (ko) 플렉서블 디바이스 및 플렉서블 디바이스의 동작 방법
KR20160017904A (ko) 전자장치의 화면 표시 방법
KR20150135980A (ko) 디스플레이 제어 방법 및 전자 장치
KR102536148B1 (ko) 전자 장치의 동작 방법 및 장치
KR20160020102A (ko) 드래그 앤 드롭 처리 방법 및 장치
US10318025B2 (en) Auxiliary input device of electronic device and method of executing function thereof

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination