KR20150051663A - 터치 입력에 반응하여 기능을 실행하는 방법 및 이를 구현하는 전자장치 - Google Patents

터치 입력에 반응하여 기능을 실행하는 방법 및 이를 구현하는 전자장치 Download PDF

Info

Publication number
KR20150051663A
KR20150051663A KR1020130133426A KR20130133426A KR20150051663A KR 20150051663 A KR20150051663 A KR 20150051663A KR 1020130133426 A KR1020130133426 A KR 1020130133426A KR 20130133426 A KR20130133426 A KR 20130133426A KR 20150051663 A KR20150051663 A KR 20150051663A
Authority
KR
South Korea
Prior art keywords
application
processor
touch input
highest priority
electronic device
Prior art date
Application number
KR1020130133426A
Other languages
English (en)
Inventor
김유환
최승환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130133426A priority Critical patent/KR20150051663A/ko
Priority to US14/532,331 priority patent/US20150128079A1/en
Priority to PCT/KR2014/010589 priority patent/WO2015069021A1/en
Priority to EP20140191881 priority patent/EP2869181A1/en
Publication of KR20150051663A publication Critical patent/KR20150051663A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 명세서는 터치 입력에 반응하여 기능을 실행하는 방법과 이를 구현하는 전자장치를 개시한다. 본 발명에 따른 전자장치는 전자장치의 디스플레이가 켜진 경우 항상 표시되고 터치 입력을 감지하는 사용자 인터페이스를 이용한다. 또한, 사용자 인터페이스는 기본적으로 반투명 상태이며, 사용자에 의해 크기, 위치, 색깔 및 투명한 정도를 자유롭게 변경할 수 있다. 본 발명에 따른 터치 입력에 반응하여 기능을 실행하는 방법은 전자장치에 설치된 어플리케이션들 중 최우선 순위 어플리케이션을 결정하는 동작; 상기 최우선 순위 어플리케이션의 기능들을 각각 미리 정해진 터치 입력들에 맵핑하는 동작; 디스플레이 모듈에 표시된 사용자 인터페이스에 대한 터치 입력을 인식하는 동작; 상기 인식된 터치 입력에 맵핑된 기능을 실행하는 동작; 을 포함할 수 있다.

Description

터치 입력에 반응하여 기능을 실행하는 방법 및 이를 구현하는 전자장치{METHOD FOR EXECUTING FUNCTION IN RESPONSE TO TOUCH INPUT AND ELECTRONIC DEVICE IMPLEMENTING THE SAME}
본 발명은 사용자 인터페이스에서 터치 입력에 반응하여 기능을 실행하는 방법 및 이를 구현하는 전자장치에 관한 것이다.
종래 전자장치는 다양한 입력 방식을 제공할 수 있다. 특히 좀 더 편리하고 자연스러운 입력 방식을 제공하기 위해, 전자장치는 버튼식 키 이외에 터치스크린을 구비할 수 있다. 터치스크린은 터치 패널을 포함할 수 있다. 전자장치는 터치 패널을 이용하여 사용자의 접촉을 감지할 수 있고, 터치 입력을 확인할 수 있다. 따라서 사용자는 터치 패널에 터치 물체를 접촉하여 터치 입력에 따라 미리 설정된 기능을 실행할 수 있다. 이에 더하여 최근의 반도체 기술 및 정보 통신 기술의 발전으로 인해, 전자장치에는 여러 복합적인 기능들이 부가될 수 있다. 따라서 전자장치는 사용자에게 다양한 기능들을 터치스크린을 통해 용이하게 제공할 수 있다. 그리고 더욱 실감나는 멀티미디어 경험과 여러 어플리케이션들의 편리한 사용을 위하여 대화면 터치스크린을 구비한 전자 기기들이 출현하고 있다. 한편 종래의 전자 기기들의 어플리케이션에는 많은 기능들이 부가되어 있어서 사용자가 어플리케이션을 제어하려면 별도의 메뉴 화면에 진입하거나 여러 단계들을 거친 후에야 원하는 기능을 조작할 수 있는 불편함이 있다. 또한, 대화면 터치스크린을 구비한 전자장치는 정보를 습득하고 기록하는 데에는 장점이 될 수 있으나, 기능 실행이나 조작측면에서는 단점이 될 수 있다. 예컨대, 어플리케이션의 특정 기능을 사용하려면 사용자는 대화면 터치스크린의 일정 범위를 터치해야 하는데 이때 사용자에게 광범위한 동작이 요구되므로 전자장치를 사용하는데 불편함이 가중되고 있다.
기술이 발달함에 따라 전자장치의 디스플레이가 더욱 커지고 있다. 커진 디스플레이가 정보의 습득과 기록에는 장점이 될 수 있으나, 기능 실행이나 조작 측면에서는 단점이 될 수 있다. 한 손으로 작동시키는 경우가 많은 스마트 디바이스는 더욱 불편할 수 있다. 또한, 최근에는 전자장치에서 사용할 수 있는 많은 어플리케이션이 제작되고 사용되고 있다. 그 중에서 상당수의 어플리케이션이 같은 용도로 사용되고 있다. (예: 네이버 어플리케이션, 다음 어플리케이션, 크롬 어플리케이션 등) 다수의 어플리케이션들이 같은 용도로 사용되고 있음에도 불구하고 각각의 어플리케이션은 각자 다른 인터페이스로 작동할 수 있다. 이에 따라, 전자장치는 유사한 기능에 대해 동일한 사용자 경험(UX)을 제공할 수 없다. 그리고 전자장치에서 어떤 어플리케이션을 실행시키면 해당 어플리케이션이 디스플레이에서 최우선 순위의 어플리케이션으로 전환된다. 이에 따라 사용자는 차 순위의 어플리케이션은 이용할 수 없다. 즉, 사용자는 유연하게 멀티 태스킹을 하는데 있어서 불편함이 있을 수 있다.
본 발명에 따른 터치 입력에 반응하여 기능을 실행하는 방법은 전자장치에 설치된 어플리케이션들 중 최우선 순위 어플리케이션을 결정하는 동작; 상기 최우선 순위 어플리케이션의 기능들을 각각 미리 정해진 터치 입력들에 맵핑하는 동작; 디스플레이 모듈에 표시된 사용자 인터페이스에 대한 터치 입력을 인식하는 동작; 상기 인식된 터치 입력에 맵핑된 기능을 실행하는 동작; 을 포함할 수 있다.
본 발명에 따른 전자장치는 디스플레이 모듈; 상기 디스플레이 모듈에 설치되는 터치 패널; 어플리케이션들이 설치되는 메모리; 상기 메모리에 설치된 어플리케이션들 중 최우선 순위 어플리케이션을 결정하고, 상기 최우선 순위 어플리케이션의 기능들을 각각 미리 정해진 터치 입력들에 맵핑하고, 상기 디스플레이 모듈에 표시된 사용자 인터페이스에 대한 터치 입력을 인식하고, 상기 인식된 터치 입력에 맵핑된 기능을 실행하는 프로세서; 를 포함할 수 있다.
본 발명은 사용자 인터페이스를 이용하여 최우선 순위 어플리케이션의 특정 기능에 신속하게 접근할 수 있다. 전자장치는 디스플레이 모듈이 활성화 된 경우 터치 스크린에 항상 표시되는 사용자 인터페이스(User Interface, UI)에서 사용자의 터치를 감지하고 미리 터치 입력에 맵핑된 기능을 실행할 수 있다. 사용자 인터페이스가 항상 터치스크린에 표시되기 때문에 사용자는 특정 기능을 사용하는데 있어서 전자장치의 특정 상황에 영향을 받지 않을 수 있다.
도 1은 본 발명의 일 실시예에 따른 전자장치의 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 하드웨어의 블록 구성도이다.
도 3은 한 실시예에 따른 프로그래밍 모듈의 블록 구성도이다.
도 4는 본 발명의 일 실시예에 따른 사용자 인터페이스에서 터치 입력에 반응하여 기능을 실행하는 동작을 설명하기 위한 흐름도이다.
도 5a, 5b, 5c, 5d, 5e는 본 발명의 다양한 실시예에 따른 사용자 인터페이스를 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시예에 따른 어플리케이션의 종류 및 기능을 메모리에 등록하는 동작을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 어플리케이션의 종류 및 기능을 메모리에 등록하는 동작을 설명하기 위한 예시도이다.
도 8은 본 발명의 일 실시예에 따른 최우선 순위 어플리케이션의 기능을 각각 터치 입력들에 맵핑하고, 터치 입력에 반응하여 맵핑된 기능을 실행하는 동작을 설명하기 위한 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 사용자의 터치 입력에 반응하여 미리 맵핑된 최우선 순위 어플리케이션의 기능을 실행하는 방법을 설명하기 위한 예시도이다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시 예들을 상세히 설명한다. 이때, 첨부된 도면들에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 하기의 설명에서는 본 발명의 다양한 실시 예들에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.
본 발명에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 카메라(camera), 웨어러블 장치(wearable device), 전자 시계(electronic clock), 손목 시계(wrist watch), 가전 제품(home appliance)(예: 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기 등), 인공 지능 로봇, TV, DVD(digital video disk) 플레이어, 오디오, 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 전자 사전, 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(electronic equipment for ship, 예를 들면, 선박용 항법 장치, 자이로콤파스 등), 항공 전자기기(avionics), 보안 기기, 전자 의복, 전자 키, 캠코더(camcorder), 게임 콘솔(game consoles), HMD(head-mounted display), 평판표시장치(flat panel display device), 전자 액자, 전자 앨범, 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device) 또는 프로젝터(projector) 등의 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 본 발명에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
본 발명의 실시 예에서는 터치 기반의 입력 인터페이스(예: 터치스크린)를 가지는 전자장치에서 사용자 인터페이스를 기반으로 터치 입력(touch event)에 따라 기능을 실행하는 방법 및 장치에 관한 것이다.
본 발명의 실시 예에서 사용자 인터페이스(Contextual Virtual UI, CVI)는 어떠한 화면 상태 전환에도 항상 터치스크린에 존재하는 반투명한 사용자 인터페이스(User Interface, UI)이다.
도 1은 본 발명의 일 실시 예에 따른 전자장치의 블록 구성도이다.
도 1을 참조하면, 전자장치(100)는 버스(BUS)(110), 프로세서(Processor)(120), 메모리(memory)(130), 사용자 입력 모듈(User Input Module)(140), 디스플레이 모듈(Display Module)(150), 또는 통신 모듈(Communication module)(160)을 포함할 수 있다. 본 개시의 실시 예에 따른 전자장치는 도 1에 도시된 구성 요소들이 필수적인 것은 아니어서, 그보다 많은 구성 요소들을 가지거나, 또는 그보다 적은 구성 요소들을 가지는 것으로 구현될 수 있다. 예를 들어, 본 개시의 실시 예에 따른 전자장치가 촬영 기능을 지원하는 경우 카메라 모듈의 구성이 더 포함될 수 있고, 본 개시의 실시 예에 따른 전자장치가 방송 수신 기능을 지원하지 않는 경우 상기 무선 통신부(110)의 일부 구성(예컨대, 방송 수신 모듈)이 생략될 수도 있다.
버스(110)는, 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
프로세서(120)는, 예를 들면, 버스(110)를 통해 전술한 다른 구성요소들(예: 메모리(130), 사용자 입력 모듈(140), 디스플레이 모듈(150), 통신 모듈(160) 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
메모리(130)는 프로세서(120) 또는 다른 구성요소들(예: 사용자 입력 모듈(140), 디스플레이 모듈(150), 통신 모듈(160) 등)로부터 수신되거나 프로세서(120) 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 메모리(130)는 예를 들면, 커널(kernel)(131), 미들웨어(middleware)(132), 어플리케이션 프로그래밍 인터페이스(API: application programming interface)(133) 또는 어플리케이션(134) 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어(software), 펌웨어(firmware), 하드웨어(hardware) 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
커널(131)은 나머지 다른 프로그래밍 모듈들, 예를 들면, 미들웨어(132), API(133) 또는 어플리케이션(134)에 구현된 동작 또는 기능을 실행하는데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120) 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(131)은 미들웨어(132), API(133) 또는 어플리케이션(134)에서 전자 장치(100)의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(132)는 API(133) 또는 어플리케이션(134)이 커널(131)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(132)는 (다수의) 어플리케이션들(134)로부터 수신된 작업 요청들과 관련하여, 예를 들면, (다수의) 어플리케이션들(134)들 중 적어도 하나의 어플리케이션에 전자 장치(100)의 시스템 리소스(예: 버스(110), 프로세서(120) 또는 메모리(130) 등)를 사용할 수 있는 우선순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 로드 밸런싱을 수행할 수 있다.
API(133)는 어플리케이션(134)이 커널(131) 또는 미들웨어(132)에서 제공하는 기능을 제어할 수 있는 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수를 포함할 수 있다.
사용자 입력 모듈(140)은, 예를 들면, 사용자로부터 명령 또는 데이터를 입력받아 버스(110)를 통해 프로세서(120) 또는 메모리(130)에 전달할 수 있다. 사용자 입력 모듈(140)은 물리적인 키 입력, 터치 패널을 통한 사용자의 터치 입력, 펜 센서를 통한 펜 입력 및 초음파 입력 등이 가능할 수 있다. 디스플레이 모듈(150)은 사용자에게 화상, 영상 또는 데이터 등을 표시할 수 있다. 디스플레이 모듈(150)의 패널은 터치 패널을 포함할 수 있다.
통신 모듈(160)은 다른 전자 장치(102)와 전자 장치(100)간의 통신을 연결할 수 있다. 통신 모듈(160)은 소정의 근거리 통신 프로토콜(예: Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication) 또는 소정의 네트워크 통신(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등)(162)을 지원할 수 있다. 전자 장치들(102), (104) 각각은 전자 장치(100)와 동일한(예: 같은 타입의) 장치이거나 또는 다른(예: 다른 타입의) 장치일 수 있다.
도 2는 다양한 실시 예들에 따른 하드웨어(200)의 블록도를 도시한다.
하드웨어(200)는 예를 들면, 도 1에 도시된 전자 장치(100)일 수 있다. 도 2를 참조하면, 하드웨어(200)는 하나 이상의 프로세서(210), SIM(subscriber identification module) 카드(214), 메모리(220), 통신 모듈(230), 센서 모듈(240), 사용자 입력 모듈(250), 디스플레이 모듈(260), 인터페이스(270), 오디오 코덱(280), 카메라 모듈(291), 전력관리 모듈(295), 배터리(296), 인디케이터(indicator)(297) 또는 모터(298)을 포함할 수 있다.
프로세서(210)(예: 프로세서(120))는 하나 이상의 어플리케이션 프로세서(AP: application processor)(211) 또는 하나 이상의 커뮤니케이션 프로세서(CP: communication processor)(213)를 포함할 수 있다. 프로세서(210)는, 예를 들면, 도 1에 도시된 프로세서(120)일 수 있다. 도 2에서는 AP(211) 및 CP(213)가 프로세서(210) 내에 포함된 것으로 도시되었으나, AP(211)와 CP(213)는 서로 다른 IC 패키지들 내에 각각 포함될 수 있다. 한 실시예에서는 AP(211) 및 CP(213)은 하나의 IC 패키지 내에 포함될 수 있다.
AP(211)는 운영체제 또는 응용 프로그램을 구동하여 AP(211)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어하고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP(211)는, 예를 들면, SoC(system on chip)로 구현될 수 있다. 한 실시예에 따르면, 프로세서(210)은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
CP(213)는 하드웨어(200)를 포함하는 전자 장치(예: 전자 장치(100))와 네트워크로 연결된 다른 전자 장치들 간의 통신에서 데이터 링크를 관리하고 통신 프로토콜을 변환하는 기능을 수행할 수 있다. CP(213)는 예를 들면, SoC(system on chip)로 구현될 수 있다. 한 실시예에 따르면, CP(213)는 멀티미디어 제어 기능의 적어도 일부를 수행할 수 있다. CP(213)는, 예를 들면, 가입자 식별 모듈(예: SIM 카드(214))을 이용하여 통신 네트워크 내에서 단말의 구별 및 인증을 수행할 수 있다. 또한, CP(213)는 사용자에게 음성 통화, 영상 통화, 문자 메시지 또는 패킷 데이터(packet data) 등의 서비스들을 제공할 수 있다.
또한, CP(213)는 통신 모듈(230)의 데이터 송수신을 제어할 수 있다. 도 2에서는, CP(213), 전력관리 모듈(295) 또는 메모리(220) 등의 구성요소들이 AP(211)와 별개의 구성요소로 도시되어 있으나, 한 실시예에 따르면, AP(211)가 전술한 구성요소들의 적어도 일부(예: CP(213))를 포함하도록 구현될 수 있다.
한 실시예에 따르면, AP(211) 또는 CP(213)는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP(211) 또는 CP(213)는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
SIM 카드(214)는 가입자 식별 모듈을 구현한 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. SIM 카드(214)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(220)는 내장 메모리(222) 또는 외장 메모리(224)를 포함할 수 있다. 메모리(220)는, 예를 들면, 도 1에 도시된 메모리(130)일 수 있다. 내장 메모리(222)는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 내장 메모리(222)는 Solid State Drive(SSD)의 형태를 취할 수도 있다. 외장 메모리(224)는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 MemoryStick 등을 더 포함할 수 있다.
메모리(220)에는 어플리케이션이 설치 될 경우 어플리케이션 프로세서(211)가 해당 어플리케이션을 등록하는 프로그램이 저장될 수 있다. 또한, 메모리(220)에는 어플리케이션이 활성화 될 경우 어플리케이션 프로세서(211)가 해당 어플리케이션의 기능을 제어할 수 있는 프로그램이 저장될 수도 있다.
통신 모듈(230)은 무선 통신 모듈(231) 또는 RF 모듈(234)을 포함할 수 있다. 통신 모듈(230)은, 예를 들면, 도 1에 도시된 통신 모듈(160)일 수 있다. 무선 통신 모듈(231)은, 예를 들면, WiFi(233), BT(bluetooth)(235), GPS(237) 또는 NFC(near field communication)(239)를 포함할 수 있다. 예를 들면, 무선 통신 모듈(231)은 무선 주파수를 이용하여 무선 통신 기능을 제공할 수 있다. 추가적으로 또는 대체적으로, 무선 통신 모듈(231)은 하드웨어(200)를 네트워크(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등)와 연결시키기 위한 네트워크 인터페이스(예: LAN card) 또는 모뎀 등을 포함할 수 있다.
RF 모듈(234)은 데이터의 송수신, 예를 들면, RF 신호 또는 호출된 전자신호의 송수신을 담당할 수 있다. RF 모듈(234)은, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, RF 모듈(234)은 무선통신에서 자유공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다.
통신 모듈(230)은 음성 통화를 위한 통신 채널 형성, 화상 통화를 위한 통신 채널 형성, 영상이나 메시지 등의 데이터 전송을 위한 통신 채널(이하, 데이터 통신 채널)형성 등을 어플리케이션 프로세서(211)의 제어 하에 수행할 수 있다. 특히, 본 발명의 통신 모듈(230)은 데이터 통신 채널을 통해 최우선 순위 어플리케이션의 기능들을 각각 터치 입력들에 다르게 맵핑할 수 있다.
센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), RGB(red, green, blue) 센서(240H), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K) 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 센서 모듈(240)은 물리량을 계측하거나 전자 장치의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 추가적으로/대체적으로, 센서 모듈(240)은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시) 또는 지문 센서 등을 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어회로를 더 포함할 수 있다.
사용자 입력 모듈(250)은 터치 패널(touch panel)(252), (디지털) 펜 센서(pen sensor)(254), 키(key)(256) 또는 초음파 입력 장치(258)를 포함할 수 있다. 사용자 입력 모듈(250)은, 예를 들면, 도 1에 도시된 사용자 입력 모듈 (140)일수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 터치 패널(252)은 컨트롤러(미도시)를 더 포함할 수도 있다. 정전식의 경우, 직접 터치뿐만 아니라 간접 터치의 인식도 가능하다. "직접 터치 방식"은 전도성 물체(예를 들어, 손가락 또는 스타일러스펜)가 터치스크린에 직접 접촉하는 (contact) 방식을 의미할 수 있다. 일 실시예에 따르면, "간접 터치 방식"은, 비전도성 물체에 둘러싸인 전도성 물체(예, 장갑을 낀 상태의 손가락)가 터치스크린에 인접하거나, 비전도성 물체(예를 들어, 손가락을 낀 상태의 장갑)가 터치스크린에 접촉하는 방식을 의미할 수 있다. 다른 실시예에 따르면, "간접 터치 방식"은 터치스크린의 위에 비전도성 물체(예를 들어, 터치스크린을 보호하기 위한 커버(cover))가 접촉한 상태에서 손가락이 비전도성 물체를 터치하는 방식을 의미할 수도 있다. 또 다른 실시예에 따르면, "간접 터치 방식"은 손가락이 터치스크린에 접촉하지 않으면서, 미리 설정된 거리 이내로 터치스크린에 인접함에 의하여 이벤트를 발생시키는 방식, 보통 “호버링(hovering)”, 이라고 불리는 방식을 의미할 수도 있다. 터치 패널(252)은 택타일레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널(252)은 사용자에게 촉각 반응을 제공할 수 있다. 터치 패널(252)은 디스플레이 모듈(260)의 화면(즉, 터치스크린)에 설치될 수 있다. 예컨대, 터치패널(252)은 터치스크린에 위치하는 애드 온 타입(add-on type) 또는 디스플레이 모듈(260) 내에 삽입되는 온 셀 타입(on-cell type) 또는 인 셀 타입(in-cell type)으로 구현될 수 있다.
(디지털) 펜 센서(254)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 키(256)로서, 예를 들면, 키패드 또는 터치 키가 이용될 수 있다. 초음파 입력 장치(258)는 초음파 신호를 발생하는 펜을 통해, 단말에서 마이크(예: 마이크(288))로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 하드웨어(200)는 통신 모듈(230)을 이용하여 이와 연결된 외부 장치(예: 네트워크, 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
디스플레이 모듈(260)은 패널(262) 또는 홀로그램(264)를 포함할 수 있다. 디스플레이 모듈(260)은, 예를 들면, 도 1에 도시된 디스플레이 모듈(150)일 수 있다. 패널(262)은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 패널(262)은 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나의 모듈로 구성될 수도 있다. 홀로그램(264)은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 한 실시예에 따르면, 디스플레이 모듈(260)은 패널(262) 또는 홀로그램(264)를 제어하기 위한 제어회로를 더 포함할 수 있다.
인터페이스(270)는, 예를 들면, HDMI(high-definition multimedia interface)(272), USB(universal serial bus)(274), 프로젝터(276) 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 추가적으로 또는 대체적으로, 인터페이스(270)는, 예를 들면, SD(secure Digital)/MMC(multi-media card)(미도시) 또는 IrDA(infrared data association, 미도시)를 포함할 수 있다.
오디오 코덱(280)은 음성과 전기신호를 쌍방향으로 변환시킬 수 있다. 오디오 코덱(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286) 또는 마이크(288) 등을 통해 입력 또는 출력되는 음성 정보를 변환시킬 수 있다.
카메라 모듈(291)은 화상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 렌즈 또는 후면 렌즈), ISP(image signal processor, 미도시) 또는 플래쉬 LED(flash LED, 미도시)를 포함할 수 있다.
전력관리 모듈(295)은 하드웨어(200)의 전력을 관리할 수 있다. 도시하지는 않았으나, 전력관리 모듈(295)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 게이지(battery fuel gauge)를 포함할 수 있다.
PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 정류기 등의 회로가 추가될 수 있다.
배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 배터리(296)는 전기를 생성하여 전원을 공급할 수 있고, 예를 들면, 충전식 전지(rechargeable battery)일 수 있다.
인디케이터(297)는 하드웨어(200) 혹은 그 일부(예: AP(211))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있다. MCU(299)는, 센서 모듈(240)을 제어할 수 있다.
도시되지는 않았으나, 하드웨어(200)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다. 본 발명에 따른 하드웨어의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자장치의 종류에 따라서 달라질 수 있다. 본 발명에 따른 하드웨어는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명에 따른 하드웨어의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 발명에 사용된 용어“모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
도 3은 한 실시예에 따른 프로그래밍 모듈(300)의 블록도를 도시한다.
프로그래밍 모듈(300)은 도 1에 도시된 전자 장치(100)(예: 메모리 (130))에 포함(예: 저장)될 수 있다. 프로그래밍 모듈(300)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다. 프로그래밍 모듈(300)은 하드웨어(예: 하드웨어(200))에 구현되어 전자 장치(예: 전자 장치(100))에 관련된 자원을 제어하는 운영체제(OS: operation system) 또는 운영체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션(370))을 포함할 수 있다. 예를 들면, 운영체제는 안드로이드(Android), iOS, 윈도우즈(Windows), 심비안(Symbian), 타이젠(Tizen) 또는 바다(Bada) 등이 될 수 있다. 도 3을 참조하면, 프로그래밍 모듈(300)은 커널(310), 미들웨어(330), API(application programming interface)(360) 또는 어플리케이션(370)을 포함할 수 있다.
커널(310)(예: 커널(131))은 시스템 리소스 매니저(311) 또는 디바이스 드라이버(312)를 포함할 수 있다. 시스템 리소스 매니저(311)은 시스템 리소스의 제어, 할당 또는 회수 등을 수행할 수 있다. 디바이스 드라이버(312)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버 또는 오디오 드라이버를 포함할 수 있다. 또한, 한 실시예에 따르면, 디바이스 드라이버(312)는 IPC (inter-process communication, 미도시) 드라이버를 포함할 수 있다.
미들웨어(330)는 어플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하기 위해 미리 구현해 놓은 복수의 모듈들을 포함할 수 있다. 또한, 미들웨어(330)는 어플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API(360)를 통해 기능을 제공할 수 있다. 예를 들면, 도 3에 도시된 바와 같이, 미들웨어(330)(예: 미들웨어 (132))는 런타임 라이브러리(335), 어플리케이션 매니저(application manager)(341), 윈도우 매니저(window manager)(342), 멀티미디어 매니저(multimedia manager)(343), 리소스 매니저(resource manager)(344), 파워 매니저(power manager)(345), 데이터베이스 매니저(database manager)(346), 패키지 매니저(347), 연결 매니저(connectivity manager)(348), 통지 매니저(notification manager)(349), 위치 매니저(location manager)(350), 그래픽 매니저(graphic manager)(351) 또는 보안 매니저(security manager)(352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 어플리케이션(370)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 한 실시예에 따르면, 런타임 라이브러리(335)는 입출력, 메모리 관리 또는 산술 함수에 대한 기능 등을 수행할 수 있다.
어플리케이션 매니저(341)는, 예를 들면, 어플리케이션(370) 중 적어도 하나의 어플리케이션의 생명주기(life cycle)를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 리소스 매니저(344)는 어플리케이션(370) 중 적어도 어느 하나의 어플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.
파워 매니저(345)는 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 동작에 필요한 전력 정보 등을 제공할 수 있다. 데이터베이스 매니저(346)는 어플리케이션(370) 중 적어도 하나의 어플리케이션에서 사용할 데이터베이스를 생성, 검색 또는 변경할 수 있도록 관리할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 업데이트를 관리할 수 있다.
연결 매니저(348)는, 예를 들면, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 통지 매니저(349)는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 위치 매니저(350)는 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(352)는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시예에 따르면, 전자 장치(예: 전자 장치 (100))가 전화 기능을 구비한 경우에는, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager, 미도시)를 더 포함할 수 있다.
미들웨어(330)는 전술한 내부 구성요소 모듈들의 다양한 기능 조합을 통해 새로운 미들웨어 모듈을 생성하여 사용할 수 있다. 미들웨어(330)는 차별화된 기능을 제공하기 위해 운영체제의 종류별로 특화된 모듈을 제공할 수 있다. 또한, 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. 따라서, 본 발명의 실시예에 기재된 구성요소를 일부 생략하거나 다른 구성요소를 더 구비하거나 또는 유사한 기능을 수행하는 다른 명칭을 갖는 구성요소로 대체할 수 있다.
API(360)(예: API(133))는 API 프로그래밍 함수들의 집합으로, 운영체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 예를 들면, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(Tizen)의 경우, 예를 들면, 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(370)(예: 어플리케이션(134))은, 예를 들면, 프리로드 어플리케이션(preloaded Application) 또는 제 삼자 어플리케이션(third party application)을 포함할 수 있다.
프로그래밍 모듈(300)의 적어도 일부는 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 명령어는, 하나 이상의 프로세서(예: 프로세서(210))에 의해 실행될 경우, 하나 이상의 프로세서가 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리(260)가 될 수 있다. 프로그래밍 모듈(300)의 적어도 일부는, 예를 들면, 프로세서(210)에 의해 구현(implement)(예: 실행)될 수 있다. 프로그래밍 모듈(300)의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions), 프로세스 등을 포함할 수 있다.
본 발명에 따른 프로그래밍 모듈(예: 프로그래밍 모듈(300))의 구성요소들의 명칭은 운영체제의 종류에 따라서 달라질 수 있다. 본 발명에 따른 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명에 따른 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 처리될 수 있으며, 또한 일부 동작이 생략되거나, 다른 동작이 추가될 수 있다.
도 4는 본 발명의 일 실시예에 따른 사용자 인터페이스에서 터치 입력에 반응하여 기능을 실행하는 동작을 설명하기 위한 흐름도이다.
도 4를 참조하면, 동작 401에서 프로세서(210)는 사용자 인터페이스를 전자장치의 디스플레이에 표시할 수 있다. 여기서 전자장치(200)의 디스플레이는 적어도 하나의 디스플레이를 포함하고 있는 터치 패널(252)일 수 있다. 사용자 인터페이스는 전자장치(200)의 현재 작업 상황과 관계없이 항상 디스플레이에 표시될 수 있다. 예컨대, 전자장치(200)의 디스플레이가 꺼진 상태를 제외하고, 전자장치(200)가 기본적인 대기 상태, 특정 어플리케이션이 실행 중인 상태 및 인터넷 검색 중인 상태 등 모든 경우에 있어서 사용자 인터페이스는 디스플레이에 표시될 수 있다. 사용자 인터페이스는 기본적으로 반투명 상태이며, 프로세서(210)는 사용자의 설정에 대응하여 사용자 인터페이스의 투명한 정도를 변경할 수도 있고 사용자 인터페이스를 종료할 수도 있다. 그리고 프로세서(210)는 사용자 인터페이스의 크기, 위치, 색깔 등의 외적인 요소를 사용자의 설정에 대응하여 자유롭게 변경할 수 있기 때문에 사용자는 제한 없이 사용자 인터페이스를 사용할 수 있다. 동작 402에서 프로세서(210)는 현재 전자장치의 최우선 순위 어플리케이션을 확인할 수 있다. 예컨대, 최우선 순위 어플리케이션은 전자장치(200)에서 현재 실행되고 있는 어플리케이션일 수 있다. 즉, 전자장치(200)의 디스플레이에 표시되어 사용자가 직접 사용중인 프로그램이 최우선 순위의 어플리케이션일 수 있다. 프로세서(210)는 디스플레이 모듈(260)의 최상층에 표시되는 전경 어플리케이션을 최우선 순위의 어플리케이션으로 결정할 수 있다. 또한, 프로세서(210)가 미디어(예를 들면, 오디오, 비디오 등)를 재생 중인 경우 최우선 순위의 어플리케이션은 미디어를 재생하는 어플리케이션으로 결정될 수 있다. 동작 402에서 프로세서(210)는 최우선 순위 어플리케이션을 확인하고, 동작 403에서 프로세서(210)는 최우선 순위 어플리케이션의 기능들을 각각 터치 입력들에 맵핑할 수 있다. 어플리케이션의 종류에 따라 프로세서(210)는 어플리케이션의 기능을 다르게 맵핑할 수 있다. 동작 404에서 프로세서(210)는 사용자 인터페이스에서 터치 입력을 인식할 수 있다. 동작 404에서 프로세서(210)가 터치 입력을 인식하지 못한다면, 동작 405에서 프로세서(210)는 최우선 순위 어플리케이션의 변경을 확인할 수 있다. 프로세서(210)는 디스플레이 모듈의 최상층에 표시된 전경 어플리케이션을 최우선 순위로 변경된 어플리케이션으로 결정할 수 있다. 동작 405에서 프로세서(210)가 최우선 순위 어플리케이션의 변경을 확인할 수 없다면, 프로세서(210)는 계속해서 사용자 인터페이스에서 터치 입력을 인식할 수 있다. 동작 405에서 프로세서(210)가 최우선 순위 어플리케이션의 변경을 확인한다면, 동작 403에서 프로세서(210)는 변경된 최우선 순위 어플리케이션과 관련하여 어플리케이션의 기능들을 다시 터치 입력들에 맵핑할 수 있다. 동작 404에서 프로세서(210)가 터치 입력을 인식하면, 동작 406에서 프로세서(210)는 터치 입력에 반응하여 맵핑된 기능을 실행할 수 있다. 여기서 맵핑된 기능은 특정 어플리케이션에 대한 기능 중 하나의 기능일 수도 있고, 어플리케이션들에 공통적으로 연관된 기능(예: 전화 걸기, 메시지 전송 하기)일 수도 있다. 여기서 프로세서(210)는 어플리케이션들에 공통적으로 연관된 기능을 미리 정해진 제 2 의 터치 입력으로 맵핑할 수 있다. 또한, 해당 기능은 프로세서(210)가 최우선 순위 어플리케이션을 종료하지 않은 상태로 프로세서(210)가 새로운 어플리케이션을 실행할 수 있는 동작(예: 멀티 태스킹(multi-tasking))에 대한 기능일 수도 있다. 그리고 본 발명에서 프로세서(210)는 각 어플리케이션에 대해 같은 종류의 어플리케이션(예: 다음, 네이버, 크롬, 사파리 등의 웹브라우징 용도의 어플리케이션)을 그룹화할 수 있다. 이에 따라 프로세서(210)는 그룹화된 어플리케이션의 기능과 관련하여 터치 입력을 동일하게 맵핑할 수 있다. 즉, 프로세서(210)는 그룹화된 어플리케이션들에서 서로 동일한 기능들에 동일한 터치 입력을 맵핑할 수 있다. 이로 인해 사용자는 그룹화된 어플리케이션과 관련하여 사용자 경험(User Experience, UX)을 일치시킬 수 있다. 이에 따라 같은 종류의 어플리케이션에서 동일한 기능을 동일한 터치 입력으로 편리하게 사용할 수 있다. 여기서 그룹화는 설치 시 정해질 수 있으며, 사용자의 설정에 의해 임의적으로 정해질 수도 있다.
도 5a, 5b, 5c, 5d, 5e는 본 발명의 다양한 실시예에 따른 사용자 인터페이스를 설명하기 위한 예시도이다.
도 5a를 참조하면, 프로세서(210)는 전자장치(500)의 디스플레이(510)에 사용자 인터페이스(520)를 표시할 수 있다. 전자장치(500)의 디스플레이(510)가 꺼진 상태를 제외하면, 프로세서(210)는 항상 전자장치(500)의 디스플레이(510) 상에 반투명 상태로 사용자 인터페이스(520)를 표시할 수 있다. 즉, 프로세서(210)는 사용자 인터페이스(520)를 항상 디스플레이 모듈(260)의 최상층에 표시하도록 디스플레이 모듈(260)을 제어할 수 있다. 그리고 프로세서(210)는 사용자의 설정에 따라 사용자 인터페이스(520)의 투명도를 변경할 수 있다. 또한, 프로세서(210)는 사용자의 설정에 대응하여 사용자 인터페이스(520)의 크기, 위치, 색깔 등의 외적인 요소를 변경할 수 있으며, 사용자가 사용자 인터페이스(520)를 원하지 않는 경우 사용자 인터페이스(520)를 종료할 수도 있다. 또한, 프로세서(210)는 전자장치(500)에서 실행 중인 어플리케이션과 관련하여 최우선 순위의 어플리케이션을 확인할 수 있다. 여기서 최우선 순위 어플리케이션은 디스플레이 모듈(260)의 최상층에 표시되는 전경 어플리케이션일 수 있다. 프로세서(210)는 최우선 순위 어플리케이션의 기능들을 각각 미리 정해진 터치 입력들에 맵핑할 수 있다. 또한, 어플리케이션들에 공통적으로 연관된 기능을 미리 정해진 제 2 의 터치 입력에 맵핑할 수도 있다. 게다가 프로세서(210)는 최우선 순위 어플리케이션과 관련 없이 사용자의 설정에 따라 사용자 인터페이스(520)의 기능을 맵핑할 수도 있다.
도 5b를 참조하면, 프로세서(210)는 사용자의 설정에 대응하여 사용자 인터페이스(520)의 크기를 자유롭게 설정할 수 있다. 즉, 프로세서는 사용자의 특성(예를 들어, 왼손 잡이, 오른손 잡이) 및 습관에 따라 사용자 인터페이스(520)의 크기를 자유롭게 조정할 수 있다. 이에 따라, 사용자는 편리하게 사용자 인터페이스(520)를 활용할 수 있다.
도 5c를 참조하면, 프로세서(210)는 또한 사용자의 설정에 대응하여 사용자 인터페이스(520)의 위치도 자유롭게 설정할 수 있다. 이에 따라, 사용자는 사용자 인터페이스(520)를 더욱 편리하게 사용할 수 있다. 프로세서(210)가 사용자의 설정에 대응하여 사용자 인터페이스(520)의 크기 및 위치를 자유롭게 변경할 수 있기 때문에 사용자는 전자장치(500)의 화면 크기로 인한 제약을 최소화할 수 있다. 또한, 사용자는 사용자 인터페이스(520)를 사용함에 있어서, 개인적인 습관(예: 왼손 잡이, 오른손 잡이)으로 인해 발생하는 불편함을 줄일 수도 있다.
도 5d를 참조하면, 프로세서(210)는 사용자 인터페이스(520)에서 감지한 터치 입력(525)에 반응하여 맵핑된 기능을 실행할 수 있다. 예컨대, 전자장치(500)에서 웹 브라우징(Web browsing) 작업이 최우선 순위 어플리케이션인 경우 전자장치(500)의 디스플레이(510)는 웹 브라우징 하는 상태를 표시할 수 있다. 웹 브라우징 작업이 최우선 순위 어플리케이션인 경우 사용자 인터페이스(520)의 중심부에서 왼쪽 방향으로 움직이는 터치 입력에 대하여 프로세서(210)는 ‘뒤로 가기’기능을 맵핑할 수 있다. 동작 525는 사용자 인터페이스(520)의 중심부에서 왼쪽 방향으로 움직이는 터치 입력의 움직임을 보여준다. 동작 525에서 프로세서(210)가 터치 입력을 감지하면 프로세서(210)는 기존의 웹브라우징 화면(510)의 이전 화면(515)으로 ‘뒤로 가기’기능을 실행할 수 있다. 또한, 프로세서(210)는 사용자 인터페이스(520)의 중심부에서 아래쪽 방향, 위쪽 방향, 오른쪽 방향으로 움직이는 터치 입력에 대하여 각각의 기능을 맵핑하고 실행할 수도 있다.
도 5e를 참조하면, 프로세서(210)는 단순히 어플리케이션의 특정 기능을 실행하는 것뿐만 아니라, 터치 입력에 반응하여 새로운 창(530)을 띄우고 다른 어플리케이션(532, 534)을 실행할 수도 있다. 예를 들어, 프로세서(210)가 사용자 인터페이스(520)에서 “left gesture”에 따른 터치 입력을 인식하는 경우 프로세서(210)는 화면(510)의 왼쪽 공간에 새로운 창(530)을 띄우고 다른 어플리케이션(532, 534)을 실행할 수 있다. 프로세서(210)는 사용자의 설정에 대응하여 임의적으로 새로운 창(530)에서 실행할 수 있는 어플리케이션(532, 534)들을 설정할 수도 있다. 또한, 예를 들어, 프로세서(210)가 사용자 인터페이스(520)에서 “lower gesture”에 따른 터치 입력을 인식하는 경우 프로세서(210)는 화면(510)의 아래쪽 공간에 새로운 창을 띄우고 여러 가지 기능들을 실행할 수 있다. 여기서 여러 가지 기능들은 전자장치(500)의 어플리케이션들에 공통적으로 연관된 기능일 수도 있다. 예컨대, 익스플로어(explorer), 크롬(chrome) 및 사파리()가 하나의 브라우저 그룹으로 묶일 수 있다. 그렇다면 전자 장치(500)는 특정 어플리케이션(예, 통화 어플리케이션)을 브라우저 그룹에 공통으로 필요한 어플리케이션으로 설정할 수 있다. 또한 전자 장치(500)는 통화 어플리케이션에서 특정 기능(예, 전화 걸기)를 브라우저 그룹에 공통적으로 연관된 기능으로 설정할 수 있다.
도 6은 본 발명의 일 실시예에 따른 어플리케이션의 종류 및 기능을 메모리에 등록하는 동작을 설명하기 위한 흐름도이다.
도 6을 참조하면, 동작 601에서 프로세서(210)는 대기 상태이다. 동작 602에서 프로세서(210)는 메모리(220)에 어플리케이션을 설치할 수 있다. 동작 603에서 프로세서(210)는 어플리케이션을 설치할 때 해당 어플리케이션의 종류를 확인할 수 있다. 예컨대, 프로세서(210)는 어플리케이션 설치 시 해당 어플리케이션의 제작자에 의해 어플리케이션의 종류에 대한 정보를 전송받을 수 있다. 동작 603에서 어플리케이션의 종류를 확인할 수 없는 경우, 프로세서(210)는 어플리케이션의 종류 및 기능을 등록하지 않은 상태로 설치한다. 동작 603에서 프로세서(210)가 어플리케이션의 종류를 확인한 경우, 동작 604에서 프로세서(210)는 메모리에 어플리케이션의 종류 및 기능을 등록할 수 있다.
도 7은 본 발명의 일 실시예에 따른 어플리케이션의 종류 및 기능을 메모리에 등록하는 동작을 설명하기 위한 예시도이다.
도 7을 참조하면, 메모리(710)는 사용자 인터페이스에 대한 어플리케이션 프로그래밍 인터페이스(Application Programming Interface, API)(720)를 포함할 수 있다. 그리고 프로세서(210)는 어플리케이션 프로그래밍 인터페이스(API)(720)에 각각의 어플리케이션에 대한 종류 및 기능들을 등록할 수 있다. 예컨대, 동작 730에서 전자장치(200)의 프로세서(210)는 어플리케이션1에서 브라우징하는 기능(722), 어플리케이션2에서 브라우징하는 기능(724), 어플리케이션1에서 메시지를 전송하는 기능(726) 등 어플리케이션의 종류 및 기능을 어플리케이션 프로그래밍 인터페이스(720)에 등록할 수 있다. 이에 따라, 프로세서(210)는 어플리케이션 프로그래밍 인터페이스(720)에 등록된 특정 어플리케이션이 최우선 순위 어플리케이션인 경우 미리 등록된 해당 어플리케이션의 고유 기능들(722, 724, 726, 728)을 각각 터치 입력들에 맵핑할 수 있다. 즉, 프로세서(210)가 전자장치(200)의 최우선 순위 어플리케이션을 확인한 결과, 최우선 순위 어플리케이션이 등록된 특정 어플리케이션으로 확인된 경우 프로세서(210)는 해당 어플리케이션의 기능들을 각각 터치 입력들에 맵핑할 수 있다. 그리고 프로세서(210)는 터치 입력을 인식하고 터치 입력에 반응하여 맵핑된 기능들을 실행할 수 있다. 게다가, 프로세서(210)는 특정 어플리케이션들을 그룹화하여 서로 동일한 기능들에 동일한 터치 입력을 맵핑할 수 있다. 즉, 프로세서(210)는 같은 종류의 어플리케이션들을 그룹화하여 서로 동일한 기능들에 동일한 터치 입력으로 해당 기능을 실행할 수 있다. 이에 따라, 프로세서(210)는 같은 종류의 어플리케이션(예: 다음, 네이버, 크롬, 사파리 등의 웹브라우징 용도의 어플리케이션)들과 관련하여 동일한 기능을 그룹화하여 터치 입력에 맵핑하고, 동일한 터치 입력에 반응하여 동일한 기능을 사용할 수도 있다. 여기서 그룹화는 설치 시 정해질 수도 있고 사용자의 설정에 의해 임의적으로 정해질 수도 있다.
도 8은 본 발명의 일 실시예에 따른 최우선 순위 어플리케이션의 기능을 각각 터치 입력들에 맵핑하고, 터치 입력에 반응하여 맵핑된 기능을 실행하는 동작을 설명하기 위한 흐름도이다.
도 8을 참조하면, 동작 801에서 프로세서(210)는 사용자 인터페이스를 전자장치(200)의 디스플레이에 표시할 수 있다. 동작 802에서 프로세서(210)는 전자장치(200)의 최우선 순위 어플리케이션을 확인할 수 있다. 즉, 프로세서(210)는 다중프로그래밍 시스템에서 우선권을 갖고 있는 프로세스를 확인할 수 있다. 여기서 프로세스는 적어도 하나 이상의 어플리케이션 프로그램이 실행 중인 상태일 수 있다. 최우선 순위 어플리케이션은 디스플레이 모듈(260)의 최상층에 표시되는 전경 어플리케이션일 수 있다. 또한, 미디어(예를 들면, 오디오, 비디오 등)를 재생 중인 경우 최우선 순위 어플리케이션은 미디어를 재생하는 어플리케이션일 수 있다. 동작 802에서 프로세서(210)는 전자장치(200)의 최우선 순위 어플리케이션을 확인하고 동작 803에서 프로세서(210)는 최우선 순위 어플리케이션의 기능들을 각각 터치 입력들에 맵핑할 수 있다. 동작 804에서 프로세서(210)는 사용자 인터페이스에서 터치 입력을 인식할 수 있다. 즉, 프로세서(210)는 사용자 입력 모듈(250)의 터치 패널(252)에서 사용자의 터치를 감지하여 터치 입력을 인식할 수 있다. 특히, 프로세서(210)가 사용자 인터페이스에서 터치 입력을 인식하는 경우 프로세서(210)는 미리 맵핑된 터치 입력에 반응하여 기능을 실행할 수 있다. 동작 804에서 프로세서(210)가 터치 입력을 인식하지 못한 경우 동작 805에서 프로세서(210)는 최우선 순위 어플리케이션의 변경을 확인할 수 있다. 동작 805에서 전자장치(200)의 최우선 순위 어플리케이션이 변경되지 않는다면, 프로세서(210)는 동작 804에서 사용자 인터페이스에서의 터치 입력을 인식할 수 있다. 동작 805에서 프로세서(210)가 최우선 순위 어플리케이션의 변경을 확인하면, 프로세서(210)는 동작 803에서 변경된 최우선 순위 어플리케이션의 기능들을 각각 터치 입력들에 다시 맵핑할 수 있다. 동작 804에서 프로세서(210)가 터치 입력을 인식하는 경우 동작 806에서 프로세서(210)는 터치 입력이 미리 정의된 것인지 여부를 확인할 수 있다. 동작 806에서 프로세서(210)가 터치 입력이 미리 정의된 것인지 확인할 수 없다면, 프로세서(210)는 동작 804에서 다시 터치 입력을 인식 할 수 있다. 동작 806에서 프로세서(210)가 터치 입력이 미리 정의된 것임을 확인한다면, 동작 807에서 프로세서(210)는 터치 입력에 반응하여 맵핑된 기능을 실행할 수 있다. 이 때 맵핑된 기능은 동작 803에서 이미 터치 입력들에 맵핑되어 있는 상태이다. 여기서 맵핑된 기능은 “뒤로 가기” 및 “최신 목록 불러 오기”와 같이 전자장치(200)의 최우선 순위 어플리케이션에 대한 기능일 수도 있고 다른 어플리케이션을 실행시키기 위한 새로운 창을 띄우는 기능일 수도 있다. 즉, 프로세서(210)는 사용자 인터페이스를 이용하여 전자장치의 최우선 순위 어플리케이션과 관련된 기능뿐만 아니라 전자장치의 멀티 태스킹 능력을 기반으로 전자장치의 다른 어플리케이션으로 전환하는 기능도 실행할 수 있다.
도 9는 본 발명의 일 실시예에 따른 사용자의 터치 입력에 반응하여 미리 맵핑된 최우선 순위 어플리케이션의 기능을 실행하는 방법을 설명하기 위한 예시도이다.
도 9를 참조하면, 프로세서(900)는 전자장치(200)에서 최우선 순위 어플리케이션의 활성화 상태(904)를 확인할 수 있다. 프로세서(900)는 최우선 순위 어플리케이션의 활성화 상태(904)를 확인하고, 전자장치(200)의 최우선 순위 어플리케이션의 기능들을 각각 터치 입력들에 맵핑할 수 있다. 동작 910에서 프로세서(900)는 최우선 순위 어플리케이션을 확인하고 최우선 순위 어플리케이션의 기능을 실행하기 위해 가상 어댑터(902)를 생성할 수 있다. 프로세서(900)는 사용자 입력 모듈(901)에서 터치 입력이 발생한 경우 프로세서(900)가 터치 입력에 반응하여 미리 맵핑된 기능을 실행할 수 있도록 가상 어댑터(902)를 통해 동작 950에서 각각의 어플리케이션으로 신호를 전송할 수 있다. 예컨대, 1번 어플리케이션이 최우선 순위 어플리케이션인 상태에서 프로세서(900)가 터치 입력의 발생을 확인한 경우, 프로세서(900)는 터치 입력에 반응하여 맵핑된 기능을 실행하기 위한 신호를 1번 어플리케이션에게 전송할 수 있다. 이에 따라, 프로세서(900)는 해당 신호에 대한 1번 어플리케이션의 기능을 실행할 수 있다. 프로세서(900)가 가상 어댑터(902)를 생성한 후 프로세서(900)는 동작 920에서 사용자 입력 모듈(901)을 통한 터치 입력을 확인수 있다. 예를 들어 터치 입력은 사용자가 사용자 인터페이스의 중심부를 터치한 상태에서 상, 하, 좌, 우로 밀어내는 동작일 수 있다. 프로세서(900)는 동작 920에서 터치 입력의 발생을 확인하고, 동작 930에서 터치 입력에 관한 정보를 이벤트 감지부(906)로 전송할 수 있다. 이벤트 감지부(906)는 메모리(130)의 미들웨어(132)에 포함될 수 있다. 동작 930에서 이벤트 감지부(906)가 터치 입력에 관한 정보를 수신한 경우 프로세서(900)는 이벤트 감지부(906)에서 터치 입력에 관한 정보를 구별할 수 있다. 동작 940에서 프로세서(900)는 이벤트 감지부(906)를 통해 구별된 터치 입력에 관한 정보를 가상 어댑터(902)에게 전송할 수 있다. 동작 950에서 프로세서(900)는 터치 입력에 반응하여 맵핑된 기능에 관한 신호를 해당 어플리케이션의 어댑터로 전송할 수 있다. 프로세서(900)는 각각의 어플리케이션 어댑터(952, 954, 956, 958)를 통해 각각의 어플리케이션에 관한 기능(962, 964, 966, 968)들을 실행할 수 있다. 각각의 어플리케이션에 관한 기능(962, 964, 966, 968)들은 어플리케이션의 종류에 따라 동일한 기능일 수도 있다. 프로세서(900)는 어플리케이션의 특정 기능을 실행하는 것뿐만 아니라, 새로운 창을 띄워 다른 어플리케이션을 실행할 수도 있다.
본 명세서와 도면에 개시된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100, 102, 104 : 전자장치 110 : 버스
120 : 메인 프로세서 121 : 서브 프로세서
121 : 메모리 131, 310 : 커널
132, 330 :미들웨어
133, 360 : 어플리케이션 프로그래밍 인터페이스(API)
134, 370 : 어플리케이션
140 : 사용자 입력 모듈 150 : 디스플레이 모듈
160 : 통신 모듈 162 : 네트워크
164 : 서버 170 : 센서 모듈
200 : 하드웨어 210 : 프로세서
211 : 어플리케이션 프로세서(AP) 212 : 저전력 서브 프로세서
213 : 커뮤니케이션 프로세서(CP) 214 : SIM 카드
220 : 메모리 222 : 내장메모리
224 : 외장메모리 230 : 통신 모듈
231 : 무선 통신 모듈 233 : Wi-Fi
234 : RF 모듈 235 : BT
237 : GPS(Global Positioning System)
239 : NFC(near field communication)
240 : 센서 모듈 240A : 제스처 센서
240B :자이로 센서 240C : 기압 센서
240D :마그네틱 센서 240E : 가속도 센서
240F : 그립 센서 240G : 근접 센서
240H : RGB 센서 240I : 생체 센서
240J : 온/습도 센서 240K : 조도 센서
240M : UV 센서 250 : 사용자 모듈
252 : 터치 패널 254 : 펜 센서
256 : 키 258 : 울트라소닉
260 : 디스플레이 모듈 262 : 패널
264 : 홀로그램 270 : 인터페이스
272 : HDMI(High Definition Multimedia Interface)
274 : USB(Universal serial bus)
276 :프로젝터 278 : D-SUB
280 : 오디오 코덱 282 : 스피커
284 : 리시버 286 : 이어폰
288 : 마이크 291 : 카메라 모듈
295 : 전력 관리 모듈 296 : 배터리
297 :인디케이터 298 : 모터
300 : 프로그래밍 모듈 311 : 시스템 리소스 매니저
312 : 디바이스 드라이버 335 : 런타임 라이브러리
341 : 어플리케이션 매니저 342 : 윈도우 매니저
343 : 멀티미디어 매니저 344 : 리소스 매니저
345 : 파워 매니저 346 : 데이터베이스 매니저
347 : 패키지 매니저 348 : 연결 매니저
349 : 통지 매니저 350 : 위치 매니저
351 : 그래픽 매니저 352 : 보안 매니저
371 : 홈 372 : 다이얼러
373 : SMS/MMS(short message service/multi-media message service)
374 : IM(instant messaging)
375 : 브라우저 376 : 카메라
377 : 알람 378 : 컨택트
379 : 음성다이얼 380 : 이메일
381 : 달력 382 : 미디어 플레이어
383 : 앨범 384 : 시계

Claims (14)

  1. 디스플레이 모듈;
    상기 디스플레이 모듈에 설치되는 터치 패널;
    어플리케이션들이 설치되는 메모리;
    상기 메모리에 설치된 어플리케이션들 중 최우선 순위 어플리케이션을 결정하고, 상기 최우선 순위 어플리케이션의 기능들을 각각 미리 정해진 터치 입력들에 맵핑하고, 상기 디스플레이 모듈에 표시된 사용자 인터페이스에 대한 터치 입력을 인식하고, 상기 인식된 터치 입력에 맵핑된 기능을 실행하는 프로세서;
    를 포함하는 전자장치.
  2. 제 1 항에 있어서,
    상기 프로세서는,
    상기 최우선 순위 어플리케이션이 변경되는 경우 상기 최우선 순위로 변경된 어플리케이션을 인식하고, 상기 최우선 순위로 변경된 어플리케이션의 기능들을 각각 상기 미리 정해진 터치 입력들에 맵핑하는 것을 특징으로 하는 전자장치.
  3. 제 2 항에 있어서,
    상기 프로세서는,
    최상층에 표시된 전경 어플리케이션을 상기 최우선 순위로 변경된 어플리케이션으로 인식하는 것을 특징으로 하는 전자장치.
  4. 제 1 항에 있어서,
    상기 프로세서는,
    같은 종류의 어플리케이션들을 그룹화하고,
    상기 그룹화된 어플리케이션들에서 서로 동일한 기능들에 동일한 터치 입력을 맵핑하는 것을 특징으로 하는 전자장치.
  5. 제 1 항에 있어서,
    상기 프로세서는,
    상기 그룹화된 어플리케이션들에 공통적으로 연관된 기능을 미리 정해진 제 2 의 터치 입력에 맵핑하는 것을 특징으로 하는 전자장치
  6. 제 1 항에 있어서,
    상기 프로세서는,
    상기 사용자 인터페이스를 항상 최상층에 표시하도록 상기 디스플레이 모듈을 제어하는 것을 특징으로 하는 전자장치.
  7. 터치 입력에 반응하여 기능을 실행하는 방법에 있어서,
    전자장치에 설치된 어플리케이션들 중 최우선 순위 어플리케이션을 결정하는 동작;
    상기 최우선 순위 어플리케이션의 기능들을 각각 미리 정해진 터치 입력들에 맵핑하는 동작;
    디스플레이 모듈에 표시된 사용자 인터페이스에 대한 터치 입력을 인식하는 동작;
    상기 인식된 터치 입력에 맵핑된 기능을 실행하는 동작; 을 포함하는 것을 특징으로 하는 방법.
  8. 제 7 항에 있어서,
    최우선 순위의 변경을 인식하는 동작을 더 포함하고,
    상기 맵핑하는 동작은,
    상기 최우선 순위로 변경된 어플리케이션의 기능들을 각각 상기 미리 정해진 터치 입력들에 맵핑하는 동작을 포함하는 것을 특징으로 하는 방법.
  9. 제 8 항에 있어서,
    상기 최우선 순위의 변경을 인식하는 동작은,
    최상층에 표시된 전경 어플리케이션을 상기 최우선 순위로 결정하는 동작을 포함하는 것을 특징으로 하는 방법.
  10. 제 7 항에 있어서,
    상기 각각 미리 정해진 터치 입력들에 맵핑하는 동작은,
    메모리에 어플리케이션을 설치하는 경우 상기 어플리케이션의 종류를 확인하는 동작;
    상기 메모리에 상기 어플리케이션의 종류 및 기능을 등록하는 동작;
    상기 걸졍된 최우선 순위 어플리케이션의 기능들을 각각 터치 입력들에 맵핑하는 동작; 을 더 포함하는 것을 특징으로 하는 방법.
  11. 제 10 항에 있어서,
    같은 종류의 어플리케이션들을 그룹화하는 동작;
    상기 그룹화된 어플리케이션들에서 서로 동일한 기능들에 동일한 터치 입력을 맵핑하는 동작; 을 더 포함하는 것을 특징으로 하는 방법.
  12. 제 10 항에 있어서,
    상기 각각 미리 정해진 터치 입력들에 맵핑하는 동작은,
    상기 그룹화된 어플리케이션들에 공통적으로 연관된 기능을 미리 정해진 제 2 의 터치 입력에 맵핑하는 동작을 포함하는 것을 특징으로 하는 방법.
  13. 제 7 항에 있어서,
    상기 인식된 터치 입력에 맵핑된 기능을 실행하는 동작은,
    다른 어플리케이션을 실행하는 동작을 포함하는 것을 특징으로 하는 방법.
  14. 제 7 항에 있어서,
    상기 사용자 인터페이스는 항상 상기 디스플레이 모듈의 최상층에 표시하도록 상기 디스플레이 모듈을 제어하는 동작을 포함하는 것을 특징으로 하는 방법.



KR1020130133426A 2013-11-05 2013-11-05 터치 입력에 반응하여 기능을 실행하는 방법 및 이를 구현하는 전자장치 KR20150051663A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020130133426A KR20150051663A (ko) 2013-11-05 2013-11-05 터치 입력에 반응하여 기능을 실행하는 방법 및 이를 구현하는 전자장치
US14/532,331 US20150128079A1 (en) 2013-11-05 2014-11-04 Method for executing function in response to touch input and electronic device implementing the same
PCT/KR2014/010589 WO2015069021A1 (en) 2013-11-05 2014-11-05 Method for executing function in response to touch input and electronic device implementing the same
EP20140191881 EP2869181A1 (en) 2013-11-05 2014-11-05 Method for executing functions in response to touch input and electronic device implementing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130133426A KR20150051663A (ko) 2013-11-05 2013-11-05 터치 입력에 반응하여 기능을 실행하는 방법 및 이를 구현하는 전자장치

Publications (1)

Publication Number Publication Date
KR20150051663A true KR20150051663A (ko) 2015-05-13

Family

ID=51893861

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130133426A KR20150051663A (ko) 2013-11-05 2013-11-05 터치 입력에 반응하여 기능을 실행하는 방법 및 이를 구현하는 전자장치

Country Status (4)

Country Link
US (1) US20150128079A1 (ko)
EP (1) EP2869181A1 (ko)
KR (1) KR20150051663A (ko)
WO (1) WO2015069021A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170142474A (ko) * 2016-06-17 2017-12-28 삼성전자주식회사 사용자 입력 처리 방법 및 전자 장치
CN109954272A (zh) * 2019-01-07 2019-07-02 深圳威尔视觉传媒有限公司 一种基于用户习惯的手柄键值映射方法、相关装置和手柄
WO2019139364A1 (en) * 2018-01-12 2019-07-18 Samsung Electronics Co., Ltd. Method and apparatus for modifying features associated with applications
US11706513B2 (en) 2018-02-23 2023-07-18 Lg Innotek Co., Ltd. Camera module

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD750650S1 (en) * 2012-11-30 2016-03-01 Lg Electronics Inc. Multimedia terminal with transitional graphical user interface
USD766924S1 (en) * 2014-07-29 2016-09-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
KR101790204B1 (ko) * 2015-07-14 2017-11-20 삼성전자주식회사 결제 서비스를 위한 카드 등록 방법 및 이를 구현하는 휴대 전자 장치
US10558265B2 (en) * 2015-12-11 2020-02-11 Semiconductor Energy Laboratory Co., Ltd. Input device and system of input device
CN105893033A (zh) * 2016-03-29 2016-08-24 乐视控股(北京)有限公司 唤醒移动终端及应用程序的方法和系统
CN105867980A (zh) * 2016-04-19 2016-08-17 青岛海信电器股份有限公司 终端的按键处理方法及装置
CN106713742B (zh) * 2016-11-15 2021-03-02 维沃移动通信有限公司 一种拍摄方法和移动终端
KR102309296B1 (ko) * 2017-03-17 2021-10-06 엘지전자 주식회사 이동단말기 및 그 제어 방법
CN111258407B (zh) 2017-05-27 2021-06-29 Oppo广东移动通信有限公司 应用功能的控制方法及相关产品
US11287952B2 (en) 2018-03-30 2022-03-29 Micro Focus Llc Dynamic contextual menu
DE102020128419A1 (de) * 2020-10-29 2022-05-05 Audi Aktiengesellschaft Verfahren zum Betreiben einer berührungssensitiven Eingabeeinheit sowie Bedienvorrichtung und Kraftfahrzeug

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6310610B1 (en) * 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
US7757185B2 (en) * 2006-01-06 2010-07-13 Apple Inc. Enabling and disabling hotkeys
US20070247434A1 (en) * 2006-04-19 2007-10-25 Cradick Ryan K Method, apparatus, and computer program product for entry of data or commands based on tap detection
US8626141B2 (en) * 2009-07-30 2014-01-07 Qualcomm Incorporated Method and apparatus for customizing a user interface menu
KR20110077260A (ko) * 2009-12-30 2011-07-07 주식회사 아이리버 애플리케이션과 상호작용하는 컨트롤 키를 제공하는 모바일 디바이스 및 그 방법
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
EP2487577A3 (en) * 2011-02-11 2017-10-11 BlackBerry Limited Presenting buttons for controlling an application
KR101810884B1 (ko) * 2011-06-07 2017-12-20 삼성전자주식회사 디바이스에서 제스처를 이용한 웹브라우저 인터페이스 제공 장치 및 방법
US20130152002A1 (en) * 2011-12-11 2013-06-13 Memphis Technologies Inc. Data collection and analysis for adaptive user interfaces
CN102707882A (zh) * 2012-04-27 2012-10-03 深圳瑞高信息技术有限公司 虚拟图标触摸屏应用程序的操控转换方法及触摸屏终端
CN103677549B (zh) * 2012-09-11 2017-08-11 阿里巴巴集团控股有限公司 一种数据处理方法与装置
US20150089438A1 (en) * 2013-09-24 2015-03-26 Kobo Inc. System and method for grouping applications and application resources on an interface of a computing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170142474A (ko) * 2016-06-17 2017-12-28 삼성전자주식회사 사용자 입력 처리 방법 및 전자 장치
WO2019139364A1 (en) * 2018-01-12 2019-07-18 Samsung Electronics Co., Ltd. Method and apparatus for modifying features associated with applications
US11138251B2 (en) 2018-01-12 2021-10-05 Samsung Electronics Co., Ltd. System to customize and view permissions, features, notifications, and updates from a cluster of applications
US11706513B2 (en) 2018-02-23 2023-07-18 Lg Innotek Co., Ltd. Camera module
CN109954272A (zh) * 2019-01-07 2019-07-02 深圳威尔视觉传媒有限公司 一种基于用户习惯的手柄键值映射方法、相关装置和手柄

Also Published As

Publication number Publication date
EP2869181A1 (en) 2015-05-06
US20150128079A1 (en) 2015-05-07
WO2015069021A1 (en) 2015-05-14

Similar Documents

Publication Publication Date Title
US10481698B2 (en) Electronic device and method for activating applications therefor
US10402065B2 (en) Method and apparatus for operating a virtual keyboard
KR20150051663A (ko) 터치 입력에 반응하여 기능을 실행하는 방법 및 이를 구현하는 전자장치
US20150128068A1 (en) Method for operating message application and electronic device implementing the same
KR20150054413A (ko) 시선 데이터에 따라 컨텐츠의 위치를 결정하는 전자 장치 및 방법
EP3223131A1 (en) Electronic device with fingerprint sensor and control method thereof
KR20150026022A (ko) 필드 속성을 이용한 컨텐트를 제공하는 전자 장치 및 방법
KR102206053B1 (ko) 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
KR102157858B1 (ko) 전력 소모를 줄일 수 있는 전자 장치 및 방법
US9606665B2 (en) Object moving method and electronic device implementing the same
EP3410282A1 (en) Electronic device and method for controlling user interface of electronic device
US20150177957A1 (en) Method and apparatus for processing object provided through display
KR20150066876A (ko) 사용자 인터페이스 제어 방법 및 그 전자 장치
KR20150115365A (ko) 전자장치에서 사용자 입력에 대응한 사용자 인터페이스 제공 방법 및 장치
EP3229125A1 (en) Electronic device and method of receiving user input thereof
KR20150117968A (ko) 입력방향에 따라 기능을 전환하는 전자 장치 및 방법
KR20150026257A (ko) 액세서리의 정보를 업 데이트하는 전자 장치 및 방법
US20190310737A1 (en) Electronic device and electronic device operating method
US10303351B2 (en) Method and apparatus for notifying of content change
KR20160012583A (ko) 기능 제어 방법 및 그 전자 장치
KR20150085864A (ko) 전자 장치의 광고 방법 및 그 전자 장치
KR20150069155A (ko) 전자 장치의 터치 인디케이터 디스플레이 방법 및 그 전자 장치
KR20150092640A (ko) 잠금 기능 제어 방법 및 그 전자 장치
KR20150099255A (ko) 정보 표시 방법 및 이를 이용하는 전자 장치
EP2869180A1 (en) Multi-language input method and multi-language input apparatus using the same

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid