KR20150051278A - 오브젝트 이동 방법 및 이를 구현하는 전자 장치 - Google Patents

오브젝트 이동 방법 및 이를 구현하는 전자 장치 Download PDF

Info

Publication number
KR20150051278A
KR20150051278A KR1020130132228A KR20130132228A KR20150051278A KR 20150051278 A KR20150051278 A KR 20150051278A KR 1020130132228 A KR1020130132228 A KR 1020130132228A KR 20130132228 A KR20130132228 A KR 20130132228A KR 20150051278 A KR20150051278 A KR 20150051278A
Authority
KR
South Korea
Prior art keywords
touch
gesture
input
objects
moving
Prior art date
Application number
KR1020130132228A
Other languages
English (en)
Inventor
최현석
김민호
오지웅
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130132228A priority Critical patent/KR20150051278A/ko
Priority to US14/531,303 priority patent/US9606665B2/en
Publication of KR20150051278A publication Critical patent/KR20150051278A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Abstract

본 발명은 표시된 오브젝트들 중에서 이동 대상을 직관적으로 선택하여 터치스크린에 대한 터치의 유지 없이 이동할 수 있도록 한 방법 및 이를 구현하는 전자 장치를 제안한다. 이를 위해 본 발명은 따른 터치스크린을 가지는 전자 장치의 오브젝트 이동 방법은 물체들이 상기 터치스크린에 터치 다운하고 서로 인접하게 이동한 후 터치 업하는 픽업 제스처를 인식하는 단계; 상기 픽업 제스처에 응답하여, 오브젝트들 중에서 이동 대상을 결정하는 단계; 물체가 상기 터치스크린에 인접된 상태에서 이동하는 호버링 이동 제스처를 인식하는 단계; 상기 호버링 이동 제스처에 응답하여, 상기 이동 대상을 이동하는 단계; 물체들이 상기 터치스크린에 터치 다운하고 서로 멀어지게 이동한 후 터치 업하는 풋다운 제스처를 인식하는 단계; 및 상기 풋다운 제스처에 응답하여 상기 이동 대상의 이동을 완료하는 단계를 포함할 수 있다.

Description

오브젝트 이동 방법 및 이를 구현하는 전자 장치{OBJECT MOVING METHOD AND ELECTRONIC DEVICE IMPLEMENTING THE SAME}
본 발명은 사용자 입력 모듈에 대한 사용자 입력에 반응하여 오브젝트를 이동하는 방법 및 이를 구현하는 전자 장치에 관한 것이다.
전자 장치는 사용자 입력 모듈로써 터치스크린에 설치된 터치패널을 구비할 수 있다. 전자 장치는 터치스크린에 대한 사용자의 제스처를 감지하고, 제스처에 응답하여 터치스크린에 표시된 오브젝트를 원래 표시된 위치에서 다른 위치로 이동할 수 있다.
본 발명의 다양한 실시 예들에 따르면 이동 대상을 직관적으로 선택하여 이동할 수 있도록 한 방법을 제공 할 수 있다. 또한 이를 구현하는 전자 장치를 제공할 수 있다.
다양한 실시예에 따르면, 전자 장치의 오브젝트 이동 방법은 적어도 둘 이상의 제 1 터치 입력을 인식하는 단계; 상기 제 1 터치 입력이 서로 인접하게 이동하는 인접 입력으로 천이하는 것을 인식하는 단계; 상기 인접 입력의 이동을 인식하는 단계; 상기 인접 입력이 적어도 둘 이상의 제 2 터치 입력으로 천이하는 것을 인식하는 단계; 및 상기 제 2 터치 입력이 서로 멀어지게 이동하는 이격 입력으로 천이하는 것을 인식하는 단계를 포함할 수 있다.
다양한 실시예에 따르면 전자 장치의 오브젝트 이동 방법은 물체들이 상기 터치스크린에 터치 다운하고 서로 인접하게 이동한 후 터치 업하는 픽업 제스처를 인식하는 단계; 상기 픽업 제스처에 응답하여, 오브젝트들 중에서 이동 대상을 결정하는 단계; 물체가 상기 터치스크린에 인접된 상태에서 이동하는 호버링 이동 제스처를 인식하는 단계; 상기 호버링 이동 제스처에 응답하여, 상기 이동 대상을 이동하는 단계; 물체들이 상기 터치스크린에 터치 다운하고 서로 멀어지게 이동한 후 터치 업하는 풋다운 제스처를 인식하는 단계; 및 상기 풋다운 제스처에 응답하여 상기 이동 대상의 이동을 완료하는 단계를 포함할 수 있다.
다양한 실시예에 따르면 전자 장치는 디스플레이 모듈; 사용자 입력을 감지하는 사용자 입력 모듈; 상기 사용자 입력에 응답하여 상기 디스플레이 모듈을 제어하는 프로세서를 포함하고, 상기 프로세서는, 적어도 둘 이상의 제 1 터치 입력을 인식하고, 상기 제 1 터치 입력이 서로 인접하게 이동하는 인접 입력으로 천이하는 것을 인식하고, 상기 인접 입력의 이동을 인식하고, 상기 인접 입력이 적어도 둘 이상의 제 2 터치 입력으로 천이하는 것을 인식하고, 상기 제 2 터치 입력이 서로 멀어지게 이동하는 이격 입력으로 천이하는 것을 인식할 수 있다.
다양한 실시예에 따르면 전자 장치는 디스플레이 모듈; 상기 디스플레이 모듈의 터치스크린에 설치되어 사용자의 제스처를 감지하는 터치 패널; 및 상기 터치 패널에서 인식된 사용자의 제스처에 응답하여 상기 디스플레이 모듈을 제어하는 프로세서를 포함하고, 상기 프로세서는, 물체들이 상기 터치스크린에 터치 다운하고 서로 인접하게 이동한 후 터치 업하는 픽업 제스처에 응답하여, 오브젝트들 중에서 이동 대상을 결정하는 동작과, 물체가 상기 터치스크린에 인접된 상태에서 이동하는 호버링 이동 제스처에 응답하여, 상기 이동 대상을 이동하는 동작과, 물체들이 상기 터치스크린에 터치 다운하고 서로 멀어지게 이동한 후 터치 업하는 풋다운 제스처에 응답하여 상기 이동 대상의 이동을 완료하는 동작을 수행하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따르면 이동 대상을 직관적으로 선택하여 터치의 유지 없이 이동할 수 있다. 또한 이를 구현하기 위한 전자장치를 제공할 수 있다
도 1은 다양한 실시예에 따른 전자장치에 대한 블록도를 도시한다.
도 2는 다양한 실시예들에 따른 하드웨어 200의 블록도를 도시한다.
도 3은 한 실시예에 따른 프로그래밍 모듈 300의 블록도를 도시한다.
도 4a, 도 4b, 4c, 4d, 4e, 4f, 4g, 4h, 4i, 4j, 4k, 4l 및 4m은 본 발명의 일 실시예에 따른, 사용자의 제스처에 응답하여 오브젝트를 이동하는 절차를 설명하기 위한 터치스크린들이다.
도 5a, 도 5b, 5c, 5d, 5e, 5f, 5g, 5h, 5i, 5j, 5k, 5l 및 5m은 본 발명의 다른 실시예에 따른, 사용자의 제스처에 응답하여 오브젝트를 이동하는 절차를 설명하기 위한 터치스크린들이다.
도 6a, 6b, 6c, 6d, 6e, 6f, 6g, 6h, 6i, 6j, 6k, 6l, 6m 및 6n은 본 발명의 또 다른 실시예에 따른, 사용자의 제스처에 응답하여 오브젝트를 이동하는 절차를 설명하기 위한 터치스크린들이다.
도 7은 본 발명의 일 실시예에 따른 오브젝트 이동 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 이동 대상 결정 단계를 설명하기 위한 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 이동 예비 완료 단계를 설명하기 위한 흐름도이다.
이하, 첨부된 도면들을 참조하여 다양한 실시예들을 상세히 설명한다. 이때, 첨부된 도면들에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 하기의 설명에서는 본 발명의 다양한 실시 예들에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.
본 발명에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 카메라(camera), 웨어러블 장치(wearable device), 전자 시계(electronic clock), 손목 시계(wrist watch), 가전 제품(home appliance)(예: 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기 등), 인공 지능 로봇, TV, DVD(digital video disk) 플레이어, 오디오, 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 전자 사전, 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(electronic equipment for ship, 예를 들면, 선박용 항법 장치, 자이로콤파스 등), 항공 전자기기(avionics), 보안 기기, 전자 의복, 전자 키, 캠코더(camcorder), 게임 콘솔(game consoles), HMD(head-mounted display), 평판표시장치(flat panel display device), 전자 액자, 전자 앨범, 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device) 또는 프로젝터(projector) 등의 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 본 발명에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
도 1은 다양한 실시예에 따른 전자장치에 대한 블록도를 도시한다.
도 1을 참조하면, 전자장치 100은 버스 110, 프로세서 120, 메모리 130, 사용자 입력 모듈 140, 디스플레이 모듈 150, 또는 통신 모듈 160을 포함할 수 있다.
버스 110은, 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
프로세서 120은, 예를 들면, 버스 110을 통해 전술한 다른 구성요소들(예: 메모리 130, 사용자 입력 모듈 140, 디스플레이 모듈 150, 통신 모듈 160 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
메모리 130은, 프로세서 120 또는 다른 구성요소들(예: 사용자 입력 모듈 140, 디스플레이 모듈 150, 통신 모듈 160 등)로부터 수신되거나 프로세서 120 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 메모리 130은, 예를 들면, 커널 131, 미들웨어 132, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 133 또는 어플리케이션 134 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
커널 131은 나머지 다른 프로그래밍 모듈들, 예를 들면, 미들웨어 132, API 133 또는 어플리케이션 134에 구현된 동작 또는 기능을 실행하는데 사용되는 시스템 리소스들(예: 버스 110, 프로세서 120 또는 메모리 130 등)을 제어 또는 관리할 수 있다.또한, 커널 131은 미들웨어 132, API 133 또는 어플리케이션 134에서 전자 장치 100의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어 132는 API 133 또는 어플리케이션 134가 커널 131과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어 132는 (다수의) 어플리케이션들 134로부터 수신된 작업 요청들과 관련하여, 예를 들면, (다수의) 어플리케이션들 134들 중 적어도 하나의 어플리케이션에 전자 장치 100의 시스템 리소스(예: 버스 110, 프로세서 120 또는 메모리 130 등)를 사용할 수 있는 우선순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 로드 밸런싱을 수행할 수 있다.
API 133은 어플리케이션 134가 커널 131 또는 미들웨어 132에서 제공하는 기능을 제어할 수 있는 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수를 포함할 수 있다.
사용자 입력 모듈 140은, 예를 들면, 사용자로부터 명령 또는 데이터를 입력 받아 버스 110을 통해 프로세서 120 또는 메모리 130에 전달할 수 있다. 디스플레이 모듈 150은 사용자에게 화상, 영상 또는 데이터 등을 표시할 수 있다.
통신 모듈 160은 다른 전자 장치 102와 전자 장치 100간의 통신을 연결할 수 있다. 통신 모듈 160은 소정의 근거리 통신 프로토콜(예: Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication) 또는 소정의 네트워크 통신(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등) 162를 지원할 수 있다. 전자 장치들 102, 104 각각은 전자 장치 100과 동일한(예: 같은 타입의) 장치이거나 또는 다른(예: 다른 타입의) 장치일 수 있다.
도 2는 다양한 실시예들에 따른 하드웨어 200의 블록도를 도시한다.
하드웨어 200은, 예를 들면, 도 1에 도시된 전자 장치 100일 수 있다.도 2를 참조하면, 하드웨어 200은 하나 이상의 프로세서 210, SIM(subscriber identification module) 카드 214, 메모리 220, 통신 모듈 230, 센서 모듈 240, 사용자 입력 모듈 250, 디스플레이 모듈 260, 인터페이스 270, 오디오 코덱 280, 카메라 모듈 291, 전력관리 모듈 295, 배터리 296, 인디케이터 297 또는 모터 298을 포함할 수 있다.
프로세서 210(예: 프로세서 120)은 하나 이상의 어플리케이션 프로세서(AP: application processor) 211 또는 하나 이상의 커뮤니케이션 프로세서(CP: communication processor) 213을 포함할 수 있다. 프로세서 210은, 예를 들면, 도 1에 도시된 프로세서 120일 수 있다. 도 2에서는 AP 211 및 CP 213이 프로세서 210 내에 포함된 것으로 도시되었으나, AP 211과 CP 213은 서로 다른 IC 패키지들 내에 각각 포함될 수 있다. 한 실시예에서는 AP 211 및 CP 213은 하나의 IC 패키지 내에 포함될 수 있다.
AP 211은 운영체제 또는 응용 프로그램을 구동하여 AP 211에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어하고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP 211은, 예를 들면, SoC(system on chip)로 구현될 수 있다. 한 실시예에 따르면, 프로세서 210은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
CP 213은 하드웨어 200을 포함하는 전자 장치(예: 전자 장치 100)와 네트워크로 연결된 다른 전자 장치들 간의 통신에서 데이터 링크를 관리하고 통신 프로토콜을 변환하는 기능을 수행할 수 있다. CP 213은, 예를 들면, SoC로 구현될 수 있다. 한 실시예에 따르면, CP 213은 멀티미디어 제어 기능의 적어도 일부를 수행할 수 있다. CP 213은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 214)을 이용하여 통신 네트워크 내에서 단말의 구별 및 인증을 수행할 수 있다. 또한, CP 213은 사용자에게 음성 통화, 영상 통화, 문자 메시지 또는 패킷 데이터(packet data) 등의 서비스들을 제공할 수 있다.
또한, CP 213은 통신 모듈 230의 데이터 송수신을 제어할 수 있다. 도 2에서는, CP 213, 전력관리 모듈 295 또는 메모리 220 등의 구성요소들이 AP 211과 별개의 구성요소로 도시되어 있으나, 한 실시예에 따르면, AP 211이 전술한 구성요소들의 적어도 일부(예: CP 213)를 포함하도록 구현될 수 있다.
한 실시예에 따르면, AP 211 또는 CP 213은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 211 또는 CP 213은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
SIM 카드 214는 가입자 식별 모듈을 구현한 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. SIM 카드 214는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리 220은 내장 메모리 222 또는 외장 메모리 224를 포함할 수 있다. 메모리 220은, 예를 들면, 도 1에 도시된 메모리 130일 수 있다. 내장 메모리 222는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 내장 메모리 222는 Solid State Drive(SSD)의 형태를 취할 수도 있다. 외장 메모리 224는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 MemoryStick 등을 더 포함할 수 있다.
통신 모듈 230은 무선 통신 모듈 231 또는 RF 모듈 234를 포함할 수 있다. 통신 모듈 230은, 예를 들면, 도 1에 도시된 통신 모듈 160일 수 있다. 무선 통신 모듈 231은, 예를 들면, WiFi 233, BT(bluetooth) 235, GPS 237 또는 NFC(near field communication) 239를 포함할 수 있다. 예를 들면, 무선 통신 모듈 231은 무선 주파수를 이용하여 무선 통신 기능을 제공할 수 있다. 추가적으로 또는 대체적으로, 무선 통신 모듈 231은 하드웨어 200을 네트워크(예: Internet, LAN(local area network), WAN(wire area network), telecommunication network, cellular network, satellite network 또는 POTS(plain old telephone service) 등)와 연결시키기 위한 네트워크 인터페이스(예: LAN card) 또는 모뎀 등을 포함할 수 있다.
RF 모듈 234는 데이터의 송수신, 예를 들면, RF 신호 또는 호출된 전자신호의 송수신을 담당할 수 있다. RF 모듈 234는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, RF 모듈234는 무선통신에서 자유공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다.
센서 모듈 240은, 예를 들면, 제스처 센서 240A, 자이로 센서 240B, 기압 센서 240C, 마그네틱 센서 240D, 가속도 센서 240E, 그립 센서 240F, 근접 센서 240G, RGB(red, green, blue) 센서 240H, 생체 센서 240I, 온/습도 센서 240J, 조도 센서 240K 또는 UV(ultra violet) 센서 240M 중의 적어도 하나를 포함할 수 있다. 센서 모듈 240은 물리량을 계측하거나 전자 장치의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 추가적으로/대체적으로, 센서 모듈 240은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시) 또는 지문 센서 등을 포함할 수 있다. 센서 모듈 240은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어회로를 더 포함할 수 있다.
사용자 입력 모듈 250은 터치 패널(touch panel) 252, (디지털) 펜 센서(pen sensor) 254, 키(key) 256 또는 초음파 입력 장치 258을 포함할 수 있다. 사용자 입력 모듈 250은, 예를 들면, 도 1에 도시된 사용자 입력 모듈 140일수 있다. 터치 패널 252는, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 터치 패널 252는 컨트롤러(미도시)를 더 포함할 수도 있다. 정전식의 경우, 직접 터치뿐만 아니라 간접 터치의 인식도 가능하다. "직접 터치 방식"은 전도성 물체(예를 들어, 손가락 또는 스타일러스펜)가 터치스크린에 직접 접촉(contact)하는 (contact) 방식을 의미할 수 있다. 일 실시예에 따르면, "간접 터치 방식"은, 비전도성 물체에 둘러싸인 전도성 물체(예, 장갑을 낀 상태의 손가락)가 터치스크린에 인접하거나, 비전도성 물체(예를 들어, 손가락을 낀 상태의 장갑)가 터치스크린에 접촉하는 방식을 의미할 수 있다. 다른 실시예에 따르면, "간접 터치 방식"은 터치스크린의 위에 비전도성 물체(예를 들어, 터치스크린을 보호하기 위한 커버(cover))가 접촉한 상태에서 손가락이 비전도성 물체를 터치하는 방식을 의미할 수도 있다. 또 다른 실시예에 따르면, "간접 터치 방식"은 손가락이 터치스크린에 접촉하지 않으면서, 미리 설정된 거리 이내로 터치스크린에 인접함에 의하여 이벤트를 발생시키는 방식, 보통 "호버링(hovering)," 이라고 불리는 방식을 의미할 수도 있다. 터치 패널 252는 택타일레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널 252는 사용자에게 촉각 반응을 제공할 수 있다. 터치 패널 252는 디스플레이 모듈 260의 화면(즉, 터치스크린)에 설치될 수 있다. 예컨대, 터치패널 252는 터치스크린에 위치하는 애드 온 타입(add-on type) 또는 디스플레이 모듈 260 내에 삽입되는 온 셀 타입(on-cell type) 또는 인 셀 타입(in-cell type)으로 구현될 수 있다.
(디지털) 펜 센서 254는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 키 256로서, 예를 들면, 키패드 또는 터치 키가 이용될 수 있다. 초음파 입력 장치 258은 초음파 신호를 발생하는 펜을 통해, 단말에서 마이크(예: 마이크 288)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 하드웨어 200은 통신 모듈 230을 이용하여 이와 연결된 외부 장치(예: 네트워크, 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
디스플레이 모듈 260은 패널 262 또는 홀로그램 264를 포함할 수 있다. 디스플레이 모듈 260은, 예를 들면, 도 1에 도시된 디스플레이 모듈 150일 수 있다. 패널 262는, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 패널262는, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널 262는 터치 패널 252와 하나의 모듈로 구성될 수도 있다. 홀로그램 264는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 한 실시예에 따르면, 디스플레이 모듈 260은 패널 262 또는 홀로그램 264를 제어하기 위한 제어회로를 더 포함할 수 있다.
인터페이스 270은, 예를 들면, HDMI(high-definition multimedia interface) 272, USB(universal serial bus) 274, 프로젝터 276 또는 D-sub(D-subminiature) 278을 포함할 수 있다. 추가적으로 또는 대체적으로, 인터페이스 270은, 예를 들면, SD(secure Digital)/MMC(multi-media card)(미도시) 또는 IrDA(infrared data association, 미도시)를 포함할 수 있다.
오디오 코덱 280은 음성과 전기신호를 쌍방향으로 변환시킬 수 있다. 오디오 코덱 280은, 예를 들면, 스피커 282, 리시버 284, 이어폰 286 또는 마이크 288 등을 통해 입력 또는 출력되는 음성 정보를 변환시킬 수 있다.
카메라 모듈 291은 화상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 렌즈 또는 후면 렌즈), ISP(image signal processor, 미도시) 또는 플래쉬 LED(flash LED, 미도시)를 포함할 수 있다.
전력관리 모듈 295는 하드웨어 200의 전력을 관리할 수 있다. 도시하지는 않았으나, 전력관리 모듈 295는, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 게이지(battery fuel gauge)를 포함할 수 있다.
PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 정류기 등의 회로가 추가될 수 있다.
배터리 게이지는, 예를 들면, 배터리 296의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 배터리 296은 전기를 생성하여 전원을 공급할 수 있고, 예를 들면, 충전식 전지(rechargeable battery)일 수 있다.
인디케이터 297은 하드웨어 200 혹은 그 일부(예: AP 211)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터 298은 전기적 신호를 기계적 진동으로 변환할 수 있다. MCU 299는, 센서 모듈 240을 제어할 수 있다.
도시되지는 않았으나, 하드웨어 200은 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.본 발명에 따른 하드웨어의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자장치의 종류에 따라서 달라질 수 있다. 본 발명에 따른 하드웨어는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명에 따른 하드웨어의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 발명에 사용된 용어"모듈"은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명에 따른 "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
도 3은 한 실시예에 따른 프로그래밍 모듈 300의 블록도를 도시한다.
프로그래밍 모듈 300은 도 1에 도시된 전자 장치 100(예: 메모리 130)에 포함(예: 저장)될 수 있다. 프로그래밍 모듈 300의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다. 프로그래밍 모듈 300은 하드웨어(예: 하드웨어 200)에 구현되어 전자 장치(예: 전자 장치 100)에 관련된 자원을 제어하는 운영체제(OS: operation system) 또는 운영체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 370)을 포함할 수 있다. 예를 들면, 운영체제는 안드로이드(Android), iOS, 윈도우즈(Windows), 심비안(Symbian), 타이젠(Tizen) 또는 바다(Bada) 등이 될 수 있다. 도 3을 참조하면, 프로그래밍 모듈 300은 커널 310, 미들웨어 330, API(application programming interface) 360 또는 어플리케이션 370을 포함할 수 있다.
커널 310(예: 커널 131)은 시스템 리소스 매니저 311 또는 디바이스 드라이버 312를 포함할 수 있다. 시스템 리소스 매니저 311은, 예를 들면, 프로세스관리부 313, 메모리관리부 315 또는 파일시스템관리부 317 등을 포함할 수 있다. 시스템 리소스 매니저 311은 시스템 리소스의 제어, 할당 또는 회수 등을 수행할 수 있다. 디바이스 드라이버 312는, 예를 들면, 디스플레이 드라이버 314, 카메라 드라이버 316, 블루투스 드라이버 318, 공유 메모리 드라이버 320, USB 드라이버 322, 키패드 드라이버 324, WiFi 드라이버 326 또는 오디오 드라이버 328을 포함할 수 있다. 또한, 한 실시예에 따르면, 디바이스 드라이버 312는 IPC (inter-process communication, 미도시) 드라이버를 포함할 수 있다.
미들웨어 330은 어플리케이션 370이 공통적으로 필요로 하는 기능을 제공하기 위해 미리 구현해 놓은 복수의 모듈들을 포함할 수 있다. 또한, 미들웨어 330은 어플리케이션 370이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API 360를 통해 기능을 제공할 수 있다. 예를 들면, 도 3에 도시된 바와 같이, 미들웨어 330(예: 미들웨어 132)은 런타임 라이브러리 335, 어플리케이션 매니저(application manager) 341, 윈도우 매니저(window manager) 342, 멀티미디어 매니저(multimedia manager) 343, 리소스 매니저(resource manager) 344, 파워 매니저(power manager) 345, 데이터베이스 매니저(database manager) 346, 패키지 매니저 347, 연결 매니저(connectivity manager) 348, 통지 매니저(notification manager) 349, 위치 매니저(location manager) 350, 그래픽 매니저(graphic manager) 351 또는 보안 매니저(security manager) 352 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리 335는, 예를 들면, 어플리케이션 370이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 한 실시예에 따르면, 런타임 라이브러리 335는 입출력, 메모리 관리 또는 산술 함수에 대한 기능 등을 수행할 수 있다.
어플리케이션 매니저 341은, 예를 들면, 어플리케이션 370 중 적어도 하나의 어플리케이션의 생명주기(life cycle)를 관리할 수 있다. 윈도우 매니저 342는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저 343은 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 리소스 매니저 344는 어플리케이션 370 중 적어도 어느 하나의 어플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.
파워 매니저 345는 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 동작에 필요한 전력 정보 등을 제공할 수 있다. 데이터베이스 매니저 346은 어플리케이션 370 중 적어도 하나의 어플리케이션에서 사용할 데이터베이스를 생성, 검색 또는 변경할 수 있도록 관리할 수 있다. 패키지 매니저 347은 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 업데이트를 관리할 수 있다.
연결 매니저 348은, 예를 들면, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 통지 매니저 349는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 위치 매니저 350은 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저 351은 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저 352는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시예에 따르면, 전자 장치(예: 전자 장치 100)가 전화 기능을 구비한 경우에는, 미들웨어 330은 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager, 미도시)를 더 포함할 수 있다.
미들웨어 330은 전술한 내부 구성요소 모듈들의 다양한 기능 조합을 통해 새로운 미들웨어 모듈을 생성하여 사용할 수 있다. 미들웨어 330은 차별화된 기능을 제공하기 위해 운영체제의 종류별로 특화된 모듈을 제공할 수 있다. 또한, 미들웨어 330은 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. 따라서, 본 발명의 실시예에 기재된 구성요소를 일부 생략하거나 다른 구성요소를 더 구비하거나 또는 유사한 기능을 수행하는 다른 명칭을 갖는 구성요소로 대체할 수 있다.
API 360(예: API 133)은 API 프로그래밍 함수들의 집합으로, 운영체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 예를 들면, 플랫폼별로 하나의 API 셋을 제공할 수 있으며, 타이젠(Tizen)의 경우, 예를 들면, 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션 370(예: 어플리케이션 134)은, 예를 들면, 프리로드 어플리케이션(preloaded Application) 또는 제 삼자 어플리케이션(third party application)을 포함할 수 있다.
프로그래밍 모듈 300의 적어도 일부는 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 명령어는, 하나 이상의 프로세서(예: 프로세서 210)에 의해 실행될 경우, 하나 이상의 프로세서가 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리 260이 될 수 있다. 프로그래밍 모듈 300의 적어도 일부는, 예를 들면, 프로세서 210에 의해 구현(implement)(예: 실행)될 수 있다. 프로그래밍 모듈 300의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 및/또는 프로세스 등을 포함할 수 있다.
본 발명에 따른 프로그래밍 모듈(예: 프로그래밍 모듈 300)의 구성요소들의 명칭은 운영체제의 종류에 따라서 달라질 수 있다. 본 발명에 따른 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명에 따른 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 처리될 수 있으며, 또한 일부 동작이 생략되거나, 다른 동작이 추가될 수 있다.
도 4a, 도 4b, 4c, 4d, 4e, 4f, 4g, 4h, 4i, 4j, 4k, 4l 및 4m은 본 발명의 일 실시예에 따른, 사용자의 제스처에 응답하여 오브젝트를 이동하는 절차를 설명하기 위한 터치스크린들이다.
도 4a, 4b, 4c및 4d를 참조하면, 전자 장치(예, 전자 장치 200)의 프로세서(예, 프로세서 211)는 다수의 오브젝트들을 터치스크린에 표시하도록 디스플레이 모듈(예, 디스플레이 모듈 260)을 제어할 수 있다. 사용자는 터치스크린에 대해 둘 이상의 물체들(예, 두 손가락)로 픽업 제스처(pick up gesture)를 취할 수 있다. 픽업 제스처는 적어도 두 손가락으로 적어도 하나의 오브젝트를 집어서 들어 올리는 제스처일 수 있다. 예컨대, 픽업 제스처는 a) 엄지의 터치 다운 T1 및 검지의 터치 다운 T2, b) 핀치 인 410, c) 터치 결합 T3, d) 터치 업(미도시)이 순차적으로 수행됨으로써 완성될 수 있다. 여기서, 터치 다운은 엄지와 검지가 각각 터치스크린의 다른 영역들에 접촉하는 제스처일 수 있다. 핀치 인은 엄지와 검지가, 터치스크린에 터치 유지된 상태에서, 서로 인접하게 이동하는 제스처일 수 있다. 터치 결합은 엄지와 검지가 서로 접촉하는 제스처일 수 있다. 터치 업은 터치 결합이 터치스크린에서 접촉 해제되는 제스처일 수 있다.
터치 패널(예, 터치 패널 252)은 상술한 픽업 제스처를 감지하고, 픽업 제스처에 대응되는 이벤트를 발생하여 프로세서 211로 전달할 수 있다. 프로세서 211은 터치 패널 252로부터 수신된 픽업 제스처 이벤트를 분석하여, 물체들 각각의 터치 영역들을 결정할 수 있다. 프로세서 211은 터치 영역(예컨대, 터치 영역 421)에 적어도 일부 포함된 오브젝트(들)을 인식할 수 있다. 또한 프로세서 211은 터치 영역(예컨대, 터치 영역 422)에 적어도 일부 포함된 오브젝트(들)을 인식할 수 있다. 프로세서 211은 터치 영역 421에 적어도 일부 포함된 오브젝트(들) 중에서 어느 하나가 터치 영역 422에 적어도 일부 포함된 오브젝트(들) 중에서 어느 하나와 동일한지 여부를 판단할 수 있다.
동일한 오브젝트가 있는 경우(예, 오브젝트 430), 프로세서 211은 터치 업에 응답하여 전자 장치 200의 운영 모드를 픽업 모드로 운영할 수 있다. 예컨대, 프로세서 211은 사용자의 픽업 제스처에 응답하여, 오브젝트 430이 들어 올려지는 시각적인 피드백을 제공하도록 디스플레이 모듈(예, 디스플레이 모듈 260)을 제어할 수 있다. 예컨대, 시각적인 피드백은 해당 오브젝트 430을 다른 오브젝트들과 구별되게 그 속성(예컨대, 색상, 크기, 투명도, 형상, 기호, 밝기 등)을 변경하여 표시하는 동작을 포함할 수 있다. 한편, 프로세서 211은 터치 영역 421과 터치 영역 422가 서로 적어도 일부가 겹치는지 여부를 판단할 수 있다. 서로 적어도 일부가 겹치는 경우 프로세서 211은 터치 결합 T3가 발생된 것으로 인식할 수 있다.
도 4e, 4f, 4g, 4h, 4i 및 4j를 참조하면, 사용자는 오브젝트 430에 대해 호버링 다운 H1을 취하고 이어서 호버링 이동 440을 취할 수 있다. 호버링 다운 H1은 물체가 미리 설정된 거리 이내로 터치스크린에 인접하는 제스처가 될 수 있다. 또한 호버링 다운 H1은 예컨대, 서로 붙어 있는 엄지와 검지를 터치스크린에서 터치 해제하는 터치 업(즉, 터치 결합 T3의 터치 해제)일 수도 있다. 호버링 이동 440은 물체(예컨대, 서로 붙어 있는 엄지와 검지)가 미리 설정된 거리 이내로 터치스크린에 인접된 상태에서 이동하는 제스처가 될 수 있다. 한편, 호버링 업은 물체가 터치스크린으로부터 미리 설정된 거리 밖으로 벗어나는 제스처일 수 있다.
터치 패널 252는 호버링 다운 H1 및 호버링 이동 440을 감지하고, 이들 제스처에 대응되는 이벤트를 발생하여 프로세서 211로 전달할 수 있다. 이들 제스처에 응답하여 프로세서 211은 전자 장치 200의 운영 모드를 이동 모드로 운영할 수 있다. 즉 프로세서 211은 호버링 이동 440을 따라 오브젝트 430을 이동할 수 있다. 이에 따라 오브젝트 430가 자리했던 영역 461은 비게 된다. 또한 오브젝트 430은 다른 오브젝트와 겹치게 될 수 있다. 그렇다면, 프로세서 211은 영역 461이 채워지게, 다른 오브젝트들 462, 463, 464 및 465를 이동할 수 있다. 이에 따라 영역 466이 비게 되어, 프로세서 211은 영역 466에 오브젝트 430을, 사용자의 제스처(예, 호버링 이동 제스처)에 응답하여(또는 자동으로), 이동할 수 있다.
도시되지는 않지만, 오브젝트 430이 이동 가능한 영역이 없는 경우 프로세서 211은 사용자가 이를 인지할 수 있도록 통보 메시지(notification)을 출력할 수 있다. 예컨대, 통보 메시지는 통보 사운드(noti-sound), 통보 팝업(noti-popup), 통보 진동(noti-vibration), 통보 컬러(noti-color) 및 통보 아이콘(noti-icon) 중 적어도 하나를 포함할 수 있다.
도 4k, 4l 및 4m를 참조하면, 사용자는 오브젝트 430에 대해 물체들(예, 두 손가락)로 풋다운 제스처(put down gesture)를 취할 수 있다. 예컨대, 풋다운 제스처는 터치 다운 T3, 핀치 아웃 470 및 터치 업들(미도시)이 순차적으로 수행됨으로써 완성될 수 있다. 여기서 터치 다운 T3는 예컨대, 서로 접촉되어 있는 엄지와 검지로 오브젝트 430을 접촉하는 제스처일 수 있다. 핀치 아웃 470은 엄지와 검지를, 터치스크린에 접촉된 상태에서, 서로 멀리 이동하는 제스처일 수 있다. 이에 따라 터치 다운 T3는 여러 개의 터치 다운들(예컨대, T3-1 및 T3-2)로 분리될 수 있다. 따라서, 핀치 아웃은 터치 분리로 불릴 수도 있다. 터치 업들은 서로 멀어진 엄지와 검지를 터치스크린에서 접촉 해제하는 제스처일 수 있다.
터치 패널 252는 상술한 풋다운 제스처를 감지하고, 풋다운 제스처에 대응되는 이벤트를 발생하여 프로세서 211로 전달할 수 있다. 풋다운 제스처에 응답하여 프로세서 211은 오브젝트 430의 이동을 완료할 수 있다. 구체적으로, 프로세서 211은 터치 다운 T3에 응답하여 전자 장치 200의 운영 모드를 풋다운 모드로 운영할 수 있다. 예컨대, 프로세서 211은 오브젝트 430을 다른 오브젝트들과 동일한 상태로 표시할 수 있다. 프로세서 211은 핀치 아웃 470(또는 터치 다운 T3가 T3-1 및 T3-2로 분리됨)에 응답하여, 오브젝트 430의 이동이 예비적으로 완료되었음을 인식할 수 있다. 프로세서 211은 터치 업들에 응답하여 오브젝트 430의 이동이 최종적으로 완료되었음을 인식할 수 있다.
상술한 실시예에 따르면, 오브젝트 430의 운영모드는 픽업 모드에서 이동 모드, 이동 모드에서 풋다운 모드로 변경될 수 있다. 풋다운 모드에서 터치 해제된 경우 오브젝트 430의 이동이 완료될 수 있다. 오브젝트 430의 운영모드는, 예컨대, 터치다운 T3가 T3-1 및 T3-2로 분리되기 전에 터치 업이 발생된 경우 또는 T3-1 및 T3-2가 다시 T3로 결합된 후 터치 업이 발생된 경우, 풋다운 모드에서 이동 모드로 변경될 수도 있다.
상술한 실시예에 따른 픽업 제스처, 호버링 이동 제스처 및 풋다운 제스처를 이미지로 형상화하면 다음 표 1과 같다.
픽업 터치다운들
Figure pat00001
핀치 인
Figure pat00002
터치 결합
Figure pat00003
터치 업들
Figure pat00004
호버링 이동
Figure pat00005
풋 다운 터치 다운
Figure pat00006
핀치 아웃
(터치분리)
Figure pat00007
터치 업들
Figure pat00008
상술한 실시예에 따르면, 프로세서, 디스플레이 모듈 및 터치 패널이 각각 프로세서 211, 디스플레이 모듈 260 및 터치패널 252인 것으로 설명되었다. 하지만 이에 한정되는 것은 아니다. 예컨대, 전자 장치 100은 상술한 프로세서의 역할을 수행하고, 전자 장치 102는 상술한 디스플레이 모듈 및 터치패널의 역할을 수행할 수 있다. 그리고 전자 장치 100과 전자 장치 102는 상술한 픽업, 이동 및 풋다운 절차를 위한 데이터를 상호간에 송수신할 수 있다. 이와 같은 역할 분담은 아래에서 설명될 다른 실시예에서도 동일하게 적용될 수 있다.
도 5a, 도 5b, 5c, 5d, 5e, 5f, 5g, 5h, 5i, 5j, 5k, 5l 및 5m은 본 발명의 다른 실시예에 따른, 사용자의 제스처에 응답하여 오브젝트를 이동하는 절차를 설명하기 위한 터치스크린들이다.
도 5a, 도 5b, 5c, 5d 및 5e를 참조하면, 사용자는 터치스크린에 대해 둘 이상의 물체들(예, 네 손가락)로 픽업 제스처를 취할 수 있다. 예컨대, 픽업 제스처는 a) 왼손 검지의 터치 다운 T1, 왼손 엄지의 터치 다운 T2, 오른손 검지의 터치 다운 T3 및 오른손 엄지의 터치 다운 T4, b) 핀치 인 510, c) 터치 결합 T5, d) 터치 업(미도시)이 순차적으로 수행됨으로써 완성될 수 있다.
픽업 제스처에 응답하여 프로세서(예, 프로세서 211)는 전자 장치 200의 운영 모드를 픽업 모드로 운영할 수 있다. 핀치 인 510에 응답하여 프로세서 211은 터치스크린에 표시된 오브젝트들 중에서 이동 대상을 결정할 수 있다. 예컨대, 프로세서 211은 T1, T2, T3 및 T에 각각 대응되는 터치 지점(예, 터치 좌표)들을 산출하고, 터치 지점들을 각각 꼭지점으로 하는 사각형 형태의 픽업 영역 520을 확인하고, 픽업 영역 520에 포함된(또는, 도시되지는 않지만 적어도 일부 포함된) 오브젝트들 531, 532, 533, 534, 535 및 536을 이동 대상으로 결정할 수 있다.
도 5f, 5g, 5h 및 5i를 참조하면, 사용자는 오브젝트들 531 내지 536에 대해 호버링 다운 H1을 하고 이어서 호버링 이동 530을 할 수 있다. 여기서 호버링 다운 H1은 상기 터치 업에 해당될 수도 있다. 호버링 다운 H1(또는 터치 업)에 응답하여 프로세서 211은 전자 장치 200의 운영 모드를 이동 모드로 운영할 수 있다. 우선 프로세서 211은 오브젝트들 531 내지 536이 호버링 다운 H1의 지점에 모아지는 시각적인 피드백(예, 오브젝트들 531 내지 536을 하나의 아이콘 형태로 변형하여 표시)을 제공하도록 디스플레이 모듈 260을 제어할 수 있다. 호버링 이동 530에 응답하여 프로세서 211은 오브젝트들 531 내지 536을 이동할 수 있다. 이에 따라 이들 531 내지 536이 자리했던 픽업 영역 520은 비게 된다. 또한 오브젝트들 531 내지 536은 다른 오브젝트와 겹치게 될 수 있다. 그렇다면, 프로세서 211은 픽업 영역 520이 채워지게, 다른 오브젝트들을 이동할 수 있다. 이에 따라 영역 540이 비게 된다.
도 5j, 5k, 5l 및 5m를 참조하면, 사용자는 오브젝트들 531 내지 536에 대해 물체들(예, 네 손가락)로 풋다운 제스처를 취할 수 있다. 풋다운 제스처는 터치 다운 T6, 핀치 아웃 550 및 터치 업들(미도시)이 순차적으로 수행됨으로써 완성될 수 있다. 여기서 터치 다운 T6은 예컨대, 서로 접촉되어 있는 왼손 엄지, 왼손 검지, 오른손 엄지와 오른손 검지로 오브젝트들 531내지 535을 접촉하는 제스처일 수 있다. 핀치 아웃 550은 상기 네 손가락들을, 터치스크린에 접촉된 상태에서, 서로 멀리 이동하는 제스처일 수 있다. 이에 따라 터치 다운 T3는 여러 개의 터치 다운들(예컨대, T6-1, T6-2, T6-3 및 T6-2)로 분리될 수 있다. 터치 업들은 터치 다운들 T6-1, T6-2, T6-3 및 T6-2을 터치스크린에서 해제하는 제스처일 수 있다. 터치 패널 252는 상술한 풋다운 제스처를 감지하고, 풋다운 제스처에 대응되는 이벤트를 발생하여 프로세서 211로 전달할 수 있다. 풋다운 제스처에 응답하여 프로세서 211은 오브젝트들 531 내지 536의 이동을 완료할 수 있다. 구체적으로, 프로세서 211은 터치 다운 T6에 응답하여 전자 장치 200의 운영 모드를 풋다운 모드로 운영할 수 있다. 예컨대, 프로세서 211은 오브젝트들 531 내지 536을 다른 오브젝트들과 동일한 상태로 표시할 수 있다. 프로세서 211은 핀치 아웃 550(또는 터치 다운들 T6-1, T6-2, T6-3 및 T6-2)에 응답하여, 오브젝트들 531 내지 536의 이동이 예비적으로 완료되었음을 인식할 수 있다. 프로세서 211은 터치 업들에 응답하여 오브젝트들 531 내지 536의 이동이 최종적으로 완료되었음을 인식할 수 있다. 이에 따라 프로세서 211은 오브젝트들 531 내지 536이 영역 540에서 고르게 펼쳐지는 시각적인 피드백을 제공하도록 디스플레이 모듈 260을 제어할 수 있다.
도 6a, 6b, 6c, 6d, 6e, 6f, 6g, 6h, 6i, 6j, 6k, 6l, 6m 및 6n은 본 발명의 또 다른 실시예에 따른, 사용자의 제스처에 응답하여 오브젝트를 이동하는 절차를 설명하기 위한 터치스크린들이다. 도 6a, 6b, 6c 및 6d는 각각, 도 4a, 4b, 4c 및 도 4와 동일하므로 설명을 생략한다. 또한 도 6m 및 6n도 각각, 도 4l 및 4m과 동일하므로 설명을 생략한다.
도 6e, 6f, 6g, 6h, 6i, 6j, 6k 및 6l을 참조하면, 사용자는 물체(예, 왼손의 검지와 엄지)으로 페이지 610의 오브젝트 611에 대해 호버링 다운 H1을 할 수 있다. 사용자는 호버링 다운 H1을 유지하면서, 다른 물체(예, 오른손의 검지)로 터치스크린의 일 지점을 터치 다운 T4하고 오른손의 검지를 이동하여 터치스크린의 다른 지점에서 터치 업하는 제스처(예, 드래그 620)를 취할 수 있다. 호버링 다운 H1 및 드래그 620에 응답하여 프로세서 211은 오브젝트 611이 페이지 610에서 페이지 630으로 이동하는 시각적인 피드백을 제공하도록 디스플레이 모듈 260을 제어할 수 있다. 이에 따라 오브젝트 611은 페이지 630에 있던 다른 오브젝트(예, 오브젝트 631)와 겹치게 될 수 있다. 그렇다면, 프로세서 211은 오브젝트 631과 또 다른 오브젝트들을 이동(632)할 수 있다. 이에 따라 영역 633이 비게 되어, 프로세서 211은 영역 633에 오브젝트 611을, 사용자의 제스처(예, 호버링 이동 제스처)에 응답하여(또는 자동으로), 이동할 수 있다.
도 7은 본 발명의 일 실시예에 따른 오브젝트 이동 방법을 설명하기 위한 흐름도이다.
도 7을 참조하면, 픽업 제스처에 응답하여 단계 710에서 전자 장치(예, 전자 장치 200)는 터치스크린에 표시된 오브젝트들 중에서 이동 대상을 결정할 수 있다. 호버링 이동 제스처에 응답하여 단계 720에서 전자 장치 200은 운영 모드를 오브젝트 이동 모드로 운영할 수 있다. 풋다운 제스처에 응답하여 단계 730에서 전자 장치 200은 오브젝트의 이동을 예비 완료하고 단계 740에서 전자 장치 200은 오브젝트의 이동을 최종 완료할 수 있다.
도 8은 본 발명의 일 실시예에 따른 이동 대상 결정 단계를 설명하기 위한 흐름도이다.
도 8을 참조하면, 단계 810에서 전자 장치 200은 터치스크린에서 제 1 터치 다운을 인식할 수 있다. 단계 820에서 전자 장치 200은 터치스크린에서 제 2 터치 다운을 인식할 수 있다. 그리고 단계 830에서 전자 장치 200은 제 1 터치 다운과 제 2 터치 다운이 하나로 결합(예, 터치 결합 T3)하는 것을 인식할 수 있다. 전자 장치 200은 터치 결합 T3의 터치 지점(혹은 터치 영역)에 위치한 적어도 하나의 오브젝트를 이동 대상으로 결정할 수 있다. 단계 840에서 전자 장치 200은 호버링 다운(예, 호버링 다운 H1)을 인식할 수 있다. 이에 따라 전자 장치 200은 이동 대상으로 결정된 오브젝트를 호버링의 이동에 따라 이동할 수 있다.
도 9는 본 발명의 일 실시예에 따른 이동 예비 완료 단계를 설명하기 위한 흐름도이다.
도 9를 참조하면, 단계 910에서, 이동 대상으로 결정된 오브젝트는 호버링 상태 일 수 있다. 예컨대, 호버링 상태는 해당 오브젝트가 터치스크린의 임의의 지점에 위치하는 상태일 수 있다. 또는 호버링 상태는 해당 오브젝트가 이동 중인 상태일 수도 있다. 단계 920에서 전자 장치 200은 이동 대상으로 결정된 오브젝트에 대한 터치 다운을 인식할 수 있다. 단계 930에서 전자 장치 200은 터치 다운이 제 1 터치 다운과 제 2 터치 다운으로 분리됨을 인식할 수 있다. 이에 따라 전자 장치 200은 오브젝트의 이동이 예비적으로 완료되었음을 인식할 수 있다. 프로세서 211은 제 1 터치 다운과 제 2터치 다운의 해제에 응답하여 오브젝트의 이동이 최종적으로 완료되었음을 인식할 수 있다.
상술한 실시예들에서, 터치는 신체의 접촉에 의한 터치, 유전율을 가진 물체에 의한 터치, 전자기 유도방식의 전자펜에 의한 터치를 포함할 수 있다. 오브젝트는 아이콘, 이미지, 텍스트, 파일, 윈도우, 위젯 등과 같이 이미지화가 가능한 것들을 포함할 수 있다. 이동 모드는 적어도 2대 이상의 전자 장치가 근거리 통신을 통해 제스처(예, 호버링)에 대한 정보를 교환함으로써 전자 장치들간에 오브젝트를 송수신하는 운영 모드를 포함할 수 있다.
다양한 실시예들에 따르면, 제 1 전자 장치(예, 전자 장치 100) 및 제 2 전자 장치(예, 전자 장치 102)는 멀티 윈도우 모드로 운영될 수 있다. 예컨대, 전자 장치 100은 사용자 입력 모듈 140을 통해 사용자의 제스처를 인식하고, 인식된 사용자의 제스처와 관련된 데이터를 전자 장치 102로 전송할 수 있다. 그러면, 전자 장치 102는 전자 장치 100에서 인식된 사용자의 제스처에 반응하여, 표시된 오브젝트를 이동할 수 있다.
다양한 실시예들에 따르면 사용자의 행동 기반으로 기술이 적용되어 처음 사용하는 사용자가 객체의 이동을 학습하기 위한 시간을 사용자가 처음 행동을 하게 되는 롱 터치보다 빠르게 하고, 익숙하게 행동할 수 있다.
상술한 바와 같은 본 발명에 따른 방법은 다양한 컴퓨터를 통하여 수행될 수 있는 프로그램 명령으로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 여기서 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 포함할 수 있다. 또한 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수 있다. 또한 기록매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기매체(Magnetic Media)와, CD-ROM, DVD와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 롬(ROM)과, 램(RAM)과, 플래시 메모리 등과 같은 하드웨어가 포함될 수 있다. 또한 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라, 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드가 포함될 수 있다.
그리고 본 명세서와 도면에 발명된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100, 102, 104 : 전자 장치 110 : 버스
120 : 프로세서 130 : 메모리
131, 310 : 커널 132, 330 : 미들웨어
133, 360 : 어플리케이션 프로그래밍 인터페이스(API)
134, 370 : 어플리케이션 140 : 사용자 입력 모듈
150 : 디스플레이 모듈 160 : 통신 모듈
162 : 네트워크 164 : 서버
200 : 하드웨어 210 : 프로세서
211 : 어플리케이션 프로세서(AP)
213 : 커뮤니케이션 프로세서(CP)
214 : SIM 카드 220 : 메모리
222 : 내장메모리 224 : 외장메모리
230 : 통신 모듈 231 : 무선 통신 모듈
233 : Wi-Fi 234 : RF 모듈
235 : BT 237 : GPS
239 : NFC 240 : 센서 모듈
240A : 제스쳐 센서 240B : 자이로 센서
240C : 기압 센서 240D : 마그네틱 센서
240E : 가속도 센서 240F : 그립 센서
240G : 근접 센서 240H : RGB 센서
240I : 생체 센서 240J : 온/습도 센서
240K : 조도 센서 240M : UV 센서
250 : 사용자 모듈 252 : 터치 패널
254 : 펜 센서 256 : 키
258 : 울트라 소닉 260 : 디스플레이 모듈
262 : 패널 264 : 홀로그램
270 : 인터페이스 272 : HDMI
274 : USB 276 : 프로젝터
278 : D-SUB 280 : 오디오 코덱
282 : 스피커 284 : 리시버
286 : 이어폰 288 : 마이크
291 : 카메라 모듈 295 : 전력 관리 모듈
296 : 배터리 297 : 인디케이터
298 : 모터 300 : 프로그래밍 모듈
311 : 시스템 리소스 매니저 312 : 디바이스 드라이버
335 : 런타임 라이브러리 341 : 어플리케이션 매니저
342 : 윈도우 매니저 343 : 멀티미디어 매니저
344 : 리소스 매니저 345 : 파워 매니저
346 : 데이터베이스 매니저 347 : 패키지 매니저
348 : 연결 매니저 349 : 통지 매니저
350 : 위치 매니저 351 : 그래픽 매니저
352 : 보안 매니저 371 : 홈
372 : 다이얼러 373 : SMS/MMS
374 : IM 375 : 브라우저
376 : 카메라 377 : 알람
378 : 컨택트 379 : 음성다이얼
380 : 이메일 381 : 달력
382 : 미디어 플레이어 383 : 앨범
384 : 시계

Claims (19)

  1. 전자 장치의 오브젝트 이동 방법에 있어서,
    적어도 둘 이상의 제 1 터치 입력을 인식하는 단계;
    상기 제 1 터치 입력이 서로 인접하게 이동하는 인접 입력으로 천이하는 것을 인식하는 단계;
    상기 인접 입력의 이동을 인식하는 단계;
    상기 인접 입력이 적어도 둘 이상의 제 2 터치 입력으로 천이하는 것을 인식하는 단계; 및
    상기 제 2 터치 입력이 서로 멀어지게 이동하는 이격 입력으로 천이하는 것을 인식하는 단계;
    를 포함하는 방법.
  2. 제 1 항에 있어서,
    상기 이격 입력에 응답하여, 표시된 오브젝트의 이동을 완료하는 단계를 더 포함하는 방법.
  3. 제 1 항에 있어서,
    상기 이격 입력이 스크린으로부터 해제되는 해제 입력으로 천이되는 것을 인식하는 단계와,
    상기 해제 입력에 응답하여, 표시된 오브젝트의 이동을 완료하는 단계를 더 포함하는 방법.
  4. 제 1 항에 있어서,
    상기 적어도 둘 이상의 제 1 터치 입력을 인식하는 단계는, 물체들이 터치스크린에 터치 다운하고 서로 인접하게 이동한 후 터치 업하는 픽업 제스처를 인식하는 단계를 포함하고,
    상기 픽업 제스처에 응답하여, 상기 터치스크린에 표시된 오브젝트들 중에서 이동 대상을 결정하는 단계;
    물체가 상기 터치스크린에 인접된 상태에서 이동하는 호버링 이동 제스처를 인식하는 단계;
    상기 호버링 이동 제스처에 응답하여, 상기 이동 대상을 이동하는 단계;
    물체들이 상기 터치스크린에 터치 다운하고 서로 멀어지게 이동한 후 터치 업하는 풋다운 제스처를 인식하는 단계; 및
    상기 풋다운 제스처에 응답하여 상기 이동 대상의 이동을 완료하는 단계를 더 포함하는 방법.
  5. 제 4 항에 있어서,
    상기 픽업 제스처를 인식하는 단계는,
    물체들이 상기 터치스크린에 터치 다운하는 제스처를 인식하는 단계;
    상기 물체들이, 상기 터치스크린에 터치 유지된 상태에서, 서로 접촉하는 터치 결합 제스처를 인식하는 단계; 및
    상기 서로 접촉된 상기 물체들이 상기 터치스크린으로부터 터치 업하는 제스처를 인식하는 단계를 포함하는 방법.
  6. 제 5 항에 있어서,
    상기 이동 대상을 결정하는 단계는,
    상기 터치 결합에 대응되는 터치 지점 또는 터치 영역에 위치한 오브젝트를 상기 이동 대상으로 결정하는 단계를 포함하는 방법.
  7. 제 4 항에 있어서,
    풋다운 제스처를 인식하는 단계는,
    물체들이 상기 터치스크린에 터치 다운하는 제스처를 인식하는 단계;
    상기 물체들이, 상기 터치스크린에 터치 유지된 상태서, 서로 멀어지게 이동하는 터치 분리 제스처를 인식하는 단계; 및
    상기 서로 멀어진 상기 물체들이 상기 터치스크린으로부터 터치 업하는 제스처를 인식하는 단계를 포함하는 방법.
  8. 제 4 항에 있어서,
    상기 이동 대상을 결정하는 단계는,
    터치 다운들에 각각 대응되는 터치 지점들을 기반으로 오브젝트들 중에서 이동 대상을 결정하는 단계를 포함하는 방법.
  9. 제 4 항에 있어서,
    상기 이동 대상을 다른 오브젝트들과 구별되게 표시하는 단계를 더 포함하는 방법.
  10. 제 9 항에 있어서,
    상기 이동 대상의 이동을 완료하는 단계는,
    상기 이동 대상을 상기 다른 오브젝트들과 동일한 상태로 표시하는 단계를 포함하는 방법.
  11. 제 4 항에 있어서,
    상기 픽업 제스처에 응답하여, 상기 이동 대상으로 결정된 오브젝트들을 한데 모아 표시하는 단계를 더 포함하는 방법.
  12. 제 11 항에 있어서,
    상기 이동 대상의 이동을 완료하는 단계는,
    상기 풋다운 제스처에 응답하여 상기 한데 모아진 오브젝트들을 펼쳐서 표시하는 단계를 포함하는 방법.
  13. 제 4 항에 있어서,
    상기 이동 대상에 대한 호버링 다운을 인식하는 단계;
    상기 터치스크린에서 드래그를 인식하는 단계; 및
    상기 호버링 다운 및 상기 드래그에 응답하여, 상기 터치스크린에 표시될 페이지를 변경하고, 변경된 페이지에 상기 이동 대상을 표시하는 단계를 더 포함하는 방법.
  14. 제 4 항에 있어서,
    상기 이동 대상을 이동하는 단계는,
    상기 이동 대상이 이동함에 따라 생긴 빈 영역에 다른 오브젝트를 이동하는 단계와,
    상기 다른 오브젝트가 이동함에 따라 생긴 빈 영역에 상기 이동 대상을 이동하는 단계를 포함하는 방법.
  15. 디스플레이 모듈;
    사용자 입력을 감지하는 사용자 입력 모듈;
    상기 사용자 입력에 응답하여 상기 디스플레이 모듈을 제어하는 프로세서를 포함하고,
    상기 프로세서는,
    적어도 둘 이상의 제 1 터치 입력을 인식하고, 상기 제 1 터치 입력이 서로 인접하게 이동하는 인접 입력으로 천이하는 것을 인식하고, 상기 인접 입력의 이동을 인식하고, 상기 인접 입력이 적어도 둘 이상의 제 2 터치 입력으로 천이하는 것을 인식하고, 상기 제 2 터치 입력이 서로 멀어지게 이동하는 이격 입력으로 천이하는 것을 인식하는 것임을 특징으로 하는 전자 장치.
  16. 제 15 항에 있어서,
    상기 프로세서는,
    상기 이격 입력에 응답하여, 상기 디스플레이 모듈에 표시된 오브젝트의 이동을 완료하는 것임을 특징으로 하는 전자 장치.
  17. 제 15 항에 있어서,
    상기 프로세서는,
    상기 이격 입력이 스크린으로부터 해제되는 해제 입력으로 천이되는 것을 인식하고, 상기 해제 입력에 응답하여, 상기 디스플레이 모듈에 표시된 오브젝트의 이동을 완료하는 것임을 특징으로 하는 전자 장치.
  18. 제 15 항에 있어서,
    상기 사용자 입력 모듈은 상기 디스플레이 모듈의 터치스크린에 설치되어 사용자의 제스처를 감지하는 터치 패널을 포함하고,
    상기 프로세서는,
    물체들이 상기 터치스크린에 터치 다운하고 서로 인접하게 이동한 후 터치 업하는 픽업 제스처에 응답하여, 상기 터치스크린에 표시된 오브젝트들 중에서 이동 대상을 결정하고,
    물체가 상기 터치스크린에 인접된 상태에서 이동하는 호버링 이동 제스처에 응답하여, 상기 이동 대상을 이동하고,
    물체들이 상기 터치스크린에 터치 다운하고 서로 멀어지게 이동한 후 터치 업하는 풋다운 제스처에 응답하여 상기 이동 대상의 이동을 완료하는 것임을 특징으로 하는 전자 장치.
  19. 제 15 항에 있어서,
    통신 모듈을 더 포함하고,
    상기 프로세서는,
    상기 제 1 터치 입력, 상기 인접 입력, 상기 인접 입력의 이동, 상기 제 2 터치 입력 및 상기 이격 입력과 관련된 데이터를 외부 장치로 전송하도록 상기 통신 모듈을 제어하는 것임을 특징으로 하는 전자 장치.
KR1020130132228A 2013-11-01 2013-11-01 오브젝트 이동 방법 및 이를 구현하는 전자 장치 KR20150051278A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130132228A KR20150051278A (ko) 2013-11-01 2013-11-01 오브젝트 이동 방법 및 이를 구현하는 전자 장치
US14/531,303 US9606665B2 (en) 2013-11-01 2014-11-03 Object moving method and electronic device implementing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130132228A KR20150051278A (ko) 2013-11-01 2013-11-01 오브젝트 이동 방법 및 이를 구현하는 전자 장치

Publications (1)

Publication Number Publication Date
KR20150051278A true KR20150051278A (ko) 2015-05-12

Family

ID=53006684

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130132228A KR20150051278A (ko) 2013-11-01 2013-11-01 오브젝트 이동 방법 및 이를 구현하는 전자 장치

Country Status (2)

Country Link
US (1) US9606665B2 (ko)
KR (1) KR20150051278A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170045636A (ko) * 2015-10-19 2017-04-27 삼성전자주식회사 전자 장치의 입력 처리 방법 및 전자 장치

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9225810B2 (en) 2012-07-03 2015-12-29 Sony Corporation Terminal device, information processing method, program, and storage medium
MX2021004797A (es) * 2015-07-23 2022-12-07 Samsung Electronics Co Ltd Aparato de transmision, aparato de recepcion, y metodos de control de los mismos.
US10444982B2 (en) * 2015-10-16 2019-10-15 Samsung Electronics Co., Ltd. Method and apparatus for performing operation using intensity of gesture in electronic device
USD816103S1 (en) * 2016-01-22 2018-04-24 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN110536006B (zh) * 2019-08-16 2021-03-02 维沃移动通信有限公司 一种对象位置调整方法及电子设备
WO2022069988A1 (ja) * 2020-10-02 2022-04-07 株式会社半導体エネルギー研究所 表示装置、表示モジュール、及び電子機器

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100595925B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US7599044B2 (en) 2005-06-23 2009-10-06 Apple Inc. Method and apparatus for remotely detecting presence
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
KR101739054B1 (ko) * 2010-09-08 2017-05-24 삼성전자주식회사 디바이스상의 움직임 제어 방법 및 장치
US8907903B2 (en) * 2011-01-13 2014-12-09 Sony Computer Entertainment America Llc Handing control of an object from one touch input to another touch input
US10534532B2 (en) * 2014-08-08 2020-01-14 Samsung Electronics Co., Ltd. Electronic device and method for processing letter input in electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170045636A (ko) * 2015-10-19 2017-04-27 삼성전자주식회사 전자 장치의 입력 처리 방법 및 전자 장치

Also Published As

Publication number Publication date
US20150123921A1 (en) 2015-05-07
US9606665B2 (en) 2017-03-28

Similar Documents

Publication Publication Date Title
US10402065B2 (en) Method and apparatus for operating a virtual keyboard
TWI522894B (zh) 用於電子元件中的方法、電腦程式產品以及非暫時性電腦可讀記錄媒體
KR102219861B1 (ko) 화면 공유 방법 및 그 전자 장치
EP2869253A1 (en) Method for operating message application and electronic device implementing the same
KR20150051663A (ko) 터치 입력에 반응하여 기능을 실행하는 방법 및 이를 구현하는 전자장치
EP3223131A1 (en) Electronic device with fingerprint sensor and control method thereof
KR102206053B1 (ko) 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
US9606665B2 (en) Object moving method and electronic device implementing the same
EP3220261B1 (en) Multiple display device and method of operating the same
US20150177957A1 (en) Method and apparatus for processing object provided through display
US10055119B2 (en) User input method and apparatus in electronic device
US9625979B2 (en) Method for reducing power consumption and electronic device thereof
EP2927796A1 (en) User interface method and apparatus of electronic device for receiving user input
EP2843534A1 (en) Method for display control and electronic device thereof
US20150293691A1 (en) Electronic device and method for selecting data on a screen
US10303351B2 (en) Method and apparatus for notifying of content change
US20150331600A1 (en) Operating method using an input control object and electronic device supporting the same
US20150169129A1 (en) Method of displaying touch indicator and electronic device thereof
KR20150092640A (ko) 잠금 기능 제어 방법 및 그 전자 장치
KR20150099255A (ko) 정보 표시 방법 및 이를 이용하는 전자 장치
EP2869180A1 (en) Multi-language input method and multi-language input apparatus using the same
KR20150029258A (ko) 지문 센서를 이용하여 제어 기능을 수행하는 전자 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application