KR20150014084A - 터치 스크린 기반의 디바이스 및 그의 오브젝트 제어 방법 - Google Patents

터치 스크린 기반의 디바이스 및 그의 오브젝트 제어 방법 Download PDF

Info

Publication number
KR20150014084A
KR20150014084A KR1020130089299A KR20130089299A KR20150014084A KR 20150014084 A KR20150014084 A KR 20150014084A KR 1020130089299 A KR1020130089299 A KR 1020130089299A KR 20130089299 A KR20130089299 A KR 20130089299A KR 20150014084 A KR20150014084 A KR 20150014084A
Authority
KR
South Korea
Prior art keywords
touch
touch gesture
gesture
arbitrary
selected object
Prior art date
Application number
KR1020130089299A
Other languages
English (en)
Inventor
유형승
이주형
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130089299A priority Critical patent/KR20150014084A/ko
Priority to US14/446,158 priority patent/US20150033165A1/en
Publication of KR20150014084A publication Critical patent/KR20150014084A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

본 발명은 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법에 관한 것으로, 제 1 터치 제스처에 기초하여 상기 터치 스크린 상에 디스플레이된 적어도하나 이상의 오브젝트 중 임의의 오브젝트를 선택하는 단계 및 상기 터치 스크린 상 선택된 상기 오브젝트 이외의 영역에 대한 제 2 터치 제스처에 기초하여 상기 선택된 오브젝트를 제어하는 단계를 포함한다.

Description

터치 스크린 기반의 디바이스 및 그의 오브젝트 제어 방법{DEVICE BASED ON TOUCH SCREEN AND METHOD FOR CONTROLLING OBJECT THEREOF}
본 발명은 터치 스크린 기반의 디바이스 및 그의 오브젝트 제어 방법에 관한 것으로, 구체적으로 다양한 터치 제스처 입력을 기반으로 오브젝트를 직관적으로 제어할 수 있는 디바이스 및 그의 오브젝트 제어 방법에 관한 것이다.
최근 터치 스크린(touch screen) 시장이 크게 성장하고 있다. 특히, 단말기/노트북 시장에서 터치패널 탑재 비중이 점차 증가하고 있으며, 대부분의 스마트폰에서 터치 스크린 패널 채용이 일반화됨에 따라 휴대기기용 터치스크린 시장이 급성장하고 있다. 아울러, 가전 부문에서도 터치스크린 패널 채용이 증가되고 있으며, 이 부문은 향후 터치스크린 패널 채용 분야로서 높은 비중을 차지할 것으로 예상된다.
터치스크린은 입력 센싱을 하는 표면과 출력 디스플레이 역할을 하는 표면을 서로 겹쳐 놓은 구조를 가진다. 터치스크린 기반의 디바이스는 터치 제스처를 바탕으로 입력되는 사용자 의도를 분석 및 인지하고, 그에 따른 결과를 출력할 수 있다. 즉, 사용자는 터치스크린 상에서 터치 제스처를 입력하여 제어 명령을 디바이스로 전달하고, 디바이스는 터치 제스처 입력 센싱을 통해 사용자 의도를 분석 및 인지하며 그에 따른 동작을 처리한 후 터치스크린을 통해 그 결과를 출력할 수 있다.
한편, 터치스크린 기반의 디바이스에서는 사용자의 터치 제스처가 버튼 입력을 대신하게 되므로 사용자 인터페이스의 편의성이 많이 개선되었으나, 직관적인 오브젝트 제어와 관련하여 아직도 개선되어야 할 부분이 많이 있는 실정이다.
공개번호 KR 10-2010-0041107
본 발명은 상기와 같은 문제점을 해결하기 위하여 도출된 것으로, 터치 스크린 상에 디스플레이된 오브젝트에 대한 직관적인 제어 방법을 제공하는 것을 목적으로 한다.
상기 목적을 실현하기 위한 본 발명의 일 실시예에 따른 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법은, 제 1 터치 제스처에 기초하여 상기 터치 스크린 상에 디스플레이된 적어도 하나 이상의 오브젝트 중 임의의 오브젝트를 선택하는 단계; 및 상기 터치 스크린 상 선택된 상기 오브젝트 이외의 영역에 대한 제 2 터치 제스처에 기초하여 상기 선택된 오브젝트를 제어하는 단계를 포함한다.
본 발명의 일 실시예에 따른 터치 스크린 기반의 디바이스는 제 1 및 제 2 터치 제스처를 수신하고, 적어도 하나 이상의 오브젝트를 디스플레이하는 터치 스크린부; 및 상기 제 1 터치 제스처에 기초하여 상기 터치 스크린부 상에 디스플레이된 적어도 하나 이상의 오브젝트 중 임의의 오브젝트를 선택하고, 상기 제 2 터치 제스처에 기초하여 상기 선택된 오브젝트를 제어하는 제어부를 포함하며, 상기 제 2 터치 제스처는 상기 터치 스크린부 상 상기 선택된 오브젝트 이외의 영역으로 수신된다.
본 기술에 따르면, 사용자는 터치 스크린 기반의 디바이스에서 좀 더 효율적이고 직관적인 방법으로 오브젝트 제어가 가능하다. 오브젝트 제어를 위한 사용자 터치 제스처 입력 수신 효율이 증대된다.
도 1은 본 발명의 일 실시예에 따른 터치 스크린 기반의 디바이스의 개략적인 구성을 나타내는 도면,
도 2는 본 발명의 일 실시예에 따른 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법을 나타낸 순서도,
도 3 내지 도 5는 본 발명의 일 실시예에 따른 터치 스크린 상 디스플레이된 특정 오브젝트의 크기를 제어하는 방법의 화면 예시도,
도 6은 본 발명의 일 실시예에 따른 터치 스크린 상 디스플레이된 팝업 창의 크기를 제어하는 방법의 화면 예시도,
도 7은 본 발명의 일 실시예에 따른 문서 편집기에서 이미지 삽입을 제어하는 방법의 화면 예시도,
도 8은 본 발명의 일 실시예에 따른 웹 브라우저에서 이미지의 크기를 제어하는 방법의 화면 예시도,
도 9는 본 발명의 일 실시예에 따른 위젯 설정 화면에서 위젯의 크기 및 위치를 제어하는 방법의 화면 예시도,
도 10은 본 발명의 일 실시예에 따른 웹 브라우저에서 텍스트의 폰트 크기를 제어하는 방법의 화면 예시도,
도 11 내지 도 14는 본 발명의 일 실시예에 따른 이미지 에디터에서 이미지 편집을 제어하는 방법의 화면 예시도,
도 15는 본 발명의 일 실시예에 따른 터치 스크린 상 디스플레이된 오브젝트의 일 부분에 대한 선택 및 제어 방법의 화면 예시도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예들을 상세히 설명한다. 이 때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.
실시예를 통한 상세한 설명에 앞서, 본 명세서와 도면에서 설명되는 터치 스크린 기반의 디바이스는 사용자가 손가락이나 볼펜모양의 터치펜(touch pen) 등을 이용하여 터치스크린에 제스처를 발생시키면, 디바이스가 터치스크린 상에 접촉이 일어난 부분을 분석 및 인지하여 해당 명령을 실행하도록 설계된 디스플레이 장치를 말한다.
본 명세서와 도면에서 설명되는 터치 제스처는 터치(Touch), 탭(Tap), 멀티 탭(Multi Tap), 롱 탭(Long Tap), 드래그(Drag), 드래그 앤 드롭(Drag&Drop) 및 스윕(Sweep) 등을 포함할 수 있다. 여기서, 터치는 사용자가 화면의 어느 한 지점을 누르는 조작이고, 탭은 어느 한 지점을 터치한 후 손가락의 이동 없이 해당 지점에서 손가락을 떼는 즉, 드롭하는 조작이며, 멀티 탭은 어느 한 지점을 연속적으로 두 번 또는 그 이상 탭하는 조작이며, 롱 탭은 탭보다 상대적으로 길게 터치한 후 손가락의 이동 없이 해당 지점에서 손가락을 떼는 조작이며, 드래그는 어느 한 지점을 터치한 상태에서 손가락을 소정 방향으로 이동시키는 조작이며, 드래그 앤 드롭은 드래그한 다음 손가락을 떼는 조작이며, 스윕은 튀기듯이 손가락을 빠른 속도로 이동시킨 다음 떼는 조작을 의미한다. 여기서, 스윕은 플릭(Flick)이라고도 한다.
그리고 터치 제스처는, 터치 스크린 상에 싱글핑거 기반의 하나의 포인트가 터치되는 싱글 터치뿐만 아니라, 터치 스크린 상에 멀티핑거 기반의 적어도 2개의 포인트가 터치되는 멀티 터치를 포함할 수 있다. 2 이상의 터치가 동시에 발생하거나 또는 하나의 포인트에 대한 터치가 발생한 후 다른 포인트에 대한 터치가 발생하기까지 소요되는 시간이 미리 설정된 시간 내에 존재하면, 이는 멀티 터치로 판단될 수 있다.
또한, 터치 제스처는 구분되는 하나 이상의 터치 입력을 포함할 수 있다. 예컨대, 하나의 기능을 실행하기 위한 터치 제스처는 제 1 터치 입력인 스윕과 제 2 터치 입력인 탭을 포함할 수 있다.
본 발명의 실시예에 따른 터치 스크린에는 저항막 방식(resistive type), 정전용량 방식(capacitive type), 전자유도 방식(electromagnetic induction type), 압력 방식(pressure type) 및 기타 다양한 터치 감지 기술이 적용될 수 있다.
도 1은 본 발명의 일 실시예에 따른 터치 스크린 기반의 디바이스의 개략적인 구성을 나타내는 도면이다.
도 1을 참조하면, 터치 스크린 기반의 디바이스(100)는 터치 스크린부(110) 및 제어부(120)를 포함할 수 있다.
터치 스크린부(110)는 터치 입력 수신과 디스플레이 동작을 함께 수행하는 터치 스크린으로 구성될 수 있다. 구체적으로, 터치 스크린부(110)는 터치 입력부(111) 및 디스플레이부(112)를 포함할 수 있다.
터치 입력부(111)는 터치 스크린의 표면에서 발생되는 사용자의 터치 제스처를 수신할 수 있다. 구체적으로, 터치 입력부(111)는 사용자의 터치 제스처 수신을 감지하는 터치 센서를 포함할 수 있다.
디스플레이부(112)는 디바이스(100)의 상태 및 동작과 관련된 각종 정보를 표시할 수 있다. 디스플레이부(112)가 표시하는 각각의 대상을 오브젝트(object)라고 명명한다. 디스플레이부(112)는 제어부(120)의 제어 하에 사용자의 터치 제스처를 감지하고, 감지된 터치 제스처에 대응하는 오브젝트 제어 기능 실행을 표시할 수 있다.
구체적으로, 본 실시예에 따른 터치 입력부(111)는 제 1 터치 제스처 및 제 2 터치 제스처를 수신할 수 있다. 제 1 터치 제스처는 터치 스크린 상에 디스플레이된 적어도 하나 이상의 오브젝트 중 임의의 오브젝트를 선택하는 입력 동작일 수 있다. 제 1 터치 제스처는, 아래에서 자세히 설명하겠지만, 오브젝트 선택, 오브젝트의 테두리 선택, 오브젝트의 일 부분 선택 등을 행하는 입력 동작을 포함할 수 있다.
제 2 터치 제스처는 제 1 터치 제스처 이후에 입력되는 것으로, 터치 스크린 상에서 선택된 오브젝트 또는 오브젝트의 선택된 일 부분 이외의 영역에 대한 터치 입력 동작 일 수 있다. 제 2 터치 제스처는 선택된 오브젝트 또는 오브젝트의 선택된 일 부분을 직관적으로 제어하는 다양한 터치 입력일 수 있다. 구체적으로, 회전 제스처, 확대 제스처, 축소 제스처를 포함할 수 있다. 예컨대, 제 2 터치 제스처는 임의의 방향성을 갖는 싱글 터치 또는 멀티 터치 제스처일 수 있고, 터치 제스처의 이동 방향 및 이동 길이에 대응하여 오브젝트의 크기를 확대 또는 축소 시킬 수 있다.
이러한 기능 외에도, 제 2 터치 제스처와 맵핑된 다양한 오브젝트 제어 기능이 미리 디바이스(1000)에 설정되어 있을 수 있다. 이러한 맵핑은 실행하고자 하는 제어 기능과 사용자의 터치 제스처과 직관적으로 연상되는 것이 바람직하다. 제 2 터치 제스처는 맵핑된 오브젝트 제어 기능을 실행시키는 입력으로 작용할 수 있다. 제 2 터치 제스처는 동일한 기능을 수행하는 1회 내지 그 이상의 터치 입력을 포함할 수 있고, 상이한 기능을 수행하는 1회 내지 그 이상의 터치 입력을 포함할 수 있다.
뿐만 아니라, 터치 입력부(111)는 선택된 오브젝트 또는 오브젝트의 선택된 일 부분에 대한 추가적인 터치 제스처를 수신할 수 있다. 이러한 터치 제스처는 선택된 오브젝트 또는 오브젝트의 선택된 일 부분을 터치 스크린 상에서 이동시키는 입력으로 작용할 수 있다.
디스플레이부(112)는 제어부(120)가 터치 입력부(111)로 수신한 제 1 및 제 2 터치 제스처에 응답하여 오브젝트를 선택 및 제어한 결과를 출력한다. 디스플레이부(112)는 제 1 터치 제스처에 대응하여 선택된 오브젝트 또는 오브젝트의 일 부분을 활성화 또는 선택된 부분의 테두리를 활성화시킬 수 있다. 그리고, 제 2 터치 제스처에 대응한 오브젝트 제어 기능의 실행을 표시할 수 있다.
제어부(120)는 디바이스(100)의 전반적인 동작을 제어할 수 있다. 제어부(120)는 터치 스크린의 터치 입력부(111)로 터치 제스처가 수신되면, 해당 터치 제스처를 감지하여 이에 대응하는 기능을 실행시킬 수 있다. 구체적으로, 제어부(120)는 오브젝트 판단부(121) 및 제어 동작 판단부(122)를 포함할 수 있다.
오브젝트 판단부(121)는 터치 입력부(111)를 통해 수신한 제 1 터치 제스처를 감지하여 선택되는 오브젝트 또는 오브젝트의 일 부분을 판단하는 기능을 실행한다. 설정된 바에 따라 해당 오브젝트에 대한 터치, 롱 탭, 멀티 탭 또는 테두리 드래그 동작 등 오브젝트 선택 제스처가 감지되면 해당 오브젝트를 선택하고, 그 결과를 디스플레이부(112)를 통해 출력할 수 있다. 오브젝트 일 부분에 대한 선택 또한, 설정된 바에 따라 범위를 설정하는 다양한 터치 제스처 동작이 감지되면 해당 부분에 대한 선택을 수행한 뒤 그 결과를 디스플레이부(112)를 통해 출력할 수 있다.
제어 동작 실행부(122)는 터치 입력부(111)를 통해 수신한 제 2 터치 제스처를 감지하여 이에 대응하여 맵핑된 제어 기능을 판단하고, 앞서 선택된 오브젝트 내지는 오브젝트의 일 부분에 대하여 판단된 제어 기능을 실행하며, 그 결과를 디스플레이부(112)를 통해 출력시킬 수 있다.
상기와 같은 제어부(120)의 구체적인 구성은 동작 설명을 위하여 일 예로써 나타낸 것일 뿐 이에 한정되는 것은 아니고, 당업자라면 제어부(120)가 상기 전반적인 동작을 실행하는 것으로 충분히 이해할 수 있을 것이다.
한편, 상기 제어부(120)는 오브젝트가 선택된 이 후 터치 스크린 상 선택된 오브젝트 내의 영역에 대한 추가적인 터치 제스처에 기초하여 상기 선택된 오브젝트를 터치 스크린 상에서 이동시킬 수 있다.
도 2는 본 발명의 일 실시예에 따른 터치 스크린 기반의 디바이스(100)에서 오브젝트 제어 방법을 나타낸 순서도이다.
디바이스(100)는 S210 단계에서 대기 화면을 표시할 수 있다. 이때, 대기 화면은 웹 브라우저, 문서 편집기 등의 다양한 프로그램 실행 화면일 수 있고, 각 화면은 적어도 하나 이상의 오브젝트를 포함할 수 있다.
S220 단계에서 디바이스(100)는 제 1 터치 제스처를 수신할 수 있고, 이에 기초하여 오브젝트를 선택할 수 있다. 바람직하게 제 1 터치 제스처는 선택하고자 하는 오브젝트 영역 내에서의 터치 제스처일 수 있다.
S230 단계에서 디바이스(100)는 제 2 터치 제스처를 수신할 수 있고, 이에 기초하여 선택된 오브젝트를 제어할 수 있다. 바람직하게 제 2 터치 제스처는 선택된 오브젝트 이외의 영역에서의 터치 제스처 일 수 있다. 앞서 검토한 바와 같이 제 2 터치 제스처는 오브젝트를 제어하는 직관적인 제스처일 수 있다. 뿐만 아니라, 다양한 오브젝트 제어 기능과 맵핑된 터치 제스처 정보가 미리 설정되어 있을 수 있고, 따라서 본 단계에서는 해당 제 2 터치 제스처에 대응하여 맵핑된 오브젝트 제어 기능을 실행할 수 있다. 한편, 제 2 터치 제스처 중 1회 터치 입력이 종료되면 해당 터치 입력에 대응하는 오브젝트 제어가 종료되나, 이후 제 2 터치 제스처의 조건을 만족하는 터치 입력이 다시 수신되면 다시 해당 터치 입력에 대응하는 오브젝트 제어가 실행될 수 있다.
S240 단계에서는 제 2 터치 제스처에 기초한 오브젝트 제어 결과를 터치 스크린 상으로 출력한다. 이때, 해당 오브젝트 제어가 종료된 결과뿐만 아니라, 진행 중인 제 2 터치 제스처에 대응하는 오브젝트 제어 상태가 터치 스크린 상에 표시될 수 있다.
도 3 내지 도 5는 본 발명의 일 실시예에 따른 터치 스크린 상 디스플레이된 특정 오브젝트의 크기를 제어하는 방법의 화면 예시도이다.
도 3 및 도 4는 싱글터치 기반의 오브젝트 크기 제어 방법의 화면 예시도이다.
도 3을 참조하면, 본 실시예는 (a)에 도시된 바와 같이, 우선 제 1 터치 제스처(1)로 오브젝트를 선택하고, 선택된 오브젝트 이외의 영역에 임의의 방향성을 갖는 제 2 터치 제스처(2)로 선택된 오브젝트의 크기를 제어할 수 있다. 선택된 오브젝트가 도시된 바와 같이 원형이라면, 예컨대 (b)에 도시된 바와 같이 우측으로의 드래그 입력이 수신되면 오브젝트의 반경을 늘릴 수 있고, 반대로 (c)에 도시된 바와 같이 좌측으로 드래그 입력이 수신되면 오브젝트의 반경을 줄일 수 있다. 즉, 드래그 동작의 방향에 따라 직관적으로 오브젝트의 크기를 확대 또는 축소시킬 수 있다.
도 4의 실시예도 마찬가지로, (d)에 도시된 바와 같이, 우선 제 1 터치 제스처(1)로 오브젝트를 선택하고, 선택된 오브젝트 이외의 영역에 임의의 방향성을 갖는 제 2 터치 제스처(2)로 선택된 오브젝트의 크기를 제어할 수 있다. 선택된 오브젝트가 도시된 바와 같이 사각형이라면, 예컨대 (e)에 도시된 바와 같이 우측으로의 드래그 입력이 수신되면 이동 거리에 비례하여 오브젝트의 크기를 확대시킬 수 있고, 반대로 (f)에 도시된 바와 같이 좌측으로 드래그 입력이 수신되면 이동 거리에 비례하여 오브젝트의 크기를 축소시킬 수 있다. 즉, 드래그 동작의 방향에 따라 직관적으로 오브젝트의 크기를 확대 또는 축소시킬 수 있다.
도 5는 멀티터치 기반의 오브젝트 크기 제어 방법의 화면 예시도이다.
본 실시예는 (g)에 도시된 바와 같이, 우선 제 1 터치 제스처(1)에 기초하여 오브젝트를 선택하고, 멀티 터치 기반의 제 2 터치 제스처(2, 3)를 수신하여 선택된 오브젝트를 제어한다. 본 실시예에서는 제 2 터치 제스처(2, 3)로 두 개의 터치 입력이 동시에 입력되는 경우를 나타내고 있다. 본 실시예는 구체적으로 (h) 및 (i)에 도시된 바와 같이, 두 개의 터치 입력 각각의 위치 및 각 터치 입력이 이동하는 방향에 따라 직관적으로 해당 오브젝트의 크기를 확대, 축소, 변경시킬 수 있다.
도 6은 본 발명의 일 실시예에 따른 터치 스크린 상 디스플레이된 팝업 창의 크기를 제어하는 방법의 화면 예시도이다.
본 실시예는 제어 대상이 되는 오브젝트로서 팝업 창이 선택될 수 있음을 나타낸다. 도 6은 영상이 재생되고 있는 팝업 창을 선택 및 제어하기 위한 방안을 나타내고 있다. (j)에 도시된 바와 같이, 우선 제 1 터치 제스처(1)로 팝업 창을 선택하고, 선택된 팝업 창 이외의 영역에 임의의 방향성을 갖는 제 2 터치 제스처(2)로 선택된 팝업 창의 크기를 제어할 수 있다. 아니면 (k)에 도시된 바와 같이, 제 1 터치 제스처(1)로 팝업 창을 선택하고, 선택된 팝업 창 이외의 영역에 멀티 터치 기반의 제 2 터치 제스처(2, 3)를 수신하여 선택된 오브젝트를 제어할 수 있다. 두 개의 터치 입력 각각의 위치 및 각 터치 입력이 이동하는 방향에 따라 직관적으로 팝업 창의 크기를 확대, 축소, 변경시킬 수 있다.
한편, 도 6에서는 선택된 팝업 창의 크기 제어만을 나타내고 있으나, 터치 제스처에 다양한 기능, 예컨대 재생, 일시 정지, 되감기, 빨리감기 등의 기능을 미리 맵핑시켜 놓고 이러한 맵핑된 제어 기능을 실행시키는 것도 가능하다.
도 7은 본 발명의 일 실시예에 따른 문서 편집기에서 이미지 삽입을 제어하는 방법의 화면 예시도이다.
본 실시예는 터치스크린 기반의 디바이스 상에서 문서 편집기를 실행하는 경우, 편집 중인 문서에 이미지 삽입을 제어하는 방안을 나타내고 있다. (l)을 참조하면, 우선 편집 중인 문서에 이미지를 삽입하게 위하여 우선 이미지를 문서 편집기로 불러온다. 문서 편집기에 삽입된 이미지는 활성화 상태를 유지할 수도 있고, 해당 이미지를 선택하기 위한 제 1 터치 제스처(1)를 별도로 수신하여 활성화될 수도 있다. 삽입된 이미지에 대한 선택이 활성화되어 있다면, 선택이 활성화된 이미지 외의 영역에 임의의 방향성을 갖는 제 2 터치 제스처(2)를 수신하여 선택된 이미지의 크기를 제어할 수 있다. (m)은 문서 편집기의 또 다른 실시예를 도시한다. (m)을 참조하면, 우선 편집 중인 문서에 이미지를 삽입하게 위하여 우선 이미지를 문서 편집기로 불러온다. 문서 편집기에 삽입된 이미지는 활성화 상태를 유지할 수도 있고, 해당 이미지를 선택하기 위한 제 1 터치 제스처(1)를 별도로 수신하여 활성화될 수도 있다. 삽입된 이미지에 대한 선택이 활성화되어 있다면, 선택이 활성화된 이미지 이외의 영역에 멀티 터치 기반의 제 2 터치 제스처(2, 3)를 수신하여 선택된 이미지를 제어할 수 있다. 두 개의 터치 입력 각각의 위치 및 각 터치 입력이 이동하는 방향에 따라 직관적으로 이미지의 크기를 확대, 축소, 변경시킬 수 있다.
한편, 이미지가 선택과 함께 이미지의 위치를 이동시킬 수 있고, 이미지 선택 이후에라도 터치 스크린 상 선택된 이미지 내의 영역에 대한 추가적인 터치 제스처에 기초하여 상기 선택된 이미지를 편집 중인 문서 내의 영역에서 이동시킬 수 있다.
도 8은 본 발명의 일 실시예에 따른 웹 브라우저에서 이미지의 크기를 제어하는 방법의 화면 예시도이다.
웹 브라우저의 경우 다양한 컨텐츠를 한 화면에 포함할 수 있고, 사용자가 확인하기를 원하는 이미지가 상대적으로 작은 크기로 디스플레이될 수 있다. 본 실시예에 따르면, 이러한 경우 사용자가 원하는 이미지를 확대하여 확인할 수 있다. 구체적으로 (n)을 참조하면, 우선 웹 브라우저의 디스플레이되는 화면에 포함되는 다양한 컨텐츠 중에서 확대하고자 하는 이미지를 선택하기 위한 제 1 터치 제스처(1)를 수신할 수 있다. 해당 이미지가 선택되면, 웹 브라우저 상 선택된 이미지 이외의 영역에 임의의 방향성을 갖는 제 2 터치 제스처(2)로 선택된 이미지의 크기를 제어할 수 있다.
도 9는 본 발명의 일 실시예에 따른 위젯 설정 화면에서 위젯의 크기 및 위치를 제어하는 방법의 화면 예시도이다.
디바이스는 다양한 기능을 실행할 수 있고, 디바이스의 홈 화면 내지는 바탕 화면에는 다양한 기능 중 사용자가 주로 사용하는 기능을 바로 이용할 수 있게 하는 미니 응용프로그램이 있는데 이를 위젯(widget)이라고 한다. 사용자는 홈 화면 내지는 바탕 화면에서 원하는 기능의 위젯을 설정할 수 있다. (o)를 참조하면, 위젯 설정 모드에서 제 1 터치 제스처(1)를 수신하여 원하는 위젯을 선택하고, 선택된 위젯 이외의 영역에 임의의 방향성을 갖는 제 2 터치 제스처(2, 3)로 선택된 팝업 창의 크기를 제어할 수 있다. 뿐만 아니라, 위젯 선택과 함께 위젯의 위치를 이동시킬 수 있고, 위젯 선택 이후에라도 터치 스크린 상 선택된 위젯 내의 영역에 대한 추가적인 터치 제스처에 기초하여 상기 선택된 위젯의 위치를 이동시킬 수 있다.
도 10은 본 발명의 일 실시예에 따른 웹 브라우저에서 텍스트의 폰트 크기를 제어하는 방법의 화면 예시도이다.
웹 브라우저의 경우 다양한 컨텐츠를 한 화면에 포함할 수 있고, 사용자가 원하는 컨텐츠가 상대적으로 작은 크기로 디스플레이될 수 있다. 본 실시예는 웹 브라우저 상에서 사용자가 원하는 텍스트를 확대하여 확인하는 방법을 제공하고 있다. 구체적으로 (p)를 참조하면, 우선 웹 브라우저의 디스플레이되는 화면에 포함되는 텍스트 중에서 확대하고자 하는 텍스트를 선택하기 위한 제 1 터치 제스처(1)를 수신할 수 있다. 이 때, 터치 앤 드래그 동작으로 선택하고자 하는 텍스트의 범위를 설정할 수 있다. 텍스트가 선택되면, 웹 브라우저 상 선택된 텍스트 범위 이외의 영역에 임의의 방향성을 갖는 제 2 터치 제스처(2)로 선택된 텍스트의 폰트를 제어할 수 있다.
도 11 내지 도 14는 본 발명의 일 실시예에 따른 이미지 에디터에서 이미지 편집을 제어하는 방법의 화면 예시도이다.
도 11은 이미지 에디터 상에서 편집하고자 하는 이미지 영역을 선택하고 선택된 이미지의 크기 및 회전을 제어하는 방법의 화면 예시도이다.
(q) 및 (r)를 참조하면, 우선 이미지를 이미지 에디터로 불러오고, 제 1 터치 제스처(1)로 편집 창을 이동시킴으로써 편집 활성화 영역을 선택한다. 이후, 이미지 에디터 상 활성화된 편집 영역, 즉 편집 창 이외의 영역에 임의의 방향성을 갖는 제 2 터치 제스처(2)로 활성화된 편집 영역의 크기를 제어할 수 있다. 이때, 사용자의 직관적인 터치 제스처와 대응되도록 활성화된 편집 영역의 크기가 제어될 수 있는데, (q)와 같은 제 2 터치 제스처가 수신되면 편집 창의 좌우가 확대 또는 축소될 수 있고, (r)과 같은 제 2 터치 제스처가 수신되면 편집 창이 대각선으로 확대 또는 축소될 수 있다.
그리고 또 다른 실시예는, (s)를 참조하면, 우선 이미지를 이미지 에디터로 불러오고, 제 1 터치 제스처(1)로 편집 창을 이동시킴으로써 편집 활성화 영역을 선택한다. 이후, 이미지 에디터 상 활성화된 편집 영역, 즉 편집 창 이외의 영역에 회전을 그리는 제 2 터치 제스처(2)로 편집 창을 회전시킬 수 있다. 이때, 사용자의 직관적인 터치 제스처에 대응되도록 편집 창의 회전을 제어할 수 있다.
도 12는 이미지 에디터 상에서 편집하고자 하는 이미지 영역의 일 면, 즉 일 테두리를 선택하고 선택된 테두리를 제어하는 방법의 화면 예시도이다.
(t) 및 (u)를 참조하면, 우선 이미지를 이미지 에디터로 불러오고, 제 1 터치 제스처(1)로 편집 창을 이동시켜 편집 활성화 영역을 선택하는 것뿐만 아니라 편집 창의 테두리 중 편집하고자 하는 테두리를 선택한다. 이때, 테두리 선택은 테두리에 대한 터치 동작으로 이뤄질 수 있다. 이후, 이미지 에디터 상 활성화된 편집 영역, 즉 편집 창 이외의 영역에 임의의 방향성을 갖는 제 2 터치 제스처(2)로 선택된 테두리를 제어할 수 있다. 이때, 사용자의 직관적인 터치 제스처와 대응되도록 활성화된 테두리가 확장 또는 축소될 수 있다.
도 13은 이미지 에디터 상에서 편집하고자 하는 이미지의 영역의 복수의 테두리를 선택하고 선택된 테두리를 제어하는 방법의 화면 예시도이다.
(v) 및 (w)를 참조하면, 우선 이미지를 이미지 에디터로 불러오고, 제 1 터치 제스처(1,2)로 편집 창을 이동시켜 편집 활성화 영역을 선택하는 것뿐만 아니라 편집 창의 테두리 중 편집하고자 하는 테두리들을 선택한다. 테두리 선택은 선택하고자 하는 테두리들에 대한 터치 동작으로 이뤄질 수 있다. 이후, 이미지 에디터 상 활성화된 편집 영역, 즉 편집 창 이외의 영역에 임의의 방향성을 갖는 제 2 터치 제스처(3)로 선택된 테두리를 제어할 수 있다. 이때, 사용자의 직관적인 터치 제스처와 대응되도록 활성화된 테두리들이 확장 또는 축소될 수 있다.
도 14는 이미지 에디터 상에서 편집하고자 하는 이미지 영역 선택 및 선택된 이미지 영역에 대한 다양한 제어 기능 실행 방법의 화면 예시도이다.
(x) 및 (y)를 참조하면, 우선 이미지를 이미지 에디터로 불러오고, 제 1 터치 제스처(1)로 편집 창을 이동시켜 편집 활성화 영역을 선택한다. 이후, 이미지 에디터 상 활성화된 편집 영역, 즉 편집 창 이외의 영역으로 제 2 터치 제스처(2,3)를 수신함으로써 해당 터치 제스처에 대응하는 맵핑된 제어 기능을 실행시킬 수 있다. 터치 제스처에 맵핑된 제어 기능은 사전에 미리 설정될 수 있다. 예컨대, (x) 및 (y)와 같이 멀티 터치 및 특정 방향으로의 드래그 입력이 수신되면 각각 해당 입력에 대응하여 매핑된 제어 기능, 이미지 편집 되돌리기 또는 다시 실행 등의 기능을 실행시킬 수 있다.
도 15는 본 발명의 일 실시예에 따른 터치 스크린 상 디스플레이된 오브젝트의 일 부분에 대한 선택 및 제어 방법의 화면 예시도이다.
(z)를 참조하면, 우선 제 1 터치 제스처(1,2,3)를 통해 디스플레이된 오브젝트의 일 부분을 선택할 수 있다. 1번 터치 입력으로 터치 스크린에 디스플레이된 오브젝트의 일 부분의 범위를 설정할 수 있고, 2번 및 3번 터치 입력으로 선택된 오브젝트의 일 부분 중 특정 테두리 영역들을 선택할 수 있다. 테두리 영역들이 선택되면, 이후 터치 스크린 상 선택된 오브젝트의 일 부분 이외의 영역에 임의의 방향성을 갖는 제 2 터치 제스처(4)로 선택된 테두리를 확대 및 축소시킬 수 있다.
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (20)

  1. 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법에 있어서,
    제 1 터치 제스처에 기초하여 상기 터치 스크린 상에 디스플레이된 적어도하나 이상의 오브젝트 중 임의의 오브젝트를 선택하는 단계; 및
    상기 터치 스크린 상 선택된 상기 오브젝트 이외의 영역에 대한 제 2 터치 제스처에 기초하여 상기 선택된 오브젝트를 제어하는 단계를 포함하는 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법.
  2. 제 1 항에 있어서,
    상기 오브젝트 제어 단계는,
    상기 제 2 터치 제스처를 감지하고, 감지된 상기 제 2 터치 제스처에 맵핑된 오브젝트 제어 기능을 실행하는 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법.
  3. 제 2 항에 있어서,
    상기 오브젝트 제어 단계는,
    상기 제 2 터치 제스처가 임의의 방향성을 갖는 제스처일 경우, 상기 선택된 오브젝트의 크기를 확대 내지 축소시키는 기능을 실행하는 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법.
  4. 제 3 항에 있어서,
    상기 오브젝트 제어 단계는,
    상기 선택된 오브젝트가 텍스트 기반일 경우, 상기 임의의 방향성을 갖는 제스처가 감지되면 상기 선택된 오브젝트 내에 포함된 텍스트의 폰트 크기를 확대 내지 축소시키는 기능을 실행하는 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법.
  5. 제 2 항에 있어서,
    상기 오브젝트 제어 단계는,
    상기 제 2 터치 제스처가 회전 제스처일 경우, 상기 회전 제스처에 대응하여 상기 선택된 오브젝트를 회전시키는 기능을 실행하는 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법.
  6. 제 1 항에 있어서,
    상기 오브젝트 제어 단계는,
    상기 선택된 오브젝트를 기준으로 상기 제 2 터치 제스처의 위치를 감지하는 단계;
    상기 제 2 터치 제스처를 감지하는 단계; 및
    상기 위치 감지 결과 및 상기 제 2 터치 제스처 감지 결과에 대응하여 맵핑된 오브젝트 제어 기능을 실행하는 단계를 포함하는 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법.
  7. 제 2 항에 있어서,
    상기 오브젝트 선택 단계는,
    상기 선택된 오브젝트의 일정 영역의 테두리를 선택하는 터치 제스처를 수신하는 단계를 더 포함하는 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법.
  8. 제 7 항에 있어서,
    상기 오브젝트 제어 단계는,
    상기 제 2 터치 제스처가 임의의 방향성을 갖는 제스처일 경우, 상기 선택된 오브젝트의 상기 선택된 테두리를 확대 내지 축소시키는 기능을 실행하는 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법.
  9. 제 1 항에 있어서,
    상기 오브젝트 선택 단계에서는, 상기 제 1 터치 제스처에 기초하여 상기 터치 스크린 상에 디스플레이된 오브젝트 중 상기 임의의 오브젝트의 일 부분에 대한 선택이 가능하고,
    상기 오브젝트 제어 단계에서는, 상기 제 2 터치 제스처에 기초하여 상기 임의의 오브젝트 중 선택된 상기 일 부분에 대한 제어가 가능한 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법.
  10. 제 1 항에 있어서,
    상기 오브젝트 선택 단계에서, 상기 제 1 터치 제스처에 기초하여 상기 임의의 오브젝트의 선택 및 위치 이동을 제어할 수 있고,
    상기 오브젝트 선택 단계 이후에도, 상기 터치 스크린 상 상기 선택된 오브젝트 내의 영역에 대한 추가적인 터치 제스처에 기초하여 상기 선택된 오브젝트의 위치 이동을 제어할 수 있는 터치 스크린 기반의 디바이스에서 오브젝트 제어 방법.
  11. 제 1 및 제 2 터치 제스처를 수신하고, 적어도 하나 이상의 오브젝트를 디스플레이하는 터치 스크린부; 및
    상기 제 1 터치 제스처에 기초하여 상기 터치 스크린부 상에 디스플레이된 적어도 하나 이상의 오브젝트 중 임의의 오브젝트를 선택하고, 상기 제 2 터치 제스처에 기초하여 상기 선택된 오브젝트를 제어하는 제어부를 포함하며,
    상기 제 2 터치 제스처는 상기 터치 스크린부 상 상기 선택된 오브젝트 이외의 영역으로 수신되는 터치 스크린 기반의 디바이스.
  12. 제 11 항에 있어서,
    상기 제어부는,
    상기 제 2 터치 제스처를 감지하고, 감지된 상기 제 2 터치 제스처에 맵핑된 오브젝트 제어 기능을 실행하는 터치 스크린 기반의 디바이스.
  13. 제 12 항에 있어서,
    상기 제어부는,
    상기 제 2 터치 제스처가 임의의 방향성을 갖는 제스처일 경우, 상기 선택된 오브젝트의 크기를 확대 내지 축소시키는 기능을 실행하는 터치 스크린 기반의 디바이스.
  14. 제 13 항에 있어서,
    상기 제어부는,
    상기 선택된 오브젝트가 텍스트 기반일 경우, 상기 임의의 방향성을 갖는 제스처가 감지되면 상기 선택된 오브젝트 내에 포함된 텍스트의 폰트 크기를 확대 내지 축소시키는 기능을 실행하는 터치 스크린 기반의 디바이스.
  15. 제 12 항에 있어서,
    상기 제어부는,
    상기 제 2 터치 제스처가 회전 제스처일 경우, 상기 회전 제스처에 대응하여 상기 선택된 오브젝트를 회전시키는 기능을 실행하는 터치 스크린 기반의 디바이스.
  16. 제 11 항에 있어서,
    상기 제어부는,
    상기 선택된 오브젝트를 기준으로 상기 제 2 터치 제스처의 위치를 감지하고, 상기 제 2 터치 제스처를 감지하며, 상기 위치 감지 결과 및 상기 제 2 터치 제스처 감지 결과에 대응하여 맵핑된 오브젝트 제어 기능을 실행하는 단계를 포함하는 터치 스크린 기반의 디바이스.
  17. 제 12 항에 있어서,
    상기 터치 스크린부는,
    상기 선택된 오브젝트의 일정 영역의 테두리를 선택하는 터치 제스처를 더수신하는 터치 스크린 기반의 디바이스.
  18. 제 17 항에 있어서,
    상기 제어부는,
    상기 제 2 터치 제스처가 임의의 방향성을 갖는 제스처일 경우, 상기 선택된 오브젝트의 상기 선택된 테두리를 확대 내지 축소시키는 기능을 실행하는 터치 스크린 기반의 디바이스.
  19. 제 11 항에 있어서,
    상기 터치 스크린부는, 디스플레이된 상기 적어도 하나 이상의 오브젝트 중 상기 임의의 오브젝트의 일 부분을 선택하는 상기 제 1 터치 제스처를 수신할 수 있고,
    상기 제어부는, 상기 제 2 터치 제스처에 기초하여 상기 임의의 오브젝트 중 선택된 상기 일 부분에 대하여 제어할 수 있는 터치 스크린 기반의 디바이스.
  20. 제 11 항에 있어서,
    상기 제어부는,
    상기 제 1 터치 제스처를 감지하여 상기 임의의 오브젝트의 선택 및 위치 이동을 제어할 수 있고, 상기 제 1 터치 제스처에 의해 상기 임의의 오브젝트가 선택된 이후에도 상기 터치 스크린 상 상기 선택된 오브젝트 내의 영역에 대한 추가적인 터치 제스처에 기초하여 상기 선택된 오브젝트의 위치 이동을 제어할 수 있는 터치 스크린 기반의 디바이스.
KR1020130089299A 2013-07-29 2013-07-29 터치 스크린 기반의 디바이스 및 그의 오브젝트 제어 방법 KR20150014084A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130089299A KR20150014084A (ko) 2013-07-29 2013-07-29 터치 스크린 기반의 디바이스 및 그의 오브젝트 제어 방법
US14/446,158 US20150033165A1 (en) 2013-07-29 2014-07-29 Device and method for controlling object on screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130089299A KR20150014084A (ko) 2013-07-29 2013-07-29 터치 스크린 기반의 디바이스 및 그의 오브젝트 제어 방법

Publications (1)

Publication Number Publication Date
KR20150014084A true KR20150014084A (ko) 2015-02-06

Family

ID=52391588

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130089299A KR20150014084A (ko) 2013-07-29 2013-07-29 터치 스크린 기반의 디바이스 및 그의 오브젝트 제어 방법

Country Status (2)

Country Link
US (1) US20150033165A1 (ko)
KR (1) KR20150014084A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170001429U (ko) * 2015-10-13 2017-04-21 칼 자이스 비전 인터내셔널 게엠베하 동공 중심 결정을 위한 장치

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8281241B2 (en) * 2004-06-28 2012-10-02 Nokia Corporation Electronic device and method for providing extended user interface
US8286102B1 (en) * 2010-05-27 2012-10-09 Adobe Systems Incorporated System and method for image processing using multi-touch gestures
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
US9202297B1 (en) * 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
USD764486S1 (en) * 2014-03-17 2016-08-23 Google Inc. Display panel portion with a computer icon
USD751599S1 (en) * 2014-03-17 2016-03-15 Google Inc. Portion of a display panel with an animated computer icon
USD760242S1 (en) * 2014-03-17 2016-06-28 Google Inc. Display panel portion with animated computer icon
USD765093S1 (en) * 2014-03-17 2016-08-30 Google Inc. Display panel portion with animated computer icon
USD759664S1 (en) * 2014-03-17 2016-06-21 Google Inc. Display panel portion with animated computer icon
US10345986B1 (en) 2016-05-17 2019-07-09 Google Llc Information cycling in graphical notifications
USD842336S1 (en) * 2016-05-17 2019-03-05 Google Llc Display screen with animated graphical user interface

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100595925B1 (ko) * 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US20020018051A1 (en) * 1998-09-15 2002-02-14 Mona Singh Apparatus and method for moving objects on a touchscreen display
US6891551B2 (en) * 2000-11-10 2005-05-10 Microsoft Corporation Selection handles in editing electronic documents
US20060136833A1 (en) * 2004-12-15 2006-06-22 International Business Machines Corporation Apparatus and method for chaining objects in a pointer drag path
WO2006075267A2 (en) * 2005-01-14 2006-07-20 Philips Intellectual Property & Standards Gmbh Moving objects presented by a touch input display device
US8279180B2 (en) * 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
KR100774927B1 (ko) * 2006-09-27 2007-11-09 엘지전자 주식회사 이동통신 단말기, 메뉴 및 아이템 선택방법
US8519979B1 (en) * 2006-12-29 2013-08-27 The Mathworks, Inc. Multi-point interface for a graphical modeling environment
US8766928B2 (en) * 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8381118B2 (en) * 2009-10-05 2013-02-19 Sony Ericsson Mobile Communications Ab Methods and devices that resize touch selection zones while selected on a touch sensitive display
US8677268B2 (en) * 2010-01-26 2014-03-18 Apple Inc. Device, method, and graphical user interface for resizing objects
US8769444B2 (en) * 2010-11-05 2014-07-01 Sap Ag Multi-input gesture control for a display screen
JP5679782B2 (ja) * 2010-11-26 2015-03-04 京セラ株式会社 携帯電子機器、画面制御方法および画面制御プログラム
KR20120082102A (ko) * 2011-01-13 2012-07-23 삼성전자주식회사 터치 영역에서 타깃 선택 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170001429U (ko) * 2015-10-13 2017-04-21 칼 자이스 비전 인터내셔널 게엠베하 동공 중심 결정을 위한 장치

Also Published As

Publication number Publication date
US20150033165A1 (en) 2015-01-29

Similar Documents

Publication Publication Date Title
KR20150014084A (ko) 터치 스크린 기반의 디바이스 및 그의 오브젝트 제어 방법
US10387016B2 (en) Method and terminal for displaying a plurality of pages,method and terminal for displaying a plurality of applications being executed on terminal, and method of executing a plurality of applications
US20190129590A1 (en) Method and apparatus for multitasking
US11269486B2 (en) Method for displaying item in terminal and terminal using the same
CN106662964B (zh) 应用窗口的动态联合划分器
US9223471B2 (en) Touch screen control
CN111240575B (zh) 用于多个显示器的用户界面
US9335899B2 (en) Method and apparatus for executing function executing command through gesture input
KR102123089B1 (ko) 자동으로 확대되는 창
TWI507965B (zh) 多螢幕的視窗管理方法、裝置與電腦程式產品
US20160004373A1 (en) Method for providing auxiliary information and touch control display apparatus using the same
KR102304178B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
KR102168648B1 (ko) 사용자 단말 장치 및 그 제어 방법
KR102199356B1 (ko) 멀티-터치 디스플레이 패널 및 이를 제어하는 방법
KR102228335B1 (ko) 그래픽 사용자 인터페이스의 일 부분을 선택하는 방법
EP2706449B1 (en) Method for changing object position and electronic device thereof
KR102205283B1 (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
KR102161061B1 (ko) 복수의 페이지 표시 방법 및 이를 위한 단말
KR20120019268A (ko) 터치스크린의 베젤을 이용한 제스처 명령 방법 및 그 단말
EP2728456B1 (en) Method and apparatus for controlling virtual screen
US20140240232A1 (en) Automatic Cursor Rotation
US20150153925A1 (en) Method for operating gestures and method for calling cursor
WO2020143387A1 (zh) 表格处理方法、装置、系统、存储介质及交互智能平板
KR102551568B1 (ko) 전자 장치 및 그 제어 방법
US20180173362A1 (en) Display device, display method used in the same, and non-transitory computer readable recording medium

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination