KR20140088487A - 단말기 및 그의 조작 방법 - Google Patents

단말기 및 그의 조작 방법 Download PDF

Info

Publication number
KR20140088487A
KR20140088487A KR1020130051402A KR20130051402A KR20140088487A KR 20140088487 A KR20140088487 A KR 20140088487A KR 1020130051402 A KR1020130051402 A KR 1020130051402A KR 20130051402 A KR20130051402 A KR 20130051402A KR 20140088487 A KR20140088487 A KR 20140088487A
Authority
KR
South Korea
Prior art keywords
touch screen
point
screen
touch
button
Prior art date
Application number
KR1020130051402A
Other languages
English (en)
Inventor
장민준
김홍보
Original Assignee
삼성디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성디스플레이 주식회사 filed Critical 삼성디스플레이 주식회사
Priority to US14/037,579 priority Critical patent/US20140184503A1/en
Priority to CN201310586039.1A priority patent/CN103914207A/zh
Priority to EP13194737.6A priority patent/EP2752753A3/en
Publication of KR20140088487A publication Critical patent/KR20140088487A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 실시예는 사용자가 보다 용이하게 조작할 수 있는 단말기 및 그의 조작 방법에 관한 것으로서, 버튼, 외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린, 및 버튼의 눌림 여부 및 수신된 터치입력에 따라 터치스크린에 표시되는 화면을 제어하는 제어부를 포함하고, 제어부는 버튼의 눌림 또는 눌림의 해제가 감지되면 터치스크린의 크기보다 작은 크기를 갖는 조작 영역을 터치스크린에 표시하고, 제어부는 조작 영역 내의 제1지점에 터치입력이 수신되면 터치스크린의 전체 영역 중에서 제1지점에 대응되는 제2지점에 터치입력이 입력되는 경우에 실행되는 동작(operation)과 동일한 동작을 실행하는 단말기를 제공할 수 있다.

Description

단말기 및 그의 조작 방법{TERMINAL AND METHOD FOR CONTROLLING THEREOF}
본 발명은 단말기 및 그의 조작 방법에 관한 것으로서, 보다 자세하게는 사용자가 보다 용이하게 조작할 수 있는 단말기 및 그의 조작 방법에 관한 것이다.
정보통신기술의 발달과 다양화된 정보화 사회의 요구에 따라 개인용 컴퓨터, 스마트폰, 이동 단말기, 휴대용 전자기기 등의 단말기가 빠른 속도로 보급되고 있다. 사용자는 키보드, 마우스, 트랙볼, 스타일러스 펜, 터치스크린, 버튼 등의 다양한 종류의 입력 장치를 이용하여 단말기에 데이터를 입력할 수 있다.
GUI(Graphic User Interface)란 사용자가 전자기기와 정보를 교환할 때, 그래픽으로 표시된 화면을 통해 작업할 수 있는 환경을 말한다. 전자기기가 발전함에 따라 사용자의 조작이 필요한 다양한 종류의 단말기에서는 GUI를 채용하고 있고, 이를 통해 사용자와의 입력 및 출력을 수행하고 있다.
단말기의 표시 장치가 대형화되고 표시 장치의 해상도가 증가해 감에 따라, GUI 환경에서의 단말기의 조작에 대한 사용자의 부담이 증가해가고 있다. 예를 들어, 입력 장치 및 출력 장치로서 터치스크린을 포함하는 이동 단말을 사용자가 조작하는 경우를 가정하기로 한다. 상기 터치스크린의 크기에 따라서는, 사용자가 이동 단말을 쥔 손의 엄지손가락만으로 터치스크린의 모든 영역을 조작할 수 없는 경우가 존재할 수 있다.
본 발명이 해결하고자 하는 과제는 사용자가 보다 용이하게 조작할 수 있는 단말기 및 그의 조작 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는 단말기의 터치스크린의 특정한 영역 내에서의 조작만으로도 터치스크린의 모든 영역에 대응하는 화면을 조작할 수 있는 단말기 및 그의 조작 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는 단말기의 사용자가 단말기를 쥔 손의 엄지손가락을 이용하여 상기 엄지손가락이 닿지 않는 영역 내에 표시된 화면을 조작할 수 있는 단말기 및 그의 조작 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 실시예에 따른 단말기는, 버튼, 외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린, 및 상기 버튼의 눌림 여부 및 상기 수신된 터치입력에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부를 포함하고, 상기 제어부는 상기 버튼의 눌림 또는 눌림의 해제가 감지되면 상기 터치스크린의 크기보다 작은 크기를 갖는 조작 영역을 상기 터치스크린에 표시하고, 상기 제어부는 상기 조작 영역 내의 제1지점에 터치입력이 수신되면 상기 터치스크린의 전체 영역 중에서 상기 제1지점에 대응되는 제2지점에 상기 터치입력이 입력되는 경우에 실행되는 동작(operation)과 동일한 동작을 실행할 수 있다.
또한, 상기 조작 영역에 대한 상기 제1지점의 상대적인 위치는 상기 터치스크린의 전체 영역에 대한 상기 제2지점의 상대적인 위치와 실질적으로 동일할 수 있다.
또한, 상기 조작 영역의 경계 및 상기 터치스크린의 경계는 직사각형의 형상을 갖고, 상기 조작 영역의 왼쪽 아래 코너의 좌표가 (x1, y1)이고, 상기 조작 영역의 오른쪽 위 코너의 좌표가 (x1', y1')이고, 상기 제1지점의 좌표가 (a1, b1)이고, 상기 터치스크린의 왼쪽 아래 코너의 좌표가 (x2, y2)이고, 상기 터치스크린의 오른쪽 위 코너의 좌표가 (x2', y2')이고, 상기 제2지점의 좌표가 (a2, b2)일 때, (x1' - x1) 대 (a1 - x1)의 비율은 (x2' - x2) 대 (a2 - x2)의 비율과 실질적으로 동일하고, (y1' - y1) 대 (b1 - y1)의 비율은 (y2' - y2) 대 (b2 - y2)의 비율과 실질적으로 동일할 수 있다.
또한, 상기 제어부는, 상기 버튼의 눌림이 감지되면 상기 조작 영역을 표시하고 상기 버튼의 눌림의 해제가 감지되면 상기 조작 영역을 표시하지 않을 수 있다.
또한, 상기 제어부는, 상기 버튼의 눌림의 해제가 감지될 때마다 상기 조작 영역의 표시 여부를 토글할 수 있다.
본 발명의 다른 실시예에 따른 단말기는, 버튼, 외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린, 및 상기 버튼의 눌림 여부 및 상기 수신된 터치입력에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부를 포함하고, 상기 제어부는 상기 버튼의 눌림 또는 눌림의 해제가 감지되면 상기 터치스크린의 크기보다 작은 크기를 갖는 조작 영역을 상기 터치스크린에 표시하고, 상기 제어부는 커서를 상기 터치스크린에 표시하고, 상기 제어부는 상기 조작 영역 내의 제1지점으로부터 상기 조작 영역 내의 제2지점으로의 드래그가 수신되면 상기 커서를 이동시켜 표시하고, 상기 제어부는 상기 조작 영역 내의 제3지점에 터치입력이 수신되면 상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행할 수 있다.
또한, 상기 제어부는, 상기 수신된 드래그의 방향에 대응하는 방향으로 상기 수신된 드래그의 거리에 대응하는 거리만큼 상기 커서를 이동시킬 수 있다.
또한, 상기 제어부는, 상기 제1지점의 좌표가 (x1, y1)이고 상기 제2지점의 좌표가 (x2, y2)일 때 상기 커서를 x축에 대하여 (x2 - x1)의 제1배수만큼 이동시키고, y축에 대하여 (y2 - y1)의 제2배수만큼 이동시킬 수 있다.
본 발명의 또 다른 실시예에 따른 단말기는, 버튼, 외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린, 자세(attitude) 정보를 측정하는 자세 측정부, 및 상기 버튼의 눌림 여부, 상기 수신된 터치입력 및 상기 측정된 자세 정보에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부를 포함하고, 상기 자세 측정부는, 상기 버튼의 눌림 또는 눌림의 해제가 감지되면 상기 단말기의 자세(attitude) 정보를 측정하고, 상기 제어부는 상기 측정된 자세 정보를 기초로 하여 상기 터치스크린에 표시된 화면을 스크롤하고, 상기 제어부는 상기 터치스크린 내의 임의의 지점에 터치입력이 수신되면 상기 터치입력이 입력된 지점에 대해 동작을 실행할 수 있다.
또한, 상기 제어부는, 상기 측정된 자세 정보를 이용하여 연직방향을 기준으로 상기 단말기가 회전된 각도 및 회전된 방향을 검출하고, 상기 제어부는, 검출된 상기 회전 방향 및 상기 회전 각도를 기초로 하여 상기 화면을 특정한 속도(speed) 및 특정한 방향으로 스크롤할 수 있다.
또한, 상기 제어부는, 상기 검출된 회전 각도가 클수록 더 빠른 속도로 상기 화면을 스크롤할 수 있다.
또한, 상기 제어부는, 상기 검출된 회전 각도가 특정 각도보다 작으면 상기 화면을 스크롤하지 않고, 상기 검출된 회전 각도가 상기 특정 각도보다 크거나 같으면 상기 화면을 스크롤할 수 있다.
또한, 상기 터치스크린은 직사각형의 형상을 갖고, 상기 제어부는, 상기 터치스크린이 포함하는 네 개의 변 중에서 제1변으로부터 상기 제1변과 마주보고 상기 제1변보다 더 낮거나 같은 높이에 위치하는 제2변을 향한 벡터(vector) 및 상기 제1변과 인접하는 두 개의 변 중에서 제3변으로부터 상기 제3변과 마주보고 상기 제3변보다 더 낮거나 같은 높이에 위치하는 제4변을 향한 벡터의 벡터합(vector sum)의 방향으로 상기 화면을 스크롤할 수 있다.
본 발명의 또 다른 실시예에 따른 단말기는, 버튼, 외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린, 및 상기 버튼의 눌림 여부 및 상기 수신된 터치입력에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부를 포함하고, 상기 제어부는 상기 버튼의 눌림 또는 눌림의 해제가 감지되면 상기 터치스크린에 표시된 화면의 일부를 표시하는 창을 상기 터치스크린에 표시하고, 상기 제어부는 상기 창이 배치된 영역 내의 제1지점으로부터 상기 터치스크린 내의 제2지점으로의 드래그(drag)가 수신되면 상기 창을 이동시켜 표시하고, 상기 제어부는 상기 이동된 창이 배치된 영역 내의 제3지점에 터치입력이 수신되면 상기 터치입력이 입력된 지점에 대해 동작을 실행할 수 있다.
또한, 상기 창은 상기 터치스크린에 상기 창이 표시되지 않았더라면 표시되었을 화면 중에서 특정한 영역에 대응하는 화면을 표시할 수 있다.
또한, 상기 제어부는, 상기 제1지점의 좌표가 (x1, y1)이고 상기 제2지점의 좌표가 (x2, y2)일 때 상기 창을 x축에 대하여 (x2 - x1)의 제1배수만큼 이동시키고, y축에 대하여 (y2 - y1)의 제2배수만큼 이동시킬 수 있다.
본 발명의 실시예에 따른 단말기의 조작 방법은, 버튼 및 터치스크린을 포함하는 단말기의 조작 방법에 있어서, 상기 버튼의 눌림 또는 눌림의 해제를 감지하는 단계, 상기 터치스크린의 크기보다 작은 크기를 갖는 조작 영역을 상기 터치스크린에 표시하는 단계, 상기 조작 영역 내의 제1지점에 터치입력을 수신하는 단계, 및 상기 터치스크린의 전체 영역 중에서 상기 제1지점에 대응되는 제2지점에 상기 터치입력이 입력되는 경우에 실행되는 동작(operation)과 동일한 동작을 실행하는 단계를 포함할 수 있다.
본 발명의 다른 실시예에 따른 단말기의 조작 방법은, 버튼 및 터치스크린을 포함하는 단말기의 조작 방법에 있어서, 상기 버튼의 눌림 또는 눌림의 해제를 감지하는 단계, 상기 터치스크린의 크기보다 작은 크기를 갖는 조작 영역을 상기 터치스크린에 표시하는 단계, 커서를 상기 터치스크린에 표시하는 단계, 상기 조작 영역 내의 제1지점으로부터 상기 조작 영역 내의 제2지점으로의 드래그를 수신하는 단계, 상기 커서를 이동시켜 표시하는 단계, 상기 조작 영역 내의 제3지점에 터치입력을 수신하는 단계, 및 상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행하는 단계를 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 단말기의 조작 방법은, 버튼 및 터치스크린을 포함하는 단말기의 조작 방법에 있어서, 상기 버튼의 눌림 또는 눌림의 해제를 감지하는 단계, 상기 단말기의 자세(attitude) 정보를 측정하는 단계, 상기 측정된 자세 정보를 기초로 하여 상기 터치스크린에 표시된 화면을 스크롤하는 단계, 상기 터치스크린 내의 임의의 지점에 터치입력을 수신하는 단계, 및 상기 터치입력이 입력된 지점에 대해 동작을 실행하는 단계를 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 단말기의 조작 방법은, 버튼 및 터치스크린을 포함하는 단말기의 조작 방법에 있어서, 상기 버튼의 눌림 또는 눌림의 해제를 감지하는 단계, 상기 터치스크린에 표시된 화면의 일부를 표시하는 창을 상기 터치스크린에 표시하는 단계, 상기 창이 배치된 영역 내의 제1지점으로부터 상기 터치스크린 내의 제2지점으로의 드래그(drag)를 수신하는 단계, 상기 창을 이동시켜 표시하는 단계, 상기 이동된 창이 배치된 영역 내의 제3지점에 터치입력을 수신하는 단계, 및 상기 터치입력이 입력된 지점에 대해 동작을 실행하는 단계를 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 단말기는, 외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린, 및 상기 수신된 터치입력에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부를 포함하고, 상기 제어부는 커서를 상기 터치스크린에 표시하고, 상기 제어부는 상기 터치스크린 상의 제1지점으로부터 상기 터치스크린 상의 제2지점으로의 드래그가 수신되면 상기 커서를 이동시켜 표시하고, 상기 제어부는 상기 터치스크린 상의 제3지점에 터치입력이 수신되면 상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행할 수 있다.
본 발명의 또 다른 실시예에 따른 단말기는, 버튼, 외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린, 및 상기 버튼의 눌림 여부 및 상기 수신된 터치입력에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부를 포함하고, 상기 제어부는 상기 버튼의 눌림 또는 눌림의 해제가 감지되면 커서를 상기 터치스크린에 표시하고, 상기 제어부는 조작 지원 객체를 상기 터치스크린에 표시하고, 상기 제어부는 상기 조작 지원 객체에 대한 드래그가 수신되면 상기 커서를 이동시켜 표시하고, 상기 제어부는 상기 조작 지원 객체에 대한 터치입력이 수신되면 상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행할 수 있다.
또한, 상기 조작 지원 객체는 제1서브객체 및 제2서브객체를 포함하고, 상기 제어부는 상기 제1서브객체에 대한 드래그가 수신되면 상기 커서를 이동시켜 표시하고, 상기 제어부는 상기 제2서브객체에 대한 터치입력이 수신되면 상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행할 수 있다.
본 발명의 또 다른 실시예에 따른 단말기의 조작 방법은, 버튼 및 터치스크린을 포함하는 단말기의 조작 방법에 있어서, 상기 버튼의 눌림 또는 눌림의 해제를 감지하는 단계, 커서를 상기 터치스크린에 표시하는 단계, 조작 지원 객체를 상기 터치스크린에 표시하는 단계, 상기 조작 지원 객체에 대한 드래그를 수신하는 단계, 상기 커서를 이동시켜 표시하는 단계, 상기 조작 지원 객체에 대한 터치입력을 수신하는 단계, 및 상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행하는 단계를 포함할 수 있다.
또한, 상기 조작 지원 객체는 제1서브객체 및 제2서브객체를 포함하고, 상기 조작 지원 객체에 대한 드래그를 수신하는 단계는, 상기 제1서브객체에 대한 드래그를 수신하는 단계를 포함하고, 상기 조작 지원 객체에 대한 터치입력을 수신하는 단계는, 상기 제2서브객체에 대한 상기 터치입력을 수신하는 단계를 포함할 수 있다.
본 발명의 실시예에 따르면 사용자가 단말기를 보다 용이하게 조작할 수 있다.
본 발명의 실시예에 따르면 단말기의 터치스크린의 특정한 영역 내에서의 조작만으로도 사용자가 터치스크린의 모든 영역에 대응하는 화면을 조작할 수 있다.
본 발명의 실시예에 따르면 단말기의 사용자가 단말기를 쥔 손의 엄지손가락을 이용하여 상기 엄지손가락이 닿지 않는 영역 내에 표시된 화면을 조작할 수 있다.
도 1은 본 발명의 실시예에 따른 단말기의 구성을 나타내는 블럭도이다.
도 2는 본 발명의 실시예에 따른 단말기의 터치스크린의 조작 영역을 나타내는 평면도이다.
도 3은 본 발명의 제1실시예에 따른 단말기의 조작 방법의 과정을 나타내는 순서도이다.
도 4는 본 발명의 제1실시예에 따른 단말기의 조작 방법을 설명하기 위한 평면도이다.
도 5는 본 발명의 제1실시예에 따른 단말기의 조작 방법을 설명하기 위한 평면도이다.
도 6은 본 발명의 제1실시예에 따른 단말기의 조작 방법을 설명하기 위한 평면도이다.
도 7은 본 발명의 제1실시예에 따른 단말기의 조작 방법을 설명하기 위한 평면도이다.
도 8은 본 발명의 제2실시예에 따른 단말기의 조작 방법의 과정을 나타내는 순서도이다.
도 9는 본 발명의 제2실시예에 따른 단말기의 조작 방법을 설명하기 위한 평면도이다.
도 10은 본 발명의 제3실시예에 따른 단말기의 조작 방법의 과정을 나타내는 순서도이다.
도 11은 본 발명의 제3실시예에 따른 단말기의 조작 방법을 설명하기 위한 평면도이다.
도 12는 본 발명의 제4실시예에 따른 단말기의 조작 방법의 과정을 나타내는 순서도이다.
도 13은 본 발명의 제4실시예에 따른 단말기의 조작 방법을 설명하기 위한 평면도이다.
도 14는 본 발명의 제5실시예에 따른 단말기의 조작 방법의 과정을 나타내는 순서도이다.
도 15는 본 발명의 제5실시예에 따른 단말기의 조작 방법을 설명하기 위한 평면도이다.
도 16은 본 발명의 제5실시예에 따른 단말기의 조작 방법을 설명하기 위한 평면도이다.
도 17은 본 발명의 제5실시예에 따른 단말기의 조작 방법을 설명하기 위한 평면도이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예에 대해 상세히 설명하기로 한다. 다만, 첨부된 도면은 본 발명의 내용을 보다 쉽게 개시하기 위하여 설명되는 것일 뿐, 본 발명의 범위가 첨부된 도면의 범위로 한정되는 것이 아님은 이 기술분야의 통상의 지식을 가진 자라면 용이하게 알 수 있을 것이다.
또한, 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, 그 중간에 하나 이상의 다른 구성요소를 사이에 두고 '간접적으로 연결'되어 있는 경우도 포함된다. 또한, 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 이외의 다른 구성요소를 제외한다는 의미가 아니라 이외의 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
이하에서는 첨부된 도면을 참조하여 본 발명의 실시예에 따른 단말기(100) 및 그의 조작 방법에 대해 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 단말기(100)의 구성을 나타내는 블럭도이다. 단말기(100)는 예를 들어, 개인용 컴퓨터, 스마트폰, 이동 단말기, 차량용 단말기 또는 휴대용 전자기기 등일 수 있다.
도 1을 참조하면, 본 발명의 실시예에 따른 단말기(100)는, 버튼(110), 외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린(120), 상기 단말기(100)의 자세(attitude) 정보를 측정하는 자세 측정부(130), 및 상기 버튼(110)의 눌림 여부, 상기 터치입력 및 상기 측정된 자세 정보에 따라 상기 터치스크린(120)에 표시되는 상기 화면을 제어하는 제어부(140)를 포함할 수 있다.
버튼(110)은 사용자의 조작에 의해 눌리거나 눌림이 해제될 수 있다. 또한, 버튼(110)은 토글될 수 있다. 다시 말해서, 버튼(110)은 사용자의 조작에 의해 눌린 상태 또는 눌림이 해제된 상태로 토글될 수 있다. 버튼(110)은 단말기(100)의 외관에 드러나도록 배치된 하드웨어 버튼일 수도 있고, 터치스크린(120)에 표시되는 소프트웨어 버튼일 수도 있다.
터치스크린(120)은 외부로부터 터치입력을 수신할 수 있다. 터치스크린(120)은 사용자로부터 직접, 터치에 의한 입력을 수신할 수 있다. 터치입력은 터치 이벤트 및 터치 해제 이벤트를 포함할 수 있다. 터치스크린(120)은 감압식 터치스크린, 정전식 터치스크린 또는 이들의 조합일 수 있다.
터치스크린(120)은 화면을 표시할 수 있다. 터치스크린(120)은 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), PDP(Plasma Display Panel) 등의 평판 표시 장치일 수 있다. 터치스크린(120)은 예를 들어, 플렉서블 디스플레이(flexible display)일 수 있다.
터치스크린(120)은 그래픽 유저 인터페이스(GUI, Graphic User Interface)를 표시할 수 있다. 터치스크린(120)은 예를 들어, 아이콘 또는 윈도우 등을 표시할 수 있다. 또한, 터치스크린(120)은 문서 내에 포함된 내용을 표시할 수 있다. 상기 문서는 예를 들어, 그림, 텍스트, 음악, 동영상 또는 기타 객체를 포함할 수 있다.
터치스크린(120)이 터치입력을 수신하는 영역 및 터치스크린(120)이 화면을 표시하는 영역은 실질적으로 동일할 수 있다.
자세 측정부(130)는 3차원 공간 내에서의 단말기(100)의 자세(attitude) 정보를 측정할 수 있다. 자세 측정부(130)는 기울기, 위치, 가속도 또는 각속도 등의 3차원 자세를 측정할 수 있다. 자세 측정부(130)는 예를 들어, 가속도 센서, 중력 센서, 자이로 센서, 기울기 센서, 지자기 센서, 카메라 또는 적외선 센서 중에서 적어도 하나 이상을 포함할 수 있다.
제어부(140)는 터치스크린(120)을 통해 수신된 터치입력에 따라 터치스크린(120)에 표시되는 화면을 제어할 수 있다. 예를 들어, 터치스크린(120)의 좌표 (x, y)로 터치 이벤트 및 터치 해제 이벤트가 입력된 경우, 제어부(140)는 상기 터치스크린(120)에 표시되어 있는 화면 중에서 상기 좌표 (x, y)에 대응하는 지점에 대해 선택 또는 실행 등의 동작(operation)을 실행할 수 있다. 제어부(140)가 어떠한 동작을 실행할 것인지에 대하여는 상기 좌표에 대응하는 지점에 표시되어 있는 객체의 종류에 따라 달라질 수 있다.
예를 들어, 터치스크린(120)에 표시되어 있는 화면 중에서 상기 좌표 (x, y)에 대응하는 지점에 특정 어플리케이션에 대한 아이콘이 표시되어 있는 경우, 제어부(140)는 상기 특정 어플리케이션을 실행할 수 있고, 터치스크린(120)에 상기 어플리케이션의 실행화면이 표시되도록 할 수 있다.
제어부(140)는 버튼(110)의 눌림 여부 및 자세 측정부(130)에 의해 측정된 자세 정보에 따라 터치스크린(120)에 표시되는 화면을 제어할 수 있다. 제어부(140)가 버튼(110)의 눌림 여부 및 자세 측정부(130)에 의해 측정된 자세 정보에 따라 화면을 어떻게 제어하는지에 대하여는 도 2 내지 도 15를 참조하여 후술하기로 한다.
단말기(100)가 예를 들어, 스마트폰 등과 같은 이동 단말기인 경우, 사용자는 한 손만을 이용하여 단말기(100)를 쥐고 사용할 수 있다. 또한, 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 터치입력을 입력할 수 있다.
그러나, 상술한 바와 같이 터치스크린(120)이 터치입력을 수신하는 영역 및 터치스크린(120)이 화면을 표시하는 영역은 실질적으로 동일할 수 있으므로, 터치스크린(120)이 큰 크기를 갖는 경우에는 터치입력에 대한 사용자의 부담이 클 수 있다. 다시 말해서, 단말기(100)의 터치스크린(120)이 큰 크기를 갖는 경우에는, 사용자가 단말기(100)를 쥔 손의 엄지손가락만을 이용하여 터치스크린(120)의 모든 영역에 터치입력을 입력하기가 어려울 수 있다.
이하에서는 본 발명의 실시예에 따른 단말기(100)의 조작 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. 본 발명의 실시예에 따른 단말기(100)의 조작 방법에 따르면 터치스크린(120)의 특정한 영역 내에서의 조작만으로도 사용자가 터치스크린(120)의 모든 영역에 대응하는 화면을 조작할 수 있다. 따라서, 사용자는 단말기(100)를 쥔 손의 엄지손가락 만을 이용하더라도 터치스크린(120)의 모든 영역에 대응하는 화면을 용이하게 조작할 수 있다.
본 발명의 실시예에 따른 단말기(100)는 개인용 컴퓨터, 스마트폰, 이동 단말기, 차량용 단말기 또는 휴대용 전자기기 등일 수 있으나, 이하에서는 설명의 편의를 위하여 단말기(100)가 이동 단말기라고 가정하기로 한다. 또한, 이하에서 서술하는 실시예들은 다른 종류의 단말기(100)에도 적용이 가능하다.
도 2는 본 발명의 실시예에 따른 단말기(100)의 조작 영역을 나타내는 평면도이다. 도 2를 참조하면, 사용자는 왼손을 이용하여 단말기(100)를 쥘 수 있다. 또한, 사용자가 단말기(100)를 편하게 쥐고 있는 상태에서는, 사용자의 왼손의 엄지손가락을 이용하여 도 2의 흰색 영역 내에서만 터치입력이 가능할 수 있다. 다시 말해서, 도 2의 음영 영역에 대하여는 사용자의 왼손의 엄지손가락이 닿기 어려울 수 있다.
도 3은 본 발명의 제1실시예에 따른 단말기(100)의 조작 방법의 과정을 나타내는 순서도이다. 또한, 도 4 내지 도 7은 본 발명의 제1실시예에 따른 단말기(100)의 조작 방법을 설명하기 위한 평면도이다.
도 3을 참조하면, 본 발명의 제1실시예에 따른 단말기(100)의 조작 방법은, 먼저, 버튼(110)의 눌림 또는 눌림의 해제를 감지하는 단계(S100)가 수행될 수 있다. 실시예에 따라서는, 버튼(110)이 눌린 상태가 감지된 경우에 이후의 단계들이 수행될 수도 있고, 버튼(110)이 눌린 상태가 되었다가 상기 눌림이 해제된 상태가 감지된 경우에 이후의 단계들이 수행될 수도 있다.
도 4를 참조하면, 본 발명의 제1실시예에 따른 단말기(100)는 터치스크린(120)에 표시되는 소프트웨어 버튼 유형의 버튼(110)을 포함할 수 있다. 버튼(110)은 도 4에 나타난 바와 같이, 도 2의 흰색 영역 내에 배치될 수 있다. 다시 말해서, 버튼(110)은 터치스크린(120)의 영역 중에서 사용자가 단말기(100)를 쥔 손의 엄지손가락이 자연스럽게 닿을 수 있는 영역 내에 배치될 수 있다.
도 4에서는 버튼(110)이 터치스크린(120)의 아래쪽 가운데 부분에 배치되어 있으나, 도 2의 흰색 영역 내이기만 하면 어디에 배치되더라도 무방하며, 예를 들어, 도 5에 나타난 바와 같이, 터치스크린(120)의 왼쪽 아래 코너 부분에 배치될 수 있다. 또한, 버튼(110)이 배치되는 위치는 실시예에 따라 달라질 수 있으며, 단말기(100)의 사용중에 버튼(110)의 위치가 자동적으로 또는 수동적으로 변경되는 실시예도 가능하다.
또한, 버튼(110)은 도 6에 나타난 바와 같이, 단말기(100)의 외관에 드러나도록 배치된 하드웨어 버튼일 수도 있다. 하드웨어 버튼 유형의 버튼(110)은 단말기(100)의 외관 중에서 사용자가 단말기(100)를 쥔 손의 엄지손가락이 자연스럽게 닿을 수 있는 영역 내에 배치될 수 있다. 또는, 상기 하드웨어 버튼 유형의 버튼(110)은 단말기(100)의 외관 중에서 사용자가 단말기(100)를 쥔 손의 엄지손가락을 제외한 나머지 손가락들 중에서 적어도 하나 이상이 자연스럽게 닿을 수 있는 영역 내에 배치될 수 있다.
단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 버튼(110)을 누를 수 있다. 예를 들어, 도 4를 참조하면, 사용자는 터치스크린(120)에 표시된 버튼(110)을 터치했다가 터치 해제할 수 있다. 터치스크린(120)은 터치 이벤트 및 터치 해제 이벤트의 발생을 감지할 수 있고 단말기(100)는 버튼(110)의 눌림 또는 눌림의 해제를 감지할 수 있다.
다시 도 3을 참조하면, 다음으로, 터치스크린(120)의 크기보다 작은 크기를 갖는 조작 영역(125)을 표시하는 단계(S110)가 수행될 수 있다. 도 4를 참조하면, 표시된 조작 영역(125)은 터치스크린(120)의 크기보다 작은 크기를 가질 수 있다. 또한, 조작 영역(125)의 크기는 터치스크린(120)의 크기와 동일하더라도 무방하다.
또한, 조작 영역(125)은 도 4에 나타난 바와 같이, 도 2의 흰색 영역 내에 배치될 수 있다. 다시 말해서, 조작 영역(125)은 터치스크린(120)의 영역 중에서 사용자가 단말기(100)를 쥔 손의 엄지손가락이 자연스럽게 닿을 수 있는 영역 내에 배치될 수 있다.
예를 들어, 조작 영역(125)은 터치스크린(120)의 왼쪽 아래 코너와 실질적으로 인접하도록 배치될 수 있다. 그러나, 도 2의 흰색 영역 내이기만 하면 터치스크린(120)의 코너와 이격되어 배치되더라도 무방하다.
조작 영역(125)은 사용자가 시각적으로 확인할 수 있도록 터치스크린(120)에 표시될 수 있다. 예를 들어, 도 4에 나타난 바와 같이, 조작 영역(125)의 경계선 및 조작 영역(125) 내의 음영이 표시될 수 있다. 또한 다른 실시예에 따르면, 조작 영역(125)이 반투명하게 또는 투명하게 표시되거나, 조작 영역(125)의 경계선만이 표시될 수 있다. 다시 말해서, 조작 영역(125)이 표시됨에 의해 터치스크린(120)에 표시된 화면 중에서 일부가 가려지거나, 상기 화면의 일부가 상기 조작 영역(125)과 중첩되어 표시될 수 있다. 또한, 조작 영역(125)이 시각적으로 표시되지 않더라도 무방하다.
조작 영역(125)의 경계의 형상은 터치스크린(120)의 경계의 형상과 실질적으로 동일할 수 있다. 예를 들어, 터치스크린(120)의 경계가 직사각형의 형상을 갖는 경우, 조작 영역(125)의 경계의 형상도 직사각형일 수 있다. 또한, 터치스크린(120)의 경계로 이루어진 직사각형의 가로 대 세로의 비율과 조작 영역(125)의 경계로 이루어진 직사각형의 가로 대 세로의 비율은 서로 동일할 수 있다. 그러나, 조작 영역(125)의 경계의 형상이 터치스크린(120)의 경계의 형상과 다르더라도 무방하다.
버튼(110)은 조작 영역(125)의 표시 여부에 관계없이 터치스크린(120)의 아래쪽 가운데 부분에 고정적으로 배치될 수도 있고, 조작 영역(125)의 표시 여부에 따라 버튼(110)이 배치된 위치가 달라질 수도 있다. 예를 들어, 조작 영역(125)이 표시되지 않을 때에는 도 5에 나타난 바와 같이 버튼(110)이 터치스크린(120)의 왼쪽 아래 코너 부분에 배치되고, 상기 버튼(110)의 눌림이 감지됨으로써 조작 영역(125)이 표시될 때에는 도 4에 나타난 바와 같이 버튼(110)이 터치스크린(120)의 아래쪽 가운데 부분에 배치될 수 있다.
또한, 조작 영역(125)이 표시된 경우, 버튼(110)은 도 4에 나타난 바와 같이 상기 조작 영역(125)의 외부에 배치될 수도 있고, 도 7에 나타난 바와 같이 상기 조작 영역(125)의 내부에 배치될 수도 있다. 도 7을 참조하면, 만약 조작 영역(125)이 터치스크린(120)의 왼쪽 아래 코너와 실질적으로 인접하도록 배치된 경우, 버튼(110)은 상기 조작 영역의 왼쪽 아래 코너와 실질적으로 인접하도록 배치될 수 있다.
또한, 조작 영역(125)의 표시 여부에 따라 버튼(110)의 표시 여부가 달라질 수도 있다. 예를 들어, 조작 영역(125)이 표시되지 않을 때에는 버튼(110)이 표시되고, 상기 버튼(110)의 눌림이 감지됨으로써 조작 영역(125)이 표시될 때에는 버튼(110)이 표시되지 않을 수 있다. 이 때, 특정한 조작에 의해 버튼(110)이 다시 표시되도록 할 수 있다.
상기 조작 영역(125)이 표시된 이후에 상기 버튼(110)의 눌림이 다시 감지되거나 상기 버튼(110)의 눌림이 해제된 상태가 다시 감지된 경우, 단말기(100)는 상기 조작 영역(125)이 표시되지 않도록 할 수 있다. 다시 말해서, 상기 버튼(110)의 눌린 상태 또는 눌림이 해제된 상태의 감지에 따라서 상기 조작 영역(125)의 표시 여부가 토글될 수 있다.
예를 들어, 상기 버튼(110)의 눌림의 해제가 감지될 때마다 상기 조작 영역(125)의 표시 여부가 토글될 수 있다. 또한 다른 실시예에 따르면, 상기 버튼(110)의 눌림이 감지되면 상기 조작 영역(125)이 표시되고, 상기 버튼(110)의 눌림의 해제가 감지되면 상기 조작 영역(125)이 표시되지 않을 수 있다.
다시 도 3을 참조하면, 다음으로, 상기 조작 영역(125) 내의 제1지점에 대한 터치입력을 수신하는 단계(S120)가 수행될 수 있다. 단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 상기 조작 영역(125) 내의 제1지점에 대하여 터치입력을 입력할 수 있다. 터치입력은 터치 이벤트 및 터치 해제 이벤트를 포함할 수 있다. 예를 들어, 도 4에 나타난 바와 같이, 사용자는 조작 영역(125) 내의 오른쪽 윗부분을 터치했다가 터치 해제할 수 있다.
다시 도 3을 참조하면, 다음으로, 상기 터치스크린(120)의 전체 영역 중에서 상기 제1지점에 대응되는 제2지점에 대해 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행하는 단계(S130)가 수행될 수 있다.
상기 제2지점은 상기 터치스크린(120)의 전체 영역 내에 포함될 수 있다. 상기 제2지점은 상기 터치스크린(120)의 전체 영역 중에서 상기 조작 영역(125)을 제외한 나머지 영역 내에 포함될 수 있다. 상기 제2지점은 상기 터치스크린(120)의 전체 영역 중에서 상기 조작 영역(125) 내에 포함될 수 있다.
상기 제2지점은 상기 제1지점에 대응될 수 있다. 조작 영역(125) 내에서의 제1지점의 상대적인 위치는 터치스크린(120) 전체 영역 내에서의 제2지점의 상대적인 위치에 대응될 수 있다. 조작 영역(125) 내에서 제1지점이 배치된 상대적인 위치는 터치스크린(120) 전체 영역 내에서 제2지점이 배치된 상대적인 위치와 실질적으로 동일할 수 있다.
예를 들어, 조작 영역(125)의 경계의 형상이 터치스크린(120)의 경계의 형상과 실질적으로 동일하고, 조작 영역(125)의 경계 및 터치스크린(120)의 경계가 직사각형의 형상을 갖는다고 가정하기로 한다. 조작 영역(125)의 가로 길이 대 세로 길이의 비율을 유지한 채 조작 영역(125)의 크기가 터치스크린(120)의 전체 영역의 크기와 같도록 조작 영역(125)을 확대하였을 때, 제1지점과 제2지점이 실질적으로 동일한 지점을 가리키도록 할 수 있다.
예를 들어, 조작 영역(125)의 왼쪽 아래 코너의 좌표를 (x1, y1)라 하고, 조작 영역(125)의 오른쪽 위 코너의 좌표를 (x1', y1')이라 하기로 하고, 제1지점의 좌표를 (a1, b1)이라 하기로 한다. 또한, 터치스크린(120)의 왼쪽 아래 코너의 좌표를 (x2, y2)라 하고, 터치스크린(120)의 오른쪽 위 코너의 좌표를 (x2', y2')이라 하고, 제2지점의 좌표를 (a2, b2)라 하기로 한다.
(x1' - x1) 대 (a1 - x1)의 비율은 (x2' - x2) 대 (a2 - x2)의 비율과 실질적으로 동일할 수 있다. 또한, (y1' - y1) 대 (b1 - y1)의 비율은 (y2' - y2) 대 (b2 - y2)의 비율과 실질적으로 동일할 수 있다. 또한, (a1 - x1) 대 (b1 - y1)의 비율은 (a2 - x2) 대 (b2 - y2)의 비율과 실질적으로 동일할 수 있다.
단말기(100)의 제어부(140)는, 상기 제2지점에 대해 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행할 수 있다. 다시 말해서, 실제로 상기 터치입력은 상기 조작 영역(125) 내의 제1지점에 대해 입력되었으나 상기 제2지점에 대해 상기 터치입력이 입력된 것처럼 단말기(100)가 동작할 수 있다.
예를 들어, 조작 영역(125) 내의 상기 제1지점에 대해 터치 이벤트 및 터치 해제 이벤트가 입력된 경우, 제어부(140)는 터치스크린(120)에 표시되어 있는 화면 중에서 상기 제2지점에 대해 선택 또는 실행 등의 동작을 실행할 수 있다. 제어부(140)가 어떠한 동작을 실행할 것인지에 대하여는 상기 제2지점에 표시되어 있는 객체의 종류에 따라 달라질 수 있다.
실시예에 따라서는, 상기 제2지점이 상기 조작 영역(125) 내에 포함되는 경우에 제어부(140)는 아무런 동작을 실행하지 않을 수 있다. 또한 다른 실시예에 따르면, 상기 제2지점이 조작 영역(125) 내에 포함되는 경우에 제어부(140)는 조작 영역(125)이 표시됨에 의해 가려진 화면 또는 조작 영역(125)과 중첩된 화면 중에서 상기 제2지점에 대해 상기 터치입력이 입력된 것처럼 동작을 실행할 수 있다.
도 8은 본 발명의 제2실시예에 따른 단말기(100)의 조작 방법의 과정을 나타내는 순서도이다. 또한, 도 9는 본 발명의 제2실시예에 따른 단말기(100)의 조작 방법을 설명하기 위한 평면도이다.
도 8을 참조하면, 본 발명의 제2실시예에 따른 단말기(100)의 조작 방법은, 먼저, 버튼(110)의 눌림 또는 눌림의 해제를 감지하는 단계(S200)가 수행될 수 있다. 실시예에 따라서는, 버튼(110)이 눌린 상태가 감지된 경우에 이후의 단계들이 수행될 수도 있고, 버튼(110)이 눌린 상태가 되었다가 상기 눌림이 해제된 상태가 감지된 경우에 이후의 단계들이 수행될 수도 있다.
본 발명의 제2실시예에 따른 버튼(110)의 유형, 위치, 표시 방법 등에 대하여는 상술한 제1실시예에서와 동일하므로 여기에서는 자세한 설명을 생략한다.
단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 버튼(110)을 누를 수 있다. 예를 들어, 도 9를 참조하면, 사용자는 터치스크린(120)에 표시된 버튼(110)을 터치했다가 터치 해제할 수 있다. 터치스크린(120)은 터치 이벤트 및 터치 해제 이벤트의 발생을 감지할 수 있고 단말기(100)는 버튼(110)의 눌림 또는 눌림의 해제를 감지할 수 있다.
다시 도 8을 참조하면, 다음으로, 터치스크린(120)의 크기보다 작은 크기를 갖는 조작 영역(125)을 표시하는 단계(S210)가 수행될 수 있다. 도 9를 참조하면, 표시된 조작 영역(125)은 터치스크린(120)의 크기보다 작은 크기를 가질 수 있다. 또한, 조작 영역(125)의 크기는 터치스크린(120)의 크기와 동일하더라도 무방하다.
조작 영역(125)의 위치, 표시 방법, 형상 등에 대하여는 상술한 제1실시예에서와 동일하므로 여기에서는 자세한 설명을 생략한다.
다시 도 8을 참조하면, 다음으로, 커서(128)를 표시하는 단계(S220)가 수행될 수 있다. 도 9를 참조하면, 화살표 형상을 갖는 커서(128)가 터치스크린(120)에 표시될 수 있다. 커서(128)를 표시하는 단계(S220)는 상기 조작 영역(125)을 표시하는 단계(S210) 또는 상기 버튼(110)의 눌림 또는 눌림의 해제를 감지하는 단계(S200) 이전에 수행되더라도 무방하다. 커서(128)는 사용자로부터 터치입력이 수신된 지점에 표시되거나, 미리 정해진 지점에 표시될 수 있다.
다시 도 8을 참조하면, 다음으로, 상기 조작 영역(125) 내의 제1지점으로부터 상기 조작 영역(125) 내의 제2지점으로의 드래그(drag)를 수신하는 단계(S230)가 수행될 수 있다.
구체적으로, 단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 상기 조작 영역(125) 내의 상기 제1지점을 터치할 수 있다. 다시 말해서, 사용자는 상기 제1지점에 대하여 터치 이벤트를 발생시킬 수 있고, 단말기(100)는 상기 터치 이벤트를 감지할 수 있다. 또한, 사용자는 엄지손가락을 터치스크린(120)으로부터 떼지 않은 채 엄지손가락을 상기 제2지점으로 이동시킬 수 있다. 또한, 사용자는 상기 제2지점에서 엄지손가락을 터치스크린(120)으로부터 뗄 수 있다. 다시 말해서, 사용자는 상기 제2지점에 대하여 터치 해제 이벤트를 발생시킬 수 있고, 단말기(100)는 상기 터치 해제 이벤트를 감지할 수 있다. 이로써, 단말기(100)는 조작 영역(125) 내의 제1지점으로부터 조작 영역(125) 내의 제2지점으로의 드래그를 수신할 수 있다.
다음으로, 상기 커서(128)를 이동시켜 표시하는 단계(S240)를 수행할 수 있다. 도 9를 참조하면, 커서(128)의 이동 방향 및 이동 거리는 상기 수신된 드래그의 방향 및 거리에 대응될 수 있다. 다시 말해서, 커서(128)의 이동 방향 및 이동 거리는 상기 수신된 드래그의 방향 및 거리와 함수 관계를 가질 수 있다.
예를 들어, 상기 제1지점의 좌표를 (x1, y1)이라 하고, 상기 제2지점의 좌표를 (x2, y2)라 하기로 한다. 커서(128)는 x축에 대하여 (x2 - x1)의 제1배수만큼 이동하고, y축에 대하여 (y2 - y1)의 제2배수만큼 이동할 수 있다. 상기 제1배수 및 상기 제2배수는 서로 동일할 수도 있고 서로 다를 수도 있다. 상기 제1배수 또는 상기 제2배수의 구체적인 값은 사용자의 의사에 따라 또는 사용자의 의사와 무관하게 단말기(100)에 미리 설정되어 있을 수 있다.
다음으로, 상기 조작 영역(125) 내의 제3지점에 대한 터치입력을 수신하는 단계(S250)가 수행될 수 있다. 단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 상기 조작 영역(125) 내의 제3지점에 대하여 터치입력을 입력할 수 있다. 터치입력은 터치 이벤트 및 터치 해제 이벤트를 포함할 수 있다.
다음으로, 상기 이동된 커서(128)가 위치한 지점에 대해 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행하는 단계(S260)가 수행될 수 있다. 단말기(100)의 제어부(140)는, 상기 이동된 커서(128)가 위치한 지점에 대해 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행할 수 있다. 다시 말해서, 실제로 상기 터치입력은 상기 조작 영역(125) 내의 제3지점에 대해 입력되었으나 상기 커서(128)가 위치한 지점에 대해 상기 터치입력이 입력된 것처럼 단말기(100)가 동작할 수 있다.
예를 들어, 조작 영역(125) 내의 상기 제3지점에 대해 터치 이벤트 및 터치 해제 이벤트가 입력된 경우, 제어부(140)는 터치스크린(120)에 표시되어 있는 화면 중에서 상기 커서(128)가 위치한 지점에 대해 선택 또는 실행 등의 동작을 실행할 수 있다. 제어부(140)가 어떠한 동작을 실행할 것인지에 대하여는 상기 커서(128)가 위치한 지점에 표시되어 있는 객체의 종류에 따라 달라질 수 있다.
실시예에 따라서는, 상기 커서(128)가 위치한 지점이 상기 조작 영역(125) 내에 포함되는 경우에 제어부(140)는 아무런 동작을 실행하지 않을 수 있다. 또한 다른 실시예에 따르면, 상기 커서(128)가 위치한 지점이 조작 영역(125) 내에 포함되는 경우에 제어부(140)는 조작 영역(125)이 표시됨에 의해 가려진 화면 또는 조작 영역(125)과 중첩된 화면 중에서 상기 커서(128)가 위치한 지점에 대해 상기 터치입력이 입력된 것처럼 동작을 실행할 수 있다.
도 10은 본 발명의 제3실시예에 따른 단말기(100)의 조작 방법의 과정을 나타내는 순서도이다. 또한, 도 11은 본 발명의 제3실시예에 따른 단말기(100)의 조작 방법을 설명하기 위한 평면도이다.
도 10을 참조하면, 본 발명의 제3실시예에 따른 단말기(100)의 조작 방법은, 먼저, 버튼(110)의 눌림 또는 눌림의 해제를 감지하는 단계(S270)가 수행될 수 있다. 실시예에 따라서는, 버튼(110)이 눌린 상태가 감지된 경우에 이후의 단계들이 수행될 수도 있고, 버튼(110)이 눌린 상태가 되었다가 상기 눌림이 해제된 상태가 감지된 경우에 이후의 단계들이 수행될 수도 있다.
본 발명의 제3실시예에 따른 버튼(110)의 유형, 위치, 표시 방법 등에 대하여는 상술한 제1실시예에서와 동일하므로 여기에서는 자세한 설명을 생략한다.
단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 버튼(110)을 누를 수 있다. 예를 들어, 도 11을 참조하면, 사용자는 터치스크린(120)에 표시된 버튼(110)을 터치했다가 터치 해제할 수 있다. 터치스크린(120)은 터치 이벤트 및 터치 해제 이벤트의 발생을 감지할 수 있고 단말기(100)는 버튼(110)의 눌림 또는 눌림의 해제를 감지할 수 있다.
다시 도 10을 참조하면, 다음으로, 커서(128)를 표시하는 단계(S271)가 수행될 수 있다. 도 11을 참조하면, 화살표 형상을 갖는 커서(128)가 터치스크린(120)에 표시될 수 있다. 커서(128)를 표시하는 단계(S271)는 상기 버튼(110)의 눌림 또는 눌림의 해제를 감지하는 단계(S270) 이전에 수행되더라도 무방하다. 커서(128)는 사용자로부터 터치입력이 수신된 지점에 표시되거나, 미리 정해진 지점에 표시될 수 있다.
다시 도 10을 참조하면, 다음으로, 조작 지원 객체(138)를 표시하는 단계(S272)가 수행될 수 있다. 조작 지원 객체(138)는 터치스크린(120)에 표시될 수 있다. 조작 지원 객체(138)는 사용자로부터 터치입력이 수신된 지점에 표시되거나, 미리 정해진 지점에 표시될 수 있다. 조작 지원 객체(138)가 미리 정해진 지점에 표시되는 경우, 조작 지원 객체(138)는 도 2의 흰색 영역 내에 표시될 수 있다. 다시 말해서, 조작 지원 객체(138)는 터치스크린(120)의 영역 중에서 사용자가 단말기(100)를 쥔 손의 엄지손가락이 닿을 수 있는 영역 내에 표시될 수 있다.
조작 지원 객체(138)는 사용자가 시각적으로 확인할 수 있도록 터치스크린(120)에 표시될 수 있다. 조작 지원 객체(138)는 예를 들어 아이콘으로서 표시될 수 있다. 조작 지원 객체(138)는 불투명하게, 반투명하게, 또는 투명하게 표시될 수 있다. 다른 실시예에 따르면, 조작 지원 객체(138)의 외곽선만이 표시될 수도 있다. 조작 지원 객체(138)가 표시됨에 의해 터치스크린(120)에 표시된 화면 중에서 일부가 가려지거나, 상기 화면의 일부가 조작 지원 객체(138)와 중첩되어 표시될 수 있다. 또한, 조작 지원 객체(138)가 시각적으로 표시되지 않더라도 무방하다.
도 11을 참조하면, 조작 지원 객체(138)는 제1서브객체(141), 제2서브객체(142), 및 제3서브객체(143)을 포함할 수 있다. 사용자에 의해 제1서브객체(141)가 드래그되면 조작 지원 객체(138)가 상기 드래그된 지점으로 이동하여 표시될 수 있다. 다시 말해서, 제1서브객체(141)가 드래그되면 제1서브객체(141), 제2서브객체(142) 및 제3서브객체(143)는 하나의 그룹으로서 함께 이동하여 표시될 수 있다. 또한, 제1서브객체(141)가 드래그되면, 단말기(100)는 상기 제1서브객체(141)가 드래그된 방향 및 거리에 따라 커서(128)를 이동시켜 표시할 수 있다.
사용자가 드래깅을 마친 뒤 터치스크린(120)으로부터 손가락을 떼면, 조작 지원 객체(138)는 상기 제1서브객체(141)에 대한 드래그가 입력되기 전에 상기 조작 지원 객체(138)가 위치했던 지점으로 다시 이동하여 표시될 수 있다. 이로써 조작 지원 객체(138)는 언제나, 사용자로부터의 조작이 가능한 영역 내에 표시될 수 있다.
사용자에 의해 제2서브객체(142) 또는 제3서브객체(143)에 대한 터치입력이 수신되면 커서(128)가 위치한 지점에 대해 미리 정해진 동작이 실행될 수 있다. 예를 들어, 제2서브객체(142) 또는 제3서브객체(143)에 대한 터치입력이 수신되면 커서(128)가 위치한 지점에 대해 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작이 실행될 수 있다. 다른 실시예에 따르면, 제2서브객체(142) 또는 제3서브객체(143)에 대한 터치입력이 수신되면 커서(128)가 위치한 지점에 팝업 메뉴(pop-up menu) 등이 표시될 수 있다.
다시 도 10을 참조하면, 다음으로, 상기 조작 지원 객체(138)에 대한 드래그(drag)를 수신하는 단계(S273)가 수행될 수 있다.
구체적으로, 단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 상기 조작 지원 객체(138)의 제1서브객체(141)가 위치한 제1지점을 터치할 수 있다. 또한, 사용자는 엄지손가락을 터치스크린(120)으로부터 떼지 않은 채 엄지손가락을 제2지점으로 이동시킬 수 있다. 이로써, 단말기(100)는 조작 지원 객체(138)에 대한 드래그를 수신할 수 있다.
다음으로, 상기 커서(128)를 이동시켜 표시하는 단계(S274)가 수행될 수 있다. 도 11을 참조하면, 커서(128)의 이동 방향 및 이동 거리는 상기 수신된 드래그의 방향 및 거리에 대응될 수 있다. 다시 말해서, 커서(128)의 이동 방향 및 이동 거리는 상기 수신된 드래그의 방향 및 거리와 함수 관계를 가질 수 있다.
예를 들어, 상기 제1지점의 좌표를 (x1, y1)이라 하고, 상기 제2지점의 좌표를 (x2, y2)라 하기로 한다. 커서(128)는 x축에 대하여 (x2 - x1)의 제1배수만큼 이동하고, y축에 대하여 (y2 - y1)의 제2배수만큼 이동할 수 있다. 상기 제1배수 및 상기 제2배수는 서로 동일할 수도 있고 서로 다를 수도 있다. 상기 제1배수 또는 상기 제2배수의 구체적인 값은 사용자의 의사에 따라 또는 사용자의 의사와 무관하게 단말기(100)에 미리 설정되어 있을 수 있다.
또한, 커서(128)의 이동 거리는 사용자의 손가락이 터치스크린(120)에 접촉된 시간에 대응될 수 있다. 다시 말해서, 커서(128)의 이동 거리는 사용자의 손가락이 터치스크린(120)에 접촉된 시간과 함수 관계를 가질 수 있다. 예를 들어 사용자가,
조작 지원 객체(138)가 위치한 제1지점을 터치한 다음 손가락을 떼지 않은 채 손가락을 제2지점으로 이동시킨 경우를 가정하기로 한다. 또한, 사용자의 손가락이 상기 제2지점으로 이동된 후 얼마간의 시간이 지난 뒤에, 사용자가 터치스크린(120)으로부터 손가락을 분리하였다고 가정하기로 한다.
커서(128)의 이동 방향은 제1지점으로부터 제2지점으로의 방향에 대응될 수 있다. 또한, 커서(128)의 이동 거리는, 사용자의 손가락이 상기 제2지점으로 이동되고 나서부터 손가락이 터치스크린(120)으로부터 분리된 때까지의 시간에 대응될 수 있다. 예를 들어, 커서(128)의 이동 거리는 상기 시간에 비례할 수 있다.
다음으로, 상기 조작 지원 객체(138)에 대한 터치입력을 수신하는 단계(S275)가 수행될 수 있다. 단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 상기 조작 지원 객체(138)에 대한 터치입력을 입력할 수 있다. 사용자는 조작 지원 객체(138)의 제2서브객체(142) 또는 제3서브객체(143)에 대한 터치입력을 입력할 수 있다.
다음으로, 상기 이동된 커서(128)가 위치한 지점에 대해 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행하는 단계(S276)가 수행될 수 있다. 단말기(100)의 제어부(140)는, 상기 이동된 커서(128)가 위치한 지점에 대해 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행할 수 있다. 다시 말해서, 실제로 상기 터치입력은 상기 조작 지원 객체(138)에 대해 입력되었으나 상기 커서(128)가 위치한 지점에 대해 상기 터치입력이 입력된 것처럼 단말기(100)가 동작할 수 있다.
예를 들어, 조작 지원 객체(138)에 대해 터치 이벤트 및 터치 해제 이벤트가 입력된 경우, 제어부(140)는 터치스크린(120)에 표시되어 있는 화면 중에서 상기 커서(128)가 위치한 지점에 대해 선택 또는 실행 등의 동작을 실행할 수 있다. 제어부(140)가 어떠한 동작을 실행할 것인지에 대하여는 상기 커서(128)가 위치한 지점에 표시되어 있는 객체의 종류에 따라 달라질 수 있다.
도 12는 본 발명의 제4실시예에 따른 단말기(100)의 조작 방법의 과정을 나타내는 순서도이다. 또한, 도 13은 본 발명의 제4실시예에 따른 단말기(100)의 조작 방법을 설명하기 위한 평면도이다.
도 12를 참조하면, 본 발명의 제4실시예에 따른 단말기(100)의 조작 방법은, 먼저, 버튼(110)의 눌림 또는 눌림의 해제를 감지하는 단계(S300)가 수행될 수 있다. 실시예에 따라서는, 버튼(110)이 눌린 상태가 감지된 경우에 이후의 단계들이 수행될 수도 있고, 버튼(110)이 눌린 상태가 되었다가 상기 눌림이 해제된 상태가 감지된 경우에 이후의 단계들이 수행될 수도 있다.
본 발명의 제4실시예에 따른 버튼(110)의 유형, 위치, 표시 방법 등에 대하여는 상술한 제1실시예에서와 동일하므로 여기에서는 자세한 설명을 생략한다.
단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 버튼(110)을 누를 수 있다. 예를 들어, 도 13을 참조하면, 사용자는 터치스크린(120)에 표시된 버튼(110)을 터치했다가 터치 해제할 수 있다. 터치스크린(120)은 터치 이벤트 및 터치 해제 이벤트의 발생을 감지할 수 있고 단말기(100)는 버튼(110)의 눌림 또는 눌림의 해제를 감지할 수 있다.
다시 도 12를 참조하면, 다음으로, 단말기(100)의 자세 정보를 측정하는 단계(S310)가 수행될 수 있다. 단말기(100)의 자세 정보는 자세 측정부(130)에 의해 측정될 수 있다. 자세 측정부(130)는 예를 들어, 중력 센서, 자이로스코프 또는 지자기 센서를 포함할 수 있다. 자세 측정부(130)는 단말기(100)의 기울기, 가속도 또는 각속도 등의 자세 정보를 측정할 수 있다.
다음으로, 상기 측정된 자세 정보를 기초로 하여 터치스크린(120)에 표시된 화면을 스크롤하는 단계(S320)가 수행될 수 있다. 제어부(140)는 상기 측정된 자세 정보를 이용하여 단말기(100)가 연직방향을 기준으로 얼마나 기울어져 있는지를 검출할 수 있다. 다시 말해서, 제어부(140)는 연직방향을 기준으로 단말기(100)가 회전된 각도 및 회전된 방향을 검출할 수 있다.
도 13을 참조하면, 제어부(140)는 상기 검출된 회전 각도 및 회전 방향을 기초로 하여 터치스크린(120)에 표시된 화면을 스크롤할 수 있다. 제어부(140)는 상기 검출된 회전 방향 및 회전 각도를 기초로 하여 터치스크린(120)에 표시된 화면을 특정한 속도(speed) 및 특정한 방향으로 스크롤할 수 있다.
예를 들어, 제어부(140)는 상기 검출된 회전 각도에 비례하는 속도로 화면을 스크롤할 수 있다. 다시 말해서, 제어부(140)는 상기 검출된 회전 각도가 클수록 더 빠른 속도로 화면을 스크롤할 수 있다.
또한, 다른 실시예에 따르면, 제어부(140)는 상기 검출된 회전 각도가 특정 각도보다 작으면 화면을 스크롤하지 않고, 상기 검출된 회전 각도가 상기 특정 각도보다 크거나 같으면 일정한 속도로 화면을 스크롤할 수 있다. 상기 특정 각도는 예를 들어, 45도일 수 있다.
또한, 다른 실시예에 따르면, 제어부(140)는 상기 검출된 회전 각도가 특정 각도보다 작으면 화면을 스크롤하지 않고, 상기 검출된 회전 각도가 상기 특정 각도보다 크거나 같으면 상기 검출된 회전 각도에 비례하는 속도로 화면을 스크롤할 수 있다. 다시 말해서, 제어부(140)는 상기 검출된 회전 각도가 특정 각도보다 작으면 화면을 스크롤하지 않고, 상기 검출된 회전 각도가 상기 특정 각도보다 크거나 같으면 상기 검출된 회전 각도가 클수록 더 빠른 속도로 화면을 스크롤할 수 있다.
또한, 제어부(140)는 연직방향을 기준으로 단말기(100)가 회전된 방향에 대응하는 방향으로 화면을 스크롤할 수 있다. 예를 들어, 직사각형의 형상을 갖는 터치스크린(120)이 포함하는 네 개의 변 중에서 제1변이 상기 제1변과 마주보는 제2변보다 더 낮게 위치하고, 상기 제1변과 인접하는 두 개의 변 중에서 제3변이 상기 제3변과 마주보는 제4변보다 더 낮게 위치하도록 단말기(100)가 회전된 경우를 가정하기로 한다. 제어부(140)는 상기 제2변으로부터 상기 제1변을 향한 벡터(vector) 및 상기 제4변으로부터 상기 제3변을 향한 벡터의 벡터합(vector sum)의 방향으로 화면을 스크롤할 수 있다.
따라서, 단말기(100)의 사용자는 단말기(100)를 기울임으로써 터치스크린(120)에 표시된 화면이 스크롤되도록 할 수 있다. 단말기(100)의 사용자는 단말기(100)를 기울임으로써 도 2의 음영 영역에 표시되어 있던 화면이 스크롤되어 도 2의 흰색 영역에 표시되도록 할 수 있다. 다시 말해서, 단말기(100)의 사용자는 단말기(100)를 기울임으로써 단말기(100)를 쥔 손의 엄지손가락이 닿지 않는 영역에 표시되어 있던 화면이 스크롤되어 엄지손가락이 닿는 영역에 표시되도록 할 수 있다.
또한, 상기 버튼(110)의 눌림이 다시 감지되거나 상기 버튼(110)의 눌림이 해제된 상태가 다시 감지된 경우, 제어부(140)는 더 이상 화면이 스크롤되지 않도록 할 수 있다. 다시 말해서, 상기 버튼(110)의 눌린 상태 또는 눌림이 해제된 상태의 감지에 따라서, 화면을 스크롤할지 여부가 토글될 수 있다.
예를 들어, 상기 버튼(110)의 눌림의 해제가 감지될 때마다 화면을 스크롤할지 여부가 토글될 수 있다. 또한 다른 실시예에 따르면, 상기 버튼(110)의 눌림이 감지되면 화면이 스크롤되고, 상기 버튼(110)의 눌림의 해제가 감지되면 화면이 스크롤되지 않도록 할 수 있다.
다시 도 12를 참조하면, 다음으로, 상기 터치스크린(120) 내의 임의의 지점에 대한 터치입력을 수신하는 단계(S330)가 수행될 수 있다. 단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 상기 터치스크린(120) 내의 임의의 지점에 대하여 터치입력을 입력할 수 있다. 터치입력은 터치 이벤트 및 터치 해제 이벤트를 포함할 수 있다.
다음으로, 상기 터치입력이 입력된 지점에 대해 동작을 실행하는 단계(S340)가 수행될 수 있다. 예를 들어, 상기 터치입력이 입력된 지점에 대해 터치 이벤트 및 터치 해제 이벤트가 입력된 경우, 제어부(140)는 상기 터치입력이 입력된 지점에 대해 선택 또는 실행 등의 동작을 실행할 수 있다. 제어부(140)가 어떠한 동작을 실행할 것인지에 대하여는 상기 터치입력이 입력된 지점에 표시되어 있는 객체의 종류에 따라 달라질 수 있다.
도 14는 본 발명의 제5실시예에 따른 단말기(100)의 조작 방법의 과정을 나타내는 순서도이다. 또한, 도 15 내지 도 17은 본 발명의 제5실시예에 따른 단말기(100)의 조작 방법을 설명하기 위한 평면도이다.
도 14를 참조하면, 본 발명의 제5실시예에 따른 단말기(100)의 조작 방법은, 먼저, 버튼(110)의 눌림 또는 눌림의 해제를 감지하는 단계(S400)가 수행될 수 있다. 실시예에 따라서는, 버튼(110)이 눌린 상태가 감지된 경우에 이후의 단계들이 수행될 수도 있고, 버튼(110)이 눌린 상태가 되었다가 상기 눌림이 해제된 상태가 감지된 경우에 이후의 단계들이 수행될 수도 있다.
본 발명의 제5실시예에 따른 버튼(110)의 유형, 위치, 표시 방법 등에 대하여는 상술한 제1실시예에서와 동일하므로 여기에서는 자세한 설명을 생략한다.
단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 버튼(110)을 누를 수 있다. 예를 들어, 도 15를 참조하면, 버튼(110)은 사용자가 단말기(100)를 쥔 손의 엄지손가락이 닿는 영역 내에 표시될 수 있다. 사용자는 터치스크린(120)에 표시된 버튼(110)을 터치했다가 터치 해제할 수 있다. 터치스크린(120)은 터치 이벤트 및 터치 해제 이벤트의 발생을 감지할 수 있고 단말기(100)는 버튼(110)의 눌림 또는 눌림의 해제를 감지할 수 있다.
다시 도 14를 참조하면, 다음으로, 상기 터치스크린(120)에 표시된 화면의 일부를 표시하는 창(129)을 표시하는 단계(S410)가 수행될 수 있다. 도 16을 참조하면, 제어부(140)는 새로운 창(129)을 생성하고, 상기 생성된 창(129)을 터치스크린(120)에 표시할 수 있다. 도 16에 나타난 바와 같이, 창(129)의 경계선이 표시될 수도 있고, 표시되지 않을 수도 있다.
창(129)이 표시된 영역 중에서 적어도 일부는 도 2의 흰색 영역 내에 포함될 수 있다. 다시 말해서, 창(129)이 표시된 영역 중에서 적어도 일부는 사용자가 단말기(100)를 쥔 손의 엄지손가락이 닿을 수 있는 영역 내에 포함될 수 있다. 도 16을 참조하면, 창(129)은 터치스크린(120)의 위쪽 영역에 배치될 수 있다. 사용자가 단말기(100)를 쥔 손의 엄지손가락이 창(129)의 아래쪽 부분에 닿을 수 있도록 창(129)이 배치될 수 있다.
창(129)은 터치스크린(120)에 창(129)이 표시되지 않았더라면 표시되었을 화면의 일부를 표시할 수 있다. 창(129)은 터치스크린(120)에 창이 표시되지 않았더라면 표시되었을 화면 중에서 특정한 영역에 대응하는 화면을 표시할 수 있다. 예를 들어, 창(129)은 창(129)이 표시되지 않았더라면 표시되었을 화면 중에서 창(129)이 배치된 영역에 대응하는 화면을 표시할 수 있다. 도 16을 참조하면, 창(129)은 창(129)이 표시되지 않았더라면 표시되었을 화면 중에서 터치스크린(120)의 위쪽 영역에 대응하는 화면을 표시할 수 있다.
창(129)이 표시되지 않았더라면 표시되었을 화면 중에서 도 2의 음영 영역에 대응되는 화면의 적어도 일부는 창(129)에 표시될 수 있다. 다시 말해서, 창(129)이 표시되지 않았더라면 표시되었을 화면 중에서 사용자가 단말기(100)를 쥔 손의 엄지손가락이 닿지 않는 영역에 대응되는 화면의 적어도 일부는 창(129)에 표시될 수 있다.
버튼(110)은 도 16에 나타난 바와 같이, 창(129)이 배치된 영역의 내부에 표시될 수 있다. 또한, 버튼(110)은 도 16에 나타난 바와 달리, 창(129)이 표시되더라도 창(129)이 표시되기 전에 버튼(110)이 배치되어 있던 위치에 표시될 수 있다.
또한, 상기 버튼(110)의 눌림이 다시 감지되거나 상기 버튼(110)의 눌림이 해제된 상태가 다시 감지된 경우, 제어부(140)는 창(129)이 표시되지 않도록 할 수 있다. 다시 말해서, 상기 버튼(110)의 눌린 상태 또는 눌림이 해제된 상태의 감지에 따라서, 창(129)을 표시할지 여부가 토글될 수 있다.
예를 들어, 상기 버튼(110)의 눌림의 해제가 감지될 때마다 창(129)을 표시할지 여부가 토글될 수 있다. 또한 다른 실시예에 따르면, 상기 버튼(110)의 눌림이 감지되면 창(129)이 표시되고, 상기 버튼(110)의 눌림의 해제가 감지되면 창(129)이 표시되지 않도록 할 수 있다.
다시 도 14를 참조하면, 다음으로, 상기 창(129)이 배치된 영역 내의 제1지점으로부터 상기 터치스크린(120) 내의 제2지점으로의 드래그(drag)를 수신하는 단계(S420)가 수행될 수 있다.
구체적으로, 단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 상기 창(129)이 배치된 영역 내의 제1지점을 터치할 수 있다. 다시 말해서, 사용자는 상기 제1지점에 대하여 터치 이벤트를 발생시킬 수 있고, 단말기(100)는 상기 터치 이벤트를 감지할 수 있다. 또한, 사용자는 엄지손가락을 터치스크린(120)으로부터 떼지 않은 채 엄지손가락을 터치스크린(120) 내의 제2지점으로 이동시킬 수 있다. 또한, 사용자는 상기 제2지점에서 엄지손가락을 터치스크린(120)으로부터 뗄 수 있다. 다시 말해서, 사용자는 상기 제2지점에 대하여 터치 해제 이벤트를 발생시킬 수 있고, 단말기(100)는 상기 터치 해제 이벤트를 감지할 수 있다. 이로써, 단말기(100)는 창(129)이 배치된 영역 내의 제1지점으로부터 터치스크린(120) 내의 제2지점으로의 드래그를 수신할 수 있다. 예를 들어, 도 16을 참조하면, 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 창(129)이 배치된 영역 내의 지점으로부터 아래쪽 방향으로 드래그를 입력할 수 있다.
다시 도 14를 참조하면, 다음으로, 상기 창(129)을 이동시켜 표시하는 단계(S430)를 수행할 수 있다. 창(129)의 이동 방향 및 이동 거리는 상기 수신된 드래그의 방향 및 거리에 대응될 수 있다. 예를 들어, 상기 제1지점의 좌표를 (x1, y1)이라 하고, 상기 제2지점의 좌표를 (x2, y2)라 하기로 한다. 창(129)은 x축에 대하여 (x2 - x1)의 정수배만큼 이동하고, y축에 대하여 (y2 - y1)의 정수배만큼 이동할 수 있다.
예를 들어, 도 16 및 15를 참조하면, 창(129)은 드래그가 입력되기 전에 창(129)이 배치되어 있던 위치로부터 아래쪽으로 이동되어 표시될 수 있다. 이로써, 터치스크린(120)의 전체 영역에 표시되는 화면 중에서 사용자가 단말기(100)를 쥔 손의 엄지손가락이 닿지 않는 영역에 대응되는 화면의 적어도 일부는 사용자가 단말기(100)를 쥔 손의 엄지손가락이 닿을 수 있는 영역 내로 이동되어 표시될 수 있다.
다시 도 14를 참조하면, 다음으로, 상기 이동된 창(129)이 배치된 영역 내의 제3지점에 대한 터치입력을 수신하는 단계(S440)가 수행될 수 있다. 단말기(100)의 사용자는 단말기(100)를 쥔 손의 엄지손가락을 이용하여 상기 이동된 창(129)이 배치된 영역 내의 제3지점에 대하여 터치입력을 입력할 수 있다. 터치입력은 터치 이벤트 및 터치 해제 이벤트를 포함할 수 있다. 이로써, 창(129)이 표시되기 전에 사용자가 단말기(100)를 쥔 손의 엄지손가락이 닿지 않았던 영역에 대응되는 화면의 적어도 일부에 대해 터치입력이 입력될 수 있다.
다음으로, 상기 터치입력이 입력된 지점에 대해 동작을 실행하는 단계(S450)가 수행될 수 있다. 예를 들어, 상기 터치입력이 입력된 지점에 대해 터치 이벤트 및 터치 해제 이벤트가 입력된 경우, 제어부(140)는 상기 터치입력이 입력된 지점에 대해 선택 또는 실행 등의 동작을 실행할 수 있다. 제어부(140)가 어떠한 동작을 실행할 것인지에 대하여는 상기 터치입력이 입력된 지점에 표시되어 있는 객체의 종류에 따라 달라질 수 있다. 이로써, 창(129)이 표시되기 전에 사용자가 단말기(100)를 쥔 손의 엄지손가락이 닿지 않았던 영역에 대응되는 화면의 적어도 일부에 대해 동작이 실행될 수 있다.
이상에서 설명한 본 발명의 실시예에 따르면, 사용자가 단말기(100)를 보다 용이하게 조작할 수 있다. 또한, 단말기(100)의 터치스크린(120)의 특정한 영역 내에서의 조작만으로도 사용자가 터치스크린(120)의 모든 영역에 대응하는 화면을 조작할 수 있다. 또한, 단말기(100)의 사용자가 단말기(100)를 쥔 손의 엄지손가락을 이용하여 상기 엄지손가락이 닿지 않는 영역 내에 표시된 화면을 조작할 수 있다.
이상에서 본 발명의 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 본 발명의 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
100: 단말기
110: 버튼
120: 터치스크린
125: 조작 영역
128: 커서
129: 창
130: 자세 측정부
140: 제어부

Claims (26)

  1. 버튼;
    외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린; 및
    상기 버튼의 눌림 여부 및 상기 수신된 터치입력에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부
    를 포함하고,
    상기 제어부는 상기 버튼의 눌림 또는 눌림의 해제가 감지되면 상기 터치스크린의 크기보다 작은 크기를 갖는 조작 영역을 상기 터치스크린에 표시하고, 상기 제어부는 상기 조작 영역 내의 제1지점에 터치입력이 수신되면 상기 터치스크린의 전체 영역 중에서 상기 제1지점에 대응되는 제2지점에 상기 터치입력이 입력되는 경우에 실행되는 동작(operation)과 동일한 동작을 실행하는 단말기.
  2. 제1항에 있어서,
    상기 조작 영역에 대한 상기 제1지점의 상대적인 위치는 상기 터치스크린의 전체 영역에 대한 상기 제2지점의 상대적인 위치와 실질적으로 동일한 단말기.
  3. 제1항에 있어서,
    상기 조작 영역의 경계 및 상기 터치스크린의 경계는 직사각형의 형상을 갖고,
    상기 조작 영역의 왼쪽 아래 코너의 좌표가 (x1, y1)이고, 상기 조작 영역의 오른쪽 위 코너의 좌표가 (x1', y1')이고, 상기 제1지점의 좌표가 (a1, b1)이고, 상기 터치스크린의 왼쪽 아래 코너의 좌표가 (x2, y2)이고, 상기 터치스크린의 오른쪽 위 코너의 좌표가 (x2', y2')이고, 상기 제2지점의 좌표가 (a2, b2)일 때, (x1' - x1) 대 (a1 - x1)의 비율은 (x2' - x2) 대 (a2 - x2)의 비율과 실질적으로 동일하고, (y1' - y1) 대 (b1 - y1)의 비율은 (y2' - y2) 대 (b2 - y2)의 비율과 실질적으로 동일한 단말기.
  4. 제1항에 있어서,
    상기 제어부는, 상기 버튼의 눌림이 감지되면 상기 조작 영역을 표시하고 상기 버튼의 눌림의 해제가 감지되면 상기 조작 영역을 표시하지 않는 단말기.
  5. 제1항에 있어서,
    상기 제어부는, 상기 버튼의 눌림의 해제가 감지될 때마다 상기 조작 영역의 표시 여부를 토글하는 단말기.
  6. 버튼;
    외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린; 및
    상기 버튼의 눌림 여부 및 상기 수신된 터치입력에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부
    를 포함하고,
    상기 제어부는 상기 버튼의 눌림 또는 눌림의 해제가 감지되면 상기 터치스크린의 크기보다 작은 크기를 갖는 조작 영역을 상기 터치스크린에 표시하고, 상기 제어부는 커서를 상기 터치스크린에 표시하고, 상기 제어부는 상기 조작 영역 내의 제1지점으로부터 상기 조작 영역 내의 제2지점으로의 드래그가 수신되면 상기 커서를 이동시켜 표시하고, 상기 제어부는 상기 조작 영역 내의 제3지점에 터치입력이 수신되면 상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행하는 단말기.
  7. 제6항에 있어서,
    상기 제어부는, 상기 수신된 드래그의 방향에 대응하는 방향으로 상기 수신된 드래그의 거리에 대응하는 거리만큼 상기 커서를 이동시키는 단말기.
  8. 제6항에 있어서,
    상기 제어부는, 상기 제1지점의 좌표가 (x1, y1)이고 상기 제2지점의 좌표가 (x2, y2)일 때 상기 커서를 x축에 대하여 (x2 - x1)의 제1배수만큼 이동시키고, y축에 대하여 (y2 - y1)의 제2배수만큼 이동시키는 단말기.
  9. 버튼;
    외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린;
    자세(attitude) 정보를 측정하는 자세 측정부; 및
    상기 버튼의 눌림 여부, 상기 수신된 터치입력 및 상기 측정된 자세 정보에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부
    를 포함하고,
    상기 자세 측정부는, 상기 버튼의 눌림 또는 눌림의 해제가 감지되면 상기 단말기의 자세(attitude) 정보를 측정하고,
    상기 제어부는 상기 측정된 자세 정보를 기초로 하여 상기 터치스크린에 표시된 화면을 스크롤하고, 상기 제어부는 상기 터치스크린 내의 임의의 지점에 터치입력이 수신되면 상기 터치입력이 입력된 지점에 대해 동작을 실행하는 단말기.
  10. 제9항에 있어서,
    상기 제어부는, 상기 측정된 자세 정보를 이용하여 연직방향을 기준으로 상기 단말기가 회전된 각도 및 회전된 방향을 검출하고,
    상기 제어부는, 검출된 상기 회전 방향 및 상기 회전 각도를 기초로 하여 상기 화면을 특정한 속도(speed) 및 특정한 방향으로 스크롤하는 단말기.
  11. 제10항에 있어서,
    상기 제어부는, 상기 검출된 회전 각도가 클수록 더 빠른 속도로 상기 화면을 스크롤하는 단말기.
  12. 제10항에 있어서,
    상기 제어부는, 상기 검출된 회전 각도가 특정 각도보다 작으면 상기 화면을 스크롤하지 않고, 상기 검출된 회전 각도가 상기 특정 각도보다 크거나 같으면 상기 화면을 스크롤하는 단말기.
  13. 제9항에 있어서,
    상기 터치스크린은 직사각형의 형상을 갖고,
    상기 제어부는, 상기 터치스크린이 포함하는 네 개의 변 중에서 제1변으로부터 상기 제1변과 마주보고 상기 제1변보다 더 낮거나 같은 높이에 위치하는 제2변을 향한 벡터(vector) 및 상기 제1변과 인접하는 두 개의 변 중에서 제3변으로부터 상기 제3변과 마주보고 상기 제3변보다 더 낮거나 같은 높이에 위치하는 제4변을 향한 벡터의 벡터합(vector sum)의 방향으로 상기 화면을 스크롤하는 단말기.
  14. 버튼;
    외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린; 및
    상기 버튼의 눌림 여부 및 상기 수신된 터치입력에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부
    를 포함하고,
    상기 제어부는 상기 버튼의 눌림 또는 눌림의 해제가 감지되면 상기 터치스크린에 표시된 화면의 일부를 표시하는 창을 상기 터치스크린에 표시하고, 상기 제어부는 상기 창이 배치된 영역 내의 제1지점으로부터 상기 터치스크린 내의 제2지점으로의 드래그(drag)가 수신되면 상기 창을 이동시켜 표시하고, 상기 제어부는 상기 이동된 창이 배치된 영역 내의 제3지점에 터치입력이 수신되면 상기 터치입력이 입력된 지점에 대해 동작을 실행하는 단말기.
  15. 제14항에 있어서,
    상기 창은 상기 터치스크린에 상기 창이 표시되지 않았더라면 표시되었을 화면 중에서 특정한 영역에 대응하는 화면을 표시하는 단말기.
  16. 제14항에 있어서,
    상기 제어부는, 상기 제1지점의 좌표가 (x1, y1)이고 상기 제2지점의 좌표가 (x2, y2)일 때 상기 창을 x축에 대하여 (x2 - x1)의 제1배수만큼 이동시키고, y축에 대하여 (y2 - y1)의 제2배수만큼 이동시키는 단말기.
  17. 버튼 및 터치스크린을 포함하는 단말기의 조작 방법에 있어서,
    상기 버튼의 눌림 또는 눌림의 해제를 감지하는 단계;
    상기 터치스크린의 크기보다 작은 크기를 갖는 조작 영역을 상기 터치스크린에 표시하는 단계;
    상기 조작 영역 내의 제1지점에 터치입력을 수신하는 단계; 및
    상기 터치스크린의 전체 영역 중에서 상기 제1지점에 대응되는 제2지점에 상기 터치입력이 입력되는 경우에 실행되는 동작(operation)과 동일한 동작을 실행하는 단계
    를 포함하는 단말기의 조작 방법.
  18. 버튼 및 터치스크린을 포함하는 단말기의 조작 방법에 있어서,
    상기 버튼의 눌림 또는 눌림의 해제를 감지하는 단계;
    상기 터치스크린의 크기보다 작은 크기를 갖는 조작 영역을 상기 터치스크린에 표시하는 단계;
    커서를 상기 터치스크린에 표시하는 단계;
    상기 조작 영역 내의 제1지점으로부터 상기 조작 영역 내의 제2지점으로의 드래그를 수신하는 단계;
    상기 커서를 이동시켜 표시하는 단계;
    상기 조작 영역 내의 제3지점에 터치입력을 수신하는 단계; 및
    상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행하는 단계
    를 포함하는 단말기의 조작 방법.
  19. 버튼 및 터치스크린을 포함하는 단말기의 조작 방법에 있어서,
    상기 버튼의 눌림 또는 눌림의 해제를 감지하는 단계;
    상기 단말기의 자세(attitude) 정보를 측정하는 단계;
    상기 측정된 자세 정보를 기초로 하여 상기 터치스크린에 표시된 화면을 스크롤하는 단계;
    상기 터치스크린 내의 임의의 지점에 터치입력을 수신하는 단계; 및
    상기 터치입력이 입력된 지점에 대해 동작을 실행하는 단계
    를 포함하는 단말기의 조작 방법.
  20. 버튼 및 터치스크린을 포함하는 단말기의 조작 방법에 있어서,
    상기 버튼의 눌림 또는 눌림의 해제를 감지하는 단계;
    상기 터치스크린에 표시된 화면의 일부를 표시하는 창을 상기 터치스크린에 표시하는 단계;
    상기 창이 배치된 영역 내의 제1지점으로부터 상기 터치스크린 내의 제2지점으로의 드래그(drag)를 수신하는 단계;
    상기 창을 이동시켜 표시하는 단계;
    상기 이동된 창이 배치된 영역 내의 제3지점에 터치입력을 수신하는 단계; 및
    상기 터치입력이 입력된 지점에 대해 동작을 실행하는 단계
    를 포함하는 단말기의 조작 방법.
  21. 외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린; 및
    상기 수신된 터치입력에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부
    를 포함하고,
    상기 제어부는 커서를 상기 터치스크린에 표시하고, 상기 제어부는 상기 터치스크린 상의 제1지점으로부터 상기 터치스크린 상의 제2지점으로의 드래그가 수신되면 상기 커서를 이동시켜 표시하고, 상기 제어부는 상기 터치스크린 상의 제3지점에 터치입력이 수신되면 상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행하는 단말기.
  22. 제21항에 있어서,
    상기 제어부는, 상기 제1지점의 좌표가 (x1, y1)이고 상기 제2지점의 좌표가 (x2, y2)일 때 상기 커서를 x축에 대하여 (x2 - x1)의 제1배수만큼 이동시키고, y축에 대하여 (y2 - y1)의 제2배수만큼 이동시키는 단말기.
  23. 버튼;
    외부로부터 터치입력을 수신하고 화면을 표시하는 터치스크린; 및
    상기 버튼의 눌림 여부 및 상기 수신된 터치입력에 따라 상기 터치스크린에 표시되는 상기 화면을 제어하는 제어부
    를 포함하고,
    상기 제어부는 상기 버튼의 눌림 또는 눌림의 해제가 감지되면 커서를 상기 터치스크린에 표시하고, 상기 제어부는 조작 지원 객체를 상기 터치스크린에 표시하고, 상기 제어부는 상기 조작 지원 객체에 대한 드래그가 수신되면 상기 커서를 이동시켜 표시하고, 상기 제어부는 상기 조작 지원 객체에 대한 터치입력이 수신되면 상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행하는 단말기.
  24. 제23항에 있어서,
    상기 조작 지원 객체는 제1서브객체 및 제2서브객체를 포함하고,
    상기 제어부는 상기 제1서브객체에 대한 드래그가 수신되면 상기 커서를 이동시켜 표시하고, 상기 제어부는 상기 제2서브객체에 대한 터치입력이 수신되면 상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행하는 단말기.
  25. 버튼 및 터치스크린을 포함하는 단말기의 조작 방법에 있어서,
    상기 버튼의 눌림 또는 눌림의 해제를 감지하는 단계;
    커서를 상기 터치스크린에 표시하는 단계;
    조작 지원 객체를 상기 터치스크린에 표시하는 단계;
    상기 조작 지원 객체에 대한 드래그를 수신하는 단계;
    상기 커서를 이동시켜 표시하는 단계;
    상기 조작 지원 객체에 대한 터치입력을 수신하는 단계; 및
    상기 이동된 커서가 위치한 지점에 상기 터치입력이 입력되는 경우에 실행되는 동작과 동일한 동작을 실행하는 단계
    를 포함하는 단말기의 조작 방법.
  26. 제25항에 있어서,
    상기 조작 지원 객체는 제1서브객체 및 제2서브객체를 포함하고,
    상기 조작 지원 객체에 대한 드래그를 수신하는 단계는, 상기 제1서브객체에 대한 드래그를 수신하는 단계를 포함하고,
    상기 조작 지원 객체에 대한 터치입력을 수신하는 단계는, 상기 제2서브객체에 대한 상기 터치입력을 수신하는 단계를 포함하는 단말기의 조작 방법.
KR1020130051402A 2013-01-02 2013-05-07 단말기 및 그의 조작 방법 KR20140088487A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/037,579 US20140184503A1 (en) 2013-01-02 2013-09-26 Terminal and method for operating the same
CN201310586039.1A CN103914207A (zh) 2013-01-02 2013-11-20 终端及用于操作终端的方法
EP13194737.6A EP2752753A3 (en) 2013-01-02 2013-11-28 Terminal and method for operating the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20130000291 2013-01-02
KR1020130000291 2013-01-02

Publications (1)

Publication Number Publication Date
KR20140088487A true KR20140088487A (ko) 2014-07-10

Family

ID=51737031

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130051402A KR20140088487A (ko) 2013-01-02 2013-05-07 단말기 및 그의 조작 방법

Country Status (1)

Country Link
KR (1) KR20140088487A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170082778A (ko) * 2016-01-07 2017-07-17 한국전자통신연구원 사용자 자세에 기초한 키스트로크 패턴을 이용한 사용자 분류 장치 및 방법
WO2020218859A1 (ko) * 2019-04-25 2020-10-29 주식회사 비주얼캠프 사용자 입력 방법 및 이를 수행하기 위한 사용자 인터페이스 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170082778A (ko) * 2016-01-07 2017-07-17 한국전자통신연구원 사용자 자세에 기초한 키스트로크 패턴을 이용한 사용자 분류 장치 및 방법
WO2020218859A1 (ko) * 2019-04-25 2020-10-29 주식회사 비주얼캠프 사용자 입력 방법 및 이를 수행하기 위한 사용자 인터페이스 장치
KR20200125062A (ko) * 2019-04-25 2020-11-04 주식회사 비주얼캠프 사용자 입력 방법 및 이를 수행하기 위한 사용자 인터페이스 장치

Similar Documents

Publication Publication Date Title
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
EP2752753A2 (en) Terminal and method for operating the same
KR101424294B1 (ko) 터치스크린 장치의 사용자로부터 수신된 입력 및 제스쳐에 응답하여 동작을 수행하는 컴퓨터로 구현된 방법 및 컴퓨터판독가능 매체
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
JP6313395B1 (ja) 描画処理方法、描画処理プログラム及び描画処理装置
KR20140071118A (ko) 가상 버튼을 디스플레이하기 위한 방법 및 그 전자 장치
US9870144B2 (en) Graph display apparatus, graph display method and storage medium
KR20100041006A (ko) 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
KR102117086B1 (ko) 단말기 및 그의 조작 방법
JP5780438B2 (ja) 電子機器、位置指定方法及びプログラム
JP5848732B2 (ja) 情報処理装置
JP2009276819A (ja) ポインティング装置の制御方法およびポインティング装置、並びにコンピュータプログラム
KR20100136289A (ko) 이동 단말기의 디스플레이 제어 방법
KR20140088487A (ko) 단말기 및 그의 조작 방법
TWI515642B (zh) 手持式電子裝置及其控制方法
KR20150122021A (ko) 디스플레이 대상의 이동 방향 조절 방법 및 단말기
JP2016209142A (ja) 画面表示を制御するコンピュータプログラム
JP6119291B2 (ja) 表示装置、電子機器、表示方法及びプログラム
JP6863918B2 (ja) 制御プログラム、制御方法及び情報処理装置
JP6106973B2 (ja) 情報処理装置及びプログラム
KR20150098366A (ko) 가상 터치패드 조작방법 및 이를 수행하는 단말기
JP2015005164A (ja) タッチパネル装置及び表示装置
KR101819104B1 (ko) 터치스크린을 이용한 마우스 기능 제공 방법 및 장치
JP6112147B2 (ja) 電子機器、及び位置指定方法
KR20160057363A (ko) 디스플레이 대상의 이동 방향 조절 방법 및 단말기

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application