KR101504310B1 - 사용자 단말 및 이의 인터페이싱 방법 - Google Patents

사용자 단말 및 이의 인터페이싱 방법 Download PDF

Info

Publication number
KR101504310B1
KR101504310B1 KR1020130013982A KR20130013982A KR101504310B1 KR 101504310 B1 KR101504310 B1 KR 101504310B1 KR 1020130013982 A KR1020130013982 A KR 1020130013982A KR 20130013982 A KR20130013982 A KR 20130013982A KR 101504310 B1 KR101504310 B1 KR 101504310B1
Authority
KR
South Korea
Prior art keywords
touch
control interface
touch control
cursor
screen
Prior art date
Application number
KR1020130013982A
Other languages
English (en)
Other versions
KR20140100791A (ko
Inventor
문장원
Original Assignee
(주)아토미디어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아토미디어 filed Critical (주)아토미디어
Priority to KR1020130013982A priority Critical patent/KR101504310B1/ko
Publication of KR20140100791A publication Critical patent/KR20140100791A/ko
Application granted granted Critical
Publication of KR101504310B1 publication Critical patent/KR101504310B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04164Connections between sensors and controllers, e.g. routing lines between electrodes and connection pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits

Abstract

사용자 단말 및 이의 인터페이싱 방법이 개시된다. 사용자 단말은, 터치스크린; 및 터치 컨트롤 인터페이스의 이동에 따라 상기 터치스크린의 화면에서 커서를 이동시키는 터치 인터페이스 컨트롤러를 포함한다. 개시된 사용자 단말은 양손을 사용하지 않고 한손 만으로 사용자 단말 조작이 가능하며, 버스안에서와 같이 양 손 사용이 제약되는 환경에서도 용이하게 조작이 가능한 장점이 있다.

Description

사용자 단말 및 이의 인터페이싱 방법{User terminal and interfacing method of the same}
본 발명은 사용자 단말에 관한 것으로, 보다 상세하게 한손으로 사용자 단말을 제어할 수 있는 인터페이싱 방법 및 사용자 단말에 관한 것이다.
통신 기술 및 디지털 전자 장비의 기술이 급속히 발전하면서 스마트폰 및 태블릿 PC의 사용은 급속히 증가하고 있다. 스마트폰 및 태블릿 PC는 언제 어디서나 네트워크 접속이 가능하며 송수신되는 데이터의 처리가 가능한 어플리케이션의 실행이 가능한 장비로서 기존의 PC와 유사한 기능을 제공하면서 휴대성이 강화된 장비라는데 주요한 특징이 있다.
스마트폰 및 태블릿 PC의 발전에 따라 다양한 고정된 장소는 물론 이동 중에도 네트워크에 접속하여 업무를 처리하거나 동영상을 시청하는 것이 가능해졌다.
스마트폰 및 태블릿 PC와 같은 개인용 단말기는 휴대성이 보장되어야 하기 때문에 전체적인 사이즈 및 화면 사이즈는 일반적인 PC나 노트북에 비해 작으며, 마우스와 같은 별도의 인터페이스는 사용되지 않으며, 대부분 터치 인터페이스를 통해 장비의 조작이 이루어진다.
현재 대부분의 스마트 폰 및 태블릿 PC는 터치 인터페이스를 이용하고 있으며, 이러한 터치 인터페이스가 대부분의 상황에서 매우 유용한 인터페이스임은 분명하다.
그러나, 대중 교통을 타고 서서 이동 중이거나 한 손으로 다른 작업을 하고 있는 경우와 같이 양 손의 사용에 제약이 있는 환경에서는 터치 인터페이스를 이용한 개인용 단말기의 조작에 어려운 문제점이 있었다. 단말기를 거치할 수 있는 환경이 아닌 이상 한 손으로는 단말기를 파지하고 다른 한 손으로는 단말기의 화면을 터치하여 단말기를 조작하여야 하나, 한 손을 사용하기 어려운 환경에서 터치 인터페이스를 통한 조작은 매우 어려울 수 밖에 없었다.
본 발명은 양손이 아닌 한손으로 자유자재로 사용자 단말의 화면을 제어할 수 있는 사용자 단말 및 이에 대한 인터페이싱 방법을 제공하기 위한 것이다.
본 발명의 일 측면에 따르면, 양손이 아닌 한손으로 자유자재로 사용자 단말의 화면을 제어할 수 있는 사용자 단말이 제공된다.
본 발명의 일 실시예에 따르면, 터치스크린; 및 터치 컨트롤 인터페이스의 이동에 따라 상기 터치스크린의 화면에서 커서를 이동시키는 터치 인터페이스 컨트롤러를 포함하는 사용자 단말이 제공될 수 있다.
상기 터치 컨트롤 인터페이스는 상기 터치스크린 일 영역에 표시되되, 상기 터치 인터페이스 컨트롤러는, 사용자의 상기 터치 컨트롤 인터페이스의 터치 및 드래그 동작에 따라 드래그된 위치로 상기 터치 컨트롤 인터페이스를 이동시킬 수 있다.
상기 터치 인터페이스 컨트롤러는, 상기 터치 및 드래그 동작에 따라 상기 터치 컨트롤 인터페이스의 이동 위치의 차이값에 지정된 배수를 곱하여 상기 커서를 위치 이동시킬 수 있다.
상기 터치 컨트롤 인터페이스는 상기 터치스크린상에 OSD(on screen display)로 중첩되어 표시될 수 있다.
상기 터치 인터페이스 컨트롤러는 사용자에 의해 상기 터치 컨트롤 인터페이스가 a회(a는 자연수) 터치되면, 상기 커서가 위치한 지점에 연관된 추가 동작을 수행할 수 있다.
상기 사용자 단말 하우징의 후면 또는 측면을 터치하는 탭 동작을 감지하는 탭 감지부를 더 포함하되, 상기 터치 인터페이스 컨트롤러는 상기 탭 동작이 감지되면, 상기 커서가 위치한 지점과 연관된 추가 동작을 수행할 수 있다.
상기 추가 동작은 상기 커서가 위치된 지점의 링크 또는 메뉴 버튼의 클릭 동작일 수 있다.
상기 터치 인터페이스 컨트롤러는, 사용자에 의해 상기 터치 컨트롤 인터페이스가 일정 시간 이상 터치된 후 상기 터치 컨트롤 인터페이스내에서 드래그되면, 드래그된 패턴에 따른 지정된 기능을 실행하도록 제어할 수 있다.
상기 지정된 기능은 기능은 전화 걸기, 메시지 작성, 메일 작성 및 지정된 어플리케이션 실행 중 어느 하나이다.
상기 터치 컨트롤 인터페이스가 상기 터치스크린상에서 상기 사용자 단말의 고유 기능 표시 영역 또는 앱 표시 영역과 중첩되어 표시되는 경우, 상기 터치 컨트롤 인터페이스의 동작 우선순위를 최상위로 설정하는 보정부를 더 포함할 수 있다.
상기 터치 컨트롤 인터페이스가 상기 터치스크린상에서 상기 사용자 단말의 고유 기능 표시 영역 또는 앱 표시 영역과 중첩되어 표시되는 경우, 상기 터치 컨트롤 인터페이스가 표시되는 위치를 보정하는 보정부를 더 포함할 수 있다.
상기 보정부는 상기 터치 컨트롤 인터페이스가 표시될 위치에 상기 고유 기능 또는 앱 영역과 중첩되는 경우, 상기 고유 기능 또는 상기 앱 영역과 중첩되지 않는 위치로 상기 터치 컨트롤 인터페이스가 표시될 위치를 보정 할 수 있다.
상기 터치 인터페이스 컨트롤러는 상기 보정부에 의해 상기 터치 컨트롤 인터페이스가 표시될 위치가 보정되더라도 상기 커서의 위치는 보정하지 않을 수 있다.
상기 사용자 단말의 모션을 감지하는 모션 감지부를 더 포함하되, 상기 터치 인터페이스 컨트롤러는 상기 감지된 모션에 따라 상기 커서의 위치를 이동시킬 수 있다.
본 발명의 다른 측면에 따르면, 터치스크린을 구비한 사용자 단말이 터치 제어를 인터페이싱하는 방법에 있어서, 상기 터치스크린 일 영역에 터치 컨트롤 인터페이스를 표시하는 단계(a); 및 사용자의 상기 터치 컨트롤 인터페이스 이동에 따라 커서를 이동시키는 단계(b)를 포함하되, 상기 터치 컨트롤 인터페이스는 사용자의 터치 및 드래그 동작에 따라 상기 터치스크린에서 이동되는 것을 특징으로 하는 터치 제어 인터페이싱 방법이 제공될 수 있다.
본 발명의 일 실시예에 따른 사용자 단말 및 이의 인터페이싱 방법을 제공함으로써, 양손이 아닌 한손으로 자유자재로 사용자 단말의 화면을 제어할 수 있어, 사용자의 터치 인터페이스에 대한 편의성을 증진시킬 수 있다.
또한, 본 발명은 사용자 단말의 화면을 제어할 수 있는 컨트롤 인터페이스의 점유 면적이 작고, 컨트롤 인터페이스가 드래그에 따라 이동하기 때문에 기존 인터페이스들에 미치는 영향을 최소화하면서 한손 제어가 가능한 이점이 있다.
또한, 본 발명은 사용자 단말의 디스플레이가 점점 대형화되는 추세인데, 대형 화면을 가진 사용자 단말에서도 용이하게 한손으로 화면을 제어할 수 있는 이점이 있다.
또한, 기존의 터치 동작은 미세 조정이 어려워 촘촘히 배치된 게시판 등에서 원하는 항목을 터치하는게 용이하지 않은 반면, 본 발명은 커서와 컨트롤 인터페이스를 동시에 이용하여 터치 오류를 최소화할 수 있는 이점이 있다.
도 1은 본 발명의 일 실시예에 따른 사용자 단말의 내부 구성을 개략적으로 도시한 도면.
도 2 및 도 3은 본 발명의 일 실시예에 따른 터치 컨트롤 인터페이스가 표시된 화면을 예시한 도면.
도 4 내지 도 7는 본 발명의 일 실시예에 따른 터치 컨트롤 인터페이스를 통한 터치 동작을 설명하기 위해 도시한 도면.
도 8은 본 발명의 일 실시예에 따른 사용자 단말의 터치 인터페이싱 방법을 나타낸 순서도.
도 9는 본 발명의 다른 실시예에 따른 사용자 단말의 터치 인터페이싱 방법을 나타낸 순서도.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 사용자 단말의 내부 구성을 개략적으로 도시한 도면이고, 도 2 및 도 3은 본 발명의 일 실시예에 따른 터치 컨트롤 인터페이스가 표시된 화면을 예시한 도면이고, 도 4 내지 도 7는 본 발명의 일 실시예에 따른 터치 컨트롤 인터페이스를 통한 터치 동작을 설명하기 위해 도시한 도면이다. 이하에서 설명되는 사용자 단말은 예를 들어, 이동통신 단말기, 태블릿 패드 등과 같이 휴대가 가능한 전자 장치일 수 있다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 사용자 단말(100)은 터치스크린(110), 모션 감지부(115), 메모리(120) 터치 인터페이스 컨트롤러(125), 보정부(130) 및 탭 감지부(135)를 포함하여 구성된다.
터치스크린(110)은 사용자로부터 사용자 단말(100)을 제어하기 위한 제어 명령, 어플리케이션 실행을 위한 제어 명령 등을 입력받거나, 사용자 단말(100)을 통해 입력되거나 저장된 데이터를 시각 정보의 형태로 표시하기 위한 수단이다.
또한, 터치스크린(110)은 터치 인터페이스 컨트롤러(125)의 제어에 따라 화면 일 영역에 터치 컨트롤 인터페이스를 표시하고, 사용자의 터치 컨트롤 인터페이스 이동에 따라 화면상에서 커서를 이동시켜 표시할 수 있다. 터치 컨트롤 인터페이스는 엄지 손가락 또는 다른 터치 수단으로 해당 터치스크린(110) 화면 전체 터치 영역을 터치 제어할 수 있는 축소된 가상의 터치 영역으로, 사용자의 터치 컨트롤 인터페이스 터치 및 드래그 동작에 따라 터치스크린(110)상에서 이동 가능한 터치 인터페이스를 지칭한다. 이와 같은 터치 컨트롤 인터페이스는 사용자의 한손 또는 다른 터치 수단을 터치 제어 가능한 작은 영역을 점유하여 한손 터치 인터페이스가 가능한 이점이 있다.
도 2 및 도 3에는 터치 컨트롤 인터페이스가 터치스크린(110)상에 표시된 일 예가 도시되어 있다. 도 2는 사용자가 오른손잡이인 경우 터치 컨트롤 인터페이스가 터치스크린(110)상에 표시된 일 예를 나타낸 화면이고, 도 3은 사용자가 왼손잡이인 경우 터치 컨트롤 인터페이스가 터치스크린(110)상에 표시된 일 예를 나타낸 화면이다.
도 2 및 도 3에 도시된 바와 같이, 사용자가 자신의 성향에 맞게 터치스크린(110)상에 터치 컨트롤 인터페이스가 표시된 후, 사용자는 터치 컨트롤 인터페이스를 한손으로 터치하여 이동시켜 화면상의 커서를 원하는 위치로 손쉽게 이동시킨 후 추가 동작을 실행시킬 수 있다. 이에 대해서는 하기에서 터치 인터페이스 컨트롤러(125)의 기능을 설명하면서 보다 상세히 설명하기로 한다.
모션 감지부(115)는 사용자 단말(100)의 모션을 감지하기 위한 수단이다. 모션 감지부(115)는 사용자 단말(100)의 상하좌우방향 중 어느 하나로의 회전뿐만 아니라 앞뒤 방향으로의 기울기도 감지할 수 있다. 예를 들어, 사용자가 사용자 단말(100)을 움직이는 경우, 모션 감지부(115)는 사용자의 사용자 단말(100)의 움직임을 감지하여 이를 터치 인터페이스 컨트롤러(125)로 출력할 수 있다. 터치 인터페이스 컨트롤러(125)는 모션 감지부(115)를 통해 감지된 모션에 따라 화면의 커서를 원하는 위치로 이동시킬 수 있다.
예를 들어, 모션 감지부(115)는 자이로스코프, 자기센서 등과 같은 적어도 하나의 사용자 단말(100)의 모션을 감지하기 위한 센서를 포함할 수 있다.
사용자 단말(100)이 적어도 하나의 모션 감지를 위한 센서를 통해 모션을 감지하는 방법 자체는 이미 당업자에게는 자명한 사항이므로 이에 대한 별도의 설명은 생략하기로 한다.
메모리(120)는 본 발명의 일 실시예에 따른 사용자 단말(100)을 운용하기 위해 필요한 다양한 어플리케이션, 설정부(120)에 의해 설정된 다양한 설정 정보들을 저장하기 위한 수단이다. 이외에도, 메모리(120)는 다양한 데이터가 저장될 수 있음은 당연하다.
터치 인터페이스 컨트롤러(125)는 터치 컨트롤 인터페이스의 이동에 따라 커서가 이동되도록 제어하기 위한 수단이다.
예를 들어, 터치 인터페이스 컨트롤러(125)는 터치 컨트롤 인터페이스의 이동에 따라 커서의 위치를 이동시키거나 커서가 위치된 지점에 연관된 추가 동작을 수행하거나 지정된 기능을 실행하도록 제어할 수 있다.
이에 대해, 각각의 도면을 참조하여 보다 상세히 설명하기로 하자.
도 4를 참조하면, 사용자의 터치 컨트롤 인터페이스의 터치 및 드래그 동작에 따라 터치 인터페이스 컨트롤러(125)가 커서를 이동시키는 일 예가 도시되어 있다.
터치 인터페이스 컨트롤러(125)는 터치 컨트롤 인터페이스의 터치 및 드래그 동작에 따른 위치 이동에 따라 지정된 배수에 비례하여 커서의 위치를 이동시킬 수 있다.
보다 상세하게, 터치 인터페이스 컨트롤러(125)는 사용자에 의해 터치 컨트롤 인터페이스가 터치된 위치(또는 터치 해제전 T시점에 드래그된 위치)와 현재 드래그된 위치와의 차이에 지정된 배수를 곱하여 커서의 위치를 이동시킬 수 있다. 이때, 터치 인터페이스 컨트롤러(125)는 터치스크린(110)의 세로 및 가로 비율이 각각 상이하므로 지정된 배수를 X축 및 Y축 각각에 상이하게 적용하여 커서를 이동시킬 수 있다. 이에 따라, 도 4에 도시된 바와 같이, 사용자의 터치 컨트롤 인터페이스의 궤적과 동일하게 커서가 이동됨을 알 수 있다.
도 5에는 터치 컨트롤 인터페이스의 a회(a는 자연수) 터치 동작에 따른 커서가 위치한 지점에 연관된 추가 동작을 수행하는 일 예가 도시되어 있다. 도 도 5에 도시된 바와 같이, 사용자가 터치 컨트롤 인터페이스를 통해 a회 터치하는 경우, 터치 인터페이스 컨트롤러(125)는 해당 커서가 위치한 지점에 연관된 추가 동작을 수행하도록 제어할 수 있다. 여기서, 추가 동작은 해당 커서가 위치한 지점의 링크나 메뉴 버튼을 클릭하는 동작일 수 있다.
도 6에는 터치 컨트롤 인터페이스를 통한 스크롤 동작에 대한 일예가 도시되어 있다. 예를 들어, 터치 인터페이스 컨트롤러(125)는 커서가 터치스크린(110)의 화면 가장자리(예를 들어, 상하좌우)에 위치된 상태에서 사용자에 의해 터치 컨트롤 인터페이스가 커서가 위치된 방향으로 드래그되면 스크롤 동작으로 인식할 수 있다. 이에 따라 터치 인터페이스 컨트롤러(125)는 사용자의 터치 컨트롤 인터페이스의 드래그 방향의 반대 방향으로 화면에 표시된 웹 페이지를 스크롤시킬 수 있다. 예를 들어, 커서가 화면의 왼쪽 가장자리에 위치하고 있다고 가정하자. 이때, 사용자가 터치 컨트롤 인터페이스를 터치하고 X축 기준으로 왼쪽 방향으로 드래그하였다고 가정하자. 이때, 터치 인터페이스 컨트롤러(125)는 화면을 X축 기준으로 오른쪽 방향으로 스크롤시킬 수 있다.
다른 예를 들어, 터치 인터페이스 컨트롤러(125)는 터치 컨트롤 인터페이스가 플리킹(flicking) 되는 경우, 화면에 출력된 웹 페이지를 스크롤 업 또는 스크롤 다운시킬 수도 있다.
또한, 터치 인터페이스 컨트롤러(125)는 도 7에 도시된 바와 같이, 사용자의 터치 컨트롤 인터페이스내에서의 드래그 패턴을 인식한 후 드래그 패턴에 상응하는 지정된 기능을 실행시킬 수도 있다.
예를 들어, 터치 인터페이스 컨트롤러(125)는 사용자가 터치 컨트롤 인터페이스의 일 영역을 일정 시간 이상 터치한 후 터치 컨트롤 인터페이스내에서 드래그되면, 드래그된 패턴(드래그 패턴이라 칭하기로 함)을 인식한 후 그에 따른 지정된 기능(예를 들어, 전화 걸기, 메시지 작성, 어플리케이션 실행, 메일 작성 등)을 실행시킬 수 있다.
다른 실시예로, 터치 인터페이스 컨트롤러(125)는 사용자의 터치 및 드래그 동작에 따른 터치 컨트롤 인터페이스의 위치 이동에 따라 화면의 커서가 이동되도록 제어한 후 탭 감지부(135)에 의해 탭 동작이 감지되면, 커서가 위치된 지점에 연관된 추가 동작(예를 들어, 링크 또는 메뉴 버튼의 클릭)을 실행하도록 제어할 수 있다.
전술한 바와 같이, 터치 인터페이스 컨트롤러(125)는 모션 감지부(115)에 의해 감지된 모션 또는 터치 컨트롤 인터페이스의 이동에 따라 화면의 커서를 이동시킬 수 있다. 예를 들어, 터치 인터페이스 컨트롤러(125)는 모션 감지부(115)에 의해 감지된 모션에 따라 화면의 커서를 일정 위치로 이동시킨 후 터치 컨트롤 인터페이스의 이동을 통해 커서의 위치를 미세 조정하여 이동시킬 수도 있다.
또한, 터치 인터페이스 컨트롤러(125)는 사용자의 터치 컨트롤러 인터페이스의 터치 및 드래그 동작에 따라 터치 컨트롤 인터페이스가 드래그된 위치로 이동된 후 이동된 지점에서 표시되도록 제어할 수도 있으며, 터치 컨트롤 인터페이스가 이동된 후 최초 표시 위치로 복원되도록 제어할 수도 있다.
보정부(130)는 터치 컨트롤 인터페이스가 표시될 지점과 터치스크린(110)상의 사용자 단말(100)의 고유 기능 또는 앱 표시 영역과 중첩되는 경우, 해당 터치 컨트롤 인터페이스의 동작 우선 순위를 최상위로 설정한다. 이와 같이, 터치 컨트롤 인터페이스의 동작 우선 순위를 최상위로 설정함으로써 터치스크린(110) 화면의 다른 고유 기능 또는 앱 표시 영역과의 중복 터치되더라도 해당 터치 컨트롤 인터페이스만 터치되도록 구현할 수 있다.
또한, 보정부(130)는 터치 컨트롤 인터페이스가 표시될 지점과 터치스크린(110)상의 고유 기능 표시 영역 또는 앱 표시 영역과 중첩되는 경우, 터치 컨트롤 인터페이스가 표시될 지점을 해당 고유 기능 또는 앱 표시 영역과 중첩되지 않도록 보정할 수도 있다.
예를 들어, 보정부(130)는 터치 컨트롤 인터페이스가 표시될 영역이 터치스크린(110)의 고유 기능 또는 특정 앱 표시 영역과 중첩되는 경우, 보정 범위 이내에 터치 컨트롤 인터페이스의 표시 보정 영역이 존재하는 경우, 해당 터치 컨트롤 인터페이스가 표시되는 위치를 해당 표시 보정 영역으로 이동시킬 수 있다. 그러나 만일, 보정 범위 이내에 터치 컨트롤 인터페이스 표시 보정 영역이 존재하지 않은 경우, 보정부(130)는 별도로 터치 컨트롤 인터페이스가 표시될 영역을 보정하지 않을 수도 있다.
이와 같이, 보정부(130)에 의해 터치 컨트롤 인터페이스가 표시될 지점이 보정되더라도 터치 인터페이스 컨트롤러(125)는 터치스크린(110)상의 커서의 위치를 보정에 따라 이동되지 않도록 제어할 수 있다.
탭 감지부(135)는 사용자가 사용자 단말(100)의 하우징을 터치하는 탭 동작을 감지하기 위한 수단이다. 구체적으로, 탭 감지부(135)는 사용자가 손가락 또는 기타 터치 수단을 이용하여 사용자 단말(100) 하우징의 특정 부위(예를 들어, 후면 또는 측면)를 터치하는 동작을 감지할 수 있다. 탭 감지부(135)는 사용자의 사용자 단말(100) 하우징의 터치를 감지하기 위한 충격 감지 센서(예를 들어, 가속도 센서, 자이로 센서 등)를 포함할 수 있다. 충격 감지 센서는 이미 공지된 기술로, 충격 감지 센서의 동작은 당업자에게는 자명한 사항이므로 이에 대한 상세한 설명은 생략하기로 한다.
즉, 터치 인터페이스 컨트롤러(125)는 탭 감지부(135)로부터 탭 동작이 감지되면, 커서가 위치된 지점에 연관된 추가 동작을 수행할 수 있다. 이는 이미 전술한 바와 동일하므로 중복되는 설명은 생략하기로 한다.
도 8은 본 발명의 일 실시예에 따른 사용자 단말의 터치 인터페이싱 방법을 나타낸 순서도이다. 이하에서 설명되는 각각의 단계는 사용자 단말의 내부 구성 요소에 의해 수행되나 이해와 설명의 편의를 도모하기 위해 사용자 단말로 통칭하여 설명하기로 한다. 또한, 이하에서는 사용자 단말(100)이 지정된 모션을 감지하여 터치 인터페이싱 하는 것을 가정하여 이를 중심으로 설명하나, 사용자 단말(100)의 지정된 모션 감지 이외에도 다양한 방법에 의해 터치 인터페이싱 방법이 구현될 수 있으며, 그 경우에도 동일하게 적용되어야 함은 당연하다.
단계 810에서 사용자 단말(100)은 사용자의 터치 컨트롤 인터페이스 터치 및 드래그 동작에 따라 터치 컨트롤 인터페이스가 이동되었는지 여부를 판단한다.
만일 터치 컨트롤 인터페이스가 이동된 경우, 단계 815에서 사용자 단말(100)은 터치 컨트롤 인터페이스의 이동에 따라 커서의 위치를 이동시킨다. 구체적으로 사용자 단말(100)은 터치 컨트롤 인터페이스가 이동된 위치의 좌표 차이값(이동전 위치값과 이동된 후 위치값의 차이값)에 지정된 배수를 곱하여 커서의 이동될 위치값으로 결정하여 커서를 이동시킬 수 있다.
그러나 만일 터치 컨트롤 인터페이스가 이동되지 않은 경우, 단계 820에서 사용자 단말(100)은 터치 컨트롤 인터페이스가 a회(a는 자연수) 사용자에 의해 터치되었는지 여부를 판단한다.
만일 터치 컨트롤 인터페이스가 a회 터치된 경우, 단계 825에서 사용자 단말(100)은 커서가 위치한 지점에 연관된 지정된 명령(예를 들어, 추가 동작)을 수행할 수 있다. 여기서, 지정된 명령(예를 들어, 추가 동작)은 예를 들어, 커서가 위치한 지점의 링크 또는 메뉴 버튼의 클릭 동작일 수 있다.
그러나 만일 터치 컨트롤 인터페이스가 a회 터치되지 않은 경우, 단계 830에서 사용자 단말(100)은 터치 컨트롤 인터페이스가 스크롤되었는지 여부를 판단한다.
만일 터치 컨트롤 인터페이스가 스크롤된 경우, 단계 835에서 사용자 단말(100)은 터치스크린(110) 화면에 표시된 웹 브라우저를 터치 컨트롤 인터페이스가 드래그된 방향의 반대 방향으로 스크롤시킬 수 있다.
그러나 만일 터치 컨트롤 인터페이스가 스크롤되지 않은 경우, 단계 840에서 사용자 단말(100)은 터치 컨트롤 인터페이스가 당해 터치 컨트롤 인터페이스내에서 드래그되었는지 여부를 판단한다.
예를 들어, 사용자 단말(100)은 터치 컨트롤 인터페이스의 일 영역이 일정 시간 이상 터치된 후 해당 터치 컨트롤 인터페이스내에서 드래그되면, 터치 컨트롤 인터페이스내에서 드래그된 것으로 인식할 수 있다.
이에, 단계 845에서 사용자 단말(100)은 터치 컨트롤 인터페이스의 드래그된 패턴을 인식하고, 드래그된 패턴에 따른 지정된 기능을 실행한다. 여기서, 지정된 기능은 이미 전술한 바와 같이, 전화 걸기, 메시지 작성, 메일 작성 및 어플리케이션 실행 중 어느 하나일 수 있다.
도 9는 본 발명의 다른 실시예에 따른 사용자 단말의 터치 인터페이싱 방법을 나타낸 순서도이다.
단계 910에서 사용자 단말(100)은 사용자의 터치 컨트롤 인터페이스 터치 및 드래그 동작에 따라 터치 컨트롤 인터페이스가 이동되었는지 여부를 판단한다.
단계 915에서 사용자 단말(100)은 사용자 단말(100)은 터치 컨트롤 인터페이스의 이동에 따라 커서의 위치를 이동시킨다.
단계 920에서 사용자 단말(100)은 탭 동작이 감지되었는지 여부를 판단한다.
예를 들어, 사용자 단말(100)은 해당 사용자 단말(100) 하우징 특정 부위가 터치되는 경우, 탭 동작으로 인식할 수 있다.
만일 탭 동작이 감지된 경우, 단계 925에서 사용자 단말(100)은 커서가 위치된 지점에 연관된 추가 동작을 수행한다.
그러나 만일 탭 동작이 감지되지 않은 경우, 단계 910으로 진행한다.
한편, 본 발명의 실시예에 따른 사용자 단말의 터치 인터페이싱 방법은 다양한 전자적으로 정보를 처리하는 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 저장 매체에 기록될 수 있다. 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조등을 단독으로 또는 조합하여 포함할 수 있다.
저장 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
110: 터치스크린
115: 모션 감지부
120: 메모리
125: 터치 인터페이스 컨트롤러
130: 보정부
135: 탭 감지부

Claims (22)

  1. 터치스크린; 및
    터치 컨트롤 인터페이스의 이동에 따라 상기 터치스크린의 화면에서 커서를 이동시키는 터치 인터페이스 컨트롤러를 포함하되,
    상기 터치 인터페이스 컨트롤러는 상기 커서가 위치한 화면 가장자리 방향으로 상기 터치 컨트롤 인터페이스가 드래그되면 드래그 반대 방향으로 화면을 스크롤시키는 것을 특징으로 하는 사용자 단말.
  2. 제1 항에 있어서,
    상기 터치 컨트롤 인터페이스는 상기 터치스크린 일 영역에 표시되되,
    상기 터치 인터페이스 컨트롤러는, 사용자의 상기 터치 컨트롤 인터페이스의 터치 및 드래그 동작에 따라 드래그된 위치로 상기 터치 컨트롤 인터페이스를 이동시키는 것을 특징으로 하는 사용자 단말.
  3. 제2 항에 있어서,
    상기 터치 인터페이스 컨트롤러는,
    상기 터치 및 드래그 동작에 따라 상기 터치 컨트롤 인터페이스의 이동 위치의 차이값에 지정된 배수를 곱하여 상기 커서를 위치 이동시키는 것을 특징으로 하는 사용자 단말.
  4. 제1 항에 있어서,
    상기 터치 컨트롤 인터페이스는 상기 터치스크린상에 OSD(on screen display)로 중첩되어 표시되는 것을 특징으로 하는 사용자 단말.
  5. 제1 항에 있어서,
    상기 터치 인터페이스 컨트롤러는 사용자에 의해 상기 터치 컨트롤 인터페이스가 a회(a는 자연수) 터치되면, 상기 커서가 위치한 지점에 연관된 추가 동작을 수행하는 것을 특징으로 하는 사용자 단말.
  6. 제1 항에 있어서,
    상기 사용자 단말 하우징의 후면 또는 측면을 터치하는 탭 동작을 감지하는 탭 감지부를 더 포함하되,
    상기 터치 인터페이스 컨트롤러는 상기 탭 동작이 감지되면, 상기 커서가 위치한 지점과 연관된 추가 동작을 수행하는 것을 특징으로 하는 사용자 단말.
  7. 제5 항 또는 제6 항에 있어서,
    상기 추가 동작은 상기 커서가 위치된 지점의 링크 또는 메뉴 버튼의 클릭 동작인 것을 특징으로 하는 사용자 단말.
  8. 제1 항에 있어서,
    상기 터치 인터페이스 컨트롤러는,
    사용자에 의해 상기 터치 컨트롤 인터페이스가 일정 시간 이상 터치된 후 상기 터치 컨트롤 인터페이스내에서 드래그되면, 드래그된 패턴에 따른 지정된 기능을 실행하도록 제어하는 것을 특징으로 하는 사용자 단말.
  9. 제8 항에 있어서,
    상기 지정된 기능은 기능은 전화 걸기, 메시지 작성, 메일 작성 및 지정된 어플리케이션 실행 중 어느 하나인 것을 특징으로 하는 사용자 단말.
  10. 삭제
  11. 제1 항에 있어서,
    상기 터치 컨트롤 인터페이스가 상기 터치스크린상에서 상기 사용자 단말의 고유 기능 표시 영역 또는 앱 표시 영역과 중첩되어 표시되는 경우, 상기 터치 컨트롤 인터페이스의 동작 우선순위를 최상위로 설정하는 보정부를 더 포함하는 사용자 단말.
  12. 제1 항에 있어서,
    상기 터치 컨트롤 인터페이스가 상기 터치스크린상에서 상기 사용자 단말의 고유 기능 표시 영역 또는 앱 표시 영역과 중첩되어 표시되는 경우, 상기 터치 컨트롤 인터페이스가 표시되는 위치를 보정하는 보정부를 더 포함하는 사용자 단말.
  13. 제12 항에 있어서,
    상기 보정부는 상기 터치 컨트롤 인터페이스가 표시될 위치에 상기 고유 기능 또는 앱 영역과 중첩되는 경우, 상기 고유 기능 또는 상기 앱 영역과 중첩되지 않는 위치로 상기 터치 컨트롤 인터페이스가 표시될 위치를 보정하는 것을 특징으로 하는 사용자 단말.
  14. 제13 항에 있어서,
    상기 터치 인터페이스 컨트롤러는 상기 보정부에 의해 상기 터치 컨트롤 인터페이스가 표시될 위치가 보정되더라도 상기 커서의 위치는 보정하지 않는 것을 특징으로 하는 사용자 단말.
  15. 제1 항에 있어서,
    상기 사용자 단말의 모션을 감지하는 모션 감지부를 더 포함하되,
    상기 터치 인터페이스 컨트롤러는 상기 감지된 모션에 따라 상기 커서의 위치를 이동시키는 것을 특징으로 하는 사용자 단말.
  16. 터치스크린을 구비한 사용자 단말이 터치 제어를 인터페이싱하는 방법에 있어서,
    상기 터치스크린 일 영역에 터치 컨트롤 인터페이스를 표시하는 단계(a);
    사용자의 상기 터치 컨트롤 인터페이스 이동에 따라 커서를 이동시키는 단계(b); 및
    상기 커서가 위치한 화면 가장자리 방향으로 상기 터치 컨트롤 인터페이스가 드래그되면, 드래그 반대 방향으로 화면을 스크롤 시키는 단계(c)를 포함하되,
    상기 터치 컨트롤 인터페이스는 사용자의 터치 및 드래그 동작에 따라 상기 터치스크린에서 이동되는 것을 특징으로 하는 터치 제어 인터페이싱 방법.
  17. 제16 항에 있어서,
    상기 단계(b) 단계는,
    상기 터치 및 드래그 동작에 따라 상기 터치 컨트롤 인터페이스의 이동 위치의 차이값에 지정된 배수를 곱하여 상기 커서를 위치 이동시키는 단계인 것을 특징으로 하는 터치 제어 인터페이싱 방법.
  18. 제16 항에 있어서,
    상기 단계(b) 이후에,
    상기 터치 컨트롤 인터페이스가 a회(a는 자연수) 터치되면, 상기 커서가 위치된 지점에 연관된 추가 동작을 수행하는 단계를 더 포함하는 터치 제어 인터페이싱 방법.
  19. 제16 항에 있어서,
    상기 단계(b) 이후에,
    상기 사용자 단말 하우징 후면 또는 측면을 터치하는 탭 동작을 감지하는 단계; 및
    상기 탭 동작이 감지되면, 상기 커서가 위치된 지점에 연관된 추가 동작을 수행하는 단계를 더 포함하는 터치 제어 인터페이싱 방법.
  20. 제19항에 있어서,
    상기 터치 컨트롤 인터페이스의 일 영역이 일정 시간 이상 터치된 후 상기 터치 컨트롤내에서 드래그되면, 드래된 패턴에 따른 지정된 기능을 실행하는 단계를 더 포함하는 터치 제어 인터페이싱 방법.
  21. 제16항에 있어서,
    상기 단계 (a) 이후에,
    상기 터치 컨트롤 인터페이스가 표시될 영역이 상기 사용자 단말의 고유 기능 표시 영역 또는 앱 표시 영역과 중첩되는 경우, 상기 터치 컨트롤 인터페이스의 동작 우선순위를 최상위로 설정하는 단계를 더 포함하는 터치 제어 인터페이싱 방법.
  22. 제16 항 내지 제21 항 중 어느 하나의 항에 따른 터치 제어 인터페이싱 방법을 수행하기 위한 프로그램을 기록한 기록 매체.

KR1020130013982A 2013-02-07 2013-02-07 사용자 단말 및 이의 인터페이싱 방법 KR101504310B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130013982A KR101504310B1 (ko) 2013-02-07 2013-02-07 사용자 단말 및 이의 인터페이싱 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130013982A KR101504310B1 (ko) 2013-02-07 2013-02-07 사용자 단말 및 이의 인터페이싱 방법

Publications (2)

Publication Number Publication Date
KR20140100791A KR20140100791A (ko) 2014-08-18
KR101504310B1 true KR101504310B1 (ko) 2015-03-20

Family

ID=51746487

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130013982A KR101504310B1 (ko) 2013-02-07 2013-02-07 사용자 단말 및 이의 인터페이싱 방법

Country Status (1)

Country Link
KR (1) KR101504310B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200047136A (ko) 2018-10-26 2020-05-07 윤방헌 후면 터치 감지부를 포함하는 케이스
KR20200047135A (ko) 2018-10-26 2020-05-07 윤방헌 사용자 단말기, 한 손 입력에 의한 동작을 수행하는 방법 및 기록 매체
US11934602B2 (en) 2021-12-08 2024-03-19 Samsung Electronics Co., Ltd. Electronic device and operation method of electronic device for supporting one handed operation mode

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102160105B1 (ko) * 2014-10-15 2020-09-25 삼성전자주식회사 사용자 인터페이스를 제공하는 방법 및 장치
US11079895B2 (en) 2014-10-15 2021-08-03 Samsung Electronics Co., Ltd. Method and apparatus for providing user interface
KR102328100B1 (ko) * 2014-11-20 2021-11-17 삼성전자주식회사 복수의 입출력 장치를 제어하는 방법 및 장치
KR102475336B1 (ko) * 2015-12-29 2022-12-08 에스케이플래닛 주식회사 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR101971982B1 (ko) * 2017-04-20 2019-04-24 주식회사 하이딥 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
KR101881383B1 (ko) * 2017-10-11 2018-07-24 안지홍 한 손 조작이 용이한 터치 스크린 시스템 및 그 제공방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100019888A (ko) * 2008-08-11 2010-02-19 엘지전자 주식회사 이동단말기 및 그 동작 제어방법
KR20100126707A (ko) * 2008-01-25 2010-12-02 인풋다이나믹 리미티드 전자 장치에 입력하기 위한 방법 및 장치
KR20110035689A (ko) * 2009-09-30 2011-04-06 이주협 전자기기의 반사부를 이용하여 마우스를 작동되게 하는 마우스 반사 디바이스
KR20110134551A (ko) * 2010-06-09 2011-12-15 엘지전자 주식회사 이동 단말기 및 그 제어방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100126707A (ko) * 2008-01-25 2010-12-02 인풋다이나믹 리미티드 전자 장치에 입력하기 위한 방법 및 장치
KR20100019888A (ko) * 2008-08-11 2010-02-19 엘지전자 주식회사 이동단말기 및 그 동작 제어방법
KR20110035689A (ko) * 2009-09-30 2011-04-06 이주협 전자기기의 반사부를 이용하여 마우스를 작동되게 하는 마우스 반사 디바이스
KR20110134551A (ko) * 2010-06-09 2011-12-15 엘지전자 주식회사 이동 단말기 및 그 제어방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200047136A (ko) 2018-10-26 2020-05-07 윤방헌 후면 터치 감지부를 포함하는 케이스
KR20200047135A (ko) 2018-10-26 2020-05-07 윤방헌 사용자 단말기, 한 손 입력에 의한 동작을 수행하는 방법 및 기록 매체
US11934602B2 (en) 2021-12-08 2024-03-19 Samsung Electronics Co., Ltd. Electronic device and operation method of electronic device for supporting one handed operation mode

Also Published As

Publication number Publication date
KR20140100791A (ko) 2014-08-18

Similar Documents

Publication Publication Date Title
KR101504310B1 (ko) 사용자 단말 및 이의 인터페이싱 방법
JP6054892B2 (ja) 複数のディスプレイに対するアプリケーション画像の表示方法、電子機器およびコンピュータ・プログラム
US10304163B2 (en) Landscape springboard
US8854325B2 (en) Two-factor rotation input on a touchscreen device
EP3232731B1 (en) Mobile terminal
EP2631766B1 (en) Method and apparatus for moving contents in terminal
US9035883B2 (en) Systems and methods for modifying virtual keyboards on a user interface
EP2508972B1 (en) Portable electronic device and method of controlling same
US20170160926A1 (en) Enhanced display of interactive elements in a browser
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
CN108733303B (zh) 便携式终端的触摸输入方法和设备
US20130305184A1 (en) Multiple window providing apparatus and method
EP2746924B1 (en) Touch input method and mobile terminal
KR102168648B1 (ko) 사용자 단말 장치 및 그 제어 방법
US20130241829A1 (en) User interface method of touch screen terminal and apparatus therefor
KR101983290B1 (ko) 다양한 제스처를 이용하여 키패드를 표시하는 방법 및 장치
KR20150095540A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
KR20140119546A (ko) 사용자 인터페이스 표시 방법 및 장치
KR20200051783A (ko) 복수의 콘텐츠 카드를 표시하는 방법 및 단말기
KR20150002312A (ko) 페이지 표시 방법 및 이를 구현하는 전자 장치
KR102152383B1 (ko) 단말 장치 및 그 제어 방법
EP2685367B1 (en) Method and apparatus for operating additional function in mobile device
US11163422B1 (en) Methods and graphical user interfaces for positioning a selection and selecting text on computing devices with touch-sensitive displays
US11914857B1 (en) Methods and graphical user interfaces for pointing and editing on computing devices with touch-sensitive displays
EP3433713B1 (en) Selecting first digital input behavior based on presence of a second, concurrent, input

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180302

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200212

Year of fee payment: 6