KR102348116B1 - 사용자 입력 처리 장치 및 처리 방법 - Google Patents

사용자 입력 처리 장치 및 처리 방법 Download PDF

Info

Publication number
KR102348116B1
KR102348116B1 KR1020170069518A KR20170069518A KR102348116B1 KR 102348116 B1 KR102348116 B1 KR 102348116B1 KR 1020170069518 A KR1020170069518 A KR 1020170069518A KR 20170069518 A KR20170069518 A KR 20170069518A KR 102348116 B1 KR102348116 B1 KR 102348116B1
Authority
KR
South Korea
Prior art keywords
touch
user
touch input
input
image
Prior art date
Application number
KR1020170069518A
Other languages
English (en)
Other versions
KR20180133060A (ko
Inventor
신호철
임상연
이용호
양현승
김연지
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020170069518A priority Critical patent/KR102348116B1/ko
Publication of KR20180133060A publication Critical patent/KR20180133060A/ko
Application granted granted Critical
Publication of KR102348116B1 publication Critical patent/KR102348116B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예에 따른 사용자 입력 처리 장치는 사용자로부터 터치 입력을 수신하는 입력부, 이미지를 디스플레이하고, 상기 이미지 상에 상기 터치 입력에 대응하는 터치 포지션을 표시하는 디스플레이부, 및 상기 터치 포지션에 가해지는 터치 세기 및 상기 터치 입력의 이동 방향에 기초하여 상기 터치 포지션이 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 제어부를 포함할 수 있다.

Description

사용자 입력 처리 장치 및 처리 방법{METHOD AND APPARATUS FOR PROCESSING USER INPUT}
본 발명은 사용자 입력 처리 장치 및 처리 방법에 관한 것이다.
터치 패널(touch panel)은 손가락이나 전자펜 등으로 디스플레이 표면이나 정해진 접촉면을 터치함으로써 간단하고 직관적으로 사용자 조작을 입력할 수 있는 사용자 인터페이스(user interface)이다. 이러한 터치 패널은 네비게이션 단말기(navigation device), 텔레매틱스 단말기(telematics terminal), PDA(Personal Digital Assistant), 랩톱 컴퓨터(laptop computer), 노트북 컴퓨터(notebook computer) 및 스마트폰(smart phone) 등의 다양한 분야에 적용되고 있다.
터치 패널은 저항막 방식(Resistive Overlay), 정전용량방식(Capacitive Overlay), 표면초음파 방식(Surface Acoustic Wave) 및 적외선 방식(Infrared Beam) 등의 터치 인식 기술을 이용한다. 기존의 터치 인식 기술은 평면에서 터치 좌표 즉, X축 좌표와 Y축 좌표를 인식하므로, 2차원 터치 인터렉션(2D touch interaction)에 제한된다. 따라서, 현재의 터치 인식 기술로는 3차원 포지션을 선택하는 데 많은 어려움이 있다.
본 발명의 일 목적은 3차원 포지션 선택이 가능한 사용자 입력 처리 장치 및 처리 방법을 제공하는 데 있다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른 사용자 입력 처리 장치는 사용자로부터 터치 입력을 수신하는 입력부, 이미지를 디스플레이하고, 상기 이미지 상에 상기 터치 입력에 대응하는 터치 포지션을 표시하는 디스플레이부, 및 상기 터치 포지션에 가해지는 터치 세기 및 상기 터치 입력의 이동 방향에 기초하여 상기 터치 포지션이 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 제어부를 포함할 수 있다.
일 실시예에서, 상기 제어부는 상기 사용자로부터 제 1 터치 입력을 수신하여 상기 터치 포지션을 인식하고, 상기 터치 포지션이 사용자에 의해 터치된 상태에서 시계 방향 또는 반시계 방향으로의 상기 사용자의 제 2 터치 입력을 수신하여 상기 제 1 터치 입력의 이동 방향을 인식할 수 있다.
일 실시예에서, 상기 제어부는 상기 터치 포지션에 가해지는 터치 세기가 기준 세기 이상인 경우 상기 터치 입력의 이동 방향에 기초하여 상기 터치 포지션이 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다.
일 실시예에서, 상기 제어부는 상기 터치 입력의 이동 방향이 시계 방향을 따라 변하는 경우 상기 터치 포지션이 상기 이미지의 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다.
일 실시예에서, 상기 제어부는 상기 터치 입력의 이동 방향이 반시계 방향을 따라 변하는 경우 상기 터치 포지션이 상기 이미지의 리버스 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다.
일 실시예에서, 상기 제어부는 상기 터치 입력의 이동 방향이 시계 방향 또는 반시계 방향을 따라 이동한 각도에 상응하여 상기 터치 포지션을 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동시킬 수 있다.
본 발명의 일 실시예에 따른 사용자 입력 처리 방법은 이미지를 디스플레이하는 단계, 사용자로부터 터치 입력을 수신하는 단계, 상기 이미지 상에 상기 터치 입력에 대응하는 터치 포지션을 표시하는 단계, 및 상기 터치 포지션에 가해지는 터치 세기 및 상기 터치 입력의 이동 방향에 기초하여 상기 터치 포지션이 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 사용자 입력 장치는 사용자로부터 터치 입력을 수신하는 입력부, 이미지를 디스플레이하고, 상기 이미지 상에 상기 터치 입력에 대응하는 터치 포지션을 포함하는 2차원 레이어를 표시하는 디스플레이부, 및 상기 터치 포지션에 가해지는 터치 세기 및 상기 터치 입력의 이동 방향에 기초하여 상기 2차원 레이어가 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 제어부를 포함할 수 있다.
일 실시예에서, 상기 제어부는 상기 사용자로부터 제 1 터치 입력을 수신하여 상기 터치 포지션을 인식하고, 상기 터치 포지션이 사용자에 의해 터치된 상태에서 시계 방향 또는 반시계 방향으로의 상기 사용자의 제 2 터치 입력을 수신하여 상기 제 1 터치 입력의 이동 방향을 인식할 수 있다.
일 실시예에서, 상기 제어부는 상기 터치 포지션에 가해지는 터치 세기가 기준 세기 이상인 경우 상기 터치 입력의 이동 방향에 기초하여 상기 2차원 레이어가 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다.
일 실시예에서, 상기 제어부는 상기 터치 입력의 이동 방향이 시계 방향을 따라 변하는 경우 상기 2차원 레이어가 상기 이미지의 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다.
일 실시예에서, 상기 제어부는 상기 터치 입력의 이동 방향이 반시계 방향을 따라 변하는 경우 상기 2차원 레이어가 상기 이미지의 리버스 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다.
일 실시예에서, 상기 제어부는 상기 터치 입력의 이동 방향이 시계 방향 또는 반시계 방향을 따라 이동한 각도에 상응하여 상기 2차원 레이어를 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동시키는 것을 특징으로 하는 사용자 입력 처리 장치.
본 발명의 일 실시예에 따른 사용자 입력 처리 장치 및 처리 방법은 사용자의 간단한 조작을 통해 3차원 포지션 선택이 가능할 수 있다.
본 발명의 일 실시예에 따른 사용자 입력 처리 장치 및 처리 방법은 사용자의 편의성이 향상된 입력 방법을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 사용자 입력 처리 장치를 보여주는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 사용자 입력 처리 방법을 보여주는 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 사용자 입력 처리 방법의 적용예를 보여주는 흐름도이다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 사용자 입력 처리 방법의 제 1 직용예를 설명하기 위한 도면이다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 사용자 입력 처리 방법의 제 2 적용예를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 사용자 입력 처리 방법을 실행하는 컴퓨팅 시스템을 보여준다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 발명의 일 실시예에 따른 사용자 입력 처리 장치를 보여주는 블록도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 사용자 입력 처리 장치(100)는 입력부(110), 디스플레이부(120), 및 제어부(130)를 포함할 수 있다.
입력부(110)는 사용자로부터 터치 입력을 수신할 수 있다. 예를 들어, 입력부(110)는 터치 스크린(touch screen), 터치 패드(touch pad) 등을 포함할 수 있다.
디스플레이부(120)는 이미지를 디스플레이할 수 있다. 다만, 이에 제한되는 것은 아니며, 디스플레이부(120)는 문자, 동영상 등 다양한 컨텐츠를 디스플레이할 수 있다. 이하에서는 이해를 돕기 위해 디스플레이부(120)가 이미지를 디스플레이하되, 상기 이미지는 3차원 이미지인 것으로 가정하여 설명한다.
디스플레이부(120)는 디스플레이되는 이미지 상에 사용자의 터치 입력에 대응하는 터치 포지션(touch position)을 표시할 수 있다. 또한, 디스플레이부(120)는 디스플레이되는 이미지 상에 사용자의 터치 입력에 대응되는 터치 포지션을 포함하는 2차원 레이어를 표시할 수 있다. 상기 2차원 레이어는 다양한 형태의 다각형(ex. 사각형, 원, 삼각형 등)으로 표시될 수 있다.
디스플레이부(120)는 액정 디스플레이(Liquid Crystal Display, LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), 플렉시블 디스플레이(Flexible Display), 전계 방출 디스플레이(Feld Emission Display, FED) 중에서 적어도 하나를 포함할 수 있다.
도 1에서는 입력부(110) 및 디스플레이부(120)가 별개의 구성으로 도시되었으나, 이에 한정되는 것은 아니며, 입력부(110) 및 디스플레이부(120)는 터치 디스플레이 형태의 단일의 구성으로 구현될 수도 있다.
제어부(130)는 사용자의 터치 입력을 감지하여 터치 포지션이 표시되도록 디스플레이부(120)를 제어할 수 있다.
또한, 제어부(130)는 터치 포지션에 가해지는 터치 세기 및 사용자의 터치 입력의 이동 방향에 기초하여 터치 포지션의 표시 또는 터치 포지션을 포함하는 2차원 레이어의 표시를 제어할 수 있다. 이를 위해, 제어부(130)는 터치 포지션에 가해지는 터치 세기를 감지할 수 있다. 이러한 터치 세기를 이용한 터치 입력은 포스 터치(force touch)라는 개념으로 사용되기도 한다. 제어부(130)는 터치 포지션에 가해지는 터치 세기가 기준 세기 이상인 경우 사용자의 터치 입력의 이동 방향에 기초하여 터치 포지션의 표시 또는 터치 포지션을 포함하는 2차원 레이어의 표시를 제어할 수 있다.
제어부(130)는 사용자의 터치 입력의 이동 방향을 판단할 수 있다. 예를 들어, 제어부(130)는 사용자로부터 제 1 터치 입력(즉, 첫 번째 터치 입력)을 수신하여 터치 포지션을 인식하고, 터치 포지션이 사용자에 의해 터치된 상태에서 다른 방향(ex. 시계 방향 또는 반시계 방향)으로의 사용자의 제 2 터치 입력을 수신하여 제 1 터치 입력의 이동 방향을 인식할 수 있다. 일 측면에서, 사용자의 제 1 터치 입력 및 제 2 터치 입력은 드래그 입력 또는 슬라이딩 입력으로 이해될 수도 있다. 이를 통해 제어부(130)는 사용자의 터치 입력의 이동 방향을 인식하고, 인식된 이동 방향에 따라 터치 포지션의 표시 또는 터치 포지션을 포함하는 2차원 레이어의 표시를 제어할 수 있다.
제어부(130)는 사용자의 터치 입력의 이동 방향에 기초하여 터치 포지션 또는 터치 포지션을 포함하는 2차원 레이어가 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다. 여기서, 이미지의 깊이 방향은 디스플레이부(120)의 스크린에 수직하며 스크린의 내부를 향하는 방향을 의미할 수 있으며, 리버스 깊이 방향은 디스플레이부(120)의 스크린에 수직하며 스크린의 외부로 향하는 방향을 의미할 수 있다.
예를 들어, 제어부(130)는 사용자의 터치 입력의 이동 방향이 시계 방향을 따라 변하는 경우 터치 포지션의 또는 터치 포지션을 포함하는 2차원 레이어가 이미지의 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다. 또한, 예를 들어, 제어부(130)는 사용자의 터치 입력의 이동 방향이 반시계 방향을 따라 변하는 경우 터치 포지션의 또는 터치 포지션을 포함하는 2차원 레이어가 이미지의 리버스 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다. 제어부(130)는 터치 입력의 이동 방향이 시계 방향 또는 반시계 방향을 따라 이동한 각도에 상응하여 터치 포지션의 또는 터치 포지션을 포함하는 2차원 레이어를 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동시킬 수도 있다.
한편, 본 실시예에서는 사용자의 터치 입력의 이동 방향이 시계 방향 또는 반시계 방향인 경우가 설명되나, 이에 한정되는 것은 아니며, 설정에 따라 터치 입력의 이동 방향을 다양하게 설정할 수 있다.
상술한 바와 같이, 본 발명의 일 실시예에 따른 사용자 입력 처리 장치(100)는 사용자의 간편한 터치 입력 조작을 통해 3차원 이미지 상에서의 3차원 위치를 지정 또는 설정할 수 있다. 따라서, 사용자의 편의성이 향상될 수 있다.
도 2는 본 발명의 일 실시예에 따른 사용자 입력 처리 방법을 보여주는 흐름도이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 사용자 입력 처리 방법은 사용자로부터 터치 입력을 수신하는 단계(S110), 디스플레이되는 이미지 상에 터치 입력에 대응하는 터치 포지션을 표시하는 단계(S120), 터치 세기가 기준 세기 이상인지 여부를 판단하는 단계(S130), 터치 입력의 이동 방향을 판단하는 단계(S140), 및 터치 입력의 이동 방향이 제 1 방향인 경우 터치 포지션이 이미지의 깊이 방향을 따라 이동하여 표시되도록 제어하는 단계(S140), 및 터치 입력의 이동 방향이 제 2 방향인 경우 터치 포지션이 이미지의 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 단계(S150)를 포함할 수 있다.
이하에서 상술한 S110 단계 내지 S150 단계가 도 1을 참조하여 더욱 구체적으로 설명된다.
S110 단계에서, 입력부(110)는 사용자로부터 터치 입력을 수신할 수 있다.
S120 단계에서, 디스플레이부(120)는 이미지를 디스플레이할 수 있으며, 디스플레이되는 이미지 상에 사용자의 터치 입력에 대응하는 터치 포지션(touch position)을 표시할 수 있다.
S130 단계에서, 제어부(130)는 터치 포지션에 가해지는 터치 세기를 감지할 수 있다. S130 단계의 판단 결과, 터치 포지션에 가해지는 터치 세기가 기준 세기 이상인 경우 S140 단계가 수행될 수 있고, 터치 포지션에 가해지는 터치 세기가 기준 세기 미만인 경우 S120 단계가 수행될 수 있다.
S140 단계에서, 제어부(130)는 사용자의 터치 입력의 이동 방향을 판단할 수 있다. 예를 들어, 제어부(130)는 사용자로부터 제 1 터치 입력(즉, 첫 번째 터치 입력)을 수신하여 터치 포지션을 인식하고, 터치 포지션이 사용자에 의해 터치된 상태에서 다른 방향(ex. 시계 방향 또는 반시계 방향)으로의 사용자의 제 2 터치 입력을 수신하여 제 1 터치 입력의 이동 방향을 인식할 수 있다.
S140 단계의 판단 결과, 사용자의 터치 입력의 이동 방향이 제 1 방향인 경우 S150 단계가 수행되고, 사용자의 터치 입력의 이동 방향이 제 2 방향인 경우 S160 단계가 수행될 수 있다.
S150 단계에서, 제어부(130)는 사용자의 터치 입력의 이동 방향이 제 1 방향(ex. 시계 방향)을 따라 변하는 경우 터치 포지션이 이미지의 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다. 예를 들어, 제어부(130)는 터치 입력의 이동 방향이 시계 방향을 따라 이동한 각도에 상응하여 터치 포지션을 이미지의 깊이 방향을 따라 이동시킬 수 있다.
S160 단계에서, 제어부(130)는 사용자의 터치 입력의 이동 방향이 제 2 방향(ex. 반시계 방향)을 따라 변하는 경우 터치 포지션이 이미지의 리버스 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다. 예를 들어, 제어부(130)는 터치 입력의 이동 방향이 반시계 방향을 따라 이동한 각도에 상응하여 터치 포지션을 이미지의 리버스 깊이 방향을 따라 이동시킬 수 있다.
한편, 도 2에서는 제어부(130)가 터치 포지션에 가해지는 터치 세기 및 터치 입력의 이동 방향에 기초하여 터치 포지션이 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 경우가 설명되었으나, 이는 제어부(130)가 터치 포지션에 가해지는 터치 세기 및 터치 입력의 이동 방향에 기초하여 터치 포지션을 포함하는 2차원 레이어가 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 경우에도 실질적으로 동일하게 적용될 수 있다.
도 3은 본 발명의 일 실시예에 따른 사용자 입력 처리 방법의 적용예를 보여주는 흐름도이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 사용자 입력 처리 방법은 차량의 사운드 포지션 설정에 적용될 수 있다.
본 발명의 일 실시예에 따른 사용자 입력 처리 방법의 적용예는 사운드 포지션 설정 모드로 진입하는 단계(S210), 포지션 설정 메뉴를 선택받는 단계(S220), 이미지를 디스플레이하는 단계(S230), 사용자로부터 터치 입력을 수신하는 단계(S240), 디스플레이되는 이미지 상에 터치 입력에 대응하는 터치 포지션을 표시하는 단계(S250), 터치 세기가 기준 세기 이상인지 여부를 판단하는 단계(S260), 터치 입력의 이동 방향을 판단하는 단계(S270), 및 터치 입력의 이동 방향이 제 1 방향인 경우 터치 포지션이 이미지의 깊이 방향을 따라 이동하여 표시되도록 제어하는 단계(S280), 터치 입력의 이동 방향이 제 2 방향인 경우 터치 포지션이 이미지의 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 단계(S290), 및 사운드 포지션 설정의 완료 여부를 판단하는 단계(S300)를 포함할 수 있다.
이하에서, 상술한 S210 단계 내지 S300 단계가 도 1을 참조하여 더욱 구체적으로 설명된다.
S210 단계에서, 제어부(130)는 입력부(110)를 통해 사용자로부터 사운드 포지션 설정 모드로의 진입 명령을 수신할 수 있다. 예를 들어, 사용자는 디스플레이부(120)에 디스플레이되는 메뉴 화면에서 입력부(110)를 통해 사운드 포지션 설정 모드를 선택할 수 있다. 예를 들어, 상기 메뉴 화면에는 사운드 설정과 관련된 하나 이상의 서브 메뉴가 표시될 수 있으며, 서브 메뉴는 위치(전후좌우 밸런스), 음량 비율(volume ratio), 이퀄라이저(Equalizer), 음량(Loudness), 및 고급(Advanced) 등을 포함할 수 있다. 또한 여기서, 사운드 포지션 설정 모드는 차량 내부의 3차원 사운드 포지션(sound position)을 설정하는 모드를 의미할 수 있으며, 사운드 포지션은 전방향에서 사운드 크기(음량)가 균일하게 들리는 위치를 의미할 수 있다.
S220 단계에서, 제어부(130)는 입력부(110)를 통해 사용자로부터 포지션 설정메뉴를 선택받을 수 있다. 예를 들어, 사용자는 디스플레이부(120)에 디스플레이되는 사운드 포지션 설정 모드 화면에서 포지션 설정메뉴를 선택할 수 있다.
S230 단계에서, 제어부(230)는 사운드 포지션을 설정하기 위한 차량 이미지를 디스플레이부(120)에 디스플레이할 수 있다.
S240 단계에서, 입력부(110)는 사용자로부터 터치 입력을 수신할 수 있다.
S250 단계에서, 디스플레이부(120)는 디스플레이되는 차량 이미지 상에 사용자의 터치 입력에 대응하는 터치 포지션(touch position)을 표시할 수 있다. 여기서, 터치 포지션은 사운드 포지션으로 설정하기 위한 위치를 의미할 수 있다.
S260 단계에서, 제어부(130)는 터치 포지션에 가해지는 터치 세기를 감지할 수 있다. S260 단계의 판단 결과, 터치 포지션에 가해지는 터치 세기가 기준 세기 이상인 경우 S270 단계가 수행될 수 있고, 터치 포지션에 가해지는 터치 세기가 기준 세기 미만인 경우 S250 단계가 수행될 수 있다.
S270 단계에서, 제어부(130)는 사용자의 터치 입력의 이동 방향을 판단할 수 있다. 예를 들어, 제어부(130)는 사용자로부터 제 1 터치 입력(즉, 첫 번째 터치 입력)을 수신하여 터치 포지션을 인식하고, 터치 포지션이 사용자에 의해 터치된 상태에서 다른 방향(ex. 시계 방향 또는 반시계 방향)으로의 사용자의 제 2 터치 입력을 수신하여 제 1 터치 입력의 이동 방향을 인식할 수 있다.
S270 단계의 판단 결과, 사용자의 터치 입력의 이동 방향이 제 1 방향인 경우 S280 단계가 수행되고, 사용자의 터치 입력의 이동 방향이 제 2 방향인 경우 S290 단계가 수행될 수 있다.
S280 단계에서, 제어부(130)는 사용자의 터치 입력의 이동 방향이 제 1 방향(ex. 시계 방향)을 따라 변하는 경우 터치 포지션이 이미지의 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다. 예를 들어, 제어부(130)는 터치 입력의 이동 방향이 시계 방향을 따라 이동한 각도에 상응하여 터치 포지션을 이미지의 깊이 방향을 따라 이동시킬 수 있다.
S290 단계에서, 제어부(130)는 사용자의 터치 입력의 이동 방향이 제 2 방향(ex. 반시계 방향)을 따라 변하는 경우 터치 포지션이 이미지의 리버스 깊이 방향을 따라 이동하여 표시되도록 제어할 수 있다. 예를 들어, 제어부(130)는 터치 입력의 이동 방향이 반시계 방향을 따라 이동한 각도에 상응하여 터치 포지션을 이미지의 리버스 깊이 방향을 따라 이동시킬 수 있다.
S300 단계에서, 제어부(130)는 사운드 포지션 설정이 완료되었는지 여부를 판단할 수 있다. 예를 들어, 제어부(130)는 사용자의 터치 입력의 터치 세기가 기준 세기 미만인지를 판단하거나, 사용자의 터치 입력이 중단되었는지 여부를 감지하여 사운드 포지션 설정이 완료되었는지 여부를 판단할 수 있다. 예를 들어, 사용자의 터치 입력의 터치 세기가 기준 세기 미만으로 판단되거나 사용자의 터치 입력이 중단된 것으로 감지되는 경우, 제어부(130)는 그 시점에서의 터치 포지션을 사운드 포지션으로 설정할 수 있다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 사용자 입력 처리 방법의 제 1 직용예를 설명하기 위한 도면이다.
먼저, 도 4를 참조하면, 디스플레이부(120)는 사운드 포지션 설정 모드 선택을 위한 메뉴 화면을 디스플레이할 수 있다. 예를 들어, 상기 메뉴 화면에는 사운드 설정과 관련된 하나 이상의 서브 메뉴가 표시될 수 있으며, 서브 메뉴는 사운드 포지션 설정, 음량 비율(volume ratio), 이퀄라이저(Equalizer), 음량(Loudness), 및 고급(Advanced) 등을 포함할 수 있다.
사용자로부터 사운드 포지션 설정 메뉴가 선택되는 경우, 디스플레이부(120)는 사용자의 터치 입력에 대응되는 터치 포지션(a)을 표시할 수 있다.
제어부(130)는 터치 포지션에 가해지는 터치 세기가 기준 세기 이상이고, 터치 입력의 이동 방향이 시계 방향(R1)인 경우 터치 포지션이 차량 이미지의 깊이 방향(z)을 따라 이동하여 표시되도록 제어할 수 있다. 즉, 이 경우 터치 포지션은 b 위치로 이동되어 표시될 수 있다.
제어부(130)는 사용자의 터치 입력의 터치 세기가 기준 세기 미만으로 판단되거나 사용자의 터치 입력이 중단된 것으로 감지되는 경우, 터치 포지션(b)을 사운드 포지션으로 설정할 수 있다.
도 5를 참조하면, 도 4의 경우와 달리 제어부(130)는 터치 포지션에 가해지는 터치 세기가 기준 세기 이상이고, 터치 입력의 이동 방향이 반시계 방향(R2)인 경우 터치 포지션이 차량 이미지의 리버스 깊이 방향(z의 반대 방향)을 따라 이동하여 표시되도록 제어할 수 있다. 즉, 이 경우 터치 포지션은 c 위치로 이동되어 표시될 수 있다.
제어부(130)는 사용자의 터치 입력의 터치 세기가 기준 세기 미만으로 판단되거나 사용자의 터치 입력이 중단된 것으로 감지되는 경우, 터치 포지션(c)을 사운드 포지션으로 설정할 수 있다.
도 6 및 도 7은 본 발명의 일 실시예에 따른 사용자 입력 처리 방법의 제 2 적용예를 설명하기 위한 도면이다.
먼저, 도 6을 참조하면, 디스플레이부(120)는 사용자의 터치 입력에 대응되는 터치 포지션(a)을 포함하는 2차원 레이어(L1)를 표시할 수 있다.
제어부(130)는 터치 포지션에 가해지는 터치 세기가 기준 세기 이상이고, 터치 입력의 이동 방향이 시계 방향(R1)인 경우 2차원 레이어(L1)가 차량 이미지의 깊이 방향(z)을 따라 이동하여 표시되도록 제어할 수 있다. 즉, 이 경우 2차원 레이어는 L2 위치로 이동되어 표시될 수 있다.
제어부(130)는 사용자의 터치 입력의 터치 세기가 기준 세기 미만으로 판단되거나 사용자의 터치 입력이 중단된 것으로 감지되는 경우, 2차원 레이어(L2)에 포함된 터치 포지션(b)을 사운드 포지션으로 설정할 수 있다.
도 7을 참조하면, 도 6의 경우와 달리 제어부(130)는 터치 포지션에 가해지는 터치 세기가 기준 세기 이상이고, 터치 입력의 이동 방향이 반시계 방향(R2)인 경우 2차원 레이어(L1)가 차량 이미지의 리버스 깊이 방향(z의 반대 방향)을 따라 이동하여 표시되도록 제어할 수 있다. 즉, 이 경우 2차원 레이어는 L3 위치로 이동되어 표시될 수 있다.
제어부(130)는 사용자의 터치 입력의 터치 세기가 기준 세기 미만으로 판단되거나 사용자의 터치 입력이 중단된 것으로 감지되는 경우, 2차원 레이어(L3)에 포함된 터치 포지션(c)을 사운드 포지션으로 설정할 수 있다.
도 8은 본 발명의 일 실시예에 따른 사용자 입력 처리 방법을 실행하는 컴퓨팅 시스템을 보여준다.
도 8을 참조하면, 상술한 본 발명의 일 실시예에 따른 사용자 입력 처리 방법은 컴퓨팅 시스템을 통해서도 구현될 수 있다. 컴퓨팅 시스템(1000)은 시스템 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 사용자 입력 처리 장치
110: 입력부
120: 디스플레이부
130: 제어부
1000: 컴퓨팅 시스템
1100: 프로세서
1200: 시스템 버스
1300: 메모리
1310: ROM
1320: RAM
1400: 사용자 인터페이스 입력장치
1500: 사용자 인터페이스 출력장치
1600: 스토리지
1700: 네트워크 인터페이스

Claims (13)

  1. 사운드 포지션을 설정하는 모드에 진입한 것에 대응하여 사용자로부터 터치 입력을 수신하는 입력부;
    이미지를 디스플레이하고, 상기 이미지 상에 상기 터치 입력에 대응하는 터치 포지션을 표시하는 디스플레이부; 및
    상기 터치 포지션에 가해지는 터치 세기가 기준 세기 이상인 것에 대응하여, 상기 터치 입력의 이동 방향에 기초하여 상기 터치 포지션이 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 제어부를 포함하고,
    상기 제어부는 상기 사용자로부터 제 1 터치 입력을 수신하여 상기 터치 포지션을 인식하고, 상기 터치 포지션이 상기 사용자에 의해 터치된 상태에서 시계 방향 또는 반시계 방향으로의 상기 사용자의 제 2 터치 입력을 수신하여 상기 제 1 터치 입력의 이동 방향을 인식하고,
    상기 제 1 터치 입력의 이동 방향이 시계 방향인 것에 대응하여, 상기 터치 포지션이 상기 이미지의 깊이 방향을 따라 이동하여 표시되도록 제어하고,
    상기 제 1 터치 입력의 이동 방향이 반시계 방향인 것에 대응하여, 상기 터치 포지션이 상기 이미지의 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하고,
    상기 터치 세기가 상기 기준 세기 미만인 시점 또는 상기 터치 입력이 중단된 시점 중 어느 하나의 시점에서의 상기 터치 포지션을 상기 사운드 포지션으로 설정하여 사운드 포지션 설정의 완료 여부를 판단하고,
    상기 사운드 포지션은 전방향에서 사운드 크기가 균일하게 들리는 위치를 의미하는,
    사용자 입력 처리 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제 1 항에 있어서,
    상기 제어부는 상기 터치 입력의 이동 방향이 시계 방향 또는 반시계 방향을 따라 이동한 각도에 상응하여 상기 터치 포지션을 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동시키는 것을 특징으로 하는 사용자 입력 처리 장치.
  7. 사운드 포지션을 설정하는 모드로 진입하는 단계;
    사운드 포지션 설정 메뉴를 선택받는 단계;
    이미지를 디스플레이하는 단계;
    사용자로부터 터치 입력을 수신하는 단계;
    상기 이미지 상에 상기 터치 입력에 대응하는 터치 포지션을 표시하는 단계;
    상기 터치 포지션에 가해지는 터치 세기가 기준 세기 이상인 것에 대응하여, 상기 터치 입력의 이동 방향에 기초하여 상기 터치 포지션이 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 단계; 및
    상기 터치 세기가 상기 기준 세기 미만인 시점 또는 상기 터치 입력이 중단된 시점 중 어느 하나의 시점에서의 상기 터치 포지션을 상기 사운드 포지션으로 설정하여 사운드 포지션 설정의 완료 여부를 판단하는 단계;
    를 포함하고,
    상기 제어하는 단계는,
    상기 사용자로부터 제 1 터치 입력을 수신하여 상기 터치 포지션을 인식하고, 상기 터치 포지션이 상기 사용자에 의해 터치된 상태에서 시계 방향 또는 반시계 방향으로의 상기 사용자의 제 2 터치 입력을 수신하여 상기 제 1 터치 입력의 이동 방향을 인식하고,
    상기 제 1 터치 입력의 이동 방향이 시계 방향인 것에 대응하여, 상기 터치 포지션이 상기 이미지의 깊이 방향을 따라 이동하여 표시되도록 제어하고,
    상기 제 1 터치 입력의 이동 방향이 반시계 방향인 것에 대응하여, 상기 터치 포지션이 상기 이미지의 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 단계; 를 포함하고,
    상기 사운드 포지션은 전방향에서 사운드 크기가 균일하게 들리는 위치를 의미하는,
    사용자 입력 처리 방법.
  8. 사운드 포지션을 설정하는 모드에 진입한 것에 대응하여 사용자로부터 터치 입력을 수신하는 입력부;
    이미지를 디스플레이하고, 상기 이미지 상에 상기 터치 입력에 대응하는 터치 포지션을 포함하는 2차원 레이어를 표시하는 디스플레이부; 및
    상기 터치 포지션에 가해지는 터치 세기가 기준 세기 이상인 것에 대응하여, 상기 터치 입력의 이동 방향에 기초하여 상기 2차원 레이어가 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하는 제어부를 포함하고,
    상기 제어부는 상기 사용자로부터 제 1 터치 입력을 수신하여 상기 터치 포지션을 인식하고, 상기 터치 포지션이 상기 사용자에 의해 터치된 상태에서 시계 방향 또는 반시계 방향으로의 상기 사용자의 제 2 터치 입력을 수신하여 상기 제 1 터치 입력의 이동 방향을 인식하고,
    상기 제 1 터치의 이동 방향이 시계 방향을 따라 변하는 경우 상기 2차원 레이어가 상기 이미지의 깊이 방향을 따라 이동하여 표시되도록 제어하고,
    상기 제 1 터치의 이동 방향이 반시계 방향을 따라 변하는 경우 상기 2차원 레이어가 상기 이미지의 리버스 깊이 방향을 따라 이동하여 표시되도록 제어하고,
    상기 터치 세기가 상기 기준 세기 미만인 시점 또는 상기 터치 입력이 중단된 시점 중 어느 하나의 시점에서의 상기 터치 포지션을 상기 사운드 포지션으로 설정하여 사운드 포지션 설정의 완료 여부를 판단하고,
    상기 사운드 포지션은 전방향에서 사운드 크기가 균일하게 들리는 위치를 의미하는,
    사용자 입력 처리 장치.
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 제 8 항에 있어서,
    상기 제어부는 상기 터치 입력의 이동 방향이 시계 방향 또는 반시계 방향을 따라 이동한 각도에 상응하여 상기 2차원 레이어를 상기 이미지의 깊이 방향 또는 리버스 깊이 방향을 따라 이동시키는 것을 특징으로 하는 사용자 입력 처리 장치.
KR1020170069518A 2017-06-05 2017-06-05 사용자 입력 처리 장치 및 처리 방법 KR102348116B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170069518A KR102348116B1 (ko) 2017-06-05 2017-06-05 사용자 입력 처리 장치 및 처리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170069518A KR102348116B1 (ko) 2017-06-05 2017-06-05 사용자 입력 처리 장치 및 처리 방법

Publications (2)

Publication Number Publication Date
KR20180133060A KR20180133060A (ko) 2018-12-13
KR102348116B1 true KR102348116B1 (ko) 2022-01-07

Family

ID=64671178

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170069518A KR102348116B1 (ko) 2017-06-05 2017-06-05 사용자 입력 처리 장치 및 처리 방법

Country Status (1)

Country Link
KR (1) KR102348116B1 (ko)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101416235B1 (ko) * 2008-02-12 2014-07-07 삼성전자주식회사 3차원 위치 입력 방법 및 장치
KR101838719B1 (ko) * 2017-04-21 2018-04-27 주식회사 케이티 멀티 터치를 이용한 표시 정보 회전 방법 및 이를 구현한 단말기

Also Published As

Publication number Publication date
KR20180133060A (ko) 2018-12-13

Similar Documents

Publication Publication Date Title
US10437360B2 (en) Method and apparatus for moving contents in terminal
US8446383B2 (en) Information processing apparatus, operation prediction method, and operation prediction program
US20150199125A1 (en) Displaying an application image on two or more displays
JP4979600B2 (ja) 携帯端末装置、及び表示制御方法
US20140306897A1 (en) Virtual keyboard swipe gestures for cursor movement
US20160004373A1 (en) Method for providing auxiliary information and touch control display apparatus using the same
US20130215018A1 (en) Touch position locating method, text selecting method, device, and electronic equipment
US11003328B2 (en) Touch input method through edge screen, and electronic device
US9030430B2 (en) Multi-touch navigation mode
KR102022288B1 (ko) 터치 입력 방법 및 휴대 단말
KR20100078234A (ko) 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법
JP2002304256A (ja) 情報処理装置
US20090256803A1 (en) System and method for providing simulated mouse drag and click functions for an electronic device
US20210055809A1 (en) Method and device for handling event invocation using a stylus pen
US9304650B2 (en) Automatic cursor rotation
US10509563B2 (en) Dynamic modification of displayed elements of obstructed region
KR20150011885A (ko) 디바이스의 사용자 인터페이스 제공 방법 및 그 디바이스
EP2771766B1 (en) Pressure-based interaction for indirect touch input devices
JP2015207040A (ja) タッチ操作入力装置、タッチ操作入力方法及びプログラム
KR102348116B1 (ko) 사용자 입력 처리 장치 및 처리 방법
US20140362039A1 (en) Input device, information processing device, and program
US20140085340A1 (en) Method and electronic device for manipulating scale or rotation of graphic on display
KR20150122021A (ko) 디스플레이 대상의 이동 방향 조절 방법 및 단말기
KR102296968B1 (ko) 즐겨찾기모드 조작방법 및 이를 수행하는 터치 스크린을 포함하는 장치
US20120056852A1 (en) Electronic apparatus and control method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant