KR101991493B1 - 터치 인터페이스를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말 - Google Patents

터치 인터페이스를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말 Download PDF

Info

Publication number
KR101991493B1
KR101991493B1 KR1020120005131A KR20120005131A KR101991493B1 KR 101991493 B1 KR101991493 B1 KR 101991493B1 KR 1020120005131 A KR1020120005131 A KR 1020120005131A KR 20120005131 A KR20120005131 A KR 20120005131A KR 101991493 B1 KR101991493 B1 KR 101991493B1
Authority
KR
South Korea
Prior art keywords
touch
touch recognition
user input
area
item
Prior art date
Application number
KR1020120005131A
Other languages
English (en)
Other versions
KR20130084389A (ko
Inventor
홍현수
정우진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120005131A priority Critical patent/KR101991493B1/ko
Priority to US13/743,953 priority patent/US9703408B2/en
Publication of KR20130084389A publication Critical patent/KR20130084389A/ko
Application granted granted Critical
Publication of KR101991493B1 publication Critical patent/KR101991493B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명의 일 예에 따른 터치 인터페이스 제공 방법은, 단말의 화면에 적어도 하나의 아이템을 표시하는 단계와; 사용자 입력 수단이 상기 터치 인터페이스에 접근함에 따른 접근 영역을 감지하는 단계와; 상기 접근 영역에 근거하여 상기 사용자 입력 수단의 접근 방향을 결정하는 단계와; 상기 접근 방향에 근거하여 상기 아이템의 터치 인식 영역을 조정하는 단계를 포함한다.

Description

터치 인터페이스를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말{METHOD FOR PROVIDING TOUCH INTERFACE, MACHINE-READABLE STORAGE MEDIUM AND PORTABLE TERMINAL}
본 발명은 터치 인터페이스에 관한 것으로서, 특히 터치 인터페이스를 제공하는 방법에 관한 것이다.
본 발명은 핸드폰, 콘솔, PDA(personal digital assistant), 태블릿 PC(Tablet PC), 랩탑 컴퓨터, 데스크탑 컴퓨터 등과 같은 터치 인터페이스를 구비한 휴대 또는 고정 단말에 관한 것이다.
일반적으로, 터치 인터페이스는 입력 검출 수단을 표시 수단에 통합한 장치를 말하며, 액정 디스플레이(liquid crystal display: LCD)와 같은 화면부(screen unit)과, 상기 화면부의 위에 배치된 터치 패널(touch panel)을 포함한다.
터치 인터페이스는, 기구적 키패드(keypad)를 사용하지 않고 화면(screen)에 나타난 문자나 특정 위치에 사람의 손끝 또는 기타 물체가 닿으면 그 위치를 파악함으로써, 화면 접촉을 통해 사용자의 입력을 수신한다.
터치 인터페이스(또는 터치 패널)의 종류로는 저항막 방식(resistive overlay), 정전용량 방식, 표면 초음파 방식(surface acoustic wave), 적외선 방식(infrared beam) 등이 있다.
그 중에서, 통상적인 정전용량 방식의 터치 인터페이스는, 사용자 입력 수단(예를 들어, 손가락, 스타일러스 펜 등)의 접촉에 따른 터치 패널의 해당 부분의 정전용량의 변화를 감지하고, 터치 영역의 기하학적인 중심점을 찾아 사용자가 터치한 지점으로 결정한다.
터치 인터페이스를 탑재한 휴대 장치는 화면 크기가 크지 않기 때문에, 웹 페이지 등과 같이 한 화면 안에 사용자에 의해 선택될 수 있는 많은 아이템이 표시될 경우에, 사용자가 손가락으로 화면을 눌러 선택할 때 종종 의도한 아이템이 아닌 근처의 다른 아이템이 선택되어 사용자에게 불편함을 초래한다.
전술한 바와 같이, 종래의 터치 인터페이스는 사용자 입력 수단(손가락 등)의 형태적 특성, 자세 등을 고려하지 않고 터치 영역의 기하학적인 중심 좌표를 터치 지점으로 결정하기 때문에, 실제 사용자가 의도한 지점 선택이 되지 않는 경우가 빈번히 발생한다.
따라서, 본 발명의 일 목적은 사용자 입력 수단이 터치 인터페이스에 접근할 때 사용자 입력 수단의 접근 방향, 형태 및 궤적을 인식하여 사용자가 의도한 터치 지점이 선택되도록 하는 방법을 제공하고자 함에 있다.
본 발명의 일 예에 따른 터치 인터페이스 제공 방법은, 단말의 화면에 적어도 하나의 아이템을 표시하는 단계와; 사용자 입력 수단이 상기 터치 인터페이스에 접근함에 따른 접근 영역을 감지하는 단계와; 상기 접근 영역에 근거하여 상기 사용자 입력 수단의 접근 방향을 결정하는 단계와; 상기 접근 방향에 근거하여 상기 아이템의 터치 인식 영역을 조정하는 단계를 포함한다.
본 발명의 일 예에 따른 터치 인터페이스를 갖는 휴대 단말은, 화면에 적어도 하나의 아이템을 표시하고, 사용자 입력 수단이 상기 화면에 접근함에 따른 접근 영역을 감지는 터치 인터페이스와; 상기 접근 영역에 근거하여 상기 사용자 입력 수단의 접근 방향을 결정하고, 상기 접근 방향에 근거하여 상기 아이템의 터치 인식 영역이 조정되도록 상기 터치 인터페이스를 제어하는 제어부를 포함한다.
본 발명에서는 손가락의 터치로 입력을 수행하는 터치 인터페이스에 있어서 사용자의 의도가 정확하게 반영되어 입력이 될 수 있도록 손가락 터치 시의 상황적 특징을 고려하여 터치 인식 영역을 가변적으로 조정하는 방법을 제시함으로써, 사용자에게 보다 쉽게 원하는 아이템을 선택 또는 실행할 수 있는 사용성이 향상된 유저 인터페이스를 제공할 수 있으며, 손가락을 사용하는 터치 인터페이스가 장착된 모든 기기에 적용될 수 있다는 이점이 있다.
도 1은 본 발명의 일 실시 예에 따른 휴대 통신 단말의 개략도,
도 2는 터치 패널이 접근 점을 인식하는 방법을 설명하기 위한 도면,
도 3은 본 발명의 바람직한 실시 예에 따른 터치 인터페이스 제공 방법을 설명하기 위한 흐름도,
도 4는 휴대 통신 단말의 전면을 나타내는 도면,
도 5는 터치 영역을 설명하기 위한 도면,
도 6은 접근 영역을 설명하기 위한 도면,
도 7은 접근 방향 벡터를 산출하는 방법을 설명하기 위한 도면,
도 8은 터치 인식 영역의 확장을 설명하기 위한 도면,
도 9는 확장된 터치 인식 영역의 다양한 형태를 설명하기 위한 도면.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하여 상세하게 설명한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도 1은 본 발명의 일 실시 예에 따른 휴대 통신 단말의 개략도이다. 상기 휴대 통신 단말(100)은 화면부(112) 및 터치 패널(114)을 갖는 터치 인터페이스(110), 제어부(120), 센서부(130), 저장부(140) 및 무선 통신부(150)를 포함한다. 상기 터치 인터페이스(110)는 터치 스크린으로 칭할 수도 있고, 상기 화면부(112)는 디스플레이 유닛(display unit)으로 칭할 수도 있다. 본 예에서, 휴대 통신 단말을 예시하고 있으나, 본 발명은 통신 기능을 갖지 않는 임의의 휴대 단말에도 적용될 수 있다.
상기 화면부(112)는 화상을 표시하며, 상기 화면부(112)는 PDP(Plasma Display Panel), LCD(liquid crystal display), OLED(Organic Light Emitting Diodes), LED 등을 포함할 수 있다.
상기 터치 패널(114)은 화면부(112) 상에 배치되고, 사용자는 상기 터치 인터페이스(110)의 표면(즉, 상기 터치 패널의 표면)에 표시된 다양한 실행 가능한 아이템을 터치하여 상기 아이템과 관련된 애플리케이션 또는 링크 페이지의 실행이 가능하도록 한다. 상기 터치 패널(114)은 상기 휴대 통신 단말(100)의 전면에 배치되고, 상기 화면부(112)는 상기 터치 패널(114)의 아래에 배치된다. 상기 화면부(112)에 의해 생성된 화상은 상기 투명한 터치 패널(114)을 통해 사용자에게 보이게 된다. 본 발명에서, 아이템은 아이콘, 그림, 메뉴, 웹 페이지 상의 링크(텍스트 등으로 표시된) 등을 포함한다.
상기 터치 패널(114)은 정전용량 방식의 터치 패널이고, 상기 터치 패널(114)은 사용자의 손가락이 터치 패널의 표면에 닿거나, 직접 닿지는 않더라도 터치 패널과 일정 거리 안으로 접근하면, 다수의 터치 점들 또는 다수의 접근 점들을 감지하고, 상기 터치 점들이 점유하는 터치 영역의 형태나 면적 정보 또는 상기 접근 점들이 점유하는 접근 영역의 형태나 면적 정보를 추출할 수 있다.
도 2는 상기 터치 패널이 접근 점을 인식하는 방법을 설명하기 위한 도면이다. 사용자 입력 수단이 상기 터치 패널(114)을 터치하거나 이에 접근한 경우에, 터치 또는 근접 위치에 대응하는 시간 구간(220)에서 상기 터치 패널(114)의 감지 신호(210)의 전압은 강하되며, 기준 전압에서 강하되는 정도는 접근한 경우보다 터치한 경우가 크다.
상기 터치 패널(114)은 감지 신호(210)의 전압을 제2 임계 값(TH2)과 비교하고, 제2 임계값보다 이하이면 터치가 이뤄진 것으로 판단한다.
본 발명에서는, 제2 임계값보다 작은 제1 임계 값(TH1)을 설정하고, 상기 터치 패널(114)의 감지 신호(210)의 전압을 제1 및 제2 임계값과 비교하고, 제1 임계값 이하이고 제2 임계값보다 크면 접근이 이뤄진 것으로 판단한다.
상기 제어부(120)는 중앙처리장치로서 휴대 통신 단말(100)의 전반적인 동작을 제어한다.
상기 센서부(130)는 휴대 통신 단말(100)의 위치, 방위, 움직임을 감지하는 센서로서, 가속도 센서, 중력센서, 충격센서, GPS, 나침반 센서 및 가속도 센서 중 적어도 하나를 포함한다.
상기 저장부(140)는 상기 휴대 통신 단말(100)의 운영 시스템, 다양한 애플리케이션들, 상기 휴대 통신 단말(100)로 입력되는 정보 및 그 내부에서 생성되는 정보 등을 저장한다. 상기 저장부(140)로는 비휘발성 메모리를 사용할 수 있다.
상기 무선 통신부(150)는 상기 제어부(120)로부터의 데이터를 무선 송신하거나 대기로부터 데이터를 무선 수신하여 상기 제어부(120)로 전달한다.
도 3은 본 발명의 바람직한 실시 예에 따른 터치 인터페이스 제공 방법을 설명하기 위한 흐름도이다. 상기 방법은 아이템 표시 단계(310), 접근 영역 감지 단계(320)와, 접근 방향 결정 단계(330)와, 아이템에 할당된 터치 인식 영역을 조정하는 단계(340)와, 터치 인식 단계(350)를 포함한다.
상기 아이템 표시 단계(310)에서, 제어부(120)는 상기 휴대 통신 단말(100)의 화면에 선택 또는 실행 가능한 다수의 아이템을 표시한다.
도 4는 휴대 통신 단말의 전면을 나타내는 도면이다.
상기 휴대 통신 단말(100)의 화면(116)에는 손가락과 같은 사용자 입력 수단(410)에 의해 선택 또는 실행 가능한 다수의 아이템들(420)이 표시되며, 상기 아이템들(420)은 상기 휴대 통신 단말(100)의 애플리케이션들과 각각 연관된다. 예를 들어, 상기 애플리케이션들은 전화, 전화번호부, 메시지, 게임, DMB 등일 수 있다. 사용자는 상기 아이템(420)을 선택하여 이동하거나, 상기 아이템(420)의 편집 메뉴를 실행하거나, 상기 아이템(420)과 연관된 애플리케이션을 실행할 수 있다.
상기 접근 영역 감지 단계(320)에서, 터치 패널(114)은 상기 휴대 통신 단말(100)의 화면(116)에 표시된 다수의 아이템들(420) 중 한 아이템에 접근하는 사용자 입력 수단(410)에 의해 형성되는 접근 영역을 감지한다.
도 5는 터치 영역을 설명하기 위한 도면이다.
도 5의 (a)는, 손가락들과 같은 사용자 입력 수단들(412, 414)이 아이템들(422, 424)을 터치하고 있는 모습을 나타낸다. 대부분의 사용자는 아이템에 표시된 텍스트 또는 그림을 확인하면서 아이템을 선택하기 때문에, 아이템의 모서리 부분을 터치하는 경향이 있다. 즉, 오른쪽 손가락을 이용하는 경우에는, 아이템의 오른쪽 모서리 부분을 터치하고, 왼쪽 손가락을 이용하는 경우에는, 아이템의 왼쪽 모서리 부분을 터치하게 된다.
도 5의 (b)에 도시된 바와 같이, 상기 터치 패널(114)은 사용자 입력 수단(412, 414)이 상기 터치 패널(114)을 터치하면 다수의 터치 점들을 감지하고, 상기 제어부(120)는 상기 터치 점들이 분포하는 터치 영역(510, 520)의 기하학적인 중심 좌표(512, 522)를 터치 지점으로 결정한다. 사용자는 아이템(422, 424)을 실행하려는 의도로 터치 패널(114)을 터치하였으나, 터치 점들의 중심 좌표(512, 522)가 아이템(422, 424)으로부터 벗어나 있기 때문에, 상기 아이템(422, 424)이 선택 또는 실행되지 못함을 알 수 있다.
도 6은 접근 영역을 설명하기 위한 도면이다. 도 6의 (a)는, 사용자 입력 수단들(412, 414)이 아이템들(422, 424)에 접근한 모습을 나타낸다.
도 6의 (b)에 도시된 바와 같이, 상기 터치 패널(114)은 사용자 입력 수단(412, 414)이 상기 터치 패널(114)에 접근하면 다수의 접근 점들을 감지하고, 상기 제어부(120)는 상기 접근 점들이 분포하는 접근 영역(610, 620)을 감지한다.
상기 접근 방향 결정 단계(330)에서, 상기 제어부(120)는 상기 접근 점들이 분포하는 접근 영역의 외곽 형태, 접근 영역 내 밀도 분포, 접근 영역(또는 접근 영역의 중심 좌표)의 이동 궤적 중의 적어도 하나를 이용하여 사용자 입력 수단의 접근 방향을 산출한다.
도 7은 접근 방향 벡터를 산출하는 방법을 설명하기 위한 도면이다.
도 7의 (a)를 참고하면, 상기 제어부(120)는 접근 점들이 분포하는 접근 영역(710)의 외곽 형태에 근거하여 사용자 입력 수단의 접근 방향 벡터(720)를 산출한다. 저장부(140)에는 사용자 입력 수단이 가질 수 있는 접근 영역의 패턴들이 저장되어 있으며, 상기 제어부(120)는 패턴 매칭을 통해 접근 방향 벡터를 산출할 수 있다. 즉, 상기 제어부(120)는 저장부(140)에 미리 저장된 접근 영역의 패턴들 중에서 상기 감지된 접근 영역과 유사한 패턴을 검출하고, 상기 검출된 패턴에 미리 정의된 접근 방향 벡터를 상기 감지된 접근 영역의 방위에 맞추어 회전함으로써 상기 감지된 접근 영역의 접근 방향 벡터를 산출할 수 있다. 이러한 접근 방향 벡터는 상기 감지된 접근 영역의 크기(또는 길이)에 대응되는 크기를 갖거나, 1과 같은 단위 크기를 가질 수 있다. 본 발명에서, 접근 방향 벡터의 산출은 사용자 입력 수단의 접근 방향을 결정하기 위한 하나의 수단으로서 예시되는 것이고, 접근 방향 벡터를 반드시 산출해야 하는 것은 아님에 주의해야 한다.
예시된 바와 같이, 접근 영역(710)은 폭이 넓은 머리 부분과 폭이 좁은 꼬리 부분을 갖는 형태(즉, 물방울 또는 혜성 형태)를 가질 수 있으며, 상기 꼬리 부분에서 머리 부분으로 향하는 접근 방향 벡터(720)를 산출할 수 있다. 이러한 접근 영역(710)의 형태는 사용자 입력 수단의 형태 또는 사용자 입력 수단이 기울어진 상태로 화면에 접근하는 것에 기인한다.
도 7의 (b)를 참고하면, 상기 제어부(120)는 접근 영역(712) 내 밀도 분포에 근거하여 사용자 입력 수단의 접근 방향 벡터(722)를 산출한다. 상기 접근 영역(712) 내 접근 점들(713)의 밀도 분포는 밀한 부분과 소한 부분을 갖는 형태를 가질 수 있으며, 상기 소한 부분에서 밀한 부분으로 향하는 접근 방향 벡터(722)를 산출할 수 있다. 이러한 접근 영역(712)의 형태는 사용자 입력 수단이 기울어진 상태로 화면에 접근하는 것에 기인한다.
도 7의 (c)를 참고하면, 상기 제어부(120)는 접근 영역(714, 716)(또는 접근 영역의 중심 좌표)의 이동 궤적(730)에 근거하여 사용자 입력 수단의 접근 방향 벡터(717)를 산출한다. 상기 제어부(120)는 접근 영역을 미리 설정된 시간 주기로 추적함으로써, 상기 접근 영역의 이동 궤적을 파악한다. 상기 제어부는 이전 접근 영역(714)과 현재 접근 영역(716)의 변위에 근거하여, 현재 접근 영역(716)의 접근 방향 벡터(717)를 산출할 수 있다. 본 발명에서, 접근 영역의 중심 좌표는 접근 영역의 기하학적인 중심 좌표(예를 들어, 원의 중심 등)나, 가중치가 적용된 중심 좌표(통상의 무게 중심과 유사하게 접근 점들의 밀도를 반영한 중심 좌표)나, 접근 방향 벡터의 종점(즉, 도시된 화살표의 머리끝 부분)으로 설정될 수 있다.
한편, 상기 제어부(120)는 접근 영역의 패턴, 길이, 밀도 분포, 이동 궤적 등에 근거하여 사용자 입력 수단의 기울임 각도를 추정할 수 있으며, 상기 접근 영역의 형태와 상기 사용자 입력 수단의 기울임 각도에 근거한 3차원의 접근 방향 벡터를 산출할 수도 있다. 즉, 상기 3차원의 접근 방향 벡터는 단위 크기를 가지면서 방향 및 각도로 표현될 수 있다. 또한, 상기 접근 방향 벡터가 상기 접근 영역의 길이(또는 크기)에 대응되는 크기를 갖는 경우에, 상기 접근 방향 벡터의 크기는 사용자 입력 수단의 기울임 각도에 대한 정보를 나타낼 수 있다. 예를 들어, 사용자 입력 수단이 터치 패널(114)에 수직인 방향에서 접근하는 경우에, 접근 영역의 패턴 자체가 수직 접근을 나타내거나, 접근 영역의 길이가 미리 설정된 값 이내이거나, 시간의 흐름에 따라 접근 영역의 크기가 점차 증가하거나, 접근 영역 내 접근 점들의 밀도 분포가 점차 증가할 수 있고, 상기 제어부(120)는 이러한 크기, 밀도 분포 등의 변화를 감지하여 3차원의 접근 방향 벡터(예를 들어, 터치 패널(114)에 수직인 벡터)를 산출할 수 있다.
상기 아이템에 할당된 터치 인식 영역을 조정하는 단계(340)에서, 상기 제어부(120)는 사용자 입력 수단의 접근 방향에 근거하여 접근 영역 측으로 상기 터치 인식 영역을 조정한다. 바람직하게는, 상기 제어부(120)는 사용자 입력 수단의 접근 방향의 역방향으로 상기 터치 인식 영역을 확장한다. 이때, 상기 제어부(120)는 사용자가 용이하게 확장된 터치 인식 영역을 확인할 수 있도록, 터치 인식 영역의 확장 부분을 표시할 수 있다. 본 예에서는, 터치 인식 영역의 조정으로서 확장을 예시하고 있으나, 이러한 터치 인식 영역의 조정은 확장, 일 부분의 연장 등과 같은 변형(예를 들어, 정사각형에서 직사각형으로의 변형, 직사각형에서 타원형으로의 변형 등)이나, 위치 이동, 변형과 이동의 조합 등을 포함한다.
도 8은 터치 인식 영역의 확장을 설명하기 위한 도면이다.
도 8의 (a)는, 사용자 입력 수단들(412, 414)이 아이템들(422, 424)에 접근한 모습을 나타낸다.
도 8의 (b)에 도시된 바와 같이, 상기 제어부(120)는 상기 각 아이템(422, 424)에 할당된 터치 인식 영역을 사용자 입력 수단(412, 414)의 접근 방향의 역방향으로 확장한다. 도 8의 (b)에 도시된 바와 같이, 아이템(422, 424)의 형태 및 면적과 동일 또는 유사한 형태 및 면적을 갖는 확장 전 터치 인식 영역은 상기 아이템의 형태(즉, 모서리가 둥근 사각형)를 유지하면서 확장될 수 있다. 도시된 바와 같이, 확장된 터치 인식 영역(810, 820)은 상기 아이템(422, 424)이 차지하는 기존 터치 인식 부분과 사용자 입력 수단(412, 414)의 접근 방향의 역방향으로 연장된 확장된 터치 인식 부분(812, 822)을 포함하는 것을 알 수 있다.
본 발명에 따라 터치 인식 영역은 다양한 형태로 확장될 수 있으며, 이때 터치 인식 영역은 접근 영역의 중심 좌표를 포함하도록 확장되는 것이 바람직하다.
도 9는 확장된 터치 인식 영역의 다양한 형태를 설명하기 위한 도면이다.
도 9의 (a)를 참고하면, 확장된 터치 인식 영역(910, 920)은 상기 아이템(422, 424)이 차지하는 기존 터치 인식 부분과, 사용자 입력 수단(412, 414)의 접근 방향의 역방향으로 연장되고 원형 또는 타원의 형태를 갖는 확장된 터치 인식 부분(912, 922)을 포함하는 것을 알 수 있다.
도 9의 (b)를 참고하면, 확장된 터치 인식 영역(940)은 아이템(426)이 차지하는 기존 터치 인식 부분과, 접근 영역(930)의 중심 좌표(932)를 포함하도록 확장된 터치 인식 부분(942)을 포함하는 것을 알 수 있다.
도 9의 (c)를 참고하면, 접근 영역(950)은 아이템(426)이 차지하는 기존 터치 인식 부분과 중첩되지 않으며, 확장된 터치 인식 영역(960)은 접근 영역(950)의 중심 좌표(952)를 포함하지 않고, 확장된 터치 인식 영역(960)은 상기 아이템(426)이 차지하는 기존 터치 인식 부분과, 상기 접근 영역(950)과 적어도 중첩되도록 확장된 터치 인식 부분(962)을 포함하는 것을 알 수 있다.
도 9의 (d)를 참고하면, 접근 영역(970)은 아이템(426)이 차지하는 기존 터치 인식 부분과 중첩되지 않으며, 확장된 터치 인식 영역(980)은 상기 아이템(426)이 차지하는 기존 터치 인식 부분과, 접근 영역(970)의 중심 좌표(972)를 포함하도록 확장된 터치 인식 부분(982)을 포함하는 것을 알 수 있다.
상기 터치 인식 단계(350)에서, 사용자 입력 수단이 터치 패널(114)을 터치하고 중심 좌표로 결정되는 터치 지점이 확장된 터치 인식 영역 내에 있으면, 상기 제어부(120)는 상기 확장된 터치 인식 영역이 할당된 아이템이 선택되도록 하거나, 상기 아이템의 편집 메뉴를 실행하거나, 상기 아이템과 연관된 애플리케이션을 실행할 수 있다.
전술한 바와 같이, 터치 인식 영역을 사용자 입력 수단(손가락, 스타일러스 펜 등)의 접근 방향에 따라 조절해주면 기존과 같이 터치 인식 영역을 일정하게 고정 유지하는 경우보다 터치에 의한 선택 성공률을 향상시킬 수 있다.
본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계로 읽을 수 있는 저장 매체에 저장될 수 있다. 저장부는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다.
100: 휴대 통신 단말, 110: 터치 인터페이스, 112: 화면부, 114: 터치 패널, 130: 센서부, 140: 저장부, 150: 무선 통신부

Claims (15)

  1. 터치 인터페이스 제공 방법에 있어서,
    단말의 화면에 제1 형태를 갖는 적어도 하나의 아이템을 표시하는 단계와;
    사용자 입력 수단이 상기 터치 인터페이스에 접근함에 따른 접근 영역을 감지하는 단계와;
    상기 접근 영역에 근거하여 상기 사용자 입력 수단의 접근 방향을 결정하는 단계와;
    상기 접근 방향에 근거하여 상기 아이템의 터치 인식 영역을 조정하는 단계를 포함하고,
    상기 조정 단계에서, 상기 터치 인식 영역의 형태를 상기 제1 형태로부터 상기 제1 형태와는 다른 제2 형태로 변형하고,
    상기 조정된 터치 인식 영역은 상기 아이템이 차지하는 기존 터치 인식 부분과 상기 사용자 입력 수단의 접근 방향의 역방향으로 연장된 확장된 터치 인식 부분을 포함하고,
    상기 기존 터치 인식 부분의 형태와 상기 확장된 터치 인식 부분의 형태는 서로 다르고,
    상기 확장된 터치 인식 부분은 상기 아이템과 함께 표시됨을 특징으로 하는 터치 인터페이스 제공 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 접근 방향은 상기 접근 영역의 외곽 형태 및 상기 사용자 입력 수단의 기울임 각도에 근거하여 결정되는 3차원의 접근 방향임을 특징으로 하는 터치 인터페이스 제공 방법.
  5. 제1항에 있어서,
    상기 아이템의 터치 인식 영역은 상기 접근 영역과 중첩되도록 조정됨을 특징으로 하는 터치 인터페이스 제공 방법.
  6. 제1항에 있어서,
    상기 아이템의 터치 인식 영역은 상기 접근 영역의 중심 좌표를 포함하도록 조정됨을 특징으로 하는 터치 인터페이스 제공 방법.
  7. 제1항에 있어서, 상기 접근 방향을 결정하는 단계는,
    상기 접근 영역으로부터 상기 사용자 입력 수단의 접근 방향을 나타내는 접근 방향 벡터를 산출하는 단계를 포함함을 특징으로 하는 터치 인터페이스 제공 방법.
  8. 제1항에 있어서,
    상기 사용자 입력 수단이 상기 조정된 터치 인식 영역을 터치하는 것을 인식하는 터치 인식 단계를 더 포함함을 특징으로 하는 터치 인터페이스 제공 방법.
  9. 제1항 및 제4~8항 중 어느 한 항에 따른 터치 인터페이스 제공 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체.
  10. 제9항의 기계로 읽을 수 있는 저장 매체를 포함하는 휴대 단말.
  11. 터치 인터페이스를 갖는 휴대 단말에 있어서,
    화면에 제1 형태를 갖는 적어도 하나의 아이템을 표시하고, 사용자 입력 수단이 상기 화면에 접근함에 따른 접근 영역을 감지는 터치 인터페이스와;
    상기 접근 영역에 근거하여 상기 사용자 입력 수단의 접근 방향을 결정하고, 상기 접근 방향에 근거하여 상기 아이템의 터치 인식 영역이 조정되도록 상기 터치 인터페이스를 제어하는 제어부를 포함하고,
    상기 터치 인식 영역의 조정을 위해, 상기 제어부는 상기 터치 인식 영역의 형태를 상기 제1 형태로부터 상기 제1 형태와는 다른 제2 형태로 변형하고,
    상기 조정된 터치 인식 영역은 상기 아이템이 차지하는 기존 터치 인식 부분과 상기 사용자 입력 수단의 접근 방향의 역방향으로 연장된 확장된 터치 인식 부분을 포함하고,
    상기 기존 터치 인식 부분의 형태와 상기 확장된 터치 인식 부분의 형태는 서로 다르고,
    상기 확장된 터치 인식 부분은 상기 아이템과 함께 표시됨을 특징으로 하는 휴대 단말.
  12. 삭제
  13. 삭제
  14. 제11항에 있어서,
    상기 제어부는 상기 접근 영역의 외곽 형태 및 상기 사용자 입력 수단의 기울임 각도에 근거하여 3차원의 접근 방향을 결정함을 특징으로 하는 휴대 단말.
  15. 제11항에 있어서,
    상기 터치 인터페이스는 상기 사용자 입력 수단의 접근 또는 접촉에 따라 발생하는 감지 신호를 제1 및 제2 임계값과 비교하고, 상기 감지 신호의 전압이 제2 임계값 이하이고 제1 임계값보다 크면 상기 사용자 입력 수단이 상기 터치 인터페이스와의 접촉 없이 접근한 것으로 판단함을 특징으로 하는 휴대 단말.
KR1020120005131A 2012-01-17 2012-01-17 터치 인터페이스를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말 KR101991493B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120005131A KR101991493B1 (ko) 2012-01-17 2012-01-17 터치 인터페이스를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말
US13/743,953 US9703408B2 (en) 2012-01-17 2013-01-17 Apparatus and method for adjusting a touch recognition area in a touch interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120005131A KR101991493B1 (ko) 2012-01-17 2012-01-17 터치 인터페이스를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말

Publications (2)

Publication Number Publication Date
KR20130084389A KR20130084389A (ko) 2013-07-25
KR101991493B1 true KR101991493B1 (ko) 2019-06-20

Family

ID=48779617

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120005131A KR101991493B1 (ko) 2012-01-17 2012-01-17 터치 인터페이스를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말

Country Status (2)

Country Link
US (1) US9703408B2 (ko)
KR (1) KR101991493B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023018110A1 (ko) * 2021-08-10 2023-02-16 삼성전자주식회사 핸들 부분을 이용한 어플리케이션의 이동 방법 및 장치

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6233040B2 (ja) * 2014-01-17 2017-11-22 富士通株式会社 入力装置,表示制御方法,プログラム及び集積回路装置
KR102227290B1 (ko) * 2014-06-18 2021-03-15 엘지전자 주식회사 이동단말기 및 그 제어방법
US10114545B2 (en) * 2014-09-03 2018-10-30 Intel Corporation Image location selection for use in depth photography system
JP6429623B2 (ja) * 2014-12-26 2018-11-28 三菱電機株式会社 タッチ領域設定方法およびタッチ領域設定装置
US10564770B1 (en) * 2015-06-09 2020-02-18 Apple Inc. Predictive touch detection
US10564762B2 (en) * 2015-09-17 2020-02-18 Canon Kabushiki Kaisha Electronic apparatus and control method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025903A (ja) 2007-07-17 2009-02-05 Konica Minolta Business Technologies Inc 入力装置、入力受付処理方法及び入力受付処理プログラム
JP2009037343A (ja) 2007-07-31 2009-02-19 Hoya Corp タッチパネル及び内視鏡装置のプロセッサ
JP2011134120A (ja) 2009-12-24 2011-07-07 Brother Industries Ltd 入力装置および入力制御プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE188302T1 (de) * 1993-04-01 2000-01-15 Ibm Dynamische anpassungseinrichtung für berührungsanzeigeknöpfe
DE4406668C2 (de) * 1993-04-27 1996-09-12 Hewlett Packard Co Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts
JP2003344086A (ja) * 2002-05-28 2003-12-03 Pioneer Electronic Corp タッチパネル装置及び自動車用表示入力装置
KR20080029028A (ko) 2006-09-28 2008-04-03 삼성전자주식회사 터치 스크린을 갖는 단말기의 문자 입력 방법
EP2212762A4 (en) * 2007-11-19 2011-06-29 Cirque Corp TOUCH PANEL COMBINED ON SCREEN AND HAVING PROXIMITY AND TOUCH SENSING CAPABILITIES
US8681093B2 (en) * 2008-02-11 2014-03-25 Apple Inc. Motion compensation for screens
KR101537684B1 (ko) 2008-05-20 2015-07-20 엘지전자 주식회사 이동 단말기 및 그 이동 단말기를 위한 근접 터치의 인식률교정방법
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
KR101495351B1 (ko) 2008-06-27 2015-02-24 엘지전자 주식회사 근접 터치 감지 기능을 갖는 휴대 단말기
US9030418B2 (en) 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
KR101436608B1 (ko) * 2008-07-28 2014-09-01 삼성전자 주식회사 터치 스크린을 구비한 휴대 단말기 및 그 휴대 단말기에서커서 표시 방법
EP3232315B1 (en) * 2008-11-25 2021-08-25 Samsung Electronics Co., Ltd. Device and method for providing a user interface
JP4743267B2 (ja) * 2008-12-12 2011-08-10 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9024886B2 (en) 2009-04-14 2015-05-05 Japan Display Inc. Touch-panel device
TWI396123B (zh) * 2009-04-28 2013-05-11 Raydium Semiconductor Corportation 光學式觸控系統及其運作方法
US8619065B2 (en) * 2011-02-11 2013-12-31 Microsoft Corporation Universal stylus device
US8736564B2 (en) * 2011-05-25 2014-05-27 Blackberry Limited Proximity detection between a mobile device and a related object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009025903A (ja) 2007-07-17 2009-02-05 Konica Minolta Business Technologies Inc 入力装置、入力受付処理方法及び入力受付処理プログラム
JP2009037343A (ja) 2007-07-31 2009-02-19 Hoya Corp タッチパネル及び内視鏡装置のプロセッサ
JP2011134120A (ja) 2009-12-24 2011-07-07 Brother Industries Ltd 入力装置および入力制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023018110A1 (ko) * 2021-08-10 2023-02-16 삼성전자주식회사 핸들 부분을 이용한 어플리케이션의 이동 방법 및 장치

Also Published As

Publication number Publication date
US9703408B2 (en) 2017-07-11
KR20130084389A (ko) 2013-07-25
US20130181924A1 (en) 2013-07-18

Similar Documents

Publication Publication Date Title
KR101991493B1 (ko) 터치 인터페이스를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말
US11755137B2 (en) Gesture recognition devices and methods
US10649552B2 (en) Input method and electronic device using pen input device
US8937602B2 (en) System and method for rocking finger and static finger detection on an input device
US8490013B2 (en) Method and apparatus for single touch zoom using spiral rotation
EP2624106A2 (en) System and method for calibrating an input device
US8970519B2 (en) System and method for spurious signal detection and compensation on an input device
JP5323987B2 (ja) ユーザ入力オブジェクトのサイズ及び/又は方位角を検出し且つそれに応答する電子デバイス用ディスプレイ
RU2420784C2 (ru) Снижение случайной активизации сенсорного устройства
EP2631766B1 (en) Method and apparatus for moving contents in terminal
US10365748B2 (en) Smart touch location predictor based on direction vector
US9195322B2 (en) Input apparatus and input controlling method thereof
KR20150011885A (ko) 디바이스의 사용자 인터페이스 제공 방법 및 그 디바이스
US20130088427A1 (en) Multiple input areas for pen-based computing
KR20150077914A (ko) 입력을 감지하는 전자 장치 및 방법
KR102210045B1 (ko) 전자장치의 입력 제어장치 및 방법
KR101966585B1 (ko) 공간터치장치 및 이를 포함하는 디스플레이 장치
KR20140086805A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체
KR20160096434A (ko) 키패드의 감도를 조절하는 전자 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right