KR101179466B1 - 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법 - Google Patents

터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법 Download PDF

Info

Publication number
KR101179466B1
KR101179466B1 KR1020090089598A KR20090089598A KR101179466B1 KR 101179466 B1 KR101179466 B1 KR 101179466B1 KR 1020090089598 A KR1020090089598 A KR 1020090089598A KR 20090089598 A KR20090089598 A KR 20090089598A KR 101179466 B1 KR101179466 B1 KR 101179466B1
Authority
KR
South Korea
Prior art keywords
screen
finger
touch
mobile terminal
dynamic element
Prior art date
Application number
KR1020090089598A
Other languages
English (en)
Other versions
KR20110032210A (ko
Inventor
홍상우
유병철
김경진
임민주
서승교
양재모
김건오
박명순
강석훈
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020090089598A priority Critical patent/KR101179466B1/ko
Publication of KR20110032210A publication Critical patent/KR20110032210A/ko
Application granted granted Critical
Publication of KR101179466B1 publication Critical patent/KR101179466B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 휴대단말 및 그의 객체 표시 방법에 관한 것으로, 화면 상에서 사용자가 목표로 하는 객체의 선택을 안내하여 목표하는 객체 이외의 다른 객체를 터치하는 입력 오류를 최소화하기 위한 것이다. 본 발명에 따르면, 표시부는 화면에 적어도 하나의 객체를 표시한다. 감지부는 손가락 또는 터치기구가 화면에 근접하는 지의 여부를 감시한다. 그리고 제어부는 감지부로부터 손가락 또는 터치기구의 화면 근접에 따른 감지신호를 수신하면, 수신한 감지신호를 기반으로 손가락 또는 터치기구의 화면 상에서의 위치를 산출하고, 적어도 하나의 객체 중에서 산출된 위치에 매핑된 특정 객체를 선택하고, 선택한 객체에 동적요소를 부가하여 표시부에 표시한다. 이때 감지부는 카메라, 적외선 센서, 근접 센서, 정전용량 센서, RF(Radio Frequency) 센서 및 초음파 센서 중에 적어도 하나를 포함할 수 있다. 손가락 또는 터치기구의 화면 상에서의 위치는 카메라 비전 방식, 적외선 방식, 정전용량 방식, 초음파 방식 등을 이용하여 산출할 수 있다. 그리고 동적요소는 진동, 깜박거림, 회전, 동적 광고 객체 부가 및 광고 객체로의 전환 중에 적어도 하나를 포함할 수 있다.
객체, 동적요소, 터치스크린, 근접, 터치

Description

터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법{Mobile terminal and method for displaying object using approach sensing of touch tool thereof}
본 발명은 휴대단말의 객체 표시 기술에 관한 것으로, 더욱 상세하게는 손가락 또는 터치기구가 화면의 특정 객체에 근접하면 해당 객체에 동적요소를 부가하여 다른 객체와는 구별되게 표시하는 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법에 관한 것이다.
유무선 통신망을 이용한 정보 통신 기술은 소비자의 구매를 자극하는 새로운 기술 및 기능으로 인하여 짧은 기간에 대단히 빠른 성장을 하고 있다. 특히 휴대단말은 그 기술의 발달로 인하여 단순한 어플리케이션을 수행하는 단계를 넘어서서 사용자들의 요구에 맞는 다양한 어플리케이션들이 설치되고 있다. 이로 인해 사용자는 휴대단말을 통하여 음성 정보, 문자 정보, 화상 정보, MP3(MPEG(Moving Picture Experts Group) layer 3), 게임 등을 이용할 수 있다. 이때 사용자는 휴대단말에 마련된 키패드, 터치스크린, 조이스틱, 스크롤 휠 등의 입력장치를 이용하여 휴대단말을 조작하거나 휴대단말에 필요한 정보를 입력할 수 있다.
특히 최근의 휴대단말은 표시부와 입력부의 기능을 동시에 수행할 수 있는 터치스크린의 장착이 확대되고 있다. 사용자는 터치스크린의 터치를 통하여 휴대단말의 응용프로그램을 실행하고, 필요한 기능을 수행한다. 예를 들어 휴대단말의 터치스크린에 표시되는 아이콘이나 메뉴바의 터치를 통하여 응용프로그램의 기능을 실행할 수 있다. 따라서 응용프로그램의 실행이라는 측면에서 터치스크린 방식이 통상적인 키패드 방식에 비하여 사용자에게 편리성을 제공하고 있다.
하지만 휴대단말은 화면 크기의 제약으로 터치스크린에 표시되는 영상, 메뉴, 리스트, 아이콘 등과 같은 객체가 작게 표시된다. 이로 인해 사용자가 터치스크린에 표시된 특정 객체를 터치하여 선택할 때, 목표로 하는 특정 객체에 인접한 다른 객체를 잘못 선택하는 경우가 발생될 수 있다.
따라서, 본 발명의 목적은 사용자가 손가락이나 터치기구를 통하여 선택하고자 하는 객체를 정확히 터치할 수 있도록 안내하는 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법을 제공하는 데 있다.
상기 목적을 달성하기 위하여, 본 발명은 표시부, 감지부 및 제어부를 포함하여 구성되는 휴대단말을 제공한다. 상기 표시부는 화면에 적어도 하나의 객체를 표시한다. 상기 감지부는 손가락 또는 터치기구가 상기 화면에 근접하는 지의 여부를 감시한다. 그리고 상기 제어부는 상기 감지부로부터 손가락 또는 터치기구의 화면 근접에 따른 감지신호를 수신하면, 상기 수신한 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하고, 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 특정 객체를 선택하고, 상기 선택한 특정 객체에 동적요소를 부가하여 상기 표시부에 표시한다.
본 발명에 따른 휴대단말에 있어서, 상기 감지부는 상기 손가락 또는 터치기구가 근접한 상기 화면 상에서의 위치 정보를 포함하는 상기 감지신호를 상기 제어부로 전송할 수 있다.
본 발명에 따른 휴대단말에 있어서, 상기 감지부는 카메라, 적외선 센서, 근접 센서, 정전용량 센서, RF(Radio Frequency) 센서 및 초음파 센서 중에 적어도 하나를 포함할 수 있다.
본 발명에 따른 휴대단말은 상기 적어도 하나의 객체에 각각 대응되게 설정된 동적요소를 부가하여 표시하는 방식을 저장하는 저장부를 더 포함할 수 있다.
본 발명에 따른 휴대단말에 있어서, 상기 감지부는 상기 표시부의 표시패널 위에 설치되어 상기 손가락 또는 터치기구의 근접 또는 터치를 감지하는 터치패널일 수 있다. 이때 상기 감지부는 정전용량 방식 또는 적외선 방식으로 상기 손가락 또는 터치기구의 근접 또는 터치를 감지할 수 있다.
본 발명에 따른 휴대단말에 있어서, 상기 표시부는 상기 손가락 또는 터치기구의 터치를 감지하는 터치스크린일 수 있다.
본 발명은 또한, 휴대단말이 화면에 적어도 하나의 객체를 표시하는 단계, 상기 적어도 하나의 객체 중에서 제1 객체에 손가락 또는 터치기구가 근접하면, 상기 휴대단말이 상기 제1 객체에 동적요소를 부가하여 표시하는 단계를 포함하는 휴대단말의 객체 표시 방법을 제공한다.
본 발명에 따른 객체 표시 방법에 있어서, 상기 제1 객체에 동적요소를 부가하여 표시하는 단계는 상기 휴대단말이 상기 화면에 근접한 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계, 상기 휴대단말이 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 제1 객체를 선택하고, 상기 선택한 제1 객체에 동적요소를 부가하여 표시하는 단계를 포함할 수 있다.
본 발명에 따른 객체 표시 방법에 있어서, 상기 위치를 산출하는 단계는 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 임계거리 이내로 상기 화면에 근접하는 지의 여부를 감시하는 단계, 상기 감지부로부터 상기 임계거리 이내로 상기 화면에 근접한 상기 손가락 또는 터치기구에 대한 제1 감지신호를 수신하면, 상기 휴대단말이 상기 제1 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계를 포함할 수 있다.
본 발명에 따른 객체 표시 방법에 있어서, 상기 위치를 산출하는 단계에서 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치는 카메라 비전 방식, 적외선 방식, 정전용량 방식 및 초음파 방식 중에 적어도 하나의 방식을 이용하여 산출할 수 있다.
본 발명에 따른 객체 표시 방법에 있어서, 상기 제1 객체에 동적요소를 부가하여 표시하는 단계에서, 상기 동적요소는 진동, 깜박거림, 회전, 크기 변환, 동적 광고 객체 부가 및 광고 객체로의 전환 중에 적어도 하나를 포함할 수 있다. 또는 상기 휴대단말이 상기 제1 객체에 포인터를 표시할 수 있다.
본 발명에 따른 객체 표시 방법은 상기 제1 객체에 동적요소를 부가하여 표시하는 단계 이후에 수행되는, 상기 손가락 또는 터치기구가 상기 화면에서 임계거리 밖으로 이동하면, 상기 휴대단말이 상기 제1 객체에 대한 동적요소 표시를 종료하는 단계를 더 포함할 수 있다.
본 발명에 따른 객체 표시 방법에 있어서, 상기 동적요소 표시를 종료하는 단계는 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 상기 화면에서 임계거리 밖으로 이동하는 지를 감시하는 단계, 상기 감지부로부터 상기 임계거리 밖으로 이동한 상기 손가락 또는 터치기구에 대한 제2 감지신호를 수신하면, 상기 휴대단말이 상기 제1 객체에 대한 동적요소 표시를 종료하는 단계를 포함할 수 있다. 이때 상기 임계거리는 수직 임계거리일 수 있다.
본 발명에 따른 객체 표시 방법은 상기 제1 객체에 동적요소를 부가하여 표시하는 단계 이후에 수행되는, 상기 손가락 또는 터치기구가 상기 화면에 근접한 상태에서 이동하되, 상기 제1 객체를 중심으로 수평 임계거리 밖으로 이동하면, 상기 휴대단말이 상기 제1 객체에 대한 동적요소 표시를 종료하고, 상기 손가락 또는 터치기구가 이동하여 근접한 지점에 위치한 제2 객체에 동적요소를 부가하여 표시하는 단계를 더 포함할 수 있다.
본 발명에 따른 객체 표시 방법에 있어서, 상기 제2 객체에 동적요소를 부가하여 표시하는 단계는 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 상기 제1 객체의 위치에서 상기 수평 임계거리 밖으로 이동하는 지를 감시하는 단계, 상기 감지부로부터 상기 수평 임계거리 밖으로 이동한 상기 손가락 또는 터치기구에 대한 제3 감지신호를 수신하면, 상기 휴대단말이 상기 제1 객체에 대한 동적요소 표시를 종료하는 단계, 상기 휴대단말이 상기 제3 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계, 상기 휴대단말이 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 제2 객체를 선택하고, 상기 선택한 제2 객체에 동적요소를 부가하여 표시하는 단계를 포함할 수 있다.
본 발명에 따른 객체 표시 방법은 제1 객체에 동적요소를 부가하여 표시하는 단계 이후에 수행되는, 상기 손가락 또는 터치기구가 상기 화면에서 벗어나면, 상기 휴대단말이 상기 제1 객체에 대한 동적요소 표시를 종료하는 단계를 더 포함할 수 있다.
본 발명에 따른 객체 표시 방법에 있어서, 상기 감지신호는 상기 화면 상에서의 상기 손가락 또는 터치기구의 위치 정보를 포함할 수 있다.
본 발명에 따른 객체 표시 방법에 있어서, 상기 객체는 이미지, 메뉴, 리스트, 아이콘 및 텍스트 중에 적어도 하나를 포함한다.
본 발명에 따르면, 휴대단말은 손가락 또는 터치기구가 근접한 객체에 동적요소를 부가하여 다른 객체와는 구별되게 표시하기 때문에, 동적요소가 부가된 객체를 통하여 사용자는 해당 객체가 목표로 하는 객체 인지의 여부를 쉽게 확인할 수 있다. 또한 동적요소가 부가된 객체가 목표로 하는 객체가 아닌 경우, 사용자는 터치기구를 목표로 하는 객체로 이동시켜 동적요소 부가 위치를 변경하여 목표로 하는 객체에 동적요소를 부가하여 표시할 수 있기 때문에, 휴대단말은 사용자가 해당 객체를 정확히 선택할 수 있도록 안내한다. 이로 인해 사용자가 목표하는 객체 이외의 다른 객체를 터치하는 오류를 최소화할 수 있다.
이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.
본 발명의 실시예에 따른 휴대단말(100)은, 도 1에 도시된 바와 같이, 저장부(10), 표시부(20), 감지부(30) 및 제어부(40)를 포함하여 구성된다. 이때 휴대단말(100)은 표시부(20)를 구비한 단말로서, 이동통신단말, 노트북(notebook), PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), DMB(Digital Multimedia Broadcasting) 또는 DVB(Digital Video Broadcasting)와 같은 디지털방송 수신기를 포함한다.
저장부(10)는 휴대단말(100)의 동작 제어시 필요한 프로그램과, 그 프로그램 수행 중에 발생되는 데이터를 저장하며, 하나 이상의 휘발성 메모리 소자와 비휘발성 메모리 소자로 이루어진다. 저장부(10)는 손가락 또는 스타일러스 펜(stylus pen)과 같은 터치기구(이하 '터치기구'라 함)가 근접하는 화면 상의 객체에 동적요소를 부가하여 표시하는 실행프로그램을 저장한다. 이때 동적요소는 객체에 움직임을 부가할 수 있는 요소로서, 진동, 깜박거림, 회전, 크기 변환, 동적 광고 객체 부가 및 광고 객체로의 전환 중에 적어도 하나를 포함하며 구체적인 설명은 후술하도록 하겠다. 객체는 화면에 표시되는 이미지, 메뉴, 리스트, 아이콘, 텍스트 등을 포함한다. 저장부(10)는 객체의 종류에 따라 해당 객체에 동적요소를 부가하여 표시하는 방식을 저장하며, 그 방식은 객체의 종류에 따라 상이하게 설정될 수 있다. 예컨대 객체가 메뉴인 경우, 일정 속도로 회전시켜 표시한다. 객체가 리스트인 경우, 문자의 크기를 늘였다 줄였다 하면서 표시한다. 객체가 아이콘인 경우, 동적 광고 객체를 부가하여 표시하거나 포인터(pointer)를 표시한다. 그 외 다양한 방식으로 객체에 동적요소를 부가하여 표시할 수 있음은 물론이다.
표시부(20)는 휴대단말(100)에서 실행되는 각종 기능 메뉴를 비롯하여 저장부(10)에 저장된 정보를 적어도 하나의 객체로 표시한다. 표시부(20)는 제어부(40)의 제어에 따라 터치기구가 근접하는 객체에 동적요소를 부가하여 표시한다. 표시 부(20)로는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes), 터치스크린 등이 사용될 수 있다. 이때 터치스크린은 영상(객체)을 표시하는 표시패널과, 표시패널 위에 설치되며 터치를 감지하는 터치패널을 포함하여 구성된다. 터치스크린은 표시장치와 입력장치의 역할을 동시에 수행한다. 본 실시예에서는 표시부(20)로 터치스크린을 사용한 예를 개시하였다.
감지부(30)는 터치기구가 표시부(20)의 화면에 근접하는 지의 여부를 감시하고, 근접하면 제어부(40)로 감지신호를 출력한다. 즉 감지부(30)는 터치기구가 화면에 근접하는 지의 여부와, 화면에 근접한 상태에서의 터치기구의 이동을 감시하고, 그에 따른 감지신호를 제어부(40)로 전송한다. 즉 감지부(30)는 화면에 대해서 터치기구가 임계거리 안쪽으로 이동하는 지 바깥쪽으로 이동하는 지의 여부를 감시한다. 임계거리 안쪽으로 이동하면, 감지부(30)는 객체에 동적요소를 부가하여 표시하기 위한 제1 감지신호를 제어부(40)로 전송한다. 임계거리 바깥쪽으로 이동하면, 감지부(30)는 객체의 동적 표시를 종료시키기 위한 제2 감지신호를 제어부(40)로 전송한다. 이때 임계거리는 화면에 대한 수직 임계거리일 수 있다.
또한 감지부(30)는 화면에 대해서 터치기구가 수직 임계거리 안쪽에서 이동하되, 동적요소가 부가된 객체를 중심으로 수평 임계거리 밖으로 이동하는 지의 여부를 감시한다. 터치기구가 수평 임계거리 안쪽에 위치하면, 감지부(30)는 별도의 감지신호를 제어부(40)로 전송하지 않으며, 제어부(40)는 터치기구가 근접한 객체의 표시상태를 유지한다. 터치기구가 수평 임계거리 바깥쪽으로 이동하면, 제어부(40)는 이동 전 동적요소가 부가된 객체의 동적요소 표시를 종료시키고, 이동 후 터치기구가 근접한 객체에 동적요소를 부가하여 표시하기 위한 제3 감지신호를 제어부(40)로 전송한다. 이때 제어부(40)는 동적요소 표시를 종료시킨 객체를 동적요소가 부가되기 전의 상태로 표시한다.
이와 같은 감지부(30)는 터치기구의 근접 여부를 감시하고, 근접한 터치기구의 화면 상에서의 위치 산출에 필요한 위치 정보를 포함하는 감지신호를 제어부(40)로 전송한다. 예컨대 감지부(30)는 카메라, 적외선 센서, 근접 센서, 정전용량 센서, RF(Radio Frequency) 센서 및 초음파 센서 중에 적어도 하나를 포함할 수 있으며, 이에 한정되는 것은 아니다. 감지부(30)는 터치기구의 근접 여부를 감시할 수 있도록 표시부(20)에 인접하게 설치되거나 필름 형태로 표시부(20)의 화면 상에 설치될 수도 있다.
한편 본 실시예에서는 표시부(20)와 감지부(30)가 개별적으로 설치된 예를 개시하였지만 이에 한정되는 것은 아니다. 즉 표시부(20)는 감지부(30)를 포함하여 구성될 수 있다. 예컨대 표시부(20)로 터치스크린을 사용할 경우, 터치스크린의 터치패널이 감지부(20)의 기능을 함께 수행할 수도 있다. 터치패널로는 터치기구의 근접 또는 터치를 감지할 수 있는 정전용량 방식 또는 적외선 방식의 터치패널을 사용하는 것이 바람직하다.
그리고 제어부(40)는 휴대단말(100)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)이다. 제어부(40)는 터치기구가 근접하는 객체에 대한 동적요소 부가를 제어한다. 즉 감지부(30)를 통하여 제1 감지신호를 수신하면, 제어부(40)는 제1 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한 다. 제어부(40)는 적어도 하나의 객체 중에서 산출된 위치에 매핑된 객체를 선택하고, 선택한 객체에 동적요소를 부가하여 표시한다. 이때 동적요소는 진동, 깜박거림, 회전, 크기 변환, 동적 광고 객체 부가 및 광고 객체로의 전환 중에 적어도 하나를 포함하며, 이에 한정되는 것은 아니다. 예컨대 동적요소가 진동인 경우, 제어부(40)는 선택된 객체를 좌우 또는 전후로 반복적으로 이동시키면서 진동을 발생시킨다. 동적요소가 깜박거림인 경우, 제어부(40)는 선택된 객체의 밝기를 반복적으로 변경하여 표시한다. 동적요소가 회전인 경우, 제어부(40)는 선택된 객체를 회전시켜, 예컨대 화면에 수평한 방향 또는 수직한 방향으로 회전시켜 표시한다. 동적요소가 크기 변환인 경우, 제어부(40)는 선택된 객체의 크기를 늘였다 줄였다 하면서 표시한다. 동적요소가 동적 광고 객체 부가인 경우, 제어부(40)는 선택된 객체의 근방 또는 위에 광고 객체, 예컨대 광고를 표현하는 로고, 아이콘 등을 동적으로 표시한다. 동적요소가 광고 객체로의 전환인 경우, 제어부(40)는 선택된 객체를 광고 객체로 전환하여 동적으로 표시하거나 선택된 객체와 광고 객체로 교대로 전환하여 표시한다. 이 외에 제어부(50)는 다양한 방식으로 동적요소를 선택된 객체에 부가하여 표시할 수 있다. 예컨대 제어부(40)는 선택된 객체에 동적요소의 부가와 더불어 포인터를 추가적으로 더 표시할 수도 있다. 포인터는 객체 위에 표시되거나 객체의 근방에 표시될 수 있다. 특히 객체의 근방에 포인터를 표시할 때, 사용자가 포인터를 확인할 수 있도록 터치기구의 끝단에 대해서 위쪽의 화면 영역에 표시할 수 있다.
이때 제어부(40)는 감지부(30)의 종류에 따라서 카메라 비전 방식, 적외선 방식, 정전용량 방식, 초음파 방식 또는 이들을 조합한 방식 등을 이용하여 터치기구의 화면 상에서의 위치를 산출할 수 있으며, 이에 한정되는 것은 아니다. 예컨대, 카메라 비전 방식은 카메라로 촬영한 영상에서 터치기구의 이동 경로를 분석 및 예측하여 터치기구의 화면 상에서의 위치를 산출하는 방식이다. 즉 제어부(40)는 카메라를 통하여 촬영한 영상을 수신하고, 수신한 영상에서 터치기구를 추출한다. 제어부(40)는 추출한 터치기구의 끝단의 이동 경로를 분석 및 예측하여 터치기구의 화면 상에서의 위치를 산출한다.
적외선 방식(또는 초음파 방식)은 화면에 수평하게 XY축 방향으로 적외선(초음파)를 조사하는 상태에서, 적외선(초음파)의 경로를 차단하는 터치기구의 화면 상에서의 위치를 산출하는 방식이다. 즉 적외선(초음파)를 화면에 수평하게 조사한 상태에서, 터치기구에 의해 화면 상의 특정 지점에서 적외선의 진행이 차단되면, 감지부(30)는 적외선이 차단된 지점에 대한 위치 정보를 포함하는 감지신호를 제어부(40)로 전송한다. 제어부(40)는 수신한 감지신호에 포함된 적외선이 차단된 지점에 대응하는 화면 상에서의 위치를 산출한다.
그리고 정전용량 방식은 터치기구가 근접한 화면 상의 위치에서 발생되는 정전용량의 변화를 감지하여 터치기구의 화면 상에서의 위치를 산출하는 방식이다. 즉 정전용량 방식의 감지부(30)는 터치기구가 화면에 근접하게 되면, 감지부(30)는 터치기구가 근접하여 정전용량의 변화가 발생된 지점에 대한 위치 정보를 포함하는 감지신호를 제어부(40)로 전송한다. 제어부(40)는 정전용량의 변화가 발생된 지점에 대응하는 화면 상에서의 위치를 산출한다.
제어부(40)는 감지부(30)를 통하여 터치기구가 화면에 임계거리 이내로 근접하는 지의 여부를 감시한다. 예컨대 제어부(40)는 감지부(30)를 통하여 터치기구가 화면에 수직 임계거리 이내로 이동하는 지의 여부를 감시한다. 감지부(30)로부터 수직 임계거리 이내로 이동한 터치기구에 대한 제1 감지신호를 수신하면, 제1 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한다. 이때 제어부(40)는 제1 감지신호에 포함된 터치기구의 위치 정보를 기반으로 터치기구의 화면 상에서의 위치를 산출할 수 있다.
한편 터치기구가 근접한 객체에 동적요소를 부가하여 표시한 이후에, 제어부(40)는 터치기구의 이동에 따라 다음과 같이 객체에 대한 동적요소 부가를 수행할 수 있다. 이때 동적요소가 부가된 특정 객체를 중심으로 터치기구의 이동은 수직 이동 성분과 수평 이동 성분의 조합으로 표현할 수 있으며, 제어부(40)는 수직 이동 또는 수평 이동 거리와 임계거리와의 관계에 따라 동적요소 부가를 수행한다.
먼저 터치기구가 화면에서 멀어지되 임계거리 밖으로 이동하면, 제어부(40)는 객체에 대한 동적요소 표시를 종료한다. 즉 제어부(40)는 감지부(30)를 통하여 터치기구가 화면에서 수직 임계거리 밖으로 이동하는 지를 감시한다. 감시 중 감지부(30)로부터 수직 임계거리 밖으로 이동한 터치기구에 대한 제2 감지신호를 수신하면, 제어부(40)는 제1 객체에 대한 동적요소 표시를 종료한다. 제어부(40)는 제1 객체를 동적요소 부가 전의 상태로 화면에 표시한다.
다음으로 터치기구가 화면에 근접한 상태에서 수평 방향으로 이동하되, 동적요소가 부가된 객체를 중심으로 수평 임계거리 밖으로 이동하면, 제어부(40)는 동 적요소가 부가된 객체(이하 '제1 객체'라 함)에 대한 동적요소 표시를 종료하고, 현재 터치기구가 근접한 지점에 위치한 다른 객체(이하 '제2 객체'라 함)에 동적요소를 부가하여 표시한다. 즉 제어부(40)는 감지부(30)를 통하여 터치기구가 제1 객체의 위치에서 수평 임계거리 밖으로 이동하는 지를 감시한다. 감시 중 감지부(30)로부터 수평 임계거리 밖으로 이동한 터치기구에 대한 제3 감지신호를 수신하면, 제어부(40)는 제1 객체에 대한 동적요소 표시를 종료한다. 제어부(40)는 제3 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한다. 그리고 제어부(40)는 적어도 하나의 객체 중에서 산출된 위치에 매핑된 제2 객체를 선택하고, 선택된 제2 객체에 동적요소를 부가하여 표시한다. 이와 같이 터치기구를 화면에 근접한 상태에서 화면 상에서 수평 방향으로 이동하면, 제어부(40)는 터치기구의 이동 경로 상에 있는 객체에 대한 동적요소 부가 및 동적요소의 표시 종료를 이동 방향을 따라 순차적으로 수행할 수 있다. 여기서 수평 방향으로의 이동은 터치기구가 수직 임계거리 안에서 이동하는 것을 의미하며, 그 이동이 수직 성분에 비해서 수평 성분이 주를 이루기 때문에 수평 방향으로의 이동이라고 하였다. 터치기구가 수평 방향으로 이동하더라도 수직 임계거리를 벗어나면, 제어부(40)는 터치기구의 수평 방향으로의 이동에 따른 동적요소 부가를 수행하지 않고 수직 임계거리에 따른 동적요소 처리를 수행한다.
한편으로 특정 객체에 동적요소가 부가된 상태에서 터치기구가 화면을 벗어나면, 제어부(40)는 객체에 대한 동적요소 표시를 종료할 수도 있다.
여기서 수직 임계거리는 화면에 대해서 수직 방향으로 일정 거리로 설정될 수 있다. 수평 임계거리는 객체를 중심으로 수평 방향으로 일정거리로 설정될 수 있으며, 이웃하는 객체와 겹치지 않는 범위에서 설정하는 것이 바람직하다. 한편 수직 및 수평 임계거리는 디폴트로 설정되며, 사용자에 의해 재설정될 수도 있다.
한편 터치기구가 근접한 객체는 동적요소가 부가되어 표시되기 때문에, 동적요소가 부가된 객체를 통하여 사용자는 해당 객체가 목표로 하는 객체 인지의 여부를 쉽게 확인할 수 있다. 동적요소가 부가된 객체가 목표로 하는 객체가 아닌 경우, 사용자는 터치기구를 목표로 하는 객체로 이동시켜 동적요소 부가 위치를 변경할 수 있다. 목표로 하는 객체에 동적요소가 부가된 상태에서, 사용자가 터치기구로 해당 객체를 터치하면, 표시부(20)는 해당 객체의 터치 정보를 제어부(40)로 전송한다. 제어부(40)는 수신한 터치 정보를 토대로 해당 객체에 매핑된 기능을 수행한다.
이와 같이 본 발명의 실시예에 따른 휴대단말(100)은 터치기구가 화면의 특정 객체에 근접하면 해당 객체에 동적요소를 부가하여 다른 객체와는 구별되게 표시하기 때문에, 사용자가 목표로 하는 객체를 정확히 선택할 수 있도록 안내한다. 이로 인해 본 실시예에 따른 휴대단말(100)은 사용자가 목표하는 객체 이외의 다른 객체를 터치하는 오류를 최소화할 수 있다.
이와 같은 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 대해서 도 1 및 도 2를 참조하여 설명하면 다음과 같다. 여기서 도 2는 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 따른 흐름도이다. 여기서 표시부(20)로는 터치스크린이 사용된 예를 개시하였다.
먼저 S51단계에서 휴대단말(100)은 적어도 하나의 객체를 표시부(20)의 화면에 표시한다. 이때 표시부(20)를 통한 사용자의 선택 신호가 입력되면, 휴대단말(100)은 화면에 적어도 하나의 객체를 표시할 수 있다. 또는 사용자가 휴대단말(100)에 마련된 특정 키를 누르면, 휴대단말(100)은 화면에 적어도 하나의 객체를 표시할 수 있다.
다음으로 S53단계에서 휴대단말(100)은 감지부(30)를 통하여 터치기구가 화면에 접근하는 지의 여부를 감시한다. 즉 휴대단말(100)은 감지부(30)를 통하여 터치기구가 임계거리, 예컨대 수직 임계거리 이내로 이동하는 지의 여부를 감시한다. 이때 감지부(30)는 터치기구의 근접 여부를 주기적으로 감시하거나 연속적으로 감시할 수 있다.
S53단계의 감시결과 터치기구가 수직 임계거리 이내로 화면에 근접하지 않은 경우, 휴대단말(100)은 S51단계의 표시 상태를 유지한다.
S53단계의 감시결과 터치기구가 수직 임계거리 이내로 화면에 근접한 경우, S55단계에서 휴대단말(100)은 터치기구의 화면 상에서의 위치를 산출한다. 즉 감지부(30)가 수직 임계거리 이내로 화면에 근접한 터치기구를 감지하면, 제1 감지신호를 제어부(40)로 전송한다. 휴대단말(100)는 제1 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한다. 이때 휴대단말(100)은 제1 감지신호에 포함된 터치기구의 위치 정보를 기반으로 터치기구의 화면 상에서의 위치를 산출할 수 있다. 예컨대, 휴대단말(100)은 손가락 또는 터치기구의 화면 상에서의 위치는 정전용량 방식, 적외선 방식, 초음파 방식 및 카메라 비전 방식 중에 적어도 하나의 방식을 이용하여 산출할 수 있다.
다음으로 S57단계에서 휴대단말(100)은 적어도 하나의 객체 중에서 산출된 위치에 매핑된 객체를 선택한다. 이어서 S59단계에서 휴대단말(100)은 선택된 객체에 동적요소를 부가하여 표시한다. 즉 휴대단말(100)은 선택된 객체에 동적요소, 예컨대 진동, 깜박거림, 회전, 크기 변환, 동적 광고 객체 부가 및 광고 객체로의 전환 중에 적어도 하나를 부가하여 다른 객체와는 구별되게 할 수 있다. 또는 휴대단말(100)은 선택된 객체에 포인터를 추가적으로 더 표시할 수도 있다.
한편 선택된 객체에 동적요소를 부가한 이후에, S61단계에서 휴대단말(100)은 감지부(30)를 통하여 터치기구의 이동이 있는 지의 여부를 감시한다. 즉 휴대단말(100)은 터치기구가 화면에 대해서 임계거리 밖으로 이동하는 지의 여부를 감지부(30)를 통하여 감시한다. 예컨대 휴대단말(100)은 터치기구가 동적요소가 부가된 객체를 중심으로 수직 또는 수평 임계거리를 벗어나는 지의 여부를 감지부(30)를 통하여 감시한다.
S61단계의 감시 결과 터치기구의 이동이 감지되지 않는 경우, 휴대단말(100)은 S59단계의 표시 상태를 유지한다.
S61단계의 감시 결과 터치기구의 이동이 감지된 경우, S63단계에서 휴대단말(100)은 다시 그 이동이 수직 임계거리 밖으로의 이동인지의 여부를 판단한다.
S63단계의 판단 결과 수직 임계거리 밖으로의 이동이 아닌 경우, S65단계에서 휴대단말(100)은 그 이동이 수평 임계거리 밖으로의 이동인지의 여부를 다시 판단한다. 즉 휴대단말(100)은 터치기구가 화면에 근접한 상태에서 발생된 이동이 수 평 임계거리를 벗어나는 지의 여부를 판단한다.
S65단계의 판단 결과 수평 임계거리 밖으로의 이동이 아닌 경우, 휴대단말(100)은 S59단계의 표시 상태를 유지한다. 즉 터치기구의 이동이 수직 또는 수평 임계거리를 벗어나지 않으면, 휴대단말(100)은 S59단계의 표시 상태를 유지한다.
S65단계의 판단 결과 수평 임계거리 밖으로의 이동이 감지된 경우, S67단계에서 휴대단말(100)은 동적요소가 부가된 객체의 동적요소 표시를 종료한다. 이어서 휴대단말(100)은 S55단계부터 다시 수행하여 터치기구가 이동한 위치에 근접한 다른 객체에 동적요소를 부가하여 표시할 수 있다. 즉 사용자가 터치기구를 화면에 근접한 상태에서 화면 상에서 수평 방향으로 이동하면, 휴대단말(100)은 터치기구의 이동 경로 상에 있는 객체에 대한 동적요소 부가 및 동적요소의 표시 종료를 이동 방향을 따라 순차적으로 수행할 수 있다.
그리고 사용자는 화면에 동적요소가 부가된 객체가 목표하는 객체인지의 여부를 육안으로 확인한 후, 동적요소가 부가된 객체가 목표로 하는 객체인 경우 사용자는 터치기구로 터치하여 해당 객체에 매핑된 기능을 수행시킬 수 있다. 즉 목표로 하는 객체에 동적요소가 부가된 상태에서, 사용자가 터치기구로 해당 객체를 터치하면, 표시부(20)는 해당 객체의 터치 정보를 제어부(40)로 전송한다. 제어부(40)는 수신한 터치 정보를 토대로 해당 객체에 매핑된 기능을 수행한다.
한편 S63단계의 판단 결과 수직 임계거리 밖으로의 이동이 감지된 경우, S71단계에서 휴대단말(100)은 동적요소가 부가된 객체의 동적요소 표시를 종료한다.
한편으로 S61단계의 판단 결과 터치기구의 이동이 감지되고, 터치기구가 화 면 영역을 벗어나면, 휴대단말(100)은 동적요소가 부가된 객체의 동적요소 표시를 종료할 수도 있다.
이와 같은 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 대해서 도 3의 화면예시도를 참조하여 설명하면 다음과 같다. 여기서 도 3에서는 객체로서 화면에 격자 배열된 복수의 메뉴(23)가 표시된 예를 개시하였다. 이때 도 3에서 터치기구(80)는 표시의 편의상 "+"로 표시하였지만, 실제 화면 상에 "+"이 표시되는 것은 아니다.
먼저 도 3(a)에 도시된 바와 같이 표시부(20)의 화면(21)에 복수의 메뉴(23)가 표시된 상태에서, 도 3(b)에 도시된 바와 같이 복수의 메뉴(23) 중 특정 메뉴, 예컨대 "E 메뉴"(23a)에터치기구(80)를 근접시키면, 도 3(c)에 도시된 바와 같이 휴대단말(100)은 "E 메뉴"(23a)에동적요소를 부가하여 표시한다. 이때 도 3(c)에서는 휴대단말(100)이 "E 메뉴"(23a)를 시계방향으로 회전시키는 예를 개시하였지만 이에 한정되는 것은 아니다. 예컨대 휴대단말(100)은 선택된 메뉴를 좌우 또는 전후로 반복적으로 이동시키면서 진동을 발생시키거나, 선택된 객체의 밝기를 반복적으로 변경하여 표시할 수 있다.
다음으로 도 3(d)에 도시된 바와 같이, 사용자가 터치기구(80)를 화면에 근접시킨 상태에서 수평 방향으로 아래로 이동시켜 "H 메뉴"(23b)에위치시키면, 휴대단말(100)은 "E 메뉴"(23a)의동적요소 표시를 종료하고 "H 메뉴"(23b)에 동적요소를 부가하여 표시한다. 이때 터치기구(80)의 이동 상태를 표시하기 위해서, 휴대단말(100)은 도 3(b) 및 도 3(d)에서 터치기구(80)의 화면 상에서의 위치에 대응하는 지점에 포인터를 표시할 수 있다.
그리고 도 3(c) 또는 도 3(d)에서 사용자가 터치기구(80)를 이동시키되, 수직 임계거리 밖으로 이동시키면, 도 3(a)에 도시된 바와 같이 휴대단말(100)은 동적요소가 부가된 메뉴에 대한 동적요소 표시를 종료한다. 즉 휴대단말(100)은 메뉴(23)를 동적요소가 부가되기 전의 상태로 표시한다.
한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.
본 발명은 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법에 관한 것으로, 손가락 또는 터치기구가 화면의 객체에 근접하면 해당 객체에 동적요소를 부가하여 다른 객체와는 구별되게 표시하기 때문에, 사용자가 해당 객체를 정확히 선택할 수 있도록 안내하고, 이로 인해 사용자가 목표하는 객체 이외의 다른 객체를 터치하는 입력 오류를 최소화할 수 있다.
도 1은 본 발명의 실시예에 따른 휴대단말의 구성을 보여주는 블록도이다.
도 2는 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 따른 흐름도이다.
도 3은 도 2의 객체 표시 방법에 따른 화면예시도이다.
* 도면의 주요 부분에 대한 설명 *
10 : 저장부
20 : 표시부
30 : 감지부
40 : 제어부
80 : 터치기구
100 : 휴대단말

Claims (21)

  1. 화면에 적어도 하나의 객체를 표시하는 표시부;
    손가락 또는 터치기구가 상기 화면에 근접하는 지의 여부를 감시하는 감지부;
    상기 감지부로부터 상기 손가락 또는 터치기구의 화면 근접에 따른 감지신호를 수신하면, 상기 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하고, 상기 적어도 하나의 객체 중에서 산출한 위치에 매핑된 객체를 선택하고, 선택된 객체에 대하여 진동이나 회전을 포함하는 움직임 부가, 동적 광고 객체의 부가, 및 광고 객체로의 전환 중 하나 이상을 포함하는 동적요소를 부가하여 상기 표시부에 표시하는 제어부;
    를 포함하는 것을 특징으로 하는 휴대단말.
  2. 제1항에 있어서, 상기 감지부는,
    상기 손가락 또는 터치기구가 근접한 상기 화면 상에서의 위치 정보를 포함하는 상기 감지신호를 상기 제어부로 전송하는 것을 특징으로 하는 휴대단말.
  3. 제1항에 있어서, 상기 감지부는,
    카메라, 적외선 센서, 근접 센서, 정전용량 센서, RF(Radio Frequency) 센서 및 초음파 센서 중에 적어도 하나를 포함하는 것을 특징으로 하는 휴대단말.
  4. 제1항에 있어서,
    상기 적어도 하나의 객체에 각각 대응되게 설정된 동적요소를 부가하여 표시하는 방식을 저장하는 저장부;
    를 더 포함하는 것을 특징으로 하는 휴대단말.
  5. 제1항에 있어서, 상기 감지부는,
    상기 표시부의 표시패널 위에 설치되어 상기 손가락 또는 터치기구의 근접 또는 터치를 감지하는 터치패널인 것을 특징으로 하는 휴대단말.
  6. 제5항에 있어서,
    상기 감지부는 정전용량 방식 또는 적외선 방식으로 상기 손가락 또는 터치기구의 근접 또는 터치를 감지하는 것을 특징으로 하는 휴대단말.
  7. 제1항에 있어서,
    상기 표시부는 상기 손가락 또는 터치기구의 터치를 감지하는 터치스크린인 것을 특징으로 하는 휴대단말.
  8. 휴대단말이 화면에 적어도 하나의 객체를 표시하는 단계;
    상기 적어도 하나의 객체 중에서 제1 객체에 손가락 또는 터치기구가 근접하면, 상기 휴대단말이 상기 제1 객체에 동적요소를 부가하여 표시하는 단계를 포함하되,
    상기 동적요소는 상기 제1 객체에 대한 진동 또는 회전을 포함하는 움직임 부가, 동적 광고 객체의 부가, 및 광고 객체로의 전환 중에서 하나 이상을 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  9. 제8항에 있어서, 상기 제1 객체에 동적요소를 부가하여 표시하는 단계는,
    상기 휴대단말이 상기 화면에 근접한 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계;
    상기 휴대단말이 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 제1 객체를 선택하고, 상기 선택한 제1 객체에 동적요소를 부가하여 표시하는 단계;
    를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  10. 제9항에 있어서, 상기 위치를 산출하는 단계는,
    상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 임계거리 이내로 상기 화면에 근접하는 지의 여부를 감시하는 단계;
    상기 감지부로부터 상기 임계거리 이내로 상기 화면에 근접한 상기 손가락 또는 터치기구에 대한 감지신호를 수신하면, 상기 휴대단말이 상기 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계;
    를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  11. 제10항에 있어서, 상기 위치를 산출하는 단계에서,
    상기 손가락 또는 터치기구의 상기 화면 상에서의 위치는 카메라 비전 방식, 적외선 방식, 정전용량 방식 및 초음파 방식 중에 적어도 하나의 방식을 이용하여 산출하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  12. 삭제
  13. 제8항에 있어서, 상기 제1 객체에 동적요소를 부가하여 표시하는 단계에서,
    상기 휴대단말이 상기 제1 객체 위에 포인터를 표시하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  14. 제8항에 있어서, 상기 제1 객체에 동적요소를 부가하여 표시하는 단계 이후에 수행되는,
    상기 손가락 또는 터치기구가 상기 화면에서 임계거리 밖으로 이동하면, 상기 휴대단말이 상기 제1 객체에 대한 동적요소 표시를 종료하는 단계;
    를 더 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  15. 제14항에 있어서, 상기 동적요소 표시를 종료하는 단계는,
    상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 상기 화면에서 임계거리 밖으로 이동하는 지를 감시하는 단계;
    상기 감지부로부터 상기 임계거리 밖으로 이동한 상기 손가락 또는 터치기구에 대한 감지신호를 수신하면, 상기 휴대단말이 상기 제1 객체에 대한 동적요소 표시를 종료하는 단계;
    를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  16. 제15항에 있어서,
    상기 임계거리는 상기 화면에서 수직 방향으로의 수직 임계거리인 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  17. 제8항에 있어서, 상기 제1 객체에 대한 동적요소를 부가하여 표시하는 단계 이후에 수행되는,
    상기 손가락 또는 터치기구가 상기 화면에 근접한 상태에서 이동하되, 상기 제1 객체를 중심으로 수평 임계거리 밖으로 이동하면, 상기 휴대단말이 상기 제1 객체에 대한 동적요소 표시를 종료하고, 상기 손가락 또는 터치기구가 이동하여 근접한 지점에 위치한 제2 객체에 동적요소를 부가하여 표시하는 단계;
    를 더 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  18. 제17항에 있어서, 상기 제2 객체에 동적요소를 부가하여 표시하는 단계는,
    상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 상기 제1 객체의 위치에서 상기 수평 임계거리 밖으로 이동하는 지를 감시하는 단계;
    상기 감지부로부터 상기 수평 임계거리 밖으로 이동한 상기 손가락 또는 터치기구에 대한 감지신호를 수신하면, 상기 휴대단말이 상기 제1 객체에 대한 동적요소 표시를 종료하는 단계;
    상기 휴대단말이 상기 수평 임계거리 밖으로 이동한 상기 손가락 또는 터치 기구에 대한 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계;
    상기 휴대단말이 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 제2 객체를 선택하고, 상기 선택한 제2 객체에 동적요소를 부가하여 표시하는 단계;
    를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  19. 제8항에 있어서, 상기 제1 객체에 동적요소를 부가하여 표시하는 단계 이후에 수행되는,
    상기 손가락 또는 터치기구가 상기 화면에서 벗어나면, 상기 휴대단말이 상기 제1 객체에 대한 동적요소 표시를 종료하는 단계;
    를 더 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  20. 제10항, 제15항 및 제18항 중 어느 한 항에 있어서,
    상기 감지신호는 상기 화면 상에서의 상기 손가락 또는 터치기구의 위치 정 보를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
  21. 제8항에 있어서,
    상기 객체는 이미지, 메뉴, 리스트, 아이콘 및 텍스트 중에 적어도 하나를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.
KR1020090089598A 2009-09-22 2009-09-22 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법 KR101179466B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090089598A KR101179466B1 (ko) 2009-09-22 2009-09-22 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090089598A KR101179466B1 (ko) 2009-09-22 2009-09-22 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법

Publications (2)

Publication Number Publication Date
KR20110032210A KR20110032210A (ko) 2011-03-30
KR101179466B1 true KR101179466B1 (ko) 2012-09-07

Family

ID=43936997

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090089598A KR101179466B1 (ko) 2009-09-22 2009-09-22 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법

Country Status (1)

Country Link
KR (1) KR101179466B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130241854A1 (en) 2012-03-06 2013-09-19 Industry-University Cooperation Foundation Hanyang University Image sharing system and user terminal for the system
US9448637B2 (en) * 2013-05-01 2016-09-20 Intel Corporation Detection of and response to extra-device touch events
KR101785233B1 (ko) 2014-01-15 2017-10-12 폭스바겐 악티엔 게젤샤프트 사용자에게 입력 회신을 하기 위한 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116583A (ja) 2007-11-06 2009-05-28 Ricoh Co Ltd 入力制御装置および入力制御方法
JP2009205425A (ja) 2008-02-27 2009-09-10 Canon Inc 座標入力装置、座標入力制御方法、座標入力制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116583A (ja) 2007-11-06 2009-05-28 Ricoh Co Ltd 入力制御装置および入力制御方法
JP2009205425A (ja) 2008-02-27 2009-09-10 Canon Inc 座標入力装置、座標入力制御方法、座標入力制御プログラム

Also Published As

Publication number Publication date
KR20110032210A (ko) 2011-03-30

Similar Documents

Publication Publication Date Title
US10216407B2 (en) Display control apparatus, display control method and display control program
US10397649B2 (en) Method of zooming video images and mobile display terminal
KR101995278B1 (ko) 터치 디바이스의 ui 표시방법 및 장치
US8466934B2 (en) Touchscreen interface
CN102150123B (zh) 具有相对姿势识别模式的便携式电子设备
US9684439B2 (en) Motion control touch screen method and apparatus
US9977497B2 (en) Method for providing haptic effect set by a user in a portable terminal, machine-readable storage medium, and portable terminal
US20160299604A1 (en) Method and apparatus for controlling a mobile device based on touch operations
KR101880653B1 (ko) 터치패널을 구비하는 휴대단말기의 입력 판정 장치 및 방법
US10073493B2 (en) Device and method for controlling a display panel
KR20120040358A (ko) 휴대 단말기의 화면 제어 방법 및 장치
EP2770423A2 (en) Method and apparatus for operating object in user device
CN109800045B (zh) 一种显示方法及终端
AU2013223015A1 (en) Method and apparatus for moving contents in terminal
KR101929316B1 (ko) 터치스크린을 구비한 단말기에서 키패드 표시 방법 및 장치
KR20120058308A (ko) 휴대기기 및 이에 적용되는 ui 모드 제공 방법
KR100848272B1 (ko) 터치 스크린을 갖는 휴대 단말기의 아이콘 표시 방법
KR20110020642A (ko) 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법
KR101698087B1 (ko) 이동 단말기 및 그 제어 방법
KR101151300B1 (ko) 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법
KR101179466B1 (ko) 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법
US20140348334A1 (en) Portable terminal and method for detecting earphone connection
JP6411067B2 (ja) 情報処理装置及び入力方法
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
KR102210045B1 (ko) 전자장치의 입력 제어장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150729

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160802

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180731

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190718

Year of fee payment: 8