KR20110028772A - Mobile terminal and method for displaying object using approach sensing of touch tool thereof - Google Patents

Mobile terminal and method for displaying object using approach sensing of touch tool thereof Download PDF

Info

Publication number
KR20110028772A
KR20110028772A KR1020090086362A KR20090086362A KR20110028772A KR 20110028772 A KR20110028772 A KR 20110028772A KR 1020090086362 A KR1020090086362 A KR 1020090086362A KR 20090086362 A KR20090086362 A KR 20090086362A KR 20110028772 A KR20110028772 A KR 20110028772A
Authority
KR
South Korea
Prior art keywords
screen
touch
finger
displaying
touch mechanism
Prior art date
Application number
KR1020090086362A
Other languages
Korean (ko)
Other versions
KR101151300B1 (en
Inventor
홍상우
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020090086362A priority Critical patent/KR101151300B1/en
Publication of KR20110028772A publication Critical patent/KR20110028772A/en
Application granted granted Critical
Publication of KR101151300B1 publication Critical patent/KR101151300B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A mobile terminal and a method for displaying an object using the approach sensing of a touch tool thereof are provided to enable a user to accurately touch a desirable object by using his/her finger or a touch tool. CONSTITUTION: A control unit(40) receives from a sensor unit(30) a sensing signal depending on the approach of a touch tool or a finger to a screen. The control unit calculates the touch point of the finger or touch tool on the screen based on the sensing signal. The control unit selects the object mapped to the calculated touch point among plural objects, and highlights the selected object. In addition, the control unit displays the highlighted object on a display unit(20).

Description

터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법{Mobile terminal and method for displaying object using approach sensing of touch tool thereof}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a mobile terminal,

본 발명은 휴대단말의 객체 표시 기술에 관한 것으로, 더욱 상세하게는 손가락 또는 터치기구가 화면의 특정 객체에 근접하면 해당 객체를 하이라이트하여 표시하는 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법에 관한 것이다.The present invention relates to an object display technology of a portable terminal, and more particularly, to a portable terminal using an approach recognition of a touch mechanism that displays a highlighted object when a finger or a touch mechanism approaches a specific object on the screen, .

유무선 통신망을 이용한 정보 통신 기술은 소비자의 구매를 자극하는 새로운 기술 및 기능으로 인하여 짧은 기간에 대단히 빠른 성장을 하고 있다. 특히 휴대단말은 그 기술의 발달로 인하여 단순한 어플리케이션을 수행하는 단계를 넘어서서 사용자들의 요구에 맞는 다양한 어플리케이션들이 설치되고 있다. 이로 인해 사용자는 휴대단말을 통하여 음성 정보, 문자 정보, 화상 정보, MP3(MPEG(Moving Picture Experts Group) layer 3), 게임 등을 이용할 수 있다. 이때 사용자는 휴대단말에 마련된 키패드, 터치스크린, 조이스틱, 스크롤 휠 등의 입력장치를 이용하여 휴대단말을 조작하거나 휴대단말에 필요한 정보를 입력할 수 있다.Information and communication technologies using wired / wireless communication networks are growing very fast in a short period of time due to new technologies and functions that stimulate consumer purchasing. In particular, due to the development of the technology, a mobile terminal has been installed with a variety of applications that meet users' needs beyond the stage of performing a simple application. Accordingly, the user can use voice information, text information, image information, MP3 (Moving Picture Experts Group (MPEG) layer 3), and the like through the portable terminal. At this time, the user can operate the portable terminal or input information necessary for the portable terminal using an input device such as a keypad, a touch screen, a joystick, and a scroll wheel provided in the portable terminal.

특히 최근의 휴대단말은 표시부와 입력부의 기능을 동시에 수행할 수 있는 터치스크린의 장착이 확대되고 있다. 사용자는 터치스크린의 터치를 통하여 휴대단말의 응용프로그램을 실행하고, 필요한 기능을 수행한다. 예를 들어 휴대단말의 터치스크린에 표시되는 아이콘이나 메뉴바의 터치를 통하여 응용프로그램의 기능을 실행할 수 있다. 따라서 응용프로그램의 실행이라는 측면에서 터치스크린 방식이 통상적인 키패드 방식에 비하여 사용자에게 편리성을 제공하고 있다.Particularly, in recent portable terminals, mounting of a touch screen capable of simultaneously performing functions of a display unit and an input unit has been expanded. The user executes the application program of the portable terminal through the touch of the touch screen and performs necessary functions. For example, the function of the application program can be executed through the icon displayed on the touch screen of the portable terminal or the touch of the menu bar. Therefore, in terms of execution of the application program, the touch screen method provides convenience to the user in comparison with the conventional keypad method.

하지만 휴대단말은 화면 크기의 제약으로 터치스크린에 표시되는 영상, 메뉴, 리스트, 아이콘 등과 같은 객체가 작게 표시된다. 이로 인해 사용자가 터치스크린에 표시된 특정 객체를 터치하여 선택할 때, 목표로 하는 특정 객체에 인접한 다른 객체를 잘못 선택하는 경우가 발생될 수 있다.However, due to the limitation of the screen size, the mobile terminal displays small objects such as images, menus, lists, and icons displayed on the touch screen. As a result, when a user touches and selects a specific object displayed on the touch screen, a case may occur in which the other object adjacent to the specific object targeted by the selection is erroneously selected.

따라서, 본 발명의 목적은 사용자가 손가락이나 터치기구를 통하여 선택하고자 하는 객체를 정확히 터치할 수 있도록 안내하는 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법을 제공하는 데 있다.Accordingly, it is an object of the present invention to provide a mobile terminal and an object displaying method using the approach recognition of a touch mechanism for guiding a user to accurately touch an object to be selected through a finger or a touch mechanism.

상기 목적을 달성하기 위하여, 본 발명은 표시부, 감지부 및 제어부를 포함하여 구성되는 휴대단말을 제공한다. 상기 표시부는 화면에 적어도 하나의 객체를 표시한다. 상기 감지부는 손가락 또는 터치기구가 상기 화면에 근접하는 지의 여부를 감시한다. 그리고 상기 제어부는 상기 감지부로부터 손가락 또는 터치기구의 화 면 근접에 따른 감지신호를 수신하면, 상기 수신한 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하고, 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 특정 객체를 선택하고, 상기 선택한 특정 객체를 하이라이트하여 상기 표시부에 표시한다.In order to achieve the above object, the present invention provides a portable terminal including a display unit, a sensing unit, and a control unit. The display unit displays at least one object on the screen. The sensing unit monitors whether a finger or a touch mechanism approaches the screen. And the control unit calculates a position of the finger or the touch mechanism on the screen based on the received sensing signal when the sensing unit receives the sensing signal along the screen of the finger or the touch mechanism from the sensing unit, Selects a specific object mapped to the calculated position among the objects of the selected object, and displays the highlighted specific object on the display unit.

본 발명에 따른 휴대단말에 있어서, 상기 감지부는 상기 손가락 또는 터치기구가 근접한 상기 화면 상에서의 위치 정보를 포함하는 상기 감지신호를 상기 제어부로 전송할 수 있다.In the portable terminal according to the present invention, the sensing unit may transmit the sensing signal including positional information on the screen in which the finger or the touch mechanism is close to the control unit.

본 발명에 따른 휴대단말에 있어서, 상기 감지부는 카메라, 적외선 센서, 근접 센서, 정전용량 센서, RF(Radio Frequency) 센서 및 초음파 센서 중에 적어도 하나를 포함할 수 있다.In the portable terminal according to the present invention, the sensing unit may include at least one of a camera, an infrared sensor, a proximity sensor, a capacitance sensor, a radio frequency (RF) sensor, and an ultrasonic sensor.

본 발명에 따른 휴대단말은 상기 적어도 하나의 객체에 각각 대응되게 설정된 하이라이트 표시 방식을 저장하는 저장부를 더 포함할 수 있다.The portable terminal according to the present invention may further include a storage unit for storing a highlight display scheme corresponding to each of the at least one object.

본 발명에 따른 휴대단말에 있어서, 상기 감지부는 상기 표시부의 표시패널 위에 설치되어 상기 손가락 또는 터치기구의 근접 또는 터치를 감지하는 터치패널일 수 있다. 이때 상기 감지부는 정전용량 방식 또는 적외선 방식으로 상기 손가락 또는 터치기구의 근접 또는 터치를 감지할 수 있다.In the portable terminal according to the present invention, the sensing unit may be a touch panel installed on the display panel of the display unit and sensing proximity or touch of the finger or the touch mechanism. At this time, the sensing unit may sense the proximity or touch of the finger or the touch mechanism in a capacitive or infrared manner.

본 발명에 따른 휴대단말에 있어서, 상기 표시부는 상기 손가락 또는 터치기구의 터치를 감지하는 터치스크린일 수 있다.In the portable terminal according to the present invention, the display unit may be a touch screen for sensing the touch of the finger or the touch mechanism.

본 발명은 또한, 휴대단말이 화면에 적어도 하나의 객체를 표시하는 단계, 상기 적어도 하나의 객체 중에서 제1 객체에 손가락 또는 터치기구가 근접하면, 상 기 휴대단말이 상기 제1 객체를 하이라이트하여 표시하는 단계를 포함하는 휴대단말의 객체 표시 방법을 제공한다.The method may further include displaying at least one object on a screen of the portable terminal, and when a finger or a touch mechanism approaches the first object among the at least one object, the portable terminal highlights the first object And displaying the object in the portable terminal.

본 발명에 따른 객체 표시 방법에 있어서, 상기 제1 객체를 하이라이트하여 표시하는 단계는 상기 휴대단말이 상기 화면에 근접한 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계, 상기 휴대단말이 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 제1 객체를 선택하고, 상기 선택한 제1 객체를 하이라이트하여 표시하는 단계를 포함할 수 있다.In the method of displaying an object according to the present invention, the step of highlighting and displaying the first object may include calculating the position of the finger or the touch mechanism on the screen close to the screen, Selecting a first object mapped to the calculated position among at least one object, and highlighting and displaying the selected first object.

본 발명에 따른 객체 표시 방법에 있어서, 상기 위치를 산출하는 단계는 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 임계거리 이내로 상기 화면에 근접하는 지의 여부를 감시하는 단계, 상기 감지부로부터 상기 임계거리 이내로 상기 화면에 근접한 상기 손가락 또는 터치기구에 대한 제1 감지신호를 수신하면, 상기 휴대단말이 상기 제1 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계를 포함할 수 있다.In the object displaying method according to the present invention, the step of calculating the position may include the steps of: monitoring whether the finger or the touch mechanism approaches the screen within a critical distance through the sensing unit; The step of calculating the position of the finger or the touch mechanism on the screen based on the first sensing signal when the portable terminal receives the first sensing signal for the finger or the touch mechanism close to the screen within a critical distance .

본 발명에 따른 객체 표시 방법에 있어서, 상기 위치를 산출하는 단계에서 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치는 카메라 비전 방식, 적외선 방식, 정전용량 방식 및 초음파 방식 중에 적어도 하나의 방식을 이용하여 산출할 수 있다.In the object displaying method according to the present invention, in the step of calculating the position, the position of the finger or the touch mechanism on the screen may be at least one of a camera vision system, an infrared system, a capacitive system and an ultrasonic system Can be calculated.

본 발명에 따른 객체 표시 방법에 있어서, 상기 제1 객체를 하이라이트하여 표시하는 단계에서, 상기 휴대단말이 상기 제1 객체에 밑줄을 표시하거나, 상기 제1 객체의 크기, 모양, 색상 및 밝기 중에서 적어도 하나를 변형하여 표시할 수 있 다. 또는 상기 휴대단말이 상기 제1 객체에 포인터를 표시할 수 있다.In the method of displaying an object according to the present invention, in the step of highlighting and displaying the first object, the portable terminal displays an underline on the first object, or displays at least one of the size, shape, color, One can be transformed and displayed. Alternatively, the portable terminal may display a pointer on the first object.

본 발명에 따른 객체 표시 방법은 상기 제1 객체를 하이라이트하여 표시하는 단계 이후에 수행되는, 상기 손가락 또는 터치기구가 상기 화면에서 임계거리 밖으로 이동하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계를 더 포함할 수 있다.The object display method according to the present invention is characterized in that when the finger or touch mechanism moves out of a critical distance on the screen, which is performed after highlighting and displaying the first object, the portable terminal displays a highlight The method may further include terminating the step.

본 발명에 따른 객체 표시 방법에 있어서, 상기 하이라이트 표시를 종료하는 단계는 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 상기 화면에서 임계거리 밖으로 이동하는 지를 감시하는 단계, 상기 감지부로부터 상기 임계거리 밖으로 이동한 상기 손가락 또는 터치기구에 대한 제2 감지신호를 수신하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계를 포함할 수 있다. 이때 상기 임계거리는 수직 임계거리일 수 있다.In the method of displaying an object according to the present invention, the step of terminating the highlight display may include monitoring whether the finger or the touch mechanism moves out of a critical distance on the screen through the sensing unit, And when the portable terminal receives the second sensing signal for the finger or touch mechanism moved out of the distance, terminating the highlight display for the first object. The critical distance may be a vertical critical distance.

본 발명에 따른 객체 표시 방법은 상기 제1 객체를 하이라이트하여 표시하는 단계 이후에 수행되는, 상기 손가락 또는 터치기구가 상기 화면에 근접한 상태에서 이동하되, 상기 제1 객체를 중심으로 수평 임계거리 밖으로 이동하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하고, 상기 손가락 또는 터치기구가 이동하여 근접한 지점에 위치한 제2 객체를 하이라이트하여 표시하는 단계를 더 포함할 수 있다.A method of displaying an object according to the present invention includes moving a finger or a touch mechanism after a step of highlighting and displaying the first object in a state in which the finger or a touch mechanism is close to the screen, The portable terminal may terminate the highlight display for the first object and highlight the second object located at a point where the finger or the touch mechanism moves to display the highlighted object.

본 발명에 따른 객체 표시 방법에 있어서, 상기 제2 객체를 하이라이트하여 표시하는 단계는 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 상기 제1 객체의 위치에서 상기 수평 임계거리 밖으로 이동하는 지를 감시하는 단 계, 상기 감지부로부터 상기 수평 임계거리 밖으로 이동한 상기 손가락 또는 터치기구에 대한 제3 감지신호를 수신하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계, 상기 휴대단말이 상기 제3 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계, 상기 휴대단말이 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 제2 객체를 선택하고, 상기 선택한 제2 객체를 하이라이트하여 표시하는 단계를 포함할 수 있다.In the method of displaying an object according to the present invention, the step of highlighting and displaying the second object may include monitoring whether the finger or the touch mechanism moves out of the horizontal threshold distance at the position of the first object through the sensing unit A step of terminating the highlight display for the first object when the portable terminal receives the third sensing signal for the finger or the touch mechanism that has moved out of the horizontal threshold distance from the sensing unit, Calculating a position of the finger or touch mechanism on the screen based on the third sensing signal, selecting the second object mapped to the calculated position among the at least one object, And highlighting and displaying the selected second object.

본 발명에 따른 객체 표시 방법은 제1 객체를 하이라이트하여 표시하는 단계 이후에 수행되는, 상기 손가락 또는 터치기구가 상기 화면에서 벗어나면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계를 더 포함할 수 있다.A method of displaying an object according to the present invention includes the steps of highlighting a first object and terminating a highlight display for the first object when the finger or touch mechanism moves out of the screen As shown in FIG.

본 발명에 따른 객체 표시 방법에 있어서, 상기 감지신호는 상기 화면 상에서의 상기 손가락 또는 터치기구의 위치 정보를 포함할 수 있다.In the object displaying method according to the present invention, the sensing signal may include position information of the finger or the touch mechanism on the screen.

본 발명에 따른 객체 표시 방법에 있어서, 상기 객체는 이미지, 메뉴, 리스트, 아이콘 및 텍스트 중에 적어도 하나를 포함한다.In the object displaying method according to the present invention, the object includes at least one of an image, a menu, a list, an icon and text.

본 발명에 따르면, 휴대단말은 손가락 또는 터치기구가 근접한 객체를 하이라이트하여 표시하기 때문에, 하이라이트된 객체를 통하여 사용자는 해당 객체가 목표로 하는 객체 인지의 여부를 쉽게 확인할 수 있다. 또한 하이라이트된 객체가 목표로 하는 객체가 아닌 경우, 사용자는 터치기구를 목표로 하는 객체로 이동시켜 하이라이트 위치를 변경하여 목표로 하는 객체를 하이라이트할 수 있기 때문에, 휴대단말은 사용자가 해당 객체를 정확히 선택할 수 있도록 안내한다. 이로 인해 사용자가 목표하는 객체 이외의 다른 객체를 터치하는 오류를 최소화할 수 있다.According to the present invention, since the portable terminal displays a highlighted object by highlighting a nearby object with a finger or a touch mechanism, the user can easily confirm whether or not the object is a target object through the highlighted object. Also, when the highlighted object is not the target object, the user can move the touch mechanism to the target object and change the highlight position to highlight the target object. Therefore, Guide you to choose. This minimizes the error of the user touching objects other than the target object.

이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시예에 따른 휴대단말(100)은, 도 1에 도시된 바와 같이, 저장부(10), 표시부(20), 감지부(30) 및 제어부(40)를 포함하여 구성된다. 이때 휴대단말(100)은 표시부(20)를 구비한 단말로서, 이동통신단말, 노트북(notebook), PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), DMB(Digital Multimedia Broadcasting) 또는 DVB(Digital Video Broadcasting)와 같은 디지털방송 수신기를 포함한다.1, the portable terminal 100 according to the embodiment of the present invention includes a storage unit 10, a display unit 20, a sensing unit 30, and a control unit 40. As shown in FIG. The mobile terminal 100 may be a terminal having the display unit 20 and may be a mobile communication terminal, a notebook, a PDA (personal digital assistant), a portable multimedia player (PMP), a digital multimedia broadcasting (DMB) Video Broadcasting).

저장부(10)는 휴대단말(100)의 동작 제어시 필요한 프로그램과, 그 프로그램 수행 중에 발생되는 데이터를 저장하며, 하나 이상의 휘발성 메모리 소자와 비휘발성 메모리 소자로 이루어진다. 저장부(10)는 손가락 또는 스타일러스 펜(stylus pen)과 같은 터치기구(이하 '터치기구'라 함)가 근접하는 화면 상의 객체를 하이라이트하여 표시하는 실행프로그램을 저장한다. 이때 객체는 화면에 표시되는 이미지, 메뉴, 리스트, 아이콘, 텍스트 등을 포함한다. 저장부(10)는 객체의 종류에 따라 해당 객체를 하이라이트하여 표시하는 방식을 저장하며, 그 방식은 객체의 종류에 따라 상이하게 설정될 수 있다. 예컨대 객체가 메뉴인 경우, 색상과 밝기를 다 르게 표시한다. 객체가 리스트인 경우, 밝기만을 다르게 표시하거나 밑줄을 표시한다. 객체가 아이콘인 경우, 색상만을 다르게 표시하거나 포인터(pointer)를 표시한다. 그 외 다양한 방식으로 객체를 하이라이트하여 표시할 수 있음은 물론이다.The storage unit 10 stores a program necessary for controlling the operation of the portable terminal 100 and data generated during the execution of the program, and is composed of one or more volatile memory devices and nonvolatile memory devices. The storage unit 10 stores an execution program for highlighting and displaying an object on the screen where a touch mechanism such as a finger or a stylus pen (hereinafter referred to as a " touch mechanism " At this time, the object includes an image, a menu, a list, an icon, text, and the like displayed on the screen. The storage unit 10 stores a method of highlighting and displaying the object according to the object type, and the method may be set differently according to the object type. For example, if the object is a menu, the color and brightness are displayed differently. If the object is a list, only the brightness is displayed differently or underlined. If the object is an icon, it displays only a different color or displays a pointer. Of course, objects can be highlighted and displayed in various other ways.

표시부(20)는 휴대단말(100)에서 실행되는 각종 기능 메뉴를 비롯하여 저장부(10)에 저장된 정보를 적어도 하나의 객체로 표시한다. 표시부(20)는 제어부(40)의 제어에 따라 터치기구가 근접하는 객체를 하이라이트하여 표시한다. 표시부(20)로는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes), 터치스크린 등이 사용될 수 있다. 이때 터치스크린은 영상(객체)을 표시하는 표시패널과, 표시패널 위에 설치되며 터치를 감지하는 터치패널을 포함하여 구성된다. 터치스크린은 표시장치와 입력장치의 역할을 동시에 수행한다. 본 실시예에서는 표시부(20)로 터치스크린을 사용한 예를 개시하였다.The display unit 20 displays information stored in the storage unit 10 as at least one object, as well as various function menus executed in the portable terminal 100. The display unit 20 displays the highlighted object by the touch device under the control of the control unit 40. As the display unit 20, an LCD (Liquid Crystal Display), an OLED (Organic Light Emitting Diodes), a touch screen, or the like can be used. At this time, the touch screen includes a display panel for displaying an image (object), and a touch panel installed on the display panel for sensing a touch. The touch screen serves both as a display device and as an input device. In this embodiment, an example using a touch screen as the display unit 20 is disclosed.

감지부(30)는 터치기구가 표시부(20)의 화면에 근접하는 지의 여부를 감시하고, 근접하면 제어부(40)로 감지신호를 출력한다. 즉 감지부(30)는 터치기구가 화면에 근접하는 지의 여부와, 화면에 근접한 상태에서의 터치기구의 이동을 감시하고, 그에 따른 감지신호를 제어부(40)로 전송한다. 즉 감지부(30)는 화면에 대해서 터치기구가 임계거리 안쪽으로 이동하는 지 바깥쪽으로 이동하는 지의 여부를 감시한다. 임계거리 안쪽으로 이동하면, 감지부(30)는 객체를 하이라이트하여 표시하기 위한 제1 감지신호를 제어부(40)로 전송한다. 임계거리 바깥쪽으로 이동하면, 감지부(30)는 객체의 하이라이트 표시를 종료시키기 위한 제2 감지신호를 제어부(40)로 전송한다. 이때 임계거리는 화면에 대한 수직 임계거리일 수 있다.The sensing unit 30 monitors whether or not the touch device is close to the screen of the display unit 20. When the touch unit approaches the screen of the display unit 20, the sensing unit 30 outputs a sensing signal to the control unit 40. [ That is, the sensing unit 30 monitors whether or not the touch mechanism is close to the screen and moves the touch mechanism in a state close to the screen, and transmits a sensing signal to the controller 40. That is, the sensing unit 30 monitors whether or not the touch mechanism moves to the inside or outside of the critical distance with respect to the screen. The sensing unit 30 transmits a first sensing signal to the control unit 40 for highlighting and displaying the object. The sensing unit 30 transmits a second sensing signal for terminating the highlight display of the object to the control unit 40. [ The critical distance may be a vertical critical distance to the screen.

또한 감지부(30)는 화면에 대해서 터치기구가 수직 임계거리 안쪽에서 이동하되, 하이라이트된 객체를 중심으로 수평 임계거리 밖으로 이동하는 지의 여부를 감시한다. 터치기구가 수평 임계거리 안쪽에 위치하면, 감지부(30)는 별도의 감지신호를 제어부(40)로 전송하지 않으며, 제어부(40)는 터치기구가 근접한 객체의 하이라이트 표시상태를 유지한다. 터치기구가 수평 임계거리 바깥쪽으로 이동하면, 제어부(40)는 이동 전 하이라이트된 객체의 하이라이트 표시를 종료시키고, 이동 후 터치기구가 근접한 객체의 하이라이트 표시를 위한 제3 감지신호를 제어부(40)로 전송한다. 이때 제어부(40)는 하이라이트 표시를 종료시킨 객체를 하이라이트 전 상태로 표시한다.In addition, the sensing unit 30 monitors whether or not the touch mechanism moves from the inside of the vertical critical distance to the screen, but moves out of the horizontal critical distance about the highlighted object. When the touch mechanism is positioned within the horizontal critical distance, the sensing unit 30 does not transmit a separate sensing signal to the controller 40, and the controller 40 maintains the highlight display state of the object to which the touch mechanism is adjacent. When the touch mechanism moves to the outside of the horizontal critical distance, the controller 40 terminates the highlight display of the object highlighted before movement, and transmits the third detection signal for displaying the highlight of the object in proximity to the touch mechanism to the controller 40 send. At this time, the control unit 40 displays the object which has finished the highlight display as a state before highlighting.

이와 같은 감지부(30)는 터치기구의 근접 여부를 감시하고, 근접한 터치기구의 화면 상에서의 위치 산출에 필요한 위치 정보를 포함하는 감지신호를 제어부(40)로 전송한다. 예컨대 감지부(30)는 카메라, 적외선 센서, 근접 센서, 정전용량 센서, RF(Radio Frequency) 센서 및 초음파 센서 중에 적어도 하나를 포함할 수 있으며, 이에 한정되는 것은 아니다. 감지부(30)는 터치기구의 근접 여부를 감시할 수 있도록 표시부(20)에 인접하게 설치되거나 필름 형태로 표시부(20)의 화면 상에 설치될 수도 있다.The sensing unit 30 monitors the proximity of the touch mechanism and transmits to the controller 40 a sensing signal including position information necessary for calculating the position of the touch mechanism on the screen. For example, the sensing unit 30 may include at least one of a camera, an infrared sensor, a proximity sensor, a capacitance sensor, a radio frequency (RF) sensor, and an ultrasonic sensor. The sensing unit 30 may be provided adjacent to the display unit 20 or may be installed on the screen of the display unit 20 in the form of a film so as to monitor proximity of the touch mechanism.

한편 본 실시예에서는 표시부(20)와 감지부(30)가 개별적으로 설치된 예를 개시하였지만 이에 한정되는 것은 아니다. 즉 표시부(20)는 감지부(30)를 포함하여 구성될 수 있다. 예컨대 표시부(20)로 터치스크린을 사용할 경우, 터치스크린의 터치패널이 감지부(20)의 기능을 함께 수행할 수도 있다. 터치패널로는 터치기구의 근접 또는 터치를 감지할 수 있는 정전용량 방식 또는 적외선 방식의 터치패널을 사용하는 것이 바람직하다.In this embodiment, the display unit 20 and the sensing unit 30 are separately provided. However, the present invention is not limited thereto. That is, the display unit 20 may include the sensing unit 30. [ For example, when the touch screen is used as the display unit 20, the touch panel of the touch screen may perform the function of the sensing unit 20 together. As the touch panel, it is preferable to use a capacitive type or an infrared type touch panel capable of sensing proximity or touch of a touch mechanism.

그리고 제어부(40)는 휴대단말(100)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)이다. 제어부(40)는 터치기구가 근접하는 객체의 하이라이트 처리를 제어한다. 즉 감지부(30)를 통하여 제1 감지신호를 수신하면, 제어부(40)는 제1 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한다. 제어부(40)는 적어도 하나의 객체 중에서 산출된 위치에 매핑된 객체를 선택하고, 선택한 객체를 하이라이트하여 표시한다. 이때 선택된 객체의 하이라이트는 객체에 밑줄을 표시하거나, 객체의 크기, 모양, 색상 및 밝기 중에서 적어도 하나를 변형하여 표시하는 것을 의미한다. 또는 제어부(40)는 선택된 객체에 포인터를 표시하거나, 객체의 변형과 더불어 포인터를 추가적으로 더 표시할 수도 있다. 포인터는 객체 위에 표시되거나 객체의 근방에 표시될 수 있다. 특히 객체의 근방에 포인터를 표시할 때, 사용자가 포인터를 확인할 수 있도록 터치기구의 끝단에 대해서 위쪽의 화면 영역에 표시할 수 있다.The control unit 40 is a microprocessor that performs overall control operations of the portable terminal 100. The control unit 40 controls the highlighting process of the object to which the touch mechanism is adjacent. That is, upon receiving the first sensing signal through the sensing unit 30, the controller 40 calculates the position of the touch device on the screen based on the first sensing signal. The control unit 40 selects an object mapped to the calculated position among at least one object, and displays the highlighted object. The highlight of the selected object means that the object is underlined or at least one of the size, shape, color, and brightness of the object is transformed and displayed. Alternatively, the control unit 40 may display a pointer to the selected object, or may further display a pointer in addition to the transformation of the object. Pointers can be displayed on or near the object. In particular, when a pointer is displayed in the vicinity of the object, it can be displayed in the upper screen area with respect to the end of the touch mechanism so that the user can check the pointer.

이때 제어부(40)는 감지부(30)의 종류에 따라서 카메라 비전 방식, 적외선 방식, 정전용량 방식, 초음파 방식 또는 이들을 조합한 방식 등을 이용하여 터치기구의 화면 상에서의 위치를 산출할 수 있으며, 이에 한정되는 것은 아니다. 예컨대, 카메라 비전 방식은 카메라로 촬영한 영상에서 터치기구의 이동 경로를 분석 및 예측하여 터치기구의 화면 상에서의 위치를 산출하는 방식이다. 즉 제어부(40)는 카메라를 통하여 촬영한 영상을 수신하고, 수신한 영상에서 터치기구를 추출한 다. 제어부(40)는 추출한 터치기구의 끝단의 이동 경로를 분석 및 예측하여 터치기구의 화면 상에서의 위치를 산출한다.At this time, the controller 40 may calculate the position of the touch device on the screen by using a camera vision method, an infrared method, a capacitance method, an ultrasonic method, or a combination thereof depending on the type of the sensing part 30, But is not limited thereto. For example, the camera vision method is a method of calculating the position of the touch device on the screen by analyzing and predicting the movement path of the touch device in the image captured by the camera. That is, the control unit 40 receives the image captured through the camera and extracts the touch mechanism from the received image. The control unit 40 analyzes and predicts the movement path of the end of the extracted touch mechanism to calculate the position of the touch mechanism on the screen.

적외선 방식(또는 초음파 방식)은 화면에 수평하게 XY축 방향으로 적외선(초음파)를 조사하는 상태에서, 적외선(초음파)의 경로를 차단하는 터치기구의 화면 상에서의 위치를 산출하는 방식이다. 즉 적외선(초음파)를 화면에 수평하게 조사한 상태에서, 터치기구에 의해 화면 상의 특정 지점에서 적외선의 진행이 차단되면, 감지부(30)는 적외선이 차단된 지점에 대한 위치 정보를 포함하는 감지신호를 제어부(40)로 전송한다. 제어부(40)는 수신한 감지신호에 포함된 적외선이 차단된 지점에 대응하는 화면 상에서의 위치를 산출한다.The infrared method (or ultrasonic method) is a method of calculating the position on the screen of the touch mechanism which cuts off the path of infrared rays (ultrasonic waves) in a state of irradiating infrared rays (ultrasonic waves) horizontally in the X and Y directions on the screen. That is, when the progress of the infrared ray is blocked at a specific point on the screen by the touch mechanism in the state where the infrared ray (ultrasonic wave) is illuminated horizontally on the screen, the sensing unit 30 senses the sensing signal To the control unit (40). The control unit 40 calculates the position on the screen corresponding to the point where the infrared rays included in the received sensing signal are blocked.

그리고 정전용량 방식은 터치기구가 근접한 화면 상의 위치에서 발생되는 정전용량의 변화를 감지하여 터치기구의 화면 상에서의 위치를 산출하는 방식이다. 즉 정전용량 방식의 감지부(30)는 터치기구가 화면에 근접하게 되면, 감지부(30)는 터치기구가 근접하여 정전용량의 변화가 발생된 지점에 대한 위치 정보를 포함하는 감지신호를 제어부(40)로 전송한다. 제어부(40)는 정전용량의 변화가 발생된 지점에 대응하는 화면 상에서의 위치를 산출한다.The electrostatic capacity method is a method of calculating the position of the touch device on the screen by sensing a change in capacitance caused by a position on the screen adjacent to the touch device. That is, when the touch mechanism approaches the screen, the sensing unit 30 of the capacitance type sensing unit 30 outputs a sensing signal including positional information about a point where the touch mechanism is close to the change of the capacitance, (40). The control unit 40 calculates the position on the screen corresponding to the point where the change in the capacitance occurs.

제어부(40)는 감지부(30)를 통하여 터치기구가 화면에 임계거리 이내로 근접하는 지의 여부를 감시한다. 예컨대 제어부(40)는 감지부(30)를 통하여 터치기구가 화면에 수직 임계거리 이내로 이동하는 지의 여부를 감시한다. 감지부(30)로부터 수직 임계거리 이내로 이동한 터치기구에 대한 제1 감지신호를 수신하면, 제1 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한다. 이때 제어부(40)는 제1 감지신호에 포함된 터치기구의 위치 정보를 기반으로 터치기구의 화면 상에서의 위치를 산출할 수 있다.The control unit 40 monitors whether or not the touch mechanism is within a critical distance on the screen through the sensing unit 30. For example, the control unit 40 monitors whether or not the touch mechanism moves within the vertical critical distance on the screen through the sensing unit 30. [ Upon receiving the first sensing signal for the touch mechanism moved within the vertical critical distance from the sensing unit 30, the position of the touch mechanism on the screen is calculated based on the first sensing signal. At this time, the controller 40 may calculate the position of the touch device on the screen based on the position information of the touch device included in the first sensing signal.

한편 터치기구가 근접한 객체를 하이라이트한 이후에, 제어부(40)는 터치기구의 이동에 따라 다음과 같이 객체에 대한 하이라이트 처리를 수행할 수 있다. 이때 하이라이트된 특정 객체를 중심으로 터치기구의 이동은 수직 이동 성분과 수평 이동 성분의 조합으로 표현할 수 있으며, 제어부(40)는 수직 이동 또는 수평 이동 거리와 임계거리와의 관계에 따라 하이라이트 처리를 수행한다.On the other hand, after the touch mechanism highlights the adjacent object, the control unit 40 can perform highlight processing for the object according to the movement of the touch mechanism as follows. At this time, the movement of the touch mechanism around the highlighted specific object can be represented by a combination of the vertical movement component and the horizontal movement component. The controller 40 performs highlight processing according to the vertical movement or the relationship between the horizontal movement distance and the critical distance do.

먼저 터치기구가 화면에서 멀어지되 임계거리 밖으로 이동하면, 제어부(40)는 객체에 대한 하이라이트 표시를 종료한다. 즉 제어부(40)는 감지부(30)를 통하여 터치기구가 화면에서 수직 임계거리 밖으로 이동하는 지를 감시한다. 감시 중 감지부(30)로부터 수직 임계거리 밖으로 이동한 터치기구에 대한 제2 감지신호를 수신하면, 제어부(40)는 제1 객체에 대한 하이라이트 표시를 종료한다. 제어부(40)는 제1 객체를 하이라이트 처리 전의 상태로 화면에 표시한다.First, when the touch mechanism is moved away from the screen but outside the critical distance, the control unit 40 ends the highlight display for the object. That is, the control unit 40 monitors whether the touch mechanism moves out of the vertical critical distance on the screen through the sensing unit 30. [ Upon receiving the second sensing signal for the touch mechanism that has moved out of the vertical critical distance from the monitoring unit 30, the controller 40 ends the highlight display for the first object. The control unit 40 displays the first object on the screen before the highlight processing.

다음으로 터치기구가 화면에 근접한 상태에서 수평 방향으로 이동하되, 하이라이트된 객체를 중심으로 수평 임계거리 밖으로 이동하면, 제어부(40)는 하이라이트된 객체(이하 '제1 객체'라 함)에 대한 하이라이트 표시를 종료하고, 현재 터치기구가 근접한 지점에 위치한 다른 객체(이하 '제2 객체'라 함)를 하이라이트하여 표시한다. 즉 제어부(40)는 감지부(30)를 통하여 터치기구가 제1 객체의 위치에서 수평 임계거리 밖으로 이동하는 지를 감시한다. 감시 중 감지부(30)로부터 수평 임계거리 밖으로 이동한 터치기구에 대한 제3 감지신호를 수신하면, 제어부(40)는 제 1 객체에 대한 하이라이트 표시를 종료한다. 제어부(40)는 제3 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한다. 그리고 제어부(40)는 적어도 하나의 객체 중에서 산출된 위치에 매핑된 제2 객체를 선택하고, 선택된 제2 객체를 하이라이트하여 표시한다. 이와 같이 터치기구를 화면에 근접한 상태에서 화면 상에서 수평 방향으로 이동하면, 제어부(40)는 터치기구의 이동 경로 상에 있는 객체의 하이라이트 및 하이라이트 종료를 이동 방향을 따라 순차적으로 수행할 수 있다. 여기서 수평 방향으로의 이동은 터치기구가 수직 임계거리 안에서 이동하는 것을 의미하며, 그 이동이 수직 성분에 비해서 수평 성분이 주를 이루기 때문에 수평 방향으로의 이동이라고 하였다. 터치기구가 수평 방향으로 이동하더라도 수직 임계거리를 벗어나면, 제어부(40)는 터치기구의 수평 방향으로의 이동에 따른 하이라이트 처리를 수행하지 않고 수직 임계거리에 따른 하이라이트 처리를 수행한다.Next, when the touch device moves in the horizontal direction in the state of being close to the screen and moves out of the horizontal critical distance around the highlighted object, the control unit 40 displays highlight for the highlighted object And displays another object (hereinafter, referred to as a 'second object') highlighted and positioned at a point where the current touch mechanism is located. That is, the control unit 40 monitors whether the touch device moves out of the horizontal critical distance at the position of the first object through the sensing unit 30. Upon receiving the third sensing signal for the touch mechanism that has moved out of the horizontal critical distance from the monitoring unit 30, the control unit 40 ends the highlight display for the first object. The control unit 40 calculates the position of the touch device on the screen based on the third sensing signal. Then, the controller 40 selects a second object mapped to the calculated position among at least one object, and displays the highlighted second object. When the touch device is moved in the horizontal direction on the screen in the state of being close to the screen, the controller 40 can sequentially perform highlighting and highlighting of the object on the movement path of the touch device along the moving direction. The movement in the horizontal direction means that the touch mechanism moves within the vertical critical distance, and the movement is referred to as horizontal movement because the horizontal component is dominant as compared with the vertical component. Even if the touch mechanism moves in the horizontal direction, the control unit 40 performs the highlight processing according to the vertical threshold distance without performing the highlight processing according to the movement of the touch mechanism in the horizontal direction.

한편으로 특정 객체가 하이라이트된 상태에서 터치기구가 화면을 벗어나면, 제어부(40)는 객체에 대한 하이라이트 표시를 종료할 수도 있다.On the other hand, if the touch device is out of the screen while a specific object is highlighted, the control unit 40 may terminate the highlight display for the object.

여기서 수직 임계거리는 화면에 대해서 수직 방향으로 일정 거리로 설정될 수 있다. 수평 임계거리는 객체를 중심으로 수평 방향으로 일정거리로 설정될 수 있으며, 이웃하는 객체와 겹치지 않는 범위에서 설정하는 것이 바람직하다. 한편 수직 및 수평 임계거리는 디폴트로 설정되며, 사용자에 의해 재설정될 수도 있다.Here, the vertical critical distance may be set to a predetermined distance in the vertical direction with respect to the screen. The horizontal threshold distance may be set to a predetermined distance in the horizontal direction around the object, and is preferably set within a range that does not overlap neighboring objects. While the vertical and horizontal threshold distances are set to default and may be reset by the user.

한편 터치기구가 근접한 객체는 하이라이트되어 표시되기 때문에, 하이라이트된 객체를 통하여 사용자는 해당 객체가 목표로 하는 객체 인지의 여부를 쉽게 확인할 수 있다. 하이라이트된 객체가 목표로 하는 객체가 아닌 경우, 사용자는 터 치기구를 목표로 하는 객체로 이동시켜 하이라이트 위치를 변경할 수 있다. 목표로 하는 객체가 하이라이트된 상태에서, 사용자가 터치기구로 해당 객체를 터치하면, 표시부(20)는 해당 객체의 터치 정보를 제어부(40)로 전송한다. 제어부(40)는 수신한 터치 정보를 토대로 해당 객체에 매핑된 기능을 수행한다.On the other hand, since the object with the touch mechanism is highlighted and displayed, the user can easily confirm whether or not the object is the target object through the highlighted object. If the highlighted object is not the target object, the user can change the highlight location by moving the touch target to the target object. When the user touches the object with the touch mechanism in a state where the target object is highlighted, the display unit 20 transmits the touch information of the object to the control unit 40. The control unit 40 performs a function mapped to the object based on the received touch information.

이와 같이 본 발명의 실시예에 따른 휴대단말(100)은 터치기구가 화면의 특정 객체에 근접하면 해당 객체를 하이라이트하여 표시하기 때문에, 사용자가 목표로 하는 객체를 정확히 선택할 수 있도록 안내한다. 이로 인해 본 실시예에 따른 휴대단말(100)은 사용자가 목표하는 객체 이외의 다른 객체를 터치하는 오류를 최소화할 수 있다.As described above, the portable terminal 100 according to the embodiment of the present invention guides the user to select a target object precisely because the object is highlighted and displayed when the touch mechanism approaches a specific object on the screen. Accordingly, the mobile terminal 100 according to the present embodiment can minimize an error in touching an object other than a target object by a user.

이와 같은 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 대해서 도 1 및 도 2를 참조하여 설명하면 다음과 같다. 여기서 도 2는 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 따른 흐름도이다. 여기서 표시부(20)로는 터치스크린이 사용된 예를 개시하였다.A method of displaying an object of a portable terminal according to an embodiment of the present invention will now be described with reference to FIGS. 1 and 2. FIG. 2 is a flowchart illustrating an object display method of a mobile terminal according to an exemplary embodiment of the present invention. Here, an example in which a touch screen is used as the display unit 20 is disclosed.

먼저 S51단계에서 휴대단말(100)은 적어도 하나의 객체를 표시부(20)의 화면에 표시한다. 이때 표시부(20)를 통한 사용자의 선택 신호가 입력되면, 휴대단말(100)은 화면에 적어도 하나의 객체를 표시할 수 있다. 또는 사용자가 휴대단말(100)에 마련된 특정 키를 누르면, 휴대단말(100)은 화면에 적어도 하나의 객체를 표시할 수 있다.First, in step S51, the mobile terminal 100 displays at least one object on the screen of the display unit 20. At this time, when the user's selection signal is input through the display unit 20, the portable terminal 100 can display at least one object on the screen. Or when the user presses a specific key provided in the portable terminal 100, the portable terminal 100 can display at least one object on the screen.

다음으로 S53단계에서 휴대단말(100)은 감지부(30)를 통하여 터치기구가 화면에 접근하는 지의 여부를 감시한다. 즉 휴대단말(100)은 감지부(30)를 통하여 터 치기구가 임계거리, 예컨대 수직 임계거리 이내로 이동하는 지의 여부를 감시한다. 이때 감지부(30)는 터치기구의 근접 여부를 주기적으로 감시하거나 연속적으로 감시할 수 있다.Next, in step S53, the portable terminal 100 monitors whether or not the touch mechanism approaches the screen through the sensing unit 30. That is, the portable terminal 100 monitors whether or not the tactile tool moves through the sensing unit 30 to a critical distance, for example, within a vertical critical distance. At this time, the sensing unit 30 may periodically monitor or continuously monitor whether the touch mechanism is in proximity.

S53단계의 감시결과 터치기구가 수직 임계거리 이내로 화면에 근접하지 않은 경우, 휴대단말(100)은 S51단계의 표시 상태를 유지한다.If the monitoring result of step S53 is that the touch device is not close to the screen within the vertical critical distance, the portable terminal 100 maintains the display state of step S51.

S53단계의 감시결과 터치기구가 수직 임계거리 이내로 화면에 근접한 경우, S55단계에서 휴대단말(100)은 터치기구의 화면 상에서의 위치를 산출한다. 즉 감지부(30)가 수직 임계거리 이내로 화면에 근접한 터치기구를 감지하면, 제1 감지신호를 제어부(40)로 전송한다. 휴대단말(100)는 제1 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한다. 이때 휴대단말(100)은 제1 감지신호에 포함된 터치기구의 위치 정보를 기반으로 터치기구의 화면 상에서의 위치를 산출할 수 있다. 예컨대, 휴대단말(100)은 손가락 또는 터치기구의 화면 상에서의 위치는 정전용량 방식, 적외선 방식, 초음파 방식 및 카메라 비전 방식 중에 적어도 하나의 방식을 이용하여 산출할 수 있다.If the monitoring result of step S53 is that the touch device is close to the screen within the vertical critical distance, the portable terminal 100 calculates the position on the screen of the touch device in step S55. That is, when the sensing unit 30 senses a touch mechanism that is close to the screen within a vertical critical distance, it transmits a first sensing signal to the controller 40. [ The portable terminal 100 calculates the position of the touch device on the screen based on the first sensing signal. At this time, the mobile terminal 100 may calculate the position of the touch device on the screen based on the position information of the touch device included in the first sensing signal. For example, the position of the finger or touch mechanism on the screen of the portable terminal 100 can be calculated using at least one of a capacitive method, an infrared method, an ultrasonic method, and a camera vision method.

다음으로 S57단계에서 휴대단말(100)은 적어도 하나의 객체 중에서 산출된 위치에 매핑된 객체를 선택한다. 이어서 S59단계에서 휴대단말(100)은 선택된 객체를 하이라이트하여 표시한다. 즉 휴대단말(100)은 선택된 객체에 밑줄을 표시하거나, 선택된 객체의 크기, 모양, 색상 및 밝기 중에서 적어도 하나를 변형하여 표시하는 방식으로 선택된 객체를 하이라이트할 수 있다. 또는 휴대단말(100)은 선택된 객체에 포인터를 표시하거나, 하이라이트 표시와 더불어 포인터를 추가적으로 더 표시할 수도 있다.Next, in step S57, the mobile terminal 100 selects an object mapped to the calculated position among at least one object. Subsequently, in step S59, the portable terminal 100 highlights and displays the selected object. That is, the portable terminal 100 may highlight an object selected by displaying an underline on the selected object or modifying at least one of the size, shape, color, and brightness of the selected object. Alternatively, the portable terminal 100 may display a pointer to the selected object, or may further display a pointer in addition to the highlight display.

한편 S61단계에서 휴대단말(100)은 감지부(30)를 통하여 객체를 하이라이트한 후에 터치기구의 이동이 있는 지의 여부를 감시한다. 즉 휴대단말(100)은 터치기구가 화면에 대해서 임계거리 밖으로 이동하는 지의 여부를 감지부(30)를 통하여 감시한다. 예컨대 휴대단말(100)은 터치기구가 하이라이트된 객체를 중심으로 수직 또는 수평 임계거리를 벗어나는 지의 여부를 감지부(30)를 통하여 감시한다.In step S61, the portable terminal 100 monitors whether or not there is movement of the touch mechanism after highlighting the object through the sensing unit 30. [ That is, the portable terminal 100 monitors whether or not the touch mechanism moves out of the critical distance with respect to the screen through the sensing unit 30. For example, the portable terminal 100 monitors whether or not the touch device is out of a vertical or horizontal critical distance around the highlighted object through the sensing unit 30.

S61단계의 감시 결과 터치기구의 이동이 감지되지 않는 경우, 휴대단말(100)은 S59단계의 표시 상태를 유지한다.If the movement of the touch mechanism is not detected in step S61, the portable terminal 100 maintains the display state of step S59.

S61단계의 감시 결과 터치기구의 이동이 감지된 경우, S63단계에서 휴대단말(100)은 다시 그 이동이 수직 임계거리 밖으로의 이동인지의 여부를 판단한다.If it is determined in step S61 that the movement of the touch mechanism is detected, the mobile terminal 100 determines whether or not the movement is out of the vertical critical distance in step S63.

S63단계의 판단 결과 수직 임계거리 밖으로의 이동이 아닌 경우, S65단계에서 휴대단말(100)은 그 이동이 수평 임계거리 밖으로의 이동인지의 여부를 다시 판단한다. 즉 휴대단말(100)은 터치기구가 화면에 근접한 상태에서 발생된 이동이 수평 임계거리를 벗어나는 지의 여부를 판단한다.If it is determined in step S63 that the mobile terminal 100 is not moving out of the vertical threshold distance, the mobile terminal 100 determines again whether or not the movement is out of the horizontal threshold distance in step S65. That is, the portable terminal 100 determines whether or not the movement generated when the touch mechanism is close to the screen is out of the horizontal critical distance.

S65단계의 판단 결과 수평 임계거리 밖으로의 이동이 아닌 경우, 휴대단말(100)은 S59단계의 표시 상태를 유지한다. 즉 터치기구의 이동이 수직 또는 수평 임계거리를 벗어나지 않으면, 휴대단말(100)은 S59단계의 표시 상태를 유지한다.As a result of the determination in step S65, if the mobile terminal 100 does not move out of the horizontal threshold distance, the mobile terminal 100 maintains the displayed state in step S59. If the movement of the touch mechanism does not deviate from the vertical or horizontal critical distance, the portable terminal 100 maintains the display state of step S59.

S65단계의 판단 결과 수평 임계거리 밖으로의 이동이 감지된 경우, S67단계에서 휴대단말(100)은 하이라이트된 객체의 하이라이트 표시를 종료한다. 이어서 휴대단말(100)은 S55단계부터 다시 수행하여 터치기구가 이동한 위치에 근접한 다 른 객체를 하이라이트하여 표시할 수 있다. 즉 사용자가 터치기구를 화면에 근접한 상태에서 화면 상에서 수평 방향으로 이동하면, 휴대단말(100)은 터치기구의 이동 경로 상에 있는 객체의 하이라이트 및 하이라이트 종료를 이동 방향을 따라 순차적으로 수행할 수 있다.If it is determined in step S65 that movement outside the horizontal threshold distance is detected, the mobile terminal 100 ends the highlighting of the highlighted object in step S67. Subsequently, the portable terminal 100 can perform the process from step S55 again to highlight another object close to the position where the touch mechanism has moved. That is, when the user moves the touch device in the horizontal direction on the screen in the state of being close to the screen, the portable terminal 100 can sequentially perform the highlighting and the highlighting of the object on the movement path of the touch device along the moving direction .

그리고 사용자는 화면에 하이라이트된 객체가 목표하는 객체인지의 여부를 육안으로 확인한 후, 하이라이트된 객체가 목표로 하는 객체인 경우 사용자는 터치기구로 터치하여 해당 객체에 매핑된 기능을 수행시킬 수 있다. 즉 목표로 하는 객체가 하이라이트된 상태에서, 사용자가 터치기구로 해당 객체를 터치하면, 표시부(20)는 해당 객체의 터치 정보를 제어부(40)로 전송한다. 제어부(40)는 수신한 터치 정보를 토대로 해당 객체에 매핑된 기능을 수행한다.The user can visually confirm whether the object highlighted on the screen is a target object. If the highlighted object is a target object, the user can touch the touch object to perform a function mapped to the object. That is, when the target object is highlighted, when the user touches the corresponding object with the touch mechanism, the display unit 20 transmits the touch information of the object to the control unit 40. The control unit 40 performs a function mapped to the object based on the received touch information.

한편 S63단계의 판단 결과 수직 임계거리 밖으로의 이동이 감지된 경우, S71단계에서 휴대단말(100)은 하이라이트된 객체의 하이라이트 표시를 종료한다.If it is determined in step S63 that movement outside the vertical threshold distance is detected, the mobile terminal 100 ends the highlighting of the highlighted object in step S71.

한편으로 S61단계의 판단 결과 터치기구의 이동이 감지되고, 터치기구가 화면 영역을 벗어나면, 휴대단말(100)은 하이라이트된 객체의 하이라이트를 종료할 수도 있다.On the other hand, if it is determined in step S61 that the movement of the touch device is detected and the touch device moves out of the screen area, the portable terminal 100 may terminate the highlight of the highlighted object.

이와 같은 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 대해서 도 3의 화면예시도를 참조하여 설명하면 다음과 같다. 여기서 도 3에서는 객체로서 화면에 격자 배열된 복수의 메뉴(23)가 표시된 예를 개시하였다. 이때 도 3에서 터치기구(80)는 표시의 편의상 "+"로 표시하였지만, 실제 화면 상에 "+"이 표시되는 것은 아니다.A method of displaying an object of a portable terminal according to an embodiment of the present invention will now be described with reference to an exemplary diagram of FIG. 3 shows an example in which a plurality of menus 23 arranged in a lattice arrangement on the screen are displayed as objects. At this time, although the touch mechanism 80 is shown as "+" for convenience of illustration in Fig. 3, "+" is not actually displayed on the screen.

먼저 도 3(a)에 도시된 바와 같이 표시부(20)의 화면(21)에 복수의 메뉴(23)가 표시된 상태에서, 도 3(b)에 도시된 바와 같이 복수의 메뉴(23) 중 특정 메뉴, 예컨대 "E 메뉴"에 터치기구(80)를 근접시키면, 도 3(c)에 도시된 바와 같이 휴대단말(100)은 "E 메뉴"를 하이라이트하여 표시한다. 이때 도 3(c)에서는 휴대단말(100)이 "E 메뉴"의 색상을 다른 메뉴와는 다른 색상으로 표시한 예를 개시하였지만 이에 한정되는 것은 아니다. 예컨대 휴대단말(100)은 메뉴에 밑줄을 표시하거나, 메뉴(객체)의 크기, 모양, 색상 및 밝기 중에서 적어도 하나를 변형하여 표시할 수도 있다.3 (a), in a state where a plurality of menus 23 are displayed on the screen 21 of the display unit 20, as shown in Fig. 3 (b), a plurality of menus 23 The portable terminal 100 highlights and displays the "E menu " as shown in Fig. 3 (c) by bringing the touch mechanism 80 close to the menu, e.g., the" E menu ". 3C, the portable terminal 100 displays an example in which the color of the "E menu" is displayed in a different color from that of the other menus. However, the present invention is not limited thereto. For example, the portable terminal 100 may underline a menu or display at least one of the size, shape, color, and brightness of the menu (object) by modifying the menu.

다음으로 도 3(d)에 도시된 바와 같이, 사용자가 터치기구(80)를 화면에 근접시킨 상태에서 수평 방향으로 아래로 이동시켜 "H 메뉴"에 위치시키면, 휴대단말(100)은 "E 메뉴"의 하이라이트 표시시를 종료하고 "H 메뉴"를 하이라이트하여 표시한다. 이때 터치기구(80)의 이동 상태를 표시하기 위해서, 휴대단말(100)은 도 3(b) 및 도 3(d)에서 터치기구(80)의 화면 상에서의 위치에 대응하는 지점에 포인터를 표시할 수 있다.Next, as shown in Fig. 3 (d), when the user moves the touch mechanism 80 in the horizontal direction in the state of being close to the screen and places it in the "H menu", the portable terminal 100 displays "E Menu "is highlighted and the" H menu "is highlighted. At this time, in order to display the moving state of the touch mechanism 80, the portable terminal 100 displays a pointer at a position corresponding to the position on the screen of the touch mechanism 80 in Figs. 3B and 3D can do.

그리고 도 3(c) 또는 도 3(d)에서 사용자가 터치기구(80)를 이동시키되, 수직 임계거리 밖으로 이동시키면, 도 3(a)에 도시된 바와 같이 휴대단말(100)은 하이라이트된 메뉴의 하이라이트 표시를 종료한다. 즉 휴대단말(100)은 메뉴(23)를 하이라이트 전의 상태로 표시한다.3 (c) or 3 (d), when the user moves the touch mechanism 80 out of the vertical critical distance, the portable terminal 100 displays the highlighted menu The display of the highlight of FIG. That is, the portable terminal 100 displays the menu 23 in a state before highlighting.

한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아 니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.It should be noted that the embodiments of the present invention disclosed in the present specification and drawings are only illustrative examples for the purpose of understanding and do not limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

본 발명은 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법에 관한 것으로, 손가락 또는 터치기구가 화면의 객체에 근접하면 해당 객체를 하이라이트하여 표시하기 때문에, 사용자가 해당 객체를 정확히 선택할 수 있도록 안내하고, 이로 인해 사용자가 목표하는 객체 이외의 다른 객체를 터치하는 입력 오류를 최소화할 수 있다.The present invention relates to a portable terminal and a method of displaying an object using the approach recognition of a touch mechanism. When a finger or a touch device approaches a screen object, the object is highlighted and displayed. Therefore, Thereby minimizing an input error in which a user touches an object other than a target object.

도 1은 본 발명의 실시예에 따른 휴대단말의 구성을 보여주는 블록도이다.1 is a block diagram illustrating a configuration of a mobile terminal according to an embodiment of the present invention.

도 2는 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 따른 흐름도이다.2 is a flowchart illustrating an object display method of a mobile terminal according to an exemplary embodiment of the present invention.

도 3은 도 2의 객체 표시 방법에 따른 화면예시도이다.FIG. 3 is a diagram illustrating a screen according to the object display method of FIG. 2. FIG.

* 도면의 주요 부분에 대한 설명 *Description of the Related Art [0002]

10 : 저장부10:

20 : 표시부20:

30 : 감지부30:

40 : 제어부40:

80 : 터치기구80: Touch mechanism

100 : 휴대단말100:

Claims (21)

화면에 적어도 하나의 객체를 표시하는 표시부;A display unit for displaying at least one object on a screen; 손가락 또는 터치기구가 상기 화면에 근접하는 지의 여부를 감시하는 감지부;A sensing unit for monitoring whether or not a finger or a touch mechanism approaches the screen; 상기 감지부로부터 상기 손가락 또는 터치기구의 화면 근접에 따른 감지신호를 수신하면, 상기 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하고, 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 객체를 선택하고, 상기 선택된 객체를 하이라이트하여 상기 표시부에 표시하는 제어부;Wherein the control unit calculates the position of the finger or the touch mechanism on the screen based on the sensing signal when the sensing unit receives the sensing signal along the screen proximity of the finger or the touch mechanism, A control unit for selecting an object mapped to a location, highlighting the selected object and displaying the selected object on the display unit; 를 포함하는 것을 특징으로 하는 휴대단말.And a portable terminal. 제1항에 있어서, 상기 감지부는,The apparatus of claim 1, 상기 손가락 또는 터치기구가 근접한 상기 화면 상에서의 위치 정보를 포함하는 상기 감지신호를 상기 제어부로 전송하는 것을 특징으로 하는 휴대단말.And transmits the sensing signal including positional information on the screen in which the finger or the touch mechanism is close to the control unit. 제1항에 있어서, 상기 감지부는,The apparatus of claim 1, 카메라, 적외선 센서, 근접 센서, 정전용량 센서, RF(Radio Frequency) 센서 및 초음파 센서 중에 적어도 하나를 포함하는 것을 특징으로 하는 휴대단말.And at least one of a camera, an infrared sensor, a proximity sensor, a capacitance sensor, a radio frequency (RF) sensor, and an ultrasonic sensor. 제1항에 있어서,The method according to claim 1, 상기 적어도 하나의 객체에 각각 대응되게 설정된 하이라이트 표시 방식을 저장하는 저장부;A storage unit configured to store a highlight display scheme corresponding to each of the at least one object; 를 더 포함하는 것을 특징으로 하는 휴대단말.Further comprising: 제1항에 있어서, 상기 감지부는,The apparatus of claim 1, 상기 표시부의 표시패널 위에 설치되어 상기 손가락 또는 터치기구의 근접 또는 터치를 감지하는 터치패널인 것을 특징으로 하는 휴대단말.Wherein the touch panel is mounted on a display panel of the display unit and detects proximity or touch of the finger or the touch mechanism. 제5항에 있어서,6. The method of claim 5, 상기 감지부는 정전용량 방식 또는 적외선 방식으로 상기 손가락 또는 터치기구의 근접 또는 터치를 감지하는 것을 특징으로 하는 휴대단말.Wherein the sensing unit senses proximity or touch of the finger or the touch mechanism in a capacitive or infrared manner. 제1항에 있어서,The method according to claim 1, 상기 표시부는 상기 손가락 또는 터치기구의 터치를 감지하는 터치스크린인 것을 특징으로 하는 휴대단말.Wherein the display unit is a touch screen for sensing a touch of the finger or the touch mechanism. 휴대단말이 화면에 적어도 하나의 객체를 표시하는 단계;The mobile terminal displaying at least one object on a screen; 상기 적어도 하나의 객체 중에서 제1 객체에 손가락 또는 터치기구가 근접하면, 상기 휴대단말이 상기 제1 객체를 하이라이트하여 표시하는 단계;The mobile terminal highlighting and displaying the first object when a finger or a touch mechanism approaches the first object among the at least one object; 를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.And displaying the object on the display unit. 제8항에 있어서, 상기 제1 객체를 하이라이트하여 표시하는 단계는,9. The method of claim 8, wherein highlighting and displaying the first object further comprises: 상기 휴대단말이 상기 화면에 근접한 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계;Calculating a position of the finger or the touch mechanism on the screen close to the screen by the portable terminal; 상기 휴대단말이 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 제1 객체를 선택하고, 상기 선택한 제1 객체를 하이라이트하여 표시하는 단계;Selecting the first object mapped to the calculated position among the at least one object and highlighting the selected first object and displaying the selected first object; 를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.And displaying the object on the display unit. 제9항에 있어서, 상기 위치를 산출하는 단계는,10. The method of claim 9, wherein the calculating the position comprises: 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 임계거리 이내로 상기 화면에 근접하는 지의 여부를 감시하는 단계;Monitoring whether the finger or the touch device approaches the screen within a critical distance through the sensing unit; 상기 감지부로부터 상기 임계거리 이내로 상기 화면에 근접한 상기 손가락 또는 터치기구에 대한 제1 감지신호를 수신하면, 상기 휴대단말이 상기 제1 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계;When the portable terminal receives the first sensing signal for the finger or the touch mechanism that is close to the screen within the critical distance from the sensing unit, ; 를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.And displaying the object on the display unit. 제10항에 있어서, 상기 위치를 산출하는 단계에서,11. The method of claim 10, wherein in calculating the position, 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치는 카메라 비전 방식, 적외선 방식, 정전용량 방식 및 초음파 방식 중에 적어도 하나의 방식을 이용하여 산출하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.Wherein the position of the finger or the touch mechanism on the screen is calculated using at least one of a camera vision system, an infrared system, a capacitive system and an ultrasonic system. 제8항에 있어서, 상기 제1 객체를 하이라이트하여 표시하는 단계는,9. The method of claim 8, wherein highlighting and displaying the first object further comprises: 상기 휴대단말이 상기 제1 객체에 밑줄을 표시하거나, 상기 제1 객체의 크기, 모양, 색상 및 밝기 중에서 적어도 하나를 변형하여 표시하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.Wherein the mobile terminal displays an underline on the first object, or modifies at least one of a size, a shape, a color, and a brightness of the first object. 제12항에 있어서, 상기 제1 객체를 하이라이트하여 표시하는 단계는,13. The method of claim 12, wherein highlighting and displaying the first object further comprises: 상기 휴대단말이 상기 제1 객체 위에 포인터를 표시하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.Wherein the portable terminal displays a pointer on the first object. 제8항에 있어서, 상기 제1 객체를 하이라이트하여 표시하는 단계 이후에 수행되는,9. The method of claim 8, further comprising: after the step of highlighting and displaying the first object, 상기 손가락 또는 터치기구가 상기 화면에서 임계거리 밖으로 이동하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계;Closing the highlight display for the first object when the finger or touch mechanism moves out of the critical distance on the screen; 를 더 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.And displaying the object on the display unit. 제14항에 있어서, 상기 하이라이트 표시를 종료하는 단계는,15. The method of claim 14, wherein terminating the highlight indication comprises: 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 상기 화면에 서 임계거리 밖으로 이동하는 지를 감시하는 단계;Monitoring whether the finger or the touch mechanism moves out of a critical distance on the screen through the sensing unit; 상기 감지부로부터 상기 임계거리 밖으로 이동한 상기 손가락 또는 터치기구에 대한 제2 감지신호를 수신하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계;When the portable terminal has received the second sensing signal for the finger or the touch mechanism moved out of the critical distance from the sensing unit, terminating the highlight display for the first object; 를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.And displaying the object on the display unit. 제15항에 있어서,16. The method of claim 15, 상기 임계거리는 상기 화면에서 수직 방향으로의 수직 임계거리인 것을 특징으로 하는 휴대단말의 객체 표시 방법.Wherein the threshold distance is a vertical threshold distance in a vertical direction on the screen. 제8항에 있어서, 상기 제1 객체를 하이라이트하여 표시하는 단계 이후에 수행되는,9. The method of claim 8, further comprising: after the step of highlighting and displaying the first object, 상기 손가락 또는 터치기구가 상기 화면에 근접한 상태에서 이동하되, 상기 제1 객체를 중심으로 수평 임계거리 밖으로 이동하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하고, 상기 손가락 또는 터치기구가 이동하여 근접한 지점에 위치한 제2 객체를 하이라이트하여 표시하는 단계;The portable terminal terminates the highlight display for the first object when the finger or the touch mechanism moves in a state close to the screen and moves out of the horizontal critical distance about the first object, Highlighting and displaying a second object located at a nearby point; 를 더 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.And displaying the object on the display unit. 제17항에 있어서, 상기 제2 객체를 하이라이트하여 표시하는 단계는,18. The method of claim 17, wherein highlighting and displaying the second object further comprises: 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 상기 제1 객 체의 위치에서 상기 수평 임계거리 밖으로 이동하는 지를 감시하는 단계;Monitoring whether the finger or touch mechanism moves out of the horizontal critical distance at the position of the first object through the sensing unit; 상기 감지부로부터 상기 수평 임계거리 밖으로 이동한 상기 손가락 또는 터치기구에 대한 제3 감지신호를 수신하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계;When the portable terminal receives the third sensing signal for the finger or the touch mechanism moved out of the horizontal critical distance from the sensing unit, terminating the highlight display for the first object; 상기 휴대단말이 상기 제3 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계;Calculating a position of the finger or touch mechanism on the screen based on the third sensing signal; 상기 휴대단말이 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 제2 객체를 선택하고, 상기 선택한 제2 객체를 하이라이트하여 표시하는 단계;Selecting a second object mapped to the calculated position among the at least one object and highlighting the selected second object and displaying the selected second object; 를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.And displaying the object on the display unit. 제8항에 있어서, 상기 제1 객체를 하이라이트하여 표시하는 단계 이후에 수행되는,9. The method of claim 8, further comprising: after the step of highlighting and displaying the first object, 상기 손가락 또는 터치기구가 상기 화면에서 벗어나면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계;Closing the highlight display for the first object when the finger or the touch mechanism moves out of the screen; 를 더 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.And displaying the object on the display unit. 제10항, 제15항 및 제18항 중 어느 한 항에 있어서,19. The method according to any one of claims 10, 15 and 18, 상기 감지신호는 상기 화면 상에서의 상기 손가락 또는 터치기구의 위치 정보를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.Wherein the sensing signal includes position information of the finger or the touch mechanism on the screen. 제8항 내지 제19항 중 어느 한 항에 있어서,20. The method according to any one of claims 8 to 19, 상기 객체는 이미지, 메뉴, 리스트, 아이콘 및 텍스트 중에 적어도 하나를 포함하는 것을 특징으로 하는 휴대단말의 객체 표시 방법.Wherein the object includes at least one of an image, a menu, a list, an icon, and text.
KR1020090086362A 2009-09-14 2009-09-14 Mobile terminal and method for displaying object using approach sensing of touch tool thereof KR101151300B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090086362A KR101151300B1 (en) 2009-09-14 2009-09-14 Mobile terminal and method for displaying object using approach sensing of touch tool thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090086362A KR101151300B1 (en) 2009-09-14 2009-09-14 Mobile terminal and method for displaying object using approach sensing of touch tool thereof

Publications (2)

Publication Number Publication Date
KR20110028772A true KR20110028772A (en) 2011-03-22
KR101151300B1 KR101151300B1 (en) 2012-06-08

Family

ID=43934846

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090086362A KR101151300B1 (en) 2009-09-14 2009-09-14 Mobile terminal and method for displaying object using approach sensing of touch tool thereof

Country Status (1)

Country Link
KR (1) KR101151300B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130094380A (en) * 2012-02-15 2013-08-26 엘지전자 주식회사 Mobile terminal and method for controlling thereof
KR20140042544A (en) * 2012-09-28 2014-04-07 삼성전자주식회사 User interface controlling device and method for selecting object in image and image input device
US9864514B2 (en) 2013-02-21 2018-01-09 Samsung Electronics Co., Ltd. Method and electronic device for displaying virtual keypad
US10417974B2 (en) 2014-04-15 2019-09-17 Samsung Electronics Co., Ltd. Device and method for controlling display

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10969899B2 (en) 2019-07-19 2021-04-06 Samsung Electronics Co., Ltd. Dynamically adaptive sensing for remote hover touch

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005912A (en) 2001-06-20 2003-01-10 Hitachi Ltd Display device with touch panel and display method
JP2009116583A (en) * 2007-11-06 2009-05-28 Ricoh Co Ltd Input controller and input control method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130094380A (en) * 2012-02-15 2013-08-26 엘지전자 주식회사 Mobile terminal and method for controlling thereof
KR20140042544A (en) * 2012-09-28 2014-04-07 삼성전자주식회사 User interface controlling device and method for selecting object in image and image input device
US9864514B2 (en) 2013-02-21 2018-01-09 Samsung Electronics Co., Ltd. Method and electronic device for displaying virtual keypad
US10417974B2 (en) 2014-04-15 2019-09-17 Samsung Electronics Co., Ltd. Device and method for controlling display

Also Published As

Publication number Publication date
KR101151300B1 (en) 2012-06-08

Similar Documents

Publication Publication Date Title
US10216407B2 (en) Display control apparatus, display control method and display control program
US9684439B2 (en) Motion control touch screen method and apparatus
JP5721662B2 (en) Input receiving method, input receiving program, and input device
EP2508972B1 (en) Portable electronic device and method of controlling same
EP2624116B1 (en) Display zoom controlled by proximity detection
US11269482B2 (en) Application association processing method and apparatus
EP2718788B1 (en) Method and apparatus for providing character input interface
KR101451999B1 (en) Data scroll method and apparatus
EP2921947B1 (en) Device and method for controlling a display panel
KR101929316B1 (en) Method and apparatus for displaying keypad in terminal having touchscreen
KR20120040358A (en) Method and apparatus for controlling screen in mobile terminal
CN102067073A (en) Display device and method of controlling the same
US9170726B2 (en) Apparatus and method for providing GUI interacting according to recognized user approach
KR20140105691A (en) Apparatus and Method for handling object in a user device having a touch screen
US9374547B2 (en) Input apparatus, display apparatus, and control methods thereof
KR101151300B1 (en) Mobile terminal and method for displaying object using approach sensing of touch tool thereof
US9052767B2 (en) Information terminal device and touch panel display method
JP2012027515A (en) Input method and input device
EP2977862B1 (en) Information processing device and information processing method
JP5492627B2 (en) Information display device and information display method
JPWO2012124279A1 (en) Input device
CN101377725A (en) Hand-held electric device and control method thereof
KR101179466B1 (en) Mobile terminal and method for displaying object using approach sensing of touch tool thereof
JP6411067B2 (en) Information processing apparatus and input method
JP2014182429A (en) Information processor, information processing method and information processing program

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150429

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160428

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180427

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190422

Year of fee payment: 8