KR101151300B1 - Mobile terminal and method for displaying object using approach sensing of touch tool thereof - Google Patents
Mobile terminal and method for displaying object using approach sensing of touch tool thereof Download PDFInfo
- Publication number
- KR101151300B1 KR101151300B1 KR1020090086362A KR20090086362A KR101151300B1 KR 101151300 B1 KR101151300 B1 KR 101151300B1 KR 1020090086362 A KR1020090086362 A KR 1020090086362A KR 20090086362 A KR20090086362 A KR 20090086362A KR 101151300 B1 KR101151300 B1 KR 101151300B1
- Authority
- KR
- South Korea
- Prior art keywords
- screen
- finger
- touch
- touch mechanism
- displaying
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1643—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 휴대단말 및 그의 객체 표시 방법에 관한 것으로, 화면 상에서 사용자가 목표로 하는 객체의 선택을 안내하여 목표하는 객체 이외의 다른 객체를 터치하는 입력 오류를 최소화하기 위한 것이다. 본 발명에 따르면, 표시부는 화면에 적어도 하나의 객체를 표시한다. 감지부는 손가락 또는 터치기구가 화면에 근접하는 지의 여부를 감시한다. 그리고 제어부는 감지부로부터 손가락 또는 터치기구의 화면 근접에 따른 감지신호를 수신하면, 수신한 감지신호를 기반으로 손가락 또는 터치기구의 화면 상에서의 위치를 산출하고, 적어도 하나의 객체 중에서 산출된 위치에 매핑된 특정 객체를 선택하고, 선택한 객체를 하이라이트하여 표시부에 표시한다. 이때 감지부는 카메라, 적외선 센서, 근접 센서, 정전용량 센서, RF(Radio Frequency) 센서 및 초음파 센서 중에 적어도 하나를 포함할 수 있다. 손가락 또는 터치기구의 화면 상에서의 위치는 카메라 비전 방식, 적외선 방식, 정전용량 방식, 초음파 방식 등을 이용하여 산출할 수 있다. 그리고 하이라이트하여 표시할 때, 선택된 객체에 밑줄을 표시하거나, 객체의 크기, 색상 및 밝기 중에서 적어도 하나를 변형하여 표시할 수 있다. 따라서 본 발명에 따른 휴대단말은 사용자가 손가락 또는 터치기구로 선택하고자 하는 객체를 정확히 터치할 수 있도록 안내한다.The present invention relates to a mobile terminal and a method for displaying an object of the mobile terminal and a method for guiding a user's selection of an object on a screen and minimizing an input error of touching an object other than a target object. According to the present invention, the display unit displays at least one object on the screen. The sensing unit monitors whether the finger or the touch mechanism approaches the screen. The control unit calculates a position of the finger or the touch device on the screen based on the received sensing signal when the sensing unit receives the sensing signal corresponding to the proximity of the screen of the finger or the touch mechanism, Selects a specific mapped object, highlights the selected object, and displays it on the display. At this time, the sensing unit may include at least one of a camera, an infrared sensor, a proximity sensor, a capacitance sensor, a radio frequency (RF) sensor, and an ultrasonic sensor. The position of the finger or the touch mechanism on the screen can be calculated using a camera vision method, an infrared method, a capacitance method, an ultrasonic method, or the like. When highlighted and displayed, the selected object may be underlined, or at least one of the size, color, and brightness of the object may be modified and displayed. Accordingly, the portable terminal according to the present invention guides the user to touch the object desired to be selected with the finger or the touch device.
객체, 하이라이트, 터치스크린, 근접, 터치 Object, highlight, touchscreen, proximity, touch
Description
본 발명은 휴대단말의 객체 표시 기술에 관한 것으로, 더욱 상세하게는 손가락 또는 터치기구가 화면의 특정 객체에 근접하면 해당 객체를 하이라이트하여 표시하는 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법에 관한 것이다.The present invention relates to an object display technology of a portable terminal, and more particularly, to a portable terminal using an approach recognition of a touch mechanism that displays a highlighted object when a finger or a touch mechanism approaches a specific object on the screen, .
유무선 통신망을 이용한 정보 통신 기술은 소비자의 구매를 자극하는 새로운 기술 및 기능으로 인하여 짧은 기간에 대단히 빠른 성장을 하고 있다. 특히 휴대단말은 그 기술의 발달로 인하여 단순한 어플리케이션을 수행하는 단계를 넘어서서 사용자들의 요구에 맞는 다양한 어플리케이션들이 설치되고 있다. 이로 인해 사용자는 휴대단말을 통하여 음성 정보, 문자 정보, 화상 정보, MP3(MPEG(Moving Picture Experts Group) layer 3), 게임 등을 이용할 수 있다. 이때 사용자는 휴대단말에 마련된 키패드, 터치스크린, 조이스틱, 스크롤 휠 등의 입력장치를 이용하여 휴대단말을 조작하거나 휴대단말에 필요한 정보를 입력할 수 있다.Information and communication technologies using wired / wireless communication networks are growing very fast in a short period of time due to new technologies and functions that stimulate consumer purchasing. In particular, due to the development of the technology, a mobile terminal has been installed with a variety of applications that meet users' needs beyond the stage of performing a simple application. Accordingly, the user can use voice information, text information, image information, MP3 (Moving Picture Experts Group (MPEG) layer 3), and the like through the portable terminal. At this time, the user can operate the portable terminal or input information necessary for the portable terminal using an input device such as a keypad, a touch screen, a joystick, and a scroll wheel provided in the portable terminal.
특히 최근의 휴대단말은 표시부와 입력부의 기능을 동시에 수행할 수 있는 터치스크린의 장착이 확대되고 있다. 사용자는 터치스크린의 터치를 통하여 휴대단말의 응용프로그램을 실행하고, 필요한 기능을 수행한다. 예를 들어 휴대단말의 터치스크린에 표시되는 아이콘이나 메뉴바의 터치를 통하여 응용프로그램의 기능을 실행할 수 있다. 따라서 응용프로그램의 실행이라는 측면에서 터치스크린 방식이 통상적인 키패드 방식에 비하여 사용자에게 편리성을 제공하고 있다.Particularly, in recent portable terminals, mounting of a touch screen capable of simultaneously performing functions of a display unit and an input unit has been expanded. The user executes the application program of the portable terminal through the touch of the touch screen and performs necessary functions. For example, the function of the application program can be executed through the icon displayed on the touch screen of the portable terminal or the touch of the menu bar. Therefore, in terms of execution of the application program, the touch screen method provides convenience to the user in comparison with the conventional keypad method.
하지만 휴대단말은 화면 크기의 제약으로 터치스크린에 표시되는 영상, 메뉴, 리스트, 아이콘 등과 같은 객체가 작게 표시된다. 이로 인해 사용자가 터치스크린에 표시된 특정 객체를 터치하여 선택할 때, 목표로 하는 특정 객체에 인접한 다른 객체를 잘못 선택하는 경우가 발생될 수 있다.However, due to the limitation of the screen size, the mobile terminal displays small objects such as images, menus, lists, and icons displayed on the touch screen. As a result, when a user touches and selects a specific object displayed on the touch screen, a case may occur in which the other object adjacent to the specific object targeted by the selection is erroneously selected.
따라서, 본 발명의 목적은 사용자가 손가락이나 터치기구를 통하여 선택하고자 하는 객체를 정확히 터치할 수 있도록 안내하는 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법을 제공하는 데 있다.Accordingly, it is an object of the present invention to provide a mobile terminal and an object displaying method using the approach recognition of a touch mechanism for guiding a user to accurately touch an object to be selected through a finger or a touch mechanism.
상기 목적을 달성하기 위하여, 본 발명은 표시부, 감지부 및 제어부를 포함하여 구성되는 휴대단말을 제공한다. 상기 표시부는 화면에 적어도 하나의 객체를 표시한다. 상기 감지부는 손가락 또는 터치기구가 상기 화면에 근접하는 지의 여부를 감시한다. 그리고 상기 제어부는 상기 감지부로부터 손가락 또는 터치기구의 화 면 근접에 따른 감지신호를 수신하면, 상기 수신한 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하고, 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 특정 객체를 선택하고, 상기 선택한 특정 객체를 하이라이트하여 상기 표시부에 표시한다.In order to achieve the above object, the present invention provides a portable terminal including a display unit, a sensing unit, and a control unit. The display unit displays at least one object on the screen. The sensing unit monitors whether a finger or a touch mechanism approaches the screen. And the control unit calculates a position of the finger or the touch mechanism on the screen based on the received sensing signal when the sensing unit receives the sensing signal along the screen of the finger or the touch mechanism from the sensing unit, Selects a specific object mapped to the calculated position among the objects of the selected object, and displays the highlighted specific object on the display unit.
본 발명에 따른 휴대단말에 있어서, 상기 감지부는 상기 손가락 또는 터치기구가 근접한 상기 화면 상에서의 위치 정보를 포함하는 상기 감지신호를 상기 제어부로 전송할 수 있다.In the portable terminal according to the present invention, the sensing unit may transmit the sensing signal including positional information on the screen in which the finger or the touch mechanism is close to the control unit.
본 발명에 따른 휴대단말에 있어서, 상기 감지부는 카메라, 적외선 센서, 근접 센서, 정전용량 센서, RF(Radio Frequency) 센서 및 초음파 센서 중에 적어도 하나를 포함할 수 있다.In the portable terminal according to the present invention, the sensing unit may include at least one of a camera, an infrared sensor, a proximity sensor, a capacitance sensor, a radio frequency (RF) sensor, and an ultrasonic sensor.
본 발명에 따른 휴대단말은 상기 적어도 하나의 객체에 각각 대응되게 설정된 하이라이트 표시 방식을 저장하는 저장부를 더 포함할 수 있다.The portable terminal according to the present invention may further include a storage unit for storing a highlight display scheme corresponding to each of the at least one object.
본 발명에 따른 휴대단말에 있어서, 상기 감지부는 상기 표시부의 표시패널 위에 설치되어 상기 손가락 또는 터치기구의 근접 또는 터치를 감지하는 터치패널일 수 있다. 이때 상기 감지부는 정전용량 방식 또는 적외선 방식으로 상기 손가락 또는 터치기구의 근접 또는 터치를 감지할 수 있다.In the portable terminal according to the present invention, the sensing unit may be a touch panel installed on the display panel of the display unit and sensing proximity or touch of the finger or the touch mechanism. At this time, the sensing unit may sense the proximity or touch of the finger or the touch mechanism in a capacitive or infrared manner.
본 발명에 따른 휴대단말에 있어서, 상기 표시부는 상기 손가락 또는 터치기구의 터치를 감지하는 터치스크린일 수 있다.In the portable terminal according to the present invention, the display unit may be a touch screen for sensing the touch of the finger or the touch mechanism.
본 발명은 또한, 휴대단말이 화면에 적어도 하나의 객체를 표시하는 단계, 상기 적어도 하나의 객체 중에서 제1 객체에 손가락 또는 터치기구가 근접하면, 상 기 휴대단말이 상기 제1 객체를 하이라이트하여 표시하는 단계를 포함하는 휴대단말의 객체 표시 방법을 제공한다.The method may further include displaying at least one object on a screen of the portable terminal, and when a finger or a touch mechanism approaches the first object among the at least one object, the portable terminal highlights the first object And displaying the object in the portable terminal.
본 발명에 따른 객체 표시 방법에 있어서, 상기 제1 객체를 하이라이트하여 표시하는 단계는 상기 휴대단말이 상기 화면에 근접한 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계, 상기 휴대단말이 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 제1 객체를 선택하고, 상기 선택한 제1 객체를 하이라이트하여 표시하는 단계를 포함할 수 있다.In the method of displaying an object according to the present invention, the step of highlighting and displaying the first object may include calculating the position of the finger or the touch mechanism on the screen close to the screen, Selecting a first object mapped to the calculated position among at least one object, and highlighting and displaying the selected first object.
본 발명에 따른 객체 표시 방법에 있어서, 상기 위치를 산출하는 단계는 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 임계거리 이내로 상기 화면에 근접하는 지의 여부를 감시하는 단계, 상기 감지부로부터 상기 임계거리 이내로 상기 화면에 근접한 상기 손가락 또는 터치기구에 대한 제1 감지신호를 수신하면, 상기 휴대단말이 상기 제1 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계를 포함할 수 있다.In the object displaying method according to the present invention, the step of calculating the position may include the steps of: monitoring whether the finger or the touch mechanism approaches the screen within a critical distance through the sensing unit; The step of calculating the position of the finger or the touch mechanism on the screen based on the first sensing signal when the portable terminal receives the first sensing signal for the finger or the touch mechanism close to the screen within a critical distance .
본 발명에 따른 객체 표시 방법에 있어서, 상기 위치를 산출하는 단계에서 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치는 카메라 비전 방식, 적외선 방식, 정전용량 방식 및 초음파 방식 중에 적어도 하나의 방식을 이용하여 산출할 수 있다.In the object displaying method according to the present invention, in the step of calculating the position, the position of the finger or the touch mechanism on the screen may be at least one of a camera vision system, an infrared system, a capacitive system and an ultrasonic system Can be calculated.
본 발명에 따른 객체 표시 방법에 있어서, 상기 제1 객체를 하이라이트하여 표시하는 단계에서, 상기 휴대단말이 상기 제1 객체에 밑줄을 표시하거나, 상기 제1 객체의 크기, 모양, 색상 및 밝기 중에서 적어도 하나를 변형하여 표시할 수 있 다. 또는 상기 휴대단말이 상기 제1 객체에 포인터를 표시할 수 있다.In the method of displaying an object according to the present invention, in the step of highlighting and displaying the first object, the portable terminal displays an underline on the first object, or displays at least one of the size, shape, color, One can be transformed and displayed. Alternatively, the portable terminal may display a pointer on the first object.
본 발명에 따른 객체 표시 방법은 상기 제1 객체를 하이라이트하여 표시하는 단계 이후에 수행되는, 상기 손가락 또는 터치기구가 상기 화면에서 임계거리 밖으로 이동하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계를 더 포함할 수 있다.The object display method according to the present invention is characterized in that when the finger or touch mechanism moves out of a critical distance on the screen, which is performed after highlighting and displaying the first object, the portable terminal displays a highlight The method may further include terminating the step.
본 발명에 따른 객체 표시 방법에 있어서, 상기 하이라이트 표시를 종료하는 단계는 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 상기 화면에서 임계거리 밖으로 이동하는 지를 감시하는 단계, 상기 감지부로부터 상기 임계거리 밖으로 이동한 상기 손가락 또는 터치기구에 대한 제2 감지신호를 수신하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계를 포함할 수 있다. 이때 상기 임계거리는 수직 임계거리일 수 있다.In the method of displaying an object according to the present invention, the step of terminating the highlight display may include monitoring whether the finger or the touch mechanism moves out of a critical distance on the screen through the sensing unit, And when the portable terminal receives the second sensing signal for the finger or touch mechanism moved out of the distance, terminating the highlight display for the first object. The critical distance may be a vertical critical distance.
본 발명에 따른 객체 표시 방법은 상기 제1 객체를 하이라이트하여 표시하는 단계 이후에 수행되는, 상기 손가락 또는 터치기구가 상기 화면에 근접한 상태에서 이동하되, 상기 제1 객체를 중심으로 수평 임계거리 밖으로 이동하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하고, 상기 손가락 또는 터치기구가 이동하여 근접한 지점에 위치한 제2 객체를 하이라이트하여 표시하는 단계를 더 포함할 수 있다.A method of displaying an object according to the present invention includes moving a finger or a touch mechanism after a step of highlighting and displaying the first object in a state in which the finger or a touch mechanism is close to the screen, The portable terminal may terminate the highlight display for the first object and highlight the second object located at a point where the finger or the touch mechanism moves to display the highlighted object.
본 발명에 따른 객체 표시 방법에 있어서, 상기 제2 객체를 하이라이트하여 표시하는 단계는 상기 휴대단말이 감지부를 통하여 상기 손가락 또는 터치기구가 상기 제1 객체의 위치에서 상기 수평 임계거리 밖으로 이동하는 지를 감시하는 단 계, 상기 감지부로부터 상기 수평 임계거리 밖으로 이동한 상기 손가락 또는 터치기구에 대한 제3 감지신호를 수신하면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계, 상기 휴대단말이 상기 제3 감지신호를 기반으로 상기 손가락 또는 터치기구의 상기 화면 상에서의 위치를 산출하는 단계, 상기 휴대단말이 상기 적어도 하나의 객체 중에서 상기 산출된 위치에 매핑된 제2 객체를 선택하고, 상기 선택한 제2 객체를 하이라이트하여 표시하는 단계를 포함할 수 있다.In the method of displaying an object according to the present invention, the step of highlighting and displaying the second object may include monitoring whether the finger or the touch mechanism moves out of the horizontal threshold distance at the position of the first object through the sensing unit A step of terminating the highlight display for the first object when the portable terminal receives the third sensing signal for the finger or the touch mechanism that has moved out of the horizontal threshold distance from the sensing unit, Calculating a position of the finger or touch mechanism on the screen based on the third sensing signal, selecting the second object mapped to the calculated position among the at least one object, And highlighting and displaying the selected second object.
본 발명에 따른 객체 표시 방법은 제1 객체를 하이라이트하여 표시하는 단계 이후에 수행되는, 상기 손가락 또는 터치기구가 상기 화면에서 벗어나면, 상기 휴대단말이 상기 제1 객체에 대한 하이라이트 표시를 종료하는 단계를 더 포함할 수 있다.A method of displaying an object according to the present invention includes the steps of highlighting a first object and terminating a highlight display for the first object when the finger or touch mechanism moves out of the screen As shown in FIG.
본 발명에 따른 객체 표시 방법에 있어서, 상기 감지신호는 상기 화면 상에서의 상기 손가락 또는 터치기구의 위치 정보를 포함할 수 있다.In the object displaying method according to the present invention, the sensing signal may include position information of the finger or the touch mechanism on the screen.
본 발명에 따른 객체 표시 방법에 있어서, 상기 객체는 이미지, 메뉴, 리스트, 아이콘 및 텍스트 중에 적어도 하나를 포함한다.In the object displaying method according to the present invention, the object includes at least one of an image, a menu, a list, an icon and text.
본 발명에 따르면, 휴대단말은 손가락 또는 터치기구가 근접한 객체를 하이라이트하여 표시하기 때문에, 하이라이트된 객체를 통하여 사용자는 해당 객체가 목표로 하는 객체 인지의 여부를 쉽게 확인할 수 있다. 또한 하이라이트된 객체가 목표로 하는 객체가 아닌 경우, 사용자는 터치기구를 목표로 하는 객체로 이동시켜 하이라이트 위치를 변경하여 목표로 하는 객체를 하이라이트할 수 있기 때문에, 휴대단말은 사용자가 해당 객체를 정확히 선택할 수 있도록 안내한다. 이로 인해 사용자가 목표하는 객체 이외의 다른 객체를 터치하는 오류를 최소화할 수 있다.According to the present invention, since the portable terminal displays a highlighted object by highlighting a nearby object with a finger or a touch mechanism, the user can easily confirm whether or not the object is a target object through the highlighted object. Also, when the highlighted object is not the target object, the user can move the touch mechanism to the target object and change the highlight position to highlight the target object. Therefore, Guide you to choose. This minimizes the error of the user touching objects other than the target object.
이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 실시예에 따른 휴대단말(100)은, 도 1에 도시된 바와 같이, 저장부(10), 표시부(20), 감지부(30) 및 제어부(40)를 포함하여 구성된다. 이때 휴대단말(100)은 표시부(20)를 구비한 단말로서, 이동통신단말, 노트북(notebook), PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), DMB(Digital Multimedia Broadcasting) 또는 DVB(Digital Video Broadcasting)와 같은 디지털방송 수신기를 포함한다.1, the
저장부(10)는 휴대단말(100)의 동작 제어시 필요한 프로그램과, 그 프로그램 수행 중에 발생되는 데이터를 저장하며, 하나 이상의 휘발성 메모리 소자와 비휘발성 메모리 소자로 이루어진다. 저장부(10)는 손가락 또는 스타일러스 펜(stylus pen)과 같은 터치기구(이하 '터치기구'라 함)가 근접하는 화면 상의 객체를 하이라이트하여 표시하는 실행프로그램을 저장한다. 이때 객체는 화면에 표시되는 이미지, 메뉴, 리스트, 아이콘, 텍스트 등을 포함한다. 저장부(10)는 객체의 종류에 따라 해당 객체를 하이라이트하여 표시하는 방식을 저장하며, 그 방식은 객체의 종류에 따라 상이하게 설정될 수 있다. 예컨대 객체가 메뉴인 경우, 색상과 밝기를 다 르게 표시한다. 객체가 리스트인 경우, 밝기만을 다르게 표시하거나 밑줄을 표시한다. 객체가 아이콘인 경우, 색상만을 다르게 표시하거나 포인터(pointer)를 표시한다. 그 외 다양한 방식으로 객체를 하이라이트하여 표시할 수 있음은 물론이다.The
표시부(20)는 휴대단말(100)에서 실행되는 각종 기능 메뉴를 비롯하여 저장부(10)에 저장된 정보를 적어도 하나의 객체로 표시한다. 표시부(20)는 제어부(40)의 제어에 따라 터치기구가 근접하는 객체를 하이라이트하여 표시한다. 표시부(20)로는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes), 터치스크린 등이 사용될 수 있다. 이때 터치스크린은 영상(객체)을 표시하는 표시패널과, 표시패널 위에 설치되며 터치를 감지하는 터치패널을 포함하여 구성된다. 터치스크린은 표시장치와 입력장치의 역할을 동시에 수행한다. 본 실시예에서는 표시부(20)로 터치스크린을 사용한 예를 개시하였다.The
감지부(30)는 터치기구가 표시부(20)의 화면에 근접하는 지의 여부를 감시하고, 근접하면 제어부(40)로 감지신호를 출력한다. 즉 감지부(30)는 터치기구가 화면에 근접하는 지의 여부와, 화면에 근접한 상태에서의 터치기구의 이동을 감시하고, 그에 따른 감지신호를 제어부(40)로 전송한다. 즉 감지부(30)는 화면에 대해서 터치기구가 임계거리 안쪽으로 이동하는 지 바깥쪽으로 이동하는 지의 여부를 감시한다. 임계거리 안쪽으로 이동하면, 감지부(30)는 객체를 하이라이트하여 표시하기 위한 제1 감지신호를 제어부(40)로 전송한다. 임계거리 바깥쪽으로 이동하면, 감지부(30)는 객체의 하이라이트 표시를 종료시키기 위한 제2 감지신호를 제어부(40)로 전송한다. 이때 임계거리는 화면에 대한 수직 임계거리일 수 있다.The
또한 감지부(30)는 화면에 대해서 터치기구가 수직 임계거리 안쪽에서 이동하되, 하이라이트된 객체를 중심으로 수평 임계거리 밖으로 이동하는 지의 여부를 감시한다. 터치기구가 수평 임계거리 안쪽에 위치하면, 감지부(30)는 별도의 감지신호를 제어부(40)로 전송하지 않으며, 제어부(40)는 터치기구가 근접한 객체의 하이라이트 표시상태를 유지한다. 터치기구가 수평 임계거리 바깥쪽으로 이동하면, 제어부(40)는 이동 전 하이라이트된 객체의 하이라이트 표시를 종료시키고, 이동 후 터치기구가 근접한 객체의 하이라이트 표시를 위한 제3 감지신호를 제어부(40)로 전송한다. 이때 제어부(40)는 하이라이트 표시를 종료시킨 객체를 하이라이트 전 상태로 표시한다.In addition, the
이와 같은 감지부(30)는 터치기구의 근접 여부를 감시하고, 근접한 터치기구의 화면 상에서의 위치 산출에 필요한 위치 정보를 포함하는 감지신호를 제어부(40)로 전송한다. 예컨대 감지부(30)는 카메라, 적외선 센서, 근접 센서, 정전용량 센서, RF(Radio Frequency) 센서 및 초음파 센서 중에 적어도 하나를 포함할 수 있으며, 이에 한정되는 것은 아니다. 감지부(30)는 터치기구의 근접 여부를 감시할 수 있도록 표시부(20)에 인접하게 설치되거나 필름 형태로 표시부(20)의 화면 상에 설치될 수도 있다.The
한편 본 실시예에서는 표시부(20)와 감지부(30)가 개별적으로 설치된 예를 개시하였지만 이에 한정되는 것은 아니다. 즉 표시부(20)는 감지부(30)를 포함하여 구성될 수 있다. 예컨대 표시부(20)로 터치스크린을 사용할 경우, 터치스크린의 터치패널이 감지부(20)의 기능을 함께 수행할 수도 있다. 터치패널로는 터치기구의 근접 또는 터치를 감지할 수 있는 정전용량 방식 또는 적외선 방식의 터치패널을 사용하는 것이 바람직하다.In this embodiment, the
그리고 제어부(40)는 휴대단말(100)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)이다. 제어부(40)는 터치기구가 근접하는 객체의 하이라이트 처리를 제어한다. 즉 감지부(30)를 통하여 제1 감지신호를 수신하면, 제어부(40)는 제1 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한다. 제어부(40)는 적어도 하나의 객체 중에서 산출된 위치에 매핑된 객체를 선택하고, 선택한 객체를 하이라이트하여 표시한다. 이때 선택된 객체의 하이라이트는 객체에 밑줄을 표시하거나, 객체의 크기, 모양, 색상 및 밝기 중에서 적어도 하나를 변형하여 표시하는 것을 의미한다. 또는 제어부(40)는 선택된 객체에 포인터를 표시하거나, 객체의 변형과 더불어 포인터를 추가적으로 더 표시할 수도 있다. 포인터는 객체 위에 표시되거나 객체의 근방에 표시될 수 있다. 특히 객체의 근방에 포인터를 표시할 때, 사용자가 포인터를 확인할 수 있도록 터치기구의 끝단에 대해서 위쪽의 화면 영역에 표시할 수 있다.The
이때 제어부(40)는 감지부(30)의 종류에 따라서 카메라 비전 방식, 적외선 방식, 정전용량 방식, 초음파 방식 또는 이들을 조합한 방식 등을 이용하여 터치기구의 화면 상에서의 위치를 산출할 수 있으며, 이에 한정되는 것은 아니다. 예컨대, 카메라 비전 방식은 카메라로 촬영한 영상에서 터치기구의 이동 경로를 분석 및 예측하여 터치기구의 화면 상에서의 위치를 산출하는 방식이다. 즉 제어부(40)는 카메라를 통하여 촬영한 영상을 수신하고, 수신한 영상에서 터치기구를 추출한 다. 제어부(40)는 추출한 터치기구의 끝단의 이동 경로를 분석 및 예측하여 터치기구의 화면 상에서의 위치를 산출한다.At this time, the
적외선 방식(또는 초음파 방식)은 화면에 수평하게 XY축 방향으로 적외선(초음파)를 조사하는 상태에서, 적외선(초음파)의 경로를 차단하는 터치기구의 화면 상에서의 위치를 산출하는 방식이다. 즉 적외선(초음파)를 화면에 수평하게 조사한 상태에서, 터치기구에 의해 화면 상의 특정 지점에서 적외선의 진행이 차단되면, 감지부(30)는 적외선이 차단된 지점에 대한 위치 정보를 포함하는 감지신호를 제어부(40)로 전송한다. 제어부(40)는 수신한 감지신호에 포함된 적외선이 차단된 지점에 대응하는 화면 상에서의 위치를 산출한다.The infrared method (or ultrasonic method) is a method of calculating the position on the screen of the touch mechanism which cuts off the path of infrared rays (ultrasonic waves) in a state of irradiating infrared rays (ultrasonic waves) horizontally in the X and Y directions on the screen. That is, when the progress of the infrared ray is blocked at a specific point on the screen by the touch mechanism in the state where the infrared ray (ultrasonic wave) is illuminated horizontally on the screen, the
그리고 정전용량 방식은 터치기구가 근접한 화면 상의 위치에서 발생되는 정전용량의 변화를 감지하여 터치기구의 화면 상에서의 위치를 산출하는 방식이다. 즉 정전용량 방식의 감지부(30)는 터치기구가 화면에 근접하게 되면, 감지부(30)는 터치기구가 근접하여 정전용량의 변화가 발생된 지점에 대한 위치 정보를 포함하는 감지신호를 제어부(40)로 전송한다. 제어부(40)는 정전용량의 변화가 발생된 지점에 대응하는 화면 상에서의 위치를 산출한다.The electrostatic capacity method is a method of calculating the position of the touch device on the screen by sensing a change in capacitance caused by a position on the screen adjacent to the touch device. That is, when the touch mechanism approaches the screen, the
제어부(40)는 감지부(30)를 통하여 터치기구가 화면에 임계거리 이내로 근접하는 지의 여부를 감시한다. 예컨대 제어부(40)는 감지부(30)를 통하여 터치기구가 화면에 수직 임계거리 이내로 이동하는 지의 여부를 감시한다. 감지부(30)로부터 수직 임계거리 이내로 이동한 터치기구에 대한 제1 감지신호를 수신하면, 제1 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한다. 이때 제어부(40)는 제1 감지신호에 포함된 터치기구의 위치 정보를 기반으로 터치기구의 화면 상에서의 위치를 산출할 수 있다.The
한편 터치기구가 근접한 객체를 하이라이트한 이후에, 제어부(40)는 터치기구의 이동에 따라 다음과 같이 객체에 대한 하이라이트 처리를 수행할 수 있다. 이때 하이라이트된 특정 객체를 중심으로 터치기구의 이동은 수직 이동 성분과 수평 이동 성분의 조합으로 표현할 수 있으며, 제어부(40)는 수직 이동 또는 수평 이동 거리와 임계거리와의 관계에 따라 하이라이트 처리를 수행한다.On the other hand, after the touch mechanism highlights the adjacent object, the
먼저 터치기구가 화면에서 멀어지되 임계거리 밖으로 이동하면, 제어부(40)는 객체에 대한 하이라이트 표시를 종료한다. 즉 제어부(40)는 감지부(30)를 통하여 터치기구가 화면에서 수직 임계거리 밖으로 이동하는 지를 감시한다. 감시 중 감지부(30)로부터 수직 임계거리 밖으로 이동한 터치기구에 대한 제2 감지신호를 수신하면, 제어부(40)는 제1 객체에 대한 하이라이트 표시를 종료한다. 제어부(40)는 제1 객체를 하이라이트 처리 전의 상태로 화면에 표시한다.First, when the touch mechanism is moved away from the screen but outside the critical distance, the
다음으로 터치기구가 화면에 근접한 상태에서 수평 방향으로 이동하되, 하이라이트된 객체를 중심으로 수평 임계거리 밖으로 이동하면, 제어부(40)는 하이라이트된 객체(이하 '제1 객체'라 함)에 대한 하이라이트 표시를 종료하고, 현재 터치기구가 근접한 지점에 위치한 다른 객체(이하 '제2 객체'라 함)를 하이라이트하여 표시한다. 즉 제어부(40)는 감지부(30)를 통하여 터치기구가 제1 객체의 위치에서 수평 임계거리 밖으로 이동하는 지를 감시한다. 감시 중 감지부(30)로부터 수평 임계거리 밖으로 이동한 터치기구에 대한 제3 감지신호를 수신하면, 제어부(40)는 제 1 객체에 대한 하이라이트 표시를 종료한다. 제어부(40)는 제3 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한다. 그리고 제어부(40)는 적어도 하나의 객체 중에서 산출된 위치에 매핑된 제2 객체를 선택하고, 선택된 제2 객체를 하이라이트하여 표시한다. 이와 같이 터치기구를 화면에 근접한 상태에서 화면 상에서 수평 방향으로 이동하면, 제어부(40)는 터치기구의 이동 경로 상에 있는 객체의 하이라이트 및 하이라이트 종료를 이동 방향을 따라 순차적으로 수행할 수 있다. 여기서 수평 방향으로의 이동은 터치기구가 수직 임계거리 안에서 이동하는 것을 의미하며, 그 이동이 수직 성분에 비해서 수평 성분이 주를 이루기 때문에 수평 방향으로의 이동이라고 하였다. 터치기구가 수평 방향으로 이동하더라도 수직 임계거리를 벗어나면, 제어부(40)는 터치기구의 수평 방향으로의 이동에 따른 하이라이트 처리를 수행하지 않고 수직 임계거리에 따른 하이라이트 처리를 수행한다.Next, when the touch device moves in the horizontal direction in the state of being close to the screen and moves out of the horizontal critical distance around the highlighted object, the
한편으로 특정 객체가 하이라이트된 상태에서 터치기구가 화면을 벗어나면, 제어부(40)는 객체에 대한 하이라이트 표시를 종료할 수도 있다.On the other hand, if the touch device is out of the screen while a specific object is highlighted, the
여기서 수직 임계거리는 화면에 대해서 수직 방향으로 일정 거리로 설정될 수 있다. 수평 임계거리는 객체를 중심으로 수평 방향으로 일정거리로 설정될 수 있으며, 이웃하는 객체와 겹치지 않는 범위에서 설정하는 것이 바람직하다. 한편 수직 및 수평 임계거리는 디폴트로 설정되며, 사용자에 의해 재설정될 수도 있다.Here, the vertical critical distance may be set to a predetermined distance in the vertical direction with respect to the screen. The horizontal threshold distance may be set to a predetermined distance in the horizontal direction around the object, and is preferably set within a range that does not overlap neighboring objects. While the vertical and horizontal threshold distances are set to default and may be reset by the user.
한편 터치기구가 근접한 객체는 하이라이트되어 표시되기 때문에, 하이라이트된 객체를 통하여 사용자는 해당 객체가 목표로 하는 객체 인지의 여부를 쉽게 확인할 수 있다. 하이라이트된 객체가 목표로 하는 객체가 아닌 경우, 사용자는 터 치기구를 목표로 하는 객체로 이동시켜 하이라이트 위치를 변경할 수 있다. 목표로 하는 객체가 하이라이트된 상태에서, 사용자가 터치기구로 해당 객체를 터치하면, 표시부(20)는 해당 객체의 터치 정보를 제어부(40)로 전송한다. 제어부(40)는 수신한 터치 정보를 토대로 해당 객체에 매핑된 기능을 수행한다.On the other hand, since the object with the touch mechanism is highlighted and displayed, the user can easily confirm whether or not the object is the target object through the highlighted object. If the highlighted object is not the target object, the user can change the highlight location by moving the touch target to the target object. When the user touches the object with the touch mechanism in a state where the target object is highlighted, the
이와 같이 본 발명의 실시예에 따른 휴대단말(100)은 터치기구가 화면의 특정 객체에 근접하면 해당 객체를 하이라이트하여 표시하기 때문에, 사용자가 목표로 하는 객체를 정확히 선택할 수 있도록 안내한다. 이로 인해 본 실시예에 따른 휴대단말(100)은 사용자가 목표하는 객체 이외의 다른 객체를 터치하는 오류를 최소화할 수 있다.As described above, the
이와 같은 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 대해서 도 1 및 도 2를 참조하여 설명하면 다음과 같다. 여기서 도 2는 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 따른 흐름도이다. 여기서 표시부(20)로는 터치스크린이 사용된 예를 개시하였다.A method of displaying an object of a portable terminal according to an embodiment of the present invention will now be described with reference to FIGS. 1 and 2. FIG. 2 is a flowchart illustrating an object display method of a mobile terminal according to an exemplary embodiment of the present invention. Here, an example in which a touch screen is used as the
먼저 S51단계에서 휴대단말(100)은 적어도 하나의 객체를 표시부(20)의 화면에 표시한다. 이때 표시부(20)를 통한 사용자의 선택 신호가 입력되면, 휴대단말(100)은 화면에 적어도 하나의 객체를 표시할 수 있다. 또는 사용자가 휴대단말(100)에 마련된 특정 키를 누르면, 휴대단말(100)은 화면에 적어도 하나의 객체를 표시할 수 있다.First, in step S51, the
다음으로 S53단계에서 휴대단말(100)은 감지부(30)를 통하여 터치기구가 화면에 접근하는 지의 여부를 감시한다. 즉 휴대단말(100)은 감지부(30)를 통하여 터 치기구가 임계거리, 예컨대 수직 임계거리 이내로 이동하는 지의 여부를 감시한다. 이때 감지부(30)는 터치기구의 근접 여부를 주기적으로 감시하거나 연속적으로 감시할 수 있다.Next, in step S53, the
S53단계의 감시결과 터치기구가 수직 임계거리 이내로 화면에 근접하지 않은 경우, 휴대단말(100)은 S51단계의 표시 상태를 유지한다.If the monitoring result of step S53 is that the touch device is not close to the screen within the vertical critical distance, the
S53단계의 감시결과 터치기구가 수직 임계거리 이내로 화면에 근접한 경우, S55단계에서 휴대단말(100)은 터치기구의 화면 상에서의 위치를 산출한다. 즉 감지부(30)가 수직 임계거리 이내로 화면에 근접한 터치기구를 감지하면, 제1 감지신호를 제어부(40)로 전송한다. 휴대단말(100)는 제1 감지신호를 기반으로 터치기구의 화면 상에서의 위치를 산출한다. 이때 휴대단말(100)은 제1 감지신호에 포함된 터치기구의 위치 정보를 기반으로 터치기구의 화면 상에서의 위치를 산출할 수 있다. 예컨대, 휴대단말(100)은 손가락 또는 터치기구의 화면 상에서의 위치는 정전용량 방식, 적외선 방식, 초음파 방식 및 카메라 비전 방식 중에 적어도 하나의 방식을 이용하여 산출할 수 있다.If the monitoring result of step S53 is that the touch device is close to the screen within the vertical critical distance, the
다음으로 S57단계에서 휴대단말(100)은 적어도 하나의 객체 중에서 산출된 위치에 매핑된 객체를 선택한다. 이어서 S59단계에서 휴대단말(100)은 선택된 객체를 하이라이트하여 표시한다. 즉 휴대단말(100)은 선택된 객체에 밑줄을 표시하거나, 선택된 객체의 크기, 모양, 색상 및 밝기 중에서 적어도 하나를 변형하여 표시하는 방식으로 선택된 객체를 하이라이트할 수 있다. 또는 휴대단말(100)은 선택된 객체에 포인터를 표시하거나, 하이라이트 표시와 더불어 포인터를 추가적으로 더 표시할 수도 있다.Next, in step S57, the
한편 S61단계에서 휴대단말(100)은 감지부(30)를 통하여 객체를 하이라이트한 후에 터치기구의 이동이 있는 지의 여부를 감시한다. 즉 휴대단말(100)은 터치기구가 화면에 대해서 임계거리 밖으로 이동하는 지의 여부를 감지부(30)를 통하여 감시한다. 예컨대 휴대단말(100)은 터치기구가 하이라이트된 객체를 중심으로 수직 또는 수평 임계거리를 벗어나는 지의 여부를 감지부(30)를 통하여 감시한다.In step S61, the
S61단계의 감시 결과 터치기구의 이동이 감지되지 않는 경우, 휴대단말(100)은 S59단계의 표시 상태를 유지한다.If the movement of the touch mechanism is not detected in step S61, the
S61단계의 감시 결과 터치기구의 이동이 감지된 경우, S63단계에서 휴대단말(100)은 다시 그 이동이 수직 임계거리 밖으로의 이동인지의 여부를 판단한다.If it is determined in step S61 that the movement of the touch mechanism is detected, the
S63단계의 판단 결과 수직 임계거리 밖으로의 이동이 아닌 경우, S65단계에서 휴대단말(100)은 그 이동이 수평 임계거리 밖으로의 이동인지의 여부를 다시 판단한다. 즉 휴대단말(100)은 터치기구가 화면에 근접한 상태에서 발생된 이동이 수평 임계거리를 벗어나는 지의 여부를 판단한다.If it is determined in step S63 that the
S65단계의 판단 결과 수평 임계거리 밖으로의 이동이 아닌 경우, 휴대단말(100)은 S59단계의 표시 상태를 유지한다. 즉 터치기구의 이동이 수직 또는 수평 임계거리를 벗어나지 않으면, 휴대단말(100)은 S59단계의 표시 상태를 유지한다.As a result of the determination in step S65, if the
S65단계의 판단 결과 수평 임계거리 밖으로의 이동이 감지된 경우, S67단계에서 휴대단말(100)은 하이라이트된 객체의 하이라이트 표시를 종료한다. 이어서 휴대단말(100)은 S55단계부터 다시 수행하여 터치기구가 이동한 위치에 근접한 다 른 객체를 하이라이트하여 표시할 수 있다. 즉 사용자가 터치기구를 화면에 근접한 상태에서 화면 상에서 수평 방향으로 이동하면, 휴대단말(100)은 터치기구의 이동 경로 상에 있는 객체의 하이라이트 및 하이라이트 종료를 이동 방향을 따라 순차적으로 수행할 수 있다.If it is determined in step S65 that movement outside the horizontal threshold distance is detected, the
그리고 사용자는 화면에 하이라이트된 객체가 목표하는 객체인지의 여부를 육안으로 확인한 후, 하이라이트된 객체가 목표로 하는 객체인 경우 사용자는 터치기구로 터치하여 해당 객체에 매핑된 기능을 수행시킬 수 있다. 즉 목표로 하는 객체가 하이라이트된 상태에서, 사용자가 터치기구로 해당 객체를 터치하면, 표시부(20)는 해당 객체의 터치 정보를 제어부(40)로 전송한다. 제어부(40)는 수신한 터치 정보를 토대로 해당 객체에 매핑된 기능을 수행한다.The user can visually confirm whether the object highlighted on the screen is a target object. If the highlighted object is a target object, the user can touch the touch object to perform a function mapped to the object. That is, when the target object is highlighted, when the user touches the corresponding object with the touch mechanism, the
한편 S63단계의 판단 결과 수직 임계거리 밖으로의 이동이 감지된 경우, S71단계에서 휴대단말(100)은 하이라이트된 객체의 하이라이트 표시를 종료한다.If it is determined in step S63 that movement outside the vertical threshold distance is detected, the
한편으로 S61단계의 판단 결과 터치기구의 이동이 감지되고, 터치기구가 화면 영역을 벗어나면, 휴대단말(100)은 하이라이트된 객체의 하이라이트를 종료할 수도 있다.On the other hand, if it is determined in step S61 that the movement of the touch device is detected and the touch device moves out of the screen area, the
이와 같은 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 대해서 도 3의 화면예시도를 참조하여 설명하면 다음과 같다. 여기서 도 3에서는 객체로서 화면에 격자 배열된 복수의 메뉴(23)가 표시된 예를 개시하였다. 이때 도 3에서 터치기구(80)는 표시의 편의상 "+"로 표시하였지만, 실제 화면 상에 "+"이 표시되는 것은 아니다.A method of displaying an object of a portable terminal according to an embodiment of the present invention will now be described with reference to an exemplary diagram of FIG. 3 shows an example in which a plurality of
먼저 도 3(a)에 도시된 바와 같이 표시부(20)의 화면(21)에 복수의 메뉴(23)가 표시된 상태에서, 도 3(b)에 도시된 바와 같이 복수의 메뉴(23) 중 특정 메뉴, 예컨대 "E 메뉴"에 터치기구(80)를 근접시키면, 도 3(c)에 도시된 바와 같이 휴대단말(100)은 "E 메뉴"를 하이라이트하여 표시한다. 이때 도 3(c)에서는 휴대단말(100)이 "E 메뉴"의 색상을 다른 메뉴와는 다른 색상으로 표시한 예를 개시하였지만 이에 한정되는 것은 아니다. 예컨대 휴대단말(100)은 메뉴에 밑줄을 표시하거나, 메뉴(객체)의 크기, 모양, 색상 및 밝기 중에서 적어도 하나를 변형하여 표시할 수도 있다.3 (a), in a state where a plurality of
다음으로 도 3(d)에 도시된 바와 같이, 사용자가 터치기구(80)를 화면에 근접시킨 상태에서 수평 방향으로 아래로 이동시켜 "H 메뉴"에 위치시키면, 휴대단말(100)은 "E 메뉴"의 하이라이트 표시시를 종료하고 "H 메뉴"를 하이라이트하여 표시한다. 이때 터치기구(80)의 이동 상태를 표시하기 위해서, 휴대단말(100)은 도 3(b) 및 도 3(d)에서 터치기구(80)의 화면 상에서의 위치에 대응하는 지점에 포인터를 표시할 수 있다.Next, as shown in Fig. 3 (d), when the user moves the
그리고 도 3(c) 또는 도 3(d)에서 사용자가 터치기구(80)를 이동시키되, 수직 임계거리 밖으로 이동시키면, 도 3(a)에 도시된 바와 같이 휴대단말(100)은 하이라이트된 메뉴의 하이라이트 표시를 종료한다. 즉 휴대단말(100)은 메뉴(23)를 하이라이트 전의 상태로 표시한다.3 (c) or 3 (d), when the user moves the
한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아 니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.It should be noted that the embodiments of the present invention disclosed in the present specification and drawings are only illustrative examples for the purpose of understanding and do not limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.
본 발명은 터치기구의 접근 인지를 이용한 휴대단말 및 그의 객체 표시 방법에 관한 것으로, 손가락 또는 터치기구가 화면의 객체에 근접하면 해당 객체를 하이라이트하여 표시하기 때문에, 사용자가 해당 객체를 정확히 선택할 수 있도록 안내하고, 이로 인해 사용자가 목표하는 객체 이외의 다른 객체를 터치하는 입력 오류를 최소화할 수 있다.The present invention relates to a portable terminal and a method of displaying an object using the approach recognition of a touch mechanism. When a finger or a touch device approaches a screen object, the object is highlighted and displayed. Therefore, Thereby minimizing an input error in which a user touches an object other than a target object.
도 1은 본 발명의 실시예에 따른 휴대단말의 구성을 보여주는 블록도이다.1 is a block diagram illustrating a configuration of a mobile terminal according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 휴대단말의 객체 표시 방법에 따른 흐름도이다.2 is a flowchart illustrating an object display method of a mobile terminal according to an exemplary embodiment of the present invention.
도 3은 도 2의 객체 표시 방법에 따른 화면예시도이다.FIG. 3 is a diagram illustrating a screen according to the object display method of FIG. 2. FIG.
* 도면의 주요 부분에 대한 설명 *Description of the Related Art [0002]
10 : 저장부10:
20 : 표시부20:
30 : 감지부30:
40 : 제어부40:
80 : 터치기구80: Touch mechanism
100 : 휴대단말100:
Claims (21)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090086362A KR101151300B1 (en) | 2009-09-14 | 2009-09-14 | Mobile terminal and method for displaying object using approach sensing of touch tool thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090086362A KR101151300B1 (en) | 2009-09-14 | 2009-09-14 | Mobile terminal and method for displaying object using approach sensing of touch tool thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110028772A KR20110028772A (en) | 2011-03-22 |
KR101151300B1 true KR101151300B1 (en) | 2012-06-08 |
Family
ID=43934846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090086362A KR101151300B1 (en) | 2009-09-14 | 2009-09-14 | Mobile terminal and method for displaying object using approach sensing of touch tool thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101151300B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10969899B2 (en) | 2019-07-19 | 2021-04-06 | Samsung Electronics Co., Ltd. | Dynamically adaptive sensing for remote hover touch |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101882267B1 (en) * | 2012-02-15 | 2018-07-26 | 엘지전자 주식회사 | Mobile terminal and method for controlling thereof |
KR102051418B1 (en) * | 2012-09-28 | 2019-12-03 | 삼성전자주식회사 | User interface controlling device and method for selecting object in image and image input device |
KR102086799B1 (en) | 2013-02-21 | 2020-03-09 | 삼성전자주식회사 | Method for displaying for virtual keypad an electronic device thereof |
KR102353766B1 (en) | 2014-04-15 | 2022-01-20 | 삼성전자 주식회사 | Apparatus and method for controlling display |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003005912A (en) | 2001-06-20 | 2003-01-10 | Hitachi Ltd | Display device with touch panel and display method |
JP2009116583A (en) * | 2007-11-06 | 2009-05-28 | Ricoh Co Ltd | Input controller and input control method |
-
2009
- 2009-09-14 KR KR1020090086362A patent/KR101151300B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003005912A (en) | 2001-06-20 | 2003-01-10 | Hitachi Ltd | Display device with touch panel and display method |
JP2009116583A (en) * | 2007-11-06 | 2009-05-28 | Ricoh Co Ltd | Input controller and input control method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10969899B2 (en) | 2019-07-19 | 2021-04-06 | Samsung Electronics Co., Ltd. | Dynamically adaptive sensing for remote hover touch |
Also Published As
Publication number | Publication date |
---|---|
KR20110028772A (en) | 2011-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101451999B1 (en) | Data scroll method and apparatus | |
JP5721662B2 (en) | Input receiving method, input receiving program, and input device | |
EP2508972B1 (en) | Portable electronic device and method of controlling same | |
US11269482B2 (en) | Application association processing method and apparatus | |
KR101995278B1 (en) | Method and apparatus for displaying ui of touch device | |
US9684439B2 (en) | Motion control touch screen method and apparatus | |
EP2624116B1 (en) | Display zoom controlled by proximity detection | |
US8443302B2 (en) | Systems and methods of touchless interaction | |
KR101929316B1 (en) | Method and apparatus for displaying keypad in terminal having touchscreen | |
US10073493B2 (en) | Device and method for controlling a display panel | |
KR20120040358A (en) | Method and apparatus for controlling screen in mobile terminal | |
US9170726B2 (en) | Apparatus and method for providing GUI interacting according to recognized user approach | |
CN102067073A (en) | Display device and method of controlling the same | |
KR20140105691A (en) | Apparatus and Method for handling object in a user device having a touch screen | |
US9052767B2 (en) | Information terminal device and touch panel display method | |
KR101151300B1 (en) | Mobile terminal and method for displaying object using approach sensing of touch tool thereof | |
JP6868427B2 (en) | Display device with input function | |
KR20130097331A (en) | Apparatus and method for selecting object in device with touch screen | |
CN105700763A (en) | Terminal interface window moving method and terminal interface window moving device | |
KR102096070B1 (en) | Method for improving touch recognition and an electronic device thereof | |
EP2977862B1 (en) | Information processing device and information processing method | |
JP6411067B2 (en) | Information processing apparatus and input method | |
JP5492627B2 (en) | Information display device and information display method | |
JP2011192173A (en) | Information processor and touch panel operation method | |
KR101179466B1 (en) | Mobile terminal and method for displaying object using approach sensing of touch tool thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150429 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160428 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180427 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190422 Year of fee payment: 8 |