WO2010062062A2 - 포인팅 디바이스가 구비된 단말장치 및 화면 제어 방법 - Google Patents

포인팅 디바이스가 구비된 단말장치 및 화면 제어 방법 Download PDF

Info

Publication number
WO2010062062A2
WO2010062062A2 PCT/KR2009/006432 KR2009006432W WO2010062062A2 WO 2010062062 A2 WO2010062062 A2 WO 2010062062A2 KR 2009006432 W KR2009006432 W KR 2009006432W WO 2010062062 A2 WO2010062062 A2 WO 2010062062A2
Authority
WO
WIPO (PCT)
Prior art keywords
screen
time
user
easy
pressing operation
Prior art date
Application number
PCT/KR2009/006432
Other languages
English (en)
French (fr)
Other versions
WO2010062062A3 (ko
Inventor
안건준
Original Assignee
크루셜텍(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 크루셜텍(주) filed Critical 크루셜텍(주)
Priority to US13/126,791 priority Critical patent/US20120050158A1/en
Priority to JP2011534403A priority patent/JP2012507777A/ja
Priority to CN2009801436405A priority patent/CN102203713A/zh
Priority to EP09829269A priority patent/EP2352080A2/en
Publication of WO2010062062A2 publication Critical patent/WO2010062062A2/ko
Publication of WO2010062062A3 publication Critical patent/WO2010062062A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits

Definitions

  • the present invention relates to a terminal apparatus equipped with a pointing device and a screen control method. More particularly, the present invention relates to a terminal device having a pointing device for controlling a screen by moving a cursor or a pointer on a screen through a user's finger movement, and a method of controlling a screen using the pointing device.
  • various menu settings for using the portable electronic device are required according to an operation mode of the portable electronic device. For example, searching and selecting the other party's phone number or the file to be transmitted in the communication mode, searching for multimedia files in the multimedia mode, playing / stopping, pausing, etc. in the wireless Internet connection, mouse function or zoom function in the camera mode, etc. Is required.
  • a function for basic setting or menu call of the portable electronic device itself is required.
  • a user can select a function related to a menu or an icon simply by directly touching a menu or icon displayed on a screen of the mobile terminal with a finger, and a user interface according to various operations of the user.
  • a problem that does not provide an environment.
  • An object of the present invention is to provide a terminal apparatus and a screen control method provided with a pointing device that provides a user interface capable of efficiently controlling a screen in a state in which a user's finger movement is stopped.
  • a screen control method is provided.
  • This method is a screen control method of a terminal device including a pointing device for generating and moving a cursor (or a pointer) on a screen through the movement of a user's finger, the pressing operation of the user's finger to select a specific function displayed on the screen Detecting; Determining whether the pressing operation is temporary or lasts for a predetermined time; Determining, by the user, an easy click operation when the pressing operation is temporary, and implementing a function linked to the area where the cursor or the pointer is located on the screen; And if the pressing operation lasts for a predetermined time, determining that it is an easy press operation to implement a preset control function on the screen.
  • a terminal apparatus provided with a pointing device.
  • the apparatus includes a display unit for displaying a cursor or a pointer on a screen and outputting information according to an operation of a terminal device on the screen;
  • a pointing device for generating and moving a cursor (or pointer) on a screen through a user's finger movement; And determining whether the pressing operation is temporary or lasting for a predetermined time by detecting a pressing operation of the user's finger for selecting a function displayed on the screen through the pointing device, and if the pressing operation is temporary, an easy click ( If it is determined that the operation is linked to the area where the cursor or the pointer is located on the screen and the pressing operation lasts for a predetermined time, the operation is determined as an easy press operation. And a control unit controlling the display unit to implement a set control function on the screen.
  • FIG. 1 illustrates an external configuration of a terminal apparatus to which a pointing device is applied according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a detailed configuration of a terminal device according to an embodiment of the present invention.
  • 3 is a graph for explaining an easy press and an easy click according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a screen control method according to an exemplary embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a screen control method according to another exemplary embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a screen control method according to an easy press according to an exemplary embodiment of the present invention.
  • FIG. 7 illustrates an initial screen on which an easy press operates while a full browsing service is executed according to an embodiment of the present invention.
  • FIG. 8 illustrates a screen on which a pop-up menu is displayed by the operation of the easy press while the full browsing service is executed according to an embodiment of the present invention.
  • FIG 9 illustrates a screen on which an easy press is operated while a VOD service is executed and a mode switch is executed according to an embodiment of the present invention.
  • FIG. 1 illustrates an external configuration of a terminal apparatus to which a pointing device is applied according to an embodiment of the present invention.
  • the terminal device shows a portable terminal 1, but is not limited thereto.
  • the terminal device includes all of the electronic devices including the display unit 100 and the pointing device 200 and capable of wired / wireless communication and capable of executing multimedia contents.
  • the terminal device may include a notebook computer and an IPTV.
  • the display unit 100 may be provided on the upper surface of the portable terminal 1, and a liquid crystal display (LCD), which is currently commercialized, may be used.
  • LCD liquid crystal display
  • the display unit 100 displays a cursor or pointer 101 on the screen, and outputs information according to the operation of the portable terminal 1 on the screen.
  • a screen corresponding to a user interface (UI) input from the pointing device 200 is output to the outside.
  • UI user interface
  • the display unit 100 displays a screen in which the portable terminal 1 implements full browsing, VOD (Vedio on Demand), Map, MP3 playback, Mail service, and the like.
  • VOD Vehicle on Demand
  • Map Map
  • MP3 playback MP3 playback
  • Mail service and the like.
  • the pointing device 200 manipulates a cursor (or a pointer) on a screen output by the display unit 100 and is a means for selecting a function of a left mouse button, that is, a function displayed on the screen.
  • the pointing device 200 implements a pointing technique in a personal computer (PC) by creating and moving a cursor (or pointer) on a screen through a finger movement. That is, when the finger is placed on the pointing device 200 and the finger is moved up and down and left and right, the cursor (or the pointer) moves according to the direction.
  • PC personal computer
  • the pointing device 200 may be applied to various techniques, for example, an optical joystick may be used.
  • Optical joystick is a technology that transmits the finger movement information to the sensor through the optical system using the light emitted by the Luminescent Diode (LED) 201 and converts it into a coordinate value and implements it on the screen as much as the displacement.
  • Optical joysticks reverse the principle of optical mice. The optical mouse places the LEDs down, while the optical joysticks direct the LEDs 201 up and detect the movement of the finger.
  • the pointing device 200 may be not only such an optical joystick but also various pointing devices including a hall sensor, a fingerprint sensor, and a pressure sensor.
  • FIG. 2 is a block diagram showing a detailed configuration of a terminal device according to an embodiment of the present invention.
  • the terminal device 1 includes a display unit 100, a pointing device 200, a controller 300, and a memory 400.
  • the pointing device 200 may sense a physical contact of the user's finger or light reflected by the user's finger, and accordingly, the controller 300 performs a different operation. Therefore, the function of each component will be described below by dividing into an embodiment in which the pointing device 200 detects a physical contact and an embodiment in which light is reflected from a user's finger.
  • the pointing device 200 generates a touch detection signal when a physical contact of a user's finger is detected.
  • the means for detecting the physical contact by the pointing device 200 may be implemented through a touch pad or a dome switch.
  • the controller 300 reads a user's finger movement when the touch detection signal is transmitted from the pointing device 200. When the touch sensing signal is received from the pointing device 200, the controller 300 recognizes that the user presses a specific function and counts the contact time T.
  • the pressing operation refers to an operation in which the user presses the pointing device 200 with a finger to select a function.
  • the controller 300 controls the screen to execute a corresponding function according to the pressing operation, and outputs the determined screen through the display unit 100.
  • the memory 400 stores the operation of the effective user interface and the screen control information according to the result of reading the touch detection signal and provides the same to the controller 300.
  • the pointing device 200 generates a light sensing signal and outputs the light when the light reflected by the user's finger is collected by irradiating light on the user's finger.
  • the controller 300 calculates the amount of light collected, that is, the amount of light.
  • the controller 300 determines whether the user interface is valid by using the light detection signal and the light amount. That is, the controller 300 recognizes that the user presses to select a specific function when the calculated amount of light is greater than or equal to a predetermined threshold. Then, the screen is controlled to execute a corresponding function according to the pressing operation, and the determined screen is output through the display unit 100.
  • the memory 400 stores the operation of the effective user interface and the control information according to the result of reading the light detection signal and the amount of light and provides the same to the controller 300.
  • the pressing operation for the user to select a specific function from the user interface using the pointing device 200 described above includes an easy press and an easy click.
  • the easy press implements a screen control function for the currently running service screen.
  • the screen control function is previously defined by the terminal developer.
  • This screen control function includes a plurality of additional menu items that fit the currently active mobile service category.
  • the screen control function includes a function of switching the screen control mode of the currently running mobile service category.
  • the easy click is a pressing state is a temporary state
  • the easy press is divided into a persistent state.
  • the easy press operates in all areas regardless of the active area and the inactive area, but the easy click operates in the active area.
  • the activation area is a point or section to which a specific function is linked and may include an area in which text, an image, and a video are displayed.
  • the active area may be distinguished from the inactive area by highlighting when the cursor (or pointer) approaches the corresponding area.
  • the easy press operates when the contact time T is greater than or equal to the predefined time threshold t, while the easy click operates when the contact time T is less than the predefined time threshold t.
  • the contact time T and the predefined time threshold t may be in units of seconds, for example, the predefined time threshold t may be '1 second'.
  • the easy press is implemented in all areas while the easy click is limited to the active area.
  • an easy press and an easy click are distinguished by light quantity and time, which will be described in detail with reference to FIG. 3.
  • 3 is a graph for explaining an easy press and an easy click according to an embodiment of the present invention.
  • the user when the light amount L exceeds a predefined threshold L 1 , the user is recognized as a pressing operation for selecting a specific function and is determined as an easy click or easy press operation.
  • the exceeded time point t 1 and the predefined threshold time t 2 may be in units of seconds, for example, the predefined time threshold t may be '1 second'.
  • FIG. 4 is a flowchart illustrating a screen control method according to an embodiment of the present invention, and illustrates a screen control method according to an operation of the pointing device 200 of FIG. 2.
  • the controller 300 counts the contact time T from the time when the touch is detected (S103).
  • the controller 300 determines whether the contact time T exceeds a predefined time threshold t (S105).
  • the controller 300 performs a predefined screen control function (S109).
  • the controller 300 executes a function linked to the region where the easy click is activated (S113).
  • FIG. 5 is a flowchart illustrating a screen control method according to another embodiment of the present invention, and illustrates a screen control method according to an operation of the pointing device 200 of FIG. 3.
  • the controller 300 measures the amount of light collected by the pointing device 200, that is, the amount of light (S203).
  • the controller 300 determines whether the measured light quantity L exceeds a predefined light quantity threshold L 1 (S205). If it does not exceed, the flow returns to step S201.
  • control unit 300 controls the amount of light L between a time point t 1 at which the measured light amount L exceeds a predefined light amount threshold L 1 to a predefined threshold time t 2 . It is determined whether this decreases (S207).
  • the controller 300 recognizes that the pressing operation taken by the user in close proximity of the finger to the pointing device 200 continues and determines that the pressing operation is easy (S209). Then, the controller 300 performs a predefined control function (S211).
  • the controller 300 recognizes that the pressing operation taken by the user in close proximity to the pointing device 200 is a temporary state and determines it as an easy click operation (S213). Then, the controller 300 executes the function linked to the region where the easy click is activated (S215).
  • FIG. 6 is a flowchart illustrating a screen control method according to an easy press according to an exemplary embodiment of the present invention.
  • control function provided according to the easy press includes 'additional menu item' and 'mode change', but is not limited to the above, and various embodiments are possible.
  • control unit 300 is an easy press operation
  • operation control according thereto is started (S301).
  • the controller 300 checks the current user screen mode output through the display 100 (S303).
  • the control function set in the current user screen mode is checked (S305).
  • the controller 300 determines whether the control function is set to the menu popup mode or the mode switch (S307).
  • an additional menu item for selecting a function additional to the current user screen mode is popped up (S309).
  • the additional menu item may be a favorite item preset by the user. These favorite items include frequently used menu items among a plurality of menu items implemented in the portable terminal 1.
  • the pop-up menu includes a flying menu or a rolling menu.
  • the user can scroll the additional menu item up or down to select the menu item.
  • These additional menu items may include a zoom mode item, an enlarged mode item, a scroll mode item, a multimedia message service (MMS) mode item, and a dynamic zoom mode item.
  • MMS multimedia message service
  • the zoom mode item sweeps a finger left and right to provide a zoom-in / zoom-out function. Sweeping to the left will zoom out, and sweeping to the right will zoom in.
  • the sweeping refers to an operation of sliding left and right like sliding a finger.
  • the magnification mode item provides a function of enlarging a character or an image at the point where the cursor (or pointer) is located.
  • the scroll mode item provides a function of moving to a specific position on the screen. That is, when the finger moves in a desired direction on the pointing device 200, a function corresponding to the direction is output.
  • the MMS mode item provides the function to transfer video, photo and music files.
  • the dynamic zoom mode item provides a function to enlarge the text at the point where the cursor (or pointer) is located and to flow from right to left.
  • step S307 if it is determined in step S307 that the control function is set to mode switching, the mode switching function suitable for the current user screen mode is executed.
  • mode switching means that the currently output screen form is switched to another predefined screen form.
  • the menu may include a menu hiding mode in which a menu displayed on the screen disappears.
  • FIG. 7 illustrates an initial screen on which an easy press operates while a full browsing service is executed according to an embodiment of the present invention.
  • the display unit 100 displays an icon 103 indicating that the easy press is driven. do.
  • the icon is composed of a letter 'Press' and an arrow shape.
  • FIG. 8 illustrates a screen on which a pop-up menu is displayed by the operation of the easy press while the full browsing service is executed according to an embodiment of the present invention.
  • the display unit 100 pops up an additional menu item 105 after the icon 103 of FIG. 8 is displayed.
  • the additional menu item 105 consists of a rolling menu and a left and right sweeping menu.
  • a rolling menu when the user moves a finger up and down, the scrolling function is activated and the menu is activated sequentially.
  • the left and right sweeping menu when the user moves the finger left or right, the user can zoom in or zoom out or adjust the volume when the sound source file is being played.
  • FIG 9 illustrates a screen on which an easy press is operated while a VOD service is executed and a mode switch is executed according to an embodiment of the present invention.
  • an easy press is operated while a movie file is being played, and thus the mode is switched to the menu hidden mode.
  • a menu related to VOD program control is output on the upper side of the screen, and a menu related to file reproduction is output on the right side of the screen.
  • the menu When Easy Press is in operation, the menu will be hidden and the upper and lower menus will disappear.
  • the 'menu hide' includes a state in which the menu is moved to an external area of the VOD play screen and thus is not displayed on the screen.
  • a hidden menu 107a is output.
  • a hidden menu 107b is output.
  • Embodiments of the present invention are not implemented only through the above-described apparatus and / or method, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiments of the present invention, a recording medium on which the program is recorded, and the like. It may be.
  • a menu item search of a function that a user wants to use is performed quickly and conveniently through a simple operation using a pointing device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 실시예에 따른 포인팅 디바이스를 구비한 단말장치의 화면 제어 방법에 따르면, 화면에 표시된 특정 기능을 선택하기 위한 사용자 손가락의 누름 동작을 감지한다. 이때, 누름 동작이 일시적인지 또는 기 정의된 시간동안 지속되는지를 판단한다. 누름 동작이 일시적인 경우, 이지 클릭(Easy Click) 동작으로 판단하여 커서 또는 포인터가 위치한 영역에 링크된 기능을 화면 상에 구현한다. 또한, 누름 동작이 기 정의된 시간동안 지속되는 경우, 이지 프레스(Easy Press) 동작으로 판단하여 사전에 설정된 제어 기능을 화면 상에 구현한다.

Description

포인팅 디바이스가 구비된 단말장치 및 화면 제어 방법
본 발명은 포인팅 디바이스가 구비된 단말장치 및 화면 제어 방법에 관한 것이다. 더욱 상세하게는 화면 상의 커서 또는 포인터를 사용자의 손가락 움직임을 통해 이동시켜 화면을 제어하는 포인팅 디바이스가 구비된 단말장치 및 그 포인팅 디바이스를 이용하여 화면을 제어하는 방법에 관한 것이다.
일반적으로, 전자통신 기술의 발전을 통해 다양한 전자기기들이 만들어지고 있으며, 이러한 기기들은 점차 사용자의 조작 편의성과 더불어 디자인의 수려함을 강조하는 추세에 있다. 이러한 추세에 따라 강조되는 것은 키보드 혹은 키패드로 대표되던 입력 장치의 다변화이다.
또한, 휴대용 전자 기기의 다양한 기능이 하나의 기기에 집적화되면서 휴대용 전자 기기의 작동 모드에 따라 이를 이용하기 위한 다양한 메뉴 설정이 요구된다. 예컨대 통신 모드에서는 상대방 전화번호나 전송하고자 하는 파일의 검색 및 선택, 멀티미디어 모드에서는 멀티미디어 파일 탐색, 재생/정지, 일시 정지 등의 조작 무선 인터넷 접속, 카메라 모드 등에서는 마우스 기능이나 줌 기능(zoom) 등이 요구된다. 또한, 휴대용 전자 기기 자체의 기본 설정이나 메뉴 호출 등을 위한 기능이 요구된다.
게다가 최근 3.5세대 이동통신인 HSDPA(High Speed Downlink Packet Access)나 휴대인터넷 와이브로(WiBro) 등 초고속 이동통신 기술이 상용화되면서 풀 브라우징(full browsing)에 대한 관심이 높아지게 되었다. PC(Personal Computer)용 웹 페이지를 휴대폰 단말기 등에 표시할 수는 있지만, 좁은 휴대폰 단말기 등의 화면에 PC용 인터넷 화면을 그대로 구현하기는 쉽지 않다. 특히, 이러한 인터넷 화면을 제어하는 것은 더더욱 용이하지 않다.
그런데 종래에는 필요한 기능을 선택하기 위해서 상위 메뉴, 하위 메뉴를 오가면서 여러 차례의 메뉴 검색 및 선택 과정을 거쳐야 하므로 조작의 효율성이 떨어지는 문제점이 있다. 특히, 풀 브라우징 화면에서는 종래의 메뉴 선택 방식을 적용할 경우 화면 제어가 매우 불편하다.
한편, 종래의 터치스크린을 이용한 휴대 단말기에서는 사용자가 단순히 휴대 단말기의 화면에 디스플레이된 메뉴 또는 아이콘을 손가락으로 직접 터치함으로써 메뉴 또는 아이콘과 관련된 기능을 선택할 수 있을 뿐, 사용자의 다양한 동작에 따른 사용자 인터페이스 환경을 제공하지 못하는 문제점이 있다.
발명이 이루고자 하는 기술적 과제는 사용자 손가락의 움직임이 정지된 상태에서 효율적으로 화면을 제어할 수 있는 사용자 인터페이스를 제공하는 포인팅 디바이스가 구비된 단말장치 및 화면 제어 방법을 제공하는 것이다.
본 발명의 한 실시예에 따르면, 화면 제어 방법이 제공된다. 이 방법은, 사용자의 손가락 움직임을 통해 화면 상의 커서(또는 포인터)를 생성 및 이동시키는 포인팅 디바이스를 포함한 단말장치의 화면 제어 방법에 있어서, 상기 화면에 표시된 특정 기능을 선택하기 위한 사용자 손가락의 누름 동작을 감지하는 단계; 상기 누름 동작이 일시적인지 또는 기 정의된 시간동안 지속되는지를 판단하는 단계; 상기 누름 동작이 일시적인 경우, 이지 클릭(Easy Click) 동작으로 판단하여 상기 커서 또는 포인터가 위치한 영역에 링크된 기능을 화면 상에 구현하는 단계; 및 상기 누름 동작이 기 정의된 시간동안 지속되는 경우, 이지 프레스(Easy Press) 동작으로 판단하여 사전에 설정된 제어 기능을 상기 화면 상에 구현하는 단계를 포함한다.
본 발명의 다른 실시예에 따르면, 포인팅 디바이스가 구비된 단말장치가 제공된다. 이 장치는, 화면 상에 커서 또는 포인터를 표시하고, 단말장치의 동작에 따른 정보를 상기 화면 상에 출력하는 디스플레이부; 사용자의 손가락 움직임을 통해 화면 상의 커서(또는 포인터)를 생성 및 이동시키는 포인팅 디바이스; 및 상기 포인팅 디바이스를 통해 화면에 표시된 기능을 선택하기 위한 사용자 손가락의 누름 동작을 감지하여 상기 누름 동작이 일시적인지 또는 기 정의된 시간 동안 지속되는지를 판단하고, 상기 누름 동작이 일시적인 경우, 이지 클릭(Easy Click) 동작으로 판단하여 상기 커서 또는 포인터가 위치한 영역에 링크된 기능을 화면 상에 구현하고, 상기 누름 동작이 기 정의된 시간동안 지속되는 경우, 이지 프레스(Easy Press) 동작으로 판단하여 사전에 설정된 제어 기능을 상기 화면 상에 구현하도록 상기 디스플레이부를 제어하는 제어부를 포함한다.
도 1은 본 발명의 실시예에 따른 포인팅 디바이스가 적용된 단말장치의 외부 구성을 나타낸다.
도 2는 본 발명의 한 실시예에 따른 단말장치의 세부적인 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 이지 프레스와 이지 클릭을 설명하기 위한 그래프이다.
도 4는 본 발명의 한 실시예에 따른 화면 제어 방법을 나타낸 순서도이다.
도 5는 본 발명의 다른 실시예에 따른 화면 제어 방법을 나타낸 순서도이다.
도 6은 본 발명의 실시예에 따른 이지 프레스에 따른 화면 제어 방법을 나타낸 순서도이다.
도 7은 본 발명의 실시예에 따른 풀 브라우징 서비스 실행 중에 이지 프레스가 동작하는 초기 화면을 나타낸다.
도 8은 본 발명의 실시예에 따른 풀브라우징 서비스 실행 중에 이지 프레스가 동작하여 팝업 메뉴가 표출된 화면을 나타낸다.
도 9는 본 발명의 실시예에 따른 VOD 서비스 실행 중에 이지 프레스가 동작하여 모드 전환이 실행된 화면을 나타낸다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 시퀀스를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이제, 본 발명의 실시예에 따른 포인팅 디바이스가 구비된 단말장치 및 사용자 인터페이스 제어 방법에 대하여 도면을 참고로 하여 상세하게 설명한다.
도 1은 본 발명의 실시예에 따른 포인팅 디바이스가 적용된 단말장치의 외부 구성을 나타낸다.
도 1을 참조하면, 단말장치는 휴대용 단말기(1)를 도시하였으나, 이에 국한되는 것은 아니다. 단말장치는 디스플레이부(100) 및 포인팅 디바이스(200)를 포함하고 유무선 통신이 가능하며 멀티미디어 컨텐츠의 실행이 가능한 전자 기기를 모두 포함하는데, 예컨대 노트북, IPTV를 포함할 수 있다.
여기서, 디스플레이부(100)는 휴대용 단말기(1)의 상면에 구비되고, 현재 상용화되고 있는 LCD(Liquid Crystal Display) 등이 사용될 수 있다.
디스플레이부(100)는 화면 상에 커서(cursor) 또는 포인터(pointer)(101)를 표시하고, 휴대용 단말기(1)의 동작에 따른 정보를 화면 상에 출력한다. 특히, 포인팅 디바이스(200)로부터 입력되는 사용자 인터페이스(UI, User Interface)에 해당되는 화면을 외부로 출력한다.
디스플레이부(100)는 휴대용 단말기(1)가 풀브라우징(full browsing), VOD(Vedio on Demand), 맵(Map), 엠피쓰리(MP3) 재생, 메일(Mail) 서비스 등을 구현함에 따른 화면을 출력한다.
포인팅 디바이스(200)는 디스플레이부(100)가 출력하는 화면 상에 커서(또는 포인터)를 조작하며 PC의 마우스 왼쪽 버튼의 역할 즉 화면에 표시된 기능을 선택하기 위한 수단이다.
포인팅 디바이스(200)는 화면 상의 커서(또는 포인터)를 손가락 움직임을 통해 생성 및 이동시켜 PC(Personal Computer)에서의 포인팅 기술을 구현한다. 즉 포인팅 디바이스(200) 위에 손가락을 올린 후 손가락을 상하, 좌우로 움직이면 그 방향에 따라 커서(또는 포인터)가 움직인다.
여기서, 포인팅 디바이스(200)는 다양한 기술이 응용될 수 있으나, 예컨대 광 조이스틱(Optical Joystick)이 이용될 수 있다. 광 조이스틱은 LED(Luminescent Diode)(201)가 발광하는 빛을 이용하여 손가락의 움직임 정보를 광학계를 통해 센서로 보내고 이것을 좌표값으로 변환, 움직인 변위만큼 화면 상에 구현하는 기술이다. 광 조이스틱은 광 마우스의 원리를 역으로 이용한다. 광 마우스는 LED를 아래로 향하게 배치하는 반면, 광 조이스틱은 LED(201)가 위를 향하게 하고 손가락의 움직임을 탐지한다.
물론, 포인팅 디바이스(200)는 이러한 광 조이스틱 뿐만 아니라 홀 센서, 지문인식 센서 및 압력 센서를 포함한 각종 포인팅 디바이스가 될 수 있다.
도 2는 본 발명의 한 실시예에 따른 단말장치의 세부적인 구성을 나타낸 블록도이다.
도 2를 참조하면, 단말장치(1)는 디스플레이부(100), 포인팅 디바이스(200), 제어부(300) 및 메모리(400)를 포함한다.
여기서, 포인팅 디바이스(200)는 사용자 손가락의 물리적 접촉을 감지하거나 또는 사용자 손가락에 반사되는 광을 감지할 수 있으며, 그에 따라 제어부(300)는 상이한 동작을 수행한다. 따라서, 이하, 포인팅 디바이스(200)가 물리적 접촉을 감지하는 실시예와 사용자 손가락에 반사되는 광을 수집하는 실시예로 나누어 각 구성 요소의 기능에 대해 설명한다.
먼저, 한 실시예에 따르면, 포인팅 디바이스(200)는 사용자 손가락의 물리적 접촉이 감지되면 접촉 감지 신호를 생성한다. 이때, 포인팅 디바이스(200)가 물리적 접촉을 감지하는 수단은 터치패드 또는 돔 스위치(doom switch)를 통하여 구현될 수 있다.
제어부(300)는 포인팅 디바이스(200)로부터 접촉 감지 신호가 전달되면 사용자의 손가락 움직임을 판독한다. 제어부(300)는 포인팅 디바이스(200)로부터 접촉 감지 신호가 수신되면 사용자가 특정 기능을 선택하기 위한 누름 동작으로 인식하고, 접촉 시간(T)을 카운트한다.
여기서, 누름 동작은 사용자가 기능을 선택하기 위해 손가락으로 포인팅 디바이스(200)를 누르는 동작을 말한다. 제어부(300)는 누름 동작에 따라 해당하는 기능이 실행되도록 화면을 제어하고, 결정된 화면을 디스플레이부(100)를 통해 출력한다.
메모리(400)는 접촉 감지 신호를 판독한 결과에 따른 유효한 사용자 인터페이스의 동작 및 그에 따른 화면 제어 정보를 저장하여 제어부(300)에게 제공한다.
한편, 다른 실시예에 따르면, 포인팅 디바이스(200)는 근접한 사용자의 손가락에 광을 조사하여 사용자의 손가락에 반사되는 광이 수집되면 광 감지 신호를 생성하여 출력한다.
제어부(300)는 포인팅 디바이스(200)로부터 광 감지 신호가 수신되면 수집되는 광의 양 즉 광량(光量)을 계산한다.
제어부(300)는 광 감지 신호 및 광량을 이용하여 유효한 사용자 인터페이스의 동작인지를 판단한다. 즉 제어부(300)는 계산한 광량이 기 정의된 임계치 이상인 경우, 사용자가 특정 기능을 선택하기 위한 누름 동작으로 인식한다. 그리고 누름 동작에 따라 해당하는 기능이 실행되도록 화면을 제어하고, 결정된 화면을 디스플레이부(100)를 통해 출력한다.
메모리(400)는 광 감지 신호 및 광량을 판독한 결과에 따른 유효한 사용자 인터페이스의 동작 및 그에 따른 제어 정보를 저장하여 제어부(300)에게 제공한다.
이상 기술한 포인팅 디바이스(200)를 이용한 사용자 인터페이스 중에서 사용자가 특정 기능을 선택하기 위한 누름 동작은 이지 프레스(Easy Press) 및 이지 클릭(Easy Click)을 포함한다.
여기서, 이지 프레스는 현재 실행중인 서비스 화면에 대한 화면 제어 기능을 을 구현한다. 이때, 화면 제어 기능은 단말 개발자에 의해 사전에 정의된다.
이러한 화면 제어 기능은 현재 활성화된 모바일 서비스 카테고리에 맞는 복수의 추가 메뉴 항목을 포함한다. 또한, 화면 제어 기능은 현재 실행중인 모바일 서비스 카테고리의 화면 제어 모드를 전환하는 기능을 포함한다.
그리고 이지 클릭은 커서(또는 포인터)가 위치한 지점에 링크된 기능을 실행 또는 선택한다. 예컨대 PC 마우스에서 '왼쪽 버튼 클릭'과 동일한 기능을 수행한다.
이때, 이지 클릭은 누름 동작이 일시적인 상태이고, 이지 프레스는 누름 동작이 지속적인 상태로 구별된다.
여기서, 포인팅 디바이스(200)가 사용자 손가락의 물리적 접촉을 감지하는 경우의 실시예에 따른 이지 프레스와 이지 클릭에 대해 설명하면 표 1과 같다.
표 1
항목 이지 프레스 이지 클릭
영역 모든 영역 활성화 영역
시간 접촉 시간(T)≥t 접촉 시간(T)< t
표 1에서처럼, 이지 프레스는 활성화 영역, 비활성화 영역을 구분하지 않고 모든 영역에서 동작하지만 이지 클릭은 활성화 영역에서 동작한다. 여기서, 활성화 영역은 특정 기능이 링크된 지점 또는 구간으로서, 텍스트, 이미지, 동영상이 표출된 영역을 포함할 수 있다. 활성화 영역은 해당 영역에 커서(또는 포인터)가 다가가면 하이라이트가 표시되어 비활성화 영역과 구분될 수 있다.
또한, 이지 프레스는 접촉 시간(T)이 기 정의된 시간 임계치(t) 이상인 경우 동작하는 반면, 이지 클릭은 접촉 시간(T)이 기 정의된 시간 임계치(t) 미만인 경우 동작한다.
여기서, 접촉 시간(T) 및 기 정의된 시간 임계치(t)는 초 단위로서, 예컨대 기 정의된 시간 임계치(t)는 '1초' 일 수 있다.
한편, 포인팅 디바이스(200)가 사용자 손가락에 반사되는 광을 감지하는 경우의 실시예에 따른 이지 프레스와 이지 클릭에 대해 설명하면 표 2와 같다.
표 2
항목 이지 프레스 이지 클릭
영역 모든 영역 활성화 영역
광량 광량(L)≥L1 광량(L)≥L1
시간 T>t2 t2>T> t1
표 2에서처럼, 이지 프레스는 모든 영역에서 구현되는 반면 이지 클릭은 활성화 영역으로 국한된다.
또한, 이지 프레스와 이지 클릭은 광량 및 시간에 의해 구별되는데, 도 3을 참조하여 상세히 설명한다.
도 3은 본 발명의 실시예에 따른 이지 프레스와 이지 클릭을 설명하기 위한 그래프이다.
도 3을 참조하면, 광량(L)이 기 정의된 임계치(L1)를 초과하는 경우, 사용자가 특정 기능을 선택하기 위한 누름 동작으로 인식되어 이지 클릭 또는 이지 프레스 동작으로 판단된다.
이때, 광량(L)이 기 정의된 광량 임계치(L1)를 초과한 시점(t1)부터 기 정의된 임계 시간(t2) 사이에 광량이 감소하면 누름 동작이 일시적인 상태로 인식되어 이지 클릭(P1)으로 판단된다.
그리고 기 정의된 임계 시간(t2)에 이르기까지 광량이 지속적으로 증가하거나 일정하면 누름 동작이 지속되는 상태로 인식되어 이지 프레스 (P2)로 판단된다.
여기서, 초과한 시점(t1) 및 기 정의된 임계 시간(t2)은 초 단위로서, 예컨대 기 정의된 시간 임계치(t)는 '1초' 일 수 있다.
그러면 도 4 내지 도 6을 통해 이지 프레스 및 이지 클릭의 동작에 따른 화면 제어 방법에 대해 설명하기로 한다.
먼저, 도 4는 본 발명의 한 실시예에 따른 화면 제어 방법을 나타낸 순서도로서, 도 2의 포인팅 디바이스(200)의 동작에 따른 화면 제어 방법을 나타낸다.
도 4를 참조하면, 포인팅 디바이스(200)가 사용자 손가락의 접촉을 감지(S101)하면, 제어부(300)는 접촉이 감지된 시점부터 접촉 시간(T)을 카운트한다(S103).
제어부(300)는 접촉 시간(T)이 기 정의된 시간 임계치(t)를 초과하는지를 판단한다(S105).
이때, 기 정의된 시간 임계치(t)를 초과하는 경우, 사용자 손가락의 접촉이 일정시간 동안 지속되는 경우로 인식하여 이지 프레스 동작으로 판단한다(S107). 따라서, 제어부(300)는 기 정의된 화면 제어 기능을 수행한다(S109).
한편, 기 정의된 시간 임계치(t)를 초과하지 않는 경우, 사용자 손가락의 접촉이 일시적인 상태로 인식하여 이지 클릭 동작으로 판단한다(S111). 따라서, 제어부(300)는 이지 클릭이 활성화된 영역에 링크된 기능을 실행한다(S113).
도 5는 본 발명의 다른 실시예에 따른 화면 제어 방법을 나타낸 순서도로서, 도 3의 포인팅 디바이스(200)의 동작에 따른 화면 제어 방법을 나타낸다.
도 5를 참조하면, 포인팅 디바이스(200)가 손가락에 반사되는 광을 수집(S201)하면 제어부(300)는 포인팅 디바이스(200)가 수집한 광의 양 즉 광량을 측정한다(S203).
제어부(300)는 측정된 광량(L)이 기 정의된 광량 임계치(L1)를 초과하는지를 판단한다(S205). 초과하지 않는 경우, S201 단계로 되돌아간다.
그런데 초과하는 경우, 제어부(300)는 측정된 광량(L)이 기 정의된 광량 임계치(L1)를 초과한 시점(t1)부터 기 정의된 임계 시간(t2) 사이에 광량(L)이 감소하는지를 판단한다(S207).
광량이 감소하지 않고 일정하거나 증가하는 경우, 제어부(300)는 사용자가 손가락을 포인팅 디바이스(200)에 근접시켜 취한 누름 동작이 지속되는 상태로 인식하여 이지 프레스 동작으로 판단한다(S209). 그러면 제어부(300)는 기 정의된 제어 기능을 수행한다(S211).
그런데 광량이 감소하는 경우, 제어부(300)는 사용자가 손가락을 포인팅 디바이스(200)에 근접시켜 취한 누름 동작이 일시적인 상태로 인식하여 이지 클릭 동작으로 판단한다(S213). 그러면, 제어부(300)는 이지 클릭이 활성화된 영역에 링크된 기능을 실행한다(S215).
도 6은 본 발명의 실시예에 따른 이지 프레스에 따른 화면 제어 방법을 나타낸 순서도이다.
이때, 이지 프레스에 따라 제공되는 제어 기능은 '추가 메뉴 항목' 및 '모드 전환'을 포함하나 상기에 국한되는 것은 아니며 다양한 실시예가 가능하다.
도 6을 참조하면, 제어부(300)가 이지 프레스 동작으로 판단한 경우, 그에 따른 동작 제어를 시작한다(S301).
제어부(300)는 디스플레이부(100)를 통해 출력된 현재 사용자 화면 모드를 확인한다(S303). 그리고 현재 사용자 화면 모드에 설정된 제어 기능을 확인한다(S305).
제어부(300)는 S305 단계에서 확인 결과, 제어 기능이 메뉴 팝업 모드로 설정되었는지 또는 모드 전환으로 설정되었는지를 판단한다(S307).
메뉴 팝업 모드로 설정된 경우, 현재 사용자 화면 모드에 부가적인 기능 선택을 위한 추가 메뉴 항목을 팝업한다(S309). 이때, 추가 메뉴 항목은 사용자가 사전에 설정한 즐겨찾기 항목일 수 있다. 이러한 즐겨찾기 항목은 휴대용 단말기(1)에 구현된 다수의 메뉴 항목 중에서 자주 사용하는 메뉴 항목을 포함한다.
여기서, 팝업 메뉴는 플라잉 메뉴(Flying-Menu) 또는 롤링 메뉴(Rolling-Menu)를 포함한다. 사용자는 추가 메뉴 항목을 상하로 스크롤(scroll)하여 메뉴 항목을 선택할 수 있다.
이러한 추가 메뉴 항목은 줌 모드 항목, 확대모드 항목, 스크롤 모드 항목, MMS(Multimedia Message Service) 모드 항목 및 다이나믹 줌 모드 항목을 포함할 수 있다.
줌 모드 항목은 손가락을 좌우 스위핑(sweeping)하여 줌-인(zoom-in)/줌-아웃(zoom-out) 기능을 제공한다. 즉 좌측으로 스위핑하면 줌-아웃이 되고 우측으로 스위핑하면 줌-인이 된다. 여기서, 스위핑은 손가락을 미끄러지듯이 좌우로 움직이는 동작을 의미한다.
확대 모드 항목은 커서(또는 포인터)가 위치하는 지점의 문자 또는 이미지를 확대하는 기능을 제공한다.
스크롤 모드 항목은 화면에서 특정 위치로 이동하는 기능을 제공한다. 즉 포인팅 디바이스(200) 위에서 손가락을 원하는 방향으로 이동하면 방향에 대응되는 화면을 출력하는 기능을 제공한다.
MMS 모드 항목은 동영상, 사진, 음악 파일을 전송하는 기능을 제공한다.
다이나믹 줌 모드 항목은 커서(또는 포인터)가 위치하는 지점의 문자열이 확대됨과 동시에 우->좌로 흐르면서 출력하는 기능을 제공한다.
한편, S307 단계에서 판단 결과, 제어 기능이 모드 전환으로 설정된 경우 현재 사용자 화면 모드에 적합한 모드 전환 기능을 실행한다. 여기서, 모드 전환은 현재 출력된 화면 형태가 기 정의된 다른 형태의 화면으로 전환되는 것을 의미한다. 예를 들어, 화면 상에 보여지는 메뉴가 사라지는 메뉴 숨김 모드를 포함할 수 있다.
이러한 메뉴 숨김 모드로 동작하는 경우(S311), 모드 전환 이전에 메뉴가 출력되는 지점에 커서가 위치하는지를 판단한다(S313).
커서가 위치하는 경우, 해당하는 숨겨진 메뉴 즉 모드 전환 이전에 출력된 메뉴를 출력한다(S315).
한편, 도 7 내지 도 9는 이지 프레스 동작에 따른 화면 구성을 나타낸다.
먼저, 도 7은 본 발명의 실시예에 따른 풀 브라우징 서비스 실행 중에 이지 프레스가 동작하는 초기 화면을 나타낸다.
도 7을 참조하면, 디스플레이부(100)는 커서(또는 포인터)(101)가 위치한 지점에서 포인팅 디바이스(200)가 사용자 손가락의 누름 동작을 인식하면 이지 프레스가 구동됨을 알리는 아이콘(103)이 표출된다. 여기서, 아이콘은 'Press' 라는 문자와 화살표 모양으로 구성된다.
도 8은 본 발명의 실시예에 따른 풀브라우징 서비스 실행 중에 이지 프레스가 동작하여 팝업 메뉴가 표출된 화면을 나타낸다.
도 8을 참조하면, 디스플레이부(100)는 도 8의 아이콘(103)이 표출된 다음에 추가 메뉴 항목(105)을 팝업한다. 추가 메뉴 항목(105)은 롤링 메뉴 및 좌우 스위핑 메뉴로 구성된다.
롤링 메뉴의 경우, 사용자가 손가락을 상하로 움직이면 스크롤 기능이 활성화되어 순차적으로 메뉴가 활성화된다. 좌우 스위핑 메뉴의 경우, 사용자가 손가락을 좌우로 움직이면 줌-인 또는 줌-아웃이 되거나 음원 파일이 재생 중이라면 볼륨 조절이 된다.
도 9는 본 발명의 실시예에 따른 VOD 서비스 실행 중에 이지 프레스가 동작하여 모드 전환이 실행된 화면을 나타낸다.
도 9를 참조하면, 영화 파일을 재생하는 중에 이지 프레스가 동작하여 모드가 메뉴 숨김 모드로 전환이 된 경우를 나타낸다.
이때, 이지 프레스가 동작하기 전에는 화면 상측에는 VOD 프로그램 제어와 관련된 메뉴가 출력되고, 화면 우측에는 파일 재생과 관련된 메뉴가 출력된다.
이지 프레스가 동작하는 경우, 메뉴 숨김 모드로 전환되어 화면 상/하 측 메뉴가 사라진다. 여기서, '메뉴 숨김'은 메뉴가 VOD 재생 화면의 외부 영역으로 이동되어 화면에 보이지 않는 상태를 포함한다.
이때, 화면 상측에 커서(또는 포인터)(101)가 근접하면 숨겨진 메뉴(107a)가 출력된다. 또한, 화면 우측에 커서(또는 포인터)(101)가 근접하면 숨겨진 메뉴(107b)가 출력된다.
본 발명의 실시예는 이상에서 설명한 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
본 발명의 한 실시예에 따르면, 포인팅 디바이스를 이용한 단순한 동작을 통해 사용자가 이용하고자 하는 기능의 메뉴 항목 검색이 신속하고 편리하게 이루어지는 효과가 있다.

Claims (14)

  1. 사용자의 손가락 움직임을 통해 화면 상의 커서(또는 포인터)를 생성 및 이동시키는 포인팅 디바이스가 구비된 단말장치의 화면 제어 방법에 있어서,
    상기 화면에 표시된 특정 기능을 선택하기 위한 사용자 손가락의 누름 동작을 감지하는 단계;
    상기 누름 동작이 일시적인지 또는 기 정의된 시간동안 지속되는지를 판단하는 단계;
    상기 누름 동작이 일시적인 경우, 이지 클릭(Easy Click) 동작으로 판단하여 상기 커서 또는 포인터가 위치한 영역에 링크된 기능을 화면 상에 구현하는 단계; 및
    상기 누름 동작이 기 정의된 시간동안 지속되는 경우, 이지 프레스(Easy Press) 동작으로 판단하여 사전에 설정된 제어 기능을 상기 화면 상에 구현하는 단계
    를 포함하는 화면 제어 방법.
  2. 제1항에 있어서,
    상기 사전에 설정된 제어 기능을 상기 화면 상에 구현하는 단계는,
    현재 활성화된 서비스 화면의 카테고리에 대응되는 복수의 추가 메뉴 항목을 출력 또는 상기 서비스 화면의 모드 전환을 포함하는 화면 제어 방법.
  3. 제2항에 있어서,
    상기 추가 메뉴 항목은,
    사용자가 자주 사용하는 하나 이상의 메뉴를 포함한 즐겨찾기 메뉴를 포함하는 것을 특징으로 하는 화면 제어 방법.
  4. 제2항에 있어서,
    상기 추가 메뉴 항목은,
    상하로 스크롤(scroll)하여 선택할 수 있는 하나 이상의 메뉴 항목 및 좌우로 스위핑하여 선택할 수 있는 하나 이상의 메뉴 항목을 포함하는 화면 제어 방법.
  5. 제2항에 있어서,
    상기 사전에 설정된 제어 기능을 상기 화면 상에 구현하는 단계는,
    화면에 표시된 현재 활성화된 서비스를 제어하기 위한 하나 이상의 메뉴 항목을 숨김 상태로 전환하고 커서 또는 포인터가 근접하면 숨겨진 메뉴 항목을 화면에 표출하는 화면 제어 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 감지하는 단계는,
    사용자 손가락의 접촉이 감지되는 경우 상기 누름 동작을 감지하고,
    상기 판단하는 단계는,
    상기 사용자의 손가락이 접촉된 시간을 측정하는 단계 및
    상기 접촉된 시간이 기 정의된 임계치 이상인지를 판단하는 단계를 포함하고,
    상기 접촉된 시간이 상기 시간 임계치 이상인 경우 상기 누름 동작이 지속적인 경우로 인식하여 상기 이지 프레스(Easy Press) 동작으로 판단하고, 상기 접촉된 시간이 상기 시간 임계치의 미만인 경우 상기 누름 동작이 일시적인 경우로 인식하여 상기 이지 클릭(Easy Click) 동작으로 판단하는 화면 제어 방법.
  7. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 감지하는 단계는,
    상기 포인팅 디바이스가 사용자의 손가락에 반사되는 광을 수집하여 수집된 광량이 기 정의된 광량 임계치를 초과하는 경우 상기 누름 동작을 감지하고,
    상기 판단하는 단계는,
    상기 광량 임계치를 초과한 시점부터 기 정의된 임계 시간 사이에 광량이 감소하는지를 판단하고,
    상기 광량 임계치를 초과한 시점부터 상기 기 정의된 임계 시간 사이에 상기 광량이 감소하면 상기 누름 동작이 일시적인 경우로 인식하여 상기 이지 클릭(Easy Click) 동작으로 판단하고, 상기 광량 임계치를 초과한 시점부터 상기 기 정의된 임계 시간에 이르기까지 상기 광량이 일정하거나 또는 증가하면 상기 누름 동작이 지속적인 경우로 인식하여 상기 이지 프레스(Easy Press) 동작으로 판단하는 화면 제어 방법.
  8. 화면 상에 커서 또는 포인터를 표시하고, 단말장치의 동작에 따른 정보를 상기 화면 상에 출력하는 디스플레이부;
    사용자의 손가락 움직임을 통해 화면 상의 커서(또는 포인터)를 생성 및 이동시키는 포인팅 디바이스; 및
    상기 포인팅 디바이스를 통해 화면에 표시된 기능을 선택하기 위한 사용자 손가락의 누름 동작을 감지하여 상기 누름 동작이 일시적인지 또는 기 정의된 시간 동안 지속되는지를 판단하고, 상기 누름 동작이 일시적인 경우, 이지 클릭(Easy Click) 동작으로 판단하여 상기 커서 또는 포인터가 위치한 영역에 링크된 기능을 화면 상에 구현하고, 상기 누름 동작이 기 정의된 시간동안 지속되는 경우, 이지 프레스(Easy Press) 동작으로 판단하여 사전에 설정된 제어 기능을 상기 화면 상에 구현하도록 상기 디스플레이부를 제어하는 제어부
    를 포함하는 단말장치.
  9. 제8항에 있어서,
    상기 포인팅 디바이스는,
    사용자 손가락의 물리적 접촉이 감지되면 접촉 감지 신호를 생성하여 출력 하고,
    상기 제어부는,
    상기 접촉 감지 신호가 수신되는 경우, 접촉 시간을 측정하여 상기 접촉 시간이 기 정의된 임계치 이상인 경우 상기 누름 동작이 기 정의된 시간동안 지속되는 경우로 인식하여 이지 프레스(Easy Press) 동작으로 판단하고, 상기 기 정의된 임계치 미만인 경우 상기 누름 동작이 일시적인 경우로 인식하여 이지 클릭(Easy Click) 동작으로 판단하는 단말장치.
  10. 제8항에 있어서,
    상기 포인팅 디바이스는,
    상기 사용자 손가락에 반사되는 광을 수집하여 광 감지 신호를 출력하고,
    상기 제어부는,
    상기 광 감지 신호가 전달되는 경우, 광량을 측정하여 상기 광량이 기 정의된 광량 임계치를 초과한 시점부터 기 정의된 임계 시간 사이에 감소하면 상기 누름 동작이 일시적인 경우로 인식하여 상기 이지 클릭(Easy Click) 동작으로 판단하고, 상기 광량이 광량 임계치를 초과한 시점부터 기 정의된 임계 시간에 이르기까지 일정하거나 증가하면 상기 누름 동작이 기 정의된 시간동안 지속되는 경우로 인식하여 이지 프레스(Easy Press) 동작으로 판단하는 단말장치.
  11. 제8항 내지 제10항 중 어느 한 항에 있어서,
    상기 제어부는,
    상기 이지 프레스(Easy Press) 동작으로 판단한 경우, 현재 활성화된 서비스 화면의 카테고리에 대응되는 복수의 추가 메뉴 항목을 출력하거나 또는 상기 서비스 화면의 모드를 전환하는 단말장치.
  12. 제11항에 있어서,
    상기 제어부는,
    사용자가 설정한 자주 사용하는 하나 이상의 메뉴를 토대로 즐겨찾기 메뉴를 구성하고, 상기 이지 프레스(Easy Press) 동작으로 판단한 경우 상기 즐겨찾기 메뉴를 화면 상에 출력하는 단말장치.
  13. 제11항에 있어서,
    상기 제어부는,
    상기 이지 프레스(Easy Press) 동작으로 판단한 경우, 상하로 스크롤(scroll)하여 선택할 수 있는 하나 이상의 메뉴 항목 및 좌우로 스위핑하여 선택할 수 있는 하나 이상의 메뉴 항목을 화면 상에 출력하는 단말장치.
  14. 제11항에 있어서,
    상기 제어부는,
    화면에 표시된 현재 활성화된 서비스를 제어하기 위한 하나 이상의 메뉴 항목을 숨김 상태로 전환하고 커서 또는 포인터가 근접하면 숨겨진 메뉴 항목을 화면에 표출하는 단말장치.
PCT/KR2009/006432 2008-11-03 2009-11-03 포인팅 디바이스가 구비된 단말장치 및 화면 제어 방법 WO2010062062A2 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/126,791 US20120050158A1 (en) 2008-11-03 2009-11-03 Terminal apparatus with pointing device and control method of screen
JP2011534403A JP2012507777A (ja) 2008-11-03 2009-11-03 ポインティングデバイスを備えた端末装置および画面制御方法
CN2009801436405A CN102203713A (zh) 2008-11-03 2009-11-03 具有指示设备的终端装置以及屏幕的控制方法
EP09829269A EP2352080A2 (en) 2008-11-03 2009-11-03 Terminal apparatus with pointing device and control method of screen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080108418 2008-11-03
KR10-2008-0108418 2008-11-03

Publications (2)

Publication Number Publication Date
WO2010062062A2 true WO2010062062A2 (ko) 2010-06-03
WO2010062062A3 WO2010062062A3 (ko) 2011-01-27

Family

ID=42226217

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2009/006432 WO2010062062A2 (ko) 2008-11-03 2009-11-03 포인팅 디바이스가 구비된 단말장치 및 화면 제어 방법

Country Status (6)

Country Link
US (1) US20120050158A1 (ko)
EP (1) EP2352080A2 (ko)
JP (1) JP2012507777A (ko)
KR (1) KR101151028B1 (ko)
CN (1) CN102203713A (ko)
WO (1) WO2010062062A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015186862A1 (en) * 2014-06-02 2015-12-10 Lg Electronics Inc. Display device and method of controlling therefor
WO2017032038A1 (zh) * 2015-08-27 2017-03-02 广东欧珀移动通信有限公司 一种闹钟设置方法及终端

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248768A (ja) * 2010-05-28 2011-12-08 Sony Corp 情報処理装置、情報処理システム及びプログラム
CA2715146C (en) * 2010-09-17 2011-11-22 Guest Tek Interactive Entertainment Ltd. Configuration apparatus and method of configuring one or more devices having hidden configuration settings
KR101211660B1 (ko) * 2010-10-20 2012-12-12 주식회사 애트랩 디스플레이 장치 및 이 장치의 스크롤 방법
KR101735836B1 (ko) * 2010-12-13 2017-05-15 삼성전자주식회사 휴대단말기의 메뉴실행 장치 및 방법
CN103425528A (zh) * 2012-05-23 2013-12-04 联想(北京)有限公司 电子设备及其信息处理方法
JP6047992B2 (ja) * 2012-08-14 2016-12-21 富士ゼロックス株式会社 表示制御装置、画像形成装置及びプログラム
CN104063164B (zh) * 2013-03-22 2018-02-27 腾讯科技(深圳)有限公司 屏幕控制的方法及装置
CN104346060B (zh) * 2013-08-07 2018-10-12 联想(北京)有限公司 信息处理的方法及电子设备
JP6608579B2 (ja) 2014-04-03 2019-11-20 株式会社ミツトヨ 測定器
CN104978102B (zh) * 2014-04-08 2019-03-12 宏碁股份有限公司 电子装置以及使用者界面控制方法
KR101453245B1 (ko) * 2014-04-29 2014-10-22 주식회사 케이제이테크 지문입력 위치와 시간에 따라 다양한 키 값을 입력하는 지문입력장치 및 그 제어방법
JP6114886B2 (ja) * 2015-01-15 2017-04-12 シャープ株式会社 情報処理装置、情報処理装置の制御方法および制御プログラム
CN105630303A (zh) * 2015-09-23 2016-06-01 宇龙计算机通信科技(深圳)有限公司 一种列表选项显示控制方法、装置和电子设备
WO2018118013A1 (en) 2016-12-19 2018-06-28 Hewlett-Packard Development Company, L.P. Zone idendifications on input devices
CN106648175A (zh) * 2016-12-30 2017-05-10 宇龙计算机通信科技(深圳)有限公司 一种便捷式指纹操作方法及终端
CN107544733A (zh) * 2017-09-07 2018-01-05 广州视源电子科技股份有限公司 菜单管理方法、装置、多媒体触控设备及存储介质
KR102538483B1 (ko) * 2017-09-26 2023-06-01 삼성전자주식회사 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체
KR102231378B1 (ko) * 2018-04-23 2021-03-24 신한생명보험 주식회사 모바일 화면 제어 장치 및 방법
US20200187908A1 (en) * 2018-12-18 2020-06-18 General Electric Company Method and systems for touchscreen user interface controls
JP7363069B2 (ja) * 2019-03-20 2023-10-18 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6480187B1 (en) * 1997-08-07 2002-11-12 Fujitsu Limited Optical scanning-type touch panel
KR19990051719A (ko) * 1997-12-19 1999-07-05 정선종 휴대형 단말의 명령 입력 장치 및 그 명령 입력 방법
GB2355145B (en) 1999-10-08 2003-12-31 Nokia Mobile Phones Ltd A portable device
US6664991B1 (en) * 2000-01-06 2003-12-16 Microsoft Corporation Method and apparatus for providing context menus on a pen-based device
JP4087247B2 (ja) * 2000-11-06 2008-05-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 入力デバイスの移動の測定方法
US6677929B2 (en) * 2001-03-21 2004-01-13 Agilent Technologies, Inc. Optical pseudo trackball controls the operation of an appliance or machine
US20030025676A1 (en) * 2001-08-02 2003-02-06 Koninklijke Philips Electronics N.V. Sensor-based menu for a touch screen panel
US7313255B2 (en) * 2003-05-19 2007-12-25 Avago Technologies Ecbu Ip Pte Ltd System and method for optically detecting a click event
US7619616B2 (en) * 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
JP2007156634A (ja) * 2005-12-01 2007-06-21 Alps Electric Co Ltd 入力装置
KR100899864B1 (ko) 2007-02-27 2009-05-29 크루셜텍 (주) 휴대 단말기의 포인팅 제어 방법
US20090244026A1 (en) * 2008-03-27 2009-10-01 Research In Motion Limited Touch screen display for electronic device and method of determining touch interaction therewith

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015186862A1 (en) * 2014-06-02 2015-12-10 Lg Electronics Inc. Display device and method of controlling therefor
US9361505B2 (en) 2014-06-02 2016-06-07 Lg Electronics Inc. Display device and method of controlling therefor
WO2017032038A1 (zh) * 2015-08-27 2017-03-02 广东欧珀移动通信有限公司 一种闹钟设置方法及终端

Also Published As

Publication number Publication date
JP2012507777A (ja) 2012-03-29
KR101151028B1 (ko) 2012-05-30
EP2352080A2 (en) 2011-08-03
US20120050158A1 (en) 2012-03-01
WO2010062062A3 (ko) 2011-01-27
KR20100049494A (ko) 2010-05-12
CN102203713A (zh) 2011-09-28

Similar Documents

Publication Publication Date Title
WO2010062062A2 (ko) 포인팅 디바이스가 구비된 단말장치 및 화면 제어 방법
US8739053B2 (en) Electronic device capable of transferring object between two display units and controlling method thereof
WO2013115558A1 (en) Method of operating multi-touch panel and terminal supporting the same
WO2014030902A1 (en) Input method and apparatus of portable device
WO2011053058A2 (en) Mobile device and method for providing user interface (ui) thereof
WO2014073825A1 (en) Portable device and control method thereof
WO2010131869A2 (en) Image processing method for mobile terminal
WO2012053801A2 (en) Method and apparatus for controlling touch screen in mobile terminal responsive to multi-touch inputs
WO2014204048A1 (en) Portable device and method for controlling the same
WO2013125804A1 (en) Method and apparatus for moving contents in terminal
WO2014077460A1 (en) Display device and controlling method thereof
WO2014163234A1 (en) Portable device and method for controlling the same
WO2015088263A1 (ko) 터치 입력의 압력 상태에 따라 동작하는 전자 장치 및 그 방법
WO2014092512A1 (en) Method and apparatus for controlling haptic feedback of an input tool for a mobile terminal
WO2010114251A2 (en) Electronic device and method for gesture-based function control
WO2014046385A1 (en) Mobile device and method for controlling the same
WO2011132892A2 (en) Method for providing graphical user interface and mobile device adapted thereto
WO2012108714A2 (en) Method and apparatus for providing graphic user interface in mobile terminal
WO2014051201A1 (en) Portable device and control method thereof
WO2010134748A2 (en) Mobile device and method for executing particular function through touch event on communication related list
WO2012108620A2 (en) Operating method of terminal based on multiple inputs and portable terminal supporting the same
US20070229472A1 (en) Circular scrolling touchpad functionality determined by starting position of pointing object on touchpad surface
WO2015009103A1 (en) Method of providing message and user device supporting the same
WO2011090302A2 (ko) 터치패널을 갖는 개인휴대단말기의 작동방법
WO2018004140A1 (ko) 전자 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980143640.5

Country of ref document: CN

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09829269

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 2009829269

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011534403

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13126791

Country of ref document: US