KR102229818B1 - Portable terminal having touch screen and method for performing function thereof - Google Patents

Portable terminal having touch screen and method for performing function thereof Download PDF

Info

Publication number
KR102229818B1
KR102229818B1 KR1020190111547A KR20190111547A KR102229818B1 KR 102229818 B1 KR102229818 B1 KR 102229818B1 KR 1020190111547 A KR1020190111547 A KR 1020190111547A KR 20190111547 A KR20190111547 A KR 20190111547A KR 102229818 B1 KR102229818 B1 KR 102229818B1
Authority
KR
South Korea
Prior art keywords
gui
touch screen
preview image
drag
displayed
Prior art date
Application number
KR1020190111547A
Other languages
Korean (ko)
Other versions
KR20190106972A (en
Inventor
양희철
강태영
전진영
종인원
홍노경
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020190111547A priority Critical patent/KR102229818B1/en
Publication of KR20190106972A publication Critical patent/KR20190106972A/en
Application granted granted Critical
Publication of KR102229818B1 publication Critical patent/KR102229818B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법에 관한 것으로, 기능 실행 시, 기능 실행 화면을 표시하기 위한 표시부 및 기능 실행 화면에서 발생하는 드래그를 감지하기 위한 터치 패널을 구비하는 터치 스크린과, 기능 실행 화면 표시 중 제어 인터렉션 가이드 표시 요구 감지 시, 기능 실행 화면에서 수행 가능한 제어 명령을 안내하기 위한 적어도 하나의 제어 인터렉션 가이드를 상기 기능 실행 화면 위에 표시하도록 제어하고, 터치 스크린에서 드래그 감지 시, 드래그에 대응하는 제어 명령을 검출하여 상기 제어 명령에 해당하는 기능을 수행하도록 제어하는 제어부와, 제어부의 제어 하에, 기능 실행 화면에서 수행 가능한 제어 명령 및 기능 실행 화면에 표시 가능한 제어 인터렉션 가이드를 저장하는 메모리를 포함하는 휴대 단말기 및 그의 기능 실행 방법을 제공한다. 본 발명에 따르면, 휴대 단말기에서 기능 실행 시, 기능 실행 화면에 제어 인터렉션 가이드를 표시함으로써, 휴대 단말기의 사용자를 위해 기능 실행 화면에서 수행 가능한 제어 명령을 안내한다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 향상되는 이점이 있다.The present invention relates to a portable terminal having a touch screen and a function control method thereof, wherein when a function is executed, a touch screen having a display unit for displaying a function execution screen and a touch panel for detecting a drag generated on the function execution screen; and , When a control interaction guide display request is detected while displaying a function execution screen, at least one control interaction guide for guiding a control command that can be executed on the function execution screen is displayed on the function execution screen, and when a drag is detected on the touch screen, A control unit that detects a control command corresponding to drag and controls to perform a function corresponding to the control command, and stores a control command that can be executed on the function execution screen and a control interaction guide that can be displayed on the function execution screen under the control of the control unit. A portable terminal including a memory and a method for executing functions thereof are provided. According to the present invention, when a function is executed in a portable terminal, a control interaction guide is displayed on the function execution screen, thereby guiding a control command that can be executed on the function execution screen for a user of the portable terminal. Accordingly, in using the portable terminal, there is an advantage in that the user's convenience is improved.

Description

터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법{PORTABLE TERMINAL HAVING TOUCH SCREEN AND METHOD FOR PERFORMING FUNCTION THEREOF}Portable terminal having a touch screen and its function control method {PORTABLE TERMINAL HAVING TOUCH SCREEN AND METHOD FOR PERFORMING FUNCTION THEREOF}

본 발명은 휴대 단말기 및 그의 기능 제어 방법에 관한 것으로, 특히 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법에 관한 것이다. The present invention relates to a portable terminal and a function control method thereof, and more particularly, to a portable terminal having a touch screen and a function control method thereof.

일반적으로 휴대 단말기는 다양한 기능들이 부가되어 복합적인 기능을 수행한다. 즉 현재의 휴대 단말기는 통화 기능 이외에 다양한 멀티미디어 기능, 예컨대 카메라, DMB(Digital Multimedia Broadcasting), 블루투스(bluetooth) 통신 기능 등이 탑재되어 다양한 멀티미디어 기능을 수행하고 있다. 이 때 휴대 단말기는 각종 기능들을 제어하기 위한 제어 명령을 입력하기 위한 키보드나 마우스 등의 입력부를 구비하고 있으나, 휴대가 용이하지 않다는 문제점이 있다. 이에 따라 상기 문제점을 극복하기 위하여, 현재의 휴대 단말기는 키보드나 마우스를 대신하여 터치 스크린을 구비하고 있다.In general, a mobile terminal performs a complex function by adding various functions. In other words, current mobile terminals are equipped with various multimedia functions, such as a camera, digital multimedia broadcasting (DMB), and Bluetooth communication functions, in addition to a call function to perform various multimedia functions. In this case, the portable terminal is provided with an input unit such as a keyboard or a mouse for inputting a control command for controlling various functions, but there is a problem that it is not easy to carry. Accordingly, in order to overcome the above problem, current portable terminals have a touch screen instead of a keyboard or a mouse.

그런데, 상기와 같은 휴대 단말기는 터치 스크린을 이용하여 각종 기능을 제어하는 것이 용이하지 않다. 즉 휴대 단말기는 사용자의 직관적인 조작에 따라 기능을 제어한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 상이하게 기능을 제어할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 저하되는 문제점이 있다.However, it is not easy to control various functions using a touch screen in such a portable terminal. That is, the mobile terminal controls functions according to the user's intuitive operation. Accordingly, the portable terminal can control functions differently from the user's intention. Accordingly, in using the portable terminal, there is a problem that the user's convenience is deteriorated.

상기 과제를 해결하기 위한 본 발명에 따른 터치 스크린을 갖는 휴대 단말기의 기능 제어 방법은, 기능 실행 시, 기능 실행 화면을 표시하는 과정과, 제어 인터렉션 가이드 표시 요구 감지 시, 상기 기능 실행 화면에서 수행 가능한 제어 명령을 안내하기 위한 적어도 하나의 제어 인터렉션 가이드를 기능 실행 화면 위에 표시하는 과정과, 드래그 감지 시, 상기 드래그에 대응하는 제어 명령을 검출하여 상기 제어 명령에 해당하는 기능을 수행하는 과정을 포함하는 것을 특징으로 한다. The method for controlling a function of a portable terminal having a touch screen according to the present invention for solving the above problems includes a process of displaying a function execution screen when executing a function, and when detecting a request to display a control interaction guide, which can be performed on the function execution screen. Displaying at least one control interaction guide for guiding a control command on a function execution screen, and when detecting a drag, detecting a control command corresponding to the drag and performing a function corresponding to the control command. It is characterized by that.

그리고 상기 과제를 해결하기 위한 본 발명에 따른 휴대 단말기는, 기능 실행 시, 기능 실행 화면을 표시하기 위한 표시부 및 상기 기능 실행 화면에서 발생하는 드래그를 감지하기 위한 터치 패널을 구비하는 터치 스크린과, 상기 기능 실행 화면 표시 중 제어 인터렉션 가이드 표시 요구 감지 시, 상기 기능 실행 화면에서 수행 가능한 제어 명령을 안내하기 위한 적어도 하나의 제어 인터렉션 가이드를 상기 기능 실행 화면 위에 표시하도록 제어하고, 상기 터치 스크린에서 드래그 감지 시, 상기 드래그에 대응하는 상기 제어 명령을 검출하여 상기 제어 명령에 해당하는 기능을 수행하도록 제어하는 제어부와, 상기 제어부의 제어 하에, 상기 기능 실행 화면에서 수행 가능한 제어 명령 및 상기 기능 실행 화면에 표시 가능한 상기 제어 인터렉션 가이드를 저장하는 메모리를 포함하는 것을 특징으로 한다.In addition, the portable terminal according to the present invention for solving the above problem includes a touch screen including a display unit for displaying a function execution screen and a touch panel for detecting a drag generated on the function execution screen when a function is executed, and the When a request to display a control interaction guide is detected while displaying a function execution screen, at least one control interaction guide for guiding a control command that can be executed on the function execution screen is displayed on the function execution screen, and when a drag is detected on the touch screen , A control unit that detects the control command corresponding to the drag and controls to perform a function corresponding to the control command, and a control command executable on the function execution screen and displayable on the function execution screen under the control of the control unit And a memory storing the control interaction guide.

따라서, 상기와 같은 본 발명에 따른 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법은, 휴대 단말기에서 기능 실행 시, 기능 실행 화면에 제어 인터렉션 가이드를 표시함으로써, 휴대 단말기의 사용자를 위해 기능 실행 화면에서 수행 가능한 제어 명령을 안내한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 일치하게 기능을 제어할 수 있다. 즉 휴대 단말기에서 터치 스크린을 이용하여 각종 기능을 용이하게 제어할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 향상되는 이점이 있다.Accordingly, the portable terminal having a touch screen and its function control method according to the present invention as described above, when a function is executed in the portable terminal, display a control interaction guide on the function execution screen, so that the function execution screen is displayed for the user of the portable terminal. It guides the control commands that can be executed. Accordingly, the portable terminal can control functions consistent with the user's intention. That is, various functions can be easily controlled using a touch screen in a portable terminal. Accordingly, in using a portable terminal, there is an advantage in that the user's convenience is improved.

도 1은 본 발명의 일 실시예에 따른 휴대 단말기의 개략적인 구성을 도시하는 블록도,
도 2는 본 발명의 일 실시예에 따른 기능 실행 절차를 도시하는 순서도,
도 3a 내지 도 3e는 본 발명의 실시예에 따른 기능 실행 절차 수행 시 표시되는 화면의 구성 예를 도시하는 예시도들, 그리고
도 4는 본 발명의 다른 실시예에 따른 기능 실행 절차를 도시하는 순서도이다.
1 is a block diagram showing a schematic configuration of a portable terminal according to an embodiment of the present invention;
2 is a flow chart showing a function execution procedure according to an embodiment of the present invention;
3A to 3E are exemplary diagrams showing a configuration example of a screen displayed when performing a function execution procedure according to an embodiment of the present invention, and
4 is a flow chart showing a function execution procedure according to another embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다. Hereinafter, exemplary embodiments of the present invention will be described in more detail with reference to the accompanying drawings.

하기 설명에서, "기능 실행 화면"이라는 용어는 휴대 단말기에서 특정 기능 실행 시 표시되는 화면을 의미한다. "제어 명령"이라는 용어는 휴대 단말기에서 특정 기능 수행 시, 기능 실행 화면에서 수행 가능한 하위 기능을 의미한다. 이러한 제어 명령은, 예컨대 카메라 기능 실행 시 수행 가능한 줌인(zoom in) 명령, 줌아웃(zoom out) 명령, 명암(brightness) 조절 명령 등일 수 있다. 또는 제어 명령은, 예컨대 오디오 재생 기능 실행 시, 볼륨(volume) 조절 명령, 다음 순서의 오디오 파일 재생 명령, 이전 순서의 오디오 파일 재생 명령 등일 수 있다. 이 때 제어 명령은 상위 계층 또는 하위 계층의 메뉴로의 이동 명령, 동일 계층 내에서의 이동 명령 등일 수도 있다. 그리고 제어 명령은 휴대 단말기 사용자의 조작에 의해 수행될 수 있다. "제어 인터렉션 가이드(control interaction guide)"이라는 용어는 휴대 단말기에서 기능 실행 화면에서 수행 가능한 제어 명령을 안내하기 위한 이미지를 의미한다. 이 때 기능 실행 화면에 따라, 적어도 하나의 제어 인터렉션 가이드가 존재할 수 있으며, 제어 인터렉션 가이드가 존재하지 않을 수도 있다. 이러한 제어 인터렉션 가이드는 휴대 단말기에서 해당 제어 명령을 수행하기 위하여 휴대 단말기의 사용자가 행해야 하는 조작 방향을 나타내는 방향 이미지를 포함할 수 있다. 그리고 제어 인터렉션 가이드는 해당 제어 명령의 속성을 은유적으로 나타내는 심벌 이미지를 포함할 수 있다. In the following description, the term "function execution screen" refers to a screen displayed when a specific function is executed in the portable terminal. The term "control command" refers to a sub-function that can be performed on a function execution screen when a specific function is executed in the portable terminal. Such a control command may be, for example, a zoom in command, a zoom out command, a brightness adjustment command, etc. that can be executed when a camera function is executed. Alternatively, the control command may be, for example, a volume control command, an audio file playback command in the next sequence, an audio file playback command in the previous sequence, etc. when the audio playback function is executed. In this case, the control command may be a movement command to a menu of an upper layer or a lower layer, a movement command within the same layer, and the like. In addition, the control command may be performed by manipulation of a user of the portable terminal. The term "control interaction guide" refers to an image for guiding a control command that can be executed on a function execution screen in a portable terminal. At this time, depending on the function execution screen, at least one control interaction guide may exist, and the control interaction guide may not exist. The control interaction guide may include a direction image indicating an operation direction that a user of the mobile terminal must perform in order to perform a corresponding control command in the mobile terminal. In addition, the control interaction guide may include a symbol image metaphorically representing the property of the corresponding control command.

그리고 "터치(touch)"라는 용어는 휴대 단말기의 사용자가 터치 스크린 상에 손가락을 접촉하는 행위를 의미한다. "드래그(drag)"라는 용어는 휴대 단말기의 사용자가 터치 스크린 상에 터치, 즉 손가락을 접촉한 상태로 손가락을 이동하는 행위를 의미한다. "드롭(drop)"이라는 용어는 휴대 단말기의 사용자가 터치 스크린 상에 터치, 즉 접촉하고 있는 손가락을 터치 스크린으로부터 떼는 행위를 의미한다. In addition, the term "touch" refers to an action of a user of a portable terminal touching a finger on a touch screen. The term “drag” refers to an act of moving a finger while a user of a portable terminal touches a touch screen, that is, a finger is in contact. The term "drop" refers to an act of a user of a portable terminal touching on a touch screen, that is, removing a contacting finger from the touch screen.

도 1은 본 발명의 일 실시예에 따른 휴대 단말기의 개략적인 구성을 도시하는 블록도이다. 본 실시예에서 휴대 단말기는 휴대 전화기인 경우를 가정하여 설명한다. 1 is a block diagram showing a schematic configuration of a portable terminal according to an embodiment of the present invention. In the present embodiment, the description will be made on the assumption that the mobile terminal is a mobile phone.

도 1을 참조하면, 휴대 단말기(100)는 무선 통신부(110), 터치 스크린(120), 접근 센서(130), 메모리(140), 제어부(150) 및 오디오 처리부(160)를 포함한다. Referring to FIG. 1, the portable terminal 100 includes a wireless communication unit 110, a touch screen 120, an access sensor 130, a memory 140, a control unit 150, and an audio processing unit 160.

무선 통신부(110)는 휴대 단말기(100)의 무선 통신 기능을 수행한다. 이러한 무선 통신부(110)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 잡음 증폭하고 주파수를 하강변환하는 RF수신기 등을 포함한다.The wireless communication unit 110 performs a wireless communication function of the portable terminal 100. The wireless communication unit 110 includes an RF transmitter for up-converting and amplifying a frequency of a transmitted signal, and an RF receiver for amplifying a received signal and down-converting a frequency.

터치 스크린(120)은 표시부(121)와 터치 패널(123)을 포함한다. 표시부(121)는 휴대 단말기(100)의 상태를 표시한다. 이 때 표시부(121)는 LCD로 구현되며, LCD 제어부, 표시 데이터를 저장할 수 있는 메모리 및 LCD 표시소자 등을 구비한다. 터치 패널(123)은 표시부(121)에 장착되며, 터치 감지부와 신호 변환부를 구비한다. 터치 감지부는 물리량, 예컨대 저항, 정전용량 등의 변화로부터 터치, 드래그, 드롭 등과 같은 터치의 제어 명령을 감지한다. 또한 신호 변환부는 물리량의 변화를 터치 신호로 변환한다. The touch screen 120 includes a display unit 121 and a touch panel 123. The display unit 121 displays the state of the portable terminal 100. In this case, the display unit 121 is implemented as an LCD, and includes an LCD control unit, a memory capable of storing display data, and an LCD display device. The touch panel 123 is mounted on the display unit 121 and includes a touch sensing unit and a signal conversion unit. The touch sensing unit detects a control command of a touch such as a touch, a drag, or a drop from a change in a physical quantity such as resistance and capacitance. In addition, the signal conversion unit converts the change of the physical quantity into a touch signal.

접근 센서(130)는 터치 스크린(120) 상으로의 접근을 감지하는 기능을 수행한다. 이러한 접근 센서(130)는, 예컨대 설정된 거리 이내의 온도 변화, 조도 변화 등을 감지할 수 있다. 이 때 적어도 하나의 접근 센서(130)가 표시부(121)의 후면에 설치될 수 있다. 또는 적어도 하나의 접근 센서(130)가 표시부(121)의 4개의 측부들 중 적어도 하나의 측부에 설치될 수 있다. 예를 들면, 단일 접근 센서(130)가 설치되는 경우, 접근 센서(130)는 접근 센서(130) 상으로 이동하는 휴대 단말기(100) 사용자의 손을 감지하도록 배치될 수 있다. The proximity sensor 130 performs a function of detecting an approach to the touch screen 120. The proximity sensor 130 may detect, for example, a change in temperature or a change in illuminance within a set distance. At this time, at least one access sensor 130 may be installed on the rear surface of the display unit 121. Alternatively, at least one access sensor 130 may be installed on at least one of the four sides of the display unit 121. For example, when a single access sensor 130 is installed, the access sensor 130 may be disposed to detect the hand of a user of the portable terminal 100 moving on the access sensor 130.

메모리(140)는 프로그램 메모리 및 데이터 메모리들로 구성된다. 프로그램 메모리는 휴대 단말기(100)의 제어 명령 프로그램 및 본 발명의 실시예에 따라 터치 스크린을 이용하여 기능을 실행하기 위한 프로그램을 저장한다. 데이터 메모리는 프로그램 수행 중에 발생되는 데이터를 저장한다. 그리고 메모리(140)는 본 발명의 실시예에 따라 각각의 기능 실행 화면에서 수행 가능한 제어 명령을 저장한다. 또한 메모리(140)는 본 발명의 실시예에 따라 각각의 제어 명령을 안내하기 위한 제어 인터렉션 가이드를 저장한다. The memory 140 is composed of program memory and data memories. The program memory stores a control command program of the portable terminal 100 and a program for executing a function using a touch screen according to an embodiment of the present invention. The data memory stores data generated during program execution. In addition, the memory 140 stores control commands that can be executed on each function execution screen according to an embodiment of the present invention. In addition, the memory 140 stores a control interaction guide for guiding each control command according to an embodiment of the present invention.

제어부(150)는 휴대 단말기(100)의 전반적인 제어 명령을 제어하는 기능을 수행한다. 이러한 제어부(150)는 송신되는 신호를 부호화 및 변조하는 송신기와 수신되는 신호를 복조 및 복호화하는 수신기 등을 구비하는 데이터 처리부를 포함한다. 이러한 데이터 처리부는 모뎀(MODEM) 및 코덱(CODEC)으로 구성될 수 있다. The controller 150 performs a function of controlling an overall control command of the portable terminal 100. The control unit 150 includes a data processing unit including a transmitter that encodes and modulates a transmitted signal and a receiver that demodulates and decodes a received signal. This data processing unit may be composed of a modem (MODEM) and a codec (CODEC).

그리고 제어부(150)는 본 발명의 실시예에 따라 기능 실행 시, 기능 실행 화면을 표시하도록 제어한다. 또한 제어부(150)는 본 발명의 실시예에 따라 기능 실행 화면 표시 중 제어 인터렉션 가이드를 표시하기 위한 요구를 감지하면, 기능 실행 화면에 표시 가능한 제어 인터렉션 가이드를 검색하여 표시하도록 제어한다. 이 때 제어부(150)는 접근 센서(130)를 통해 터치 스크린(120) 상으로 접근이 감지되면, 이를 제어 인터렉션 가이드를 표시하기 위한 요구로 간주할 수 있다. 그리고 제어부(150)는 제어 인터렉션 가이드 표시 중 터치 스크린(120)에서 터치가 감지되면, 기능 실행 화면에서 제어 인터렉션 가이드를 제거할 수 있다. 또는 제어부(150)는 제어 인터렉션 가이드 표시 중 가이드 표시 주기가 경과하면, 기능 실행 화면에서 제어 인터렉션 가이드를 제거할 수 있다. 게다가 제어부(150)는 본 발명의 실시예에 따라 터치 스크린(120)에서 드래그가 감지되면, 드래그에 대응하는 제어 명령을 검출하여 제어한다. In addition, the control unit 150 controls to display a function execution screen when a function is executed according to an embodiment of the present invention. In addition, when the controller 150 detects a request for displaying a control interaction guide while displaying a function execution screen according to an embodiment of the present invention, the controller 150 searches for and displays a control interaction guide that can be displayed on the function execution screen. In this case, when an approach is detected on the touch screen 120 through the approach sensor 130, the controller 150 may regard this as a request for displaying a control interaction guide. In addition, when a touch is detected on the touch screen 120 while the control interaction guide is displayed, the controller 150 may remove the control interaction guide from the function execution screen. Alternatively, the controller 150 may remove the control interaction guide from the function execution screen when the guide display period elapses while the control interaction guide is displayed. In addition, when a drag is detected on the touch screen 120 according to an embodiment of the present invention, the controller 150 detects and controls a control command corresponding to the drag.

오디오 처리부(160)는 데이터 처리부의 오디오 코덱에서 출력되는 수신 오디오 신호를 재생하여 스피커(SPK)를 통해 발생시키거나, 마이크(MIC)로부터 발생되는 송신 오디오 신호를 데이터 처리부의 오디오 코덱에 전송하는 기능을 수행한다. The audio processing unit 160 reproduces the received audio signal output from the audio codec of the data processing unit and generates it through a speaker (SPK), or transmits a transmission audio signal generated from the microphone (MIC) to the audio codec of the data processing unit. Perform.

도 2는 본 발명의 일 실시예에 따른 기능 실행 절차를 도시하는 순서도이다. 그리고 도 3a 내지 도 3e는 본 발명의 실시예에 따른 기능 실행 절차 수행 시 표시되는 화면의 구성 예를 도시하는 예시도들이다. 이 때 도 3a 내지 도 3e는 카메라 기능 실행 시 표시될 수 있는 화면의 구성 예를 도시하고 있다. 여기서, 도 3a는 기능 실행 시 표시되는 화면을 도시하고 있고, 도 3b는 접근 감지 시 표시되는 화면을 도시하고 있고, 도 3c는 터치 감지 시 표시되는 화면을 도시하고 있고, 도 3d는 드래그 감지 시 표시되는 화면을 도시하고 있으며, 도 3d는 드롭 감지 시 표시되는 화면을 도시하고 있다. 2 is a flowchart illustrating a function execution procedure according to an embodiment of the present invention. 3A to 3E are exemplary diagrams illustrating an example of a configuration of a screen displayed when performing a function execution procedure according to an embodiment of the present invention. In this case, FIGS. 3A to 3E illustrate examples of the configuration of a screen that can be displayed when the camera function is executed. Here, FIG. 3A shows a screen displayed when a function is executed, FIG. 3B shows a screen displayed when an approach is detected, FIG. 3C shows a screen displayed when a touch is detected, and FIG. 3D is a drag detection. A screen to be displayed is shown, and FIG. 3D shows a screen to be displayed when a drop is detected.

도 2를 참조하면, 본 실시예의 기능 실행 절차는, 제어부(150)가 211단계에서, 도 3a에 도시된 바와 같이, 기능 실행 화면을 표시하는 것으로부터 출발한다. 예를 들면, 카메라 기능 실행 시, 제어부(150)는 기능 실행 화면으로 프리뷰 영상을 표시할 수 있다. 이 후 터치 스크린(120) 상으로 접근이 발생하면, 제어부(150)가 213단계에서 이를 감지하고, 215단계에서 제어 인터렉션 가이드를 검색한다. 즉 제어부(150)는 메모리(140)에 저장된 제어 명령들 및 제어 인터렉션 가이드들을 검색한다. Referring to FIG. 2, the function execution procedure of this embodiment starts from the controller 150 displaying the function execution screen in step 211, as shown in FIG. 3A. For example, when executing a camera function, the controller 150 may display a preview image as a function execution screen. Thereafter, when an approach occurs on the touch screen 120, the controller 150 detects it in step 213 and searches for a control interaction guide in step 215. That is, the controller 150 searches for control commands and control interaction guides stored in the memory 140.

다음으로, 제어부(150)는 217단계에서 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 즉 제어부(150)는 기능 실행 화면에서 수행 가능한 제어 명령과 그에 대응하는 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 이 때 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는 것으로 판단되면, 제어부(150)는 219단계에서, 도 3b에 도시된 바와 같이, 기능 실행 화면에 제어 인터렉션 가이드를 표시한다. 예를 들면, 제어부(150)는 프리뷰 영상에서 수행 가능한 제어 명령으로 줌인 제어 명령, 줌아웃 제어 명령, 명도를 높이는 제어 명령 및 명도를 낮추는 제어 명령이 존재함을 검출할 수 있다. 그리고 제어부(150)는 검출된 제어 명령 각각에 대응하는 제어 인터렉션 가이드를 검출하여, 프리뷰 영상에 표시할 수 있다.Next, in step 217, the controller 150 determines whether there is a control interaction guide stored to be displayed on the function execution screen. That is, the controller 150 determines whether a control command that can be executed on the function execution screen and a control interaction guide corresponding thereto exist. At this time, if it is determined that there is a control interaction guide stored to be displayed on the function execution screen, the controller 150 displays the control interaction guide on the function execution screen, as shown in FIG. 3B in step 219. For example, the controller 150 may detect that a zoom-in control command, a zoom-out control command, a control command to increase brightness, and a control command to decrease brightness exist as control commands that can be executed on the preview image. In addition, the control unit 150 may detect a control interaction guide corresponding to each of the detected control commands and display them on the preview image.

이어서, 터치 스크린(120)에서 터치가 발생하면, 제어부(150)가 221단계에서 이를 감지하고, 223단계에서 도 3c에 도시된 바와 같이, 기능 실행 화면을 표시한다. 즉 제어부(150)는 기능 실행 화면에서 제어 인터렉션 가이드를 제거한다. Subsequently, when a touch occurs on the touch screen 120, the controller 150 detects it in step 221, and displays a function execution screen in step 223, as shown in FIG. 3C. That is, the controller 150 removes the control interaction guide from the function execution screen.

계속해서, 터치 스크린(120)에서 터치의 드래그가 발생하면, 제어부(150)가 225단계에서 이를 감지하고, 227단계에서 드래그 변동값을 산출한다. 이 때 제어부(150)는 드래그 경로에서 터치 좌표의 변화로부터 드래그 변동값을 산출한다. 즉 제어부(150)는 드래그 경로의 길이, 드래그 방향, 드래드 속도 등을 산출한다. 그리고 제어부(150)는 229단계에서, 도 3d에 도시된 바와 같이, 제어 명령을 수행한다. 즉 제어부(150)는 드래그 변동값에 대응하여 기능 실행 화면에서 수행 가능한 제어 명령을 검출한다. 또한 제어부(150)는 검출된 제어 명령을 수행한다. 예를 들면, 산출된 드래그 변동값에서 드래그 경로의 길이가 x픽셀이고, 드래그 방향이 상방향이면, 제어부(150)는 프리뷰 화면을 y배 확대할 수 있다(단, y=mx, m은 상수). 이 때 메모리(140)는 드래그 변동값에 따라 수행 가능한 제어 명령의 수행 정도를 미리 매핑시켜 저장할 수 있다. 게다가 도시되지는 않았으나, 제어부(150)는 기능 실행 화면에 제어에 따른 변화값을 표시할 수 있다. Subsequently, when a drag of the touch occurs on the touch screen 120, the controller 150 detects it in step 225 and calculates a drag variation value in step 227. In this case, the controller 150 calculates a drag variation value from a change in touch coordinates in the drag path. That is, the controller 150 calculates the length of the drag path, the drag direction, and the drag speed. Then, in step 229, the control unit 150 executes a control command, as shown in FIG. 3D. That is, the controller 150 detects a control command that can be executed on the function execution screen in response to the drag variation value. In addition, the control unit 150 executes the detected control command. For example, in the calculated drag variation value, if the length of the drag path is x pixels and the drag direction is upward, the control unit 150 may enlarge the preview screen y times (however, y = mx, m is a constant ). In this case, the memory 140 may pre-map and store the execution degree of a control command that can be executed according to the drag variation value. In addition, although not shown, the controller 150 may display a change value according to the control on the function execution screen.

마지막으로, 터치 스크린(120)에서 드래그의 드롭이 발생하면, 제어부(150)가 231단계에서 이를 감지하고, 도 3e에 도시된 바와 같이, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 드래그의 드롭이 감지되지 않으면, 제어부(150)는 드래그의 드롭이 감지될 때까지 225단계 내지 231단계를 반복하여 수행할 수 있다. Finally, when a drag drop occurs on the touch screen 120, the controller 150 detects it in step 231, and ends the function execution procedure as shown in FIG. 3E. In this case, if the drop of the drag is not detected through the touch screen 120, the controller 150 may repeat steps 225 to 231 until the drop of the drag is detected.

한편, 225단계에서 터치의 드래그가 감지되지 않고, 터치 스크린(120)에서 터치의 드롭이 발생하면, 제어부(150)가 231단계에서 이를 감지하고, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 터치의 드롭이 감지되지 않으면, 제어부(150)는 터치의 드롭이 감지될 때까지 225단계 내지 231단계를 반복하여 수행할 수 있다. Meanwhile, if the drag of the touch is not detected in step 225 and the drop of the touch occurs on the touch screen 120, the controller 150 detects this in step 231 and ends the function execution procedure. In this case, if the touch drop is not detected through the touch screen 120, the controller 150 may repeat steps 225 to 231 until the touch drop is detected.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린 상으로 접근이 감지되면, 제어 인터렉션 가이드를 검색하는 예를 개시하였으나, 이에 한정하는 것은 아니다. 즉 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린 상으로의 접근이 감지되는 위치에 따라 상이한 제어 인터렉션 가이드를 표시함으로써, 본 발명을 구현할 수 있다. 뿐만 아니라, 휴대 단말기에서 기능 실행 화면 표시 중 제어 인터렉션 가이드를 표시하기 위한 요구를 감지함으로써, 본 발명을 구현할 수도 있다. 예를 들면, 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린 상으로 터치 및 터치의 드롭이 감지되면, 이를 제어 인터렉션 가이드를 표시하기 위한 요구로 간주할 수 있다. 또는 휴대 단말기에서 터치 및 터치의 드롭 이외에 특정 문자를 드로잉하기 위한 드래그 및 드래그의 드롭이 감지되면, 이를 제어 인터렉션 가이드를 표시하기 위한 요구로 간주할 수 있다. Meanwhile, the present embodiment discloses an example of searching for a control interaction guide when an approach is detected on a touch screen while displaying a function execution screen in a portable terminal, but the present invention is not limited thereto. That is, the present invention can be implemented by displaying different control interaction guides according to a position at which an approach to the touch screen is sensed while displaying the function execution screen in the portable terminal. In addition, the present invention can be implemented by detecting a request to display a control interaction guide while displaying a function execution screen in the portable terminal. For example, when a touch and a drop of touch are detected on the touch screen while displaying a function execution screen in the portable terminal, this may be regarded as a request for displaying a control interaction guide. Alternatively, when a drag for drawing a specific character in addition to a touch and a drop of a touch and a drop of the drag is detected in the portable terminal, it may be regarded as a request for displaying a control interaction guide.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 터치 스크린에 터치가 감지되면, 제어 인터렉션 가이드를 제거하는 예를 개시하였으나, 이에 한정하는 것을 아니다. 즉 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 제어 인터렉션 가이드를 제거하기 위한 요구를 감지함으로써, 본 발명을 구현할 수 있다. 예를 들면, 휴대 단말기에서 메모리에 각각의 제어 인터렉션 가이드를 표시하기 위한 가이드 표시 주기를 저장할 수 있다. 그리고 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 가이드 표시 주기가 경과하면, 이를 제어 인터렉션 가이드를 제거하기 위한 요구로 간주할 수 있다. Meanwhile, in the present embodiment, when a touch is detected on the touch screen while the control interaction guide is displayed on the function execution screen in the portable terminal, an example of removing the control interaction guide is disclosed, but is not limited thereto. That is, the present invention can be implemented by detecting a request to remove the control interaction guide while the control interaction guide is displayed on the function execution screen in the mobile terminal. For example, the portable terminal may store a guide display period for displaying each control interaction guide in a memory. In addition, when the guide display period elapses while the control interaction guide is displayed on the function execution screen in the portable terminal, it may be regarded as a request for removing the control interaction guide.

본 발명에 따르면, 휴대 단말기에서 기능 실행 시, 기능 실행 화면에 제어 인터렉션 가이드를 표시함으로써, 휴대 단말기의 사용자를 위해 기능 실행 화면에서 수행 가능한 제어 명령을 안내한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 일치하게 기능을 실행할 수 있다. 즉 휴대 단말기에서 터치 스크린을 이용하여 각종 기능을 용이하게 실행할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 향상되는 이점이 있다. According to the present invention, when a function is executed in a portable terminal, a control interaction guide is displayed on a function execution screen, thereby guiding a control command that can be executed on the function execution screen for a user of the portable terminal. Accordingly, the portable terminal can execute a function consistent with the user's intention. That is, various functions can be easily executed using the touch screen in the portable terminal. Accordingly, in using a portable terminal, there is an advantage in that the user's convenience is improved.

도 4는 본 발명의 다른 실시예에 따른 기능 실행 절차를 도시하는 순서도이다. 여기서, 본 실시예를 수행하는 휴대 단말기는 전술한 실시예의 휴대 단말기와 기본 구성이 유사하므로 상세한 설명을 생략한다. 다만, 본 실시예의 휴대 단말기는 접근 센서를 구비하지 않더라도, 본 발명의 구현이 가능하다. 4 is a flow chart showing a function execution procedure according to another embodiment of the present invention. Here, since the mobile terminal implementing the present embodiment has a similar basic configuration to the mobile terminal of the above-described embodiment, a detailed description thereof will be omitted. However, even if the portable terminal of the present embodiment does not include an access sensor, the present invention can be implemented.

도 4를 참조하면, 본 실시예의 기능 실행 절차는, 제어부(150)가 411단계에서 기능 실행 화면을 표시하는 것으로부터 출발한다. 이 후 터치 스크린(120)에서 터치가 발생하면, 제어부(150)가 413단계에서 이를 감지하고, 415단계에서 제어 인터렉션 가이드를 검색한다. 즉 제어부(150)는 메모리(140)에 저장된 제어 명령들 및 제어 인터렉션 가이드들을 검색한다. Referring to FIG. 4, the function execution procedure of the present embodiment starts from the control unit 150 displaying the function execution screen in step 411. Thereafter, when a touch occurs on the touch screen 120, the controller 150 detects it in step 413 and searches for a control interaction guide in step 415. That is, the controller 150 searches for control commands and control interaction guides stored in the memory 140.

이어서, 제어부(150)는 417단계에서 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 즉 제어부(150)는 기능 실행 화면에서 수행 가능한 제어 명령과 그에 대응하는 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 이 때 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는 것으로 판단되면, 제어부(150)는 419단계에서 기능 실행 화면에 제어 인터렉션 가이드를 표시한다. Subsequently, in step 417, the controller 150 determines whether there is a control interaction guide stored to be displayed on the function execution screen. That is, the controller 150 determines whether a control command that can be executed on the function execution screen and a control interaction guide corresponding thereto exist. At this time, if it is determined that there is a control interaction guide stored to be displayed on the function execution screen, the controller 150 displays the control interaction guide on the function execution screen in step 419.

계속해서, 터치 스크린(120)에서 터치의 드래그가 발생하면, 제어부(150)가 421단계에서 이를 감지하고, 423단계에서 기능 실행 화면을 표시한다. 즉 제어부(150)는 기능 실행 화면에서 제어 인터렉션 가이드를 제거한다. 그리고 제어부(150)는 425단계에서 드래그 변동값을 산출한다. 이 때 제어부(150)는 드래그 경로에서 터치 좌표의 변화로부터 드래그 변동값을 산출한다. 즉 제어부(150)는 드래그 경로의 길이, 드래그 방향, 드래드 속도 등을 산출한다. 또한 제어부(150)는 427단계에서 제어 명령을 수행한다. 즉 제어부(150)는 드래그 변동값에 대응하여 기능 실행 화면에서 수행 가능한 제어 명령을 검출한다. 그리고 제어부(150)는 검출된 제어 명령을 기능 실행 화면에서 수행한다. 이 때 메모리(140)는 드래그 변동값에 따라 수행 가능한 제어 명령의 정도를 미리 매핑시켜 저장할 수 있다. 게다가 도시되지는 않았으나, 제어부(150)는 기능 실행 화면에 제어 명령 수행에 따른 변화값을 표시할 수 있다. Subsequently, when a drag of the touch occurs on the touch screen 120, the controller 150 detects it in step 421 and displays a function execution screen in step 423. That is, the controller 150 removes the control interaction guide from the function execution screen. In step 425, the controller 150 calculates a drag variation value. In this case, the controller 150 calculates a drag variation value from a change in touch coordinates in the drag path. That is, the controller 150 calculates the length of the drag path, the drag direction, and the drag speed. In addition, the control unit 150 executes a control command in step 427. That is, the controller 150 detects a control command that can be executed on the function execution screen in response to the drag variation value. In addition, the control unit 150 executes the detected control command on the function execution screen. In this case, the memory 140 may pre-map and store the degree of a control command that can be executed according to the drag variation value. In addition, although not shown, the controller 150 may display a change value according to the execution of the control command on the function execution screen.

마지막으로, 터치 스크린(120)에서 드래그의 드롭이 발생하면, 제어부(150)가 429단계에서 이를 감지하고, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 드래그의 드롭이 감지되지 않으면, 제어부(150)는 드래그의 드롭이 감지될 때까지 421단계 내지 429단계를 반복하여 수행할 수 있다. Finally, when a drag drop occurs on the touch screen 120, the controller 150 detects it in step 429, and ends the function execution procedure. In this case, if the drop of the drag is not detected through the touch screen 120, the controller 150 may repeat steps 421 to 429 until the drop of the drag is detected.

한편, 421단계에서 터치의 드래그가 감지되지 않고, 터치 스크린(120)에서 터치의 드롭이 발생하면, 제어부(150)가 429단계에서 이를 감지하고, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 터치의 드롭이 감지되지 않으면, 제어부(150)는 터치의 드롭이 감지될 때까지 421단계 내지 429단계를 반복하여 수행할 수 있다. Meanwhile, if the drag of the touch is not detected in step 421 and a drop of the touch occurs on the touch screen 120, the controller 150 detects it in step 429 and ends the function execution procedure. In this case, if the touch drop is not detected through the touch screen 120, the controller 150 may repeat steps 421 to 429 until the touch drop is detected.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린에서 터치가 감지되면, 제어 인터렉션 가이드를 검색하는 예를 개시하였으나, 이에 한정하는 것은 아니다. 즉 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린에서 터치가 감지되는 위치에 따라 상이한 제어 인터렉션 가이드를 표시함으로써, 본 발명을 구현할 수 있다. Meanwhile, in the present embodiment, an example of searching for a control interaction guide when a touch is sensed on a touch screen while displaying a function execution screen in a portable terminal is disclosed, but the present invention is not limited thereto. That is, the present invention can be implemented by displaying different control interaction guides according to a location where a touch is sensed on the touch screen while displaying the function execution screen on the portable terminal.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 터치 스크린에 드래그가 감지되면, 제어 인터렉션 가이드를 제거하는 예를 개시하였으나, 이에 한정하는 것을 아니다. 즉 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 제어 인터렉션 가이드를 제거하기 위한 요구를 감지함으로써, 본 발명을 구현할 수 있다. 예를 들면, 휴대 단말기에서 메모리에 각각의 제어 인터렉션 가이드를 표시하기 위한 가이드 표시 주기를 저장할 수 있다. 그리고 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 가이드 표시 주기가 경과하면, 이를 제어 인터렉션 가이드를 제거하기 위한 요구로 간주할 수 있다. Meanwhile, in the present embodiment, when a drag is detected on the touch screen while the control interaction guide is displayed on the function execution screen in the portable terminal, an example of removing the control interaction guide is disclosed, but the present invention is not limited thereto. That is, the present invention can be implemented by detecting a request to remove the control interaction guide while the control interaction guide is displayed on the function execution screen in the mobile terminal. For example, the portable terminal may store a guide display period for displaying each control interaction guide in a memory. In addition, when the guide display period elapses while the control interaction guide is displayed on the function execution screen in the portable terminal, it may be regarded as a request for removing the control interaction guide.

본 발명에 따르면, 휴대 단말기에서 기능 실행 시, 기능 실행 화면에 제어 인터렉션 가이드를 표시함으로써, 휴대 단말기의 사용자를 위해 기능 실행 화면에서 수행 가능한 제어 명령을 안내한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 일치하게 기능을 실행할 수 있다. 즉 휴대 단말기에서 터치 스크린을 이용하여 각종 기능을 용이하게 실행할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 향상되는 이점이 있다.According to the present invention, when a function is executed in a portable terminal, a control interaction guide is displayed on a function execution screen, thereby guiding a control command that can be executed on the function execution screen for a user of the portable terminal. Accordingly, the portable terminal can execute a function consistent with the user's intention. That is, various functions can be easily executed using the touch screen in the portable terminal. Accordingly, in using a portable terminal, there is an advantage in that the user's convenience is improved.

Claims (18)

전자 장치의 터치 스크린 상의 그래픽 사용자 인터페이스(graphical user interface, 이하 GUI) 아이템을 이용하는 이미지 촬영 방법에 있어서,
상기 전자 장치의 상기 터치 스크린 상에 프리뷰 이미지를 표시하는 동작;
상기 전자 장치의 상기 터치 스크린 위에 호버링(hovering) 입력이 감지되는 것에 기반하여, 상기 터치 스크린 상에 표시된 상기 프리뷰 이미지 위에 복수의 GUI 아이템들을 표시하는 동작을 포함하며, 복수의 GUI 아이템들 중에 하나의 GUI 아이템은 상기 프리뷰 이미지의 속성을 조정하기 위한 것을 특징으로 하며,
상기 하나의 GUI 아이템의 선택에 대응하는 드래그 입력을 감지하는 동작;
상기 드래그 입력의 드래그 특징 값을 판단하는 동작;
상기 터치 스크린 상에 표시되는 중인 상기 프리뷰 이미지 위에 상기 하나의 GUI 아이템의 시각적 특징을 조정하는 동작; 및
상기 드래그 입력이 감지되는 동안, 상기 터치 스크린 상에 상기 조정된 속성을 포함하는 프리뷰 이미지와 상기 조정된 시각적 특징을 가지는 상기 하나의 GUI 아이템을 표시하는 동작;을 포함하며,
상기 프리뷰 이미지는 이미지를 촬영하기 위해서 상기 전자 장치의 상기 터치 스크린 상에 현재 제공되는 이미지이고,
상기 드래그 입력의 상기 드래그 특징 값은 상기 드래그 입력의 거리, 속도, 및 방향 중 적어도 하나를 포함하고,
상기 복수의 GUI 아이템들은 표시되는 중인 상기 프리뷰 이미지의 속성들을 조정하기 위한 복수의 기능들에 대응하며,
상기 하나의 GUI 아이템의 상기 시각적 특징은 상기 하나의 GUI의 크기를 포함하고,
상기 조정하는 동작은 상기 복수의 GUI 아이템들 모두의 시각적 특징을 조정하는 동작을 포함하는 방법.
In the image capturing method using a graphical user interface (GUI) item on a touch screen of an electronic device,
Displaying a preview image on the touch screen of the electronic device;
Based on the detection of a hovering input on the touch screen of the electronic device, displaying a plurality of GUI items on the preview image displayed on the touch screen, and one of the plurality of GUI items The GUI item is characterized in that for adjusting the properties of the preview image,
Detecting a drag input corresponding to selection of the one GUI item;
Determining a drag characteristic value of the drag input;
Adjusting a visual characteristic of the one GUI item on the preview image being displayed on the touch screen; And
While the drag input is detected, displaying a preview image including the adjusted attribute and the one GUI item having the adjusted visual characteristic on the touch screen; and
The preview image is an image currently provided on the touch screen of the electronic device to capture an image,
The drag feature value of the drag input includes at least one of a distance, a speed, and a direction of the drag input,
The plurality of GUI items correspond to a plurality of functions for adjusting properties of the preview image being displayed,
The visual feature of the one GUI item includes the size of the one GUI,
The adjusting operation includes adjusting the visual characteristics of all of the plurality of GUI items.
제 1항에 있어서,
상기 하나의 GUI 아이템 및 상기 드래그 입력의 상기 거리, 상기 속도, 및 상기 방향 중 적어도 하나에 대응하여 실행될 제어 명령을 판단하는 동작; 및
상기 판단된 제어 명령에 대응하는 상기 전자 장치의 기능을 실행하는 동작을 포함하는 방법.
The method of claim 1,
Determining a control command to be executed in response to at least one of the one GUI item and the distance, the speed, and the direction of the drag input; And
And executing a function of the electronic device corresponding to the determined control command.
컴퓨터에 의해 실행될 때 컴퓨터가 전자 장치의 터치 스크린 상에 그래픽 사용자 인터페이스(graphical user interface, 이하 GUI)를 제공하기 위한 방법을 실행하게 하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체에 있어서,
상기 방법은
상기 전자 장치의 상기 터치 스크린 상에 프리뷰 이미지를 표시하는 동작;
상기 전자 장치의 상기 터치 스크린 위에 호버링(hovering) 입력이 감지되는 것에 기반하여, 상기 터치 스크린 상에 표시된 상기 프리뷰 이미지 위에 복수의 GUI 아이템들을 표시하는 동작을 포함하며, 복수의 GUI 아이템들 중에 하나의 GUI 아이템은 상기 프리뷰 이미지의 속성을 조정하기 위한 것을 특징으로 하며,
상기 하나의 GUI 아이템의 선택에 대응하는 드래그 입력을 감지하는 동작;
상기 드래그 입력의 드래그 특징 값을 판단하는 동작;
상기 터치 스크린 상에 표시되는 중인 상기 프리뷰 이미지 위에 상기 하나의 GUI 아이템의 시각적 특징을 조정하는 동작; 및
상기 드래그 입력이 감지되는 동안, 상기 터치 스크린 상에 상기 조정된 속성을 포함하는 프리뷰 이미지와 상기 조정된 시각적 특징을 가지는 상기 하나의 GUI 아이템을 표시하는 동작;을 포함하며,
상기 프리뷰 이미지는 이미지를 촬영하기 위해서 상기 전자 장치의 상기 터치 스크린 상에 현재 제공되는 이미지이고,
상기 드래그 입력의 상기 드래그 특징 값은 상기 드래그 입력의 거리, 속도, 및 방향 중 적어도 하나를 포함하고,
상기 복수의 GUI 아이템들은 표시되는 중인 상기 프리뷰 이미지의 속성들을 조정하기 위한 복수의 기능들에 대응하며,
상기 하나의 GUI 아이템의 상기 시각적 특징은 상기 하나의 GUI의 크기를 포함하고,
상기 조정하는 동작은 상기 복수의 GUI 아이템들 모두의 시각적 특징을 조정하는 동작을 포함하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
In a computer-readable non-transitory recording medium storing a program for causing a computer to execute a method for providing a graphical user interface (GUI) on a touch screen of an electronic device when executed by a computer ,
The above method is
Displaying a preview image on the touch screen of the electronic device;
Based on the detection of a hovering input on the touch screen of the electronic device, displaying a plurality of GUI items on the preview image displayed on the touch screen, and one of the plurality of GUI items The GUI item is characterized in that for adjusting the properties of the preview image,
Detecting a drag input corresponding to selection of the one GUI item;
Determining a drag characteristic value of the drag input;
Adjusting a visual characteristic of the one GUI item on the preview image being displayed on the touch screen; And
While the drag input is detected, displaying a preview image including the adjusted attribute and the one GUI item having the adjusted visual characteristic on the touch screen; and
The preview image is an image currently provided on the touch screen of the electronic device to capture an image,
The drag feature value of the drag input includes at least one of a distance, a speed, and a direction of the drag input,
The plurality of GUI items correspond to a plurality of functions for adjusting properties of the preview image being displayed,
The visual feature of the one GUI item includes the size of the one GUI,
The adjusting operation includes adjusting visual characteristics of all of the plurality of GUI items.
제 3항에 있어서,
상기 방법은
상기 하나의 GUI 아이템 및 상기 드래그 입력의 상기 거리, 상기 속도, 및 상기 방향 중 적어도 하나에 대응하여 실행될 제어 명령을 판단하는 동작; 및
상기 판단된 제어 명령에 대응하는 상기 전자 장치의 기능을 실행하는 동작을 더 포함하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
The method of claim 3,
The above method is
Determining a control command to be executed in response to at least one of the one GUI item and the distance, the speed, and the direction of the drag input; And
A computer-readable non-transitory recording medium further comprising an operation of executing a function of the electronic device corresponding to the determined control command.
표시 장치에 있어서,
프리뷰 이미지 및 복수의 그래픽 사용자 인터페이스(graphical user interface, 이하 GUI) 아이템들을 표시하는 터치 스크린;
상기 복수의 GUI 아이템들의 시각적 특징들을 저장하는 메모리; 및
프로세서를 포함하며,
상기 프로세서는 상기 프리뷰 이미지를 표시하고,
상기 표시 장치의 상기 터치 스크린 위에 호버링(hovering) 입력이 감지되는 것에 기반하여, 상기 터치 스크린 상에 표시된 상기 프리뷰 이미지 위에 복수의 GUI 아이템들을 표시하며, 복수의 GUI 아이템들 중에 하나의 GUI 아이템은 상기 프리뷰 이미지의 속성을 조정하기 위한 것을 특징으로 하며, 상기 하나의 GUI 아이템에 대응하는 드래그 입력을 감지하고, 상기 드래그 입력의 드래그 특징 값을 판단하며, 상기 터치 스크린 상에 표시되는 중인 상기 프리뷰 이미지 위에 상기 하나의 GUI 아이템의 시각적 특징을 조정하고, 상기 드래그 입력이 감지되는 동안, 상기 터치 스크린 상에 상기 조정된 속성을 포함하는 프리뷰 이미지와 상기 조정된 시각적 특징을 가지는 상기 하나의 GUI 아이템을 표시하며, 상기 복수의 GUI 아이템들 모두의 시각적 특징을 조정하는 것을 특징으로 하며,
상기 프리뷰 이미지는 이미지를 촬영하기 위해서 상기 표시 장치의 상기 터치 스크린 상에 현재 제공되는 이미지이고,
상기 드래그 입력의 상기 드래그 특징 값은 상기 드래그 입력의 거리, 속도, 및 방향 중 적어도 하나를 포함하고,
상기 복수의 GUI 아이템들은 표시되는 중인 상기 프리뷰 이미지의 속성들을 조정하기 위한 복수의 기능들에 대응하며,
상기 하나의 GUI 아이템의 상기 시각적 특징은 상기 하나의 GUI의 크기를 포함하는 표시 장치.
In the display device,
A touch screen displaying a preview image and a plurality of graphical user interface (GUI) items;
A memory for storing visual characteristics of the plurality of GUI items; And
Including a processor,
The processor displays the preview image,
Based on the detection of a hovering input on the touch screen of the display device, a plurality of GUI items are displayed on the preview image displayed on the touch screen, and one GUI item among the plurality of GUI items is the It is characterized in that for adjusting the property of the preview image, detecting a drag input corresponding to the one GUI item, determining a drag characteristic value of the drag input, and on the preview image being displayed on the touch screen. Adjusting a visual characteristic of the one GUI item, and displaying a preview image including the adjusted attribute and the one GUI item having the adjusted visual characteristic on the touch screen while the drag input is detected, , Characterized in that the visual characteristics of all of the plurality of GUI items are adjusted,
The preview image is an image currently provided on the touch screen of the display device to capture an image,
The drag feature value of the drag input includes at least one of a distance, a speed, and a direction of the drag input,
The plurality of GUI items correspond to a plurality of functions for adjusting properties of the preview image being displayed,
The visual characteristic of the one GUI item includes a size of the one GUI.
제 5항에 있어서,
상기 프로세서는
상기 하나의 GUI 아이템 및 상기 드래그 입력의 상기 거리, 상기 속도, 및 상기 방향 중 적어도 하나에 대응하여 실행될 제어 명령을 판단하고
상기 판단된 제어 명령에 대응하는 상기 표시 장치의 기능을 실행하는 표시 장치.
The method of claim 5,
The processor is
Determine a control command to be executed in response to at least one of the one GUI item and the distance, the speed, and the direction of the drag input,
A display device that executes a function of the display device corresponding to the determined control command.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020190111547A 2019-09-09 2019-09-09 Portable terminal having touch screen and method for performing function thereof KR102229818B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190111547A KR102229818B1 (en) 2019-09-09 2019-09-09 Portable terminal having touch screen and method for performing function thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190111547A KR102229818B1 (en) 2019-09-09 2019-09-09 Portable terminal having touch screen and method for performing function thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180047981A Division KR102022036B1 (en) 2018-04-25 2018-04-25 Portable terminal having touch screen and method for performing function thereof

Publications (2)

Publication Number Publication Date
KR20190106972A KR20190106972A (en) 2019-09-18
KR102229818B1 true KR102229818B1 (en) 2021-03-19

Family

ID=68071024

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190111547A KR102229818B1 (en) 2019-09-09 2019-09-09 Portable terminal having touch screen and method for performing function thereof

Country Status (1)

Country Link
KR (1) KR102229818B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100774927B1 (en) * 2006-09-27 2007-11-09 엘지전자 주식회사 Mobile communication terminal, menu and item selection method using the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3546337B2 (en) * 1993-12-21 2004-07-28 ゼロックス コーポレイション User interface device for computing system and method of using graphic keyboard
KR101058011B1 (en) * 2004-10-01 2011-08-19 삼성전자주식회사 How to Operate Digital Camera Using Touch Screen
KR101114407B1 (en) * 2005-10-11 2012-02-22 삼성전자주식회사 Photographing method of portable terminal using touch-screen
KR101179887B1 (en) * 2006-02-09 2012-09-06 삼성전자주식회사 Method and apparatus for setting screen in mobile terminal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100774927B1 (en) * 2006-09-27 2007-11-09 엘지전자 주식회사 Mobile communication terminal, menu and item selection method using the same

Also Published As

Publication number Publication date
KR20190106972A (en) 2019-09-18

Similar Documents

Publication Publication Date Title
US10901590B2 (en) Electronic device having touch screen and function controlling method of the same
JP5946462B2 (en) Mobile terminal and its screen control method
US11054988B2 (en) Graphical user interface display method and electronic device
US10503376B2 (en) Method and apparatus for adjusting an image and control guides displayed on a display
CA2841524C (en) Method and apparatus for controlling content using graphical object
KR102188097B1 (en) Method for operating page and electronic device thereof
KR101662726B1 (en) Method and apparatus for scrolling for electronic device
US20120026105A1 (en) Electronic device and method thereof for transmitting data
KR20100012321A (en) Mobile terminal having touch screen and method for displaying cursor thereof
CN111897480B (en) Playing progress adjusting method and device and electronic equipment
JP5805685B2 (en) Electronic device, control method, and control program
KR20130095970A (en) Apparatus and method for controlling object in device with touch screen
US10908868B2 (en) Data processing method and mobile device
KR101485791B1 (en) Portable terminal having touch screen and method for performing function thereof
US9250778B2 (en) Mobile terminal having touch screen and function controlling method of the same
KR101853895B1 (en) Portable terminal having touch screen and method for performing function thereof
KR102229818B1 (en) Portable terminal having touch screen and method for performing function thereof
KR102022036B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101801724B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101801173B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101928837B1 (en) Portable terminal having touch screen and method for performing function thereof
KR20200002752A (en) Method and apparatus for providing user interface using touch pressure on touch screen of mobile station

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant