KR20190106972A - Portable terminal having touch screen and method for performing function thereof - Google Patents

Portable terminal having touch screen and method for performing function thereof Download PDF

Info

Publication number
KR20190106972A
KR20190106972A KR1020190111547A KR20190111547A KR20190106972A KR 20190106972 A KR20190106972 A KR 20190106972A KR 1020190111547 A KR1020190111547 A KR 1020190111547A KR 20190111547 A KR20190111547 A KR 20190111547A KR 20190106972 A KR20190106972 A KR 20190106972A
Authority
KR
South Korea
Prior art keywords
real
gui
preview image
time preview
drag
Prior art date
Application number
KR1020190111547A
Other languages
Korean (ko)
Other versions
KR102229818B1 (en
Inventor
양희철
강태영
전진영
종인원
홍노경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190111547A priority Critical patent/KR102229818B1/en
Publication of KR20190106972A publication Critical patent/KR20190106972A/en
Application granted granted Critical
Publication of KR102229818B1 publication Critical patent/KR102229818B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72522

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a portable terminal and a function control method thereof. The portable terminal includes: a touch screen including a display part for displaying a function execution screen when a function is executed, and a touch panel for sensing a drag occurring on the function execution screen; a control part controlling at least one control interaction guide for guiding a control command, which is able to be executed on the function execution screen, to enable the guide to be displayed on the function execution screen when sensing a request for displaying the control interaction guide during the display of the function execution screen, and controlling the execution of a function corresponding to a control command responding to the drag by detecting the control command when sensing the drag from the touch screen; and a memory storing the control interaction guide able to be displayed on the function execution screen and the control command able to be executed on the function execution screen under the control of the control part. According to the present invention, since a control interaction guide is displayed on a function execution screen when a function is executed in a portable terminal, a control command able to be executed on the function execution screen is guided for a user of the portable terminal. Therefore, user convenience in the use of a portable terminal can be improved.

Description

터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법{PORTABLE TERMINAL HAVING TOUCH SCREEN AND METHOD FOR PERFORMING FUNCTION THEREOF}A portable terminal having a touch screen and a method of controlling the function thereof {PORTABLE TERMINAL HAVING TOUCH SCREEN AND METHOD FOR PERFORMING FUNCTION THEREOF}

본 발명은 휴대 단말기 및 그의 기능 제어 방법에 관한 것으로, 특히 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a portable terminal and a method of controlling its function, and more particularly, to a portable terminal having a touch screen and a method of controlling its function.

일반적으로 휴대 단말기는 다양한 기능들이 부가되어 복합적인 기능을 수행한다. 즉 현재의 휴대 단말기는 통화 기능 이외에 다양한 멀티미디어 기능, 예컨대 카메라, DMB(Digital Multimedia Broadcasting), 블루투스(bluetooth) 통신 기능 등이 탑재되어 다양한 멀티미디어 기능을 수행하고 있다. 이 때 휴대 단말기는 각종 기능들을 제어하기 위한 제어 명령을 입력하기 위한 키보드나 마우스 등의 입력부를 구비하고 있으나, 휴대가 용이하지 않다는 문제점이 있다. 이에 따라 상기 문제점을 극복하기 위하여, 현재의 휴대 단말기는 키보드나 마우스를 대신하여 터치 스크린을 구비하고 있다.In general, a portable terminal performs a complex function by adding various functions. In other words, the current mobile terminal is equipped with various multimedia functions such as a camera, a digital multimedia broadcasting (DMB), and a Bluetooth communication function in addition to a call function. In this case, the portable terminal has an input unit such as a keyboard or a mouse for inputting a control command for controlling various functions, but there is a problem that it is not easy to carry. Accordingly, in order to overcome the above problems, current portable terminals have a touch screen instead of a keyboard or a mouse.

그런데, 상기와 같은 휴대 단말기는 터치 스크린을 이용하여 각종 기능을 제어하는 것이 용이하지 않다. 즉 휴대 단말기는 사용자의 직관적인 조작에 따라 기능을 제어한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 상이하게 기능을 제어할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 저하되는 문제점이 있다.However, such a mobile terminal is not easy to control various functions using the touch screen. That is, the portable terminal controls the function according to the intuitive operation of the user. For this reason, the portable terminal can control the function differently from the intention of the user. Accordingly, there is a problem in that the user's convenience is deteriorated in using the portable terminal.

상기 과제를 해결하기 위한 본 발명에 따른 터치 스크린을 갖는 휴대 단말기의 기능 제어 방법은, 기능 실행 시, 기능 실행 화면을 표시하는 과정과, 제어 인터렉션 가이드 표시 요구 감지 시, 상기 기능 실행 화면에서 수행 가능한 제어 명령을 안내하기 위한 적어도 하나의 제어 인터렉션 가이드를 기능 실행 화면 위에 표시하는 과정과, 드래그 감지 시, 상기 드래그에 대응하는 제어 명령을 검출하여 상기 제어 명령에 해당하는 기능을 수행하는 과정을 포함하는 것을 특징으로 한다. In order to solve the above problems, a function control method of a mobile terminal having a touch screen according to the present invention may be performed on a function execution screen when a function is executed, a function execution screen is displayed, and a control interaction guide display request is detected. Displaying at least one control interaction guide for guiding a control command on a function execution screen; and detecting a control command corresponding to the drag and performing a function corresponding to the control command when a drag is detected. It is characterized by.

그리고 상기 과제를 해결하기 위한 본 발명에 따른 휴대 단말기는, 기능 실행 시, 기능 실행 화면을 표시하기 위한 표시부 및 상기 기능 실행 화면에서 발생하는 드래그를 감지하기 위한 터치 패널을 구비하는 터치 스크린과, 상기 기능 실행 화면 표시 중 제어 인터렉션 가이드 표시 요구 감지 시, 상기 기능 실행 화면에서 수행 가능한 제어 명령을 안내하기 위한 적어도 하나의 제어 인터렉션 가이드를 상기 기능 실행 화면 위에 표시하도록 제어하고, 상기 터치 스크린에서 드래그 감지 시, 상기 드래그에 대응하는 상기 제어 명령을 검출하여 상기 제어 명령에 해당하는 기능을 수행하도록 제어하는 제어부와, 상기 제어부의 제어 하에, 상기 기능 실행 화면에서 수행 가능한 제어 명령 및 상기 기능 실행 화면에 표시 가능한 상기 제어 인터렉션 가이드를 저장하는 메모리를 포함하는 것을 특징으로 한다.In addition, the portable terminal according to the present invention for solving the above problems, a touch screen having a display unit for displaying a function execution screen and a touch panel for detecting a drag generated on the function execution screen when the function is executed, and When a control interaction guide display request is detected while displaying a function execution screen, at least one control interaction guide for guiding a control command that can be performed on the function execution screen is controlled to be displayed on the function execution screen, and when a drag is detected on the touch screen. A control unit that detects the control command corresponding to the drag and performs a function corresponding to the control command, and a control command that can be executed on the function execution screen and a function execution screen that can be displayed on the function execution screen under the control of the control unit; The control interaction guide It characterized in that it comprises a memory for storing.

따라서, 상기와 같은 본 발명에 따른 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법은, 휴대 단말기에서 기능 실행 시, 기능 실행 화면에 제어 인터렉션 가이드를 표시함으로써, 휴대 단말기의 사용자를 위해 기능 실행 화면에서 수행 가능한 제어 명령을 안내한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 일치하게 기능을 제어할 수 있다. 즉 휴대 단말기에서 터치 스크린을 이용하여 각종 기능을 용이하게 제어할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 향상되는 이점이 있다.Therefore, the portable terminal having the touch screen and the function control method according to the present invention as described above, by displaying the control interaction guide on the function execution screen, when the function is executed in the portable terminal, the function execution screen for the user of the portable terminal Guide control commands that can be performed. As a result, the portable terminal can control the function in accordance with the intention of the user. That is, the portable terminal can easily control various functions using the touch screen. Accordingly, there is an advantage in that the user's convenience is improved in using the portable terminal.

도 1은 본 발명의 일 실시예에 따른 휴대 단말기의 개략적인 구성을 도시하는 블록도,
도 2는 본 발명의 일 실시예에 따른 기능 실행 절차를 도시하는 순서도,
도 3a 내지 도 3e는 본 발명의 실시예에 따른 기능 실행 절차 수행 시 표시되는 화면의 구성 예를 도시하는 예시도들, 그리고
도 4는 본 발명의 다른 실시예에 따른 기능 실행 절차를 도시하는 순서도이다.
1 is a block diagram showing a schematic configuration of a portable terminal according to an embodiment of the present invention;
2 is a flowchart illustrating a function execution procedure according to an embodiment of the present invention;
3A to 3E are exemplary views showing an example of the configuration of a screen displayed when performing a function execution procedure according to an embodiment of the present invention;
4 is a flowchart illustrating a function execution procedure according to another embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다. Hereinafter, exemplary embodiments will be described in more detail with reference to the accompanying drawings.

하기 설명에서, "기능 실행 화면"이라는 용어는 휴대 단말기에서 특정 기능 실행 시 표시되는 화면을 의미한다. "제어 명령"이라는 용어는 휴대 단말기에서 특정 기능 수행 시, 기능 실행 화면에서 수행 가능한 하위 기능을 의미한다. 이러한 제어 명령은, 예컨대 카메라 기능 실행 시 수행 가능한 줌인(zoom in) 명령, 줌아웃(zoom out) 명령, 명암(brightness) 조절 명령 등일 수 있다. 또는 제어 명령은, 예컨대 오디오 재생 기능 실행 시, 볼륨(volume) 조절 명령, 다음 순서의 오디오 파일 재생 명령, 이전 순서의 오디오 파일 재생 명령 등일 수 있다. 이 때 제어 명령은 상위 계층 또는 하위 계층의 메뉴로의 이동 명령, 동일 계층 내에서의 이동 명령 등일 수도 있다. 그리고 제어 명령은 휴대 단말기 사용자의 조작에 의해 수행될 수 있다. "제어 인터렉션 가이드(control interaction guide)"이라는 용어는 휴대 단말기에서 기능 실행 화면에서 수행 가능한 제어 명령을 안내하기 위한 이미지를 의미한다. 이 때 기능 실행 화면에 따라, 적어도 하나의 제어 인터렉션 가이드가 존재할 수 있으며, 제어 인터렉션 가이드가 존재하지 않을 수도 있다. 이러한 제어 인터렉션 가이드는 휴대 단말기에서 해당 제어 명령을 수행하기 위하여 휴대 단말기의 사용자가 행해야 하는 조작 방향을 나타내는 방향 이미지를 포함할 수 있다. 그리고 제어 인터렉션 가이드는 해당 제어 명령의 속성을 은유적으로 나타내는 심벌 이미지를 포함할 수 있다. In the following description, the term "function execution screen" means a screen displayed when a specific function is executed in the portable terminal. The term "control command" refers to a lower function that can be performed on a function execution screen when a specific function is performed in the mobile terminal. Such a control command may be, for example, a zoom in command, a zoom out command, a brightness control command, or the like that can be executed when executing a camera function. Alternatively, the control command may be, for example, a volume control command, a next audio file play command, a previous audio file play command, or the like, when the audio play function is executed. In this case, the control command may be a move command to a menu of an upper layer or a lower layer, a move command in the same layer, or the like. And the control command may be performed by the operation of the portable terminal user. The term "control interaction guide" refers to an image for guiding a control command that can be performed on a function execution screen in a mobile terminal. At this time, according to the function execution screen, at least one control interaction guide may exist, and the control interaction guide may not exist. Such a control interaction guide may include a direction image indicating an operation direction that a user of the portable terminal should perform in order to perform a corresponding control command in the portable terminal. The control interaction guide may include a symbol image that metaphorically represents an attribute of a corresponding control command.

그리고 "터치(touch)"라는 용어는 휴대 단말기의 사용자가 터치 스크린 상에 손가락을 접촉하는 행위를 의미한다. "드래그(drag)"라는 용어는 휴대 단말기의 사용자가 터치 스크린 상에 터치, 즉 손가락을 접촉한 상태로 손가락을 이동하는 행위를 의미한다. "드롭(drop)"이라는 용어는 휴대 단말기의 사용자가 터치 스크린 상에 터치, 즉 접촉하고 있는 손가락을 터치 스크린으로부터 떼는 행위를 의미한다. The term "touch" refers to the act of a user of the mobile terminal touching a finger on the touch screen. The term "drag" refers to an action of a user of a mobile terminal moving a finger on a touch screen, i.e., touching a finger. The term " drop " means that the user of the mobile terminal touches on the touch screen, i.e., lifts a finger in contact with the touch screen.

도 1은 본 발명의 일 실시예에 따른 휴대 단말기의 개략적인 구성을 도시하는 블록도이다. 본 실시예에서 휴대 단말기는 휴대 전화기인 경우를 가정하여 설명한다. 1 is a block diagram showing a schematic configuration of a portable terminal according to an embodiment of the present invention. In the present embodiment, a description will be given on the assumption that the portable terminal is a portable telephone.

도 1을 참조하면, 휴대 단말기(100)는 무선 통신부(110), 터치 스크린(120), 접근 센서(130), 메모리(140), 제어부(150) 및 오디오 처리부(160)를 포함한다. Referring to FIG. 1, the mobile terminal 100 includes a wireless communication unit 110, a touch screen 120, an access sensor 130, a memory 140, a controller 150, and an audio processor 160.

무선 통신부(110)는 휴대 단말기(100)의 무선 통신 기능을 수행한다. 이러한 무선 통신부(110)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 잡음 증폭하고 주파수를 하강변환하는 RF수신기 등을 포함한다.The wireless communication unit 110 performs a wireless communication function of the mobile terminal 100. The wireless communication unit 110 includes an RF transmitter for up-converting and amplifying a frequency of a transmitted signal, and an RF receiver for amplifying a received signal and down-converting a frequency of the received signal.

터치 스크린(120)은 표시부(121)와 터치 패널(123)을 포함한다. 표시부(121)는 휴대 단말기(100)의 상태를 표시한다. 이 때 표시부(121)는 LCD로 구현되며, LCD 제어부, 표시 데이터를 저장할 수 있는 메모리 및 LCD 표시소자 등을 구비한다. 터치 패널(123)은 표시부(121)에 장착되며, 터치 감지부와 신호 변환부를 구비한다. 터치 감지부는 물리량, 예컨대 저항, 정전용량 등의 변화로부터 터치, 드래그, 드롭 등과 같은 터치의 제어 명령을 감지한다. 또한 신호 변환부는 물리량의 변화를 터치 신호로 변환한다. The touch screen 120 includes a display unit 121 and a touch panel 123. The display unit 121 displays the state of the portable terminal 100. In this case, the display unit 121 is implemented as an LCD, and includes an LCD controller, a memory capable of storing display data, and an LCD display device. The touch panel 123 is mounted on the display unit 121 and includes a touch detector and a signal converter. The touch detector detects a control command of a touch such as a touch, drag, drop, etc., from a change in physical quantity, for example, resistance or capacitance. In addition, the signal converter converts the change in the physical quantity into a touch signal.

접근 센서(130)는 터치 스크린(120) 상으로의 접근을 감지하는 기능을 수행한다. 이러한 접근 센서(130)는, 예컨대 설정된 거리 이내의 온도 변화, 조도 변화 등을 감지할 수 있다. 이 때 적어도 하나의 접근 센서(130)가 표시부(121)의 후면에 설치될 수 있다. 또는 적어도 하나의 접근 센서(130)가 표시부(121)의 4개의 측부들 중 적어도 하나의 측부에 설치될 수 있다. 예를 들면, 단일 접근 센서(130)가 설치되는 경우, 접근 센서(130)는 접근 센서(130) 상으로 이동하는 휴대 단말기(100) 사용자의 손을 감지하도록 배치될 수 있다. The proximity sensor 130 detects an approach to the touch screen 120. The approach sensor 130 may detect, for example, a change in temperature, a change in illuminance, etc. within a predetermined distance. In this case, at least one access sensor 130 may be installed on the rear surface of the display unit 121. Alternatively, at least one approach sensor 130 may be installed on at least one side of the four sides of the display unit 121. For example, when the single access sensor 130 is installed, the access sensor 130 may be arranged to detect the hand of the user of the mobile terminal 100 moving on the access sensor 130.

메모리(140)는 프로그램 메모리 및 데이터 메모리들로 구성된다. 프로그램 메모리는 휴대 단말기(100)의 제어 명령 프로그램 및 본 발명의 실시예에 따라 터치 스크린을 이용하여 기능을 실행하기 위한 프로그램을 저장한다. 데이터 메모리는 프로그램 수행 중에 발생되는 데이터를 저장한다. 그리고 메모리(140)는 본 발명의 실시예에 따라 각각의 기능 실행 화면에서 수행 가능한 제어 명령을 저장한다. 또한 메모리(140)는 본 발명의 실시예에 따라 각각의 제어 명령을 안내하기 위한 제어 인터렉션 가이드를 저장한다. The memory 140 is composed of a program memory and a data memory. The program memory stores a control command program of the mobile terminal 100 and a program for executing a function using a touch screen according to an embodiment of the present invention. The data memory stores data generated during program execution. The memory 140 stores control commands that can be executed in each function execution screen according to an exemplary embodiment of the present invention. The memory 140 also stores a control interaction guide for guiding each control command in accordance with an embodiment of the present invention.

제어부(150)는 휴대 단말기(100)의 전반적인 제어 명령을 제어하는 기능을 수행한다. 이러한 제어부(150)는 송신되는 신호를 부호화 및 변조하는 송신기와 수신되는 신호를 복조 및 복호화하는 수신기 등을 구비하는 데이터 처리부를 포함한다. 이러한 데이터 처리부는 모뎀(MODEM) 및 코덱(CODEC)으로 구성될 수 있다. The controller 150 controls the overall control command of the mobile terminal 100. The controller 150 includes a data processor including a transmitter for encoding and modulating a transmitted signal and a receiver for demodulating and decoding a received signal. Such a data processing unit may be composed of a modem and a codec.

그리고 제어부(150)는 본 발명의 실시예에 따라 기능 실행 시, 기능 실행 화면을 표시하도록 제어한다. 또한 제어부(150)는 본 발명의 실시예에 따라 기능 실행 화면 표시 중 제어 인터렉션 가이드를 표시하기 위한 요구를 감지하면, 기능 실행 화면에 표시 가능한 제어 인터렉션 가이드를 검색하여 표시하도록 제어한다. 이 때 제어부(150)는 접근 센서(130)를 통해 터치 스크린(120) 상으로 접근이 감지되면, 이를 제어 인터렉션 가이드를 표시하기 위한 요구로 간주할 수 있다. 그리고 제어부(150)는 제어 인터렉션 가이드 표시 중 터치 스크린(120)에서 터치가 감지되면, 기능 실행 화면에서 제어 인터렉션 가이드를 제거할 수 있다. 또는 제어부(150)는 제어 인터렉션 가이드 표시 중 가이드 표시 주기가 경과하면, 기능 실행 화면에서 제어 인터렉션 가이드를 제거할 수 있다. 게다가 제어부(150)는 본 발명의 실시예에 따라 터치 스크린(120)에서 드래그가 감지되면, 드래그에 대응하는 제어 명령을 검출하여 제어한다. In addition, the controller 150 controls to display a function execution screen when executing a function according to an embodiment of the present invention. In addition, when the controller 150 detects a request for displaying the control interaction guide while displaying the function execution screen, the controller 150 searches for and displays the control interaction guide that can be displayed on the function execution screen. In this case, when an access is detected on the touch screen 120 through the access sensor 130, the controller 150 may regard this as a request for displaying a control interaction guide. When the touch is detected on the touch screen 120 while displaying the control interaction guide, the controller 150 may remove the control interaction guide from the function execution screen. Alternatively, the controller 150 may remove the control interaction guide from the function execution screen when the guide display period elapses during the display of the control interaction guide. In addition, when a drag is detected on the touch screen 120, the controller 150 detects and controls a control command corresponding to the drag.

오디오 처리부(160)는 데이터 처리부의 오디오 코덱에서 출력되는 수신 오디오 신호를 재생하여 스피커(SPK)를 통해 발생시키거나, 마이크(MIC)로부터 발생되는 송신 오디오 신호를 데이터 처리부의 오디오 코덱에 전송하는 기능을 수행한다. The audio processor 160 reproduces the received audio signal output from the audio codec of the data processor and generates the audio signal through the speaker SPK, or transmits the transmitted audio signal generated from the microphone MIC to the audio codec of the data processor. Do this.

도 2는 본 발명의 일 실시예에 따른 기능 실행 절차를 도시하는 순서도이다. 그리고 도 3a 내지 도 3e는 본 발명의 실시예에 따른 기능 실행 절차 수행 시 표시되는 화면의 구성 예를 도시하는 예시도들이다. 이 때 도 3a 내지 도 3e는 카메라 기능 실행 시 표시될 수 있는 화면의 구성 예를 도시하고 있다. 여기서, 도 3a는 기능 실행 시 표시되는 화면을 도시하고 있고, 도 3b는 접근 감지 시 표시되는 화면을 도시하고 있고, 도 3c는 터치 감지 시 표시되는 화면을 도시하고 있고, 도 3d는 드래그 감지 시 표시되는 화면을 도시하고 있으며, 도 3d는 드롭 감지 시 표시되는 화면을 도시하고 있다. 2 is a flowchart illustrating a function execution procedure according to an embodiment of the present invention. 3A to 3E are exemplary diagrams illustrating a configuration example of a screen displayed when a function execution procedure is performed according to an embodiment of the present invention. 3A to 3E illustrate examples of screens that can be displayed when the camera function is executed. Here, FIG. 3A illustrates a screen displayed when the function is executed, FIG. 3B illustrates a screen displayed when the approach is detected, FIG. 3C illustrates a screen displayed when the touch is detected, and FIG. 3D illustrates a drag detection. FIG. 3D illustrates a screen to be displayed, and FIG. 3D illustrates a screen to be displayed when a drop is detected.

도 2를 참조하면, 본 실시예의 기능 실행 절차는, 제어부(150)가 211단계에서, 도 3a에 도시된 바와 같이, 기능 실행 화면을 표시하는 것으로부터 출발한다. 예를 들면, 카메라 기능 실행 시, 제어부(150)는 기능 실행 화면으로 프리뷰 영상을 표시할 수 있다. 이 후 터치 스크린(120) 상으로 접근이 발생하면, 제어부(150)가 213단계에서 이를 감지하고, 215단계에서 제어 인터렉션 가이드를 검색한다. 즉 제어부(150)는 메모리(140)에 저장된 제어 명령들 및 제어 인터렉션 가이드들을 검색한다. Referring to FIG. 2, the function execution procedure of the present embodiment starts from the control unit 150 displaying a function execution screen as shown in FIG. 3A in step 211. For example, when executing a camera function, the controller 150 may display a preview image on a function execution screen. After that, when an access occurs on the touch screen 120, the controller 150 detects this in step 213, and searches for a control interaction guide in step 215. That is, the controller 150 searches for control commands and control interaction guides stored in the memory 140.

다음으로, 제어부(150)는 217단계에서 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 즉 제어부(150)는 기능 실행 화면에서 수행 가능한 제어 명령과 그에 대응하는 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 이 때 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는 것으로 판단되면, 제어부(150)는 219단계에서, 도 3b에 도시된 바와 같이, 기능 실행 화면에 제어 인터렉션 가이드를 표시한다. 예를 들면, 제어부(150)는 프리뷰 영상에서 수행 가능한 제어 명령으로 줌인 제어 명령, 줌아웃 제어 명령, 명도를 높이는 제어 명령 및 명도를 낮추는 제어 명령이 존재함을 검출할 수 있다. 그리고 제어부(150)는 검출된 제어 명령 각각에 대응하는 제어 인터렉션 가이드를 검출하여, 프리뷰 영상에 표시할 수 있다.Next, the controller 150 determines whether there is a control interaction guide stored to be displayed on the function execution screen in step 217. That is, the controller 150 determines whether there is a control command that can be executed on the function execution screen and a control interaction guide corresponding thereto. If it is determined that there is a control interaction guide stored to be displayed on the function execution screen, the control unit 150 displays the control interaction guide on the function execution screen, as shown in FIG. 3B, in step 219. For example, the controller 150 may detect that there is a zoom-in control command, a zoom-out control command, a control command for increasing brightness, and a control command for decreasing brightness as control commands that can be executed in the preview image. The controller 150 may detect a control interaction guide corresponding to each detected control command and display the control interaction guide on the preview image.

이어서, 터치 스크린(120)에서 터치가 발생하면, 제어부(150)가 221단계에서 이를 감지하고, 223단계에서 도 3c에 도시된 바와 같이, 기능 실행 화면을 표시한다. 즉 제어부(150)는 기능 실행 화면에서 제어 인터렉션 가이드를 제거한다. Subsequently, when a touch occurs in the touch screen 120, the controller 150 detects this in step 221, and displays a function execution screen in step 223 as shown in FIG. 3C. That is, the controller 150 removes the control interaction guide from the function execution screen.

계속해서, 터치 스크린(120)에서 터치의 드래그가 발생하면, 제어부(150)가 225단계에서 이를 감지하고, 227단계에서 드래그 변동값을 산출한다. 이 때 제어부(150)는 드래그 경로에서 터치 좌표의 변화로부터 드래그 변동값을 산출한다. 즉 제어부(150)는 드래그 경로의 길이, 드래그 방향, 드래드 속도 등을 산출한다. 그리고 제어부(150)는 229단계에서, 도 3d에 도시된 바와 같이, 제어 명령을 수행한다. 즉 제어부(150)는 드래그 변동값에 대응하여 기능 실행 화면에서 수행 가능한 제어 명령을 검출한다. 또한 제어부(150)는 검출된 제어 명령을 수행한다. 예를 들면, 산출된 드래그 변동값에서 드래그 경로의 길이가 x픽셀이고, 드래그 방향이 상방향이면, 제어부(150)는 프리뷰 화면을 y배 확대할 수 있다(단, y=mx, m은 상수). 이 때 메모리(140)는 드래그 변동값에 따라 수행 가능한 제어 명령의 수행 정도를 미리 매핑시켜 저장할 수 있다. 게다가 도시되지는 않았으나, 제어부(150)는 기능 실행 화면에 제어에 따른 변화값을 표시할 수 있다. Subsequently, when a drag of the touch occurs in the touch screen 120, the controller 150 detects this in step 225 and calculates a drag variation value in step 227. At this time, the controller 150 calculates a drag variation value from the change of the touch coordinate in the drag path. That is, the controller 150 calculates the length of the drag path, the drag direction, the drag speed, and the like. In operation 229, the controller 150 performs a control command. That is, the controller 150 detects a control command that can be executed on the function execution screen in response to the drag change value. In addition, the controller 150 performs the detected control command. For example, if the length of the drag path is x pixels and the drag direction is upward in the calculated drag variation value, the controller 150 may enlarge the preview screen y times (where y = mx and m are constants). ). In this case, the memory 140 may pre-map and store an execution degree of a control command that can be executed according to the drag change value. In addition, although not shown, the controller 150 may display a change value according to the control on the function execution screen.

마지막으로, 터치 스크린(120)에서 드래그의 드롭이 발생하면, 제어부(150)가 231단계에서 이를 감지하고, 도 3e에 도시된 바와 같이, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 드래그의 드롭이 감지되지 않으면, 제어부(150)는 드래그의 드롭이 감지될 때까지 225단계 내지 231단계를 반복하여 수행할 수 있다. Finally, if a drag drop occurs in the touch screen 120, the controller 150 detects this in step 231, and terminates the function execution procedure as shown in FIG. 3E. In this case, if the drop of the drag is not detected through the touch screen 120, the controller 150 may repeat steps 225 to 231 until the drop of the drag is detected.

한편, 225단계에서 터치의 드래그가 감지되지 않고, 터치 스크린(120)에서 터치의 드롭이 발생하면, 제어부(150)가 231단계에서 이를 감지하고, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 터치의 드롭이 감지되지 않으면, 제어부(150)는 터치의 드롭이 감지될 때까지 225단계 내지 231단계를 반복하여 수행할 수 있다. On the other hand, if the drag of the touch is not detected in step 225 and the drop of the touch occurs in the touch screen 120, the controller 150 detects it in step 231 and terminates the function execution procedure. In this case, if a drop of touch is not detected through the touch screen 120, the controller 150 may repeat steps 225 to 231 until a drop of the touch is detected.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린 상으로 접근이 감지되면, 제어 인터렉션 가이드를 검색하는 예를 개시하였으나, 이에 한정하는 것은 아니다. 즉 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린 상으로의 접근이 감지되는 위치에 따라 상이한 제어 인터렉션 가이드를 표시함으로써, 본 발명을 구현할 수 있다. 뿐만 아니라, 휴대 단말기에서 기능 실행 화면 표시 중 제어 인터렉션 가이드를 표시하기 위한 요구를 감지함으로써, 본 발명을 구현할 수도 있다. 예를 들면, 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린 상으로 터치 및 터치의 드롭이 감지되면, 이를 제어 인터렉션 가이드를 표시하기 위한 요구로 간주할 수 있다. 또는 휴대 단말기에서 터치 및 터치의 드롭 이외에 특정 문자를 드로잉하기 위한 드래그 및 드래그의 드롭이 감지되면, 이를 제어 인터렉션 가이드를 표시하기 위한 요구로 간주할 수 있다. Meanwhile, in the present exemplary embodiment, when an access is detected on the touch screen while displaying the function execution screen in the portable terminal, an example of searching for the control interaction guide is disclosed, but is not limited thereto. That is, the present invention can be implemented by displaying different control interaction guides according to positions where access to the touch screen is sensed while displaying the function execution screen in the portable terminal. In addition, the present invention can be implemented by detecting a request for displaying a control interaction guide while displaying a function execution screen in a portable terminal. For example, when a touch and a drop of a touch are sensed on the touch screen while displaying a function execution screen in the portable terminal, this may be regarded as a request for displaying a control interaction guide. Alternatively, when a drag and a drop for drawing a specific character in addition to the touch and the drop of the touch are detected in the mobile terminal, this may be regarded as a request for displaying a control interaction guide.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 터치 스크린에 터치가 감지되면, 제어 인터렉션 가이드를 제거하는 예를 개시하였으나, 이에 한정하는 것을 아니다. 즉 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 제어 인터렉션 가이드를 제거하기 위한 요구를 감지함으로써, 본 발명을 구현할 수 있다. 예를 들면, 휴대 단말기에서 메모리에 각각의 제어 인터렉션 가이드를 표시하기 위한 가이드 표시 주기를 저장할 수 있다. 그리고 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 가이드 표시 주기가 경과하면, 이를 제어 인터렉션 가이드를 제거하기 위한 요구로 간주할 수 있다. Meanwhile, in the present exemplary embodiment, when a touch is detected on the touch screen while the control interaction guide is displayed on the function execution screen in the portable terminal, an example of removing the control interaction guide is disclosed, but the present invention is not limited thereto. That is, the present invention can be implemented by detecting a request for removing the control interaction guide while displaying the control interaction guide on the function execution screen in the portable terminal. For example, the portable terminal may store a guide display period for displaying each control interaction guide in a memory. When the guide display period of the control interaction guide is displayed on the function execution screen in the mobile terminal, this may be regarded as a request for removing the control interaction guide.

본 발명에 따르면, 휴대 단말기에서 기능 실행 시, 기능 실행 화면에 제어 인터렉션 가이드를 표시함으로써, 휴대 단말기의 사용자를 위해 기능 실행 화면에서 수행 가능한 제어 명령을 안내한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 일치하게 기능을 실행할 수 있다. 즉 휴대 단말기에서 터치 스크린을 이용하여 각종 기능을 용이하게 실행할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 향상되는 이점이 있다. According to the present invention, when a function is executed in a portable terminal, a control interaction guide is displayed on the function execution screen, thereby guiding a control command that can be executed on the function execution screen for the user of the portable terminal. As a result, the portable terminal can execute a function in accordance with the intention of the user. That is, the portable terminal can easily execute various functions using the touch screen. Accordingly, there is an advantage in that the user's convenience is improved in using the portable terminal.

도 4는 본 발명의 다른 실시예에 따른 기능 실행 절차를 도시하는 순서도이다. 여기서, 본 실시예를 수행하는 휴대 단말기는 전술한 실시예의 휴대 단말기와 기본 구성이 유사하므로 상세한 설명을 생략한다. 다만, 본 실시예의 휴대 단말기는 접근 센서를 구비하지 않더라도, 본 발명의 구현이 가능하다. 4 is a flowchart illustrating a function execution procedure according to another embodiment of the present invention. Here, since the mobile terminal performing the present embodiment has a similar basic configuration to the mobile terminal of the above-described embodiment, a detailed description thereof will be omitted. However, even if the portable terminal of the present embodiment does not have an access sensor, the present invention can be implemented.

도 4를 참조하면, 본 실시예의 기능 실행 절차는, 제어부(150)가 411단계에서 기능 실행 화면을 표시하는 것으로부터 출발한다. 이 후 터치 스크린(120)에서 터치가 발생하면, 제어부(150)가 413단계에서 이를 감지하고, 415단계에서 제어 인터렉션 가이드를 검색한다. 즉 제어부(150)는 메모리(140)에 저장된 제어 명령들 및 제어 인터렉션 가이드들을 검색한다. Referring to FIG. 4, the function execution procedure of the present embodiment starts from the control unit 150 displaying a function execution screen in step 411. Thereafter, when a touch occurs in the touch screen 120, the controller 150 detects this in step 413 and searches for the control interaction guide in step 415. That is, the controller 150 searches for control commands and control interaction guides stored in the memory 140.

이어서, 제어부(150)는 417단계에서 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 즉 제어부(150)는 기능 실행 화면에서 수행 가능한 제어 명령과 그에 대응하는 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 이 때 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는 것으로 판단되면, 제어부(150)는 419단계에서 기능 실행 화면에 제어 인터렉션 가이드를 표시한다. In operation 417, the controller 150 determines whether there is a control interaction guide stored to be displayed on the function execution screen. That is, the controller 150 determines whether there is a control command that can be executed on the function execution screen and a control interaction guide corresponding thereto. If it is determined that there is a control interaction guide stored to be displayed on the function execution screen, the controller 150 displays the control interaction guide on the function execution screen in step 419.

계속해서, 터치 스크린(120)에서 터치의 드래그가 발생하면, 제어부(150)가 421단계에서 이를 감지하고, 423단계에서 기능 실행 화면을 표시한다. 즉 제어부(150)는 기능 실행 화면에서 제어 인터렉션 가이드를 제거한다. 그리고 제어부(150)는 425단계에서 드래그 변동값을 산출한다. 이 때 제어부(150)는 드래그 경로에서 터치 좌표의 변화로부터 드래그 변동값을 산출한다. 즉 제어부(150)는 드래그 경로의 길이, 드래그 방향, 드래드 속도 등을 산출한다. 또한 제어부(150)는 427단계에서 제어 명령을 수행한다. 즉 제어부(150)는 드래그 변동값에 대응하여 기능 실행 화면에서 수행 가능한 제어 명령을 검출한다. 그리고 제어부(150)는 검출된 제어 명령을 기능 실행 화면에서 수행한다. 이 때 메모리(140)는 드래그 변동값에 따라 수행 가능한 제어 명령의 정도를 미리 매핑시켜 저장할 수 있다. 게다가 도시되지는 않았으나, 제어부(150)는 기능 실행 화면에 제어 명령 수행에 따른 변화값을 표시할 수 있다. Subsequently, if a touch drag occurs in the touch screen 120, the controller 150 detects this in step 421 and displays a function execution screen in step 423. That is, the controller 150 removes the control interaction guide from the function execution screen. The controller 150 calculates a drag change value in step 425. At this time, the controller 150 calculates a drag variation value from the change of the touch coordinate in the drag path. That is, the controller 150 calculates the length of the drag path, the drag direction, the drag speed, and the like. In addition, the controller 150 performs a control command in step 427. That is, the controller 150 detects a control command that can be executed on the function execution screen in response to the drag change value. The controller 150 performs the detected control command on the function execution screen. In this case, the memory 140 may pre-map and store the degree of the control command that can be executed according to the drag change value. In addition, although not shown, the controller 150 may display a change value according to the execution of the control command on the function execution screen.

마지막으로, 터치 스크린(120)에서 드래그의 드롭이 발생하면, 제어부(150)가 429단계에서 이를 감지하고, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 드래그의 드롭이 감지되지 않으면, 제어부(150)는 드래그의 드롭이 감지될 때까지 421단계 내지 429단계를 반복하여 수행할 수 있다. Finally, if a drag drop occurs in the touch screen 120, the controller 150 detects this in step 429 and ends the function execution procedure. In this case, if the drop of the drag is not detected through the touch screen 120, the controller 150 may repeat steps 421 to 429 until the drop of the drag is detected.

한편, 421단계에서 터치의 드래그가 감지되지 않고, 터치 스크린(120)에서 터치의 드롭이 발생하면, 제어부(150)가 429단계에서 이를 감지하고, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 터치의 드롭이 감지되지 않으면, 제어부(150)는 터치의 드롭이 감지될 때까지 421단계 내지 429단계를 반복하여 수행할 수 있다. On the other hand, if the drag of the touch is not detected in step 421 and a drop of the touch occurs in the touch screen 120, the controller 150 detects this in step 429 and ends the function execution procedure. In this case, if the drop of the touch is not detected through the touch screen 120, the controller 150 may repeat steps 421 to 429 until the drop of the touch is detected.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린에서 터치가 감지되면, 제어 인터렉션 가이드를 검색하는 예를 개시하였으나, 이에 한정하는 것은 아니다. 즉 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린에서 터치가 감지되는 위치에 따라 상이한 제어 인터렉션 가이드를 표시함으로써, 본 발명을 구현할 수 있다. Meanwhile, in the present exemplary embodiment, when a touch is detected on the touch screen while displaying the function execution screen in the portable terminal, an example of searching for the control interaction guide is disclosed, but is not limited thereto. That is, the present invention can be implemented by displaying different control interaction guides according to positions where a touch is sensed on the touch screen while displaying the function execution screen in the portable terminal.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 터치 스크린에 드래그가 감지되면, 제어 인터렉션 가이드를 제거하는 예를 개시하였으나, 이에 한정하는 것을 아니다. 즉 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 제어 인터렉션 가이드를 제거하기 위한 요구를 감지함으로써, 본 발명을 구현할 수 있다. 예를 들면, 휴대 단말기에서 메모리에 각각의 제어 인터렉션 가이드를 표시하기 위한 가이드 표시 주기를 저장할 수 있다. 그리고 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 가이드 표시 주기가 경과하면, 이를 제어 인터렉션 가이드를 제거하기 위한 요구로 간주할 수 있다. Meanwhile, in the present exemplary embodiment, when the drag is detected on the touch screen while the control interaction guide is displayed on the function execution screen in the mobile terminal, an example in which the control interaction guide is removed is not limited thereto. That is, the present invention can be implemented by detecting a request for removing the control interaction guide while displaying the control interaction guide on the function execution screen in the portable terminal. For example, the portable terminal may store a guide display period for displaying each control interaction guide in a memory. When the guide display period of the control interaction guide is displayed on the function execution screen in the mobile terminal, this may be regarded as a request for removing the control interaction guide.

본 발명에 따르면, 휴대 단말기에서 기능 실행 시, 기능 실행 화면에 제어 인터렉션 가이드를 표시함으로써, 휴대 단말기의 사용자를 위해 기능 실행 화면에서 수행 가능한 제어 명령을 안내한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 일치하게 기능을 실행할 수 있다. 즉 휴대 단말기에서 터치 스크린을 이용하여 각종 기능을 용이하게 실행할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 향상되는 이점이 있다.According to the present invention, when a function is executed in a portable terminal, a control interaction guide is displayed on the function execution screen, thereby guiding a control command that can be executed on the function execution screen for the user of the portable terminal. As a result, the portable terminal can execute a function in accordance with the intention of the user. That is, the portable terminal can easily execute various functions using the touch screen. Accordingly, there is an advantage in that the user's convenience is improved in using the portable terminal.

Claims (18)

카메라 애플리케이션을 포함하는 복수의 애플리케이션들이 설치되고, 카메라를 포함하는 전자 장치의 이미지 촬영 방법에 있어서,
상기 복수의 애플리케이션들 중에서 상기 카메라 애플리케이션이 실행하여 상기 전자 장치의 터치 스크린 상에 실시간 프리뷰 이미지를 디스플레이하는 동작;
상기 실시간 프리뷰 이미지 위에 복수의 GUI 아이템들을 함께 디스플레이하는 동작;
상기 복수의 GUI 아이템들 중에 제 1 GUI 아이템은 상기 실시간 프리뷰 이미지의 시각적 특징을 조정하기 위한 것이고, 상기 복수의 GUI 아이템들 중에 제 2 GUI 아이템은 이미지 촬영을 위한 것을 특징으로 하며, 상기 실시간 프리뷰 이미지 위에 상기 제 1 GUI 아이템에 대해 드래그를 수신하는 동안, 상기 제 1 GUI 아이템에 대응하는 상기 실시간 프리뷰 이미지의 상기 시각적 특징을 조정하는 동작 및 상기 터치 스크린 상에 상기 드래그에 따라 시각적 특징이 조정된 상기 실시간 프리뷰 이미지를 디스플레이하는 동작; 및
상기 복수의 GUI 아이템들 중에 상기 제 2 GUI 아이템에 대응하는 터치에 반응하여 상기 드래그에 따라 상기 시각적 특징이 조정된 이미지를 상기 카메라를 이용하여 촬영하는 동작을 포함하며,
상기 실시간 프리뷰 이미지는 상기 전자 장치의 상기 카메라를 통해 획득되고, 이미지 촬영을 위해서 표시되는 것을 특징으로 하는 방법.
A plurality of applications including a camera application is installed, the method of taking an image of an electronic device comprising a camera
Executing the camera application among the plurality of applications to display a real-time preview image on a touch screen of the electronic device;
Displaying a plurality of GUI items together on the real-time preview image;
Among the plurality of GUI items, a first GUI item is for adjusting a visual characteristic of the real-time preview image, and a second GUI item among the plurality of GUI items is for image capturing, and the real-time preview image While receiving a drag on the first GUI item above, adjusting the visual feature of the real-time preview image corresponding to the first GUI item and adjusting the visual feature according to the drag on the touch screen. Displaying a real time preview image; And
Photographing, using the camera, an image of which the visual feature is adjusted according to the drag in response to a touch corresponding to the second GUI item among the plurality of GUI items,
The real time preview image is obtained by the camera of the electronic device, characterized in that for displaying the image capture.
제 1항에 있어서,
상기 복수의 GUI 중에 상기 제 1 GUI 아이템에 대응하는 시각적 특징은 상기 드래그의 방향에 기반하여 조정되는 것을 특징으로 하는 방법.
The method of claim 1,
And wherein the visual feature corresponding to the first GUI item of the plurality of GUIs is adjusted based on the direction of the drag.
제 1항에 있어서,
상기 시각적 특징은 상기 실시간 프리뷰 이미지의 밝기인 것을 특징으로 하는 방법.
The method of claim 1,
And wherein said visual feature is the brightness of said real-time preview image.
제 1항에 있어서,
상기 복수의 GUI 아이템들은
이미지를 촬영하기 위한 상기 제 2 GUI 아이템에 대해 대칭으로 배치되는 것을 특징으로 하는 방법.
The method of claim 1,
The plurality of GUI items
And symmetrically disposed with respect to the second GUI item for capturing an image.
제 1항에 있어서,
상기 복수의 GUI 아이템들 중 상기 제 2 GUI 아이템에 대응하는 상기 터치는 상기 실시간 프리뷰 이미지 위에 상기 복수의 GUI 아이템들이 표시되는 동안 수신되는 것을 특징으로 하는 방법.
The method of claim 1,
And wherein the touch corresponding to the second GUI item of the plurality of GUI items is received while the plurality of GUI items are displayed on the real-time preview image.
제 1항에 있어서,
상기 복수의 GUI 아이템들은 상기 실시간 프리뷰 이미지 위에 터치를 수신하는 것에 대해 응답하여 상기 실시간 프리뷰 이미지에 함께 표시되는 것을 특징으로 하는 방법.
The method of claim 1,
And wherein the plurality of GUI items are displayed together in the real time preview image in response to receiving a touch over the real time preview image.
카메라 애플리케이션을 포함하는 복수의 애플리케이션들이 설치되고, 카메라를 포함하는 전자 장치에 있어서,
명령들을 저장하는 메모리; 및
상기 저장된 명령들을 실행하는 프로세서를 포함하며,
상기 저장된 명령들은
상기 복수의 애플리케이션들 중에서 상기 카메라 애플리케이션이 실행하여 상기 전자 장치의 터치 스크린 상에 실시간 프리뷰 이미지를 디스플레이하도록 제어하는 동작;
상기 실시간 프리뷰 이미지 위에 복수의 GUI 아이템들을 함께 디스플레이하도록 제어하는 동작;
상기 복수의 GUI 아이템들 중에 제 1 GUI 아이템은 상기 실시간 프리뷰 이미지의 시각적 특징을 조정하기 위한 것이고, 상기 복수의 GUI 아이템들 중에 제 2 GUI 아이템은 이미지 촬영을 위한 것을 특징으로 하며, 상기 실시간 프리뷰 이미지 위에 상기 제 1 GUI 아이템에 대해 드래그를 수신하는 동안, 상기 제 1 GUI 아이템에 대응하는 상기 실시간 프리뷰 이미지의 상기 시각적 특징을 조정하도록 제어하는 동작 및 상기 터치 스크린 상에 상기 드래그에 따라 시각적 특징이 조정된 상기 실시간 프리뷰 이미지를 디스플레이하도록 제어하는 동작; 및
상기 복수의 GUI 아이템들 중에 상기 제 2 GUI 아이템에 대응하는 터치에 반응하여 상기 드래그에 따라 상기 시각적 특징이 조정된 이미지를 상기 카메라를 이용하여 촬영하도록 제어하는 동작을 포함하는 것을 특징으로 하며,
상기 실시간 프리뷰 이미지는 상기 전자 장치의 상기 카메라를 통해 획득되고, 이미지 촬영을 위해서 표시되는 것을 특징으로 하는 전자 장치.
A plurality of applications including a camera application is installed, the electronic device comprising a camera,
A memory for storing instructions; And
A processor for executing the stored instructions,
The stored instructions
Controlling the camera application among the plurality of applications to be executed to display a real-time preview image on the touch screen of the electronic device;
Controlling to display a plurality of GUI items together on the real-time preview image;
Among the plurality of GUI items, a first GUI item is for adjusting a visual characteristic of the real-time preview image, and a second GUI item among the plurality of GUI items is for image capturing, and the real-time preview image While receiving a drag on the first GUI item above, controlling to adjust the visual feature of the real-time preview image corresponding to the first GUI item and adjusting the visual feature according to the drag on the touch screen. Controlling the displayed real-time preview image to be displayed; And
And controlling to capture an image of which the visual feature is adjusted according to the drag using the camera in response to a touch corresponding to the second GUI item among the plurality of GUI items.
And the real-time preview image is obtained through the camera of the electronic device and displayed for image capturing.
제 7항에 있어서,
상기 복수의 GUI 중에 상기 제 1 GUI 아이템에 대응하는 시각적 특징은 상기 드래그의 방향에 기반하여 조정되는 것을 특징으로 하는 전자 장치.
The method of claim 7, wherein
The visual feature corresponding to the first GUI item among the plurality of GUIs is adjusted based on the direction of the drag.
제 7항에 있어서,
상기 시각적 특징은 상기 실시간 프리뷰 이미지의 밝기인 것을 특징으로 하는 전자 장치.
The method of claim 7, wherein
And wherein the visual characteristic is brightness of the real time preview image.
제 7항에 있어서,
상기 복수의 GUI 아이템들은
이미지를 촬영하기 위한 상기 제 2 GUI 아이템에 대해 대칭으로 배치되는 것을 특징으로 하는 전자 장치.
The method of claim 7, wherein
The plurality of GUI items
And symmetrically disposed with respect to the second GUI item for capturing an image.
제 7항에 있어서,
상기 복수의 GUI 아이템들 중 상기 제 2 GUI 아이템에 대응하는 상기 터치는 상기 실시간 프리뷰 이미지 위에 상기 복수의 GUI 아이템들이 표시되는 동안 수신되는 것을 특징으로 하는 전자 장치.
The method of claim 7, wherein
And wherein the touch corresponding to the second GUI item of the plurality of GUI items is received while the plurality of GUI items are displayed on the real-time preview image.
제 7항에 있어서,
상기 복수의 GUI 아이템들은 상기 실시간 프리뷰 이미지 위에 터치를 수신하는 것에 대해 응답하여 상기 실시간 프리뷰 이미지에 함께 표시되는 것을 특징으로 하는 전자 장치.
The method of claim 7, wherein
And the plurality of GUI items are displayed together in the real time preview image in response to receiving a touch on the real time preview image.
전자 장치에 설치된 복수의 애플리케이션들 중에 카메라 애플리케이션을 포함하는 명령들을 저장하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체에 있어서,
상기 명령들은 상기 전자 장치의 프로세서에 의해 실행되며,
상기 명령들은
상기 복수의 애플리케이션들 중에서 상기 카메라 애플리케이션이 실행하여 상기 전자 장치의 터치 스크린 상에 실시간 프리뷰 이미지를 디스플레이하도록 제어하는 동작;
상기 실시간 프리뷰 이미지 위에 복수의 GUI 아이템들을 함께 디스플레이하도록 제어하는 동작;
상기 복수의 GUI 아이템들 중에 제 1 GUI 아이템은 상기 실시간 프리뷰 이미지의 시각적 특징을 조정하기 위한 것이고, 상기 복수의 GUI 아이템들 중에 제 2 GUI 아이템은 이미지 촬영을 위한 것을 특징으로 하며, 상기 실시간 프리뷰 이미지 위에 상기 제 1 GUI 아이템에 대해 드래그를 수신하는 동안, 상기 제 1 GUI 아이템에 대응하는 상기 실시간 프리뷰 이미지의 상기 시각적 특징을 조정하도록 제어하는 동작 및 상기 터치 스크린 상에 상기 드래그에 따라 시각적 특징이 조정된 상기 실시간 프리뷰 이미지를 디스플레이하도록 제어하는 동작; 및
상기 복수의 GUI 아이템들 중에 상기 제 2 GUI 아이템에 대응하는 터치에 반응하여 상기 드래그에 따라 상기 시각적 특징이 조정된 이미지를 상기 카메라를 이용하여 촬영하도록 제어하는 동작을 포함하는 것을 특징으로 하며,
상기 실시간 프리뷰 이미지는 상기 전자 장치의 상기 카메라를 통해 획득되고, 이미지 촬영을 위해서 표시되는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
A computer-readable non-transitory recording medium storing instructions including a camera application among a plurality of applications installed in an electronic device, the method comprising:
The instructions are executed by a processor of the electronic device,
The commands are
Controlling the camera application among the plurality of applications to be executed to display a real-time preview image on the touch screen of the electronic device;
Controlling to display a plurality of GUI items together on the real-time preview image;
Among the plurality of GUI items, a first GUI item is for adjusting a visual characteristic of the real-time preview image, and a second GUI item among the plurality of GUI items is for image capturing, and the real-time preview image While receiving a drag on the first GUI item above, controlling to adjust the visual feature of the real-time preview image corresponding to the first GUI item and adjusting the visual feature according to the drag on the touch screen. Controlling the displayed real-time preview image to be displayed; And
And controlling to capture an image of which the visual feature is adjusted according to the drag using the camera in response to a touch corresponding to the second GUI item among the plurality of GUI items.
And the real-time preview image is acquired by the camera of the electronic device and displayed for image capturing.
제 13항에 있어서,
상기 복수의 GUI 중에 상기 제 1 GUI 아이템에 대응하는 시각적 특징은 상기 드래그의 방향에 기반하여 조정되는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
The method of claim 13,
And wherein the visual feature corresponding to the first GUI item of the plurality of GUIs is adjusted based on the direction of the drag.
제 13항에 있어서,
상기 시각적 특징은 상기 실시간 프리뷰 이미지의 밝기인 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
The method of claim 13,
And wherein said visual characteristic is the brightness of said real-time preview image.
제 13항에 있어서,
상기 복수의 GUI 아이템들은
이미지를 촬영하기 위한 상기 제 2 GUI 아이템에 대해 대칭으로 배치되는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
The method of claim 13,
The plurality of GUI items
And a symmetrical arrangement with respect to said second GUI item for capturing an image.
제 13항에 있어서,
상기 복수의 GUI 아이템들 중 상기 제 2 GUI 아이템에 대응하는 상기 터치는 상기 실시간 프리뷰 이미지 위에 상기 복수의 GUI 아이템들이 표시되는 동안 수신되는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
The method of claim 13,
And wherein the touch corresponding to the second GUI item of the plurality of GUI items is received while the plurality of GUI items are displayed on the real-time preview image.
제 13항에 있어서,
상기 복수의 GUI 아이템들은 상기 실시간 프리뷰 이미지 위에 터치를 수신하는 것에 대해 응답하여 상기 실시간 프리뷰 이미지에 함께 표시되는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
The method of claim 13,
And the plurality of GUI items are displayed together in the real-time preview image in response to receiving a touch over the real-time preview image.
KR1020190111547A 2019-09-09 2019-09-09 Portable terminal having touch screen and method for performing function thereof KR102229818B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190111547A KR102229818B1 (en) 2019-09-09 2019-09-09 Portable terminal having touch screen and method for performing function thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190111547A KR102229818B1 (en) 2019-09-09 2019-09-09 Portable terminal having touch screen and method for performing function thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180047981A Division KR102022036B1 (en) 2018-04-25 2018-04-25 Portable terminal having touch screen and method for performing function thereof

Publications (2)

Publication Number Publication Date
KR20190106972A true KR20190106972A (en) 2019-09-18
KR102229818B1 KR102229818B1 (en) 2021-03-19

Family

ID=68071024

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190111547A KR102229818B1 (en) 2019-09-09 2019-09-09 Portable terminal having touch screen and method for performing function thereof

Country Status (1)

Country Link
KR (1) KR102229818B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200126A (en) * 1993-12-21 1995-08-04 Xerox Corp User interface device, graphic keyboard device and usage method of graphic keyboard
KR20060029353A (en) * 2004-10-01 2006-04-06 삼성테크윈 주식회사 Method for operating digital camera using touch screen
KR20070040107A (en) * 2005-10-11 2007-04-16 삼성전자주식회사 Photographing method of portable terminal using touch-screen
KR20070080917A (en) * 2006-02-09 2007-08-14 삼성전자주식회사 Method and apparatus for setting screen in mobile terminal
KR100774927B1 (en) * 2006-09-27 2007-11-09 엘지전자 주식회사 Mobile communication terminal, menu and item selection method using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200126A (en) * 1993-12-21 1995-08-04 Xerox Corp User interface device, graphic keyboard device and usage method of graphic keyboard
KR20060029353A (en) * 2004-10-01 2006-04-06 삼성테크윈 주식회사 Method for operating digital camera using touch screen
KR20070040107A (en) * 2005-10-11 2007-04-16 삼성전자주식회사 Photographing method of portable terminal using touch-screen
KR20070080917A (en) * 2006-02-09 2007-08-14 삼성전자주식회사 Method and apparatus for setting screen in mobile terminal
KR100774927B1 (en) * 2006-09-27 2007-11-09 엘지전자 주식회사 Mobile communication terminal, menu and item selection method using the same

Also Published As

Publication number Publication date
KR102229818B1 (en) 2021-03-19

Similar Documents

Publication Publication Date Title
US10901590B2 (en) Electronic device having touch screen and function controlling method of the same
JP5946462B2 (en) Mobile terminal and its screen control method
US11816330B2 (en) Display device, display controlling method, and computer program
EP2430766B1 (en) Image processing method for mobile terminal
WO2017124773A1 (en) Gesture recognition method and device
US10503376B2 (en) Method and apparatus for adjusting an image and control guides displayed on a display
KR20130097331A (en) Apparatus and method for selecting object in device with touch screen
KR101485791B1 (en) Portable terminal having touch screen and method for performing function thereof
US9250778B2 (en) Mobile terminal having touch screen and function controlling method of the same
KR101853895B1 (en) Portable terminal having touch screen and method for performing function thereof
KR102022036B1 (en) Portable terminal having touch screen and method for performing function thereof
KR102229818B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101801724B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101801173B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101928837B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101621513B1 (en) Method for controlling action of terminal with pointing device and terminal unit thereof

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant