KR20180048491A - Portable terminal having touch screen and method for performing function thereof - Google Patents

Portable terminal having touch screen and method for performing function thereof Download PDF

Info

Publication number
KR20180048491A
KR20180048491A KR1020180047981A KR20180047981A KR20180048491A KR 20180048491 A KR20180048491 A KR 20180048491A KR 1020180047981 A KR1020180047981 A KR 1020180047981A KR 20180047981 A KR20180047981 A KR 20180047981A KR 20180048491 A KR20180048491 A KR 20180048491A
Authority
KR
South Korea
Prior art keywords
real
gui
preview image
time preview
touch
Prior art date
Application number
KR1020180047981A
Other languages
Korean (ko)
Other versions
KR102022036B1 (en
Inventor
양희철
강태영
전진영
종인원
홍노경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180047981A priority Critical patent/KR102022036B1/en
Publication of KR20180048491A publication Critical patent/KR20180048491A/en
Application granted granted Critical
Publication of KR102022036B1 publication Critical patent/KR102022036B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72522

Abstract

The present invention relates to a portable terminal having a touch screen and a method of controlling a function thereof. The present invention provides the portable terminal which includes a touch screen having a display unit for displaying a function execution screen and a touch panel for detecting a drag generated in the function execution screen when a function is executed, a control unit for displaying at least one control interaction guide for guiding a control command that is executable on the function execution screen when a control interaction guide display request is detected while displaying the function execution screen, wherein, when a drag is detected on the touch screen, the control unit controls to detect a control command corresponding to the drag so as to perform the function corresponding to the control command, and a memory for storing control commands that are executable on the function execution screen and control interaction guides that can be displayed on the function execution screen under control of the control unit, and a method of performing a function thereof. According to the present invention, when a function is executed in the portable terminal, the control interaction guide is displayed on the function execution screen to guide the control command that can be performed on the function execution screen for the user of the portable terminal. Accordingly, the convenience of the user is increased in using the portable terminal.

Description

터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법{PORTABLE TERMINAL HAVING TOUCH SCREEN AND METHOD FOR PERFORMING FUNCTION THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a portable terminal having a touch screen,

본 발명은 휴대 단말기 및 그의 기능 제어 방법에 관한 것으로, 특히 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a portable terminal and a function control method thereof, and more particularly to a portable terminal having a touch screen and a function control method thereof.

일반적으로 휴대 단말기는 다양한 기능들이 부가되어 복합적인 기능을 수행한다. 즉 현재의 휴대 단말기는 통화 기능 이외에 다양한 멀티미디어 기능, 예컨대 카메라, DMB(Digital Multimedia Broadcasting), 블루투스(bluetooth) 통신 기능 등이 탑재되어 다양한 멀티미디어 기능을 수행하고 있다. 이 때 휴대 단말기는 각종 기능들을 제어하기 위한 제어 명령을 입력하기 위한 키보드나 마우스 등의 입력부를 구비하고 있으나, 휴대가 용이하지 않다는 문제점이 있다. 이에 따라 상기 문제점을 극복하기 위하여, 현재의 휴대 단말기는 키보드나 마우스를 대신하여 터치 스크린을 구비하고 있다.In general, a portable terminal performs various functions by adding various functions. That is, the present portable terminal has various multimedia functions such as a camera, a digital multimedia broadcasting (DMB), a bluetooth communication function, and the like in addition to a call function. In this case, the portable terminal has an input unit such as a keyboard or a mouse for inputting a control command for controlling various functions, but it is not easy to carry. Accordingly, in order to overcome the above problem, the present portable terminal has a touch screen instead of a keyboard or a mouse.

그런데, 상기와 같은 휴대 단말기는 터치 스크린을 이용하여 각종 기능을 제어하는 것이 용이하지 않다. 즉 휴대 단말기는 사용자의 직관적인 조작에 따라 기능을 제어한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 상이하게 기능을 제어할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 저하되는 문제점이 있다.However, it is not easy for the portable terminal to control various functions using the touch screen. That is, the portable terminal controls the functions according to the intuitive operation of the user. Thus, the portable terminal can control the functions differently from the intention of the user. Accordingly, there is a problem that the convenience of the user is deteriorated in using the portable terminal.

상기 과제를 해결하기 위한 본 발명에 따른 터치 스크린을 갖는 휴대 단말기의 기능 제어 방법은, 기능 실행 시, 기능 실행 화면을 표시하는 과정과, 제어 인터렉션 가이드 표시 요구 감지 시, 상기 기능 실행 화면에서 수행 가능한 제어 명령을 안내하기 위한 적어도 하나의 제어 인터렉션 가이드를 기능 실행 화면 위에 표시하는 과정과, 드래그 감지 시, 상기 드래그에 대응하는 제어 명령을 검출하여 상기 제어 명령에 해당하는 기능을 수행하는 과정을 포함하는 것을 특징으로 한다. According to another aspect of the present invention, there is provided a method of controlling a function of a portable terminal having a touch screen, the method comprising: displaying a function execution screen when a function is executed; Displaying at least one control interaction guide for guiding a control command on a function execution screen and detecting a control command corresponding to the drag when the drag is detected to perform a function corresponding to the control command .

그리고 상기 과제를 해결하기 위한 본 발명에 따른 휴대 단말기는, 기능 실행 시, 기능 실행 화면을 표시하기 위한 표시부 및 상기 기능 실행 화면에서 발생하는 드래그를 감지하기 위한 터치 패널을 구비하는 터치 스크린과, 상기 기능 실행 화면 표시 중 제어 인터렉션 가이드 표시 요구 감지 시, 상기 기능 실행 화면에서 수행 가능한 제어 명령을 안내하기 위한 적어도 하나의 제어 인터렉션 가이드를 상기 기능 실행 화면 위에 표시하도록 제어하고, 상기 터치 스크린에서 드래그 감지 시, 상기 드래그에 대응하는 상기 제어 명령을 검출하여 상기 제어 명령에 해당하는 기능을 수행하도록 제어하는 제어부와, 상기 제어부의 제어 하에, 상기 기능 실행 화면에서 수행 가능한 제어 명령 및 상기 기능 실행 화면에 표시 가능한 상기 제어 인터렉션 가이드를 저장하는 메모리를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a mobile terminal including a touch screen having a display unit for displaying a function execution screen and a touch panel for detecting a drag generated in the function execution screen, At least one control interaction guide for guiding a control command executable in the function execution screen is displayed on the function execution screen when the control interaction guide display request is detected during the function execution screen display, A control unit that detects the control command corresponding to the drag and performs control to perform a function corresponding to the control command; and a display unit that displays, under the control of the control unit, a control command executable on the function execution screen, The control interaction guide It characterized in that it comprises a memory for storing.

따라서, 상기와 같은 본 발명에 따른 터치 스크린을 갖는 휴대 단말기 및 그의 기능 제어 방법은, 휴대 단말기에서 기능 실행 시, 기능 실행 화면에 제어 인터렉션 가이드를 표시함으로써, 휴대 단말기의 사용자를 위해 기능 실행 화면에서 수행 가능한 제어 명령을 안내한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 일치하게 기능을 제어할 수 있다. 즉 휴대 단말기에서 터치 스크린을 이용하여 각종 기능을 용이하게 제어할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 향상되는 이점이 있다.Therefore, the portable terminal having a touch screen and the function control method according to the present invention as described above can display the control interaction guide on the function execution screen when the function is executed in the mobile terminal, And guides the executable control command. Thus, the portable terminal can control the functions in accordance with the intention of the user. That is, various functions can be easily controlled by using the touch screen in the portable terminal. Accordingly, there is an advantage that the convenience of the user is improved in using the portable terminal.

도 1은 본 발명의 일 실시예에 따른 휴대 단말기의 개략적인 구성을 도시하는 블록도,
도 2는 본 발명의 일 실시예에 따른 기능 실행 절차를 도시하는 순서도,
도 3a 내지 도 3e는 본 발명의 실시예에 따른 기능 실행 절차 수행 시 표시되는 화면의 구성 예를 도시하는 예시도들, 그리고
도 4는 본 발명의 다른 실시예에 따른 기능 실행 절차를 도시하는 순서도이다.
1 is a block diagram showing a schematic configuration of a portable terminal according to an embodiment of the present invention;
2 is a flowchart showing a function execution procedure according to an embodiment of the present invention;
FIGS. 3A to 3E illustrate exemplary configurations of screens displayed when performing a function execution procedure according to an embodiment of the present invention, and FIGS.
4 is a flowchart showing a function execution procedure according to another embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings.

하기 설명에서, "기능 실행 화면"이라는 용어는 휴대 단말기에서 특정 기능 실행 시 표시되는 화면을 의미한다. "제어 명령"이라는 용어는 휴대 단말기에서 특정 기능 수행 시, 기능 실행 화면에서 수행 가능한 하위 기능을 의미한다. 이러한 제어 명령은, 예컨대 카메라 기능 실행 시 수행 가능한 줌인(zoom in) 명령, 줌아웃(zoom out) 명령, 명암(brightness) 조절 명령 등일 수 있다. 또는 제어 명령은, 예컨대 오디오 재생 기능 실행 시, 볼륨(volume) 조절 명령, 다음 순서의 오디오 파일 재생 명령, 이전 순서의 오디오 파일 재생 명령 등일 수 있다. 이 때 제어 명령은 상위 계층 또는 하위 계층의 메뉴로의 이동 명령, 동일 계층 내에서의 이동 명령 등일 수도 있다. 그리고 제어 명령은 휴대 단말기 사용자의 조작에 의해 수행될 수 있다. "제어 인터렉션 가이드(control interaction guide)"이라는 용어는 휴대 단말기에서 기능 실행 화면에서 수행 가능한 제어 명령을 안내하기 위한 이미지를 의미한다. 이 때 기능 실행 화면에 따라, 적어도 하나의 제어 인터렉션 가이드가 존재할 수 있으며, 제어 인터렉션 가이드가 존재하지 않을 수도 있다. 이러한 제어 인터렉션 가이드는 휴대 단말기에서 해당 제어 명령을 수행하기 위하여 휴대 단말기의 사용자가 행해야 하는 조작 방향을 나타내는 방향 이미지를 포함할 수 있다. 그리고 제어 인터렉션 가이드는 해당 제어 명령의 속성을 은유적으로 나타내는 심벌 이미지를 포함할 수 있다. In the following description, the term " function execution screen "means a screen displayed when a specific function is executed in the mobile terminal. The term "control command" means a lower function that can be performed in the function execution screen when performing a specific function in the mobile terminal. Such a control command may be, for example, a zoom in command, a zoom out command, a brightness control command, or the like, which can be performed when a camera function is executed. Alternatively, the control command may be, for example, a volume adjustment command, an audio file playback command in the next order, an audio file playback command in the previous order, or the like, when the audio playback function is executed. In this case, the control command may be a move command to a menu of an upper layer or a lower layer, a movement command in the same layer, or the like. The control command can be performed by an operation of the portable terminal user. The term " control interaction guide "means an image for guiding a control command that can be performed in the function execution screen in the portable terminal. At this time, according to the function execution screen, there may be at least one control interaction guide, and there may be no control interaction guide. The control interaction guide may include a direction image indicating an operation direction of a user of the portable terminal to perform a corresponding control command in the portable terminal. And the control interaction guide may include a symbol image representing the attributes of the control command metaphorically.

그리고 "터치(touch)"라는 용어는 휴대 단말기의 사용자가 터치 스크린 상에 손가락을 접촉하는 행위를 의미한다. "드래그(drag)"라는 용어는 휴대 단말기의 사용자가 터치 스크린 상에 터치, 즉 손가락을 접촉한 상태로 손가락을 이동하는 행위를 의미한다. "드롭(drop)"이라는 용어는 휴대 단말기의 사용자가 터치 스크린 상에 터치, 즉 접촉하고 있는 손가락을 터치 스크린으로부터 떼는 행위를 의미한다. The term "touch" refers to the act of the user of the portable terminal touching the finger on the touch screen. The term " drag " means that a user of the portable terminal moves a finger while touching the finger, i.e., touching the finger on the touch screen. The term "drop " means that a user of the portable terminal touches the touch screen, that is, the user removes the touching finger from the touch screen.

도 1은 본 발명의 일 실시예에 따른 휴대 단말기의 개략적인 구성을 도시하는 블록도이다. 본 실시예에서 휴대 단말기는 휴대 전화기인 경우를 가정하여 설명한다. 1 is a block diagram showing a schematic configuration of a portable terminal according to an embodiment of the present invention. In the present embodiment, it is assumed that the mobile terminal is a mobile phone.

도 1을 참조하면, 휴대 단말기(100)는 무선 통신부(110), 터치 스크린(120), 접근 센서(130), 메모리(140), 제어부(150) 및 오디오 처리부(160)를 포함한다. Referring to FIG. 1, a portable terminal 100 includes a wireless communication unit 110, a touch screen 120, an access sensor 130, a memory 140, a controller 150, and an audio processor 160.

무선 통신부(110)는 휴대 단말기(100)의 무선 통신 기능을 수행한다. 이러한 무선 통신부(110)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 잡음 증폭하고 주파수를 하강변환하는 RF수신기 등을 포함한다.The wireless communication unit 110 performs a wireless communication function of the wireless terminal 100. The wireless communication unit 110 includes an RF transmitter for up-converting and amplifying a frequency of a transmitted signal, and an RF receiver for noise-amplifying a received signal and down-converting the frequency of the received signal.

터치 스크린(120)은 표시부(121)와 터치 패널(123)을 포함한다. 표시부(121)는 휴대 단말기(100)의 상태를 표시한다. 이 때 표시부(121)는 LCD로 구현되며, LCD 제어부, 표시 데이터를 저장할 수 있는 메모리 및 LCD 표시소자 등을 구비한다. 터치 패널(123)은 표시부(121)에 장착되며, 터치 감지부와 신호 변환부를 구비한다. 터치 감지부는 물리량, 예컨대 저항, 정전용량 등의 변화로부터 터치, 드래그, 드롭 등과 같은 터치의 제어 명령을 감지한다. 또한 신호 변환부는 물리량의 변화를 터치 신호로 변환한다. The touch screen 120 includes a display unit 121 and a touch panel 123. The display unit 121 displays the status of the portable terminal 100. At this time, the display unit 121 is implemented as an LCD, and includes an LCD control unit, a memory capable of storing display data, and an LCD display device. The touch panel 123 is mounted on the display unit 121 and includes a touch sensing unit and a signal conversion unit. The touch sensing unit senses touch control commands such as touch, drag, and drop from a change in a physical quantity, such as resistance, capacitance, and the like. The signal conversion unit converts a change in the physical quantity into a touch signal.

접근 센서(130)는 터치 스크린(120) 상으로의 접근을 감지하는 기능을 수행한다. 이러한 접근 센서(130)는, 예컨대 설정된 거리 이내의 온도 변화, 조도 변화 등을 감지할 수 있다. 이 때 적어도 하나의 접근 센서(130)가 표시부(121)의 후면에 설치될 수 있다. 또는 적어도 하나의 접근 센서(130)가 표시부(121)의 4개의 측부들 중 적어도 하나의 측부에 설치될 수 있다. 예를 들면, 단일 접근 센서(130)가 설치되는 경우, 접근 센서(130)는 접근 센서(130) 상으로 이동하는 휴대 단말기(100) 사용자의 손을 감지하도록 배치될 수 있다. The proximity sensor 130 functions to sense access to the touch screen 120. Such an approach sensor 130 can detect, for example, a temperature change within a set distance, a change in illumination, and the like. At this time, at least one proximity sensor 130 may be installed on the rear side of the display unit 121. Or at least one proximity sensor 130 may be installed on at least one side of the four sides of the display 121. For example, when a single proximity sensor 130 is installed, the proximity sensor 130 may be arranged to sense the hand of the user of the portable terminal 100 moving on the proximity sensor 130.

메모리(140)는 프로그램 메모리 및 데이터 메모리들로 구성된다. 프로그램 메모리는 휴대 단말기(100)의 제어 명령 프로그램 및 본 발명의 실시예에 따라 터치 스크린을 이용하여 기능을 실행하기 위한 프로그램을 저장한다. 데이터 메모리는 프로그램 수행 중에 발생되는 데이터를 저장한다. 그리고 메모리(140)는 본 발명의 실시예에 따라 각각의 기능 실행 화면에서 수행 가능한 제어 명령을 저장한다. 또한 메모리(140)는 본 발명의 실시예에 따라 각각의 제어 명령을 안내하기 위한 제어 인터렉션 가이드를 저장한다. The memory 140 is composed of a program memory and data memories. The program memory stores a control command program of the portable terminal 100 and a program for executing a function using the touch screen according to the embodiment of the present invention. The data memory stores data generated during program execution. The memory 140 stores control commands that can be executed on each function execution screen according to an embodiment of the present invention. The memory 140 also stores a control interaction guide for guiding each control command in accordance with an embodiment of the present invention.

제어부(150)는 휴대 단말기(100)의 전반적인 제어 명령을 제어하는 기능을 수행한다. 이러한 제어부(150)는 송신되는 신호를 부호화 및 변조하는 송신기와 수신되는 신호를 복조 및 복호화하는 수신기 등을 구비하는 데이터 처리부를 포함한다. 이러한 데이터 처리부는 모뎀(MODEM) 및 코덱(CODEC)으로 구성될 수 있다. The control unit 150 controls the overall control command of the portable terminal 100. The controller 150 includes a transmitter for encoding and modulating a transmitted signal, and a receiver for demodulating and decoding the received signal. Such a data processing unit may be composed of a modem (MODEM) and a codec (CODEC).

그리고 제어부(150)는 본 발명의 실시예에 따라 기능 실행 시, 기능 실행 화면을 표시하도록 제어한다. 또한 제어부(150)는 본 발명의 실시예에 따라 기능 실행 화면 표시 중 제어 인터렉션 가이드를 표시하기 위한 요구를 감지하면, 기능 실행 화면에 표시 가능한 제어 인터렉션 가이드를 검색하여 표시하도록 제어한다. 이 때 제어부(150)는 접근 센서(130)를 통해 터치 스크린(120) 상으로 접근이 감지되면, 이를 제어 인터렉션 가이드를 표시하기 위한 요구로 간주할 수 있다. 그리고 제어부(150)는 제어 인터렉션 가이드 표시 중 터치 스크린(120)에서 터치가 감지되면, 기능 실행 화면에서 제어 인터렉션 가이드를 제거할 수 있다. 또는 제어부(150)는 제어 인터렉션 가이드 표시 중 가이드 표시 주기가 경과하면, 기능 실행 화면에서 제어 인터렉션 가이드를 제거할 수 있다. 게다가 제어부(150)는 본 발명의 실시예에 따라 터치 스크린(120)에서 드래그가 감지되면, 드래그에 대응하는 제어 명령을 검출하여 제어한다. In addition, the controller 150 controls the display of the function execution screen when the function is executed according to the embodiment of the present invention. When the control unit 150 detects a request for displaying the control interaction guide during the display of the function execution screen according to the embodiment of the present invention, the control unit 150 searches for and displays the control interaction guide that can be displayed on the function execution screen. At this time, if the control unit 150 detects an approach to the touch screen 120 through the access sensor 130, the control unit 150 can regard the access as a request for displaying the control interaction guide. If a touch is detected on the touch screen 120 during the control interaction guide display, the control unit 150 can remove the control interaction guide from the function execution screen. Alternatively, the control unit 150 can remove the control interaction guide from the function execution screen when the guide display period elapses during the display of the control interaction guide. In addition, the controller 150 detects and controls the control command corresponding to the drag when the drag on the touch screen 120 is detected according to the embodiment of the present invention.

오디오 처리부(160)는 데이터 처리부의 오디오 코덱에서 출력되는 수신 오디오 신호를 재생하여 스피커(SPK)를 통해 발생시키거나, 마이크(MIC)로부터 발생되는 송신 오디오 신호를 데이터 처리부의 오디오 코덱에 전송하는 기능을 수행한다. The audio processing unit 160 reproduces the received audio signal output from the audio codec of the data processing unit and generates the audio signal through the speaker SPK or transmits the transmission audio signal generated from the microphone MIC to the audio codec of the data processing unit .

도 2는 본 발명의 일 실시예에 따른 기능 실행 절차를 도시하는 순서도이다. 그리고 도 3a 내지 도 3e는 본 발명의 실시예에 따른 기능 실행 절차 수행 시 표시되는 화면의 구성 예를 도시하는 예시도들이다. 이 때 도 3a 내지 도 3e는 카메라 기능 실행 시 표시될 수 있는 화면의 구성 예를 도시하고 있다. 여기서, 도 3a는 기능 실행 시 표시되는 화면을 도시하고 있고, 도 3b는 접근 감지 시 표시되는 화면을 도시하고 있고, 도 3c는 터치 감지 시 표시되는 화면을 도시하고 있고, 도 3d는 드래그 감지 시 표시되는 화면을 도시하고 있으며, 도 3d는 드롭 감지 시 표시되는 화면을 도시하고 있다. 2 is a flowchart showing a function execution procedure according to an embodiment of the present invention. 3A to 3E are exemplary diagrams showing examples of screens displayed when performing a function execution procedure according to an embodiment of the present invention. 3A to 3E show an exemplary configuration of a screen that can be displayed when a camera function is executed. FIG. 3A shows a screen displayed when a function is executed, FIG. 3B shows a screen displayed when an approach is detected, FIG. 3C shows a screen displayed when a touch is detected, FIG. 3D shows a screen displayed when a drop is detected.

도 2를 참조하면, 본 실시예의 기능 실행 절차는, 제어부(150)가 211단계에서, 도 3a에 도시된 바와 같이, 기능 실행 화면을 표시하는 것으로부터 출발한다. 예를 들면, 카메라 기능 실행 시, 제어부(150)는 기능 실행 화면으로 프리뷰 영상을 표시할 수 있다. 이 후 터치 스크린(120) 상으로 접근이 발생하면, 제어부(150)가 213단계에서 이를 감지하고, 215단계에서 제어 인터렉션 가이드를 검색한다. 즉 제어부(150)는 메모리(140)에 저장된 제어 명령들 및 제어 인터렉션 가이드들을 검색한다. Referring to FIG. 2, the function execution procedure of the present embodiment starts from displaying the function execution screen, as shown in FIG. 3A, in step 211 of FIG. For example, when executing the camera function, the control unit 150 can display the preview image on the function execution screen. Thereafter, when an access to the touch screen 120 occurs, the control unit 150 detects this in step 213, and searches for a control interaction guide in step 215. That is, the control unit 150 searches for the control commands and the control interaction guides stored in the memory 140.

다음으로, 제어부(150)는 217단계에서 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 즉 제어부(150)는 기능 실행 화면에서 수행 가능한 제어 명령과 그에 대응하는 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 이 때 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는 것으로 판단되면, 제어부(150)는 219단계에서, 도 3b에 도시된 바와 같이, 기능 실행 화면에 제어 인터렉션 가이드를 표시한다. 예를 들면, 제어부(150)는 프리뷰 영상에서 수행 가능한 제어 명령으로 줌인 제어 명령, 줌아웃 제어 명령, 명도를 높이는 제어 명령 및 명도를 낮추는 제어 명령이 존재함을 검출할 수 있다. 그리고 제어부(150)는 검출된 제어 명령 각각에 대응하는 제어 인터렉션 가이드를 검출하여, 프리뷰 영상에 표시할 수 있다.Next, in step 217, the control unit 150 determines whether there is a control interaction guide stored for display on the function execution screen. That is, the control unit 150 determines whether there is a control command that can be executed on the function execution screen and a corresponding control interaction guide exists. At this time, if it is determined that there is a control interaction guide stored for display on the function execution screen, the control unit 150 displays the control interaction guide on the function execution screen as shown in FIG. 3B in step 219. For example, the control unit 150 can detect that there is a zoom-in control command, a zoom-out control command, a control command for increasing the brightness, and a control command for lowering the brightness by a control command that can be executed in the preview image. The control unit 150 can detect the control interaction guide corresponding to each of the detected control commands and display the control interaction guide on the preview image.

이어서, 터치 스크린(120)에서 터치가 발생하면, 제어부(150)가 221단계에서 이를 감지하고, 223단계에서 도 3c에 도시된 바와 같이, 기능 실행 화면을 표시한다. 즉 제어부(150)는 기능 실행 화면에서 제어 인터렉션 가이드를 제거한다. If a touch occurs on the touch screen 120, the controller 150 detects the touch in step 221, and displays a function execution screen as shown in FIG. 3C in step 223. FIG. That is, the control unit 150 removes the control interaction guide from the function execution screen.

계속해서, 터치 스크린(120)에서 터치의 드래그가 발생하면, 제어부(150)가 225단계에서 이를 감지하고, 227단계에서 드래그 변동값을 산출한다. 이 때 제어부(150)는 드래그 경로에서 터치 좌표의 변화로부터 드래그 변동값을 산출한다. 즉 제어부(150)는 드래그 경로의 길이, 드래그 방향, 드래드 속도 등을 산출한다. 그리고 제어부(150)는 229단계에서, 도 3d에 도시된 바와 같이, 제어 명령을 수행한다. 즉 제어부(150)는 드래그 변동값에 대응하여 기능 실행 화면에서 수행 가능한 제어 명령을 검출한다. 또한 제어부(150)는 검출된 제어 명령을 수행한다. 예를 들면, 산출된 드래그 변동값에서 드래그 경로의 길이가 x픽셀이고, 드래그 방향이 상방향이면, 제어부(150)는 프리뷰 화면을 y배 확대할 수 있다(단, y=mx, m은 상수). 이 때 메모리(140)는 드래그 변동값에 따라 수행 가능한 제어 명령의 수행 정도를 미리 매핑시켜 저장할 수 있다. 게다가 도시되지는 않았으나, 제어부(150)는 기능 실행 화면에 제어에 따른 변화값을 표시할 수 있다. Then, when dragging of the touch occurs on the touch screen 120, the controller 150 detects this in step 225 and calculates the drag variation value in step 227. At this time, the control unit 150 calculates the drag variation value from the change of the touch coordinates in the drag path. That is, the control unit 150 calculates the length of the drag path, the drag direction, the drag speed, and the like. In step 229, the controller 150 executes a control command as shown in FIG. 3D. That is, the control unit 150 detects a control command that can be executed in the function execution screen corresponding to the drag change value. The control unit 150 also executes the detected control command. For example, when the length of the drag path is x pixels and the drag direction is upward in the calculated drag variation value, the control unit 150 can enlarge the preview screen by y times (where y = mx, m is a constant ). In this case, the memory 140 may previously map the degree of performance of the control command that can be performed according to the drag variation value. Further, although not shown, the control unit 150 may display a change value according to the control on the function execution screen.

마지막으로, 터치 스크린(120)에서 드래그의 드롭이 발생하면, 제어부(150)가 231단계에서 이를 감지하고, 도 3e에 도시된 바와 같이, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 드래그의 드롭이 감지되지 않으면, 제어부(150)는 드래그의 드롭이 감지될 때까지 225단계 내지 231단계를 반복하여 수행할 수 있다. Finally, when a drag drop occurs on the touch screen 120, the controller 150 detects this in step 231 and terminates the function execution procedure as shown in FIG. 3E. In this case, if the drop of the drag is not sensed through the touch screen 120, the controller 150 may repeat steps 225 through 231 until the drop of the drag is sensed.

한편, 225단계에서 터치의 드래그가 감지되지 않고, 터치 스크린(120)에서 터치의 드롭이 발생하면, 제어부(150)가 231단계에서 이를 감지하고, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 터치의 드롭이 감지되지 않으면, 제어부(150)는 터치의 드롭이 감지될 때까지 225단계 내지 231단계를 반복하여 수행할 수 있다. On the other hand, if the drag of the touch is not detected in step 225 and the drop of the touch occurs on the touch screen 120, the controller 150 detects the drag in step 231 and terminates the function execution procedure. If a drop of the touch is not sensed through the touch screen 120, the controller 150 may repeat steps 225 through 231 until the drop of the touch is sensed.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린 상으로 접근이 감지되면, 제어 인터렉션 가이드를 검색하는 예를 개시하였으나, 이에 한정하는 것은 아니다. 즉 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린 상으로의 접근이 감지되는 위치에 따라 상이한 제어 인터렉션 가이드를 표시함으로써, 본 발명을 구현할 수 있다. 뿐만 아니라, 휴대 단말기에서 기능 실행 화면 표시 중 제어 인터렉션 가이드를 표시하기 위한 요구를 감지함으로써, 본 발명을 구현할 수도 있다. 예를 들면, 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린 상으로 터치 및 터치의 드롭이 감지되면, 이를 제어 인터렉션 가이드를 표시하기 위한 요구로 간주할 수 있다. 또는 휴대 단말기에서 터치 및 터치의 드롭 이외에 특정 문자를 드로잉하기 위한 드래그 및 드래그의 드롭이 감지되면, 이를 제어 인터렉션 가이드를 표시하기 위한 요구로 간주할 수 있다. Meanwhile, in the present embodiment, an example in which the control interaction guide is searched when access is detected on the touch screen during the display of the function execution screen in the portable terminal is described, but the present invention is not limited thereto. That is, the present invention can be implemented by displaying a different control interaction guide depending on the position where the access from the function execution screen displayed on the portable terminal is detected on the touch screen. In addition, the present invention may be implemented by sensing a request to display a control interaction guide during display of a function execution screen in the portable terminal. For example, if a touch and a drop of a touch are detected on the touch screen during the display of the function execution screen on the portable terminal, it can be regarded as a request for displaying the control interaction guide. Or a drop of a drag and drag for drawing a specific character other than a drop of a touch and a touch in the portable terminal is detected, this can be regarded as a request to display the control interaction guide.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 터치 스크린에 터치가 감지되면, 제어 인터렉션 가이드를 제거하는 예를 개시하였으나, 이에 한정하는 것을 아니다. 즉 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 제어 인터렉션 가이드를 제거하기 위한 요구를 감지함으로써, 본 발명을 구현할 수 있다. 예를 들면, 휴대 단말기에서 메모리에 각각의 제어 인터렉션 가이드를 표시하기 위한 가이드 표시 주기를 저장할 수 있다. 그리고 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 가이드 표시 주기가 경과하면, 이를 제어 인터렉션 가이드를 제거하기 위한 요구로 간주할 수 있다. On the other hand, in the present embodiment, an example in which the control interaction guide is removed when a touch is detected on the touch screen during the display of the control interaction guide on the function execution screen in the portable terminal is described, but the present invention is not limited thereto. That is, the present invention can be implemented by detecting a request for removing the control interaction guide from the control interaction guide display on the function execution screen in the portable terminal. For example, the portable terminal may store a guide display period for displaying each control interaction guide in the memory. When the guide display period elapses during the display of the control interaction guide on the function execution screen in the portable terminal, it can be regarded as a request to remove the control interaction guide.

본 발명에 따르면, 휴대 단말기에서 기능 실행 시, 기능 실행 화면에 제어 인터렉션 가이드를 표시함으로써, 휴대 단말기의 사용자를 위해 기능 실행 화면에서 수행 가능한 제어 명령을 안내한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 일치하게 기능을 실행할 수 있다. 즉 휴대 단말기에서 터치 스크린을 이용하여 각종 기능을 용이하게 실행할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 향상되는 이점이 있다. According to the present invention, when a function is executed in the mobile terminal, the control interaction guide is displayed on the function execution screen to guide the control command that can be performed on the function execution screen for the user of the mobile terminal. Thereby, the portable terminal can perform the function in accordance with the intention of the user. That is, various functions can be easily performed using the touch screen in the portable terminal. Accordingly, there is an advantage that the convenience of the user is improved in using the portable terminal.

도 4는 본 발명의 다른 실시예에 따른 기능 실행 절차를 도시하는 순서도이다. 여기서, 본 실시예를 수행하는 휴대 단말기는 전술한 실시예의 휴대 단말기와 기본 구성이 유사하므로 상세한 설명을 생략한다. 다만, 본 실시예의 휴대 단말기는 접근 센서를 구비하지 않더라도, 본 발명의 구현이 가능하다. 4 is a flowchart showing a function execution procedure according to another embodiment of the present invention. Since the basic structure of the portable terminal according to the present embodiment is similar to that of the portable terminal of the above-described embodiment, a detailed description will be omitted. However, the portable terminal of the present embodiment can implement the present invention even if it does not include an approach sensor.

도 4를 참조하면, 본 실시예의 기능 실행 절차는, 제어부(150)가 411단계에서 기능 실행 화면을 표시하는 것으로부터 출발한다. 이 후 터치 스크린(120)에서 터치가 발생하면, 제어부(150)가 413단계에서 이를 감지하고, 415단계에서 제어 인터렉션 가이드를 검색한다. 즉 제어부(150)는 메모리(140)에 저장된 제어 명령들 및 제어 인터렉션 가이드들을 검색한다. Referring to FIG. 4, the function execution procedure of the present embodiment starts from the fact that the controller 150 displays the function execution screen in step 411. If a touch occurs on the touch screen 120, the controller 150 detects the touch in step 413 and searches for the control interaction guide in step 415. [ That is, the control unit 150 searches for the control commands and the control interaction guides stored in the memory 140.

이어서, 제어부(150)는 417단계에서 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 즉 제어부(150)는 기능 실행 화면에서 수행 가능한 제어 명령과 그에 대응하는 제어 인터렉션 가이드가 존재하는지의 여부를 판단한다. 이 때 기능 실행 화면에 표시하도록 저장된 제어 인터렉션 가이드가 존재하는 것으로 판단되면, 제어부(150)는 419단계에서 기능 실행 화면에 제어 인터렉션 가이드를 표시한다. In step 417, the control unit 150 determines whether there is a control interaction guide stored for display on the function execution screen. That is, the control unit 150 determines whether there is a control command that can be executed on the function execution screen and a corresponding control interaction guide exists. At this time, if it is determined that the control interaction guide stored to be displayed on the function execution screen exists, the controller 150 displays the control interaction guide on the function execution screen in step 419.

계속해서, 터치 스크린(120)에서 터치의 드래그가 발생하면, 제어부(150)가 421단계에서 이를 감지하고, 423단계에서 기능 실행 화면을 표시한다. 즉 제어부(150)는 기능 실행 화면에서 제어 인터렉션 가이드를 제거한다. 그리고 제어부(150)는 425단계에서 드래그 변동값을 산출한다. 이 때 제어부(150)는 드래그 경로에서 터치 좌표의 변화로부터 드래그 변동값을 산출한다. 즉 제어부(150)는 드래그 경로의 길이, 드래그 방향, 드래드 속도 등을 산출한다. 또한 제어부(150)는 427단계에서 제어 명령을 수행한다. 즉 제어부(150)는 드래그 변동값에 대응하여 기능 실행 화면에서 수행 가능한 제어 명령을 검출한다. 그리고 제어부(150)는 검출된 제어 명령을 기능 실행 화면에서 수행한다. 이 때 메모리(140)는 드래그 변동값에 따라 수행 가능한 제어 명령의 정도를 미리 매핑시켜 저장할 수 있다. 게다가 도시되지는 않았으나, 제어부(150)는 기능 실행 화면에 제어 명령 수행에 따른 변화값을 표시할 수 있다. If a drag of the touch occurs on the touch screen 120, the controller 150 detects the drag in step 421 and displays the function execution screen in step 423. FIG. That is, the control unit 150 removes the control interaction guide from the function execution screen. In step 425, the controller 150 calculates a drag variation value. At this time, the control unit 150 calculates the drag variation value from the change of the touch coordinates in the drag path. That is, the control unit 150 calculates the length of the drag path, the drag direction, the drag speed, and the like. In step 427, the controller 150 executes a control command. That is, the control unit 150 detects a control command that can be executed in the function execution screen corresponding to the drag change value. Then, the control unit 150 executes the detected control command on the function execution screen. At this time, the memory 140 may previously map the degree of control command that can be executed according to the drag variation value. In addition, although not shown, the controller 150 may display a change value according to the execution of the control command on the function execution screen.

마지막으로, 터치 스크린(120)에서 드래그의 드롭이 발생하면, 제어부(150)가 429단계에서 이를 감지하고, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 드래그의 드롭이 감지되지 않으면, 제어부(150)는 드래그의 드롭이 감지될 때까지 421단계 내지 429단계를 반복하여 수행할 수 있다. Finally, when a drag drop occurs on the touch screen 120, the controller 150 detects this in step 429 and ends the function execution procedure. In this case, if the drop of the drag is not sensed through the touch screen 120, the controller 150 may repeat steps 421 to 429 until the drop of the drag is sensed.

한편, 421단계에서 터치의 드래그가 감지되지 않고, 터치 스크린(120)에서 터치의 드롭이 발생하면, 제어부(150)가 429단계에서 이를 감지하고, 기능 실행 절차를 종료한다. 이 때 터치 스크린(120)을 통해 터치의 드롭이 감지되지 않으면, 제어부(150)는 터치의 드롭이 감지될 때까지 421단계 내지 429단계를 반복하여 수행할 수 있다. On the other hand, if the drag of the touch is not detected in step 421 and a drop of the touch occurs on the touch screen 120, the controller 150 detects the drag in step 429 and ends the function execution procedure. In this case, if the drop of the touch is not detected through the touch screen 120, the controller 150 may repeat steps 421 to 429 until a drop of the touch is detected.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린에서 터치가 감지되면, 제어 인터렉션 가이드를 검색하는 예를 개시하였으나, 이에 한정하는 것은 아니다. 즉 휴대 단말기에서 기능 실행 화면 표시 중 터치 스크린에서 터치가 감지되는 위치에 따라 상이한 제어 인터렉션 가이드를 표시함으로써, 본 발명을 구현할 수 있다. Meanwhile, in the present exemplary embodiment, when a touch is detected on the touch screen during the display of the function execution screen on the portable terminal, the control interaction guide is searched. However, the present invention is not limited thereto. That is, the present invention can be implemented by displaying different control interaction guides according to the position where the touch is detected on the touch screen during the display of the function execution screen on the portable terminal.

한편, 본 실시예에서는 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 터치 스크린에 드래그가 감지되면, 제어 인터렉션 가이드를 제거하는 예를 개시하였으나, 이에 한정하는 것을 아니다. 즉 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 제어 인터렉션 가이드를 제거하기 위한 요구를 감지함으로써, 본 발명을 구현할 수 있다. 예를 들면, 휴대 단말기에서 메모리에 각각의 제어 인터렉션 가이드를 표시하기 위한 가이드 표시 주기를 저장할 수 있다. 그리고 휴대 단말기에서 기능 실행 화면에 제어 인터렉션 가이드 표시 중 가이드 표시 주기가 경과하면, 이를 제어 인터렉션 가이드를 제거하기 위한 요구로 간주할 수 있다. On the other hand, in the present embodiment, when dragging is detected on the touch screen during the display of the control interaction guide on the function execution screen in the portable terminal, the control interaction guide is removed. However, the present invention is not limited thereto. That is, the present invention can be implemented by detecting a request for removing the control interaction guide from the control interaction guide display on the function execution screen in the portable terminal. For example, the portable terminal may store a guide display period for displaying each control interaction guide in the memory. When the guide display period elapses during the display of the control interaction guide on the function execution screen in the portable terminal, it can be regarded as a request to remove the control interaction guide.

본 발명에 따르면, 휴대 단말기에서 기능 실행 시, 기능 실행 화면에 제어 인터렉션 가이드를 표시함으로써, 휴대 단말기의 사용자를 위해 기능 실행 화면에서 수행 가능한 제어 명령을 안내한다. 이로 인하여, 휴대 단말기는 사용자의 의도와 일치하게 기능을 실행할 수 있다. 즉 휴대 단말기에서 터치 스크린을 이용하여 각종 기능을 용이하게 실행할 수 있다. 이에 따라, 휴대 단말기를 사용하는데 있어서, 사용자의 편의성이 향상되는 이점이 있다.According to the present invention, when a function is executed in the mobile terminal, the control interaction guide is displayed on the function execution screen to guide the control command that can be performed on the function execution screen for the user of the mobile terminal. Thereby, the portable terminal can perform the function in accordance with the intention of the user. That is, various functions can be easily performed using the touch screen in the portable terminal. Accordingly, there is an advantage that the convenience of the user is improved in using the portable terminal.

Claims (18)

카메라 애플리케이션을 포함하는 복수의 애플리케이션들이 설치되고, 카메라를 포함하는 전자 장치의 이미지 촬영 방법에 있어서,
상기 복수의 애플리케이션들 중에서 상기 카메라 애플리케이션이 실행하여 상기 전자 장치의 터치 스크린 상에 실시간 프리뷰 이미지를 디스플레이하는 동작;
상기 실시간 프리뷰 이미지 위에 복수의 GUI 아이템들을 함께 디스플레이하는 동작;
상기 복수의 GUI 아이템들 중에 제 1 GUI 아이템은 상기 실시간 프리뷰 이미지의 시각적 특징을 조정하기 위한 것이고, 상기 복수의 GUI 아이템들 중에 제 2 GUI 아이템은 이미지 촬영을 위한 것을 특징으로 하며, 상기 실시간 프리뷰 이미지 위에 상기 제 1 GUI 아이템에 대해 드래그를 수신하는 동안, 상기 제 1 GUI 아이템에 대응하는 상기 실시간 프리뷰 이미지의 상기 시각적 특징을 조정하는 동작 및 상기 터치 스크린 상에 상기 드래그에 따라 시각적 특징이 조정된 상기 실시간 프리뷰 이미지를 표시하는 동작; 및
상기 복수의 GUI 아이템들 중에 상기 제 2 GUI 아이템에 대응하는 터치에 반응하여 상기 드래그에 따라 상기 시각적 특징이 조정된 이미지를 상기 카메라를 이용하여 촬영하는 동작을 포함하며,
상기 실시간 프리뷰 이미지는 상기 전자 장치의 상기 카메라를 통해 획득되고, 이미지 촬영을 위해서 표시되는 것을 특징으로 하는 방법.
A method of image capturing of an electronic device including a camera, wherein a plurality of applications including a camera application are installed,
Executing a camera application among the plurality of applications to display a real-time preview image on a touch screen of the electronic device;
Displaying a plurality of GUI items together on the real-time preview image;
Wherein a first GUI item among the plurality of GUI items is for adjusting a visual characteristic of the real time preview image and a second one of the plurality of GUI items is for image taking, Adjusting the visual feature of the real-time preview image corresponding to the first GUI item while receiving a drag on the first GUI item on the touch screen, and adjusting the visual feature on the touch screen Displaying a real-time preview image; And
Taking an image of said plurality of GUI items in response to a touch corresponding to said second GUI item and using said camera to adjust said visual characteristic according to said drag,
Wherein the real-time preview image is obtained via the camera of the electronic device and is displayed for image capture.
제 1항에 있어서,
상기 복수의 GUI 중에 상기 제 1 GUI 아이템에 대응하는 시각적 특징은 상기 드래그의 방향에 기반하여 조정되는 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein a visual feature corresponding to the first GUI item in the plurality of GUIs is adjusted based on the direction of the drag.
제 1항에 있어서,
상기 시각적 특징은 상기 실시간 프리뷰 이미지의 밝기인 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the visual feature is brightness of the real-time preview image.
제 1항에 있어서,
상기 복수의 GUI 아이템들은
이미지를 촬영하기 위한 상기 제 2 GUI 아이템에 대해 대칭으로 배치되는 것을 특징으로 하는 방법.
The method according to claim 1,
The plurality of GUI items
Wherein the first GUI item is positioned symmetrically with respect to the second GUI item for capturing an image.
제 1항에 있어서,
상기 복수의 GUI 아이템들 중 상기 제 2 GUI 아이템에 대응하는 상기 터치는 상기 실시간 프리뷰 이미지 위에 상기 복수의 GUI 아이템들이 표시되는 동안 수신되는 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the touch corresponding to the second GUI item among the plurality of GUI items is received while the plurality of GUI items are displayed on the real time preview image.
제 1항에 있어서,
상기 복수의 GUI 아이템들은 상기 실시간 프리뷰 이미지 위에 터치를 수신하는 것에 대해 응답하여 상기 실시간 프리뷰 이미지에 함께 표시되는 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the plurality of GUI items are displayed together in the real-time preview image in response to receiving a touch on the real-time preview image.
카메라 애플리케이션을 포함하는 복수의 애플리케이션들이 설치되고, 카메라를 포함하는 전자 장치에 있어서,
명령들을 저장하는 메모리; 및
상기 저장된 명령들을 실행하는 프로세서를 포함하며,
상기 저장된 명령들은
상기 복수의 애플리케이션들 중에서 상기 카메라 애플리케이션이 실행하여 상기 전자 장치의 터치 스크린 상에 실시간 프리뷰 이미지를 디스플레이하도록 제어하는 동작;
상기 실시간 프리뷰 이미지 위에 복수의 GUI 아이템들을 함께 디스플레이하도록 제어하는 동작;
상기 복수의 GUI 아이템들 중에 제 1 GUI 아이템은 상기 실시간 프리뷰 이미지의 시각적 특징을 조정하기 위한 것이고, 상기 복수의 GUI 아이템들 중에 제 2 GUI 아이템은 이미지 촬영을 위한 것을 특징으로 하며, 상기 실시간 프리뷰 이미지 위에 상기 제 1 GUI 아이템에 대해 드래그를 수신하는 동안, 상기 제 1 GUI 아이템에 대응하는 상기 실시간 프리뷰 이미지의 상기 시각적 특징을 조정하도록 제어하는 동작 및 상기 터치 스크린 상에 상기 드래그에 따라 시각적 특징이 조정된 상기 실시간 프리뷰 이미지를 표시하도록 제어하는 동작; 및
상기 복수의 GUI 아이템들 중에 상기 제 2 GUI 아이템에 대응하는 터치에 반응하여 상기 드래그에 따라 상기 시각적 특징이 조정된 이미지를 상기 카메라를 이용하여 촬영하도록 제어하는 동작을 포함하는 것을 특징으로 하며,
상기 실시간 프리뷰 이미지는 상기 전자 장치의 상기 카메라를 통해 획득되고, 이미지 촬영을 위해서 표시되는 것을 특징으로 하는 전자 장치.
A plurality of applications including a camera application are installed, and in an electronic device including a camera,
A memory for storing instructions; And
And a processor for executing the stored instructions,
The stored instructions
Controlling, by the camera application, among the plurality of applications to display a real-time preview image on a touch screen of the electronic device;
Controlling to display a plurality of GUI items together on the real-time preview image;
Wherein a first GUI item among the plurality of GUI items is for adjusting a visual characteristic of the real time preview image and a second one of the plurality of GUI items is for image taking, Controlling to adjust the visual feature of the real-time preview image corresponding to the first GUI item while receiving a drag on the first GUI item on the touch screen, and controlling the visual feature on the touch screen To display the real-time preview image; And
And controlling to shoot the image with the visual characteristic adjusted according to the drag in response to a touch corresponding to the second GUI item among the plurality of GUI items using the camera,
Wherein the real-time preview image is acquired via the camera of the electronic device and is displayed for image capture.
제 7항에 있어서,
상기 복수의 GUI 중에 상기 제 1 GUI 아이템에 대응하는 시각적 특징은 상기 드래그의 방향에 기반하여 조정되는 것을 특징으로 하는 전자 장치.
8. The method of claim 7,
Wherein a visual feature corresponding to the first GUI item in the plurality of GUIs is adjusted based on the direction of the drag.
제 7항에 있어서,
상기 시각적 특징은 상기 실시간 프리뷰 이미지의 밝기인 것을 특징으로 하는 전자 장치.
8. The method of claim 7,
Wherein the visual feature is brightness of the real-time preview image.
제 7항에 있어서,
상기 복수의 GUI 아이템들은
이미지를 촬영하기 위한 상기 제 2 GUI 아이템에 대해 대칭으로 배치되는 것을 특징으로 하는 전자 장치.
8. The method of claim 7,
The plurality of GUI items
Wherein the second GUI item is arranged symmetrically with respect to the second GUI item for capturing an image.
제 7항에 있어서,
상기 복수의 GUI 아이템들 중 상기 제 2 GUI 아이템에 대응하는 상기 터치는 상기 실시간 프리뷰 이미지 위에 상기 복수의 GUI 아이템들이 표시되는 동안 수신되는 것을 특징으로 하는 전자 장치.
8. The method of claim 7,
Wherein the touch corresponding to the second GUI item among the plurality of GUI items is received while the plurality of GUI items are displayed on the real time preview image.
제 7항에 있어서,
상기 복수의 GUI 아이템들은 상기 실시간 프리뷰 이미지 위에 터치를 수신하는 것에 대해 응답하여 상기 실시간 프리뷰 이미지에 함께 표시되는 것을 특징으로 하는 전자 장치.
8. The method of claim 7,
Wherein the plurality of GUI items are displayed together in the real-time preview image in response to receiving a touch on the real-time preview image.
전자 장치에 설치된 복수의 애플리케이션들 중에 카메라 애플리케이션을 포함하는 명령들을 저장하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체에 있어서,
상기 명령들은 상기 전자 장치의 프로세서에 의해 실행되며,
상기 명령들은
상기 복수의 애플리케이션들 중에서 상기 카메라 애플리케이션이 실행하여 상기 전자 장치의 터치 스크린 상에 실시간 프리뷰 이미지를 디스플레이하도록 제어하는 동작;
상기 실시간 프리뷰 이미지 위에 복수의 GUI 아이템들을 함께 디스플레이하도록 제어하는 동작;
상기 복수의 GUI 아이템들 중에 제 1 GUI 아이템은 상기 실시간 프리뷰 이미지의 시각적 특징을 조정하기 위한 것이고, 상기 복수의 GUI 아이템들 중에 제 2 GUI 아이템은 이미지 촬영을 위한 것을 특징으로 하며, 상기 실시간 프리뷰 이미지 위에 상기 제 1 GUI 아이템에 대해 드래그를 수신하는 동안, 상기 제 1 GUI 아이템에 대응하는 상기 실시간 프리뷰 이미지의 상기 시각적 특징을 조정하도록 제어하는 동작 및 상기 터치 스크린 상에 상기 드래그에 따라 시각적 특징이 조정된 상기 실시간 프리뷰 이미지를 표시하도록 제어하는 동작; 및
상기 복수의 GUI 아이템들 중에 상기 제 2 GUI 아이템에 대응하는 터치에 반응하여 상기 드래그에 따라 상기 시각적 특징이 조정된 이미지를 상기 카메라를 이용하여 촬영하도록 제어하는 동작을 포함하는 것을 특징으로 하며,
상기 실시간 프리뷰 이미지는 상기 전자 장치의 상기 카메라를 통해 획득되고, 이미지 촬영을 위해서 표시되는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
A computer-readable non-transitory medium for storing instructions comprising a camera application among a plurality of applications installed in an electronic device,
Wherein the instructions are executed by a processor of the electronic device,
The instructions
Controlling, by the camera application, among the plurality of applications to display a real-time preview image on a touch screen of the electronic device;
Controlling to display a plurality of GUI items together on the real-time preview image;
Wherein a first GUI item among the plurality of GUI items is for adjusting a visual characteristic of the real time preview image and a second one of the plurality of GUI items is for image taking, Controlling to adjust the visual feature of the real-time preview image corresponding to the first GUI item while receiving a drag on the first GUI item on the touch screen, and controlling the visual feature on the touch screen To display the real-time preview image; And
And controlling to shoot the image with the visual characteristic adjusted according to the drag in response to a touch corresponding to the second GUI item among the plurality of GUI items using the camera,
Wherein the real-time preview image is obtained via the camera of the electronic device and is displayed for image capture.
제 13항에 있어서,
상기 복수의 GUI 중에 상기 제 1 GUI 아이템에 대응하는 시각적 특징은 상기 드래그의 방향에 기반하여 조정되는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
14. The method of claim 13,
Wherein a visual feature corresponding to the first GUI item in the plurality of GUIs is adjusted based on a direction of the drag.
제 13항에 있어서,
상기 시각적 특징은 상기 실시간 프리뷰 이미지의 밝기인 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
14. The method of claim 13,
Wherein the visual feature is a brightness of the real-time preview image.
제 13항에 있어서,
상기 복수의 GUI 아이템들은
이미지를 촬영하기 위한 상기 제 2 GUI 아이템에 대해 대칭으로 배치되는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
14. The method of claim 13,
The plurality of GUI items
And wherein the first GUI item is positioned symmetrically with respect to the second GUI item for capturing an image.
제 13항에 있어서,
상기 복수의 GUI 아이템들 중 상기 제 2 GUI 아이템에 대응하는 상기 터치는 상기 실시간 프리뷰 이미지 위에 상기 복수의 GUI 아이템들이 표시되는 동안 수신되는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
14. The method of claim 13,
Wherein the touch corresponding to the second one of the plurality of GUI items is received while the plurality of GUI items are displayed on the real time preview image.
제 13항에 있어서,
상기 복수의 GUI 아이템들은 상기 실시간 프리뷰 이미지 위에 터치를 수신하는 것에 대해 응답하여 상기 실시간 프리뷰 이미지에 함께 표시되는 것을 특징으로 하는 컴퓨터로 읽을 수 있는 비-일시적 기록매체.
14. The method of claim 13,
Wherein the plurality of GUI items are displayed together in the real-time preview image in response to receiving a touch on the real-time preview image.
KR1020180047981A 2018-04-25 2018-04-25 Portable terminal having touch screen and method for performing function thereof KR102022036B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180047981A KR102022036B1 (en) 2018-04-25 2018-04-25 Portable terminal having touch screen and method for performing function thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180047981A KR102022036B1 (en) 2018-04-25 2018-04-25 Portable terminal having touch screen and method for performing function thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170155446A Division KR101853895B1 (en) 2017-11-21 2017-11-21 Portable terminal having touch screen and method for performing function thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190111547A Division KR102229818B1 (en) 2019-09-09 2019-09-09 Portable terminal having touch screen and method for performing function thereof

Publications (2)

Publication Number Publication Date
KR20180048491A true KR20180048491A (en) 2018-05-10
KR102022036B1 KR102022036B1 (en) 2019-09-17

Family

ID=62185247

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180047981A KR102022036B1 (en) 2018-04-25 2018-04-25 Portable terminal having touch screen and method for performing function thereof

Country Status (1)

Country Link
KR (1) KR102022036B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200126A (en) * 1993-12-21 1995-08-04 Xerox Corp User interface device, graphic keyboard device and usage method of graphic keyboard
KR20060029353A (en) * 2004-10-01 2006-04-06 삼성테크윈 주식회사 Method for operating digital camera using touch screen
KR20070040107A (en) * 2005-10-11 2007-04-16 삼성전자주식회사 Photographing method of portable terminal using touch-screen
KR20070080917A (en) * 2006-02-09 2007-08-14 삼성전자주식회사 Method and apparatus for setting screen in mobile terminal
KR100774927B1 (en) * 2006-09-27 2007-11-09 엘지전자 주식회사 Mobile communication terminal, menu and item selection method using the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200126A (en) * 1993-12-21 1995-08-04 Xerox Corp User interface device, graphic keyboard device and usage method of graphic keyboard
KR20060029353A (en) * 2004-10-01 2006-04-06 삼성테크윈 주식회사 Method for operating digital camera using touch screen
KR20070040107A (en) * 2005-10-11 2007-04-16 삼성전자주식회사 Photographing method of portable terminal using touch-screen
KR20070080917A (en) * 2006-02-09 2007-08-14 삼성전자주식회사 Method and apparatus for setting screen in mobile terminal
KR100774927B1 (en) * 2006-09-27 2007-11-09 엘지전자 주식회사 Mobile communication terminal, menu and item selection method using the same

Also Published As

Publication number Publication date
KR102022036B1 (en) 2019-09-17

Similar Documents

Publication Publication Date Title
US10901590B2 (en) Electronic device having touch screen and function controlling method of the same
JP5946462B2 (en) Mobile terminal and its screen control method
CN102768612B (en) The method for being finely controlled content and the portable terminal for supporting the method
US10503376B2 (en) Method and apparatus for adjusting an image and control guides displayed on a display
KR101662726B1 (en) Method and apparatus for scrolling for electronic device
CN111897480B (en) Playing progress adjusting method and device and electronic equipment
KR20140116656A (en) Apparatus and method for controlling screen in device
KR20140049254A (en) Device and method for displaying data in terminal
KR101485791B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101853895B1 (en) Portable terminal having touch screen and method for performing function thereof
US9250778B2 (en) Mobile terminal having touch screen and function controlling method of the same
CN111221460A (en) Content scrolling display method and electronic equipment
KR102229818B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101801724B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101801173B1 (en) Portable terminal having touch screen and method for performing function thereof
KR102022036B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101928837B1 (en) Portable terminal having touch screen and method for performing function thereof
KR101621513B1 (en) Method for controlling action of terminal with pointing device and terminal unit thereof
CN110888571A (en) File selection method and electronic equipment
KR20140144036A (en) Method and device for displaying a screen in portable device

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant