KR102197912B1 - Method, apparatus and recovering medium for executing a funtion according to a gesture recognition - Google Patents

Method, apparatus and recovering medium for executing a funtion according to a gesture recognition Download PDF

Info

Publication number
KR102197912B1
KR102197912B1 KR1020130100720A KR20130100720A KR102197912B1 KR 102197912 B1 KR102197912 B1 KR 102197912B1 KR 1020130100720 A KR1020130100720 A KR 1020130100720A KR 20130100720 A KR20130100720 A KR 20130100720A KR 102197912 B1 KR102197912 B1 KR 102197912B1
Authority
KR
South Korea
Prior art keywords
screen
gesture
touched
function
touch
Prior art date
Application number
KR1020130100720A
Other languages
Korean (ko)
Other versions
KR20150022598A (en
Inventor
김석태
박혜빈
이주형
조한경
박현미
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130100720A priority Critical patent/KR102197912B1/en
Publication of KR20150022598A publication Critical patent/KR20150022598A/en
Application granted granted Critical
Publication of KR102197912B1 publication Critical patent/KR102197912B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

제스처 인식에 따른 기능 실행 방법에 있어서, 제스처 발생 시, 상기 제스처의 유형을 분석하는 과정과; 상기 분석된 제스처의 유형에 대응하는 기능을 실행하여 화면에 표시하는 과정을 포함하며, 상기 제스처의 유형에 대응하는 기능은, 단말의 정보 표시 제어 기능 및 상기 단말의 기능 실행 제어 기능 중 적어도 하나의 제어 기능을 포함함을 특징으로 한다.A method of executing a function according to gesture recognition, the method comprising: analyzing a type of a gesture when a gesture is generated; And executing a function corresponding to the analyzed gesture type and displaying it on a screen, and the function corresponding to the gesture type includes at least one of a terminal information display control function and a function execution control function of the terminal. It is characterized by including a control function.

Description

제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체{METHOD, APPARATUS AND RECOVERING MEDIUM FOR EXECUTING A FUNTION ACCORDING TO A GESTURE RECOGNITION}Function execution method according to gesture recognition, device and recording medium {METHOD, APPARATUS AND RECOVERING MEDIUM FOR EXECUTING A FUNTION ACCORDING TO A GESTURE RECOGNITION}

본 발명은 휴대 단말 장치의 터치스크린에서 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체에 관한 것이다.The present invention relates to a method, an apparatus, and a recording medium for executing a function according to gesture recognition on a touch screen of a portable terminal device.

휴대 단말에는 스마트폰, 휴대폰, 태블릿 PC 이외에도 손목 장착 휴대 장치(또는 시계형 터치 장치)와 같이 손목, 허리, 발목 등에 부착할 수 있는 착용형(wearable) 휴대 장치가 있다. 또한, 최근 대부분의 휴대 단말은 터치스크린을 구비하여, 휴대 단말의 다양한 서비스 및 부가 기능들을 사용자의 신체 및 터치 가능한 입력 수단을 통한 터치 입력으로 동작시킬 수 있게 되었다.In addition to smartphones, mobile phones, and tablet PCs, portable terminals include wearable portable devices that can be attached to wrists, waists, and ankles, such as wrist-mounted portable devices (or watch-type touch devices). In addition, most of the portable terminals have a touch screen in recent years, so that various services and additional functions of the portable terminal can be operated by a touch input through a user's body and touchable input means.

본 발명은 착용형(wearable) 휴대 장치, 스마트폰, 휴대폰, 태블릿 PC 등의 휴대 단말에 특정 터치 제스처 입력 시, 어느 화면에서든 입력된 특정 터치 제스처의 정의된 기능을 실행하도록 하기 위한 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체를 제공할 수 있도록 한다.The present invention is based on gesture recognition for executing a defined function of a specific touch gesture input on any screen when a specific touch gesture is input to a portable terminal such as a wearable portable device, a smart phone, a mobile phone, and a tablet PC. It is possible to provide a function execution method, device and recording medium.

또한, 본 발명은 휴대 단말의 물리적인 버튼 및/또는 터치스크린에 표시되는 가상의 버튼을 최대한 배제하여, 휴대 단말의 크기를 최소화하며 동시에 화면을 효율적으로 사용할 수 있도록 하기 위한 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체를 제공할 수 있도록 한다.In addition, the present invention minimizes the size of the mobile terminal by excluding the physical buttons of the mobile terminal and/or virtual buttons displayed on the touch screen as much as possible, and executes a function according to gesture recognition to enable efficient use of the screen at the same time. It is possible to provide a method, apparatus and recording medium.

본 발명의 일 견지에 따르면, 제스처 인식에 따른 기능 실행 방법에 있어서, 제스처 발생 시, 상기 제스처의 유형을 분석하는 과정과; 상기 분석된 제스처의 유형에 대응하는 기능을 실행하여 화면에 표시하는 과정을 포함하며,According to an aspect of the present invention, there is provided a method of executing a function according to gesture recognition, the method comprising: analyzing a type of a gesture when a gesture is generated; And executing a function corresponding to the analyzed gesture type and displaying it on the screen,

상기 제스처의 유형에 대응하는 기능은, 단말의 정보 표시 제어 기능 및 상기 단말의 기능 실행 제어 기능 중 적어도 하나의 제어 기능을 포함을 특징으로 한다.The function corresponding to the type of gesture may include at least one of a terminal information display control function and a function execution control function of the terminal.

본 발명의 다른 견지에 따르면, 제스처 인식에 따른 기능 실행 장치에 있어서, 터치스크린과, 상기 터치스크린에서 제스처 감지 시, 상기 제스처의 유형을 분석하며, 상기 분석된 제스처 유형에 대응하는 기능을 실행하여 상기 터치스크린의 화면에 표시하는 제어부를 포함하며,According to another aspect of the present invention, in an apparatus for executing a function according to gesture recognition, when a gesture is detected on a touch screen and the touch screen, the gesture type is analyzed, and a function corresponding to the analyzed gesture type is executed. And a control unit for displaying on the screen of the touch screen,

상기 제스처의 유형에 대응하는 기능은, 상기 장치의 정보 표시 제어 기능 및 상기 장치의 기능 실행 제어 기능 중 적어도 하나의 제어 기능을 포함함을 특징으로 한다.The function corresponding to the type of gesture is characterized in that it includes at least one of an information display control function of the device and a function execution control function of the device.

본 발명의 또다른 견지에 따르면, 제스처 인식에 따른 기능 실행 기록매체에 있어서, 터치스크린과, 상기 터치스크린에서 제스처 감지 시, 상기 제스처의 유형을 분석하며, 상기 분석된 제스처 유형에 대응하는 단말의 정보 표시 제어 기능 및 상기 단말의 기능 실행 제어 기능 중 적어도 하나의 제어 기능을 포함하는 기능을 실행하여 상기 터치스크린의 화면에 표시하는 제어부를 기능시키기 위한 프로그램이 기록된 것임을 특징으로 한다.According to another aspect of the present invention, in a function execution recording medium according to gesture recognition, when a gesture is sensed by a touch screen and the touch screen, the type of the gesture is analyzed, and the terminal corresponding to the analyzed gesture type is A program for performing a function including at least one control function of an information display control function and a function execution control function of the terminal to be displayed on the screen of the touch screen is recorded.

상기한 바와 같이, 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체를 사용함으로서, 착용형(wearable) 휴대 장치, 스마트폰, 휴대폰, 태블릿 PC 등의 휴대 단말에 특정 터치 제스처 입력 시, 어느 화면에서든 입력된 특정 터치 제스처의 정의된 기능이 실행될 수 있다. 이에 따라, 휴대 단말의 물리적인 버튼 및/또는 터치스크린에 표시되는 가상의 버튼을 최대한 배제하여 휴대 단말의 크기를 최소화할 수 있으며, 동시에 사용자는 화면을 효율적으로 사용할 수 있다.As described above, when a specific touch gesture is input to a portable terminal such as a wearable portable device, a smart phone, a mobile phone, or a tablet PC by using the method, device and recording medium according to gesture recognition, any screen A defined function of the input specific touch gesture may be executed. Accordingly, the size of the portable terminal can be minimized by excluding the physical buttons of the portable terminal and/or virtual buttons displayed on the touch screen as much as possible, and the user can use the screen efficiently.

도 1은 본 발명의 일 실시예에 따른 제스처 인식에 따른 기능 실행 동작을 수행하는 휴대 단말의 블록 구성도
도 2는 본 발명의 일 실시예에 따른 제스처 인식에 따른 기능 실행 동작의 흐름도
도 3은 본 발명의 일 실시예에 따른 제1 제스처 인식에 따른 기능 실행 동작의 흐름도
도 4는 본 발명의 일 실시예에 따른 제1 제스처 인식에 따른 기능 실행 화면의 예시도
도 5는 본 발명의 일 실시예에 따른 제2 제스처 인식에 따른 기능 실행 동작의 흐름도
도 6은 본 발명의 일 실시예에 따른 제 2 제스처 인식에 따른 기능 실행 화면의 예시도
도 7은 본 발명의 일 실시예에 따른 제3 제스처 인식에 따른 기능 실행 동작의 흐름도
도 8은 본 발명의 일 실시예에 따른 제3 제스처 인식에 따른 기능 실행 화면의 예시도
도 9는 본 발명의 일 실시예에 따른 제4 제스처 인식에 따른 기능 실행 동작의 흐름도
도 10은 본 발명의 일 실시예에 따른 제4 제스처 인식에 따른 기능 실행 화면의 예시도
도 11은 본 발명의 일 실시예에 따른 제5 제스처 인식에 따른 기능 실행 동작의 흐름도
도 12는 본 발명의 일 실시예에 따른 제5 제스처 인식에 따른 기능 실행 화면의 예시도
1 is a block diagram of a mobile terminal performing a function execution operation according to gesture recognition according to an embodiment of the present invention;
2 is a flowchart of a function execution operation according to gesture recognition according to an embodiment of the present invention
3 is a flowchart of a function execution operation according to a first gesture recognition according to an embodiment of the present invention
4 is an exemplary view of a function execution screen according to a first gesture recognition according to an embodiment of the present invention
5 is a flowchart of a function execution operation according to a second gesture recognition according to an embodiment of the present invention
6 is an exemplary diagram of a function execution screen according to a second gesture recognition according to an embodiment of the present invention
7 is a flowchart of a function execution operation according to a third gesture recognition according to an embodiment of the present invention
8 is an exemplary diagram of a function execution screen according to a third gesture recognition according to an embodiment of the present invention
9 is a flowchart of a function execution operation according to a fourth gesture recognition according to an embodiment of the present invention
10 is an exemplary view of a function execution screen according to a fourth gesture recognition according to an embodiment of the present invention
11 is a flowchart of a function execution operation according to a fifth gesture recognition according to an embodiment of the present invention
12 is an exemplary view of a function execution screen according to a fifth gesture recognition according to an embodiment of the present invention

이하 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 탑 베젤 스윕 다운 제스처, 투 핑거 더블 탭, 인덱스 검색 화면 등의 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, specific items such as a top-bezel sweep-down gesture, a two-finger double-tap, and an index search screen are shown. This is provided to help a more general understanding of the present invention, and these specific items are provided within the scope of the present invention. It will be apparent to those of ordinary skill in the art that modifications or changes may be made.

도 1은 본 발명의 일 실시예에 따른 제스처 인식에 따른 기능 실행 동작을 수행하는 휴대 단말의 블록 구성도이다. 도 1을 참조하면, 휴대 단말(100)은 터치스크린(120), 터치스크린 컨트롤러(130), 입력부(140), 출력부(150), 저장부(170), 제어부(110)를 포함할 수 있다. 또한 휴대 단말(100)는 이동 통신 모듈(180), 서브 통신 모듈(190)을 포함할 수 있다. 1 is a block diagram of a mobile terminal performing a function execution operation according to gesture recognition according to an embodiment of the present invention. Referring to FIG. 1, the portable terminal 100 may include a touch screen 120, a touch screen controller 130, an input unit 140, an output unit 150, a storage unit 170, and a control unit 110. have. In addition, the mobile terminal 100 may include a mobile communication module 180 and a sub communication module 190.

터치스크린(120)은 사용자의 조작을 입력 받으며, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이 할 수 있다. 즉, 터치스크린(120)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저 인터페이스를 제공할 수 있다. 터치스크린(120)은 유저 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(130)로 전송할 수 있다. 터치스크린(120)은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 전자펜과 같은 터치 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력 받을 수 있다. 또한, 터치스크린(120)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력 받을 수 있다. 터치스크린(120)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(130)로 전송할 수 있다. The touch screen 120 receives a user's manipulation and may display an execution image of an application program, an operation state, and a menu state. That is, the touch screen 120 may provide a user interface corresponding to various services (eg, call, data transmission, broadcasting, and photography) to a user. The touch screen 120 may transmit an analog signal corresponding to at least one touch input to the user interface to the touch screen controller 130. The touch screen 120 may receive at least one touch input through a user's body (eg, a finger including a thumb) or a touchable input means such as an electronic pen (eg, a stylus pen). In addition, the touch screen 120 may receive a continuous motion of one touch among at least one touch. The touch screen 120 may transmit an analog signal corresponding to a continuous motion of an input touch to the touch screen controller 130.

또한, 터치는 터치스크린(120)과 사용자의 신체 또는 터치 가능한 입력 수단과의 직접적인 접촉에 한정되지 않고, 비접촉을 포함할 수 있다. Further, the touch is not limited to direct contact between the touch screen 120 and a user's body or a touchable input means, and may include non-contact.

터치스크린(120)에서 검출 가능한 간격은 휴대 단말(100)의 성능 또는 구조에 따라 변경될 수 있다. 또한 터치스크린(120)은 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 의한 터치 이벤트와, 비접촉 상태로의 입력(예컨대, 호버링(Hovering)) 이벤트를 구분하여 검출 가능하도록, 상기 터치 이벤트와 호버링 이벤트에 의해 검출되는 값(예컨대, 전류값 등)이 다르게 출력될 수 있도록 구성될 수 있다. 또한 호버링 이벤트 인식 시 터치스크린(120)은 호버링 이벤트가 발생되는 공간과 터치스크린(120) 사이의 거리에 따라 검출되는 값(예컨대, 전류값 등)을 다르게 출력한다.The interval detectable on the touch screen 120 may be changed according to the performance or structure of the portable terminal 100. In addition, the touch screen 120 distinguishes between a touch event caused by contact with a user's body or a touchable input means and an input (eg, hovering) event in a non-contact state and detects the touch event and the hovering event. A value detected by an event (eg, a current value, etc.) may be configured to be output differently. In addition, when recognizing a hovering event, the touch screen 120 outputs different values (eg, current values) detected according to the distance between the space where the hovering event occurs and the touch screen 120.

터치스크린(120)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다. The touch screen 120 may be implemented in, for example, a resistive method, a capacitive method, an infrared method, or an acoustic wave method.

한편, 터치스크린 컨트롤러(130)는 터치스크린(120)에서부터 수신된 아날로그 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(130)로부터 수신된 디지털 신호를 이용하여 터치스크린(120)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 이벤트 또는 호버링 이벤트에 응답하여 터치스크린(120)에 표시된 단축 아이콘(도시되지 아니함)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다. 또한, 터치스크린 컨트롤러(130)는 제어부(110)에 포함될 수도 있다. Meanwhile, the touch screen controller 130 converts the analog signal received from the touch screen 120 into a digital signal (eg, X and Y coordinates) and transmits it to the controller 110. The controller 110 may control the touch screen 120 using a digital signal received from the touch screen controller 130. For example, the controller 110 may cause a shortcut icon (not shown) displayed on the touch screen 120 to be selected or execute a shortcut icon (not shown) in response to a touch event or a hovering event. In addition, the touch screen controller 130 may be included in the controller 110.

또한, 터치스크린 컨트롤러(130)는 터치스크린(120)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 호버링 이벤트가 발생되는 공간과 터치스크린(190) 사이의 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수 있다. In addition, the touch screen controller 130 can check the distance between the space where the hovering event occurs and the touch screen 190 by detecting a value output through the touch screen 120 (eg, a current value, etc.). The resulting distance value may be converted into a digital signal (eg, Z coordinate) and provided to the controller 110.

또한, 터치스크린(120)은 사용자의 신체 및 터치 가능한 입력 수단에 의한 입력을 동시에 입력받을 수 있도록, 사용자의 신체 및 터치 가능한 입력 수단의 터치나 근접을 각각 감지할 수 있는 적어도 두 개의 터치스크린 패널을 포함할 수 있다. 상기 적어도 두 개의 터치스크린 패널은 서로 다른 출력값을 터치스크린 컨트롤러(130)에 제공하고, 터치스크린 컨트롤러(130)는 상기 적어도 두 개의 터치스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치스크린으로부터의 입력이 사용자의 신체에 의한 입력인지, 터치 가능한 입력 수단에 의한 입력인지를 구분한다. In addition, the touch screen 120 includes at least two touch screen panels capable of sensing a touch or proximity of a user's body and a touchable input means, respectively, so that input by a user's body and a touchable input means can be simultaneously input. It may include. The at least two touch screen panels provide different output values to the touch screen controller 130, and the touch screen controller 130 recognizes values inputted from the at least two touch screen panels differently, It distinguishes whether the input is input by the user's body or by a touchable input means.

입력부(140)는 사용자의 조작을 입력받으며, 버튼(도시되지 아니함), 키패드(도시되지 아니함) 및 마이크(도시되지 아니함) 중 적어도 하나를 포함할 수 있다. The input unit 140 receives a user's manipulation and may include at least one of a button (not shown), a keypad (not shown), and a microphone (not shown).

버튼(도시되지 아니함)은 상기 휴대 단말(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 메뉴 버튼, 홈 버튼 중 적어도 하나일 수 있다. A button (not shown) may be formed on the front, side or rear of the housing of the mobile terminal 100, and may be at least one of a power/lock button, a menu button, and a home button.

키패드(도시되지 아니함)는 휴대 단말(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(도시되지 아니함)는 휴대 단말(100)에 형성되는 물리적인 키패드 또는 터치스크린(120)에 표시되는 가상의 키패드를 포함할 수 있다. 휴대 단말(100)에 형성되는 물리적인 키패드는 휴대 단말(100)의 성능 또는 구조에 따라 제외될 수 있다. The keypad (not shown) may receive a key input from a user to control the portable terminal 100. The keypad (not shown) may include a physical keypad formed on the mobile terminal 100 or a virtual keypad displayed on the touch screen 120. The physical keypad formed on the portable terminal 100 may be excluded according to the performance or structure of the portable terminal 100.

마이크(도시되지 아니함)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.A microphone (not shown) receives a voice or sound under the control of the controller 110 and generates an electrical signal.

출력부(150)는 스피커(도시되지 아니함) 및 진동 모터(도시되지 아니함) 중 적어도 하나를 포함할 수 있다.The output unit 150 may include at least one of a speaker (not shown) and a vibration motor (not shown).

스피커(도시되지 아니함)는 제어부(110)의 제어에 따라 이동통신 모듈(180) 또는 서브통신 모듈(190)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 등)에 대응되는 사운드를 휴대 단말(100) 외부로 출력할 수 있다. 스피커(도시되지 아니함)는 휴대 단말(100)이 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(도시되지 아니함)는 상기 휴대 단말(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다. A speaker (not shown) is applied to various signals (eg, wireless signals, broadcast signals, digital audio files, digital video files, etc.) of the mobile communication module 180 or the sub communication module 190 under the control of the controller 110. The corresponding sound can be output to the outside of the portable terminal 100. The speaker (not shown) may output a sound corresponding to a function performed by the portable terminal 100 (eg, a button operation sound corresponding to a phone call, or a call connection sound). One or more speakers (not shown) may be formed at appropriate positions or positions of the housing of the portable terminal 100.

진동모터(도시되지 아니함)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 휴대 단말(100)은 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(도시되지 아니함)가 동작한다. 상기 휴대 단말(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(도시되지 아니함)는 터치스크린(120) 상을 터치하는 사용자의 터치 동작 및 터치스크린(120) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.The vibration motor (not shown) may convert an electrical signal into mechanical vibration under the control of the controller 110. For example, when the portable terminal 100 in the vibration mode receives a voice call from another device (not shown), a vibration motor (not shown) operates. One or more may be formed in the housing of the portable terminal 100. The vibration motor (not shown) may operate in response to a user's touch motion of touching the touch screen 120 and a continuous motion of the touch on the touch screen 120.

이동통신 모듈(180)은 제어부(110)의 제어에 따라 적어도 하나 또는 복수의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 휴대 단말(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈(180)은 휴대 단말(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다. 또한 이동통신 모듈(180)은 제어부(110)의 제어에 따라 와이파이(Wi-Fi), 3G/4G 데이터 네트워크를 통해 무선 액세스 포인트(AP, access point)가 설치된 장소에서 무선 인터넷 등과 연결되거나, 주변 장치들과 무선으로 무선 신호를 송/수신한다. The mobile communication module 180 allows the mobile terminal 100 to be connected to an external device through mobile communication using at least one or a plurality of antennas (not shown) under the control of the controller 110. The mobile communication module 180 includes a mobile phone (not shown), a smart phone (not shown), a tablet PC, or other device (not shown) having a phone number input to the mobile terminal 100 for a voice call or a video call. , Transmitting/receiving wireless signals for text messages (SMS) or multimedia messages (MMS). In addition, the mobile communication module 180 is connected to a wireless Internet or the like at a place where a wireless access point (AP) is installed through a Wi-Fi or 3G/4G data network under the control of the controller 110. It transmits/receives wireless signals wirelessly with devices.

서브통신 모듈(190)은 무선랜 모듈(도시되지 아니함)과 근거리통신 모듈(도시되지 아니함) 중 적어도 하나를 포함할 수 있다. The sub communication module 190 may include at least one of a wireless LAN module (not shown) and a short-range communication module (not shown).

무선랜 모듈(도시되지 아니함)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(도시되지 아니함)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(도시되지 아니함)은 제어부(110)의 제어에 따라 휴대 단말(100)간에 무선으로 근거리 통신을 할 수 있다. The wireless LAN module (not shown) may be connected to the Internet at a place where a wireless access point (AP) (not shown) is installed under the control of the controller 110. The wireless LAN module (not shown) supports the wireless LAN standard (IEEE802.11x) of the American Institute of Electrical and Electronic Engineers (IEEE). The short-range communication module (not shown) may wirelessly perform short-range communication between the portable terminals 100 under the control of the controller 110.

휴대 단말(100)는 성능에 따라 이동통신 모듈(180), 무선랜 모듈(도시되지 아니함), 및 근거리통신 모듈(도시되지 아니함) 중 적어도 하나를 포함할 수 있다. 예를 들어, 휴대 단말(100)는 성능에 따라 이동통신 모듈(180), 무선랜 모듈(도시되지 아니함), 및 근거리통신 모듈(도시되지 아니함)들의 조합을 포함할 수 있다. The portable terminal 100 may include at least one of a mobile communication module 180, a wireless LAN module (not shown), and a short-range communication module (not shown) according to performance. For example, the portable terminal 100 may include a combination of a mobile communication module 180, a wireless LAN module (not shown), and a short-range communication module (not shown) according to performance.

저장부(170)는 제어부(110)의 제어에 따라 터치스크린(120), 입력부(140), 출력부(150), 이동 통신 모듈(180), 서브 통신 모듈(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(170)는 휴대 단말(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다. The storage unit 170 is input to correspond to the operation of the touch screen 120, the input unit 140, the output unit 150, the mobile communication module 180, and the sub communication module 190 under the control of the controller 110. / Can store the output signal or data. The storage unit 170 may store control programs and applications for controlling the mobile terminal 100 or the controller 110.

"저장부"라는 용어는 저장부(170), 제어부(110)내 롬(도시되지 아니함), 램(도시되지 아니함) 또는 휴대 단말(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다. The term “storage unit” refers to the storage unit 170, a ROM (not shown) in the control unit 110, a RAM (not shown), or a memory card (not shown) mounted in the mobile terminal 100 (eg, SD card, memory stick). The storage unit may include a nonvolatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).

제어부(110)는 CPU(도시되지 아니함), 휴대 단말(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 도시되지 아니함) 및 휴대 단말(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 휴대 단말(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 도시되지 아니함)을 포함할 수 있다. CPU(도시되지 아니함)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(도시되지 아니함), 롬(도시되지 아니함) 및 램(도시되지 아니함)은 내부버스(bus)를 통해 상호 연결될 수 있다. The controller 110 stores a CPU (not shown), a ROM (ROM, not shown) in which a control program for controlling the portable terminal 100 is stored, and a signal or data input from the outside of the portable terminal 100 or , It may include a RAM (RAM, not shown) used as a storage area for a task performed in the portable terminal 100. The CPU (not shown) may include a single core, dual core, triple core, or quad core. The CPU (not shown), ROM (not shown), and RAM (not shown) may be interconnected through an internal bus.

제어부(110)는 터치스크린(120), 터치스크린 컨트롤러(130), 입력부(140), 출력부(150), 저장부(170)를 제어할 수 있다. The controller 110 may control the touch screen 120, the touch screen controller 130, the input unit 140, the output unit 150, and the storage unit 170.

또한 제어부(110)는 본 발명의 일 실시예에 따른 제스처 인식에 따른 기능 실행 동작의 제어 특징에 따라, 터치스크린(120)에서 제스처 감지 시, 상기 제스처의 유형을 분석하며, 후술하는 바와 같이 상기 분석된 제스처 유형에 대응하는 기능을 실행하여 상기 터치스크린(120)의 화면에 표시할 수 있다. In addition, the controller 110 analyzes the type of gesture when a gesture is sensed on the touch screen 120 according to a control characteristic of a function execution operation according to gesture recognition according to an embodiment of the present invention. A function corresponding to the analyzed gesture type may be executed and displayed on the screen of the touch screen 120.

도 2는 본 발명의 일 실시예에 따른 제스처 인식에 따른 기능 실행 동작의 흐름도이다. 도 2를 참조하면, 210 단계에서는 사용자의 터치 입력에 따른 터치 제스처 발생 유무를 판단한다. 210 단계에서 터치 제스처가 발생된 것으로 판단되면 230 단계로 진행하고, 210 단계에서 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 210 단계 이후 230 단계에서는 터치 제스처의 유형을 분석한다. 230 단계 이후 250 단계에서는 아래의 실시예들에서 후술하는 바와 같이 분석된 터치 제스처 유형에 대응하는 기능을 실행한다. 이때의 기능은 휴대 단말의 정보 표시 제어 기능 및 휴대 단말의 기능 실행 제어 기능 중 적어도 하나의 제어 기능을 포함할 수 있다. 정보 표시 제어 기능은 화면 전환과 관련된 제어, 인덱스 검색 화면 표시와 관련된 제어, 정보 화면 표시와 관련된 제어 중 적어도 하나를 포함할 수 있다. 2 is a flowchart of a function execution operation according to gesture recognition according to an embodiment of the present invention. Referring to FIG. 2, in step 210, it is determined whether a touch gesture is generated according to a user's touch input. If it is determined that the touch gesture has occurred in step 210, the process proceeds to step 230, and if it is determined that the touch gesture has not occurred in step 210, the operation of the present invention is terminated. In step 230 after step 210, the type of touch gesture is analyzed. In step 250 after step 230, a function corresponding to the analyzed touch gesture type is executed as will be described later in the following embodiments. The function at this time may include at least one of an information display control function of the portable terminal and a function execution control function of the portable terminal. The information display control function may include at least one of a control related to a screen change, a control related to an index search screen display, and a control related to an information screen display.

휴대 단말의 기능 실행 제어는 음향 및 화면 밝기 중 적어도 하나를 조절하는 제어, 송화음을 차단하는 제어, 송화음 차단을 해제하는 제어, 휴대 단말의 음을 소거하는 제어, 휴대 단말의 음 소거를 해제하는 제어, 동영상 또는 음악의 재생을 중지하는 제어, 동영상 또는 음악의 재생 중지를 해제하는 제어 중 적어도 하나를 포함할 수 있다.The function execution control of the portable terminal is a control that adjusts at least one of sound and screen brightness, a control that blocks a consonant sound, a control that cancels a transmission sound block, a control that mutes the sound of a portable terminal, and a mute of the portable terminal. It may include at least one of a control to perform, a control to stop playing a video or music, and a control to release a stop to play a video or music.

도 3은 본 발명의 일 실시예에 따른 제1 제스처 인식에 따른 기능 실행 동작의 흐름도이며, 도 4는 본 발명의 일 실시예에 따른 제1 제스처 인식에 따른 기능 실행 화면의 예시도이다. 상기 제 1 제스처는 도 4의 (a)와 같이 터치스크린(120)의 화면 상단의 미리 설정된 영역내의 어느 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그(drag; 사용자의 손가락 또는 터치 가능한 입력 수단이 터치스크린의 한 지점을 터치한 상태에서 다른 지점으로 이동하여 정지 후 터치를 떼는 동작)되는 것(top-bezel sweep down; 탑 베젤 스윕 다운 이라고 함; 10)일 수 있다. 이때의 화면 상단의 미리 설정된 영역과 터치된 상태로 화면의 내부로 드래그되어야 하는 최소 길이는 제조 시 또는 사용자에 의해 설정 또는/및 변경 될 수 있다. 3 is a flowchart of a function execution operation according to a first gesture recognition according to an embodiment of the present invention, and FIG. 4 is an exemplary diagram of a function execution screen according to a first gesture recognition according to an embodiment of the present invention. The first gesture is a touched state from any one point in a preset area at the top of the screen of the touch screen 120 as shown in (a) of FIG. 4 and dragged to the inside of the screen; a user's finger or a touchable input It may be a top-bezel sweep down (referred to as a top-bezel sweep down; 10) by moving to another point while touching one point of the touch screen and removing the touch after stopping. At this time, the minimum length to be dragged into the inside of the screen while being touched with the preset area at the top of the screen may be set or/and changed during manufacture or by a user.

먼저 310 단계에서는 터치 제스처의 발생 유무를 판단한다. 310 단계에서 터치 제스처가 발생된 것으로 판단되면 330 단계로 진행하고, 310 단계에서 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 310 단계 이후 330 단계에서는 터치 제스처가 탑 베젤 스윕 다운 제스처(10)인지를 판단한다. 330 단계에서 탑 베젤 스윕 다운 제스처(10)인 것으로 판단되면 350 단계로 진행하고, 330 단계에서 탑 베젤 스윕 다운 제스처(10)가 아닌 것으로 판단되면 310 단계로 다시 돌아간다. 330 단계 이후 350 단계에서는 현재 화면의 이전에 표시된 실행 화면으로 화면을 전환한다. 단, 상기 330 단계에서 탑 베젤 스윕 다운 제스처가 아닌 것으로 판단되면 310 단계로 다시 돌아가는 것으로 기재하였지만, 인식된 터치 제스처가 미리 정의된 다른 제스처인 경우, 다른 제스처에 대응하는 기능을 실행할 수도 있다.First, in step 310, it is determined whether or not a touch gesture has occurred. If it is determined that the touch gesture has occurred in step 310, the process proceeds to step 330, and if it is determined that the touch gesture has not occurred in step 310, the operation of the present invention is terminated. In operation 330 after operation 310, it is determined whether the touch gesture is the top bezel sweep-down gesture 10. If it is determined that the top bezel sweep-down gesture 10 is in step 330, the process proceeds to step 350, and if it is determined that the top bezel sweep-down gesture 10 is not in step 330, the process returns to step 310. In step 350 after step 330, the screen is switched to the execution screen displayed before the current screen. However, if it is determined in step 330 that it is not the top bezel sweep-down gesture, it is described that the process returns to step 310. However, if the recognized touch gesture is another predefined gesture, a function corresponding to the other gesture may be executed.

즉, 상기 동작에 따르면, 도 4의 (a)와 같이 휴대 단말의 터치스크린(120)의 화면에 탑 베젤 스윕 다운 제스처(10)를 입력하여, 도 4의 (b)와 같이 현재의 화면을 이전 화면으로 되돌아가도록 할 수 있다. That is, according to the above operation, by inputting the top bezel sweep-down gesture 10 on the screen of the touch screen 120 of the mobile terminal as shown in (a) of FIG. 4, the current screen is displayed as shown in (b) of FIG. You can make it go back to the previous screen.

도 5는 본 발명의 일 실시예에 따른 제2 제스처 인식에 따른 기능 실행 동작의 흐름도이며, 도 6은 본 발명의 일 실시예에 따른 제 2 제스처 인식에 따른 기능 실행 화면의 예시도이다. 상기 제2 제스처는 도 6의 (a)와 같이 터치스크린(120)의 화면 하단의 미리 설정된 영역내의 어느 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 것(bottom-bezel sweep up; 바텀 베젤 스윕 업 이라고 함; 20)일 수 있다. 이때의 화면 하단의 미리 설정된 영역과 터치된 상태로 화면의 내부로 드래그되어야 하는 최소 길이는 제조 시 또는 사용자에 의해 설정 또는/및 변경 가능할 수 있다.5 is a flowchart of a function execution operation according to a second gesture recognition according to an embodiment of the present invention, and FIG. 6 is an exemplary view of a function execution screen according to a second gesture recognition according to an embodiment of the present invention. The second gesture is dragged to the inside of the screen while being touched from any one point in a preset area at the bottom of the screen of the touch screen 120 as shown in FIG. 6A (bottom-bezel sweep up; It is called bezel sweep up; it can be 20). At this time, the minimum length to be dragged into the inside of the screen while being touched with the preset area at the bottom of the screen may be set or/and changed during manufacture or by a user.

먼저, 410 단계에서는 터치 제스처의 발생 유무를 판단한다. 410 단계에서 터치 제스처가 발생된 것으로 판단되면 420 단계로 진행하고, 410 단계에서 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 410 단계 이후 420 단계에서는 터치 제스처가 바텀 베젤 스윕 업(20) 제스처인지를 판단한다. 420 단계에서 터치 제스처가 바텀 베젤 스윕 업(20) 제스처인 것으로 판단되면 430 단계로 진행하고, 420 단계에서 터치 제스처가 바텀 베젤 스윕 업(20) 제스처가 아닌 것으로 판단되면 410 단계로 돌아간다. 420 단계 이후 430 단계에서는 도 6의 (b)와 같이 현재 화면과 오버랩하여 인덱스 검색 화면(인덱스 스크롤 화면이라고도 함; 1200)을 표시한다. 이때의 인덱스 검색 화면(1200)은 사용자가 원하는 인덱스를 갖는 화면이 표시되도록 하는 기능을 갖는다. 또한 인덱스 검색 화면(1200)은 현재의 화면이 빠르게 자동으로 스크롤되어 해당 인덱스가 있는 화면이 표시되도록 할 수도 있다. 도 6의 (b)를 참조하면, 인덱스 검색 화면(1200))에는 미리 설정된 인덱스를 표시할 수 있다. 또한, 추가로 인덱스 검색 화면(1200)에는 설정된 순서대로 인덱스를 전환하는 인덱스 전환 버튼들(1203, 1205)이 포함될 수 있다. 430 단계 이후 440 단계에서는 인덱스 검색 화면(1200)에 표시된 해당 인덱스에 대응되는 화면이 표시되도록 현재 화면을 스크롤 한다. 단, 현재 화면이 인덱스 검색 화면(1200)에 표시된 해당 인덱스에 대응되는 화면이면 이 440 단계를 생략할 수 있다. 440 단계 이후 450 단계에서는 인덱스 검색 화면(1200)의 인덱스 전환 버튼(1203 또는 1205)에 탭 제스처(tap; 화면의 어느 한 지점을 짧고 가볍게 두드리는 제스처; 30)가 발생했는지를 판단한다. 450 단계에서 인덱스 검색 화면(1200)의 인덱스 전환 버튼(1203 또는 1205)에 탭 제스처(30)가 발생된 것으로 판단되면 460 단계로 진행하고, 450 단계에서 인덱스 검색 화면(1200)의 인덱스 전환 버튼(1203 또는 1205)에 탭 제스처(30)가 발생되지 않은 것으로 판단되면 480 단계로 진행한다. 450 단계 이후 460 단계에서는 인덱스 검색 화면(1200)에 표시된 인덱스를 탭 제스처(30)에 대응하는 인덱스로 전환한다. 상기 인덱스 전환 버튼(1203 또는 1205)은 미리 설정된 순서대로 인덱스를 전환하기 위한 것으로, 인덱스 전환 버튼(1203 또는 1205)에 탭 제스처가 입력되면, 인덱스 검색 화면(1200)에 표시된 인덱스를 인덱스 검색 화면(1200)에 표시된 인덱스의 다음 순서(또는 이전 순서)의 인덱스로 전환한다. 460 단계 이후 470 단계에서는 인덱스 검색 화면(1200)에 전환된 해당 인덱스에 대응되는 화면이 표시되도록 현재 화면을 스크롤 한다. 470 단계 이후 480 단계에서는 미리 설정된 시간이 경과 되었는지를 판단한다. 480 단계에서 미리 설정된 시간이 경과된 것으로 판단되면 490 단계로 진행하고, 480 단계에서 미리 설정된 시간이 경과되지 않은 것으로 판단되면 450 단계로 돌아간다. 480 단계 이후 490 단계에서는 인덱스 검색 화면(1200)을 사라지게 한다. 즉, 490 단계에서는 인덱스 검색 화면(1200)을 표시하는 동작을 종료한다. 단, 상기 420 단계에서 터치 제스처가 바텀 베젤 스윕 업 제스처(20)가 아닌 것으로 판단되면 410 단계로 다시 돌아가는 것으로 기재하였지만, 인식된 터치 제스처가 미리 정의된 다른 제스처인 경우, 다른 제스처에 대응하는 기능을 실행할 수도 있다.First, in step 410, it is determined whether or not a touch gesture has occurred. If it is determined that the touch gesture has occurred in step 410, the process proceeds to step 420, and if it is determined that the touch gesture has not occurred in step 410, the operation of the present invention is terminated. In step 420 after step 410, it is determined whether the touch gesture is the bottom bezel sweep up 20 gesture. If it is determined in step 420 that the touch gesture is the bottom bezel sweep up 20 gesture, the process proceeds to step 430, and if it is determined that the touch gesture is not the bottom bezel sweep up 20 gesture in step 420, the process returns to step 410. In step 430 after step 420, an index search screen (also referred to as an index scroll screen; 1200) is displayed by overlapping with the current screen as shown in FIG. 6B. At this time, the index search screen 1200 has a function of displaying a screen having an index desired by the user. In addition, the index search screen 1200 may allow the current screen to be scrolled quickly and automatically to display a screen with a corresponding index. Referring to FIG. 6B, a preset index may be displayed on the index search screen 1200. Additionally, the index search screen 1200 may include index switch buttons 1203 and 1205 for switching indexes in a set order. In step 440 after step 430, the current screen is scrolled so that a screen corresponding to the index displayed on the index search screen 1200 is displayed. However, if the current screen is a screen corresponding to the corresponding index displayed on the index search screen 1200, step 440 may be omitted. In step 450 after step 440, it is determined whether a tap gesture 30 has occurred on the index switch button 1203 or 1205 of the index search screen 1200. If it is determined in step 450 that the tap gesture 30 has occurred on the index switch button 1203 or 1205 of the index search screen 1200, the process proceeds to step 460, and in step 450, the index switch button of the index search screen 1200 ( If it is determined that the tap gesture 30 has not occurred at 1203 or 1205, the process proceeds to step 480. After step 450 and step 460, the index displayed on the index search screen 1200 is converted to an index corresponding to the tap gesture 30. The index switch button 1203 or 1205 is for switching indexes in a preset order, and when a tap gesture is input to the index switch button 1203 or 1205, the index displayed on the index search screen 1200 is converted to the index search screen ( 1200), it switches to the next (or previous) index. In step 470 after step 460, the current screen is scrolled so that the screen corresponding to the converted index is displayed on the index search screen 1200. In step 480 after step 470, it is determined whether a preset time has elapsed. If it is determined that the preset time has elapsed in step 480, the process proceeds to step 490, and if it is determined that the preset time has not elapsed in step 480, the process returns to step 450. In step 490 after step 480, the index search screen 1200 disappears. That is, in step 490, the operation of displaying the index search screen 1200 is terminated. However, if it is determined in step 420 that the touch gesture is not the bottom-bezel sweep-up gesture 20, it is described as returning to step 410, but when the recognized touch gesture is another predefined gesture, a function corresponding to the other gesture You can also run

즉, 상기 동작에 따르면, 도 6의 (a)와 같이 휴대 단말의 터치스크린(120)의 화면에 바텀 베젤 스윕 업 제스처(20)를 입력하여, 도 6의 (b)와 같이 현재의 화면에 인덱스 검색 화면(1200)을 오버랩하여 표시되도록 할 수 있다. 이때, 현재의 화면이 인덱스 검색 화면(1200)에 표시된 인덱스와 대응하지 않으면, 인덱스 검색 화면(1200)에 표시된 인덱스와 대응하는 화면이 표시되도록 현재의 화면이 빠르게 스크롤될 수 있다. 또한, 도 6의(b)와 같이 인덱스 검색 화면(1200)의 인덱스 전환 버튼(1205)에 탭 제스처(30)를 입력하면, 미리 설정된 순서에 따라 인덱스 검색 화면(1200)의 인덱스를 변환하고 동시에 인덱스 검색 화면(1200)에 표시된 인덱스와 대응하는 화면이 표시되도록 현재의 화면이 빠르게 스크롤될 수 있다. 도 6에서는 인덱스 검색 화면(1200)의 인덱스는 설정 및 조건에 따라 다양한 인덱스가 표시될 수 있다. 또한 인덱스 검색 화면(1200)의 크기 및 표시되는 위치는 다양할 수 있다. That is, according to the above operation, by inputting the bottom bezel sweep-up gesture 20 on the screen of the touch screen 120 of the mobile terminal as shown in (a) of FIG. 6, the current screen is displayed as shown in (b) of FIG. The index search screen 1200 may be overlapped and displayed. In this case, if the current screen does not correspond to the index displayed on the index search screen 1200, the current screen may be rapidly scrolled so that a screen corresponding to the index displayed on the index search screen 1200 is displayed. In addition, when the tap gesture 30 is input to the index conversion button 1205 of the index search screen 1200 as shown in FIG. 6B, the index of the index search screen 1200 is converted according to a preset order and simultaneously The current screen may be rapidly scrolled so that a screen corresponding to the index displayed on the index search screen 1200 is displayed. In FIG. 6, the index of the index search screen 1200 may display various indexes according to settings and conditions. In addition, the size and display position of the index search screen 1200 may vary.

도 7은 본 발명의 일 실시예에 따른 제3 제스처 인식에 따른 기능 실행 동작의 흐름도이며, 도 8은 본 발명의 일 실시예에 따른 제3 제스처 인식에 따른 기능 실행 화면의 예시도이다. 상기 제 3제스처는 미리 설정된 시간 간격 이내에 터치스크린(120)의 화면의 어느 두 지점이 동시에 두 번 터치되는 것(two finger double tap; 투 핑거 더블 탭 이라고 함; 40)일 수 있다.7 is a flowchart of a function execution operation according to a third gesture recognition according to an embodiment of the present invention, and FIG. 8 is an exemplary view of a function execution screen according to a third gesture recognition according to an embodiment of the present invention. The third gesture may be that two points on the screen of the touch screen 120 are simultaneously touched twice within a preset time interval (referred to as two finger double tap; 40).

먼저, 510 단계에서는 터치 제스처의 발생 유무를 판단한다. 510 단계에서 터치 제스처가 발생된 것으로 판단되면 530 단계로 진행하고, 510 단계에서 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 510 단계 이후 530 단계에서는 터치 제스처가 투 핑거 더블 탭 제스처(40)인지를 판단한다. 530 단계에서 터치 제스처가 투 핑거 더블 탭 제스처(40)인 것으로 판단되면 550 단계로 진행하고, 530 단계에서 터치 제스처가 투 핑거 더블 탭 제스처(40)가 아닌 것으로 판단되면 510 단계로 돌아간다. 530 단계 이후 550 단계에서는 도 8의 (b)와 같이 정보 화면(1300)을 표시한다. 정보 화면(1300)은 현재 시간, 날짜 정보, 배터리 정보, 블루투수 켜짐 정보와 같은 기능 실행 정보 등이 표시된 것이며, 설정에 따라 다양한 정보가 표시될 수 있다. 추가로, 정보 화면(1300)이 표시된 상태에서 터치스크린(120)에 상기 투 핑거 더블 탭 제스처(40)가 입력되면, 상기 표시된 정보 화면(1300)이 사라지도록 할 수도 있다. 다시 말해서, 정보 화면(1300)이 표시된 상태에서 터치스크린(120)에 상기 투 핑거 더블 탭 제스처(40)가 입력되면, 정보 화면(1300)을 표시하는 동작을 종료할 수도 있다. 또한, 정보 화면(1300)이 표시된 상태에서 미리 설정된 시간이 경과되면, 상기 표시된 정보 화면(1300)이 사라지도록, 즉 정보 화면(1300)을 표시하는 동작을 종료하도록 할 수 있다. 또한, 상기 530 단계에서 터치 제스처가 투 핑거 더블 탭 제스처(40)가 아닌 것으로 판단되면 510 단계로 다시 돌아가는 것으로 기재하였지만, 인식된 터치 제스처가 미리 정의된 다른 제스처인 경우, 다른 제스처에 대응하는 기능을 실행할 수도 있다.First, in step 510, it is determined whether or not a touch gesture has occurred. If it is determined that the touch gesture has occurred in step 510, the process proceeds to step 530, and if it is determined that the touch gesture has not occurred in step 510, the operation of the present invention is terminated. In step 530 after step 510, it is determined whether the touch gesture is a two-finger double tap gesture 40. If it is determined that the touch gesture is the two-finger double-tap gesture 40 in step 530, the process proceeds to step 550, and if it is determined that the touch gesture is not the two-finger double-tap gesture 40 in step 530, the process returns to step 510. In step 550 after step 530, an information screen 1300 is displayed as shown in (b) of FIG. 8. The information screen 1300 displays current time, date information, battery information, function execution information such as blue pitcher turn on information, and the like, and various information may be displayed according to settings. Additionally, when the two-finger double tap gesture 40 is input to the touch screen 120 while the information screen 1300 is displayed, the displayed information screen 1300 may disappear. In other words, when the two-finger double tap gesture 40 is input to the touch screen 120 while the information screen 1300 is displayed, the operation of displaying the information screen 1300 may be terminated. In addition, when a preset time elapses while the information screen 1300 is displayed, the displayed information screen 1300 may disappear, that is, an operation of displaying the information screen 1300 may be terminated. In addition, if it is determined in step 530 that the touch gesture is not the two-finger double tap gesture 40, it is described that the process returns to step 510, but when the recognized touch gesture is another predefined gesture, a function corresponding to the other gesture You can also run

즉, 상기 동작에 따르면, 도 8의 (a)와 같이 휴대 단말의 터치스크린(120) 화면에 투 핑거 더블 탭 제스처(40)를 입력하면, 도 8의 (b)와 같이 정보 화면(1300)이 표시될 수 있다. 또한, 현재의 화면에 정보 화면(1300)이 표시된 상태에서 투 핑거 더블 탭 제스처(40)을 입력하면 정보 화면(1300)이 사라질 수 있다. 다시 말해서, 현재의 화면에 정보 화면(1300)이 표시된 상태에서 투 핑거 더블 탭 제스처(40)을 입력하면 정보 화면(1300)을 표시하는 동작을 종료할 수 있다. 또한, 설정에 따라 표시된 정보 화면(1300)은 일정 시간이 경과되면 사라질 수 있다. 상기 정보 화면(1300)의 크기 및 표시되는 위치는 다양할 수 있다. That is, according to the above operation, when a two-finger double tap gesture 40 is input on the screen of the touch screen 120 of the mobile terminal as shown in (a) of FIG. 8, the information screen 1300 as shown in (b) of FIG. Can be displayed. Also, if the two-finger double tap gesture 40 is input while the information screen 1300 is displayed on the current screen, the information screen 1300 may disappear. In other words, if the two-finger double tap gesture 40 is input while the information screen 1300 is displayed on the current screen, the operation of displaying the information screen 1300 may be terminated. In addition, the information screen 1300 displayed according to the setting may disappear after a predetermined time elapses. The size and display position of the information screen 1300 may vary.

도 9는 본 발명의 일 실시예에 따른 제4 제스처 인식에 따른 기능 실행 동작의 흐름도이며, 도 10은 본 발명의 일 실시예에 따른 제4 제스처 인식에 따른 기능 실행 화면의 예시도이다. 상기 제4 제스처는 터치스크린(120)의 화면의 어느 두 지점이 터치된 상태에서 상기 화면의 하단 방향으로 드래그 되는 것(two finger sweep down; 투 핑거 스윕 다운 이라고 함), 또는 터치스크린(120)의 화면의 어느 두 지점이 터치된 상태에서 상기 화면의 상단 방향으로 드래그되는 것(two finger sweep up; 투 핑거 스윕 업 이라고 함; 50), 또는 터치스크린(120)의 화면의 어느 두 지점이 터치된 상태에서 상기 화면의 우측 방향으로 드래그 되는 것(two finger sweep right; 투 핑거 스윕 라이트), 또는 터치스크린(120)의 화면의 어느 두 지점이 터치된 상태에서 상기 화면의 좌측 방향으로 드래그되는 것(two finger sweep left; 투 핑거 스윕 래프트 라고 함) 중 하나일 수 있다. 이때, 터치된 상태로 화면의 어느 한 방향으로 드래그되어야 하는 최소 길이는 제조 시 또는 사용자에 의해 설정 또는/및 변경 될 수 있다. 9 is a flowchart of a function execution operation according to a fourth gesture recognition according to an embodiment of the present invention, and FIG. 10 is an exemplary view of a function execution screen according to a fourth gesture recognition according to an embodiment of the present invention. The fourth gesture is dragged toward the bottom of the screen while two points on the screen of the touch screen 120 are touched (two finger sweep down), or the touch screen 120 Dragging toward the top of the screen while touching any two points on the screen of (two finger sweep up; referred to as two finger sweep up; 50), or touching any two points on the screen of the touch screen 120 Dragging in the right direction of the screen in the state of being (two finger sweep right), or dragging in the left direction of the screen while touching any two points of the screen of the touch screen 120 It can be one of (two finger sweep left; called a two finger sweep raft). In this case, the minimum length to be dragged in any direction of the screen while being touched may be set or/and changed by the user or during manufacture.

먼저, 610 단계에서는 터치 제스처의 발생 유무를 판단한다. 610 단계에서 터치 제스처가 발생된 것으로 판단되면 630 단계로 진행하고, 610 단계에서 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 610 단계 이후 630 단계에서는 터치 제스처가 투 핑거 스윕 업 제스처 또는 투 핑거 스윕 다운 제스처(50)인지를 판단한다. 630 단계에서 터치 제스처가 투 핑거 스윕 업 제스처 또는 투 핑거 스윕 다운 제스처(50)인 것으로 판단되면 650 단계로 진행하고, 630 단계에서 터치 제스처가 투 핑거 스윕 업 제스처 또는 투 핑거 스윕 다운 제스처(50)가 아닌 것으로 판단되면 610 단계로 돌아간다. 630 단계 이후 650 단계에서는 도 10과 같이 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)을 표시한다. 추가로, 미리 설정된 시간이 경과되면, 상기 표시된 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)이 사라지도록 즉, 조절하는 화면(1400)을 표시하는 동작을 종료하도록 할 수 있다. 또한, 630 단계에서 터치 제스처가 투 핑거 스윕 업 제스처 또는 투 핑거 스윕 다운 제스처(50)가 아닌 것으로 판단되면 610 단계로 다시 돌아가는 것으로 기재하였지만, 인식된 터치 제스처가 미리 정의된 다른 제스처인 경우, 다른 제스처에 대응하는 기능을 실행할 수도 있다. 또한, 터치 제스처가 투 핑거 스윕 라이트, 투 핑거 스윕 래프트 제스처일 경우에도 음향 및 화면 밝기를 조절하는 화면을 표시 할 수도 있다.First, in step 610, it is determined whether or not a touch gesture has occurred. If it is determined that the touch gesture has occurred in step 610, the process proceeds to step 630, and if it is determined that the touch gesture has not occurred in step 610, the operation of the present invention is terminated. In step 630 after step 610, it is determined whether the touch gesture is a two-finger sweep-up gesture or a two-finger sweep-down gesture 50. If it is determined in step 630 that the touch gesture is a two-finger sweep-up gesture or a two-finger sweep-down gesture 50, the process proceeds to step 650, and in step 630, the touch gesture is a two-finger sweep-up gesture or a two-finger sweep-down gesture 50. If it is determined that it is not, it returns to step 610. In step 650 after step 630, a screen 1400 for adjusting the sound 1401 and screen brightness 1403 is displayed as shown in FIG. 10. In addition, when a preset time elapses, the screen 1400 for adjusting the displayed sound 1401 and the screen brightness 1403 may disappear, that is, the operation of displaying the screen 1400 for adjusting may be terminated. . In addition, if it is determined in step 630 that the touch gesture is not the two-finger sweep-up gesture or the two-finger sweep-down gesture 50, it is described that the process returns to step 610. However, if the recognized touch gesture is another predefined gesture, another You can also execute a function corresponding to a gesture. In addition, even when the touch gesture is a two-finger sweep light or two-finger sweep raft gesture, a screen for adjusting sound and screen brightness may be displayed.

즉, 상기 동작에 따르면, 도 10의 (a)와 같이 휴대 단말의 터치스크린(120) 화면에 투 핑거 스윕 업 제스처또는 투 핑거 스윕 다운 제스처(50)를 입력하면, 도 10의 (b)와 같이 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)이 표시될 수 있다. 또한, 표시된 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)은 일정 시간이 경과되면 사리질 수 있다. 상기 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)의 크기 및 표시되는 위치는 다양할 수 있다. 또한, 투 핑거 스윕 라이트, 또는 투 핑거 스윕 래프트 를 입력한 경우에도 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)이 표시될 수 있다. That is, according to the above operation, when a two-finger sweep-up gesture or a two-finger sweep-down gesture 50 is input on the screen of the touch screen 120 of the mobile terminal as shown in FIG. 10(a), as shown in FIG. 10(b) Similarly, a screen 1400 for adjusting the sound 1401 and the screen brightness 1403 may be displayed. In addition, the displayed sound 1401 and the screen 1400 for adjusting the screen brightness 1403 may disappear after a predetermined time elapses. The size and display position of the screen 1400 for controlling the sound 1401 and the screen brightness 1403 may vary. In addition, even when a two-finger sweep light or two-finger sweep raft is input, the screen 1400 for adjusting the sound 1401 and the screen brightness 1403 may be displayed.

도 11은 본 발명의 일 실시예에 따른 제5 제스처 인식에 따른 기능 실행 동작의 흐름도이며, 도 12는 본 발명의 일 실시예에 따른 제5 제스처 인식에 따른 기능 실행 화면의 예시도이다. 상기 제5 제스처는 예를 들어 사람이 손바닥으로 휴대 단말의 터치스크린(120) 화면을 터치하여 가릴 경우를 의미 하는 것으로, 상기 제5 제스처는 터치스크린(120)의 화면이 터치될 때, 터치 지점이 미리 설정된 면적 임계치 이상인 것으로 인식된 것(palm touch; 팜 터치 라고 함; 60)일 수 있다.11 is a flowchart of a function execution operation according to a fifth gesture recognition according to an embodiment of the present invention, and FIG. 12 is an exemplary view of a function execution screen according to a fifth gesture recognition according to an embodiment of the present invention. The fifth gesture means, for example, when a person touches the screen of the touch screen 120 of the mobile terminal with a palm to cover it, and the fifth gesture is a touch point when the screen of the touch screen 120 is touched. It may be recognized as being equal to or greater than the preset area threshold (palm touch; referred to as palm touch; 60).

먼저, 710 단계에서는 전화 통화 중 터치 제스처의 발생 유무를 판단한다. 710 단계에서 전화 통화 중 터치 제스처가 발생된 것으로 판단되면 730 단계로 진행하고, 710 단계에서 전화 통화 중 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 710 단계 이후 730 단계에서는 터치 제스처가 팜 터치 제스처(60)인지를 판단한다. 730 단계에서 터치 제스처가 팜 터치 제스처(60)인 것으로 판단되면 750 단계로 진행하고, 730 단계에서 터치 제스처가 팜 터치 제스처(60)가 아닌 것으로 판단되면 710 단계로 돌아간다. 730 단계 이후 750 단계에서는 송화음을 차단한다. 750 단계 이후 770 단계에서는 도 12의 (a)와 같이 통화 중임을 표시하는 현재의 화면을 도 12의 (b)와 같이 송화음 차단 기능이 실행되었음을 알리는 화면으로 전환한다. 도 12의 (b)를 참고하면, 송화음 차단 기능이 실행되었음을 알리는 화면은 송화음 차단을 해제하는 스피커 온(speaker on) 버튼(1501)을 포함하며, 스피커 온 버튼(1501)에 탭 제스처(30)가 입력되면 송화음 차단 기능을 해제한다. 추가로, 송화음 차단 기능이 실행되었음을 알리는 화면으로 전환된 상태에서 팜 터치 제스처(60)가 입력되면 송화음 차단 기능을 해제할 수 있다. 또한, 730 단계에서 터치 제스처가 팜 터치 제스처(60)가 아닌 것으로 판단되면 710 단계로 다시 돌아가는 것으로 기재하였지만, 인식된 터치 제스처가 미리 정의된 다른 제스처인 경우, 다른 제스처에 대응하는 기능을 실행할 수도 있다.First, in step 710, it is determined whether a touch gesture has occurred during a phone call. If it is determined in step 710 that a touch gesture has occurred during a phone call, the process proceeds to step 730, and if it is determined in step 710 that a touch gesture has not occurred during a phone call, the operation of the present invention is terminated. In step 730 after step 710, it is determined whether the touch gesture is the palm touch gesture 60. If it is determined in step 730 that the touch gesture is the palm touch gesture 60, the process proceeds to step 750, and if it is determined that the touch gesture is not the palm touch gesture 60 in step 730, the process returns to step 710. In step 750 after step 730, the song sound is cut off. After step 750, in step 770, the current screen indicating that the call is in progress as shown in (a) of FIG. 12 is switched to a screen indicating that the cutoff function has been executed, as shown in (b) of FIG. 12. Referring to (b) of FIG. 12, the screen indicating that the transmission sound blocking function has been executed includes a speaker on button 1501 for canceling the transmission sound blocking, and a tap gesture ( When 30) is input, the cutoff function is released. In addition, when the palm touch gesture 60 is input while the screen is switched to a screen indicating that the transmission sound blocking function has been executed, the transmission sound blocking function may be canceled. In addition, if it is determined in step 730 that the touch gesture is not the palm touch gesture 60, it is described that the process returns to step 710. However, if the recognized touch gesture is another predefined gesture, a function corresponding to the other gesture may be executed. have.

즉, 상기 동작에 따르면, 도 12의 (a)와 같이 전화 통화 중 휴대 단말의 터치스크린(120) 화면에 팜 터치 제스처(60)를 입력하면, 송신음이 차단될 수 있고, 도 12의 (b)와 같이 송신음 차단 기능이 실행되었음을 알리는 화면으로 통화 중 화면이 전환될 수 있다. 또한 송신음이 차단된 상태에서 휴대 단말의 터치스크린(120) 화면에 팜 터치 제스처(60)를 입력하면, 송신음 차단이 해제될 수 있다.That is, according to the above operation, if the palm touch gesture 60 is input on the touch screen 120 screen of the mobile terminal during a phone call as shown in (a) of FIG. 12, the transmission sound may be blocked, and the ( As shown in b), the screen during a call may be switched to a screen indicating that the transmission tone blocking function has been executed. In addition, if the palm touch gesture 60 is input on the screen of the touch screen 120 of the portable terminal while the transmission sound is blocked, the transmission sound blocking may be canceled.

상기와 같이 일 실시예에 따른 본 발명의 제스처 인식에 따른 기능 실행 방법 및 장치의 구성 및 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시예에 관해 설명하였으나 이외에도 본 발명의 다양한 실시예들이나, 여러 가지 변형 및 변경이 있을 수 있다. 본 명세서에서 기재된 각각의 동작들은 그 전체 또는 일부가 병렬적으로 동시에 수행되거나, 일부가 생략되거나, 다른 추가적인 동작들을 포함할 수 있다. As described above, the configuration and operation of the method and apparatus for executing a function according to the gesture recognition of the present invention according to an embodiment can be made. Meanwhile, in the above description of the present invention, specific embodiments have been described, but in addition to various implementations of the present invention. Examples, but there may be various modifications and variations. Each of the operations described in the present specification may be all or part of them simultaneously performed in parallel, some of them may be omitted, or may include other additional operations.

예를 들어, 상기 도 5 및 도 6의 인덱스 검색 화면(1200)은 해당 인덱스의 위치가 자동으로 탐색되어 현재의 화면이 해당 인덱스가 있는 화면으로 전환되도록 할 수 있으며, 이에 따라, 440 단계는 현재 화면을 인덱스 검색 화면에 표시된 해당 인덱스에 대응되는 화면으로 전환하는 동작일 수 있다. 또한, 470 단계는 현재 화면을 인덱스 검색 화면에 전환된 해당 인덱스에 대응되는 화면으로 전환하는 동작일 수 있다.For example, in the index search screen 1200 of FIGS. 5 and 6, the position of the corresponding index is automatically searched so that the current screen is switched to the screen with the corresponding index. Accordingly, step 440 This may be an operation of converting a screen to a screen corresponding to a corresponding index displayed on the index search screen. In addition, step 470 may be an operation of converting the current screen to a screen corresponding to the index converted to the index search screen.

또한 상기 도 9 및 도 10과 관련된 설명에서는 발생된 제스처에 따라, 음향 및 화면 밝기를 조절하는 화면을 표시하는 것으로 기재했지만, 상기 발생된 제스처에 의해 음향만을 조절하는 화면을 표시할 수 있으며, 또한 상기 발생된 제스처에 의해 화면 밝기만을 조절하는 화면을 표시할 수 있다.In addition, although the description related to FIGS. 9 and 10 described that a screen for adjusting sound and screen brightness is displayed according to a generated gesture, a screen for adjusting only sound can be displayed by the generated gesture. A screen in which only screen brightness is adjusted may be displayed by the generated gesture.

또한 팜 터치 제스처(60) 입력 시, 상술한 송화음 차단 및 송화음 차단 해제 이외에도, 다른 기능들이 실행될 수 있다.In addition, when the palm touch gesture 60 is input, other functions may be executed in addition to the above-described cutoff and release of cutoff.

상기 팜 터치 제스처(60) 관련 다른 실시예로, 상기 휴대 단말(100)에 팜 터치 제스처(60)가 입력되면, 휴대 단말(100)의 음을 소거하며, 음 소거 기능이 실행되었음을 알리는 화면을 표시할 수 있다. 또한 음 소거 기능이 실행되었음을 알리는 화면에 또다시 팜 터치 제스처(60)가 입력되면, 휴대 단말(100)의 음 소거를 해제할 수 있다.In another embodiment related to the palm touch gesture 60, when the palm touch gesture 60 is input to the portable terminal 100, the sound of the portable terminal 100 is muted, and a screen indicating that the mute function has been executed is displayed. Can be displayed. In addition, when the palm touch gesture 60 is again input to the screen indicating that the mute function has been executed, the mute of the portable terminal 100 may be released.

상기 팜 터치 제스처(60) 관련 또다른 실시예로, 동영상 또는 음악이 재생 중일 때, 팜 터치 제스처(60)가 입력되면, 동영상 또는 음악의 재생을 일시 정지하며, 동영상 또는 음악 재생의 일시 정지 기능이 실행되었음을 알리는 화면으로 화면을 전환할 수 있다. 또한 동영상 또는 음악 재생의 일시 정지 기능이 실행되었음을 알리는 화면에 또다시 팜 터치 제스처(60)가 입력되면 재생이 일시 정지된 동영상 또는 음악을 일시 정지된 시점부터 재생 할 수 있다.In another embodiment related to the palm touch gesture 60, when a video or music is being played, when the palm touch gesture 60 is input, the video or music is paused, and the video or music is paused. You can switch the screen to a screen that notifies you that this has been executed. In addition, when the palm touch gesture 60 is again input to the screen indicating that the pause function of the video or music playback has been executed, the video or music in which playback is paused may be played from the point when the playback is paused.

또한, 인덱스 검색 화면(1200)을 실행하기 위해 베젤 스윕 업 제스처를 입력하는 현재 화면의 하단의 일정 영역에 미리 설정된 순서대로 인덱스들이 정렬되어 표시되어 있을 수 있으며, 미리 설정된 순서의 인덱스들이 위치한 영역 중 어느 하나의 영역을 터치하여 베젤 스윕 업 제스처를 입력할 경우, 인덱스 검색 화면(1200))에 표시되는 인덱스는 터치된 영역에 미리 설정된 인덱스일 수 있다.In addition, indices may be arranged and displayed in a preset order in a certain area at the bottom of the current screen where a bezel sweep-up gesture is input to execute the index search screen 1200. Among the areas in which indexes in a preset order are located When a bezel sweep-up gesture is input by touching any one area, the index displayed on the index search screen 1200 may be a preset index for the touched area.

또한 본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 휴대 단말 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.In addition, it will be appreciated that the embodiments of the present invention can be realized in the form of hardware, software, or a combination of hardware and software. Any such software may be, for example, a nonvolatile storage device such as a storage device such as a ROM, or a memory such as a RAM, a memory chip, a device or an integrated circuit, or For example, it may be optically or magnetically recordable, such as a CD, DVD, magnetic disk or magnetic tape, and stored in a machine (eg, computer) readable storage medium. It will be appreciated that the memory that may be included in the portable terminal is an example of a program including instructions for implementing the embodiments of the present invention or a machine-readable storage medium suitable for storing programs. Accordingly, the present invention includes a program including code for implementing the apparatus or method described in any claim of the present specification, and a machine-readable storage medium storing such a program. Further, such a program may be transferred electronically through any medium, such as a communication signal transmitted through a wired or wireless connection, and the present invention suitably includes equivalents thereto.

Claims (23)

휴대 단말에서 수행되는, 제스처 인식에 따른 기능 실행 방법에 있어서,
제1 제스처 발생이 확인되는 것에 응답하여, 상기 제1 제스처에 의하여 터치되는 상기 휴대 단말의 터치 스크린 상의 면적이 미리 설정된 면적 임계치 이상인지 확인하는 동작과,
상기 제1 제스처에 의하여 터치되는 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상이라고 확인되는 것에 응답하여, 음성 차단 기능을 실행하고, 상기 음성 차단 기능이 실행됨을 알리는 제1 화면을 상기 터치 스크린 상에 표시하는 동작,
상기 제1 화면을 표시하는 중에, 제2 제스처에 의하여 터치되는 상기 휴대 단말의 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상인 상기 제2 제스처가 발생함을 확인하는 동작, 및
상기 제2 제스처의 발생이 확인되는 것에 응답하여, 상기 음성 차단 기능을 해제하는 동작을 포함하는 것을 특징으로 하는, 제스처 인식에 따른 기능 실행 방법.
In a method of executing a function according to gesture recognition performed in a mobile terminal,
In response to confirmation of occurrence of the first gesture, checking whether an area on the touch screen of the portable terminal touched by the first gesture is equal to or greater than a preset area threshold;
In response to determining that the area on the touch screen touched by the first gesture is greater than or equal to the area threshold, a voice blocking function is executed, and a first screen notifying that the voice blocking function is executed is displayed on the touch screen Action,
While displaying the first screen, confirming that the second gesture having an area on the touch screen of the portable terminal touched by a second gesture is equal to or greater than the area threshold value, and
And releasing the voice blocking function in response to confirmation of the occurrence of the second gesture.
제 1항에 있어서,
제3 제스처의 발생을 확인하는 동작,
상기 제3 제스처가 상기 터치 스크린 상에 표시되는 화면의 상단의 미리 설정된 영역내의 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처인지 확인하는 동작, 및
상기 제3 제스처가 상기 화면의 상단의 상기 미리 설정된 영역내의 상기 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처라고 확인되는 것에 응답하여,
상기 화면의 이전에 표시된 실행 화면으로 화면 전환하는 동작을 더 포함하는, 제스처 인식에 따른 기능 실행 방법.
The method of claim 1,
Confirming the occurrence of the third gesture,
Checking whether the third gesture is a gesture that is dragged to the inside of the screen while being touched from a point in a preset area at the top of the screen displayed on the touch screen, and
In response to confirming that the third gesture is a gesture dragged into the inside of the screen while being touched from the one point in the preset area at the top of the screen,
A method of executing a function according to gesture recognition, further comprising: switching a screen to an execution screen previously displayed on the screen.
제 1항에 있어서,
제3 제스처의 발생을 확인하는 동작,
상기 제3 제스처가 상기 터치 스크린 상에 표시되는 화면의 하단의 미리 설정된 영역내의 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처인지 확인하는 동작, 및
상기 제3 제스처가 상기 화면의 하단의 상기 미리 설정된 영역내의 상기 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처라고 확인되는 것에 응답하여, 상기 화면과 오버랩하여 미리 설정된 인덱스가 표시되는 인덱스 검색 화면을 표시하는 동작을 더 포함하는, 제스처 인식에 따른 기능 실행 방법.
The method of claim 1,
Confirming the occurrence of the third gesture,
Checking whether the third gesture is a gesture that is dragged into the screen while being touched from a point in a preset area below the screen displayed on the touch screen, and
In response to confirming that the third gesture is a gesture that is dragged into the screen while being touched from the one point in the preset area at the bottom of the screen, the index overlaps the screen to display a preset index A method of executing a function according to gesture recognition, further comprising an operation of displaying a search screen.
제 3항에 있어서, 상기 인덱스 검색 화면은,
미리 설정된 순서대로 상기 인덱스를 전환하는 인덱스 전환 버튼을 포함함을 특징으로 하는 제스처 인식에 따른 기능 실행 방법.
The method of claim 3, wherein the index search screen,
And an index switching button for switching the indexes in a preset order.
제 3항에 있어서,
상기 인덱스에 대응되는 화면으로 상기 화면을 전환하거나 상기 인덱스에 대응되는 화면이 표시되도록 스크롤하는 동작을 더 포함함을 특징으로 하는, 제스처 인식에 따른 기능 실행 방법.
The method of claim 3,
The method of executing a function according to gesture recognition, further comprising: switching the screen to a screen corresponding to the index or scrolling to display a screen corresponding to the index.
제 1항에 있어서,
제3 제스처의 발생을 확인하는 동작,
상기 제3 제스처가 미리 설정된 시간 간격 이내에 상기 터치 스크린 상의 두 지점이 동시에 두 번 터치되는 제스처인지 확인하는 동작, 및
상기 제3 제스처가 상기 미리 설정된 시간 간격 이내에 상기 터치 스크린 상의 두 지점이 동시에 두 번 터치되는 제스처라고 확인되는 것에 응답하여, 시간, 날짜, 배터리 정보, 상기 휴대 단말의 적어도 하나의 기능 실행 정보 중 적어도 하나를 포함하는 정보 화면을 표시하는 동작을 더 포함하는, 제스처 인식에 따른 기능 실행 방법.
The method of claim 1,
Confirming the occurrence of the third gesture,
Checking whether the third gesture is a gesture in which two points on the touch screen are simultaneously touched twice within a preset time interval, and
In response to confirming that the third gesture is a gesture in which two points on the touch screen are simultaneously touched twice within the preset time interval, at least one of time, date, battery information, and at least one function execution information of the portable terminal A method of executing a function according to gesture recognition, further comprising an operation of displaying an information screen including one.
제 6항에 있어서,
상기 정보 화면이 표시될 때 상기 미리 설정된 시간 간격 이내에 상기 터치 스크린 상의 두 지점이 동시에 두 번 터치되는 제4 제스처가 인식되는 것에 응답하여, 상기 정보 화면을 표시하는 동작을 종료하는 동작을 더 포함하는, 제스처 인식에 따른 기능 실행 방법.
The method of claim 6,
In response to recognizing a fourth gesture in which two points on the touch screen are simultaneously touched twice within the preset time interval when the information screen is displayed, terminating the operation of displaying the information screen , How to execute a function according to gesture recognition.
제 1항에 있어서,
제3 제스처의 발생을 확인하는 동작,
상기 제3 제스처가 상기 터치 스크린 상의 화면의 두 지점이 터치된 상태에서 상기 화면의 하단 방향으로 드래그 되는 제스처, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 상단 방향으로 드래그되는 제스처, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 우측 방향으로 드래그 되는 제스처, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 좌측 방향으로 드래그되는 제스처 중 하나를 포함하는지 확인하는 동작, 및
음량 및 화면 밝기 중 적어도 하나를 조절하는 화면을 표시하는 동작을 더 포함하는, 제스처 인식에 따른 기능 실행 방법.
The method of claim 1,
Confirming the occurrence of the third gesture,
The third gesture is a gesture of dragging toward the bottom of the screen while two points of the screen on the touch screen are touched, or a gesture of dragging toward the top of the screen while two points of the screen are touched, or Checking whether a gesture dragged to the right side of the screen while two points of the screen are touched or a gesture dragged to the left side of the screen while two points of the screen are touched, and
The method of executing a function according to gesture recognition, further comprising displaying a screen for adjusting at least one of a volume and a screen brightness.
제 3항, 제 6항 또는 제 8항 중 어느 하나의 항에 있어서, 미리 설정된 시간이 경과되면, 분석된 상기 제3 제스처의 유형에 대응하는 기능의 실행에 따라 화면을 표시하는 동작을 종료함을 특징으로 하는, 제스처 인식에 따른 기능 실행 방법.The operation of displaying a screen according to any one of claims 3, 6, or 8, according to execution of a function corresponding to the analyzed type of the third gesture, is terminated when a preset time elapses. A method of executing a function according to gesture recognition, characterized in that. 제 1항에 있어서,
상기 음성 차단 기능은 음 소거 기능을 포함함을 특징으로 하는 제스처 인식에 따른 기능 실행 방법.
The method of claim 1,
The method for executing a function according to gesture recognition, wherein the voice blocking function includes a mute function.
제 1항에 있어서,
상기 음성 차단 기능은 송화음 차단 기능이며, 상기 제1 화면에는 그래픽 객체가 포함되고,
상기 방법은 상기 그래픽 객체에 대한 터치 입력이 확인되는 것에 응답하여 상기 음성 차단 기능을 해제하는 동작을 더 포함하는 것을 특징으로 하는, 제스처 인식에 따른 기능 실행 방법.
The method of claim 1,
The voice blocking function is a transmission sound blocking function, and a graphic object is included in the first screen,
The method further comprises an operation of releasing the voice blocking function in response to confirming a touch input to the graphic object.
제 1항에 있어서,
상기 음성 차단 기능은 동영상 또는 음악의 재생을 일시 정지하는 기능을 포함하는 것을 특징으로 하는, 제스처 인식에 따른 기능 실행 방법.
The method of claim 1,
The voice blocking function includes a function of pausing playback of a video or music.
제스처 인식에 따른 기능 실행 장치에 있어서,
터치 스크린 및 제어부를 포함하고,
상기 제어부는:
상기 터치 스크린에서의 제1 제스처 발생이 확인되는 것에 응답하여, 상기 제1 제스처에 의하여 터치되는 상기 터치 스크린 상의 면적이 미리 설정된 면적 임계치 이상인지 확인하고,
상기 제1 제스처에 의하여 터치되는 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상이라고 확인되는 것에 응답하여, 음성 차단 기능을 실행하고, 상기 음성 차단 기능이 실행됨을 알리는 제1 화면을 상기 터치 스크린 상에 표시하고,
상기 제1 화면을 표시하는 중에, 제2 제스처에 의하여 터치되는 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상인 상기 제2 제스처가 발생함을 확인하고,
상기 제2 제스처의 발생이 확인되는 것에 응답하여, 상기 음성 차단 기능을 해제하도록 설정되는 것을 특징으로 하는, 제스처 인식에 따른 기능 실행 장치.
In the function execution device according to gesture recognition,
Including a touch screen and a control unit,
The control unit:
In response to confirming the occurrence of the first gesture on the touch screen, it is checked whether the area on the touch screen touched by the first gesture is greater than or equal to a preset area threshold,
In response to determining that the area on the touch screen touched by the first gesture is greater than or equal to the area threshold, a voice blocking function is executed, and a first screen notifying that the voice blocking function is executed is displayed on the touch screen and,
While displaying the first screen, confirming that the second gesture having an area on the touch screen touched by a second gesture being equal to or greater than the area threshold is generated,
The apparatus for executing a function according to gesture recognition, characterized in that the second gesture is set to cancel the voice blocking function in response to the confirmation of the occurrence of the second gesture.
제 13항에 있어서, 상기 제어부는,
제3 제스처의 발생을 확인하고,
상기 제3 제스처가 상기 터치 스크린 상에 표시되는 화면의 상단의 미리 설정된 영역내의 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처인지 확인하고, 상기 제3 제스처가 상기 터치 스크린 상의 화면의 상단의 상기 미리 설정된 영역내의 상기 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처라고 확인되는 것에 응답하여, 상기 화면의 이전에 표시된 실행 화면으로 화면을 전환하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.
The method of claim 13, wherein the control unit,
Confirming the occurrence of the third gesture,
Check whether the third gesture is a gesture that is dragged to the inside of the screen while being touched from a point in a preset area at the top of the screen displayed on the touch screen, and the third gesture is Gesture, characterized in that in response to being identified as a gesture dragged into the screen while being touched from the one point in the preset area at the top, the gesture is set to switch the screen to the execution screen previously displayed on the screen Device for executing functions according to recognition.
제 13항에 있어서, 상기 제어부는,
제3 제스처의 발생을 확인하고,
상기 제3 제스처가 상기 터치 스크린 상에 표시되는 화면의 하단의 미리 설정된 영역내의 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처인지 확인하고,
상기 제3 제스처가 상기 터치 스크린 상의 화면의 하단의 상기 미리 설정된 영역내의 상기 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처라고 확인되는 것에 응답하여, 상기 화면과 오버랩하여 미리 설정된 인덱스가 표시되는 인덱스 검색 화면을 표시하며, 상기 인덱스에 대응되는 화면으로 상기 화면을 전환하거나 상기 인덱스에 대응되는 화면이 표시되도록 상기 화면을 스크롤하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.
The method of claim 13, wherein the control unit,
Confirming the occurrence of the third gesture,
Check whether the third gesture is a gesture that is dragged into the inside of the screen while being touched from a point in a preset area at the bottom of the screen displayed on the touch screen,
In response to confirming that the third gesture is a gesture that is dragged to the inside of the screen while being touched from the one point in the preset area at the bottom of the screen on the touch screen, a preset index overlaps the screen A function execution device according to gesture recognition, wherein the index search screen is displayed, and the screen is set to switch to a screen corresponding to the index or to scroll the screen to display a screen corresponding to the index.
제 15항에 있어서, 상기 인덱스 검색 화면은,
미리 설정된 순서대로 상기 인덱스를 전환하는 인덱스 전환 버튼을 포함함을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.
The method of claim 15, wherein the index search screen,
And a function execution device according to gesture recognition, comprising: an index change button for switching the indexes in a preset order.
제 13항에 있어서, 상기 제어부는,
제3 제스처의 발생을 확인하고,
상기 제3 제스처가 미리 설정된 시간 간격 이내에 상기 터치 스크린 상의 화면의 두 지점이 동시에 두 번 터치되는 제스처인지 확인하고,
상기 제3 제스처가 미리 설정된 시간 간격 이내에 상기 화면의 두 지점이 동시에 두 번 터치되는 제스처라고 확인되는 것에 응답하여, 시간, 날짜, 배터리 정보, 상기 장치의 적어도 하나의 기능 실행 정보 중 적어도 하나를 포함하는 정보 화면을 표시하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.
The method of claim 13, wherein the control unit,
Confirming the occurrence of the third gesture,
Check whether the third gesture is a gesture in which two points of the screen on the touch screen are simultaneously touched twice within a preset time interval,
In response to confirming that the third gesture is a gesture in which two points of the screen are simultaneously touched twice within a preset time interval, at least one of time, date, battery information, and at least one function execution information of the device is included. A device for executing a function according to gesture recognition, characterized in that it is set to display an information screen to be displayed.
제 17항에 있어서, 상기 제어부는,
상기 정보 화면이 표시될 때 미리 설정된 시간 간격 이내에 상기 화면의 두 지점이 동시에 두 번 터치되는 제4 제스처가 인식되는 것에 응답하여, 상기 정보 화면을 표시하는 동작을 종료하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.
The method of claim 17, wherein the control unit,
Gesture, characterized in that, when the information screen is displayed, in response to recognizing a fourth gesture in which two points of the screen are simultaneously touched twice within a preset time interval, the operation of displaying the information screen is set to end Device for executing functions according to recognition.
제 13항에 있어서, 상기 제어부는,
제3 제스처의 발생을 확인하고,
상기 제3 제스처가 상기 터치 스크린 상의 화면의 두 지점이 터치된 상태에서 상기 화면의 하단 방향으로 드래그 되는 것, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 상단 방향으로 드래그되는 것, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 우측 방향으로 드래그 되는 것, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 좌측 방향으로 드래그되는 것 중 하나를 포함하는지 확인하고,
음량 및 화면 밝기 중 적어도 하나를 조절하는 화면을 표시하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.
The method of claim 13, wherein the control unit,
Confirming the occurrence of the third gesture,
The third gesture is dragged toward the bottom of the screen while two points of the screen on the touch screen are touched, or dragged toward the top of the screen while two points of the screen are touched, or Check whether it includes either dragging in the right direction of the screen while two points of the screen are touched, or dragging in the left direction of the screen while two points of the screen are touched,
A device for executing a function according to gesture recognition, characterized in that set to display a screen for adjusting at least one of a volume and a screen brightness.
제 13항에 있어서, 상기 음성 차단 기능은 음 소거 기능을 포함하는 것을 특징으로 하는, 제스처 인식에 따른 기능 실행 장치.The apparatus of claim 13, wherein the voice blocking function includes a muting function. 제 13항에 있어서, 상기 음성 차단 기능은 송화음 차단 기능이며, 제1 화면에는 그래픽 객체가 포함되고,
상기 제어부는, 상기 그래픽 객체에 대한 터치 입력이 확인되는 것에 응답하여 상기 음성 차단 기능을 해제하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.
The method of claim 13, wherein the voice blocking function is a transmission sound blocking function, and a graphic object is included in the first screen,
The control unit is configured to cancel the voice blocking function in response to a confirmation of a touch input to the graphic object.
제 13항에 있어서, 상기 음성 차단 기능은 동영상 또는 음악의 재생을 일시 정지하는 기능을 포함하는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.14. The apparatus of claim 13, wherein the voice blocking function includes a function of pausing playback of video or music. 인스트럭션들이 저장된 기록매체에 있어서, 상기 인스트럭션들은 휴대 단말의 제어부에 의하여 실행될 때 제어부로 하여금:
상기 휴대 단말의 터치 스크린에서의 제1 제스처 발생이 확인되는 것에 응답하여, 상기 제1 제스처에 의하여 터치되는 터치 스크린 상의 면적이 미리 설정된 면적 임계치 이상인지 확인하고,
상기 제1 제스처에 의하여 터치되는 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상이라고 확인되는 것에 응답하여, 음성 차단 기능을 실행하고, 상기 음성 차단 기능이 실행됨을 알리는 제1 화면을 상기 터치 스크린 상에 표시하고,
상기 제1 화면을 표시하는 중에, 제2 제스처에 의하여 터치되는 상기 휴대 단말의 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상인 상기 제2 제스처가 발생함을 확인하고, 및
상기 제2 제스처의 발생이 확인되는 것에 응답하여, 상기 음성 차단 기능을 해제하도록 하는 것을 특징으로 하는, 컴퓨터 판독가능 기록매체.
In a recording medium in which instructions are stored, when the instructions are executed by a control unit of a portable terminal, the control unit causes:
In response to the occurrence of the first gesture on the touch screen of the portable terminal, it is checked whether the area on the touch screen touched by the first gesture is greater than or equal to a preset area threshold,
In response to determining that the area on the touch screen touched by the first gesture is greater than or equal to the area threshold, a voice blocking function is executed, and a first screen notifying that the voice blocking function is executed is displayed on the touch screen and,
While displaying the first screen, confirming that the second gesture having an area on the touch screen of the portable terminal touched by a second gesture is equal to or greater than the area threshold value, and
And in response to confirming the occurrence of the second gesture, causing the voice blocking function to be released.
KR1020130100720A 2013-08-23 2013-08-23 Method, apparatus and recovering medium for executing a funtion according to a gesture recognition KR102197912B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130100720A KR102197912B1 (en) 2013-08-23 2013-08-23 Method, apparatus and recovering medium for executing a funtion according to a gesture recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130100720A KR102197912B1 (en) 2013-08-23 2013-08-23 Method, apparatus and recovering medium for executing a funtion according to a gesture recognition

Publications (2)

Publication Number Publication Date
KR20150022598A KR20150022598A (en) 2015-03-04
KR102197912B1 true KR102197912B1 (en) 2021-01-04

Family

ID=53020563

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130100720A KR102197912B1 (en) 2013-08-23 2013-08-23 Method, apparatus and recovering medium for executing a funtion according to a gesture recognition

Country Status (1)

Country Link
KR (1) KR102197912B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107544742B (en) * 2016-06-28 2020-10-20 富泰华工业(深圳)有限公司 Control method and electronic device thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013050952A (en) 2011-08-30 2013-03-14 Samsung Electronics Co Ltd Portable terminal having touch screen, and user interface provision method therefor
US20130106776A1 (en) 2011-10-27 2013-05-02 Samsung Electronics Co. Ltd. System and method for identifying inputs input to mobile device with touch panel

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101611302B1 (en) * 2009-08-10 2016-04-11 엘지전자 주식회사 Mobile terminal capable of receiving gesture input and control method thereof
KR101629645B1 (en) * 2009-09-18 2016-06-21 엘지전자 주식회사 Mobile Terminal and Operation method thereof
KR101679572B1 (en) * 2010-05-31 2016-11-25 엘지전자 주식회사 Electronic device and operation control method thereof
KR101688150B1 (en) * 2010-07-12 2017-01-02 엘지전자 주식회사 Mobile terminal and method for controlling object display using multi-touch thereof
EP3734407A1 (en) * 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Portable device comprising a touch-screen display, and method for controlling same
KR101710547B1 (en) * 2012-01-10 2017-02-27 엘지전자 주식회사 Mobile termianl and method for controlling of the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013050952A (en) 2011-08-30 2013-03-14 Samsung Electronics Co Ltd Portable terminal having touch screen, and user interface provision method therefor
US20130106776A1 (en) 2011-10-27 2013-05-02 Samsung Electronics Co. Ltd. System and method for identifying inputs input to mobile device with touch panel

Also Published As

Publication number Publication date
KR20150022598A (en) 2015-03-04

Similar Documents

Publication Publication Date Title
KR102141099B1 (en) Rapid screen segmentation method and apparatus, electronic device, display interface, and storage medium
JP2020091912A (en) Mobile terminal having touch screen and method for providing user interface therein
US9013422B2 (en) Device, method, and storage medium storing program
AU2013276998B2 (en) Mouse function provision method and terminal implementing the same
KR101990567B1 (en) Mobile apparatus coupled with external input device and control method thereof
JP5837955B2 (en) Method for executing function of electronic device and electronic device
JP2014137824A (en) Mobile device and method for displaying information
KR20150079829A (en) Gesture-based conversation processing method, apparatus, and terminal device
KR20110037761A (en) Method for providing user interface using a plurality of touch sensor and mobile terminal using the same
KR20130141209A (en) Apparatus and method for proximity touch sensing
KR20140142546A (en) Electronic device and method for controlling applications thereof
WO2013135169A1 (en) Method for adjusting input-method keyboard and mobile terminal thereof
KR20130097331A (en) Apparatus and method for selecting object in device with touch screen
TW201516844A (en) Apparatus and method for selecting object
KR20150065336A (en) Method, apparatus and computer readable recording medium for recognizing gesture through an electronic device
KR102156617B1 (en) Method and apparatus for controlling operation of touch key
KR20150081657A (en) Mobile terminal and method for control thereof
KR102186815B1 (en) Method, apparatus and recovering medium for clipping of contents
US20130328827A1 (en) Information terminal device and display control method
EP2955616A1 (en) Electronic device and method of editing icon in electronic device
JP2013084237A (en) Device, method, and program
JP5762885B2 (en) Apparatus, method, and program
KR102197912B1 (en) Method, apparatus and recovering medium for executing a funtion according to a gesture recognition
JP2013065291A (en) Device, method, and program
KR20140131051A (en) electro device comprising pressure sensor and method for controlling thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant