KR102197912B1 - Method, apparatus and recovering medium for executing a funtion according to a gesture recognition - Google Patents
Method, apparatus and recovering medium for executing a funtion according to a gesture recognition Download PDFInfo
- Publication number
- KR102197912B1 KR102197912B1 KR1020130100720A KR20130100720A KR102197912B1 KR 102197912 B1 KR102197912 B1 KR 102197912B1 KR 1020130100720 A KR1020130100720 A KR 1020130100720A KR 20130100720 A KR20130100720 A KR 20130100720A KR 102197912 B1 KR102197912 B1 KR 102197912B1
- Authority
- KR
- South Korea
- Prior art keywords
- screen
- gesture
- touched
- function
- touch
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
제스처 인식에 따른 기능 실행 방법에 있어서, 제스처 발생 시, 상기 제스처의 유형을 분석하는 과정과; 상기 분석된 제스처의 유형에 대응하는 기능을 실행하여 화면에 표시하는 과정을 포함하며, 상기 제스처의 유형에 대응하는 기능은, 단말의 정보 표시 제어 기능 및 상기 단말의 기능 실행 제어 기능 중 적어도 하나의 제어 기능을 포함함을 특징으로 한다.A method of executing a function according to gesture recognition, the method comprising: analyzing a type of a gesture when a gesture is generated; And executing a function corresponding to the analyzed gesture type and displaying it on a screen, and the function corresponding to the gesture type includes at least one of a terminal information display control function and a function execution control function of the terminal. It is characterized by including a control function.
Description
본 발명은 휴대 단말 장치의 터치스크린에서 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체에 관한 것이다.The present invention relates to a method, an apparatus, and a recording medium for executing a function according to gesture recognition on a touch screen of a portable terminal device.
휴대 단말에는 스마트폰, 휴대폰, 태블릿 PC 이외에도 손목 장착 휴대 장치(또는 시계형 터치 장치)와 같이 손목, 허리, 발목 등에 부착할 수 있는 착용형(wearable) 휴대 장치가 있다. 또한, 최근 대부분의 휴대 단말은 터치스크린을 구비하여, 휴대 단말의 다양한 서비스 및 부가 기능들을 사용자의 신체 및 터치 가능한 입력 수단을 통한 터치 입력으로 동작시킬 수 있게 되었다.In addition to smartphones, mobile phones, and tablet PCs, portable terminals include wearable portable devices that can be attached to wrists, waists, and ankles, such as wrist-mounted portable devices (or watch-type touch devices). In addition, most of the portable terminals have a touch screen in recent years, so that various services and additional functions of the portable terminal can be operated by a touch input through a user's body and touchable input means.
본 발명은 착용형(wearable) 휴대 장치, 스마트폰, 휴대폰, 태블릿 PC 등의 휴대 단말에 특정 터치 제스처 입력 시, 어느 화면에서든 입력된 특정 터치 제스처의 정의된 기능을 실행하도록 하기 위한 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체를 제공할 수 있도록 한다.The present invention is based on gesture recognition for executing a defined function of a specific touch gesture input on any screen when a specific touch gesture is input to a portable terminal such as a wearable portable device, a smart phone, a mobile phone, and a tablet PC. It is possible to provide a function execution method, device and recording medium.
또한, 본 발명은 휴대 단말의 물리적인 버튼 및/또는 터치스크린에 표시되는 가상의 버튼을 최대한 배제하여, 휴대 단말의 크기를 최소화하며 동시에 화면을 효율적으로 사용할 수 있도록 하기 위한 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체를 제공할 수 있도록 한다.In addition, the present invention minimizes the size of the mobile terminal by excluding the physical buttons of the mobile terminal and/or virtual buttons displayed on the touch screen as much as possible, and executes a function according to gesture recognition to enable efficient use of the screen at the same time. It is possible to provide a method, apparatus and recording medium.
본 발명의 일 견지에 따르면, 제스처 인식에 따른 기능 실행 방법에 있어서, 제스처 발생 시, 상기 제스처의 유형을 분석하는 과정과; 상기 분석된 제스처의 유형에 대응하는 기능을 실행하여 화면에 표시하는 과정을 포함하며,According to an aspect of the present invention, there is provided a method of executing a function according to gesture recognition, the method comprising: analyzing a type of a gesture when a gesture is generated; And executing a function corresponding to the analyzed gesture type and displaying it on the screen,
상기 제스처의 유형에 대응하는 기능은, 단말의 정보 표시 제어 기능 및 상기 단말의 기능 실행 제어 기능 중 적어도 하나의 제어 기능을 포함을 특징으로 한다.The function corresponding to the type of gesture may include at least one of a terminal information display control function and a function execution control function of the terminal.
본 발명의 다른 견지에 따르면, 제스처 인식에 따른 기능 실행 장치에 있어서, 터치스크린과, 상기 터치스크린에서 제스처 감지 시, 상기 제스처의 유형을 분석하며, 상기 분석된 제스처 유형에 대응하는 기능을 실행하여 상기 터치스크린의 화면에 표시하는 제어부를 포함하며,According to another aspect of the present invention, in an apparatus for executing a function according to gesture recognition, when a gesture is detected on a touch screen and the touch screen, the gesture type is analyzed, and a function corresponding to the analyzed gesture type is executed. And a control unit for displaying on the screen of the touch screen,
상기 제스처의 유형에 대응하는 기능은, 상기 장치의 정보 표시 제어 기능 및 상기 장치의 기능 실행 제어 기능 중 적어도 하나의 제어 기능을 포함함을 특징으로 한다.The function corresponding to the type of gesture is characterized in that it includes at least one of an information display control function of the device and a function execution control function of the device.
본 발명의 또다른 견지에 따르면, 제스처 인식에 따른 기능 실행 기록매체에 있어서, 터치스크린과, 상기 터치스크린에서 제스처 감지 시, 상기 제스처의 유형을 분석하며, 상기 분석된 제스처 유형에 대응하는 단말의 정보 표시 제어 기능 및 상기 단말의 기능 실행 제어 기능 중 적어도 하나의 제어 기능을 포함하는 기능을 실행하여 상기 터치스크린의 화면에 표시하는 제어부를 기능시키기 위한 프로그램이 기록된 것임을 특징으로 한다.According to another aspect of the present invention, in a function execution recording medium according to gesture recognition, when a gesture is sensed by a touch screen and the touch screen, the type of the gesture is analyzed, and the terminal corresponding to the analyzed gesture type is A program for performing a function including at least one control function of an information display control function and a function execution control function of the terminal to be displayed on the screen of the touch screen is recorded.
상기한 바와 같이, 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체를 사용함으로서, 착용형(wearable) 휴대 장치, 스마트폰, 휴대폰, 태블릿 PC 등의 휴대 단말에 특정 터치 제스처 입력 시, 어느 화면에서든 입력된 특정 터치 제스처의 정의된 기능이 실행될 수 있다. 이에 따라, 휴대 단말의 물리적인 버튼 및/또는 터치스크린에 표시되는 가상의 버튼을 최대한 배제하여 휴대 단말의 크기를 최소화할 수 있으며, 동시에 사용자는 화면을 효율적으로 사용할 수 있다.As described above, when a specific touch gesture is input to a portable terminal such as a wearable portable device, a smart phone, a mobile phone, or a tablet PC by using the method, device and recording medium according to gesture recognition, any screen A defined function of the input specific touch gesture may be executed. Accordingly, the size of the portable terminal can be minimized by excluding the physical buttons of the portable terminal and/or virtual buttons displayed on the touch screen as much as possible, and the user can use the screen efficiently.
도 1은 본 발명의 일 실시예에 따른 제스처 인식에 따른 기능 실행 동작을 수행하는 휴대 단말의 블록 구성도
도 2는 본 발명의 일 실시예에 따른 제스처 인식에 따른 기능 실행 동작의 흐름도
도 3은 본 발명의 일 실시예에 따른 제1 제스처 인식에 따른 기능 실행 동작의 흐름도
도 4는 본 발명의 일 실시예에 따른 제1 제스처 인식에 따른 기능 실행 화면의 예시도
도 5는 본 발명의 일 실시예에 따른 제2 제스처 인식에 따른 기능 실행 동작의 흐름도
도 6은 본 발명의 일 실시예에 따른 제 2 제스처 인식에 따른 기능 실행 화면의 예시도
도 7은 본 발명의 일 실시예에 따른 제3 제스처 인식에 따른 기능 실행 동작의 흐름도
도 8은 본 발명의 일 실시예에 따른 제3 제스처 인식에 따른 기능 실행 화면의 예시도
도 9는 본 발명의 일 실시예에 따른 제4 제스처 인식에 따른 기능 실행 동작의 흐름도
도 10은 본 발명의 일 실시예에 따른 제4 제스처 인식에 따른 기능 실행 화면의 예시도
도 11은 본 발명의 일 실시예에 따른 제5 제스처 인식에 따른 기능 실행 동작의 흐름도
도 12는 본 발명의 일 실시예에 따른 제5 제스처 인식에 따른 기능 실행 화면의 예시도1 is a block diagram of a mobile terminal performing a function execution operation according to gesture recognition according to an embodiment of the present invention;
2 is a flowchart of a function execution operation according to gesture recognition according to an embodiment of the present invention
3 is a flowchart of a function execution operation according to a first gesture recognition according to an embodiment of the present invention
4 is an exemplary view of a function execution screen according to a first gesture recognition according to an embodiment of the present invention
5 is a flowchart of a function execution operation according to a second gesture recognition according to an embodiment of the present invention
6 is an exemplary diagram of a function execution screen according to a second gesture recognition according to an embodiment of the present invention
7 is a flowchart of a function execution operation according to a third gesture recognition according to an embodiment of the present invention
8 is an exemplary diagram of a function execution screen according to a third gesture recognition according to an embodiment of the present invention
9 is a flowchart of a function execution operation according to a fourth gesture recognition according to an embodiment of the present invention
10 is an exemplary view of a function execution screen according to a fourth gesture recognition according to an embodiment of the present invention
11 is a flowchart of a function execution operation according to a fifth gesture recognition according to an embodiment of the present invention
12 is an exemplary view of a function execution screen according to a fifth gesture recognition according to an embodiment of the present invention
이하 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 탑 베젤 스윕 다운 제스처, 투 핑거 더블 탭, 인덱스 검색 화면 등의 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, specific items such as a top-bezel sweep-down gesture, a two-finger double-tap, and an index search screen are shown. This is provided to help a more general understanding of the present invention, and these specific items are provided within the scope of the present invention. It will be apparent to those of ordinary skill in the art that modifications or changes may be made.
도 1은 본 발명의 일 실시예에 따른 제스처 인식에 따른 기능 실행 동작을 수행하는 휴대 단말의 블록 구성도이다. 도 1을 참조하면, 휴대 단말(100)은 터치스크린(120), 터치스크린 컨트롤러(130), 입력부(140), 출력부(150), 저장부(170), 제어부(110)를 포함할 수 있다. 또한 휴대 단말(100)는 이동 통신 모듈(180), 서브 통신 모듈(190)을 포함할 수 있다. 1 is a block diagram of a mobile terminal performing a function execution operation according to gesture recognition according to an embodiment of the present invention. Referring to FIG. 1, the portable terminal 100 may include a
터치스크린(120)은 사용자의 조작을 입력 받으며, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이 할 수 있다. 즉, 터치스크린(120)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저 인터페이스를 제공할 수 있다. 터치스크린(120)은 유저 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(130)로 전송할 수 있다. 터치스크린(120)은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 전자펜과 같은 터치 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력 받을 수 있다. 또한, 터치스크린(120)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력 받을 수 있다. 터치스크린(120)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(130)로 전송할 수 있다. The
또한, 터치는 터치스크린(120)과 사용자의 신체 또는 터치 가능한 입력 수단과의 직접적인 접촉에 한정되지 않고, 비접촉을 포함할 수 있다. Further, the touch is not limited to direct contact between the
터치스크린(120)에서 검출 가능한 간격은 휴대 단말(100)의 성능 또는 구조에 따라 변경될 수 있다. 또한 터치스크린(120)은 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 의한 터치 이벤트와, 비접촉 상태로의 입력(예컨대, 호버링(Hovering)) 이벤트를 구분하여 검출 가능하도록, 상기 터치 이벤트와 호버링 이벤트에 의해 검출되는 값(예컨대, 전류값 등)이 다르게 출력될 수 있도록 구성될 수 있다. 또한 호버링 이벤트 인식 시 터치스크린(120)은 호버링 이벤트가 발생되는 공간과 터치스크린(120) 사이의 거리에 따라 검출되는 값(예컨대, 전류값 등)을 다르게 출력한다.The interval detectable on the
터치스크린(120)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다. The
한편, 터치스크린 컨트롤러(130)는 터치스크린(120)에서부터 수신된 아날로그 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(130)로부터 수신된 디지털 신호를 이용하여 터치스크린(120)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 이벤트 또는 호버링 이벤트에 응답하여 터치스크린(120)에 표시된 단축 아이콘(도시되지 아니함)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다. 또한, 터치스크린 컨트롤러(130)는 제어부(110)에 포함될 수도 있다. Meanwhile, the touch screen controller 130 converts the analog signal received from the
또한, 터치스크린 컨트롤러(130)는 터치스크린(120)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 호버링 이벤트가 발생되는 공간과 터치스크린(190) 사이의 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수 있다. In addition, the touch screen controller 130 can check the distance between the space where the hovering event occurs and the
또한, 터치스크린(120)은 사용자의 신체 및 터치 가능한 입력 수단에 의한 입력을 동시에 입력받을 수 있도록, 사용자의 신체 및 터치 가능한 입력 수단의 터치나 근접을 각각 감지할 수 있는 적어도 두 개의 터치스크린 패널을 포함할 수 있다. 상기 적어도 두 개의 터치스크린 패널은 서로 다른 출력값을 터치스크린 컨트롤러(130)에 제공하고, 터치스크린 컨트롤러(130)는 상기 적어도 두 개의 터치스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치스크린으로부터의 입력이 사용자의 신체에 의한 입력인지, 터치 가능한 입력 수단에 의한 입력인지를 구분한다. In addition, the
입력부(140)는 사용자의 조작을 입력받으며, 버튼(도시되지 아니함), 키패드(도시되지 아니함) 및 마이크(도시되지 아니함) 중 적어도 하나를 포함할 수 있다. The
버튼(도시되지 아니함)은 상기 휴대 단말(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 메뉴 버튼, 홈 버튼 중 적어도 하나일 수 있다. A button (not shown) may be formed on the front, side or rear of the housing of the mobile terminal 100, and may be at least one of a power/lock button, a menu button, and a home button.
키패드(도시되지 아니함)는 휴대 단말(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(도시되지 아니함)는 휴대 단말(100)에 형성되는 물리적인 키패드 또는 터치스크린(120)에 표시되는 가상의 키패드를 포함할 수 있다. 휴대 단말(100)에 형성되는 물리적인 키패드는 휴대 단말(100)의 성능 또는 구조에 따라 제외될 수 있다. The keypad (not shown) may receive a key input from a user to control the portable terminal 100. The keypad (not shown) may include a physical keypad formed on the mobile terminal 100 or a virtual keypad displayed on the
마이크(도시되지 아니함)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.A microphone (not shown) receives a voice or sound under the control of the
출력부(150)는 스피커(도시되지 아니함) 및 진동 모터(도시되지 아니함) 중 적어도 하나를 포함할 수 있다.The
스피커(도시되지 아니함)는 제어부(110)의 제어에 따라 이동통신 모듈(180) 또는 서브통신 모듈(190)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 등)에 대응되는 사운드를 휴대 단말(100) 외부로 출력할 수 있다. 스피커(도시되지 아니함)는 휴대 단말(100)이 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(도시되지 아니함)는 상기 휴대 단말(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다. A speaker (not shown) is applied to various signals (eg, wireless signals, broadcast signals, digital audio files, digital video files, etc.) of the
진동모터(도시되지 아니함)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 휴대 단말(100)은 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(도시되지 아니함)가 동작한다. 상기 휴대 단말(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(도시되지 아니함)는 터치스크린(120) 상을 터치하는 사용자의 터치 동작 및 터치스크린(120) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.The vibration motor (not shown) may convert an electrical signal into mechanical vibration under the control of the
이동통신 모듈(180)은 제어부(110)의 제어에 따라 적어도 하나 또는 복수의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 휴대 단말(100)가 외부 장치와 연결되도록 한다. 이동통신 모듈(180)은 휴대 단말(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다. 또한 이동통신 모듈(180)은 제어부(110)의 제어에 따라 와이파이(Wi-Fi), 3G/4G 데이터 네트워크를 통해 무선 액세스 포인트(AP, access point)가 설치된 장소에서 무선 인터넷 등과 연결되거나, 주변 장치들과 무선으로 무선 신호를 송/수신한다. The
서브통신 모듈(190)은 무선랜 모듈(도시되지 아니함)과 근거리통신 모듈(도시되지 아니함) 중 적어도 하나를 포함할 수 있다. The
무선랜 모듈(도시되지 아니함)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(도시되지 아니함)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(도시되지 아니함)은 제어부(110)의 제어에 따라 휴대 단말(100)간에 무선으로 근거리 통신을 할 수 있다. The wireless LAN module (not shown) may be connected to the Internet at a place where a wireless access point (AP) (not shown) is installed under the control of the
휴대 단말(100)는 성능에 따라 이동통신 모듈(180), 무선랜 모듈(도시되지 아니함), 및 근거리통신 모듈(도시되지 아니함) 중 적어도 하나를 포함할 수 있다. 예를 들어, 휴대 단말(100)는 성능에 따라 이동통신 모듈(180), 무선랜 모듈(도시되지 아니함), 및 근거리통신 모듈(도시되지 아니함)들의 조합을 포함할 수 있다. The portable terminal 100 may include at least one of a
저장부(170)는 제어부(110)의 제어에 따라 터치스크린(120), 입력부(140), 출력부(150), 이동 통신 모듈(180), 서브 통신 모듈(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(170)는 휴대 단말(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다. The
"저장부"라는 용어는 저장부(170), 제어부(110)내 롬(도시되지 아니함), 램(도시되지 아니함) 또는 휴대 단말(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다. The term “storage unit” refers to the
제어부(110)는 CPU(도시되지 아니함), 휴대 단말(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 도시되지 아니함) 및 휴대 단말(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 휴대 단말(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 도시되지 아니함)을 포함할 수 있다. CPU(도시되지 아니함)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(도시되지 아니함), 롬(도시되지 아니함) 및 램(도시되지 아니함)은 내부버스(bus)를 통해 상호 연결될 수 있다. The
제어부(110)는 터치스크린(120), 터치스크린 컨트롤러(130), 입력부(140), 출력부(150), 저장부(170)를 제어할 수 있다. The
또한 제어부(110)는 본 발명의 일 실시예에 따른 제스처 인식에 따른 기능 실행 동작의 제어 특징에 따라, 터치스크린(120)에서 제스처 감지 시, 상기 제스처의 유형을 분석하며, 후술하는 바와 같이 상기 분석된 제스처 유형에 대응하는 기능을 실행하여 상기 터치스크린(120)의 화면에 표시할 수 있다. In addition, the
도 2는 본 발명의 일 실시예에 따른 제스처 인식에 따른 기능 실행 동작의 흐름도이다. 도 2를 참조하면, 210 단계에서는 사용자의 터치 입력에 따른 터치 제스처 발생 유무를 판단한다. 210 단계에서 터치 제스처가 발생된 것으로 판단되면 230 단계로 진행하고, 210 단계에서 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 210 단계 이후 230 단계에서는 터치 제스처의 유형을 분석한다. 230 단계 이후 250 단계에서는 아래의 실시예들에서 후술하는 바와 같이 분석된 터치 제스처 유형에 대응하는 기능을 실행한다. 이때의 기능은 휴대 단말의 정보 표시 제어 기능 및 휴대 단말의 기능 실행 제어 기능 중 적어도 하나의 제어 기능을 포함할 수 있다. 정보 표시 제어 기능은 화면 전환과 관련된 제어, 인덱스 검색 화면 표시와 관련된 제어, 정보 화면 표시와 관련된 제어 중 적어도 하나를 포함할 수 있다. 2 is a flowchart of a function execution operation according to gesture recognition according to an embodiment of the present invention. Referring to FIG. 2, in
휴대 단말의 기능 실행 제어는 음향 및 화면 밝기 중 적어도 하나를 조절하는 제어, 송화음을 차단하는 제어, 송화음 차단을 해제하는 제어, 휴대 단말의 음을 소거하는 제어, 휴대 단말의 음 소거를 해제하는 제어, 동영상 또는 음악의 재생을 중지하는 제어, 동영상 또는 음악의 재생 중지를 해제하는 제어 중 적어도 하나를 포함할 수 있다.The function execution control of the portable terminal is a control that adjusts at least one of sound and screen brightness, a control that blocks a consonant sound, a control that cancels a transmission sound block, a control that mutes the sound of a portable terminal, and a mute of the portable terminal. It may include at least one of a control to perform, a control to stop playing a video or music, and a control to release a stop to play a video or music.
도 3은 본 발명의 일 실시예에 따른 제1 제스처 인식에 따른 기능 실행 동작의 흐름도이며, 도 4는 본 발명의 일 실시예에 따른 제1 제스처 인식에 따른 기능 실행 화면의 예시도이다. 상기 제 1 제스처는 도 4의 (a)와 같이 터치스크린(120)의 화면 상단의 미리 설정된 영역내의 어느 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그(drag; 사용자의 손가락 또는 터치 가능한 입력 수단이 터치스크린의 한 지점을 터치한 상태에서 다른 지점으로 이동하여 정지 후 터치를 떼는 동작)되는 것(top-bezel sweep down; 탑 베젤 스윕 다운 이라고 함; 10)일 수 있다. 이때의 화면 상단의 미리 설정된 영역과 터치된 상태로 화면의 내부로 드래그되어야 하는 최소 길이는 제조 시 또는 사용자에 의해 설정 또는/및 변경 될 수 있다. 3 is a flowchart of a function execution operation according to a first gesture recognition according to an embodiment of the present invention, and FIG. 4 is an exemplary diagram of a function execution screen according to a first gesture recognition according to an embodiment of the present invention. The first gesture is a touched state from any one point in a preset area at the top of the screen of the
먼저 310 단계에서는 터치 제스처의 발생 유무를 판단한다. 310 단계에서 터치 제스처가 발생된 것으로 판단되면 330 단계로 진행하고, 310 단계에서 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 310 단계 이후 330 단계에서는 터치 제스처가 탑 베젤 스윕 다운 제스처(10)인지를 판단한다. 330 단계에서 탑 베젤 스윕 다운 제스처(10)인 것으로 판단되면 350 단계로 진행하고, 330 단계에서 탑 베젤 스윕 다운 제스처(10)가 아닌 것으로 판단되면 310 단계로 다시 돌아간다. 330 단계 이후 350 단계에서는 현재 화면의 이전에 표시된 실행 화면으로 화면을 전환한다. 단, 상기 330 단계에서 탑 베젤 스윕 다운 제스처가 아닌 것으로 판단되면 310 단계로 다시 돌아가는 것으로 기재하였지만, 인식된 터치 제스처가 미리 정의된 다른 제스처인 경우, 다른 제스처에 대응하는 기능을 실행할 수도 있다.First, in
즉, 상기 동작에 따르면, 도 4의 (a)와 같이 휴대 단말의 터치스크린(120)의 화면에 탑 베젤 스윕 다운 제스처(10)를 입력하여, 도 4의 (b)와 같이 현재의 화면을 이전 화면으로 되돌아가도록 할 수 있다. That is, according to the above operation, by inputting the top bezel sweep-
도 5는 본 발명의 일 실시예에 따른 제2 제스처 인식에 따른 기능 실행 동작의 흐름도이며, 도 6은 본 발명의 일 실시예에 따른 제 2 제스처 인식에 따른 기능 실행 화면의 예시도이다. 상기 제2 제스처는 도 6의 (a)와 같이 터치스크린(120)의 화면 하단의 미리 설정된 영역내의 어느 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 것(bottom-bezel sweep up; 바텀 베젤 스윕 업 이라고 함; 20)일 수 있다. 이때의 화면 하단의 미리 설정된 영역과 터치된 상태로 화면의 내부로 드래그되어야 하는 최소 길이는 제조 시 또는 사용자에 의해 설정 또는/및 변경 가능할 수 있다.5 is a flowchart of a function execution operation according to a second gesture recognition according to an embodiment of the present invention, and FIG. 6 is an exemplary view of a function execution screen according to a second gesture recognition according to an embodiment of the present invention. The second gesture is dragged to the inside of the screen while being touched from any one point in a preset area at the bottom of the screen of the
먼저, 410 단계에서는 터치 제스처의 발생 유무를 판단한다. 410 단계에서 터치 제스처가 발생된 것으로 판단되면 420 단계로 진행하고, 410 단계에서 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 410 단계 이후 420 단계에서는 터치 제스처가 바텀 베젤 스윕 업(20) 제스처인지를 판단한다. 420 단계에서 터치 제스처가 바텀 베젤 스윕 업(20) 제스처인 것으로 판단되면 430 단계로 진행하고, 420 단계에서 터치 제스처가 바텀 베젤 스윕 업(20) 제스처가 아닌 것으로 판단되면 410 단계로 돌아간다. 420 단계 이후 430 단계에서는 도 6의 (b)와 같이 현재 화면과 오버랩하여 인덱스 검색 화면(인덱스 스크롤 화면이라고도 함; 1200)을 표시한다. 이때의 인덱스 검색 화면(1200)은 사용자가 원하는 인덱스를 갖는 화면이 표시되도록 하는 기능을 갖는다. 또한 인덱스 검색 화면(1200)은 현재의 화면이 빠르게 자동으로 스크롤되어 해당 인덱스가 있는 화면이 표시되도록 할 수도 있다. 도 6의 (b)를 참조하면, 인덱스 검색 화면(1200))에는 미리 설정된 인덱스를 표시할 수 있다. 또한, 추가로 인덱스 검색 화면(1200)에는 설정된 순서대로 인덱스를 전환하는 인덱스 전환 버튼들(1203, 1205)이 포함될 수 있다. 430 단계 이후 440 단계에서는 인덱스 검색 화면(1200)에 표시된 해당 인덱스에 대응되는 화면이 표시되도록 현재 화면을 스크롤 한다. 단, 현재 화면이 인덱스 검색 화면(1200)에 표시된 해당 인덱스에 대응되는 화면이면 이 440 단계를 생략할 수 있다. 440 단계 이후 450 단계에서는 인덱스 검색 화면(1200)의 인덱스 전환 버튼(1203 또는 1205)에 탭 제스처(tap; 화면의 어느 한 지점을 짧고 가볍게 두드리는 제스처; 30)가 발생했는지를 판단한다. 450 단계에서 인덱스 검색 화면(1200)의 인덱스 전환 버튼(1203 또는 1205)에 탭 제스처(30)가 발생된 것으로 판단되면 460 단계로 진행하고, 450 단계에서 인덱스 검색 화면(1200)의 인덱스 전환 버튼(1203 또는 1205)에 탭 제스처(30)가 발생되지 않은 것으로 판단되면 480 단계로 진행한다. 450 단계 이후 460 단계에서는 인덱스 검색 화면(1200)에 표시된 인덱스를 탭 제스처(30)에 대응하는 인덱스로 전환한다. 상기 인덱스 전환 버튼(1203 또는 1205)은 미리 설정된 순서대로 인덱스를 전환하기 위한 것으로, 인덱스 전환 버튼(1203 또는 1205)에 탭 제스처가 입력되면, 인덱스 검색 화면(1200)에 표시된 인덱스를 인덱스 검색 화면(1200)에 표시된 인덱스의 다음 순서(또는 이전 순서)의 인덱스로 전환한다. 460 단계 이후 470 단계에서는 인덱스 검색 화면(1200)에 전환된 해당 인덱스에 대응되는 화면이 표시되도록 현재 화면을 스크롤 한다. 470 단계 이후 480 단계에서는 미리 설정된 시간이 경과 되었는지를 판단한다. 480 단계에서 미리 설정된 시간이 경과된 것으로 판단되면 490 단계로 진행하고, 480 단계에서 미리 설정된 시간이 경과되지 않은 것으로 판단되면 450 단계로 돌아간다. 480 단계 이후 490 단계에서는 인덱스 검색 화면(1200)을 사라지게 한다. 즉, 490 단계에서는 인덱스 검색 화면(1200)을 표시하는 동작을 종료한다. 단, 상기 420 단계에서 터치 제스처가 바텀 베젤 스윕 업 제스처(20)가 아닌 것으로 판단되면 410 단계로 다시 돌아가는 것으로 기재하였지만, 인식된 터치 제스처가 미리 정의된 다른 제스처인 경우, 다른 제스처에 대응하는 기능을 실행할 수도 있다.First, in
즉, 상기 동작에 따르면, 도 6의 (a)와 같이 휴대 단말의 터치스크린(120)의 화면에 바텀 베젤 스윕 업 제스처(20)를 입력하여, 도 6의 (b)와 같이 현재의 화면에 인덱스 검색 화면(1200)을 오버랩하여 표시되도록 할 수 있다. 이때, 현재의 화면이 인덱스 검색 화면(1200)에 표시된 인덱스와 대응하지 않으면, 인덱스 검색 화면(1200)에 표시된 인덱스와 대응하는 화면이 표시되도록 현재의 화면이 빠르게 스크롤될 수 있다. 또한, 도 6의(b)와 같이 인덱스 검색 화면(1200)의 인덱스 전환 버튼(1205)에 탭 제스처(30)를 입력하면, 미리 설정된 순서에 따라 인덱스 검색 화면(1200)의 인덱스를 변환하고 동시에 인덱스 검색 화면(1200)에 표시된 인덱스와 대응하는 화면이 표시되도록 현재의 화면이 빠르게 스크롤될 수 있다. 도 6에서는 인덱스 검색 화면(1200)의 인덱스는 설정 및 조건에 따라 다양한 인덱스가 표시될 수 있다. 또한 인덱스 검색 화면(1200)의 크기 및 표시되는 위치는 다양할 수 있다. That is, according to the above operation, by inputting the bottom bezel sweep-up
도 7은 본 발명의 일 실시예에 따른 제3 제스처 인식에 따른 기능 실행 동작의 흐름도이며, 도 8은 본 발명의 일 실시예에 따른 제3 제스처 인식에 따른 기능 실행 화면의 예시도이다. 상기 제 3제스처는 미리 설정된 시간 간격 이내에 터치스크린(120)의 화면의 어느 두 지점이 동시에 두 번 터치되는 것(two finger double tap; 투 핑거 더블 탭 이라고 함; 40)일 수 있다.7 is a flowchart of a function execution operation according to a third gesture recognition according to an embodiment of the present invention, and FIG. 8 is an exemplary view of a function execution screen according to a third gesture recognition according to an embodiment of the present invention. The third gesture may be that two points on the screen of the
먼저, 510 단계에서는 터치 제스처의 발생 유무를 판단한다. 510 단계에서 터치 제스처가 발생된 것으로 판단되면 530 단계로 진행하고, 510 단계에서 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 510 단계 이후 530 단계에서는 터치 제스처가 투 핑거 더블 탭 제스처(40)인지를 판단한다. 530 단계에서 터치 제스처가 투 핑거 더블 탭 제스처(40)인 것으로 판단되면 550 단계로 진행하고, 530 단계에서 터치 제스처가 투 핑거 더블 탭 제스처(40)가 아닌 것으로 판단되면 510 단계로 돌아간다. 530 단계 이후 550 단계에서는 도 8의 (b)와 같이 정보 화면(1300)을 표시한다. 정보 화면(1300)은 현재 시간, 날짜 정보, 배터리 정보, 블루투수 켜짐 정보와 같은 기능 실행 정보 등이 표시된 것이며, 설정에 따라 다양한 정보가 표시될 수 있다. 추가로, 정보 화면(1300)이 표시된 상태에서 터치스크린(120)에 상기 투 핑거 더블 탭 제스처(40)가 입력되면, 상기 표시된 정보 화면(1300)이 사라지도록 할 수도 있다. 다시 말해서, 정보 화면(1300)이 표시된 상태에서 터치스크린(120)에 상기 투 핑거 더블 탭 제스처(40)가 입력되면, 정보 화면(1300)을 표시하는 동작을 종료할 수도 있다. 또한, 정보 화면(1300)이 표시된 상태에서 미리 설정된 시간이 경과되면, 상기 표시된 정보 화면(1300)이 사라지도록, 즉 정보 화면(1300)을 표시하는 동작을 종료하도록 할 수 있다. 또한, 상기 530 단계에서 터치 제스처가 투 핑거 더블 탭 제스처(40)가 아닌 것으로 판단되면 510 단계로 다시 돌아가는 것으로 기재하였지만, 인식된 터치 제스처가 미리 정의된 다른 제스처인 경우, 다른 제스처에 대응하는 기능을 실행할 수도 있다.First, in
즉, 상기 동작에 따르면, 도 8의 (a)와 같이 휴대 단말의 터치스크린(120) 화면에 투 핑거 더블 탭 제스처(40)를 입력하면, 도 8의 (b)와 같이 정보 화면(1300)이 표시될 수 있다. 또한, 현재의 화면에 정보 화면(1300)이 표시된 상태에서 투 핑거 더블 탭 제스처(40)을 입력하면 정보 화면(1300)이 사라질 수 있다. 다시 말해서, 현재의 화면에 정보 화면(1300)이 표시된 상태에서 투 핑거 더블 탭 제스처(40)을 입력하면 정보 화면(1300)을 표시하는 동작을 종료할 수 있다. 또한, 설정에 따라 표시된 정보 화면(1300)은 일정 시간이 경과되면 사라질 수 있다. 상기 정보 화면(1300)의 크기 및 표시되는 위치는 다양할 수 있다. That is, according to the above operation, when a two-finger
도 9는 본 발명의 일 실시예에 따른 제4 제스처 인식에 따른 기능 실행 동작의 흐름도이며, 도 10은 본 발명의 일 실시예에 따른 제4 제스처 인식에 따른 기능 실행 화면의 예시도이다. 상기 제4 제스처는 터치스크린(120)의 화면의 어느 두 지점이 터치된 상태에서 상기 화면의 하단 방향으로 드래그 되는 것(two finger sweep down; 투 핑거 스윕 다운 이라고 함), 또는 터치스크린(120)의 화면의 어느 두 지점이 터치된 상태에서 상기 화면의 상단 방향으로 드래그되는 것(two finger sweep up; 투 핑거 스윕 업 이라고 함; 50), 또는 터치스크린(120)의 화면의 어느 두 지점이 터치된 상태에서 상기 화면의 우측 방향으로 드래그 되는 것(two finger sweep right; 투 핑거 스윕 라이트), 또는 터치스크린(120)의 화면의 어느 두 지점이 터치된 상태에서 상기 화면의 좌측 방향으로 드래그되는 것(two finger sweep left; 투 핑거 스윕 래프트 라고 함) 중 하나일 수 있다. 이때, 터치된 상태로 화면의 어느 한 방향으로 드래그되어야 하는 최소 길이는 제조 시 또는 사용자에 의해 설정 또는/및 변경 될 수 있다. 9 is a flowchart of a function execution operation according to a fourth gesture recognition according to an embodiment of the present invention, and FIG. 10 is an exemplary view of a function execution screen according to a fourth gesture recognition according to an embodiment of the present invention. The fourth gesture is dragged toward the bottom of the screen while two points on the screen of the
먼저, 610 단계에서는 터치 제스처의 발생 유무를 판단한다. 610 단계에서 터치 제스처가 발생된 것으로 판단되면 630 단계로 진행하고, 610 단계에서 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 610 단계 이후 630 단계에서는 터치 제스처가 투 핑거 스윕 업 제스처 또는 투 핑거 스윕 다운 제스처(50)인지를 판단한다. 630 단계에서 터치 제스처가 투 핑거 스윕 업 제스처 또는 투 핑거 스윕 다운 제스처(50)인 것으로 판단되면 650 단계로 진행하고, 630 단계에서 터치 제스처가 투 핑거 스윕 업 제스처 또는 투 핑거 스윕 다운 제스처(50)가 아닌 것으로 판단되면 610 단계로 돌아간다. 630 단계 이후 650 단계에서는 도 10과 같이 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)을 표시한다. 추가로, 미리 설정된 시간이 경과되면, 상기 표시된 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)이 사라지도록 즉, 조절하는 화면(1400)을 표시하는 동작을 종료하도록 할 수 있다. 또한, 630 단계에서 터치 제스처가 투 핑거 스윕 업 제스처 또는 투 핑거 스윕 다운 제스처(50)가 아닌 것으로 판단되면 610 단계로 다시 돌아가는 것으로 기재하였지만, 인식된 터치 제스처가 미리 정의된 다른 제스처인 경우, 다른 제스처에 대응하는 기능을 실행할 수도 있다. 또한, 터치 제스처가 투 핑거 스윕 라이트, 투 핑거 스윕 래프트 제스처일 경우에도 음향 및 화면 밝기를 조절하는 화면을 표시 할 수도 있다.First, in
즉, 상기 동작에 따르면, 도 10의 (a)와 같이 휴대 단말의 터치스크린(120) 화면에 투 핑거 스윕 업 제스처또는 투 핑거 스윕 다운 제스처(50)를 입력하면, 도 10의 (b)와 같이 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)이 표시될 수 있다. 또한, 표시된 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)은 일정 시간이 경과되면 사리질 수 있다. 상기 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)의 크기 및 표시되는 위치는 다양할 수 있다. 또한, 투 핑거 스윕 라이트, 또는 투 핑거 스윕 래프트 를 입력한 경우에도 음향(1401) 및 화면 밝기(1403)를 조절하는 화면(1400)이 표시될 수 있다. That is, according to the above operation, when a two-finger sweep-up gesture or a two-finger sweep-
도 11은 본 발명의 일 실시예에 따른 제5 제스처 인식에 따른 기능 실행 동작의 흐름도이며, 도 12는 본 발명의 일 실시예에 따른 제5 제스처 인식에 따른 기능 실행 화면의 예시도이다. 상기 제5 제스처는 예를 들어 사람이 손바닥으로 휴대 단말의 터치스크린(120) 화면을 터치하여 가릴 경우를 의미 하는 것으로, 상기 제5 제스처는 터치스크린(120)의 화면이 터치될 때, 터치 지점이 미리 설정된 면적 임계치 이상인 것으로 인식된 것(palm touch; 팜 터치 라고 함; 60)일 수 있다.11 is a flowchart of a function execution operation according to a fifth gesture recognition according to an embodiment of the present invention, and FIG. 12 is an exemplary view of a function execution screen according to a fifth gesture recognition according to an embodiment of the present invention. The fifth gesture means, for example, when a person touches the screen of the
먼저, 710 단계에서는 전화 통화 중 터치 제스처의 발생 유무를 판단한다. 710 단계에서 전화 통화 중 터치 제스처가 발생된 것으로 판단되면 730 단계로 진행하고, 710 단계에서 전화 통화 중 터치 제스처가 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다. 710 단계 이후 730 단계에서는 터치 제스처가 팜 터치 제스처(60)인지를 판단한다. 730 단계에서 터치 제스처가 팜 터치 제스처(60)인 것으로 판단되면 750 단계로 진행하고, 730 단계에서 터치 제스처가 팜 터치 제스처(60)가 아닌 것으로 판단되면 710 단계로 돌아간다. 730 단계 이후 750 단계에서는 송화음을 차단한다. 750 단계 이후 770 단계에서는 도 12의 (a)와 같이 통화 중임을 표시하는 현재의 화면을 도 12의 (b)와 같이 송화음 차단 기능이 실행되었음을 알리는 화면으로 전환한다. 도 12의 (b)를 참고하면, 송화음 차단 기능이 실행되었음을 알리는 화면은 송화음 차단을 해제하는 스피커 온(speaker on) 버튼(1501)을 포함하며, 스피커 온 버튼(1501)에 탭 제스처(30)가 입력되면 송화음 차단 기능을 해제한다. 추가로, 송화음 차단 기능이 실행되었음을 알리는 화면으로 전환된 상태에서 팜 터치 제스처(60)가 입력되면 송화음 차단 기능을 해제할 수 있다. 또한, 730 단계에서 터치 제스처가 팜 터치 제스처(60)가 아닌 것으로 판단되면 710 단계로 다시 돌아가는 것으로 기재하였지만, 인식된 터치 제스처가 미리 정의된 다른 제스처인 경우, 다른 제스처에 대응하는 기능을 실행할 수도 있다.First, in
즉, 상기 동작에 따르면, 도 12의 (a)와 같이 전화 통화 중 휴대 단말의 터치스크린(120) 화면에 팜 터치 제스처(60)를 입력하면, 송신음이 차단될 수 있고, 도 12의 (b)와 같이 송신음 차단 기능이 실행되었음을 알리는 화면으로 통화 중 화면이 전환될 수 있다. 또한 송신음이 차단된 상태에서 휴대 단말의 터치스크린(120) 화면에 팜 터치 제스처(60)를 입력하면, 송신음 차단이 해제될 수 있다.That is, according to the above operation, if the
상기와 같이 일 실시예에 따른 본 발명의 제스처 인식에 따른 기능 실행 방법 및 장치의 구성 및 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시예에 관해 설명하였으나 이외에도 본 발명의 다양한 실시예들이나, 여러 가지 변형 및 변경이 있을 수 있다. 본 명세서에서 기재된 각각의 동작들은 그 전체 또는 일부가 병렬적으로 동시에 수행되거나, 일부가 생략되거나, 다른 추가적인 동작들을 포함할 수 있다. As described above, the configuration and operation of the method and apparatus for executing a function according to the gesture recognition of the present invention according to an embodiment can be made. Meanwhile, in the above description of the present invention, specific embodiments have been described, but in addition to various implementations of the present invention. Examples, but there may be various modifications and variations. Each of the operations described in the present specification may be all or part of them simultaneously performed in parallel, some of them may be omitted, or may include other additional operations.
예를 들어, 상기 도 5 및 도 6의 인덱스 검색 화면(1200)은 해당 인덱스의 위치가 자동으로 탐색되어 현재의 화면이 해당 인덱스가 있는 화면으로 전환되도록 할 수 있으며, 이에 따라, 440 단계는 현재 화면을 인덱스 검색 화면에 표시된 해당 인덱스에 대응되는 화면으로 전환하는 동작일 수 있다. 또한, 470 단계는 현재 화면을 인덱스 검색 화면에 전환된 해당 인덱스에 대응되는 화면으로 전환하는 동작일 수 있다.For example, in the
또한 상기 도 9 및 도 10과 관련된 설명에서는 발생된 제스처에 따라, 음향 및 화면 밝기를 조절하는 화면을 표시하는 것으로 기재했지만, 상기 발생된 제스처에 의해 음향만을 조절하는 화면을 표시할 수 있으며, 또한 상기 발생된 제스처에 의해 화면 밝기만을 조절하는 화면을 표시할 수 있다.In addition, although the description related to FIGS. 9 and 10 described that a screen for adjusting sound and screen brightness is displayed according to a generated gesture, a screen for adjusting only sound can be displayed by the generated gesture. A screen in which only screen brightness is adjusted may be displayed by the generated gesture.
또한 팜 터치 제스처(60) 입력 시, 상술한 송화음 차단 및 송화음 차단 해제 이외에도, 다른 기능들이 실행될 수 있다.In addition, when the
상기 팜 터치 제스처(60) 관련 다른 실시예로, 상기 휴대 단말(100)에 팜 터치 제스처(60)가 입력되면, 휴대 단말(100)의 음을 소거하며, 음 소거 기능이 실행되었음을 알리는 화면을 표시할 수 있다. 또한 음 소거 기능이 실행되었음을 알리는 화면에 또다시 팜 터치 제스처(60)가 입력되면, 휴대 단말(100)의 음 소거를 해제할 수 있다.In another embodiment related to the
상기 팜 터치 제스처(60) 관련 또다른 실시예로, 동영상 또는 음악이 재생 중일 때, 팜 터치 제스처(60)가 입력되면, 동영상 또는 음악의 재생을 일시 정지하며, 동영상 또는 음악 재생의 일시 정지 기능이 실행되었음을 알리는 화면으로 화면을 전환할 수 있다. 또한 동영상 또는 음악 재생의 일시 정지 기능이 실행되었음을 알리는 화면에 또다시 팜 터치 제스처(60)가 입력되면 재생이 일시 정지된 동영상 또는 음악을 일시 정지된 시점부터 재생 할 수 있다.In another embodiment related to the
또한, 인덱스 검색 화면(1200)을 실행하기 위해 베젤 스윕 업 제스처를 입력하는 현재 화면의 하단의 일정 영역에 미리 설정된 순서대로 인덱스들이 정렬되어 표시되어 있을 수 있으며, 미리 설정된 순서의 인덱스들이 위치한 영역 중 어느 하나의 영역을 터치하여 베젤 스윕 업 제스처를 입력할 경우, 인덱스 검색 화면(1200))에 표시되는 인덱스는 터치된 영역에 미리 설정된 인덱스일 수 있다.In addition, indices may be arranged and displayed in a preset order in a certain area at the bottom of the current screen where a bezel sweep-up gesture is input to execute the
또한 본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 휴대 단말 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.In addition, it will be appreciated that the embodiments of the present invention can be realized in the form of hardware, software, or a combination of hardware and software. Any such software may be, for example, a nonvolatile storage device such as a storage device such as a ROM, or a memory such as a RAM, a memory chip, a device or an integrated circuit, or For example, it may be optically or magnetically recordable, such as a CD, DVD, magnetic disk or magnetic tape, and stored in a machine (eg, computer) readable storage medium. It will be appreciated that the memory that may be included in the portable terminal is an example of a program including instructions for implementing the embodiments of the present invention or a machine-readable storage medium suitable for storing programs. Accordingly, the present invention includes a program including code for implementing the apparatus or method described in any claim of the present specification, and a machine-readable storage medium storing such a program. Further, such a program may be transferred electronically through any medium, such as a communication signal transmitted through a wired or wireless connection, and the present invention suitably includes equivalents thereto.
Claims (23)
제1 제스처 발생이 확인되는 것에 응답하여, 상기 제1 제스처에 의하여 터치되는 상기 휴대 단말의 터치 스크린 상의 면적이 미리 설정된 면적 임계치 이상인지 확인하는 동작과,
상기 제1 제스처에 의하여 터치되는 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상이라고 확인되는 것에 응답하여, 음성 차단 기능을 실행하고, 상기 음성 차단 기능이 실행됨을 알리는 제1 화면을 상기 터치 스크린 상에 표시하는 동작,
상기 제1 화면을 표시하는 중에, 제2 제스처에 의하여 터치되는 상기 휴대 단말의 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상인 상기 제2 제스처가 발생함을 확인하는 동작, 및
상기 제2 제스처의 발생이 확인되는 것에 응답하여, 상기 음성 차단 기능을 해제하는 동작을 포함하는 것을 특징으로 하는, 제스처 인식에 따른 기능 실행 방법.In a method of executing a function according to gesture recognition performed in a mobile terminal,
In response to confirmation of occurrence of the first gesture, checking whether an area on the touch screen of the portable terminal touched by the first gesture is equal to or greater than a preset area threshold;
In response to determining that the area on the touch screen touched by the first gesture is greater than or equal to the area threshold, a voice blocking function is executed, and a first screen notifying that the voice blocking function is executed is displayed on the touch screen Action,
While displaying the first screen, confirming that the second gesture having an area on the touch screen of the portable terminal touched by a second gesture is equal to or greater than the area threshold value, and
And releasing the voice blocking function in response to confirmation of the occurrence of the second gesture.
제3 제스처의 발생을 확인하는 동작,
상기 제3 제스처가 상기 터치 스크린 상에 표시되는 화면의 상단의 미리 설정된 영역내의 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처인지 확인하는 동작, 및
상기 제3 제스처가 상기 화면의 상단의 상기 미리 설정된 영역내의 상기 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처라고 확인되는 것에 응답하여,
상기 화면의 이전에 표시된 실행 화면으로 화면 전환하는 동작을 더 포함하는, 제스처 인식에 따른 기능 실행 방법.The method of claim 1,
Confirming the occurrence of the third gesture,
Checking whether the third gesture is a gesture that is dragged to the inside of the screen while being touched from a point in a preset area at the top of the screen displayed on the touch screen, and
In response to confirming that the third gesture is a gesture dragged into the inside of the screen while being touched from the one point in the preset area at the top of the screen,
A method of executing a function according to gesture recognition, further comprising: switching a screen to an execution screen previously displayed on the screen.
제3 제스처의 발생을 확인하는 동작,
상기 제3 제스처가 상기 터치 스크린 상에 표시되는 화면의 하단의 미리 설정된 영역내의 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처인지 확인하는 동작, 및
상기 제3 제스처가 상기 화면의 하단의 상기 미리 설정된 영역내의 상기 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처라고 확인되는 것에 응답하여, 상기 화면과 오버랩하여 미리 설정된 인덱스가 표시되는 인덱스 검색 화면을 표시하는 동작을 더 포함하는, 제스처 인식에 따른 기능 실행 방법.The method of claim 1,
Confirming the occurrence of the third gesture,
Checking whether the third gesture is a gesture that is dragged into the screen while being touched from a point in a preset area below the screen displayed on the touch screen, and
In response to confirming that the third gesture is a gesture that is dragged into the screen while being touched from the one point in the preset area at the bottom of the screen, the index overlaps the screen to display a preset index A method of executing a function according to gesture recognition, further comprising an operation of displaying a search screen.
미리 설정된 순서대로 상기 인덱스를 전환하는 인덱스 전환 버튼을 포함함을 특징으로 하는 제스처 인식에 따른 기능 실행 방법.The method of claim 3, wherein the index search screen,
And an index switching button for switching the indexes in a preset order.
상기 인덱스에 대응되는 화면으로 상기 화면을 전환하거나 상기 인덱스에 대응되는 화면이 표시되도록 스크롤하는 동작을 더 포함함을 특징으로 하는, 제스처 인식에 따른 기능 실행 방법.The method of claim 3,
The method of executing a function according to gesture recognition, further comprising: switching the screen to a screen corresponding to the index or scrolling to display a screen corresponding to the index.
제3 제스처의 발생을 확인하는 동작,
상기 제3 제스처가 미리 설정된 시간 간격 이내에 상기 터치 스크린 상의 두 지점이 동시에 두 번 터치되는 제스처인지 확인하는 동작, 및
상기 제3 제스처가 상기 미리 설정된 시간 간격 이내에 상기 터치 스크린 상의 두 지점이 동시에 두 번 터치되는 제스처라고 확인되는 것에 응답하여, 시간, 날짜, 배터리 정보, 상기 휴대 단말의 적어도 하나의 기능 실행 정보 중 적어도 하나를 포함하는 정보 화면을 표시하는 동작을 더 포함하는, 제스처 인식에 따른 기능 실행 방법.The method of claim 1,
Confirming the occurrence of the third gesture,
Checking whether the third gesture is a gesture in which two points on the touch screen are simultaneously touched twice within a preset time interval, and
In response to confirming that the third gesture is a gesture in which two points on the touch screen are simultaneously touched twice within the preset time interval, at least one of time, date, battery information, and at least one function execution information of the portable terminal A method of executing a function according to gesture recognition, further comprising an operation of displaying an information screen including one.
상기 정보 화면이 표시될 때 상기 미리 설정된 시간 간격 이내에 상기 터치 스크린 상의 두 지점이 동시에 두 번 터치되는 제4 제스처가 인식되는 것에 응답하여, 상기 정보 화면을 표시하는 동작을 종료하는 동작을 더 포함하는, 제스처 인식에 따른 기능 실행 방법.The method of claim 6,
In response to recognizing a fourth gesture in which two points on the touch screen are simultaneously touched twice within the preset time interval when the information screen is displayed, terminating the operation of displaying the information screen , How to execute a function according to gesture recognition.
제3 제스처의 발생을 확인하는 동작,
상기 제3 제스처가 상기 터치 스크린 상의 화면의 두 지점이 터치된 상태에서 상기 화면의 하단 방향으로 드래그 되는 제스처, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 상단 방향으로 드래그되는 제스처, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 우측 방향으로 드래그 되는 제스처, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 좌측 방향으로 드래그되는 제스처 중 하나를 포함하는지 확인하는 동작, 및
음량 및 화면 밝기 중 적어도 하나를 조절하는 화면을 표시하는 동작을 더 포함하는, 제스처 인식에 따른 기능 실행 방법.The method of claim 1,
Confirming the occurrence of the third gesture,
The third gesture is a gesture of dragging toward the bottom of the screen while two points of the screen on the touch screen are touched, or a gesture of dragging toward the top of the screen while two points of the screen are touched, or Checking whether a gesture dragged to the right side of the screen while two points of the screen are touched or a gesture dragged to the left side of the screen while two points of the screen are touched, and
The method of executing a function according to gesture recognition, further comprising displaying a screen for adjusting at least one of a volume and a screen brightness.
상기 음성 차단 기능은 음 소거 기능을 포함함을 특징으로 하는 제스처 인식에 따른 기능 실행 방법.The method of claim 1,
The method for executing a function according to gesture recognition, wherein the voice blocking function includes a mute function.
상기 음성 차단 기능은 송화음 차단 기능이며, 상기 제1 화면에는 그래픽 객체가 포함되고,
상기 방법은 상기 그래픽 객체에 대한 터치 입력이 확인되는 것에 응답하여 상기 음성 차단 기능을 해제하는 동작을 더 포함하는 것을 특징으로 하는, 제스처 인식에 따른 기능 실행 방법.The method of claim 1,
The voice blocking function is a transmission sound blocking function, and a graphic object is included in the first screen,
The method further comprises an operation of releasing the voice blocking function in response to confirming a touch input to the graphic object.
상기 음성 차단 기능은 동영상 또는 음악의 재생을 일시 정지하는 기능을 포함하는 것을 특징으로 하는, 제스처 인식에 따른 기능 실행 방법.The method of claim 1,
The voice blocking function includes a function of pausing playback of a video or music.
터치 스크린 및 제어부를 포함하고,
상기 제어부는:
상기 터치 스크린에서의 제1 제스처 발생이 확인되는 것에 응답하여, 상기 제1 제스처에 의하여 터치되는 상기 터치 스크린 상의 면적이 미리 설정된 면적 임계치 이상인지 확인하고,
상기 제1 제스처에 의하여 터치되는 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상이라고 확인되는 것에 응답하여, 음성 차단 기능을 실행하고, 상기 음성 차단 기능이 실행됨을 알리는 제1 화면을 상기 터치 스크린 상에 표시하고,
상기 제1 화면을 표시하는 중에, 제2 제스처에 의하여 터치되는 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상인 상기 제2 제스처가 발생함을 확인하고,
상기 제2 제스처의 발생이 확인되는 것에 응답하여, 상기 음성 차단 기능을 해제하도록 설정되는 것을 특징으로 하는, 제스처 인식에 따른 기능 실행 장치.In the function execution device according to gesture recognition,
Including a touch screen and a control unit,
The control unit:
In response to confirming the occurrence of the first gesture on the touch screen, it is checked whether the area on the touch screen touched by the first gesture is greater than or equal to a preset area threshold,
In response to determining that the area on the touch screen touched by the first gesture is greater than or equal to the area threshold, a voice blocking function is executed, and a first screen notifying that the voice blocking function is executed is displayed on the touch screen and,
While displaying the first screen, confirming that the second gesture having an area on the touch screen touched by a second gesture being equal to or greater than the area threshold is generated,
The apparatus for executing a function according to gesture recognition, characterized in that the second gesture is set to cancel the voice blocking function in response to the confirmation of the occurrence of the second gesture.
제3 제스처의 발생을 확인하고,
상기 제3 제스처가 상기 터치 스크린 상에 표시되는 화면의 상단의 미리 설정된 영역내의 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처인지 확인하고, 상기 제3 제스처가 상기 터치 스크린 상의 화면의 상단의 상기 미리 설정된 영역내의 상기 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처라고 확인되는 것에 응답하여, 상기 화면의 이전에 표시된 실행 화면으로 화면을 전환하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.The method of claim 13, wherein the control unit,
Confirming the occurrence of the third gesture,
Check whether the third gesture is a gesture that is dragged to the inside of the screen while being touched from a point in a preset area at the top of the screen displayed on the touch screen, and the third gesture is Gesture, characterized in that in response to being identified as a gesture dragged into the screen while being touched from the one point in the preset area at the top, the gesture is set to switch the screen to the execution screen previously displayed on the screen Device for executing functions according to recognition.
제3 제스처의 발생을 확인하고,
상기 제3 제스처가 상기 터치 스크린 상에 표시되는 화면의 하단의 미리 설정된 영역내의 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처인지 확인하고,
상기 제3 제스처가 상기 터치 스크린 상의 화면의 하단의 상기 미리 설정된 영역내의 상기 한 지점에서부터 터치된 상태로 상기 화면의 내부로 드래그되는 제스처라고 확인되는 것에 응답하여, 상기 화면과 오버랩하여 미리 설정된 인덱스가 표시되는 인덱스 검색 화면을 표시하며, 상기 인덱스에 대응되는 화면으로 상기 화면을 전환하거나 상기 인덱스에 대응되는 화면이 표시되도록 상기 화면을 스크롤하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.The method of claim 13, wherein the control unit,
Confirming the occurrence of the third gesture,
Check whether the third gesture is a gesture that is dragged into the inside of the screen while being touched from a point in a preset area at the bottom of the screen displayed on the touch screen,
In response to confirming that the third gesture is a gesture that is dragged to the inside of the screen while being touched from the one point in the preset area at the bottom of the screen on the touch screen, a preset index overlaps the screen A function execution device according to gesture recognition, wherein the index search screen is displayed, and the screen is set to switch to a screen corresponding to the index or to scroll the screen to display a screen corresponding to the index.
미리 설정된 순서대로 상기 인덱스를 전환하는 인덱스 전환 버튼을 포함함을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.The method of claim 15, wherein the index search screen,
And a function execution device according to gesture recognition, comprising: an index change button for switching the indexes in a preset order.
제3 제스처의 발생을 확인하고,
상기 제3 제스처가 미리 설정된 시간 간격 이내에 상기 터치 스크린 상의 화면의 두 지점이 동시에 두 번 터치되는 제스처인지 확인하고,
상기 제3 제스처가 미리 설정된 시간 간격 이내에 상기 화면의 두 지점이 동시에 두 번 터치되는 제스처라고 확인되는 것에 응답하여, 시간, 날짜, 배터리 정보, 상기 장치의 적어도 하나의 기능 실행 정보 중 적어도 하나를 포함하는 정보 화면을 표시하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.The method of claim 13, wherein the control unit,
Confirming the occurrence of the third gesture,
Check whether the third gesture is a gesture in which two points of the screen on the touch screen are simultaneously touched twice within a preset time interval,
In response to confirming that the third gesture is a gesture in which two points of the screen are simultaneously touched twice within a preset time interval, at least one of time, date, battery information, and at least one function execution information of the device is included. A device for executing a function according to gesture recognition, characterized in that it is set to display an information screen to be displayed.
상기 정보 화면이 표시될 때 미리 설정된 시간 간격 이내에 상기 화면의 두 지점이 동시에 두 번 터치되는 제4 제스처가 인식되는 것에 응답하여, 상기 정보 화면을 표시하는 동작을 종료하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.The method of claim 17, wherein the control unit,
Gesture, characterized in that, when the information screen is displayed, in response to recognizing a fourth gesture in which two points of the screen are simultaneously touched twice within a preset time interval, the operation of displaying the information screen is set to end Device for executing functions according to recognition.
제3 제스처의 발생을 확인하고,
상기 제3 제스처가 상기 터치 스크린 상의 화면의 두 지점이 터치된 상태에서 상기 화면의 하단 방향으로 드래그 되는 것, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 상단 방향으로 드래그되는 것, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 우측 방향으로 드래그 되는 것, 또는 상기 화면의 두 지점이 터치된 상태에서 상기 화면의 좌측 방향으로 드래그되는 것 중 하나를 포함하는지 확인하고,
음량 및 화면 밝기 중 적어도 하나를 조절하는 화면을 표시하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.The method of claim 13, wherein the control unit,
Confirming the occurrence of the third gesture,
The third gesture is dragged toward the bottom of the screen while two points of the screen on the touch screen are touched, or dragged toward the top of the screen while two points of the screen are touched, or Check whether it includes either dragging in the right direction of the screen while two points of the screen are touched, or dragging in the left direction of the screen while two points of the screen are touched,
A device for executing a function according to gesture recognition, characterized in that set to display a screen for adjusting at least one of a volume and a screen brightness.
상기 제어부는, 상기 그래픽 객체에 대한 터치 입력이 확인되는 것에 응답하여 상기 음성 차단 기능을 해제하도록 설정되는 것을 특징으로 하는 제스처 인식에 따른 기능 실행 장치.The method of claim 13, wherein the voice blocking function is a transmission sound blocking function, and a graphic object is included in the first screen,
The control unit is configured to cancel the voice blocking function in response to a confirmation of a touch input to the graphic object.
상기 휴대 단말의 터치 스크린에서의 제1 제스처 발생이 확인되는 것에 응답하여, 상기 제1 제스처에 의하여 터치되는 터치 스크린 상의 면적이 미리 설정된 면적 임계치 이상인지 확인하고,
상기 제1 제스처에 의하여 터치되는 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상이라고 확인되는 것에 응답하여, 음성 차단 기능을 실행하고, 상기 음성 차단 기능이 실행됨을 알리는 제1 화면을 상기 터치 스크린 상에 표시하고,
상기 제1 화면을 표시하는 중에, 제2 제스처에 의하여 터치되는 상기 휴대 단말의 상기 터치 스크린 상의 면적이 상기 면적 임계치 이상인 상기 제2 제스처가 발생함을 확인하고, 및
상기 제2 제스처의 발생이 확인되는 것에 응답하여, 상기 음성 차단 기능을 해제하도록 하는 것을 특징으로 하는, 컴퓨터 판독가능 기록매체.In a recording medium in which instructions are stored, when the instructions are executed by a control unit of a portable terminal, the control unit causes:
In response to the occurrence of the first gesture on the touch screen of the portable terminal, it is checked whether the area on the touch screen touched by the first gesture is greater than or equal to a preset area threshold,
In response to determining that the area on the touch screen touched by the first gesture is greater than or equal to the area threshold, a voice blocking function is executed, and a first screen notifying that the voice blocking function is executed is displayed on the touch screen and,
While displaying the first screen, confirming that the second gesture having an area on the touch screen of the portable terminal touched by a second gesture is equal to or greater than the area threshold value, and
And in response to confirming the occurrence of the second gesture, causing the voice blocking function to be released.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130100720A KR102197912B1 (en) | 2013-08-23 | 2013-08-23 | Method, apparatus and recovering medium for executing a funtion according to a gesture recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130100720A KR102197912B1 (en) | 2013-08-23 | 2013-08-23 | Method, apparatus and recovering medium for executing a funtion according to a gesture recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150022598A KR20150022598A (en) | 2015-03-04 |
KR102197912B1 true KR102197912B1 (en) | 2021-01-04 |
Family
ID=53020563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130100720A KR102197912B1 (en) | 2013-08-23 | 2013-08-23 | Method, apparatus and recovering medium for executing a funtion according to a gesture recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102197912B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107544742B (en) * | 2016-06-28 | 2020-10-20 | 富泰华工业(深圳)有限公司 | Control method and electronic device thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013050952A (en) | 2011-08-30 | 2013-03-14 | Samsung Electronics Co Ltd | Portable terminal having touch screen, and user interface provision method therefor |
US20130106776A1 (en) | 2011-10-27 | 2013-05-02 | Samsung Electronics Co. Ltd. | System and method for identifying inputs input to mobile device with touch panel |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101611302B1 (en) * | 2009-08-10 | 2016-04-11 | 엘지전자 주식회사 | Mobile terminal capable of receiving gesture input and control method thereof |
KR101629645B1 (en) * | 2009-09-18 | 2016-06-21 | 엘지전자 주식회사 | Mobile Terminal and Operation method thereof |
KR101679572B1 (en) * | 2010-05-31 | 2016-11-25 | 엘지전자 주식회사 | Electronic device and operation control method thereof |
KR101688150B1 (en) * | 2010-07-12 | 2017-01-02 | 엘지전자 주식회사 | Mobile terminal and method for controlling object display using multi-touch thereof |
EP3734407A1 (en) * | 2011-02-10 | 2020-11-04 | Samsung Electronics Co., Ltd. | Portable device comprising a touch-screen display, and method for controlling same |
KR101710547B1 (en) * | 2012-01-10 | 2017-02-27 | 엘지전자 주식회사 | Mobile termianl and method for controlling of the same |
-
2013
- 2013-08-23 KR KR1020130100720A patent/KR102197912B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013050952A (en) | 2011-08-30 | 2013-03-14 | Samsung Electronics Co Ltd | Portable terminal having touch screen, and user interface provision method therefor |
US20130106776A1 (en) | 2011-10-27 | 2013-05-02 | Samsung Electronics Co. Ltd. | System and method for identifying inputs input to mobile device with touch panel |
Also Published As
Publication number | Publication date |
---|---|
KR20150022598A (en) | 2015-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102141099B1 (en) | Rapid screen segmentation method and apparatus, electronic device, display interface, and storage medium | |
JP2020091912A (en) | Mobile terminal having touch screen and method for providing user interface therein | |
US9013422B2 (en) | Device, method, and storage medium storing program | |
AU2013276998B2 (en) | Mouse function provision method and terminal implementing the same | |
KR101990567B1 (en) | Mobile apparatus coupled with external input device and control method thereof | |
JP5837955B2 (en) | Method for executing function of electronic device and electronic device | |
JP2014137824A (en) | Mobile device and method for displaying information | |
KR20150079829A (en) | Gesture-based conversation processing method, apparatus, and terminal device | |
KR20110037761A (en) | Method for providing user interface using a plurality of touch sensor and mobile terminal using the same | |
KR20130141209A (en) | Apparatus and method for proximity touch sensing | |
KR20140142546A (en) | Electronic device and method for controlling applications thereof | |
WO2013135169A1 (en) | Method for adjusting input-method keyboard and mobile terminal thereof | |
KR20130097331A (en) | Apparatus and method for selecting object in device with touch screen | |
TW201516844A (en) | Apparatus and method for selecting object | |
KR20150065336A (en) | Method, apparatus and computer readable recording medium for recognizing gesture through an electronic device | |
KR102156617B1 (en) | Method and apparatus for controlling operation of touch key | |
KR20150081657A (en) | Mobile terminal and method for control thereof | |
KR102186815B1 (en) | Method, apparatus and recovering medium for clipping of contents | |
US20130328827A1 (en) | Information terminal device and display control method | |
EP2955616A1 (en) | Electronic device and method of editing icon in electronic device | |
JP2013084237A (en) | Device, method, and program | |
JP5762885B2 (en) | Apparatus, method, and program | |
KR102197912B1 (en) | Method, apparatus and recovering medium for executing a funtion according to a gesture recognition | |
JP2013065291A (en) | Device, method, and program | |
KR20140131051A (en) | electro device comprising pressure sensor and method for controlling thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |