KR101707444B1 - Contents sending method on messanger - Google Patents

Contents sending method on messanger Download PDF

Info

Publication number
KR101707444B1
KR101707444B1 KR1020150142854A KR20150142854A KR101707444B1 KR 101707444 B1 KR101707444 B1 KR 101707444B1 KR 1020150142854 A KR1020150142854 A KR 1020150142854A KR 20150142854 A KR20150142854 A KR 20150142854A KR 101707444 B1 KR101707444 B1 KR 101707444B1
Authority
KR
South Korea
Prior art keywords
input signal
touch
touch input
content
type
Prior art date
Application number
KR1020150142854A
Other languages
Korean (ko)
Inventor
이재혁
Original Assignee
이재혁
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이재혁 filed Critical 이재혁
Priority to KR1020150142854A priority Critical patent/KR101707444B1/en
Application granted granted Critical
Publication of KR101707444B1 publication Critical patent/KR101707444B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • H04M1/72519
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Abstract

The present invention provides a method for generating and transmitting content. According to the present invention, a method for generating and transmitting content includes: receiving a touch input signal to determine a type of the touch input signal based on one of touch generation, touch holding, and touch release; comparing touch holding time with set time when the type of the touch input signal is determined to be the touch holding; determining whether the touch input signal stays in one coordinate or provided in a drag form; outputting a functional area in the form of a pop-up window at a portion excluding coordinates at which the touch input signal is generated, when it is determined that the touch holding time is longer than set time and when it is determined that the touch input signal stays in one coordinate; controlling a content generation device to operate if it is determine that the touch input signal is provided in the drag form, and if the final coordinates of the touch input signal provided in the drag form are included in the functional area; generating content from the operated content generation device, if it is determined that the type of the touch input signal is determined as touch release and if coordinates in which the touch release occur are included in the functional area; and transmitting the generated contents. Accordingly, since content is generated and transmitted through one operation for the touch, the drag, and the touch release, the content easily and rapidly generate the content.

Description

컨텐츠 생성 및 전송 방법{CONTENTS SENDING METHOD ON MESSANGER}{CONTENTS SENDING METHOD ON MESSANGER}

본 발명은 컨텐츠 생성 및 전송 방법에 관한 것이다.The present invention relates to a content generation and transmission method.

휴대 단말은 연락처를 저장하여 목록으로 구비할 수 있고, 인터넷에 접속 가능한 메신저 프로그램을 저장하여 메신저 프로그램에 추가된 연락처를 목록으로 구비할 수 있다.The portable terminal can store contacts and store them in a list, and can store a messenger program that can be connected to the Internet to have a list of contacts added to the messenger program.

이처럼, 휴대 단말은 단말 자체에 목록으로 구비하는 연락처 또는 메신저 프로그램(이하, '메신저'라 함)에 목록으로 구비한 연락처 중에서 특정 연락처 또는 대화창을 선택하여 사진을 전송할 수 있다.As described above, the portable terminal can transmit a photograph by selecting a specific contact or a dialog window from a list provided in a contact or messenger program (hereinafter referred to as 'messenger') provided in the terminal itself.

이때, 특정 연락처 또는 대화창을 선택하여 사진을 전송할 때, 휴대 단말에 이미 저장된 사진을 선택하여 전송하거나, 또는, 휴대 단말의 카메라를 이용하여 사진을 새로 촬영하여 촬영된 사진을 전송할 수 있다.At this time, when a photograph is transmitted by selecting a specific contact or a dialog window, a photograph already stored in the portable terminal may be selected and transmitted, or a photograph may be newly photographed using the camera of the portable terminal and the photographed photograph may be transmitted.

이러한 연락처에 사진을 전송하는 예로써, 대한민국 공개특허 제10-2014-0038759, 이미지를 전송하기 위한 방법 및 그 전자 장치에서는, 연락처 항목을 선택하고 선택된 연락처 항목에 사진을 촬영하여 전송하는 것에 대해 기재하고 있다.Korean Patent Laid-Open No. 10-2014-0038759, as an example of transferring a picture to such a contact, describes a method for transferring an image and an electronic device thereof, for selecting a contact item and photographing the selected contact item for transmission .

그러나, 종래 기술의 경우 연락처를 선택하여 전송할 사진을 촬영하는 과정에서 일련의 입력신호를 발생해야 하는데, 일반적인 입력신호 발생은 휴대 단말에 구비된 입력버튼 또는 휴대 단말의 터치 입력부를 통해 발생하는 신호므로, 사용자가 특정 연락처에 새로 촬영한 사진을 전송하기 위해서는 일련의 입력신호를 인가해야 하는 불편함이 있고, 보다 용이한 사진 전송 방법의 개발이 필요한 실정이다.However, in the conventional art, a series of input signals must be generated in the process of selecting a contact and taking a picture to be transmitted. Generally, an input signal is generated through an input button provided on the portable terminal or a touch input unit of the portable terminal , It is inconvenient for a user to input a series of input signals in order to transmit a newly photographed picture to a specific contact, and development of an easier picture transfer method is required.

본 발명이 이루고자 하는 기술적 과제는 휴대 단말에 저장된 특정 연락처 또는 대화창을 선택하여 새로운 사진 또는 새로운 음성 녹음파일을 생성하여 전송하고자 할 때, 한 번의 터치 입력을 이용하여 용이하게 사진을 촬영하여 전송하거나 녹음파일을 생성하여 전송하는 방법을 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to provide a method and apparatus for selecting a specific contact or a dialog window stored in a portable terminal to create and transmit a new photo or a new voice recording file, A file is generated and transmitted.

본 발명의 한 실시예에 따른 컨텐츠 생성 및 전송 방법은 (a) 터치 입력신호를 입력받아 상기 터치 입력신호의 유형을 터치 발생, 터치 유지 및 터치 해제 중 어느 하나로 판단하는 단계, (b-1) 상기 (a) 단계에서 상기 터치 입력신호의 유형이 상기 터치 유지로 판단된 경우, 상기 터치 유지 시간을 설정된 시간과 비교하는 단계, (b-2) 상기 터치 입력신호가 한 좌표에 머무르는 형태인지 드래그 형태인지를 판단하는 단계, (c-1) 상기 (b-1) 단계에서 상기 터치 유지 시간이 상기 설정된 시간 이상이고, 상기 (b-2) 단계에서 상기 터치 입력신호가 한 좌표에 머무르는 형태인 것으로 판단된 경우, 상기 터치 입력신호가 발생한 좌표를 제외한 부분에 기능영역을 팝업창 형태로 출력하는 단계, (c-2) 상기 (b-2) 단계에서 상기 터치 입력신호가 드래그 형태인 것으로 판단되고 상기 드래그 형태의 터치 입력신호의 최종 좌표가 상기 기능영역에 포함되는 경우, 해당 기능영역에 설정된 컨텐츠 생성 장치를 구동시키도록 제어하는 단계, (d-1) 상기 (a) 단계에서 상기 터치 입력신호의 유형이 상기 터치 해제로 판단되고, 상기 터치 해제가 발생한 좌표가 상기 기능영역에 포함되는 경우, 상기 (c-2)단계에서 구동시킨 상기 컨텐츠 생성 장치에서 컨텐츠를 생성하는 단계, 그리고 (d-2) 상기 (d-1)단계에서 생성한 컨텐츠를 전송하는 단계를 포함한다.The method of generating and transmitting a content according to an exemplary embodiment of the present invention includes the steps of: (a) determining a type of the touch input signal as one of a touch generation, a touch hold, and a touch release by receiving a touch input signal; Comparing the touch holding time with a predetermined time when the type of the touch input signal is determined to be the touch holding in the step (a); (b-2) determining whether the touch input signal remains in one coordinate, (B-1), the touch holding time is longer than the predetermined time, and the touch input signal remains in one coordinate in the (b-2) (C-2) determining that the touch input signal is a drag type in the step (b-2), determining whether the touch input signal is a drag type (D-1) when the last coordinate of the drag type touch input signal is included in the function area, controlling the content generation device to be driven in the corresponding function area; (d-1) Generating content in the content generation apparatus driven in step (c-2) when the type of the signal is determined to be the touched release and the coordinate where the touched release occurs is included in the function area, and -2) transmitting the content generated in the step (d-1).

이때, 상기 (a) 단계에서, 상기 터치 입력신호는 휴대 단말의 터치 입출력부에서 입력받는 것을 특징으로 한다.In the step (a), the touch input signal is input to the touch input / output unit of the portable terminal.

그리고, 상기 (b-1) 단계에서, 상기 설정된 시간은 0.5~0.8초인 것을 특징으로 한다.In the step (b-1), the predetermined time is 0.5 to 0.8 seconds.

그리고, 상기 (c-1) 단계에서, 상기 기능영역은 복수개 출력되는 것을 특징으로 한다.In the step (c-1), a plurality of functional areas are output.

한 예에서, 복수 개 출력되는 상기 기능영역은 각각 컨텐츠 생성 장치에 매칭되는 것을 특징으로 한다.In one example, the plurality of functional areas output are each matched to the content generation apparatus.

상기 컨텐츠 생성 장치는 전면카메라 및 후면카메라이고, 복수 개의 상기 기능영역 중 하나의 기능영역은 상기 전면카메라와 매칭되어 상기 하나의 기능영역에 상기 (c-2) 단계처럼 상기 드래그 형태의 터치 입력신호의 최종 좌표가 포함되는 경우, 상기 전면카메라를 구동시켜 전면카메라 촬영대기 상태를 작동하고, 복수 개의 상기 기능영역 중 다른 하나의 기능영역은 상기 후면카메라와 매칭되어 상기 다른 하나의 기능영역에 상기 (c-2) 단계처럼 상기 드래그 형태의 터치 입력신호의 최종 좌표가 포함되는 경우, 상기 후면카메라를 구동시켜 후면카메라 촬영대기 상태를 작동하는 것을 특징으로 한다.Wherein the content generating device is a front camera and a rear camera, and one of the plurality of function areas is matched with the front camera, and the touch input signal of the drag type as in the step (c-2) And the other of the plurality of function areas is matched with the rear camera, and the function area of the other one of the plurality of function areas is matched to the function area of the other if the last coordinate of the drag-type touch input signal is included as in step (c-2), the rear camera is driven to operate the rear camera photographing standby state.

이때, 상기 (d-2) 단계에서 생성한 컨텐츠는 사진인 것을 특징으로 한다.In this case, the content generated in the step (d-2) is a photograph.

다른 한 예에서, 상기 컨텐츠 생성 장치는 마이크이고, 상기 (c-2) 단계에서 상기 드래그 형태의 터치 입력신호의 최종 좌표가 포함되는 경우 상기 마이크를 구동시켜 녹음을 수행하는 것을 특징으로 한다.In another example, the content generation device is a microphone, and when the final coordinate of the drag-type touch input signal is included in the (c-2) step, the microphone is driven to perform recording.

그리고 다른 한 예에서, 상기 (d-2) 단계에서 생성한 컨텐츠는 녹음파일인 것을 특징으로 한다.In another example, the content generated in the step (d-2) is a recording file.

또한, 상기 (d-2) 단계에서 생성한 컨텐츠는 연락처 목록에서, 상기 (a) 단계에서 상기 터치 입력신호가 발생된 지점이 지시하는 한 전화번호에 전송되는 것을 특징으로 한다.Also, the content generated in the step (d-2) is transmitted to a telephone number indicated by a point where the touch input signal is generated in the contact list in the step (a).

이때, 상기 (d-2) 단계에서 생성한 컨텐츠는 메신저 프로그램이 출력하는 계정 목록에서, 상기 (a) 단계에서 터치 입력신호가 발생된 지점이 지시하는 한 계정에 전송되는 것을 특징으로 한다.In this case, the content generated in the step (d-2) is transmitted to the account indicated by the point where the touch input signal is generated in the step (a) in the account list outputted by the messenger program.

상기 (d-2) 단계에서 생성한 컨텐츠는 메신저 프로그램이 출력하는 대화창 목록에서, 상기 (a) 단계에서 터치 입력신호가 발생된 지점이 지시하는 한 대화창에 전송되는 것을 특징으로 한다.The content generated in the step (d-2) is transmitted to a dialog window indicated by a point where the touch input signal is generated in the dialog window list output by the instant messenger program.

이러한 특징에 따르면, 입력신호 감지부는 입력신호의 유형과 입력신호 발생위치, 그리고 입력신호 발생 유지시간을 판단함으로써, 입력신호에 따라 선택된 연락처 또는 대화창에 컨텐츠를 생성하여 전송한다.According to this aspect, the input signal sensing unit generates and transmits contents to the selected contact or dialog window according to the input signal, by determining the type of the input signal, the position where the input signal is generated, and the holding time of the input signal.

이로 인해, 한 번의 터치, 드래그 및 터치 해제 동작으로부터 컨텐츠를 생성하여 전달할 수 있어, 용이하고 신속하게 컨텐츠를 생성하는 효과가 있고, 사용자 친화적 컨텐츠 생성 및 전송 방법을 제공할 수 있다.Accordingly, it is possible to generate and deliver content from one touch, drag and touch release operation, and there is an effect of easily and quickly generating contents, and a user friendly content creation and transmission method can be provided.

도 1은 본 발명의 한 실시예에 따른 컨텐츠 생성 및 전송 방법을 구현하기 위한 종래의 휴대 단말의 출력화면을 나타낸 도면이다.
도 2는 본 발명의 한 실시예에 따른 컨텐츠 생성 및 전송 방법을 이용하는 휴대 단말의 출력화면을 나타낸 도면이다.
도 3은 본 발명의 한 실시예에 따른 컨텐츠 생성 및 전송 방법을 실시하기 위한 구조를 나타낸 블록도이다.
도 4는 본 발명의 한 실시예에 따른 컨텐츠 생성 및 전송 방법을 실시하기 위한 구조 중 입력신호 감지부의 구성을 좀더 자세하게 나타낸 블록도이다.
도 5는 본 발명의 한 실시예에 따른 컨텐츠 생성 및 전송 방법의 흐름을 나타낸 순서도이다.
1 is a diagram illustrating an output screen of a conventional portable terminal for implementing a method of generating and transmitting a content according to an embodiment of the present invention.
2 is a view showing an output screen of a portable terminal using a content generation and transmission method according to an embodiment of the present invention.
3 is a block diagram illustrating a structure for implementing a content generation and transmission method according to an embodiment of the present invention.
FIG. 4 is a block diagram illustrating in more detail a configuration of an input signal sensing unit of a structure for implementing a content generation and transmission method according to an embodiment of the present invention.
5 is a flowchart illustrating a flow of a content generation and transmission method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

본 발명의 컨텐츠 생성 및 전송 방법은 컨텐츠를 생성하여 전송할 수 있는 장치에서 모두 적용될 수 있으며, 한 예에서, 장치는 스마트폰 또는 태블릿 피씨와 같은 휴대 단말일 수 있고, 본 명세서 상에서는 스마트폰 형태의 휴대 단말을 예로 들어 설명하도록 한다.The content generation and transmission method of the present invention can be applied to all devices capable of generating and transmitting contents. In one example, the device may be a portable terminal such as a smart phone or a tablet PC, The terminal will be described as an example.

그리고, 스마트폰 형태의 휴대 단말에서 본 발명의 컨텐츠 생성 및 전송 방법을 제공하는 경우, 컨텐츠 생성 및 전송 방법은 휴대 단말이 자체적으로 제공하는 전화번호부에서 수행되거나 프로그램 제공업자가 제공하는 메신저 프로그램에서 수행될 수 있으며, 본 명세서 상에서는 위의 두 가지 경우의 예를 모두 설명하도록 하며 본 발명을 이들 실시예에 한정하지는 않아야 할 것이다. In the case of providing the content generation and transmission method of the present invention in a smart phone type portable terminal, the content generation and transmission method may be performed in a phone book provided by the mobile terminal itself or in a messenger program provided by the program provider In the present specification, both examples of the above two cases will be described, and the present invention should not be limited to these examples.

그러면 첨부한 도면을 참고로 하여 본 발명의 한 실시예에 따른 컨텐츠 생성 및 전송 방법에 대해 설명한다.A content generation and transmission method according to an embodiment of the present invention will now be described with reference to the accompanying drawings.

먼저, 도 1을 참고로 하여 본 발명의 컨텐츠 생성 및 전송 방법을 제공할 휴대 단말의 출력화면을 설명하면, 도 1의 (a)에 도시한 것처럼, 휴대 단말(1)은 휴대 단말은 위에서 이미 설명한 것처럼 스마트폰 형태로 형성되고 휴대 단말(1)에 구비된 터치 입출력부(200)에 전화번호부 화면을 출력한다.First, referring to FIG. 1, an output screen of a mobile terminal providing a content generation and transmission method of the present invention will be described. As shown in FIG. 1 (a) And outputs the phone book screen to the touch input / output unit 200 provided in the portable terminal 1, which is formed in the form of a smart phone as described above.

이때, 전화번호부는 휴대 단말(1)에 이미 저장된 연락처들(201a, 201b, 201c)들을 목록으로 출력하고, 입력신호에 따라 선택된 해당 전화번호(201a, 201b 또는 201c)에 전화를 걸거나 문자메시지를 전송할 수 있고, 컨텐츠를 전송할 수 있다. At this time, the phonebook outputs a list of the contacts 201a, 201b and 201c already stored in the portable terminal 1, calls the corresponding phone number 201a, 201b or 201c selected according to the input signal, And can transmit the content.

휴대 단말(1)에 전화번호부를 저장하여 목록으로 출력하거나 이를 선택하여 전화를 걸거나 문자메시지를 전송하는 것은 이미 공지된 사항이므로 본 명세서는 이를 자세히 설명하지는 않는다.Storing the telephone directory in the portable terminal 1 and outputting it to a list or selecting it to make a telephone call or transmitting a text message is already known, and thus the present specification does not describe this in detail.

그리고, 도 1의 (b) 및 (c)에 도시한 것처럼, 휴대 단말(1)의 터치 입출력부(200)는 휴대 단말(1)에 설치된 메신저 프로그램을 출력하되, 메신저 프로그램은 로그인 계정에서 친구로 추가한 다른 계정들(221a, 221b, 221c, 221d)을 목록으로 출력하는 목록 탭(211a)과, 다른 계정들과 메시지 또는 컨텐츠를 송수신하는 대화창들(231a, 231b, 231c, 231d)을 목록으로 출력하는 대화 탭(211b), 그리고 설정 탭(211c)을 포함한다.1 (b) and 1 (c), the touch input / output unit 200 of the portable terminal 1 outputs a messenger program installed in the portable terminal 1, A list tab 211a for outputting a list of other accounts 221a, 221b, 221c and 221d added to the list, and dialog windows 231a, 231b, 231c and 231d for sending and receiving messages or contents to other accounts A dialogue tab 211b for outputting the dialogue tab 211b, and a setting tab 211c.

설정 탭(211c)은 메신저 프로그램이 제공하는 설정 변경을 수행하는 탭으로, 본 명세서 상에서는 컨텐츠 생성 및 전송을 수행할 목록 탭(211a)과 대화 탭(211b) 화면을 참고로 하여 설명하도록 한다.The setting tab 211c is a tab for performing a setting change provided by the messenger program. In the present specification, description will be made with reference to a list tab 211a and a dialog tab 211b screen for performing content creation and transmission.

도 2를 참고로 하여 휴대 단말(1)의 터치 입출력부(200)에 입력신호를 발생하여 컨텐츠를 생성하고 전송하는 방법을 설명하면, 먼저, 도 2의 (a)에 도시한 것처럼 터치 입출력부(200)에 출력된 전화번호부 중 하나의 연락처에 터치 입력을 발생시킨다.Referring to FIG. 2, a method of generating an input signal to the touch input / output unit 200 of the portable terminal 1 to generate and transmit contents will be described. First, as shown in FIG. 2 (a) And generates a touch input to one of the phone book portions output to the phone book.

이때, 휴대 단말(1)은 터치 입출력부(200)에 인가된 입력신호에 따라 특정 연락처가 선택됨을 감지하지만, 이하의 설명에서, 휴대 단말(1)이 감지하는 입력신호는 본 발명을 실시하고자 하는 사용자가 휴대 단말(1)의 입력 및 표시장치인 터치 입출력부(200)를 터치함으로써 발생하는 입력신호인 것을 기반으로 하여 설명하며, 따라서, 본 발명을 실시하고자 하는 사용자(이하, '사용자'라 함)가 터치 입출력부(200)를 터치하는 것과 휴대 단말(1)이 입력신호를 감지하는 것이 동일한 맥락에서 이해되어야 할 것이다.At this time, the portable terminal 1 senses that a specific contact is selected according to the input signal applied to the touch input / output unit 200. In the following description, the input signal sensed by the portable terminal 1 is The user who performs the present invention (hereinafter, referred to as a 'user') is an input signal generated by a user who touches the touch input / output unit 200, which is an input and display device of the portable terminal 1, Quot;) touches the touch input / output unit 200 and the portable terminal 1 senses an input signal.

이러한 위의 전제를 바탕으로, 도 2의 (a)를 자세히 설명하면, 사용자가 휴대 단말(1)의 터치 입출력부(200)에 출력된 메신저 프로그램의 목록 탭(211a) 화면에 출력된 다른 계정들(231a, 231b, 231c, 231d) 중 B 계정(231b)를 선택하기 위해 B 계정(231b)을 선택할 수 있는 영역(232b) 중 어느 한 지점을 터치한다.2 (a) will be described in detail with reference to FIG. 2 (a). On the basis of the above assumption, The user touches any one of the areas 232b in which the B account 231b can be selected to select the B account 231b among the users 231a, 231b, 231c, and 231d.

B 계정(231b)을 선택할 수 있는 영역(232b)은 B 계정(231b)을 목록으로서 출력하는 해당 부분 전체에 형성되고, 이때, 복수 개의 계정들을 목록으로 구비하는 경우, 복수 개의 계정들은 스크롤-업(scroll up) 또는 스크롤-다운(scroll down) 동작에 의해 터치 입출력부(200)의 다른 영역에 출력될 수 있다. 이처럼, 계정들(231a, 231b, 231c, 231d)가 터치 입출력부(200)에 동적으로 출력되므로, 이에 따라, 해당 계정을 선택할 수 있는 영역도 터치 입출력부(200)에 동적으로 출력될 수 있음은 당업자에게 자명하게 해석되어야 할 것이다.The area 232b where the B account 231b can be selected is formed in the entire portion of the B account 231b that outputs the list as a list. In this case, when a plurality of accounts are provided as a list, output unit 200 by a scroll-up operation or a scroll-down operation. Thus, since the accounts 231a, 231b, 231c, and 231d are dynamically output to the touch input / output unit 200, an area where the corresponding account can be selected can be dynamically output to the touch input / output unit 200 Will be apparent to those skilled in the art.

이처럼, 휴대 단말(1)에 설치된 메신저 프로그램의 목록 탭(211a)의 출력화면에서 사용자가 B 계정(231b)를 선택하기 위해 B 계정(231b)을 선택할 수 있는 영역(232b)를 도 2의 (a)와 같이 터치하는 경우, 휴대 단말(1)의 처리부(100)는 터치 시간을 판단하여 지정된 동작을 수행한다.The area 232b where the user can select the B account 231b in order to select the B account 231b on the output screen of the list tab 211a of the messenger program installed in the portable terminal 1 is shown in Fig. In the case of touching as shown in a), the processing unit 100 of the portable terminal 1 determines a touch time and performs a designated operation.

도 3 및 도4를 참고로 하여 휴대 단말(1)의 처리부(100)의 구조를 좀더 자세하게 설명하면, 도 3에 도시한 것처럼, 휴대 단말(1)의 처리부(100)는 터치 입출력부(200)로부터 터치 여부를 전달받아 처리를 수행한다.3, the structure of the processing unit 100 of the portable terminal 1 will be described in more detail with reference to FIGS. 3 and 4. As shown in FIG. 3, the processing unit 100 of the portable terminal 1 includes a touch input / output unit 200 ), And performs a process.

이러한 처리부(100)는 컨텐츠 전송부(110), 입력신호 감지부(120) 및 컨텐츠 생성부(130)를 포함하여 구성되는데, 이때, 입력신호 감지부(120)가 터치 입출력부(200)로부터 터치 여부 관련 신호를 전달받는다.The processor 100 may include a content transmitter 110, an input signal detector 120 and a content generator 130. The input signal detector 120 may be connected to the touch input / It receives the related signal whether it is touching.

좀더 자세하게는, 입력신호 감지부(120)는 도 4에 도시한 것처럼 입력신호 유형 판단부(121), 입력신호 발생위치 판단부(122), 입력신호 전달부(123) 및 컨텐츠 수신 및 전달부(124)를 포함한다.4, the input signal sensing unit 120 includes an input signal type determination unit 121, an input signal generation position determination unit 122, an input signal transmission unit 123, (Not shown).

입력신호 유형 판단부(121)는 입력신호 감지부(120)가 터치 입출력부(200)로부터 전달받은 터치 여부 관련 신호로부터 터치 입력신호의 유형을 판단한다.The input signal type determination unit 121 determines the type of the touch input signal from the touch-related signal received from the touch input / output unit 200 by the input signal sensing unit 120.

이때, 입력신호 감지부(120)가 터치 입출력부(200)로부터 전달받는 터치 여부 관련 신호는 터치 입력신호 발생 및 해제에 관련된 신호로서, 터치 입력신호가 발생했는지, 발생한 터치 입력신호가 지속적으로 유지되는지, 발생한 터치 입력신호가 해제되었는지를 각각 감지한다.At this time, the touch-related signal received by the input signal sensing unit 120 from the touch input / output unit 200 is a signal related to the generation and release of the touch input signal, and it is determined whether the touch input signal is generated, And whether or not the generated touch input signal is released.

도 4에 도시한 입력신호 감지부(120)의 구성을 참고로 하여 입력신호 감지부(120)를 좀더 자세하게 설명하면, 입력신호 유형 판단부(121)는 터치 입출력부(200)로부터 전달받는 터치 여부 관련 신호, 즉 입력신호의 유형을 판단한다.The input signal type determining unit 121 determines whether or not the input signal sensing unit 120 receives a touch signal from the touch input and output unit 200. That is, I.e., the type of the input signal.

예로써, 입력신호 유형 판단부(121)는 입력신호의 유형을 터치 발생, 터치 유지, 그리고 터치 해제 중 하나로 판단한다. For example, the input signal type determination unit 121 determines that the type of the input signal is one of a touch generation, a touch maintenance, and a touch release.

이때, 입력신호 유형 판단부(121)는 입력신호의 유지시간에 따라, 해당 입력신호를 터치 발생과 터치 유지 중 어느 하나로 판단한다.At this time, the input signal type determining unit 121 determines that the input signal is one of the touch generation and the touch retention according to the retention time of the input signal.

한 예에서, 입력신호의 유지시간이 설정된 시간 미만인 경우, 입력신호 유형 판단부(121)는 입력신호를 터치 발생으로 판단하고, 반면, 입력신호의 유지시간이 설정된 시간 이상인 경우, 입력신호 유형 판단부(121)는 입력신호를 터치 유지로 판단한다.In one example, when the holding time of the input signal is less than the set time, the input signal type determination unit 121 determines that the input signal is a touch occurrence. On the other hand, if the holding time of the input signal is longer than the set time, The control unit 121 determines that the input signal is touch-held.

터치 발생과 터치 유지를 구분하는 기준이 되는 입력신호의 유지시간의 설정된 시간은 0.5초~0.8초인 것이 좋다.The set time of the holding time of the input signal, which serves as a reference for distinguishing the touch generation from the touch holding, is preferably 0.5 to 0.8 seconds.

이처럼, 입력신호 유형 판단부(121)의 입력신호 판단 결과에서, 판단된 입력신호가 터치 발생인 경우 입력신호 유형 판단부(121)는 별도의 처리를 수행하지 않으며, 판단결과에서 입력신호가 터치 유지인 경우 입력신호 유형 판단부(121)는 입력신호 발생위치 판단부(122)를 구동시키고, 판단결과에서 입력신호가 터치 해제인 경우 입력신호 유형 판단부(121)는 컨텐츠 수신 및 전달부(124)를 구동시킨다.As described above, when the input signal judged by the input signal type determining unit 121 is a touch generated input signal, the input signal type determining unit 121 does not perform any other processing, The input signal type determination unit 121 drives the input signal generation position determination unit 122. If the input signal is the touch release in the determination result, the input signal type determination unit 121 determines whether the input signal is a content release and transmission unit 124.

입력신호 유형 판단부(121)의 입력신호를 터치 유지로 판단한 결과에 따라 입력신호 발생위치 판단부(122)가 구동되는 한 실시예를 좀더 자세하게 설명하면, 입력신호 발생위치 판단부(122)는 해당 입력신호의 발생위치를 판단한다.The input signal generation position determination unit 122 may be operated in accordance with a result of determining that the input signal of the input signal type determination unit 121 is touched. And determines the generation position of the input signal.

이때, 입력신호 발생위치 판단부(122)는 해당 입력신호가 한 좌표에서 터치 유지되고 있는지, 아니면 해당 입력신호가 좌표 이동하며 터치 유지되고 있는지를 판단하기 위해서 입력신호 발생위치를 판단한다.At this time, the input signal generation position determination unit 122 determines an input signal generation position to determine whether the input signal is held at one coordinate or whether the corresponding input signal is coordinate-shifted and held.

한 예에서, 입력신호 발생위치 판단부(122)가 판단 대상인 해당 입력신호가 한 좌표에서 터치 유지되고 있다고 판단하는 경우, 입력신호 발생위치 판단부(122)는 해당 입력신호의 좌표를 추출하여 컨텐츠 수신 및 전달부(124)로 전달한다.In one example, when the input signal generation position determination unit 122 determines that the corresponding input signal to be determined is touch-held at one coordinate, the input signal generation position determination unit 122 extracts coordinates of the input signal, And transmits it to the receiving and transmitting unit 124.

다른 한 예에서, 입력신호 발생위치 판단부(122)가 판단 대상인 해당 입력신호가 좌표 이동하며 터치 유지되고 있다고 판단하는 경우, 해당 입력신호를 드래그(drag) 신호로 판단하며, 입력신호 발생위치 판단부(122)는 해당 입력신호의 마지막 터치 위치의 좌표를 추출하여 컨텐츠 수신 및 전달부(124)로 전달한다.In another example, when the input signal generation position determination unit 122 determines that the corresponding input signal to be determined is coordinate-shifted and is held in touch, it determines the input signal as a drag signal, The controller 122 extracts the coordinates of the last touch position of the input signal and transmits the extracted coordinate to the content receiving and transmitting unit 124.

이처럼, 입력신호 발생위치 판단부(122)는 입력신호 유형 판단부(121)에 의해 구동된 이후, 해당 입력신호의 발생위치를 판단함으로써, 한 좌표에서 터치 유지되고 있는지, 또는 좌표 이동하는 터치 유지인지를 판단하며, 최종 좌표를 추출하여 컨텐츠 수신 및 전달부(124)로 전달한다. As described above, the input signal generation position determination unit 122 determines the generation position of the input signal after being driven by the input signal type determination unit 121 so that the input signal generation position determination unit 122 determines whether the touch is maintained at one coordinate, And transmits the extracted final coordinates to the content receiving and transmitting unit 124. The content receiving /

그리고, 입력신호 전달부(123)는 터치 입력신호, 즉 터치 유지로 판단된 신호에 따라 컨텐츠 생성부(130)가 구동되도록 제어하고, 터치 유지 형태 및 입력신호에 따른 최종 좌표를 컨텐츠 생성부(130)로 전달한다.The input signal transfer unit 123 controls the content generation unit 130 to be driven according to a touch input signal, i.e., a signal indicating that the touch is maintained, and outputs the final coordinates according to the touch hold type and the input signal to the content generation unit 130).

예로써, 입력신호 유형 판단부(121)가 입력신호의 유형을 터치 유지로 판단하고, 입력신호 발생위치 판단부(122)가 터치 유지 형태를 한 좌표에서 유지되고 있다고 판단한 경우, 입력신호 전달부(123)는 터치 유지 형태가 한 좌표에서 유지되고 있다는 점을 알리는 신호와 터치 유지의 최종 좌표를 컨텐츠 생성부(130)로 전달한다.For example, when the input signal type determining unit 121 determines that the type of the input signal is to be held by the touch, and the input signal generating position determining unit 122 determines that the input signal generating position determining unit 122 is maintained at a coordinate of the touch holding type, The control unit 123 transmits a signal indicating that the touch retention mode is maintained at one coordinate and a final coordinate of the touch retention to the content generation unit 130. [

다른 한 예로써, 입력신호 유형 판단부(121)가 입력신호의 유형을 터치 유지로 판단하고, 입력신호 발생위치 판단부(122)가 터치 유지 형태를 드래그로 판단한 경우, 입력신호 전달부(123)는 터치 유지 형태가 드래그라는 점을 알리는 신호와 터치 유지의 최종 좌표를 컨텐츠 생성부(130)로 전달한다.As another example, when the input signal type determining unit 121 determines that the type of the input signal is to be touched and the input signal generating position determining unit 122 determines that the touch holding type is dragging, the input signal transmitting unit 123 Transmits a signal indicating that the touch retention type is drag and a final coordinate of the touch retention to the content generation unit 130.

이러한 입력신호 전달부(123)는 입력신호 유형 판단부(121)가 입력신호의 유형을 터치 해제로 판단한 경우, 터치 해제되었음을 알리는 신호와 터치 해제가 발생한 해당 좌표를 컨텐츠 생성부(130)로 전달한다.When the input signal type determining unit 121 determines that the type of the input signal is to be untouched, the input signal transmitting unit 123 transmits a signal indicating that the touch is released and a corresponding coordinate where the touch cancellation occurs to the content generating unit 130 do.

이때, 터치 해제에 따라 입력신호 전달부(123)가 터치 해제되었음을 알리는 신호와 터치 해제가 발생한 해당 좌표를 컨텐츠 생성부(130)로 전달함에 있어서, 터치 해제가 발생한 해당 좌표는 입력신호 발생위치 판단부(122)에서 판단한다.At this time, in response to the touch release, the signal indicating that the input signal transfer unit 123 has been touched and the corresponding coordinates where the touch release occurs are transmitted to the content generation unit 130. In this case, The control unit 122 determines whether or not the control unit 122 is in the standby state

그리고, 컨텐츠 수신 및 전달부(124)는 입력신호 유형 판단부(121)가 입력신호 유형 판단부(121)가 해당 입력신호를 터치 해제로 판단한 경우 구동되는데, 컨텐츠 생성부(130)로부터 생성된 컨텐츠를 입력신호로서 수신하고, 수신한 컨텐츠를 컨텐츠 전송부(110)로 전달한다.The content receiving and transmitting unit 124 is driven when the input signal type determination unit 121 determines that the input signal type determination unit 121 determines that the input signal is to be touched. Receives the content as an input signal, and delivers the received content to the content transmitting unit 110.

이처럼, 입력신호 감지부(120)는 입력신호 유형 판단부(121)에서 터치 입출력부(200)로부터 전달받은 입력신호의 유형을 판단하고, 입력신호 발생위치 판단부(122)에서 해당 입력신호의 발생위치를 좌표로서 출력하며, 입력신호 전달부(123)는 터치 유지 형태 및 입력신호에 따른 최종 좌표를 컨텐츠 생성부(130)로 전달한다.The input signal sensing unit 120 determines the type of the input signal received from the touch input and output unit 200 in the input signal type determination unit 121 and determines the type of the input signal in the input signal generation position determination unit 122. [ And the input signal transfer unit 123 transfers final coordinates according to the touch retention mode and the input signal to the content generation unit 130. [

또한, 입력신호 감지부(120)의 컨텐츠 수신 및 전달부(124)는 컨텐츠 생성부(130)로부터 컨텐츠를 수신하여 이를 컨텐츠 전송부(110)로 전달한다. 입력신호 감지부(120)가 이러한 구조를 가짐에 따라, 터치 입출력부(200)에서 발생한 터치 입력신호에 따라 컨텐츠 생성부(130)를 구동하여 생성한 컨텐츠를 컨텐츠 전송부(100)에 전달하게 된다.The content receiving and transmitting unit 124 of the input signal detecting unit 120 receives the content from the content generating unit 130 and transmits the received content to the content transmitting unit 110. As the input signal sensing unit 120 has such a structure, the content generating unit 130 is driven according to the touch input signal generated in the touch input / output unit 200, and the generated content is transmitted to the content transmitting unit 100 do.

다시 도 1을 참고로 하여 처리부(100)의 컨텐츠 생성부(130)를 설명하면, 컨텐츠 생성부(130)는 위에서 이미 설명한 것처럼 입력신호 전달부(123)로부터 전달받은 터치 유지 신호에 따라 구동되고, 터치 입력신호의 좌표를 전달받으며, 구동에 따라 컨텐츠를 생성하여 생성된 컨텐츠를 컨텐츠 수신 및 전달부(124)로 전달한다.Referring to FIG. 1 again, the content generation unit 130 of the processing unit 100 is driven according to the touch holding signal received from the input signal transfer unit 123 as described above , Receives the coordinates of the touch input signal, generates content according to the driving, and transmits the generated content to the content receiving and transmitting unit 124.

한 예에서, 컨텐츠 생성부(130)는 휴대 단말(1)에 구비되어 컨텐츠 생성 장치를 제어하며, 컨텐츠 생성 장치는 카메라 또는 마이크일 수 있고, 이를 한정하지는 않는다.In one example, the content generation unit 130 is provided in the portable terminal 1 to control the content generation apparatus, and the content generation apparatus may be a camera or a microphone, but is not limited thereto.

그러나 이때, 컨텐츠 생성부(130)가 제어하는 컨텐츠 생성 장치가 카메라인 경우, 휴대 단말(1)의 전면에 형성된 전면카메라(2) 또는 휴대 단말(1)의 후면에 형성된 후면카메라(미도시)를 모두 포함할 수 있다.However, when the content generation unit 130 is a camera, a front camera 2 or a rear camera (not shown) formed on the rear surface of the portable terminal 1 may be installed in front of the portable terminal 1, . ≪ / RTI >

이러한 컨텐츠 생성부(130)는 먼저, 입력신호 유형이 터치 유지일 때 터치 유지 형태가 한 좌표에서 유지된 경우에서의 터치 입력신호의 최종 좌표에 따라 터치 입출력부(200)에 출력할 제1 영역(122a) 및 제2 영역(122b)의 출력 위치 및 출력 범위를 설정한다.The content generation unit 130 first generates a first area to be output to the touch input / output unit 200 according to the final coordinate of the touch input signal in the case where the touch hold type is maintained at one coordinate when the input signal type is the touch hold, The output position and the output range of the second area 122a and the second area 122b are set.

그리고, 입력신호 유형이 터치 유지일 때 터치 유지 형태가 드래그인 경우 컨텐츠 생성부(130)는 터치 입력신호의 최종 좌표가 제1 영역(122a) 또는 제2 영역(122b) 내부에 위치하는지를 판단하여 선택된 각 기능영역에 따라 구동되도록 설정된 컨텐츠 생성 장치가 구동되도록 제어한다.If the touch retention type is drag when the input signal type is touch retention, the content generation unit 130 determines whether the final coordinate of the touch input signal is located within the first area 122a or the second area 122b And controls the content generation apparatus set to be driven according to each selected functional region to be driven.

예로써, 컨텐츠 생성 장치가 카메라이고, 전면카메라 및 후면카메라를 모두 포함하는 경우, 제1 영역(122a)은 전면카메라와 매칭되고 제2 영역(122b)은 후면카메라와 매칭되어 어느 한 기능영역이 선택되었을 때 지정된 컨텐츠 생성 장치가 구동되도록 설정될 수 있다.For example, if the content creation device is a camera and includes both a front camera and a rear camera, the first area 122a matches the front camera and the second area 122b matches the rear camera, When selected, the content generation apparatus designated can be set to be driven.

그리고, 컨텐츠 생성 장치가 마이크인 경우, 제1 영역(122a)은 마이크와 매칭되어 해당 기능영역이 선택되었을 때 마이크가 구동되도록 설정될 수 있다. 이러한 경우, 제2 영역은 출력되지 않을 수 있다.If the content generating apparatus is a microphone, the first area 122a may be set to be driven when the corresponding function area is selected by matching with the microphone. In this case, the second area may not be output.

즉, 컨텐츠 생성부(130)가 제1 영역(122a) 및 제2 영역(122b)으로 기능영역을 각각 출력하는 것은 컨텐츠 생성 장치가 카메라이고, 카메라가 휴대 단말(1)에 전면카메라(2) 및 후면카메라(미도시)와 같이 두 개 구비됨에 따라 각 기능영역을 구분한 것으로, 컨텐츠 생성 장치가 마이크인 경우 터치 입출력부(200)에 출력하는 제1 영역(122a)이나 제2 영역(122b) 같은 기능영역은 단일 개일 수 있다.That is, the content generation unit 130 outputs the functional areas to the first area 122a and the second area 122b, respectively, because the content generation device is a camera, and the camera is connected to the front side camera 2, The first area 122a and the second area 122b for outputting to the touch input / output unit 200 when the content generation apparatus is a microphone, ) The same functional area can be a single.

이처럼, 컨텐츠 생성부(130)는 터치 입력신호의 최종 좌표가 제1 및 제2 영역(122a, 122b)과 같은 기능영역 내부에 위치하는 지의 여부를 판단하여 컨텐츠 생성 장치를 구동하며, 이때, 컨텐츠 생성부(130)는 입력신호 전달부(123)로부터 전달받은 터치 입력신호의 좌표에 따라 기능영역을 출력할 장소를 설정한다.In this way, the content generation unit 130 determines whether the final coordinates of the touch input signal are located within the same functional area as the first and second areas 122a and 122b, and drives the content generation apparatus. At this time, The generation unit 130 sets a location for outputting the functional area according to the coordinates of the touch input signal received from the input signal transfer unit 123.

한 예에서, 컨텐츠 생성부(130)는 터치 입력신호의 좌표를 배제한 공간 중 일부에 제1 영역(122a) 또는 제2 영역(122b)인 기능영역을 출력하고, 이때, 컨텐츠 생성부(130)가 참조하는 해당 터치 입력신호의 좌표는 입력신호 유형이 터치 유지이고 한 좌표에서 유지되는 경우에 따른 좌표이다. In one example, the content generation unit 130 outputs the first area 122a or the second area 122b in a part of the space excluding the coordinates of the touch input signal. At this time, The coordinate of the corresponding touch input signal referred to is a coordinate according to the case where the input signal type is the touch hold and is maintained at one coordinate.

이는, 입력신호 유형이 터치 유지이나 드래그되는 경우의 최종 좌표에 따라 기능영역이 선택되어야 하는데, 터치 입력신호가 발생한 지점이 기능영역과 중복됨으로 인해 선택 오류가 발생하는 것을 방지하기 위함이다.This is to prevent a selection error from occurring due to the overlap of the point where the touch input signal occurs with the functional area, in order to prevent the selection of the functional area according to the final coordinates when the input signal type is held or dragged.

즉, 컨텐츠 생성부(130)가 터치 입출력부(200)에 기능영역을 출력하기 위해서, 입력신호 유형이 터치 유지이되 한 좌표에서 유지되는 경우의 좌표를 참조하는데, 예로써, 해당 좌표를 제외한 공간에 기능영역을 출력한다.That is, in order to output the function area to the touch input / output unit 200, the content generation unit 130 refers to the coordinates in the case where the input signal type is maintained at the coordinate at which the touch is maintained. For example, And outputs the function area.

이때, 컨텐츠 생성부(130)는 도 2b와 같이 터치가 한 좌표에서 유지되는 지점을 제외한 터치 입출력부(200)의 공간 중 일부에 제1 영역(122a) 및 제2 영역(122b)를 출력하는데, 한 예에서, 제1 영역(122a) 및 제2 영역(122b)은 팝업(pop-up) 형태로 출력될 수 있다.At this time, the content generation unit 130 outputs the first area 122a and the second area 122b in a part of the space of the touch input / output unit 200 except the point where the touch is maintained at one coordinate as shown in FIG. 2B In one example, the first area 122a and the second area 122b may be output in a pop-up form.

한 예에서, 제1 영역(122a) 및 제2 영역(122b)의 출력 지점은 한 좌표에서 유지되는 경우의 좌표를 제외한 부분이라면 어느 부분에 출력되어도 무방하며, 출력되는 각 기능영역의 넓이를 한정하지는 않는다.In one example, the output points of the first area 122a and the second area 122b may be output to any part except the coordinates in the case where they are maintained at one coordinate, and the output area of each functional area to be output is limited I do not.

그리고 이때, 도 2c에 도시한 것처럼 사용자가 최초 터치 지점을 기준으로 터치를 떼지 않고 화살표 방향을 따라 드래그하는 경우, 터치 입력신호는 터치 형태를 유지하되 터치 좌표가 변경되므로, 최종 좌표는 최초 좌표와 상이한 값을 갖는다.In this case, as shown in FIG. 2C, when the user drags the finger along the arrow direction without releasing the touch with respect to the first touch point, the touch coordinates are changed while the touch input signal is kept in touch form. And have different values.

따라서, 컨텐츠 생성부(130)는 최초 좌표를 고려하여 기능영역을 출력하며, 최종 좌표가 기능영역 내부에 위치하는 지를 판단하여 각 기능영역에 지정된 컨텐츠 생성 장치를 구동하도록 제어한다.Accordingly, the content generation unit 130 outputs the function area in consideration of the initial coordinates, determines whether the final coordinates are located in the function area, and controls the content generation device designated in each function area to be driven.

한 실시예에서, 컨텐츠 생성 장치가 카메라이고 전면카메라(2)와 후면카메라(미도시)를 모두 포함하고, 위에서 이미 설명한 예에 따라 제1 영역(122a)이 전면카메라(2)와 매칭될 때, 터치 입력신호의 최종 좌표가 도 2c와 같이 제1 영역(122a) 내부에 위치하는 경우, 컨텐츠 생성부(130)는 터치 입력신호의 최종 좌표에 따라 전면카메라(2)를 구동시킨다.In one embodiment, when the content creation device is a camera and includes both a front camera 2 and a rear camera (not shown), and when the first area 122a is matched with the front camera 2 according to the example already described above If the final coordinates of the touch input signal are located inside the first area 122a as shown in FIG. 2C, the content generation unit 130 drives the front camera 2 according to the final coordinate of the touch input signal.

이때, 전면카메라(2)가 구동됨에 따라 제1 영역(122a)은 사진촬영 대기 상태의 화면을 출력한다.At this time, as the front camera 2 is driven, the first area 122a outputs a picture in a picture-taking standby state.

그리고, 컨텐츠 생성부(130)는 입력신호 전달부(123)로부터 전달받은 터치 해제를 알리는 신호 및 터치 해제가 발생한 해당 좌표에 따라 컨텐츠 생성 장치가 컨텐츠를 생성하도록 제어한다.The content generation unit 130 controls the content generation apparatus to generate the content according to the signal indicating the cancellation of the touch received from the input signal delivery unit 123 and the corresponding coordinates where the touch release occurs.

바람직한 예에서, 컨텐츠 생성부(130)는 터치 해제가 발생한 해당 좌표가 선택된 기능영역 내부에 위치할 때 컨텐츠 생성 장치가 컨텐츠를 생성하도록 제어한다.In a preferred example, the content generation unit 130 controls the content generation apparatus to generate the content when the coordinates where the touch release occurs are located within the selected function area.

예로써, 컨텐츠 생성 장치가 카메라이고, 위에서 설명한 실시예처럼 제1 영역(122a) 내부에 최종 좌표가 위치함에 따라 전면카메라(2)가 구동된 경우, 컨텐츠 생성부(130)는 컨텐츠 생성 장치인 전면카메라(2)가 사진을 촬영하도록 전면카메라(2)를 제어하고, 전면카메라(2)에서 촬영된 사진, 즉, 컨텐츠를 입력신호 감지부(120)의 컨텐츠 수신 및 전달부(124)로 전달한다.For example, if the content generation apparatus is a camera and the front camera 2 is driven as the final coordinates are located in the first area 122a as in the above-described embodiment, the content generation unit 130 generates a content The front camera 2 controls the front camera 2 so that the front camera 2 picks up a picture photographed by the front camera 2 and transmits the content to the content receiving and transmitting unit 124 of the input signal detecting unit 120 .

이처럼, 컨텐츠 생성부(130)는 입력신호 전달부(123)로부터 전달받은 터치 유형 및 터치 좌표에 따라 컨텐츠 생성 장치를 제어하여 컨텐츠를 생성하고, 생성된 컨텐츠를 컨텐츠 수신 및 전달부(124)로 전달한다.As described above, the content generation unit 130 generates content by controlling the content generation apparatus according to the touch type and touch coordinates received from the input signal delivery unit 123, and transmits the generated content to the content reception and transmission unit 124 .

컨텐츠 전송부(110)는 위에서 이미 설명한 것처럼, 컨텐츠 수신 및 전달부(124)로부터 컨텐츠를 수신하여, 이를 메신저 프로그램 상에서 출력되고 터치 입력신호가 유지되는 최초 좌표에서 선택하는 연락처, 계정 또는 대화창에 컨텐츠를 전송한다.As described above, the content transmitting unit 110 receives the content from the content receiving and transmitting unit 124 and outputs it to the contact, account, or dialog window that is output on the instant messenger program and selects from the initial coordinates where the touch input signal is maintained .

한 예에서, 도 2a와 같이 B 계정(231b)을 선택할 수 있는 영역(232b)에서 터치 입력신호가 유지되는 형태로 터치 입력신호가 최초 발생되었으므로, 컨텐츠 생성부(130)에서 생성된 컨텐츠는 도 2e에 도시한 것처럼 B 계정(231b)과 대화를 수행하는 대화창 화면(241)에 대화말 형태의 사진(131)을 전송하게 된다.In one example, since the touch input signal is first generated in a form in which the touch input signal is maintained in the area 232b in which the B account 231b can be selected as shown in FIG. 2A, the content generated in the content generating unit 130 A picture 131 in the form of a conversation word is transmitted to a dialog window 241 for conducting a conversation with the B account 231b as shown in FIG.

도면을 참고로 하는 본 발명의 한 실시예에는 컨텐츠 생성 장치가 카메라이고 그 중 전면카메라(2)를 이용하여 사진 컨텐츠를 생성하여 전송하는 예시를 설명하였으나, 다른 한 예에서, 컨텐츠 생성 장치가 마이크인 경우를 설명하면, 마이크를 구동하도록 설정된 기능영역에 드래그 형태의 터치 좌표가 형성되어 해당 기능영역이 선택됨에 따라 컨텐츠 생성부(130)는 마이크를 구동시켜 녹음을 진행하고, 터치가 해제됨에 따라, 컨텐츠 생성부(130)는 마이크의 녹음을 중지시켜 녹음 파일을 컨텐츠로서 생성한다.In an embodiment of the present invention referring to the drawings, an example has been described in which a content generation apparatus is a camera and photo contents are generated and transmitted using the front face camera 2, but in another example, , The drag-type touch coordinates are formed in the function area set for driving the microphone, and the corresponding function area is selected. Then, the content generation unit 130 drives the microphone to perform recording, and when the touch is released , The content generation unit 130 stops the recording of the microphone and generates the recording file as the content.

한 예에서, 드래그 형태를 갖는 터치의 최종 좌표가 기능영역 내부에 형성되어 컨텐츠 생성 장치가 구동되도록 제어될 때, 해당 기능영역은 녹음이 진행되는 화면을 출력하는 것이 좋다.In one example, when the final coordinates of a drag having a drag shape are formed in the function area and controlled so that the content generation apparatus is driven, it is preferable that the function area outputs a screen on which recording is progressed.

도 1 내지 도 4를 참고로 하여 설명한 것처럼, 휴대 단말(1)의 처리부(100)가 형성됨에 따라, 휴대 단말(1)에서출력하는 연락처 또는 메신저 프로그램에서는 연속적인 터치 동작을 이용하여 간편하고 용이하게 컨텐츠를 생성하여 이를 선택한 연락처 또는 대화창에 전송할 수 있다.As described above with reference to Figs. 1 to 4, as the processing unit 100 of the portable terminal 1 is formed, contact or messenger programs output from the portable terminal 1 can be easily and easily And send it to the selected contact or dialog window.

이로 인해, 종래의 연락처 또는 메신저 프로그램에서는 컨텐츠 전송을 위해 여러 번의 터치 입력을 통해 컨텐츠를 생성 및 전송해야하는 한계를 극복할 수 있다.Accordingly, in the conventional contact or messenger program, it is possible to overcome the limitation of generating and transmitting contents through a plurality of touch inputs in order to transmit contents.

다음으로, 도 1 내지 도 4를 참고로 하여 설명한 내용을 기반으로, 본 발명의 한 실시예에 따른 컨텐츠 생성 및 전송 방법을 도 5의 순서도를 참고로 하여 자세히 설명하도록 한다.Next, a content generation and transmission method according to an embodiment of the present invention will be described in detail with reference to the flowchart of FIG. 5, based on the contents described with reference to FIG. 1 to FIG.

도 5를 참고로 하는 설명에 있어서, 모든 판단 및 동작의 주체는 휴대 단말(1)의 처리부(100)이며, 컨텐츠 생성 장치는 카메라임을 기반으로 하여 설명하도록 한다.In the description with reference to FIG. 5, all of the determination and operation are mainly performed by the processing unit 100 of the portable terminal 1, and the content generation apparatus is described based on the camera.

먼저, 입력신호 발생 여부를 판단(Q100)하여, 입력신호 유형이 터치인 지를 판단(Q200)하고, 터치 입력신호인 경우 입력신호 유지시간이 설정시간 이상인 지를 판단(Q300)한다.First, it is determined whether an input signal is generated (Q100), whether or not the input signal type is touch (Q200), and if the input signal is a touch input signal, it is determined whether the input signal holding time is longer than a set time (Q300).

이때, 터치 입력신호의 유지시간이 설정시간 이상인 경우, 컨텐츠 생성창, 즉, 제1 영역(122a) 또는 제2 영역(122b)과 같은 기능영역을 출력(S100)하되, 터치 입력신호가 유지된 해당 좌표를 제외한 영역에서 기능영역들을 출력한다.In this case, when the retention time of the touch input signal is equal to or longer than the set time, a function generating area such as the first area 122a or the second area 122b is output (S100) And outputs functional areas in the area excluding the coordinates.

그러나 이때, 위의 판단 단계(Q300)에서 터치 입력신호의 유지시간이 설정시간 미만인 경우, 별도의 처리를 수행하지 않고 종료된다.However, if the retention time of the touch input signal is less than the set time in the determination step (Q300), the process is terminated without performing another process.

그리고, 위의 판단 단계(Q200)에서 입력신호 유형이 터치가 아닌 경우, 입력신호가 드래그인지 판단(Q400)하여, 입력신호가 드래그인 경우, 드래그 입력신호의 최종 좌표가 제1 영역(122a) 내부에 위치하는 지를 감지(Q510)한다.If it is determined in step Q200 that the input signal is not dragged, the final coordinate of the drag input signal is determined to be the first area 122a when the input signal is dragged. (Q510).

한 예에서, 드래그 입력신호의 최종 좌표가 제1 영역(122a) 내부에 위치하는 경우, 전면카메라를 구동(S210)한다. 그러나 이때, 위의 판단단계(Q510)로부터 드래그 입력신호의 최종 좌표가 제1 영역(122a) 내부에 위치하지 않는 경우, 드래그 입력신호의 최종 좌표가 제2 영역(122b) 내부에 위치하는 지를 감지(Q520)한다.In one example, if the final coordinate of the drag input signal is located inside the first area 122a, the front camera is driven (S210). However, if the final coordinate of the drag input signal is not located inside the first area 122a from the determination step Q510, it is detected whether the final coordinate of the drag input signal is located inside the second area 122b (Q520).

이때, 위의 판단 단계(Q520)로부터 드래그 입력신호의 최종 좌표가 제2 영역(122b) 내부에 위치하는 경우, 후면카메라를 구동(S220)한다.At this time, if the final coordinate of the drag input signal is located inside the second area 122b from the above determination step Q520, the rear camera is driven (S220).

전면카메라를 구동(S210)하거나 후면카메라를 구동(S220)하는 각각의 단계가 수행되면, 다시 입력신호 유형이 터치인 지를 판단하는 단계(Q200)로 되돌아간다.When each step of driving the front camera (S210) or driving the rear camera (S220) is performed, the process returns to the step of determining whether the input signal type is touch again (Q200).

그리고, 드래그 입력신호의 최종 좌표가 제2 영역(122b) 내부에 위치하는 지를 판단하는 단계(Q520)에서 해당 좌표가 제2 영역(122b) 내부에 위치하지 않는 경우, 드래그 입력신호의 최종 좌표는 제1 영역(122a)과 제2 영역(122b) 어디에도 포함되지 않으므로, 별도의 처리를 수행하지 않고 종료된다.If it is determined in step Q520 that the final coordinate of the drag input signal is located inside the second area 122b, if the coordinate is not located inside the second area 122b, the final coordinate of the drag input signal is Since the first area 122a and the second area 122b are not included at all, they are terminated without performing another process.

이처럼, 터치 입력신호가 드래그 신호이고 해당 드래그 입력신호의 최종 좌표가 제1 영역(122a) 또는 제2 영역(122b)의 내부에 위치하는 경우 전면카메라 또는 후면카메라가 구동되는데, 이때, 터치가 해제될 수 있다.As described above, when the touch input signal is a drag signal and the final coordinate of the drag input signal is located inside the first area 122a or the second area 122b, the front camera or the rear camera is driven. At this time, .

이와 같이, 터치가 해제되는 경우, 위의 단계(Q200, Q400)에서 각각 터치신호가 아니고 드래그가 아니라고 판단되므로, 입력신호 유형이 터치해제인지를 판단하는 단계(Q600)를 수행하게 된다.In this manner, when the touch is released, it is determined that the dragging is not the touch signal in steps Q200 and Q400, respectively, so that step Q600 of determining whether the input signal type is the touch release is performed.

이때, 입력신호 유형이 터치 해제로 판단되는, 즉, 터치 해제되었다고 판단되는 경우, 구동되는 전면카메라 또는 후면카메라가 사진을 촬영하여 사진을 생성(S310)하여 생성된 사진을 출력(S310)한다.At this time, if it is determined that the input signal type is touch release, that is, it is determined that the touch is released, the front camera or the rear camera driven photographs a photograph to generate a photograph (S310) and outputs the generated photograph (S310).

이러한 일련의 흐름으로부터, 휴대 단말(1)의 처리부(100)는 컨텐츠 생성 장치를 제어하여 간단한 터치 입력, 드래그 및 터치 해제를 통해 컨텐츠를 생성하여 이를 전송할 수 있다.From this series of flows, the processing unit 100 of the portable terminal 1 can generate content by simple touch input, drag and touch release by controlling the content generation apparatus and transmit it.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

1 : 휴대 단말 2 : 전면카메라
100 : 처리부 110 : 컨텐츠 전송부
120 : 입력신호 감지부 130 : 컨텐츠 생성부
200 : 터치 입출력부
1: Portable terminal 2: Front camera
100: processing unit 110:
120: input signal sensing unit 130:
200: touch input / output unit

Claims (12)

(a) 터치 입력신호를 입력받아 상기 터치 입력신호의 유형을 터치 발생, 터치 유지 및 터치 해제 중 어느 하나로 판단하는 단계,
(b-1) 상기 (a) 단계에서 상기 터치 입력신호의 유형이 상기 터치 유지로 판단된 경우, 상기 터치 유지 시간을 설정된 시간과 비교하는 단계,
(b-2) 상기 터치 입력신호가 한 좌표에 머무르는 형태인지 드래그 형태인지를 판단하는 단계,
(c-1) 상기 (b-1) 단계에서 상기 터치 유지 시간이 상기 설정된 시간 이상이고, 상기 (b-2) 단계에서 상기 터치 입력신호가 한 좌표에 머무르는 형태인 것으로 판단된 경우, 상기 터치 입력신호가 발생한 좌표를 제외한 부분에 기능영역을 팝업창 형태로 출력하는 단계,
(c-2) 상기 (b-2) 단계에서 상기 터치 입력신호가 드래그 형태인 것으로 판단되고 상기 드래그 형태의 터치 입력신호의 최종 좌표가 상기 기능영역에 포함되는 경우, 해당 기능영역에 설정된 컨텐츠 생성 장치를 구동시키도록 제어하는 단계,
(d-1) 상기 (a) 단계를 재수행하여 상기 터치 입력신호의 유형이 터치 해제로 판단되고, 상기 터치 해제가 발생한 좌표가 상기 기능영역에 포함되는 경우, 상기 (c-2) 단계에서 구동시킨 상기 컨텐츠 생성 장치에서 컨텐츠를 생성하는 단계, 그리고
(d-2) 상기 (d-1) 단계에서 생성한 컨텐츠를 전송하는 단계
를 포함하고, 상기 단계들은 순차적으로 수행되며, 상기 (c-1) 단계에서 상기 터치 입력신호가 머무르는 한 좌표는 연락처 목록 중 어느 한 전화번호, 메신저 프로그램이 출력하는 계정 목록 중 한 계정 또는 메신저 프로그램이 출력하는 대화창 목록 중 어느 한 대화창으로서, 상기 (d-2) 단계의 컨텐츠 전송 목적지인 것을 특징으로 하는 컨텐츠 생성 및 전송 방법.
(a) receiving a touch input signal and determining the type of the touch input signal as one of a touch generation, a touch maintenance, and a touch release;
(b-1) comparing the touch holding time with a predetermined time when the type of the touch input signal is determined as the touch holding in the step (a)
(b-2) determining whether the touch input signal stays in one coordinate or in a drag shape,
(c-1) if it is determined in the step (b-1) that the touch holding time is longer than the set time and the touch input signal remains in one coordinate in the step (b-2) Outputting a function area in the form of a pop-up window at a portion excluding a coordinate at which an input signal occurs,
(c-2) when the touch input signal is judged to be a drag form in the step (b-2) and the final coordinate of the drag type touch input signal is included in the function area, Controlling to drive the apparatus,
(c-2) if the type of the touch input signal is determined to be the touch release state and the coordinate where the touch release occurs is included in the function area, in the step (d-1) Generating content in the content generation apparatus, and
(d-2) transmitting the content generated in the step (d-1)
Wherein one of the coordinates of the touch input signal in the step (c-1) is one of a telephone number of the contact list, an account of the account list output by the instant messenger program, or a messenger program Is a content transfer destination of the step (d-2) as any dialog window among the output dialog windows.
제1항에 있어서,
상기 (a) 단계에서, 상기 터치 입력신호는 휴대 단말의 터치 입출력부에서 입력받는 것을 특징으로 하는 컨텐츠 생성 및 전송 방법.
The method according to claim 1,
Wherein the touch input signal is input to the touch input / output unit of the portable terminal in the step (a).
제1항에 있어서,
상기 (b-1) 단계에서, 상기 설정된 시간은 0.5~0.8초인 것을 특징으로 하는 컨텐츠 생성 및 전송 방법.
The method according to claim 1,
Wherein the set time is 0.5 to 0.8 seconds in the step (b-1).
제1항에 있어서,
상기 (c-1) 단계에서, 상기 기능영역은 복수개 출력되는 것을 특징으로 하는 컨텐츠 생성 및 전송 방법.
The method according to claim 1,
Wherein the plurality of functional areas are output in the step (c-1).
제4항에 있어서,
복수 개 출력되는 상기 기능영역은 각각 컨텐츠 생성 장치에 매칭되는 것을 특징으로 하는 컨텐츠 생성 및 전송 방법.
5. The method of claim 4,
Wherein the plurality of function areas are matched to the content generation device, respectively.
제5항에 있어서,
상기 컨텐츠 생성 장치는 전면카메라 및 후면카메라이고,
복수 개의 상기 기능영역 중 하나의 기능영역은 상기 전면카메라와 매칭되어 상기 하나의 기능영역에 상기 (c-2) 단계처럼 상기 드래그 형태의 터치 입력신호의 최종 좌표가 포함되는 경우, 상기 전면카메라를 구동시켜 전면카메라 촬영대기 상태를 작동하고,
복수 개의 상기 기능영역 중 다른 하나의 기능영역은 상기 후면카메라와 매칭되어 상기 다른 하나의 기능영역에 상기 (c-2) 단계처럼 상기 드래그 형태의 터치 입력신호의 최종 좌표가 포함되는 경우, 상기 후면카메라를 구동시켜 후면카메라 촬영대기 상태를 작동하는 것을 특징으로 하는 컨텐츠 생성 및 전송 방법.
6. The method of claim 5,
Wherein the content generation apparatus is a front camera and a rear camera,
Wherein one of the plurality of function areas is matched with the front camera and the final coordinate of the drag type touch input signal is included in the one function area as in the step (c-2) The front camera shooting standby state is activated,
And the other functional area of the plurality of functional areas is matched with the rear camera, and if the final coordinate of the drag-type touch input signal is included in the other functional area as in the step (c-2) And a back camera shooting standby state is activated by driving the camera.
제6항에 있어서,
상기 (d-2) 단계에서 생성한 컨텐츠는 사진인 것을 특징으로 하는 컨텐츠 생성 및 전송 방법.
The method according to claim 6,
Wherein the content generated in the step (d-2) is a photograph.
제1항에 있어서,
상기 컨텐츠 생성 장치는 마이크이고,
상기 (c-2) 단계에서 상기 드래그 형태의 터치 입력신호의 최종 좌표가 포함되는 경우 상기 마이크를 구동시켜 녹음을 수행하는 것을 특징으로 하는 컨텐츠 생성 및 전송 방법.
The method according to claim 1,
Wherein the content generation device is a microphone,
And if the final coordinates of the drag-type touch input signal are included in the step (c-2), the microphone is driven to perform recording.
제8항에 있어서,
상기 (d-2) 단계에서 생성한 컨텐츠는 녹음파일인 것을 특징으로 하는 컨텐츠 생성 및 전송 방법.

9. The method of claim 8,
Wherein the content generated in the step (d-2) is a recording file.

삭제delete 삭제delete 삭제delete
KR1020150142854A 2015-10-13 2015-10-13 Contents sending method on messanger KR101707444B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150142854A KR101707444B1 (en) 2015-10-13 2015-10-13 Contents sending method on messanger

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150142854A KR101707444B1 (en) 2015-10-13 2015-10-13 Contents sending method on messanger

Publications (1)

Publication Number Publication Date
KR101707444B1 true KR101707444B1 (en) 2017-02-16

Family

ID=58264951

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150142854A KR101707444B1 (en) 2015-10-13 2015-10-13 Contents sending method on messanger

Country Status (1)

Country Link
KR (1) KR101707444B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019004687A1 (en) * 2017-06-26 2019-01-03 (주)모멘터스 Method for providing content of mobile terminal on the basis of touch holding time of user
KR20190028961A (en) * 2017-09-11 2019-03-20 주식회사 엣지아이앤디 Gesture recognition based touch display apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100037945A (en) * 2008-10-02 2010-04-12 삼성전자주식회사 Touch input device of portable device and operating method using the same
KR20140098593A (en) * 2013-01-31 2014-08-08 엘지전자 주식회사 Mobile terminal and controlling method thereof
KR20140127507A (en) * 2013-04-25 2014-11-04 삼성전자주식회사 Apparatus and method for trasnsmitting an information in portable device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100037945A (en) * 2008-10-02 2010-04-12 삼성전자주식회사 Touch input device of portable device and operating method using the same
KR20140098593A (en) * 2013-01-31 2014-08-08 엘지전자 주식회사 Mobile terminal and controlling method thereof
KR20140127507A (en) * 2013-04-25 2014-11-04 삼성전자주식회사 Apparatus and method for trasnsmitting an information in portable device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019004687A1 (en) * 2017-06-26 2019-01-03 (주)모멘터스 Method for providing content of mobile terminal on the basis of touch holding time of user
KR20190001076A (en) * 2017-06-26 2019-01-04 (주)모멘터스 Method of providing contents of a mobile terminal based on a duration of a user's touch
KR101961907B1 (en) * 2017-06-26 2019-03-25 (주)모멘터스 Method of providing contents of a mobile terminal based on a duration of a user's touch
US11144178B2 (en) 2017-06-26 2021-10-12 Minsung Kim Method for providing contents for mobile terminal on the basis of user touch and hold time
KR20190028961A (en) * 2017-09-11 2019-03-20 주식회사 엣지아이앤디 Gesture recognition based touch display apparatus
KR102026615B1 (en) 2017-09-11 2019-09-30 (주)컴버스테크 Gesture recognition based touch display apparatus

Similar Documents

Publication Publication Date Title
KR102266674B1 (en) Filming method and terminal
US11269575B2 (en) Devices, methods, and graphical user interfaces for wireless pairing with peripheral devices and displaying status information concerning the peripheral devices
CN101627361B (en) Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
KR102045232B1 (en) Gesture identification methods, devices, programs and recording media
KR101085732B1 (en) Methods for determining a cursor position from a finger contact with a touch screen display
US20140007019A1 (en) Method and apparatus for related user inputs
JP5607182B2 (en) Apparatus and method for conditionally enabling or disabling soft buttons
US20160162139A1 (en) Information display terminal
WO2010117145A2 (en) Input device and method for mobile terminal
WO2009111249A2 (en) Selecting of text using gestures
WO2021083087A1 (en) Screen capturing method and terminal device
CN110109608B (en) Text display method, text display device, text display terminal and storage medium
CN112486346B (en) Key mode setting method, device and storage medium
CN110968364B (en) Method and device for adding shortcut plugins and intelligent device
KR101707444B1 (en) Contents sending method on messanger
JP6821769B2 (en) How to display application interfaces, devices and electronic devices
CN114401336B (en) Electronic equipment, operation method thereof, chip and computer storage medium
CN111752464A (en) Gesture operation response method and device and storage medium
JP2017134632A (en) Display device, display control method and program
KR101850822B1 (en) Mobile terminal and method for controlling of the same
KR102258742B1 (en) Touch signal processing method, apparatus and medium
JP4841418B2 (en) Input device and program
US11556173B2 (en) Electronic apparatus, method for controlling the same, and storage medium
CN112889261A (en) Voice call control method and folding mobile terminal
CN112312220A (en) Webpage video playing method and device

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200210

Year of fee payment: 4