KR101437159B1 - Method and terminal for transmitting user's action - Google Patents

Method and terminal for transmitting user's action Download PDF

Info

Publication number
KR101437159B1
KR101437159B1 KR1020070020731A KR20070020731A KR101437159B1 KR 101437159 B1 KR101437159 B1 KR 101437159B1 KR 1020070020731 A KR1020070020731 A KR 1020070020731A KR 20070020731 A KR20070020731 A KR 20070020731A KR 101437159 B1 KR101437159 B1 KR 101437159B1
Authority
KR
South Korea
Prior art keywords
touch input
input data
terminal
counterpart terminal
touch
Prior art date
Application number
KR1020070020731A
Other languages
Korean (ko)
Other versions
KR20080080710A (en
Inventor
김태훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020070020731A priority Critical patent/KR101437159B1/en
Priority to US12/041,445 priority patent/US8933891B2/en
Publication of KR20080080710A publication Critical patent/KR20080080710A/en
Application granted granted Critical
Publication of KR101437159B1 publication Critical patent/KR101437159B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 사용자 동작 전달 방법 및 단말기에 관한 것으로서, 상대방과 실시간으로 커뮤니케이션을 수행하는 중에 사용자의 터치 입력 데이터를 상대방 단말기로 전달하여, 사용자의 터치 입력 데이터에 대응된 동작이 상대방 단말기로 출력되도록 한다. 본 발명에 의하면, 상대방과 실시간 커뮤니케이션을 수행하는 중에 사용자의 동작을 상대방 단말기로 전달할 수 있다. 또한, 사용자의 동작을 상대방 단말기로 전달한 이후에 상대방 단말기로부터 상대방의 동작을 피드백 받을 수 있다.The present invention relates to a method for transmitting a user action and a terminal, and in the course of real-time communication with a counterpart, the touch input data of a user is transmitted to a counterpart terminal, and an operation corresponding to the touch input data of the user is output to the counterpart terminal . According to the present invention, the user's operation can be transmitted to the counterpart terminal while real-time communication with the counterpart is performed. Further, after the operation of the user is transmitted to the partner terminal, the operation of the partner can be fed back from the partner terminal.

커뮤니케이션, 터치 디바이스, 피드백, 화상 통화, 메신저, 이동 단말기 Communication, touch device, feedback, video call, messenger, mobile terminal

Description

사용자 동작 전달 방법 및 단말기{Method and terminal for transmitting user's action}Technical Field [0001] The present invention relates to a method and a terminal for transmitting a user action,

도 1은 본 발명의 실시예에 따른 사용자 동작 전달 단말기의 내부 구성을 개략적으로 나타낸 구성도,1 is a block diagram schematically showing an internal configuration of a user action transfer terminal according to an embodiment of the present invention;

도 2는 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 송신측 단말기의 동작 과정을 나타낸 동작 흐름도,FIG. 2 is a flowchart illustrating an operation of a transmitting terminal in a method for transmitting a user action according to an exemplary embodiment of the present invention.

도 3은 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 착신측 단말기의 동작 과정을 나타낸 동작 흐름도,FIG. 3 is a flowchart illustrating an operation of a called terminal in a method for transmitting a user action according to an exemplary embodiment of the present invention.

도 4는 본 발명의 실시예에 따른 사용자 동작 전달 방법 중 착신측 단말기에서 송신측 단말기로 사용자 동작을 피드백하는 과정을 나타낸 동작 흐름도,FIG. 4 is a flowchart illustrating a process of feeding back a user operation from a receiving terminal to a transmitting terminal in a user operation transmitting method according to an exemplary embodiment of the present invention.

도 5는 화상 통화 중에 상대방 얼굴이 표시되는 화면을 단순히 터치하는 것을 나타낸 도면,FIG. 5 is a diagram illustrating a simple touch of a screen on which a face of the other party is displayed during a video call;

도 6은 화상 통화 중에 상대방 얼굴이 표시되는 화면을 일정 시간 동안 터치하여 드래그하는 것을 나타낸 도면, 그리고FIG. 6 is a diagram illustrating a screen in which a face of the other party is displayed during a video call by touching and dragging for a predetermined time, and

도 7은 우측 또는 좌측으로 드래그된 터치 입력에 따라 화면이 우측 또는 좌측으로 흔들리는 경우를 나타낸 도면이다.7 is a diagram illustrating a case where a screen is shaken to the right or left according to a touch input dragged to the right or left.

< 도면의 주요 부분에 대한 부호의 설명 >Description of the Related Art

100 : 사용자 동작 전달 단말기 110 : 터치 디바이스100: User action transfer terminal 110: Touch device

120 : 통신부 130 : 제어부120: communication unit 130:

140 : 출력부 150 : 프로그램부140: output unit 150: program unit

본 발명은 사용자의 터치 동작을 통신망을 통하여 상대방 단말기로 전달하는 사용자 동작 전달 방법 및 단말기에 관한 것이다.The present invention relates to a method and a terminal for transmitting a user's operation of transmitting a touch operation to a counterpart terminal through a communication network.

최근, 디지털 휴대용 단말기는 사용자가 문자 입력을 비롯하여 필요한 정보를 보다 편리하게 입력하기 위한 터치 스크린을 구비하고 있다. 이러한 터치 스크린은 사용자로부터 정보를 입력받을 뿐만 아니라 입력받은 정보를 표시하고 있다.2. Description of the Related Art In recent years, a digital portable terminal has a touch screen for allowing a user to more easily input necessary information including a character input. Such a touch screen not only receives information from a user but also displays input information.

그런데, 사용자가 터치 스크린을 구비한 휴대용 단말기를 이용하여 상대방과 화상 통화나 메신저(Messenger)를 수행할 때, 상대방 단말기로 사진이나 이미지 등의 멀티미디어 데이터를 전송하는 경우가 있다.Meanwhile, when a user performs a video call or a messenger with the other party using a portable terminal having a touch screen, the user may transmit multimedia data such as a photograph or an image to the other party's terminal.

이때, 착신측 단말기에서는 송신측 단말기에서 전송한 멀티미디어 데이터를 수신하지만, 실시간으로 커뮤니케이션을 수행하고 있는 상대방은 주의를 기울이지 않는 경우에 멀티미디어 데이터의 수신을 쉽게 인식하지 못하였었다.At this time, although the receiving terminal receives the multimedia data transmitted from the transmitting terminal, the other party performing the communication in real time can not easily recognize the reception of the multimedia data when not paying attention.

따라서, 실시간 커뮤니케이션을 수행하고 있는 동안에 송신측 단말기에서 멀티미디어 데이터를 전송하거나 터치 동작을 수행하는 경우에 착신측 단말기에서 이를 인식할 수 있는 기술이 요구되고 있다.Accordingly, there is a need for a technology that allows a destination terminal to recognize multimedia data when transmitting multimedia data or performing a touch operation while real-time communication is performed.

따라서, 본 발명은 상대방과 실시간으로 커뮤니케이션을 수행하는 중에 사용자의 터치 입력 데이터를 상대방 단말기로 전달하여, 사용자의 터치 입력 데이터에 대응된 동작이 상대방 단말기로 출력되도록 하는, 사용자 동작 전달 방법 및 단말기를 제공함에 그 목적이 있다.Accordingly, the present invention provides a method and apparatus for transmitting a user's touch input data to a counterpart terminal while communicating with a counterpart in real time and outputting an operation corresponding to the touch input data of the counterpart to the counterpart terminal, The purpose is to provide.

상기 목적을 달성하기 위한 본 발명에 따른 사용자 동작 전달 방법은, 실시간 커뮤니케니션 중에 사용자로부터 터치를 입력받는 단계; 및 상기 사용자로부터의 터치 입력 데이터를 상대방 단말기로 전송하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for transmitting a user action, the method comprising: receiving a touch from a user during real-time communication; And transmitting the touch input data from the user to the counterpart terminal.

그리고, 상기 전송하는 단계는, 상기 터치 입력 데이터에 대응된 상기 상대방 단말기의 진동 출력이나 음향 출력 또는 빛 출력을 명령하는 데이터를 상기 상대방 단말기로 전송하게 된다.The transmitting step transmits data for instructing vibration output, sound output, or light output of the counterpart terminal corresponding to the touch input data to the counterpart terminal.

한편, 상기 목적을 달성하기 위한 본 발명에 따른 사용자 동작 전달 방법은, 상대방과 실시간 커뮤니케니션 중에 상대방 터치입력 데이터를 수신하는 단계; 및 상기 수신된 상대방 터치입력 데이터에 대응된 동작을 출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for transmitting a user action, the method comprising: receiving counterpart touch input data during real-time communication with a counter party; And outputting an operation corresponding to the received counterpart touch input data.

그리고, 상기 상대방 터치입력 데이터에 대응된 위치 정보를 표시하는 단계; 상기 위치 정보에 대한 사용자의 터치를 입력받는 단계; 및 상기 사용자의 터치 입력 데이터에 대응된 동작을 출력함과 더불어, 상기 상대방 터치입력 데이터에 대응된 동작 출력 명령을 상기 상대방 단말기로 전송하는 단계를 추가로 포함한다.Displaying position information corresponding to the counterpart touch input data; Receiving a user's touch on the location information; And outputting an operation corresponding to the touch input data of the user and transmitting an operation output command corresponding to the counterpart touch input data to the counterpart terminal.

한편, 상기 목적을 달성하기 위한 본 발명에 따른 사용자 동작 전달 단말기는, 사용자로부터 터치를 입력받는 터치 디바이스부; 상대방 단말기와 통신망을 통해 실시간 커뮤니케이션을 수행하고, 상기 사용자로부터의 터치 입력 데이터를 상기 상대방 단말기로 전송하며, 상기 상대방 단말기로부터 상대방 터치입력 데이터를 수신하는 통신부; 상기 수신된 상대방 터치입력 데이터에 대응된 동작을 출력하는 출력부; 및 상기 실시간 커뮤니케니션 중에 상기 사용자로부터의 터치 입력 데이터를 상기 상대방 단말기로 전송하도록 제어하는 제어부를 포함한다.According to another aspect of the present invention, there is provided a user action transfer terminal including: a touch device unit receiving a touch from a user; A communication unit that performs real-time communication with a partner terminal through a communication network, transmits touch input data from the user to the partner terminal, and receives counterpart touch input data from the partner terminal; An output unit for outputting an operation corresponding to the received counterpart touch input data; And a controller for controlling the touch input data from the user to be transmitted to the counterpart terminal during the real-time communication.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings.

또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

도 1은 본 발명의 실시예에 따른 사용자 동작 전달 단말기의 내부 구성을 개략적으로 나타낸 구성도이다.FIG. 1 is a block diagram schematically illustrating an internal configuration of a user action transfer terminal according to an embodiment of the present invention. Referring to FIG.

본 발명에 따른 사용자 동작 전달 단말기(100)는, 휴대폰이나 PDA(Personal Digital Assistant) 등을 포함하는 디지털 휴대용 단말기를 포함한다.The user action transfer terminal 100 according to the present invention includes a digital portable terminal including a mobile phone or a PDA (Personal Digital Assistant).

도 1을 참조하면, 사용자 동작 전달 단말기(100)는, 터치 디바이스(Touch Device)(110), 통신부(120), 제어부(130), 출력부(140) 및 프로그램부(150)를 포함한다.1, the user action transmission terminal 100 includes a touch device 110, a communication unit 120, a control unit 130, an output unit 140, and a program unit 150.

터치 디바이스(110)는 인디케이터 영역(Indicator Area)과, 표시 영역(Display Area), 입력 영역(Input Area) 및 제어 영역(Control Area)을 포함한다.The touch device 110 includes an indicator area, a display area, an input area, and a control area.

터치 디바이스(110)는 터치 방식으로 정보를 입력받거나, 입력받은 정보를 디스플레이한다. 또한, 터치 디바이스(110)는 어플리케이션(Application)의 실행 결과를 디스플레이한다. 이때, 정보는 문자와 숫자, 기호, 그림, 이미지, 오디오, 동영상 등을 포함한다.The touch device 110 receives information in a touch manner or displays input information. In addition, the touch device 110 displays the execution result of the application. At this time, the information includes letters and numbers, symbols, pictures, images, audio, video, and the like.

또한, 터치 디바이스(110)는 입력 영역을 통해 사용자로부터 정보 또는 조작 명령을 입력받아 제어부(130)로 전달한다. 또한, 터치 디바이스(110)는 표시 영역을 통해 정보를 표시하거나, 제어부(130)의 명령에 따른 어플리케이션의 실행 결과를 표시한다. 그리고, 터치 디바이스(110)는 통신부(120)를 통해 수신된 상대방 터치 입력에 대응된 위치를 표시한다.Also, the touch device 110 receives information or an operation command from the user through the input area, and transfers the information or the operation command to the controller 130. Also, the touch device 110 displays information through a display area or displays an execution result of an application according to an instruction of the control unit 130. [ The touch device 110 displays a position corresponding to the counterpart touch input received through the communication unit 120. [

통신부(120)는 단말기가 이동 통신망을 통해 다른 이동 단말기와 전화 통화 에 관한 음성 신호 및 멀티미디어에 관한 데이터 등을 송수신한다. 또한, 통신부(120)는 상대방 단말기와 실시간 커뮤니케이션을 수행하고, 사용자로부터의 터치 입력에 관한 신호를 상대방 단말기로 전송한다. 그리고, 통신부(110)는 이동 통신망으로부터 상대방 터치 입력에 관한 신호를 수신한다.The communication unit 120 transmits and receives voice signals, multimedia data, and the like related to a telephone conversation with another mobile terminal through a mobile communication network. In addition, the communication unit 120 performs real-time communication with the partner terminal and transmits a signal related to the touch input from the user to the partner terminal. Then, the communication unit 110 receives a signal relating to the counterpart touch input from the mobile communication network.

제어부(130)는 터치 디바이스(110)로부터 전달받은 정보, 즉 터치된 지점들이 이루는 형상을 인식하여 터치 디바이스(110)의 표시 영역으로 디스플레이한다.The control unit 130 recognizes the information received from the touch device 110, that is, the shape of the touched points, and displays the information in the display area of the touch device 110.

또한, 제어부(130)는 사용자로부터 입력 영역을 통해 정보를 입력받아 표시 영역으로 표시하거나, 제어 영역을 통해 기능 및 동작에 관한 제어 동작을 수행한다. In addition, the controller 130 receives information from the user through the input area and displays the information in the display area, or performs a control operation on functions and operations through the control area.

또한, 제어부(130)는 통신부(120)를 통한 실시간 커뮤니케이션 중에 터치 디바이스(110)의 입력 영역을 통한 사용자로부터의 터치 입력을 인식하고, 사용자로부터의 터치 입력 데이터를 통신부(120)를 통해 상대방 단말기로 전송한다.The controller 130 recognizes the touch input from the user through the input area of the touch device 110 during the real time communication through the communication unit 120 and transmits the touch input data from the user through the communication unit 120, Lt; / RTI &gt;

그리고, 제어부(130)는 실시간 커뮤니케이션 중에 사용자로부터의 터치 입력 데이터에 대응된 동작이 출력부(140)를 통해 출력되도록 제어한다. 여기서, 터치 입력 데이터에 대응된 동작은 진동이나 음향 또는 빛을 출력하는 동작을 포함한다.The controller 130 controls the operation corresponding to the touch input data from the user through the output unit 140 during the real-time communication. Here, the operation corresponding to the touch input data includes an operation of outputting vibration, sound, or light.

출력부(140)는 터치 입력 데이터에 대응된 동작을 출력한다. 예컨대, 출력부(140)는 터치 입력 데이터에 대응된 진동이나 음향 또는 빛을 출력한다.The output unit 140 outputs an operation corresponding to the touch input data. For example, the output unit 140 outputs vibration, sound, or light corresponding to the touch input data.

프로그램부(150)는 실시간 커뮤니케이션을 수행하는 중에 사용자로부터의 터치 입력이 있으면, 사용자 터치입력 데이터를 상대방 단말기로 전송하는 프로그램을 저장하고 있다. 또한, 프로그램부(150)는 수신된 상대방 터치입력 데이터에 대 응된 위치를 표시하고, 표시 위치에 사용자로부터 터치 입력이 있으면, 상대방 터치입력 데이터에 대응된 동작을 출력함과 더불어 사용자 터치입력 데이터를 상대방 단말기로 전송하여, 상대방 단말기에도 사용자 터치입력 데이터에 대응된 동작이 출력되도록 하는 동작 피드백(Feedback) 프로그램을 저장하고 있다. 그리고, 프로그램부(150)는 일반적인 OS(Operating System) 프로그램도 저장하고 있다. The program unit 150 stores a program for transmitting the user touch input data to the counterpart terminal when there is a touch input from the user during real-time communication. The program unit 150 displays a position corresponding to the received counterpart touch input data. If there is a touch input from the user at the display position, the program unit 150 outputs the operation corresponding to the counterpart touch input data, And transmits an operation feedback corresponding to the user's touch input data to the other party's terminal. The program unit 150 also stores a general OS (Operating System) program.

도 2는 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 송신측 단말기의 동작 과정을 나타낸 동작 흐름도이다.2 is a flowchart illustrating an operation of a transmitting terminal in a method of transmitting a user operation according to an exemplary embodiment of the present invention.

도 2를 참조하면, 사용자는 먼저 단말기를 이용하여 통상적인 방식으로 상대방 단말기와 화상 통화나 메신저, 인스턴트 메신저를 통해 실시간으로 커뮤니케이션을 수행한다(S202).Referring to FIG. 2, a user first communicates with a counterpart terminal through a video call, a messenger, and an instant messenger in a normal manner using a terminal (S202).

제어부(130)는 사용자로부터 입력된 음성이나 데이터에 관한 정보를 상대방 단말기로 전송하거나, 상대방 단말기로부터 송출된 음성이나 데이터에 관한 정보를 수신하는 과정을 통해 통신부(120)를 통한 실시간 커뮤니케이션을 수행한다.The control unit 130 performs real-time communication through the communication unit 120 by transmitting information on voice or data input from the user to the counterpart terminal or receiving information on voice or data transmitted from the counterpart terminal .

이어, 제어부(130)는 터치 디바이스(110)를 통해 사용자로부터 터치 입력이 있는지를 확인한다(S204). 여기서, 터치 입력은 대화창이나 사진 또는 캐릭터가 사용자에 의해 터치되어 입력되는 것을 포함한다.Next, the controller 130 determines whether there is a touch input from the user through the touch device 110 (S204). Here, the touch input includes a dialog window, a photo or a character that is touched and input by the user.

예컨대, 사용자는 단말기를 통해 상대방과 화상 통화를 수행하는 중에 도 5에 도시된 바와 같이 터치 디바이스(110) 상의 상대방 얼굴이 표시되는 화면(510)을 터치할 수 있다. 여기서, 도 5는 화상 통화 중에 상대방 얼굴이 표시되는 화면 을 단순히 터치하는 것을 나타낸 도면이다.For example, the user may touch the screen 510 on which the other party's face on the touch device 110 is displayed, as shown in FIG. 5, during a video call with the other party through the terminal. Here, FIG. 5 is a diagram showing a simple touch of a screen on which a face of the other party is displayed during a video call.

제어부(130)는 상대방 단말기와 화상 통화를 수행하는 중에 터치 디바이스(110)로부터 사용자의 터치 입력이 있으면(S206), 터치 입력에 대응된 동작 출력 명령을 통신부(120)를 통해 상대방 단말기로 전송한다(S208).If there is a user's touch input from the touch device 110 during the video call with the counterpart terminal (S206), the controller 130 transmits an operation output command corresponding to the touch input to the counterpart terminal through the communication unit 120 (S208).

여기서, 동작 출력 명령은 단말기에서 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 하는 동작을 포함한다.Here, the operation output command includes an operation for causing vibration at the terminal to be output, for outputting a specific sound, or for outputting a specific light.

또한, 상대방 단말기와의 화상 통화를 비롯한 메신저를 통한 실시간 커뮤니케이션을 수행하는 화면에는 도 5에 도시된 바와 같이 터치 디바이스(110) 상의 하단에 제어 영역(520)이 구비되어 있다. 이 제어 영역(520)은 현재 수행되는 커뮤니케이션에 대한 하부 메뉴를 포함하고 있다. 예컨대, 화상 통화의 경우 사진이나 이미지, 동영상 등의 멀티미디어 데이터를 상대방 단말기로 전송해 줄 수 있는 메뉴나, 통화 볼륨을 조절할 수 있는 메뉴 등을 포함한다. 또한, 메신저를 통한 커뮤니케이션의 경우, 상대방과 게임을 할 수 있는 메뉴나 다른 사람을 초청할 수 있는 메뉴 등을 포함한다.As shown in FIG. 5, the screen for performing real-time communication through a messenger including video communication with a counterpart terminal is provided with a control area 520 at the lower end of the touch device 110. The control area 520 includes a submenu for communication currently being performed. For example, a video call includes a menu for transmitting multimedia data such as a picture, an image, and a moving picture to a correspondent terminal, and a menu for adjusting a call volume. In addition, in the case of communication through a messenger, a menu for playing a game with the other party or a menu for inviting another person is included.

한편, 사용자는 단말기를 통해 도 5에 도시된 바와 같이 상대방과 화상 통화를 수행하는 중에 터치 디바이스(110) 상의 상대방의 얼굴이 표시되는 화면(510)을 터치할 때, 도 6에 도시된 바와 같이 손가락을 터치한 상태로 우측(610) 또는 좌측(610)으로 일정 거리로 드래그(Drag)한 후 손가락을 터치 디바이스(110)로부터 뗄 수 있다. 도 6은 화상 통화 중에 상대방 얼굴이 표시되는 화면을 일정 시간 동안 터치하여 드래그하는 것을 나타낸 도면이다. 도 6에 도시된 바와 같이 사용자가 상대방의 얼굴이 표시되는 화면(510)을 터치한 상태로 우측(610)으로 드래그하거나 좌측(620)으로 드래그하면, 터치 디바이스(110)는 사용자로부터 입력된 우측(610) 또는 좌측(620)으로 드래그된 터치 입력에 대응하는 데이터를 제어부(130)로 전달한다.5, when the user touches the screen 510 on which the face of the other party on the touch device 110 is displayed during a video call with the other party as shown in FIG. 5, The finger may be dragged to the right side 610 or the left side 610 by a certain distance after the finger is touched and then the finger may be removed from the touch device 110. [ FIG. 6 is a diagram illustrating a screen in which a face of the other party is displayed during a video call by touching and dragging for a predetermined period of time. 6, when the user drags the screen 510 displayed on the right side 610 or drags the screen 510 to the left side 620 while touching the screen 510 on which the face of the other party is displayed, the touch device 110 displays the right side And transfers the data corresponding to the touch input dragged to the left side 610 or the left side 620 to the controller 130.

이에 따라, 제어부(130)는 터치 디바이스(110)로부터의 우측(610) 또는 좌측(620)으로 드래그된 터치 입력 데이터에 따라, 터치 디바이스(110)의 화면 상으로 출력되는 상대방의 얼굴이 우측(610) 또는 좌측(620)으로 흔들리도록 제어한다. 또한, 제어부(130)는 터치 디바이스(110)로부터의 우측(610) 또는 좌측(620)으로 드래그된 터치 입력에 대응된 데이터를 통신부(120)를 통해 상대방 단말기로 전송한다.The control unit 130 displays the face of the other party on the screen of the touch device 110 on the right side 610 or the left side 620 according to the touch input data dragged from the touch device 110 to the right side 610 or the left side 620 610) or the left side (620). The control unit 130 transmits data corresponding to the touch input dragged from the touch device 110 to the right side 610 or the left side 620 through the communication unit 120 to the counterpart terminal.

도 3은 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 착신측 단말기의 동작 과정을 나타낸 동작 흐름도이다.3 is a flowchart illustrating an operation process of a called terminal in a method for transmitting a user action according to an embodiment of the present invention.

도 3을 참조하면, 사용자 동작 전달 단말기(100)는 도 2에 전술한 바와 같은 과정으로 이동 통신망을 통하여 상대방 단말기와 실시간 커뮤니케이션을 수행하는 상태이다(S302).Referring to FIG. 3, the user action transfer terminal 100 performs a real-time communication with the counterpart terminal through the mobile communication network in the process described above with reference to FIG. 2 (S302).

사용자 동작 전달 단말기(100)에서 제어부(130)는 통신부(120)를 통해 상대방 터치입력 데이터가 수신되었는지를 확인한다(S304).In the user action transfer terminal 100, the control unit 130 checks whether the counterpart touch input data is received through the communication unit 120 (S304).

즉, 제어부(130)는 상대방 터치 입력에 대응된 동작 출력 명령에 대한 데이터가 수신되었는지를 확인하는 것이다. 이때, 동작 출력 명령에 대한 데이터는 예 컨대, 헤더와 페이로드(Payload)로 구성된 패킷 형태의 데이터로서, 페이로드 영역에 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 하는 명령이 포함될 수 있다.That is, the control unit 130 confirms whether or not data on the operation output command corresponding to the counterpart touch input is received. In this case, the data on the operation output command is, for example, a packet-shaped data composed of a header and a payload, and commands for causing vibration to be output to the payload area, for outputting a specific sound, .

제어부(130)는 통신부(120)를 통해 수신된 데이터가 상대방 터치 입력에 관한 데이터로 확인되면(S306), 출력부(140)를 통해 상대방 터치 입력에 대응된 동작을 출력하게 된다(S308).If the data received through the communication unit 120 is confirmed by the data related to the counterpart touch input (S306), the control unit 130 outputs the operation corresponding to the counterpart touch input through the output unit 140 (S308).

즉, 제어부(130)는 상대방 터치 입력에 대응된 동작 출력 명령에 따라, 출력부(140)를 통해 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 하게 된다.That is, according to the operation output command corresponding to the counterpart touch input, the controller 130 outputs the vibration through the output unit 140, outputs a specific sound, or outputs a specific light.

또한, 제어부(130)는 상대방 터치입력 데이터가 도 6에 도시된 바와 같이 우측(610) 또는 좌측(620)으로 드래그된 터치 입력 데이터일 경우에, 진동이나 특정 음향, 특정 빛 중 하나를 출력함과 더불어, 터치 디바이스(110)를 통해 현재 사용자가 보고 있는 터치 디바이스(110) 상의 상대방 얼굴이 표시되는 화면(710)을 도 7에 도시된 바와 같이 우측 또는 좌측으로 흔들리게 할 수 있다. 도 7은 우측 또는 좌측으로 드래그된 터치 입력 데이터에 따라 화면이 우측 또는 좌측으로 흔들리는 경우를 나타낸 도면이다.6, the control unit 130 outputs one of vibration, specific sound, and specific light when the counterpart touch input data is the touch input data dragged to the right side 610 or the left side 620 as shown in FIG. 6 The user can swing the screen 710 displaying the opposite face on the touch device 110 currently viewed by the user through the touch device 110 to the right or left as shown in FIG. 7 is a diagram illustrating a case where the screen is shaken to the right or left according to the touch input data dragged to the right or left.

도 4는 본 발명의 실시예에 따른 사용자 동작 전달 방법 중 착신측 단말기에서 송신측 단말기로 사용자 동작을 피드백하는 과정을 나타낸 동작 흐름도이다.FIG. 4 is a flowchart illustrating an operation of feeding back a user operation from a called terminal to a transmitting terminal in a user operation transmission method according to an embodiment of the present invention.

도 4를 참조하면, 도 2에 전술한 바와 같은 과정으로 송신측 단말기와 착신 측 단말기 간에 실시간 커뮤니케이션을 수행하는 상태이다(S402).Referring to FIG. 4, a real-time communication is performed between a transmitting terminal and a receiving terminal in the process described above with reference to FIG. 2 (S402).

착신측 단말기에서 제어부(130)는 통신부(120)를 통해 상대방 터치입력 데이터가 수신되었는지를 확인한다(S404).In the destination terminal, the control unit 130 determines whether the counterpart touch input data is received through the communication unit 120 (S404).

즉, 제어부(130)는 상대방 터치 입력에 대응된 동작 출력 명령에 대한 데이터가 수신되었는지를 확인하는 것이다. 이때, 동작 출력 명령에 대한 데이터에는 상대방이 터치 디바이스(110)를 통해 화면 상에 터치한 위치 정보가 포함되어 있다.That is, the control unit 130 confirms whether or not data on the operation output command corresponding to the counterpart touch input is received. At this time, the data on the operation output command includes position information that the other party touches on the screen through the touch device 110. [

제어부(130)는 도 3에 전술한 바와 같은 확인 과정을 통하여 상대방 터치입력 데이터가 수신된 것으로 확인되면(S406), 상대방 터치입력 데이터에 대응된 위치를 터치 디바이스(110) 상의 화면에 표시한다(S408). 이때, 터치 디바이스(110) 상으로 표시되는 상대방 터치입력 데이터에 대응된 위치 표지(Indicator)는 예컨대, 십자표나 원형, 네모 등의 형상으로 표시 출력할 수 있다.3, the control unit 130 displays the position corresponding to the counterpart touch input data on the screen of the touch device 110 (step S405) S408). At this time, a position indicator corresponding to the counterpart touch input data displayed on the touch device 110 can be displayed and output in the form of a cross, a circle, a square, or the like.

이에 따라, 사용자는 터치 디바이스(110) 상에 표시된 위치 표지를 확인하고 손가락 등으로 위치 표지를 터치할 수 있다.Accordingly, the user can confirm the position mark displayed on the touch device 110 and touch the position mark with a finger or the like.

터치 디바이스(110)는 사용자로부터 위치 표지에 대한 터치 입력을 제어부(130)로 전달한다(S410).The touch device 110 transmits the touch input of the position mark from the user to the control unit 130 (S410).

제어부(130)는 사용자 터치 입력에 대응된 동작을 출력부(140)를 통해 출력함과 더불어, 이전에 수신한 상대방 터치입력 데이터에 대응된 동작 출력 명령을 통신부(120)를 통해 송신측 단말기로 전송한다(S412).The control unit 130 outputs an operation corresponding to the user's touch input through the output unit 140 and outputs an operation output command corresponding to the previously received counterpart touch input data to the transmitting side terminal through the communication unit 120 (S412).

즉, 제어부(130)는 사용자 터치 입력에 대응된 동작, 예컨대, 진동이 출력되 도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 함과 더불어, 송신측 단말기에 적용할 동작 출력 명령을 송신측 단말기로 전송하는 것이다.That is, the controller 130 controls the operation corresponding to the user's touch input, for example, to output a vibration, to output a specific sound or to output a specific light, To the terminal.

이에 따라, 송신측 단말기는 착신측 단말기로부터 수신한 동작 출력 명령에 따라 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되게 한다. Accordingly, the transmitting-side terminal causes the vibration to be outputted, the specific sound to be output, or the specific light to be outputted according to the operation output command received from the receiving-side terminal.

따라서, 착신측 단말기에서 사용자의 터치 입력에 따라 송신측 단말기와 착신측 단말기가 동시에 진동이나 음향 또는 빛을 출력할 수 있게 된다. 즉, 송신측 단말기에서 예컨대, 진동에 관한 동작을 착신측 단말기로 전송하면, 착신측 사용자의 터치에 따라 진동에 관한 동작이 송신측 단말기로 피드백되는 것이다.Accordingly, the receiving terminal and the receiving terminal can simultaneously output vibration, sound, or light according to the touch input of the user. That is, when the transmitting terminal transmits, for example, an operation related to the vibration to the receiving terminal, the operation related to the vibration is fed back to the transmitting terminal according to the touch of the called user.

전술한 바와 같이 본 발명에 의하면, 상대방과 실시간으로 커뮤니케이션을 수행하는 중에 사용자의 터치입력 데이터를 상대방 단말기로 전달하여, 사용자의 터치입력 데이터에 대응된 동작이 상대방 단말기로 출력되도록 하는, 사용자 동작 전달 방법 및 단말기를 실현할 수 있다. 또한, 그에 따른 상대방의 터치입력 데이터를 수신하여 사용자의 단말기에도 상대방 터치입력 데이터에 대응된 동작이 피드백(Feedback) 되도록 하는, 사용자 동작 전달 방법 및 단말기를 실현할 수 있다.As described above, according to the present invention, the user's touch input data is transmitted to the counterpart terminal while real-time communication with the counterpart is performed, and the operation corresponding to the touch input data of the user is output to the counterpart terminal. Method and a terminal can be realized. In addition, it is also possible to realize a user operation transmitting method and a terminal which receive touch input data of the other party so as to feedback the operation corresponding to the counterpart touch input data to the user's terminal.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상 의 범위가 한정되는 것은 아니다. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments.

본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The scope of protection of the present invention should be construed according to the following claims, and all technical ideas falling within the scope of the same shall be construed as falling within the scope of the present invention.

이상에서 설명한 바와 같이 본 발명에 의하면, 상대방과 실시간 커뮤니케이션을 수행하는 중에 사용자의 동작을 상대방 단말기로 전달할 수 있다. 또한, 사용자의 동작을 상대방 단말기로 전달한 이후에 상대방 단말기로부터 상대방의 동작을 피드백(Feedback) 받을 수 있다.As described above, according to the present invention, the user's operation can be transmitted to the counterpart terminal while real-time communication with the counterpart is performed. Further, after the operation of the user is transferred to the counterpart terminal, the counterpart terminal can receive feedback of the counterpart operation.

Claims (19)

실시간 커뮤니케이션 중에 사용자로부터 상기 실시간 커뮤니케이션의 실행 화면에 대한 제1 터치 입력을 수신하는 단계; Receiving a first touch input for an execution screen of the real-time communication from a user during real-time communication; 상기 제1 터치 입력에 대응하는 제1 터치 입력 데이터를 상대방 단말기로 전송하는 단계;Transmitting first touch input data corresponding to the first touch input to a counterpart terminal; 상기 상대방 단말기의 실행 화면에 대해 제2 터치 입력이 수신되면, 상기 상대방 단말기로부터 상기 제2 터치 입력에 대응하는 제2 터치 입력 데이터를 수신하는 단계; 및Receiving second touch input data corresponding to the second touch input from the counterpart terminal when a second touch input is received on the execution screen of the counterpart terminal; And 상기 수신한 제2 터치 입력 데이터에 기초하여, 진동을 출력하는 단계; Outputting vibration based on the received second touch input data; 를 포함하되,, &Lt; / RTI & 상기 제1 터치 입력은,The first touch input includes: 상기 실행 화면을 터치한 상태로 상하 또는 좌우로 움직이는 입력이고,An input for moving up and down or left and right in a state in which the execution screen is touched, 상기 제1 터치 입력 데이터는,Wherein the first touch input data comprises: 상기 상대방 단말기의 진동 출력을 제어하는 명령과, 상기 상하 또는 좌우로 움직이는 입력의 방향에 따라 상기 상대방 단말기의 실행 화면이 상하 또는 좌우로 흔들리도록 하는 명령을 포함하는 것을 특징으로 하는 사용자 동작 전달 방법.A command to control the vibration output of the counterpart terminal and a command to swing the execution screen of the counterpart terminal up or down or side to side according to the direction of the up / down or left / right input. 제 1 항에 있어서,The method according to claim 1, 상기 제1 터치 입력을 수신하는 단계는, Wherein the step of receiving the first touch input comprises: 메신저를 통한 실시간 커뮤니케이션 중에 대화창이나 사진 또는 캐릭터가 상기 사용자에 의해 터치되어 입력되는 것을 특징으로 하는 사용자 동작 전달 방법.Wherein a dialog window, a photo or a character is touched and input by the user during real-time communication via a messenger. 제 1 항에 있어서,The method according to claim 1, 상기 제1 터치 입력을 수신하는 단계는, Wherein the step of receiving the first touch input comprises: 화상 통화를 통한 실시간 커뮤니케이션 중에 상대방이 표시되는 화면 상으로 상기 사용자의 터치를 입력받는 것을 특징으로 하는 사용자 동작 전달 방법.Wherein a touch of the user is input on a screen on which the other party is displayed during real-time communication via a video call. 제 1 항에 있어서,The method according to claim 1, 상기 전송하는 단계는, Wherein the transmitting comprises: 상기 제1 터치 입력 데이터에 대응된 상기 상대방 단말기의 음향 출력 또는 빛 출력을 명령하는 데이터를 상기 상대방 단말기로 전송하는 것을 특징으로 하는 사용자 동작 전달 방법.And transmits data instructing the sound output or the light output of the counterpart terminal corresponding to the first touch input data to the counterpart terminal. 삭제delete 제 1 항에 있어서,The method according to claim 1, 상기 수신한 상하 또는 좌우로 움직이는 입력에 따라, 상기 실시간 커뮤니케이션의 실행 화면이 상하 또는 좌우로 흔들리는 것을 특징으로 하는 사용자 동작 전달 방법.Wherein the execution screen of the real-time communication is shaken up or down or left or right according to the received input moving up or down or left or right. 상대방과 실시간 커뮤니케이션 중에 상대방의 제1 터치 입력 데이터를 수신하는 단계;Receiving first touch input data of the other party during real-time communication with the other party; 상기 수신된 제1 터치 입력 데이터에 기초하여, 진동을 출력하는 단계;Outputting vibration based on the received first touch input data; 상기 수신된 제1 터치 입력 데이터에 기초하여, 실행 화면이 흔들리도록 제어하는 단계;Controlling the execution screen to be shaken based on the received first touch input data; 상기 실행 화면에 대해 제2 터치 입력을 수신하는 단계; 및Receiving a second touch input for the execution screen; And 상기 제2 터치 입력에 대응하는 제2 터치 입력 데이터를 상기 상대방 단말기로 전송하는 단계;Transmitting second touch input data corresponding to the second touch input to the counterpart terminal; 를 포함하되,, &Lt; / RTI & 상기 제2 터치 입력 데이터는,Wherein the second touch input data comprises: 상기 상대방 단말기의 진동 출력을 제어하는 명령을 포함하는 것을 특징으로 하는 사용자 동작 전달 방법.And controlling the vibration output of the counterpart terminal. 삭제delete 제 7 항에 있어서,8. The method of claim 7, 상기 제2 터치 입력 데이터는,Wherein the second touch input data comprises: 음향 또는 빛을 출력하거나, 상기 진동이나 음향 또는 빛이 출력됨과 함께 화면 스크린이 흔들리도록 제어하는 명령을 더 포함하는 것을 특징으로 하는 사용자 동작 전달 방법.Further comprising instructions for outputting sound or light, or controlling the screen screen to shake with the vibration, sound, or light being output. 제 7 항에 있어서,8. The method of claim 7, 상기 제1 터치 입력 데이터는,Wherein the first touch input data comprises: 상기 상대방 단말기의 실행 화면이 터치된 상태로 상하 또는 좌우로 움직이는 동작에 관한 데이터를 포함하는 것을 특징으로 하는 사용자 동작 전달 방법.And data regarding an operation of moving up / down or left / right with the execution screen of the counterpart terminal being touched. 제 7 항에 있어서,8. The method of claim 7, 상기 제1 터치 입력 데이터는,Wherein the first touch input data comprises: 메신저를 통한 실시간 커뮤니케이션 중에 대화창이나 사진 또는 캐릭터가 상기 상대방에 의해 터치되어 입력된 데이터를 포함하는 것을 특징으로 하는 사용자 동작 전달 방법.Wherein a dialog window, a photo or a character includes data that is touched and input by the other party during real-time communication via a messenger. 제 7 항에 있어서,8. The method of claim 7, 상기 제1 터치 입력 데이터는, Wherein the first touch input data comprises: 화상 통화를 통한 실시간 커뮤니케이션 중에 사용자가 표시되는 화면을 상기 상대방이 터치한 것에 의해 입력된 데이터를 포함하는 것을 특징으로 하는 사용자 동작 전달 방법.And data input by touching a screen displayed by a user during real-time communication via a video call. 제 7 항에 있어서,8. The method of claim 7, 상기 수신된 제1 터치 입력 데이터에 기초하여, 음향 또는 빛을 출력하는 단계를 더 포함하는 것을 특징으로 하는 사용자 동작 전달 방법.Further comprising the step of outputting sound or light based on the received first touch input data. 제 7 항에 있어서,8. The method of claim 7, 상기 제1 터치 입력 데이터를 수신하는 단계는,Wherein the step of receiving the first touch input data comprises: 상기 상대방 단말기와 실시간 커뮤니케이션 중에 상기 상대방 단말기의 스크린 상의 소정 영역이 터치된 경우에 수신하는 것을 특징으로 하는 사용자 동작 전달 방법.And when the predetermined area on the screen of the counterpart terminal is touched during real-time communication with the counterpart terminal. 사용자로부터 제1 터치 입력을 입력받는 터치 디바이스부; A touch device unit receiving a first touch input from a user; 상대방 단말기와 통신망을 통해 실시간 커뮤니케이션을 수행하고, 상기 제1 터치 입력에 대응하는 제1 터치 입력 데이터를 상기 상대방 단말기로 전송하며, 상기 상대방 단말기로부터 제2 터치 입력 데이터를 수신하는 통신부; A communication unit that performs real-time communication with a partner terminal through a communication network, transmits first touch input data corresponding to the first touch input to the partner terminal, and receives second touch input data from the partner terminal; 상기 수신된 제2 터치 입력 데이터에 대응된 동작을 출력하는 출력부; 및An output unit for outputting an operation corresponding to the received second touch input data; And 상기 실시간 커뮤니케이션 중에 상기 제1 터치 입력 데이터를 상기 상대방 단말기로 전송하고, 상기 상대방 단말기의 실행 화면에 대해 제2 터치 입력이 수신되면 상기 상대방 단말기로부터 상기 제2 터치 입력에 대응하는 상기 제2 터치 입력 데이터를 수신하며, 상기 수신한 제2 터치 입력 데이터에 기초하여 진동을 출력하도록 제어하는 제어부;The second touch input data corresponding to the second touch input from the counterpart terminal when the second touch input is received on the execution screen of the counterpart terminal, A control unit receiving data and controlling the vibration to be output based on the received second touch input data; 를 포함하되,, &Lt; / RTI & 상기 제1 터치 입력은, The first touch input includes: 상기 터치 디바이스부의 실행 화면을 터치한 상태로 상하 또는 좌우로 움직이는 입력이고,An input for moving up and down or left and right in a state in which an execution screen of the touch device unit is touched, 상기 제1 터치 입력 데이터는,Wherein the first touch input data comprises: 상기 상대방 단말기의 진동 출력을 제어하는 명령과, 상기 상하 또는 좌우로 움직이는 입력의 방향에 따라 상기 상대방 단말기의 실행 화면이 상하 또는 좌우로 흔들리도록 하는 명령을 포함하는 것을 특징으로 하는 사용자 동작 전달 단말기.A command for controlling the vibration output of the counterpart terminal; and a command for causing the counterpart terminal to shake the execution screen up or down or left or right according to the direction of the up / down or left / right input. 제 15 항에 있어서,16. The method of claim 15, 상기 제어부는, Wherein, 상기 출력부를 통해 음향 또는 빛을 출력하거나, 상기 진동이나 음향 또는 빛을 출력할 때 상기 터치 디바이스부의 실행 화면이 흔들리도록 제어하는 것을 특징으로 하는 사용자 동작 전달 단말기.Wherein the control unit controls the operation screen of the touch device unit to shake when outputting sound or light through the output unit or outputting the vibration, sound, or light. 제10 항에 있어서,11. The method of claim 10, 상기 실행 화면이 흔들리도록 제어하는 단계는, The step of controlling the execution screen to shake may include: 상기 상하 또는 좌우로 움직이는 동작의 방향에 따라 상기 실행 화면이 흔들리도록 제어하는 것을 특징으로 하는 사용자 동작 전달 방법.And controls the execution screen to be shaken according to a direction of the upward / downward or left / right movement. 제14 항에 있어서,15. The method of claim 14, 상기 터치된 상대방 단말기의 스크린 상의 소정 영역에 대응하는 위치를 나타내는 표지(indicator)를 표시하는 단계를 더 포함하는 것을 특징으로 하는 사용자 동작 전달 방법.Further comprising the step of displaying an indicator indicating a position corresponding to a predetermined area on the screen of the touched counterpart terminal. 제18 항에 있어서,19. The method of claim 18, 상기 제2 터치 입력을 수신하는 단계는, Wherein the step of receiving the second touch input comprises: 상기 표지에 대해 상기 제2 터치 입력을 수신하는 것을 특징으로 하는 사용자 동작 전달 방법.And receiving the second touch input for the mark.
KR1020070020731A 2007-03-02 2007-03-02 Method and terminal for transmitting user's action KR101437159B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070020731A KR101437159B1 (en) 2007-03-02 2007-03-02 Method and terminal for transmitting user's action
US12/041,445 US8933891B2 (en) 2007-03-02 2008-03-03 Terminal and method of controlling terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070020731A KR101437159B1 (en) 2007-03-02 2007-03-02 Method and terminal for transmitting user's action

Publications (2)

Publication Number Publication Date
KR20080080710A KR20080080710A (en) 2008-09-05
KR101437159B1 true KR101437159B1 (en) 2014-09-11

Family

ID=40020833

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070020731A KR101437159B1 (en) 2007-03-02 2007-03-02 Method and terminal for transmitting user's action

Country Status (1)

Country Link
KR (1) KR101437159B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101449751B1 (en) * 2008-03-27 2014-10-13 주식회사 케이티 Mobile Equipment Having Function Of Providing Touch Feedback During Video Call And Method For Providing Touch Feedback During Video Call
KR101511383B1 (en) * 2008-09-17 2015-04-10 엘지전자 주식회사 TERMINAL and DRAWING PATTERN TRANSMITTING METHOD of the same
US10410180B2 (en) 2012-11-19 2019-09-10 Oath Inc. System and method for touch-based communications
KR101590461B1 (en) 2014-09-04 2016-02-03 한양대학교 에리카산학협력단 A method for providing a social network service using a pet wearing appratus and the pet wearing appratus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050108660A1 (en) * 2003-11-17 2005-05-19 International Business Machines Corporation Method, system, and apparatus for remote interactions
US20050181827A1 (en) * 2004-02-13 2005-08-18 Nokia Corporation Touch for feel device for communicating with mobile wireless phone or terminal
US7159008B1 (en) * 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7159008B1 (en) * 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
US20050108660A1 (en) * 2003-11-17 2005-05-19 International Business Machines Corporation Method, system, and apparatus for remote interactions
US20050181827A1 (en) * 2004-02-13 2005-08-18 Nokia Corporation Touch for feel device for communicating with mobile wireless phone or terminal

Also Published As

Publication number Publication date
KR20080080710A (en) 2008-09-05

Similar Documents

Publication Publication Date Title
CN108540655B (en) Caller identification processing method and mobile terminal
WO2021109907A1 (en) Application sharing method, first electronic device and computer-readable storage medium
CN109408168B (en) Remote interaction method and terminal equipment
WO2020156120A1 (en) Notification message display method and mobile terminal
CN109739418B (en) Interaction method and terminal for multimedia playing application program
US20080218490A1 (en) Terminal and method of controlling terminal
CN110109593B (en) Screen capturing method and terminal equipment
CN108874352B (en) Information display method and mobile terminal
CN110531913B (en) Video color ring processing method, communication equipment and computer readable storage medium
WO2019201271A1 (en) Call processing method and mobile terminal
JP4056518B2 (en) Portable information terminal, display control method thereof, and program
CN109697008B (en) Content sharing method, terminal and computer readable storage medium
EP1838099B1 (en) Image-based communication methods and apparatus
CN114422461B (en) Message quoting method and device
CN110442279B (en) Message sending method and mobile terminal
CN110855549A (en) Message display method and terminal equipment
CN112631535A (en) Screen projection reverse control method and device, mobile terminal and storage medium
KR101437159B1 (en) Method and terminal for transmitting user&#39;s action
CN110796438B (en) Message sending method and mobile terminal
CN106506834B (en) Method, terminal and system for adding background sound in call
CN109729301B (en) Message checking method and device
CN111314903B (en) Information sharing method and electronic equipment
CN109800097B (en) Notification message reminding method, storage medium and mobile terminal
CN108804071B (en) Receiver driving method and mobile terminal
CN108055389B (en) Missed call processing method and mobile terminal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170724

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180724

Year of fee payment: 5