KR20110041065A - System, server, terminal and method for delivering haptic contents during video call - Google Patents

System, server, terminal and method for delivering haptic contents during video call Download PDF

Info

Publication number
KR20110041065A
KR20110041065A KR1020090098077A KR20090098077A KR20110041065A KR 20110041065 A KR20110041065 A KR 20110041065A KR 1020090098077 A KR1020090098077 A KR 1020090098077A KR 20090098077 A KR20090098077 A KR 20090098077A KR 20110041065 A KR20110041065 A KR 20110041065A
Authority
KR
South Korea
Prior art keywords
haptic content
terminal
haptic
video call
pattern
Prior art date
Application number
KR1020090098077A
Other languages
Korean (ko)
Inventor
김현욱
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020090098077A priority Critical patent/KR20110041065A/en
Publication of KR20110041065A publication Critical patent/KR20110041065A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/16Communication-related supplementary services, e.g. call-transfer or call-hold
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PURPOSE: A system, server, terminal and method for delivering haptic contents during a video call are provided to transfer more sentimental emotional mood through a pattern including character, number, symbol and so on during a video call. CONSTITUTION: A user terminal(20) includes pattern data generated to an image depending on the input of a pattern, and transfers the image through a communication network. A haptic content transfer server(30) extracts haptic contents corresponding to the pattern data received through a communication network. The haptic content includes the extracted haoptic contents in the image, and transfers the image to the terminal(40) of the other party.

Description

영상통화 중 햅틱컨텐츠 전달 시스템, 서버, 단말기 및 방법{System, Server, Terminal and Method for delivering haptic contents during video call}Haptic content delivery system, server, terminal and method for video call {System, Server, Terminal and Method for delivering haptic contents during video call}

본 발명은 통화 중 햅틱컨텐츠를 전달하는 기술에 관한 것으로, 더욱 상세하게는 영상통화 중 사용자가 문자, 숫자, 기호, 모양을 포함하는 문양을 입력하면 사용자 단말기 또는 햅틱컨텐츠 전달 서버가 입력된 문양에 대응되는 햅틱컨텐츠를 추출하여 상대방 단말기로 전송하고, 상대방 단말기에서 해당 햅틱컨텐츠에 대응하는 출력이 이루어지도록 하는 영상통화 중 햅틱컨텐츠 전달 시스템, 서버, 단말기 및 방법에 관한 것이다.The present invention relates to a technology for delivering haptic content during a call, and more particularly, when a user inputs a pattern including letters, numbers, symbols, and shapes during a video call, a user terminal or a haptic content delivery server is input to a pattern. The present invention relates to a haptic content delivery system, a server, a terminal, and a method of a video call in which a corresponding haptic content is extracted and transmitted to a counterpart terminal, and an output corresponding to the haptic content is made by the counterpart terminal.

음성통화 위주의 통화패턴에서 고속정보통신이 현실화되면서 통신단말기를 통한 영상통화기술이 주목을 받고 있다. 또한, 영상통화가 가능한 통신단말기(이하, ‘영상통화 단말기’라 함)의 보급이 확대되면서 영상통화의 빈도수가 증가하고 있는 추세이다.As high-speed information communication is realized in voice call-oriented call patterns, video call technology through communication terminals is attracting attention. In addition, as the spread of communication terminals capable of video calls (hereinafter referred to as "video call terminals") is increasing, the frequency of video calls is increasing.

이 영상통화 단말기는 영상통화 중 상대방의 영상을 화면에 표시하고, 상대방의 음성을 출력할 수 있기 때문에, 단순히 음성만으로 통화가 이루어지는 것에 대비하여 영상통화자 간에 서로의 감정상태를 쉽게 교환할 수 있다.Since the video call terminal can display the video of the other party on the screen and output the voice of the other party during the video call, the video caller can easily exchange each other's emotional states in preparation for the call using only voice. .

그런데, 영상통화자는 영상통화 중 자신의 감정상태를 표정이나 목소리만으로 상대방에게 전달해야 하므로, 상대방에게 자신의 다양한 감정상태를 더욱 세밀하게 전달하는 데는 그 한계가 있다.However, since the video caller must deliver his or her emotional state to the other party only through the facial expression or voice during the video call, there is a limit to further conveying his or her various emotional states to the other party.

이와 같이, 현재의 영상통화는 단순히 상대방의 영상을 보는 것에 한정됨으로 인해, 통화 환경의 흥미를 부가하면서 더욱 세밀한 감정상태를 전달할 수 있는 방안이 필요하다 할 것이다.As such, the current video call is limited to simply viewing the counterpart's video, and thus, there is a need for a method capable of delivering a more detailed emotional state while adding interest in the call environment.

이러한 종래의 문제점을 해결하기 위하여, 본 발명은 영상통화 중 문자, 숫자, 기호, 모양을 포함하는 문양을 통해 세밀한 감정상태를 상대방에게 전달할 수 있는 영상통화 중 햅틱컨텐츠 전달 시스템, 서버, 단말기 및 방법을 제공하는 것을 목적으로 한다.In order to solve the conventional problems, the present invention provides a haptic content delivery system, server, terminal and method during a video call that can deliver a detailed emotional state to the other party through a pattern including letters, numbers, symbols, and shapes during the video call. The purpose is to provide.

즉, 본 발명은 영상통화 중 사용자가 문양을 입력하면 사용자 단말기 또는 햅틱컨텐츠 전달 서버가 입력된 문양에 대응되는 햅틱컨텐츠를 추출하여 상대방 단말기로 전송하고, 상대방 단말기에서 해당 햅틱컨텐츠에 대응하는 출력이 이루어지도록 하는 영상통화 중 햅틱컨텐츠 전달 시스템, 서버, 단말기 및 방법을 제공하는 것을 목적으로 한다.That is, in the present invention, when a user inputs a pattern during a video call, the user terminal or the haptic content delivery server extracts the haptic content corresponding to the input pattern and transmits the haptic content to the counterpart terminal, and outputs corresponding to the haptic content from the counterpart terminal. An object of the present invention is to provide a haptic content delivery system, server, terminal, and method during a video call.

이러한 목적을 달성하기 위하여, 본 발명에 따른 영상통화 중 햅틱컨텐츠 전달 시스템은, 사용자 단말기, 햅틱컨텐츠 전달 서버 및 상대방 단말기를 포함하는 것을 특징으로 한다. 상기 사용자 단말기는 상대방 단말기로 영상을 전송하는 영상통화 중 사용자에 의한 문양의 입력을 지원하며, 상기 사용자의 감정상태와 관련된 햅틱컨텐츠를 상기 상대방 단말기로 전송하기 위해 상기 문양의 입력에 따라 발생된 문양 데이터를 상기 영상에 포함시켜 통신망으로 전송한다. 상기 햅틱컨텐츠 전달 서버는 상기 통신망을 통해 수신한 상기 문양 데이터에 대응하는 상기 햅틱컨텐츠를 추출하고, 추출한 상기 햅틱컨텐츠를 상기 영상에 포함시켜 상기 문양 데이터 를 전송한 단말기의 상대방 단말기로 전송한다. 상기 상대방 단말기는 상기 햅틱컨텐츠 전달 서버로부터 수신한 상기 영상과 햅틱컨텐츠를 출력한다.In order to achieve this object, the haptic content delivery system during a video call according to the present invention is characterized in that it comprises a user terminal, a haptic content delivery server and the counterpart terminal. The user terminal supports the input of a pattern by the user during a video call to transmit the image to the counterpart terminal, and the pattern generated according to the input of the pattern to transmit the haptic content related to the emotional state of the user to the counterpart terminal. The data is included in the video and transmitted to the communication network. The haptic content delivery server extracts the haptic content corresponding to the pattern data received through the communication network, and includes the extracted haptic content in the image and transmits the haptic content to the counterpart terminal of the terminal that transmitted the pattern data. The counterpart terminal outputs the image and the haptic content received from the haptic content delivery server.

또한, 본 발명에 따른 영상통화 중 햅틱컨텐츠 전달 서버는, 송수신부, 데이터베이스부, 제어부를 포함하는 것을 특징으로 한다. 상기 송수신부는 통신망을 매개로 단말기 간에 영상을 전송하는 영상통화 중, 단말기로부터 사용자의 감정상태와 관련된 햅틱컨텐츠와 매칭되는 문양의 입력에 따라 발생된 문양 데이터를 포함한 영상을 수신한다. 상기 데이터베이스부는 상기 사용자에 의해 미리 지정된 문양에 매칭되는 상기 햅틱컨텐츠를 저장하고 있다. 상기 제어부는 상기 송수신부로부터 수신한 상기 문양 데이터에 대응하여 상기 데이터베이스부에서 상기 햅틱컨텐츠를 추출하고, 추출한 상기 햅틱컨텐츠를 영상에 포함시켜 상대방 단말기로 전송한다. 이때, 상기 햅틱컨텐츠는 시각 햅틱컨텐츠, 촉각 햅틱컨텐츠, 청각 햅틱컨텐츠 또는 후각 햅틱컨텐츠를 포함하며, 상기 시각 햅틱컨텐츠, 촉각 햅틱컨텐츠, 청각 햅틱컨텐츠 또는 후각 햅틱컨텐츠 각각이 실행상태를 달리하는 서로 다른 햅틱컨텐츠 실행모드를 포함한다. 또한, 상기 데이터베이스부는 상기 문양 데이터에 대응하는 햅틱컨텐츠를 추출하는 햅틱컨텐츠 추출 프로그램을 저장하고 있다.In addition, the haptic content delivery server of the video call according to the invention, characterized in that it comprises a transceiver, a database unit, and a controller. The transmitter / receiver receives an image including pattern data generated according to an input of a pattern matching the haptic content related to the emotional state of the user from the terminal during an image call transmitting an image between terminals through a communication network. The database unit stores the haptic content that matches a pattern predetermined by the user. The controller extracts the haptic content from the database in response to the pattern data received from the transceiver, and includes the extracted haptic content in an image to transmit to the counterpart terminal. In this case, the haptic content includes visual haptic content, haptic haptic content, auditory haptic content or olfactory haptic content, and the visual haptic content, haptic haptic content, auditory haptic content, or olfactory haptic content are different from each other in an execution state. Haptic content execution mode. The database unit also stores a haptic content extraction program for extracting haptic content corresponding to the pattern data.

또한, 본 발명에 따른 영상통화 중 햅틱컨텐츠 전달 단말기는, 통신부, 카메라부, 입력부, 저장부, 단말 제어부를 포함하는 것을 특징으로 한다. 상기 통신부는 통신망을 매개로 상대방 단말기와 영상통화를 수행한다. 상기 카메라부는 상기 영상통화 중 촬영하여 영상을 획득한다. 상기 입력부는 문양에 대한 사용자 입력을 지원한다. 상기 저장부는 상기 사용자의 감정상태와 관련된 햅틱컨텐츠를 저장하고 있다. 상기 단말 제어부는 상기 문양의 입력에 따라 발생된 문양 데이터에 대응하는 상기 햅틱컨텐츠를 추출하고, 추출된 상기 햅틱컨텐츠를 상기 영상에 포함시켜 상기 상대방 단말기로 전송한다. 이때, 상기 저장부는 시각 햅틱컨텐츠, 촉각 햅틱컨텐츠, 청각 햅틱컨텐츠 또는 후각 햅틱컨텐츠를 포함하며, 상기 시각 햅틱컨텐츠, 촉각 햅틱컨텐츠, 청각 햅틱컨텐츠 또는 후각 햅틱컨텐츠 각각이 실행상태를 달리하는 서로 다른 햅틱컨텐츠 실행모드를 포함한다. 또한, 상기 문양은 문자, 숫자, 기호 및 모양 중에 적어도 하나를 포함하는 것이 바람직하다. 그리고, 상기 통신부를 통해 상기 상대방 단말기 또는 햅틱컨텐츠 전달 서버로부터 햅틱컨텐츠를 포함하는 영상을 수신하여 상기 햅틱컨텐츠를 출력하는 진동 발생기, 온도 발생기 및 향기 발생기 중에 적어도 하나를 포함하는 햅틱 출력부를 더 포함하는 것이 바람직하다.In addition, the haptic content delivery terminal of the video call according to the present invention is characterized in that it comprises a communication unit, a camera unit, an input unit, a storage unit, a terminal control unit. The communication unit performs a video call with a counterpart terminal through a communication network. The camera unit captures an image during the video call. The input unit supports user input for a pattern. The storage unit stores haptic content related to the emotional state of the user. The terminal controller extracts the haptic content corresponding to the pattern data generated according to the input of the pattern, and includes the extracted haptic content in the image and transmits the haptic content to the counterpart terminal. The storage unit may include visual haptic content, haptic haptic content, auditory haptic content, or olfactory haptic content, and the haptic content, haptic haptic content, auditory haptic content, or olfactory haptic content may have different haptic contents. Contains the content execution mode. In addition, the pattern preferably includes at least one of letters, numbers, symbols and shapes. The apparatus further includes a haptic output unit including at least one of a vibration generator, a temperature generator, and a scent generator that receive the image including the haptic content from the counterpart terminal or the haptic content delivery server through the communication unit, and output the haptic content. It is preferable.

또한, 본 발명에 따른 영상통화 중 햅틱컨텐츠 전달 방법은, 통신망을 매개로 단말기 간에 영상을 전송하는 영상통화 중, 햅틱컨텐츠 전달 서버가 상기 단말기로부터 사용자의 감정상태와 관련된 햅틱컨텐츠와 매칭되는 문양의 입력에 따라 발생된 문양 데이터를 수신하는 단계, 상기 햅틱컨텐츠 전달 서버가 상기 문양 데이터에 대응하는 상기 햅틱컨텐츠를 추출하는 단계, 상기 햅틱컨텐츠 전달 서버가 추출한 상기 햅틱컨텐츠를 상기 영상에 포함시켜 상기 문양 데이터를 전송한 단말기의 상대방 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다. 이때, 상기 영상통화 이전에, 상기 단말기에 의해 상기 문양에 매칭되는 상기 햅틱컨텐츠가 지정되는 것에 대응하여 상기 햅틱컨텐츠 전달 서버가 상기 문양과 햅틱컨텐츠를 매 칭하여 저장하는 단계를 더 포함한다. 또한, 상기 문양 데이터를 수신하는 단계 이전에, 상기 단말기로부터 전달된 햅틱컨텐츠 서비스 요청 신호에 대응하여 상기 햅틱컨텐츠 전달 서버가 상기 단말기와 각각 세션을 설정하는 단계를 더 포함한다.In addition, the haptic content delivery method of the video call according to the present invention, during the video call to transfer the image between the terminal via a communication network, the haptic content delivery server of the pattern matching the haptic content related to the emotional state of the user from the terminal Receiving the glyph data generated according to an input, extracting the haptic content corresponding to the glyph data by the haptic content delivery server, and including the haptic content extracted by the haptic content delivery server in the image And transmitting the data to the counterpart terminal of the terminal which has transmitted the data. At this time, before the video call, the haptic content delivery server matches the pattern and the haptic content by storing the haptic content corresponding to the designation of the haptic content by the terminal. In addition, prior to the step of receiving the glyph data, the haptic content delivery server in response to the haptic content service request signal transmitted from the terminal further comprises the step of establishing a session with the terminal, respectively.

또한, 본 발명에 따른 영상통화 중 햅틱컨텐츠 전달 방법은, 통신망을 매개로 단말기 간의 영상통화 중, 상기 단말기가 사용자의 감정상태와 관련된 햅틱컨텐츠와 매칭되는 문양의 입력에 따라 문양 데이터를 출력하는 단계, 상기 단말기가 출력한 상기 문양 데이터에 대응하는 상기 햅틱컨텐츠를 추출하는 단계, 상기 단말기가 추출한 상기 햅틱컨텐츠를 영상에 포함시켜 상대방 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다. 이때, 상기 단말기가 상기 상대방 단말기 또는 햅틱컨텐츠 전달 서버로부터 햅틱컨텐츠를 포함하는 영상을 수신하여 상기 영상과 햅틱컨텐츠를 출력하는 단계를 더 포함할 수 있다.In addition, the haptic content delivery method of the video call according to the present invention, during the video call between the terminal via the communication network, the terminal outputs the pattern data according to the input of the pattern matching the haptic content related to the emotional state of the user And extracting the haptic content corresponding to the pattern data output by the terminal, and including the haptic content extracted by the terminal in an image and transmitting the extracted haptic content to the counterpart terminal. In this case, the terminal may further include receiving an image including the haptic content from the counterpart terminal or the haptic content delivery server, and outputting the image and the haptic content.

이와 같이, 본 발명은 영상통화 중 사용자의 문양 입력에 대응하는 햅틱컨텐츠를 함께 전달하기 때문에 더욱 세밀한 감정상태를 전달할 수 있는 효과가 있다.As described above, the present invention delivers the haptic content corresponding to the user's pattern input during the video call, so that the detailed emotional state can be transmitted.

또한, 본 발명은 영상통화 중 세밀한 감정상태를 전달할 수 있기 때문에 영상통화자에게 통화 환경 만족도를 향상시킬 수 있으며, 영상통화 사용을 확대시킬 수 있다.In addition, since the present invention can deliver a detailed emotional state during the video call, it is possible to improve the call environment satisfaction to the video caller, and to expand the use of the video call.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 보다 상세하게 설명하고자 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

여기서, 도면의 설명에 있어 도면에 도시된 구성요소가 모두 필수구성요소는 아니며, 동일 구성요소에 대해서는 동일번호를 부여하기로 한다.Here, in the description of the drawings, all of the components shown in the drawings are not essential components, and the same components will be given the same numbers.

도 1은 본 발명의 제1 실시예에 의한 영상통화 중 햅틱컨텐츠 전달 시스템을 나타낸 블록도이다.1 is a block diagram showing a haptic content delivery system during a video call according to a first embodiment of the present invention.

도 1을 참조하면, 제1 실시예에 의한 영상통화 중 햅틱컨텐츠 전달 시스템(100; 이하, ‘햅틱컨텐츠 전달 시스템’이라 함)은 통신망(10)을 매개로 하여 영상통화가 이루어지는 사용자 단말기(20) 및 상대방 단말기(40)를 포함하여 구성된다.Referring to FIG. 1, a haptic content delivery system 100 (hereinafter, referred to as a “haptic content delivery system”) of a video call according to the first embodiment is a user terminal 20 through which a video call is made through a communication network 10. ) And the counterpart terminal 40.

본 실시예의 햅틱컨텐츠 전달 시스템(100)에서는, 사용자 단말기(20)와 상대방 단말기(40)가 영상통화 중에 사용자가 사용자 단말기(20)를 통해 문자, 숫자, 기호, 모양을 포함하는 문양을 입력하면 사용자 단말기(20)는 입력된 문양에 대응되는 햅틱컨텐츠를 추출하고, 사용자 단말기(20)가 통신망(10)을 통해 상대방 단말기(40)로 추출된 햅틱컨텐츠를 전송하면, 상대방 단말기(40)에서 전송된 햅틱컨텐츠에 대응하는 출력이 이루어지게 된다. 이에 따라, 제1 실시예에 의한 햅틱컨텐츠 전달 시스템(100)은 문양을 대응되는 햅틱컨텐츠를 통해 상대방에게 감정상태를 전달할 수 있다.In the haptic content delivery system 100 of the present embodiment, when the user terminal 20 and the counterpart terminal 40 input a pattern including letters, numbers, symbols, and shapes through the user terminal 20 during a video call. When the user terminal 20 extracts the haptic content corresponding to the input pattern and the user terminal 20 transmits the extracted haptic content to the counterpart terminal 40 through the communication network 10, the counterpart terminal 40 An output corresponding to the transmitted haptic content is made. Accordingly, the haptic content delivery system 100 according to the first embodiment may transmit an emotional state to the other party through the corresponding haptic content.

여기서, 햅틱컨텐츠 전달 시스템(100)의 구성에 대해 좀 더 구체적으로 설명하기로 한다.Here, the configuration of the haptic content delivery system 100 will be described in more detail.

통신망(10)은 사용자 단말기(20)와 상대방 단말기(40) 사이의 데이터 전송 및 정보 교환을 위한 일련의 데이터 송수신 동작을 수행한다. 이 같은 기능을 수행 하는 통신망(10)은 IP를 통하여 대용량 데이터의 송수신 서비스 및 끊김없는 데이터 서비스를 제공하는 IP망으로, IP를 기반으로 서로 다른 망을 통합한 IP망 구조인 ALL-IP망일 수 있다. 또한 통신망(10)은 유선통신망, 이동통신망, WiBro(Wireless Broadband)망, HSDPA(High-Speed Downlink Packet Access)망, 위성통신망 중에 하나일 수 있다.The communication network 10 performs a series of data transmission and reception operations for data transmission and information exchange between the user terminal 20 and the counterpart terminal 40. The communication network 10 performing such a function is an IP network providing a large data transmission / reception service and a seamless data service through IP, and may be an ALL-IP network that is an IP network structure integrating different networks based on IP. have. In addition, the communication network 10 may be one of a wired communication network, a mobile communication network, a wireless broadband (WiBro) network, a high-speed downlink packet access (HSDPA) network, and a satellite communication network.

구체적으로, 통신망(10)은 호 제어기(14)와 위치 등록기(16)를 포함하여 구성된다.Specifically, the communication network 10 includes a call controller 14 and a location register 16.

호 제어기(14)는 호 및 세션(Session) 처리에 관련된 기능을 담당하는 부분으로서, CSCF(Call State Control Function) 또는 MSC(Mobile Switching Center) 중에 하나일 수 있다. 특히 CSCF로 구현된 호 제어기(14)는 인입호에 대한 게이트웨이로서의 기능, 호 제어 기능, SPD(Serving Profile Database) 기능, 주소 처리 기능 등을 수행한다. 특히, 호 제어기(14)는 사용자 단말기(20) 또는 상대방 단말기(40)로부터 전송된 햅틱컨텐츠를 포함한 영상을 상대방 단말기(40)로 전송한다.The call controller 14 is a part in charge of functions related to call and session processing, and may be one of a call state control function (CSCF) or a mobile switching center (MSC). In particular, the call controller 14 implemented with CSCF performs a function as a gateway to an incoming call, a call control function, a SPD (Serving Profile Database) function, an address processing function, and the like. In particular, the call controller 14 transmits an image including the haptic content transmitted from the user terminal 20 or the counterpart terminal 40 to the counterpart terminal 40.

위치 등록기(16)는 가입자의 마스터 데이터베이스로서, 가입자와 관련된 서비스의 마스터 목록을 유지하거나 가입자의 위치정보에 대한 관리를 수행함으로써 엑세스 수단을 추적하는 역할을 담당한다. 즉, 위치 등록기(16)는 가입자가 가입한 부가서비스 가입정보를 저장한다. 이 같은 기능을 수행하는 위치 등록기(16)는 HLR(Home Location Register) 또는 All-IP망에서 가입자 정보 관리를 수행하는 HSS(Home Subscriber Server) 중에 하나일 수 있다.The location register 16 is a master database of subscribers, and is responsible for tracking access means by maintaining a master list of services related to a subscriber or performing management of subscriber's location information. That is, the location register 16 stores additional service subscription information subscribed to by the subscriber. The location register 16 performing such a function may be one of a home location register (HLR) or a home subscriber server (HSS) that manages subscriber information in an All-IP network.

그리고, 사용자 단말기(20)와 상대방 단말기(40)는 통신망(10)을 매개로 서 로 간에 영상통화를 수행한다. 또한, 사용자 단말기(20) 또는 상대방 단말기(40)는 입력된 문자, 숫자, 기호, 모양을 포함하는 문양에 대응하는 햅틱컨텐츠를 추출하여 상대방에게 전송한다. 그리고, 사용자 단말기(20) 또는 상대방 단말기(40)는 상대방으로부터 전송된 햅틱컨텐츠를 수신하여 햅틱컨텐츠에 대응하는 출력이 이루어지게 된다. 이 같은 기능을 수행하는 사용자 단말기(20)와 상대방 단말기(40)는 통신망(10)을 통하여 영상통화가 가능한 유무선 통신단말기로서, 이동통신단말기, 유선통신단말기, 인터넷전화기 등을 포함한다. 사용자 단말기(20)와 상대방 단말기(40)는 도 2에서 좀 더 구체적으로 설명하기로 한다.In addition, the user terminal 20 and the counterpart terminal 40 perform a video call between each other through the communication network 10. In addition, the user terminal 20 or the counterpart terminal 40 extracts the haptic content corresponding to the pattern including the input letters, numbers, symbols, and shapes, and transmits the haptic content to the counterpart. The user terminal 20 or the counterpart terminal 40 receives the haptic content transmitted from the counterpart and outputs the corresponding haptic content. The user terminal 20 and the counterpart terminal 40 which perform such a function are wired / wireless communication terminals capable of video calls through the communication network 10, and include mobile communication terminals, wired communication terminals, and Internet telephones. The user terminal 20 and the counterpart terminal 40 will be described in more detail with reference to FIG. 2.

도 2는 본 발명의 일실시예에 의한 영상통화 중 햅틱컨텐츠 전달 단말기를 나타낸 블록도이다.2 is a block diagram showing a haptic content delivery terminal during a video call according to an embodiment of the present invention.

먼저, 일실시예에 의한 영상통화 중 햅틱컨텐츠 전달 단말기, 즉 사용자 단말기(20) 또는 상대방 단말기(40)는 동일한 구성을 갖는 것으로 가정하며, 이에 사용자 단말기(20)를 중심으로 설명하기로 한다.First, it is assumed that the haptic content delivery terminal, ie, the user terminal 20 or the counterpart terminal 40, has the same configuration during a video call according to an embodiment, and this will be described based on the user terminal 20.

도 2를 참조하면, 사용자 단말기(20)는 통신부(21), 입력부(22), 저장부(23), 카메라부(24), 햅틱 출력부(25), 표시부(26), 음원 처리부(27) 및 단말 제어부(28)를 포함하여 구성된다.Referring to FIG. 2, the user terminal 20 includes a communication unit 21, an input unit 22, a storage unit 23, a camera unit 24, a haptic output unit 25, a display unit 26, and a sound source processing unit 27. ) And the terminal control unit 28.

통신부(21)는 통신망(10)을 매개로 상대방 단말기(40)와의 영상통화를 위한 데이터를 송수신한다. 또한, 통신부(21)는 단말 제어부(28)의 제어에 따라 햅틱컨텐츠를 포함한 영상을 상대방 단말기(40)로 전송한다.The communication unit 21 transmits and receives data for a video call with the counterpart terminal 40 through the communication network 10. In addition, the communication unit 21 transmits an image including haptic content to the counterpart terminal 40 under the control of the terminal control unit 28.

입력부(22)는 사용자 단말기(20)의 조작을 위한 복수의 키를 제공하며, 사용 자의 키선택에 따른 입력 신호를 발생시켜 단말 제어부(28)에 전달한다. 사용자는 입력부(22)를 통해 영상통화 요청 신호와, 영상통화 중 문양 데이터를 발생시킬 수 있다. 입력부(22)로는 키패드, 터치패드와 같은 포인팅 장치, 터치스크린(touch screen) 등의 입력장치가 사용될 수 있다.The input unit 22 provides a plurality of keys for the operation of the user terminal 20, and generates and transmits an input signal according to a user's key selection to the terminal controller 28. The user may generate a video call request signal and pattern data during the video call through the input unit 22. The input unit 22 may be a keypad, a pointing device such as a touch pad, or an input device such as a touch screen.

이와 같이, 문양 데이터를 발생시키는 입력부(22)는 문양의 입력을 수행할 수 있도록 사용자 조작을 지원한다. 입력부(22)는 문양을 입력하는 다양한 방법을 제공할 뿐만 아니라, 문양 입력에 대응하는 신호처리를 수행하는 이미지처리부(미도시)를 포함할 수 있다. 즉, 표시부(26)에 표시되거나 복수의 키 등에 미리 설정된 문양일 경우에는 해당 디지털 값을 그대로 단말 제어부(28)로 전달할 수 있으나, 표시부(26) 등에 임의로 입력된 문양일 경우에는 이미지처리부에서 이미지화 작업을 거친 후 해당 이미지로부터 모양을 분석하여 이 모양에 대응하는 디지털 값을 구한 후 이 디지털 값을 단말 제어부(28)로 전달한다.In this way, the input unit 22 for generating the pattern data supports a user operation to perform the input of the pattern. The input unit 22 may not only provide various methods of inputting a pattern, but may include an image processor (not shown) that performs signal processing corresponding to the pattern input. That is, in the case of a pattern displayed on the display unit 26 or a preset pattern in a plurality of keys, the digital value may be transmitted to the terminal controller 28 as it is, but in the case of a pattern arbitrarily input to the display unit 26, the image processing unit may image it. After the operation, the shape is analyzed from the image to obtain a digital value corresponding to the shape, and the digital value is transmitted to the terminal controller 28.

저장부(23)는 사용자 단말기(20)의 동작 제어시 필요한 프로그램과, 그 프로그램 수행 중에 발생되는 데이터를 저장하고 있으며, 하나 이상의 휘발성 메모리 소자와 비휘발성 메모리 소자로 이루어진다. 또한, 저장부(23)는 영상통화 중 문양의 입력에 따라 발생되는 문양 데이터에 대응하여 햅틱컨텐츠를 추출하는 햅틱컨텐츠 추출 프로그램을 저장하고 있다. 그리고, 저장부(23)는 문양에 대응하는 햅틱컨텐츠를 저장하고 있으며, 이 햅틱컨텐츠는 시각, 촉각, 청각 또는 후각 등의 방법으로 사용자 감정상태를 사용자 단말기에서 출력할 수 있도록 사용자 단말기를 제어하는 데이터이다. 이에, 사용자 단말기(20)에서 시각, 촉각, 청각 또는 후각 등 을 출력할 수 있도록 저장부(23)는 다양한 햅틱컨텐츠를 저장하고 있다. 또한, 이 다양한 햅틱컨텐츠 각각은 실행상태를 달리하는 서로 다른 햅틱컨텐츠 실행모드를 포함하고 있다.The storage unit 23 stores a program necessary for controlling the operation of the user terminal 20 and data generated while executing the program, and includes one or more volatile memory devices and nonvolatile memory devices. In addition, the storage unit 23 stores a haptic content extraction program for extracting haptic content in response to the pattern data generated according to the input of the pattern during the video call. The storage unit 23 stores the haptic content corresponding to the pattern, and the haptic content controls the user terminal so that the user's emotional state can be outputted from the user terminal in a visual, tactile, auditory or olfactory manner. Data. Thus, the storage unit 23 stores various haptic content so that the user terminal 20 can output time, touch, hearing, or smell. In addition, each of these various haptic contents includes different haptic content execution modes that vary in execution states.

카메라부(24)는 통신부(21)를 통해 전송하기 위한 사용자의 영상데이터를 획득한다. 즉, 카메라부(24)는 입력부(22)를 통한 영상통화의 승낙에 따라 사용자의 영상을 촬영하여 영상데이터를 획득한다. 이때, 카메라부(24)는 이미지 센서, 신호처리부 및 영상처리부를 포함하여 구성될 수 있다. 이미지 센서는 촬영한 영상의 광신호를 아날로그 신호로 변환한다. 신호처리부는 아날로그 신호를 디지털 신호로 변환한다. 영상처리부는 신호처리부를 통해 입력되는 영상신호를 처리하여 영상데이터를 획득하며, 획득된 영상데이터를 통신부(21)나 표시부(26)를 통해 출력하거나 저장부(23)에 저장한다. 또한 영상처리부는 통신부(21)를 통해 입력되는 상대방의 영상데이터를 처리하여 표시부(26)를 통해 출력하거나 저장부(23)에 저장한다.The camera unit 24 obtains image data of the user for transmission through the communication unit 21. That is, the camera unit 24 captures the user's image in accordance with the acceptance of the video call through the input unit 22 to obtain image data. In this case, the camera unit 24 may include an image sensor, a signal processor, and an image processor. The image sensor converts the optical signal of the captured image into an analog signal. The signal processor converts an analog signal into a digital signal. The image processor obtains image data by processing an image signal input through the signal processor, and outputs the acquired image data through the communication unit 21 or the display unit 26 or stores the image data in the storage unit 23. In addition, the image processor processes the image data of the other party input through the communication unit 21 to output through the display unit 26 or to store in the storage unit (23).

햅틱 출력부(25)는 문양에 대응하는 진동, 온도, 향기 등을 실행시킨다. 즉, 햅틱 출력부(25)는 햅틱컨텐츠에 대응하여 실행되는 진동 발생기, 온도 발생기 및 향기 발생기 등을 포함한다. 진동 발생기는 진동 모터로서, 진동 햅틱컨텐츠에 해당하는 진동을 실행한다. 온도 발생기는 온도 햅틱컨텐츠에 해당하는 온도를 설정하는 것으로, 현재 온도와 온도 햅틱컨텐츠의 온도를 비교하여 사용자 단말기(20)의 온도가 온도 햅틱컨텐츠와 같아지도록 온도를 설정한다. 향기 발생기는 후각 햅틱컨텐츠에 대응하는 각종 향기가 발생하도록 하는 것으로, 향기의 종류 및 강도 등은 사용자 단말기(20)의 사용자가 임의대로 설정할 수 있다. 또한, 햅틱 출력 부(25)는 단말 제어부(28)의 제어에 따라 표시부(26) 및 음원 처리부(27)와 선택적으로 연동되어 다양한 감정상태를 전달할 수 있다.The haptic output unit 25 executes vibration, temperature, aroma, etc. corresponding to the pattern. That is, the haptic output unit 25 includes a vibration generator, a temperature generator, a scent generator, and the like, which are executed in correspondence with the haptic content. The vibration generator is a vibration motor and executes vibration corresponding to the vibration haptic content. The temperature generator sets a temperature corresponding to the temperature haptic content, and sets the temperature such that the temperature of the user terminal 20 is equal to the temperature haptic content by comparing the current temperature with the temperature of the temperature haptic content. The scent generator generates various scents corresponding to the olfactory haptic content, and the type and intensity of the scent may be arbitrarily set by the user of the user terminal 20. In addition, the haptic output unit 25 may selectively communicate with the display unit 26 and the sound source processing unit 27 under the control of the terminal controller 28 to transmit various emotional states.

표시부(26)는 사용자 단말기(20)에서 실행되는 각종 기능 메뉴를 비롯하여 저장부(23)에 저장된 정보를 표시한다. 또한, 표시부(26)는 단말 제어부(28)의 제어에 따라 상대방의 영상 또는 햅틱컨텐츠를 표시한다. 이 같은 기능을 수행하는 표시부(26)로는 LCD(Liquid Crystal Display)나 터치 스크린이 사용될 수 있다. 터치 스크린은 표시 장치와 입력 장치로서의 역할을 동시에 수행한다. 이와 같이, 터치 스크린은 문양의 입력을 수행할 수 있는데, 터치 스크린에 표시되어 미리 설정된 문양일 경우에는 해당 디지털 값을 그대로 단말 제어부(28)로 전달할 수 있으나, 터치 스크린에 임의로 입력된 문양일 경우에는 이미지화 작업을 거친 후 해당 이미지로부터 모양을 분석하여 이 모양에 대응하는 디지털 값을 구한 후 이 디지털 값을 단말 제어부(28)로 전달한다.The display unit 26 displays information stored in the storage unit 23 including various function menus executed in the user terminal 20. In addition, the display unit 26 displays an image or haptic content of the counterpart under the control of the terminal controller 28. As the display unit 26 performing such a function, an LCD (Liquid Crystal Display) or a touch screen may be used. The touch screen simultaneously serves as a display device and an input device. As such, the touch screen may perform a pattern input. If the pattern is displayed on the touch screen and is a preset pattern, the digital value may be transmitted to the terminal controller 28 as it is, but in the case of a pattern arbitrarily input to the touch screen. After the imaging operation, the shape is analyzed from the image to obtain a digital value corresponding to the shape, and the digital value is transmitted to the terminal controller 28.

음원 처리부(27)는 단말 제어부(28)의 제어에 따라 마이크(MIC)로 입력되는 음성을 디지털화하여 음성정보를 획득하고, 통신부(21)를 통해 수신된 음성정보를 복조하여 스피커(SPK)를 통해 출력한다.The sound source processor 27 digitizes the voice input through the microphone MIC under the control of the terminal controller 28 to obtain voice information, and demodulates the voice information received through the communication unit 21 to generate a speaker SPK. Output through

그리고, 단말 제어부(28)는 사용자 단말기(20)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)이다. 특히, 단말 제어부(28)는 영상통화 중 사용자의 문양 입력에 대응하는 햅틱컨텐츠를 추출하여 상대방 단말기(40)로 전송하는 제어를 수행한다.In addition, the terminal controller 28 is a microprocessor that performs overall control operations of the user terminal 20. In particular, the terminal controller 28 controls to extract the haptic content corresponding to the user's pattern input during the video call and transmit the haptic content to the counterpart terminal 40.

이때, 단말 제어부(28)가 햅틱컨텐츠를 추출 및 전송하는 과정은 다음과 같 다.At this time, the process of the terminal control unit 28 to extract and transmit the haptic content is as follows.

단말 제어부(28)는 영상통화 중 입력부(22) 또는 표시부(26)를 통해 문양이 입력되는 지를 모니터링한다. 단말 제어부(28)는 문양이 입력되었다고 판단되면, 해당 문양에 대응하는 문양 데이터를 출력한다. 이에 단말 제어부(28)는 저장부(23)에서 해당 문양 데이터와 매칭되는 햅틱컨텐츠를 추출한다. 이어서, 단말 제어부(28)는 통신망(10)을 통해 상대방에게 햅틱컨텐츠를 전송할 수 있도록 추출된 햅틱컨텐츠를 포함한 영상을 통신부(21)에 전달한다. 이와 같은 햅틱컨텐츠 추출과 전송 과정은 햅틱컨텐츠 추출 프로그램의 실행에 의해 이루어질 수 있으며, 이 햅틱컨텐츠 추출 프로그램은 영상통화와 동시에 실행시킬 수도 있고, 또한 영상통화 중 문자 데이터가 발생하면 실행시킬 수도 있다.The terminal controller 28 monitors whether the pattern is input through the input unit 22 or the display unit 26 during the video call. If it is determined that the pattern is input, the terminal controller 28 outputs the pattern data corresponding to the pattern. The terminal controller 28 extracts the haptic content that matches the pattern data from the storage unit 23. Subsequently, the terminal controller 28 transmits the image including the haptic content extracted to the other party through the communication network 10 to the communication unit 21. The haptic content extraction and transmission process may be performed by executing a haptic content extraction program. The haptic content extraction program may be executed simultaneously with a video call or may be executed when text data is generated during the video call.

이와 같이, 제1 실시예에 의한 햅틱컨텐츠 전달 시스템(100)은 도 2에서 제시한 단말기(20,40)를 이용하여 입력된 문양에 대응하는 햅틱컨텐츠를 추출하여 상대방에게 전송함으로써 감정상태를 더욱 효과적으로 전달할 수 있으며, 영상통화자의 통화 환경에 흥미를 부가할 수 있다.As described above, the haptic content delivery system 100 according to the first embodiment extracts the haptic content corresponding to the input pattern using the terminals 20 and 40 shown in FIG. It can deliver effectively and add interest to video caller's call environment.

도 3은 본 발명의 제2 실시예에 의한 영상통화 중 햅틱컨텐츠 전달 시스템을 나타낸 블록도이다.3 is a block diagram illustrating a haptic content delivery system during a video call according to a second embodiment of the present invention.

도 3을 참조하면, 제2 실시예에 의한 햅틱컨텐츠 전달 시스템(200)은 통신망(10)을 매개로 하여 사용자 단말기(20), 영상통화 중 햅틱컨텐츠 전달 서버(30; 이하, ‘햅틱컨텐츠 전달 서버’라 함) 및 상대방 단말기(40)를 포함하여 구성된다.Referring to FIG. 3, the haptic content delivery system 200 according to the second embodiment of the present invention uses a user network 20 and a haptic content delivery server 30 during a video call through a communication network 10. Server ') and the counterpart terminal 40.

본 실시예의 햅틱컨텐츠 전달 시스템(200)에서는, 사용자 단말기(20)와 상대방 단말기(40)가 영상통화 중에 사용자가 사용자 단말기(20)를 통해 문자, 숫자, 기호, 모양을 포함하는 문양을 입력하면 햅틱컨텐츠 전달 서버(30)는 입력된 문양에 대응되는 햅틱컨텐츠를 추출한다. 햅틱컨텐츠 전달 서버(30)가 통신망(10)을 통해 상대방 단말기(40)로 추출된 햅틱컨텐츠를 전송하면, 상대방 단말기(40)에서 전송된 햅틱컨텐츠에 대응하는 출력이 이루어지게 된다.In the haptic content delivery system 200 of the present embodiment, when the user terminal 20 and the counterpart terminal 40 input a pattern including letters, numbers, symbols, and shapes through the user terminal 20 during a video call. The haptic content delivery server 30 extracts haptic content corresponding to the input pattern. When the haptic content delivery server 30 transmits the haptic content extracted to the counterpart terminal 40 through the communication network 10, an output corresponding to the haptic content transmitted from the counterpart terminal 40 is made.

여기서, 햅틱컨텐츠 전달 시스템(200)의 각 구성의 기능에 대해 좀 더 구체적으로 설명하기로 한다.Here, the function of each component of the haptic content delivery system 200 will be described in more detail.

사용자 단말기(20)와 상대방 단말기(40)는 통신망(10)을 매개로 서로 간에 영상통화를 수행한다. 사용자 단말기(20) 또는 상대방 단말기(40)는 문자, 숫자, 기호, 모양을 포함하는 문양 입력에 대응하여 발생된 문양 데이터를 통신망(10)을 통하여 햅틱컨텐츠 전달 서버(30)로 전송한다. 이 사용자 단말기(20)와 상대방 단말기(40)는 도 2에서 제시한 단말기일 수 있으며, 문양 데이터를 발생시킬 수 있는 단말기이면 된다.The user terminal 20 and the counterpart terminal 40 perform a video call with each other through the communication network 10. The user terminal 20 or the counterpart terminal 40 transmits the pattern data generated corresponding to the pattern input including letters, numbers, symbols, and shapes to the haptic content delivery server 30 through the communication network 10. The user terminal 20 and the counterpart terminal 40 may be the terminal shown in FIG. 2, and may be a terminal capable of generating pattern data.

통신망(10)은 사용자 단말기(20), 햅틱컨텐츠 전달 서버(30) 및 상대방 단말기(40) 사이의 데이터 전송 및 정보 교환을 위한 일련의 데이터 송수신 동작을 수행한다. 특히, 통신망(10)은 영상통화 중인 사용자 단말기(20) 또는 상대방 단말기(40)로부터 햅틱컨텐츠 서비스 요청 신호를 수신하면, 햅틱컨텐츠 전달 서버(30)와 사용자 단말기(20) 간의 세션 및 햅틱컨텐츠 전달 서버(30)와 상대방 단말기(40) 간의 세션을 설정한다. 즉, 사용자 단말기(20)로부터 영상 호를 수신하면, 통신망(10)은 사용자 단말기(20)와 상대방 단말기(40) 간의 영상통화를 위한 영상 호 경로를 설정한다. 통신망(10)이 영상통화 중 사용자 단말기(20) 또는 상대방 단말기(40)로부터 햅틱컨텐츠 서비스 요청 신호를 수신하면, 통신망(10)은 햅틱컨텐츠 전달 서버(30)와 사용자 단말기(20) 간의 세션 및 햅틱컨텐츠 전달 서버(30)와 상대방 단말기(40) 간의 세션을 설정한다.The communication network 10 performs a series of data transmission / reception operations for data transmission and information exchange between the user terminal 20, the haptic content delivery server 30, and the counterpart terminal 40. In particular, when the communication network 10 receives a haptic content service request signal from the user terminal 20 or the counterpart terminal 40 in a video call, the communication network 10 transmits a session and haptic content between the haptic content delivery server 30 and the user terminal 20. A session between the server 30 and the counterpart terminal 40 is established. That is, upon receiving a video call from the user terminal 20, the communication network 10 sets a video call path for the video call between the user terminal 20 and the counterpart terminal 40. When the communication network 10 receives the haptic content service request signal from the user terminal 20 or the counterpart terminal 40 during a video call, the communication network 10 establishes a session between the haptic content delivery server 30 and the user terminal 20. A session between the haptic content delivery server 30 and the counterpart terminal 40 is established.

그리고, 햅틱컨텐츠 전달 서버(30)는 통신망(10)을 매개로 사용자 단말기(20) 및 상대방 단말기(40)와 통신을 수행한다. 즉, 햅틱컨텐츠 전달 서버(30)는 사용자 단말기(20) 또는 상대방 단말기(40)로부터 문양 데이터를 수신하면, 문양 데이터를 발신한 단말기의 사용자가 입력한 문양에 대응하는 햅틱컨텐츠를 영상에 실어서 상대방에게 전송한다. The haptic content delivery server 30 communicates with the user terminal 20 and the counterpart terminal 40 through the communication network 10. That is, when the haptic content delivery server 30 receives the pattern data from the user terminal 20 or the counterpart terminal 40, the haptic content delivery server 30 loads the haptic content corresponding to the pattern input by the user of the terminal that sent the pattern data to the image. Send to the other party.

여기서, 햅틱컨텐츠 전달 서버(30)는 송수신부(31), 데이터베이스부(33) 및 제어부(35)를 포함하여 구성된다.Here, the haptic content delivery server 30 includes a transceiver 31, a database 33, and a controller 35.

송수신부(31)는 통신망(10)을 매개로 사용자 단말기(20) 및 상대방 단말기(40)와 통신을 수행한다. 즉, 송수신부(31)는 제어부(35)의 제어에 따라 사용자 단말기(20) 또는 상대방 단말기(40)로부터 문양 데이터를 수신한다. 그리고, 송수신부(31)는 제어부(35)의 제어에 따라 문양 데이터를 발신한 단말기의 사용자가 입력한 문자, 숫자, 기호, 모양을 포함하는 문양에 대응하는 햅틱컨텐츠를 영상에 실어서 상대방 단말기(40)로 전송한다.The transceiver 31 communicates with the user terminal 20 and the counterpart terminal 40 via the communication network 10. That is, the transceiver 31 receives the pattern data from the user terminal 20 or the counterpart terminal 40 under the control of the controller 35. In addition, the transmitter / receiver 31 controls the counterpart terminal by loading haptic content corresponding to a pattern including letters, numbers, symbols, and shapes input by the user of the terminal that transmits the pattern data under the control of the controller 35. Transmit to 40.

데이터베이스부(33)는 사용자 단말기(20) 또는 상대방 단말기(40)로부터 전달된 문양 데이터에 대응하는 햅틱컨텐츠를 추출하는 햅틱컨텐츠 추출 프로그램을 저장하고 있다. 또한, 데이터베이스부(33)는 사용자에 의해 미리 지정된 문양과 매칭되는 햅틱컨텐츠를 저장하고 있다. 이 햅틱컨텐츠는 시각, 촉각, 청각 또는 후각 등의 방법으로 사용자 감정상태를 사용자 단말기(20) 또는 상대방 단말기(40)에서 출력할 수 있도록 사용자 단말기(20) 또는 상대방 단말기(40)를 제어하는 데이터이다. 이에, 데이터베이스부(33)는 사용자 단말기(20) 또는 상대방 단말기(40)에서 시각, 촉각, 청각 또는 후각 등을 출력할 수 있도록 다양한 햅틱컨텐츠를 저장하고 있다. 또한, 이 다양한 햅틱컨텐츠 각각은 실행상태를 달리하는 서로 다른 햅틱컨텐츠 실행모드를 포함하고 있다.The database unit 33 stores a haptic content extraction program for extracting haptic content corresponding to the pattern data transmitted from the user terminal 20 or the counterpart terminal 40. In addition, the database unit 33 stores haptic content that matches a pattern predetermined by the user. The haptic content is data that controls the user terminal 20 or the counterpart terminal 40 so that the user terminal 20 or the counterpart terminal 40 can output the user's emotional state by a visual, tactile, auditory or olfactory method. to be. Thus, the database unit 33 stores various haptic content so that the user terminal 20 or the counterpart terminal 40 can output visual, tactile, auditory or olfactory sense. In addition, each of these various haptic contents includes different haptic content execution modes that vary in execution states.

그리고, 제어부(35)는 햅틱컨텐츠 전달 서버(30)의 전반적인 제어 동작을 수행한다. 특히, 제어부(35)는 영상통화 중 사용자의 문양 입력에 대응하는 햅틱컨텐츠를 전송하는 제어를 수행한다.In addition, the controller 35 performs an overall control operation of the haptic content delivery server 30. In particular, the controller 35 controls to transmit haptic content corresponding to the user's pattern input during the video call.

이때, 제어부(35)가 햅틱컨텐츠를 추출 및 전송하는 과정은 다음과 같다.At this time, the process of the control unit 35 to extract and transmit the haptic content is as follows.

먼저, 제어부(35)는 사용자 단말기(20)와 상대방 단말기(40) 간의 영상통화 중 사용자 단말기(20) 또는 상대방 단말기(40)에서 햅틱컨텐츠 서비스 요청 신호가 입력되면, 햅틱컨텐츠 서비스 요청 신호에 대응하여 사용자 단말기 및 상대방 단말기와 각각 세션을 설정한다.First, when the haptic content service request signal is input from the user terminal 20 or the counterpart terminal 40 during a video call between the user terminal 20 and the counterpart terminal 40, the controller 35 responds to the haptic content service request signal. Session with the user terminal and the other terminal.

이후, 제어부(35)는 사용자 단말기(20)와 상대방 단말기(40) 간의 영상통화 중 사용자 단말기(20) 또는 상대방 단말기(40)에서 문양 데이터가 입력되는 지를 모니터링한다. 통신망(10)을 통해 문양 데이터가 입력되면, 이 문양 데이터에 대응하는 햅틱컨텐츠를 데이터베이스부(33)에서 추출한다. 여기서, 문양 데이터가 디지 털 값인 경우에는 해당 디지털 값을 그대로 처리하여 햅틱컨텐츠를 추출하고, 문양 데이터가 이미지인 경우에는 이미지인 데이터를 디지털 값으로 변환한 후 해당 디지털 값에 대응하는 햅틱컨텐츠를 추출한다. 즉, 제어부(35)는 이미지를 디지털 값으로의 변환하는 이미지처리부(미도시)를 더 포함할 수 있다.Thereafter, the controller 35 monitors whether pattern data is input from the user terminal 20 or the counterpart terminal 40 during a video call between the user terminal 20 and the counterpart terminal 40. When the glyph data is input through the communication network 10, the haptic content corresponding to the glyph data is extracted from the database unit 33. Here, when the glyph data is a digital value, the haptic content is extracted by processing the digital value as it is, and when the glyph data is an image, the haptic content is converted after converting the data which is an image into a digital value and extracting the haptic content corresponding to the digital value. do. That is, the controller 35 may further include an image processor (not shown) for converting an image into a digital value.

이어서, 제어부(35)는 통신망(10)을 통해 상대방에게 햅틱컨텐츠를 전송할 수 있도록 추출된 햅틱컨텐츠를 송수신부(31)에 전달한다. 이와 같은 햅틱컨텐츠 추출과 전송 과정은 햅틱컨텐츠 추출 프로그램의 실행에 의해 이루어질 수 있으며, 이 햅틱컨텐츠 추출 프로그램은 영상통화와 동시에 실행시킬 수도 있고, 또한 영상통화 중 문자 데이터가 발생하면 실행시킬 수도 있다.Subsequently, the controller 35 transmits the extracted haptic content to the transceiver 31 to transmit the haptic content to the counterpart through the communication network 10. The haptic content extraction and transmission process may be performed by executing a haptic content extraction program. The haptic content extraction program may be executed simultaneously with a video call or may be executed when text data is generated during the video call.

이와 같이, 제2 실시예에 의한 영상통화 중 햅틱컨텐츠 전달 시스템(200)은 도 3에서 제시한 햅틱컨텐츠 전달 서버(30)를 통해 입력된 문양에 대응하는 햅틱컨텐츠를 추출하여 사용자 단말기(20) 및 상대방 단말기(40)로 전송함으로써 망운용에 효율화를 기대할 수 있다.As described above, the haptic content delivery system 200 during the video call according to the second embodiment extracts the haptic content corresponding to the pattern input through the haptic content delivery server 30 shown in FIG. And by transmitting to the counterpart terminal 40 can be expected to improve the efficiency of the network operation.

상기한 영상통화 중 햅틱컨텐츠 전달 시스템, 서버, 단말기를 통해 이루어지는 영상통화 중 햅틱컨텐츠 전달 방법에 대해 상세히 설명하고자 한다.The haptic content delivery method of the video call made through the haptic content delivery system, the server, and the terminal will be described in detail.

도 4는 본 발명의 제1 실시예에 의한 영상통화 중 햅틱컨텐츠 전달 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a haptic content delivery method during a video call according to the first embodiment of the present invention.

본 실시예는 도 1 및 도 2에서 제시한 구성을 통해 이루어지는 영상통화 중 햅틱컨텐츠 전달 방법에 관한 것이다.The present embodiment relates to a haptic content delivery method during a video call made through the configuration shown in FIGS. 1 and 2.

도 4를 참조하면, 먼저 S1단계에서 사용자 단말기(20)가 영상 호를 발신하 면, S2단계에서 통신망(10)은 이를 수신하여 상대방 단말기(40)로 영상 호 착신을 요청한다. 즉, 사용자 단말기(20)가 영상 호를 발신하면, 호 제어기(14)는 위치 등록기(16)로 사용자 단말기(20) 및 상대방 단말기(40)의 가입자 정보(위치 정보 및 부가 서비스 정보)를 요청한다. 호 제어기(14)는 수신한 가입자 정보를 토대로 라우팅 정보를 획득한다. 호 제어기(14)는 획득한 라우팅 정보를 이용하여 상대방 단말기(40)로 영상 호 착신을 요청한다.Referring to FIG. 4, first, when the user terminal 20 sends a video call in step S1, the communication network 10 receives the request and sends a video call to the counterpart terminal 40 in step S2. That is, when the user terminal 20 originates a video call, the call controller 14 requests the subscriber register (location information and additional service information) of the user terminal 20 and the counterpart terminal 40 from the location register 16. do. The call controller 14 obtains routing information based on the received subscriber information. The call controller 14 requests video call reception to the counterpart terminal 40 using the obtained routing information.

다음으로 S3단계에서 상대방 단말기(40)가 영상 호에 대한 수락을 통신망(10)으로 전송하면, S4단계에서 통신망(10)은 사용자 단말기(20)와 상대방 단말기(40) 간에 영상통화를 위한 영상 호 경로를 설정한다. 즉, 호 제어기(14)는 상대방 단말기(40)를 페이징하여 착신을 요청하고, 상대방 단말기(40)가 착신 요청에 대하여 호를 수락하면, 호 제어기(14)는 사용자 단말기(20)와 상대방 단말기(40) 간에 영상 호 경로를 설정한다.Next, when the counterpart terminal 40 transmits the acceptance of the video call to the communication network 10 in step S3, the communication network 10 transmits the video for the video call between the user terminal 20 and the counterpart terminal 40 in step S4. Set the call path. That is, the call controller 14 requests the incoming call by paging the counterpart terminal 40, and when the counterpart terminal 40 accepts the call for the incoming request, the call controller 14 calls the user terminal 20 and the counterpart terminal. A video call path is set between 40.

이와 같이 사용자 단말기(20)와 상대방 단말기(40) 간에 영상 호 경로가 설정된 후, 설정된 영상 호 경로를 통해 사용자 단말기(20)와 상대방 단말기(40)는 영상통화를 수행하게 된다.As such, after the video call path is set between the user terminal 20 and the counterpart terminal 40, the user terminal 20 and the counterpart terminal 40 perform a video call through the set video call path.

다음으로 S5단계에서 영상통화 중 사용자 단말기(20)에서 사용자에 의한 문양 입력이 있는 지를 판단한다.Next, in step S5, the user terminal 20 determines whether there is a pattern input by the user during the video call.

S5단계의 판단 결과, 문양이 입력되지 않는 경우에는 S4단계의 사용자 단말기(20)와 상대방 단말기(40) 간의 영상통화를 계속적으로 수행한다.As a result of the determination in step S5, if a pattern is not input, the video call between the user terminal 20 and the counterpart terminal 40 in step S4 is continuously performed.

S5단계의 판단 결과, 문양이 입력되는 경우에는 S6단계에서 사용자 단말 기(20)은 입력된 문양에 대응하는 문양 데이터를 출력한다.As a result of the determination in step S5, when a pattern is input, in step S6, the user terminal device 20 outputs the pattern data corresponding to the input pattern.

다음으로 S7단계에서 사용자 단말기(20)는 문양 데이터에 대응하는 햅틱컨텐츠를 저장부(23)로부터 추출한다.Next, in operation S7, the user terminal 20 extracts haptic content corresponding to the pattern data from the storage unit 23.

예를 들어, 사용자가 사용자 단말기(20)를 통해 하트(Heart) 문양을 입력하였을 경우에, 하트 문양에 대응하는 하트 문양의 표시, 입술 모양의 표시, ‘사랑해’라는 음향 출력, 사용자에 의해 선택된 온도의 출력, 특정 향기의 출력 등 다양한 햅틱컨텐츠 실행모드를 사용자에게 제시하고, 이에 사용자가 특정 햅틱컨텐츠 실행모드를 선택하면 상대방 단말기(20)을 제어하기 위한 햅틱컨텐츠를 저장부(23)로부터 추출한다.For example, when the user inputs a heart pattern through the user terminal 20, a heart pattern corresponding to the heart pattern, a lip shape, a sound output of 'I love you', selected by the user Presents a variety of haptic content execution mode, such as the output of the temperature, the output of a specific scent to the user, and when the user selects a specific haptic content execution mode to extract the haptic content for controlling the counterpart terminal 20 from the storage unit 23 do.

다음으로 S8단계에서 사용자 단말기(20)는 추출한 햅틱컨텐츠를 영상에 포함시켜 통신망(10)으로 전송한다.Next, in step S8, the user terminal 20 includes the extracted haptic content in the image and transmits it to the communication network 10.

다음으로 S9단계에서 통신망(10)은 수신한 햅틱컨텐츠를 포함하는 영상을 상대방 단말기(40)로 전달한다.Next, in step S9, the communication network 10 transmits the image including the received haptic content to the counterpart terminal 40.

그리고, S10단계에서 상대방 단말기(40)는 수신한 햅틱컨텐츠에 대응한 출력이 이루어지게 된다. 즉, 상대방 단말기(40)는 문양에 대응하는 진동, 온도, 향기 등을 실행시킨다. 상기한 예에서와 같이, 전송된 햅틱컨텐츠가 진동 햅틱컨텐츠일 경우에는 상대방 단말기(40)는 진동을 발생시키게 된다.In operation S10, the counterpart terminal 40 outputs the corresponding haptic content. That is, the counterpart terminal 40 causes vibration, temperature, fragrance, etc., corresponding to the pattern. As in the above example, when the transmitted haptic content is vibration haptic content, the counterpart terminal 40 generates vibration.

한편, 본 실시예에서는 사용자 단말기(20)가 상대방 단말기(40)로 햅틱컨텐츠를 전송하는 예를 설명하였으나, 상대방 단말기(40)에서 사용자 단말기(20)로도 햅틱컨텐츠를 포함한 영상을 전송할 수 있다. 이에 사용자 단말기(20)에서도 문양 에 대응하는 진동, 온도, 향기 등을 실행시킬 수 있다.Meanwhile, in the present embodiment, an example in which the user terminal 20 transmits haptic content to the counterpart terminal 40 has been described. However, the image including the haptic content may also be transmitted from the counterpart terminal 40 to the user terminal 20. Accordingly, even in the user terminal 20, vibration, temperature, aroma, etc. corresponding to the pattern can be executed.

도 5는 본 발명의 제2 실시예에 의한 영상통화 중 햅틱컨텐츠 전달 방법을 나타낸 흐름도이다.5 is a flowchart illustrating a haptic content delivery method during a video call according to a second embodiment of the present invention.

도 5를 참조하면, 먼저 S21단계에서 사용자 단말기(20)가 영상 호를 발신하면, S22단계에서 통신망(10)은 이를 수신하여 상대방 단말기(40)로 영상 호 착신을 요청한다. 즉, 사용자 단말기(20)가 영상 호를 발신하면, 호 제어기(14)는 위치 등록기(16)로 사용자 단말기(20) 및 상대방 단말기(40)의 가입자 정보(위치 정보 및 부가 서비스 정보)를 요청한다. 호 제어기(14)는 수신한 가입자 정보를 토대로 라우팅 정보를 획득한다. 호 제어기(14)는 획득한 라우팅 정보를 이용하여 상대방 단말기(40)로 영상 호 착신을 요청한다.Referring to FIG. 5, first, when the user terminal 20 sends a video call in step S21, the communication network 10 receives the request and sends a video call to the counterpart terminal 40 in step S22. That is, when the user terminal 20 originates a video call, the call controller 14 requests the subscriber register (location information and additional service information) of the user terminal 20 and the counterpart terminal 40 from the location register 16. do. The call controller 14 obtains routing information based on the received subscriber information. The call controller 14 requests video call reception to the counterpart terminal 40 using the obtained routing information.

다음으로 S23단계에서 상대방 단말기(40)가 영상 호에 대한 수락을 통신망(10)으로 전송하면, S24단계에서 통신망(10)은 사용자 단말기(20)와 상대방 단말기(40) 간에 영상통화를 위한 영상 호 경로를 설정한다. 즉, 호 제어기(14)는 상대방 단말기(40)를 페이징하여 착신을 요청하고, 상대방 단말기(40)가 착신 요청에 대하여 호를 수락하면, 호 제어기(14)는 사용자 단말기(20)와 상대방 단말기(40) 간에 영상 호 경로를 설정한다.Next, when the counterpart terminal 40 transmits the acceptance of the video call to the communication network 10 in step S23, the communication network 10 transmits an image for a video call between the user terminal 20 and the counterpart terminal 40 in step S24. Set the call path. That is, the call controller 14 requests the incoming call by paging the counterpart terminal 40, and when the counterpart terminal 40 accepts the call for the incoming request, the call controller 14 calls the user terminal 20 and the counterpart terminal. A video call path is set between 40.

이와 같이 사용자 단말기(20)와 상대방 단말기(40) 간에 영상 호 경로가 설정된 후, 설정된 영상 호 경로를 통해 사용자 단말기(20)와 상대방 단말기(40)는 영상통화를 수행하게 된다.As such, after the video call path is set between the user terminal 20 and the counterpart terminal 40, the user terminal 20 and the counterpart terminal 40 perform a video call through the set video call path.

다음으로 S25단계에서 영상통화 중 사용자 단말기(20)로부터 햅틱컨텐츠 서 비스 요청 신호가 발생하는 지의 여부를 판단한다.Next, in step S25, it is determined whether a haptic content service request signal is generated from the user terminal 20 during the video call.

S25단계의 판단 결과, 햅틱컨텐츠 서비스 요청 신호가 발생되지 않는 경우에는 S24단계의 사용자 단말기(20)와 상대방 단말기(40) 간의 영상통화를 계속적으로 수행한다.If the haptic content service request signal is not generated as a result of the determination in step S25, the video call between the user terminal 20 and the counterpart terminal 40 is continuously performed in step S24.

S25단계의 판단 결과, 사용자 단말기(20)로부터 햅틱컨텐츠 서비스 요청 신호가 발생된 경우에는 S26단계에서 햅틱컨텐츠 서비스 요청 신호를 통신망(10)으로 전송한다. 이어서 S27단계에서 통신망(10)은 햅틱컨텐츠 서비스 요청 신호를 햅틱컨텐츠 전달 서버(30)로 전달한다.As a result of the determination in step S25, when the haptic content service request signal is generated from the user terminal 20, the haptic content service request signal is transmitted to the communication network 10 in step S26. Subsequently, in step S27, the communication network 10 transmits a haptic content service request signal to the haptic content delivery server 30.

다음으로 S28단계 및 S29단계에서 햅틱컨텐츠 전달 서버(30)는 통신망(10)에 의해 상기 사용자 단말기 및 상대방 단말기와 각각 세션을 설정한다.Next, in steps S28 and S29, the haptic content delivery server 30 establishes a session with the user terminal and the counterpart terminal by the communication network 10, respectively.

다음으로 S30단계에서 사용자 단말기(20)에서 사용자에 의한 문양 입력이 있는 지를 판단한다.Next, in step S30, it is determined whether there is a pattern input by the user in the user terminal 20.

S30단계의 판단 결과, 문양이 입력되지 않는 경우에는 입력 대기 상태를 계속 유지하고, 입력 대기 설정시간이 경과한 경우에는 S24단계의 사용자 단말기(20)와 상대방 단말기(40) 간의 영상통화를 계속적으로 수행한다.As a result of the determination in step S30, if the pattern is not input, the input standby state is continuously maintained, and when the input waiting setting time has elapsed, the video call between the user terminal 20 and the counterpart terminal 40 in step S24 is continuously performed. To perform.

S30단계의 판단 결과, 문양이 입력되는 경우에는 S31단계에서 사용자 단말기(20)은 입력된 문양에 대응하는 문양 데이터를 출력한다.As a result of the determination in step S30, when a pattern is input, in step S31, the user terminal 20 outputs pattern data corresponding to the input pattern.

다음으로 S32단계에서 사용자 단말기(20)는 문양 데이터를 영상에 포함시켜 햅틱컨텐츠 전달 서버(30)로 전송한다.Next, in step S32, the user terminal 20 includes the pattern data in the image and transmits it to the haptic content delivery server 30.

다음으로 S33단계에서 햅틱컨텐츠 전달 서버(30)는 문양 데이터에 대응하는 햅틱컨텐츠를 데이터베이스부(33)로부터 추출한다.Next, in step S33, the haptic content delivery server 30 extracts the haptic content corresponding to the pattern data from the database unit 33.

예를 들어, 사용자가 사용자 단말기(20)를 통해 하트(Heart) 문양을 입력하였을 경우에, 하트 문양에 대응하는 하트 문양의 표시, 입술 모양의 표시, ‘사랑해’라는 음향 출력, 사용자에 의해 선택된 온도의 출력, 특정 향기의 출력 등 다양한 햅틱컨텐츠 실행모드를 사용자 단말기(20)로 전달하고, 이에 사용자 단말기(20) 사용자가 특정 햅틱컨텐츠 실행모드를 선택하면 상대방 단말기(20)을 제어하기 위한 햅틱컨텐츠를 데이터베이스부(33)로부터 추출한다.For example, when the user inputs a heart pattern through the user terminal 20, a heart pattern corresponding to the heart pattern, a lip shape, a sound output of 'I love you', selected by the user It transmits various haptic content execution modes such as temperature output, specific scent output, etc. to the user terminal 20, and when the user of the user terminal 20 selects a specific haptic content execution mode, the haptic for controlling the counterpart terminal 20 The content is extracted from the database unit 33.

다음으로 S34단계에서 햅틱컨텐츠 전달 서버(30)는 추출한 햅틱컨텐츠를 영상에 포함시켜 상대방 단말기(40)로 전달한다.Next, in step S34, the haptic content delivery server 30 includes the extracted haptic content in an image and transmits the haptic content to the counterpart terminal 40.

그리고, S35단계에서 상대방 단말기(40)는 수신한 햅틱컨텐츠에 대응한 출력이 이루어지게 된다. 즉, 상대방 단말기(40)는 문양에 대응하는 진동, 온도, 향기 등을 실행시킨다. 상기한 예에서와 같이, 전송된 햅틱컨텐츠가 진동 햅틱컨텐츠일 경우에는 상대방 단말기(40)는 진동을 발생시키게 된다.In operation S35, the counterpart terminal 40 outputs the corresponding haptic content. That is, the counterpart terminal 40 causes vibration, temperature, fragrance, etc., corresponding to the pattern. As in the above example, when the transmitted haptic content is vibration haptic content, the counterpart terminal 40 generates vibration.

한편, 본 실시예에서는 햅틱컨텐츠 전달 서버(30)가 상대방 단말기(40)로 햅틱컨텐츠를 전송하는 예를 설명하였으나, 햅틱컨텐츠 전달 서버(30)가 사용자 단말기(20)로도 햅틱컨텐츠를 포함한 영상을 전송할 수 있다. 이에 사용자 단말기(20)에서도 문양에 대응하는 진동, 온도, 향기 등을 실행시킬 수 있다.Meanwhile, in the present embodiment, an example in which the haptic content delivery server 30 transmits the haptic content to the counterpart terminal 40 has been described. However, the haptic content delivery server 30 also provides an image including the haptic content to the user terminal 20. Can transmit Accordingly, even in the user terminal 20, vibration, temperature, aroma, etc. corresponding to the pattern can be executed.

한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples to aid understanding, and are not intended to limit the scope of the present invention. In addition to the embodiments disclosed herein, it is apparent to those skilled in the art that other modifications based on the technical idea of the present invention may be implemented.

본 발명은 영상통화 중 햅틱컨텐츠 전달 시스템, 서버, 단말기 및 방법에 관한 것으로, 영상통화 중 사용자가 문양을 입력하면 사용자 단말기 또는 햅틱컨텐츠 전달 서버가 입력된 문양에 대응되는 햅틱컨텐츠를 추출하여 상대방 단말기로 전송하고, 상대방 단말기에서 해당 햅틱컨텐츠에 대응하는 출력이 이루어지도록 함으로써, 사용자의 더욱 세밀한 감정상태를 전달하고자 하는 영상통화 단말기에 적용할 수 있다.The present invention relates to a haptic content delivery system, a server, a terminal, and a method during a video call. When a user inputs a pattern during a video call, the user terminal or the haptic content delivery server extracts haptic content corresponding to the input pattern, and the counterpart terminal. By transmitting to the other terminal to the output corresponding to the haptic content can be applied to the video call terminal to deliver a more detailed emotional state of the user.

도 1은 본 발명의 제1 실시예에 의한 영상통화 중 햅틱컨텐츠 전달 시스템을 나타낸 블록도이다.1 is a block diagram showing a haptic content delivery system during a video call according to a first embodiment of the present invention.

도 2는 본 발명의 일실시예에 의한 영상통화 중 햅틱컨텐츠 전달 단말기를 나타낸 블록도이다.2 is a block diagram showing a haptic content delivery terminal during a video call according to an embodiment of the present invention.

도 3은 본 발명의 제2 실시예에 의한 영상통화 중 햅틱컨텐츠 전달 시스템을 나타낸 블록도이다.3 is a block diagram illustrating a haptic content delivery system during a video call according to a second embodiment of the present invention.

도 4는 본 발명의 제1 실시예에 의한 영상통화 중 햅틱컨텐츠 전달 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a haptic content delivery method during a video call according to the first embodiment of the present invention.

도 5는 본 발명의 제2 실시예에 의한 영상통화 중 햅틱컨텐츠 전달 방법을 나타낸 흐름도이다.5 is a flowchart illustrating a haptic content delivery method during a video call according to a second embodiment of the present invention.

<도면의 주요부분에 대한 설명><Description of main parts of drawing>

10 : 통신망10: communication network

20 : 사용자 단말기20: user terminal

30 : 햅틱컨텐츠 전달 서버30: Haptic content delivery server

40 : 상대방 단말기40: counterpart terminal

100, 200 : 햅틱컨텐츠 전달 시스템100, 200: Haptic Content Delivery System

Claims (13)

상대방 단말기로 영상을 전송하는 영상통화 중 사용자에 의한 문양의 입력을 지원하며, 상기 사용자의 감정상태와 관련된 햅틱컨텐츠를 상기 상대방 단말기로 전송하기 위해 상기 문양의 입력에 따라 발생된 문양 데이터를 상기 영상에 포함시켜 통신망으로 전송하는 사용자 단말기;Supports input of a pattern by a user during a video call to transmit the image to the counterpart terminal, and transmits the pattern data generated according to the input of the pattern to transmit haptic content related to the emotional state of the user to the counterpart terminal. A user terminal included in and transmitted to a communication network; 상기 통신망을 통해 수신한 상기 문양 데이터에 대응하는 상기 햅틱컨텐츠를 추출하고, 추출한 상기 햅틱컨텐츠를 상기 영상에 포함시켜 상기 상대방 단말기로 전송하는 햅틱컨텐츠 전달 서버; 및A haptic content delivery server extracting the haptic content corresponding to the pattern data received through the communication network and including the extracted haptic content in the image and transmitting the extracted haptic content to the counterpart terminal; And 상기 햅틱컨텐츠 전달 서버로부터 수신한 상기 영상과 햅틱컨텐츠를 출력하는 상기 상대방 단말기The counterpart terminal outputting the image and the haptic content received from the haptic content delivery server. 를 포함하는 것을 특징으로 영상통화 중 햅틱컨텐츠 전달 시스템.Haptic content delivery system during a video call comprising a. 통신망을 매개로 단말기 간에 영상을 전송하는 영상통화 중, 단말기로부터 사용자의 감정상태와 관련된 햅틱컨텐츠와 매칭되는 문양의 입력에 따라 발생된 문양 데이터를 포함한 영상을 수신하는 송수신부;A transmission / reception unit receiving an image including glyph data generated according to an input of a pattern matching a haptic content related to an emotional state of a user from a terminal during a video call transmitting an image between terminals through a communication network; 상기 사용자에 의해 미리 지정된 문양에 매칭되는 상기 햅틱컨텐츠를 저장하고 있는 데이터베이스부; 및A database unit for storing the haptic content that matches a pattern predetermined by the user; And 상기 송수신부로부터 수신한 상기 문양 데이터에 대응하여 상기 데이터베이스부에서 상기 햅틱컨텐츠를 추출하고, 추출한 상기 햅틱컨텐츠를 상기 영상에 포 함시켜 상기 문양 데이터를 전송한 단말기의 상대방 단말기로 전송하는 제어부The controller extracts the haptic content from the database in response to the pattern data received from the transceiver, and includes the extracted haptic content in the image and transmits the haptic content to the counterpart terminal of the terminal that transmitted the pattern data. 를 포함하는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 서버.Haptic content delivery server during a video call comprising a. 제2항에 있어서, 상기 햅틱컨텐츠는 시각 햅틱컨텐츠, 촉각 햅틱컨텐츠, 청각 햅틱컨텐츠 또는 후각 햅틱컨텐츠를 포함하며, 상기 시각 햅틱컨텐츠, 촉각 햅틱컨텐츠, 청각 햅틱컨텐츠 또는 후각 햅틱컨텐츠 각각이 실행상태를 달리하는 서로 다른 햅틱컨텐츠 실행모드를 포함하는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 서버.The haptic content of claim 2, wherein the haptic content includes visual haptic content, haptic haptic content, auditory haptic content or olfactory haptic content, and each of the visual haptic content, haptic haptic content, auditory haptic content, or olfactory haptic content is executed. Haptic content delivery server during a video call, comprising a different haptic content execution mode different. 제2항에 있어서, 상기 데이터베이스부는 상기 문양 데이터에 대응하는 상기 햅틱컨텐츠를 추출하는 햅틱컨텐츠 추출 프로그램을 저장하고 있는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 서버.The haptic content delivery server of claim 2, wherein the database unit stores a haptic content extraction program for extracting the haptic content corresponding to the pattern data. 통신망을 매개로 상대방 단말기와 영상통화를 수행하는 통신부;A communication unit for performing a video call with a counterpart terminal through a communication network; 상기 영상통화 중 촬영하여 영상을 획득하는 카메라부;A camera unit for capturing an image during the video call; 문양에 대한 사용자 입력을 지원하는 입력부;An input unit supporting a user input on a pattern; 상기 사용자의 감정상태와 관련된 햅틱컨텐츠를 저장하고 있는 저장부; 및A storage unit which stores haptic content related to the emotional state of the user; And 상기 문양의 입력에 따라 발생된 문양 데이터에 대응하는 상기 햅틱컨텐츠를 추출하고, 추출된 상기 햅틱컨텐츠를 상기 영상에 포함시켜 상기 상대방 단말기로 전송하는 단말 제어부The terminal control unit extracts the haptic content corresponding to the pattern data generated according to the input of the pattern, and includes the extracted haptic content in the image and transmits it to the counterpart terminal. 를 포함하는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 단말기.Haptic content delivery terminal during a video call comprising a. 제5항에 있어서, 상기 저장부는 시각 햅틱컨텐츠, 촉각 햅틱컨텐츠, 청각 햅틱컨텐츠 또는 후각 햅틱컨텐츠를 포함하며, 상기 시각 햅틱컨텐츠, 촉각 햅틱컨텐츠, 청각 햅틱컨텐츠 또는 후각 햅틱컨텐츠 각각이 실행상태를 달리하는 서로 다른 햅틱컨텐츠 실행모드를 포함하는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 단말기.The apparatus of claim 5, wherein the storage unit comprises visual haptic content, haptic haptic content, auditory haptic content, or olfactory haptic content, and each of the visual haptic content, haptic haptic content, auditory haptic content, or olfactory haptic content is different from the execution state. Haptic content delivery terminal during a video call comprising a different haptic content execution mode. 제5항에 있어서, 상기 문양은 문자, 숫자, 기호 및 모양 중에 적어도 하나를 포함하는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 단말기.The haptic content transmission terminal of claim 5, wherein the pattern comprises at least one of a letter, a number, a symbol, and a shape. 제5항에 있어서, 상기 통신부를 통해 상기 상대방 단말기 또는 햅틱컨텐츠 전달 서버로부터 햅틱컨텐츠를 포함하는 영상을 수신하여 상기 햅틱컨텐츠를 출력하는 진동 발생기, 온도 발생기 및 향기 발생기 중에 적어도 하나를 포함하는 햅틱 출력부를 더 포함하는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 단말기.The haptic output of claim 5, wherein the haptic output comprises at least one of a vibration generator, a temperature generator, and a scent generator that receive the image including the haptic content from the counterpart terminal or the haptic content delivery server through the communication unit, and output the haptic content. Haptic content delivery terminal during a video call, characterized in that it further comprises a wealth. 통신망을 매개로 단말기 간에 영상을 전송하는 영상통화 중, 햅틱컨텐츠 전달 서버가 상기 단말기로부터 사용자의 감정상태와 관련된 햅틱컨텐츠와 매칭되는 문양의 입력에 따라 발생된 문양 데이터를 수신하는 단계;Receiving glyph data generated by the haptic content delivery server according to the input of the pattern matching the haptic content related to the emotional state of the user from the terminal during the video call to transmit the image between the terminals via a communication network; 상기 햅틱컨텐츠 전달 서버가 상기 문양 데이터에 대응하는 상기 햅틱컨텐츠 를 추출하는 단계; 및Extracting, by the haptic content delivery server, the haptic content corresponding to the glyph data; And 상기 햅틱컨텐츠 전달 서버가 추출한 상기 햅틱컨텐츠를 상기 영상에 포함시켜 상기 문양 데이터를 전송한 단말기의 상대방 단말기로 전송하는 단계Including the haptic content extracted by the haptic content delivery server in the image and transmitting the haptic content to the counterpart terminal of the terminal that transmitted the pattern data. 를 포함하는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 방법.Haptic content delivery method of a video call comprising a. 제9항에 있어서, 상기 영상통화 이전에, 상기 단말기에 의해 상기 문양에 매칭되는 상기 햅틱컨텐츠가 지정되는 것에 대응하여 상기 햅틱컨텐츠 전달 서버가 상기 문양과 햅틱컨텐츠를 매칭하여 저장하는 단계를 더 포함하는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 방법.10. The method of claim 9, further comprising: matching and storing the haptic content and the haptic content by the terminal in response to the haptic content matching the pattern being designated by the terminal before the video call. Haptic content delivery method of a video call. 제9항에 있어서, 상기 문양 데이터를 수신하는 단계 이전에, 상기 단말기로부터 전달된 햅틱컨텐츠 서비스 요청 신호에 대응하여 상기 햅틱컨텐츠 전달 서버가 상기 문양 데이터를 전송한 단말기와 상대방 단말기 각각 세션을 설정하는 단계를 더 포함하는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 방법.10. The method of claim 9, Before the step of receiving the glyph data, in response to the haptic content service request signal transmitted from the terminal, the haptic content delivery server establishes a session for each of the terminal and the counterpart terminal transmitting the glyph data Haptic content delivery method during a video call, characterized in that it further comprises a step. 통신망을 매개로 단말기 간의 영상통화 중, 상기 단말기가 사용자의 감정상태와 관련된 햅틱컨텐츠와 매칭되는 문양의 입력에 따라 문양 데이터를 출력하는 단계;During a video call between terminals via a communication network, outputting, by the terminal, pattern data according to input of a pattern matching the haptic content related to the emotional state of the user; 상기 단말기가 출력한 상기 문양 데이터에 대응하는 상기 햅틱컨텐츠를 추출하는 단계; 및Extracting the haptic content corresponding to the pattern data output from the terminal; And 상기 단말기가 추출한 상기 햅틱컨텐츠를 영상에 포함시켜 상대방 단말기로 전송하는 단계Including the haptic content extracted by the terminal in the image and transmitting to the other terminal 를 포함하는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 방법.Haptic content delivery method of a video call comprising a. 제12항에 있어서, 상기 단말기가 상기 상대방 단말기 또는 햅틱컨텐츠 전달 서버로부터 햅틱컨텐츠를 포함하는 영상을 수신하여 상기 영상과 햅틱컨텐츠를 출력하는 단계를 더 포함하는 것을 특징으로 하는 영상통화 중 햅틱컨텐츠 전달 방법.The method of claim 12, wherein the terminal further receives the image including the haptic content from the counterpart terminal or the haptic content delivery server and outputs the haptic content during the video call, characterized in that for outputting the haptic content Way.
KR1020090098077A 2009-10-15 2009-10-15 System, server, terminal and method for delivering haptic contents during video call KR20110041065A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090098077A KR20110041065A (en) 2009-10-15 2009-10-15 System, server, terminal and method for delivering haptic contents during video call

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090098077A KR20110041065A (en) 2009-10-15 2009-10-15 System, server, terminal and method for delivering haptic contents during video call

Publications (1)

Publication Number Publication Date
KR20110041065A true KR20110041065A (en) 2011-04-21

Family

ID=44047097

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090098077A KR20110041065A (en) 2009-10-15 2009-10-15 System, server, terminal and method for delivering haptic contents during video call

Country Status (1)

Country Link
KR (1) KR20110041065A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013089294A1 (en) * 2011-12-15 2013-06-20 엘지전자 주식회사 Haptic transmission method and mobile terminal for same
KR20140059556A (en) * 2012-11-08 2014-05-16 삼성전자주식회사 Terminal apparatus and controlling method thereof
KR101464431B1 (en) * 2013-04-03 2014-11-21 주식회사 엘지유플러스 Methods and device deliver emotional expression
KR20150145292A (en) * 2014-06-18 2015-12-30 한양대학교 산학협력단 Method and Apparatus for Transmitting and Extracting of Emotion Information based on camera effects
WO2016043570A1 (en) * 2014-09-19 2016-03-24 삼성전자 주식회사 Terminal device, method for driving terminal device, and computer readable recording medium
CN112416129A (en) * 2016-04-21 2021-02-26 Ck高新材料有限公司 Tactile information providing method and tactile information providing device
CN113938850A (en) * 2021-10-19 2022-01-14 维沃移动通信有限公司 Data service implementation method and device
US12032821B2 (en) 2016-04-21 2024-07-09 Ck Materials Lab Co., Ltd. Method and apparatus for providing tactile message

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013089294A1 (en) * 2011-12-15 2013-06-20 엘지전자 주식회사 Haptic transmission method and mobile terminal for same
US9678570B2 (en) 2011-12-15 2017-06-13 Lg Electronics Inc. Haptic transmission method and mobile terminal for same
KR20140059556A (en) * 2012-11-08 2014-05-16 삼성전자주식회사 Terminal apparatus and controlling method thereof
KR101464431B1 (en) * 2013-04-03 2014-11-21 주식회사 엘지유플러스 Methods and device deliver emotional expression
KR20150145292A (en) * 2014-06-18 2015-12-30 한양대학교 산학협력단 Method and Apparatus for Transmitting and Extracting of Emotion Information based on camera effects
WO2016043570A1 (en) * 2014-09-19 2016-03-24 삼성전자 주식회사 Terminal device, method for driving terminal device, and computer readable recording medium
CN112416129A (en) * 2016-04-21 2021-02-26 Ck高新材料有限公司 Tactile information providing method and tactile information providing device
US12032821B2 (en) 2016-04-21 2024-07-09 Ck Materials Lab Co., Ltd. Method and apparatus for providing tactile message
CN113938850A (en) * 2021-10-19 2022-01-14 维沃移动通信有限公司 Data service implementation method and device

Similar Documents

Publication Publication Date Title
KR20110041065A (en) System, server, terminal and method for delivering haptic contents during video call
KR100735328B1 (en) Method for updating user data in ptt system and system therefor
CN109274510B (en) Message processing method, device, client, server and storage medium
KR20130085509A (en) Apparatus and method for athentication for using application
US7565133B2 (en) Communication terminal and program using a packet switched communication line and a circuit switched communication line
KR100627831B1 (en) Method and Apparatus for Providing Presence Service by Using Address Book of Mobile Communication Terminal
KR101205189B1 (en) System and method for delivering feeling during video call
KR20110020131A (en) System and method for delivering feeling during video call
KR20110023524A (en) System and method for emotion transmitting during video communication
KR100819704B1 (en) Mobile messenger service system and its method for displaying presence information of messenger counterpart in mobile address book
KR101414465B1 (en) A communication terminal apparatus and schedule management method using by it
CN110690979B (en) Group message processing method, device, server, client and storage medium
KR101420379B1 (en) Method and apparatus for sharing content
KR100862741B1 (en) Method and device for providing multimedia data to receiving terminal
KR102326625B1 (en) Service providing system, terminal and processing method of service providing system
CN112910892B (en) Method and terminal for playing call holding audio and video signals
KR20110062644A (en) System and method for providing haptic ring service, server and terminal thereof
KR101420636B1 (en) System and Method for delivering Haptic Contents during Video Call, Server and Terminal thereof
KR20070088083A (en) Method for receiving the multimedia message in wireless terminal
JP2006340204A (en) Video phone communication terminal
KR100647006B1 (en) Background picture transmitting method and apparatus in a mobile communication terminal capable of a vedio phone
KR20110026137A (en) System and method for emotion transmitting during video communication
KR101189052B1 (en) System and method for delivering feeling during video call
KR102380557B1 (en) Apparatus and method for interfacing artificial intelligence service
CN113099306B (en) Message processing method, device, equipment, server, medium and product

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application