KR20090054609A - Voip telephone communication system and method for providing users with telephone communication service comprising emotional contents effect - Google Patents
Voip telephone communication system and method for providing users with telephone communication service comprising emotional contents effect Download PDFInfo
- Publication number
- KR20090054609A KR20090054609A KR1020070121365A KR20070121365A KR20090054609A KR 20090054609 A KR20090054609 A KR 20090054609A KR 1020070121365 A KR1020070121365 A KR 1020070121365A KR 20070121365 A KR20070121365 A KR 20070121365A KR 20090054609 A KR20090054609 A KR 20090054609A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- emote
- voip
- message
- icon
- Prior art date
Links
- 230000006854 communication Effects 0.000 title claims abstract description 83
- 238000004891 communication Methods 0.000 title claims abstract description 82
- 230000002996 emotional effect Effects 0.000 title claims abstract description 72
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000000694 effects Effects 0.000 title abstract description 4
- 230000005540 biological transmission Effects 0.000 claims abstract description 27
- 230000008451 emotion Effects 0.000 claims abstract description 12
- 230000004044 response Effects 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 25
- 239000000284 extract Substances 0.000 claims description 4
- 230000000977 initiatory effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 6
- 238000012790 confirmation Methods 0.000 description 5
- 102100021899 Cyclin-L2 Human genes 0.000 description 3
- 101000897452 Homo sapiens Cyclin-L2 Proteins 0.000 description 3
- 102100036274 Cyclin-L1 Human genes 0.000 description 2
- 101000716088 Homo sapiens Cyclin-L1 Proteins 0.000 description 2
- 101000583807 Homo sapiens DNA replication licensing factor MCM2 Proteins 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 241000736305 Marsilea quadrifolia Species 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/50—Business processes related to the communications industry
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/66—Arrangements for connecting between networks having differing types of switching systems, e.g. gateways
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M15/00—Arrangements for metering, time-control or time indication ; Metering, charging or billing arrangements for voice wireline or wireless communications, e.g. VoIP
- H04M15/56—Arrangements for metering, time-control or time indication ; Metering, charging or billing arrangements for voice wireline or wireless communications, e.g. VoIP for VoIP communications
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
본 발명은 전화 통신 시스템 및 방법에 관한 것으로서, 더욱 상세하게는, VoIP(voice over internet protocol) 전화 통신 시스템 및 방법에 관한 것이다.TECHNICAL FIELD The present invention relates to telephony communication systems and methods, and more particularly, to a voice over internet protocol (VoIP) telephony communication system and method.
일반적으로, VoIP 전화 통신 시스템은 각 사용자에게 IP(internet protocol) 망을 통하여 음성 및 영상 통화 서비스를 제공한다. 통화 상대방과의 음성 및 영상 통화를 위해, 각 사용자는 VoIP 폰을 이용하여, VoIP 서버에 의해 제공되는 IP 망을 통하여, 통화 상대방의 VoIP 폰에 통신 접속한다. 하지만 종래의 VoIP 전화 통신 시스템은 단순히 사용자들 간의 음성 및 영상 통화 서비스만을 제공하므로, 사용자들의 다양한 욕구를 충족시키는 데에 한계가 있다.In general, the VoIP telephony system provides voice and video call service to each user through an IP (internet protocol) network. For voice and video call with the call counterpart, each user communicates with the call counterpart's VoIP phone via the IP network provided by the VoIP server using the VoIP phone. However, the conventional VoIP telephony system merely provides a voice and video call service between users, and thus has limitations in satisfying various needs of users.
따라서, 본 발명이 이루고자 하는 기술적 과제는, 사용자의 음성을 인식하거나, 또는 사용자가 선택한 이모트 아이콘을 인식한 결과로서 발신 측 VoIP 폰이 생성한 이모트 메시지 데이터를, VoIP 서버가 수신하여 이모트 메시지 데이터에 대응하는 이모트 콘텐츠 데이터를, 착신 측 VoIP 폰에 제공함으로써, 착신 측 VoIP 폰에 상기 사용자의 음성 및 영상과 함께, 감정적 영상, 감정적 텍스트, 및 감정적 음향 중 적어도 하나가 출력되도록 하여, 사용자가 음성 및 영상 통화 시 자신의 감정을 좀 더 풍부하게 표현할 수 있도록 한 VoIP 전화 통신 시스템을 제공하는 데 있다.Therefore, the technical problem to be achieved by the present invention is that the VoIP server receives emote message data generated by the calling party's VoIP phone as a result of recognizing a user's voice or an emoticon icon selected by the user. By providing emote content data corresponding to the message data to the called VoIP phone, at least one of an emotional video, an emotional text, and an emotional sound is output to the called VoIP phone together with the voice and video of the user. It is to provide a VoIP telephony system that allows users to express their emotions more abundantly in voice and video calls.
본 발명이 이루고자 하는 다른 기술적 과제는, 사용자의 음성을 인식하거나, 또는 사용자가 선택한 이모트 아이콘을 인식한 결과로서 발신 측 VoIP 폰이 생성한 이모트 메시지 데이터를, VoIP 서버가 수신하여 이모트 메시지 데이터에 대응하는 이모트 콘텐츠 데이터를, 착신 측 VoIP 폰에 제공함으로써, 착신 측 VoIP 폰에 상기 사용자의 음성 및 영상과 함께, 감정적 영상, 감정적 텍스트, 및 감정적 음향 중 적어도 하나가 출력되도록 하여, 사용자가 음성 및 영상 통화 시 자신의 감정을 좀 더 풍부하게 표현할 수 있도록 한 VoIP 전화 통신 방법을 제공하는 데 있다.Another technical problem to be solved by the present invention is that the VoIP server receives the emote message data generated by the calling VoIP phone as a result of recognizing the user's voice or the emote icon selected by the user. By providing emote content data corresponding to the data to the called VoIP phone, at least one of an emotional video, an emotional text, and an emotional sound is output to the called VoIP phone, together with the voice and video of the user. Is to provide a VoIP telephony method that enables users to express their feelings more abundantly in voice and video calls.
상기한 기술적 과제를 달성하기 위한 본 발명에 따른 VoIP 전화 통신 시스템은, 복수의 VoIP 폰, VoIP 서버, 및 콘텐츠 DB를 포함한다. 복수의 VoIP 폰은 설정 된 어휘 데이터들 중 적어도 하나, 또는 아이콘 그래픽 데이터들 중 적어도 하나를 포함하는 이모트 메시지 데이터들의 생성 기능과, 음성 및 영상 통화 기능을 가진다. VoIP 서버는 인터넷 통신망을 통해 상기 복수의 VoIP 폰 간의 통신을 제공하고, 상기 복수의 VoIP 폰 간의 데이터 패킷의 전송을 중계한다. 콘텐츠 DB는 상기 이모트 메시지 데이터들에 각각 대응하고, 감정적 영상, 감정적 텍스트, 및 감정적 음향 중 적어도 하나를 나타내는 이모트 콘텐츠 데이터들을 저장하고, 상기 VoIP 서버의 요청에 따라 상기 이모트 콘텐츠 데이터들을 상기 VoIP 서버에 제공한다. 상기 데이터 패킷은, 상기 사용자의 음성에 대응하는 인코딩 오디오 데이터, 및 상기 사용자의 모습을 촬영한 영상에 대응하는 인코딩 비디오 데이터를 포함하거나, 또는 상기 이모트 메시지 데이터들 중 적어도 하나, 상기 인코딩 오디오 데이터, 및 상기 인코딩 비디오 데이터를 포함한다. 상기 복수의 VoIP 폰 각각은, 사용자에게 통화 상대방과의 음성 및 영상 통화 기능을 제공하는 동안, 상기 사용자의 음성을 인식하고, 상기 사용자의 음성이 상기 설정된 어휘 데이터들 중 적어도 하나에 대응하는 내용을 포함하거나, 또는 상기 아이콘 그래픽 데이터들에 기초하여 상기 복수의 VoIP 폰 각각에 의해 표시되는 이모트 아이콘들 중 하나를 상기 사용자가 선택할 때마다, 상기 이모트 메시지 데이터들 중 적어도 하나를 생성한다. 상기 VoIP 서버는, 상기 복수의 VoIP 폰 중 발신 측 VoIP 폰으로부터의 데이터 패킷이 적어도 하나의 이모트 메시지 데이터를 포함할 때마다, 상기 적어도 하나의 이모트 메시지 데이터에 대응하는, 적어도 하나의 이모트 콘텐츠 데이터를 상기 콘텐츠 DB로부터 판독하고, 상기 적어도 하나의 이모트 콘텐츠 데이터, 상기 인코딩 오디오 데이터, 및 상기 인코딩 비디오 데이터를 포함하는 변경 데이터 패킷을 생성하여, 상기 복수의 VoIP 폰 중 착신 측 VoIP 폰에 전송한다.The VoIP telephony communication system according to the present invention for achieving the above technical problem includes a plurality of VoIP phones, VoIP servers, and content DB. The plurality of VoIP phones have a function of generating emote message data including at least one of set lexical data or at least one of icon graphic data, and a voice and video call function. The VoIP server provides communication between the plurality of VoIP phones via an internet communication network, and relays transmission of data packets between the plurality of VoIP phones. The content DB corresponds to the emote message data, respectively, and stores emote content data representing at least one of an emotional image, an emotional text, and an emotional sound, and stores the emote content data at the request of the VoIP server. Provided to the VoIP server. The data packet includes encoded audio data corresponding to the voice of the user and encoded video data corresponding to an image of the user, or at least one of the emote message data, and the encoded audio data. And the encoded video data. Each of the plurality of VoIP phones recognizes a voice of the user while providing a voice and video call function with a call counterpart to the user, and the voice of the user corresponds to at least one of the set lexical data. Each time the user selects one of the emote icons displayed by each of the plurality of VoIP phones based on the icon graphic data or includes the at least one of the emote message data. The VoIP server corresponds to the at least one emote message data whenever a data packet from an originating VoIP phone among the plurality of VoIP phones includes at least one emote message data. Reads the content data from the content DB, generates a modified data packet including the at least one emote content data, the encoded audio data, and the encoded video data, and transmits the changed data packet to the called party VoIP phone of the plurality of VoIP phones. send.
상기한 다른 기술적 과제를 달성하기 위한 본 발명에 따른 VoIP 전화 통신 방법은, VoIP 서버에 의해, 적어도 두 개의 VoIP 폰 간의 호를 연결하는 단계; 상기 적어도 두 개의 VoIP 폰 중 발신 측 VoIP 폰에 의해, 이모트 메시지 데이터, 인코딩 오디오 데이터, 및 인코딩 비디오 데이터를 포함하거나, 또는 인코딩 오디오 데이터 및 인코딩 비디오 데이터를 포함하는 데이터 패킷을 생성하는 단계; 상기 발신 측 VoIP 폰으로부터 수신되는 상기 데이터 패킷이 상기 이모트 메시지 데이터를 포함할 때, 상기 VoIP 서버에 의해, 상기 이모트 메시지 데이터에 대응하는 이모트 콘텐츠 데이터, 인코딩 오디오 데이터, 및 인코딩 비디오 데이터를 포함하는 변경 데이터 패킷을 생성하는 단계; 상기 VoIP 서버에 의해, 상기 변경 데이터 패킷을 상기 적어도 두 개의 VoIP 폰 중 착신 측 VoIP 폰에 전송하는 단계; 상기 발신 측 VoIP 폰으로부터 수신되는 상기 데이터 패킷이 상기 이모트 메시지 데이터를 포함하지 않을 때, 상기 VoIP 서버에 의해, 상기 데이터 패킷을 그대로 상기 착신 측 VoIP 폰에 전송하는 단계; 및 상기 적어도 두 개의 VoIP 폰 간의 호 연결이 해제될 때까지, 상기 데이터 패킷의 생성 단계 내지 상기 착신 측 VoIP 폰에 상기 변경 데이터 패킷 또는 상기 데이터 패킷을 전송하는 단계를 반복하는 단계를 포함한다. 상기 이모트 메시지 데이터는, 사용자의 감정이나 느낌을 함축하는 이모트 아이콘들을 각각 나타내는 아이콘 그래픽 데이터들 중 적어도 하나, 또는 설정된 어휘 데이터들 중 적어도 하나를 포함하고, 상기 이모트 콘텐츠 데이터는 상기 사용 자의 감정이나 느낌을 표현하는 감정적 영상, 감정적 텍스트, 및 감정적 음향 중 적어도 하나를 나타낸다.According to another aspect of the present invention, there is provided a VoIP telephony communication method comprising: connecting a call between at least two VoIP phones by a VoIP server; Generating, by an originating VoIP phone of the at least two VoIP phones, a data packet comprising emote message data, encoded audio data, and encoded video data, or comprising encoded audio data and encoded video data; When the data packet received from the originating VoIP phone includes the emote message data, the VoIP server extracts emote content data, encoded audio data, and encoded video data corresponding to the emote message data. Generating a change data packet comprising; Sending, by the VoIP server, the change data packet to a called VoIP phone of the at least two VoIP phones; When the data packet received from the originating VoIP phone does not include the emote message data, transmitting, by the VoIP server, the data packet as it is to the called party VoIP phone; And repeating the generating of the data packet or transmitting the change data packet or the data packet to the called party's VoIP phone until the call connection between the at least two VoIP phones is released. The emote message data may include at least one of icon graphic data representing emote icons, each of which represents an emotion or a feeling of a user, or at least one of set vocabulary data, wherein the emote content data may be used by the user. At least one of an emotional image, an emotional text, and an emotional sound representing an emotion or feeling.
상술한 것과 같이, 본 발명에 따른 VoIP 전화 통신 시스템 및 방법은, 사용자의 음성을 인식하거나, 또는 사용자가 선택한 이모트 아이콘을 인식한 결과로서 발신 측 VoIP 폰이 생성한 이모트 메시지 데이터를, VoIP 서버가 수신하여 이모트 메시지 데이터에 대응하는 이모트 콘텐츠 데이터를, 착신 측 VoIP 폰에 제공하므로, 착신 측 VoIP 폰이 상기 사용자의 음성 및 영상과 함께, 감정적 영상, 감정적 텍스트, 및 감정적 음향 중 적어도 하나를 출력할 수 있다. 그 결과, 사용자가 음성 및 영상 통화 시 자신의 감정을 좀 더 풍부하게 표현할 수 있다.As described above, the VoIP telephony communication system and method according to the present invention provide VoIP data of emote messages generated by the calling party's VoIP phone as a result of recognizing a user's voice or an emoticon icon selected by the user. Since the server receives and provides the emote content data corresponding to the emote message data to the called VoIP phone, the called VoIP phone, together with the voice and video of the user, includes at least one of an emotional video, an emotional text, and an emotional sound. You can output one. As a result, users can express their emotions more abundantly in voice and video calls.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하기로 한다. 그러나, 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하며 통상의 지식을 가진자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.Hereinafter, with reference to the accompanying drawings will be described a preferred embodiment of the present invention. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various forms, and only the present embodiments are intended to complete the disclosure of the present invention and to those skilled in the art. It is provided for complete information.
도 1은 본 발명의 일 실시예에 따른 VoIP(Voice over internet protocol) 전화 통신 시스템의 개략적인 블록 구성도이다. VoIP 전화 통신 시스템(100)은 복수의 VoIP 폰(VP1∼VPK)(K는 정수), 콘텐츠 DB(contents data base)(101), 단말 DB(102), VoIP 서버(103), 및 관리 DB(104)를 포함한다. 복수의 VoIP 폰(VP1∼VPK) 은 각각 사용자에게 음성 및 영상 통화 기능을 제공한다. 또, 복수의 VoIP 폰(VP1∼VPK) 각각은 이모트 메시지 데이터들(EMSG1∼EMSGJ)(J는 정수, 도 2 참고)의 생성 기능을 갖는다. 여기에서, 이모트 메시지 데이터들(EMSG1∼EMSGJ)은 각각 설정된 어휘 데이터들(SVDT1∼SVDTP, 도 2 참고)(P는 정수) 중 적어도 하나를 포함하거나, 또는 아이콘 그래픽 데이터들(IGDT1∼IGDTQ, 도 2 참고)(Q는 정수) 중 적어도 하나를 포함한다. 설정된 어휘 데이터들(SVDT1∼SVDTP)은 복수의 단어, 복수의 어구, 및 복수의 문장 중 일부 또는 전체를 각각 나타낸다. 아이콘 그래픽 데이터들(IGDT1∼IGDTQ)은 사용자의 감정이나 느낌을 함축하는 이모트 아이콘들(EICON1∼EICONQ, 도 2 및 도 4 참고)(Q는 정수)을 각각 나타낸다.1 is a schematic block diagram of a voice over internet protocol (VoIP) telephony communication system according to an embodiment of the present invention. The VoIP
한편, 설정된 어휘 데이터들(SVDT1∼SVDTP)은 서로 다른 제1 식별 인자들(미도시)을 각각 포함할 수 있고, 아이콘 그래픽 데이터들(IGDT1∼IGDTQ) 역시 서로 다른 제2 식별 인자들(미도시)을 각각 포함할 수 있다. 이 경우, 이모트 메시지 데이터들(EMSG1∼EMSGJ)은 각각 상기 제1 식별 인자들 중 적어도 하나, 또는 상기 제2 식별 인자들 중 적어도 하나를 포함할 수 있다. 이모트 메시지 데이터들(EMSG1∼EMSGJ) 각각이 상기 제1 또는 제2 식별 인자를 포함할 경우, 이모트 메시지 데이터들(EMSG1∼EMSGJ) 각각이 설정된 어휘 데이터들(SVDT1∼SVDTP) 중 적어도 하나 또는 아이콘 그래픽 데이터들(IGDT1∼IGDTQ) 중 적어도 하나를 포함하는 경우에 비하여, 이모트 메시지 데이터들(EMSG1∼EMSGJ) 각각의 용량이 감소할 수 있다.Meanwhile, the set lexical data SVDT1 to SVDTP may include different first identification factors (not shown), and the icon graphic data IGDT1 to IGDTQ may also have different second identification factors (not shown). ) May be included. In this case, the emote message data EMSG1 to EMSGJ may each include at least one of the first identification factors or at least one of the second identification factors. When each of the emote message data EMSG1 to EMSGJ includes the first or second identification factor, at least one of the lexical data SVDT1 to SVDTP to which each of the emote message data EMSG1 to EMSGJ is set or Compared to the case of including at least one of the icon graphic data IGDT1 to IGDTQ, the capacity of each of the emote message data EMSSG 1 to EMSGJ may be reduced.
콘텐츠 DB(101)는 이모트 메시지 데이터들(EMSG1∼EMSGJ)에 각각 대응하는 이모트 콘텐츠 데이터들(ECNT1∼ECNTJ)을 저장한다. 이모트 콘텐츠 데이터들(ECNT1 ∼ECNTJ)은 사용자의 감정이나 느낌을 표현하는 감정적 영상, 감정적 텍스트, 및 감정적 음향 중 적어도 하나를 각각 나타낸다. 단말 DB(102)는 VoIP 폰(VP1∼VPK)의 단말 정보들(VPIF1∼VPIFK)을 저장한다. 여기에서, 단말 정보들(VPIF1∼VPIFK) 각각은, VoIP 폰(VP1∼VPK) 각각에 대한 ID(identification) 정보, 사용자 정보, 및 통신 서비스 가입 정보 중 어느 하나를 포함할 수 있다. VoIP 서버(103)는 인터넷 통신망(NT)을 통해 VoIP 폰(VP1∼VPK) 간의 통신을 제공한다. 이때 VoIP 서버(103)와 VoIP 폰(VP1∼VPK) 각각은 SIP(session initiation protocol) 통신 방식으로 상호 통신한다. 또, VoIP 서버(103)는 VoIP 폰(VP1∼VPK) 간의 데이터 패킷의 전송을 중계한다. VoIP 서버(103)는, VoIP 폰(VP1∼VPK) 중 발신 측 VoIP 폰(예를 들어, VP1)으로부터의 데이터 패킷이 적어도 하나의 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 포함할 때마다, 적어도 하나의 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)에 대응하는, 적어도 하나의 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)를 콘텐츠 DB(101)로부터 판독한다. 그 후, VoIP 서버(103)는 발신 측 VoIP 폰(예를 들어, VP1)의 데이터 패킷에 포함된 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)와, 판독한 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)를 포함하는 변경 데이터 패킷(DPCK21)을 생성하여, VoIP 폰(VP1∼VPK) 중 착신 측 VoIP 폰(예를 들어, VPK)에 전송한다. 여기에서, "발신 측 VoIP 폰 및 착신 측 VoIP 폰"의 용어들은 호의 연결을 요청한 VoIP 폰 및 호의 연결을 요청받은 VoIP 폰을 나타내는 것에 한정되지 않는다. 즉, "발신 측 VoIP 폰"의 용어는 데이터 패킷을 전송하는 쪽의 VoIP 폰을 의미하기 위해 사용 되었고, "착신 측 VoIP 폰"의 용어는 데이터 패킷을 수신하는 쪽의 VoIP 폰을 의미하기 위해 사용된 것임을 유의해야 한다. 따라서, 하나의 VoIP 폰이 데이터 패킷을 전송할 때에는 발신 측 VoIP 폰으로 되고, 데이터 패킷을 수신할 때에는 착신 측 VoIP 폰으로 된다. 한편, 관리 DB(104)는 VoIP 서버(103)에 포함되는 서버 제어부(160, 도 3 참고)의 동작과 관련한 제어 프로그램(CTLPGM)을 저장한다.The
도 2를 참고하여, VoIP 폰들(VP1∼VPK)의 구성 및 동작을 좀 더 상세히 설명한다. 도 2는 도 1에 도시된 VoIP 폰의 상세한 블록 구성도이다. VoIP 폰들(VP1∼VPK)의 구성 및 동작은 서로 유사하므로, 설명의 간략화를 위해, VoIP 폰(VP1)의 구성 및 동작을 중심으로 설명하기로 한다. VoIP 폰(VP1)은 사용자 인터페이스부(110), 단말 제어부(120), 이모트 메시지 생성부(130), 및 통신부(140)를 포함한다. 사용자 인터페이스부(110)는 입력부(111), 마이크(112), 촬영부(113), 미디어 프로세서(114), 디스플레이부(115), 오디오 신호 처리부(116), 및 스피커(117)를 포함한다. 입력부(111)는 복수의 입력 키(미도시)를 포함하거나, 또는 터치 패드, 또는 터치 스크린 등과 같은 입력 장치로 구현될 수 있다. 입력부(111)는 사용자의 입력에 따라, 음성 인식 선택 신호(SRSL), 음성 인식 해제 신호(SCSL), 아이콘 인식 선택 신호(IRSL), 아이콘 인식 해제 신호(ICSL), 이모트 아이콘 선택 신호(EISL), 호출 신호(CALL), 및 해제 신호(STOP) 중 어느 하나를 단말 제어부(120)에 출력한다. 도 2에 도시되지 않았지만, 입력부(111)는 상술한 신호들 외에, 사용자의 입력에 따라 VoIP 폰(VP1)의 동작을 제어하기 위한 추가의 신호들을 더 출력할 수 있다. 마이크(112)는 사용자의 음성을 오디오 데이터(AUD)로 변환하여 출력 한다. 촬영부(113)는 사용자의 모습을 촬영하고, 그 촬영한 영상을 비디오 데이터(VID)로 변환하여 출력한다. 미디어 프로세서(114)는 마이크(112)로부터 수신되는 오디오 데이터(AUD)와, 촬영부(113)로부터 수신되는 비디오 데이터(VID)를 각각 인코딩하고, 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)를 단말 제어부(120)에 출력한다. 또, 미디어 프로세서(114)는 단말 제어부(120)로부터 수신되는 발신 측 VoIP 폰(VP2∼VPK 중 하나)의 인코딩 오디오 데이터(REAUD) 및 인코딩 비디오 데이터(REVID)를 각각 디코딩하고, 디코딩 오디오 데이터(DEAUD) 및 디코딩 비디오 데이터(DEVID)를 출력한다. 또, 미디어 프로세서(114)는 단말 제어부(120)로부터 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)를 수신하여, 디스플레이부(115) 또는 오디오 신호 처리부(116)에 출력한다. 예를 들어, 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)가 감정적 영상이나, 감정적 텍스트를 나타낼 때, 미디어 프로세서(114)는 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)를 디스플레이부(115)에 출력한다. 또, 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)가 감정적 음향을 나타낼 때, 미디어 프로세서(114)는 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)를 오디오 신호 처리부(116)에 출력한다.Referring to Figure 2, the configuration and operation of the VoIP phones VP1 to VPK will be described in more detail. FIG. 2 is a detailed block diagram of the VoIP phone shown in FIG. Since the configuration and operation of the VoIP phones VP1 to VPK are similar to each other, for simplicity of explanation, the configuration and operation of the VoIP phones VP1 will be described. The VoIP phone VP1 includes a
디스플레이부(115)는 미디어 프로세서(114)로부터 수신되는 디코딩 비디오 데이터(DEVID)에 기초하여, 발신 측 VoIP 폰(VP2∼VPK 중 하나) 사용자(즉, 통화 상대방)의 모습을 나타내는 영상을 표시한다. 또, 디스플레이부(115)는 미디어 프로세서(114)로부터 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)를 수신할 때, 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)에 기초하여, 통화 상대방 의 모습을 나타내는 영상과 함께, 감정적 영상이나 감정적 텍스트를 표시한다. 여기에서, 감정적 영상 또는 감정적 텍스트는 통화 상대방의 느낌이나 감정을 나타내는 다양한 형태의 영상 또는 텍스트를 포함한다. 예를 들어, 감정적 영상 또는 감정적 텍스트는 플래시콘(flashcon) 또는 이모티콘(emoticon) 형태의 영상 또는 텍스트를 포함할 수 있다. 또, 감정적 영상은 자연 풍경이나 특정 대상(사람, 사물, 동식물 등)을 촬영한 영상을 포함할 수 있다. 또, 감정적 텍스트는 다양한 형태의 글씨체로 표현된 텍스트를 포함할 수 있다. 도 5a 내지 도 5f를 참고하면, 이모트 콘텐츠 데이터들(ECNT1∼ECNTJ)이 이모티콘 형태의 감정적 영상을 나타내는 경우, 감정적 영상의 일례가 도시되어 있다.The
다시 도 2를 참고하면, 디스플레이부(115)는 이모트 메시지 생성부(130)로부터 수신되는 아이콘 그래픽 데이터들(IGDT1∼IGDTQ)에 기초하여, 이모트 아이콘들(EICON1∼EICONQ)을 표시한다. 도 4를 참고하면, 디스플레이부(115)의 표시 화면(115a)에 표시된 이모트 아이콘들(EICON1∼EICON6)의 일례가 도시되어 있다. 도면의 간략화를 위해, 도 4에는 6개의 이모트 아이콘들(EICON1∼EICON6)만이 도시된다. 이모트 아이콘들(EICON1∼EICONQ)은 도 4에 도시된 것과 같이, 문자 형태로 표시될 수 있고, 특정 모양으로 표현될 수도 있다. 다시 도 2를 참고하면, 디스플레이부(115)는 이모트 메시지 생성부(130)로부터 수신되는 표시 제어 신호(DCTL)에 응답하여, 이모트 아이콘들(EICON1∼EICONQ)의 표시 동작을 정지한다.Referring back to FIG. 2, the
오디오 신호 처리부(116)는 미디어 프로세서(114)로부터 수신되는 디코딩 오디오 데이터(DEAUD)에 기초하여, 통화 상대방의 음성을 스피커(117)에 출력한다. 또, 오디오 신호 처리부(116)는 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)에 기초하여, 감정적 음향을 스피커(117)에 출력한다. 이때, 스피커(117)가 오디오 신호 처리부(116)에 의해 제어되어, 통화 상대방의 음성을 출력하면서, 감정적 음향을 배경음으로 출력할 수 있다. 또, 스피커(117)는 통화 상대방의 음성을 먼저 출력한 후 감정적 음향을 출력하거나, 또는 감정적 음향을 먼저 출력한 후, 통화 상대방의 음성을 출력할 수도 있다. 여기에서, 감정적 음향은 통화 상대방의 느낌이나 감정을 나타내는 다양한 음향들을 포함한다.The
단말 제어부(120)는 입력부(111)로부터 수신되는 음성 인식 선택 신호(SRSL)에 응답하여, 미디어 프로세서(114)로부터 수신되는 인코딩 오디오 데이터(EAUD)를 이모트 메시지 생성부(130)에 출력한다. 그 결과, VoIP 폰(VP1)의 음성 인식 기능이 선택된다. 또, 단말 제어부(120)는 입력부(111)로부터 수신되는 아이콘 인식 선택 신호(IRSL)에 응답하여, 아이콘 표시 신호(ICDP)를 이모트 메시지 생성부(130)에 출력한다. 그 결과, VoIP 폰(VP1)의 이모트 아이콘 선택 기능이 선택된다. 단말 제어부(120)는 입력부(111)로부터 이모트 아이콘 선택 신호(EISL)를 수신하여 이모트 메시지 생성부(130)에 출력한다. 이 후, 단말 제어부(120)는 이모트 메시지 생성부(130)로부터 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 수신한다. 또, 단말 제어부(120)는 입력부(111)로부터 수신되는 음성 인식 해제 신호(SCSL)에 응답하여, 인코딩 오디오 데이터(EAUD)를 이모트 메시지 생성부(130)에 출력하는 동작을 정지한다. 단말 제어부(120)는 입력부(111)로부터 수신되는 아이콘 인식 해제 신호(ICSL)에 응답하여, 아이콘 표시 정지 신호(ICDPS)를 출력한다. 결국, 사용 자는 입력부(111)를 조작하여 VoIP 폰(VP1)의 음성 인식 기능 또는 이모트 아이콘 선택 기능을 선택함으로써, 이모트 메시지 데이터의 생성 기능을 선택하거나 또는 해제할 수 있다.The
한편, 단말 제어부(120)는 이모트 메시지 생성부(130)로부터 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 수신하면, 인코딩 오디오 데이터(EAUD), 인코딩 비디오 데이터(EVID), 및 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 통신부(140)에 출력한다. 단말 제어부(120)는 이모트 메시지 생성부(130)로부터 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 수신하지 않은 경우(즉, 이모트 메시지 생성부(130)로부터 메시지 부재 신호(MABSS)를 수신한 경우), 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)만을 통신부(140)에 출력한다. 여기에서, 단말 제어부(120)가 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 수신하지 않은 경우는, 사용자가 입력부(111)를 조작하여 VoIP 폰(VP1)의 이모트 메시지 데이터의 생성 기능을 해제하였거나, 또는 이모트 메시지 생성부(130)가 인코딩 오디오 데이터(EAUD)에 기초하여 사용자의 음성을 인식한 결과 사용자의 음성에 포함된 어휘 데이터가 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)에 대응하는 내용을 포함하지 않거나, 또는 사용자가 이모트 아이콘(EICON1∼EICONQ 중 적어도 하나)을 선택하지 않은 경우일 수 있다.On the other hand, when the
단말 제어부(120)는 통신부(140)로부터 수신되는 발신 측 VoIP 폰(VP2∼VPK 중 하나)의 인코딩 오디오 데이터(REAUD) 및 인코딩 비디오 데이터(REVID)를 미디어 프로세서(114)에 출력한다. 또, 단말 제어부(120)는 통신부(140)로부터 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)를 수신하여 미디어 프로세서(114)에 출력한다. 단말 제어부(120)는 입력부(111)로부터 수신되는 호출 신호(CALL)에 응답하여, 자신의 단말 정보(VPIF1) 및 착신 측 VoIP 폰(VP2∼VPK 중 하나)의 단말 정보(VPIF2∼VPIFK 중 하나)와, 호 연결 요청 신호(CREQ1)를 통신부(140)에 출력한다. 여기에서, 자신의 단말 정보(VPIF1)는 단말 제어부(120)에 저장될 수 있고, 착신 측 VoIP 폰(VP2∼VPK 중 하나)의 단말 정보(VPIF2∼VPIFK 중 하나)는 사용자가 입력부(111)를 조작함으로써 입력될 수 있다. 단말 제어부(120)는 호 연결 요청 신호(CREQ1)를 통신부(140)에 출력한 후, 통신부(140)로부터 호 연결 확인 신호(CACK2)를 수신할 때, VoIP 폰(VP1)과 VoIP 폰(VP2∼VPK 중 하나) 간의 호가 연결되었음을 인식한다. 호 연결 확인 신호(CACK2)는 VoIP 폰(VP2∼VPK 중 하나)에 의해 발생된다. 단말 제어부(120)는 입력부(111)로부터 수신되는 해제 신호(STOP)에 응답하여 자신의 단말 정보(VPIF1) 및 VoIP 폰(VP2∼VPK 중 하나)의 단말 정보(VPIF2∼VPIFK 중 하나)와, 호 연결 해제 신호(CCNL1)를 통신부(140)에 출력한다. 단말 제어부(120)는 통신부(140)로부터 호 연결 요청 신호(CREQ2)를 수신할 때, VoIP 폰(VP1)과 VoIP 폰(VP2∼VPK 중 하나) 간의 호가 연결되면, 통신부(140)에 호 연결 확인 신호(CACK1)를 출력한다. 또, 단말 제어부(120)는 통신부(140)로부터 호 연결 해제 신호(CCNL2)를 수신할 때, VoIP 폰(VP1)과 VoIP 폰(VP2∼VPK 중 하나) 간의 호 연결이 해제되었음을 인식한다. 도 2에 도시되지 않았지만, 단말 제어부(120)는 VoIP 폰(VP1)과 VoIP 폰(VP2∼VPK 중 하나) 간의 호 연결에 필요한 추가의 신호들을 더 출력할 수 있다.The
이모트 메시지 생성부(130)는 음성 인식부(131), 어휘 검사부(132), 아이콘 저장부(133), 디스플레이 제어부(134), 아이콘 선택부(135), 및 메시지 출력부(136)를 포함한다. 음성 인식부(131)는 단말 제어부(120)로부터 수신되는 인코딩 오디오 데이터(EAUD)로부터 어휘 데이터들(VDAT1∼VDATM)(M은 정수)을 추출하여 어휘 검사부(132)에 출력한다. 어휘 검사부(132)에는 복수의 단어, 복수의 어구, 및 복수의 문장 중 일부 또는 전체를 각각 나타내는 설정된 어휘 데이터들(SVDT1∼SVDTP)이 미리 저장된다. 어휘 검사부(132)는 음성 인식부(131)로부터 수신되는 어휘 데이터들(VDAT1∼VDATM)을 설정된 어휘 데이터들(SVDT1∼SVDTP)에 비교하여, 어휘 데이터들(VDAT1∼VDATM) 중 적어도 하나에 일치하는, 적어도 하나의 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)가 존재하는지를 판단한다. 어휘 검사부(132)는 어휘 데이터들(VDAT1∼VDATM) 중 적어도 하나에 일치하는, 적어도 하나의 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)가 존재할 때, 그 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)를 메시지 출력부(136)에 출력한다. 또, 어휘 검사부(132)는 어휘 데이터들(VDAT1∼VDATM) 중 적어도 하나에 일치하는, 적어도 하나의 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)가 존재하지 않을 때, 검사 완료 신호(CHEKEND)를 메시지 출력부(136)에 출력한다. 그 결과, 메시지 출력부(136)는 검사 완료 신호(CHEKEND)를 수신하고, 인코딩 오디오 데이터(EAUD)로부터 추출된 어휘 데이터들(VDAT1∼VDATM) 중에서, 설정된 어휘 데이터들(SVDT1∼SVDTP)에 일치하는 어휘 데이터가 존재하지 않음을 인식한다.The
한편, 아이콘 저장부(133)에는 사용자의 감정이나 느낌을 함축하는 이모트 아이콘들(EICON1∼EICONQ)에 각각 대응하는 아이콘 그래픽 데이터들(IGDT1∼IGDTQ)이 미리 저장된다. 디스플레이 제어부(134)는 단말 제어부(120)로부터 수신되는 아이콘 표시 신호(ICDP)에 응답하여, 아이콘 그래픽 데이터들(IGDT1∼IGDTQ)을 아이콘 저장부(133)로부터 판독하여 사용자 인터페이스부(110)의 디스플레이부(115)에 출력한다. 그 결과, 디스플레이부(115)가 아이콘 그래픽 데이터들(IGDT1∼IGDTQ)에 기초하여 이모트 아이콘들(EICON1∼EICONQ)을 디스플레이 화면(115a)에 표시한다. 디스플레이부(115)는 이모트 아이콘들(EICON1∼EICONQ)만을 표시하는 디스플레이 화면을 별도로 구비할 수도 있고, 사용자의 촬영 영상을 표시하는 전체 디스플레이 화면의 일부 영역에 이모트 아이콘들(EICON1∼EICONQ)을 표시할 수도 있다. 또, 디스플레이 제어부(134)는 단말 제어부(120)로부터 수신되는 아이콘 표시 정지 신호(ICDPS)에 응답하여, 디스플레이부(115)에 표시 제어 신호(DCTL)를 출력한다. 그 결과, 디스플레이부(115)가 이모트 아이콘들(EICON1∼EICONQ)의 표시 동작을 정지한다. 이 후, 아이콘 선택부(135)는 단말 제어부(120)로부터 수신되는 이모트 아이콘 선택 신호(EISL)에 응답하여, 선택된 적어도 하나의 이모트 아이콘(EICON1∼EICONQ 중 적어도 하나)에 대응하는 적어도 하나의 아이콘 그래픽 데이터(IGDT1∼IGDTQ 중 적어도 하나)를 아이콘 저장부(133)로부터 판독하여, 메시지 출력부(136)에 출력한다. 또, 아이콘 선택부(135)는 단말 제어부(120)로부터 이모트 아이콘 선택 신호(EISL)가 수신되지 않을 때, 아이콘 그래픽 데이터(IGDT1∼IGDTQ 중 적어도 하나)를 메시지 출력부(136)에 출력하지 않는다.Meanwhile, the
메시지 출력부(136)는 어휘 검사부(132)로부터 수신되는 적어도 하나의 어휘 데이터(VDAT1∼VDATM 중 적어도 하나), 또는 아이콘 선택부(135)로부터 수신되는 적어도 하나의 아이콘 그래픽 데이터(IGDT1∼IGDTQ 중 적어도 하나)에 기초하여, 이모트 메시지 데이터들(EMSG1∼EMSGJ) 중 적어도 하나를 생성하여 단말 제어부(120)에 출력한다. 또, 메시지 출력부(136)는 어휘 검사부(132)로부터 검사 완료 신호(CHEKEND)를 수신하거나, 또는 아이콘 선택부(135)로부터 아이콘 그래픽 데이터(IGDT1∼IGDTQ 중 적어도 하나)가 수신되지 않을 때, 단말 제어부(120)에 어떠한 이모트 메시지 데이터도 출력하지 않고, 메시지 부재 신호(MABSS)를 출력한다.The
통신부(140)는 패킷(packet) 생성부(141), IP(internet protocol) 송수신부(142), 및 패킷 해석부(143)를 포함한다. 패킷 생성부(141)는 단말 제어부(120)로부터 수신되는 인코딩 오디오 데이터(EAUD), 인코딩 비디오 데이터(EVID), 및 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)에 기초하여, 데이터 패킷(DPCK11)을 생성한다. 또, 패킷 생성부(141)는 단말 제어부(120)로부터 수신되는 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)에 기초하여, 데이터 패킷(DPCK12)을 생성한다. 또한, 패킷 생성부(141)는 단말 제어부(120)로부터 수신되는 단말 정보(VPIF1) 및 단말 정보(VPIF2∼VPIFK 중 하나)와, 호 연결 요청 신호(CREQ1)에 기초하여, 통신 패킷(TPCK11)을 생성한다. 패킷 생성부(141)는 단말 제어부(120)로부터 수신되는 호 연결 확인 신호(CACK1)에 기초하여 통신 패킷(TPCK12)을 생성한다. 또, 패킷 생성부(141)는 단말 제어부(120)로부터 수신되는 단말 정보(VPIF1) 및 단말 정보(VPIF2∼VPIFK 중 하나)와, 호 연결 해제 신호(CCNL1)에 기초하여, 통신 패킷(TPCK13)을 생성한다. 또, 패킷 생성부(141)는 단 말 제어부(120)로부터 수신되는 추가의 신호들에 기초하여, 추가의 통신 패킷(미도시)을 더 생성할 수 있다.The
IP 송수신부(142)는 패킷 생성부(141)로부터 수신되는 데이터 패킷(DPCK11 또는 DPCK12) 또는 통신 패킷(TPCK11∼TPCK13 중 하나)을 인터넷 통신망(NT, 도 1 참고)을 통하여 VoIP 서버(103)에 전송한다. 또, IP 송수신부(142)는 인터넷 통신망(NT)을 통하여 VoIP 서버(103)로부터 변경 데이터 패킷(DPCK20 또는 DPCK21), 또는 데이터 패킷(DPCK22), 또는 통신 패킷(TPCK21∼TPCK23 중 하나)을 수신하여, 패킷 해석부(143)에 출력한다. 여기에서, 변경 데이터 패킷(DPCK20)과 데이터 패킷(DPCK22)은 각각 VoIP 폰(VP2∼VPK 중 하나)으로부터의 인코딩 오디오 데이터(REAUD) 및 인코딩 비디오 데이터(REVID)만을 포함한다. 또, 변경 데이터 패킷(DPCK21)은 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)와, VoIP 폰(VP2∼VPK 중 하나)으로부터의 인코딩 오디오 데이터(REAUD) 및 인코딩 비디오 데이터(REVID)를 포함한다. 통신 패킷(TPCK21)은 단말 정보(VPIF2∼VPIFK 중 하나) 및 단말 정보(VPIF1)와, 호 연결 요청 신호(CREQ2)를 포함하고, 통신 패킷(TPCK22)은 VoIP 폰(VP2∼VPK 중 하나)으로부터의 호 연결 확인 신호(CACK2)를 포함한다. 또한, 통신 패킷(TPCK23)은 단말 정보(VPIF2∼VPIFK 중 하나) 및 단말 정보(VPIF1)와, 호 연결 해제 신호(CCNL2)를 포함한다.The
패킷 해석부(143)는 IP 송수신부(142)로부터 수신되는 데이터 패킷(DPCK21)을 해석하여, 인코딩 오디오 데이터(REAUD), 인코딩 비디오 데이터(REVID), 및 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)를 단말 제어부(120)에 출력한 다. 또, 패킷 해석부(143)는 IP 송수신부(142)로부터 수신되는 데이터 패킷(DPCK20 또는 DPCK22)을 해석하고, 인코딩 오디오 데이터(REAUD) 및 인코딩 비디오 데이터(REVID)를 단말 제어부(120)에 출력한다. 또한, 패킷 해석부(143)는 IP 송수신부(142)로부터 수신되는 통신 패킷(TPCK21)을 해석하고, 호 연결 요청 신호(CREQ2)를 단말 제어부(120)에 출력한다. 패킷 해석부(143)는 IP 송수신부(142)로부터 수신되는 통신 패킷(TPCK22)을 해석하고, 호 연결 확인 신호(CACK2)를 단말 제어부(120)에 출력한다. 패킷 해석부(143)는 IP 송수신부(142)로부터 수신되는 통신 패킷(TPCK23)을 해석하고, 호 연결 해제 신호(CCNL2)를 단말 제어부(120)에 출력한다.The
도 3을 참고하여, VoIP 서버(103)의 구성 및 구체적인 동작을 좀 더 상세히 설명한다. 도 3은 도 1에 도시된 VoIP 서버의 상세한 블록 구성도이다. VoIP 서버(103)는 통신부(150), 서버 제어부(160), 콘텐츠 선택부(170), 및 단말 관리부(180)를 포함한다. 통신부(150)는 IP 송수신부(151), 패킷 해석부(152), 및 패킷 생성부(153)를 포함한다. IP 송수신부(151)는 인터넷 통신망(NT)을 통하여, 발신 측 VoIP 폰(VP1∼VPK 중 하나)으로부터 데이터 패킷(DPCK11, DPCK12, DPCK22 중 하나), 또는 통신 패킷(TPCK11∼TPCK13 중 하나, 또는 TPCK21∼TPCK23 중 하나)을 수신하여 패킷 해석부(152)에 출력한다. 또, IP 송수신부(151)는 서버 제어부(160)로부터 수신되는 전송 제어 신호(TCTL2)에 응답하여, 데이터 패킷(DPCK22)을 그대로 착신 측 VoIP 폰(VP1∼VPK 중 다른 하나)에 전송한다. IP 송수신부(151)는 패킷 생성부(153)로부터 수신되는 변경 데이터 패킷(DPCK20 또는 DPCK21)을 착신 측 VoIP 폰(VP1∼VPK 중 다른 하나)에 전송한다. 패킷 해석부(152)는 IP 송수신부(151)로부터 수신되는 데이터 패킷(DPCK11, DPCK12, DPCK22 중 하나)을 해석하여, 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)를 출력하거나, 또는 이모트 메시지 데이터(EMSG1∼EMSGJ 중 하나), 인코딩 오디오 데이터(EAUD), 및 인코딩 비디오 데이터(EVID)를 출력한다. 또, 패킷 해석부(152)는 IP 송수신부(151)로부터 수신되는 통신 패킷(TPCK11∼TPCK13 중 하나, 또는 TPCK21∼TPCK23 중 하나)을 해석하여, 단말 정보(VPIF1∼VPIFK 중 둘) 및 호 연결 요청 신호(CREQ1 또는 CREQ2)를 출력한다. 패킷 생성부(153)는 서버 제어부(160)로부터 수신되는 전송 제어 신호(TCTL1)에 응답하여, 서버 제어부(160)로부터 수신되는 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나), 인코딩 오디오 데이터(EAUD), 및 인코딩 비디오 데이터(EVID)에 기초하여 변경 데이터 패킷(DPCK21)을 생성하여 IP 송수신부(151)에 출력한다. 또, 패킷 생성부(153)는 서버 제어부(160)로부터 수신되는 전송 제어 신호(TCTL3)에 응답하여, 서버 제어부(160)로부터 수신되는 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)에 기초하여 변경 데이터 패킷(DPCK20)을 생성하여 IP 송수신부(151)에 출력한다.Referring to Figure 3, the configuration and specific operation of the
서버 제어부(160)는 패킷 해석부(152)로부터 수신되는 단말 정보(VPIF1∼VPIFK 중 하나)를 단말 관리부(180)에 출력한다. 이 후, 서버 제어부(160)는 단말 관리부(180)로부터 수신되는 승인 신호(ADM) 또는 무효 신호(INVLD)와, 패킷 해석부(152)에 의한 데이터 패킷의 해석 결과에 따라, 전송 제어 신호(TCTL1∼TCTL2 중 하나)를 출력한다. 좀 더 상세하게는, 서버 제어부(160)가 단말 관리부(180)로부터 승인 신호(ADM)를 수신할 때, 패킷 해석부(152)에 의한 데이터 패킷의 해석 결과에 따라, 전송 제어 신호(TCTL1 또는 TCTL2)를 출력한다. 서버 제어부(160)는 승인 신호(ADM)를 수신하면, 발신 측 VoIP 폰(VP1∼VPK 중 하나)의 사용자가 통화 시 감정적 영상, 감정적 텍스트, 및 감정적 음향을 전송하는 콘텐츠 효과 서비스에 가입된 것으로 판단한다. 또, 서버 제어부(160)가 단말 관리부(180)로부터 무효 신호(INVLD)를 수신할 때, 패킷 해석부(152)에 의한 데이터 패킷의 해석 결과에 따라, 전송 제어 신호(TCTL2 또는 TCTL3)를 출력한다. 서버 제어부(160)는 무효 신호(INVLD)를 수신하면, 발신 측 VoIP 폰(VP1∼VPK 중 하나)의 사용자가 통화 시 감정적 영상, 감정적 텍스트, 및 감정적 음향을 전송하는 콘텐츠 효과 서비스에 가입되지 않은 것으로 판단한다. 서버 제어부(160)는 패킷 해석부(152)로부터 적어도 하나의 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 수신할 때, 콘텐츠 요청 신호(CNTREQ)와 적어도 하나의 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 콘텐츠 선택부(170)에 출력한다. 이 후, 서버 제어부(160)는 콘텐츠 선택부(170)로부터 수신되는 적어도 하나의 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)를 패킷 생성부(153)에 출력한다. 단말 관리부(180)는 서버 제어부(160)로부터 수신되는 VoIP 폰의 단말 정보(VPIF1∼VPIFK 중 하나)가 단말 DB(102)에 저장된 것인지의 여부를 판단하고, 그 판단 결과에 따라 승인 신호(ADM) 또는 무효 신호(INVLD)를 출력한다.The
다음으로, 도 6을 참고하여, VoIP 전화 통신 시스템(100)의 동작 과정을 좀 더 상세히 설명한다. 도 6은 도 1에 도시된 VoIP 전화 통신 시스템의 동작 과정을 나타내는 흐름도이다. 설명의 편의를 위해, 본 실시예에서는 VoIP 폰들(VP1, VPK) 간의 전화 통신 과정을 중심으로 설명하기로 한다. 먼저, VoIP 서버(103)는 VoIP 폰들(VP1, VPK) 중 어느 하나로부터의 호 연결 요청이 있는지의 여부를 판단한다(단계 1001). VoIP 폰(VP1)으로부터 통신 패킷(TPCK11)을 수신하거나, 또는 VoIP 폰(VPK)으로부터 통신 패킷(TPCK21)을 수신할 때, VoIP 서버(103)는 호 연결 요청이 있는 것으로 판단한다. 예를 들어, VoIP 서버(103)가 단말 정보(VPIF1, VPIFK)와 호 연결 요청 신호(CREQ1)를 포함하는 통신 패킷(TPCK11)을 수신한 경우, VoIP 서버(103)는 링(ring) 신호(미도시)와 함께 통신 패킷(TPCK11)을 VoIP 폰(VPK)에 전송하고, VoIP 폰(VPK)의 사용자가 전화를 받으면, VoIP 폰들(VP1, VPK) 간의 호를 연결한다(단계 1002). VoIP 폰들(VP1, VPK) 간의 호가 연결된 상태에서, 각 사용자에게 음성 및 영상 통화를 제공하기 위해, VoIP 폰들(VP1, VPK) 각각은 데이터 패킷을 생성하여(단계 1003), 인터넷 통신망(NT)을 통하여 VoIP 서버(103)에 전송한다. 본 실시예에서는 VoIP 폰(VP1)(즉, 발신 측 VoIP 폰)에 의해 생성된 데이터 패킷(DPCK11 또는 DPCK12)이 VoIP 폰(VPK)(즉, 착신 측 VoIP 폰)에 전송되는 과정을 중심으로 설명하기로 한다. VoIP 서버(103)는 VoIP 폰(VP1)으로부터 데이터 패킷(DPCK11 또는 DPCK12)을 수신한다(단계 1004). 여기에서, 데이터 패킷(DPCK11)은 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나), 인코딩 오디오 데이터(EAUD), 및 인코딩 비디오 데이터(EVID)를 포함하고, 데이터 패킷(DPCK12)은 인코딩 오디오 데이터(EAUD)와 인코딩 비디오 데이터(EVID)를 포함한다. 또, 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)는 적어도 하나의 설정된 어휘 데이 터(SVDT1∼SVDTP 중 적어도 하나)를 포함하거나, 또는 적어도 하나의 아이콘 그래픽 데이터(IGDT1∼IGDTQ 중 적어도 하나)를 포함한다.Next, referring to Figure 6, the operation of the VoIP
한편, VoIP 서버(103)는 VoIP 폰들(VP1, VPK) 간의 호 연결 시, 단말 정보들(VPIF1, VPIFK)(즉, 데이터 패킷을 전송하는 발신 측 VoIP 폰)을 수신하고, 단말 정보들(VPIF1, VPIFK)이 단말 DB(102)에 저장된 것인지의 여부를 판단한다(단계 1005). 이를 좀 더 상세히 설명하면, VoIP 서버(103)의 서버 제어부(160)가 VoIP 서버(103)의 패킷 해석부(152)로부터 수신되는 단말 정보들(VPIF1, VPIFK)을 VoIP 서버(103)의 단말 관리부(180)에 출력한다. 단말 관리부(180)는 단말 정보들(VPIF1, VPIFK)이 단말 DB(102)에 저장된 것인지의 여부를 판단한다. 단말 관리부(180)는 단말 정보들(VPIF1, VPIFK)이 단말 DB(102)에 저장된 것일 때, 승인 신호(ADM)를 서버 제어부(160)에 출력하고, 단말 정보들(VPIF1, VPIFK)이 단말 DB(102)에 저장된 것이 아닐 때, 무효 신호(INVLD)를 서버 제어부(160)에 출력한다. 서버 제어부(160)는 단말 관리부(180)로부터 승인 신호(ADM)를 수신하면 단말 정보들(VPIF1, VPIFK)이 단말 DB(102)에 저장된 것으로 판단하고, 단말 관리부(180)로부터 무효 신호(INVLD)를 수신하면, 단말 정보들(VPIF1, VPIFK)이 단말 DB(102)에 저장되지 않은 것으로 판단한다. 단계 1005에서 단말 정보(VPIF1)가 단말 DB(102)에 저장된 것일 때, VoIP 서버(103)는 데이터 패킷(DPCK11 또는 DPCK12)이 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 포함하는지의 여부를 판단한다(단계 1006). 단계 1006에서, 데이터 패킷(DPCK11 또는 DPCK12)이 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 포함할 때(즉, VoIP 서버(103)가 데 이터 패킷(DPCK11)을 수신한 경우), VoIP 서버(103)는 콘텐츠 DB(101)로부터, 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)에 대응하는 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)를 판독한다(단계 1007). 이를 좀 더 상세히 설명하면, VoIP 서버(103)의 서버 제어부(160)가 패킷 해석부(112)로부터 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 수신할 때, 콘텐츠 요청 신호(CNTREQ)와 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 콘텐츠 선택부(170)에 출력한다. 콘텐츠 선택부(170)는 콘텐츠 요청 신호(CNTREQ)에 응답하여, 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)에 대응하는 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)를 콘텐츠 DB(101)로부터 판독하여, 서버 제어부(160)에 출력한다.Meanwhile, the
여기에서, 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 적어도 하나의 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)를 포함하고, 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)가 감정적 영상을 나타내는 것으로 가정하여, 콘텐츠 선택부(170)의 동작을 설명하면 다음과 같다. 예를 들어, 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 "사랑해"라는 어구를 나타내는 설정된 어휘 데이터(SVDT1∼SVDTP 중 하나)를 포함할 때, 콘텐츠 선택부(170)는 도 5a 또는 도 5b에 도시된 하트 모양의 감정적 영상을 나타내는 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 하나)를 콘텐츠 DB(101)로부터 판독한다. 또, 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 "생일 축하해"라는 어구를 나타내는 설정된 어휘 데이터(SVDT1∼SVDTP 중 하나)를 포함할 때, 콘텐츠 선택부(170)는 도 5c 에 도시된 케이크 모양의 감정적 영상을 나타내는 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 하나)를 콘텐츠 DB(101)로부터 판독한다. 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 "행운"이라는 단어를 나타내는 설정된 어휘 데이터(SVDT1∼SVDTP 중 하나)를 포함할 때, 콘텐츠 선택부(170)는 도 5d에 도시된 네 잎 클로버 모양의 감정적 영상을 나타내는 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 하나)를 콘텐츠 DB(101)로부터 판독한다. 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 "축하해"라는 어구를 나타내는 설정된 어휘 데이터(SVDT1∼SVDTP 중 하나)를 포함할 때, 콘텐츠 선택부(170)는 도 5e에 도시된 꽃다발 모양의 감정적 영상을 나타내는 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 하나)를 콘텐츠 DB(101)로부터 판독한다. 또, 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 "안녕"이라는 단어를 나타내는 설정된 어휘 데이터(SVDT1∼SVDTP 중 하나)를 포함할 때, 콘텐츠 선택부(170)는 도 5f에 도시된 손 모양의 감정적 영상을 나타내는 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 하나)를 콘텐츠 DB(101)로부터 판독한다.Here, the emote message data (at least one of EMSSG1 to EMSSGJ) includes at least one set of lexical data (at least one of SVDT1 to SVDTP), and the emote content data (at least one of ECNT1 to ECNTJ) includes an emotional image. Assuming that the operation, the operation of the
한편, 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 적어도 하나의 아이콘 그래픽 데이터(IGDT1∼IGDTQ 중 적어도 하나)를 포함하고, 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)가 감정적 영상을 나타내는 것으로 가정하여, 콘텐츠 선택부(170)의 동작을 설명하면 다음과 같다. 예를 들어, 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 도 4에 도시된 이모트 아이콘(EICON1 또는 EICON2)에 대응하는 아이콘 그래픽 데이터(IGDT1 또는 IGDT2)를 포함할 때, 콘텐츠 선택부(170)는 도 5a 또는 도 5b에 도시된 하트 모양의 감정적 영상을 나타내는 이 모트 콘텐츠 데이터(ECNT1 또는 ECNT2)를 콘텐츠 DB(101)로부터 판독한다. 또, 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 도 4에 도시된 이모트 아이콘(EICON3)에 대응하는 아이콘 그래픽 데이터(IGDT3)를 포함할 때, 콘텐츠 선택부(170)는 도 5c에 도시된 케이크 모양의 감정적 영상을 나타내는 이모트 콘텐츠 데이터(ECNT3)를 콘텐츠 DB(101)로부터 판독한다. 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 도 4에 도시된 이모트 아이콘(EICON4)에 대응하는 아이콘 그래픽 데이터(IGDT4)를 포함할 때, 콘텐츠 선택부(170)는 도 5d에 도시된 네 잎 클로버 모양의 감정적 영상을 나타내는 이모트 콘텐츠 데이터(ECNT4)를 콘텐츠 DB(101)로부터 판독한다. 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 도 4에 도시된 이모트 아이콘(EICON5)에 대응하는 아이콘 그래픽 데이터(IGDT5)를 포함할 때, 콘텐츠 선택부(170)는 도 5e에 도시된 꽃다발 모양의 감정적 영상을 나타내는 이모트 콘텐츠 데이터(ECNT5)를 콘텐츠 DB(101)로부터 판독한다. 또, 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)가 도 4에 도시된 이모트 아이콘(EICON6)에 대응하는 아이콘 그래픽 데이터(IGDT6)를 포함할 때, 콘텐츠 선택부(170)는 도 5f에 도시된 손 모양의 감정적 영상을 나타내는 이모트 콘텐츠 데이터(ECNT6)를 콘텐츠 DB(101)로부터 판독한다.Meanwhile, the emote message data (at least one of EMSSG1 to EMSGJ) includes at least one icon graphic data (at least one of IGDT1 to IGDTQ), and the emote content data (at least one of ECNT1 to ECNTJ) represents an emotional image. Assuming that the operation of the
이 후, VoIP 서버(103)는 판독한 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나), 인코딩 오디오 데이터(EAUD), 및 인코딩 비디오 데이터(EVID)를 포함하는 변경 데이터 패킷(DPCK21)을 생성한다(단계 1008). 이를 좀 더 상세히 설명하면, 서버 제어부(160)가 패킷 해석부(152)로부터 수신한 인코딩 오디오 데이 터(EAUD) 및 인코딩 비디오 데이터(EVID)와, 콘텐츠 선택부(170)로부터 수신한 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)와, 전송 제어 신호(TCTL1)를 패킷 생성부(153)에 출력한다. 그 결과, 패킷 생성부(153)가 전송 제어 신호(TCTL1)에 응답하여, 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나), 인코딩 오디오 데이터(EAUD), 및 인코딩 비디오 데이터(EVID)에 기초하여 변경 데이터 패킷(DPCK21)을 생성하여, VoIP 서버(103)의 IP 송수신부(151)에 출력한다. 이 후, IP 송수신부(151)는 변경 데이터 패킷(DPCK21)을 인터넷 통신망(NT)을 통하여, VoIP 폰(VPK)에 전송한다(단계 1009). 그 결과, VoIP 폰(VPK)이 변경 데이터 패킷(DPCK21)을 수신하고, 인코딩 오디오 데이터(EAUD)에 기초하여, VoIP 폰(VP1) 사용자의 음성을 출력하고, 인코딩 비디오 데이터(EVID)에 기초하여, VoIP 폰(VP1) 사용자의 모습을 촬영한 영상을 표시하면서, 이모트 콘텐츠 데이터(ECNT1∼ECNTJ 중 적어도 하나)에 기초하여, 감정적 영상, 감정적 텍스트, 및 감정적 음향 중 적어도 하나를 출력한다. 또, 단계 1006에서, 데이터 패킷(DPCK11 또는 DPCK12)이 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 포함하지 않을 때(즉, VoIP 서버(103)가 데이터 패킷(DPCK12)을 수신한 경우), VoIP 서버(103)는 데이터 패킷(DPCK12)을 그대로 VoIP 폰(VPK)에 전송한다(단계 1010). 이를 좀 더 상세히 설명하면, 서버 제어부(160)가 전송 제어 신호(TCTL2)를 IP 송수신부(151)에 출력한다. 그 결과, IP 송수신부(151)가 전송 제어 신호(TCTL2)에 응답하여, 데이터 패킷(DPCK12)을 VoIP 폰(VPK)에 전송한다. VoIP 폰(VPK)은 데이터 패킷(DPCK12)을 수신하고, 인코딩 오디오 데이터(EAUD)에 기초하여, VoIP 폰(VP1) 사용자의 음성을 출력하고, 인코딩 비디오 데이터(EVID)에 기초하여, VoIP 폰(VP1) 사용자의 모습을 촬영한 영상을 표시한다.Thereafter, the
한편, 단계 1005에서, 단말 정보(VPIF1)가 단말 DB(102)에 저장된 것이 아닐 때, VoIP 서버(103)는 데이터 패킷(DPCK11 또는 DPCK12)이 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 포함하는지의 여부를 판단한다(단계 1011). 단계 1011에서, 데이터 패킷(DPCK11 또는 DPCK12)이 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 포함하지 않을 때(즉, VoIP 서버(103)가 데이터 패킷(DPCK12)을 수신한 경우), VoIP 서버(103)는 단계 1010의 동작을 반복한다. 또, 단계 1011에서, 데이터 패킷(DPCK11 또는 DPCK12)이 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 포함할 때(즉, VoIP 서버(103)가 데이터 패킷(DPCK11)을 수신한 경우), VoIP 서버(103)는 데이터 패킷(DPCK11)에 포함된 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 제거하여, 추가의 변경 데이터 패킷(DPCK20)을 생성한다(단계 1012). 이를 좀 더 상세히 설명하면, 서버 제어부(160)가 패킷 해석부(152)로부터 수신한 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)와, 전송 제어 신호(TCTL3)를 패킷 생성부(153)에 출력한다. 그 결과, 패킷 생성부(153)가 전송 제어 신호(TCTL3)에 응답하여, 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)에 기초하여 추가의 변경 데이터 패킷(DPCK20)을 생성하여, IP 송수신부(151)에 출력한다. IP 송수신부(151)는 패킷 생성부(153)로부터 수신되는 추가의 변경 데이터 패킷(DPCK20)을 인터넷 통신망(NT)을 통하여 착신 측 VoIP 폰(VPK)에 전송한다(단계 1013).On the other hand, in
이 후, VoIP 서버(103)는 VoIP 폰들(VP1, VPK) 간의 호 연결의 해제 요청이 있는지의 여부를 판단한다(단계 1014). VoIP 폰(VP1)으로부터 통신 패킷(TPCK13)을 수신하거나, 또는 VoIP 폰(VPK)으로부터 통신 패킷(TPCK23)을 수신할 때, VoIP 서버(103)는 호 연결의 해제 요청이 있는 것으로 판단하고, VoIP 폰들(VP1, VPK) 간의 호 연결을 해제한다(단계 1015). 또, 단계 1014에서, 호 연결의 해제 요청이 없는 경우, VoIP 서버(103)와 VoIP 폰들(VP1, VPK)은 단계 1003 내지 단계 1014의 동작을 반복한다.Thereafter, the
다음으로, 도 7을 참고하여, VoIP 폰(VP1)(즉, 발신 측 VoIP 폰)에 의한 데이터 패킷(DPCK11 또는 DPCK12)의 생성 과정(단계 1003)을 좀 더 상세히 설명한다. 먼저, VoIP 폰(VP1)의 마이크(112)가 사용자의 음성을 오디오 데이터(AUD)로 변환한다(단계 1101). 또, VoIP 폰(VP1)의 촬영부(113)는 사용자의 모습을 촬영하고, 그 촬영 영상을 비디오 데이터(VID)로 변환한다(단계 1102). VoIP 폰(VP1)의 미디어 프로세서(114)는 오디오 데이터(AUD)와 비디오 데이터(VID)를 각각 인코딩하고 인코딩 오디오 데이터(EAUD)와 인코딩 비디오 데이터(EVID)를 출력한다(단계 1103). 단말 제어부(120)는 입력부(111)로부터 음성 인식 선택 신호(SRSL)가 수신되는지의 여부에 따라, 음성 인식 기능이 선택되는지의 여부를 판단한다(단계 1104). 단계 1104에서, 음성 인식 기능이 선택된 경우, 단말 제어부(120)는 인코딩 오디오 데이터(EAUD)를 이모트 메시지 생성부(130)의 음성 인식부(131)에 출력한다. 음성 인식부(131)는 인코딩 오디오 데이터(EAUD)로부터 어휘 데이터들(VDAT1∼VDATM)을 추출한다(단계 1105). 어휘 검사부(132)는 음성 인식부(131)로부터 수신 되는 어휘 데이터들(VDAT1∼VDATM) 중 적어도 하나에 일치하는, 적어도 하나의 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)가 존재하는지의 여부를 판단한다(단계 1106). 단계 1106에서, 어휘 데이터들(VDAT1∼VDATM) 중 적어도 하나에 일치하는, 적어도 하나의 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)가 존재할 때, 어휘 검사부(132)는 적어도 하나의 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)를 이모트 메시지 생성부(130)의 메시지 출력부(136)에 출력한다. 그 결과, 메시지 출력부(136)가 적어도 하나의 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)를 포함하는 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 생성하여 단말 제어부(120)에 출력한다(단계 1107). 단말 제어부(120)는 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)를 통신부(140)의 패킷 생성부(141)에 출력하고, 메시지 출력부(136)로부터 수신되는 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 패킷 생성부(141)에 출력한다. 패킷 생성부(141)는 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나), 인코딩 오디오 데이터(EAUD), 및 인코딩 비디오 데이터(EVID)에 기초하여, 데이터 패킷(DPCK11)을 생성한다(단계 1108). 단계 1106에서, 어휘 데이터들(VDAT1∼VDATM) 중 적어도 하나에 일치하는, 적어도 하나의 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)가 존재하지 않을 때, VoIP 폰(VP1)은 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)에 기초하여, 데이터 패킷(DPCK12)을 생성한다(단계 1109). 이를 좀 더 상세히 설명하면, 어휘 데이터들(VDAT1∼VDATM) 중 적어도 하나에 일치하는, 적어도 하나의 설정된 어휘 데이터(SVDT1∼SVDTP 중 적어도 하나)가 존재하지 않을 때, 어휘 검사부(132)가 검사 완료 신호(CHEKEND)를 메시지 출력부(136)에 출력한다. 메시지 출력부(136)는 검사 완료 신호(CHEKEND)를 수신하면, 단말 제어부(120)에 어떠한 이모트 메시지 데이터도 출력하지 않고, 메시지 부재 신호(MABSS)를 출력한다. 단말 제어부(120)는 메시지 부재 신호(MABSS)에 응답하여, 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)만을 패킷 생성부(141)에 출력한다. 그 결과, 패킷 생성부(141)는 인코딩 오디오 데이터(EAUD) 및 인코딩 비디오 데이터(EVID)에 기초하여, 데이터 패킷(DPCK12)을 생성한다.Next, with reference to FIG. 7, the generation process (step 1003) of the data packet DPCK11 or DPCK12 by the VoIP phone VP1 (i.e., the originating VoIP phone) will be described in more detail. First, the microphone 112 of the VoIP phone VP1 converts the user's voice into audio data AUD (step 1101). In addition, the photographing unit 113 of the VoIP phone VP1 photographs the user's appearance and converts the photographed image into video data (VID) (step 1102). The
한편, 단계 1104에서, 음성 인식 기능이 선택되지 않은 경우, 단말 제어부(120)는 입력부(111)로부터 아이콘 인식 선택 신호(IRSL)가 수신되는지의 여부에 따라, 이모트 아이콘 선택 기능이 선택되는지의 여부를 판단한다(단계 1110). 단계 1110에서, 이모트 아이콘 선택 기능이 선택되지 않은 경우(즉, 음성 인식 기능과, 이모트 아이콘 선택 기능이 모두 선택되지 않은 경우), VoIP 폰(VP1)은 단계 1109의 동작을 반복한다. 또, 단계 1110에서, 이모트 아이콘 선택 기능이 선택된 경우, VoIP 폰(VP1)은 이모트 아이콘들(EICON1∼EICONQ)을 디스플레이 화면에 표시한다(단계 1111). 이를 좀 더 상세히 설명하면, 단말 제어부(120)가 아이콘 인식 선택 신호(IRSL)에 응답하여, 아이콘 표시 신호(ICDP)를 이모트 메시지 생성부(130)의 디스플레이 제어부(134)에 출력한다. 디스플레이 제어부(134)는 아이콘 표시 신호(ICDP)에 응답하여, 아이콘 저장부(133)로부터 아이콘 그래픽 데이터들(IGDT1∼IGDTQ)을 판독하여, 사용자 인터페이스부(110)의 디스플레이부(115)에 출력한다. 디스플레이부(115)는 아이콘 그래픽 데이터들(IGDT1∼IGDTQ)에 기초하여, 이모트 아이콘들(EICON1∼EICONQ)을 표시한다.On the other hand, when the voice recognition function is not selected in
단말 제어부(120)는 입력부(111)로부터 이모트 아이콘 선택 신호(EISL)가 수신되는지의 여부에 따라, 사용자에 의해 선택된 적어도 하나의 이모트 아이콘이 존재하는지의 여부를 판단한다(단계 1112). 단계 1112에서, 사용자에 의해 선택된 적어도 하나의 이모트 아이콘이 존재하지 않을 때, VoIP 폰(VP1)은 단계 1109의 동작을 반복한다. 또, 단계 1112에서, 사용자에 의해 선택된 적어도 하나의 이모트 아이콘이 존재할 때, 이모트 메시지 생성부(130)는 선택된 적어도 하나의 이모트 아이콘에 대응하는 적어도 하나의 아이콘 그래픽 데이터(IGDT1∼IGDTQ 중 적어도 하나)를 포함하는 이모트 메시지 데이터(EMSG1∼EMSGJ 중 적어도 하나)를 생성한다(단계 1113). 이 후, VoIP 폰(VP1)은 단계 1108의 동작을 반복한다.The
상술한 것과 같이, VoIP 전화 통신 시스템(100) 및 그 방법에 의하면, 발신 측 VoIP 폰이 사용자의 음성을 인식하거나, 또는 사용자가 선택한 이모트 아이콘을 인식하여 이모트 메시지 데이터를 생성하고, VoIP 서버가 이모트 메시지 데이터에 대응하는 이모트 콘텐츠 데이터를 착신 측 VoIP 폰에 제공하므로, 착신 측 VoIP 폰이 사용자의 음성 및 영상과 함께, 감정적 영상, 감정적 텍스트, 및 감정적 음향 중 적어도 하나를 출력할 수 있다. 따라서 사용자는 음성 및 영상 통화 시 상대방에게 자신의 감정을 좀 더 풍부하게 표현할 수 있다. 또, 콘텐츠 DB(101)가 비교적 큰 용량의 이모트 콘텐츠 데이터들을 저장하고, VoIP 서버가 발신 측 VoIP 폰으로부터 비교적 작은 용량의 이모트 메시지 데이터를 수신할 때마다, 이에 대응하는 이모트 콘텐츠 데이터를 콘텐츠 DB(101)로부터 판독하여 착신 측 VoIP 폰에 제공하 므로, 각 VoIP 폰이 이모트 콘텐츠 데이터들을 별도로 저장할 필요가 없다. 따라서, VoIP 폰의 메모리 용량이 감소할 수 있다.As described above, according to the VoIP
상기한 실시 예들은 본 발명을 설명하기 위한 것으로서 본 발명이 이들 실시 예에 국한되는 것은 아니며, 본 발명의 범위 내에서 다양한 실시예가 가능하다. 또한 설명되지는 않았으나, 균등한 수단도 또한 본 발명에 그대로 결합되는 것이라 할 것이다. 따라서 본 발명의 진정한 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다. The above embodiments are for explaining the present invention, and the present invention is not limited to these embodiments, and various embodiments are possible within the scope of the present invention. In addition, although not described, equivalent means will also be referred to as incorporated in the present invention. Therefore, the true scope of the present invention will be defined by the claims below.
도 1은 본 발명의 일 실시예에 따른 VoIP 전화 통신 시스템의 개략적인 블록 구성도이다.1 is a schematic block diagram of a VoIP telephone communication system according to an embodiment of the present invention.
도 2는 도 1에 도시된 VoIP 폰의 상세한 블록 구성도이다.FIG. 2 is a detailed block diagram of the VoIP phone shown in FIG.
도 3은 도 1에 도시된 VoIP 서버의 상세한 블록 구성도이다.3 is a detailed block diagram of the VoIP server shown in FIG.
도 4는 도 2에 도시된 디스플레이부에 표시된 이모트 아이콘들의 일례를 나타내는 도면이다.FIG. 4 is a diagram illustrating an example of emote icons displayed on the display unit illustrated in FIG. 2.
도 5a 내지 도 5f는 도 2에 도시된 디스플레이부에 표시된 감정적 영상들의 일례를 나타내는 도면이다.5A through 5F are diagrams showing examples of emotional images displayed on the display unit illustrated in FIG. 2.
도 6은 도 1에 도시된 VoIP 전화 통신 시스템의 동작 과정을 나타내는 흐름도이다.FIG. 6 is a flowchart illustrating an operation process of the VoIP telephony communication system shown in FIG. 1.
도 7은 도 6에 도시된 발신 측 VoIP 폰에 의한 데이터 패킷의 생성 과정을 나타내는 상세한 흐름도이다.FIG. 7 is a detailed flowchart illustrating a process of generating a data packet by an originating VoIP phone illustrated in FIG. 6.
〈도면의 주요 부분에 대한 부호의 설명〉<Explanation of symbols for main parts of drawing>
100 : VoIP 전화 통신 시스템 VP1∼VPK : VoIP 폰100: VoIP telephone communication system VP1 to VPK: VoIP phone
101 : 콘텐츠 DB 102 : 단말 DB101: content DB 102: terminal DB
103 : VoIP 서버 104 : 관리 DB103: VoIP Server 104: Management DB
110 : 사용자 인터페이스부 120 : 단말 제어부110: user interface unit 120: terminal control unit
130 : 이모트 메시지 생성부 131 : 음성 인식부130: emote message generation unit 131: speech recognition unit
132 : 어휘 검사부 133 : 아이콘 저장부132: vocabulary checker 133: icon storage unit
134 : 디스플레이 제어부 135 : 아이콘 선택부134: display control unit 135: icon selection unit
136 : 메시지 출력부 140, 150 : 통신부136:
160 : 서버 제어부 170 : 콘텐츠 선택부160: server control unit 170: content selection unit
180 : 단말 관리부180: terminal management unit
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070121365A KR100941598B1 (en) | 2007-11-27 | 2007-11-27 | telephone communication system and method for providing users with telephone communication service comprising emotional contents effect |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070121365A KR100941598B1 (en) | 2007-11-27 | 2007-11-27 | telephone communication system and method for providing users with telephone communication service comprising emotional contents effect |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090054609A true KR20090054609A (en) | 2009-06-01 |
KR100941598B1 KR100941598B1 (en) | 2010-02-11 |
Family
ID=40986528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070121365A KR100941598B1 (en) | 2007-11-27 | 2007-11-27 | telephone communication system and method for providing users with telephone communication service comprising emotional contents effect |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100941598B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101268436B1 (en) * | 2011-01-31 | 2013-06-05 | (주)티아이스퀘어 | Method and system for providing multimedia content overlay image chatting service using voice recognition of personal communication terminal |
KR101274471B1 (en) * | 2009-08-31 | 2013-06-13 | 에스케이플래닛 주식회사 | System and method for emotion transmitting during video communication |
US9819716B2 (en) | 2015-12-15 | 2017-11-14 | Line Corporation | Method and system for video call using two-way communication of visual or auditory effect |
KR20180025121A (en) * | 2016-08-30 | 2018-03-08 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Method and apparatus for inputting information |
WO2018182063A1 (en) * | 2017-03-28 | 2018-10-04 | 라인 가부시키가이샤 | Video call providing device, method, and computer program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060023841A (en) * | 2004-09-10 | 2006-03-15 | 엘지전자 주식회사 | A hot key service supplying system for internet phone and the method thereof |
KR101235590B1 (en) * | 2006-01-26 | 2013-02-21 | 엘지전자 주식회사 | Apparatus and method for pr ovidingmultimessage of mobile communication terminal |
-
2007
- 2007-11-27 KR KR1020070121365A patent/KR100941598B1/en not_active IP Right Cessation
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101274471B1 (en) * | 2009-08-31 | 2013-06-13 | 에스케이플래닛 주식회사 | System and method for emotion transmitting during video communication |
KR101268436B1 (en) * | 2011-01-31 | 2013-06-05 | (주)티아이스퀘어 | Method and system for providing multimedia content overlay image chatting service using voice recognition of personal communication terminal |
US9819716B2 (en) | 2015-12-15 | 2017-11-14 | Line Corporation | Method and system for video call using two-way communication of visual or auditory effect |
US10182095B2 (en) | 2015-12-15 | 2019-01-15 | Line Corporation | Method and system for video call using two-way communication of visual or auditory effect |
KR20180025121A (en) * | 2016-08-30 | 2018-03-08 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Method and apparatus for inputting information |
US10210865B2 (en) | 2016-08-30 | 2019-02-19 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for inputting information |
WO2018182063A1 (en) * | 2017-03-28 | 2018-10-04 | 라인 가부시키가이샤 | Video call providing device, method, and computer program |
US10897583B2 (en) | 2017-03-28 | 2021-01-19 | Line Corporation | Video call providing device, method, system, and non-transitory computer readable medium storing a computer program |
Also Published As
Publication number | Publication date |
---|---|
KR100941598B1 (en) | 2010-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9111545B2 (en) | Hand-held communication aid for individuals with auditory, speech and visual impairments | |
US20090198497A1 (en) | Method and apparatus for speech synthesis of text message | |
CA2648617C (en) | Hosted voice recognition system for wireless devices | |
US20060145943A1 (en) | Avatar control using a communication device | |
US9154620B2 (en) | Method and system of voice carry over for instant messaging relay services | |
KR100941598B1 (en) | telephone communication system and method for providing users with telephone communication service comprising emotional contents effect | |
CN113194203A (en) | Communication system, answering and dialing method and communication system for hearing-impaired people | |
JP2003110754A (en) | System for converting character message into voice by integral server equipped with voice synthesizing and voice modulating server | |
US6501751B1 (en) | Voice communication with simulated speech data | |
JP2005286979A (en) | Interpreting telephone system | |
KR100750729B1 (en) | Voice-Recognition Word Conversion Device. | |
KR20110050483A (en) | Method for communicating, a related system for communicating and a related transforming part | |
KR20040022738A (en) | SMS system of internet visual phone | |
JP5136823B2 (en) | PoC system with fixed message function, communication method, communication program, terminal, PoC server | |
KR20030091834A (en) | Mobile Phone Having The Converting Function Between Voice Data And Letter Data And The Method Of Converting Between Voice Data And Letter Data | |
KR100923641B1 (en) | Voice over internet protocol phone with a multimedia effect function according to recognizing speech of user, telephone communication system comprising the same, and telephone communication method of the telephone communication system | |
KR102221015B1 (en) | Apparatus and Method for Substitute Call Service | |
JP4530016B2 (en) | Information communication system and data communication method thereof | |
KR100487446B1 (en) | Method for expression of emotion using audio apparatus of mobile communication terminal and mobile communication terminal therefor | |
JP2002374366A (en) | Communications equipment and communication system | |
KR100774481B1 (en) | The apparatus and method for text transformation of mobile telecommunication terminal | |
KR20050081844A (en) | System for providing service of transform text message into voice message and method thereof | |
KR20050033200A (en) | Method and apparatus for supplying rip-sync avata service by multimodal | |
KR101469286B1 (en) | Method for multimodal messaging service | |
KR20070020848A (en) | System and method for providing receiver to the converted message into voice which is selected by sender |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130117 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |