KR20150108098A - Chatting service providing system, apparatus and method thereof - Google Patents

Chatting service providing system, apparatus and method thereof Download PDF

Info

Publication number
KR20150108098A
KR20150108098A KR1020140030844A KR20140030844A KR20150108098A KR 20150108098 A KR20150108098 A KR 20150108098A KR 1020140030844 A KR1020140030844 A KR 1020140030844A KR 20140030844 A KR20140030844 A KR 20140030844A KR 20150108098 A KR20150108098 A KR 20150108098A
Authority
KR
South Korea
Prior art keywords
information
chat
voice
service
user
Prior art date
Application number
KR1020140030844A
Other languages
Korean (ko)
Other versions
KR102127909B1 (en
Inventor
오길훈
이재하
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020140030844A priority Critical patent/KR102127909B1/en
Publication of KR20150108098A publication Critical patent/KR20150108098A/en
Application granted granted Critical
Publication of KR102127909B1 publication Critical patent/KR102127909B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • G06Q50/50
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices

Abstract

The present invention relates to a chatting service providing system, which provides a chatting service performed by using one or more from images, voice, and texts, an apparatus and a method for the same. When the chatting service is provided, a user interface screen is divided into multiple regions; the divided regions are assigned based on kinds of the information; at least one from image information, voice information, and text information is separated from chatting data transmitted and received through a communication unit; and the image information, the voice information, and the text information which have been separated are visualized through the assigned regions and output.

Description

채팅 서비스 제공 시스템, 이를 위한 장치 및 방법{Chatting service providing system, apparatus and method thereof}[Technical Field] The present invention relates to a chat service providing system, a chat service providing system,

본 발명은 영상, 음성, 및 문자 중 하나 이상을 이용하여 이루어지는 채팅 서비스에 관한 것으로서, 더욱 상세하게는 사용자 인터페이스 화면을 복수의 영역으로 구분하여, 상기 채팅 서비스를 통해 송수신되는 영상 정보, 음성 정보, 및 문자 정보를 분리하여 서로 다른 영역을 통해 출력하는 채팅 서비스 제공 시스템, 이를 위한 장치 및 방법에 관한 것이다.The present invention relates to a chat service using at least one of video, audio, and text. More particularly, the present invention relates to a chat service using at least one of video, audio, and text, And a chat service providing system that separates character information and outputs the chat service through different areas, and an apparatus and method for the same.

이 부분에 기술된 내용은 단순히 본 실시 예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information on the present embodiment and do not constitute the prior art.

최근 정보통신 기술과 반도체 기술 등의 눈부신 발전에 힘입어 휴대 단말기의 보급과 이용이 급속도로 증가하고 있다. 특히, 최근의 휴대 단말기는 성능 향상을 통해서, 각자의 전통적인 고유 영역에 머무르지 않고 다른 단말기들의 영역까지 아우르는 모바일 융/복합(mobile convergence) 단계에 이르고 있다. Recently, due to the remarkable development of information communication technology and semiconductor technology, the spread and use of mobile terminals are rapidly increasing. In particular, recent mobile terminals have achieved a mobile convergence step by upgrading their performance to the area of other terminals without staying in their traditional unique areas.

대표적으로 이동 통신 단말기는 음성통화나 메시지 송수신과 같은 일반적인 통신 기능 이외에도 TV 시청 기능(예컨대, DMB(Digital Multimedia Broadcasting)나 DVB(Digital Video Broadcasting)와 같은 이동 방송), 음악 재생 기능(예컨대, MP3(MPEG Audio Layer-3), 사진 촬영 기능, 인터넷 접속 기능 등 다양한 기능들이 부가되고 있다.Typically, the mobile communication terminal may be provided with a TV viewing function (for example, a mobile broadcasting such as DMB (Digital Multimedia Broadcasting) or DVB (Digital Video Broadcasting)), a music playback function (e.g., MP3 MPEG Audio Layer-3), a picture taking function, and an Internet access function.

더하여, 최근의 이동 통신 단말기는 개방형 OS를 기반으로 다양한 사용자 기능을 사용자가 임의로 설치할 수 있는 스마트 폰의 형태로 발전하면서 다양한 편리성과 오락성을 제공하고 있으며, 오픈 마켓의 활성화로 고객이 원하는 다양한 기능의 어플리케이션을 쉽게 얻을 수 있도록 지원하고, 고성능화로 PC에서 처리하는 많은 기능을 처리할 수 있다.In addition, recent mobile communication terminals have developed various types of convenience and enjoyment by developing various types of user functions based on an open OS, such as a smart phone capable of arbitrarily installing the user functions. The open market enables various functions It is easy to get applications, and it can handle many functions that are processed by PC with high performance.

이동 통신 단말기에서 보편적으로 이용하는 서비스로는, 사용자 간에 다양한 형태의 정보의 교환하기 위한 커뮤니케이션 또는 커뮤니티 서비스가 있다. 이러한 이동 통신 단말기에서 이용 가능한 서비스로서, 기본적으로 단문 메시지 서비스(SMS)와 멀티미디어 메시지 서비스(MMS)가 제공되었으며, 개방형 OS를 탑재한 스마트 폰의 등장에 따라서, 인스턴트 메신저 혹은 모바일 메신저 등의 메신저 서비스, 전자우편 서비스까지 이용 가능하게 되었다. 이러한 서비스는, 통화 서비스에 비하여 비용이 저렴하고 직접 통화보다 간단하게 자신의 의도나 메시지를 상대 사용자에게 전달할 수 있기 때문에 그 이용도가 매우 높다.As a service universally used in a mobile communication terminal, there is a communication or community service for exchanging various types of information among users. As a service available in such a mobile communication terminal, a short message service (SMS) and a multimedia message service (MMS) have been basically provided. In the emergence of a smart phone equipped with an open OS, a messenger service such as instant messenger or mobile messenger , And e-mail services. Such services are cheaper than the call service, and their use is very high because they can transmit their intention or message to the other users simply as compared with the direct call.

특히, 최근의 메신저 서비스의 경우, 기본적으로 문자를 교환하는 것과 더불어, 영상 및 음성을 실시간으로 교환할 수 있도록 음성/영상 통화 기능과의 융복합이 시도되고 있다.Especially, in recent messenger service, in addition to the exchange of characters, a fusion of voice and video communication functions is being attempted so that video and voice can be exchanged in real time.

한편, 이동 통신 단말기를 통해 문자를 이용한 채팅과 통화를 모두 이용할 수 있게 됨에 따라서 사용자 편의성이 향상되는 측면도 있으나, 문자로 채팅 중에 영상 또는 음성 통화를 하게 되는 경우, 채팅을 중단하여야 하는 불편한 점이 있다.On the other hand, since the user can use both the chat and the call using the character via the mobile communication terminal, the convenience of the user is improved. However, when the user makes a video or voice call while chatting, the chat has to be interrupted.

한국공개특허 제10-2013-0005174호, 2013년 01월 15일 공개 (명칭: 휴대 전자기기 및 이의 제어 방법)Korean Patent Publication No. 10-2013-0005174, January 15, 2013 (name: portable electronic device and control method thereof)

이에 본 발명은 영상, 음성, 문자 중 적어도 하나를 이용하여 이루어지는 채팅 서비스에 있어서 영상이나 음성을 이용한 통화 기능과 문자를 이용한 채팅을 동시에 수행할 수 있는 문제를 해결하고자 제안된 것으로서, 사용자 인터페이스 화면을 복수의 영역으로 구분하고, 각 영역 별로 영상, 음성, 문자 중 적어도 하나를 할당하고, 상기 채팅 서비스를 통해 송수신되는 영상, 음성, 문자를 분리하여, 할당된 영역을 통해 출력하는 채팅 서비스 제공 시스템, 이를 위한 장치 및 방법을 제공하고자 한다.Accordingly, the present invention provides a chat service using at least one of video, voice, and text to solve a problem that a chat function using a video or voice and a chat using a character can be performed at the same time. A chat service providing system for assigning at least one of video, voice, and characters to each of a plurality of areas, separating video, voice, and characters transmitted and received through the chat service and outputting the separated video through an allocated area, And an apparatus and method for this purpose.

본 발명의 상술한 과제의 일 해결 수단으로서, 통신망을 통해서 데이터를 송수신하는 통신부; 사용자 요청을 입력하기 위한 입력부; 사용자 인터페이스 화면을 출력하는 출력부; 및 사용자 요청에 따라서, 영상, 음성, 및 문자 중 적어도 하나를 이용한 채팅 서비스 제공 시, 사용자 인터페이스 화면을 다수 영역으로 분할하고, 분할된 영역을 정보의 종류별로 할당하고, 통신부를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 분리하여, 분리된 영상 정보, 음성 정보 및 문자 정보를 할당된 영역을 통해 각각 시각화하여 출력하는 제어부를 포함하는 것을 특징으로 하는 단말 장치를 제공한다.As a solving means of the above-described problem of the present invention, there is provided a communication apparatus comprising: a communication unit for transmitting and receiving data through a communication network; An input for inputting a user request; An output unit for outputting a user interface screen; And a controller for dividing the user interface screen into a plurality of areas, allocating the divided areas according to the types of information, and transmitting the chat data transmitted and received through the communication part when the chat service using at least one of video, And a control unit for separating at least one of video information, audio information and character information from the video information, visualizing the separated video information, audio information and character information through the allocated area, and outputting the visualized video information, respectively .

본 발명에 따른 단말 장치에 있어서, 제어부는 음성 정보를 텍스트로 변환하여 출력하거나, 음성 정보의 파장을 추출하고, 추출된 파장을 시각화하여 출력할 수 있다.In the terminal apparatus according to the present invention, the control unit may convert the voice information into text and output it, extract the wavelength of the voice information, visualize the extracted wavelength, and output it.

본 발명에 따른 단말 장치에 있어서, 제어부는 채팅 서비스에 참여한 사용자들의 음성 정보로부터 변환된 텍스트를 동일 영역에 시간 순으로 표시할 수 있다.In the terminal device according to the present invention, the controller can display the converted text from the voice information of the users participating in the chat service in the same area in chronological order.

더하여, 본 발명에 따른 단말 장치의 제어부는, 채팅 서비스에 참여한 사용자별로 상기 영역을 더 분할하여, 사용자별로 상기 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 구분하여 출력할 수 있다.In addition, the control unit of the terminal device according to the present invention may further divide the area for each user participating in the chat service, and may output at least one of the separated image information, voice information, and character information for each user.

이때, 제어부는 사용자 및 정보의 종류 별로 분할된 다수의 영역을 사용자를 기준으로 매핑되도록 사용자 인터페이스 화면에 배치할 수 있다.At this time, the control unit may arrange a plurality of areas divided according to the type of user and information on the user interface screen so as to be mapped based on the user.

또한, 본 발명에 따른 단말 장치의 제어부는, 입력부를 통해 채팅 서비스에 참여한 사용자 중에서 음성 정보를 시각화할 대상을 선택 받고, 선택된 사용자의 음성 정보만을 시각화하여 출력할 수 있다.In addition, the control unit of the terminal device according to the present invention may select an object to visualize voice information among users participating in the chat service through the input unit, and visualize and output only voice information of the selected user.

또한, 본 발명은 상술한 과제의 다른 해결 수단으로서, 통신망을 통해서 둘 이상의 단말 장치와 통신하여, 채팅 서비스를 위한 데이터를 송수신하는 통신부; 통신부를 통해 접속한 둘 이상의 단말 장치 간에 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 포함하는 채팅 데이터를 실시간으로 중계하되, 둘 이상의 영역으로 분할되고 각 영역이 정보의 종류별로 할당된 사용자 인터페이스 화면을 제공하고, 둘 이상의 단말 장치 간에 송수신되는 채팅 데이터로부터 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 분리하여, 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 해당 정보에 할당된 영역을 통해서 시각화하여 출력시키는 서비스 제공부를 포함하는 것을 특징으로 하는 채팅 서비스 제공을 위한 서비스 장치를 제공한다.According to another aspect of the present invention, there is provided a communication system comprising: a communication unit that communicates with two or more terminal devices through a communication network to transmit and receive data for a chat service; A chat system for relaying chat data including at least one of video information, voice information, and character information in real time between two or more terminal apparatuses connected through a communication unit, wherein the chat data is divided into two or more areas, And separates at least one of video information, audio information, and character information from chat data transmitted and received between two or more terminal devices, and separates at least one of the separated video information, audio information, and character information into an area And a service providing unit for visualizing the chat service and outputting the service.

본 발명에 따른 서비스 장치에 있어서, 서비스 제공부는 음성 정보를 텍스트로 변환하여 출력시키거나, 음성 정보의 파장을 추출하고, 추출한 파장을 시각화하여 출력시킬 수 있다.In the service device according to the present invention, the service provider may convert the voice information into text and output it, extract the wavelength of the voice information, and visualize and output the extracted wavelength.

또한, 본 발명에 따른 서비스 장치에 있어서, 제어부는 각 단말 장치로부터 상기 채팅 서비스에 참여한 사용자 중 음성 정보의 시각화 대상을 선택 받고, 선택된 사용자의 음성 정보만을 시각화하여 제공할 수 있다.Also, in the service apparatus according to the present invention, the control unit may select a visualization target of the voice information among the users participating in the chat service from each terminal apparatus, and visualize only the voice information of the selected user.

더하여, 본 발명은 상술한 과제의 또 다른 해결 수단으로서, 영상, 음성, 및 문자 중 적어도 하나를 이용한 채팅 서비스 제공 시, 상기 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하여 각각 영상, 음성 및 문자 중 적어도 하나에 할당하고, 채팅 서비스를 통해 송수신된 채팅 데이터의 영상 정보, 음성 정보, 문자 정보 중 적어도 하나를 분리하여, 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 할당된 영역을 통해 시각화하여 출력하는 다수의 단말 장치; 및 다수의 단말 장치 사이에서 채팅 데이터를 중계하는 서비스 장치를 포함하는 것을 특징으로 하는 채팅 서비스 제공 시스템을 제공한다.In addition, the present invention provides, as another solution to the above problem, to provide a chat service using at least one of video, audio, and text by dividing the user interface screen into two or more areas, At least one of video information, voice information, and character information of chat data transmitted and received through a chat service is separated and at least one of separated video information, voice information, and character information is visualized through an allocated area A plurality of terminal devices for outputting; And a service device for relaying chat data between a plurality of terminal devices.

또한, 본 발명은 상술한 과제의 또 다른 해결 수단으로서, 채팅 서비스를 제공하는 장치가, 채팅 서비스가 시작되면, 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하는 단계; 둘 이상의 영역에 각각 영상, 음성, 문자 중 하나를 할당하는 단계; 채팅 서비스를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 분리하는 단계; 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를, 할당된 영역을 통해 시각화하여 출력하는 단계를 포함하는 것을 특징으로 하는 채팅 서비스 제공 방법을 제공한다.Further, the present invention provides, as another solution to the above-mentioned problem, a method for providing a chat service, comprising: dividing a user interface screen into two or more areas when a chat service is started; Allocating one of video, audio, and character to two or more areas; Separating at least one of video information, audio information, and character information from chat data transmitted and received through a chat service; And visualizing at least one of the separated image information, the voice information, and the character information through the allocated area, and outputting the visualized voice information.

본 발명에 따른 채팅 서비스 제공 방법에 있어서, 출력하는 단계는, 채팅 데이터로부터 분리된 음성 정보를 텍스트로 변환하고, 음성에 할당된 영역에 변환된 텍스트를 출력하는 단계; 및 채팅 데이터로부터 분리된 음성 정보의 파장을 추출하고, 추출된 파장을 시각화하여 음성에 할당된 영역으로 출력하는 단계 중에서 어느 하나를 포함할 수 있다.In the chat service providing method according to the present invention, the step of outputting may include converting voice information separated from the chat data into text, and outputting the converted text to an area assigned to the voice; Extracting the wavelength of the voice information separated from the chat data, visualizing the extracted wavelength, and outputting the visualized voice to the area assigned to the voice.

또한, 본 발명에 따른 채팅 서비스 제공 방법에 있어서, 분할하는 단계는, 채팅 데이터에 포함된 정보의 종류에 따라서, 분할할 영역의 수를 결정하며, 아울러, 분할하는 단계에서, 채팅 서비스에 참여한 사용자의 수에 따라서 영역을 더 분할하고, 할당하는 단계에서 사용자 및 정보의 종류 별로 영역을 할당할 수 있다.In the chat service providing method according to the present invention, the dividing step may include determining the number of areas to be divided according to the type of the information included in the chat data, and in the dividing step, It is possible to allocate an area according to the type of user and information in the step of dividing and allocating the area according to the number of users.

더하여, 본 발명은 상술한 과제의 또 다른 해결 수단으로서, 채팅 서비스를 제공하는 장치가, 채팅 서비스가 시작되면, 채팅 서비스에 참여한 사용자 중에서 음성 정보의 시각화 대상을 선택 받는 단계; 선택된 음성 정보의 시각화 대상의 수 및 채팅 데이터에 포함된 정보의 종류에 따라서 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하는 단계; 분할된 둘 이상의 영역을 사용자 및 정보의 종류 별로 할당하는 단계; 채팅 서비스를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 분리하는 단계; 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를, 할당된 영역을 통해 시각화하여 출력하는 단계를 포함하는 것을 특징으로 하는 채팅 서비스 제공 방법을 제공한다.In addition, another object of the present invention is to provide an apparatus for providing a chat service, when a chat service is started, selecting a visualization target of voice information among users participating in a chat service; Dividing the UI screen into two or more areas according to the number of visualization targets of the selected audio information and the type of information included in the chat data; Allocating two or more divided areas by user and information type; Separating at least one of video information, audio information, and character information from chat data transmitted and received through a chat service; And visualizing at least one of the separated image information, the voice information, and the character information through the allocated area, and outputting the visualized voice information.

더하여, 상술한 채팅 서비스 제공 방법은 프로그램으로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다.In addition, the chat service providing method described above can be implemented as a program and recorded on a computer-readable recording medium.

본 발명은 영상, 음성, 및 문자 중 하나 이상을 이용하여 이루어지는 채팅 서비스의 제공 중에, 사용자 인터페이스 화면을 복수의 영역으로 구분하고, 상기 채팅 서비스를 통해 송수신되는 영상 정보, 음성 정보, 및 문자 정보를 서로 다른 영역을 통해 구분하여 각각 시각화하여 출력함으로써, 참여한 사용자들의 의사를 보다 명확히 전달할 수 있도록 한다.The present invention divides a user interface screen into a plurality of areas while providing a chat service using one or more of video, audio, and text, and displays video information, audio information, and character information transmitted and received through the chat service By visualizing and outputting them separately through different areas, it is possible to clearly communicate the opinions of the participating users.

특히, 본 발명은 영상 채팅 또는 음성 채팅을 수행하는 중에, 사용자들의 음성 정보를 청각적으로 출력하면서, 상기 음성 정보를 텍스트로 변환하여 상기 사용자 인터페이스 화면을 통해 출력함으로써, 채팅 중 각 사용자들이 발화한 내용을 보다 명확히 이해하도록 하거나, 추후 확인할 수 있도록 한다.Particularly, in the present invention, during the video chatting or the voice chatting, the voice information of the users is audibly output, the voice information is converted into text and outputted through the user interface screen, Make the contents more clearly understandable or to be confirmed later.

또한, 본 발명은 영상 채팅 또는 음성 채팅을 수행하는 중에, 사용자들의 음성 정보의 파장을 추출하고, 상기 음성 정보의 파장을 시각화하여 출력할 수 있으며, 다양하고 새로운 형태의 채팅 서비스를 제공할 수 있다.In addition, while performing a video chat or a voice chat, the present invention can extract wavelengths of voice information of users, visualize and output the wavelength of the voice information, and provide various new types of chat services .

도 1은 본 발명의 실시 예들에 따른 채팅 서비스 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 예들에 따른 채팅 서비스 시스템에서의 단말 장치의 구성을 도시한 도면이다.
도 3은 본 발명의 실시 예들에 따른 채팅 서비스 시스템에서의 서비스 장치의 구성을 도시한 도면이다.
도 4 내지 도 7은 본 발명의 실시 예들에 따른 채팅 서비스 제공 방법을 나타낸 순서도이다.
도 8은 본 발명의 실시 예에 따른 채팅 서비스의 예시 화면을 나타낸 도면이다.
1 is a diagram illustrating a configuration of a chat service system according to an embodiment of the present invention.
2 is a diagram illustrating a configuration of a terminal device in a chat service system according to embodiments of the present invention.
3 is a diagram illustrating a configuration of a service apparatus in a chat service system according to embodiments of the present invention.
4 to 7 are flowcharts illustrating a method of providing a chat service according to embodiments of the present invention.
8 is a diagram illustrating an exemplary screen of a chat service according to an embodiment of the present invention.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, detailed description of well-known functions or constructions that may obscure the subject matter of the present invention will be omitted. It should be noted that the same constituent elements are denoted by the same reference numerals as possible throughout the drawings.

이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms and words used in the present specification and claims should not be construed to be limited to ordinary or dictionary meanings and the inventor is not limited to the concept of terminology for describing his or her invention in the best way. It should be interpreted as meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention, and not all of the technical ideas of the present invention are described. Therefore, It is to be understood that equivalents and modifications are possible.

더하여, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급할 경우, 이는 논리적 또는 물리적으로 연결되거나, 접속될 수 있음을 의미한다. 다시 말해, 구성요소가 다른 구성요소에 직접적으로 연결되거나 접속되어 있을 수 있지만, 중간에 다른 구성요소가 존재할 수도 있으며, 간접적으로 연결되거나 접속될 수도 있다고 이해되어야 할 것이다.In addition, when referring to an element as being "connected" or "connected" to another element, it means that it can be connected or connected logically or physically. In other words, it is to be understood that although an element may be directly connected or connected to another element, there may be other elements in between, or indirectly connected or connected.

또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 명세서에서 기술되는 "포함 한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Also, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. It is also to be understood that the terms such as " comprising "or" having ", as used herein, are intended to specify the presence of stated features, integers, It should be understood that the foregoing does not preclude the presence or addition of other features, numbers, steps, operations, elements, parts, or combinations thereof.

설명에 앞서, 본 발명의 실시 예들에 따른 채팅 서비스는, 통신망을 기반으로 둘 이상의 사용자 간에 각 사용자의 영상 정보 및 음성 정보를 실시간으로 교환함으로써, 둘 이상의 사용자 간에 실시간 대화를 가능하게 하는 서비스를 의미하는 것으로서, 통화 기능을 포함하는 인스턴트 메신저 서비스, 통화 서비스 어플리케이션과 연동하는 인스턴트 메신저 서비스, VoIP 및 mVoIP 기반의 통화 서비스까지 포함하는 개념이다.Prior to the description, the chat service according to embodiments of the present invention refers to a service that enables real-time conversation between two or more users by exchanging video information and voice information of each user between two or more users based on a communication network in real time An instant messenger service including a call function, an instant messenger service interworking with a call service application, and a call service based on VoIP and mVoIP.

아울러, 본 발명에 따른 채팅 서비스 시스템에서 제공되는 영상 정보 및 음성 정보는 모바일 인터넷 전화(mVoIP: mobile Voice over Internet Protocol)를 기반으로 사용자의 영상 및 음성을 디지털 신호로 변환한 데이터 패킷(data packet)을 포함하는 정보이다. In addition, the video information and the voice information provided in the chat service system according to the present invention are transmitted to a data packet in which a video and a voice of a user are converted into a digital signal based on a Mobile Voice over Internet Protocol (mVoIP) .

먼저, 도 1을 참조하여, 본 발명에 따른 채팅 서비스 시스템의 전체 구성을 개략적으로 설명한다.First, with reference to FIG. 1, a general configuration of a chat service system according to the present invention will be schematically described.

도 1은 본 발명의 실시 예에 따른 채팅 서비스 시스템의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of a chat service system according to an embodiment of the present invention.

도 1을 참조하면, 채팅 서비스 시스템은 통신망(10)을 통해 연결되는 하나 이상의 단말 장치(100) 및 서비스 장치(200)를 포함하여 구성할 수 있다. Referring to FIG. 1, a chat service system may include one or more terminal devices 100 and a service device 200 connected through a communication network 10.

단말 장치(100)는 사용자의 키 조작에 따라 통신망(10)을 경유하여 각종 데이터를 송수신할 수 있는 단말기를 말하는 것이며, 태블릿 PC(Tablet PC), 랩톱(Laptop), 개인용 컴퓨터(PC: Personal Computer), 스마트폰(Smart Phone), 개인휴대용 정보단말기(PDA: Personal Digital Assistant), 스마트 TV 및 이동통신 단말기(Mobile Communication Terminal) 등 중 어느 하나일 수 있다. The terminal device 100 is a terminal capable of transmitting and receiving various data via the communication network 10 in accordance with a key operation of a user. The terminal device 100 includes a tablet PC, a laptop, a personal computer ), A smart phone, a personal digital assistant (PDA), a smart TV, and a mobile communication terminal.

특히, 단말 장치(100)는 통신망(10)을 이용하여 영상 및 음성을 포함하는 데이터 통신을 수행하는 단말기이며, 통신망(10)을 경유하여 서비스 장치(200)와 통신하기 위한 브라우저, 프로그램 및 프로토콜을 저장하는 메모리, 각종 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하고 있는 단말기를 의미한다. 즉, 단말 장치(100)는 서비스 장치(200)와 서버-클라이언트 통신이 가능하고, 채팅 서비스를 실행할 수 있다면 그 어떠한 단말기도 가능하며, 노트북 컴퓨터, 이동통신 단말기, PDA 등의 통신 컴퓨팅 장치를 모두 포함하는 넓은 개념이다. 한편, 단말 장치(100)는 터치 스크린을 구비한 형태로 제작되는 것이 바람직하나 반드시 이에 한정되는 것은 아니다. In particular, the terminal device 100 is a terminal for performing data communication including video and audio using the communication network 10, and is a browser, a program and a protocol for communicating with the service device 200 via the communication network 10 A memory for storing various programs, a microprocessor for executing and controlling various programs, and the like. That is, if the terminal apparatus 100 is capable of server-client communication with the service apparatus 200 and is capable of executing a chat service, any terminal can be used, and all communication computing apparatuses such as a notebook computer, a mobile communication terminal, It is a broad concept that includes. Meanwhile, the terminal device 100 is preferably manufactured with a touch screen, but is not limited thereto.

특히, 본 발명에 따른 단말 장치(100)는 영상, 음성, 문자 중 하나 이상을 이용한 채팅 서비스를 수행한다. 구체적으로, 단말 장치(100)는 채팅 서비스를 제공하는 동안, 사용자의 영상, 음성 및 문자 중 적어도 하나를 입력 받아 상기 서비스 장치(200)를 통해서 하나 이상의 다른 단말 장치로 송신하면서, 상기 다른 단말 장치로부터 수신된 상대방의 영상, 음성 및 문자 중 적어도 하나를 출력하여 사용자에게 제공함으로써, 사용자 간에 영상, 음성 및 문자 중 적어도 하나를 이용한 실시간 대화를 가능하게 한다. 보편적으로, 채팅 서비스에 포함된 영상 및 문자를 디스플레이 수단을 통해서 시각 신호로 출력되며, 음성은 스피커 등을 통해서 청각 신호로 출력된다.In particular, the terminal device 100 according to the present invention performs a chat service using at least one of video, audio, and text. Specifically, while providing the chat service, the terminal device 100 may receive at least one of video, audio, and characters of the user and transmit the received video data to at least one other terminal device through the service device 200, Voice, and characters received from the other party and provides the user with at least one of the video, audio, and characters received from the user, thereby enabling real-time conversation using at least one of video, audio, and characters among users. Generally, images and characters included in a chat service are output as visual signals through a display means, and audio is output as auditory signals through a speaker or the like.

이때, 본 발명에 따른 단말 장치(100)는 채팅 서비스를 제공하는 동안 디스플레이되는 사용자 인터페이스 화면을 다수의 영역으로 분할한 후, 채팅 서비스 중에서 송수신되는 영상 정보, 음성 정보 및 문자 정보를 각각 구분하여 서로 다른 영역으로 시각화하여 출력한다. 이때, 음성 정보의 시각화는, 음성 정보를 텍스트로 변환하거나, 음성 정보의 파장을 추출하여 시각화하는 방식으로 이루어질 수 있다.At this time, the terminal device 100 according to the present invention divides the user interface screen displayed while providing the chat service into a plurality of areas, divides the video information, the voice information, and the character information transmitted and received in the chat service, Visualize it in another area and output it. At this time, the visualization of the audio information may be performed by converting the audio information into text, or by extracting the wavelength of the audio information and visualizing it.

예를 들어, 음성 채팅의 경우, 채팅 서비스에 참여한 사용자들의 음성을 청각 신호로 출력하면서, 각 사용자의 음성 정보를 텍스트로 변환하거나, 음성 정보의 파장을 시각화하여 사용자 인터페이스 화면을 통해 출력할 수 있다. For example, in the case of voice chat, the voice of the users participating in the chat service may be outputted as auditory signals, the voice information of each user may be converted into text, or the wavelength of the voice information may be visualized and outputted through the user interface screen .

그리고, 영상 채팅의 경우, 채팅 서비스에 참여한 사용자들의 영상을 출력하면서, 아울러, 사용자들의 음성 정보를 텍스트로 변화하거나, 음성 정보의 파장을 시각화하여 상기 영상 정보와는 다른 영역에 출력할 수 있다.In addition, in the case of a video chat, the video of the users participating in the chat service may be output, the voice information of the users may be changed to text, or the wavelength of the voice information may be visualized and output to a region different from the video information.

여기서, 상기 채팅 서비스는, 영상 채팅 또는 음성 채팅과 동시에 문자 채팅을 함께 수행할 수 있는데, 이때, 문자 정보도 상기 영상 정보나 음성 정보와는 다른 영역을 통해 함께 출력된다.Here, the chat service may simultaneously perform a text chat or a voice chat and simultaneously perform a text chat. At this time, the character information is also output through an area different from the image information or the voice information.

이때, 서로 다른 영역을 통해 출력되는 영상 정보, 음성 정보, 문자 정보는, 채팅 서비스에 참여한 사용자들을 기준으로 매핑하여 출력함으로써, 영상 정보, 음성 정보, 문자 정보의 관련성을 직관적으로 인식할 수 있도록 할 수 있다.At this time, the image information, the voice information, and the character information output through the different areas are mapped based on the users participating in the chat service and outputted, so that the relevance of the video information, the voice information, and the character information can be intuitively recognized .

서비스 장치(200)는 하나 이상의 단말 장치(100)과 통신망(10)을 통해 연동하여 채팅 서비스를 제공한다. 이때, 상기 서비스 장치(200)는 채팅 서비스의 연동을 위한 클라이언트 프로그램 또는 어플리케이션을 상기 하나 이상의 단말 장치(100)에 제공하고, 이를 통해 상기 하나 이상의 단말 장치(100)와 연동할 수 있다. 구체적으로, 상기 서비스 장치(200)는 상기 하나 이상의 단말 장치(100)로부터 요청 및 응답에 따라서, 둘 이상의 단말 장치(100)를 채팅 그룹으로 등록하고, 채팅 그룹으로 등록된 둘 이상의 단말 장치(100) 사이에서 각 사용자의 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 포함하는 채팅 데이터를 중계한다.The service device 200 provides a chat service by interworking with one or more terminal devices 100 through a communication network 10. At this time, the service device 200 may provide a client program or application for interworking with a chat service to the one or more terminal devices 100, and may interwork with the one or more terminal devices 100 through the same. Specifically, the service apparatus 200 registers two or more terminal apparatuses 100 as a chat group according to a request and a response from the one or more terminal apparatuses 100, and registers two or more terminal apparatuses 100 The chat information including at least one of image information, voice information, and character information of each user.

본 발명의 일 실시 예에서, 상기 서비스 장치(200)는 단말 장치(100)로부터의 요청에 따라서, 둘 이상의 영역으로 분할된 사용자 인터페이스 화면을 상기 단말 장치(100)로 제공하고, 단말 장치(100)에서 송수신하는 채팅 데이터에 포함된 영상 정보, 음성 정보 및 문자 정보가 서로 다른 영역을 통해 출력되도록 제어할 수 있다.In an embodiment of the present invention, the service apparatus 200 provides a user interface screen divided into two or more areas to the terminal apparatus 100 according to a request from the terminal apparatus 100, and the terminal apparatus 100 The voice information, and the character information included in the chat data transmitted and received by the mobile terminal 100 are output through different areas.

이와 같은 단말 장치(100) 및 서비스 장치(200)는 통신망(10)을 통해 연동되며, 이러한 통신망(10)은 인터넷망, 인트라넷망, 이동통신망, 위성 통신망 등 다양한 유무선 통신 기술을 이용하여 인터넷 프로토콜로 데이터를 송수신할 수 있는 망을 말한다. 이러한, 통신망(10)은 LAN(Local Area Network), WAN(Wide Area Network)등의 폐쇄형 네트워크, 인터넷(Internet)과 같은 개방형 네트워크뿐만 아니라, CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), GSM(Global System for Mobile Communications), LTE(Long Term Evolution), EPC(Evolved Packet Core) 등의 네트워크와 향후 구현될 차세대 네트워크 및 컴퓨팅 네트워크를 통칭하는 개념이다. The terminal device 100 and the service device 200 are interworked through the communication network 10. The communication network 10 can be connected to the Internet using the various wired / wireless communication technologies such as the Internet network, the intranet network, the mobile communication network, Which can send and receive data. The communication network 10 may be a closed network such as a LAN (Local Area Network) or a WAN (Wide Area Network), an open network such as the Internet, a CDMA (Code Division Multiple Access), a WCDMA The concept is called the next generation network and computing network that will be implemented next, such as Multiple Access, Global System for Mobile Communications (GSM), Long Term Evolution (LTE) and Evolved Packet Core (EPC)

이와 같이 구성된 채팅 서비스 시스템에서 본 발명의 실시 예들에 따른 단말 장치의 구성을 첨부된 도면을 참조하여 구체적으로 살펴보면 다음과 같다.Hereinafter, the configuration of a terminal device according to embodiments of the present invention in a chat service system configured as above will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 실시 예들에 따른 채팅 서비스 시스템에서의 단말 장치(100)의 구성을 도시한 도면이다. 2 is a diagram illustrating a configuration of a terminal device 100 in a chat service system according to embodiments of the present invention.

도 2를 참조하면, 단말 장치(100)는 제어부(110), 입력부(120), 통신부(130), 저장부(140), 출력부(150) 및 오디오 처리부(160)를 포함하여 구성할 수 있다. 물론, 단말 장치(100)는 상술한 구성 이외에, 센서, GPS 수신기 등의 다른 구성요소들을 더 포함할 수 있으나, 이들은 본 발명과 직접적인 관련이 없어 도시 및 설명을 생략한다.2, the terminal device 100 includes a control unit 110, an input unit 120, a communication unit 130, a storage unit 140, an output unit 150, and an audio processing unit 160 have. Of course, the terminal device 100 may further include other components such as a sensor, a GPS receiver, etc., in addition to the above-described configuration, but these are not directly related to the present invention, and the description and the description are omitted.

본 발명에 따른 단말 장치(100)에 구비된 각 구성의 기능 및 구성 간의 연동을 구체적으로 설명한다.Interworking between the functions and configurations of the respective constituent elements provided in the terminal device 100 according to the present invention will be described concretely.

먼저, 제어부(110)는 단말 장치(100)의 전반적인 제어를 수행하기 위한 구성으로서, 하나 이상의 프로세서를 포함하여 구현될 수 있다. 이 프로세서는 싱글 쓰레드(Single-threaded) 프로세서일 수 있으며, 다른 구현 예에서 본 프로세서는 멀티 쓰레드(Multithreaded) 프로세서일 수 있다. 나아가, 제어부(110)는 상기 하나 이상의 프로세서를 통해서, 메모리 혹은 저장 장치 상에 저장된 명령을 처리함으로써 동작할 수 있다. 이때, 상기 명령으로는, 예컨대 JavaScript나 ECMAScript 명령 등의 스크립트 명령과 같은 해석되는 명령이나 실행 가능한 코드 혹은 컴퓨터로 판독 가능한 매체에 저장되는 기타의 명령이 포함될 수 있다.First, the control unit 110 is configured to perform overall control of the terminal device 100, and may include one or more processors. The processor may be a single-threaded processor, and in other embodiments, the processor may be a multithreaded processor. Further, the control unit 110 can operate by processing instructions stored on the memory or storage device via the one or more processors. The instructions may include interpreted instructions or executable code such as, for example, JavaScript or ECMAScript commands, or other instructions stored in a computer-readable medium.

이러한 제어부(110)는 전원이 온되면, 저장부(140)에 저장된 OS(Operating System) 프로그램을 실행하여, 다른 응용프로그램이 실행될 수 있는 실행 환경을 구축하고, 이를 기반으로 하나 이상의 다른 응용프로그램을 실행하여 소정의 기능을 수행할 수 있다.When the power is turned on, the control unit 110 executes an OS (Operating System) program stored in the storage unit 140 to establish an execution environment in which another application program can be executed, And can perform a predetermined function.

특히, 제어부(110)는 채팅 서비스와 관련된 응용 프로그램을 수행하여, 본 발명에 따른 채팅 서비스를 실행할 수 있다. 이를 위해, 제어부(110)는 채팅 처리 모듈(111)을 포함하여 구성될 수 있다. 여기서, 모듈(Module)은, 소프트웨어, 또는 하드웨어 또는 소프트웨어와 하드웨어의 조합으로 구현되어 일정 기능을 수행하는 구성 요소를 의미하는 것으로서, 본 발명에 따른 채팅 처리 모듈(111)은 프로세서가 채팅 관련 응용프로그램을 수행함에 의해 구현되어 이하에서 설명하는 기능을 수행한다.In particular, the controller 110 may execute an application program related to the chat service to execute the chat service according to the present invention. To this end, the control unit 110 may be configured to include a chat processing module 111. Here, the module refers to a component that is implemented by software or hardware or a combination of software and hardware to perform a certain function, and the chat processing module 111 according to the present invention is a module in which a processor executes a chat- To perform the functions described below.

구체적으로, 상기 제어부(100)는 사용자의 채팅 서비스 요청에 따라서 상기 채팅 처리 모듈(111)을 실행하여 활성화하며, 상기 활성화된 채팅 처리 모듈(111)을 통해서, 둘 이상의 채팅 그룹 생성을 요청하거나, 특정 채팅 그룹으로의 참여를 요청하고, 이후 연결된 채팅 세션을 통해서, 상기 채팅 그룹에 참여한 사용자들의 채팅 데이터를 송수신 및 송수신되는 채팅 데이터의 출력을 처리한다.Specifically, the controller 100 activates and activates the chat processing module 111 in response to a chat service request from the user, requests to create two or more chat groups through the activated chat processing module 111, Requests participation in a specific chat group, and processes output of chat data transmitted / received and transmitted / received by users participating in the chat group through a connected chat session.

이때, 상기 채팅 데이터는 영상 정보, 음성 정보 및 문자 정보를 포함할 수 있다. 여기서, 영상 정보는 사용자를 촬영한 영상일 수 있고, 음성 정보는 해당 사용자가 발화한 음성 신호일 수 있으며, 문자 정보는 해당 사용자가 입력한 문자일 수 있다.At this time, the chat data may include video information, audio information, and character information. Here, the image information may be an image of a user, the voice information may be a voice signal uttered by the user, and the character information may be a character input by the user.

상기 채팅 처리 모듈(111)은 이러한 채팅 데이터의 출력을 위하여, 둘 이상의 영역으로 분할된 사용자 인터페이스 화면을 구성한다. 그리고, 상기 둘 이상의 영역에 각각, 영상, 음성 및 문자 중 어느 하나를 할당한다. 그리고, 상기 채팅 처리 모듈(111)은, 상기 채팅 서비스를 통해 송수신되는 채팅 데이터로부터 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 분리하고, 분리된 영상 정보, 음성 정보 및 문자 정보를 시각화하여, 할당된 영역으로 출력한다. The chat processing module 111 forms a user interface screen divided into two or more areas for outputting the chat data. Then, one of video, audio, and text is assigned to each of the two or more areas. The chat processing module 111 separates at least one of video information, voice information, and character information from chat data transmitted and received through the chat service, visualizes separated video information, voice information, and character information, And outputs it to the allocated area.

이때 상기 채팅 처리 모듈(111)은, 상기 음성 정보를 텍스트로 변환하여 출력하거나, 상기 음성 정보의 파장을 추출하고, 추출된 파장을 시각화하여 출력할 수 있다.At this time, the chat processing module 111 may convert the voice information into text and output it, extract the wavelength of the voice information, and visualize and output the extracted wavelength.

이때, 상기 채팅 처리 모듈(111)은, 상기 채팅 서비스에 참여한 사용자별로 상기 영역을 더 분할하여, 사용자별로 음성 정보, 영상 정보 및 문자 정보 중 적어도 하나를 구분하여 출력할 수 있다. 예를 들어, 채팅 시, 영상 정보는 사용자 별로 영역을 구분하여 디스플레이하면서, 채팅에 참여한 다수 사용자의 음성 정보 및 문자 정보는, 사용자별 구분 없이 하나의 영역에 발생 시간 순으로 배치하여 표시할 수 있다. 또 다른 예에서, 사용자별로 영상 정보, 음성 정보 및 문자 정보를 각각 구분하여 출력할 수 도 있다. 이때, 상기 영상 정보, 음성 정보, 문자 정보에 할당된 각 영역을 채팅 서비스에 참여한 사용자들을 기준으로 매핑되도록 상기 사용자 인터페이스 화면에 배치함으로써, 직관적으로, 분리되어 출력되는 영상 정보, 음성 정보, 문자 정보가 연결될 수 있도록 한다. 예를 들어, 각 사용자별로, 영상정보가 출력되는 영역의 하부에 음성 정보 및 문자 정보가 출력되는 영역들을 이어서 배치함으로써, 각 음성 정보 및 문자 정보가 어떤 사용자의 의사인지를 쉽게 인지하도록 할 수 있다.At this time, the chat processing module 111 may further divide the area for each user participating in the chat service, and output at least one of voice information, image information, and character information for each user. For example, while chatting, the video information is divided and displayed for each user, and the voice information and the character information of a plurality of users participating in the chat can be displayed in one area in the order of occurrence time, . In another example, video information, audio information, and character information may be separately output for each user. At this time, each area allocated to the video information, voice information, and text information is arranged on the user interface screen so as to be mapped on the basis of users participating in the chat service, so that intuitively and separately outputted image information, To be connected. For example, by arranging areas for outputting audio information and character information in the lower part of the area where video information is output for each user, it is possible to easily recognize which user's voice each of the audio information and the character information is .

아울러, 상기 채팅 처리 모듈(111)은, 입력부(130)를 통해서 채팅 서비스에 참여한 둘 이상의 사용자 중에서, 적어도 한 명을 선택 받고, 선택된 사용자의 영상, 문자, 음성 중 적어도 하나를 시각화하여 출력할 수 있다.The chat processing module 111 may select at least one of two or more users participating in the chat service through the input unit 130 and visualize at least one of video, have.

예를 들어, 영상 채팅 및 음성 채팅 중에, 선택된 사용자의 음성 정보만을 시각화하여, 예를 들어, 음성 정보를 텍스트화하거나 음성 정보의 파장을 시각화하여 출력할 수 있다. 이때, 채팅에 참여한 모든 사용자의 음성 정보는, 오디오 처리부(160)를 통해 청각 신호로 출력된다. 따라서, 사용자는 음성 채팅 중, 원하는 사용자의 음성 정보만을 시각화하여 사용자 인터페이스 화면을 통해 별도로 확인할 수 있다.For example, during the video chatting and the voice chatting, only the voice information of the selected user can be visualized, for example, the voice information can be textized or the wavelength of the voice information can be visualized and output. At this time, the voice information of all the users participating in the chat is output as an auditory signal through the audio processing unit 160. [ Accordingly, the user can visualize only the voice information of the desired user during the voice chat and separately check through the user interface screen.

다음으로, 본 발명의 실시 예에 따른 단말 장치(100)의 구성 중, 통신부(120)는 통신망(10)을 통해 서비스 장치(200)와 통신을 수행하여 채팅 서비스에 관련된 데이터를 송수신할 수 있다. 구체적으로 통신부(120)는, 채팅 그룹 생성 요청이나, 특정 채팅 그룹으로의 참여 요청 등 채팅 서비스와 관련된 요청 및 응답을 상기 서비스 장치(200)로 송신하거나 수신한다. 아울러, 상기 통신부(120)는 서비스 장치(200)의 제어에 따라서 채팅 세션을 연결하고, 연결된 채팅 세션을 통해서 채팅에 참여한 사용자들의 영상 정보, 음성 정보 및 문자 정보 중에서 적어도 하나를 포함하는 채팅 데이터를 송수신한다.Next, among the configurations of the terminal device 100 according to the embodiment of the present invention, the communication unit 120 can communicate with the service device 200 through the communication network 10 to transmit and receive data related to the chat service . Specifically, the communication unit 120 transmits or receives a request and a response related to a chat service, such as a request to create a chat group or a request to participate in a specific chat group, to the service apparatus 200. In addition, the communication unit 120 connects a chat session under the control of the service device 200, and transmits chat data including at least one of video information, voice information, and character information of users participating in the chat through a connected chat session Send and receive.

이러한 통신부(120)는 유선 방식 및 무선 방식뿐만 아니라 다양한 통신 방식을 통해서 데이터를 송수신할 수 있다. 더하여, 통신부(120)는 하나 이상의 통신 방식을 사용하여 데이터를 송수신할 수 있으며, 이를 위하여 통신부(120)는 각각 서로 다른 통신 방식에 따라서 데이터를 송수신하는 복수의 통신 모듈을 포함할 수 있다.The communication unit 120 can transmit and receive data through various communication methods as well as wire and wireless methods. In addition, the communication unit 120 may transmit and receive data using one or more communication methods. For this purpose, the communication unit 120 may include a plurality of communication modules that transmit and receive data according to different communication methods, respectively.

그리고, 입력부(130)는 단말 장치(100)의 조작을 위한 구성으로서, 구체적으로, 사용자의 조작에 따라서, 단말 장치(100)의 기능 또는 동작을 제어하기 위한 사용자 요청이나 정보에 해당하는 사용자 입력 신호를 생성하여 상기 제어부(110)로 전달한다. 이러한 입력부(130)는 현재 상용화되어 있거나 향후 상용화가 가능한 다양한 입력 수단으로 구현될 수 있으며, 예를 들면, 키보드, 마우스, 조이스틱, 터치 스크린, 터치 패드 등과 같은 일반적인 입력 장치뿐만 아니라, 사용자의 모션을 감지하여 특정 입력 신호를 발생하는 제스처 입력 수단, 사용자의 음성을 인식하는 음성 인식 수단을 포함할 수 있다. 특히, 입력부(130)는 채팅 그룹의 생성, 참여자의 선택, 참여 여부 선택을 위해 이용될 수 있다.The input unit 130 is a configuration for operating the terminal device 100. Specifically, the input unit 130 may include a user input for controlling a function or an operation of the terminal device 100, And transmits the generated signal to the control unit 110. The input unit 130 may be implemented by a variety of input means that are currently commercialized or may be commercialized in the future. For example, the input unit 130 may include a general input device such as a keyboard, a mouse, a joystick, a touch screen, Gesture input means for sensing and generating a specific input signal, and voice recognition means for recognizing the user's voice. In particular, the input unit 130 may be used for creating a chat group, selecting a participant, and selecting participation.

이어서, 저장부(140)는 제어부(110)에 의해 실행되거나 처리되는 데이터 혹은 프로그램을 저장하기 위한 구성이다. 기본적으로, 저장부(140)는 단말 장치(100)의 부팅 및 상술한 각 구성의 운용을 위한 운영체제(OS, Operating System), 다양한 사용자 기능, 예를 들면, 단말 장치(100)의 통화기능 지원을 위한 사용자 기능, 기타 음원을 재생하기 위한 MP3 사용자 기능, 사진 등의 이미지를 재생하기 위한 이미지 출력 기능, 동영상 재생 기능 등을 각각 지원하기 위한 응용 프로그램 등을 저장할 수 있다. 특히, 저장부(140)는, 채팅 서비스를 위한 응용 프로그램을 저장할 수 있다. 이러한 저장부(140)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media) 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리를 포함한다. The storage unit 140 is a structure for storing data or programs executed or processed by the control unit 110. [ Basically, the storage unit 140 may include an operating system (OS) for operating each of the above-described configurations of the terminal 100, various user functions, for example, A user function for playing a sound source, an MP3 user function for playing a sound source, an image outputting function for reproducing an image such as a photograph, and an application program for supporting a moving image playback function, respectively. In particular, the storage unit 140 may store an application program for a chat service. The storage unit 140 may be an optical storage medium such as a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, a CD-ROM (Compact Disc Read Only Memory), a DVD (Digital Video Disk) A magneto-optical medium such as a floppy disk and a ROM, a random access memory (RAM), and a flash memory.

아울러, 저장부(140)는 출력부(150)가 터치스크린으로 구성되는 경우 터치스크린 운용을 위한 키 맵이나 메뉴 맵 등을 저장할 수 있다. 여기서 키 맵, 메뉴 맵은 각각 다양한 형태가 될 수 있다. 즉, 키맵은 키보드 맵이나, 3*4 키 맵, 쿼티 키 맵 등이 될 수 있고, 현재 활성화되고 있는 응용 프로그램의 운용 제어를 위한 제어키 맵이 될 수 도 있다. 또한, 메뉴 맵은 현재 활성화되고 있는 응용 프로그램 운용 제어를 위한 메뉴 맵이 될 수 도 있다. In addition, the storage unit 140 may store a key map or a menu map for the touch screen operation when the output unit 150 is configured as a touch screen. Here, the key map and the menu map may be various types. That is, the key map may be a keyboard map, a 3 * 4 key map, a QWERTY key map, or the like, and may be a control key map for controlling the operation of the currently activated application program. In addition, the menu map may be a menu map for currently operating application program control.

출력부(150)는 단말 장치(100)의 동작 결과나 상태를 사용자가 인식할 수 있도록 제공하는 구성으로서, 특히, 디스플레이 수단을 이용하여 시각적으로 정보를 출력한다. 예를 들어, 출력부(150)는, 방전광 디스플레이(ELD), 진공 형광 디스플레이(VFD), 액정 디스플레이 장치(LCD: Liquid crystal display), 발광 다이오드 디스플레이, 플라스마 디스플레이 패널(PDP), 유기 발광 다이오드(OLED) 등과 같은 다양한 2차원 디스플레이 수단뿐만 아니라, 홀로그래피 또는 레이저 빔과 같은 3차원 디스플레이 수단까지 포함할 수 있다.The output unit 150 provides a user with an operation result or status of the terminal device 100. In particular, the output unit 150 visually outputs information using the display means. For example, the output unit 150 may be an organic light emitting diode (OLED), a vacuum fluorescent display (VFD), a liquid crystal display (LCD), a light emitting diode display, a plasma display panel (OLED), etc., as well as three-dimensional display means such as holography or laser beam.

특히, 본 발명에 있어서, 상기 출력부(150)는 상기 제어부(110)의 제어에 따라서, 채팅 처리 모듈(111)에 의해 구성된 다수의 영역으로 분할된 사용자 인터페이스 화면을 출력하고, 상기 사용자 인터페이스 화면의 각 영역으로, 영상 정보, 음성 정보 및 문자 정보를 시각화하여 출력한다. 참고로, 상기 사용자 인터페이스 화면은, 상기 영상 정보, 음성 정보 및 문자 정보가 출력되는 영역 이외에, 사용자 선택이 가능한 GUI 요소를 더 포함할 수 있다.In particular, in the present invention, the output unit 150 outputs a user interface screen divided into a plurality of areas configured by the chat processing module 111 under the control of the controller 110, Visual information, voice information, and character information are visualized and output to the respective regions of the display device. For example, the user interface screen may further include a user-selectable GUI element in addition to a region in which the image information, audio information, and character information are output.

마지막으로, 상기 오디오 처리부(160)는 단말 장치(100)에 있어서, 음성 정보의 인식 및 음성 정보의 출력을 위한 구성으로서, 마이크(MIC)와 연동하여 상기 마이크(MIC)를 통해 인식된 음성 정보를 디지털 변환하여 상기 제어부(110)로 전달하고, 상기 제어부(110)로부터 전달된 음성 정보를 스피커(SPK)를 통해 청각 신호로 출력한다. 이때 상기 오디오 처리부(160)의 출력되는 음성 정보의 크기(볼륨) 조절 및 잡음 제거 등의 신호 처리를 더 수행한다.The audio processing unit 160 is a unit for recognizing audio information and outputting audio information in the terminal device 100. The audio processing unit 160 is connected to a microphone (MIC) And transmits the converted voice information to the controller 110. The voice information transmitted from the controller 110 is output as an audible signal through a speaker SPK. At this time, the audio processor 160 further performs signal processing such as volume adjustment and noise removal of the audio information output from the audio processor 160.

다음으로, 채팅 서비스 시스템에서 본 발명에 따른 서비스 장치(200)의 구성 및 동작을 도 3을 참조하여 구체적으로 살펴본다.Next, the configuration and operation of the service apparatus 200 according to the present invention in a chat service system will be described in detail with reference to FIG.

도 3은 본 발명의 실시 예들에 따른 채팅 서비스 시스템에서의 서비스 장치(200)의 구성을 도시한 도면이다.3 is a diagram illustrating the configuration of a service apparatus 200 in a chat service system according to an embodiment of the present invention.

도 3은 본 발명의 실시 예들에 따른 채팅 서비스 시스템에서의 서비스 장치의 구성을 도시한 도면이다. 3 is a diagram illustrating a configuration of a service apparatus in a chat service system according to embodiments of the present invention.

도 3을 참조하면, 서비스 장치(200)는 통신부(210), 서비스 제공부(220) 및 저장부(230)를 포함하여 구성할 수 있다. 3, the service apparatus 200 may include a communication unit 210, a service providing unit 220, and a storage unit 230.

통신부(210)는 통신망(10)을 통해 하나 이상의 단말 장치(100)와 채팅 서비스를 위한 데이터를 송수신할 수 있다. 이러한 통신부(210)는 유선 방식 및 무선 방식뿐만 아니라 다양한 통신 방식을 통해서 데이터를 송수신할 수 있다. 더하여, 통신부(210)는 하나 이상의 통신 방식을 사용하여 데이터를 송수신할 수 있으며, 이를 위하여 통신부(210)는 각각 서로 다른 통신 방식에 따라서 데이터를 송수신하는 복수의 통신 모듈을 포함할 수 있다. 구체적으로, 상기 통신부(210)는 하나 이상의 단말 장치(100)와 채팅 그룹의 생성, 참여 등을 위한 요청을 송수신하며, 상기 하나 이상의 단말 장치(100)와의 채팅 세션을 연결하고, 연결된 채팅 세션을 통해서 영상 정보, 문자 정보, 음성 정보 중에서 하나 이상을 포함하는 채팅 데이터를 송수신한다.The communication unit 210 can transmit and receive data for chat service with one or more terminal devices 100 through the communication network 10. [ The communication unit 210 can transmit and receive data through various communication methods as well as wire and wireless methods. In addition, the communication unit 210 may transmit and receive data using one or more communication methods. For this purpose, the communication unit 210 may include a plurality of communication modules that transmit and receive data according to different communication methods, respectively. Specifically, the communication unit 210 transmits and receives a request for creation and participation of a chat group with one or more terminal devices 100, connects a chat session with the one or more terminal devices 100, And transmits and receives chat data including at least one of video information, character information, and voice information.

본 발명의 실시 예들에 따른 서비스 제공부(220)는 통신망(10)을 통해 둘 이상의 단말 장치(100)와 연동하여 채팅 서비스를 제어하기 위한 구성으로서, 하나 이상의 프로세서를 포함하여 구현될 수 있다. 이때, 본 발명에 따른 서비스 장치(200)에 탑재되는 프로세서는 본 발명에 따른 방법을 실행하기 위한 프로그램 명령을 처리하여 이하에서 설명하는 소정의 기능을 수행할 수 있다. 일 구현 예에서, 이 프로세서는 싱글 쓰레드(Single-threaded) 프로세서일 수 있으며, 다른 구현 예에서 본 프로세서는 멀티 쓰레드(Multithreaded) 프로세서일 수 있다. 구체적으로, 상기 서비스 제공부(220)는, 통신부(210)와 기능적으로 연동하여, 채팅 그룹으로 설정된 둘 이상의 단말 장치들(100) 사이에서 영상 정보, 음성 정보, 및 문자 정보 중에서 하나 이상을 포함하는 채팅 데이터를 중계한다. The service providing unit 220 according to the embodiments of the present invention may be implemented by including one or more processors in a configuration for controlling a chat service in cooperation with two or more terminal devices 100 through a communication network 10. At this time, the processor mounted on the service apparatus 200 according to the present invention can perform a predetermined function described below by processing a program command for executing the method according to the present invention. In one implementation, the processor may be a single-threaded processor, and in other embodiments, the processor may be a multithreaded processor. Specifically, the service providing unit 220 includes at least one of video information, audio information, and text information between two or more terminal devices 100 set as a chat group in a functional interlock with the communication unit 210 And relays the chat data.

더하여, 상기 서비스 제공부(220)는 채팅 서비스의 제공 중에, 본 발명에 따른 사용자 인터페이스 제어를 더 수행할 수 있다. 구체적으로, 상기 서비스 제공부(220)는 채팅 그룹으로 등록된 둘 이상의 단말 장치(100) 간에 영상 정보, 음성, 및 문자 중 적어도 하나를 실시간으로 중계하되, 상기 둘 이상의 단말 장치로 둘 이상의 영역으로 분할된 사용자 인터페이스 화면을 제공하고, 상기 둘 이상의 단말 장치 간에 송수신되는 채팅 데이터의 영상, 음성, 문자를 분리하여, 상기 분리된 영상, 음성 및 문자를 각각 서로 다른 영역에 할당하여 출력하도록 각 단말 장치(100)를 제어한다. In addition, the service providing unit 220 may further perform the user interface control according to the present invention during the provision of the chat service. Specifically, the service providing unit 220 relays at least one of video information, voice, and characters between two or more terminal apparatuses 100 registered in a chat group in real time, A divided user interface screen is provided and the video, audio, and characters of the chat data transmitted and received between the two or more terminal devices are separated to allocate the separated video, voice, and character to different areas, (100).

특히, 상기 서비스 제공부(220)는 채팅에 참여한 다수 사용자의 영상 정보를 출력하면서, 상기 음성 정보 및 문자 정보를 해당 사용자의 선택에 따라서 선별하여 출력하도록 제어할 수 있다. 즉, 각 단말 장치(100)가 해당 사용자가 원하는 특정 사용자의 음성 정보 또는 문자 정보만을 시각화하여 출력할 수 있다.Particularly, the service providing unit 220 may control to output the video information of a plurality of users participating in the chat while selectively outputting the voice information and the character information according to a selection of a corresponding user. That is, each terminal device 100 can visualize and output only voice information or character information of a specific user desired by the user.

이 경우, 동일한 채팅 그룹으로 등록된 단말 장치(100)라도 각각의 요청에 따라서 시각화되어 출력되는 사용자의 채팅 데이터가 상이할 수 있다.In this case, even for the terminal device 100 registered in the same chat group, the chat data of the user visualized and outputted according to each request may be different.

그리고, 서비스 장치(200)의 저장부(230)는 채팅 서비스를 제공하기 위해 필요한 데이터 및 프로그램을 저장하기 위한 구성이다. 구체적으로, 저장부(230)는 현재 생성된 채팅 그룹 및 채팅 그룹에 등록된 단말 장치들(100)의 정보를 저장하고, 상기 채팅 그룹 별 채팅 데이터를 일정 시간 동안 저장할 수 있다.The storage unit 230 of the service device 200 is a configuration for storing data and programs necessary for providing a chat service. Specifically, the storage unit 230 stores the information of the terminal devices 100 registered in the currently generated chat group and the chat group, and may store the chat data for each chat group for a predetermined time.

이러한 저장부(230)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media) 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리를 포함한다. The storage unit 230 may be an optical recording medium such as a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, a CD-ROM (Compact Disk Read Only Memory), a DVD (Digital Video Disk) A magneto-optical medium such as a floppy disk and a ROM, a random access memory (RAM), and a flash memory.

다음으로, 상술한 바와 같이 구성된 채팅 서비스 시스템을 기반으로 이루어지는 채팅 서비스 제공 방법을 도 4 내지 도 8을 참조하여 설명한다.Next, a chat service providing method based on the chat service system configured as described above will be described with reference to FIG. 4 to FIG.

도 4 내지 도 7은 본 발명의 실시 예들에 따른 채팅 서비스 제공 방법을 나타낸 순서도이고, 도 8은 본 발명의 실시 예에 따른 채팅 서비스의 예시 화면을 나타낸 도면이다.4 to 7 are flowcharts illustrating a method of providing a chat service according to an embodiment of the present invention, and FIG. 8 is a diagram illustrating an exemplary screen of a chat service according to an exemplary embodiment of the present invention.

참고로, 이하에서 설명하는 채팅 서비스 제공 방법의 각 단계는, 상기 단말 장치(100) 및 서비스 장치(200) 중 어느 하나의 장치를 통해서 이루어질 수 있는데, 이하에서는 단말 장치(100)을 기준으로 설명하기로 한다.Each step of the chat service providing method described below can be performed through any one of the terminal device 100 and the service device 200. Hereinafter, description will be made on the basis of the terminal device 100 .

먼저, 도 4를 참조하면, 본 발명에 따른 단말 장치(100)는 사용자 요청에 따라서 둘 이상의 사용자 간에 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 교환하여 실시간 대화를 지원하는 채팅 서비스를 수행할 수 있으며, 본 발명에 따른 단말 장치(100)는 이러한 채팅 서비스가 시작되는 지를 확인한다(S105). 구체적으로, 상기 S105 단계는, 서비스 장치(200)로 채팅 그룹의 생성을 요청하는 메시지를 전송한 후, 상기 서비스 장치(200)를 통한 다른 단말 장치들의 응답에 따라서 이루어지거나, 상기 서비스 장치(200)를 통해 전송된 다른 단말 장치의 채팅 그룹 생성 요청에 대하여 참여를 수락하는 응답을 전송하는 경우, 채팅 서비스가 시작된 것으로 판단할 수 있다.4, the terminal device 100 according to the present invention exchanges at least one of image information, voice information, and character information between two or more users in response to a user request to perform a chat service for supporting real-time conversation And the terminal device 100 according to the present invention checks whether the chat service is started (S105). Specifically, the step S105 may be performed according to a response of other terminal devices through the service device 200 after transmitting a message requesting the creation of a chat group to the service device 200, ), It can be determined that the chat service is started when a response to accept the participation is transmitted to the chat group creation request of the other terminal device transmitted through the terminal.

이렇게 채팅 서비스가 시작되면, 상기 단말 장치(100)는 채팅 관련 정보를 출력하기 위한 사용자 인터페이스 화면을 둘 이상의 영역으로 분할한다(S110). When the chat service is started, the terminal device 100 divides the user interface screen for outputting chat related information into two or more areas (S110).

그리고, 상기 단말 장치(100)는 상기 분할한 둘 이상의 영역에 각각 영상, 음성, 문자 중 적어도 하나를 할당한다(S115). 이때, 상기 S115 단계는 디폴트 설정 값에 따라 이루어질 수 도 있고, 사용자 선택에 따라서 이루어질 수 도 있다. 아울러, 동일 사용자에 할당된 영역들은 서로 매핑될 수 있도록 배치함으로써, 사용자가 시각화되어 출력되는 정보 간의 연관성을 직관적으로 인지하도록 할 수 있다.Then, the terminal device 100 allocates at least one of video, audio, and characters to the divided two or more areas (S115). In this case, the step S115 may be performed according to a default setting value or may be performed according to a user selection. In addition, by arranging the areas allocated to the same user so that they can be mapped to each other, it is possible to intuitively recognize the association between information that the user visualizes and outputs.

그리고, 단말 장치(100)의 통신부(120)를 통해서, 해당 채팅 서비스에서 연결된 채팅 세션을 통해서, 채팅에 참여한 사용자들의 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 포함하는 채팅 데이터가 송수신되기 시작하면, 상기 제어부(110)는, 채팅 처리 모듈(111)을 통해서 송수신된 채팅 데이터로부터 영상 정보, 문자 정보, 음성 정보를 각각 분리한다(S120). Through the communication unit 120 of the terminal device 100, chat data including at least one of video information, voice information, and character information of users participating in a chat is transmitted and received through a chat session connected by the chat service At step S120, the control unit 110 separates the video information, the character information, and the audio information from the chat data transmitted and received through the chat processing module 111, respectively.

그리고, 단말 장치(100)의 채팅 처리 모듈(111)은 상기 분리된 영상 정보, 문자 정보, 음성 정보 중 하나를 각각 할당된 상기 사용자 인터페이스 화면의 해당 영역으로 시각화하여 출력한다(S125). 이때 상기 채팅 데이터에 음성 정보가 포함된 경우, 상기 단말 장치(100)는 해당 음성 정보를, 통상의 처리 방식과 마찬가지로, 오디오 처리부(160)를 통해서 청각 신호로 출력하면서, 상기 사용자 인터페이스 화면의 할당된 영역을 통해 시각화하여 출력할 수 있다. The chat processing module 111 of the terminal device 100 visualizes one of the separated video information, text information, and audio information as a corresponding area of the assigned user interface screen and outputs the visualized information (S125). If voice data is included in the chat data, the terminal device 100 outputs the voice information as an auditory signal through the audio processor 160 in the same manner as the normal processing method, Visualized through the region of interest and output.

이때, 음성 정보의 시각화는 도 5 또는 도 6과 같은 방식으로 이루어질 수 있다.At this time, visualization of the audio information may be performed in the same manner as in FIG. 5 or 6.

본 발명의 일 실시 예에 따르면, 상기 S125 단계에서, 단말 장치(100)의 채팅 처리 모듈(111)은 도 5에 도시된 바와 같이, 상기 채팅 데이터에 음성 정보가 포함된 경우, TTS(Text To Speech) 기술 등의 다양한 음성 인식 기술을 이용하여 분리된 음성 정보를 텍스트로 변환할 수 있다(S205). 그리고, 이렇게 변환된 음성 정보를 상기 사용자 인터페이스 화면의 할당된 영역으로 출력할 수 있다(S210). 이로서, 채팅에 참여한 사용자의 음성 내용을 텍스트로 확인할 수 있게 된다.According to an embodiment of the present invention, in step S125, when the chat data includes voice information, the chat processing module 111 of the terminal device 100 transmits a TTS (Text To Speech technology) to convert the separated voice information into text (S205). Then, the converted voice information can be output to the allocated area of the user interface screen (S210). As a result, the voice contents of the user who has participated in the chat can be confirmed as text.

본 발명의 다른 실시 예에 따르면, 상기 S125 단계에서, 단말 장치(100)의 채팅 처리 모듈(111)은 도 6에 도시된 바와 같이, 상기 음성 정보의 파장을 추출하고(S305), 추출한 파장을 시각화한 후(S310), 시각화된 파장을 상기 사용자 인터페이스 화면의 음성 정보에 할당된 영역으로 출력할 수 있다(S315). 이로서, 채팅에 참여한 사용자의 음성의 크기 혹은 톤의 변화를 시각적으로 인지할 수 있게 된다.According to another embodiment of the present invention, in step S125, the chat processing module 111 of the terminal device 100 extracts the wavelength of the voice information as shown in FIG. 6 (S305) After visualization (S310), the visualized wavelength may be output as the area allocated to the audio information of the user interface screen (S315). Thus, it is possible to visually recognize the change in the size or tone of the voice of the user participating in the chat.

아울러, 본 발명의 다른 실시 예에 따르면, 채팅에 참여한 사용자들의 영상 정보, 음성 정보 및 문자 정보를 서로 다른 영역을 통해서 시각화하여 출력하는데 있어서, 상기 사용자 중에서 선택된 사용자에 대해서만 음성 정보를 선택적으로 시각화하여 출력할 수 있다.According to another embodiment of the present invention, the visual information, the voice information, and the character information of the users participating in the chat are visualized through different areas, and the voice information is selectively visualized only for the selected user Can be output.

도 7은 본 발명의 다른 실시 예에 따른 채팅 서비스 제공 방법을 나타낸 순서도이다.7 is a flowchart illustrating a method of providing a chat service according to another embodiment of the present invention.

도 7을 참조하면, 본 발명에 따른 단말 장치(100)는 사용자 요청에 따라서 셋 이상의 사용자 간에 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 교환하여 실시간 대화를 지원하는 채팅 서비스가 시작되는 지를 확인한다(S405). 앞서 설명한 바와 같이, 상기 S205 단계는, 서비스 장치(200)로 채팅 그룹의 생성을 요청하는 메시지를 전송한 후, 상기 서비스 장치(200)를 통한 다른 단말 장치들의 응답에 따라서 이루어지거나, 상기 서비스 장치(200)를 통해 전송된 다른 단말 장치의 채팅 그룹 생성 요청에 대하여 참여를 수락하는 응답을 전송하는 경우, 채팅 서비스가 시작된 것으로 판단할 수 있다. 아울러, 상기 S205 단계에서는 채팅 서비스에 참여자가 셋 이상인지를 더 확인할 수 있다.Referring to FIG. 7, the terminal device 100 according to the present invention exchanges at least one of video information, voice information, and character information among three or more users in response to a user request to check whether a chat service supporting real- (S405). As described above, the step S205 may be performed according to a response of other terminal devices via the service device 200 after transmitting a message requesting the creation of a chat group to the service device 200, The mobile terminal 200 may determine that the chat service has been started when transmitting a response to the chat group creation request of another terminal device transmitted through the mobile terminal 200, In addition, in step S205, it is further confirmed whether there are three or more participants in the chat service.

이렇게 셋 이상의 사용자가 참여하는 채팅 서비스가 시작되면, 상기 단말 장치(100)는 채팅 서비스에 참여한 사용자들 중 음성 정보를 시각화할 대상을 선택 받는다(S410). 이는 상기 단말 장치(100)가 참여자 리스트를 출력부(150)로 출력한 후, 입력부(130)를 통해서 참여자 리스트에 포함된 사용자 중 적어도 하나를 선택 받는 형태로 이루어질 수 있다.When a chat service in which three or more users participate is started, the terminal device 100 selects an object to visualize voice information among users participating in the chat service (S410). The terminal 100 may output a list of participants to the output unit 150 and may receive at least one of the users included in the participant list through the input unit 130. [

이후, 상기 단말 장치(100)는, 채팅 관련 정보를 출력하기 위한 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하되, 상기 채팅 서비스에 참여한 사용자의 수 및 상기 채팅 서비스에서 교환되는 정보의 종류에 따라서, 상기 영역을 분할한다(S415). 예를 들어, 영상 채팅인 경우, 상기 단말 장치(100)는, 채팅에 참여한 사용자의 수에 대응하는 수만큼의 영상 정보 출력용 영역과, 상기 음성 정보 시각화 대상으로 선택된 사용자의 수만큼의 음성 정보 출력용 영역을 분할할 수 있다.Thereafter, the terminal device 100 divides a user interface screen for outputting chat-related information into two or more areas, and according to the number of users participating in the chat service and the type of information exchanged in the chat service, Area is divided (S415). For example, in the case of video chatting, the terminal device 100 can display video information for a number of users corresponding to the number of users participating in chatting and audio information output for the number of users selected as the audio information visualization target The area can be divided.

반면, 음성 채팅인 경우, 상기 단말 장치(100)는, 상기 음성 정보 시각화 대상으로 선택된 사용자의 수만큼의 음성 정보 출력용 영역을 분할할 수 있다.On the other hand, in the case of voice chat, the terminal device 100 can divide the audio information output area for the number of users selected as the audio information visualization object.

그리고, 단말 장치(100)는, 분할된 각 영역별로 사용자 및 정보의 종류를 할당한다(S420). 이때, 동일 사용자에 할당된 영역들은 서로 매핑될 수 있도록 배치함으로써, 사용자가 시각화되어 출력되는 정보 간의 연관성을 직관적으로 인지하도록 할 수 있다.Then, the terminal device 100 allocates the types of users and information for each divided area (S420). At this time, the regions allocated to the same user can be mapped to each other, so that it is possible to intuitively recognize the association between information visualized and output by the user.

그리고, 해당 채팅 서비스에서 연결된 채팅 세션을 통해서, 채팅에 참여한 사용자들의 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 포함하는 채팅 데이터가 송수신되기 시작하면, 상기 단말 장치(1000)는, 채팅 처리 모듈(111)을 통해서 송수신된 채팅 데이터로부터 영상 정보, 문자 정보, 음성 정보 중 적어도 하나를 분리한다(S425). 이때, 상기 영상 정보, 문자 정보, 음성 정보는 대응하는 사용자별로 구분될 수 있다.When chat data including at least one of video information, voice information, and character information of users participating in a chat starts to be transmitted and received through a connected chat session in the corresponding chat service, the terminal device 1000 performs chat processing At least one of video information, text information, and audio information is separated from the chat data transmitted / received through the module 111 (S425). At this time, the image information, character information, and audio information may be classified into corresponding users.

그리고, 단말 장치(100)의 채팅 처리 모듈(111)은 상기 분리된 영상 정보, 문자 정보, 음성 정보 중 하나를 각각 할당된 상기 사용자 인터페이스 화면의 해당 영역으로 시각화하여 출력한다(S125). 여기서, 음성 정보의 시각화는 앞서 설명한 도 5 및 도 6에 도시된 바와 같이 이루어질 수 있다.The chat processing module 111 of the terminal device 100 visualizes one of the separated video information, text information, and audio information as a corresponding area of the assigned user interface screen and outputs the visualized information (S125). Here, visualization of the audio information can be performed as shown in Figs. 5 and 6 described above.

그리고, 상기 채팅 데이터에 포함된 음성 정보는, 상기 단말 장치(100)의 오디오 처리부(160)를 통해서 청각 신호로도 출력된다. The voice information included in the chat data is also output as an auditory signal through the audio processing unit 160 of the terminal device 100. [

따라서, 상기 단말 장치(100)의 사용자는 기존과 마찬가지로 채팅을 수행하는 중에, 특정 사용자의 음성 정보만을 시각화하여 별도로 확인할 수 있다.Accordingly, the user of the terminal device 100 can visualize only the voice information of a specific user during chatting as in the conventional method.

이를 통하여, 사용자는 채팅 중 특정 사용자의 채팅 내용을 보다 정확히 확인할 수 있다. 예를 들어, 채팅 중 잡음 등으로 인하여 특정 사용자의 음성이 잘 들리지 않는 경우, 해당 사용자의 음성 정보를 시각화하여 출력함으로써, 채팅 내용을 정확히 인지할 수 있다.Through this, the user can more accurately check the chat contents of a specific user during chatting. For example, when the voice of a specific user can not be heard due to noise during chatting, the voice information of the user is visualized and outputted, so that the chat contents can be accurately recognized.

도 8은 본 발명에 따른 채팅 서비스 화면을 예시한 도면이다. 도 8에서는, 두 사용자가 영상, 음성, 문자를 모두 이용하여 채팅하는 경우를 예시한 도면이다.8 is a diagram illustrating a chat service screen according to the present invention. FIG. 8 is a diagram illustrating a case where two users chat using video, voice, and text.

도 8을 참조하면, 본 발명에 따른 단말 장치(100)의 출력부(150)로 출력된 사용자 인터페이스 화면(80)은, 상대방의 영상 정보에 할당된 제1 영역(81)과, 상대방의 음성 정보에 할당된 제2 영역(82)과, 상대방의 문자 정보에 할당된 제3 영역(83)을 포함할 수 있다. 상기 제1 영역(81)으로는 채팅 서비스에 참여한 상대방의 영상이 디스플레이되고, 제2 영역(82)으로는 채팅 서비스에 참여한 상대방의 음성이 시각화되어 디스플레이되며, 제3 영역(83)으로는 채팅 서비스에 참여한 상대방이 전송한 문자가 디스플레이될 수 있다. 이때, 상기 제2 영역(82)은, 상대방의 음성에 대응하는 텍스트가 출력되거나, 상대방의 음성의 파장이 시각화되어 표시될 수 있다. 이에 따르면, 사용자는 채팅 중 사용자 인터페이스 화면(80)의 제2 영역을 참고함으로써, 상대방의 발화한 내용을 정확히 인지하거나, 상대방의 음성 톤이나 상태를 인지할 수 있다.8, the user interface screen 80 output to the output unit 150 of the terminal device 100 according to the present invention includes a first area 81 allocated to the image information of the other party, A second area 82 assigned to the information, and a third area 83 assigned to the character information of the other party. In the first area 81, the image of the other party participating in the chat service is displayed. In the second area 82, the voice of the other party participating in the chat service is visualized and displayed. In the third area 83, Characters transmitted by the party participating in the service may be displayed. At this time, text corresponding to the voice of the other party may be outputted, or the wavelength of the voice of the other party may be visualized and displayed in the second area 82. Accordingly, the user can accurately recognize the voice of the other party or recognize the voice tone or state of the other party by referring to the second area of the user interface screen 80 during chatting.

본 발명에 따른 채팅 서비스 제공 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 소프트웨어 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The chat service providing method according to the present invention may be implemented in a form of software readable by various computer means and recorded in a computer-readable recording medium. Here, the recording medium may include program commands, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a recording medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. For example, the recording medium may be an optical recording medium such as a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, a compact disk read only memory (CD-ROM), a digital video disk (DVD) Includes a hardware device that is specially configured to store and execute program instructions such as a magneto-optical medium such as a floppy disk and a ROM, a random access memory (RAM), a flash memory, do. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

비록 본 명세서와 도면에서는 예시적인 장치 구성을 기술하고 있지만, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 다른 유형의 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 본 발명에 따른 장치의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.Although the present specification and drawings describe exemplary device configurations, the functional operations and subject matter implementations described herein may be embodied in other types of digital electronic circuitry, or alternatively, of the structures disclosed herein and their structural equivalents May be embodied in computer software, firmware, or hardware, including, or in combination with, one or more of the foregoing. Implementations of the subject matter described herein may be embodied in one or more computer program products, i. E. One for computer program instructions encoded on a program storage medium of the type for < RTI ID = 0.0 & And can be implemented as a module as described above. The computer-readable medium can be a machine-readable storage device, a machine-readable storage substrate, a memory device, a composition of matter that affects the machine readable propagation type signal, or a combination of one or more of the foregoing.

본 명세서에서 "시스템", 및 "장치"라는 용어는 예컨대 프로그래머블 프로세서, 컴퓨터 혹은 다중 프로세서나 컴퓨터를 포함하여 데이터를 처리하기 위한 모든 기구, 장치 및 기계를 포괄한다. 특히, 시스템은, 하드웨어에 부가하여, 예컨대 프로세서 펌웨어를 구성하는 코드, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 혹은 이들 중 하나 이상의 조합 등 요청 시 컴퓨터 프로그램에 대한 실행 환경을 형성하는 코드를 포함할 수 있다.The terms "system" and "device" as used herein encompass all apparatuses, devices, and machines for processing data, including, for example, a programmable processor, a computer, or a multiprocessor or computer. In particular, the system may include, in addition to the hardware, code that forms an execution environment for a computer program upon request, such as code comprising a processor firmware, a protocol stack, a database management system, an operating system, have.

본 발명에 따른 장치에 탑재되고 본 발명에 따른 방법을 실행하는 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일 되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.A computer program (also known as a program, software, software application, script, or code) that is loaded on an apparatus according to the present invention and which implements the method according to the present invention may be a compiled or interpreted language or a program containing a priori or procedural language Language, and may be deployed in any form including standalone programs or modules, components, subroutines, or other units suitable for use in a computer environment. A computer program does not necessarily correspond to a file in the file system. The program may be stored in a single file provided to the requested program, or in multiple interactive files (e.g., a file storing one or more modules, subprograms, or portions of code) (E.g., one or more scripts stored in a markup language document). A computer program may be deployed to run on multiple computers or on one computer, located on a single site or distributed across multiple sites and interconnected by a communications network.

본 명세서에서 설명한 주제의 구현물은 예컨대 데이터 서버와 같은 백엔드 컴포넌트를 포함하거나, 예컨대 어플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 예컨대 사용자가 본 명세서에서 설명한 주제의 구현물과 상호 작용할 수 있는 웹 브라우저나 그래픽 유저 인터페이스를 갖는 클라이언트 컴퓨터와 같은 프론트엔드 컴포넌트 혹은 그러한 백엔드, 미들웨어 혹은 프론트엔드 컴포넌트의 하나 이상의 모든 조합을 포함하는 연산 시스템에서 구현될 수 있다. 시스템의 컴포넌트는 예컨대 통신 네트워크와 같은 디지털 데이터 통신의 어떠한 형태나 매체에 의해서도 상호 접속 가능하다.Implementations of the subject matter described herein may include, for example, a back-end component such as a data server, or may include a middleware component, such as an application server, or may be a web browser or a graphical user, for example a user, who may interact with an implementation of the subject- Front-end components such as client computers with interfaces, or any combination of one or more of such back-end, middleware, or front-end components. The components of the system may be interconnected by any form or medium of digital data communication, such as, for example, a communications network.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.While the specification contains a number of specific implementation details, it should be understood that they are not to be construed as limitations on the scope of any invention or claim, but rather on the description of features that may be specific to a particular embodiment of a particular invention Should be understood. Certain features described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment may also be implemented in multiple embodiments, either individually or in any suitable subcombination. Further, although the features may operate in a particular combination and may be initially described as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, Or a variant of a subcombination.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a particular order, it should be understood that such operations must be performed in that particular order or sequential order shown to achieve the desired result, or that all illustrated operations should be performed. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of the various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems will generally be integrated together into a single software product or packaged into multiple software products It should be understood.

본 명세서에서 설명한 주제의 특정한 실시형태를 설명하였다. 기타의 실시형태들은 이하의 청구항의 범위 내에 속한다. 예컨대, 청구항에서 인용된 동작들은 상이한 순서로 수행되면서도 여전히 바람직한 결과를 성취할 수 있다. 일 예로서, 첨부도면에 도시한 프로세스는 바람직한 결과를 얻기 위하여 반드시 그 특정한 도시된 순서나 순차적인 순서를 요구하지 않는다. 특정한 구현 예에서, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다.Certain embodiments of the subject matter described herein have been described. Other embodiments are within the scope of the following claims. For example, the operations recited in the claims may be performed in a different order and still achieve desirable results. By way of example, the process illustrated in the accompanying drawings does not necessarily require that particular illustrated or sequential order to obtain the desired results. In certain implementations, multitasking and parallel processing may be advantageous.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다.The description sets forth the best mode of the invention, and is provided to illustrate the invention and to enable those skilled in the art to make and use the invention. The written description is not intended to limit the invention to the specific terminology presented. Thus, while the present invention has been described in detail with reference to the above examples, those skilled in the art will be able to make adaptations, modifications, and variations on these examples without departing from the scope of the present invention.

따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.Therefore, the scope of the present invention should not be limited by the described embodiments but should be defined by the claims.

본 발명은 영상, 음성, 및 문자 중 하나 이상을 이용하여 이루어지는 채팅 서비스에 적용될 수 있는 것으로서, 사용자 인터페이스 화면을 복수의 영역으로 구분하고, 상기 채팅 서비스를 통해 송수신되는 영상 정보, 음성 정보, 및 문자 정보를 서로 다른 영역을 통해 구분하여 각각 시각화하여 출력함으로써, 참여한 사용자들의 의사를 보다 명확히 전달할 수 있도록 한다.The present invention can be applied to a chat service using one or more of video, audio, and text. The user interface screen is divided into a plurality of areas, and video information, voice information, and text By separating the information through different areas and visualizing and outputting them, it is possible to more clearly communicate the opinions of the participating users.

특히, 본 발명은 영상 채팅 또는 음성 채팅을 수행하는 중에, 사용자들의 음성 정보를 청각적으로 출력하면서, 상기 음성 정보를 텍스트로 변환하여 상기 사용자 인터페이스 화면을 통해 출력함으로써, 채팅 중 각 사용자들이 발화한 내용을 보다 명확히 이해하도록 하거나, 추후 확인할 수 있도록 한다.Particularly, in the present invention, during the video chatting or the voice chatting, the voice information of the users is audibly output, the voice information is converted into text and outputted through the user interface screen, Make the contents more clearly understandable or to be confirmed later.

또한, 본 발명은 영상 채팅 또는 음성 채팅을 수행하는 중에, 사용자들의 음성 정보의 파장을 추출하고, 상기 음성 정보의 파장을 시각화하여 출력할 수 있으며, 다양하고 새로운 형태의 채팅 서비스를 제공할 수 있다.In addition, while performing a video chat or a voice chat, the present invention can extract wavelengths of voice information of users, visualize and output the wavelength of the voice information, and provide various new types of chat services .

10: 통신망 100: 단말 장치 110: 제어부
111: 채팅 처리 모듈 120: 통신부 130: 입력부
140: 저장부 150: 출력부 160: 오디오 처리부
200: 서비스 장치 210: 통신부 220: 서비스 제공부
230: 저장부
10: communication network 100: terminal device 110:
111: chat processing module 120: communication unit 130: input unit
140: storage unit 150: output unit 160: audio processing unit
200: service apparatus 210: communication unit 220:
230:

Claims (18)

통신망을 통해서 데이터를 송수신하는 통신부;
사용자 요청을 입력하기 위한 입력부;
사용자 인터페이스 화면을 출력하는 출력부; 및
상기 사용자 요청에 따라서, 영상, 음성, 및 문자 중 적어도 하나를 이용한 채팅 서비스 제공 시, 상기 사용자 인터페이스 화면을 다수 영역으로 분할하고, 분할된 영역을 정보의 종류별로 할당하고, 상기 통신부를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 분리하여, 상기 분리된 영상 정보, 음성 정보 및 문자 정보를 할당된 영역을 통해 각각 시각화하여 출력하는 제어부;
를 포함하는 것을 특징으로 하는 단말 장치.
A communication unit for transmitting and receiving data through a communication network;
An input for inputting a user request;
An output unit for outputting a user interface screen; And
Wherein the user interface screen is divided into a plurality of areas, a divided area is allocated to each type of information when the chat service using at least one of video, audio, and text is provided according to the user request, A controller for separating at least one of video information, audio information and character information from the chat data and visualizing the separated video information, audio information, and character information through an assigned area, respectively, and outputting the visual information;
And a terminal device.
제1항에 있어서, 상기 제어부는
상기 음성 정보를 텍스트로 변환하여 출력하는 것을 특징으로 하는 단말 장치.
The apparatus of claim 1, wherein the control unit
Converts the voice information into text and outputs the converted voice.
제2항에 있어서, 상기 제어부는
상기 채팅 서비스에 참여한 사용자들의 음성 정보로부터 변환된 텍스트를 동일 영역에 시간 순으로 표시하는 것을 특징으로 하는 단말 장치.
3. The apparatus of claim 2, wherein the control unit
And displays the text converted from the voice information of users participating in the chat service in the same area in chronological order.
제1항에 있어서, 상기 제어부는
상기 음성 정보의 파장을 추출하고, 추출된 파장을 시각화하여 출력하는 것을 특징으로 하는 단말 장치.
The apparatus of claim 1, wherein the control unit
Extracts a wavelength of the audio information, visualizes the extracted wavelength, and outputs the visualized information.
제1항에 있어서, 상기 제어부는
상기 채팅 서비스에 참여한 사용자별로 상기 영역을 더 분할하여, 사용자별로 상기 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 구분하여 출력하는 것을 특징으로 하는 단말 장치.
The apparatus of claim 1, wherein the control unit
Further dividing the area for each user participating in the chat service, and separating and outputting at least one of the separated image information, voice information, and character information for each user.
제5항에 있어서, 상기 제어부는
사용자 및 정보의 종류 별로 분할된 다수의 영역을 사용자를 기준으로 매핑되도록 상기 사용자 인터페이스 화면에 배치하는 것을 특징으로 하는 단말 장치.
6. The apparatus of claim 5, wherein the control unit
Wherein the plurality of areas divided by the type of the user and the information are arranged on the user interface screen so as to be mapped on the basis of the user.
제1항에 있어서, 상기 제어부는
상기 입력부를 통해 상기 채팅 서비스에 참여한 사용자 중에서 음성 정보를 시각화할 대상을 선택 받고, 선택된 사용자의 음성 정보만을 시각화하여 출력하는 것을 특징으로 하는 단말 장치.
The apparatus of claim 1, wherein the control unit
Wherein the user selects an object to visualize voice information among users participating in the chat service through the input unit, and visualizes only the voice information of the selected user and outputs the visual information.
통신망을 통해서 둘 이상의 단말 장치와 통신하여, 채팅 서비스를 위한 데이터를 송수신하는 통신부;
상기 통신부를 통해 접속한 둘 이상의 단말 장치 간에 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 포함하는 채팅 데이터를 실시간으로 중계하되, 둘 이상의 영역으로 분할되고 각 영역이 정보의 종류별로 할당된 사용자 인터페이스 화면을 제공하고, 상기 둘 이상의 단말 장치 간에 송수신되는 채팅 데이터로부터 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 분리하여, 상기 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 해당 정보에 할당된 영역을 통해서 시각화하여 출력시키는 서비스 제공부;
를 포함하는 것을 특징으로 하는 채팅 서비스 제공을 위한 서비스 장치.
A communication unit that communicates with two or more terminal devices through a communication network to transmit and receive data for a chat service;
A chat server for relaying chat data including at least one of video information, voice information, and character information between two or more terminal devices connected through the communication unit in real time, wherein the chat information is divided into two or more areas, An interface screen, separating at least one of video information, audio information, and character information from chat data transmitted and received between the two or more terminal devices, and separating at least one of the separated video information, Visualizing and outputting through the allocated area;
And a service provider for providing the chat service.
제8항에 있어서, 상기 서비스 제공부는
상기 음성 정보를 텍스트로 변환하여 제공하는 것을 특징으로 하는 채팅 서비스 제공을 위한 서비스 장치.
The method of claim 8, wherein the service providing unit
Wherein the voice information is converted into text and provided.
제8항에 있어서, 상기 서비스 제공부는
상기 음성 정보의 파장을 추출하고, 추출한 파장을 시각화하여 제공하는 것을 특징으로 하는 채팅 서비스 제공을 위한 서비스 장치.
The method of claim 8, wherein the service providing unit
Extracts a wavelength of the voice information, and visualizes the extracted wavelength to provide the extracted voice information.
제8항에 있어서, 상기 제어부는
각 단말 장치로부터 상기 채팅 서비스에 참여한 사용자 중 음성 정보의 시각화 대상을 선택 받고, 선택된 사용자의 음성 정보만을 시각화하여 제공하는 것을 특징으로 하는 단말 장치.
9. The apparatus of claim 8, wherein the control unit
Wherein the terminal device selects a visualization object of voice information among users participating in the chat service from each terminal device, and visualizes only the voice information of the selected user.
영상, 음성, 및 문자 중 적어도 하나를 이용한 채팅 서비스 제공 시, 상기 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하여 각각 영상, 음성 및 문자 중 적어도 하나에 할당하고, 상기 채팅 서비스를 통해 송수신된 채팅 데이터의 영상 정보, 음성 정보, 문자 정보 중 적어도 하나를 분리하여, 상기 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 할당된 영역을 통해 시각화하여 출력하는 다수의 단말 장치; 및
상기 다수의 단말 장치 사이에서 상기 채팅 데이터를 중계하는 서비스 장치를 포함하는 것을 특징으로 하는 채팅 서비스 제공 시스템.
A user interface screen is divided into two or more areas and allocated to at least one of video, voice, and characters, and a chat service using at least one of video, audio, A plurality of terminal devices for separating at least one of video information, audio information, and character information and visualizing at least one of the separated video information, audio information, and character information through an allocated area and outputting the visual information; And
And a service device for relaying the chat data among the plurality of terminal devices.
채팅 서비스를 제공하는 장치가,
채팅 서비스가 시작되면, 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하는 단계;
상기 둘 이상의 영역에 각각 영상, 음성, 문자 중 하나를 할당하는 단계;
상기 채팅 서비스를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 분리하는 단계;
분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를, 할당된 영역을 통해 시각화하여 출력하는 단계를 포함하는 것을 특징으로 하는 채팅 서비스 제공 방법.
A device for providing a chat service,
When the chat service is started, dividing the user interface screen into two or more areas;
Assigning one of video, audio, and text to each of the two or more areas;
Separating at least one of video information, audio information, and character information from chat data transmitted and received through the chat service;
Visualizing at least one of the separated image information, the voice information, and the character information through an allocated area, and outputting the visualized voice information.
제13항에 있어서, 상기 출력하는 단계는
상기 채팅 데이터로부터 분리된 음성 정보를 텍스트로 변환하고, 음성에 할당된 영역에 상기 변환된 텍스트를 출력하는 단계; 및
상기 채팅 데이터로부터 분리된 음성 정보의 파장을 추출하고, 추출된 파장을 시각화하여 음성에 할당된 영역으로 출력하는 단계 중에서 어느 하나를 포함하는 것을 특징으로 하는 채팅 서비스 제공 방법.
14. The method of claim 13, wherein the outputting comprises:
Converting the voice information separated from the chat data into text and outputting the converted text to an area allocated to voice; And
Extracting a wavelength of the voice information separated from the chat data, visualizing the extracted wavelength, and outputting the visualized voice to an area allocated to the voice.
제13항에 있어서, 상기 분할하는 단계는
상기 채팅 데이터에 포함된 정보의 종류에 따라서, 분할할 영역의 수를 결정하는 것을 특징으로 하는 채팅 서비스 제공 방법.
14. The method of claim 13,
And determines the number of areas to be divided according to the type of information included in the chat data.
제13항에 있어서,
상기 분할하는 단계는
상기 채팅 서비스에 참여한 사용자의 수에 따라서 상기 영역을 더 분할하고,
상기 할당하는 단계는
사용자 및 정보의 종류 별로 영역을 할당하는 것을 특징으로 하는 채팅 서비스 제공 방법.
14. The method of claim 13,
The dividing step
Further dividing the region according to the number of users participating in the chat service,
The allocating step
And allocating an area for each type of user and information.
채팅 서비스를 제공하는 장치가,
채팅 서비스가 시작되면, 채팅 서비스에 참여한 사용자 중에서 음성 정보의 시각화 대상을 선택 받는 단계;
상기 선택된 음성 정보의 시각화 대상의 수 및 채팅 데이터에 포함된 정보의 종류에 따라서 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하는 단계;
상기 분할된 둘 이상의 영역을 사용자 및 정보의 종류 별로 할당하는 단계;
상기 채팅 서비스를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 분리하는 단계;
분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를, 할당된 영역을 통해 시각화하여 출력하는 단계를 포함하는 것을 특징으로 하는 채팅 서비스 제공 방법.
A device for providing a chat service,
Selecting a visualization target of the voice information among the users participating in the chat service when the chat service is started;
Dividing the UI screen into two or more areas according to the number of visualization targets of the selected audio information and the type of information included in the chat data;
Allocating the divided two or more areas for each type of user and information;
Separating at least one of video information, audio information, and character information from chat data transmitted and received through the chat service;
Visualizing at least one of the separated image information, the voice information, and the character information through an allocated area, and outputting the visualized voice information.
제13항 내지 제17항에 기재된 채팅 서비스 제공 방법을 수행하도록 구현된 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium recording a program embodied to perform the chat service providing method recited in any one of claims 13 to 17.
KR1020140030844A 2014-03-17 2014-03-17 Chatting service providing system, apparatus and method thereof KR102127909B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140030844A KR102127909B1 (en) 2014-03-17 2014-03-17 Chatting service providing system, apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140030844A KR102127909B1 (en) 2014-03-17 2014-03-17 Chatting service providing system, apparatus and method thereof

Publications (2)

Publication Number Publication Date
KR20150108098A true KR20150108098A (en) 2015-09-25
KR102127909B1 KR102127909B1 (en) 2020-06-29

Family

ID=54246225

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140030844A KR102127909B1 (en) 2014-03-17 2014-03-17 Chatting service providing system, apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR102127909B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018186698A3 (en) * 2017-04-06 2018-12-13 주식회사 스무디 Method, system, and non-transitory computer-readable recording medium for providing multi-point communication service
KR20230018219A (en) * 2021-07-29 2023-02-07 에스케이스토아 주식회사 Media streaming server, method of providing live video and live caht video as straming video and computer program for the method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050054639A (en) * 2003-12-05 2005-06-10 주식회사 팬택 Method for updating the visualizing of voice
KR20050105542A (en) * 2004-04-30 2005-11-04 브이케이 주식회사 A mobile communication terminal having a function of dividing the display screen
KR20080002343A (en) * 2006-06-30 2008-01-04 삼성전자주식회사 Method and apparatus for screen partition as receiving broadcast signal with a mobile terminal
KR20100107377A (en) * 2009-03-25 2010-10-05 삼성전자주식회사 Operation method of split window and portable device supporting the same
KR20120037813A (en) * 2010-10-12 2012-04-20 엘지전자 주식회사 Method for video communication and mobile terminal using this method
KR20120119830A (en) * 2011-04-22 2012-10-31 박지영 Device supporting text conversation and text conversation control method
KR20130005174A (en) 2011-07-05 2013-01-15 엘지전자 주식회사 Mobile device and control method for the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050054639A (en) * 2003-12-05 2005-06-10 주식회사 팬택 Method for updating the visualizing of voice
KR20050105542A (en) * 2004-04-30 2005-11-04 브이케이 주식회사 A mobile communication terminal having a function of dividing the display screen
KR20080002343A (en) * 2006-06-30 2008-01-04 삼성전자주식회사 Method and apparatus for screen partition as receiving broadcast signal with a mobile terminal
KR20100107377A (en) * 2009-03-25 2010-10-05 삼성전자주식회사 Operation method of split window and portable device supporting the same
KR20120037813A (en) * 2010-10-12 2012-04-20 엘지전자 주식회사 Method for video communication and mobile terminal using this method
KR20120119830A (en) * 2011-04-22 2012-10-31 박지영 Device supporting text conversation and text conversation control method
KR20130005174A (en) 2011-07-05 2013-01-15 엘지전자 주식회사 Mobile device and control method for the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018186698A3 (en) * 2017-04-06 2018-12-13 주식회사 스무디 Method, system, and non-transitory computer-readable recording medium for providing multi-point communication service
KR20230018219A (en) * 2021-07-29 2023-02-07 에스케이스토아 주식회사 Media streaming server, method of providing live video and live caht video as straming video and computer program for the method

Also Published As

Publication number Publication date
KR102127909B1 (en) 2020-06-29

Similar Documents

Publication Publication Date Title
JP6756930B2 (en) Allocation of virtual objects based on augmented reality
US20190332400A1 (en) System and method for cross-platform sharing of virtual assistants
JP6219642B2 (en) Intelligent service providing method and apparatus using input characters in user device
AU2012359080B2 (en) Managing playback of supplemental information
EP3555822A1 (en) Initiating a conferencing meeting using a conference room device
EP3493513A1 (en) Method and apparatus for connecting service between user devices using voice
JP2023539820A (en) Interactive information processing methods, devices, equipment, and media
WO2015043547A1 (en) A method, device and system for message response cross-reference to related applications
CN103973542B (en) A kind of voice information processing method and device
KR20140078258A (en) Apparatus and method for controlling mobile device by conversation recognition, and apparatus for providing information by conversation recognition during a meeting
KR20150106479A (en) Contents sharing service system, apparatus for contents sharing and contents sharing service providing method thereof
US20150052211A1 (en) Message based conversation function execution method and electronic device supporting the same
KR101351264B1 (en) System and method for message translation based on voice recognition
KR102127909B1 (en) Chatting service providing system, apparatus and method thereof
KR20140113826A (en) apparatus and method for common of contents, communication service system
KR20150108470A (en) Messenger service system, messenger service method and apparatus providing for other's location and time imformation in the system
EP2717121B1 (en) Method and apparatus for providing intelligent service using inputted character in a user device
CN110853643A (en) Method, device, equipment and storage medium for voice recognition in fast application
KR101838149B1 (en) Messenger service system, messenger service method and apparatus for providing managementing harmful message in the system
KR102220253B1 (en) Messenger service system, method and apparatus for messenger service using common word in the system
US20230297324A1 (en) Audio Control Method, System, and Electronic Device
KR100596001B1 (en) A method for providing contents with a user terminal and a system thereof
KR20150106565A (en) Messenger service system, from the system via an instent message presence service method and apparatus
CN117806587A (en) Display device and multi-round dialog prediction generation method
KR20150105025A (en) Messenger service system, messenger service method and apparatus for providing chatting environment reflecting presence information in the system

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant