KR102127909B1 - Chatting service providing system, apparatus and method thereof - Google Patents

Chatting service providing system, apparatus and method thereof Download PDF

Info

Publication number
KR102127909B1
KR102127909B1 KR1020140030844A KR20140030844A KR102127909B1 KR 102127909 B1 KR102127909 B1 KR 102127909B1 KR 1020140030844 A KR1020140030844 A KR 1020140030844A KR 20140030844 A KR20140030844 A KR 20140030844A KR 102127909 B1 KR102127909 B1 KR 102127909B1
Authority
KR
South Korea
Prior art keywords
information
chat
text
user
voice
Prior art date
Application number
KR1020140030844A
Other languages
Korean (ko)
Other versions
KR20150108098A (en
Inventor
오길훈
이재하
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020140030844A priority Critical patent/KR102127909B1/en
Publication of KR20150108098A publication Critical patent/KR20150108098A/en
Application granted granted Critical
Publication of KR102127909B1 publication Critical patent/KR102127909B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Resources & Organizations (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 영상, 음성, 및 문자 중 하나 이상을 이용하여 이루어지는 채팅 서비스를 제공하는 채팅 서비스 제공 시스템, 이를 위한 장치 및 방법에 관한 것으로서, 채팅 서비스 제공 시, 사용자 인터페이스 화면을 다수 영역으로 분할하고, 분할된 영역을 정보의 종류별로 할당하고, 통신부를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 분리하여, 분리된 영상 정보, 음성 정보 및 문자 정보를 할당된 영역을 통해 각각 시각화하여 출력하도록 구현된다.The present invention relates to a chat service providing system that provides a chat service using one or more of video, voice, and text, and an apparatus and method therefor. When providing a chat service, a user interface screen is divided into multiple areas, The divided areas are allocated for each type of information, and at least one of video information, audio information, and text information is separated from chat data transmitted and received through the communication unit, and the separated video information, audio information, and text information are allocated through the assigned area. It is implemented to visualize and output each.

Description

채팅 서비스 제공 시스템, 이를 위한 장치 및 방법{Chatting service providing system, apparatus and method thereof}Chat service providing system, apparatus and method therefor {Chatting service providing system, apparatus and method thereof}

본 발명은 영상, 음성, 및 문자 중 하나 이상을 이용하여 이루어지는 채팅 서비스에 관한 것으로서, 더욱 상세하게는 사용자 인터페이스 화면을 복수의 영역으로 구분하여, 상기 채팅 서비스를 통해 송수신되는 영상 정보, 음성 정보, 및 문자 정보를 분리하여 서로 다른 영역을 통해 출력하는 채팅 서비스 제공 시스템, 이를 위한 장치 및 방법에 관한 것이다.The present invention relates to a chat service using one or more of video, audio, and text, and more specifically, a user interface screen is divided into a plurality of areas, and video information and audio information transmitted and received through the chat service, And a chat service providing system for separating and outputting text information through different areas, and an apparatus and method therefor.

이 부분에 기술된 내용은 단순히 본 실시 예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information for this embodiment, and do not constitute a prior art.

최근 정보통신 기술과 반도체 기술 등의 눈부신 발전에 힘입어 휴대 단말기의 보급과 이용이 급속도로 증가하고 있다. 특히, 최근의 휴대 단말기는 성능 향상을 통해서, 각자의 전통적인 고유 영역에 머무르지 않고 다른 단말기들의 영역까지 아우르는 모바일 융/복합(mobile convergence) 단계에 이르고 있다. 2. Description of the Related Art Recently, with the development of information and communication technology and semiconductor technology, the spread and use of portable terminals are rapidly increasing. In particular, recent portable terminals have reached the mobile convergence stage through performance enhancement, not only in their traditional unique areas but also in the areas of other terminals.

대표적으로 이동 통신 단말기는 음성통화나 메시지 송수신과 같은 일반적인 통신 기능 이외에도 TV 시청 기능(예컨대, DMB(Digital Multimedia Broadcasting)나 DVB(Digital Video Broadcasting)와 같은 이동 방송), 음악 재생 기능(예컨대, MP3(MPEG Audio Layer-3), 사진 촬영 기능, 인터넷 접속 기능 등 다양한 기능들이 부가되고 있다.Typically, a mobile communication terminal has a TV viewing function (for example, mobile broadcasting such as Digital Multimedia Broadcasting (DMB) or Digital Video Broadcasting), music playback function (eg, MP3 (eg, MP3)) Various functions such as MPEG Audio Layer-3), picture taking function, and Internet access function are being added.

더하여, 최근의 이동 통신 단말기는 개방형 OS를 기반으로 다양한 사용자 기능을 사용자가 임의로 설치할 수 있는 스마트 폰의 형태로 발전하면서 다양한 편리성과 오락성을 제공하고 있으며, 오픈 마켓의 활성화로 고객이 원하는 다양한 기능의 어플리케이션을 쉽게 얻을 수 있도록 지원하고, 고성능화로 PC에서 처리하는 많은 기능을 처리할 수 있다.In addition, recent mobile communication terminals have developed various types of user functions based on the open OS in the form of smart phones that users can install arbitrarily, and provide various conveniences and entertainments. It supports application to be easily obtained, and it can process many functions processed by PC with high performance.

이동 통신 단말기에서 보편적으로 이용하는 서비스로는, 사용자 간에 다양한 형태의 정보의 교환하기 위한 커뮤니케이션 또는 커뮤니티 서비스가 있다. 이러한 이동 통신 단말기에서 이용 가능한 서비스로서, 기본적으로 단문 메시지 서비스(SMS)와 멀티미디어 메시지 서비스(MMS)가 제공되었으며, 개방형 OS를 탑재한 스마트 폰의 등장에 따라서, 인스턴트 메신저 혹은 모바일 메신저 등의 메신저 서비스, 전자우편 서비스까지 이용 가능하게 되었다. 이러한 서비스는, 통화 서비스에 비하여 비용이 저렴하고 직접 통화보다 간단하게 자신의 의도나 메시지를 상대 사용자에게 전달할 수 있기 때문에 그 이용도가 매우 높다.As a service commonly used in a mobile communication terminal, there is a communication or community service for exchanging various types of information between users. As a service available in such a mobile communication terminal, a short message service (SMS) and a multimedia message service (MMS) are basically provided, and according to the appearance of a smart phone equipped with an open OS, an instant messenger or a messenger service such as a mobile messenger , And even e-mail services. Such a service is very expensive because it is cheaper than a call service and can transmit its intention or message to the other user more simply than a direct call.

특히, 최근의 메신저 서비스의 경우, 기본적으로 문자를 교환하는 것과 더불어, 영상 및 음성을 실시간으로 교환할 수 있도록 음성/영상 통화 기능과의 융복합이 시도되고 있다.In particular, in the case of recent messenger service, convergence with a voice/video call function has been attempted to exchange text and audio in real time in addition to basically exchanging text.

한편, 이동 통신 단말기를 통해 문자를 이용한 채팅과 통화를 모두 이용할 수 있게 됨에 따라서 사용자 편의성이 향상되는 측면도 있으나, 문자로 채팅 중에 영상 또는 음성 통화를 하게 되는 경우, 채팅을 중단하여야 하는 불편한 점이 있다.On the other hand, since both the text chat and the call can be used through the mobile communication terminal, the user convenience is improved. However, when making a video or voice call during text chat, there is an inconvenience in that the chat must be stopped.

한국공개특허 제10-2013-0005174호, 2013년 01월 15일 공개 (명칭: 휴대 전자기기 및 이의 제어 방법)Published Korean Patent No. 10-2013-0005174, published on January 15, 2013 (name: portable electronic device and control method thereof)

이에 본 발명은 영상, 음성, 문자 중 적어도 하나를 이용하여 이루어지는 채팅 서비스에 있어서 영상이나 음성을 이용한 통화 기능과 문자를 이용한 채팅을 동시에 수행할 수 있는 문제를 해결하고자 제안된 것으로서, 사용자 인터페이스 화면을 복수의 영역으로 구분하고, 각 영역 별로 영상, 음성, 문자 중 적어도 하나를 할당하고, 상기 채팅 서비스를 통해 송수신되는 영상, 음성, 문자를 분리하여, 할당된 영역을 통해 출력하는 채팅 서비스 제공 시스템, 이를 위한 장치 및 방법을 제공하고자 한다.Accordingly, the present invention has been proposed to solve a problem in which a chat function using video or voice and a text chat can be performed simultaneously in a chat service using at least one of video, voice, and text. A chat service providing system that divides into a plurality of areas, allocates at least one of video, voice, and text to each area, separates video, voice, and text transmitted and received through the chat service and outputs them through the assigned area, It is intended to provide an apparatus and method for this.

본 발명의 상술한 과제의 일 해결 수단으로서, 통신망을 통해서 데이터를 송수신하는 통신부; 사용자 요청을 입력하기 위한 입력부; 사용자 인터페이스 화면을 출력하는 출력부; 및 사용자 요청에 따라서, 영상, 음성, 및 문자 중 적어도 하나를 이용한 채팅 서비스 제공 시, 사용자 인터페이스 화면을 다수 영역으로 분할하고, 분할된 영역을 정보의 종류별로 할당하고, 통신부를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 분리하여, 분리된 영상 정보, 음성 정보 및 문자 정보를 할당된 영역을 통해 각각 시각화하여 출력하는 제어부를 포함하는 것을 특징으로 하는 단말 장치를 제공한다.As one means of solving the above-described problems of the present invention, a communication unit for transmitting and receiving data through a communication network; An input unit for inputting a user request; An output unit for outputting a user interface screen; And, when providing a chat service using at least one of video, voice, and text according to a user request, divides the user interface screen into multiple areas, allocates the divided areas for each type of information, and transmits and receives chat data through a communication unit. It provides a terminal device comprising a control unit for separating at least one of the video information, the audio information and the text information, and visualizing and outputting the separated video information, the audio information and the text information through the allocated area, respectively. .

본 발명에 따른 단말 장치에 있어서, 제어부는 음성 정보를 텍스트로 변환하여 출력하거나, 음성 정보의 파장을 추출하고, 추출된 파장을 시각화하여 출력할 수 있다.In the terminal device according to the present invention, the control unit may convert speech information into text and output it, or extract the wavelength of the speech information and visualize and output the extracted wavelength.

본 발명에 따른 단말 장치에 있어서, 제어부는 채팅 서비스에 참여한 사용자들의 음성 정보로부터 변환된 텍스트를 동일 영역에 시간 순으로 표시할 수 있다.In the terminal device according to the present invention, the control unit may display the text converted from the voice information of the users participating in the chat service in chronological order in the same area.

더하여, 본 발명에 따른 단말 장치의 제어부는, 채팅 서비스에 참여한 사용자별로 상기 영역을 더 분할하여, 사용자별로 상기 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 구분하여 출력할 수 있다.In addition, the controller of the terminal device according to the present invention may further divide the area for each user participating in the chat service, and output at least one of the separated video information, voice information, and text information for each user.

이때, 제어부는 사용자 및 정보의 종류 별로 분할된 다수의 영역을 사용자를 기준으로 매핑되도록 사용자 인터페이스 화면에 배치할 수 있다.At this time, the controller may arrange a plurality of areas divided for each type of user and information on the user interface screen to be mapped based on the user.

또한, 본 발명에 따른 단말 장치의 제어부는, 입력부를 통해 채팅 서비스에 참여한 사용자 중에서 음성 정보를 시각화할 대상을 선택 받고, 선택된 사용자의 음성 정보만을 시각화하여 출력할 수 있다.In addition, the control unit of the terminal device according to the present invention may select a target to visualize voice information among users participating in a chat service through the input unit, and visualize and output only the voice information of the selected user.

또한, 본 발명은 상술한 과제의 다른 해결 수단으로서, 통신망을 통해서 둘 이상의 단말 장치와 통신하여, 채팅 서비스를 위한 데이터를 송수신하는 통신부; 통신부를 통해 접속한 둘 이상의 단말 장치 간에 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 포함하는 채팅 데이터를 실시간으로 중계하되, 둘 이상의 영역으로 분할되고 각 영역이 정보의 종류별로 할당된 사용자 인터페이스 화면을 제공하고, 둘 이상의 단말 장치 간에 송수신되는 채팅 데이터로부터 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 분리하여, 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 해당 정보에 할당된 영역을 통해서 시각화하여 출력시키는 서비스 제공부를 포함하는 것을 특징으로 하는 채팅 서비스 제공을 위한 서비스 장치를 제공한다.In addition, the present invention is another solution of the above-described problems, a communication unit for communicating with two or more terminal devices through a communication network, for transmitting and receiving data for a chat service; A user interface that relays chat data including at least one of video information, audio information, and text information in real time between two or more terminal devices accessed through a communication unit, but is divided into two or more areas and each area is assigned to each type of information A region that provides a screen and separates at least one of video information, audio information, and text information from chat data transmitted and received between two or more terminal devices, and assigns at least one of the separated video information, audio information, and text information to the information It provides a service device for providing a chat service, characterized in that it comprises a service providing unit to visualize and output through.

본 발명에 따른 서비스 장치에 있어서, 서비스 제공부는 음성 정보를 텍스트로 변환하여 출력시키거나, 음성 정보의 파장을 추출하고, 추출한 파장을 시각화하여 출력시킬 수 있다.In the service device according to the present invention, the service providing unit may convert speech information into text and output it, or extract the wavelength of the speech information and visualize and output the extracted wavelength.

또한, 본 발명에 따른 서비스 장치에 있어서, 제어부는 각 단말 장치로부터 상기 채팅 서비스에 참여한 사용자 중 음성 정보의 시각화 대상을 선택 받고, 선택된 사용자의 음성 정보만을 시각화하여 제공할 수 있다.In addition, in the service device according to the present invention, the control unit may select a visualization target of voice information among users participating in the chat service from each terminal device, and visualize and provide only the voice information of the selected user.

더하여, 본 발명은 상술한 과제의 또 다른 해결 수단으로서, 영상, 음성, 및 문자 중 적어도 하나를 이용한 채팅 서비스 제공 시, 상기 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하여 각각 영상, 음성 및 문자 중 적어도 하나에 할당하고, 채팅 서비스를 통해 송수신된 채팅 데이터의 영상 정보, 음성 정보, 문자 정보 중 적어도 하나를 분리하여, 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 할당된 영역을 통해 시각화하여 출력하는 다수의 단말 장치; 및 다수의 단말 장치 사이에서 채팅 데이터를 중계하는 서비스 장치를 포함하는 것을 특징으로 하는 채팅 서비스 제공 시스템을 제공한다.In addition, the present invention is another solution for the above-described problems, and when providing a chat service using at least one of video, audio, and text, the user interface screen is divided into two or more regions, and each of at least one of video, audio, and text. Assigned to one, separating at least one of video information, audio information, and text information of the chat data transmitted and received through the chat service, and visualizing at least one of the separated video information, audio information, and text information through the assigned area A plurality of terminal devices to output; And it provides a chat service providing system comprising a service device for relaying chat data between a plurality of terminal devices.

또한, 본 발명은 상술한 과제의 또 다른 해결 수단으로서, 채팅 서비스를 제공하는 장치가, 채팅 서비스가 시작되면, 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하는 단계; 둘 이상의 영역에 각각 영상, 음성, 문자 중 하나를 할당하는 단계; 채팅 서비스를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 분리하는 단계; 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를, 할당된 영역을 통해 시각화하여 출력하는 단계를 포함하는 것을 특징으로 하는 채팅 서비스 제공 방법을 제공한다.In addition, the present invention is another solution of the above-described problem, the apparatus for providing a chat service, when the chat service is started, dividing the user interface screen into two or more areas; Assigning one of video, audio, and text to two or more areas, respectively; Separating at least one of video information, audio information, and text information from chat data transmitted and received through a chat service; And visualizing and outputting at least one of the separated video information, audio information, and text information through the allocated area.

본 발명에 따른 채팅 서비스 제공 방법에 있어서, 출력하는 단계는, 채팅 데이터로부터 분리된 음성 정보를 텍스트로 변환하고, 음성에 할당된 영역에 변환된 텍스트를 출력하는 단계; 및 채팅 데이터로부터 분리된 음성 정보의 파장을 추출하고, 추출된 파장을 시각화하여 음성에 할당된 영역으로 출력하는 단계 중에서 어느 하나를 포함할 수 있다.In the method of providing a chat service according to the present invention, the outputting step includes: converting speech information separated from chat data into text, and outputting the converted text in an area allocated to speech; And extracting the wavelength of the voice information separated from the chat data, and visualizing the extracted wavelength to output it to a region allocated to the voice.

또한, 본 발명에 따른 채팅 서비스 제공 방법에 있어서, 분할하는 단계는, 채팅 데이터에 포함된 정보의 종류에 따라서, 분할할 영역의 수를 결정하며, 아울러, 분할하는 단계에서, 채팅 서비스에 참여한 사용자의 수에 따라서 영역을 더 분할하고, 할당하는 단계에서 사용자 및 정보의 종류 별로 영역을 할당할 수 있다.In addition, in the method for providing a chat service according to the present invention, the step of dividing determines the number of regions to be divided according to the type of information included in the chat data, and in addition, in the step of dividing, the user participating in the chat service In the step of dividing and allocating regions according to the number of regions, regions may be allocated according to types of users and information.

더하여, 본 발명은 상술한 과제의 또 다른 해결 수단으로서, 채팅 서비스를 제공하는 장치가, 채팅 서비스가 시작되면, 채팅 서비스에 참여한 사용자 중에서 음성 정보의 시각화 대상을 선택 받는 단계; 선택된 음성 정보의 시각화 대상의 수 및 채팅 데이터에 포함된 정보의 종류에 따라서 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하는 단계; 분할된 둘 이상의 영역을 사용자 및 정보의 종류 별로 할당하는 단계; 채팅 서비스를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 분리하는 단계; 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를, 할당된 영역을 통해 시각화하여 출력하는 단계를 포함하는 것을 특징으로 하는 채팅 서비스 제공 방법을 제공한다.In addition, the present invention is another solution of the above-described problem, the apparatus for providing a chat service, when the chat service is started, receiving a selection of a visualization target of voice information among users participating in the chat service; Dividing the user interface screen into two or more regions according to the number of visualization targets of the selected voice information and the type of information included in the chat data; Allocating two or more divided areas according to types of users and information; Separating at least one of video information, audio information, and text information from chat data transmitted and received through a chat service; And visualizing and outputting at least one of the separated video information, audio information, and text information through the allocated area.

더하여, 상술한 채팅 서비스 제공 방법은 프로그램으로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다.In addition, the above-described method for providing a chat service may be implemented as a program and recorded in a computer-readable recording medium.

본 발명은 영상, 음성, 및 문자 중 하나 이상을 이용하여 이루어지는 채팅 서비스의 제공 중에, 사용자 인터페이스 화면을 복수의 영역으로 구분하고, 상기 채팅 서비스를 통해 송수신되는 영상 정보, 음성 정보, 및 문자 정보를 서로 다른 영역을 통해 구분하여 각각 시각화하여 출력함으로써, 참여한 사용자들의 의사를 보다 명확히 전달할 수 있도록 한다.The present invention divides a user interface screen into a plurality of areas while providing a chat service using one or more of video, audio, and text, and provides video information, audio information, and text information transmitted and received through the chat service. It is possible to clearly communicate the intentions of participating users by visualizing and outputting them separately through different areas.

특히, 본 발명은 영상 채팅 또는 음성 채팅을 수행하는 중에, 사용자들의 음성 정보를 청각적으로 출력하면서, 상기 음성 정보를 텍스트로 변환하여 상기 사용자 인터페이스 화면을 통해 출력함으로써, 채팅 중 각 사용자들이 발화한 내용을 보다 명확히 이해하도록 하거나, 추후 확인할 수 있도록 한다.In particular, the present invention, while performing a video chat or voice chat, while outputting the user's voice information audibly, by converting the voice information to text and output through the user interface screen, each user during the chat uttered Try to understand the content more clearly or make it possible to check it later.

또한, 본 발명은 영상 채팅 또는 음성 채팅을 수행하는 중에, 사용자들의 음성 정보의 파장을 추출하고, 상기 음성 정보의 파장을 시각화하여 출력할 수 있으며, 다양하고 새로운 형태의 채팅 서비스를 제공할 수 있다.In addition, the present invention can perform a video chat or a voice chat, extract the wavelength of the voice information of users, visualize and output the wavelength of the voice information, and provide a variety of new types of chat service .

도 1은 본 발명의 실시 예들에 따른 채팅 서비스 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 예들에 따른 채팅 서비스 시스템에서의 단말 장치의 구성을 도시한 도면이다.
도 3은 본 발명의 실시 예들에 따른 채팅 서비스 시스템에서의 서비스 장치의 구성을 도시한 도면이다.
도 4 내지 도 7은 본 발명의 실시 예들에 따른 채팅 서비스 제공 방법을 나타낸 순서도이다.
도 8은 본 발명의 실시 예에 따른 채팅 서비스의 예시 화면을 나타낸 도면이다.
1 is a diagram showing the configuration of a chat service system according to embodiments of the present invention.
2 is a diagram showing the configuration of a terminal device in a chat service system according to embodiments of the present invention.
3 is a diagram illustrating the configuration of a service device in a chat service system according to embodiments of the present invention.
4 to 7 are flowcharts illustrating a method for providing a chat service according to embodiments of the present invention.
8 is a diagram illustrating an example screen of a chat service according to an embodiment of the present invention.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, in the following description and accompanying drawings, detailed descriptions of well-known functions or configurations that may obscure the subject matter of the present invention are omitted. In addition, it should be noted that the same components throughout the drawings are represented by the same reference numerals as much as possible.

이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms or words used in the present specification and claims described below should not be construed as being limited to ordinary or dictionary meanings, and the inventor is appropriate as a concept of terms for explaining his or her invention in the best way. Based on the principle that it can be defined, it should be interpreted as a meaning and a concept consistent with the technical idea of the present invention. Therefore, the embodiments shown in the embodiments and the drawings described in this specification are only the most preferred embodiments of the present invention, and do not represent all of the technical spirit of the present invention, and can replace them at the time of this application. It should be understood that there may be equivalents and variations.

더하여, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급할 경우, 이는 논리적 또는 물리적으로 연결되거나, 접속될 수 있음을 의미한다. 다시 말해, 구성요소가 다른 구성요소에 직접적으로 연결되거나 접속되어 있을 수 있지만, 중간에 다른 구성요소가 존재할 수도 있으며, 간접적으로 연결되거나 접속될 수도 있다고 이해되어야 할 것이다.In addition, when referring to a component being "connected" or "connected" to another component, it means that it can be connected or connected logically or physically. In other words, it may be understood that a component may be directly connected to or connected to other components, but other components may exist in the middle and may be connected or connected indirectly.

또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 명세서에서 기술되는 "포함 한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In addition, the terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In addition, terms such as "comprises" or "have" described herein are intended to indicate that there are features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, or one or more thereof. It should be understood that the above other features or numbers, steps, actions, components, parts or combinations thereof are not excluded in advance.

설명에 앞서, 본 발명의 실시 예들에 따른 채팅 서비스는, 통신망을 기반으로 둘 이상의 사용자 간에 각 사용자의 영상 정보 및 음성 정보를 실시간으로 교환함으로써, 둘 이상의 사용자 간에 실시간 대화를 가능하게 하는 서비스를 의미하는 것으로서, 통화 기능을 포함하는 인스턴트 메신저 서비스, 통화 서비스 어플리케이션과 연동하는 인스턴트 메신저 서비스, VoIP 및 mVoIP 기반의 통화 서비스까지 포함하는 개념이다.Prior to the description, the chat service according to embodiments of the present invention means a service that enables real-time conversation between two or more users by exchanging video information and audio information of each user in real time between two or more users based on a communication network. The concept is to include an instant messenger service including a call function, an instant messenger service interworking with a call service application, and a VoIP and mVoIP-based call service.

아울러, 본 발명에 따른 채팅 서비스 시스템에서 제공되는 영상 정보 및 음성 정보는 모바일 인터넷 전화(mVoIP: mobile Voice over Internet Protocol)를 기반으로 사용자의 영상 및 음성을 디지털 신호로 변환한 데이터 패킷(data packet)을 포함하는 정보이다. In addition, the video information and audio information provided by the chat service system according to the present invention is a data packet that converts a user's video and audio into digital signals based on a mobile voice over Internet Protocol (mVoIP). It includes information.

먼저, 도 1을 참조하여, 본 발명에 따른 채팅 서비스 시스템의 전체 구성을 개략적으로 설명한다.First, with reference to FIG. 1, the overall configuration of a chat service system according to the present invention will be briefly described.

도 1은 본 발명의 실시 예에 따른 채팅 서비스 시스템의 구성을 도시한 도면이다. 1 is a view showing the configuration of a chat service system according to an embodiment of the present invention.

도 1을 참조하면, 채팅 서비스 시스템은 통신망(10)을 통해 연결되는 하나 이상의 단말 장치(100) 및 서비스 장치(200)를 포함하여 구성할 수 있다. Referring to FIG. 1, a chat service system may include one or more terminal devices 100 and service devices 200 connected through a communication network 10.

단말 장치(100)는 사용자의 키 조작에 따라 통신망(10)을 경유하여 각종 데이터를 송수신할 수 있는 단말기를 말하는 것이며, 태블릿 PC(Tablet PC), 랩톱(Laptop), 개인용 컴퓨터(PC: Personal Computer), 스마트폰(Smart Phone), 개인휴대용 정보단말기(PDA: Personal Digital Assistant), 스마트 TV 및 이동통신 단말기(Mobile Communication Terminal) 등 중 어느 하나일 수 있다. The terminal device 100 refers to a terminal capable of transmitting and receiving various data via the communication network 10 according to a user's key operation, and includes a tablet PC, a laptop, and a personal computer (PC). ), a smart phone, a personal digital assistant (PDA), a smart TV, and a mobile communication terminal.

특히, 단말 장치(100)는 통신망(10)을 이용하여 영상 및 음성을 포함하는 데이터 통신을 수행하는 단말기이며, 통신망(10)을 경유하여 서비스 장치(200)와 통신하기 위한 브라우저, 프로그램 및 프로토콜을 저장하는 메모리, 각종 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하고 있는 단말기를 의미한다. 즉, 단말 장치(100)는 서비스 장치(200)와 서버-클라이언트 통신이 가능하고, 채팅 서비스를 실행할 수 있다면 그 어떠한 단말기도 가능하며, 노트북 컴퓨터, 이동통신 단말기, PDA 등의 통신 컴퓨팅 장치를 모두 포함하는 넓은 개념이다. 한편, 단말 장치(100)는 터치 스크린을 구비한 형태로 제작되는 것이 바람직하나 반드시 이에 한정되는 것은 아니다. In particular, the terminal device 100 is a terminal that performs data communication including video and audio using the communication network 10, a browser, programs and protocols for communicating with the service device 200 via the communication network 10 Refers to a terminal having a memory for storing, a microprocessor for executing and controlling various programs, and the like. That is, the terminal device 100 is capable of server-client communication with the service device 200, and any terminal can be used if a chat service can be executed, and all communication computing devices such as notebook computers, mobile communication terminals, PDAs, and the like. It is a broad concept to include. Meanwhile, the terminal device 100 is preferably manufactured in a form having a touch screen, but is not limited thereto.

특히, 본 발명에 따른 단말 장치(100)는 영상, 음성, 문자 중 하나 이상을 이용한 채팅 서비스를 수행한다. 구체적으로, 단말 장치(100)는 채팅 서비스를 제공하는 동안, 사용자의 영상, 음성 및 문자 중 적어도 하나를 입력 받아 상기 서비스 장치(200)를 통해서 하나 이상의 다른 단말 장치로 송신하면서, 상기 다른 단말 장치로부터 수신된 상대방의 영상, 음성 및 문자 중 적어도 하나를 출력하여 사용자에게 제공함으로써, 사용자 간에 영상, 음성 및 문자 중 적어도 하나를 이용한 실시간 대화를 가능하게 한다. 보편적으로, 채팅 서비스에 포함된 영상 및 문자를 디스플레이 수단을 통해서 시각 신호로 출력되며, 음성은 스피커 등을 통해서 청각 신호로 출력된다.In particular, the terminal device 100 according to the present invention performs a chat service using one or more of video, voice, and text. Specifically, while providing a chat service, the terminal device 100 receives at least one of a user's video, voice, and text and transmits it to one or more other terminal devices through the service device 200, while the other terminal device By outputting at least one of the video, audio, and text of the other party received from the user to the user, real-time conversation using at least one of video, audio, and text between users is enabled. Generally, the video and text included in the chat service are output as a visual signal through a display means, and the audio is output as a hearing signal through a speaker or the like.

이때, 본 발명에 따른 단말 장치(100)는 채팅 서비스를 제공하는 동안 디스플레이되는 사용자 인터페이스 화면을 다수의 영역으로 분할한 후, 채팅 서비스 중에서 송수신되는 영상 정보, 음성 정보 및 문자 정보를 각각 구분하여 서로 다른 영역으로 시각화하여 출력한다. 이때, 음성 정보의 시각화는, 음성 정보를 텍스트로 변환하거나, 음성 정보의 파장을 추출하여 시각화하는 방식으로 이루어질 수 있다.At this time, the terminal device 100 according to the present invention divides the user interface screen displayed while providing the chat service into a plurality of areas, and then separates the video information, voice information, and text information transmitted and received among the chat services, respectively. Visualize it in another area and output it. At this time, the visualization of the voice information may be achieved by converting the voice information into text or extracting and visualizing the wavelength of the voice information.

예를 들어, 음성 채팅의 경우, 채팅 서비스에 참여한 사용자들의 음성을 청각 신호로 출력하면서, 각 사용자의 음성 정보를 텍스트로 변환하거나, 음성 정보의 파장을 시각화하여 사용자 인터페이스 화면을 통해 출력할 수 있다. For example, in the case of a voice chat, while outputting the voices of users participating in the chat service as an audio signal, the voice information of each user can be converted into text, or the wavelength of the voice information can be visualized and output through a user interface screen. .

그리고, 영상 채팅의 경우, 채팅 서비스에 참여한 사용자들의 영상을 출력하면서, 아울러, 사용자들의 음성 정보를 텍스트로 변화하거나, 음성 정보의 파장을 시각화하여 상기 영상 정보와는 다른 영역에 출력할 수 있다.In addition, in the case of a video chat, while outputting video of users participating in the chat service, the user's voice information may be changed to text or the wavelength of the voice information may be visualized and output to a different area from the video information.

여기서, 상기 채팅 서비스는, 영상 채팅 또는 음성 채팅과 동시에 문자 채팅을 함께 수행할 수 있는데, 이때, 문자 정보도 상기 영상 정보나 음성 정보와는 다른 영역을 통해 함께 출력된다.Here, the chat service may perform a text chat together with a video chat or a voice chat at the same time, wherein the text information is also output through a different area from the video information or the voice information.

이때, 서로 다른 영역을 통해 출력되는 영상 정보, 음성 정보, 문자 정보는, 채팅 서비스에 참여한 사용자들을 기준으로 매핑하여 출력함으로써, 영상 정보, 음성 정보, 문자 정보의 관련성을 직관적으로 인식할 수 있도록 할 수 있다.At this time, video information, audio information, and text information output through different areas are mapped and output based on users participating in the chat service, so that the relevance of video information, audio information, and text information can be intuitively recognized. Can.

서비스 장치(200)는 하나 이상의 단말 장치(100)과 통신망(10)을 통해 연동하여 채팅 서비스를 제공한다. 이때, 상기 서비스 장치(200)는 채팅 서비스의 연동을 위한 클라이언트 프로그램 또는 어플리케이션을 상기 하나 이상의 단말 장치(100)에 제공하고, 이를 통해 상기 하나 이상의 단말 장치(100)와 연동할 수 있다. 구체적으로, 상기 서비스 장치(200)는 상기 하나 이상의 단말 장치(100)로부터 요청 및 응답에 따라서, 둘 이상의 단말 장치(100)를 채팅 그룹으로 등록하고, 채팅 그룹으로 등록된 둘 이상의 단말 장치(100) 사이에서 각 사용자의 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 포함하는 채팅 데이터를 중계한다.The service device 200 provides a chat service by interworking with one or more terminal devices 100 through the communication network 10. At this time, the service device 200 may provide a client program or application for interworking with a chat service to the one or more terminal devices 100, and through this, interwork with the one or more terminal devices 100. Specifically, the service device 200 registers two or more terminal devices 100 as a chat group according to requests and responses from the one or more terminal devices 100, and two or more terminal devices 100 registered as chat groups. ) Relays chat data including at least one of video information, audio information, and text information of each user.

본 발명의 일 실시 예에서, 상기 서비스 장치(200)는 단말 장치(100)로부터의 요청에 따라서, 둘 이상의 영역으로 분할된 사용자 인터페이스 화면을 상기 단말 장치(100)로 제공하고, 단말 장치(100)에서 송수신하는 채팅 데이터에 포함된 영상 정보, 음성 정보 및 문자 정보가 서로 다른 영역을 통해 출력되도록 제어할 수 있다.In an embodiment of the present invention, the service device 200 provides a user interface screen divided into two or more areas to the terminal device 100 according to a request from the terminal device 100, and the terminal device 100 ), video information, audio information, and text information included in chat data transmitted and received can be controlled to be output through different areas.

이와 같은 단말 장치(100) 및 서비스 장치(200)는 통신망(10)을 통해 연동되며, 이러한 통신망(10)은 인터넷망, 인트라넷망, 이동통신망, 위성 통신망 등 다양한 유무선 통신 기술을 이용하여 인터넷 프로토콜로 데이터를 송수신할 수 있는 망을 말한다. 이러한, 통신망(10)은 LAN(Local Area Network), WAN(Wide Area Network)등의 폐쇄형 네트워크, 인터넷(Internet)과 같은 개방형 네트워크뿐만 아니라, CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), GSM(Global System for Mobile Communications), LTE(Long Term Evolution), EPC(Evolved Packet Core) 등의 네트워크와 향후 구현될 차세대 네트워크 및 컴퓨팅 네트워크를 통칭하는 개념이다. The terminal device 100 and the service device 200 are interlocked through the communication network 10, and the communication network 10 is an Internet protocol using various wired/wireless communication technologies such as an Internet network, an intranet network, a mobile communication network, and a satellite communication network. A network that can transmit and receive data. The communication network 10 is a closed area network such as a local area network (LAN), a wide area network (WAN), and an open network such as the Internet, as well as code division multiple access (CDMA) and wideband code division (WCDMA). It is a concept that collectively refers to networks such as Multiple Access (GSM), Global System for Mobile Communications (GSM), Long Term Evolution (LTE), Evolved Packet Core (EPC), and next-generation networks and computing networks to be implemented in the future.

이와 같이 구성된 채팅 서비스 시스템에서 본 발명의 실시 예들에 따른 단말 장치의 구성을 첨부된 도면을 참조하여 구체적으로 살펴보면 다음과 같다.The configuration of the terminal device according to the embodiments of the present invention in the chat service system configured as described above will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 실시 예들에 따른 채팅 서비스 시스템에서의 단말 장치(100)의 구성을 도시한 도면이다. 2 is a diagram illustrating a configuration of a terminal device 100 in a chat service system according to embodiments of the present invention.

도 2를 참조하면, 단말 장치(100)는 제어부(110), 입력부(120), 통신부(130), 저장부(140), 출력부(150) 및 오디오 처리부(160)를 포함하여 구성할 수 있다. 물론, 단말 장치(100)는 상술한 구성 이외에, 센서, GPS 수신기 등의 다른 구성요소들을 더 포함할 수 있으나, 이들은 본 발명과 직접적인 관련이 없어 도시 및 설명을 생략한다.Referring to FIG. 2, the terminal device 100 may include a control unit 110, an input unit 120, a communication unit 130, a storage unit 140, an output unit 150, and an audio processing unit 160. have. Of course, the terminal device 100 may further include other components, such as a sensor and a GPS receiver, in addition to the above-described configuration, but these are not directly related to the present invention, and thus illustration and description are omitted.

본 발명에 따른 단말 장치(100)에 구비된 각 구성의 기능 및 구성 간의 연동을 구체적으로 설명한다.The function of each component provided in the terminal device 100 according to the present invention and interworking between components will be described in detail.

먼저, 제어부(110)는 단말 장치(100)의 전반적인 제어를 수행하기 위한 구성으로서, 하나 이상의 프로세서를 포함하여 구현될 수 있다. 이 프로세서는 싱글 쓰레드(Single-threaded) 프로세서일 수 있으며, 다른 구현 예에서 본 프로세서는 멀티 쓰레드(Multithreaded) 프로세서일 수 있다. 나아가, 제어부(110)는 상기 하나 이상의 프로세서를 통해서, 메모리 혹은 저장 장치 상에 저장된 명령을 처리함으로써 동작할 수 있다. 이때, 상기 명령으로는, 예컨대 JavaScript나 ECMAScript 명령 등의 스크립트 명령과 같은 해석되는 명령이나 실행 가능한 코드 혹은 컴퓨터로 판독 가능한 매체에 저장되는 기타의 명령이 포함될 수 있다.First, the control unit 110 is a configuration for performing overall control of the terminal device 100, and may be implemented by including one or more processors. This processor may be a single-threaded processor, and in other implementations, the processor may be a multithreaded processor. Furthermore, the control unit 110 may operate by processing commands stored on a memory or a storage device through the one or more processors. In this case, the commands may include interpreted commands such as script commands such as JavaScript or ECMAScript commands, executable code, or other commands stored in a computer-readable medium.

이러한 제어부(110)는 전원이 온되면, 저장부(140)에 저장된 OS(Operating System) 프로그램을 실행하여, 다른 응용프로그램이 실행될 수 있는 실행 환경을 구축하고, 이를 기반으로 하나 이상의 다른 응용프로그램을 실행하여 소정의 기능을 수행할 수 있다.When the power is turned on, the control unit 110 executes an operating system (OS) program stored in the storage unit 140 to build an execution environment in which other application programs can be executed, and based on this, one or more other application programs are installed. Execute to perform a predetermined function.

특히, 제어부(110)는 채팅 서비스와 관련된 응용 프로그램을 수행하여, 본 발명에 따른 채팅 서비스를 실행할 수 있다. 이를 위해, 제어부(110)는 채팅 처리 모듈(111)을 포함하여 구성될 수 있다. 여기서, 모듈(Module)은, 소프트웨어, 또는 하드웨어 또는 소프트웨어와 하드웨어의 조합으로 구현되어 일정 기능을 수행하는 구성 요소를 의미하는 것으로서, 본 발명에 따른 채팅 처리 모듈(111)은 프로세서가 채팅 관련 응용프로그램을 수행함에 의해 구현되어 이하에서 설명하는 기능을 수행한다.In particular, the control unit 110 may execute an application program related to the chat service and execute the chat service according to the present invention. To this end, the control unit 110 may include a chat processing module 111. Here, the module (Module), which is implemented as software, or hardware or a combination of software and hardware, means a component that performs a certain function, and the chat processing module 111 according to the present invention includes a processor for a chat-related application program. It is implemented by performing the functions described below.

구체적으로, 상기 제어부(100)는 사용자의 채팅 서비스 요청에 따라서 상기 채팅 처리 모듈(111)을 실행하여 활성화하며, 상기 활성화된 채팅 처리 모듈(111)을 통해서, 둘 이상의 채팅 그룹 생성을 요청하거나, 특정 채팅 그룹으로의 참여를 요청하고, 이후 연결된 채팅 세션을 통해서, 상기 채팅 그룹에 참여한 사용자들의 채팅 데이터를 송수신 및 송수신되는 채팅 데이터의 출력을 처리한다.Specifically, the control unit 100 activates by executing the chat processing module 111 according to a user's request for a chat service, and requests the creation of two or more chat groups through the activated chat processing module 111, Requests to participate in a specific chat group, and then, through a connected chat session, processes and outputs the chat data transmitted and received and the chat data of users participating in the chat group.

이때, 상기 채팅 데이터는 영상 정보, 음성 정보 및 문자 정보를 포함할 수 있다. 여기서, 영상 정보는 사용자를 촬영한 영상일 수 있고, 음성 정보는 해당 사용자가 발화한 음성 신호일 수 있으며, 문자 정보는 해당 사용자가 입력한 문자일 수 있다.At this time, the chat data may include video information, audio information, and text information. Here, the video information may be an image captured by the user, the audio information may be an audio signal uttered by the user, and the text information may be text input by the corresponding user.

상기 채팅 처리 모듈(111)은 이러한 채팅 데이터의 출력을 위하여, 둘 이상의 영역으로 분할된 사용자 인터페이스 화면을 구성한다. 그리고, 상기 둘 이상의 영역에 각각, 영상, 음성 및 문자 중 어느 하나를 할당한다. 그리고, 상기 채팅 처리 모듈(111)은, 상기 채팅 서비스를 통해 송수신되는 채팅 데이터로부터 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 분리하고, 분리된 영상 정보, 음성 정보 및 문자 정보를 시각화하여, 할당된 영역으로 출력한다. The chat processing module 111 configures a user interface screen divided into two or more regions for outputting such chat data. Then, any one of video, audio, and text is assigned to the two or more regions, respectively. Then, the chat processing module 111 separates at least one of video information, audio information, and text information from chat data transmitted and received through the chat service, and visualizes the separated video information, audio information, and text information, Output to the allocated area.

이때 상기 채팅 처리 모듈(111)은, 상기 음성 정보를 텍스트로 변환하여 출력하거나, 상기 음성 정보의 파장을 추출하고, 추출된 파장을 시각화하여 출력할 수 있다.In this case, the chat processing module 111 may convert the voice information into text and output it, or extract the wavelength of the voice information and visualize and output the extracted wavelength.

이때, 상기 채팅 처리 모듈(111)은, 상기 채팅 서비스에 참여한 사용자별로 상기 영역을 더 분할하여, 사용자별로 음성 정보, 영상 정보 및 문자 정보 중 적어도 하나를 구분하여 출력할 수 있다. 예를 들어, 채팅 시, 영상 정보는 사용자 별로 영역을 구분하여 디스플레이하면서, 채팅에 참여한 다수 사용자의 음성 정보 및 문자 정보는, 사용자별 구분 없이 하나의 영역에 발생 시간 순으로 배치하여 표시할 수 있다. 또 다른 예에서, 사용자별로 영상 정보, 음성 정보 및 문자 정보를 각각 구분하여 출력할 수 도 있다. 이때, 상기 영상 정보, 음성 정보, 문자 정보에 할당된 각 영역을 채팅 서비스에 참여한 사용자들을 기준으로 매핑되도록 상기 사용자 인터페이스 화면에 배치함으로써, 직관적으로, 분리되어 출력되는 영상 정보, 음성 정보, 문자 정보가 연결될 수 있도록 한다. 예를 들어, 각 사용자별로, 영상정보가 출력되는 영역의 하부에 음성 정보 및 문자 정보가 출력되는 영역들을 이어서 배치함으로써, 각 음성 정보 및 문자 정보가 어떤 사용자의 의사인지를 쉽게 인지하도록 할 수 있다.In this case, the chat processing module 111 may further divide the area for each user participating in the chat service, and output at least one of voice information, video information, and text information for each user. For example, when chatting, video information is divided and displayed for each user, while voice information and text information of a plurality of users participating in the chat can be displayed by arranging in the order of occurrence time in one area without distinction by user. . In another example, video information, audio information, and text information for each user may be separately output. At this time, by arranging each area allocated to the video information, audio information, and text information on the user interface screen so as to be mapped based on users participating in the chat service, intuitively separated and output video information, audio information, and text information To be connected. For example, for each user, regions in which voice information and text information are output are sequentially arranged under a region in which image information is output, so that it is possible to easily recognize which user's intention each voice information and text information is. .

아울러, 상기 채팅 처리 모듈(111)은, 입력부(130)를 통해서 채팅 서비스에 참여한 둘 이상의 사용자 중에서, 적어도 한 명을 선택 받고, 선택된 사용자의 영상, 문자, 음성 중 적어도 하나를 시각화하여 출력할 수 있다.In addition, the chat processing module 111 may receive at least one selected from among two or more users participating in a chat service through the input unit 130 and visualize and output at least one of video, text, and voice of the selected user. have.

예를 들어, 영상 채팅 및 음성 채팅 중에, 선택된 사용자의 음성 정보만을 시각화하여, 예를 들어, 음성 정보를 텍스트화하거나 음성 정보의 파장을 시각화하여 출력할 수 있다. 이때, 채팅에 참여한 모든 사용자의 음성 정보는, 오디오 처리부(160)를 통해 청각 신호로 출력된다. 따라서, 사용자는 음성 채팅 중, 원하는 사용자의 음성 정보만을 시각화하여 사용자 인터페이스 화면을 통해 별도로 확인할 수 있다.For example, during video chat and voice chat, only the voice information of the selected user may be visualized, for example, the voice information may be texted or the wavelength of the voice information may be visualized and output. At this time, voice information of all users participating in the chat is output as an audio signal through the audio processing unit 160. Therefore, the user can visually check only the voice information of the desired user during the voice chat and separately check through the user interface screen.

다음으로, 본 발명의 실시 예에 따른 단말 장치(100)의 구성 중, 통신부(120)는 통신망(10)을 통해 서비스 장치(200)와 통신을 수행하여 채팅 서비스에 관련된 데이터를 송수신할 수 있다. 구체적으로 통신부(120)는, 채팅 그룹 생성 요청이나, 특정 채팅 그룹으로의 참여 요청 등 채팅 서비스와 관련된 요청 및 응답을 상기 서비스 장치(200)로 송신하거나 수신한다. 아울러, 상기 통신부(120)는 서비스 장치(200)의 제어에 따라서 채팅 세션을 연결하고, 연결된 채팅 세션을 통해서 채팅에 참여한 사용자들의 영상 정보, 음성 정보 및 문자 정보 중에서 적어도 하나를 포함하는 채팅 데이터를 송수신한다.Next, among the configuration of the terminal device 100 according to an embodiment of the present invention, the communication unit 120 may communicate with the service device 200 through the communication network 10 to transmit and receive data related to a chat service. . Specifically, the communication unit 120 transmits or receives a request or response related to a chat service, such as a request to create a chat group or a request to join a specific chat group, to the service device 200. In addition, the communication unit 120 connects a chat session under the control of the service device 200, and through the connected chat session, chat data including at least one of video information, voice information, and text information of users participating in the chat. Send and receive.

이러한 통신부(120)는 유선 방식 및 무선 방식뿐만 아니라 다양한 통신 방식을 통해서 데이터를 송수신할 수 있다. 더하여, 통신부(120)는 하나 이상의 통신 방식을 사용하여 데이터를 송수신할 수 있으며, 이를 위하여 통신부(120)는 각각 서로 다른 통신 방식에 따라서 데이터를 송수신하는 복수의 통신 모듈을 포함할 수 있다.The communication unit 120 may transmit and receive data through various communication methods as well as wired and wireless methods. In addition, the communication unit 120 may transmit and receive data using one or more communication methods, and for this purpose, the communication unit 120 may include a plurality of communication modules that transmit and receive data according to different communication methods.

그리고, 입력부(130)는 단말 장치(100)의 조작을 위한 구성으로서, 구체적으로, 사용자의 조작에 따라서, 단말 장치(100)의 기능 또는 동작을 제어하기 위한 사용자 요청이나 정보에 해당하는 사용자 입력 신호를 생성하여 상기 제어부(110)로 전달한다. 이러한 입력부(130)는 현재 상용화되어 있거나 향후 상용화가 가능한 다양한 입력 수단으로 구현될 수 있으며, 예를 들면, 키보드, 마우스, 조이스틱, 터치 스크린, 터치 패드 등과 같은 일반적인 입력 장치뿐만 아니라, 사용자의 모션을 감지하여 특정 입력 신호를 발생하는 제스처 입력 수단, 사용자의 음성을 인식하는 음성 인식 수단을 포함할 수 있다. 특히, 입력부(130)는 채팅 그룹의 생성, 참여자의 선택, 참여 여부 선택을 위해 이용될 수 있다.In addition, the input unit 130 is a configuration for the operation of the terminal device 100, specifically, according to the user's operation, the user input corresponding to the user request or information for controlling the function or operation of the terminal device 100 The signal is generated and transmitted to the control unit 110. The input unit 130 may be implemented with various input means that are currently commercialized or commercially available in the future. For example, as well as general input devices such as a keyboard, mouse, joystick, touch screen, and touch pad, the user's motion It may include gesture input means for detecting and generating a specific input signal, and voice recognition means for recognizing a user's voice. In particular, the input unit 130 may be used to create a chat group, select a participant, and select whether to participate.

이어서, 저장부(140)는 제어부(110)에 의해 실행되거나 처리되는 데이터 혹은 프로그램을 저장하기 위한 구성이다. 기본적으로, 저장부(140)는 단말 장치(100)의 부팅 및 상술한 각 구성의 운용을 위한 운영체제(OS, Operating System), 다양한 사용자 기능, 예를 들면, 단말 장치(100)의 통화기능 지원을 위한 사용자 기능, 기타 음원을 재생하기 위한 MP3 사용자 기능, 사진 등의 이미지를 재생하기 위한 이미지 출력 기능, 동영상 재생 기능 등을 각각 지원하기 위한 응용 프로그램 등을 저장할 수 있다. 특히, 저장부(140)는, 채팅 서비스를 위한 응용 프로그램을 저장할 수 있다. 이러한 저장부(140)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media) 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리를 포함한다. Subsequently, the storage unit 140 is configured to store data or programs executed or processed by the control unit 110. Basically, the storage unit 140 supports an operating system (OS) for booting the terminal device 100 and operating each of the above-described components, various user functions, for example, a call function of the terminal device 100. User functions for playback, MP3 user functions for reproducing other sound sources, image output functions for reproducing images such as photos, and application programs for supporting video replay functions, etc. can be stored. In particular, the storage 140 may store an application program for a chat service. The storage unit 140 includes optical media such as magnetic media such as hard disks, floppy disks, and magnetic tapes, compact disk read only memory (CD-ROM), and digital video disks (DVD). , Magnetic-Optical Media, such as a Floppy Disk, and ROM, Random Access Memory (RAM), and Flash memory.

아울러, 저장부(140)는 출력부(150)가 터치스크린으로 구성되는 경우 터치스크린 운용을 위한 키 맵이나 메뉴 맵 등을 저장할 수 있다. 여기서 키 맵, 메뉴 맵은 각각 다양한 형태가 될 수 있다. 즉, 키맵은 키보드 맵이나, 3*4 키 맵, 쿼티 키 맵 등이 될 수 있고, 현재 활성화되고 있는 응용 프로그램의 운용 제어를 위한 제어키 맵이 될 수 도 있다. 또한, 메뉴 맵은 현재 활성화되고 있는 응용 프로그램 운용 제어를 위한 메뉴 맵이 될 수 도 있다. In addition, when the output unit 150 is configured as a touch screen, the storage unit 140 may store a key map or a menu map for operating the touch screen. Here, the key map and the menu map may each have various forms. That is, the key map may be a keyboard map, a 3*4 key map, a QWERTY key map, etc., or a control key map for operating control of the currently active application program. In addition, the menu map may be a menu map for controlling application operation that is currently active.

출력부(150)는 단말 장치(100)의 동작 결과나 상태를 사용자가 인식할 수 있도록 제공하는 구성으로서, 특히, 디스플레이 수단을 이용하여 시각적으로 정보를 출력한다. 예를 들어, 출력부(150)는, 방전광 디스플레이(ELD), 진공 형광 디스플레이(VFD), 액정 디스플레이 장치(LCD: Liquid crystal display), 발광 다이오드 디스플레이, 플라스마 디스플레이 패널(PDP), 유기 발광 다이오드(OLED) 등과 같은 다양한 2차원 디스플레이 수단뿐만 아니라, 홀로그래피 또는 레이저 빔과 같은 3차원 디스플레이 수단까지 포함할 수 있다.The output unit 150 is a configuration that provides a user to recognize an operation result or state of the terminal device 100, and in particular, outputs information visually using display means. For example, the output unit 150 includes a discharge light display (ELD), a vacuum fluorescent display (VFD), a liquid crystal display (LCD), a light emitting diode display, a plasma display panel (PDP), and an organic light emitting diode. It may include various two-dimensional display means such as (OLED), as well as three-dimensional display means such as holography or laser beam.

특히, 본 발명에 있어서, 상기 출력부(150)는 상기 제어부(110)의 제어에 따라서, 채팅 처리 모듈(111)에 의해 구성된 다수의 영역으로 분할된 사용자 인터페이스 화면을 출력하고, 상기 사용자 인터페이스 화면의 각 영역으로, 영상 정보, 음성 정보 및 문자 정보를 시각화하여 출력한다. 참고로, 상기 사용자 인터페이스 화면은, 상기 영상 정보, 음성 정보 및 문자 정보가 출력되는 영역 이외에, 사용자 선택이 가능한 GUI 요소를 더 포함할 수 있다.Particularly, in the present invention, the output unit 150 outputs a user interface screen divided into a plurality of areas configured by the chat processing module 111 under the control of the control unit 110, and the user interface screen Visualize and output video information, audio information, and text information to each area of. For reference, the user interface screen may further include a user selectable GUI element in addition to an area in which the video information, audio information, and text information are output.

마지막으로, 상기 오디오 처리부(160)는 단말 장치(100)에 있어서, 음성 정보의 인식 및 음성 정보의 출력을 위한 구성으로서, 마이크(MIC)와 연동하여 상기 마이크(MIC)를 통해 인식된 음성 정보를 디지털 변환하여 상기 제어부(110)로 전달하고, 상기 제어부(110)로부터 전달된 음성 정보를 스피커(SPK)를 통해 청각 신호로 출력한다. 이때 상기 오디오 처리부(160)의 출력되는 음성 정보의 크기(볼륨) 조절 및 잡음 제거 등의 신호 처리를 더 수행한다.Finally, the audio processing unit 160 in the terminal device 100, as a configuration for the recognition of voice information and output of voice information, in conjunction with a microphone (MIC), the voice information recognized through the microphone (MIC) Is digitally converted and transmitted to the control unit 110, and outputs voice information transmitted from the control unit 110 as a hearing signal through a speaker SPK. At this time, the audio processing unit 160 further performs signal processing such as adjusting the size (volume) of the output voice information and removing noise.

다음으로, 채팅 서비스 시스템에서 본 발명에 따른 서비스 장치(200)의 구성 및 동작을 도 3을 참조하여 구체적으로 살펴본다.Next, the configuration and operation of the service device 200 according to the present invention in the chat service system will be described in detail with reference to FIG. 3.

도 3은 본 발명의 실시 예들에 따른 채팅 서비스 시스템에서의 서비스 장치(200)의 구성을 도시한 도면이다.3 is a diagram illustrating a configuration of a service device 200 in a chat service system according to embodiments of the present invention.

도 3은 본 발명의 실시 예들에 따른 채팅 서비스 시스템에서의 서비스 장치의 구성을 도시한 도면이다. 3 is a diagram illustrating the configuration of a service device in a chat service system according to embodiments of the present invention.

도 3을 참조하면, 서비스 장치(200)는 통신부(210), 서비스 제공부(220) 및 저장부(230)를 포함하여 구성할 수 있다. Referring to FIG. 3, the service device 200 may include a communication unit 210, a service providing unit 220, and a storage unit 230.

통신부(210)는 통신망(10)을 통해 하나 이상의 단말 장치(100)와 채팅 서비스를 위한 데이터를 송수신할 수 있다. 이러한 통신부(210)는 유선 방식 및 무선 방식뿐만 아니라 다양한 통신 방식을 통해서 데이터를 송수신할 수 있다. 더하여, 통신부(210)는 하나 이상의 통신 방식을 사용하여 데이터를 송수신할 수 있으며, 이를 위하여 통신부(210)는 각각 서로 다른 통신 방식에 따라서 데이터를 송수신하는 복수의 통신 모듈을 포함할 수 있다. 구체적으로, 상기 통신부(210)는 하나 이상의 단말 장치(100)와 채팅 그룹의 생성, 참여 등을 위한 요청을 송수신하며, 상기 하나 이상의 단말 장치(100)와의 채팅 세션을 연결하고, 연결된 채팅 세션을 통해서 영상 정보, 문자 정보, 음성 정보 중에서 하나 이상을 포함하는 채팅 데이터를 송수신한다.The communication unit 210 may transmit and receive data for a chat service with one or more terminal devices 100 through the communication network 10. The communication unit 210 may transmit and receive data through various communication methods as well as wired and wireless methods. In addition, the communication unit 210 may transmit and receive data using one or more communication methods, and for this purpose, the communication unit 210 may include a plurality of communication modules that transmit and receive data according to different communication methods. Specifically, the communication unit 210 transmits and receives a request for the creation, participation, etc. of one or more terminal devices 100 and a chat group, connects a chat session with the one or more terminal devices 100, and establishes a connected chat session. Through this, chat data including one or more of video information, text information, and audio information is transmitted and received.

본 발명의 실시 예들에 따른 서비스 제공부(220)는 통신망(10)을 통해 둘 이상의 단말 장치(100)와 연동하여 채팅 서비스를 제어하기 위한 구성으로서, 하나 이상의 프로세서를 포함하여 구현될 수 있다. 이때, 본 발명에 따른 서비스 장치(200)에 탑재되는 프로세서는 본 발명에 따른 방법을 실행하기 위한 프로그램 명령을 처리하여 이하에서 설명하는 소정의 기능을 수행할 수 있다. 일 구현 예에서, 이 프로세서는 싱글 쓰레드(Single-threaded) 프로세서일 수 있으며, 다른 구현 예에서 본 프로세서는 멀티 쓰레드(Multithreaded) 프로세서일 수 있다. 구체적으로, 상기 서비스 제공부(220)는, 통신부(210)와 기능적으로 연동하여, 채팅 그룹으로 설정된 둘 이상의 단말 장치들(100) 사이에서 영상 정보, 음성 정보, 및 문자 정보 중에서 하나 이상을 포함하는 채팅 데이터를 중계한다. The service providing unit 220 according to embodiments of the present invention is a configuration for controlling a chat service by interworking with two or more terminal devices 100 through the communication network 10, and may be implemented by including one or more processors. At this time, the processor mounted on the service device 200 according to the present invention may process a program command for executing the method according to the present invention to perform a predetermined function described below. In one implementation, this processor may be a single-threaded processor, and in other implementations, the processor may be a multithreaded processor. Specifically, the service providing unit 220 is functionally interlocked with the communication unit 210, and includes one or more of video information, audio information, and text information between two or more terminal devices 100 set as a chat group. To relay chat data.

더하여, 상기 서비스 제공부(220)는 채팅 서비스의 제공 중에, 본 발명에 따른 사용자 인터페이스 제어를 더 수행할 수 있다. 구체적으로, 상기 서비스 제공부(220)는 채팅 그룹으로 등록된 둘 이상의 단말 장치(100) 간에 영상 정보, 음성, 및 문자 중 적어도 하나를 실시간으로 중계하되, 상기 둘 이상의 단말 장치로 둘 이상의 영역으로 분할된 사용자 인터페이스 화면을 제공하고, 상기 둘 이상의 단말 장치 간에 송수신되는 채팅 데이터의 영상, 음성, 문자를 분리하여, 상기 분리된 영상, 음성 및 문자를 각각 서로 다른 영역에 할당하여 출력하도록 각 단말 장치(100)를 제어한다. In addition, the service providing unit 220 may further perform user interface control according to the present invention while providing a chat service. Specifically, the service providing unit 220 relays at least one of video information, voice, and text in real time between two or more terminal devices 100 registered as a chat group, and the two or more terminal devices may transmit to at least two areas. Each terminal device provides a divided user interface screen, separates video, audio, and text of chat data transmitted and received between the two or more terminal devices, and allocates and outputs the separated video, audio, and text to different areas, respectively. (100) is controlled.

특히, 상기 서비스 제공부(220)는 채팅에 참여한 다수 사용자의 영상 정보를 출력하면서, 상기 음성 정보 및 문자 정보를 해당 사용자의 선택에 따라서 선별하여 출력하도록 제어할 수 있다. 즉, 각 단말 장치(100)가 해당 사용자가 원하는 특정 사용자의 음성 정보 또는 문자 정보만을 시각화하여 출력할 수 있다.Particularly, while outputting video information of a plurality of users participating in a chat, the service providing unit 220 may control to select and output the voice information and text information according to a user's selection. That is, each terminal device 100 may visualize and output only voice information or text information of a specific user desired by the corresponding user.

이 경우, 동일한 채팅 그룹으로 등록된 단말 장치(100)라도 각각의 요청에 따라서 시각화되어 출력되는 사용자의 채팅 데이터가 상이할 수 있다.In this case, even if the terminal devices 100 registered as the same chat group, the chat data of the user visualized and output according to each request may be different.

그리고, 서비스 장치(200)의 저장부(230)는 채팅 서비스를 제공하기 위해 필요한 데이터 및 프로그램을 저장하기 위한 구성이다. 구체적으로, 저장부(230)는 현재 생성된 채팅 그룹 및 채팅 그룹에 등록된 단말 장치들(100)의 정보를 저장하고, 상기 채팅 그룹 별 채팅 데이터를 일정 시간 동안 저장할 수 있다.In addition, the storage unit 230 of the service device 200 is configured to store data and programs necessary to provide a chat service. Specifically, the storage 230 may store information of the currently generated chat group and terminal devices 100 registered in the chat group, and may store chat data for each chat group for a predetermined time.

이러한 저장부(230)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media) 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리를 포함한다. The storage unit 230 includes an optical media such as a hard disk, a floppy disk, and a magnetic tape (Magnetic Media), a CD-ROM (Compact Disk Read Only Memory), and a DVD (Digital Video Disk). , Magnetic-Optical Media, such as a Floppy Disk, and ROM, Random Access Memory (RAM), and Flash memory.

다음으로, 상술한 바와 같이 구성된 채팅 서비스 시스템을 기반으로 이루어지는 채팅 서비스 제공 방법을 도 4 내지 도 8을 참조하여 설명한다.Next, a method for providing a chat service based on the chat service system configured as described above will be described with reference to FIGS. 4 to 8.

도 4 내지 도 7은 본 발명의 실시 예들에 따른 채팅 서비스 제공 방법을 나타낸 순서도이고, 도 8은 본 발명의 실시 예에 따른 채팅 서비스의 예시 화면을 나타낸 도면이다.4 to 7 are flowcharts illustrating a method of providing a chat service according to embodiments of the present invention, and FIG. 8 is a view showing an example screen of a chat service according to an embodiment of the present invention.

참고로, 이하에서 설명하는 채팅 서비스 제공 방법의 각 단계는, 상기 단말 장치(100) 및 서비스 장치(200) 중 어느 하나의 장치를 통해서 이루어질 수 있는데, 이하에서는 단말 장치(100)을 기준으로 설명하기로 한다.For reference, each step of the chat service providing method described below may be performed through any one of the terminal device 100 and the service device 200, hereinafter, it is described based on the terminal device 100. I will do it.

먼저, 도 4를 참조하면, 본 발명에 따른 단말 장치(100)는 사용자 요청에 따라서 둘 이상의 사용자 간에 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 교환하여 실시간 대화를 지원하는 채팅 서비스를 수행할 수 있으며, 본 발명에 따른 단말 장치(100)는 이러한 채팅 서비스가 시작되는 지를 확인한다(S105). 구체적으로, 상기 S105 단계는, 서비스 장치(200)로 채팅 그룹의 생성을 요청하는 메시지를 전송한 후, 상기 서비스 장치(200)를 통한 다른 단말 장치들의 응답에 따라서 이루어지거나, 상기 서비스 장치(200)를 통해 전송된 다른 단말 장치의 채팅 그룹 생성 요청에 대하여 참여를 수락하는 응답을 전송하는 경우, 채팅 서비스가 시작된 것으로 판단할 수 있다.First, referring to FIG. 4, the terminal device 100 according to the present invention performs a chat service supporting real-time conversation by exchanging at least one of video information, voice information, and text information between two or more users according to a user request The terminal device 100 according to the present invention confirms whether such a chat service is started (S105). Specifically, the step S105 is performed according to the response of other terminal devices through the service device 200 after sending a message requesting the creation of a chat group to the service device 200 or the service device 200 If a response to accept participation is transmitted to a request for creating a chat group of another terminal device transmitted through ), it may be determined that the chat service has been started.

이렇게 채팅 서비스가 시작되면, 상기 단말 장치(100)는 채팅 관련 정보를 출력하기 위한 사용자 인터페이스 화면을 둘 이상의 영역으로 분할한다(S110). When the chat service is started as described above, the terminal device 100 divides a user interface screen for outputting chat-related information into two or more areas (S110).

그리고, 상기 단말 장치(100)는 상기 분할한 둘 이상의 영역에 각각 영상, 음성, 문자 중 적어도 하나를 할당한다(S115). 이때, 상기 S115 단계는 디폴트 설정 값에 따라 이루어질 수 도 있고, 사용자 선택에 따라서 이루어질 수 도 있다. 아울러, 동일 사용자에 할당된 영역들은 서로 매핑될 수 있도록 배치함으로써, 사용자가 시각화되어 출력되는 정보 간의 연관성을 직관적으로 인지하도록 할 수 있다.Then, the terminal device 100 allocates at least one of video, audio, and text to each of the divided two or more regions (S115). At this time, the step S115 may be performed according to a default setting value or may be performed according to a user selection. In addition, by arranging regions allocated to the same user so that they can be mapped to each other, the user can intuitively recognize the association between information that is visualized and output.

그리고, 단말 장치(100)의 통신부(120)를 통해서, 해당 채팅 서비스에서 연결된 채팅 세션을 통해서, 채팅에 참여한 사용자들의 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 포함하는 채팅 데이터가 송수신되기 시작하면, 상기 제어부(110)는, 채팅 처리 모듈(111)을 통해서 송수신된 채팅 데이터로부터 영상 정보, 문자 정보, 음성 정보를 각각 분리한다(S120). Then, through the communication unit 120 of the terminal device 100, through a chat session connected to the corresponding chat service, chat data including at least one of video information, voice information, and text information of users participating in the chat is transmitted and received. When starting, the control unit 110 separates video information, text information, and voice information from chat data transmitted and received through the chat processing module 111, respectively (S120).

그리고, 단말 장치(100)의 채팅 처리 모듈(111)은 상기 분리된 영상 정보, 문자 정보, 음성 정보 중 하나를 각각 할당된 상기 사용자 인터페이스 화면의 해당 영역으로 시각화하여 출력한다(S125). 이때 상기 채팅 데이터에 음성 정보가 포함된 경우, 상기 단말 장치(100)는 해당 음성 정보를, 통상의 처리 방식과 마찬가지로, 오디오 처리부(160)를 통해서 청각 신호로 출력하면서, 상기 사용자 인터페이스 화면의 할당된 영역을 통해 시각화하여 출력할 수 있다. Then, the chat processing module 111 of the terminal device 100 visualizes and outputs one of the separated video information, text information, and voice information to a corresponding area of the assigned user interface screen (S125). At this time, when the chat data includes voice information, the terminal device 100 allocates the user interface screen while outputting the voice information as an audio signal through the audio processing unit 160, similar to a normal processing method. It can be visualized and output through the area.

이때, 음성 정보의 시각화는 도 5 또는 도 6과 같은 방식으로 이루어질 수 있다.At this time, visualization of the voice information may be performed in the same manner as in FIG. 5 or FIG. 6.

본 발명의 일 실시 예에 따르면, 상기 S125 단계에서, 단말 장치(100)의 채팅 처리 모듈(111)은 도 5에 도시된 바와 같이, 상기 채팅 데이터에 음성 정보가 포함된 경우, TTS(Text To Speech) 기술 등의 다양한 음성 인식 기술을 이용하여 분리된 음성 정보를 텍스트로 변환할 수 있다(S205). 그리고, 이렇게 변환된 음성 정보를 상기 사용자 인터페이스 화면의 할당된 영역으로 출력할 수 있다(S210). 이로서, 채팅에 참여한 사용자의 음성 내용을 텍스트로 확인할 수 있게 된다.According to an embodiment of the present invention, in step S125, the chat processing module 111 of the terminal device 100, as shown in Figure 5, when the chat data includes voice information, TTS (Text To Speech) technology may be used to convert the separated speech information into text using various speech recognition technologies (S205). Then, the converted voice information may be output to the allocated area of the user interface screen (S210). As a result, the voice content of the user participating in the chat can be confirmed by text.

본 발명의 다른 실시 예에 따르면, 상기 S125 단계에서, 단말 장치(100)의 채팅 처리 모듈(111)은 도 6에 도시된 바와 같이, 상기 음성 정보의 파장을 추출하고(S305), 추출한 파장을 시각화한 후(S310), 시각화된 파장을 상기 사용자 인터페이스 화면의 음성 정보에 할당된 영역으로 출력할 수 있다(S315). 이로서, 채팅에 참여한 사용자의 음성의 크기 혹은 톤의 변화를 시각적으로 인지할 수 있게 된다.According to another embodiment of the present invention, in step S125, the chat processing module 111 of the terminal device 100 extracts the wavelength of the audio information, as shown in FIG. 6 (S305), and extracts the extracted wavelength. After visualizing (S310), the visualized wavelength may be output to an area allocated to voice information of the user interface screen (S315). As a result, it is possible to visually recognize a change in the volume or tone of the voice of the user participating in the chat.

아울러, 본 발명의 다른 실시 예에 따르면, 채팅에 참여한 사용자들의 영상 정보, 음성 정보 및 문자 정보를 서로 다른 영역을 통해서 시각화하여 출력하는데 있어서, 상기 사용자 중에서 선택된 사용자에 대해서만 음성 정보를 선택적으로 시각화하여 출력할 수 있다.In addition, according to another embodiment of the present invention, in visualizing and outputting video information, voice information, and text information of users participating in a chat through different areas, the voice information is selectively visualized only for a user selected among the users. Can print

도 7은 본 발명의 다른 실시 예에 따른 채팅 서비스 제공 방법을 나타낸 순서도이다.7 is a flowchart illustrating a method for providing a chat service according to another embodiment of the present invention.

도 7을 참조하면, 본 발명에 따른 단말 장치(100)는 사용자 요청에 따라서 셋 이상의 사용자 간에 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 교환하여 실시간 대화를 지원하는 채팅 서비스가 시작되는 지를 확인한다(S405). 앞서 설명한 바와 같이, 상기 S205 단계는, 서비스 장치(200)로 채팅 그룹의 생성을 요청하는 메시지를 전송한 후, 상기 서비스 장치(200)를 통한 다른 단말 장치들의 응답에 따라서 이루어지거나, 상기 서비스 장치(200)를 통해 전송된 다른 단말 장치의 채팅 그룹 생성 요청에 대하여 참여를 수락하는 응답을 전송하는 경우, 채팅 서비스가 시작된 것으로 판단할 수 있다. 아울러, 상기 S205 단계에서는 채팅 서비스에 참여자가 셋 이상인지를 더 확인할 수 있다.Referring to FIG. 7, the terminal device 100 according to the present invention checks whether a chat service supporting real-time conversation is started by exchanging at least one of video information, voice information, and text information between three or more users according to a user request (S405). As described above, the step S205 is performed according to the response of other terminal devices through the service device 200 after transmitting a message requesting the creation of a chat group to the service device 200 or the service device When a response for accepting participation is transmitted in response to a request for creating a chat group of another terminal device transmitted through (200), it may be determined that the chat service is started. In addition, in step S205, it may be further confirmed whether there are three or more participants in the chat service.

이렇게 셋 이상의 사용자가 참여하는 채팅 서비스가 시작되면, 상기 단말 장치(100)는 채팅 서비스에 참여한 사용자들 중 음성 정보를 시각화할 대상을 선택 받는다(S410). 이는 상기 단말 장치(100)가 참여자 리스트를 출력부(150)로 출력한 후, 입력부(130)를 통해서 참여자 리스트에 포함된 사용자 중 적어도 하나를 선택 받는 형태로 이루어질 수 있다.When a chat service in which three or more users participate is started, the terminal device 100 selects a target to visualize voice information among users participating in the chat service (S410). The terminal device 100 may output a participant list to the output unit 150, and then select at least one of the users included in the participant list through the input unit 130.

이후, 상기 단말 장치(100)는, 채팅 관련 정보를 출력하기 위한 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하되, 상기 채팅 서비스에 참여한 사용자의 수 및 상기 채팅 서비스에서 교환되는 정보의 종류에 따라서, 상기 영역을 분할한다(S415). 예를 들어, 영상 채팅인 경우, 상기 단말 장치(100)는, 채팅에 참여한 사용자의 수에 대응하는 수만큼의 영상 정보 출력용 영역과, 상기 음성 정보 시각화 대상으로 선택된 사용자의 수만큼의 음성 정보 출력용 영역을 분할할 수 있다.Thereafter, the terminal device 100 divides the user interface screen for outputting chat-related information into two or more areas, depending on the number of users participating in the chat service and the type of information exchanged in the chat service. The region is divided (S415). For example, in the case of a video chat, the terminal device 100 outputs as many video information output areas as the number corresponding to the number of users participating in the chat, and outputs voice information as many as the number of users selected as the audio information visualization targets. The area can be divided.

반면, 음성 채팅인 경우, 상기 단말 장치(100)는, 상기 음성 정보 시각화 대상으로 선택된 사용자의 수만큼의 음성 정보 출력용 영역을 분할할 수 있다.On the other hand, in the case of a voice chat, the terminal device 100 may divide an area for outputting voice information by the number of users selected as the object for visualizing the voice information.

그리고, 단말 장치(100)는, 분할된 각 영역별로 사용자 및 정보의 종류를 할당한다(S420). 이때, 동일 사용자에 할당된 영역들은 서로 매핑될 수 있도록 배치함으로써, 사용자가 시각화되어 출력되는 정보 간의 연관성을 직관적으로 인지하도록 할 수 있다.Then, the terminal device 100 allocates a user and a kind of information for each divided area (S420). At this time, the areas allocated to the same user are arranged to be mapped to each other, so that the user can intuitively recognize the association between the information that is visualized and output.

그리고, 해당 채팅 서비스에서 연결된 채팅 세션을 통해서, 채팅에 참여한 사용자들의 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 포함하는 채팅 데이터가 송수신되기 시작하면, 상기 단말 장치(1000)는, 채팅 처리 모듈(111)을 통해서 송수신된 채팅 데이터로부터 영상 정보, 문자 정보, 음성 정보 중 적어도 하나를 분리한다(S425). 이때, 상기 영상 정보, 문자 정보, 음성 정보는 대응하는 사용자별로 구분될 수 있다.Then, through a chat session connected to the corresponding chat service, when the chat data including at least one of video information, voice information, and text information of users participating in the chat starts to be transmitted and received, the terminal device 1000, chat processing At least one of video information, text information, and audio information is separated from the chat data transmitted and received through the module 111 (S425). At this time, the video information, text information, and audio information may be classified for each corresponding user.

그리고, 단말 장치(100)의 채팅 처리 모듈(111)은 상기 분리된 영상 정보, 문자 정보, 음성 정보 중 하나를 각각 할당된 상기 사용자 인터페이스 화면의 해당 영역으로 시각화하여 출력한다(S125). 여기서, 음성 정보의 시각화는 앞서 설명한 도 5 및 도 6에 도시된 바와 같이 이루어질 수 있다.Then, the chat processing module 111 of the terminal device 100 visualizes and outputs one of the separated video information, text information, and voice information to a corresponding area of the assigned user interface screen (S125). Here, the visualization of the voice information may be made as shown in FIGS. 5 and 6 described above.

그리고, 상기 채팅 데이터에 포함된 음성 정보는, 상기 단말 장치(100)의 오디오 처리부(160)를 통해서 청각 신호로도 출력된다. In addition, the voice information included in the chat data is also output as an audio signal through the audio processing unit 160 of the terminal device 100.

따라서, 상기 단말 장치(100)의 사용자는 기존과 마찬가지로 채팅을 수행하는 중에, 특정 사용자의 음성 정보만을 시각화하여 별도로 확인할 수 있다.Therefore, the user of the terminal device 100 can check separately by visualizing only the voice information of a specific user while performing a chat as in the past.

이를 통하여, 사용자는 채팅 중 특정 사용자의 채팅 내용을 보다 정확히 확인할 수 있다. 예를 들어, 채팅 중 잡음 등으로 인하여 특정 사용자의 음성이 잘 들리지 않는 경우, 해당 사용자의 음성 정보를 시각화하여 출력함으로써, 채팅 내용을 정확히 인지할 수 있다.Through this, the user can more accurately check the chat content of a specific user during the chat. For example, when a specific user's voice cannot be easily heard due to noise during chat, the content of the user's voice can be visualized and output, thereby accurately recognizing the content of the chat.

도 8은 본 발명에 따른 채팅 서비스 화면을 예시한 도면이다. 도 8에서는, 두 사용자가 영상, 음성, 문자를 모두 이용하여 채팅하는 경우를 예시한 도면이다.8 is a diagram illustrating a chat service screen according to the present invention. In FIG. 8, it is a diagram illustrating a case where two users chat using video, voice, and text.

도 8을 참조하면, 본 발명에 따른 단말 장치(100)의 출력부(150)로 출력된 사용자 인터페이스 화면(80)은, 상대방의 영상 정보에 할당된 제1 영역(81)과, 상대방의 음성 정보에 할당된 제2 영역(82)과, 상대방의 문자 정보에 할당된 제3 영역(83)을 포함할 수 있다. 상기 제1 영역(81)으로는 채팅 서비스에 참여한 상대방의 영상이 디스플레이되고, 제2 영역(82)으로는 채팅 서비스에 참여한 상대방의 음성이 시각화되어 디스플레이되며, 제3 영역(83)으로는 채팅 서비스에 참여한 상대방이 전송한 문자가 디스플레이될 수 있다. 이때, 상기 제2 영역(82)은, 상대방의 음성에 대응하는 텍스트가 출력되거나, 상대방의 음성의 파장이 시각화되어 표시될 수 있다. 이에 따르면, 사용자는 채팅 중 사용자 인터페이스 화면(80)의 제2 영역을 참고함으로써, 상대방의 발화한 내용을 정확히 인지하거나, 상대방의 음성 톤이나 상태를 인지할 수 있다.Referring to FIG. 8, the user interface screen 80 output to the output unit 150 of the terminal device 100 according to the present invention includes a first area 81 allocated to video information of the other party and voice of the other party A second area 82 allocated to information and a third area 83 allocated to text information of the other party may be included. In the first area 81, the video of the other party participating in the chat service is displayed, and in the second area 82, the voice of the other party participating in the chatting service is visualized and displayed, and in the third area 83 Text transmitted by the other party participating in the service may be displayed. In this case, the second region 82 may display text corresponding to the other party's voice or visualize the wavelength of the other party's voice. According to this, the user can accurately recognize the utterance of the other party or the voice tone or state of the other party by referring to the second area of the user interface screen 80 during the chat.

본 발명에 따른 채팅 서비스 제공 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 소프트웨어 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The method for providing a chat service according to the present invention may be implemented in a form of software readable through various computer means and recorded in a computer-readable recording medium. Here, the recording medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks and magnetic tapes (Magnetic Media), compact disk read only memory (CD-ROM), optical media such as DVD (Digital Video Disk), and optical media. Includes magneto-optical media, such as a floppy disk, and hardware devices specifically configured to store and execute program instructions such as ROM, random access memory (RAM), flash memory, etc. do. Examples of program instructions may include high-level language code that can be executed by a computer using an interpreter or the like, as well as machine language codes produced by a compiler. Such a hardware device can be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

비록 본 명세서와 도면에서는 예시적인 장치 구성을 기술하고 있지만, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 다른 유형의 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 본 발명에 따른 장치의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.Although the specification and drawings describe exemplary device configurations, the functional operations and subject implementations described herein may be implemented with other types of digital electronic circuits, or the structures disclosed herein and their structural equivalents. It may be implemented in the included computer software, firmware or hardware, or a combination of one or more of them. Implementations of the subject matter described herein are one or more computer program products, that is, one for computer program instructions encoded on a tangible program storage medium to control or thereby execute the operation of a device according to the invention. It can be implemented as the above modules. The computer-readable medium may be a machine-readable storage device, a machine-readable storage substrate, a memory device, a composition of materials affecting a machine-readable propagated signal, or a combination of one or more of these.

본 명세서에서 "시스템", 및 "장치"라는 용어는 예컨대 프로그래머블 프로세서, 컴퓨터 혹은 다중 프로세서나 컴퓨터를 포함하여 데이터를 처리하기 위한 모든 기구, 장치 및 기계를 포괄한다. 특히, 시스템은, 하드웨어에 부가하여, 예컨대 프로세서 펌웨어를 구성하는 코드, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 혹은 이들 중 하나 이상의 조합 등 요청 시 컴퓨터 프로그램에 대한 실행 환경을 형성하는 코드를 포함할 수 있다.The terms "system" and "apparatus" used herein encompass all apparatus, devices and machines for processing data, including, for example, programmable processors, computers or multiple processors or computers. In particular, the system may include, in addition to hardware, code that forms an execution environment for the computer program upon request, such as code constituting the processor firmware, protocol stack, database management system, operating system, or a combination of one or more of these. have.

본 발명에 따른 장치에 탑재되고 본 발명에 따른 방법을 실행하는 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일 되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.A computer program (also known as a program, software, software application, script or code) mounted on a device according to the present invention and executing the method according to the present invention is a programming comprising a compiled or interpreted language or a priori or procedural language It can be written in any form of language, and can be deployed in any form, including standalone programs or modules, components, subroutines, or other units suitable for use in a computer environment. Computer programs do not necessarily correspond to files in the file system. The program is in a single file provided to the requested program, or in multiple interactive files (e.g., one or more modules, files storing subprograms or parts of code), or part of a file holding other programs or data (Eg, one or more scripts stored in a markup language document). The computer program may be deployed to be executed on one computer or on multiple computers that are located at one site or distributed across multiple sites and interconnected by a communication network.

본 명세서에서 설명한 주제의 구현물은 예컨대 데이터 서버와 같은 백엔드 컴포넌트를 포함하거나, 예컨대 어플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 예컨대 사용자가 본 명세서에서 설명한 주제의 구현물과 상호 작용할 수 있는 웹 브라우저나 그래픽 유저 인터페이스를 갖는 클라이언트 컴퓨터와 같은 프론트엔드 컴포넌트 혹은 그러한 백엔드, 미들웨어 혹은 프론트엔드 컴포넌트의 하나 이상의 모든 조합을 포함하는 연산 시스템에서 구현될 수 있다. 시스템의 컴포넌트는 예컨대 통신 네트워크와 같은 디지털 데이터 통신의 어떠한 형태나 매체에 의해서도 상호 접속 가능하다.Implementations of the subject matter described herein include, for example, a back-end component such as a data server, for example, a middleware component such as an application server, or, for example, a web browser or graphic user that allows a user to interact with the implementation of the subject matter described herein. It can be implemented in a front-end component, such as a client computer with an interface, or in a computing system that includes all one or more combinations of such back-end, middleware, or front-end components. The components of the system can be interconnected by any form or medium of digital data communication, such as a communication network.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.This specification includes details of many specific implementations, but these should not be understood as limiting on the scope of any invention or claim, but rather as a description of features that may be specific to a particular embodiment of the particular invention. It should be understood. Certain features that are described in this specification in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment may also be implemented in multiple embodiments individually or in any suitable subcombination. Further, although features may operate in a particular combination and may initially be depicted as so claimed, one or more features from the claimed combination may be excluded from the combination in some cases, and the claimed combination subcombined. Or sub-combinations.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a particular order, it should not be understood that such operations should be performed in the particular order shown or in sequential order, or that all shown actions should be performed in order to obtain desirable results. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems are generally integrated together into a single software product or packaged in multiple software products. You should understand that you can.

본 명세서에서 설명한 주제의 특정한 실시형태를 설명하였다. 기타의 실시형태들은 이하의 청구항의 범위 내에 속한다. 예컨대, 청구항에서 인용된 동작들은 상이한 순서로 수행되면서도 여전히 바람직한 결과를 성취할 수 있다. 일 예로서, 첨부도면에 도시한 프로세스는 바람직한 결과를 얻기 위하여 반드시 그 특정한 도시된 순서나 순차적인 순서를 요구하지 않는다. 특정한 구현 예에서, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다.Specific embodiments of the subject matter described herein have been described. Other embodiments are within the scope of the following claims. For example, the operations recited in the claims may be performed in different orders while still achieving desirable results. As an example, the process illustrated in the accompanying drawings does not necessarily require that particular illustrated order or sequential order to obtain desirable results. In certain implementations, multitasking and parallel processing may be advantageous.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다.The described description presents the best mode of the present invention, and provides examples for explaining the present invention and for those skilled in the art to make and use the present invention. This written specification is not intended to limit the invention to the specific terms presented. Therefore, although the present invention has been described in detail with reference to the above-described examples, those skilled in the art can make modifications, alterations, and modifications to the examples without departing from the scope of the present invention.

따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.Therefore, the scope of the present invention should not be determined by the described embodiments, but should be determined by the claims.

본 발명은 영상, 음성, 및 문자 중 하나 이상을 이용하여 이루어지는 채팅 서비스에 적용될 수 있는 것으로서, 사용자 인터페이스 화면을 복수의 영역으로 구분하고, 상기 채팅 서비스를 통해 송수신되는 영상 정보, 음성 정보, 및 문자 정보를 서로 다른 영역을 통해 구분하여 각각 시각화하여 출력함으로써, 참여한 사용자들의 의사를 보다 명확히 전달할 수 있도록 한다.The present invention can be applied to a chat service using one or more of video, audio, and text. The user interface screen is divided into a plurality of areas, and video information, audio information, and text transmitted and received through the chat service By visualizing and outputting information through different areas, it is possible to clearly communicate the intentions of participating users.

특히, 본 발명은 영상 채팅 또는 음성 채팅을 수행하는 중에, 사용자들의 음성 정보를 청각적으로 출력하면서, 상기 음성 정보를 텍스트로 변환하여 상기 사용자 인터페이스 화면을 통해 출력함으로써, 채팅 중 각 사용자들이 발화한 내용을 보다 명확히 이해하도록 하거나, 추후 확인할 수 있도록 한다.In particular, the present invention, while performing a video chat or voice chat, while outputting the user's voice information audibly, by converting the voice information to text and output through the user interface screen, each user during the chat uttered Try to understand the content more clearly or make it possible to check it later.

또한, 본 발명은 영상 채팅 또는 음성 채팅을 수행하는 중에, 사용자들의 음성 정보의 파장을 추출하고, 상기 음성 정보의 파장을 시각화하여 출력할 수 있으며, 다양하고 새로운 형태의 채팅 서비스를 제공할 수 있다.In addition, the present invention can perform a video chat or a voice chat, extract the wavelength of the voice information of users, visualize and output the wavelength of the voice information, and provide a variety of new types of chat service .

10: 통신망 100: 단말 장치 110: 제어부
111: 채팅 처리 모듈 120: 통신부 130: 입력부
140: 저장부 150: 출력부 160: 오디오 처리부
200: 서비스 장치 210: 통신부 220: 서비스 제공부
230: 저장부
10: communication network 100: terminal device 110: control unit
111: chat processing module 120: communication unit 130: input unit
140: storage unit 150: output unit 160: audio processing unit
200: service device 210: communication unit 220: service providing unit
230: storage

Claims (18)

통신망을 통해서 데이터를 송수신하는 통신부;
사용자 요청을 입력하기 위한 입력부;
사용자 인터페이스 화면을 출력하는 출력부; 및
상기 사용자 요청에 따라서, 영상, 음성, 및 문자 중 적어도 하나를 이용한 채팅 서비스 제공 시, 상기 사용자 인터페이스 화면을 다수 영역으로 분할하고, 분할된 영역을 정보의 종류별로 할당하고, 상기 통신부를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 분리하여, 상기 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 할당된 영역을 통해 각각 시각화하여 출력하는 제어부;
를 포함하며,
상기 제어부는,
상기 영상 정보는 사용자 별로 영역을 구분하여 표시하면서, 채팅에 참여한 다수 사용자의 문자 정보는 사용자 별 구분 없이 하나의 영역에 발생 시간 순으로 배치하여 표시하며,
영상 채팅인 경우, 채팅에 참여한 사용자의 수에 대응하는 수만큼의 영상 정보 출력용 영역과, 음성 정보 시각화 대상으로 선택된 사용자의 수만큼의 음성 정보 출력용 영역으로 분할하며,
음성 채팅인 경우, 상기 음성 정보 시각화 대상으로 선택된 사용자의 수만큼의 음성 정보 출력용 영역으로 분할하는 것을 특징으로 하는 단말 장치.
Communication unit for transmitting and receiving data through a communication network;
An input unit for inputting a user request;
An output unit for outputting a user interface screen; And
According to the user request, when providing a chat service using at least one of video, voice, and text, the user interface screen is divided into multiple areas, the divided areas are allocated for each type of information, and transmitted and received through the communication unit. A control unit separating at least one of video information, audio information, and text information from the chat data, and visualizing and outputting at least one of the separated video information, audio information, and text information through an allocated region;
It includes,
The control unit,
The video information is displayed by dividing the area for each user, and text information of multiple users participating in the chat is displayed in the order of occurrence time in one area without distinction by user.
In the case of a video chat, it is divided into an area for outputting video information corresponding to the number of users participating in the chat, and an area for outputting audio information as many as the number of users selected as targets for visualizing audio information,
In the case of a voice chat, a terminal device characterized in that it is divided into regions for outputting voice information as many as the number of users selected as the object for visualizing the voice information.
제1항에 있어서, 상기 제어부는
상기 음성 정보를 텍스트로 변환하여 출력하는 것을 특징으로 하는 단말 장치.
The method of claim 1, wherein the control unit
A terminal device characterized in that the voice information is converted into text and output.
제2항에 있어서, 상기 제어부는
상기 채팅 서비스에 참여한 사용자들의 음성 정보로부터 변환된 텍스트를 동일 영역에 시간 순으로 표시하는 것을 특징으로 하는 단말 장치.
The method of claim 2, wherein the control unit
A terminal device characterized in that the text converted from the voice information of users participating in the chat service is displayed in the same area in chronological order.
제1항에 있어서, 상기 제어부는
상기 음성 정보의 파장을 추출하고, 추출된 파장을 시각화하여 출력하는 것을 특징으로 하는 단말 장치.
The method of claim 1, wherein the control unit
A terminal device characterized in that the wavelength of the voice information is extracted and the extracted wavelength is visualized and output.
제1항에 있어서, 상기 제어부는
상기 채팅 서비스에 참여한 사용자별로 상기 영역을 더 분할하여, 사용자별로 상기 분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를 구분하여 출력하는 것을 특징으로 하는 단말 장치.
The method of claim 1, wherein the control unit
The terminal device, characterized in that further dividing the area for each user participating in the chat service, and outputting at least one of the separated video information, audio information, and text information for each user.
제5항에 있어서, 상기 제어부는
사용자 및 정보의 종류 별로 분할된 다수의 영역을 사용자를 기준으로 매핑되도록 상기 사용자 인터페이스 화면에 배치하는 것을 특징으로 하는 단말 장치.
The method of claim 5, wherein the control unit
A terminal device characterized by arranging a plurality of areas divided for each type of user and information on the user interface screen so as to be mapped based on the user.
제1항에 있어서, 상기 제어부는
상기 입력부를 통해 상기 채팅 서비스에 참여한 사용자 중에서 음성 정보를 시각화할 대상을 선택 받고, 선택된 사용자의 음성 정보만을 시각화하여 출력하는 것을 특징으로 하는 단말 장치.
The method of claim 1, wherein the control unit
A terminal device characterized in that a target for visualizing voice information is selected from users participating in the chat service through the input unit, and only the voice information of the selected user is visualized and output.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 채팅 서비스를 제공하는 장치가,
채팅 서비스가 시작되면, 사용자 인터페이스 화면을 둘 이상의 영역으로 분할하는 단계;
상기 둘 이상의 영역에 각각 영상, 음성, 문자 중 하나를 할당하는 단계;
상기 채팅 서비스를 통해 송수신된 채팅 데이터로부터 영상 정보, 음성 정보, 및 문자 정보 중 적어도 하나를 분리하는 단계;
분리된 영상 정보, 음성 정보 및 문자 정보 중 적어도 하나를, 할당된 영역을 통해 시각화하여 출력하는 단계를 포함하며,
상기 출력하는 단계는,
상기 영상 정보는 사용자 별로 영역을 구분하여 표시하면서, 채팅에 참여한 다수 사용자의 문자 정보는 사용자 별 구분 없이 하나의 영역에 발생 시간 순으로 배치하여 표시하며,
상기 분할하는 단계는,
영상 채팅인 경우, 채팅에 참여한 사용자의 수에 대응하는 수만큼의 영상 정보 출력용 영역과, 음성 정보 시각화 대상으로 선택된 사용자의 수만큼의 음성 정보 출력용 영역으로 분할하며,
음성 채팅인 경우, 상기 음성 정보 시각화 대상으로 선택된 사용자의 수만큼의 음성 정보 출력용 영역으로 분할하는 것을 특징으로 하는 채팅 서비스 제공 방법.
A device that provides chat services,
When the chat service is started, dividing the user interface screen into two or more areas;
Assigning one of video, audio, and text to the two or more regions, respectively;
Separating at least one of video information, audio information, and text information from chat data transmitted and received through the chat service;
And visualizing and outputting at least one of the separated video information, audio information, and text information through the allocated area,
The step of outputting,
The video information is displayed by dividing the area for each user, and text information of multiple users participating in the chat is displayed in the order of occurrence time in one area without distinction by user.
The dividing step,
In the case of a video chat, it is divided into an area for outputting video information corresponding to the number of users participating in the chat, and an area for outputting audio information as many as the number of users selected as audio information visualization targets,
In the case of a voice chat, a method for providing a chat service, characterized in that it is divided into regions for outputting voice information as many as the number of users selected as the object for visualizing the voice information.
제13항에 있어서, 상기 출력하는 단계는
상기 채팅 데이터로부터 분리된 음성 정보를 텍스트로 변환하고, 음성에 할당된 영역에 상기 변환된 텍스트를 출력하는 단계; 및
상기 채팅 데이터로부터 분리된 음성 정보의 파장을 추출하고, 추출된 파장을 시각화하여 음성에 할당된 영역으로 출력하는 단계 중에서 어느 하나를 포함하는 것을 특징으로 하는 채팅 서비스 제공 방법.
The method of claim 13, wherein the step of outputting
Converting voice information separated from the chat data into text, and outputting the converted text in an area allocated to voice; And
And extracting a wavelength of speech information separated from the chat data, and visualizing the extracted wavelength to output it to a region allocated to speech.
제13항에 있어서, 상기 분할하는 단계는
상기 채팅 데이터에 포함된 정보의 종류에 따라서, 분할할 영역의 수를 결정하는 것을 특징으로 하는 채팅 서비스 제공 방법.
The method of claim 13, wherein the dividing step
A method of providing a chat service, characterized in that the number of areas to be divided is determined according to the type of information included in the chat data.
제13항에 있어서,
상기 분할하는 단계는
상기 채팅 서비스에 참여한 사용자의 수에 따라서 상기 영역을 더 분할하고,
상기 할당하는 단계는
사용자 및 정보의 종류 별로 영역을 할당하는 것을 특징으로 하는 채팅 서비스 제공 방법.
The method of claim 13,
The step of dividing
Further dividing the area according to the number of users participating in the chat service,
The allocating step is
Method of providing a chat service, characterized in that an area is allocated for each type of user and information.
삭제delete 제13항 내지 제16항 중 어느 한 항에 기재된 채팅 서비스 제공 방법을 수행하도록 구현된 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium recording a program implemented to perform a method for providing a chat service according to any one of claims 13 to 16.
KR1020140030844A 2014-03-17 2014-03-17 Chatting service providing system, apparatus and method thereof KR102127909B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140030844A KR102127909B1 (en) 2014-03-17 2014-03-17 Chatting service providing system, apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140030844A KR102127909B1 (en) 2014-03-17 2014-03-17 Chatting service providing system, apparatus and method thereof

Publications (2)

Publication Number Publication Date
KR20150108098A KR20150108098A (en) 2015-09-25
KR102127909B1 true KR102127909B1 (en) 2020-06-29

Family

ID=54246225

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140030844A KR102127909B1 (en) 2014-03-17 2014-03-17 Chatting service providing system, apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR102127909B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018186698A2 (en) * 2017-04-06 2018-10-11 주식회사 스무디 Method, system, and non-transitory computer-readable recording medium for providing multi-point communication service
KR102497838B1 (en) * 2021-07-29 2023-02-08 에스케이스토아 주식회사 Media streaming server, method of providing live video and live caht video as straming video and computer program for the method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100533160B1 (en) * 2003-12-05 2005-12-01 주식회사 팬택 Method for updating the visualizing of voice
KR20050105542A (en) * 2004-04-30 2005-11-04 브이케이 주식회사 A mobile communication terminal having a function of dividing the display screen
KR100799670B1 (en) * 2006-06-30 2008-01-30 삼성전자주식회사 Method and apparatus for screen partition as receiving broadcast signal with a mobile terminal
KR101640460B1 (en) * 2009-03-25 2016-07-18 삼성전자 주식회사 Operation Method of Split Window And Portable Device supporting the same
KR101726675B1 (en) * 2010-10-12 2017-04-14 엘지전자 주식회사 Method for video communication and mobile terminal using this method
KR101205815B1 (en) * 2011-04-22 2012-12-03 박지영 Device supporting text conversation and text conversation control method
KR101801188B1 (en) 2011-07-05 2017-11-24 엘지전자 주식회사 Mobile device and control method for the same

Also Published As

Publication number Publication date
KR20150108098A (en) 2015-09-25

Similar Documents

Publication Publication Date Title
US10475464B2 (en) Method and apparatus for connecting service between user devices using voice
JP6266245B2 (en) Content sharing method and system, apparatus and recording medium
US20130332168A1 (en) Voice activated search and control for applications
JP6219642B2 (en) Intelligent service providing method and apparatus using input characters in user device
AU2010319860B2 (en) Computer-to-computer communication
US9560188B2 (en) Electronic device and method for displaying phone call content
KR102211396B1 (en) Contents sharing service system, apparatus for contents sharing and contents sharing service providing method thereof
CN104144108A (en) Information response method, device and system
CN103973542B (en) A kind of voice information processing method and device
US10278033B2 (en) Electronic device and method of providing message via electronic device
US20150052211A1 (en) Message based conversation function execution method and electronic device supporting the same
KR102127909B1 (en) Chatting service providing system, apparatus and method thereof
KR101351264B1 (en) System and method for message translation based on voice recognition
CN111225261B (en) Multimedia device for processing voice command and control method thereof
KR20170030075A (en) Method for providing interpreting sound information, customized interpretation of server and system implementing the same
KR20150108470A (en) Messenger service system, messenger service method and apparatus providing for other's location and time imformation in the system
EP2717121B1 (en) Method and apparatus for providing intelligent service using inputted character in a user device
KR102220253B1 (en) Messenger service system, method and apparatus for messenger service using common word in the system
KR20150106565A (en) Messenger service system, from the system via an instent message presence service method and apparatus
KR101838149B1 (en) Messenger service system, messenger service method and apparatus for providing managementing harmful message in the system
KR102166211B1 (en) Messenger service system, method and apparatus for messenger user authentication in the system
US11722572B2 (en) Communication platform shifting for voice-enabled device
KR20150105025A (en) Messenger service system, messenger service method and apparatus for providing chatting environment reflecting presence information in the system
KR102314583B1 (en) Messenger service system, method and apparatus for displaying caller state information during messenger service in the system
KR20150106615A (en) Messenger service system, method and apparatus for displaying information during voice call waiting in the system

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant