KR101363866B1 - Method for generating of voice message, apparatus and system for the same - Google Patents

Method for generating of voice message, apparatus and system for the same Download PDF

Info

Publication number
KR101363866B1
KR101363866B1 KR1020130026953A KR20130026953A KR101363866B1 KR 101363866 B1 KR101363866 B1 KR 101363866B1 KR 1020130026953 A KR1020130026953 A KR 1020130026953A KR 20130026953 A KR20130026953 A KR 20130026953A KR 101363866 B1 KR101363866 B1 KR 101363866B1
Authority
KR
South Korea
Prior art keywords
voice message
voice
terminal
displayed
message
Prior art date
Application number
KR1020130026953A
Other languages
Korean (ko)
Inventor
오길훈
권기택
김희용
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020130026953A priority Critical patent/KR101363866B1/en
Priority to PCT/KR2013/005076 priority patent/WO2014142391A1/en
Application granted granted Critical
Publication of KR101363866B1 publication Critical patent/KR101363866B1/en

Links

Images

Classifications

    • G06Q50/40
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Abstract

The present invention relates to a method for generating a voice message in a messenger program and more specifically, to a method for generating a voice message, an apparatus and a system for the same capable of generating a voice message more simply and transmitting the generated voice message to at least one opposing terminal connected through a conversation window screen, by generating the voice message by proceeding voice recording, if a voice message processing area is displayed and maintained for a fixed time, under the state that the conversion window screen of the messenger program is displayed. A terminal according to an embodiment of the present invention for the above objective includes: an output part for outputting various information generated during the execution of the messenger program constituted to transmit and receive an instant message with at least one opposing terminal; a voice recognition part for generating a voice message by proceeding voice recording; and a control part connected to the output part and the voice recognition part functionally. The control part controls a voice message processing area to be displayed through the output part under the state that the conversation window screen of the messenger program is displayed, and then can control the voice recognition part to proceed the voice recording, if the voice message processing area is maintained for a fixed time. [Reference numerals] (AA) Start; (BB) End; (S101) Execute a messenger program; (S103) Display a conversation window screen; (S105) Is user input corresponding to a pre-set condition sensed?; (S107) Display a voice message processing area; (S109) Does user input continue for more than fixed time?; (S111) Proceed to record voice; (S113) User input end?; (S115) Generate a voice message; (S117) Transmit the voice message to an opposing terminal

Description

음성 메시지 생성 방법, 이를 위한 장치 및 시스템{Method for generating of voice message, apparatus and system for the same}Method for generating a voice message, apparatus and system for the same

본 발명은 메신저 프로그램 내에서의 음성 메시지 생성 방법에 관한 것으로서, 더욱 상세하게는 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 음성 메시지 처리 영역이 표시되어 일정 시간 동안 유지되면, 음성 녹음을 진행하여 음성 메시지를 생성함으로써, 보다 간편하게 음성 메시지를 생성하고, 생성된 음성 메시지를 상기 대화 창 화면을 통해 연결된 하나 이상의 상대방 단말로 전송할 수 있는 음성 메시지 생성 방법, 이를 위한 장치 및 시스템에 관한 것이다.The present invention relates to a method of generating a voice message in a messenger program. More particularly, when a voice message processing area is displayed and maintained for a predetermined time while a chat window screen of a messenger program is displayed, the voice recording is performed. The present invention relates to a voice message generating method and apparatus and system for generating a voice message, and to easily generate a voice message and to transmit the generated voice message to one or more counterpart terminals connected through the chat window screen.

정보통신 기술의 비약적인 발전으로 인해 이동통신 단말, 개인용 컴퓨터 등과 같은 다양한 종류의 단말들은 다양한 기능을 수행할 수 있도록 구현되고 있다.2. Description of the Related Art [0002] With the rapid development of information communication technologies, various types of terminals such as mobile communication terminals, personal computers, and the like have been implemented to perform various functions.

이동통신 단말을 예로 들어 설명하면, 이동통신 단말은 기본적인 음성 통신 기능에서 더 나아가 최근에는 데이터 통신, 카메라를 이용한 사진이나 동영상 촬영, 음악 또는 동영상 파일 재생, 게임, 방송 시청 등 다양한 기능들을 이용할 수 있도록 구현되고 있다.For example, the mobile communication terminal may be provided with various functions such as data communication, photographing or movie shooting using a camera, music or moving picture file playback, game, and broadcasting viewing. .

이러한 단말에서 실행될 수 있는 기능의 증대를 위한 기술 개발은 지속적으로 이뤄지고 있으며, 하드웨어 개량 기술은 물론 소프트웨어 개량 기술을 중심으로 지속적으로 이뤄지고 있다.Technological developments for increasing the functions that can be performed on such terminals have been continuously carried out, and they have been continuously carried out mainly in hardware improvement technology and software improvement technology.

한편, 최근에는 이러한 단말을 이용하여 통신망에 접속한 후 다수의 사용자와 메시지를 송수신함으로써, 대화를 진행할 수 있는 메신저 프로그램의 사용 빈도가 지속적으로 증가하고 있다. In recent years, the frequency of use of a messenger program capable of conducting a conversation has been continuously increasing by connecting and communicating with a large number of users after connecting to a communication network using such a terminal.

이러한 메신저 프로그램을 통해 사용자는 문자 메시지를 생성하고, 생성된 문자 메시지를 상대방 단말로 전송함으로써, 상대방 단말과 통신을 수행할 수 있으며, 더 나아가 음성 메시지를 이용하여 상대방 단말과 통신을 수행할 수도 있다.Through such a messenger program, a user may create a text message and transmit the generated text message to the counterpart terminal, thereby communicating with the counterpart terminal, and furthermore, may communicate with the counterpart terminal using a voice message. .

그러나, 사용자가 메신저 프로그램을 통해 음성 메시지를 생성하기 위해서는 음성 메시지 생성 기능을 제공하는 메뉴를 확인한 후, 해당 메뉴로 이동하여 상기 메뉴를 선택 입력함으로써, 음성 메시지를 생성할 수 있었다. 이러한 과정은 여러 차례의 사용자 조작을 요구하는 과정으로 사용자 입장에서 많은 불편이 뒤따른다는 문제점이 있다. However, in order for a user to generate a voice message through a messenger program, after confirming a menu providing a voice message generating function, the user may move to a corresponding menu and select and input the menu to generate a voice message. This process is a process that requires a plurality of user operations, there is a problem that a lot of inconvenience follows from the user's point of view.

또한, 사용자가 메신저 프로그램을 통해 음성 메시지를 수신하더라도, 현재 사용자의 주변 환경이 시끄러운 환경일 경우, 상기 음성 메시지의 내용을 파악하기에 어려움이 있으며, 송수신되는 과정에서 음성 메시지 자체가 손실되거나 변형될 경우, 음성 메시지 자체를 재생하기에 어려움이 있다는 문제점이 있다.In addition, even if a user receives a voice message through a messenger program, when the current environment of the user is noisy, it is difficult to grasp the contents of the voice message, and the voice message itself may be lost or modified in the process of being transmitted or received. In this case, there is a problem that it is difficult to reproduce the voice message itself.

한국공개특허 제10-2013-0011352호, 2013년 01월 30일 공개 (명칭: 음성 기반 메시지 서비스 시스템, 이를 위한 단말 장치, 이를 위한 음성 기반 메시지 서비스 방법)Korean Patent Publication No. 10-2013-0011352, Jan. 30, 2013 (name: voice-based message service system, terminal device for the same, voice-based message service method therefor)

본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로서, 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 음성 메시지 처리 영역이 표시되어 일정 시간 동안 유지되면, 음성 녹음을 진행하여 음성 메시지를 생성하고, 상기 대화 창 화면을 통해 연결된 하나 이상의 상대방 단말로 생성된 음성 메시지를 전송할 수 있는 음성 메시지 생성 방법, 이를 위한 장치 및 시스템을 제공하는 데 목적이 있다.The present invention has been proposed to solve the above-mentioned problems. When the voice message processing area is displayed and maintained for a predetermined time while the chat window screen of the messenger program is being displayed, voice recording is performed by performing voice recording. It is an object of the present invention to provide a voice message generating method, an apparatus and a system therefor, which can generate and transmit a generated voice message to one or more counterpart terminals connected through the chat window screen.

아울러, 본 발명은 음성 메시지를 인식하여 상기 음성 메시지에서 기 설정된 키워드를 추출한 후, 추출된 상기 키워드를 포함하는 문자 메시지를 생성하여, 상기 음성 메시지와 함께 상대방 단말로 전송할 수 있는 음성 메시지 생성 방법, 이를 위한 장치 및 시스템을 제공하는 데 목적이 있다.In addition, the present invention, after recognizing a voice message and extracting a predetermined keyword from the voice message, generates a text message including the extracted keyword, the voice message generating method that can be transmitted to the counterpart terminal with the voice message, It is an object to provide an apparatus and system for this purpose.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 실시 예에 따른 단말은 적어도 하나의 상대방 단말과 인스턴트 메시지 송수신이 가능하도록 구성된 메신저 프로그램 실행 중에 발생되는 다양한 정보를 출력하는 출력부; 음성 녹음을 진행하여 음성 메시지를 생성하는 음성 인식부; 및 상기 출력부 및 상기 음성 인식부와 기능적으로 연결되는 제어부를 포함하되, 상기 제어부는 상기 출력부를 통해 상기 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 음성 메시지 처리 영역이 상기 출력부를 통해 표시되도록 제어한 후, 상기 표시된 음성 메시지 처리 영역이 일정 시간 동안 유지되면, 음성 녹음이 진행되도록 상기 음성 인식부를 제어할 수 있다.According to an aspect of the present invention, there is provided a terminal including: an output unit configured to output various information generated during execution of a messenger program configured to transmit and receive instant messages with at least one counterpart terminal; A voice recognition unit for generating a voice message by performing voice recording; And a control unit that is functionally connected to the output unit and the voice recognition unit, wherein the control unit displays a voice message processing area through the output unit while a chat window screen of the messenger program is displayed through the output unit. After the control is performed, if the displayed voice message processing area is maintained for a predetermined time, the voice recognition unit may be controlled to proceed with voice recording.

이때, 상기 단말은 사용자 입력을 지원하는 입력부;를 더 포함하며, 상기 제어부는 상기 대화 창 화면이 표시되고 있는 상태에서, 상기 입력부를 통해 기 설정된 조건에 해당하는 사용자 입력이 감지되면, 상기 음성 메시지 처리 영역이 상기 출력부를 통해 표시되도록 제어하고, 상기 사용자 입력이 지속되면, 상기 음성 녹음이 진행되도록 제어할 수 있다.In this case, the terminal further includes an input unit for supporting a user input, wherein the control unit is a state in which the dialog window screen is displayed, if the user input corresponding to a preset condition is detected through the input unit, the voice message The processing region may be controlled to be displayed through the output unit, and if the user input is continued, the voice recording may be controlled to proceed.

여기서, 상기 기 설정된 조건에 해당하는 사용자 입력은 상기 대화 창 화면에서 터치 또는 일 방향으로의 스와이프(swipe), 터치 앤 드래그(touch & drag), 제스처, 시선 이동, 쉐이크(shake) 중 어느 하나일 수 있다.The user input corresponding to the preset condition may be any one of a touch, a swipe in one direction, a touch and drag, a gesture, a gaze movement, and a shake on the conversation window screen. Can be.

또한, 상기 제어부는 상기 사용자 입력이 종료되면, 상기 음성 녹음을 종료하여 음성 메시지가 생성되도록 상기 음성 인식부를 제어할 수 있다.The controller may control the voice recognition unit to terminate the voice recording so that a voice message is generated when the user input is terminated.

더하여, 상기 단말은 하나 이상의 상대방 단말과 상기 메신저 프로그램을 통해 발생되는 다양한 정보를 송수신하는 통신부;를 더 포함하며, 상기 제어부는 상기 음성 인식부를 통해 생성된 음성 메시지를 상기 통신부를 통해 상기 대화 창 화면을 통해 연결된 상대방 단말로 전송되도록 제어할 수 있다.In addition, the terminal further comprises a communication unit for transmitting and receiving a variety of information generated through the messenger program with one or more counterpart terminal, the control unit is a voice message generated through the voice recognition unit via the communication window screen It may be controlled to be transmitted to the other terminal connected through.

또한, 상기 제어부는 상기 음성 메시지 처리 영역이 상기 대화 창 화면 내 일정 영역에 표시되거나, 상기 대화 창 화면이 일 방향으로 이동되어 상기 이동된 대화 창 화면과 동시에 표시되거나, 상기 대화 창 화면에서 전환되어 상기 음성 메시지 처리 영역만이 상기 출력부를 통해 표시되도록 제어할 수 있다.The controller may be configured to display the voice message processing area on a certain area within the chat window screen, move the chat window screen in one direction and simultaneously display the moved chat window screen, or switch from the chat window screen. Only the voice message processing area may be controlled to be displayed through the output unit.

또한, 상기 제어부는 상기 음성 녹음이 진행되는 동안 상기 음성 메시지 처리 영역을 통해 음성 녹음이 진행되고 있음을 알리는 아이콘, 음성 녹음 진행 상태 바(bar) 중 적어도 어느 하나가 표시되도록 제어할 수 있다.The controller may control to display at least one of an icon indicating that voice recording is in progress and a voice recording progress bar through the voice message processing area while the voice recording is in progress.

이때, 상기 음성 녹음 진행 상태 바는 녹음 진행 상태 정보, 녹음 진행 시간 정보 및 최대 녹음 가능 시간 정보 중 적어도 어느 하나를 포함할 수 있다.In this case, the voice recording progress bar may include at least one of recording progress status information, recording progress time information, and maximum recordable time information.

또한, 상기 제어부는 상기 음성 녹음이 종료되면, 상기 음성 인식부를 통해 생성된 음성 메시지에서 소정의 키워드를 포함하는 문자 메시지를 생성할 수 있다.The controller may generate a text message including a predetermined keyword in the voice message generated by the voice recognition unit when the voice recording is terminated.

이때, 상기 제어부는 상기 문자 메시지가 생성되는 동안에, 상기 음성 메시지 처리 영역을 통해 상기 음성 메시지의 분석이 진행되고 있음을 알리는 아이콘이 표시되도록 제어할 수 있다.In this case, the controller may control to display an icon indicating that the voice message is being analyzed through the voice message processing area while the text message is generated.

또한, 상기 제어부는 상기 문자 메시지 생성이 완료되면, 상기 음성 메시지 처리 영역이 표시되지 않도록 제어할 수 있다.The controller may control the voice message processing area not to be displayed when the text message generation is completed.

또한, 상기 제어부는 상기 사용자 입력이 일정 시간 이상 지속되지 않은 상태에서, 상기 사용자 입력이 종료되면, 상기 출력부를 통해 음성 메시지 생성 실패 메시지가 출력되도록 제어할 수 있다.The controller may control a voice message generation failure message to be output through the output unit when the user input is terminated while the user input is not maintained for a predetermined time or more.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 실시 예에 따른 서비스 장치는 하나 이상의 단말과 메신저 프로그램을 통해 다양한 정보를 송수신하는 서비스 통신부; 및 상기 서비스 통신부와 기능적으로 연결되며, 상기 서비스 통신부를 통해 상기 메신저 프로그램의 대화 창 화면이 표시되고 있는 어느 하나의 단말로부터 음성 메시지 처리 영역 표시 정보가 수신되면, 상기 서비스 통신부를 통해 상기 단말로 음성 녹음 요청 정보를 전송하고, 상기 서비스 통신부를 통해 상기 단말로부터 상기 음성 메시지 처리 영역 비활성 정보가 수신되면, 상기 단말로 상기 서비스 통신부를 음성 녹음 종료 요청 정보가 전송되도록 제어하는 서비스 제어부;를 포함하여 구성될 수 있다.According to an aspect of the present invention, there is provided a service device including a service communication unit for transmitting and receiving various information through one or more terminals and a messenger program; And a voice message processing area display information received from any one terminal which is functionally connected to the service communication unit and the chat window screen of the messenger program is displayed through the service communication unit, and receives a voice to the terminal through the service communication unit. And a service control unit for transmitting recording request information and controlling the service communication unit to transmit voice recording end request information to the terminal when the voice message processing region inactive information is received from the terminal through the service communication unit. Can be.

이때, 상기 서비스 제어부는 상기 음성 녹음 종료 요청 정보를 상기 단말로 전송한 이후에, 상기 단말로부터 상기 서비스 통신부를 통해 생성된 음성 메시지가 수신되면, 상기 서비스 통신부를 통해 상기 수신된 음성 메시지를 상기 대화 창 화면을 통해 연결된 상대방 단말로 전송되도록 제어할 수 있다.In this case, after the voice control unit transmits the voice recording end request information to the terminal and receives a voice message generated through the service communication unit from the terminal, the service control unit communicates the received voice message through the service communication unit. It may be controlled to be transmitted to the connected counterpart terminal through the window screen.

또한, 상기 서비스 제어부는 상기 단말로부터 수신된 음성 메시지를 인식하여 텍스트로 변환하고, 상기 변환된 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출한 후 상기 추출된 키워드를 포함하는 문자 메시지를 생성한 후, 상기 수신된 음성 메시지 및 상기 생성된 문자 메시지를 상기 서비스 통신부를 통해 상기 상대방 단말로 전송되도록 제어할 수 있다.The service control unit recognizes the voice message received from the terminal, converts the voice message into text, extracts a keyword satisfying a predetermined condition from the converted text, and then generates a text message including the extracted keyword. The received voice message and the generated text message may be controlled to be transmitted to the counterpart terminal through the service communication unit.

여기서, 상기 기 설정된 조건은 명사, 숫자, URL(Uniform Resource Locator)에 해당하는 키워드를 추출하도록 설정되거나, 음성의 크기를 분석하여, 음성의 크기가 일정 수준 이상인 키워드를 추출하도록 설정된 조건일 수 있다.Here, the preset condition may be a condition set to extract a keyword corresponding to a noun, a number, and a Uniform Resource Locator (URL), or to analyze a voice size to extract a keyword having a predetermined size or more. .

또한, 상기 서비스 제어부는 상기 추출된 키워드만을 포함하는 문자 메시지를 생성할 수 있다.The service controller may generate a text message including only the extracted keywords.

또한, 상기 서비스 제어부는 상기 음성 메시지를 인식하여 텍스트로 변환하고, 상기 변환된 텍스트를 포함하는 문자 메시지를 생성하되, 상기 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출하고, 추출된 상기 키워드에 기 설정된 효과가 부여된 문자 메시지를 생성할 수 있다.The service controller may recognize the voice message, convert the voice message into text, generate a text message including the converted text, extract a keyword satisfying a predetermined condition from the text, and extract the keyword from the text. It is possible to generate a text message given a set effect.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 실시 예에 따른 메신저 시스템은 적어도 하나의 상대방 단말과 인스턴트 메시지(instant message) 송수신이 가능하도록 구성된 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 음성 메시지 처리 영역이 표시되어 일정 시간 동안 유지되면, 음성 녹음 진행하여 음성 메시지를 생성하고, 생성된 음성 메시지를 적어도 하나의 상대방 단말로 전송하는 단말; 및 상기 단말로부터 상기 상대방 단말로 전송되는 음성 메시지가 수신되면, 상기 음성 메시지를 통해 소정의 키워드를 포함하는 문자 메시지를 생성하고, 상기 생성된 문자 메시지 및 상기 음성 메시지를 상기 상대방 단말로 전송하는 서비스 장치;를 포함하여 구성될 수 있다.In the messenger system according to an embodiment of the present invention for achieving the above object, in a state where a chat window screen of a messenger program configured to transmit and receive instant messages with at least one counterpart terminal is displayed, When the message processing area is displayed and maintained for a predetermined time, the terminal proceeds with voice recording to generate a voice message and transmits the generated voice message to at least one counterpart terminal; And receiving a voice message transmitted from the terminal to the counterpart terminal, generating a text message including a predetermined keyword through the voice message, and transmitting the generated text message and the voice message to the counterpart terminal. Apparatus; can be configured to include.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 실시 예에 따른 음성 메시지 생성 방법은 단말이 적어도 하나의 상대방 단말과 인스턴트 메시지(instant message) 송수신이 가능하도록 구성된 메신저 프로그램의 대화 창 화면을 표시하는 단계; 상기 단말이 음성 메시지 처리 영역을 표시하는 단계; 상기 단말이 상기 음성 메시지 처리 영역이 표시된 상태에서, 상기 음성 메시지 처리 영역이 일정 시간 이상 유지되는지 판단하는 단계; 및 상기 판단 결과, 상기 음성 메시지 처리 영역이 일정 시간 이상 유지되면, 상기 단말이 음성 녹음을 진행하는 단계;를 포함하여 이뤄질 수 있다.According to an aspect of the present invention, there is provided a method of generating a voice message, the method comprising: displaying, by a terminal, a chat window screen of a messenger program configured to transmit and receive instant messages with at least one counterpart terminal; ; Displaying, by the terminal, a voice message processing area; Determining, by the terminal, whether the voice message processing area is maintained for a predetermined time or more while the voice message processing area is displayed; And if the voice message processing area is maintained for a predetermined time or more, performing a voice recording by the terminal.

이때, 상기 음성 메시지 처리 영역을 표시하는 단계는 상기 단말이 상기 대화 창 화면에서 기 설정된 조건에 해당하는 사용자 입력이 감지되는 지 판단하는 단계; 및 상기 기 설정된 조건에 해당하는 사용자 입력이 감지되면, 상기 단말이 상기 음성 메시지 처리 영역을 표시하는 단계;를 포함하여 이뤄질 수 있다.In this case, the displaying of the voice message processing area may include: determining, by the terminal, a user input corresponding to a preset condition on the chat window screen; And when the user input corresponding to the preset condition is detected, displaying, by the terminal, the voice message processing area.

여기서, 상기 일정 시간 이상 유지되는지 판단하는 단계는 상기 단말이 상기 사용자 입력이 일정 시간 이상 지속되는지 판단할 수 있다.Here, in the determining whether the terminal is maintained for a predetermined time or more, the terminal may determine whether the user input lasts for a predetermined time or longer.

또한, 상기 음성 녹음을 진행하는 단계 이후에, 상기 단말이 상기 사용자 입력이 종료되면, 상기 음성 녹음을 종료하여 음성 메시지를 생성하는 단계; 상기 단말이 상기 음성 메시지를 인식하여 텍스트로 변환하는 단계; 상기 단말이 상기 변환된 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출한 후, 추출된 상기 키워드를 포함하는 문자 메시지를 생성하는 단계; 및 상기 단말이 상기 음성 메시지 및 상기 문자 메시지를 상기 대화 창 화면을 통해 연결된 적어도 하나 이상의 상대방 단말로 전송하는 단계;를 포함하여 이뤄질 수 있다.In addition, after the voice recording step, if the user input is terminated by the terminal, ending the voice recording to generate a voice message; Recognizing the voice message and converting the voice message into text; Generating, by the terminal, a keyword that satisfies a predetermined condition in the converted text, and then generating a text message including the extracted keyword; And transmitting, by the terminal, the voice message and the text message to at least one counterpart terminal connected through the chat window screen.

추가로, 본 발명은 상술한 바와 같은 음성 메시지 생성 방법을 실행하는 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체를 제공할 수 있다.In addition, the present invention can provide a computer readable recording medium having recorded thereon a program for executing the voice message generating method as described above.

본 발명의 음성 메시지 생성 방법, 이를 위한 장치 및 시스템에 의하면, 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 음성 메시지 처리 영역이 표시되어 일정 시간 동안 유지되면, 음성 녹음을 진행하여 음성 메시지를 생성하고, 상기 대화 창 화면을 통해 연결된 하나 이상의 상대방 단말로 전송할 수 있게 된다. According to the method for generating a voice message of the present invention, an apparatus and a system therefor, when the voice message processing area is displayed and maintained for a predetermined time while the chat window screen of the messenger program is being displayed, the voice message is processed to record the voice message. It may be generated and transmitted to one or more counterpart terminals connected through the chat window screen.

이를 통해, 메신저 프로그램을 이용하는 사용자는 보다 간편하고 직관적인 사용자 인터페이스를 통해 음성 메시지를 생성할 수 있다는 우수한 효과가 있다.Through this, a user using a messenger program can have an excellent effect of generating a voice message through a simpler and more intuitive user interface.

아울러, 본 발명의 음성 메시지 생성 방법, 이를 위한 장치 및 시스템에 의하면, 생성된 음성 메시지에서 기 설정된 조건을 만족하는 키워드를 추출한 후, 추출된 키워드를 포함하는 문자 메시지를 생성하여 상대방 단말로 전송함으로써, 사용자는 물론 상기 음성 메시지 및 문자 메시지를 수신한 상대방은 음성 메시지의 내용을 보다 쉽게 파악할 수 있다는 효과가 있다. In addition, according to the voice message generating method, apparatus and system therefor, extracting a keyword satisfying a predetermined condition from the generated voice message, and then generating a text message including the extracted keyword and transmitting it to the counterpart terminal. In addition, the user as well as the counterpart receiving the voice message and the text message can more easily grasp the contents of the voice message.

도 1은 본 발명의 실시 예에 따른 메신저 시스템의 개략적인 구성도이다.
도 2는 도 1에 도시된 본 발명의 실시 예에 따른 단말의 주요 구성을 도시한 블록도이다.
도 3은 도 1에 도시된 본 발명의 실시 예에 따른 서비스 장치의 주요 구성을 도시한 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 단말에서의 음성 메시지 생성 방법을 설명하기 위한 데이터 흐름도이다.
도 5는 본 발명의 다른 실시 예에 따른 서비스 장치에서의 음성 메시지 생성 방법에 대한 흐름도이다.
도 6 내지 도 14는 본 발명의 실시 예에 따른 음성 메시지 생성 방법을 설명하기 위한 화면 예시도이다.
1 is a schematic configuration diagram of a messenger system according to an embodiment of the present invention.
2 is a block diagram illustrating a main configuration of a terminal according to an exemplary embodiment of the present invention shown in FIG. 1.
3 is a block diagram illustrating a main configuration of a service apparatus according to an exemplary embodiment of the present invention illustrated in FIG. 1.
4 is a data flowchart illustrating a voice message generation method in a terminal according to an embodiment of the present invention.
5 is a flowchart illustrating a method of generating a voice message in a service apparatus according to another embodiment of the present invention.
6 to 14 are screen views illustrating a voice message generating method according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예에 대한 동작 원리를 상세하게 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 핵심을 흐리지 않고 더욱 명확히 전달하기 위함이다. 또한 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 하나, 이는 본 발명을 특정한 실시 형태로 한정하려는 것은 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the detailed description of known functions and configurations incorporated herein will be omitted when it may unnecessarily obscure the subject matter of the present invention. This is to omit the unnecessary description so as to convey the key of the present invention more clearly without fading. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. However, it should be understood that the invention is not limited to the specific embodiments thereof, It is to be understood that the invention is intended to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하기 위해 사용하는 것으로, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 뿐, 상기 구성요소들을 한정하기 위해 사용되지 않는다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다.Also, terms including ordinal numbers such as first, second, etc. are used to describe various elements, and are used only for the purpose of distinguishing one element from another, Not used. For example, without departing from the scope of the present invention, the second component may be referred to as a first component, and similarly, the first component may also be referred to as a second component.

더하여, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급할 경우, 이는 논리적 또는 물리적으로 연결되거나, 접속될 수 있음을 의미한다. 다시 말해, 구성요소가 다른 구성요소에 직접적으로 연결되거나 접속되어 있을 수 있지만, 중간에 다른 구성요소가 존재할 수도 있으며, 간접적으로 연결되거나 접속될 수도 있다고 이해되어야 할 것이다. In addition, when a component is referred to as being "connected" or "connected" to another component, it means that it may be connected or connected logically or physically. In other words, although a component may be directly connected or connected to other components, it should be understood that other components may exist in the middle, and may be connected or connected indirectly.

또한, 본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 명세서에서 기술되는 "포함 한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In addition, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In addition, the terms "comprises" or "having" described herein are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or the same. It is to be understood that the present invention does not exclude in advance the possibility of the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof.

이제 본 발명의 실시 예에 따른 음성 메시지 생성 방법에 대하여 도면을 참고하여 상세하게 설명하고, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기도 한다.Now, a method of generating a voice message according to an embodiment of the present invention will be described in detail with reference to the drawings, and the same or corresponding components are denoted by the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted. .

먼저, 본 발명의 실시 예에 따른 메신저 시스템에 대해 설명하도록 한다.First, a messenger system according to an embodiment of the present invention will be described.

도 1은 본 발명의 실시 예에 따른 메신저 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of a messenger system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 메신저 시스템(100)은 다수의 단말(10), 서비스 장치(20) 및 통신망(30)을 포함하여 구성될 수 있다.Referring to FIG. 1, a messenger system 100 of the present invention may include a plurality of terminals 10, a service apparatus 20, and a communication network 30.

먼저, 다수의 단말(10)은 메신저 프로그램을 통해 하나 이상의 상대방 단말과 메시지를 송수신하거나 컨텐츠를 송수신하여 공유할 수 있는 장치로, 사용자가 이용 가능한 장치를 의미한다.First, the plurality of terminals 10 are devices that can transmit and receive messages or share contents by transmitting and receiving messages with one or more counterpart terminals through a messenger program.

여기서, 메신저 프로그램은 서비스 장치(20)에 의해 제공될 수 있는 것으로, 인스턴트 메시징 서비스(Instant Messaging Service)를 제공할 수 있는 프로그램이 될 수 있다. 이러한 메신저 프로그램은 서비스 장치(20)로부터 다운로드되어 단말(10)에 설치될 수 있으며, 단말(10)이 메신저 프로그램을 설치하고 있지 않더라도, 서비스 장치(20)에 접속하여 클라우드 서비스 방식으로 메신저 프로그램을 이용할 수도 있다.Here, the messenger program may be provided by the service device 20 and may be a program capable of providing an instant messaging service. Such a messenger program may be downloaded from the service device 20 and installed in the terminal 10. Even if the terminal 10 does not install the messenger program, the messenger program may be connected to the service device 20 to transmit the messenger program in a cloud service manner It can also be used.

이러한 단말(10)은 메신저 프로그램을 실행하고, 메신저 프로그램 실행 화면(예컨대, 초기 화면, 대화 창 화면 등)을 표시할 수 있다. 여기서 메신저 프로그램은 사용자의 요청에 따라 실행되거나 특정 이벤트 발생 시 실행될 수 있다. 예컨대 상대방으로부터 메시지가 수신될 때 또는 서비스 장치(20)로부터 특정 정보가 수신될 때 등과 같이 특정 이벤트 발생 시 단말(10)의 메신저 프로그램이 실행될 수 있다.Such a terminal 10 can execute a messenger program and display a messenger program execution screen (e.g., an initial screen, a dialog window screen, etc.). Here, the messenger program may be executed according to a request of the user or may be executed upon occurrence of a specific event. The instant messenger program of the terminal 10 can be executed when a specific event occurs, such as when a message is received from the other party or when specific information is received from the service device 20. [

특히, 본 발명의 실시 예에 따른 단말(10)은 메신저 프로그램 실행 중에 사용자의 직관적인 조작만으로 음성 메시지를 보다 용이하게 생성할 수 있다. 다시 말해, 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 사용자의 조작에 따라 음성 메시지 처리 영역이 표시되고, 상기 음성 메시지 처리 영역이 일정 시간 동안 유지되는 경우, 음성 녹음이 진행되도록 제어할 수 있다. 이후, 사용자의 조작에 따라 음성 녹음이 종료되면, 음성 메시지를 생성하고, 상기 대화 창 화면을 통해 연결된 상대방 단말로 상기 음성 메시지가 전송되도록 제어할 수 있다. In particular, the terminal 10 according to an exemplary embodiment of the present invention can more easily generate a voice message only by an intuitive operation of the user while executing a messenger program. In other words, when the chat window screen of the messenger program is being displayed, the voice message processing area is displayed according to a user's operation, and if the voice message processing area is maintained for a predetermined time, voice recording can be controlled to proceed. have. Thereafter, when the voice recording is terminated according to a user's manipulation, a voice message may be generated, and the voice message may be controlled to be transmitted to the counterpart terminal connected through the chat window screen.

예컨대, 제1 단말(10a)과 제2 단말(10b)이 메신저 프로그램의 대화 창 화면을 통해 연결된 상태에서, 제1 단말(10a)이 생성된 음성 메시지를 상기 대화 창 화면을 통해 제2 단말(10b)로 전송할 수 있으며, 제2 단말(10b)로부터 음성 메시지를 수신할 수 있다.For example, in a state where the first terminal 10a and the second terminal 10b are connected through a chat window screen of a messenger program, a voice message generated by the first terminal 10a is transmitted through a chat window screen. 10b), and may receive a voice message from the second terminal 10b.

더하여, 본 발명의 실시 예에 따른 단말(10)은 생성된 음성 메시지 또는 어느 하나의 상대방 단말로부터 수신된 음성 메시지를 기초로 문자 메시지를 생성하여 상대방 단말로 전송하거나 표시할 수 있다. 이때, 본 발명의 단말(10)은 상기 음성 메시지를 인식하여 텍스트로 변환하고, 상기 변환된 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출한 후, 추출된 상기 키워드를 포함하는 문자 메시지를 생성할 수 있다.In addition, the terminal 10 according to an embodiment of the present invention may generate or transmit a text message to the counterpart terminal based on the generated voice message or the voice message received from one counterpart terminal. In this case, the terminal 10 of the present invention recognizes the voice message, converts it into text, extracts a keyword satisfying a predetermined condition from the converted text, and then generates a text message including the extracted keyword. have.

이러한 본 발명의 실시 예에 따른 단말(10)의 주요 구성 및 보다 구체적인 동작 방법에 대해서는 후술하도록 한다.The main configuration and more specific operation method of the terminal 10 according to an embodiment of the present invention will be described later.

서비스 장치(20)는 메신저 프로그램을 통해 다수의 단말(10) 사이의 메시지 또는 컨텐츠의 송수신을 지원하는 역할을 수행한다. 예컨대, 서비스 장치(20)는 제1 단말(10a)의 사용자에 의해 메시지가 입력되면, 메신저 프로그램의 대화 창 화면을 통해 연결된 하나 이상의 제2 단말(10b)로 전송하고, 상기 제2 단말(10b)로부터 메시지가 수신되면, 이를 제1 단말(10a)로 전송하는 과정의 전반을 제어할 수 있다.The service device 20 plays a role of supporting transmission and reception of messages or contents among a plurality of terminals 10 through a messenger program. For example, when a message is input by the user of the first terminal 10a, the service device 20 transmits the message to one or more second terminals 10b connected through the dialog window of the messenger program, It is possible to control the entire process of transmitting the message to the first terminal 10a.

또한, 서비스 장치(20)는 사용자의 요청에 따라 현재 대화 창을 통해 송수신되고 있는 메시지 또는 컨텐츠를 저장하고 관리할 수 있다. 이때 바람직하게는 상기 단말(10)의 메신저 프로그램을 통해 송수신되는 메시지 또는 컨텐츠는 상기 단말(10) 내 저장되는 것이 아니라 서비스 장치(20)에 저장되고 관리될 수 있다. 또한, 메신저 프로그램을 통해 송수신된 메시지 또는 컨텐츠는 단말(10)과 서비스 장치(20)에 동시에 저장될 수 있으며, 사용자의 선택에 따라 특정 메시지 또는 특정 컨텐츠만을 서비스 장치(20)에 저장할 수도 있다.In addition, the service device 20 may store and manage a message or content currently being transmitted and received through a chat window according to a user's request. At this time, the message or contents transmitted / received through the messenger program of the terminal 10 may be stored and managed in the service device 20 rather than being stored in the terminal 10. In addition, messages or contents transmitted and received through the messenger program can be simultaneously stored in the terminal 10 and the service device 20, and only a specific message or specific contents can be stored in the service device 20 according to the user's selection.

이 외에도, 서비스 장치(20)는 다수의 단말(10)로 메신저 프로그램 서비스를 제공하기 위해, 가입된 사용자들을 사용자 식별자로 구분하고 각각의 가입된 사용자들에 대해 상태, 수신모드, 메시지 수신자 리스트 및 가입자 환경 정보를 관리하고, 인터넷에 접속 중인(On-line) 사용자들 간에 IM 대화 메시지를 전달을 위한 IM 대화 세션, 즉 대화 채널을 관리할 수 있다. 또한, 서비스 장치(20)는 SIP(Session Initiation Protocol) 호 처리 및 MSRP(Message Session Relay Protocol) 릴레이 기능 등을 수행할 수 있으며, 이를 통해 다수의 단말, 예컨대 제1 단말(10a) 및 제2 단말(10b) 간에 채팅 서비스 제공이 가능하다.In addition, the service device 20 divides the subscribed users into user identifiers to provide a messenger program service to a plurality of terminals 10, and for each subscribed user, a status, a reception mode, a list of message recipients, Manage subscriber environment information, and manage IM chat sessions, i.e., chat channels, for delivering IM chat messages between on-line users connected to the Internet. The service device 20 can also perform SIP (Session Initiation Protocol) call processing and MSRP (Message Session Relay Protocol) relay functions. The service device 20 can communicate with a plurality of terminals such as a first terminal 10a and a second terminal (10b).

특히, 본 발명의 실시 예에 따른 서비스 장치(20)는 제1 단말(10a)로부터 제2 단말(10b)로 전송되는 음성 메시지가 수신되면, 상기 음성 메시지를 인식하여 텍스트로 변환하게 된다. 이후, 서비스 장치(20)는 상기 변환된 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출한 후, 추출된 상기 키워드를 포함하는 문자 메시지를 생성하여 제2 단말(10b)로 음성 메시지와 함께 전송할 수 있다.In particular, when receiving a voice message transmitted from the first terminal 10a to the second terminal 10b, the service apparatus 20 according to the embodiment of the present invention recognizes the voice message and converts the voice message into text. Then, the service device 20 extracts a keyword satisfying predetermined conditions from the converted text, generates a text message including the extracted keyword, and transmits the generated text message to the second terminal 10b together with the voice message .

이러한 서비스 장치(20)는 상술한 바와 같은 동작을 지원하기 위해 다양한 장치의 집합으로써 구현될 수 있다. 예컨대 관련된 다양한 정보를 저장하고 관리할 수 있는 데이터베이스 서버, 파일 처리를 위한 파일 서버, 단말(10)로 관련된 정보를 자동적으로 푸쉬(push)할 수 있는 푸쉬 서버 등을 포함하여 구현될 수 있다.Such a service device 20 may be implemented as a collection of various devices to support the operation as described above. For example, a database server capable of storing and managing various related information, a file server for file processing, a push server capable of automatically pushing relevant information to the terminal 10, and the like.

이 외에도 시스템 설계 방식에 따라 다양한 서버들을 포함하여 구현될 수 있다. 또한 상기의 서버에 대응하는 기능을 하나의 모듈로써 하나의 서비스 장치(20) 내에 구현될 수도 있다.In addition, various servers can be implemented according to the system design method. In addition, the function corresponding to the server may be implemented in one service apparatus 20 as one module.

상술한 바와 같은 단말(10) 및 서비스 장치(20)의 주요 구성 및 보다 구체적인 동작 방법에 대해서는 후술하여 설명하도록 하며, 본 발명의 실시 예에 따른 단말(10) 및 서비스 장치(20)에 탑재되는 프로세서는 음성 메시지 생성을 위한 프로그램 명령을 처리할 수 있다. 일 구현 예에서, 이 프로세서는 싱글 쓰레드(Single-threaded) 프로세서일 수 있으며, 다른 구현 예에서 본 프로세서는 멀티 쓰레드(Multithreaded) 프로세서일 수 있다. 나아가 본 프로세서는 메모리 혹은 저장 장치 상에 저장된 명령을 처리하는 것이 가능하다.The main configuration and more specific operation method of the terminal 10 and the service device 20 as described above will be described later, and are mounted in the terminal 10 and the service device 20 according to an embodiment of the present invention. The processor may process a program command for generating a voice message. In one implementation, the processor may be a single-threaded processor, and in other embodiments, the processor may be a multithreaded processor. Further, the processor is capable of processing instructions stored on a memory or storage device.

아울러, 앞서 설명한 본 발명에서의 대화 창을 통해 연결된 상태란 다수의 단말(10) 사이에 메시지를 송수신할 수 있는 이동 경로, 즉 세션(session)이 연결된 상태를 의미한다.In addition, the state connected through the chat window according to the present invention described above means a state in which a mobile path, ie, a session, that can transmit and receive messages between a plurality of terminals 10 is connected.

예를 들어, 제1 단말(10a)이 대화를 진행하고자 하는 하나 이상의 제2 단말(10b)을 선택하여 대화 창을 생성하는 행위, 제1 단말(10a)이 사용자로부터 입력된 메시지를 하나 이상의 제2 단말(10b)로 전송하는 행위 등을 모두 포함하는 개념이 될 수 있다.For example, the first terminal 10a selects one or more second terminals 10b to conduct a conversation and generates a chat window, and the first terminal 10a receives one or more messages input from the user. 2 may be a concept including both the transmission to the terminal (10b).

또한, 본 발명의 실시 예에 따른 다수의 단말(10) 및 서비스 장치(20)는 통신망(30)을 통해 관련된 다양한 정보를 송수신하게 되며, 이때의 통신망(30)은 다양한 형태의 통신망이 이용될 수 있다.A plurality of terminals 10 and service apparatuses 20 according to an embodiment of the present invention transmit and receive various information related to each other through the communication network 30. The communication network 30 at this time uses various types of communication networks .

예컨대, WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신 방식 또는 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coaxial Cable), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신 방식을 이용할 수 있다.For example, a wireless communication method such as WLAN (Wireless LAN), Wi-Fi, WiBro, WiMAX, HSDPA or Ethernet, xDSL (ADSL, VDSL) , Hybrid Fiber Coaxial Cable (HFC), Fiber to the Curb (FTTC), and Fiber To The Home (FTTH).

또한, 상술한 통신 방식 이외에도 기타 널리 공지되었거나 향후 개발될 모든 형태의 통신 방식을 포함할 수 있다.In addition to the above-described communication methods, other widely known or later-developed communication methods may be included.

이하, 본 발명의 실시 예에 따른 단말(10)의 주요 구성 및 동작 방법에 대해 설명하도록 한다.Hereinafter, the main configuration and operation method of the terminal 10 according to the embodiment of the present invention will be described.

도 2는 도 1에 도시된 본 발명의 실시 예에 따른 단말의 주요 구성을 도시한 블록도이다.2 is a block diagram illustrating a main configuration of a terminal according to an exemplary embodiment of the present invention shown in FIG. 1.

도 1 및 도 2를 참조하면, 본 발명의 실시 예에 따른 단말(10)은 통신부(11), 입력부(12), 제어부(13), 저장부(14), 출력부(15) 및 음성 인식부(16)를 포함하여 구성될 수 있다.1 and 2, a terminal 10 according to an embodiment of the present invention includes a communication unit 11, an input unit 12, a control unit 13, a storage unit 14, an output unit 15, (16). ≪ / RTI >

각 구성 요소에 대해 보다 구체적으로 설명하면, 통신부(11)는 서비스 장치(20) 및 하나 이상의 상대방 단말과 관련 정보의 송수신을 지원하는 역할을 수행한다.More specifically, the communication unit 11 plays a role of supporting transmission and reception of related information with the service apparatus 20 and one or more counterpart terminals.

예컨대 통신부(11)는 메신저 프로그램의 대화 창 화면을 통해 사용자로부터 입력된 메시지를 상기 대화 창 화면의 대화 채널을 통해 연결된 상대방 단말로 전송하고, 상기 상대방 단말로부터 메시지를 수신할 수 있다. 특히, 본 발명의 실시 예에 따른 통신부(11)는 메신저 프로그램을 통해 상대방 단말로부터 음성 메시지 또는 문자 메시지를 수신할 수 있으며, 하나 이상의 상대방 단말로 음성 메시지 또는 문자 메시지를 전송할 수 있다.For example, the communication unit 11 can transmit a message input by a user through a chat window screen of a messenger program to a partner terminal connected through a chat channel of the chat window screen, and receive a message from the partner terminal. In particular, the communication unit 11 according to the embodiment of the present invention can receive a voice message or a text message from the other party's terminal through a messenger program, and can transmit a voice message or a text message to one or more counterpart terminals.

또한, 통신부(11)는 사용자로부터 입력된 다양한 요청 정보를 서비스 장치(20)로 전송할 수 있다. 이에 대응하는 정보를 서비스 장치(20)로부터 수신할 수 있다.In addition, the communication unit 11 can transmit various request information input from the user to the service device 20. [ Information corresponding thereto may be received from the service device 20.

입력부(12)는 사용자로부터 입력되는 숫자 및 문자 정보 등의 다양한 정보, 각종 기능 설정 및 단말(10)의 기능 제어와 관련하여 입력되는 신호를 제어부(13)로 전달한다. 특히, 본 발명의 입력부(12)는 메신저 프로그램을 실행하고, 메신저 프로그램을 통해 사용자로부터의 메시지 입력을 지원한다. 또한, 입력부(12)는 음성 메시지를 생성하기 위한 메신저 프로그램의 대화 창 화면에서의 기 설정된 조건에 해당하는 사용자 입력을 지원한다.The input unit 12 transmits various signals such as numbers and character information input from the user, various functions, and signals inputted in relation to the function control of the terminal 10 to the control unit 13. In particular, the input unit 12 of the present invention executes a messenger program and supports input of a message from a user via a messenger program. In addition, the input unit 12 supports a user input corresponding to a preset condition on a chat window screen of a messenger program for generating a voice message.

여기서, 기 설정된 조건에 해당하는 사용자 입력은 상기 대화 창 화면에서의 터치 입력이 될 수 있다. 예컨대, 긴 터치(long touch), 짧은 터치(short touch), 더블 터치(double touch) 등 다양한 터치 입력이 될 수 있다. 또한, 기 설정된 조건에 해당하는 사용자 입력은 일 방향으로의 스와이프(swipe), 터치 앤 드래그(touch & drag), 제스처, 시선 이동, 쉐이크(shake) 중 어느 하나 일 수 있다. 예컨대, 상향 방향으로의 스와이프, 왼쪽 방향으로의 제스처 입력 등이 될 수 있다.Here, the user input corresponding to a preset condition may be a touch input on the chat window screen. For example, various touch inputs such as a long touch, a short touch, and a double touch may be used. In addition, the user input corresponding to a preset condition may be any one of a swipe, a touch and drag, a gesture, a gaze movement, and a shake in one direction. For example, it may be a swipe in an upward direction, a gesture input in a left direction, or the like.

이러한, 사용자 입력을 지원하는 입력부(12)는 사용자의 터치 또는 조작에 따른 입력 신호를 발생하는 키패드와 터치패드 중 적어도 어느 하나로 구성될 수 있다. 또한 입력부(12)가 출력부(15)와 함께 하나의 터치패널(또는 터치스크린)의 형태로 구성되는 경우, 상기 터치패널에서의 사용자 입력이 감지될 수 있다. The input unit 12 supporting the user input may be configured with at least one of a keypad and a touch pad generating an input signal according to a user's touch or manipulation. In addition, when the input unit 12 is configured in the form of a single touch panel (or touch screen) together with the output unit 15, a user input on the touch panel may be sensed.

또한 입력부(12)는 사용자의 음성, 예컨대, "왼쪽 드래그", "오른쪽 드래그" 등과 같은 음성의 입력을 지원할 수 있다. 더불어, 상기 입력부(12)가 제스처 입력 수단을 포함하고 있을 경우, 입력부(12)는 사용자의 기 설정된 제스처를 감지할 수도 있다.In addition, the input unit 12 may support input of a voice of a user, for example, a "left drag", a "right drag", or the like. In addition, when the input unit 12 includes gesture input means, the input unit 12 may sense a predetermined gesture of the user.

이러한 입력부(12)는 상술한 바와 같이, 키보드나 키패드와 같은 키 입력 수단, 터치센서나 터치 패드와 같은 터치 입력 수단, 음성 입력 수단, 자이로 센서, 지자기 센서, 가속도 센서와 근접 센서, 그리고 카메라 중 적어도 하나 이상을 포함하여 이루어지는 제스처 입력 수단을 포함할 수도 있다.As described above, the input unit 12 may include a key input unit such as a keyboard or a keypad, a touch input unit such as a touch sensor or a touch pad, a voice input unit, a gyro sensor, a geomagnetism sensor, an acceleration sensor and a proximity sensor, And gesture input means including at least one or more gesture input means.

이 외에도 현재 개발 중이거나 향후 개발될 수 있는 모든 형태의 입력 수단이 포함될 수 있다.In addition, it can include all forms of input that are currently under development or can be developed in the future.

제어부(13)는 단말(10)의 전반적인 제어를 수행하는 것으로, 운영 체제(OS, Operation System) 및 각 구성을 구동시키는 프로세스 장치, 예컨대, 중앙처리장치(CPU, Central Processing Unit)가 될 수 있다. The controller 13 performs overall control of the terminal 10, and may be a process device that drives an operating system (OS) and each component, for example, a central processing unit (CPU). .

이러한, 본 발명의 제어부(13)는 각 구성 요소와 기능적으로 연결된다. 즉, 제어부(13)는 통신부(11), 입력부(12), 저장부(14), 출력부(15) 및 음성 인식부(16)와 기능적으로 연결되며, 상기 각 구성 요소에 전원 공급 및 기능 수행을 위한 신호의 흐름을 제어하게 된다Such a control unit 13 of the present invention is functionally connected to each component. That is, the control unit 13 is functionally connected to the communication unit 11, the input unit 12, the storage unit 14, the output unit 15, and the voice recognition unit 16, And controls the flow of signals for execution

특히, 본 발명의 실시 예에 따른 제어부(13)는 메신저 프로그램을 실행하고, 상기 메신저 프로그램을 통해 발생되는 다양한 기능 실행을 제어할 수 있다. 기본적으로 제어부(13)는 사용자의 요청 또는 기 설정된 이벤트 발생이 감지되면, 메신저 프로그램이 실행되도록 제어하며, 메신저 프로그램 실행 화면이 출력부(15)에 표시되도록 제어할 수 있다.In particular, the controller 13 according to the embodiment of the present invention can execute a messenger program and control various functions executed through the messenger program. The control unit 13 basically controls the execution of the messenger program when the user's request or occurrence of the preset event is detected, and controls the messenger program execution screen to be displayed on the output unit 15. [

또한, 제어부(13)는 상기 메신저 프로그램을 통해 사용자의 요청에 따라 특정 상대방을 선택하고, 상기 상대방과의 메시지 또는 컨텐츠 송수신을 위한 전반적인 과정을 지원할 수 있다. 이 외에도 제어부(13)는 메신저 프로그램이 제공하는 각종 기능 수행을 위한 다양한 동작들을 지원할 수 있다.In addition, the control unit 13 can select a specific party according to a request of the user through the messenger program, and support an overall process for transmitting or receiving a message or content with the other party. In addition, the control unit 13 may support various operations for performing various functions provided by the messenger program.

특히, 본 발명의 실시 예에 따른 제어부(13)는 출력부(15)를 통해 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 음성 메시지 처리 영역이 출력부(15)를 통해 표시되도록 제어할 수 있다. 여기서, 음성 메시지 처리 영역은 입력부(12)를 통해 기 설정된 조건에 해당하는 사용자 입력이 감지되는 경우에 표시될 수 있다.In particular, the control unit 13 according to an embodiment of the present invention can control the voice message processing area to be displayed through the output unit 15 while the chat window screen of the messenger program is displayed through the output unit 15. Can be. Here, the voice message processing area may be displayed when a user input corresponding to a preset condition is detected through the input unit 12.

이때, 기 설정된 조건에 해당하는 사용자 입력은 상술한 바와 같이 상기 대화 창 화면에서 터치 또는 일 방향으로의 스와이프(swipe), 터치 앤 드래그(touch & drag), 제스처, 시선 이동, 쉐이크(shake) 중 어느 하나일 수 있다. 이 외에도 음성 입력 등도 될 수 있으며, 일 방향은 메신저 프로그램의 대화 창 화면에서 상하좌우는 물론 대각선 방향이 될 수 있다. 이 외에도, 제어부(13)는 사용자로부터 정해진 메뉴의 선택 입력이 감지되면, 상기 음성 메시지 처리 영역이 표시되도록 제어할 수도 있다.In this case, the user input corresponding to a preset condition is touched or swiped in one direction, touch and drag, gesture, eye movement, and shake on the conversation window screen as described above. It may be any one of. In addition, the voice input may be performed, and one direction may be a diagonal direction as well as up, down, left, and right on the chat window screen of the messenger program. In addition, the controller 13 may control the voice message processing area to be displayed when a selection input of a predetermined menu is detected by a user.

또한, 제어부(13)는 사용자의 조작에 따라 음성 메시지 처리 영역이 표시될 경우, 대화 창 화면 내 삽입되어 표시되도록 제어하거나, 대화 창 화면을 일 방향으로 이동하고, 상기 이동된 대화 창 화면과 동시에 표시되도록 제어하거나, 상기 대화 창 화면에서 전화되어 상기 음성 메시지 처리 영역만이 표시되도록 제어할 수도 있다.In addition, when the voice message processing area is displayed according to a user's operation, the controller 13 controls the display to be inserted into the chat window screen or moves the chat window screen in one direction and simultaneously with the moved chat window screen. It may be controlled to be displayed, or may be controlled to display only the voice message processing area by being called from the chat window screen.

이에 대해 보다 구체적으로 설명하면, 제어부(13)는 대화 창 화면에서 기 설정된 조건에 해당하는 사용자 입력, 예컨대 대화 창 화면 하단에서 시작하여 상향 방향으로 진행되는 터치 앤 드래그 입력이 감지되면, 대화 창 화면 내 일 영역, 예컨대 메시지가 표시되는 부분의 일 영역에 상기 음성 메시지 처리 영역이 표시되도록 제어할 수 있다.In more detail, when the user input corresponding to a preset condition is detected in the chat window screen, for example, a touch and drag input starting from the bottom of the chat window screen and proceeding upward, the controller 13 displays the chat window screen. The voice message processing region may be controlled to be displayed in one region of the region, for example, a region where a message is displayed.

또한, 제어부(13)는 대화 창 화면에서 기 설정된 조건에 해당하는 사용자 입력, 예컨대 대화 창 화면 우측에서 시작하여 좌측 방향으로 진행되는 터치 앤 드래그 입력이 감지되면, 대화 창 화면을 일 방향, 즉 좌측 방향으로 이동하고, 상기 이동된 대화 창 화면과 동시에 상기 음성 메시지 처리 영역이 표시되도록 제어할 수 있다. 이를 통해 사용자는 대화 창 화면이 사용자 입력 방향에 따라 이동되고, 음성 메시지 처리 영역이 좌측으로 당겨져서 표시되는 것을 확인할 수 있게 된다. 이때, 바람직하게는 대화 창 화면을 정해진 거리만큼만 이동하고, 음성 메시지 처리 영역은 상기 대화 창 화면이 이동된 거리만큼 표시될 수 있다.In addition, when a user input corresponding to a preset condition is detected in the chat window screen, for example, a touch and drag input starting from the right side of the chat window screen and proceeding in the left direction, the controller 13 moves the chat window screen in one direction, that is, to the left. Direction, and the voice message processing area is displayed at the same time as the moved chat window screen. Through this, the user can confirm that the chat window screen is moved according to the user input direction and the voice message processing area is pulled to the left and displayed. In this case, the chat window screen may be moved by only a predetermined distance, and the voice message processing area may be displayed by the distance that the chat window screen is moved.

이와 같은 과정을 거쳐, 음성 메시지 처리 영역이 표시되면, 제어부(13)는 상기 음성 메시지 처리 영역이 일정 시간 동안 유지되는 지 여부를 판단하게 된다. 일정 시간 동안 유지되는 것은 상술한 바와 같은 사용자 입력이 지속됨을 의미한다. 전술한 예에서, 사용자 입력이 대화 창 화면 우측에서 시작하여 좌측 방향으로 진행되는 터치 앤 드래그 입력일 경우, 마지막 지점에서의 사용자 손가락이 지속적으로 터치하고 있는 상태를 의미한다. 또한, 사용자 입력이 대각선 방향으로의 시선 이동일 경우, 마지막 지점에서의 시선이 고정되고 있는 상태를 의미한다. After the above process, when the voice message processing region is displayed, the controller 13 determines whether the voice message processing region is maintained for a predetermined time. Maintaining for a certain time means that the user input as described above is maintained. In the above-described example, when the user input is a touch and drag input starting from the right side of the chat window screen and proceeding in the left direction, it means that the user's finger at the last point is continuously touching. In addition, when the user input is a line of sight movement in a diagonal direction, the line of sight at the last point is fixed.

이와 같이 음성 메시지 처리 영역이 표시된 상태에서, 사용자 입력이 일정 시간 동안, 예컨대 3초 동안 유지되면, 제어부(13)는 상기 음성 녹음이 진행되도록 음성 인식부(16)를 제어하게 된다.When the user input is maintained for a predetermined time, for example, 3 seconds while the voice message processing area is displayed as described above, the controller 13 controls the voice recognition unit 16 to proceed with the voice recording.

다시 말해, 제어부(13)는 음성 인식부(16)로 음성 메시지 생성을 요청하게 된다. 음성 인식부(16)는 제어부(13)의 제어 명령에 따라, 음성 녹음 기능을 활성화하여, 마이크(MIC)를 통해 입력되는 정보를 녹음하게 된다. In other words, the controller 13 requests the voice recognition unit 16 to generate a voice message. The voice recognition unit 16 activates the voice recording function according to a control command of the control unit 13 to record the information input through the microphone MIC.

이후에도 제어부(13)는 지속적으로 사용자 입력이 유지되는 지 여부를 판단한다. 이때, 사용자 입력이 종료되어(예컨대, 사용자의 손가락이 터치 되지 않은 상태), 더 이상 감지되지 않으면 제어부(13)는 음성 인식부(16)로 종료 명령을 전송하고, 음성 인식부(16)는 상기 종료 명령이 인가되기 이전까지 녹음된 음성을 음성 메시지로 생성하여 제어부(13)로 전달할 수 있다.Thereafter, the controller 13 continuously determines whether the user input is maintained. At this time, if the user input is terminated (for example, the user's finger is not touched) and no longer detected, the controller 13 transmits an end command to the voice recognition unit 16, and the voice recognition unit 16 The voice recorded until the end command is applied may be generated as a voice message and transmitted to the controller 13.

이후, 제어부(13)는 상기 음성 인식부(16)를 통해 음성 메시지가 전송되면, 통신부(11)를 통해 상기 대화 창 화면을 통해 연결된 하나 이상의 상대방 단말로 상기 음성 메시지가 전송되도록 제어하게 된다.Thereafter, when the voice message is transmitted through the voice recognition unit 16, the controller 13 controls the voice message to be transmitted to one or more counterpart terminals connected through the chat window screen through the communication unit 11.

아울러, 음성 녹음이 진행되고 있는 동안 제어부(13)는 음성 메시지 처리 영역을 통해 음성 녹음이 진행되고 있음을 알리는 아이콘, 음성 녹음 진행 상태 바(bar) 중 적어도 어느 하나가 표시되도록 제어할 수 있다. 이때, 상기 음성 녹음 진행 상태 바는 녹음 진행 상태 정보, 녹음 진행 시간 정보 및 최대 녹음 가능 시간 정보 중 적어도 어느 하나가 표시되도록 제어할 수 있다.In addition, while the voice recording is in progress, the controller 13 may control at least one of an icon indicating that voice recording is in progress and a voice recording progress bar through the voice message processing area. In this case, the voice recording progress bar may control to display at least one of recording progress status information, recording progress time information, and maximum recordable time information.

또한, 상기 제어부(13)는 음성 메시지 처리 영역이 표시된 이후에, 기 설정된 조건에 해당하는 사용자 입력이 일정 시간 이상 지속되지 않고 상기 사용자 입력이 종료되면, 음성 메시지 생성 실패 메시지가 출력부(15)를 통해 출력되도록 제어할 수 있다. 예컨대, 제어부(13)는 음성 메시지 처리 영역을 표시한 후, 기 설정된 조건에 해당하는 사용자 입력, 예컨대 터치 입력이 3초 이상 지속될 경우, 음성 녹음을 진행하여 음성 메시지가 생성되도록 제어할 수 있으나, 상기 터치 입력이 1초만 지속될 경우, '녹음시간이 짧습니다.'라는 음성 메시지 생성 실패 메시지가 출력부(15)를 통해 출력되도록 제어할 수 있다.In addition, after the voice message processing area is displayed, the controller 13 outputs a voice message generation failure message if the user input corresponding to a preset condition does not last for a predetermined time and the user input is terminated. Can be controlled to output through. For example, after displaying the voice message processing area, the controller 13 may control to generate a voice message by performing voice recording when a user input corresponding to a preset condition, for example, a touch input, lasts for 3 seconds or more. When the touch input lasts only 1 second, the voice message generation failure message of 'recording time is short' may be output through the output unit 15.

더하여, 본 발명의 실시 예에 따른 제어부(13)는 상기 생성된 음성 메시지를 인식하여 상기 음성 메시지에 대응하는 문자 메시지를 생성하고, 생성된 문자 메시지를 함께 상대방 단말로 전송되도록 제어할 수 있다.In addition, the controller 13 may recognize the generated voice message, generate a text message corresponding to the voice message, and control the generated text message to be transmitted to the counterpart terminal together.

이에 대해 보다 구체적으로 설명하면, 제어부(13)는 상기 음성 메시지를 인식하여 텍스트로 변환하고, 상기 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출한 후 추출된 상기 키워드를 포함하는 문자 메시지를 생성하여 생성된 상기 문자 메시지를 출력부(15)를 통해 표시되도록 제어할 수 있다.In more detail, the controller 13 recognizes the voice message, converts the voice message into text, extracts a keyword satisfying a predetermined condition from the text, and generates and generates a text message including the extracted keyword. The text message may be controlled to be displayed through the output unit 15.

예컨대, 생성된 음성 메시지가 '오늘 7시, 약속 장소는 강남역 치킨집이야'일 경우, 제어부(13)는 상기 음성 메시지를 인식하여 먼저 텍스트로 변환하게 된다. 여기서, 음성 메시지를 인식하여 텍스트로 변환하게 되는 과정은 공지된 다양한 기술을 적용할 수 있다. 예컨대 제어부(13)는 상기 음성 메시지에서 먼저 잡음을 제거하고, 음성 인식을 위한 특징을 추출할 수 있다. 또한, 제어부(13)는 추출된 특징을 기 저장된 음성 모델 데이터베이스와 비교하여, 일치하는 경우, 이를 인식 결과로 출력함으로써, 텍스트로 변환할 수 있다. For example, when the generated voice message is '7 o'clock today, the appointment place is Gangnam Station Chicken House', the controller 13 recognizes the voice message and converts it into text. Here, various known techniques can be applied to the process of recognizing a voice message and converting it into text. For example, the control unit 13 may first remove noise from the voice message and extract features for voice recognition. Further, the control unit 13 compares the extracted feature with the pre-stored speech model database, and when they match, outputs it as a recognition result, thereby converting the feature into text.

이후, 제어부(13)는 변환된 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출하게 된다. 여기서, 기 설정된 조건은 사용자 또는 메신저 프로그램을 서비스하는 서비스 장치(20)에 의해서 설정될 수 있는데, 예컨대, 지명, 숫자 또는 특정 조건이 될 수 있다.Thereafter, the control unit 13 extracts keywords that satisfy predetermined conditions in the converted text. Here, the predetermined condition may be set by the service device 20 serving the user or the messenger program, for example, a name, a number, or a specific condition.

예컨대, 기 설정된 조건이 지역명만을 추출하는 것일 경우, 제어부(13)는 상기의 음성 메시지, 즉 '오늘 7시, 약속 장소는 강남역 치킨집이야'에서, '강남역'만을 추출할 수 있다. 또한, 기 설정된 조건이 숫자만을 추출하는 것일 경우, 제어부(13)는 상기의 음성 메시지에서 '7'만을 추출할 수 있다. 또한, 기 설정된 조건이 명사만을 추출하는 경우, 제어부(13)는 상기의 음성 메시지에서 '오늘 7시 약속 장소 강남역 치킨집'만을 추출할 수 있다.For example, if the predetermined condition is to extract only the area name, the control unit 13 can extract only the 'Gangnam Station' from the voice message, 'Today is 7 o'clock, appointment place is chicken house in Gangnam Station'. If the predetermined condition is to extract only numbers, the control unit 13 can extract only '7' from the voice message. In addition, when the predetermined condition extracts only nouns, the control unit 13 can extract only the 'Chicken House at Gangnam Station at 7 o'clock appointment place today' in the above voice message.

또한, 상술한 예외도 다양한 관점에서 키워드 추출을 위한 조건을 설정할 수 있다. 예컨대, 특정 URL(Uniform Resource Locator), 전화번호, 주소 정보만을 추출할 수도 있으며, 사용자의 음성의 높낮이를 분석하여, 음성의 크기가 높은 구간에 해당하는 단어만을 추출하도록 설정할 수도 있다.In addition, the above-described exception can set conditions for keyword extraction from various viewpoints. For example, it is possible to extract only a specific URL (Uniform Resource Locator), a telephone number, and address information, and analyze the user's voice level so as to extract only words corresponding to a high voice volume.

이와 같이, 제어부(13)는 변환된 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출한 후, 추출된 키워드를 포함하는 문자 메시지를 생성하게 된다. 이때, 제어부(13)는 추출된 키워드만을 포함하여 문자 메시지를 생성할 수 있으며, 변환된 텍스트 모두를 포함하는 문자 메시지를 생성하되, 상술한 과정과 같이 추출된 키워드에 기 설정된 효과, 예컨대 강조, 밑줄 등 기 설정된 효과를 부여하여 문자 메시지를 생성할 수도 있다.In this way, the control unit 13 extracts the keywords satisfying the predetermined condition from the converted text, and then generates the text message including the extracted keyword. At this time, the control unit 13 can generate a text message including only the extracted keywords, and generate a text message including all the converted text. In addition, A text message may be generated by giving a predetermined effect such as an underline.

이후에, 제어부(13)는 생성된 문자 메시지와 음성 메시지를 상대방 단말로 전송할 수 있다. Thereafter, the controller 13 may transmit the generated text message and the voice message to the counterpart terminal.

아울러, 제어부(13)는 상기 문자 메시지가 생성되는 동안 음성 메시지 처리 영역을 통해 상기 음성 메시지의 분석이 진행되고 있음을 알리는 아이콘이 표시되도록 제어할 수 있으며, 문자 메시지 생성이 완료되면, 상기 음성 메시지 처리 영역이 즉 출력부(15)를 통해 더 이상 표시되지 않도록 제어할 수 있다. In addition, the controller 13 may control to display an icon indicating that the voice message is being analyzed through a voice message processing area while the text message is generated. When the text message is generated, the voice message may be displayed. The processing area can be controlled so that it is no longer displayed via the output unit 15.

또한, 제어부(13)는 통신부(11)를 통해 어느 하나의 상대방 단말로부터 음성 메시지가 수신되면, 상술한 바와 같은 과정을 거쳐 문자 메시지를 생성할 수도 있다. 다시 말해, 사용자의 단말은 음성 메시지 및 이에 대응하는 문자 메시지 생성을 지원하나, 상대방 단말은 음성 메시지 생성만을 지원하는 경우, 상기 상대방 단말로부터 음성 메시지만이 수신되면, 제어부(13)가 직접 상기 음성 메시지에 대응하는 문자 메시지를 생성하고 이를 출력부(15)를 통해 출력되도록 제어할 수 있다.In addition, when the voice message is received from one of the counterpart terminals through the communication unit 11, the controller 13 may generate a text message through the above-described process. In other words, if the user terminal supports the generation of a voice message and a corresponding text message, but the counterpart terminal supports only the voice message generation, if only the voice message is received from the counterpart terminal, the controller 13 directly controls the voice. A text message corresponding to the message may be generated and controlled to be output through the output unit 15.

출력부(15)를 통해 출력 시 음성 메시지는 상기 음성 메시지에 대응하는 기 설정된 아이콘 형태로 출력될 수 있다. 이후, 제어부(13)는 사용자로부터 상기 아이콘에 대한 터치 입력, 기타 기 설정된 입력이 감지되면, 상기 음성 메시지를 출력할 수도 있다.When output through the output unit 15, the voice message may be output in the form of a predetermined icon corresponding to the voice message. Thereafter, the control unit 13 may output the voice message when a touch input or other preset input is detected from the user.

아울러, 본 발명의 일 실시 예에서는 메신저 프로그램 실행 중에 발생되는 음성 메시지를 문자 메시지 형태로 변환한 후 이를 메신저 프로그램의 대화 창 화면을 통해 표시하는 것을 예로 들어 설명하였으나, 이에 한정되는 것은 아니며, 단문 메시지(SMS; Short Message Service) 형태로 문자 메시지가 생성될 수도 있다. 이때, 음성 메시지는 상기 메신저 프로그램의 대화 창 화면을 통해 출력될 수 있으며, 단문 메시지 형태의 문자 메시지는 SMS 서버 등을 거쳐 상대방 단말로 전송되거나, SMS 기능을 지원하는 메뉴를 통해 출력될 수 있다.In addition, an embodiment of the present invention has been described with an example of converting a voice message generated during execution of a messenger program into a text message form and displaying the same through a chat window screen of the messenger program, but is not limited thereto. A text message may be generated in the form of a short message service (SMS). In this case, the voice message may be output through the chat window screen of the messenger program, and the text message in the form of a short message may be transmitted to the counterpart terminal through an SMS server or may be output through a menu supporting an SMS function.

더하여, 제어부(13)는 상기 음성 메시지를 인식하여 텍스트로 변환하고, 상기 변환된 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출할 경우, 상기 추출된 키워드에 특정 시간에 대한 정보를 포함하고 있을 경우, 이를 저장부(14)에 저장할 수 있다. 예컨대, 음성 메시지가 '2월 16일 오후 7시, 강남역 치킨집'일 경우, 제어부(13)는 상기 음성 메시지를 인식하여 기 설정된 조건을 만족하는 키워드(예컨대 날짜 정보 및 시간 정보), 즉 '2월 16일 오후 7시'를 추출할 수 있다.In addition, when the control unit 13 recognizes the voice message and converts it into text, extracts a keyword satisfying predetermined conditions from the converted text, and if the extracted keyword includes information on a specific time , And can store it in the storage unit 14. For example, when the voice message is 'Feb. 16 at 7 pm, Kangnam station chicken house', the control unit 13 recognizes the voice message and generates a keyword (for example, date information and time information) February 16, 7 pm "can be extracted.

이후, 제어부(13)는 저장부(14)에 저장된 일정 어플리케이션, 다이어리 어플리케이션 등에 상기 추출된 키워드 정보를 일정 정보로써 저장할 수 있다. 이후, 제어부(13)는 해당되는 시간에 상기 일정 정보를 출력함으로써, 사용자에게 알림 메시지를 제공할 수도 있다.Then, the control unit 13 can store the extracted keyword information as schedule information in a schedule application, a diary application stored in the storage unit 14, and the like. Thereafter, the control unit 13 may output the schedule information at the corresponding time, thereby providing a notification message to the user.

상기와 같은 동작을 제어하기 위해 제어부(13)는 메신저 제어 모듈(13a) 및 음성 처리 모듈(13b)을 포함하여 구성될 수 있다.In order to control the above operation, the controller 13 may include a messenger control module 13a and a voice processing module 13b.

여기서, 메신저 제어 모듈(13a)은 메신저 실행, 대화 창 생성 등 메신저 프로그램 실행 전반을 제어하는 역할을 수행하며, 음성 처리 모듈(13b)은 음성 메시지 처리 영역이 표시되는 과정을 제어하거나, 음성 메시지를 인식하여 그 결과를 기초로 문자 메시지를 생성하는 과정 전반을 제어하는 역할을 수행할 수 있다. Here, the messenger control module 13a controls the overall execution of the messenger program, such as messenger execution and conversation window generation, and the voice processing module 13b controls the process of displaying a voice message processing area or controls a voice message. Recognize and play a role in controlling the overall process of generating a text message based on the result.

아울러, 저장부(14)는 본 발명의 실시 예에 따른 기능 동작에 필요한 응용 프로그램을 비롯하여, 그 응용 프로그램 실행 중에 발생되는 다양한 데이터를 일시적으로 저장할 수 있다. 또한, 저장부(14)는 메신저 프로그램을 저장할 수 있으며, 메신저 프로그램을 통해 하나 이상의 상대방 단말과 송수신된 메시지 또는 컨텐츠가 저장될 수도 있다. 특히, 본 발명의 실시 예에 따른 저장부(14)는 음성 메시지 및 상기 음성 메시지를 기초로 생성된 문자 메시지를 저장할 수 있다. 아울러, 저장부(14)는 음성 메시지 인식에 필요한 정보를 저장할 수 있으며, 특히 음성 메시지에서 특정 키워드를 추출하기 위한 조건 정보를 저장할 수 있다.In addition, the storage unit 14 may temporarily store various data generated during execution of the application program, including an application program required for the functional operation according to the embodiment of the present invention. In addition, the storage unit 14 may store a messenger program, and a message or content transmitted and received with one or more counterpart terminals through the messenger program may be stored. In particular, the storage unit 14 according to the embodiment of the present invention may store a voice message and a text message generated based on the voice message. In addition, the storage unit 14 may store information necessary to recognize a voice message, and may store condition information for extracting a specific keyword from the voice message.

이러한 저장부(14)는 크게 프로그램 영역과 데이터 영역을 포함할 수 있다. 프로그램 영역은 단말(10)을 부팅시키는 운영체제(OS)와 같은 단말(10) 구동을 위한 관련된 정보들을 저장한다. 데이터 영역은 단말(10)의 사용에 따라 발생되는 데이터가 저장되는 영역으로, 상술한 바와 같이 메신저 프로그램 실행 중에 발생되는 다양한 정보, 예컨대 음성 메시지 및 상기 음성 메시지를 기초로 생성도니 문자 메시지가 저장될 수 있다. 이러한, 저장부(14)는 플래시 메모리(flash memory), 하드디스크(hard disk), 멀티미디어 카드 마이크로(multimedia card micro) 타입의 메모리(예컨대, SD 또는 XD 메모리 등), 램(RAM), 롬(ROM) 등의 저장매체를 포함하여 구성될 수 있다.The storage unit 14 may include a program area and a data area. The program area stores related information for driving the terminal 10 such as an operating system (OS) for booting the terminal 10. The data area is an area in which data generated according to the use of the terminal 10 is stored. Various information generated during the execution of the messenger program, for example, a voice message and a generated text message are stored based on the voice message . The storage unit 14 may be a flash memory, a hard disk, a multimedia card micro-type memory (e.g., SD or XD memory), a RAM, a ROM ROM), and the like.

더불어, 본 발명의 일 실시 예에서는 메신저 프로그램, 또는 메신저 프로그램을 통해 송수신된 음성 메시지 또는 문자 메시지를 포함하는 메시지, 컨텐츠 등이 저장부(14)에 저장하고 있는 구성을 중심으로 설명하나 이에 한정되는 것은 아니며, 클라우드 서비스 방식에 따라 서비스 장치(20)와 연동하여 서비스 장치(20)에 저장될 수도 있다.In addition, an embodiment of the present invention will be described with reference to a configuration in which a messenger program or a message or content including a voice message or a text message transmitted and received through the messenger program is stored in the storage unit 14, but is not limited thereto. In other words, it may be stored in the service device 20 in association with the service device 20 according to the cloud service method.

출력부(15)는 단말(10)의 기능 수행 중에 발생하는 일련의 동작 상태 및 동작 결과 등에 대한 정보를 출력하는 역할을 수행한다. 특히, 본 발명의 출력부(15)는 표시 모듈(15a) 및 음원출력모듈(15b)을 포함하여 구성될 수 있다.The output unit 15 outputs information on a series of operation states, operation results, and the like that occur while the terminal 10 is performing its functions. In particular, the output unit 15 of the present invention may include a display module 15a and a sound source output module 15b.

이 중에서 표시 모듈(15a)은 메신저 프로그램 실행 중에 발생되는 다양한 정보들을 표시하는 역할을 수행하는 것으로, 예컨대, 제어부(13)의 제어 하에 음성 메시지 처리 영역을 표시하고, 상기 음성 메시지 처리 영역을 통해 다양한 아이콘, 상태 바(bar) 등을 표시할 수 있다. 또한, 음성 메시지에 대응하는 아이콘 및 상기 음성 메시지를 기초로 생성된 문자 메시지를 표시할 수 있다.The display module 15a serves to display various information generated during the execution of the messenger program. For example, the display module 15a displays a voice message processing area under the control of the controller 13, and displays various information through the voice message processing area. An icon, a status bar, etc. can be displayed. In addition, an icon corresponding to the voice message and a text message generated based on the voice message may be displayed.

이러한, 표시 모듈(15a)은 상술한 바와 같이 입력부(12)와 함께 하나의 터치패널(또는 터치스크린)의 형태로 구현될 수도 있으며, 상기 입력부(12)와 함께 구현되는 경우, 사용자의 기 설정된 동작 등에 따라 발생되는 다양한 정보들을 표시할 수 있다.As described above, the display module 15a may be implemented in the form of a single touch panel (or touch screen) together with the input unit 12, and when implemented together with the input unit 12, the user's preset Various information generated according to an operation may be displayed.

아울러, 이때의 표시 모듈(15a)은 LCD(Liquid Crystal Display), TFT-LCD(Thin Film Transistor LCD), OLED(Organic Light Emitting Diodes), 발광다이오드(LED), AMOLED(Active Matrix Organic LED), 플렉시블 디스플레이(Flexible display) 및 3차원 디스플레이(3 Dimension) 등으로 구성될 수 있다. 또한 이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 TOLED(Transparant OLED)를 포함하는 투명 디스플레이 형태로 구성될 수 있다.In addition, the display module 15a may be a liquid crystal display (LCD), a thin film transistor LCD (TFT-LCD), organic light emitting diodes (OLED), a light emitting diode (LED), an active matrix organic LED (AMOLED), flexible The display may be configured as a flexible display and a three-dimensional display. Some of these displays may also be configured to be transparent or light transmissive so that they can be seen through. This can be configured as a transparent display including TOLED (Transparent OLED).

반면, 음원출력모듈(15b)은 전기적인 신호인 음원을 아날로그 신호로 변환하여 출력하는 역할을 수행하는 것으로, 제어부(13)의 제어에 따라 음성 메시지를 출력하는 역할을 수행할 수 있다.On the other hand, the sound source output module 15b converts a sound source, which is an electrical signal, into an analog signal and outputs the analog signal. The sound source output module 15b may output a voice message under the control of the controller 13.

음성 인식부(16)는 제어부(13)의 제어에 따라 음성 녹음을 진행하여 음성 메시지를 생성하는 것으로, 마이크(MIC) 및 상기 마이크(MIC)를 통해 입력되는 정보를 아날로그 정보를 처리하여 음성 메시지를 생성할 수 있는 처리 모듈을 포함하여 구성될 수 있다. 아울러, 본 발명의 일 실시 예에서는 마이크(MIC)를 통해 입력되는 정보를 처리하여 음성 메시지를 생성할 수 있는 음성 인식부(16)와 상기 음성 메시지를 출력할 수 있는 출력부(15)의 음원출력모듈(15b)을 구분하여 도시하였으나, 이에 한정되는 것은 아니며, 경우에 따라 음성 인싯부(16) 및 음원 출력 모듈(15b)은 하나의 음원 처리부의 형태로 존재할 수도 있다.The voice recognition unit 16 generates a voice message by performing voice recording under the control of the controller 13, and processes the analog information from the microphone MIC and the information input through the microphone MIC to process the voice message. It may be configured to include a processing module capable of generating a. In addition, in an embodiment of the present invention, the sound source of the voice recognition unit 16 capable of generating a voice message by processing information input through a microphone (MIC) and the output unit 15 capable of outputting the voice message. Although the output module 15b is illustrated separately, the present invention is not limited thereto. In some cases, the voice inset unit 16 and the sound source output module 15b may exist in the form of one sound source processor.

이와 같이, 도 2를 참조하여 단말(10)의 주요 구성에 대해 설명하였다. 그러나 도 2를 통해 도시된 구성 요소가 모두 단말(10)의 필수 구성 요소는 아니다.As described above, the main configuration of the terminal 10 has been described with reference to FIG. 2. However, not all components illustrated in FIG. 2 are essential components of the terminal 10.

예컨대, 단말(10)은 방송송신장치(미도시)로부터 수신되는 방송 신호를 출력할 수 있는 방송출력부, 메신저 프로그램 실행 중에 발생되는 다양한 정보를 진동으로 출력할 수 있는 햅틱모듈 등을 더 포함하여 구성될 수 있으며, 그 보다 더 적은 구성 요소에 의해 단말(10)이 구현될 수도 있다.For example, the terminal 10 may further include a broadcast output unit capable of outputting a broadcast signal received from a broadcast transmission apparatus (not shown), a haptic module capable of outputting various information generated during the execution of the messenger program by vibration And the terminal 10 may be implemented by fewer components.

또한, 도 2를 통해 도시된 단말(10)의 주요 구성요소의 위치는 얼마든지 편의상 또는 다른 이유로 바뀔 수 있음이 물론이다. 또한, 제어부(13)를 구성하는 모듈은 메신저 제어 모듈(13a) 및 음성 처리 모듈(13b)로 도시하였으나, 이에 한정되는 것은 아니며, 다양한 기능을 수행하는 다양한 모듈로 제어부(13)가 구성될 수도 있다. It is needless to say that the positions of the major components of the terminal 10 shown in FIG. 2 can be changed for convenience or for other reasons. In addition, the module constituting the control unit 13 is illustrated as a messenger control module 13a and a voice processing module 13b, but is not limited thereto, and the control unit 13 may be configured with various modules that perform various functions. have.

이상으로 본 발명의 실시 예에 따른 단말(10)의 주요 구성 및 동작 방법에 대해 설명하였다. 이러한 본 발명의 단말(10)은 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 단말(10)은 스마트 폰(smart phone), 타블렛 PC(Tablet PC), PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), MP3 Player 등의 이동 단말기는 물론, 스마트 TV(Smart TV), 데스크탑 컴퓨터 등과 같은 고정 단말기가 사용될 수도 있다.The main configuration and operation method of the terminal 10 according to the embodiment of the present invention have been described above. The terminal 10 of the present invention can be implemented in various forms. For example, the terminal 10 described herein may be a mobile terminal such as a smart phone, a tablet PC, a PDA (personal digital assistant), a portable multimedia player (PMP) , A smart TV, a desktop computer, etc. may be used.

이러한 본 발명의 단말(10)은 디지털 기기의 컨버전스(convergence) 추세에 따라 휴대 기기의 변형이 매우 다양하여 모두 열거할 수는 없으나, 상기 언급된 유닛들과 동등한 수준의 유닛이 본 발명에 따른 단말(10)로 사용될 수도 있으며, 통신망(30)을 통해 메신저 서비스 장치(20)를 거쳐 하나 이상의 다른 사용자의 단말과 메시지를 송수신할 수 있는 단말이라면, 그 어떠한 장치도 본 발명의 단말(10)로 적용 가능하다.The terminal 10 of the present invention can not be enumerated because all the variations of the portable device according to the convergence (convergence) trend of the digital device, but the unit of the same level as the above-mentioned unit is a terminal according to the present invention It may also be used as (10), if the terminal that can send and receive messages with the terminal of one or more other users via the messenger service device 20 through the communication network 30, any device to the terminal 10 of the present invention Applicable

이하, 본 발명의 실시 예에 따른 메신저 서비스 장치(20)의 주요 구성 및 동작 방법에 대해 설명하도록 한다.Hereinafter, the main configuration and operation method of the messenger service device 20 according to an embodiment of the present invention will be described.

도 3은 도 1에 도시된 본 발명의 실시 예에 따른 서비스 장치의 주요 구성을 도시한 블록도이다.3 is a block diagram illustrating a main configuration of a service apparatus according to an exemplary embodiment of the present invention illustrated in FIG. 1.

도 1 및 도 3를 참조하면, 본 발명의 서비스 장치(20)는 서비스 통신부(21), 서비스 제어부(22) 및 서비스 저장부(23)를 포함하여 구성될 수 있다.1 and 3, the service apparatus 20 of the present invention may include a service communication unit 21, a service control unit 22, and a service storage unit 23.

여기서 서비스 통신부(21)는 하나 이상의 단말(10)과 메신저 프로그램과 관련된 다양한 정보를 송수신하는 역할을 수행할 수 있다.Here, the service communication unit 21 may perform transmission and reception of various information related to one or more terminals 10 and a messenger program.

특히, 서비스 통신부(21)는 어느 하나의 단말과 연결된 다른 단말 사이에 송수신되는 메시지 또는 컨텐츠를 수신할 수 있다. 또한 서비스 통신부(21)는 어느 하나의 단말(10)로부터 다양한 정보에 대한 요청 정보를 수신하고, 이에 대한 정보를 상기 단말(10)로 제공할 수도 있다.In particular, the service communication unit 21 can receive messages or contents transmitted and received between other terminals connected to any one of the terminals. Also, the service communication unit 21 may receive request information on various information from any one of the terminals 10 and provide the information to the terminal 10.

서비스 제어부(22)는 본 발명의 서비스 장치(20)의 전반적인 제어를 수행하는 것으로, 특히, 본 발명의 실시 예에 따른 서비스 제어부(22)는 메신저 프로그램과 관련된 다양한 제어를 수행할 수 있다.The service control unit 22 performs overall control of the service device 20 of the present invention. In particular, the service control unit 22 according to the embodiment of the present invention can perform various controls related to the messenger program.

예컨대, 서비스 제어부(22)는 다수의 단말(10)로 메신저 프로그램 서비스를 제공하기 위해, 가입된 사용자들을 사용자 식별자로 구분하고 각각의 가입된 사용자들에 대해 상태, 수신모드, 메시지 수신자 리스트 및 가입자 환경 정보를 관리하고, 인터넷에 접속 중인(On-line) 사용자들 간에 IM 대화 메시지를 전달을 위한 IM 대화 세션, 즉 대화 채널을 관리하게 된다. 또한, 서비스 제어부(22)는 SIP(Session Initiation Protocol) 호 처리 및 MSRP(Message Session Relay Protocol) 릴레이 기능 등을 수행할 수 있으며, 이를 통해 다수의 단말, 예컨대 제1 단말(10a) 및 제2 단말(10b) 간에 메시지 또는 컨텐츠 송수신이 가능하게 된다.For example, in order to provide a messenger program service to a plurality of terminals 10, the service control unit 22 divides the subscribed users into user identifiers, and for each subscribed user, a status, a reception mode, Manage environment information, and manage an IM chat session, i.e., a chat channel, for delivering IM chat messages between on-line users connected to the Internet. In addition, the service controller 22 may perform a Session Initiation Protocol (SIP) call processing and a Message Session Relay Protocol (MSRP) relay function, and the like, and thus, a plurality of terminals, for example, the first terminal 10a and the second terminal. Messages or contents can be transmitted and received between the 10b.

특히, 본 발명의 실시 예에 따른 서비스 제어부(22)는 메신저 프로그램의 대화 창 화면이 표시되고 있는 어느 하나의 단말, 예컨대 제1 단말(10a)로부터 상기 서비스 통신부(21)를 통해 음성 메시지 처리 영역 표시 정보가 수신되면, 상기 제1 단말(10a)로 상기 서비스 통신부(21)를 통해 음성 녹음 요청 정보를 전송하고, 상기 제1 단말(10a)로부터 상기 서비스 통신부(21)를 통해 음성 메시지 처리 영역 비활성화 정보가 수신되면, 제1 단말(10a)로 상기 서비스 통신부(21)를 통해 음성 녹음 종료 요청 정보가 전송되도록 제어할 수 있다.In particular, the service control unit 22 according to an embodiment of the present invention transmits a voice message processing area from one terminal, for example, the first terminal 10a, through the service communication unit 21, on which a chat window screen of a messenger program is displayed. When the display information is received, the voice recording request information is transmitted to the first terminal 10a through the service communication unit 21, and a voice message processing area from the first terminal 10a through the service communication unit 21. When the deactivation information is received, the voice recording end request information may be transmitted to the first terminal 10a through the service communication unit 21.

여기서, 음성 메시지 처리 영역 표시 정보란 상기 제1 단말(10a)을 통해 음성 메시지 처리 영역이 표시되고 있음을 알리는 정보가 될 수 있다. 상기 음성 메시지 처리 영역은 도 2를 참조하여 설명한 바와 같이, 제1 단말(10a)에서의 기 설정된 사용자 입력이 따라 표시될 수 있다. 또한, 제1 단말(10a)은 상기 사용자 입력이 유지되는 동안 일정 간격으로 서비스 장치(20)로 음성 메시지 처리 영역 표시 정보를 전송할 수 있다. Here, the voice message processing region display information may be information indicating that the voice message processing region is displayed through the first terminal 10a. As described above with reference to FIG. 2, the voice message processing area may be displayed according to a preset user input of the first terminal 10a. In addition, the first terminal 10a may transmit the voice message processing region display information to the service device 20 at a predetermined interval while the user input is maintained.

반면, 음성 메시지 처리 영역 비활성화 정보란 상기 음성 메시지 처리 영역이 표시되고 있으나, 사용자 입력이 종료된 상태를 의미한다. 다시 말해, 제1 단말(10a)에서 사용자 입력에 따라 음성 메시지 처리 영역이 표시되고 상기 사용자 입력이 일정 시간 동안 유지된 후, 사용자 입력이 종료된 상태를 의미한다. 이때, 바람직하게는 음성 메시지 처리 영역은 지속적으로 표시될 수 있다. 사용자 입력이 종료되면, 서비스 제어부(22)는 상기 제1 단말(10a)로 현재까지 녹음된 음성으로 음성 메시지를 생성하라는 음성 녹음 종료 요청 정보를 전송하게 되는 것이다. On the other hand, the voice message processing area deactivation information refers to a state in which the voice message processing area is displayed but the user input is terminated. In other words, the voice message processing area is displayed on the first terminal 10a according to a user input, and the user input is maintained after the user input is maintained for a predetermined time. In this case, the voice message processing area may be continuously displayed. When the user input is terminated, the service controller 22 transmits the voice recording end request information for generating a voice message with the voice recorded so far to the first terminal 10a.

그리고 나서, 서비스 제어부(22)는 상기 서비스 통신부(21)를 통해 제1 단말(10a)로부터 음성 메시지가 수신되면, 수신된 음성 메시지를 제1 단말(10a)과 대화 창 화면을 통해 연결된 상대방 단말, 예컨대 제2 단말(10b)로 전송되도록 제어할 수 있다.Then, when the voice control unit 22 receives a voice message from the first terminal 10a through the service communication unit 21, the service control unit 22 connects the received voice message to the first terminal 10a through a chat window screen. For example, it may be controlled to be transmitted to the second terminal 10b.

또한, 본 발명의 실시 예에 따른 서비스 제어부(22)는 상기 제1 단말(10a)로부터 음성 메시지가 수신되면, 수신된 음성 메시지를 기초로 문자 메시지를 생성할 수 있다. 이때, 서비스 제어부(22)는 상기 음성 메시지를 인식하여 텍스트로 변환한 후, 상기 변환된 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출하고, 추출된 상기 키워드를 포함하는 문자 메시지를 생성하게 된다.In addition, the service controller 22 according to an embodiment of the present disclosure may generate a text message based on the received voice message when the voice message is received from the first terminal 10a. At this time, the service control unit 22 recognizes the voice message and converts it into text, extracts a keyword satisfying a predetermined condition from the converted text, and generates a text message including the extracted keyword.

더하여, 본 발명의 일 실시 예에서는 서비스 제어부(22)가 어느 하나의 단말(10)로부터 음성 메시지 처리 영역 표시 정보가 수신되면, 상기 단말(10)로 음성 녹음 요청 정보를 전송하고, 상기 단말(10)로부터 음성 메시지 처리 영역 비활성화 정보가 수신되면, 상기 단말(10)로 음성 녹음 종료 요청 정보를 전송한 이후에, 상기 단말(10)로부터 음성 메시지가 수신되면, 수신되는 음성 메시지를 기초로 문자 메시지가 생성되는 것을 예로 들어 설명하였으나, 이에 한정되는 것은 아니며, 음성 메시지 처리 영역 표시 정보, 음성 메시지 처리 영역 비활성화 정보 수신 여부와는 상관없이 어느 하나의 단말(10)로부터 음성 메시지가 수신되면, 상기 음성 메시지를 기초로 문자 메시지가 생성되는 과정만을 제어할 수도 있다.In addition, in one embodiment of the present invention, when the service control unit 22 receives the voice message processing region display information from any one terminal 10, the service control unit 22 transmits the voice recording request information to the terminal 10, and the terminal ( When the voice message processing area deactivation information is received from 10), and after the voice recording end request information is transmitted to the terminal 10, if a voice message is received from the terminal 10, the text is based on the received voice message. Although a message is generated as an example, the present invention is not limited thereto. When a voice message is received from any one terminal 10 regardless of whether voice message processing region indication information and voice message processing region deactivation information are received, Only a process of generating a text message may be controlled based on the voice message.

다시 말해, 앞서, 본 발명의 일 실시 예에서는 단말(10)을 중심으로 음성 메시지가 생성되는 과정, 상기 음성 메시지를 기초로 문자 메시지가 생성되는 과정에 대해 설명하였으나, 이에 한정되는 것은 아니며, 단말(10)에서 상술한 바와 같은 과정을 거쳐 음성 메시지가 생성되면, 단말(10)이 생성된 음성 메시지를 서비스 장치(20)로 전송하고, 서비스 장치(20)가 상기 음성 메시지를 기초로 문자 메시지를 생성한 후, 생성된 상기 문자 메시지를 상기 단말(10) 및 상대방 단말로 전송되는 과정 전반을 제어할 수도 있다.In other words, in an embodiment of the present invention, a process of generating a voice message based on the terminal 10 and a process of generating a text message based on the voice message have been described, but are not limited thereto. When a voice message is generated through the process as described above at 10, the terminal 10 transmits the generated voice message to the service device 20, and the service device 20 transmits the text message based on the voice message. After generating a, it is possible to control the overall process of transmitting the generated text message to the terminal 10 and the other terminal.

이를 위해, 서비스 제어부(22)는 메신저 관리 모듈(22a) 및 음성 처리 모듈(22b)을 포함하여 구성될 수 있다. 메신저 관리 모듈(22a)은 다수의 단말(10) 사이의 메신저 프로그램을 제공하고 제어하기 위한 다양한 기능들을 수행할 수 있으며, 음성 처리 모듈(22b)은 음성 메시지를 기초로 문자 메시지를 생성하는 과정 전반을 제어할 수 있다. To this end, the service control unit 22 may include a messenger management module 22a and a voice processing module 22b. The messenger management module 22a may perform various functions for providing and controlling a messenger program between the plurality of terminals 10, and the voice processing module 22b generates a text message based on a voice message. Can be controlled.

상술한 바와 같은 메신저 프로그램 이용 중에 발생되는 다양한 정보는 서비스 저장부(23)에 저장될 수 있다. 더하여, 서비스 저장부(23)는 단말(10)과 하나 이상의 상대방 단말과 주고 받은 메시지, 컨텐츠 등이 저장될 수 있으며, 서비스 제어부(22)는 단말(10)의 사용자 식별 정보에 대응하여 상기 정보들이 저장되도록 제어할 수도 있다.Various information generated while using the messenger program as described above may be stored in the service storage unit 23. In addition, the service storage unit 23 may store messages, contents, and the like, which are exchanged with the terminal 10 and one or more counterpart terminals, and the service control unit 22 corresponds to the user identification information of the terminal 10. Can be controlled to be stored.

이러한 서비스 저장부(23)는 메신저 시스템(100) 내의 하나의 저장소일 수 있고, 메신저 시스템(100) 외부에 위치하여 서비스 장치(20)와 데이터 송수신이 가능한 별도의 데이터 저장 장치일 수도 있다.The service storage unit 23 may be a repository within the messenger system 100 or may be a separate data storage device located outside the messenger system 100 and capable of transmitting and receiving data with the service device 20. [

이상으로 본 발명의 실시 예에 따른 서비스 장치(20)에 대해 설명하였다.The service apparatus 20 according to the embodiment of the present invention has been described above.

앞서 설명한 바와 같이, 본 발명의 서비스 장치(20)는 서버 기반 컴퓨팅 방식 또는 클라우드 방식으로 동작하는 하나 이상의 서버로 구현될 수 있다. 특히, 메신저 시스템(100)을 통해 송수신되는 정보는 인터넷 상의 클라우드 컴퓨팅 장치에 영구적으로 저장될 수 있는 클라우드 컴퓨팅(Cloud Computing) 기능을 통해 제공될 수 있다. 여기서, 클라우드 컴퓨팅은 데스크톱, 태블릿 컴퓨터, 노트북, 넷북 및 스마트폰 등의 디지털 단말기에 인터넷 기술을 활용하여 가상화된 IT(Information Technology) 자원, 예를 들어, 하드웨어(서버, 스토리지, 네트워크 등), 소프트웨어(데이터베이스, 보안, 웹 서버 등), 서비스, 데이터 등을 온 디맨드(On demand) 방식으로 서비스하는 기술을 의미한다. 본 발명에 있어서, 다수의 단말(10)과 서비스 장치(20) 사이에 송수신되는 모든 정보는 인터넷 상의 클라우드 컴퓨팅 장치에 저장되고, 언제 어디서든 전송될 수 있다.As described above, the service apparatus 20 of the present invention can be implemented as one or more servers operating in a server-based computing mode or a cloud mode. In particular, the information transmitted and received through the messenger system 100 may be provided through a cloud computing function that can be permanently stored in a cloud computing device on the Internet. Here, cloud computing utilizes Internet technology in digital terminals such as desktops, tablet computers, laptops, netbooks and smart phones to provide virtualized IT (Information Technology) resources such as hardware (server, storage, (Database, security, web server, etc.), service, data, etc. on demand. In the present invention, all information transmitted and received between the plurality of terminals 10 and the service device 20 is stored in the cloud computing device on the Internet, and can be transmitted anywhere, anytime.

한편, 단말(10) 또는 서비스 장치(20)에 탑재되는 메모리는 그 장치 내에서 정보를 저장한다. 일 구현예의 경우, 메모리는 컴퓨터로 판독 가능한 매체이다. 일 구현 예에서, 메모리는 휘발성 메모리 유닛 일 수 있으며, 다른 구현예의 경우, 메모리는 비휘발성 메모리 유닛 일 수도 있다. 일 구현예의 경우, 저장장치는 컴퓨터로 판독 가능한 매체이다. 다양한 서로 다른 구현 예에서, 저장장치는 예컨대 하드디스크 장치, 광학디스크 장치, 혹은 어떤 다른 대용량 저장장치를 포함할 수도 있다.On the other hand, the memory mounted in the terminal 10 or the service device 20 stores information in the device. In one embodiment, the memory is a computer readable medium. In one implementation, the memory may be a volatile memory unit, and in other embodiments, the memory may be a non-volatile memory unit. In one embodiment, the storage device is a computer readable medium. In various different implementations, the storage device may include, for example, a hard disk device, an optical disk device, or any other mass storage device.

비록 본 명세서와 도면에서는 예시적인 장치 구성을 기술하고 있지만, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 다른 유형의 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 본 발명에 따른 장치의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.Although the present specification and drawings describe exemplary device configurations, the functional operations and subject matter implementations described herein may be embodied in other types of digital electronic circuitry, or alternatively, of the structures disclosed herein and their structural equivalents May be embodied in computer software, firmware, or hardware, including, or in combination with, one or more of the foregoing. Implementations of the subject matter described herein may be embodied in one or more computer program products, i. E. One for computer program instructions encoded on a program storage medium of the type for < RTI ID = 0.0 & And can be implemented as a module as described above. The computer-readable medium can be a machine-readable storage device, a machine-readable storage substrate, a memory device, a composition of matter that affects the machine readable propagation type signal, or a combination of one or more of the foregoing.

이하, 본 발명의 실시 예에 따른 음성 메시지 생성 방법에 대해 설명하도록 한다.Hereinafter, a voice message generating method according to an embodiment of the present invention will be described.

도 4는 본 발명의 일 실시 예에 따른 단말에서의 음성 메시지 생성 방법을 설명하기 위한 데이터 흐름도이다.4 is a data flowchart illustrating a voice message generation method in a terminal according to an embodiment of the present invention.

도 1 및 도 4를 참조하면, 먼저, 본 발명의 실시 예에 따른 음성 메시지 생성을 위해서는 단말(10)에서 메신저 프로그램이 실행되어야 한다(S101).1 and 4, first, in order to generate a voice message according to an embodiment of the present invention, a messenger program must be executed in the terminal 10 (S101).

이후, 단말(10)은 사용자의 조작에 따라 메신저 프로그램의 대화 창 화면을 표시할 수 있다(S103). 단말(10)은 상기 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 기 설정된 조건에 해당하는 사용자 입력이 감지되는지 판단하게 된다(S105).Thereafter, the terminal 10 may display a chat window screen of the messenger program according to a user's manipulation (S103). The terminal 10 determines whether a user input corresponding to a preset condition is detected while the chat window screen of the messenger program is being displayed (S105).

이때, 기 설정된 조건에 해당하는 사용자 입력은 상기 대화 창 화면에서 터치 또는 일 방향으로의 스와이프(swipe), 터치 앤 드래그(touch & drag), 제스처, 시선 이동, 쉐이크(shake) 중 어느 하나일 수 있다.In this case, the user input corresponding to a preset condition may be any one of a touch, a swipe in one direction, a touch and drag, a gesture, a gaze movement, and a shake in the conversation window screen. Can be.

이후, 단말(10)은 기 설정된 조건에 해당하는 사용자 입력이 감지되면, 음성 메시지 처리 영역을 표시하게 된다(S107). 여기서, 상기 음성 메시지 처리 영역은 상기 대화 창 화면 내 일정 영역에 표시되거나, 상기 대화 창 화면이 일 방향으로 이동되어 이동된 대화 창 화면과 동시에 표시되거나, 상기 대화 창 화면에서 전환되어 상기 음성 메시지 처리 영역만이 표시될 수 있다.Thereafter, when a user input corresponding to a preset condition is detected, the terminal 10 displays a voice message processing area (S107). Here, the voice message processing area is displayed in a certain area within the chat window screen, or is displayed simultaneously with the chat window screen in which the chat window screen is moved in one direction and moved, or is switched in the chat window screen to process the voice message. Only areas can be displayed.

그리고 나서, 단말(10)은 상기 S105 단계에서 감지된 사용자 입력이 일정 시간 동안 유지되는지 판단하고(S109), 일정 시간 동안 유지되면, 음성 녹음을 진행한다(S111).Then, the terminal 10 determines whether the user input detected in the step S105 is maintained for a predetermined time (S109), and if maintained for a predetermined time, proceeds with the voice recording (S111).

이후, 단말(10)은 상기 사용자 입력이 종료되는지를 판단하여(S113), 사용자 입력이 종료되면, 녹음이 진행된 부분을 음성 메시지로 생성하게 된다(S115).Thereafter, the terminal 10 determines whether the user input is terminated (S113), and when the user input is terminated, the terminal 10 generates a portion in which the recording is performed as a voice message (S115).

다시 말해, 본 발명의 실시 예에 따른 단말(10)은 메신저 프로그램의 대화 창 화면에서 기 설정된 조건에 해당하는 사용자 입력, 예컨대 상향 방향으로의 터치 앤 드래그 입력이 감지되면, 음성 메시지 처리 영역을 표시하고, 상기 음성 메시지 처리 영역이 표시된 상태에서 사용자의 터치 입력이 지속되면, 음성 녹음을 진행하고, 터치 입력이 더 이상이 감지되지 않으면, 음성 녹음을 종료하여 음성 메시지를 생성하게 되는 것이다. In other words, the terminal 10 according to an embodiment of the present invention displays a voice message processing area when a user input corresponding to a preset condition, for example, a touch and drag input upward direction, is detected on a chat window screen of a messenger program. If the user's touch input continues while the voice message processing area is displayed, voice recording is performed. If the touch input is no longer detected, voice recording is terminated to generate a voice message.

아울러, 상기 S105 단계에서의 기 설정된 조건에 해당하는 사용자 입력과 S109 단계에서의 기 설정된 조건에 해당하는 사용자 입력은 서로 다른 수 있다. 예컨대, S105 단계에서의 기 설정된 조건에 해당하는 사용자 입력은 상향 방향으로의 터치 앤 드래그 입력이 될 수 있으며, S109 단계에서의 기 설정된 조건에 해당하는 사용자 입력은 드래그 마지막 지점에서의 터치 입력이 될 수 있다. 다시 말해, 사용자 입력이 일정 시간 동안 유지되는 것은 S105 단계에서 상향 방향으로의 터치 앤 드래그 입력이 발생되면, S109 단계에서는 상기 드래그 마지막 지점에서의 터치 입력이 지속되고 있는 상태를 의미하는 것이다.In addition, the user input corresponding to the preset condition in the step S105 and the user input corresponding to the preset condition in the step S109 may be different. For example, the user input corresponding to the preset condition in step S105 may be a touch and drag input in an upward direction, and the user input corresponding to the preset condition in step S109 may be a touch input at the end of the drag. Can be. In other words, when the user input is maintained for a predetermined time, when the touch and drag input in the upward direction is generated in step S105, the touch input at the end point of the drag is continued in step S109.

이후, 단말(10)은 생성된 음성 메시지를 상기 대화 창 화면을 통해 연결된 상대방 단말로 전송할 수 있으며(S117), 전송하기 이전에, 상기 생성된 음성 메시지를 인식하여, 상기 음성 메시지에서 소정의 키워드를 포함하는 문자 메시지를 생성한 후, 상기 음성 메시지와 함께 상기 문자 메시지를 상기 상대방 단말로 전송할 수도 있다.Thereafter, the terminal 10 may transmit the generated voice message to the counterpart terminal connected through the chat window screen (S117). Before the transmission, the terminal 10 recognizes the generated voice message and selects a predetermined keyword from the voice message. After generating a text message including a, the text message may be transmitted to the counterpart terminal together with the voice message.

또한, 본 발명의 다른 실시 예에 따른 단말(10)은 음성 메시지가 생성되기 까지의 과정만을 지원할 수 있으며, 음성 메시지를 기초로 문자 메시지를 생성하는 과정은 서비스 장치(20)의 제어 하에 진행될 수도 있다.In addition, the terminal 10 according to another embodiment of the present invention may support only a process until a voice message is generated, and a process of generating a text message based on the voice message may be performed under the control of the service device 20. have.

이하, 본 발명의 다른 실시 예에 따른 서비스 장치(20)에서의 음성 메시지 생성 방법에 대해 설명하도록 한다.Hereinafter, a method of generating a voice message in the service device 20 according to another embodiment of the present invention will be described.

도 5는 본 발명의 다른 실시 예에 따른 서비스 장치에서의 음성 메시지 생성 방법에 대한 흐름도이다.5 is a flowchart illustrating a method of generating a voice message in a service apparatus according to another embodiment of the present invention.

도 1 및 도 5를 참조하면, 먼저, 서비스 장치(20)는 대기 상태(S201)에서 어느 하나의 단말(10)로부터 음성 메시지 처리 영역 표시 정보가 수신되는 지 여부를 판단한다(S203). 여기서, 대기 상태란 서비스 장치(20)가 단말과 단말, 예컨대 제1 단말(10a)과 상기 제1 단말(10a)과 메신저 프로그램의 대화 창 화면을 통해 연결된 제2 단말(10b) 사이의 메시지 송수신을 위한 세션 제어, 메시지 송수신 제어 등이 이뤄지고 있는 상태를 의미한다. 1 and 5, first, the service device 20 determines whether voice message processing region display information is received from any one terminal 10 in a standby state S201 (S203). Here, the standby state means that the service device 20 transmits and receives a message between the terminal and the terminal, for example, the first terminal 10a and the second terminal 10b connected through the chat window screen of the first terminal 10a and the messenger program. This refers to a state in which session control, message transmission control, and the like are performed.

이후, 서비스 장치(20)는 단말(10)로부터 음성 메시지 처리 영역 표시 정보가 수신되면, 상기 단말(10)로 음성 녹음 요청 정보를 전송하고(S205), 상기 단말(10)로부터 음성 메시지 처리 영역 비활성화 정보가 수신되면(S207), 상기 단말(10)로 음성 녹음 종료 요청 정보를 전송할 수 있다(S209).Subsequently, when the voice message processing region display information is received from the terminal 10, the service apparatus 20 transmits voice recording request information to the terminal 10 (S205) and the voice message processing region from the terminal 10. When the deactivation information is received (S207), the voice recording end request information may be transmitted to the terminal 10 (S209).

여기서, 상기 음성 메시지 처리 영역 표시 정보란 상기 단말, 예컨대 제1 단말(10a)을 통해 음성 메시지 처리 영역이 표시되고 있음을 알리는 정보가 될 수 있다. 반면, 음성 메시지 처리 영역 비활성화 정보란 상기 음성 메시지 처리 영역이 표시되고 있으나, 사용자 입력이 종료된 상태를 의미한다. 다시 말해, 제1 단말(10a)에서 사용자 입력에 따라 음성 메시지 처리 영역이 표시되고 상기 사용자 입력이 일정 시간 동안 유지된 후, 사용자 입력이 종료된 상태를 의미한다. 이때, 바람직하게는 음성 메시지 처리 영역은 지속적으로 표시될 수 있다. 사용자 입력이 종료되면, 서비스 장치(20)는 상기 제1 단말(10a)로 현재까지 녹음된 음성으로 음성 메시지를 생성하라는 음성 녹음 종료 요청 정보를 전송하게 되는 것이다. The voice message processing region display information may be information indicating that the voice message processing region is displayed through the terminal, for example, the first terminal 10a. On the other hand, the voice message processing area deactivation information refers to a state in which the voice message processing area is displayed but the user input is terminated. In other words, the voice message processing area is displayed on the first terminal 10a according to a user input, and the user input is maintained after the user input is maintained for a predetermined time. In this case, the voice message processing area may be continuously displayed. When the user input is terminated, the service device 20 transmits the voice recording end request information to generate a voice message with the voice recorded so far to the first terminal 10a.

이후, 서비스 장치(20)는 단말(10)로부터 음성 메시지가 수신되면(S211), 상기 음성 메시지를 인식하여 텍스트로 변환하게 된다(S213). 이후, 서비스 장치(20)는 상기 변화된 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출하고(S215), 추출된 상기 키워드를 포함하는 문자 메시지를 생성한다(S217).After that, when the voice message is received from the terminal 10 (S211), the service device 20 recognizes the voice message and converts the voice message into text (S213). Thereafter, the service device 20 extracts a keyword satisfying a predetermined condition from the changed text (S215), and generates a text message including the extracted keyword (S217).

이후에, 서비스 장치(20)는 상기 음성 메시지 및 문자 메시지를 대응하는 상대방 단말로 전송할 수 있다. 또한, 생성된 문자 메시지를 상기 음성 메시지를 전송한 단말(10)로 전송할 수도 있다. Thereafter, the service device 20 may transmit the voice message and the text message to the corresponding counterpart terminal. In addition, the generated text message may be transmitted to the terminal 10 that has transmitted the voice message.

더하여, 본 발명의 실시 예에 따른 서비스 장치(20)는 어느 하나의 단말(10)로부터 음성 메시지 처리 영역 활성화 정보가 수신되면, 상기 단말(10)로 음성 녹음 요청 정보를 전송하고, 상기 단말(10)로부터 음성 메시지 처리 영역 비활성화 정보가 수신되면, 상기 단말(10)로 음성 녹음 종료 요청 정보를 전송하는 것을 예로 들어 설명하였으나, 이에 한정되는 것은 아니며, 상기 S201 단계부터 S209 단계는 생략될 수 있으며, S211 단계 이후의 과정만을 제어할 수도 있다.In addition, when the voice message processing region activation information is received from any one terminal 10, the service apparatus 20 according to an embodiment of the present invention transmits voice recording request information to the terminal 10 and transmits the voice recording request information. When the voice message processing area deactivation information is received from 10), the voice recording end request information is transmitted to the terminal 10 as an example. However, the present invention is not limited thereto, and steps S201 to S209 may be omitted. Only the process after step S211 may be controlled.

상술한 바와 같은 본 발명의 실시 예에 따른 음성 메시지 생성 방법에 대해 화면 예시도를 참조하여 보다 더 구체적으로 설명하도록 한다.A voice message generating method according to an embodiment of the present invention as described above will be described in more detail with reference to the screen example.

도 6 내지 도 14는 본 발명의 실시 예에 따른 음성 메시지 생성 방법을 설명하기 위한 화면 예시도이다.6 to 14 are screen views illustrating a voice message generating method according to an embodiment of the present invention.

이 중, 도 6a는 사용자의 단말, 예컨대 제1 단말(10a)에서의 메신저 프로그램 대화 창 화면을 도시한 것이다. 메신저 프로그램 대화 창 화면은 상단 부분, 메시지 표시 부분, 하단 부분으로 구성될 수 있다. 메신저 프로그램 대화 창 화면 상단에는 메신저 프로그램 대화 창 화면을 통해 연결된 상대방에 대한 정보(예컨대, 프로필 사진, 닉네임 등)가 표시되는 영역(500), 다른 사용자를 더 추가할 수 있는 메뉴 버튼(501), 사용자 간의 음성 통화 또는 영상 통화를 진행할 수 있는 통화 버튼(502)이 표시될 수 있다. 아울러, 상기 상대방에 대한 정보가 표시되는 영역(500)은 그룹 대화일 경우, 그룹 대화에 참여하고 있는 사용자 수 및 그룹 대화 명이 표시될 수도 있다. 6A illustrates a messenger program dialog window screen of a user's terminal, for example, the first terminal 10a. The messenger program conversation window screen may consist of an upper part, a message display part, and a lower part. In the upper part of the messenger program conversation window screen, an area 500 for displaying information (e.g., profile picture, nickname, etc.) of the other party connected through the messenger program conversation window screen, a menu button 501 for further adding another user, A call button 502 for proceeding with a voice call or a video call between the users can be displayed. In addition, in the case of the group conversation, the number of users participating in the group conversation and the group conversation name may be displayed in the area 500 where the information on the other party is displayed.

또한, 메시지 표시 부분에는 상대방으로부터 수신된 메시지(520)와 사용자가 입력한 메시지(521)가 순차적으로 표시될 수 있다. 이때, 상대방과 사용자간의 구분을 위해, 상대방으로부터 수신된 메시지(520)가 화면 좌측에 표시되고, 사용자로부터 입력된 메시지(521)는 화면 우측에 표시될 수 있으나, 이에 한정되는 것은 아니다. Also, a message 520 received from the other party and a message 521 input by the user may be sequentially displayed on the message display part. In this case, to distinguish between the counterpart and the user, the message 520 received from the counterpart may be displayed on the left side of the screen, and the message 521 input from the user may be displayed on the right side of the screen, but is not limited thereto.

아울러, 메신저 프로그램 대화 창 화면 하단 부분에는 대화 창 화면을 통해 연결된 상대방 단말과 다양한 정보, 예컨대 사진, 음악 등의 컨텐츠를 공유하기 위한 컨텐츠 공유 화면 표시 메뉴(503), 상대방 단말로 이모티콘, 스티커 등을 전송하기 위한 메뉴(504), 메시지를 입력하기 위한 입력란(505) 등을 포함하여 구성될 수 있다. 아울러, 상기 입력란(505)을 통해 사용자로부터 입력된 메시지를 상기 대화 창 화면을 통해 연결된 상대방 단말로 전송하기 위한 전송 버튼(506)이 표시될 수 있다.In the lower part of the messenger program conversation window screen, a content sharing screen display menu 503 for sharing contents such as pictures and music with the other terminal connected through the conversation window screen, an emoticon, a sticker, A menu 504 for transmission, an input field 505 for inputting a message, and the like. In addition, a transmission button 506 for transmitting a message input from the user through the input box 505 to the counterpart terminal connected through the chat window screen may be displayed.

이러한 대화 창 화면이 표시되고 있는 상태에서, 단말(10)은 사용자로부터 기 설정된 조건에 해당하는 사용자 입력, 예컨대, 상향 방향으로의 터치 앤 드래그 입력이 감지되는 지 판단하게 된다. In the state where such a chat window screen is being displayed, the terminal 10 determines whether a user input corresponding to a preset condition, for example, a touch and drag input in an upward direction, is detected from the user.

이때, 상하 스크롤 입력과의 구분을 위해 입력란(505)이 표시되고 있는 지점을 시작으로 상향 방향으로의 터치 앤 드래그 입력이 감지되는 것이 바람직하나, 이에 한정되는 것은 아니며, 메신저 프로그램 대화 창 화면 상단 부분에서 시작되는 하향 방향으로의 터치 앤 드래그 입력, 메신저 프로그램 대화 창 화면 하단 부분에서 시작되는 상향 방향으로의 터치 앤 드래그 입력, 또는 메시지 표시 부분에서 감지되는 일 방향으로의 스와이프 입력 등 다양한 기 설정된 조건에 해당하는 입력이 있을 수 있다.At this time, the touch and drag input in the upward direction is preferably detected starting from the point where the input field 505 is displayed to distinguish from the vertical scroll input, but the present invention is not limited thereto. Various preset conditions, such as touch-and-drag input in the downward direction starting from, touch-and-drag input in the upward direction starting at the bottom of the messenger program dialog window, or swipe input in one direction detected in the message display area. There may be an input corresponding to.

이때, 단말(10)은 기 설정된 조건에 해당하는 사용자 입력이 감지되면, 도 6b에 도시된 바와 같이 음성 메시지 처리 영역(507)이 표시되도록 제어할 수 있다. 상기 음성 메시지 처리 영역(507)은 반투명한 바(bar)의 형태로 대화 창 화면 일 영역, 바람직하게는 대화 창 화면 하단 부분 인근에 표시될 수 있다. 또한, 상기 음성 메시지 처리 영역(507)은 일정 시간 이상 사용자 입력 유지가 필요함을 알리는 아이콘(510)이 표시될 수 있다. 이 아이콘은 아직 음성 메시지를 생성할 수 없으며, 음성 메시지를 생성하기 위해서는 일정 시간 이상 사용자 입력이 유지되어야 함을 알리는 아이콘이 될 수 있다. 예를 들어, 상기 사용자 입력이 상향 방향으로의 터치 앤 드래그 입력일 경우, 상향 방향으로 더 드래그하라는 의미가 될 수 있다. In this case, when a user input corresponding to a preset condition is detected, the terminal 10 may control the voice message processing area 507 to be displayed as illustrated in FIG. 6B. The voice message processing area 507 may be displayed in the form of a translucent bar near one area of the chat window screen, preferably near the bottom portion of the chat window screen. In addition, the voice message processing area 507 may display an icon 510 indicating that the user input needs to be maintained for a predetermined time or more. This icon may not be able to generate a voice message yet, and may be an icon indicating that user input should be maintained for a predetermined time to generate a voice message. For example, when the user input is a touch and drag input in an upward direction, it may mean that the user is dragged further in an upward direction.

이때, 사용자가 상향 방향으로 더 드래그하게 되면, 도 6c에 도시된 바와 같이, 상기 음성 메시지 처리 영역(507)이 더 넓혀져 표시될 수 있다. 이때 상기 음성 메시지 처리 영역(507)은 정해진 범위를 넘지 않도록 설정될 수 있다. 예컨대, 메시지 표시 부분의 1/10 영역 이상을 넘지 않도록 설정될 수 있으며, 최대 범위에 도달하면, 단말(10)은 더 이상 음성 메시지 처리 영역(507)이 넓혀지지 않도록 제어할 수 있다.In this case, when the user further drags upward, as illustrated in FIG. 6C, the voice message processing region 507 may be wider and displayed. In this case, the voice message processing region 507 may be set not to exceed a predetermined range. For example, it may be set not to exceed 1/10 or more of the message display portion, and when the maximum range is reached, the terminal 10 may control the voice message processing region 507 to no longer be widened.

음성 메시지 처리 영역(507)이 최대 범위에 도달한 상태에서, 사용자 입력이 지속되면, 상기 음성 메시지 처리 영역(507)은 음성 녹음이 진행되고 있음을 알리는 아이콘, 음성 녹음 진행 상태를 알리는 음성 녹음 진행 상태 바(bar)가 표시될 수 있다. 이에 대해서는 도 9를 참조하여 설명하도록 한다.When the user input is continued while the voice message processing area 507 reaches the maximum range, the voice message processing area 507 may display an icon indicating that voice recording is in progress, and voice recording progress indicating a voice recording progress state. A status bar may be displayed. This will be described with reference to FIG. 9.

더하여, 본 발명의 일 실시 예에서는 음성 메시지 처리 영역(507)이 기 설정된 최대 범위를 넘지 않는 것을 예로 들어 설명하였으나, 이에 한정되는 것은 아니며, 사용자 입력에 따라 그 영역이 유동적으로 조절될 수 있다. 다시 말해, 사용자 입력, 예컨대 상향 방향으로의 터치 앤 드래그 입력에서, 드래그 입력에 따라 상기 음성 메시지 처리 영역(507)이 넓혀지거나 좁혀질 수 있다. 이후, 드래그된 마지막 지점에서 일정 시간 이상 유지되면, 음성 메시지 처리 영역(507)은 음성 녹음이 진행되고 있음을 알리는 아이콘, 음성 녹음 진행 상태 바가 표시될 수 있다.In addition, in an embodiment of the present invention, the voice message processing area 507 is described as an example that does not exceed a preset maximum range, but the present invention is not limited thereto, and the area may be flexibly adjusted according to a user input. In other words, in a user input, for example, a touch and drag input in an upward direction, the voice message processing area 507 may be widened or narrowed according to a drag input. Thereafter, when the dragged last point is maintained for a predetermined time or more, the voice message processing area 507 may display an icon indicating that voice recording is in progress and a voice recording progress bar.

또한, 상기 음성 메시지 처리 영역(507)은 키패드가 활성화된 상태에서도 사용자의 조작에 따라 표시될 수 있다. 즉, 도 7a에 도시된 바와 같이, 메신저 프로그램의 대화 창 화면에서 키패드가 활성화된 상태에서, 소정 영역을 시작으로 상향 방향으로의 사용자 입력에 따라, 도 7b에 도시된 바와 같이 음성 메시지 처리 영역(507)이 표시될 수 있다. In addition, the voice message processing area 507 may be displayed according to a user's operation even when the keypad is activated. That is, as shown in FIG. 7A, when the keypad is activated on the chat window screen of the messenger program, the voice message processing area (as shown in FIG. 7B) according to a user input in a upward direction starting from a predetermined area (see FIG. 7B). 507 may be displayed.

또한, 도 8a에 도시된 바와 같이, 메신저 프로그램 대화 창 화면 일 영역에 음성 메시지 생성을 위한 지시 바(bar, 508)가 표시되도록 제어한 후, 사용자로부터 상기 지시 바(508) 인근을 시작으로 일 방향으로의 사용자 입력, 예컨대, 왼쪽으로의 스와이프 입력이 감지되면, 단말(10)은 도 8b에 도시된 바와 같이, 대화 창 화면을 일 방향, 즉, 왼쪽으로 이동하고, 음성 메시지 처리 영역(507)이 사용자 입력에 따라 당겨져 표시되는 듯이 왼쪽으로 이동되어 표시되게 된다. 이때, 대화 창 화면은 일정 영역까지만 이동될 수 있으며, 상기 대화 창 화면이 이동된 부분만큼 음성 메시지 처리 영역(507)이 표시될 수 있다. In addition, as shown in FIG. 8A, after controlling to display an instruction bar 508 for generating a voice message in a region of a messenger program conversation window screen, the user starts from the vicinity of the instruction bar 508 from a user. When a user input in a direction, for example, a swipe input to the left, is detected, the terminal 10 moves the chat window screen to one direction, that is, to the left, as shown in FIG. 8B, and the voice message processing area ( 507 is moved to the left and displayed as if pulled and displayed according to a user input. In this case, the chat window screen may be moved only up to a certain area, and the voice message processing area 507 may be displayed as much as the portion where the chat window screen is moved.

이 경우에도, 상기 음성 메시지 처리 영역(507)은 일정 시간 이상 사용자 입력 유지가 필요함을 알리는 아이콘(510)이 표시될 수 있다. 이 아이콘은 아직 음성 메시지를 생성할 수 없으며, 음성 메시지를 생성하기 위해서는 일정 시간 이상 사용자 입력이 유지되어야 함을 알리는 아이콘이 될 수 있다. 다시 말해, 왼쪽으로 더 드래그되어야 함을 알리는 아이콘이 될 수 있다. In this case, the voice message processing area 507 may display an icon 510 indicating that the user input needs to be maintained for a predetermined time or more. This icon may not be able to generate a voice message yet, and may be an icon indicating that user input should be maintained for a predetermined time to generate a voice message. In other words, it can be an icon indicating that it should be further dragged to the left.

이후, 단말(10)은 일정 시간 이상 사용자 입력이 유지될 경우, 도 8c에 도시된 바와 같이, 음성 녹음이 시작되었음을 알리는 아이콘(530)이 표시될 수 있으며, 그 주변에 스피커 이미지가 시각적으로 표시될 수도 있다. 이후, 사용자 입력이 유지되는 동안 단말(10)은 음성 녹음을 진행하게 되며, 도 8d에 도시된 바와 같이, 최대 녹음 가능 시간 정보를 시작으로 카운트다운(countdown)되며 표시되는 아이콘(531)이 표시될 수 있다. Then, when the user input is maintained for a predetermined time or more, the terminal 10 may display an icon 530 indicating that voice recording has started, as shown in FIG. 8C, and a speaker image is visually displayed around the terminal 10. May be Subsequently, while the user input is maintained, the terminal 10 proceeds with voice recording, and as shown in FIG. 8D, the icon 531 displayed is counted down and displayed starting from the maximum recordable time information. Can be.

더하여, 다양한 방식으로 음성 메시지 처리 영역(507)이 표시될 수 있다.In addition, the voice message processing region 507 can be displayed in various ways.

상술한 바와 같이 음성 메시지 처리 영역(507)이 표시된 상태에서, 사용자 입력이 일정 시간 이상 유지되면, 단말(10)은 음성 녹음을 진행하여 음성 메시지를 생성하게 된다. 음성 녹음이 진행되는 동안에도, 사용자 입력은 지속되는 것이 바람직하다.As described above, when the user input is maintained for a predetermined time or more while the voice message processing area 507 is displayed, the terminal 10 performs voice recording to generate a voice message. While voice recording is in progress, the user input is preferably maintained.

또한, 상기 음성 메시지 처리 영역(507)은 도 9a에 도시된 바와 같이, 음성 메시지 처리 영역(507)은 음성 녹음이 진행되고 있음을 알리는 아이콘(512), 음성 녹음 진행 상태를 알리는 음성 녹음 진행 상태 바(bar)가 표시될 수 있다.In addition, the voice message processing area 507 is shown in Figure 9a, the voice message processing area 507 is an icon 512 indicating that voice recording is in progress, the voice recording progress status indicating the voice recording progress status A bar may be displayed.

상기 음성 녹음 진행 상태를 알리는 음성 녹음 진행 상태 바(bar)는 녹음 진행 상태 정보를 시각적으로 표시하는 영역(516)과 함께, 현재까지 녹음된 시간에 대한 정보인 녹음 진행 상태 정보(509), 총 녹음 가능한 시간에 대한 정보인 최대 녹음 가능 시간 정보(511)가 표시될 수 있다.The voice recording progress bar for notifying the voice recording progress state includes an area 516 for visually displaying the recording progress state information, and recording progress state information 509, which is information on time recorded so far, in total. The maximum recordable time information 511 which is information on the recordable time may be displayed.

이때도 마찬가지로 사용자는 기 설정된 사용자 입력을 유지하고 있는 상태로, 음성 녹음이 진행되고 있는 동안, 단말(10)은 상기 아이콘(512)을 통해 사용자의 음성의 크기에 대응하는 파장(524)이 동적으로 표시되도록 제어할 수 있다. In this case, while the user maintains a preset user input, while the voice recording is in progress, the terminal 10 dynamically changes the wavelength 524 corresponding to the size of the user's voice through the icon 512. It can be controlled to be displayed as.

이러한 파장은 도 9b에서 525가 지시하는 바와 같이, 다양한 형태로 표시될 수 있다. These wavelengths can be represented in various forms, as indicated by 525 in FIG. 9B.

또한, 본 발명의 실시 예에 따른 단말(10)은 상기 음성 메시지 처리 영역(507)이 표시된 이후에, 기 설정된 조건에 해당하는 사용자 입력이 일정 시간 이상 지속되지 않은 상태에서, 상기 사용자 입력이 종료되면, 도 10에 도시된 바와 같이, 음성 메시지 생성 실패 메시지(513)가 표시되도록 제어할 수 있다. In addition, after the voice message processing area 507 is displayed, the terminal 10 according to an exemplary embodiment of the present invention terminates the user input in a state in which a user input corresponding to a preset condition has not lasted for a predetermined time or more. 10, the voice message generation failure message 513 may be displayed.

반면, 단말(10)은 음성 메시지 처리 영역(507)이 표시된 이후에, 기 설정된 조건에 해당하는 사용자 입력이 일정 시간 이상 지속된 상태에서, 사용자 입력이 종료되면, 음성 메시지를 생성하고, 도 11에 도시된 바와 같이, 음성 메시지 처리 영역(507)을 통해 생성된 음성 메시지의 분석이 진행되고 있음을 알리는 아이콘(514)이 표시되도록 제어할 수 있다. On the other hand, after the voice message processing area 507 is displayed, the terminal 10 generates a voice message when the user input is terminated while the user input corresponding to the preset condition is maintained for a predetermined time or more, and FIG. 11. As illustrated in FIG. 3, the voice message processing area 507 may be controlled to display an icon 514 indicating that analysis of a voice message generated is in progress.

이때, 바람직하게는 515이 지시하는 바와 같이, 총 녹음된 시간 정보가 표시될 수 있으며, 517이 지시하는 바와 같이, 분석 진행 상태를 알리는 영역(517)이 표시될 수 있으며, 518이 지시하는 바와 같이, 음성 메시지의 생성을 취소하는 메뉴 버튼이 표시될 수 있다.In this case, preferably, as indicated by 515, the total recorded time information may be displayed, and as indicated by 517, an area 517 indicating an analysis progress state may be displayed, as indicated by 518. Likewise, a menu button for canceling generation of a voice message may be displayed.

여기서, 음성 메시지의 분석이란 생성된 음성 메시지에서 소정의 키워드를 포함하는 문자 메시지를 생성하는 과정이 될 수 있다. Here, the analysis of the voice message may be a process of generating a text message including a predetermined keyword in the generated voice message.

예컨대, 생성된 음성 메시지가 '오늘 약속 장소는 강남역 치킨집이야'일 경우, 단말(10)은 상기 음성 메시지에서 기 설정된 조건(명사만 추출)에 해당하는 키워드만을 포함하여 문자 메시지, 즉 '오늘 약속 장소 강남역 치킨집'을 생성할 수 있으며, 생성된 문자 메시지와 음성 메시지를 상기 대화 창 화면을 통해 연결된 상대방 단말로 전송할 수 있다. For example, when the generated voice message is 'Today's appointment place is Gangnam Station Chicken House', the terminal 10 includes only a keyword corresponding to a preset condition (only a noun is extracted) in the voice message, that is, 'today' Appointment place Gangnam Station Chicken House 'can be created, and the generated text message and voice message can be transmitted to the counterpart terminal connected through the chat window screen.

즉, 도 12에 도시된 바와 같이, 상대방 단말은 음성 메시지에 대응하는 아이콘과 함께 상기 음성 메시지를 기초로 생성된 문자 메시지가 함께 표시될 수 있다. That is, as illustrated in FIG. 12, the counterpart terminal may display a text message generated based on the voice message together with an icon corresponding to the voice message.

또한, 도 13의 523이 지시하는 바와 같이, 음성 메시지를 텍스트로 변환하고, 변환된 텍스트를 모두 포함하는 문자 메시지를 생성하되, 기 설정된 조건에 해당되는 키워드(예컨대, 명사)에 기 설정된 효과(예컨대, 밑줄)를 부여하여 생성된 문자 메시지를 표시할 수 있다.In addition, as indicated by 523 of FIG. 13, the voice message is converted into text, and a text message including all the converted texts is generated, and a predetermined effect is applied to a keyword (eg, a noun) corresponding to a preset condition. For example, an underlined text message may be displayed.

이때, 상대방 단말의 사용자는 상기 음성 메시지에 대응하는 아이콘을 선택 입력함으로써, 음성 메시지를 출력하여 확인할 수 있다. 예컨대, 도 13에 도시된 523이 지시하는 메시지에서 음성 메시지에 대응하는 아이콘을 사용자가 선택 입력하면, 도 14a에 도시된 바와 같이 상기 음성 메시지를 재생할 수 있는 창(532)이 팝업되어 표시될 수 있다.In this case, the user of the counterpart terminal selects and inputs an icon corresponding to the voice message, thereby outputting and confirming the voice message. For example, when a user selects and inputs an icon corresponding to a voice message in the message indicated by 523 illustrated in FIG. 13, a window 532 for playing the voice message may be popped up and displayed as shown in FIG. 14A. have.

상기 음성 메시지를 재생할 수 있는 창(532)은 재생 정보를 시각적으로 확인할 수 있는 진행 바(533)를 포함하여 구성될 수 있으며, 음성 메시지 재생을 취소할 수 있는 메뉴 버튼(534), 음성 메시지 재생을 위한 메뉴 버튼(535), 하나 이상의 다른 사용자에게 음성 메시지를 전송할 수 있는 전송 메뉴 버튼(536) 중 어느 하나를 포함하여 구성될 수 있다. 이때, 상기 전송 메뉴 버튼(536)은 상기 음성 메시지가 어느 하나의 단말로부터 수신된 음성 메시지일 경우, 비활성화 상태로 표시되거나 표시되지 않을 수 있으며, 사용자가 직접 생성한 음성 메시지일 경우에만 활성화되거나 표시될 수 있다.The window 532 for reproducing the voice message may include a progress bar 533 for visually confirming the reproducing information, a menu button 534 for canceling reproducing the voice message, and reproducing the voice message. And a menu button 535 for transmitting a menu button 536 for transmitting a voice message to one or more other users. In this case, when the voice message is a voice message received from one of the terminals, the transmission menu button 536 may not be displayed or displayed in an inactive state, and is activated or displayed only when the voice message is generated by the user. Can be.

또한, 사용자가 음성 메시지 재생을 위한 메뉴 버튼(535)을 선택 입력하면, 도 14b에 도시된 바와 같이 상기 메뉴 버튼은 음성 메시지 정지를 위한 메뉴 버튼(535)로 아이콘이 변경될 수 있으며, 음성 메시지 재생이 진행되는 동안 진행 바(533)를 통해 재생 정보를 시각적으로 확인할 수 있다.In addition, when a user selects and inputs a menu button 535 for playing a voice message, as shown in FIG. 14B, the icon may be changed to a menu button 535 for stopping a voice message. While the playback is in progress, the playback information may be visually confirmed through the progress bar 533.

더하여, 사용자는 상술한 바와 같은 음성 메시지를 출력하지 않더라도, 상기 음성 메시지와 함께 표시되는 문자 메시지를 기초로 상기 음성 메시지를 용이하게 확인할 수 있다.In addition, the user can easily check the voice message based on the text message displayed together with the voice message even without outputting the voice message as described above.

이러한 음성 메시지 및 문자 메시지는 상대방 단말은 물론 사용자의 단말(10)에서도 동시에 표시될 수 있다. The voice message and the text message may be simultaneously displayed on the counterpart terminal as well as the user terminal 10.

이와 같이, 본 발명의 실시 예에 따른 음성 메시지 생성 방법, 이를 위한 장치 및 시스템에 의하면, 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 음성 메시지 처리 영역이 표시되어 일정 시간 동안 유지되면, 음성 녹음을 진행하여 음성 메시지를 생성하고, 상기 대화 창 화면을 통해 연결된 하나 이상의 상대방 단말로 전송할 수 있게 된다. As described above, according to the method for generating a voice message, an apparatus and a system therefor according to the present invention, when the voice message processing area is displayed and maintained for a predetermined time while the chat window screen of the messenger program is being displayed, By recording, a voice message may be generated and transmitted to one or more counterpart terminals connected through the chat window screen.

이를 통해, 메신저 프로그램을 이용하는 사용자는 보다 간편하고 직관적인 인터페이스를 통해 음성 메시지를 생성할 수 있다는 우수한 효과는 물론 새로운 메신저 프로그램의 UX(User eXperience)를 제공할 수 있게 된다.Through this, a user using a messenger program can provide a superior effect of generating a voice message through a simpler and more intuitive interface as well as provide UX (User eXperience) of a new messenger program.

아울러, 본 발명의 음성 메시지 생성 방법, 이를 위한 장치 및 시스템에 의하면, 생성된 음성 메시지에서 기 설정된 조건을 만족하는 키워드를 추출한 후, 추출된 키워드를 포함하는 문자 메시지를 생성하여 상대방 단말로 전송함으로써, 사용자는 물론 상기 음성 메시지 및 문자 메시지를 수신한 상대방은 음성 메시지의 내용을 보다 쉽게 파악할 수 있다는 효과가 있다. In addition, according to the voice message generating method, apparatus and system therefor, extracting a keyword satisfying a predetermined condition from the generated voice message, and then generating a text message including the extracted keyword and transmitting it to the counterpart terminal. In addition, the user as well as the counterpart receiving the voice message and the text message can more easily grasp the contents of the voice message.

아울러, 도 6 내지 도 14를 참조하여 설명한 본 발명의 일 실시 예에 따른 음성 메시지 생성 방법은 단말(10)이 음성 메시지를 생성함은 물론 상기 음성 메시지를 기초로 문자 메시지를 생성하는 것을 예로 들어 설명하였으나, 단말(10)은 음성 메시지만을 생성하고, 생성된 음성 메시지를 서비스 장치(20)로 전송하면, 서비스 장치(20)가 상기 음성 메시지를 기초로 문자 메시지를 생성할 수도 있다. In addition, the voice message generating method according to an embodiment of the present invention described with reference to FIGS. 6 to 14 is an example in which the terminal 10 not only generates a voice message but also generates a text message based on the voice message. Although described, the terminal 10 generates only a voice message, and transmits the generated voice message to the service device 20, the service device 20 may generate a text message based on the voice message.

이상으로 본 발명의 실시 예에 따른 음성 메시지 생성 방법에 대해 설명하였다.The voice message generating method according to the embodiment of the present invention has been described above.

상술한 바와 같은 본 발명의 음성 메시지 생성 방법은 컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체의 형태로 제공될 수도 있다. 이때, 컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체는, 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리, EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM)과 같은 반도체 메모리를 포함한다. 프로세서와 메모리는 특수 목적의 논리 회로에 의해 보충되거나, 그것에 통합될 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The voice message generating method of the present invention as described above may be provided in the form of a computer readable medium suitable for storing computer program instructions and data. At this time, a computer-readable medium suitable for storing computer program instructions and data includes, for example, a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, a compact disk read only memory (CD-ROM) Optical media such as a DVD (Digital Video Disk), a magneto-optical medium such as a floppy disk, and a ROM (Read Only Memory), a RAM , Random Access Memory), flash memory, EPROM (Erasable Programmable ROM), and EEPROM (Electrically Erasable Programmable ROM). The processor and memory may be supplemented by, or incorporated in, special purpose logic circuits. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.While the specification contains a number of specific implementation details, it should be understood that they are not to be construed as limitations on the scope of any invention or claim, but rather on the description of features that may be specific to a particular embodiment of a particular invention Should be understood. Certain features described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment may also be implemented in multiple embodiments, either individually or in any suitable subcombination. Further, although the features may operate in a particular combination and may be initially described as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, Or a variant of a subcombination.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a particular order, it should be understood that such operations must be performed in that particular order or sequential order shown to achieve the desired result, or that all illustrated operations should be performed. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of the various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems will generally be integrated together into a single software product or packaged into multiple software products It should be understood.

한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.It should be noted that the embodiments of the present invention disclosed in the present specification and drawings are only illustrative of specific examples for the purpose of understanding and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

본 발명은 메신저 프로그램 내에서의 음성 메시지 생성 방법에 관한 것으로서, 더욱 상세하게는 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 음성 메시지 처리 영역이 표시되어 일정 시간 동안 유지되면, 음성 녹음을 진행하여 음성 메시지를 생성함으로써, 보다 간편하게 음성 메시지를 생성하고, 생성된 음성 메시지를 상기 대화 창 화면을 통해 연결된 하나 이상의 상대방 단말로 전송할 수 있는 음성 메시지 생성 방법, 이를 위한 장치 및 시스템에 관한 것이다.The present invention relates to a method of generating a voice message in a messenger program. More particularly, when a voice message processing area is displayed and maintained for a predetermined time while a chat window screen of a messenger program is displayed, the voice recording is performed. The present invention relates to a voice message generating method and apparatus and system for generating a voice message, and to easily generate a voice message and to transmit the generated voice message to one or more counterpart terminals connected through the chat window screen.

본 발명에 의하면, 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 음성 메시지 처리 영역이 표시되어 일정 시간 동안 유지되면, 음성 녹음을 진행하여 음성 메시지를 생성하고, 상기 대화 창 화면을 통해 연결된 하나 이상의 상대방 단말로 전송함으로써, 메신저 프로그램을 이용하는 사용자는 보다 간편하고 직관적인 인터페이스를 통해 음성 메시지를 생성하고, 상대방 단말로 전송할 수 있다는 우수한 효과가 있으며, 이를 통해 메신저 서비스 산업의 발전에 이바지할 수 있게 된다.According to the present invention, if the voice message processing area is displayed and maintained for a predetermined time while the chat window screen of the messenger program is being displayed, voice recording is performed by generating a voice message and connected through the chat window screen. By transmitting to the counterpart terminal, the user using the messenger program can generate a voice message through a simpler and more intuitive interface, and transmit the voice message to the counterpart terminal, thereby contributing to the development of the messenger service industry. do.

더불어, 본 발명은 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있다.In addition, since the present invention is not only possible to be marketed or operated, but also can be practically and practically carried out, it is industrially applicable.

10: 단말 11: 통신부 12: 입력부
13: 제어부 13a: 메신저 제어 모듈 13b: 음성 처리 모듈
14: 저장부 15: 출력부 16: 음성 인식부
20: 서비스 장치 21: 서비스 통신부 22: 서비스 제어부
22a: 메신저 관리 모듈 22b: 음성 처리 모듈 23: 서비스 저장부
30: 통신망 100: 메신저 시스템
10: terminal 11: communication unit 12: input unit
13: control unit 13a: messenger control module 13b: voice processing module
14: storage unit 15: output unit 16: voice recognition unit
20: service apparatus 21: service communication unit 22:
22a: messenger management module 22b: voice processing module 23: service storage unit
30: communication network 100: messenger system

Claims (24)

적어도 하나의 상대방 단말과 인스턴트 메시지 송수신이 가능하도록 구성된 메신저 프로그램 실행 중에 발생되는 다양한 정보를 출력하는 출력부;
사용자 입력을 지원하는 입력부;
음성 녹음을 진행하여 음성 메시지를 생성하는 음성 인식부; 및
상기 출력부, 상기 입력부 및 상기 음성 인식부와 기능적으로 연결되는 제어부를 포함하되,
상기 제어부는 상기 출력부를 통해 상기 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 상기 입력부를 통해 기 설정된 사용자 입력이 감지되면 음성 메시지 처리 영역이 상기 출력부를 통해 표시되도록 제어한 후, 상기 입력부를 통해 사용자 입력이 유지되는 일정 시간 동안 상기 표시된 음성 메시지 처리 영역이 상기 일정 시간 동안 유지되도록 상기 출력부를 제어하며, 상기 일정 시간 동안 음성 녹음이 진행되도록 상기 음성 인식부를 제어하는 것을 특징으로 하는 단말.
An output unit configured to output various information generated during execution of a messenger program configured to transmit and receive instant messages with at least one counterpart terminal;
An input unit for supporting user input;
A voice recognition unit for generating a voice message by performing voice recording; And
It includes a control unit that is functionally connected to the output unit, the input unit and the speech recognition unit,
The controller controls the voice message processing area to be displayed through the output unit when a preset user input is detected through the input unit while the chat window screen of the messenger program is displayed through the output unit. And controlling the output unit to maintain the displayed voice message processing area for the predetermined time for a predetermined time through which the user input is maintained, and to control the voice recognition unit to perform voice recording for the predetermined time.
삭제delete 제1항에 있어서,
상기 기 설정된 조건에 해당하는 사용자 입력은
상기 대화 창 화면에서 터치 또는 일 방향으로의 스와이프(swipe), 터치 앤 드래그(touch & drag), 제스처, 시선 이동, 쉐이크(shake) 중 어느 하나인 것을 특징으로 하는 단말.
The method of claim 1,
The user input corresponding to the preset condition
Terminals, characterized in that any one of the touch or swipe in one direction, touch and drag, gestures, eye movements, shake in the chat window screen.
제1항에 있어서,
상기 제어부는
상기 사용자 입력이 종료되면, 상기 음성 녹음을 종료하여 음성 메시지가 생성되도록 상기 음성 인식부를 제어하는 것을 특징으로 하는 단말.
The method of claim 1,
The control unit
And when the user input ends, controlling the voice recognition unit to end the voice recording to generate a voice message.
제4항에 있어서,
하나 이상의 상대방 단말과 상기 메신저 프로그램을 통해 발생되는 다양한 정보를 송수신하는 통신부;
를 더 포함하며,
상기 제어부는
상기 음성 인식부를 통해 생성된 음성 메시지를 상기 통신부를 통해 상기 대화 창 화면을 통해 연결된 상대방 단말로 전송되도록 제어하는 것을 특징으로 하는 단말.
5. The method of claim 4,
Communication unit for transmitting and receiving a variety of information generated through the messenger program with one or more counterpart terminal;
Further comprising:
The control unit
And controlling the voice message generated by the voice recognition unit to be transmitted to the counterpart terminal connected through the chat window screen through the communication unit.
제1항에 있어서,
상기 제어부는
상기 음성 메시지 처리 영역이 상기 대화 창 화면 내 일정 영역에 표시되거나, 상기 대화 창 화면이 일 방향으로 이동되어 상기 이동된 대화 창 화면과 동시에 표시되거나, 상기 대화 창 화면에서 전환되어 상기 음성 메시지 처리 영역만이 상기 출력부를 통해 표시되도록 제어하는 것을 특징으로 하는 단말.
The method of claim 1,
The control unit
The voice message processing area is displayed on a certain area within the chat window screen, or the chat window screen is moved in one direction and displayed simultaneously with the moved chat window screen, or is switched on the chat window screen to change the voice message processing area. Terminal only characterized in that the control to be displayed through the output unit.
제1항에 있어서,
상기 제어부는
상기 음성 녹음이 진행되는 동안 상기 음성 메시지 처리 영역을 통해 음성 녹음이 진행되고 있음을 알리는 아이콘, 음성 녹음 진행 상태 바(bar) 중 적어도 어느 하나가 표시되도록 제어하는 것을 특징으로 하는 단말.
The method of claim 1,
The control unit
And at least one of an icon indicating that voice recording is in progress and a voice recording progress bar are displayed through the voice message processing area while the voice recording is in progress.
제7항에 있어서,
상기 음성 녹음 진행 상태 바는 녹음 진행 상태 정보, 녹음 진행 시간 정보 및 최대 녹음 가능 시간 정보 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 단말.
The method of claim 7, wherein
The voice recording progress bar includes at least one of recording progress status information, recording progress time information, and maximum recordable time information.
제4항에 있어서,
상기 제어부는
상기 음성 녹음이 종료되면, 상기 음성 인식부를 통해 생성된 음성 메시지에서 소정의 키워드를 포함하는 문자 메시지를 생성하는 것을 특징으로 하는 단말.
5. The method of claim 4,
The control unit
When the voice recording is finished, the terminal characterized in that for generating a text message containing a predetermined keyword from the voice message generated by the voice recognition unit.
제9항에 있어서,
상기 제어부는
상기 문자 메시지가 생성되는 동안에, 상기 음성 메시지 처리 영역을 통해 상기 음성 메시지의 분석이 진행되고 있음을 알리는 아이콘이 표시되도록 제어하는 것을 특징으로 하는 단말.
10. The method of claim 9,
The control unit
While the text message is being generated, the terminal is controlled to display an icon indicating that the analysis of the voice message is in progress through the voice message processing area.
제9항에 있어서,
상기 제어부는
상기 문자 메시지 생성이 완료되면, 상기 음성 메시지 처리 영역이 표시되지 않도록 제어하는 것을 특징으로 하는 단말.
10. The method of claim 9,
The control unit
When the text message generation is complete, the terminal characterized in that the control to not display the voice message processing area.
제4항에 있어서,
상기 제어부는
상기 사용자 입력이 일정 시간 이상 지속되지 않은 상태에서, 상기 사용자 입력이 종료되면, 상기 출력부를 통해 음성 메시지 생성 실패 메시지가 출력되도록 제어하는 것을 특징으로 하는 단말.
5. The method of claim 4,
The control unit
And a terminal in which the voice message generation failure message is output through the output unit when the user input is terminated while the user input is not maintained for a predetermined time or more.
하나 이상의 단말과 메신저 프로그램을 통해 다양한 정보를 송수신하는 서비스 통신부; 및
상기 서비스 통신부와 기능적으로 연결되며, 상기 서비스 통신부를 통해 상기 메신저 프로그램의 대화 창 화면이 표시되고 있는 어느 하나의 단말로부터 음성 메시지 처리 영역 표시 정보가 수신되면, 상기 서비스 통신부를 통해 상기 단말로 음성 녹음 요청 정보를 전송하고, 상기 서비스 통신부를 통해 상기 단말로부터 상기 음성 메시지 처리 영역 비활성 정보가 수신되면, 상기 단말로 상기 서비스 통신부를 음성 녹음 종료 요청 정보가 전송되도록 제어하는 서비스 제어부;
를 포함하고,
상기 음성 메시지 처리 영역 표시 정보는 상기 단말에 입력된 기 설정된 사용자 입력에 의하여 전송되며, 상기 음성 메시지 처리 영역 비활성 정보는 상기 사용자의 입력이 종료됨에 따라 전송되는 것을 특징으로 하는 서비스 장치.
A service communication unit for transmitting and receiving various information through one or more terminals and a messenger program; And
When the voice message processing area display information is received from any one terminal functionally connected to the service communication unit and the chat window screen of the messenger program is displayed through the service communication unit, voice recording is performed to the terminal through the service communication unit. A service control unit which transmits request information and controls to transmit voice recording end request information to the terminal when the voice message processing region inactive information is received from the terminal through the service communication unit;
Lt; / RTI >
The voice message processing region display information is transmitted by a preset user input input to the terminal, and the voice message processing region inactive information is transmitted when the input of the user is terminated.
제13항에 있어서,
상기 서비스 제어부는
상기 음성 녹음 종료 요청 정보를 상기 단말로 전송한 이후에, 상기 단말로부터 상기 서비스 통신부를 통해 생성된 음성 메시지가 수신되면, 상기 서비스 통신부를 통해 상기 수신된 음성 메시지를 상기 대화 창 화면을 통해 연결된 상대방 단말로 전송되도록 제어하는 것을 특징으로 하는 서비스 장치.
14. The method of claim 13,
The service control unit
After the voice recording end request information is transmitted to the terminal, when a voice message generated through the service communication unit is received from the terminal, the other party connected the received voice message through the conversation window screen through the service communication unit. The service device characterized in that the control to be transmitted to the terminal.
제14항에 있어서,
상기 서비스 제어부는
상기 단말로부터 수신된 음성 메시지를 인식하여 텍스트로 변환하고, 상기 변환된 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출한 후 상기 추출된 키워드를 포함하는 문자 메시지를 생성한 후, 상기 수신된 음성 메시지 및 상기 생성된 문자 메시지를 상기 서비스 통신부를 통해 상기 상대방 단말로 전송되도록 제어하는 것을 특징으로 하는 서비스 장치.
15. The method of claim 14,
The service control unit
The voice message received from the terminal is recognized and converted into text, a keyword satisfying a predetermined condition is extracted from the converted text, a text message including the extracted keyword is generated, and the received voice message and And controlling the generated text message to be transmitted to the counterpart terminal through the service communication unit.
제15항에 있어서,
상기 기 설정된 조건은
명사, 숫자, URL(Uniform Resource Locator)에 해당하는 키워드를 추출하도록 설정되거나, 음성의 크기를 분석하여, 음성의 크기가 일정 수준 이상인 키워드를 추출하도록 설정된 조건인 것을 특징으로 하는 서비스 장치.
16. The method of claim 15,
The preset condition is
And a condition set to extract a keyword corresponding to a noun, a number, and a uniform resource locator (URL), or to analyze a volume of a voice to extract a keyword having a predetermined size or more.
제15항에 있어서,
상기 서비스 제어부는
상기 추출된 키워드만을 포함하는 문자 메시지를 생성하는 것을 특징으로 하는 서비스 장치.
16. The method of claim 15,
The service control unit
And generates a text message including only the extracted keyword.
제15항에 있어서,
상기 서비스 제어부는
상기 음성 메시지를 인식하여 텍스트로 변환하고, 상기 변환된 텍스트를 포함하는 문자 메시지를 생성하되, 상기 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출하고, 추출된 상기 키워드에 기 설정된 효과가 부여된 문자 메시지를 생성하는 것을 특징으로 하는 서비스 장치.
16. The method of claim 15,
The service control unit
Recognize the voice message, convert it into text, generate a text message including the converted text, extract a keyword that satisfies a predetermined condition from the text, and give a predetermined effect to the extracted keyword. Generating a message.
적어도 하나의 상대방 단말과 인스턴트 메시지(instant message) 송수신이 가능하도록 구성된 메신저 프로그램의 대화 창 화면이 표시되고 있는 상태에서, 기 설정된 사용자 입력이 감지되면 음성 메시지 처리 영역을 표시한 후, 상기 사용자 입력이 유지되는 일정 시간 동안 상기 표시된 음성 메시지 처리 영역을 상기 일정 시간 동안 유지하고, 상기 일정 시간 동안 음성 녹음 진행하여 음성 메시지를 생성하고, 생성된 음성 메시지를 적어도 하나의 상대방 단말로 전송하는 단말; 및
상기 단말로부터 상기 상대방 단말로 전송되는 음성 메시지가 수신되면, 상기 음성 메시지를 통해 소정의 키워드를 포함하는 문자 메시지를 생성하고, 상기 생성된 문자 메시지 및 상기 음성 메시지를 상기 상대방 단말로 전송하는 서비스 장치;
를 포함하는 것을 특징으로 하는 메신저 시스템.
When a chat window screen of a messenger program configured to transmit and receive instant messages with at least one counterpart terminal is being displayed, if a preset user input is detected, a voice message processing area is displayed and then the user input is displayed. A terminal that maintains the displayed voice message processing area for the predetermined time for a predetermined time, performs voice recording for the predetermined time to generate a voice message, and transmits the generated voice message to at least one counterpart terminal; And
A service providing unit for generating a text message including a predetermined keyword through the voice message when the voice message transmitted from the terminal to the counterpart terminal is received and transmitting the generated text message and the voice message to the counterpart terminal, ;
The messenger system comprising:
단말이 적어도 하나의 상대방 단말과 인스턴트 메시지(instant message) 송수신이 가능하도록 구성된 메신저 프로그램의 대화 창 화면을 표시하는 단계;
상기 단말이 기 설정된 사용자 입력이 감지되면, 음성 메시지 처리 영역을 표시하는 단계; 및
상기 단말이 상기 음성 메시지 처리 영역이 표시된 상태에서, 상기 단말이 상기 사용자 입력이 유지되는 일정 시간 동안 상기 표시된 음성 메시지 처리 영역을 유지하며, 음성 녹음을 진행하는 단계;
를 포함하는 것을 특징으로 하는 음성 메시지 생성 방법.
Displaying a chat window screen of a messenger program configured to enable a terminal to transmit and receive an instant message with at least one counterpart terminal;
Displaying, by the terminal, a voice message processing area when a preset user input is detected; And
The terminal maintaining the displayed voice message processing region for a predetermined time while the user input is maintained while the voice message processing region is displayed, and performing voice recording;
Voice message generation method comprising a.
삭제delete 삭제delete 제20항에 있어서,
상기 음성 녹음을 진행하는 단계 이후에,
상기 단말이 상기 사용자 입력이 종료되면, 상기 음성 녹음을 종료하여 음성 메시지를 생성하는 단계;
상기 단말이 상기 음성 메시지를 인식하여 텍스트로 변환하는 단계;
상기 단말이 상기 변환된 텍스트에서 기 설정된 조건을 만족하는 키워드를 추출한 후, 추출된 상기 키워드를 포함하는 문자 메시지를 생성하는 단계; 및
상기 단말이 상기 음성 메시지 및 상기 문자 메시지를 상기 대화 창 화면을 통해 연결된 적어도 하나 이상의 상대방 단말로 전송하는 단계;
를 포함하는 것을 특징으로 하는 음성 메시지 생성 방법.
21. The method of claim 20,
After the step of proceeding with the voice recording,
Generating a voice message by terminating the voice recording when the user input is terminated;
Recognizing the voice message and converting the voice message into text;
Generating, by the terminal, a keyword that satisfies a predetermined condition in the converted text, and then generating a text message including the extracted keyword; And
Transmitting, by the terminal, the voice message and the text message to at least one counterpart terminal connected through the chat window screen;
Voice message generation method comprising a.
제20항 또는 제23항 중 어느 한 항에 기재된 음성 메시지 생성 방법을 실행하는 프로그램을 기록한 컴퓨터 판독 가능한 기록매체.A computer-readable recording medium having recorded thereon a program for executing the voice message generating method according to any one of claims 20 and 23.
KR1020130026953A 2013-03-13 2013-03-13 Method for generating of voice message, apparatus and system for the same KR101363866B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130026953A KR101363866B1 (en) 2013-03-13 2013-03-13 Method for generating of voice message, apparatus and system for the same
PCT/KR2013/005076 WO2014142391A1 (en) 2013-03-13 2013-06-10 Method for generating voice message, and apparatus and system therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130026953A KR101363866B1 (en) 2013-03-13 2013-03-13 Method for generating of voice message, apparatus and system for the same

Publications (1)

Publication Number Publication Date
KR101363866B1 true KR101363866B1 (en) 2014-02-20

Family

ID=50271196

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130026953A KR101363866B1 (en) 2013-03-13 2013-03-13 Method for generating of voice message, apparatus and system for the same

Country Status (2)

Country Link
KR (1) KR101363866B1 (en)
WO (1) WO2014142391A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190087639A (en) * 2015-05-22 2019-07-24 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 Message transmitting method, message processing method and terminal

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193389A (en) * 2016-03-14 2017-09-22 中兴通讯股份有限公司 A kind of method and apparatus for realizing input
CN109831375B (en) * 2019-03-18 2022-12-06 深圳市格罗德科技有限公司 Method for transmitting and receiving instant messaging information, terminal and computer readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070034257A (en) * 2005-09-23 2007-03-28 엘지전자 주식회사 Mobile communication terminal and text message display method therefor
KR20070104968A (en) * 2006-04-24 2007-10-30 삼성전자주식회사 Mobile terminal and method for transmitting voice message during use of mobile messenger service
KR20090120669A (en) * 2008-05-20 2009-11-25 주식회사 케이티테크 Apparatus and method for voice recording
KR20110062094A (en) * 2009-12-02 2011-06-10 엘지전자 주식회사 Mobile terminal and method for controlling the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070034257A (en) * 2005-09-23 2007-03-28 엘지전자 주식회사 Mobile communication terminal and text message display method therefor
KR20070104968A (en) * 2006-04-24 2007-10-30 삼성전자주식회사 Mobile terminal and method for transmitting voice message during use of mobile messenger service
KR20090120669A (en) * 2008-05-20 2009-11-25 주식회사 케이티테크 Apparatus and method for voice recording
KR20110062094A (en) * 2009-12-02 2011-06-10 엘지전자 주식회사 Mobile terminal and method for controlling the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190087639A (en) * 2015-05-22 2019-07-24 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 Message transmitting method, message processing method and terminal
US10541955B2 (en) 2015-05-22 2020-01-21 Tencent Technology (Shenzhen) Company Limited Message transmitting method, message processing method and terminal
KR102094114B1 (en) * 2015-05-22 2020-03-26 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 Message transmitting method, message processing method and terminal

Also Published As

Publication number Publication date
WO2014142391A1 (en) 2014-09-18

Similar Documents

Publication Publication Date Title
EP3567584B1 (en) Electronic apparatus and method for operating same
JP6492069B2 (en) Environment-aware interaction policy and response generation
KR101331444B1 (en) Method for instant messaging service, storage medium recording program and device therefor
KR102398649B1 (en) Electronic device for processing user utterance and method for operation thereof
KR102081233B1 (en) apparatus for control of messenger
CN106201491B (en) Mobile terminal and method and device for controlling remote assistance process of mobile terminal
CN110276007A (en) For providing the device and method of information
KR20140107736A (en) Method for providing of voice message, apparatus and system for the same
CN108694947A (en) Sound control method, device, storage medium and electronic equipment
KR20150106481A (en) Method for providing information of keyword in instant messenger, apparatus and system for the same
EP2731369B1 (en) Mobile terminal and control method thereof
KR101532908B1 (en) Method for transmitting of secret message in message service, apparatus and system for the same
KR101363866B1 (en) Method for generating of voice message, apparatus and system for the same
KR20140120982A (en) Method for analyzing of message, apparatus and system for the same
US20150089370A1 (en) Method and device for playing media data on a terminal
KR102212072B1 (en) Method for extracting of keyword in instant messenger, apparatus and system for the same
WO2015043239A1 (en) Method and device for playing media data on a terminal
KR20150108097A (en) Backtup method of information in instant messenger, apparatus and system for the same
KR20140123154A (en) Method for protection of message in message service, apparatus and system for the same
KR20150084304A (en) Mobile terminal and operation method thereof
KR101370316B1 (en) Method for controlling of web page in messenger, apparatus and system for the same
KR102387268B1 (en) Messaging service method for providing speech bubble effect, storage medium recording program and device therefor
KR20140120076A (en) Method for providing annotation of message in message service, apparatus and system for the same
KR101911870B1 (en) Method for displaying message, apparatus for the same
KR20150105560A (en) Method for sending of message in instant messenger, apparatus and system for the same

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190124

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200122

Year of fee payment: 7