KR101317941B1 - Device and method for performing connection for telecommunication service based on voice recognition, and method for generating audio data for the voice recognition - Google Patents
Device and method for performing connection for telecommunication service based on voice recognition, and method for generating audio data for the voice recognition Download PDFInfo
- Publication number
- KR101317941B1 KR101317941B1 KR1020120021786A KR20120021786A KR101317941B1 KR 101317941 B1 KR101317941 B1 KR 101317941B1 KR 1020120021786 A KR1020120021786 A KR 1020120021786A KR 20120021786 A KR20120021786 A KR 20120021786A KR 101317941 B1 KR101317941 B1 KR 101317941B1
- Authority
- KR
- South Korea
- Prior art keywords
- sound data
- voice recognition
- data
- terminal
- voice
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/61—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
Abstract
음성인식을 기반으로 통신 서비스의 연결을 수행하는 단말에 관한 것으로, 단말은 네트워크를 통하여 송신 단말로부터 통신 서비스의 연결 요청을 수신하는 연결 요청 수신부, 연결 요청에 응답하는 방식들 각각에 대응하는 복수의 소리 데이터 중 음성인식 소리 데이터를 선택하는 소리 데이터 선택부, 선택된 음성인식 소리 데이터를 소리 재생 장치를 통하여 재생하는 소리 데이터 재생부, 음성인식을 기반으로 사용자로부터 상기 사용자의 음성 데이터를 입력 받는 음성 데이터 입력부, 입력된 음성 데이터에 기초하여 통신 서비스의 연결을 수행하는 서비스 연결 수행부를 포함한다. A terminal for performing a connection of a communication service based on voice recognition, the terminal comprising: a connection request receiver configured to receive a connection request of a communication service from a transmitting terminal through a network; A sound data selection unit for selecting voice recognition sound data among sound data, a sound data reproducing unit for reproducing the selected voice recognition sound data through a sound reproducing apparatus, and voice data receiving the voice data of the user from a user based on voice recognition An input unit includes a service connection performing unit that performs a connection of a communication service based on the input voice data.
Description
음성인식을 기반으로 통신 서비스 연결을 수행하는 단말 및 방법에 관한 것으로, 보다 상세하게는 음성인식을 위한 소리 데이터의 재생 중 음성인식을 기반으로 통신 서비스 연결을 수행하는 단말 및 방법, 그리고 음성인식을 위한 소리 데이터를 생성하는 방법에 관한 것이다. The present invention relates to a terminal and a method for performing a communication service connection based on voice recognition, and more particularly, to a terminal and a method for performing a communication service connection based on voice recognition during playback of sound data for voice recognition. The present invention relates to a method for generating sound data.
일반적으로, 통신 단말기에서 전화 연결을 요청하는 메시지의 착신에 대응하여 사용자는 호의 연결 또는 거절을 위해서 통신 단말기의 소정 버튼을 클릭하거나 통신 단말기의 디스플레이를 터치하여야만 한다. 따라서, 사용자가 통신 단말기와 직접 접촉하기 어려운 상황에서는 착신호를 제어하는데 있어 어려움이 따른다. 이에 대한 방안의 하나로서 음성인식을 이용한 착신호의 제어는 사용자로 하여금 직접 통신 단말기에 직접 접촉하지 않고도 호 연결을 가능하게 한다. 이와 관련하여, 한국공개특허 제2008-0021882호에는 음성인식을 통한 착신호 제어 방법 및 그를 수행하는 휴대단말기에 대한 구성들이 개시되어 있다. In general, in response to an incoming call of a message requesting a telephone connection in a communication terminal, a user must click a predetermined button of the communication terminal or touch a display of the communication terminal in order to connect or reject a call. Therefore, in a situation where the user is difficult to directly contact the communication terminal, there is a difficulty in controlling the incoming call. As a solution to this, the control of an incoming call using voice recognition enables a user to connect a call without directly contacting the communication terminal. In this regard, Korean Patent Laid-Open Publication No. 2008-0021882 discloses a method for controlling an incoming call through voice recognition and a configuration of a portable terminal performing the same.
한편, 통신 단말기에서 음성인식을 이용하는 방식은 다른 종류의 전자 제품과는 다른 제한을 갖는다. 예를 들어, 이동통신 단말기의 경우 마이크와 스피커의 구간이 짧아 스피커에서 발생하는 벨소리가 음성인식을 저해하는 큰 소음으로 작용될 수 있다. On the other hand, the method of using voice recognition in a communication terminal has a different limitation from other kinds of electronic products. For example, in the case of a mobile communication terminal, the interval between the microphone and the speaker is short, so that a ring tone generated from the speaker may act as a loud noise that hinders voice recognition.
통신 단말로 호의 연결을 요청하는 메시지가 수신되는 경우, 음성인식을 통하여 호의 연결을 제어하고자 한다. 통신 서비스와 관련된 메시지의 수신을 알리는 벨소리를 재생함에 있어서, 음성인식을 방해하지 않는 음성인식용 벨소리를 제공하고자 한다. 통신 서비스를 위한 음성인식의 인식률을 향상시킴으로써, 보다 원활한 통신 서비스를 제공하고자 한다. 다만 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. When a message requesting connection of a call is received to a communication terminal, the connection of the call is controlled through voice recognition. In reproducing a ringtone for notifying reception of a message related to a communication service, a voice recognition ringtone that does not interfere with voice recognition is provided. By improving the recognition rate of speech recognition for a communication service, it is intended to provide a more smooth communication service. However, the technical problem to be achieved by the present embodiment is not limited to the above technical problems, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로써, 본 발명의 일 실시예는, 네트워크를 통하여 송신 단말로부터 통신 서비스의 연결 요청을 수신하는 연결 요청 수신부, 연결 요청에 응답하는 방식들 각각에 대응하는 복수의 소리 데이터 중 음성인식 소리 데이터를 선택하는 소리 데이터 선택부, 선택된 음성인식 소리 데이터를 소리 재생 장치를 통하여 재생하는 소리 데이터 재생부, 음성인식을 기반으로 사용자 인터페이스로부터 사용자의 음성 데이터를 입력 받는 음성 데이터 입력부, 입력된 음성 데이터에 기초하여 통신 서비스의 연결을 수행하는 서비스 연결 수행부를 포함하는 단말을 제공할 수 있다. As a technical means for achieving the above-described technical problem, an embodiment of the present invention, a connection request receiving unit for receiving a connection request of a communication service from a transmitting terminal through a network, a plurality of corresponding to each of the schemes that respond to the connection request A sound data selection unit for selecting voice recognition sound data from among sound data, a sound data reproducing unit for reproducing the selected voice recognition sound data through a sound reproducing apparatus, and a voice receiving user's voice data from a user interface based on voice recognition The terminal may include a data input unit and a service connection performing unit configured to connect a communication service based on the input voice data.
또한, 본 발명의 다른 실시예는 통신 서비스의 연결 요청을 입력받는 단계, 입력된 연결 요청에 응답하는 방식들 각각에 대응하는 복수의 소리 데이터 중 음성인식 소리 데이터를 선택하는 단계, 선택된 음성인식 소리 데이터를 재생하는 단계, 음성인식을 기반으로 사용자의 음성 데이터를 입력받는 단계, 입력된 음성 데이터에 기초하여 통신 서비스의 연결을 수행하는 단계를 포함하는 통신 서비스 연결 수행 방법을 제공할 수 있다. In addition, another embodiment of the present invention is a step of receiving a connection request of the communication service, selecting the voice recognition sound data of the plurality of sound data corresponding to each of the schemes in response to the input connection request, the selected voice recognition sound The present invention may provide a method of performing communication service connection including reproducing data, receiving voice data of a user based on voice recognition, and connecting a communication service based on the input voice data.
또한, 본 발명의 또 다른 실시예는 데이터베이스로부터 복수의 소리 데이터 중 어느 하나의 소리 데이터를 추출하는 단계, 추출된 소리 데이터를 소정 시간 간격의 복수의 구간으로 분할하는 단계, 분할된 복수의 구간 사이에 음소거 구간을 삽입함으로써, 추출된 소리 데이터로부터 음성인식 소리 데이터를 생성하는 단계, 생성된 음성인식 소리 데이터를 데이터베이스에 저장하는 단계를 포함하는 음성인식 소리 데이터 생성 방법을 제공할 수 있다. Another embodiment of the present invention is to extract the sound data of any one of the plurality of sound data from the database, to divide the extracted sound data into a plurality of sections of a predetermined time interval, between the plurality of divided sections The voice recognition sound data generation method may include providing a voice recognition sound data from the extracted sound data by inserting a muting section into the voice data, and storing the generated voice recognition sound data in a database.
사용자 인터페이스로부터 입력된 음성 데이터에 대응하여 통신 서비스 연결을 수행함으로써, 통신 단말로 호의 연결을 요청하는 메시지가 수신되는 경우, 음성인식을 통하여 호의 연결을 제어할 수 있는 단말 및 방법을 제공할 수 있다. 소리 데이터에 음소거 구간을 삽입하여 음성인식용 소리 데이터를 생성함으로써, 음성인식을 방해하지 않는 음성인식용 벨소리를 재생할 수 있는 단말 및 방법을 제공할 수 있다. 음성인식용 벨소리를 이용하여 통신 서비스를 위한 음성인식의 인식률을 향상시킴으로써, 보다 원활한 통신 서비스를 제공할 수 있는 단말 및 방법을 제공할 수 있다. By performing a communication service connection in response to voice data input from a user interface, when a message requesting connection of a call is received to a communication terminal, a terminal and a method capable of controlling connection of a call through voice recognition may be provided. . It is possible to provide a terminal and a method capable of reproducing a voice recognition ringtone that does not interfere with voice recognition by inserting a mute section into the sound data to generate voice recognition sound data. It is possible to provide a terminal and a method capable of providing a smoother communication service by improving the recognition rate of the voice recognition for the communication service using the voice recognition ringtone.
도 1은 본 발명의 일 실시예에 따른 통신 서비스 시스템의 구성도이다.
도 2는 도 1에 도시된 단말(10)의 구성도이다.
도 3은 본 발명의 다른 실시예에 따른 단말(10)의 구성도이다.
도 4는 도 3의 소리 데이터 생성부(17)에 의하여 소리 데이터(41)로부터 음성인식 소리 데이터(44)를 생성하는 과정의 일 예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 음성인식 소리 데이터를 생성하는 방법을 나타낸 동작 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 통신 서비스 연결 수행 방법을 나타낸 동작 흐름도이다. 1 is a block diagram of a communication service system according to an embodiment of the present invention.
2 is a block diagram of the
3 is a block diagram of a
4 is a diagram for describing an example of a process of generating voice
5 is a flowchart illustrating a method of generating voice recognition sound data according to an embodiment of the present invention.
6 is a flowchart illustrating a method of performing a communication service connection according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
명세서 전체에서 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다When a part of the specification is said to be "connected" to another part, this includes not only the "directly connected", but also the "indirectly connected" between the other elements in the middle. In addition, when a part is said to "include" a component, it means that it can further include other components, except to exclude other components unless otherwise stated.
도 1은 본 발명의 일 실시예에 따른 통신 서비스 시스템의 구성도이다. 도 1을 참조하면, 통신 서비스 시스템은 송신 단말(30), 네트워크, 기지국들 및 단말(10)을 포함한다. 일반적으로, 네트워크는 복수의 노드들간에 정보 교환이 가능한 연결 구조를 의미하는 것으로서, 이러한 네트워크의 일 예에는 인터넷(Internet), LAN(Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN(Personal Area Network), 이동 통신망(Mobile Radio Communication Network) 등의 네트워크가 포함되나 이에 한정되지는 않는다. 1 is a block diagram of a communication service system according to an embodiment of the present invention. Referring to FIG. 1, a communication service system includes a transmitting
단말(10)은 네트워크를 통하여 송신 단말(30)로부터 소정 통신 서비스의 연결 요청을 수신한다. 이 때, 네트워크에는 적어도 하나 이상의 기지국, 중앙 제어 서버 등 다양한 구성요소들이 포함될 수 있으며, 연결 요청은 이러한 구성요소들을 경유하여 송신 단말(30)로부터 단말(10)로 전달될 수 있다. The
본 발명의 다양한 실시예들에 따르면 단말(10) 또는 송신 단말(30) 각각은 다양한 형태의 단말일 수 있다. 예를 들어, 단말은 네트워크를 통해 원격지의 서버 또는 다른 단말에 접속할 수 있는 휴대용 단말, TV 장치 또는 컴퓨터일 수 있다. 여기서, 휴대용 단말의 일 예에는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함되고, TV 장치의 일 예에는 스마트 TV, IPTV 셋톱박스 등이 포함되고, 컴퓨터의 일 예에는 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등이 포함될 수 있다. 따라서, 도 1에 개시된 단말의 형태는 설명의 편의를 위해 예시된 것에 불과하므로, 본원에서 이야기하는 단말(10) 또는 송신 단말(30)의 종류 및 형태가 도 1에 도시된 것으로 한정 해석되는 것은 아니다. According to various embodiments of the present disclosure, each of the
단말(10)은 송신 단말(30)로부터 소정 통신 서비스의 연결 요청을 수신한다. 이 때, 통신 서비스의 일 예에는 유/무선 전화 서비스, MMS(Multimedia Message Service), SMS(Short Message Service)와 같은 메시지 서비스, 실시간 방송 스트리밍, VoD(Video On Service)와 같은 방송 서비스 또는 어플리케이션 기반의 메시지 서비스와 같은 데이터 전송 서비스 등이 포함될 수 있다. 또한, 연결 요청은 이러한 통신 서비스의 시작 또는 연결을 요청하는 소정 메시지일 수 있다. 예를 들어, 통신 서비스가 유/무선 전화 서비스인 경우, 연결 요청은 호 연결 메시지일 수 있으며, 다른 예를 들어, 통신 서비스가 메시지 서비스인 경우 연결 요청은 MMS 메시지 자체일 수 있다. The
단말(10)은 연결 요청을 수신함에 따라 소리 데이터를 재생한다. 예를 들어, 단말(10)은 전화 서비스의 연결 요청을 수신함에 따라 스피커를 통하여 연결 요청이 수신되었음을 알리는 벨소리를 재생한다. 다른 예를 들어, 단말(10)은 SMS(Short Message Service)의 착신을 알리는 벨소리를 재생할 수도 있다. The
단말(10)은 복수의 소리 데이터를 저장하고, 저장된 소리 데이터들 중 어느 하나를 재생할 수 있다. 이 때, 단말(10)은 통신 서비스의 종류에 따라 서로 다른 소리 데이터를 재생할 수 있다. 예를 들어, 단말(10)은 전화 서비스에 대응하여 제 1 소리 데이터를 재생하고, 문자 메시지 서비스에 대응하여 제 2 소리 데이터를 재생할 수 있다. 또한, 단말(10)은 응답방식에 따라 서로 다른 소리 데이터를 재생할 수 있다. 예를 들어, 단말(10)은 버튼 입력을 이용한 응답방식에 따라 제 1 소리 데이터를 재생하고, 화면 터치를 이용한 응답방식에 따라 제 2 소리 데이터를 재생하고, 움직임 인식을 이용한 응답방식에 따라 제 3 소리 데이터를 재생하고, 음성인식을 이용한 응답방식에 따라 제 4 소리 데이터를 재생할 수 있다. The
단말(10)은 사용자 인터페이스로부터 응답방식에 대한 설정 신호를 입력받고, 해당 응답방식에 대응하는 소리 데이터를 이용하여, 통신 서비스의 연결 요청의 착신을 알릴 수 있다. 예를 들어, 단말(10)은 사용자 인터페이스로부터 음성인식 응답방식을 선택하는 설정 신호를 입력받고, 통신 서비스의 연결 요청을 수신할 때마다 음성인식 소리 데이터를 재생할 수 있다. The
단말(10)은 음성인식 소리 데이터를 생성할 수 있다. 일반적으로, 음성인식 소리 데이터는 사용자(20)의 음성을 손실 없이 인식하기 위하여 일반적인 소리 데이터로부터 생성된 것일 수 있다. 이러한 음성인식 소리 데이터의 일 예는 기본 소리 데이터에 적어도 하나 이상의 음소거 구간을 삽입된 소리 데이터가 포함된다. 이하에서 다시 설명되겠으나, 이러한 음성인식 소리 데이터의 음소거 구간은 사용자(20)의 음성이 사용자 인터페이스로 입력되는 시간적 구간으로 이용될 수 있다. 이를 통해, 사용자(20)의 음성인식률은 비약적으로 상승될 수 있다. The
단말(10)은 연결 요청에 응답하는 방식들 각각에 대응하는 복수의 소리 데이터 중 음성인식 소리 데이터를 선택할 수 있고, 선택된 음성인식 소리 데이터를 소리 재생 장치를 통해 재생할 수 있다. 예를 들어, 단말(10)이 송신 단말로부터 전화 착신호를 수신하고, 음성인식 소리 데이터로 생성된 벨소리(101)를 선택하여, 선택된 벨소리(101)를 재생할 수 있다. The
단말(10)은 음성인식을 기반으로 연결 요청에 대응하여 통신 서비스의 연결을 수행한다. 이 때, 통신 서비스의 연결은 송신 단말(30)과의 소정 통신 서비스를 위한 세션 연결을 수행하는 것을 의미하며, 이러한 통신 서비스의 연결은 통신 서비스와 연관된 연결 프로세스를 통하여 이루어질 수 있다. The terminal 10 connects the communication service in response to the connection request based on the voice recognition. At this time, the connection of the communication service means to perform a session connection for a predetermined communication service with the transmitting
단말(10)은 사용자 인터페이스로부터 입력된 사용자(20)의 음성 데이터에 기초하여 통신 서비스의 연결을 수행할 수 있다. 예를 들어, 단말(10)은 전화 착신호를 수신하여, 음성인식 소리 데이터로 생성된 벨소리를 재생함과 동시에, 전화 서비스의 연결을 위해 사용자(20)의 음성(201)을 인식하고, 인식된 사용자(20) 음성(201)에 기초하여 전화 서비스를 연결할 수 있다. 이 때, 앞서 설명된 바와 같이, 음성인식 소리 데이터의 음소거 구간은 사용자(20)의 음성(201)을 인식하기 위한 시간적 구간으로 이용될 수 있다. The terminal 10 may connect the communication service based on the voice data of the
앞서 설명된 내용들의 수행 주체는 단말(10)일 수 있다. 다만, 본 발명의 다양한 실시예들에 따르면, 앞서 설명된 동작들은 단말(10)에 임베디드(embeded)된 하드웨어 또는 소프트웨어의 의하여 수행될 수도 있고, 단말(10)에 설치된 어플리케이션에 의하여도 수행될 수 있다. 예를 들어, 앞서 설명된 동작들은 단말(10)에 포함된 별도의 장치, 단말(10)의 플랫폼에 설치된 소프트웨어 또는 단말(10)에 설치된 어플리케이션에 의하여 수행될 수 있다. The performing entity of the above-described contents may be the terminal 10. However, according to various embodiments of the present disclosure, the operations described above may be performed by hardware or software embedded in the terminal 10 or may be performed by an application installed in the terminal 10. have. For example, the above-described operations may be performed by a separate device included in the terminal 10, software installed on the platform of the terminal 10, or an application installed on the terminal 10.
이와 같은 단말(10)의 동작에 대해서 아래에서 구체적으로 설명된다. The operation of the terminal 10 will be described in detail below.
도 2는 도 1에 도시된 단말(10)의 구성도이다. 도 2를 참조하면, 단말(10)은 연결 요청 수신부(11), 소리 데이터 선택부(12), 소리 데이터 재생부(13), 음성 데이터 입력부(14), 서비스 연결 수행부(15) 및 데이터베이스(16)를 포함한다. 다만, 도 2에 도시된 단말(10)은 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 단말(10)은 사용자로부터 어떤 명령 내지 정보를 입력받기 위한 사용자 인터페이스(141) 또는 소리 데이터를 출력하는 소리 재생 장치(131)를 더 포함할 수도 있다. 이 경우, 사용자 인터페이스(141)는 키보드, 마우스 등과 같은 입력 장치, 영상 표시 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User Interface) 또는 음성 유저 인터페이스(VUI, Voice User Interface)일 수 있다. 2 is a block diagram of the terminal 10 shown in FIG. Referring to FIG. 2, the terminal 10 includes a connection
연결 요청 수신부(11)는 네트워크를 통하여 송신 단말(30)로부터 통신 서비스의 연결 요청을 수신한다. 이 때, 통신 서비스는 전화 서비스, 메시지 서비스, 방송 서비스 또는 데이터 전송 서비스 중 어느 하나일 수 있다. 예를 들어, 연결 요청 수신부(11)는 송신 단말(30)로부터 전화 서비스의 연결 요청, SMS 및 MMS 연결 요청, 모바일 메신져 서비스 연결 요청 또는 화상 전화 서비스 연결 요청 등의 통신 서비스의 연결 요청들을 수신할 수 있다. The connection
소리 데이터 선택부(12)는 연결 요청에 응답하는 방식들 각각에 대응하는 복수의 소리 데이터 중 음성인식 소리 데이터를 선택한다. 이 때, 복수의 소리 데이터의 일 예는 버튼입력 소리 데이터, 화면터치 소리 데이터, 움직임인식 소리 데이터, 음성인식 소리 데이터와 같이 응답방식의 종류 별로 구분된 소리 데이터들을 포함할 수 있다. 다만, 본 발명의 다른 실시예에 따르면, 복수의 소리 데이터의 일 예는 SMS 메시지를 수신하였음을 알리는 소리 데이터, 모바일 메신져의 메시지를 수신하였음을 알리는 소리 데이터, 전화 착신호가 수신되었음을 알리는 벨소리의 소리 데이터, 안내 메시지의 소리 데이터와 같이 통신 서비스의 종류 별로 구분된 소리 데이터들을 포함할 수도 있다. The
소리 데이터 선택부(12)는 연결 요청에 응답하는 방식이 음성인식 방식으로 설정된 경우, 복수의 소리 데이터 중 음성인식 소리 데이터를 선택할 수 있다. 이 때, 음성인식 방식의 설정은 사용자 인터페이스로부터 입력된 설정 신호에 기초하여 이루어질 수 있다. The
소리 데이터 선택부(12)는 단말(10) 주변의 소음의 정도를 판단하고, 판단 결과에 따라 음성인식 소리 데이터를 선택할 수도 있다. 예를 들어, 소리 데이터 선택부(12)는 연결 요청에 응답하는 방식이 음성인식 방식으로 설정된 경우, 주변의 소음의 정도를 판단하고, 판단 결과 주변의 소음이 임계치 이상인 경우 음성인식 소리 데이터를 선택하고, 주변의 소임이 임계치 보다 작은 경우 일반 소리 데이터를 선택할 수 있다. The
소리 데이터 재생부(13)는 선택된 음성인식 소리 데이터를 소리 재생 장치(131)를 통하여 재생한다. 일반적으로, 이러한 소리 재생 장치(131)의 일 예에는 스피커가 포함된다. 일반적으로, 음성인식 소리 데이터는 데이터베이스(16)에 저장되고, 소리 데이터 재생부(13)는 데이터베이스(16)로부터 음성인식 소리 데이터를 추출하여 재생할 수 있다. The sound
음성 데이터 입력부(14)는 음성인식을 기반으로 사용자 인터페이스(141)로부터 사용자의 음성 데이터를 입력받는다. 이 때, 사용자 인터페이스(141)의 일 예는 사용자의 음성을 인식하여 음성 데이터를 생성하는 VUI를 포함하고, 이 경우, 음성 데이터는 사용자의 음성으로부터 변환된 텍스트 기반의 데이터일 수 있다. 사용자의 음성으로부터 음성 데이터가 생성되는 일 예를 설명하면, 사용자 인터페이스는 사용자에 의하여 '전화 받아'라는 음성을 입력받고, 입력된 음성을 텍스트 기반의 음성 데이터로 변환하고, 변환된 음성 데이터를 음성 데이터 입력부(14)로 전달할 수 있다. 다만, 본 발명의 다른 실시예에 따르면, 사용자 인터페이스는 사용자의 음성을 인식하는 마이크 장치이고, 음성 데이터 입력부(14)에서 음성과 텍스트간의 변환을 수행할 수도 있다. The voice
서비스 연결 수행부(15)는 입력된 음성 데이터에 기초하여 통신 서비스의 연결을 수행한다. 이 때, 통신 서비스의 연결은 송신 단말(30)과의 소정 통신 서비스를 위한 세션 연결을 수행하는 것을 의미하며, 이러한 통신 서비스의 연결은 통신 서비스와 연관된 연결 프로세스를 통하여 이루어질 수 있다. The service
데이터베이스(16)는 데이터를 저장한다. 이 때, 데이터는 단말(10) 내부의 각 구성요소들 간에 입력 및 출력되는 데이터를 포함하고, 단말(10)과 단말(10) 외부의 구성요소들간에 입력 및 출력되는 데이터를 포함한다. 예를 들어, 데이터베이스(16)는 송신 단말(30)로부터 수신된 연결 요청을 저장하고, 소리 데이터 선택부(12)에 의하여 생성된 음성인식 소리 데이터의 선택 정보 데이터를 저장할 수 있다. 또한, 데이터베이스(16)는 음성인식 소리 데이터를 포함하는 복수의 소리 데이터를 저장할 수 있다. 이러한 데이터베이스(16)의 일 예에는 단말(10) 내부 또는 외부에 존재하는 하드디스크드라이브, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬메모리 및 메모리카드 등이 포함된다. The
도 3은 본 발명의 다른 실시예에 따른 단말(10)의 구성도이다. 도 3을 참조하면, 단말(10)은 연결 요청 수신부(11), 소리 데이터 선택부(12), 소리 데이터 재생부(13), 음성 데이터 입력부(14), 서비스 연결 수행부(15), 데이터베이스(16), 소리 데이터 생성부(17) 및 음성인식 설정부(18)를 포함한다. 다만, 도 3에 도시된 단말(10)은 본 발명의 하나의 구현 예에 불과하며, 도 3에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. 예를 들어, 단말(10)은 사용자로부터 어떤 명령 내지 정보를 입력받기 위한 사용자 인터페이스(141)를 더 포함할 수도 있다. 이 경우, 사용자 인터페이스(141)는 키보드, 마우스 등과 같은 입력 장치, 영상 표시 장치에 표현되는 그래픽 유저 인터페이스(GUI, Graphical User Interface) 또는 음성 유저 인터페이스(VUI, Voice User Interface)일 수 있다. 3 is a block diagram of a terminal 10 according to another embodiment of the present invention. Referring to FIG. 3, the terminal 10 includes a connection
연결 요청 수신부(11)는 네트워크를 통하여 송신 단말(30)로부터 통신 서비스의 연결 요청을 수신한다. 소리 데이터 선택부(12)는 연결 요청에 응답하는 방식들 각각에 대응하는 복수의 소리 데이터 중 음성인식 소리 데이터를 선택한다. 소리 데이터 재생부(13)는 선택된 음성인식 소리 데이터를 소리 재생 장치를 통하여 재생한다. 음성 데이터 입력부(14)는 음성인식을 기반으로 사용자 인터페이스(141)로부터 사용자의 음성 데이터를 입력받는다. 서비스 연결 수행부(15)는 입력된 음성 데이터에 기초하여 통신 서비스의 연결을 수행한다. 데이터베이스(16)는 데이터를 저장한다. 이와 같이, 도 3에 도시된 다른 실시예에 따른 단말(10)은 도 2에 도시된 일 실시예에 따른 단말과 같이, 연결 요청 수신부(11), 소리 데이터 선택부(12), 소리 데이터 재생부(13), 음성 데이터 입력부(14), 서비스 연결 수행부(15) 및 데이터베이스(16)를 포함한다. 따라서, 도 3을 통하여, 이러한 구성들에 대해 설명되지 아니한 사항은 앞서 도 2를 통하여 설명된 내용을 준용한다. The connection
소리 데이터 생성부(16)는 복수의 소리 데이터 중 어느 하나의 소리 데이터로부터 음성인식 소리 데이터를 생성한다. 이 때, 소리 데이터 생성부(16)는 복수의 소리 데이터 중 어느 하나의 소리 데이터를 추출하고, 추출된 소리 데이터에 음소거 구간을 삽입함으로써, 음성인식 소리 데이터를 생성할 수 있다. 예를 들어, 소리 데이터 생성부(16)는 복수의 소리 데이터 중 어느 하나의 소리 데이터를 추출하고, 추출된 소리 데이터를 소정 시간 간격의 복수의 구간으로 분할하고, 분할된 복수의 구간 사이에 음소거 구간을 삽입함으로써, 추출된 소리 데이터로부터 음성인식 소리 데이터를 생성할 수 있다. The sound
본 발명의 다른 실시예에 따르면, 소리 데이터 생성부(16)는 어느 하나의 소리 데이터를 복수의 주파수의 데이터들로 분할하고, 분할된 데이터들 중 적어도 하나 이상에 음소거 처리를 수행함으로써, 추출된 소리 데이터로부터 음성인식 소리 데이터를 생성할 수 있다. 이 때, 음소거 처리가 수행되는 주파수 대역은 사람의 음성의 주파수 대역과 동일 또는 유사한 대역의 주파수 대역일 수 있다. According to another embodiment of the present invention, the
소리 데이터 생성부(16)는 사용자 인터페이스로부터 입력된 설정 신호에 기초하여 음성인식 소리 데이터를 생성할 수 있다. 예를 들어, 소리 데이터 생성부(16)는 사용자 또는 다른 어플리케이션 등으로부터 음성인식 소리 데이터를 생성할 것을 요청하는 설정 신호를 수신하는 경우, 이러한 설정 신호에 기초하여 음성인식 소리 데이터를 생성할 수 있다. The
소리 데이터 생성부(16)는 사용자 인터페이스(141)로부터 입력된 설정 정보에 기초하여 음소거 구간의 간격 및 음소거 구간이 소리 데이터에 삽입되는 위치를 결정하고, 결정 결과에 따라 음성인식 소리 데이터를 생성할 수 있다. 예를 들어, 소리 데이터 생성부(16)는 음성인식 소리 데이터에 삽입될 음소거 구간의 간격 및 음소거 구간이 소리 데이터에 삽입되는 위치를 포함하는 설정 정보를 사용자 인터페이스(141)로부터 입력받고, 이러한 설정 정보에 기초하여 음성인식 소리 데이터를 생성할 수 있다. 이를 통해, 소리 데이터 생성부(16)는 사용자 맞춤형 음성인식 소리 데이터를 생성할 수 있다. The
이상과 같이 도 3을 통하여 소리 데이터 생성부(16)에 의하여 음성인식 소리 데이터를 생성하는 과정을 설명하였으나, 이러한 음성인식 소리 데이터는 단말(10) 외부의 소정 서버 또는 단말에 의하여 생성되어 단말(10)로 입력될 수도 있다. As described above, the process of generating voice recognition sound data by the sound
도 4는 도 3의 소리 데이터 생성부(17)에 의하여 소리 데이터(41)로부터 음성인식 소리 데이터(44)를 생성하는 과정의 일 예를 설명하기 위한 도면이다. 도 4를 참조하면, 소리 데이터 생성부(17)는 데이터베이스(16)로부터 복수의 소리 데이터 중 어느 하나의 소리 데이터(41)를 추출한다. 이 때, 어느 하나의 소리 데이터는 연속적인 데이터로 구성된다. 소리 데이터 생성부(17)는 추출된 소리 데이터(41)를 구간(42)을 포함하는 복수의 구간으로 분할한다. 이 때, 복수의 구간들 각각은 동일한 크기 또는 시간 간격을 가질 수도 있으나, 서로 다른 크기 또는 시간 간격을 가질 수도 있다. 소리 데이터 생성부(17)는 분할된 복수의 구간 사이에 음소거 구간을 삽입함으로써, 음성인식 소리 데이터(44)를 생성한다. 이 때, 음소거 구간(43)은 다른 음소거 구간들과 같은 크기 또는 시간 간격을 가질 수도 있고, 다른 음소거 구간들과 다른 크기 또는 시간 간격을 가질 수도 있다. 소리 데이터 생성부(44)는 생성된 음성인식 소리 데이터(44)를 데이터베이스(16)에 저장한다. 다만, 도 3에서 설명된 과정은 본 발명의 일 실시예에 불과하며, 본 발명의 다양한 실시예들에 따르면 소리 데이터로부터 음성인식 소리 데이터는 생성되는 과정들은 다양하다. 예를 들어, 소리 데이터 생성부(17)는 사용자 인터페이스로부터 입력된 설정 정보에 기초하여 구간(42)의 크기 또는 시간 간격, 음소거 구간(43)의 크기 또는 시간 간격, 분할된 구간의 개수 또는 음소거 구간의 개수 등을 결정할 수도 있다. 4 is a diagram for describing an example of a process of generating voice
음성인식 설정부(18)는 사용자 인터페이스(141)로부터 입력된 설정 신호에 기초하여 연결 요청에 응답하는 방식을 음성인식 방식으로 설정할 수 있다. 이 때, 소리 데이터 선택부(12)는 연결 요청에 응답하는 방식이 음성인식 방식으로 설정된 경우, 복수의 소리 데이터 중 음성인식 소리 데이터를 선택할 수 있다. 또한, 음성인식 설정부(18)는 사용자 인터페이스로부터 입력된 설정 신호에 대응하여 다른 응답 방식을 설정할 수도 있다. 예를 들어, 음성인식 설정부(18)는 사용자 인터페이스로부터 입력된 설정 신호 버튼 입력을 이용한 응답방식, 화면 터치를 이용한 응답방식 또는 움직임 인식을 이용한 응답방식을 설정할 수도 있다. The voice
도 5는 본 발명의 일 실시예에 따른 음성인식 소리 데이터를 생성하는 방법을 나타낸 동작 흐름도이다. 도 5에 도시된 실시예에 따른 음성인식 소리 데이터 생성 방법은 도 1 및 도 2에 도시된 단말(10), 도 3에 도시된 단말(10) 또는 도 3에 도시된 소리 데이터 생성부(17)에 의하여 음성인식 소리 데이터가 생성되는 각각의 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 및 도 2에 도시된 단말(10), 도 3에 도시된 단말(10) 또는 도 3에 도시된 소리 데이터 생성부(17) 중 어느 하나에서 기술된 내용은 도 5에 도시된 실시예에 따른 음성인식 소리 데이터 생성 방법에도 적용된다. 5 is a flowchart illustrating a method of generating voice recognition sound data according to an embodiment of the present invention. The voice recognition sound data generating method according to the embodiment shown in FIG. 5 includes the terminal 10 shown in FIGS. 1 and 2, the terminal 10 shown in FIG. 3, or the sound
단계 S501에서 단말(10)은 데이터베이스(16)로부터 복수의 소리 데이터 중 어느 하나의 소리 데이터를 추출한다. 단계 S502에서 단말(10)은 추출된 소리 데이터를 소정 시간 간격의 복수의 구간으로 분할한다. 단계 S503에서 단말(10)은 분할된 복수의 구간 사이에 음소거 구간을 삽입함으로써, 추출된 소리 데이터로부터 음성인식 소리 데이터를 생성한다. 단계 S504에서 단말(10)은 생성된 음성인식 소리 데이터를 데이터베이스(16)에 저장한다. 이 때, 생성된 음성인식 소리 데이터는 통신 서비스의 연결 요청에 응답하는 복수의 방식들 중 음성인식 방식에 매핑될 수 있으며, 이 때, 데이터베이스(16)는 매핑에 관한 매핑 정보를 더 저장할 수 있다. In step S501, the terminal 10 extracts sound data of any one of the plurality of sound data from the
도 6은 본 발명의 일 실시예에 따른 통신 서비스 연결 수행 방법을 나타낸 동작 흐름도이다. 도 6에 도시된 실시예에 따른 통신 서비스 연결 수행 방법은 도 1 및 도 2에 도시된 실시예에 따른 단말(10), 도 3에 도시된 다른 실시예에 따른 단말(10) 중 어느 하나에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 2에 도시된 실시예에 따른 단말(10) 또는 도 3에 도시된 다른 실시예에 따른 단말(10) 중 어느 하나에서 기술된 내용은 도 6에 도시된 실시예에 따른 통신 서비스 연결 수행 방법에도 적용된다. 6 is a flowchart illustrating a method of performing a communication service connection according to an embodiment of the present invention. The method for performing a communication service connection according to the embodiment shown in FIG. 6 may be performed in any one of the terminal 10 according to the embodiment shown in FIGS. 1 and 2 and the terminal 10 according to another embodiment shown in FIG. 3. Steps that are processed in time series. Therefore, although omitted below, contents described in any one of the terminal 10 according to the embodiment shown in FIG. 2 or the terminal 10 according to another embodiment shown in FIG. This also applies to a method of performing a communication service connection according to an example.
단계 S601에서 연결 요청 수신부(11)는 통신 서비스의 연결 요청을 입력받는다. 단계 S602에서 소리 데이터 선택부(12)는 입력된 연결 요청에 응답하는 방식들 각각에 대응하는 복수의 소리 데이터 중 음성인식 소리 데이터를 선택한다. In step S601, the connection
단계 S603에서 소리 데이터 재생부(13)는 선택된 음성인식 소리 데이터를 재생한다. 단계 S604에서 음성 데이터 입력부(14)는 음성인식을 기반으로 사용자의 음성 데이터를 입력받는다. 단계 S605에서 서비스 연결 수행부(15)는 입력된 음성 데이터에 기초하여 통신 서비스의 연결을 수행한다. In step S603, the sound
또한, 도 6에는 도시되지 않았으나, 본 발명의 다른 실시예에 따르면, 통신 서비스 연결 수행 방법은 복수의 소리 데이터 중 어느 하나의 소리 데이터로부터 상기 음성인식 소리 데이터를 생성하는 단계(도시되지 않음)를 더 포함한다. 이 때, 소리 데이터를 재생하는 단계(S603)는 생성된 음성인식 소리 데이터를 재생한다. 또한, 음성인식 소리 데이터는 어느 하나의 소리 데이터에 음소거 구간을 삽입함으로써, 추출된 소리 데이터로부터 생성될 수 있다. In addition, although not shown in FIG. 6, according to another embodiment of the present invention, the method of performing a communication service connection may include generating the voice recognition sound data from one of the plurality of sound data (not shown). It includes more. At this time, reproducing the sound data (S603) reproduces the generated voice recognition sound data. In addition, the voice recognition sound data may be generated from the extracted sound data by inserting a mute section into any one of the sound data.
도 5를 통해 설명된 실시예에 따른 통신 서비스 연결 수행 방법 또는 도 6을 통해 설명된 실시예에 따른 음성인식 소리 데이터 생성 방법 각각은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. Each method of performing a communication service connection according to the embodiment described with reference to FIG. 5 or a method for generating voice recognition sound data according to the embodiment described with reference to FIG. 6 may be executed by a computer executable command such as a program module executed by the computer. It can also be implemented in the form of a recording medium that includes. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.
10: 단말
12: 소리 데이터 선택부
13: 소리 데이터 재생부
14: 음성 데이터 입력부
15: 서비스 연결 수행부
17: 소리 데이터 생성부10: Terminal
12: sound data selector
13: sound data playback unit
14: voice data input unit
15: service connection execution unit
17: sound data generation unit
Claims (16)
복수의 소리 데이터 중 어느 하나의 소리 데이터로부터 음성인식 소리 데이터를 생성하는 소리 데이터 생성부;
네트워크를 통하여 송신 단말로부터 상기 통신 서비스의 연결 요청을 수신하는 연결 요청 수신부;
상기 연결 요청에 응답하는 방식들 각각에 대응하는 상기 복수의 소리 데이터 중 상기 음성인식 소리 데이터를 선택하는 소리 데이터 선택부;
상기 선택된 음성인식 소리 데이터를 소리 재생 장치를 통하여 재생하는 소리 데이터 재생부;
상기 음성인식을 기반으로 상기 사용자의 음성 데이터를 입력 받는 음성 데이터 입력부; 및
상기 입력된 음성 데이터에 기초하여 상기 통신 서비스의 연결을 수행하는 서비스 연결 수행부를 포함하되,
상기 소리 데이터 생성부는 사용자 인터페이스로부터 입력된 설정 정보에 기초하여 음소거 구간의 간격 및 상기 음소거 구간이 상기 어느 하나의 소리 데이터에 삽입되는 위치를 결정하고, 결정 결과에 따라 상기 음성인식 소리 데이터를 생성하는 것인, 단말.
In the terminal for the connection of the communication service based on the voice recognition,
A sound data generation unit for generating voice recognition sound data from any one of the plurality of sound data;
A connection request receiving unit which receives a connection request of the communication service from a transmitting terminal through a network;
A sound data selector which selects the voice recognition sound data from among the plurality of sound data corresponding to each of the manners in response to the connection request;
A sound data reproducing unit for reproducing the selected voice recognition sound data through a sound reproducing apparatus;
A voice data input unit configured to receive voice data of the user based on the voice recognition; And
Including a service connection performing unit for performing the connection of the communication service based on the input voice data,
The sound data generation unit may determine an interval of a mute section and a position at which the mute section is inserted into the sound data based on setting information input from a user interface, and generate the voice recognition sound data according to a determination result. That, the terminal.
상기 소리 데이터 생성부는 상기 어느 하나의 소리 데이터에 상기 음소거 구간을 삽입함으로써, 상기 어느 하나의 소리 데이터로부터 음성인식 소리 데이터를 생성하는 것인, 단말.
The method of claim 1,
The sound data generation unit generates voice recognition sound data from the sound data by inserting the mute section into the sound data.
상기 소리 데이터 생성부는 상기 어느 하나의 소리 데이터를 복수의 주파수의 데이터들로 분할하고, 상기 분할된 데이터들 중 적어도 하나 이상에 음소거 처리를 수행함으로써, 상기 어느 하나의 소리 데이터로부터 음성인식 소리 데이터를 생성하는 것인, 단말.
The method of claim 1,
The sound data generation unit divides any one sound data into data of a plurality of frequencies and performs a muting process on at least one or more of the divided data, thereby generating voice recognition sound data from the one sound data. Terminal to generate.
상기 복수의 소리 데이터를 포함하는 데이터베이스를 더 포함하는 단말.
The method of claim 1,
And a database including the plurality of sound data.
상기 소리 데이터 생성부는 상기 데이터베이스로부터 상기 복수의 소리 데이터 중 어느 하나의 소리 데이터를 추출하고,
상기 추출된 소리 데이터를 소정 시간 간격의 복수의 구간으로 분할하고,
상기 분할된 복수의 구간 사이에 음소거 구간을 삽입함으로써, 상기 추출된 소리 데이터로부터 음성인식 소리 데이터를 생성하고,
상기 생성된 음성인식 소리 데이터를 상기 데이터베이스에 저장하는 것인, 단말.
The method according to claim 6,
The sound data generation unit extracts sound data of any one of the plurality of sound data from the database,
Dividing the extracted sound data into a plurality of sections at predetermined time intervals,
By inserting a mute section between the divided plurality of sections, the voice recognition sound data is generated from the extracted sound data,
And storing the generated voice recognition sound data in the database.
사용자 인터페이스로부터 입력된 설정 신호에 기초하여 상기 연결 요청에 응답하는 방식을 음성인식 방식으로 설정하는 음성인식 설정부를 더 포함하고,
상기 소리 데이터 선택부는 상기 연결 요청에 응답하는 방식이 상기 음성인식 방식으로 설정된 경우, 상기 복수의 소리 데이터 중 상기 음성인식 소리 데이터를 선택하는 것인, 단말.
The method of claim 1,
The apparatus may further include a voice recognition setting unit configured to set a method of responding to the connection request to a voice recognition method based on a setting signal input from a user interface.
The sound data selecting unit selects the voice recognition sound data from among the plurality of sound data when the method of responding to the connection request is set to the voice recognition method.
상기 통신 서비스는 전화 서비스, 메시지 서비스, 방송 서비스 또는 데이터 전송 서비스 중 어느 하나인 것인, 단말.
The method of claim 1,
The communication service is any one of a telephone service, a message service, a broadcast service or a data transmission service.
상기 소리 데이터 선택부는 상기 단말 주변의 소음의 정도를 판단하고, 상기 판단 결과에 따라 상기 음성인식 소리 데이터를 선택하는 것인, 단말.
The method of claim 1,
The sound data selection unit determines the degree of noise around the terminal, and selects the voice recognition sound data according to the determination result.
복수의 소리 데이터 중 어느 하나의 소리 데이터로부터 음성인식 소리 데이터를 생성하는 단계;
상기 통신 서비스의 연결 요청을 입력받는 단계;
상기 입력된 연결 요청에 응답하는 방식들 각각에 대응하는 상기 복수의 소리 데이터 중 상기 음성인식 소리 데이터를 선택하는 단계;
상기 선택된 음성인식 소리 데이터를 재생하는 단계;
상기 음성인식을 기반으로 사용자의 음성 데이터를 입력받는 단계; 및
상기 입력된 음성 데이터에 기초하여 상기 통신 서비스의 연결을 수행하는 단계를 포함하되,
상기 음성인식 소리 데이터를 생성하는 단계는 사용자 인터페이스로부터 입력된 설정 정보에 기초하여 음소거 구간의 간격 및 상기 음소거 구간이 상기 어느 하나의 소리 데이터에 삽입되는 위치를 결정하고, 결정 결과에 따라 상기 음성인식 소리 데이터를 생성하는 것인, 통신 서비스 연결 수행 방법.
In the method for performing the connection of the communication service by the terminal based on voice recognition,
Generating voice recognition sound data from any one of the plurality of sound data;
Receiving a connection request of the communication service;
Selecting the voice recognition sound data from the plurality of sound data corresponding to each of the schemes in response to the input connection request;
Playing the selected voice recognition sound data;
Receiving voice data of a user based on the voice recognition; And
Performing the connection of the communication service based on the input voice data,
The generating of the voice recognition sound data may include determining an interval of a mute section and a position at which the mute section is inserted into the one piece of sound data based on setting information input from a user interface, and determining the voice recognition according to a determination result. Generating sound data.
상기 음성인식 소리 데이터는 상기 어느 하나의 소리 데이터에 음소거 구간을 삽입함으로써, 상기 어느 하나의 소리 데이터로부터 생성되는 것인, 통신 서비스 연결 수행 방법.
13. The method of claim 12,
The voice recognition sound data is generated from any one of the sound data by inserting a mute period into the one of the sound data, the communication service connection method.
데이터베이스로부터 복수의 소리 데이터 중 어느 하나의 소리 데이터를 추출하는 단계;
상기 추출된 소리 데이터를 소정 시간 간격의 복수의 구간으로 분할하는 단계;
상기 분할된 복수의 구간 사이에 음소거 구간을 삽입함으로써, 상기 추출된 소리 데이터로부터 음성인식 소리 데이터를 생성하는 단계; 및
상기 생성된 음성인식 소리 데이터를 상기 데이터베이스에 저장하는 단계를 포함하되,
상기 음성인식 소리 데이터를 생성하는 단계는 사용자 인터페이스로부터 입력된 설정 정보에 기초하여 음소거 구간의 간격 및 상기 음소거 구간이 상기 어느 하나의 소리 데이터에 삽입되는 위치를 결정하고, 결정 결과에 따라 상기 음성인식 소리 데이터를 생성하는 것이고,
상기 음성인식 소리 데이터는 통신 서비스의 연결 요청에 응답하는 복수의 방식들 중 음성인식 방식에 매핑되는 것인, 음성인식 소리 데이터 생성 방법.
In the method for generating voice recognition sound data,
Extracting sound data of any one of a plurality of sound data from a database;
Dividing the extracted sound data into a plurality of sections at predetermined time intervals;
Generating voice recognition sound data from the extracted sound data by inserting a mute section between the divided plurality of sections; And
Storing the generated voice recognition sound data in the database;
The generating of the voice recognition sound data may include determining an interval of a mute section and a position at which the mute section is inserted into the one piece of sound data based on setting information input from a user interface, and determining the voice recognition according to a determination result. To generate sound data,
The voice recognition sound data is mapped to the voice recognition method of a plurality of ways in response to the connection request of the communication service, voice recognition sound data generation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120021786A KR101317941B1 (en) | 2012-03-02 | 2012-03-02 | Device and method for performing connection for telecommunication service based on voice recognition, and method for generating audio data for the voice recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120021786A KR101317941B1 (en) | 2012-03-02 | 2012-03-02 | Device and method for performing connection for telecommunication service based on voice recognition, and method for generating audio data for the voice recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130100525A KR20130100525A (en) | 2013-09-11 |
KR101317941B1 true KR101317941B1 (en) | 2013-10-18 |
Family
ID=49451210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120021786A KR101317941B1 (en) | 2012-03-02 | 2012-03-02 | Device and method for performing connection for telecommunication service based on voice recognition, and method for generating audio data for the voice recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101317941B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08125739A (en) * | 1994-10-25 | 1996-05-17 | Sanyo Electric Co Ltd | Telephone system |
JP2000020091A (en) * | 1998-07-03 | 2000-01-21 | Olympus Optical Co Ltd | Voice recording and reproducing device |
-
2012
- 2012-03-02 KR KR1020120021786A patent/KR101317941B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08125739A (en) * | 1994-10-25 | 1996-05-17 | Sanyo Electric Co Ltd | Telephone system |
JP2000020091A (en) * | 1998-07-03 | 2000-01-21 | Olympus Optical Co Ltd | Voice recording and reproducing device |
Also Published As
Publication number | Publication date |
---|---|
KR20130100525A (en) | 2013-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7094389B2 (en) | Information arrangement method, equipment, time and frequency position determination method, equipment, and base station | |
US10129729B2 (en) | Smartphone Bluetooth headset receiver | |
US20110222466A1 (en) | Dynamically adjustable communications services and communications links | |
US20080120094A1 (en) | Seamless automatic speech recognition transfer | |
CN110536156B (en) | Information processing method, system, communication device, and computer-readable storage medium | |
US11474775B2 (en) | Sound effect adjustment method, device, electronic device and storage medium | |
US9357215B2 (en) | Audio output distribution | |
US11070880B2 (en) | Customized recommendations of multimedia content streams | |
US11240559B2 (en) | Content reproducing apparatus and content reproducing method | |
CN106982286B (en) | Recording method, recording equipment and computer readable storage medium | |
JP2020511826A (en) | Electronic device and control method thereof | |
WO2015165415A1 (en) | Method and apparatus for playing audio data | |
US9749197B2 (en) | Mobile user data collection | |
US11545148B2 (en) | Do not disturb functionality for voice responsive devices | |
CN106817614B (en) | Audio and video frame loss device and method | |
KR20150047150A (en) | Chatting service apparatus and method for converting voice to text, and chatting service system | |
KR101317941B1 (en) | Device and method for performing connection for telecommunication service based on voice recognition, and method for generating audio data for the voice recognition | |
CN112203116A (en) | Video generation method, video playing method and related equipment | |
KR20110092713A (en) | System and method for offering real time multimedia service | |
KR20150085321A (en) | Method and apparatus for providing help of user device | |
US10142698B2 (en) | Method and system for audio data transmission | |
KR20150043904A (en) | Method of providing educational contents and apparatus therefor | |
US11513759B1 (en) | Soundmark indicating availability of content supplemental to audio content | |
KR101673324B1 (en) | Walkie-talkie communication network service system and method, computer readable medium having computer program recorded therefor | |
KR20130050815A (en) | Server and method for providing contents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170918 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20181008 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20191106 Year of fee payment: 7 |