KR20140071399A - 오디오 인터페이스 - Google Patents
오디오 인터페이스 Download PDFInfo
- Publication number
- KR20140071399A KR20140071399A KR1020147008642A KR20147008642A KR20140071399A KR 20140071399 A KR20140071399 A KR 20140071399A KR 1020147008642 A KR1020147008642 A KR 1020147008642A KR 20147008642 A KR20147008642 A KR 20147008642A KR 20140071399 A KR20140071399 A KR 20140071399A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- voice
- voice data
- synthesized
- speech
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000006243 chemical reaction Methods 0.000 claims description 33
- 230000004044 response Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 230000006855 networking Effects 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 26
- 230000008569 process Effects 0.000 description 24
- 238000012545 processing Methods 0.000 description 23
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/10—Earpieces; Attachments therefor ; Earphones; Monophonic headphones
- H04R1/1041—Mechanical or electronic switches, or control elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/033—Headphones for stereophonic communication
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
도 1은 음성 인터페이스 시스템이 사용자에게 복수의 텍스트 데이터에 기초한 복수의 음성 데이터를 복수의 서버로부터 외부 네트워크를 통해 제공하는 네트워크 시스템의 예시를 개략적으로 도시하고,
도 2는 음성 인터페이스 시스템에 대한 컴포넌트의 예시를 도시하는 개략적인 블록도를 도시하고,
도 3(A)는 두 개의 음성 데이터를 실질적으로 동시에 사용자에게 제공하도록 구성된 음성 인터페이스 시스템의 예시를 개략적으로 도시하고,
도 3(B)는 사용자 선택에 응답하여 추가적인 데이터를 제공하도록 구성된 음성 인터페이스 시스템의 예시를 개략적으로 도시하고,
도 4는 합성된 음성 데이터를 제공하기 위한 프로세스의 예시적인 흐름도를 도시하고,
도 5는 합성된 음성 데이터를 제공하기 위한 프로세스의 다른 예시적인 흐름도를 도시하고,
도 6은 음성 인터페이스 시스템에 대한 음성 처리 기법을 제공하는 데 이용될 수 있는 컴퓨터 프로그램 제품을 나타내며,
도 7은 음성 인터페이스 시스템에 대한 음성 처리 기법을 제공하는 데 이용될 수 있는 예시적인 컴퓨팅 장치를 도시하는 블록도이고, 모두 여기에서 설명된 적어도 일부 실시예에 따라 배열된다.
Claims (26)
- 오디오 인터페이스 시스템에서의 방법으로서,
제1 내레이터(narrator)의 제1 음성 데이터 및 제2 내레이터의 제2 음성 데이터를 수신하는 단계;
상기 제2 음성 데이터를 음성 변환 함수에 의해 변환(transform)하는 단계;
제1 텍스트 데이터 및 제2 텍스트 데이터를 수신하는 단계;
상기 제1 텍스트 데이터의 적어도 일부를 상기 제1 음성 데이터에 적어도 부분적으로 기초하여, 제1 합성된 음성 데이터로 전환(convert)하는 단계;
상기 제2 텍스트 데이터의 적어도 일부를 상기 변환된 제2 음성 데이터에 적어도 부분적으로 기초하여, 제2 합성된 음성 데이터로 전환하는 단계; 및
상기 제1 합성된 음성 데이터 및 상기 제2 합성된 음성 데이터를 상기 음성 인터페이스 시스템을 통하여 제공하는 단계
를 포함하는 방법. - 제1항에 있어서,
상기 음성 변환 함수는 상기 제1 음성 데이터 및 상기 변환된 제2 음성 데이터 간의 특징 차를 최대화하는, 방법. - 제1항에 있어서,
상기 제1 음성 데이터의 적어도 하나의 음향 모델 및 상기 변환된 제2 음성 데이터의 적어도 하나의 음향 모델을 추출하는 단계
를 더 포함하고,
상기 제1 텍스트 데이터의 적어도 일부를 전환하는 단계는 상기 제1 음성 데이터의 적어도 하나의 음향 모델에 기초하고,
상기 제2 텍스트 데이터의 적어도 일부를 전환하는 단계는 상기 변환된 제2 음성 데이터의 적어도 하나의 음향 모델에 기초하는, 방법. - 제1항에 있어서,
상기 제1 합성된 음성 데이터 또는 상기 제2 합성된 음성 데이터 중 하나의 선택의 지시를 수신하는 단계; 및
상기 선택된 음성 데이터에 대응하는 추가적인 데이터를 상기 음성 인터페이스 시스템의 사용자에게 제공하는 단계
를 더 포함하는 방법. - 제4항에 있어서,
상기 추가적인 데이터는 합성된 음성 데이터인, 방법. - 제1항에 있어서,
센서에 의해, 상기 음성 인터페이스 시스템의 사용자의 제스처(gesture)를 검출하는 단계; 및
상기 음성 인터페이스 시스템의 상기 사용자의 상기 제스처가 제1 합성된 음성 데이터 또는 제2 합성된 음성 데이터의 선택에 해당하는지를 결정하는 단계
를 더 포함하는 방법. - 제6항에 있어서,
상기 센서는 자이로 센서(gyro sensor)를 포함하는, 방법. - 제1항에 있어서,
상기 제1 텍스트 데이터 및 상기 제2 텍스트 데이터 중 적어도 하나는 외부 네트워크로부터 수신되는, 방법. - 제8항에 있어서,
상기 제1 텍스트 데이터 및 상기 제2 텍스트 데이터 중 적어도 하나는 이메일 메시지, 웹 페이지 및 SNS(social networking service) 메시지로 구성되는 그룹으로부터 선택되는 것인, 방법. - 오디오 인터페이스 시스템에서의 방법으로서,
제1 텍스트 데이터 및 제2 텍스트 데이터를 수신하는 단계;
상기 제1 텍스트 데이터의 적어도 일부를 제1 음성 데이터에 적어도 부분적으로 기초하여, 제1 합성된 음성 데이터로 전환하는 단계;
상기 제2 텍스트 데이터의 적어도 일부를 음성 변환 함수에 의해 제2 음성 데이터로부터 변환되는 변환된 제2 음성 데이터에 적어도 부분적으로 기초하여, 제2 합성된 음성 데이터로 전환하는 단계; 및
상기 제1 합성된 음성 데이터 및 상기 제2 합성된 음성 데이터를 상기 음성 인터페이스를 통하여 제공하는 단계
를 포함하는 방법. - 제10항에 있어서,
상기 음성 변환 함수는 상기 제1 음성 데이터 및 상기 변환된 제2 음성 데이터 간의 특징 차를 최대화하는, 방법. - 제10항에 있어서,
상기 제1 텍스트 데이터의 적어도 일부를 전환하는 단계는 상기 제1 음성 데이터의 적어도 하나의 음향 모델에 기초하고,
상기 제2 텍스트 데이터의 적어도 일부를 전환하는 단계는 상기 변환된 제2 음성 데이터의 적어도 하나의 음향 모델에 기초하는, 방법. - 제10항에 있어서,
상기 제1 합성된 음성 데이터 또는 상기 제2 합성된 음성 데이터 중 하나의 선택의 지시를 수신하는 단계; 및
상기 선택된 음성 데이터에 대응하는 추가적인 데이터를 상기 음성 인터페이스 시스템의 사용자에게 제공하는 단계
를 더 포함하는 방법. - 제13항에 있어서,
상기 추가적인 데이터는 합성된 음성 데이터인, 방법. - 제10항에 있어서,
센서에 의해, 상기 음성 인터페이스 시스템의 사용자의 제스처를 검출하는 단계; 및
상기 음성 인터페이스 시스템의 상기 사용자의 상기 제스처가 상기 제1 합성된 음성 데이터 또는 제2 합성된 음성 데이터의 선택에 해당하는지를 결정하는 단계
를 더 포함하는 방법. - 제10항에 있어서,
상기 제1 텍스트 데이터 및 상기 제2 텍스트 데이터 중 적어도 하나는 이메일 메시지, 웹 페이지 및 SNS 메시지로 구성되는 그룹으로부터 선택되는 것인, 방법. - 제1 음성 데이터의 적어도 하나의 음향 모델 및 음성 변환 함수에 의해 제2 음성 데이터로부터 변환되는 변환된 제2 음성 데이터의 적어도 하나의 음향 모델을 저장하도록 구성된 데이터베이스;
제1 텍스트 데이터의 적어도 일부를 제1 음성 데이터의 적어도 하나의 음향 모델에 적어도 부분적으로 기초하여 제1 합성된 음성 데이터로 전환하도록 구성되고, 제2 텍스트 데이터의 적어도 일부를 상기 변환된 제2 음성 데이터의 적어도 하나의 음향 모델에 적어도 부분적으로 기초하여 제2 합성된 음성 데이터로 전환하도록 구성된 전환 유닛; 및
상기 제1 합성된 음성 데이터 및 상기 제2 합성된 음성 데이터를 재생하도록 구성된 재생 유닛
을 포함하는 오디오 인터페이스 시스템. - 제17항에 있어서,
상기 음성 변환 함수는 상기 제1 음성 데이터 및 상기 변환된 제2 음성 데이터 간의 특징 차를 최대화하는, 음성 인터페이스 시스템. - 제17항에 있어서,
상기 제1 합성된 음성 데이터 또는 제2 합성된 음성 데이터 중 하나의 선택의 지시를 수신하도록 구성된 수신 유닛
을 더 포함하는, 음성 인터페이스 시스템. - 제17항에 있어서,
상기 제1 텍스트 데이터 및 상기 제2 텍스트 데이터 중 적어도 하나는 이메일 메시지, 웹 페이지 및 SNS 메시지로 구성되는 그룹으로부터 선택되는 것인, 음성 인터페이스 시스템. - 컴퓨터 실행가능 명령어가 저장된 컴퓨터 판독가능 저장 매체로서, 상기 컴퓨터 실행가능 명령어는, 실행에 응답하여, 음성 인터페이스 시스템이,
제1 내레이터의 제1 음성 데이터 및 제2 내레이터의 제2 음성 데이터를 수신하고;
상기 제2 음성 데이터를 음성 변환 함수에 의해 변환하고;
제1 텍스트 데이터 및 제2 텍스트 데이터를 수신하고;
상기 제1 텍스트 데이터의 적어도 일부를 상기 제1 음성 데이터에 적어도 부분적으로 기초하여, 제1 합성된 음성 데이터로 전환하고;
상기 제2 텍스트 데이터의 적어도 일부를 상기 변환된 제2 음성 데이터에 적어도 부분적으로 기초하여, 제2 합성된 음성 데이터로 전환하며; 그리고
상기 제1 합성된 음성 데이터 및 상기 제2 합성된 음성 데이터를 상기 음성 인터페이스 시스템을 통해 제공하도록 하는, 컴퓨터 판독가능 저장 매체. - 제21항에 있어서,
상기 음성 변환 함수는 상기 제1 음성 데이터 및 상기 변환된 제2 음성 데이터 간의 특징 차를 최대화하는, 컴퓨터 판독가능 저장 매체. - 제21항에 있어서,
상기 컴퓨터 실행가능 명령어는, 실행에 응답하여, 상기 음성 인터페이스 시스템이 또한,
상기 제1 합성된 음성 데이터 또는 제2 합성된 음성 데이터 중 하나의 선택의 지시를 수신하고; 그리고
상기 선택된 음성 데이터에 대응하는 추가적인 데이터를 상기 음성 인터페이스 시스템의 사용자에게 제공하도록 하는 컴퓨터 판독가능 저장 매체. - 컴퓨터 실행가능 명령어가 저장된 컴퓨터 판독가능 저장 매체로서, 상기 컴퓨터 실행가능 명령어는, 실행에 응답하여, 음성 인터페이스 시스템이,
제1 텍스트 데이터 및 제2 텍스트 데이터를 수신하는 단계;
상기 제1 텍스트 데이터의 적어도 일부를 제1 음성 데이터에 적어도 부분적으로 기초하여, 제1 합성된 음성 데이터로 전환하는 단계;
상기 제2 텍스트 데이터의 적어도 일부를 음성 변환 함수에 의해 제2 음성 데이터로부터 변환되는 변환된 제2 음성 데이터에 적어도 부분적으로 기초하여, 제2 합성된 음성 데이터로 전환하는 단계; 및
상기 제1 합성된 음성 데이터 및 상기 제2 합성된 음성 데이터를 상기 음성 인터페이스를 통하여 제공하는 단계
를 포함하는 동작을 수행하도록 하는, 컴퓨터 판독가능 저장 매체. - 제24항에 있어서,
상기 음성 변환 함수는 제1 음성 데이터 및 상기 변환된 제2 음성 데이터 간의 특징 차를 최대화하는, 컴퓨터 판독가능 저장 매체. - 제24항에 있어서,
상기 동작은
상기 제1 합성된 음성 데이터 및 상기 제2 합성된 음성 데이터 중 하나를 선택하는 사용자 입력을 수신하는 단계; 및
상기 선택된 음성 데이터에 대응하는 추가적인 데이터를 상기 음성 인터페이스 시스템의 사용자에게 제공하는 단계
를 더 포함하는, 컴퓨터 판독가능 저장 매체.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2011/061704 WO2013077843A1 (en) | 2011-11-21 | 2011-11-21 | Audio interface |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140071399A true KR20140071399A (ko) | 2014-06-11 |
KR101611224B1 KR101611224B1 (ko) | 2016-04-11 |
Family
ID=48427774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020147008642A KR101611224B1 (ko) | 2011-11-21 | 2011-11-21 | 오디오 인터페이스 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9711134B2 (ko) |
EP (1) | EP2783292A4 (ko) |
KR (1) | KR101611224B1 (ko) |
WO (1) | WO2013077843A1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10043534B2 (en) * | 2013-12-23 | 2018-08-07 | Staton Techiya, Llc | Method and device for spectral expansion for an audio signal |
US20220366895A1 (en) * | 2019-06-25 | 2022-11-17 | Nippon Telegraph And Telephone Corporation | Utterance evaluation apparatus, utterance evaluation, and program |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5521981A (en) * | 1994-01-06 | 1996-05-28 | Gehring; Louis S. | Sound positioner |
US6336092B1 (en) * | 1997-04-28 | 2002-01-01 | Ivl Technologies Ltd | Targeted vocal transformation |
US6121532A (en) * | 1998-01-28 | 2000-09-19 | Kay; Stephen R. | Method and apparatus for creating a melodic repeated effect |
GB0013241D0 (en) * | 2000-05-30 | 2000-07-19 | 20 20 Speech Limited | Voice synthesis |
US7277855B1 (en) * | 2000-06-30 | 2007-10-02 | At&T Corp. | Personalized text-to-speech services |
US6789064B2 (en) * | 2000-12-11 | 2004-09-07 | International Business Machines Corporation | Message management system |
US20030023440A1 (en) * | 2001-03-09 | 2003-01-30 | Chu Wesley A. | System, Method and computer program product for presenting large lists over a voice user interface utilizing dynamic segmentation and drill down selection |
US20060069567A1 (en) * | 2001-12-10 | 2006-03-30 | Tischer Steven N | Methods, systems, and products for translating text to speech |
US6917911B2 (en) * | 2002-02-19 | 2005-07-12 | Mci, Inc. | System and method for voice user interface navigation |
DE60215296T2 (de) * | 2002-03-15 | 2007-04-05 | Sony France S.A. | Verfahren und Vorrichtung zum Sprachsyntheseprogramm, Aufzeichnungsmedium, Verfahren und Vorrichtung zur Erzeugung einer Zwangsinformation und Robotereinrichtung |
JP4150198B2 (ja) * | 2002-03-15 | 2008-09-17 | ソニー株式会社 | 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置 |
CN1692403A (zh) * | 2002-10-04 | 2005-11-02 | 皇家飞利浦电子股份有限公司 | 具有个人化语音段的语音合成设备 |
US7412377B2 (en) * | 2003-12-19 | 2008-08-12 | International Business Machines Corporation | Voice model for speech processing based on ordered average ranks of spectral features |
JP3895758B2 (ja) * | 2004-01-27 | 2007-03-22 | 松下電器産業株式会社 | 音声合成装置 |
FR2868586A1 (fr) * | 2004-03-31 | 2005-10-07 | France Telecom | Procede et systeme ameliores de conversion d'un signal vocal |
US7693719B2 (en) * | 2004-10-29 | 2010-04-06 | Microsoft Corporation | Providing personalized voice font for text-to-speech applications |
WO2006076217A2 (en) | 2005-01-10 | 2006-07-20 | Herman Miller, Inc. | Method and apparatus of overlapping and summing speech for an output that disrupts speech |
US7844215B2 (en) | 2006-08-08 | 2010-11-30 | Accenture Global Services Gmbh | Mobile audio content delivery system |
US8886537B2 (en) * | 2007-03-20 | 2014-11-11 | Nuance Communications, Inc. | Method and system for text-to-speech synthesis with personalized voice |
US7689421B2 (en) * | 2007-06-27 | 2010-03-30 | Microsoft Corporation | Voice persona service for embedding text-to-speech features into software programs |
CN101359473A (zh) * | 2007-07-30 | 2009-02-04 | 国际商业机器公司 | 自动进行语音转换的方法和装置 |
FR2920583A1 (fr) * | 2007-08-31 | 2009-03-06 | Alcatel Lucent Sas | Procede de synthese vocale et procede de communication interpersonnelle, notamment pour jeux en ligne multijoueurs |
JP2009139592A (ja) * | 2007-12-05 | 2009-06-25 | Sony Corp | 音声処理装置、音声処理システム及び音声処理プログラム |
JP4735993B2 (ja) * | 2008-08-26 | 2011-07-27 | ソニー株式会社 | 音声処理装置、音像定位位置調整方法、映像処理装置及び映像処理方法 |
JP5366043B2 (ja) | 2008-11-18 | 2013-12-11 | 株式会社国際電気通信基礎技術研究所 | 音声記録再生装置 |
WO2010117712A2 (en) | 2009-03-29 | 2010-10-14 | Audigence, Inc. | Systems and methods for measuring speech intelligibility |
US8599836B2 (en) * | 2010-01-27 | 2013-12-03 | Neobitspeak LLC | Web-based, hosted, self-service outbound contact center utilizing speaker-independent interactive voice response and including enhanced IP telephony |
GB2500471B (en) * | 2010-07-20 | 2018-06-13 | Aist | System and method for singing synthesis capable of reflecting voice timbre changes |
US8930182B2 (en) * | 2011-03-17 | 2015-01-06 | International Business Machines Corporation | Voice transformation with encoded information |
-
2011
- 2011-11-21 EP EP11876267.3A patent/EP2783292A4/en not_active Withdrawn
- 2011-11-21 WO PCT/US2011/061704 patent/WO2013077843A1/en active Application Filing
- 2011-11-21 US US13/522,299 patent/US9711134B2/en not_active Expired - Fee Related
- 2011-11-21 KR KR1020147008642A patent/KR101611224B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR101611224B1 (ko) | 2016-04-11 |
WO2013077843A1 (en) | 2013-05-30 |
US9711134B2 (en) | 2017-07-18 |
US20130132087A1 (en) | 2013-05-23 |
EP2783292A4 (en) | 2016-06-01 |
EP2783292A1 (en) | 2014-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11727914B2 (en) | Intent recognition and emotional text-to-speech learning | |
US9240180B2 (en) | System and method for low-latency web-based text-to-speech without plugins | |
US11514886B2 (en) | Emotion classification information-based text-to-speech (TTS) method and apparatus | |
JP6118838B2 (ja) | 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム | |
ES2989096T3 (es) | Interfaz de entrada de voz incremental con retroalimentación en tiempo real | |
US10089974B2 (en) | Speech recognition and text-to-speech learning system | |
JP6078964B2 (ja) | 音声対話システム及びプログラム | |
JP2013164515A (ja) | 音声翻訳装置、音声翻訳方法および音声翻訳プログラム | |
RU2692051C1 (ru) | Способ и система для синтеза речи из текста | |
KR20200027331A (ko) | 음성 합성 장치 | |
JPWO2017154282A1 (ja) | 音声処理装置および音声処理方法 | |
KR20150088564A (ko) | 음성인식에 기반한 애니메이션 재생이 가능한 전자책 단말기 및 그 방법 | |
KR101611224B1 (ko) | 오디오 인터페이스 | |
JP5049310B2 (ja) | 音声学習・合成システム及び音声学習・合成方法 | |
Redmon et al. | Lexically dependent estimation of acoustic information in speech | |
Clopper et al. | Lexical recognition memory across dialects. | |
McAuliffe et al. | Reduction of consonants and vowels in the course of discourse | |
KR20230075386A (ko) | 음성 신호 처리 방법 및 장치 | |
Taylor | “Striking a healthy balance”: speech technology in the mobile ecosystem | |
Henry et al. | Duration and context speech rate as cues to lexical perception and word segmentation. | |
WO2018015989A1 (ja) | 音声認識システム、音声認識方法及びプログラム | |
Bashford Jr et al. | Diphones, lexical access, and the verbal transformation effect | |
Kim et al. | Effects of emotional prosody on word recognition | |
Zhao | Contextual effects on the continuancy of/■ | |
Barto‐Sisamout | Production of prosodic cues by Beijing Mandarin speakers in second language (L2) English. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0105 | International application |
Patent event date: 20140401 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20150323 Patent event code: PE09021S01D |
|
E90F | Notification of reason for final refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Final Notice of Reason for Refusal Patent event date: 20150925 Patent event code: PE09021S02D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20160330 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20160405 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20160406 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20190507 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20190507 Start annual number: 4 End annual number: 4 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20210116 |