KR102338563B1 - 영어 학습을 위한 음성 시각화 시스템 및 그 방법 - Google Patents
영어 학습을 위한 음성 시각화 시스템 및 그 방법 Download PDFInfo
- Publication number
- KR102338563B1 KR102338563B1 KR1020210016463A KR20210016463A KR102338563B1 KR 102338563 B1 KR102338563 B1 KR 102338563B1 KR 1020210016463 A KR1020210016463 A KR 1020210016463A KR 20210016463 A KR20210016463 A KR 20210016463A KR 102338563 B1 KR102338563 B1 KR 102338563B1
- Authority
- KR
- South Korea
- Prior art keywords
- visualization
- voice
- unit
- information
- sub
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000012800 visualization Methods 0.000 claims abstract description 269
- 238000012545 processing Methods 0.000 claims abstract description 29
- 230000006870 function Effects 0.000 claims description 19
- 238000003058 natural language processing Methods 0.000 claims description 19
- 238000007794 visualization technique Methods 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 7
- 230000001154 acute effect Effects 0.000 claims description 4
- 230000005236 sound signal Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 28
- 238000000605 extraction Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006798 recombination Effects 0.000 description 2
- 238000005215 recombination Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000004064 recycling Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
- G10L21/12—Transforming into visible information by displaying time domain information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
- G10L21/14—Transforming into visible information by displaying frequency domain information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Data Mining & Analysis (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Entrepreneurship & Innovation (AREA)
- Electrically Operated Instructional Devices (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
도 2는 본 발명의 실시예에 따른 음성 시각화 시스템의 동작 개요를 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 음성 시각화 시스템을 도시한 블록도이다.
도 4는 본 발명의 실시예에 따른 음성 정보 분석부의 구성을 도시한 상세 블록도이다.
도 5는 본 발명의 실시예에 따라 분석된 음성 정보의 예시이다.
도 6는 본 발명의 실시예에 따른 음성 정보 분류부의 구성을 도시한 상세 블록도이다.
도 7는 본 발명의 실시예에 따라 분류된 음성 정보의 예시이다.
도 8는 본 발명의 실시예에 따른 시각화 속성 할당부의 구성을 도시한 상세 블록도이다
도 9는 본 발명의 실시예 따라 시각화 속성이 부여된 예시를 도시한 도면이다.
도 10은 본 발명의 일 실시예에 따른 시각화 처리부의 상세 구성을 도시한 블록도이다.
도 11은 본 발명의 실시예에 따른 시각화 유닛의 예시를 도시한 도면이다.
도 12은 본 발명의 실시예에 시각화 유닛을 이용한 시각화 데이터의 예시를 도시한 도면이다.
도 13은 본 발명의 실시예에 따른 음성 시각화 데이터의 추가 예시를 도시한 도면이다.
도 14은 본 발명의 실시예에 따른 음성 시각화 데이터의 다양한 예시를 도시한 도면이다.
도 15는 본 발명의 실시예에 따른 비교 처리부의 상세 구성을 도시한 도면이다.
도 16는 본 발명의 실시예에 따른 음성 시각화 방법을 도시한 흐름도이다.
도 17은 본 발명의 실시예에 따른 음성 시각화 데이터의 비교 결과를 제공하는 방법을 도시한 도면이다.
130: 음성 정보 분류부 140: 시각화 속성 할당부
150: 시각화 처리부 160: 출력부
170: 비교 처리부
Claims (18)
- 음성 시각화 시스템에 있어서,
영어로 발음된 문장의 음성 신호를 수신하는 음성 신호 수신부;
상기 음성 신호의 주파수, 에너지, 시간 및 상기 음성 신호에 대응하는 텍스트를 포함하는 음성 정보를 분석하여 적어도 하나의 세그먼트로 세그멘테이션하는 음성 정보 분석부;
상기 음성 정보의 세그먼트들을 플로우 유닛으로 분류하고, 상기 플로우 유닛을 적어도 하나의 단어를 포함하는 적어도 하나의 서브 플로우 유닛으로 분류하는 음성 정보 분류부;
상기 분석 및 분류된 음성 정보를 기초로 하여 음성 시각화를 위한 시각화 속성을 할당하는 시각화 속성 할당부; 및
상기 할당된 시각화 속성에 기초하여 시각화 처리를 수행하여 음성 시각화 데이터를 생성하는 시각화 처리부를 포함하며,
상기 시각화 속성은 상기 서브 플로우 유닛의 시간축상의 배치와 상기 각각의 서브 플로우 유닛에서의 주파수의 고저 정보를 포함하며,
상기 시각화 처리부는,
시각화 툴이 저장된 시각화 툴 데이터베이스;상기 시각화 툴 데이터베이스에 저장된 시각화 툴의 선택을 제공하는 시각화 툴 선택부; 및 상기 시각화 툴에 포함된 시각화 속성을 나타내는 시각화 유닛을 이용하여 상기 할당된 시각화 속성에 매칭하는 시각화 유닛 매칭부를 포함하며,
상기 음성 시각화 데이터는 적어도 일면이 예각을 이룬 다각형으로 구성되어 주파수 축상의 배치를 정확하게 인식 가능하고 상기 시각화 유닛 상호간의 높낮이의 직관적 인식을 제공하는 것인 음성 시각화 시스템.
- 제 1 항에 있어서,
상기 세그먼트는 연속된 발음이 이루어지는 시간을 기준으로 세그멘테이션되는 것인 음성 시각화 시스템.
- 제1항에 있어서,
상기 음성 정보 분석부는 자연어 처리를 수행하는 자연어 처리부를 포함하며,
상기 서브 플로우 유닛에 포함되는 적어도 하나의 단어의 속성은 의미를 보유하고 있는 컨텐츠 워드와 기능적으로만 사용되는 펑션 워드로 분류되고,
상기 서브 플로우 유닛의 상기 컨텐츠 워드와 상기 펑션 워드는 상이한 주파수 고저 정보로 시각화되는 것인 음성 시각화 시스템.
- 제 1 항에 있어서,
상기 시각화 속성 할당부는 상기 적어도 하나의 단어를 상기 서브 플로우 유닛 내 연결되어 발음되는 음절로 재조합하는 음절 재조합부를 포함하는 것인 음성 시각화 시스템.
- 제1항에 있어서,
상기 시각화 속성 할당부는 강세, 묵음, 연음, Schwa 및 이중 모음 중 적어도 하나를 속성을 부여하는 특수 속성 할당부를 포함하는 것인 음성 시각화 시스템.
- 삭제
- 삭제
- 제1항에 있어서,
상기 음성 시각화 데이터 내에 속한 단어 중 소리가 나지 않는 모음 또는 자음은 하단 또는 작은 크기로 표시하여, 소리나는 부분을 강조하도록 시각화하는 것인 음성 시각화 시스템.
- 제1항에 있어서,
상기 음성 시각화 데이터의 외곽선의 상단 부분은 상이한 두께를 가지며, 상기 상단 부분의 두께에 따라 강세의 정도를 표시하는 것인 음성 시각화 시스템.
- 제1항에 있어서,
상기 음성 시각화 데이터를 상기 음성 신호에 동기 시켜 출력하는 출력부 및
상기 출력된 음성 시각화 데이터와 연습 사용자로부터 입력된 연습 음성 신호의 비교 결과값을 제공하는 비교 처리부를 더 포함하는 음성 시각화 시스템.
- 제 10 항에 있어서,
상기 비교 처리부는 상기 연습 음성 신호에 기초한 연습 시각화 데이터를 생성하여 상기 출력된 음성 시각화 데이터와의 비교 결과를 표시하는 것인 음성 시각화 시스템.
- 음성 시각화 방법에 있어서,
주파수, 에너지 및 시간으로 표현된 음성 신호를 수신하는 단계;
상기 음성 신호에 포함된 에너지가 존재하는 시간 정보에 기초하여 상기 음성 신호를 적어도 하나의 세그먼트로 세그멘테이션하고, 자연어 처리를 수행하는 음성 정보 전처리 단계;
상기 전처리 단계를 이용하여 상기 음성 정보의 상기 세그먼트들을 플로우 유닛으로 분류하고, 상기 플로우 유닛을 적어도 하나의 단어를 포함하는 적어도 하나의 서브 플로우 유닛으로 분류하여 재조합 음성 정보를 생성하는 단계;
시각화 속성의 할당을 위하여 상기 플로우 유닛, 상기 서브 플로우 유닛, 상기 적어도 하나의 단어에 대한 메타 데이터를 부여하는 단계;
상기 시각화 속성을 이용하여 시각화 처리를 위한 시각화 툴의 선택을 제공하는 단계;
상기 시각화 툴이 선택되면 상기 메타 데이터가 부연된 상기 재조합 음성 정보를 이용하여 음성 시각화 데이터를 생성하는 단계; 및
상기 생성된 음성 시각화 데이터를 출력하는 단계를 포함하며,
상기 시각화 속성은 상기 서브 플로우 유닛의 시간축상의 배치와 상기 각각의 서브 플로우 유닛에서의 주파수의 고저 정보를 포함하며,
상기 시각화 속성은 상기 서브 플로우 유닛의 시간축상의 배치와 상기 각각의 서브 플로우 유닛에서의 주파수의 고저 정보를 포함하며,
상기 음성 시각화 데이터는 적어도 일면이 예각을 이룬 다각형으로 구성되어 주파수 축상의 배치를 정확하게 인식 가능하고 상기 시각화 유닛 상호간의 높낮이의 직관적 인식을 제공하는 것인 음성 시각화 방법.
- 제 12 항에 있어서,
상기 재조합 음성 정보를 생성하는 단계 이후, 강세, 묵음, 연음, Schwa 및 이중 모음 중 적어도 하나를 속성을 부여하는 특수 속성 할당하는 단계를 더 포함하는 음성 시각화 방법.
- 제 12 항에 있어서,
상기 서브 플로우 유닛에 포함되는 적어도 하나의 단어는 단어의 속성은 의미를 보유하고 있는 컨텐츠 워드와 기능적으로만 사용되는 펑션 워드로 분류되고, 상기 서브 플로우 유닛의 상기 컨텐츠 워드와 상기 펑션 워드는 상이한 주파수 고저 정보로 시각화되는 것인 음성 시각화 방법.
- 삭제
- 제12항에 있어서,
상기 음성 시각화 데이터 내에 속한 단어 중 소리가 나지 않는 모음 또는 자음은 하단 또는 작은 크기로 표시하여, 소리나는 부분을 강조하도록 시각화하는 것인 음성 시각화 방법.
- 제13항에 있어서,
상기 음성 시각화 데이터의 외곽선의 상단 부분은 상이한 두께를 가지며, 상기 상단 부분의 두께에 따라 강세의 정도를 표시하는 것인 음성 시각화 방법.
- 제 12 항에 있어서,
연습 사용자로부터 연습 음성 신호를 수신하는 단계;
상기 연습 음성 신호의 연습 음성 시각화 데이터를 생성하는 단계 및
상기 출력된 음성 시각화 데이터와 사이 연습 음성 시각화 데이터를 유사도를 비교한 결과값을 출력하는 단계를 더 포함하는 음성 시각화 방법.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210016463A KR102338563B1 (ko) | 2021-02-05 | 2021-02-05 | 영어 학습을 위한 음성 시각화 시스템 및 그 방법 |
PCT/KR2022/001529 WO2022169208A1 (ko) | 2021-02-05 | 2022-01-27 | 영어 학습을 위한 음성 시각화 시스템 및 그 방법 |
US18/260,606 US12118898B2 (en) | 2021-02-05 | 2022-01-27 | Voice visualization system for english learning, and method therefor |
CA3204157A CA3204157A1 (en) | 2021-02-05 | 2022-01-27 | Voice visualization system for english learning, and method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210016463A KR102338563B1 (ko) | 2021-02-05 | 2021-02-05 | 영어 학습을 위한 음성 시각화 시스템 및 그 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102338563B1 true KR102338563B1 (ko) | 2021-12-13 |
Family
ID=78831791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210016463A KR102338563B1 (ko) | 2021-02-05 | 2021-02-05 | 영어 학습을 위한 음성 시각화 시스템 및 그 방법 |
Country Status (4)
Country | Link |
---|---|
US (1) | US12118898B2 (ko) |
KR (1) | KR102338563B1 (ko) |
CA (1) | CA3204157A1 (ko) |
WO (1) | WO2022169208A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022169208A1 (ko) * | 2021-02-05 | 2022-08-11 | 이기헌 | 영어 학습을 위한 음성 시각화 시스템 및 그 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050074298A (ko) * | 2004-01-08 | 2005-07-18 | 정보통신연구진흥원 | 외국어 발음 평가 시스템 및 외국어 발음 평가 방법 |
KR101508117B1 (ko) * | 2014-05-09 | 2015-04-08 | 고광철 | 영어 어순 지도를 이용한 영어 학습방법 및 그 시스템 |
KR20170055146A (ko) * | 2015-11-11 | 2017-05-19 | 주식회사 엠글리쉬 | 영어 발음기호를 이용한 외국어 및 자국어 표시장치 및 방법 |
JP2019053235A (ja) * | 2017-09-19 | 2019-04-04 | 有限会社オフィス・アイカワ | 言語学習システム及び言語学習方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100900085B1 (ko) * | 2007-03-06 | 2009-05-28 | 윤창훈 | 외국어 학습 제어방법 |
WO2015132798A2 (en) * | 2014-03-04 | 2015-09-11 | Indian Institute Of Technology Bombay | Method and system for consonant-vowel ratio modification for improving speech perception |
US20170294184A1 (en) * | 2016-04-08 | 2017-10-12 | Knuedge Incorporated | Segmenting Utterances Within Speech |
KR102338563B1 (ko) * | 2021-02-05 | 2021-12-13 | 이기헌 | 영어 학습을 위한 음성 시각화 시스템 및 그 방법 |
US11410570B1 (en) * | 2021-09-27 | 2022-08-09 | Central China Normal University | Comprehensive three-dimensional teaching field system and method for operating same |
-
2021
- 2021-02-05 KR KR1020210016463A patent/KR102338563B1/ko active IP Right Grant
-
2022
- 2022-01-27 US US18/260,606 patent/US12118898B2/en active Active
- 2022-01-27 WO PCT/KR2022/001529 patent/WO2022169208A1/ko active Application Filing
- 2022-01-27 CA CA3204157A patent/CA3204157A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050074298A (ko) * | 2004-01-08 | 2005-07-18 | 정보통신연구진흥원 | 외국어 발음 평가 시스템 및 외국어 발음 평가 방법 |
KR101508117B1 (ko) * | 2014-05-09 | 2015-04-08 | 고광철 | 영어 어순 지도를 이용한 영어 학습방법 및 그 시스템 |
KR20170055146A (ko) * | 2015-11-11 | 2017-05-19 | 주식회사 엠글리쉬 | 영어 발음기호를 이용한 외국어 및 자국어 표시장치 및 방법 |
JP2019053235A (ja) * | 2017-09-19 | 2019-04-04 | 有限会社オフィス・アイカワ | 言語学習システム及び言語学習方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022169208A1 (ko) * | 2021-02-05 | 2022-08-11 | 이기헌 | 영어 학습을 위한 음성 시각화 시스템 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
US20240304099A1 (en) | 2024-09-12 |
US12118898B2 (en) | 2024-10-15 |
CA3204157A1 (en) | 2022-08-11 |
WO2022169208A1 (ko) | 2022-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cole | Prosody in context: A review | |
Cole et al. | New methods for prosodic transcription: Capturing variability as a source of information | |
CN101346758B (zh) | 感情识别装置 | |
Ishi et al. | Automatic extraction of paralinguistic information using prosodic features related to F0, duration and voice quality | |
CN110334197A (zh) | 语料处理方法及相关装置 | |
Dunbar et al. | Self-supervised language learning from raw audio: Lessons from the zero resource speech challenge | |
Grice et al. | Tonal association and derived nuclear accents—The case of downstepping contours in German | |
Szekrényes | Annotation and interpretation of prosodic data in the hucomtech corpus for multimodal user interfaces | |
Cole et al. | Corpus phonology with speech resources | |
CN116631434A (zh) | 基于转换系统的视频语音同步方法、装置、电子设备 | |
KR102338563B1 (ko) | 영어 학습을 위한 음성 시각화 시스템 및 그 방법 | |
Ronzhin et al. | Survey of russian speech recognition systems | |
Oyebola et al. | A sociophonetic study on TH variation in Educated Nigerian English | |
van Heuven et al. | Quality evaluation of synthesized speech | |
Chong et al. | Prominence and intonation in Singapore English | |
Li et al. | Hierarchical stress modeling and generation in mandarin for expressive Text-to-Speech | |
Hlaing et al. | Phoneme based Myanmar text to speech system | |
Soman et al. | Corpus driven malayalam text-to-speech synthesis for interactive voice response system | |
CN115019787A (zh) | 一种交互式同音异义词消歧方法、系统、电子设备和存储介质 | |
Busso et al. | Fundamental Frequency Analysis | |
Karpiński | Acoustic features of filled pauses in Polish task-oriented dialogues | |
Pakrashi et al. | Analysis-By-Synthesis Modeling of Bengali Intonation | |
Hassan | A character gram modeling approach towards Bengali Speech to Text with Regional Dialects | |
Palivela et al. | Code-Switching ASR for Low-Resource Indic Languages: A Hindi-Marathi Case Study | |
Jiang | Synthesis of sarcastic speech: Research on adjusting pitch and energy at keyword level using FastSpeech2 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20210205 |
|
PA0201 | Request for examination | ||
PA0302 | Request for accelerated examination |
Patent event date: 20210215 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination Patent event date: 20210205 Patent event code: PA03021R01I Comment text: Patent Application |
|
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20210716 Patent event code: PE09021S01D |
|
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20211116 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20211208 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20211209 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20241128 Start annual number: 4 End annual number: 4 |