KR101591883B1 - 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기 - Google Patents

하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기 Download PDF

Info

Publication number
KR101591883B1
KR101591883B1 KR1020140116186A KR20140116186A KR101591883B1 KR 101591883 B1 KR101591883 B1 KR 101591883B1 KR 1020140116186 A KR1020140116186 A KR 1020140116186A KR 20140116186 A KR20140116186 A KR 20140116186A KR 101591883 B1 KR101591883 B1 KR 101591883B1
Authority
KR
South Korea
Prior art keywords
analog
language
speech
digital
signal
Prior art date
Application number
KR1020140116186A
Other languages
English (en)
Inventor
심재윤
조화숙
지영우
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020140116186A priority Critical patent/KR101591883B1/ko
Application granted granted Critical
Publication of KR101591883B1 publication Critical patent/KR101591883B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 하드웨어 기반의 신경망을 이용하여 언어 장애인의 원활한 언어 소통을 지원하는 기술에 관한 것이다.
이를 위해 본 발명은 학습 모드에서 아날로그 디지털 변환기를 통해 공급되는 음성신호를 근거로 사용자의 부정확한 말에 대응되는 정확한 말의 단어나 문장을 저장하고, 서비스 모드에서는 아날로그 디지털 변환기를 통해 공급되는 음성신호에 대응하여 학습모드에서 저장된 정확한 말의 단어나 문장을 읽어내어 그에 따른 디지털신호로 출력하는 신경회로망을 구비하는 것을 특징으로 한다.
따라서, 본 발명은 언어인식률을 향상시키고 불필요하게 전력이 소모되는 것을 방지할 수 있는 효과가 있다.

Description

하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기{USER ADAPTIVE SPEECH AUXILIARY DEVICE USING NEURAL NETWORK BASED HARDWARE}
본 발명은 하드웨어 기반의 신경망을 이용하여 언어 장애인의 원활한 언어 소통을 지원하는 기술에 관한 것으로, 특히 언어 장애인의 말을 특정 신경세포와 연결시키는 학습을 진행하여 언어인식 오류를 줄이고, 언어 장애인이 말을 할 때에만 자동으로 동작하여 불필요하게 전력이 소모되는 것을 방지할 수 있도록 한 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기에 관한 것이다.
일반적으로, 언어 장애인이란 선천적이거나 후천적인 요인으로 인하여 청각이나 발음 기관에 탈이 생기거나, 처음부터 말을 배우지 못하여 말을 전혀 하지 못하거나 상대방이 잘 알아들을 수 없게 말을 하는 사람을 일컫는다.
말을 전혀 하지 못하는 중증 언어 장애인에 대해서는 언어 소통을 가능하도록 서비스하는 기술이 아직 개발되지 않았거나 미미한 수준에 있다. 하지만, 상대방이 말을 잘 알아들을 수 없을 정도로 부정확하게 발음하는 경증 언어 장애인에 대해서는 언어 보조기기가 개발되어 보다 원활한 의사소통이 가능하게 되었다.
경증 언어 장애인과 처음 또는 몇 번의 대화를 하는 사람은 경증 언어 장애인이 하는 말을 잘 알아들을 수 없다. 하지만, 경증 언어 장애인의 가족과 같이 비교적 오랜 시간동안 자주 대화를 한 사람은 경증 언어 장애인이 하는 말을 대부분 알아들을 수 있다.
언어 보조기기는 경증 언어 장애인의 가족과 같이 경증 언어 장애인이 하는 말을 잘 인식하는 기능을 가지며, 인식된 말을 정확한 음성으로 재생하여 출력하므로 경증 언어 장애인의 상대방이 경증 언어 장애인과 좀 더 원활하게 대화할 수 있도록 서비스하는 기기이다.
그런데, 종래 기술에 의한 언어 보조기기는 사용자에 따라 언어 인식률의 차이가 비교적 크게 나타나 제품의 신뢰성 제고에 어려움이 있다. 그리고, 종래 기술에 의한 언어 보조기기는 소프트웨어 기반으로 개인이 휴대하기 어렵고, 항상 온 상태에 있어 전력이 낭비되는 결함이 있다.
본 발명이 해결하고자 하는 제1과제는 언어 장애인의 말을 특정 신경세포와 연결시키는 학습을 진행하여 언어인식 오류를 줄이는데 있다.
본 발명이 해결하고자 하는 제2과제는 신경망을 하드웨어 기반으로 구현하여 휴대가 용이하고 접근성이 향상되며, 사용자가 말을 하는 것을 인식하여 말을 하는 동안에만 동작하여 불필요하게 전력이 소모되는 것을 방지하는데 있다.
상기 기술적 과제를 이루기 위한 본 발명의 제1실시예에 따른 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기는, 마이크로폰을 통해 공급되는 언어장애자의 음성신호 중에서 잡음성분을 차단하는 전처리부; 상기 전처리부에서 출력되는 아날로그의 음성신호를 디지털 신호로 변환하는 아날로그 디지털 변환기; 학습 모드에서 상기 아날로그 디지털 변환기를 통해 공급되는 음성신호를 근거로 사용자의 부정확한 말에 대응되는 정확한 말의 단어나 문장을 저장하고, 서비스 모드에서 상기 아날로그 디지털 변환기를 통해 공급되는 음성신호에 대응하여 상기 학습모드에서 저장된 상기 정확한 말의 단어나 문장을 읽어내어 그에 따른 디지털신호로 출력하는 신경회로망; 상기 신경회로망에서 공급되는 디지털신호를 아날로그신호로 변환하여 스피커에 출력하는 디지털 아날로그 변환기; 및 사용자의 요청에 따라 언어 보조기기의 구동모드를 상기 학습모드 또는 서비스 모드로 변환하는 제어부;를 포함한다.
상기 기술적 과제를 이루기 위한 본 발명의 제2실시예에 따른 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기는, 마이크로폰을 통해 공급되는 언어장애자의 음성신호 중에서 잡음성분을 차단하는 전처리부; 상기 전처리부에서 출력되는 아날로그의 음성신호를 디지털 신호로 변환하는 아날로그 디지털 변환기; 학습 모드에서 상기 아날로그 디지털 변환기를 통해 공급되는 음성신호를 근거로 사용자의 부정확한 말에 대응되는 정확한 말의 단어나 문장을 저장하고, 서비스 모드에서 상기 아날로그 디지털 변환기를 통해 공급되는 음성신호에 대응하여 상기 학습모드에서 저장된 상기 정확한 말의 단어나 문장을 읽어내어 그에 따른 디지털신호로 출력하는 신경회로망; 상기 신경회로망에서 공급되는 디지털신호를 아날로그신호로 변환하여 스피커에 출력하는 디지털 아날로그 변환기; 사용자가 말할 때 사용자 성대 부분의 진동을 감지하여 그에 따른 진동감지신호를 출력하는 진동센서; 및 사용자의 요청에 따라 언어 보조기기의 구동모드를 상기 학습모드 또는 서비스 모드로 변환하고, 상기 진동센서로부터 공급되는 진동감지신호를 근거로 현재 모드를 대기모드 또는 서비스 모드로 운용하는 제어부;를 포함한다.
상기 신경회로망은 디지털 음성신호를 근거로 음성구간을 세분화하는 음성구간 세분화부; 세분화된 음성구간에서 특징 벡터를 추출하는 특징벡터 추출부; 추출된 특징벡터를 정규화 처리하는 특징벡터 정규화부; 및 정규화 처리된 특징벡터로부터 음성을 인식하여 그에 따른 음성인식결과를 출력하는 신경망 칩;을 포함한다.
본 발명에 따른 언어 보조기기는 언어 장애인의 말을 특정 신경세포와 연결시키는 학습을 진행하여 언어인식 오류를 줄임으로써, 제품의 경쟁력을 높일 수 있는 효과가 있다.
또한, 본 발명은 기존의 소프트웨어 기반의 신경망을 하드웨어로 기반으로 구현함으로써 휴대가 용이하여 활용 범위가 확대되고, 사용자가 말을 하는 것을 인식하여 말을 하는 동안에만 정상적으로 동작하고, 사용자가 말을 하고 있지 않을 때에는 대기모드로 운용되게 함으로써 불필요하게 전력이 소모되는 것을 방지할 수 있는 효과가 있다.
도 1은 본 발명의 제1실시예에 의한 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기의 블록도이다.
도 2는 도 1에서 신경회로망에 대한 상세 블록도이다.
도 3은 본 발명의 제2실시예에 의한 신경망을 이용한 사용자 적응형 언어 보조기기의 블록도이다.
도 4는 본 발명에 의한 사용자 적응형 언어 보조기기가 목걸이 형태로 제조된 예를 나타낸 개략도이다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하면 다음과 같다.
도 1은 본 발명의 제1실시예에 의한 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기의 블록도로서 이에 도시한 바와 같이, 언어 보조기기(100)는 마이크로폰(110), 전처리부(120), 아날로그 디지털 변환기(ADC)(130), 신경회로망(140), 디지털 아날로그 변환기(DAC)(150), 스피커(160), 제어부(170) 및 전원공급부(180)를 구비한다.
마이크로폰(110)은 경증 언어 장애인(이하, '사용자'라 칭함)이 말하는 음성신호를 전기적인 신호로 변환하여 출력한다.
전처리부(120)는 상기 마이크로폰(110)으로부터 공급되는 신호 중에서 가청주파수 대의 신호만을 통과시키고 그 이외의 주파수는 차단시킨다. 이에 따라, 상기 전처리부(120)의 출력단에서는 음성신호 주변에 포함되어 있는 잡음신호가 제거된 신호가 출력된다.
아날로그 디지털 변환부(130)는 상기 전처리부(120)에서 출력되는 아날로그의 음성신호를 디지털 신호로 변환하여 출력한다.
신경회로망(140)은 학습모드에서 상기 아날로그 디지털 변환기(130)를 통해 공급되는 디지털 음성신호를 근거로 사용자의 부정확한 말(어눌한 말)에 대한 학습을 하여 부정확한 말에 대응되는 정확한 말의 단어나 문장을 저장한다. 이때, 사용자 인터페이스(도면에 미표시)가 사용될 수 있다. 여기서, 상기 학습의 예를 설명하면 다음과 같다.
사용자가 '어머니'라를 말을 자신이 평상 시 하는 대로 부정확하게 발음하고, 이때, 상기 신경회로망(140)은 상기 아날로그 디지털 변환기(130)을 통해 상기 '어머니'에 대응되는 디지털신호를 공급받는다. 이때, 사용자는 사용자 인터페이스를 통해 '어머니'라는 단어를 입력할 수 있다. 이에 대하여, 상기 신경회로망(140)은 상기 '어머니'에 대응되는 디지털신호를 저장함과 아울러 상기 디지털신호에 대하여 해당 신경세포를 할당하고, 상기 해당 신경세포와 관련지어 '어머니'라는 단어의 디지털신호를 저장한다.
신경회로망(140)은 서비스모드에서 사용자가 '어머니'라고 말을 하면 상기 아날로그 디지털 변환기(130)를 통해 상기 '어머니'에 대응되는 디지털신호를 공급받는다. 이때, 상기 신경회로망(140)에서는 상기 학습모드에서 학습된 해당 신경세포가 반응하게 되고, 이에 의해 상기 학습모드에서 저장된 '어머니'라는 단어의 디지털신호를 출력한다.
상기 설명에서와 같이, 상기 신경회로망(140)은 학습모드에서 사용자의 말을 학습한 후 서비스모드에서 사용자가 말하는 단어들이나 문장들에 대응되는 정확한 단어들이나 문장들의 디지털신호를 출력한다.
디지털 아날로그 변환기(150)는 상기 신경회로망(140)에서 공급되는 디지털신호를 아날로그신호로 변환하여 스피커(160)에 출력한다.
이에 따라, 상기 스피커(160)에서는 사용자가 부정확하게 말한 단어나 문장에 대응되는 정확한 발음의 단어나 문장의 음성이 재생되어 출력된다. 따라서, 상기 사용자와 대화하는 상대방은 상기 스피커(160)에서 재생 출력되는 음성을 듣게 되므로, 사용자와 별다른 어려움 없이 대화할 수 있게 된다.
제어부(170)는 사용자의 요청에 따라 전원공급부(180)의 전원공급을 제어하여 언어 보조기기(100)의 구동모드를 상기 학습모드로 변환하거나 상기 서비스모드로 변환하는 역할을 수행한다. 그리고, 상기 제어부(170)는 상기 신경회로망(140)에 제어신호(CTL)를 출력하여 상기 학습모드나 서비스모드 동작을 제어할 수 있다.
전원공급부(180)는 언어 보조기기(100)의 각부 즉, 마이크로폰(110), 전처리부(120), 아날로그 디지털 변환기(130), 신경회로망(140), 디지털 아날로그 변환기(150), 스피커(160)의 구동에 필요한 전원(VDD)을 공급한다.
도 2는 상기 신경회로망(140)을 하드웨어적으로 구현한 예를 나타낸 것으로 이에 도시한 바와 같이, 음성구간 세분화부(141), 특징벡터 추출부(142), 특징벡터 정규화부(143) 및 신경망 칩(144)를 구비한다.
도 2를 참조하면, 음성구간 세분화부(141)는 상기 아날로그 디지털 변환부(130)로부터 공급되는 디지털 음성신호의 음성구간을 세분화한다. 특징벡터 추출부(142)는 상기 음성구간 세분화부(141)에 의해 세분화된 음성구간에서 특징 벡터를 추출한다. 특징벡터 정규화부(143)는 상기 특징벡터 추출부(142)에 의해 추출된 특징벡터를 정규화 처리한다. 신경망 칩(144)은 상기 특징벡터 정규화부(143)에 의해 정규화 처리된 특징벡터로부터 음성을 인식하여 그에 따른 음성인식결과를 출력한다.
한편, 도 3은 본 발명의 제2실시예에 의한 신경망을 이용한 사용자 적응형 언어 보조기기의 블록도로서 이에 도시한 바와 같이, 언어 보조기기(100)는 마이크로폰(110), 진동센서(110A), 전처리부(120), 아날로그 디지털 변환기(ADC)(130), 신경회로망(140), 디지털 아날로그 변환기(DAC)(150), 스피커(160), 제어부(170) 및 전원공급부(180)를 구비한다.
도 3을 상기 도 1과 비교할 때, 언어 보조기기(100)가 진동센서(110A)를 구비하고, 이를 이용하여 사용자가 말을 하지 않을 때 대기모드에 머물고 있다가 사용자가 말을 하는 것을 감지하여 서비스모드로 절환하는 것이 차이점으로, 이에 대하여 좀 더 상세히 설명하면 다음과 같다.
언어 보조기기(100)는 도 3에서와 같이 목걸이(190) 형태로 제작될 수 있으며, 사용자는 언어 보조기기(100)가 목의 성대부분에 접촉되도록 착용하는 것이 바람직하다. 이렇게 함으로써, 진동센서(110A)는 사용자가 말을 할 때 사용자 성대의 진동을 감지하여 그에 따른 진동감지신호를 출력할 수 있게 된다.
제어부(170)는 상기 전원공급부(180)의 전원공급을 제어하여, 평상시 언어 보조기기(100)를 전력소모량이 최소가 되는 대기모드로 운용하다가 상기 진동센서(110A)로부터 상기 진동감지신호가 공급될 때 현재 모드를 서비스모드 또는 학습모드로 변환하여 해당 기능이 수행되도록 한다. 이렇게 함으로써, 평상시 언어 보조기기(100)가 불필요하게 구동모드로 동작하여 전력이 낭비되는 것을 방지할 수 있다.
상기 진동센서(110A)를 이용하여 사용자의 성대 진동을 감지하는 방법은 특별히 한정되는 것이 아니라 여러 가지 방법으로 감지할 수 있다. 예를 들어, 상기 제어부(170)의 제어를 받아 상기 진동센서(110A)가 미리 정해진 주기(예: 0.5초)마다 사용자의 성대 진동을 감지할 수 있다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세히 설명하였지만, 본 발명의 권리범위가 이에 한정되는 것이 아니라 다음의 청구범위에서 정의하는 본 발명의 기본 개념을 바탕으로 보다 다양한 실시예로 구현될 수 있으며, 이러한 실시예들 또한 본 발명의 권리범위에 속하는 것이다.
100 : 언어 보조기기 110 : 마이크로폰
110A : 진동센서 120 : 전처리부
130 : 아날로그 디지털 변환기 140 : 신경회로망
150 : 디지털 아날로그 변환기 160 : 스피커
170 : 제어부 180 :전원공급부
190 : 목걸이

Claims (10)

  1. 마이크로폰을 통해 공급되는 언어장애자의 음성신호 중에서 잡음성분을 차단하는 전처리부;
    상기 전처리부에서 출력되는 아날로그의 음성신호를 디지털 신호로 변환하는 아날로그 디지털 변환기;
    학습 모드에서 상기 아날로그 디지털 변환기를 통해 공급되는 음성신호를 음성인식하여 상기 음성인식 결과를 근거로 사용자의 부정확한 말에 대응되는 정확한 말의 단어나 문장의 디지털신호를 사용자 인터페이스를 이용하여 대응되는 신경세포에 저장하고, 서비스 모드에서 상기 아날로그 디지털 변환기를 통해 공급되는 음성신호를 음성인식하여 상기 음성인식된 결과에 따라 상기 신경세포 중에서 해당 신경세포로부터 디지털신호를 읽어내어 출력하는 신경회로망;
    상기 신경회로망에서 공급되는 디지털신호를 아날로그신호로 변환하여 스피커에 출력하는 디지털 아날로그 변환기; 및
    사용자의 요청에 따라 언어 보조기기의 구동모드를 상기 학습모드 또는 서비스 모드로 변환하는 제어부;를 포함하는 것을 특징으로 하는 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에 있어서, 상기 신경회로망은,
    상기 아날로그 디지털 변환부로부터 공급되는 디지털 음성신호의 음성구간을 세분화처리하는 음성구간 세분화부;
    상기 음성구간 세분화부에 의해 세분화 처리된 음성구간에서 특징 벡터를 추출하는 특징벡터 추출부;
    상기 특징벡터 추출부에 의해 추출된 특징벡터를 정규화 처리하는 특징벡터 정규화부; 및
    상기 특징벡터 정규화부에 의해 정규화 처리된 특징벡터로부터 음성을 인식하여 그에 따른 음성인식결과를 출력하는 신경망 칩을 구비하는 것을 특징으로 하는 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기.
  6. 제1항에 있어서, 상기 언어 보조기기는 상기 언어보조기기의 각부에서 필요로 하는 전원을 공급하는 전원공급기를 더 포함하는 것을 특징으로 하는 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기.
  7. 마이크로폰을 통해 공급되는 언어장애자의 음성신호 중에서 잡음성분을 차단하는 전처리부;
    상기 전처리부에서 출력되는 아날로그의 음성신호를 디지털 신호로 변환하는 아날로그 디지털 변환기;
    학습 모드에서 상기 아날로그 디지털 변환기를 통해 공급되는 음성신호를 음성인식하여 상기 음성인식된 결과를 근거로 사용자의 부정확한 말에 대응되는 정확한 말의 단어나 문장의 디지털신호를 사용자 인터페이스를 이용하여 대응되는 신경세포에 저장하고, 서비스 모드에서 상기 아날로그 디지털 변환기를 통해 공급되는 음성신호를 음성인식하여 상기 음성인식된 결과에 따라 상기 신경세포 중에서 해당 신경세포로부터 디지털신호를 읽어내어 출력하는 신경회로망;
    상기 신경회로망에서 공급되는 디지털신호를 아날로그신호로 변환하여 스피커에 출력하는 디지털 아날로그 변환기;
    사용자가 말할 때 사용자 성대 부분의 진동을 감지하여 그에 따른 진동감지신호를 출력하는 진동센서; 및
    사용자의 요청에 따라 언어 보조기기의 구동모드를 상기 학습모드 또는 서비스 모드로 변환하고, 상기 진동센서로부터 공급되는 진동감지신호를 근거로 현재 모드를 대기모드 또는 서비스 모드로 운용하는 제어부;를 포함하는 것을 특징으로 하는 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기.
  8. 제7항에 있어서, 상기 진동센서는 미리 설정된 주기에 도달될 때마다 상기 성대 부분의 진동을 감지하는 것을 특징으로 하는 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기.
  9. 제7항에 있어서, 상기 언어 보조기기는 목걸이 형태의 구조를 갖는 것을 특징으로 하는 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기.
  10. 제7항에 있어서, 상기 언어 보조기기는 상기 언어보조기기의 각부에서 필요로 하는 전원을 공급하는 전원공급기를 더 포함하고, 상기 전원공급기는 상기 제어부의 제어를 받아 대기모드 또는 서비스 모드로 운용되는 것을 특징으로 하는 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기.
KR1020140116186A 2014-09-02 2014-09-02 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기 KR101591883B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140116186A KR101591883B1 (ko) 2014-09-02 2014-09-02 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140116186A KR101591883B1 (ko) 2014-09-02 2014-09-02 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기

Publications (1)

Publication Number Publication Date
KR101591883B1 true KR101591883B1 (ko) 2016-02-19

Family

ID=55448820

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140116186A KR101591883B1 (ko) 2014-09-02 2014-09-02 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기

Country Status (1)

Country Link
KR (1) KR101591883B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200062209A (ko) * 2017-09-15 2020-06-03 미씩 인크 혼성 신호 컴퓨팅 시스템 및 방법
KR102309505B1 (ko) * 2021-02-10 2021-10-06 김재성 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치 및 그 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000058531A (ko) * 2000-06-10 2000-10-05 김성석 음성합성 및 음성인식 기술을 이용한 언어 학습 및 훈련기능을 가진 완구의 제어방법
KR20010026402A (ko) * 1999-09-06 2001-04-06 윤장진 신경망을 이용한 음성인식장치 및 그 방법
KR20010065014A (ko) * 1999-12-20 2001-07-11 박종섭 메모리장치의 리페어 회로
KR200399231Y1 (ko) * 2005-08-12 2005-10-19 (주)씨에이앤에이 성대진동을 감지하는 센서를 통한 음성신호 변환장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010026402A (ko) * 1999-09-06 2001-04-06 윤장진 신경망을 이용한 음성인식장치 및 그 방법
KR20010065014A (ko) * 1999-12-20 2001-07-11 박종섭 메모리장치의 리페어 회로
KR20000058531A (ko) * 2000-06-10 2000-10-05 김성석 음성합성 및 음성인식 기술을 이용한 언어 학습 및 훈련기능을 가진 완구의 제어방법
KR200399231Y1 (ko) * 2005-08-12 2005-10-19 (주)씨에이앤에이 성대진동을 감지하는 센서를 통한 음성신호 변환장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200062209A (ko) * 2017-09-15 2020-06-03 미씩 인크 혼성 신호 컴퓨팅 시스템 및 방법
KR102653822B1 (ko) 2017-09-15 2024-04-02 미씩 인크 혼성 신호 컴퓨팅 시스템 및 방법
KR102309505B1 (ko) * 2021-02-10 2021-10-06 김재성 음성인식 및 인공지능의 학습을 이용한 개인별 맞춤형 보완대체 의사소통 장치 및 그 방법

Similar Documents

Publication Publication Date Title
EP3057092B1 (en) Methods for training a speech recognition system
JP6654611B2 (ja) 成長型対話装置
Shahamiri et al. Artificial neural networks as speech recognisers for dysarthric speech: Identifying the best-performing set of MFCC parameters and studying a speaker-independent approach
US9570074B2 (en) Behavior adjustment using speech recognition system
US20160343376A1 (en) Voice Recognition System of a Robot System and Method Thereof
EP2562746A1 (en) Apparatus and method for recognizing voice by using lip image
CN108766441A (zh) 一种基于离线声纹识别和语音识别的语音控制方法及装置
KR20150104345A (ko) 음성 합성 장치 및 음성 합성 방법
US20100178956A1 (en) Method and apparatus for mobile voice recognition training
US10362268B2 (en) Accessible electronic door entry system
Dhanjal et al. Tools and techniques of assistive technology for hearing impaired people
JP2019101385A (ja) 音声処理装置、音声処理方法及び音声処理用コンピュータプログラム
KR101591883B1 (ko) 하드웨어 기반의 신경망을 이용한 사용자 적응형 언어 보조기기
US12105876B2 (en) System and method for using gestures and expressions for controlling speech applications
JP2007155986A (ja) 音声認識装置および音声認識装置を備えたロボット
KR20130068598A (ko) 외국어 학습자의 발음 평가 장치 및 방법
Mulfari et al. Edge computing solutions supporting voice recognition services for speakers with dysarthria
KR102557092B1 (ko) 투명 디스플레이를 이용한 자동 통번역 및 대화 보조 시스템
JP2008052178A (ja) 音声認識装置と音声認識方法
Bousquet-Vernhettes et al. Error handling in spoken dialogue systems: toward corrective dialogue
US11100814B2 (en) Haptic and visual communication system for the hearing impaired
KR20130065064A (ko) 음성인식정보를 수화정보로 자동변환시켜 제공하는 시스템
KR102207812B1 (ko) 발화 장애인들 및 외국인의 보편적 의사소통을 위한 음성 개선 방법
JP2015187738A (ja) 音声翻訳装置、音声翻訳方法および音声翻訳プログラム
US11783813B1 (en) Methods and systems for improving word discrimination with phonologically-trained machine learning models

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190102

Year of fee payment: 4