KR101621778B1 - 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 - Google Patents
음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 Download PDFInfo
- Publication number
- KR101621778B1 KR101621778B1 KR1020140008742A KR20140008742A KR101621778B1 KR 101621778 B1 KR101621778 B1 KR 101621778B1 KR 1020140008742 A KR1020140008742 A KR 1020140008742A KR 20140008742 A KR20140008742 A KR 20140008742A KR 101621778 B1 KR101621778 B1 KR 101621778B1
- Authority
- KR
- South Korea
- Prior art keywords
- formant
- voice
- unit
- ratio
- alcohol
- Prior art date
Links
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000035622 drinking Effects 0.000 claims description 36
- 239000000284 extract Substances 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 239000003651 drinking water Substances 0.000 abstract 1
- 235000020188 drinking water Nutrition 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 230000001476 alcoholic effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Z—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
- G16Z99/00—Subject matter not provided for in other main groups of this subclass
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4845—Toxicology, e.g. by detection of alcohol, drug or toxic products
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
- A61B2010/0009—Testing for drug or alcohol abuse
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Toxicology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Epidemiology (AREA)
- Developmental Disabilities (AREA)
- Pharmacology & Pharmacy (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Telephone Function (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
음성 신호의 포만트 기울기를 분석하여 음주 여부를 판별할 수 있는 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기를 개시한다.
음주 판별 단말기는 음성 신호를 입력받아 음성 프레임을 생성하는 음성 입력부와, 음성 프레임을 입력받아 유성음에 해당하는지 여부를 판정하는 유/무성음 분석부와, 유성음에 해당하는 음성 프레임의 복수 개의 포만트 주파수를 추출하는 포만트 주파수 추출부 및 복수 개의 포만트 주파수 간의 포만트 기울기를 생성하고, 포만트 기울기에 따라 음주 상태를 판단하는 음주 판별부를 포함하므로, 입력되는 음성의 포만트 기울기를 분석하여 음주 여부를 판별할 수 있다.
음주 판별 단말기는 음성 신호를 입력받아 음성 프레임을 생성하는 음성 입력부와, 음성 프레임을 입력받아 유성음에 해당하는지 여부를 판정하는 유/무성음 분석부와, 유성음에 해당하는 음성 프레임의 복수 개의 포만트 주파수를 추출하는 포만트 주파수 추출부 및 복수 개의 포만트 주파수 간의 포만트 기울기를 생성하고, 포만트 기울기에 따라 음주 상태를 판단하는 음주 판별부를 포함하므로, 입력되는 음성의 포만트 기울기를 분석하여 음주 여부를 판별할 수 있다.
Description
음성 분석을 이용한 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기에 관한 것이다.
음주운전 사고는 개인에 따라 정도의 차이는 있을 수 있으나 대부분 만취나 반취상태에서 발생하는 경우가 많다. 음주상태를 측정하는 방법으로는 알코올 센서가 장착된 호흡형 음주측정기기를 사용하여 호흡 시에 내뿜는 공기에서 알코올 농도를 측정하는 방법과 레이저를 이용하여 혈류량에 포함된 알코올 농도를 측정하는 방법이 있다. 일반적으로 음주 단속에 사용되는 방법으로는 흔히 전자의 방법이 사용되는데, 일부 음주측정에 불복하는 운전자에 대해 운전자의 동의를 얻어 혈액 채취 등의 방법으로 혈중 알코올 농도를 추정하는 위드마크(Widmark) 공식을 사용하는 경우도 있다.
음주운전을 사전에 방지하고자 운전자의 알코올 섭취여부를 판독하여 자동차의 시동장치를 제어하는 기술이 실용화되어, 일부 자동차에 장착되어 시판되고 있다. 이러한 기술은 알코올 측정센서가 장착된 검출기기를 자동차의 시동장치에 부착하여 자동차의 시동을 On/Off하는 원리로서 국내외 자동차 회사들이 활발히 연구하고 있는 분야이다. 이러한 방법들은 알코올 센서를 사용하기 때문에 비교적 정확한 알코올농도를 측정할 수 있다. 그러나, 자동차 실내 환경과 같이 먼지나 습기가 많은 환경에서는 알코올 센서의 정확도가 떨어지고, 잦은 고장으로 인하여 반영구적이지 못하다. 또한, 센서의 수명이 짧아 전자장치에 결합된 센서를 교환하기 위하여 전자장치를 수리하여야 하는 불편함이 있다.
본 발명의 일측면은 음성 신호의 포만트 기울기를 분석하여 음주 여부를 판별할 수 있는 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기에 관한 것이다.
이를 위한 본 발명의 일측면에 의한 음주 판별 방법은 음성 신호를 입력받아 복수 개의 음성 프레임으로 변환하고, 상기 복수 개의 음성 프레임 중 유성음에 해당하는 음성 프레임을 추출하고, 상기 유성음에 해당하는 음성 프레임의 복수 개의 포만트 주파수를 추출하고, 상기 복수 개의 포만트 주파수 중 2개의 포만트 주파수 간의 포만트 기울기를 추출하며, 상기 포만트 기울기에 따라 음주 상태를 판단할 수 있다.
상기 유성음에 해당하는 음성 프레임의 복수 개의 포만트 주파수를 추출하는 것은, 상기 음성 프레임의 제1포만트 주파수 내지 제4포만트 주파수를 추출할 수 있다.
상기 복수 개의 포만트 주파수 중 2개의 포만트 주파수 간의 포만트 기울기를 추출하는 것은 제1포만트 주파수와 제4포만트 주파수 간의 포만트 기울기를 추출하거나, 제2포만트 주파수와 제4포만트 주파수 간의 포만트 주파수 간의 포만트 기울기를 추출할 수 있다.
상기 포만트 기울기에 따라 음주 상태를 판단하는 것은, 상기 포만트 기울기가 미리 정해진 임계값보다 낮은 음성 프레임의 개수를 카운팅하고, 전체 음성 프레임의 개수 대비 상기 카운팅된 음성 프레임의 개수의 비율을 산출하고, 상기 산출된 비율이 미리 정해진 비율값보다 크면 음주 상태인 것으로 판단할 수 있다.
그리고, 본 발명의 일실시예에 의한 기록 매체는 상술한 음주 판별 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능할 수 있다.
그리고, 본 발명의 일실시예에 의한 음주 판별 단말기는 음성 신호를 입력받아 음성 프레임을 생성하는 음성 입력부;와, 상기 음성 프레임을 입력받아 유성음에 해당하는지 여부를 판정하는 유/무성음 분석부;와, 상기 유성음에 해당하는 음성 프레임의 복수 개의 포만트 주파수를 추출하는 포만트 주파수 추출부; 및 상기 복수 개의 포만트 주파수 간의 포만트 기울기를 생성하고, 포만트 기울기에 따라 음주 상태를 판단하는 음주 판별부를 포함할 수 있다.
상기 음주 판별부는 음성 신호의 전체 구간 중 유성음으로 판단된 음성 프레임의 포만트 기울기와 미리 저장된 임계값을 비교하고, 임계값보다 작은 포만트 기울기를 가지는 음성 프레임의 개수를 카운팅하는 카운팅부를 포함할 수 있다.
상기 음주 판별부는 상기 카운팅부에 의해 산출된 결과를 전체 음성 프레임의 개수와 비교하여 비율을 산출하는 비율 산출부를 더 포함할 수 있다.
상기 음주 판별부는 상기 비율 산출부에 의해 산출된 비율이 미리 정해진 비율값보다 크면 음주 상태로 판정하는 판정부를 더 포함할 수 있다.
상기 음주 판별부가 상기 복수 개의 포만트 주파수 간의 포만트 기울기를 생성하는 것은, 상기 포만트 주파수 중 제1포만트 주파수와 제4포만트 주파수 간의 포만트 기울기 또는 제2포만트 주파수와 제4포만트 주파수 간의 포만트 기울기 중 어느 하나의 포만트 기울기를 생성하는 것일 수 있다.
이상에서 설명한 바와 같이, 본 발명의 일측면에 의하면 입력되는 음성 신호의 포만트 기울기를 분석하여 음주 여부를 판별할 수 있다.
도 1은 본 발명의 일실시예에 의한 음주 판별 단말기의 제어블록도
도 2는 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 음성 입력부에서 음성 신호를 음성 프레임으로 변환시키는 개념을 설명하기 위한 도면
도 3은 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 유/무성음 분석부의 제어블록도
도 4는 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 포만트 주파수 추출부에서 추출된 포만트 주파수를 나타내는 그래프
도 5는 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 포만트 기울기 추출부의 동작을 설명하기 위한 그래프
도 6은 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 음주 판별부의 제어블록도
도 7은 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 음주 판별부의 동작을 설명하기 위해 제1포만트 주파수와 제4포만트 주파수 사이의 기울기를 예시한 도면
도 8은 본 발명의 일실시예에 의한 음주 판별 방법의 제어흐름도
도 2는 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 음성 입력부에서 음성 신호를 음성 프레임으로 변환시키는 개념을 설명하기 위한 도면
도 3은 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 유/무성음 분석부의 제어블록도
도 4는 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 포만트 주파수 추출부에서 추출된 포만트 주파수를 나타내는 그래프
도 5는 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 포만트 기울기 추출부의 동작을 설명하기 위한 그래프
도 6은 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 음주 판별부의 제어블록도
도 7은 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 음주 판별부의 동작을 설명하기 위해 제1포만트 주파수와 제4포만트 주파수 사이의 기울기를 예시한 도면
도 8은 본 발명의 일실시예에 의한 음주 판별 방법의 제어흐름도
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 사용하기로 한다.
도 1은 본 발명의 일실시예에 의한 음주 판별 단말기의 제어블록도이다.
음주 판별 단말기(100)는 음성 입력부(110), 유/무성음 분석부(120), 포만트 주파수 추출부(130), 포만트 기울기 추출부(140) 및 음주 판별부(150)를 포함할 수 있다.
음성 입력부(110)는 사람의 음성을 입력받아 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환하여 출력할 수 있다. 음성 입력부(110)는 FFT(Fast Fourier Transform) 등의 변환 방식을 통해 주파수 도메인으로 음성 신호를 변환할 수 있다.
유/무성음 분석부(120)는 음성 프레임을 입력받아 기 설정된 특징들을 추출하고, 추출된 특징들에 따라 입력된 음성 프레임이 유성음, 무성음 또는 잡음에 대한 것인지 여부를 분석할 수 있다.
유/무성음 분석부(120)는 상술한 방식에 의한 인식 결과에 따라 입력된 음성 프레임이 유성음, 무성음 또는 배경 잡음인지에 대한 판단을 하고, 그 결과에 따라 음성 프레임을 유성음, 무성음 또는 배경 잡음으로 분리하여 출력할 수 있다.
포만트 주파수 추출부(130)는 유/무성음 분석부(120)를 통해 유성음으로 판단된 음성 프레임에 대한 포만트 주파수를 추출할 수 있다. 포만트 주파수는 입력된 음성 신호의 스펙트로그램(spectrogram)에서 음향 에너지가 집중된 주파수 대역의 피크이다. 포만트가 있는 주파수 대역은 음향에너지가 비교적 높은 강도를 가지고 있다는 것을 의미한다. 따라서, 자음에서는 포만트 주파수가 없고, 모음에서만 나타난다. 포만트 주파수는 주파수 세기의 분포에서 고조파가 낮은 것부터 차례로 F1, F2, F3, F4, F5라 한다. 일반적으로 성인 남성의 경우 5000Hz까지 범위 내에서 5개 정도가 발생된다. 성인 여성의 경우 남성보다 1개 적은 4개 정도가 발생이 된다.
포만트 기울기 추출부(140)는 포만트 주파수 추출부(130)에 의해 추출된 포만트 주파수를 이용하여 포만트 기울기를 구한다. 포만트 기울기는 어느 하나의 포만트 주파수와 다른 하나의 포만트 주파수를 잇는 직선의 기울기이다. 예를 들어, 제1포만트 주파수(F1)와 제4포만트 주파수(F4)를 잇는 직선의 기울기를 포만트 기울기(F14)라고 정의내릴 수 있다.
음주 판별부(150)는 포만트 기울기를 이용하여 음주 여부를 판별할 수 있다. 음주 후의 주파수 특징은 음주자가 말을 빨리하지 못하여 발음의 정확도가 떨어진다는 점이다. 이러한 현상으로 주파수 영역에서 스펙트럼의 평탄화라는 특징이 나타나게 되는데, 이는 주파수 영역에서 완만한 기울기의 포만트 곡선을 얻을 수 있다는 결과와 같은 의미이다. 이에 따라, 음주 판별부(150)는 유성음으로 판단된 음성 프레임의 포만트 기울기와 임계값을 비교 시 작은 것으로 판단된 음성 프레임의 개수가 전체 음성 프레임의 개수 대비 일정 비율 이상이면 음주 상태인 것으로 판단할 수 있다.
도 2는 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 음성 입력부에서 음성 신호를 음성 프레임으로 변환시키는 개념을 설명하기 위한 도면이다.
통상적으로 아날로그 음성신호는 초당 8000개의 샘플과 16비트(65535단계)의 크기로 샘플링하여 음성데이터로 변환된다.
음성 입력부(110)는 입력되는 음성 신호를 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환할 수 있다. 여기서, 하나의 음성 프레임 데이터는 256개의 에너지 값을 갖게 된다.
음성 데이터는 도 2에서와 같이, 입력되는 음성에 따라 다수의 음성 프레임들(n=프레임의 개수, n=1,2,3,....)로 구성된다.
음성 입력부(110)는 음성 프레임을 생성한 후, 그 정보를 유/무성음 분석부(120)로 전송한다.
도 3은 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 유/무성음 분석부의 제어블록도이다.
유/무성음 분석부(120)는 음성 프레임을 입력받아 기 설정된 특징들을 추출하는 특징 추출부(121)와, 음성 프레임의 인식 결과를 도출하는 인식부(122)와, 인식 결과에 따라 입력된 음성 프레임이 유성음에 대한 것인지 무성음에 대한 것인지, 또는 배경 잡음에 의한 것인지를 판별하는 판단부(123)와, 판별 결과에 따라 음성 프레임을 분리하여 출력하는 분리 출력부(124)를 포함할 수 있다.
특징 추출부(121)는 음성 입력부(110)를 통해 음성 프레임이 입력되면, 그 음성 프레임으로부터 고조파의 주기적 특성 또는 저대역 음성 신호 에너지 영역의 크기(RMSE : Root Mean Squared Energy of Signal)나 0점 교차 횟수(Zero-Crossing Count : ZC) 등과 같은 특징들을 추출할 수 있다.
인식부(122)는 일반적으로 신경망으로 구성될 수 있다. 이는 신경망의 특성상, 비선형적, 즉 수학적으로 해결 가능하지 않은 복잡한 문제들을 분석하는데 유용하기 때문에, 음성 신호들을 분석하고, 분석된 결과에 따라 해당 음성 신호를 유성음 또는 무성음 및 배경 잡음으로 판단하기에 적합하기 때문이다. 이러한 신경망으로 구성된 인식부(122)는 특징 추출부(121)로부터 추출된 특징들에 기 설정된 가중치를 부여하고, 신경망 계산 과정을 통해 음성 프레임의 인식 결과를 도출할 수 있다. 여기서 인식 결과라는 것은 음성 프레임에 대해 각 음성 프레임의 특징별로 부여된 가중치에 따라 각각의 계산 요소를 계산한 결과, 산출된 값을 말한다.
판단부(123)는 상술한 인식 결과, 즉 인식부(122)로부터 산출된 값에 따라 입력된 음성 신호가 유성음인지 무성음인지에 대한 판단을 하고, 판단부(123)의 판단 결과에 따라 분리 출력부(124)는 음성 프레임을 유성음, 무성음 또는 배경잡음으로 분리하여 출력할 수 있다.
한편, 유성음의 경우 다양한 특징들이 무성음 및 배경 잡음과 확연히 차이가 나므로, 이를 구분하기는 상대적으로 쉬운 편이며 공지된 여러 가지 기술이 있다. 예를 들어, 유성음의 경우 고조파가 일정 주기를 반복하여 나타나는 주기적 특성을 가지고 있는 반면, 배경 잡음은, 고조파라는 특징을 가지지 않는다. 그런데, 무성음의 경우에는 고조파가 있기는 하여도 그것이 가지는 주기성이 약하다. 다시 말해, 유성음의 경우 고조파가 하나의 프레임 안에서도 반복된다는 특성이 있으나, 무성음의 경우 고조파가 있다고는 하나, 고조파의 주기성과 같은 유성음의 특성이, 몇 개 이상의 프레임에 걸쳐서 나타나게 될 정도로 약하게 나타난다는 특성이 있다
도 4는 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 포만트 주파수 추출부에서 추출된 포만트 주파수를 나타내는 그래프이다.
포만트 주파수를 구하는 방법은 여러 가지가 있다. 여러 가지 방법 중 LPC 캡스트럼(cepstrum)을 이용한 방법에 대해 설명한다. 다만, 공지된 모든 방식이 본 발명에 포함됨은 물론이다.
포만트 주파수 추출부(130)는 LPC 캡스트럼을 구하기 위해 입력된 신호의 불연속성을 최소화할 수 있도록 hamming window를 취할 수 있다.
수식 1
여기서 N은 샘플수이고, x(n)은 입력신호이다. 윈도우를 취한 신호에 수식 2와 같이 autocorrelation방법을 적용하여 AR계수를 구한다. 여기서 p는 차수를 의미한다.
수식 2
LPC 분석을 통한 필터게수 a는 수식 3에 의해 얻을 수 있으며, R은 Toeplitz autocorrelation matrix를 나타낸다.
수식 3
필터계수 a는 수식 4에 의해 LPC 캡스트럼 계수 c로 변환되며, m은 (3/2)*p까지의 값을 갖는다.
수식 4
도 4는 포만트 주파수 추출부(130)에 의해 상술한 방식을 사용하여, 발음 ‘아’에 대한 진폭 스펙트럼과 LPC 스펙트럼을 도시한 것이다. 여기서, 진한 선이 LPC 스펙트럼이며, LPC 스펙트럼에서 낮은 주파수부터 피크를 찾으면 그것이 F1, F2, F3, F4, F5가 된다.
도 5는 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 포만트 기울기 추출부의 동작을 설명하기 위한 그래프이다.
포만트 기울기 추출부(140)는 포만트 주파수 추출부(130)를 통해 추출된 포만트 주파수를 이용하여 포만트 기울기를 추출할 수 있다.
포만트 기울기 추출부(140)는 도 5를 참조하면, 제1포만트 주파수(F1)와 제4포만트 주파수(F4) 간의 기울기(①), 제1포만트 주파수(F1)와 제3포만트 주파수 간의 기울기(②), 제1포만트 주파수(F1)와 제2포만트 주파수(F2) 간의 기울기(③)를 추출할 수 있다. 여기서 복수 개의 포만트 기울기 중 F14와, F24가 음주 판단에 더욱 효과가 있다. 사람은 음주 후의 신체적 변화로 목소리의 크기를 제어하는 능력이 저하된다. 이에 따라, 에너지 변화를 이용해 리듬을 타듯 대화를 매끄럽게 이끌어내지 못하므로, 연속적으로 소리를 내어 발음하거나 작게 발음해야 할 경우도 크게 발음한다. 이런 특징은 제1포만트(F1)에 변화가 생기는 것을 의미한다. 또한, 음주를 하게 되면 발음할 때 혀의 위치에도 변화가 생기는데 이는 제2포만트(F2)에 영향을 준다. 즉, 혀가 앞에 위치하게 되면 제2포만트가 커지고 뒤에 있으면 작아진다. 제4포만트(F4)는 조음기관의 영향을 거의 받지 않으므로 음주 전후에 거의 일정하다. 따라서, F14와 F24의 변화량에 따라 음주 여부 판단이 더욱 용이해질 수 있다.
도 6은 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 음주 판별부의 제어블록도이며, 도 7은 본 발명의 일실시예에 의한 음주 판별 단말기에 포함되는 음주 판별부의 동작을 설명하기 위해 제1포만트 주파수와 제4포만트 주파수 사이의 기울기를 예시한 도면이다.
음주 판별부(150)는 카운팅부(151), 비율 산출부(152), 판정부(153) 및 저장부(154)를 포함할 수 있다.
카운팅부(151)는 음성 신호의 전체 구간 중 유성음으로 판단된 음성 프레임의 포만트 기울기와 미리 저장된 임계값을 비교하고, 임계값보다 작은 포만트 기울기를 가지는 음성 프레임의 개수를 카운팅한다.
도 7을 참조하면, 포만트 기울기 추출부(140)는 음성 프레임의 제1포만트 주파수와 제4포만트 주파수 간의 기울기를 추출한다. 수식 5에 나타난 것처럼, 포만트 기울기는 제1포만트 주파수와 제4포만트 주파수를 잇는 선을 빗변으로 하는 삼각형의 밑변(a)과 높이(b)의 비를 의미한다.
수식 5
여기서, a는 주파수의 변화율이고, b는 에너지의 변화율이다.
비율 산출부(152)는 카운팅부(151)에 의해 산출된 결과를 전체 음성 프레임(유성음으로 판단된 전체 음성 프레임)의 개수와 비교하여 그 비율을 산출한다. 비율 산출부(152)는 다음 수식 6에 따라 비율을 산출한다.
수식 6
여기서, C는 카운팅된 개수이며, T는 전체 음성 프레임(유성음으로 판단된 전체 음성 프레임)의 개수이다.
판정부(153)는 비율 산출부(152)에 의해 산출된 비율이 저장부(154)에 미리 저장된 비율값(Nth)보다 크면 음주 상태인 것으로 판정한다.
도 8은 본 발명의 일실시예에 의한 음주 판별 방법의 제어흐름도이다.
음성 입력부(110)는 사람의 음성을 입력받아 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임으로 변환하여 출력할 수 있다. 음성 입력부(110)는 FFT(Fast Fourier Transform) 등의 변환 방식을 통해 주파수 도메인으로 음성 신호를 변환할 수 있다.(200,210)
유/무성음 분석부(120)는 음성 프레임을 입력받아 기 설정된 특징(예를 들면, )들을 추출하고, 추출된 특징들에 따라 입력된 음성 프레임이 유성음, 무성음 또는 배경 잡음에 대한 것인지 여부를 분석할 수 있다. (220)
유/무성음 분석부(120)는 상술한 방식에 의한 인식 결과에 따라 입력된 음성 프레임이 유성음인지 무성음인지에 대한 판단을 하고, 그 결과에 따라 유성음에 해당하는 음성 프레임을 추출하여 출력할 수 있다.(230)
포만트 주파수 추출부(130)는 유/무성음 분석부(120)를 통해 유성음으로 판단된 음성 프레임에 대한 포만트 주파수를 추출할 수 있다. 포만트 주파수는 주파수 세기의 분포에서 고주파가 낮은 것부터 차례로 F1, F2, F3, F4, F5라 한다.(240)
포만트 기울기 추출부(140)는 포만트 주파수 추출부(130)에 의해 추출된 포만트 주파수를 이용하여 포만트 기울기를 구한다. 포만트 기울기는 어느 하나의 포만트 주파수와 다른 하나의 포만트 주파수를 잇는 직선의 기울기이다. 예를 들어, 제1포만트 주파수(F1)와 제4포만트 주파수(F4)를 잇는 직선의 기울기를 포만트 기울기 F14라고 정의내릴 수 있다.(250)
음주 판별부(150)는 포만트 기울기를 이용하여 음주 여부를 판별할 수 있다. 음주 판별부(150)는 유성음으로 판단된 음성 프레임의 포만트 기울기와 임계값을 비교하고, 임계값 대비 작은 것으로 판단된 음성 프레임의 개수가 전체 음성 프레임(유성음으로 판단된 전체 음성 프레임)의 개수 대비 일정 비율 이상 존재하면 음주 상태인 것으로 판단할 수 있다.(260,270,280,290)
비록 본 발명이 상기에서 언급한 바람직한 실시예와 관련하여 설명되어졌지만, 본 발명의 요지와 범위로부터 벗어남이 없이 다른 다양한 수정 및 변형이 가능한 것은 당업자라면 용이하게 인식할 수 있을 것이며, 이러한 변경 및 수정은 모두 첨부된 특허청구범위의 범위에 속함은 자명하다.
Claims (10)
- 음성 신호를 입력받아 복수 개의 음성 프레임으로 변환하고,
상기 복수 개의 음성 프레임 중 유성음에 해당하는 음성 프레임을 추출하고,
상기 유성음에 해당하는 음성 프레임의 제1포만트 주파수 내지 제4포만트 주파수를 추출하고,
상기 추출된 포만트 주파수 중 제2포만트 주파수와 제4포만트 주파수 간의 포만트 기울기를 추출하며,
상기 포만트 기울기가 미리 정해진 임계값보다 작은 음성 프레임의 개수를 카운팅하고, 전체 음성 프레임의 개수 대비 상기 카운팅된 음성 프레임의 개수의 비율을 산출하고, 상기 산출된 비율이 미리 정해진 비율값보다 크면 음주 상태인 것으로 판단하는 음주 판별 방법. - 삭제
- 삭제
- 삭제
- 제 1 항에 따른 음주 판별 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체.
- 음성 신호를 입력받아 음성 프레임을 생성하는 음성 입력부;
상기 음성 프레임을 입력받아 유성음에 해당하는지 여부를 판정하는 유/무성음 분석부;
상기 유성음에 해당하는 음성 프레임의 제1포만트 주파수 내지 제4포만트 주파수를 추출하는 포만트 추출부; 및
상기 추출된 포만트 주파수 중 제2포만트 주파수와 제4포만트 주파수 간의 포만트 기울기를 추출하고, 상기 포만트 기울기가 미리 정해진 임계값보다 작은 음성 프레임의 개수를 카운팅하고, 전체 음성 프레임의 개수 대비 상기 카운팅된 음성 프레임의 개수의 비율을 산출하고, 상기 산출된 비율이 미리 정해진 비율값보다 크면 음주 상태로 판단하는 음주 판별부를 포함하는 음주 판별 단말기. - 제 6 항에 있어서,
상기 음주 판별부는 음성 신호의 전체 구간 중 유성음으로 판단된 음성 프레임의 포만트 기울기와 미리 저장된 임계값을 비교하고, 임계값보다 작은 포만트 기울기를 가지는 음성 프레임의 개수를 카운팅하는 카운팅부를 포함하는 음주 판별 단말기. - 제 7 항에 있어서,
상기 음주 판별부는 상기 카운팅부에 의해 산출된 결과를 전체 음성 프레임의 개수와 비교하여 비율을 산출하는 비율 산출부를 더 포함하는 음주 판별 단말기. - 제 8 항에 있어서,
상기 음주 판별부는 상기 비율 산출부에 의해 산출된 비율이 미리 정해진 비율값보다 크면 음주 상태로 판정하는 판정부를 더 포함하는 음주 판별 단말기. - 삭제
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140008742A KR101621778B1 (ko) | 2014-01-24 | 2014-01-24 | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 |
US15/113,743 US9899039B2 (en) | 2014-01-24 | 2014-01-24 | Method for determining alcohol consumption, and recording medium and terminal for carrying out same |
PCT/KR2014/000727 WO2015111772A1 (ko) | 2014-01-24 | 2014-01-24 | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140008742A KR101621778B1 (ko) | 2014-01-24 | 2014-01-24 | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150088927A KR20150088927A (ko) | 2015-08-04 |
KR101621778B1 true KR101621778B1 (ko) | 2016-05-17 |
Family
ID=53681565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140008742A KR101621778B1 (ko) | 2014-01-24 | 2014-01-24 | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9899039B2 (ko) |
KR (1) | KR101621778B1 (ko) |
WO (1) | WO2015111772A1 (ko) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106941644A (zh) * | 2016-01-05 | 2017-07-11 | 中兴通讯股份有限公司 | 一种智能设备的声音触发方法及智能设备 |
JP6312014B1 (ja) * | 2017-08-28 | 2018-04-18 | パナソニックIpマネジメント株式会社 | 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム |
JP6337362B1 (ja) * | 2017-11-02 | 2018-06-06 | パナソニックIpマネジメント株式会社 | 認知機能評価装置、及び、認知機能評価システム |
US11076274B1 (en) * | 2019-01-28 | 2021-07-27 | United Services Automobile Association (Usaa) | Monitoring of data to predict driving events |
Family Cites Families (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9419388D0 (en) * | 1994-09-26 | 1994-11-09 | Canon Kk | Speech analysis |
KR100206205B1 (ko) | 1995-12-23 | 1999-07-01 | 정몽규 | 음성 인식 기능을 이용한 음주운전 방지장치 및 방법 |
US6446038B1 (en) * | 1996-04-01 | 2002-09-03 | Qwest Communications International, Inc. | Method and system for objectively evaluating speech |
US5776055A (en) | 1996-07-01 | 1998-07-07 | Hayre; Harb S. | Noninvasive measurement of physiological chemical impairment |
KR100201256B1 (ko) | 1996-08-27 | 1999-06-15 | 윤종용 | 음성을 이용한 차량 시동 제어장치 |
JP2955247B2 (ja) * | 1997-03-14 | 1999-10-04 | 日本放送協会 | 話速変換方法およびその装置 |
US6006188A (en) * | 1997-03-19 | 1999-12-21 | Dendrite, Inc. | Speech signal processing for determining psychological or physiological characteristics using a knowledge base |
KR19990058415A (ko) | 1997-12-30 | 1999-07-15 | 윤종용 | 음주 운전 방지 시스템 |
WO2001007281A1 (en) | 1999-07-24 | 2001-02-01 | Novtech Co Ltd | Apparatus and method for prevention of driving of motor vehicle under the influence of alcohol and prevention of vehicle theft |
US7222075B2 (en) * | 1999-08-31 | 2007-05-22 | Accenture Llp | Detecting emotions using voice signal analysis |
US6275806B1 (en) * | 1999-08-31 | 2001-08-14 | Andersen Consulting, Llp | System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters |
US6427137B2 (en) * | 1999-08-31 | 2002-07-30 | Accenture Llp | System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud |
JP4696418B2 (ja) | 2001-07-25 | 2011-06-08 | ソニー株式会社 | 情報検出装置及び方法 |
EP1300831B1 (en) * | 2001-10-05 | 2005-12-07 | Sony Deutschland GmbH | Method for detecting emotions involving subspace specialists |
US7283962B2 (en) * | 2002-03-21 | 2007-10-16 | United States Of America As Represented By The Secretary Of The Army | Methods and systems for detecting, measuring, and monitoring stress in speech |
KR100497837B1 (ko) * | 2002-10-16 | 2005-06-28 | 이시우 | 유무선 통신망과 음성신호를 이용한 음주상태의 안내서비스 시스템 |
US8972266B2 (en) * | 2002-11-12 | 2015-03-03 | David Bezar | User intent analysis extent of speaker intent analysis system |
US20040167774A1 (en) * | 2002-11-27 | 2004-08-26 | University Of Florida | Audio-based method, system, and apparatus for measurement of voice quality |
KR100511316B1 (ko) * | 2003-10-06 | 2005-08-31 | 엘지전자 주식회사 | 음성신호의 포만트 주파수 검출방법 |
EP1531458B1 (en) * | 2003-11-12 | 2008-04-16 | Sony Deutschland GmbH | Apparatus and method for automatic extraction of important events in audio signals |
US8938390B2 (en) * | 2007-01-23 | 2015-01-20 | Lena Foundation | System and method for expressive language and developmental disorder assessment |
US9300790B2 (en) * | 2005-06-24 | 2016-03-29 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
US8478596B2 (en) | 2005-11-28 | 2013-07-02 | Verizon Business Global Llc | Impairment detection using speech |
KR100664271B1 (ko) | 2005-12-30 | 2007-01-04 | 엘지전자 주식회사 | 음원분리가 가능한 휴대용 단말기 및 그 방법 |
KR100717625B1 (ko) * | 2006-02-10 | 2007-05-15 | 삼성전자주식회사 | 음성 인식에서의 포먼트 주파수 추정 방법 및 장치 |
KR100762596B1 (ko) * | 2006-04-05 | 2007-10-01 | 삼성전자주식회사 | 음성 신호 전처리 시스템 및 음성 신호 특징 정보 추출방법 |
EP1850328A1 (en) | 2006-04-26 | 2007-10-31 | Honda Research Institute Europe GmbH | Enhancement and extraction of formants of voice signals |
US7962342B1 (en) | 2006-08-22 | 2011-06-14 | Avaya Inc. | Dynamic user interface for the temporarily impaired based on automatic analysis for speech patterns |
US7925508B1 (en) | 2006-08-22 | 2011-04-12 | Avaya Inc. | Detection of extreme hypoglycemia or hyperglycemia based on automatic analysis of speech patterns |
WO2008032787A1 (fr) | 2006-09-13 | 2008-03-20 | Nippon Telegraph And Telephone Corporation | ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme |
US20100010689A1 (en) | 2007-02-07 | 2010-01-14 | Pioneer Corporation | Drunken driving prevention device, drunken driving prevention method, and drunken driving prevention program |
CA2690433C (en) | 2007-06-22 | 2016-01-19 | Voiceage Corporation | Method and device for sound activity detection and sound signal classification |
KR101441896B1 (ko) | 2008-01-29 | 2014-09-23 | 삼성전자주식회사 | 적응적 lpc 계수 보간을 이용한 오디오 신호의 부호화,복호화 방법 및 장치 |
JP5077107B2 (ja) | 2008-07-04 | 2012-11-21 | 日産自動車株式会社 | 車両用飲酒検知装置及び車両用飲酒検知方法 |
US8788270B2 (en) * | 2009-06-16 | 2014-07-22 | University Of Florida Research Foundation, Inc. | Apparatus and method for determining an emotion state of a speaker |
WO2011011413A2 (en) * | 2009-07-20 | 2011-01-27 | University Of Florida Research Foundation, Inc. | Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data |
WO2011059254A2 (en) | 2009-11-12 | 2011-05-19 | Lg Electronics Inc. | An apparatus for processing a signal and method thereof |
JP5834449B2 (ja) | 2010-04-22 | 2015-12-24 | 富士通株式会社 | 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法 |
AU2010357179A1 (en) * | 2010-07-06 | 2013-02-14 | Rmit University | Emotional and/or psychiatric state detection |
WO2012014301A1 (ja) | 2010-07-29 | 2012-02-02 | ユニバーサルロボット株式会社 | 飲酒状態判定装置及び飲酒状態判定方法 |
US9230538B2 (en) | 2011-04-08 | 2016-01-05 | Mitsubishi Electric Corporation | Voice recognition device and navigation device |
US9659571B2 (en) * | 2011-05-11 | 2017-05-23 | Robert Bosch Gmbh | System and method for emitting and especially controlling an audio signal in an environment using an objective intelligibility measure |
CA2836196C (en) * | 2011-05-17 | 2021-06-29 | University Health Network | Breathing disorder identification, characterization and diagnosis methods, devices and systems |
ES2364401B2 (es) * | 2011-06-27 | 2011-12-23 | Universidad Politécnica de Madrid | Método y sistema para la estimación de parámetros fisiológicos de la fonación. |
JP5664480B2 (ja) * | 2011-06-30 | 2015-02-04 | 富士通株式会社 | 異常状態検出装置、電話機、異常状態検出方法、及びプログラム |
WO2014115115A2 (en) | 2013-01-24 | 2014-07-31 | B. G. Negev Technologies And Applications Ltd. | Determining apnea-hypopnia index ahi from speech |
JP6263868B2 (ja) | 2013-06-17 | 2018-01-24 | 富士通株式会社 | 音声処理装置、音声処理方法および音声処理プログラム |
KR101475894B1 (ko) * | 2013-06-21 | 2014-12-23 | 서울대학교산학협력단 | 장애 음성 개선 방법 및 장치 |
CN106409313B (zh) * | 2013-08-06 | 2021-04-20 | 华为技术有限公司 | 一种音频信号分类方法和装置 |
US20150127343A1 (en) | 2013-11-04 | 2015-05-07 | Jobaline, Inc. | Matching and lead prequalification based on voice analysis |
US9934793B2 (en) | 2014-01-24 | 2018-04-03 | Foundation Of Soongsil University-Industry Cooperation | Method for determining alcohol consumption, and recording medium and terminal for carrying out same |
WO2015115677A1 (ko) | 2014-01-28 | 2015-08-06 | 숭실대학교산학협력단 | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 |
US20150262429A1 (en) | 2014-03-13 | 2015-09-17 | Gary Stephen Shuster | Systems, devices and methods for sensory augmentation to achieve desired behaviors or outcomes |
KR20150123579A (ko) * | 2014-04-25 | 2015-11-04 | 삼성전자주식회사 | 사용자 음성으로부터 감정정보를 확인하는 방법 및 장치 |
-
2014
- 2014-01-24 KR KR1020140008742A patent/KR101621778B1/ko active IP Right Grant
- 2014-01-24 US US15/113,743 patent/US9899039B2/en active Active
- 2014-01-24 WO PCT/KR2014/000727 patent/WO2015111772A1/ko active Application Filing
Non-Patent Citations (2)
Title |
---|
Chan-Joong Jung 외 3인, ‘Speech Sobriety Test Based on Formant Energy Distribution’, International Journal of Multimedia and Ubiquitous Engineering Vol.8 No.6, 2013, pp.209-216* |
Geumran Baek 외 1인, ‘A Study on Judgment of Intoxication State Using Speech’, Computer Application for Database, Education, and Ubiquitous Computing Vol.352, 2012, pp.277-282 |
Also Published As
Publication number | Publication date |
---|---|
US9899039B2 (en) | 2018-02-20 |
US20170032804A1 (en) | 2017-02-02 |
KR20150088927A (ko) | 2015-08-04 |
WO2015111772A1 (ko) | 2015-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101621774B1 (ko) | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 | |
KR101621766B1 (ko) | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 | |
Deshmukh et al. | Use of temporal information: Detection of periodicity, aperiodicity, and pitch in speech | |
US10074384B2 (en) | State estimating apparatus, state estimating method, and state estimating computer program | |
US20090154726A1 (en) | System and Method for Noise Activity Detection | |
KR101621778B1 (ko) | 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기 | |
US20140309992A1 (en) | Method for detecting, identifying, and enhancing formant frequencies in voiced speech | |
Yadav et al. | Detection of vowel offset point from speech signal | |
Parada et al. | Non-intrusive estimation of the level of reverberation in speech | |
Sigmund | Statistical analysis of fundamental frequency based features in speech under stress | |
Severin et al. | HNR extraction in voiced speech, oriented towards voice quality analysis | |
Dubuisson et al. | On the use of the correlation between acoustic descriptors for the normal/pathological voices discrimination | |
JPH10254476A (ja) | 音声区間検出方法 | |
Panek et al. | Quantification of linear and non-linear acoustic analysis applied to voice pathology detection | |
Dubey et al. | Pitch-Adaptive Front-end Feature for Hypernasality Detection. | |
Badenhorst et al. | Quality measurements for mobile data collection in the developing world | |
Lustyk et al. | Evaluation of disfluent speech by means of automatic acoustic measurements | |
US9907509B2 (en) | Method for judgment of drinking using differential frequency energy, recording medium and device for performing the method | |
Elie et al. | Robust tonal and noise separation in presence of colored noise, and application to voiced fricatives | |
Sigmund et al. | Statistical analysis of glottal pulses in speech under psychological stress | |
Tu et al. | Computational auditory scene analysis based voice activity detection | |
Bonifaco et al. | Comparative analysis of filipino-based rhinolalia aperta speech using mel frequency cepstral analysis and Perceptual Linear Prediction | |
Patha et al. | Syllable nucleus and boundary detection in noisy conditions | |
Joseph et al. | Indian accent detection using dynamic time warping | |
US9916845B2 (en) | Method for determining alcohol use by comparison of high-frequency signals in difference signal, and recording medium and device for implementing same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190401 Year of fee payment: 4 |