KR101621780B1 - 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 - Google Patents

차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 Download PDF

Info

Publication number
KR101621780B1
KR101621780B1 KR1020140036604A KR20140036604A KR101621780B1 KR 101621780 B1 KR101621780 B1 KR 101621780B1 KR 1020140036604 A KR1020140036604 A KR 1020140036604A KR 20140036604 A KR20140036604 A KR 20140036604A KR 101621780 B1 KR101621780 B1 KR 101621780B1
Authority
KR
South Korea
Prior art keywords
signal
difference
fast fourier
unit
difference signal
Prior art date
Application number
KR1020140036604A
Other languages
English (en)
Other versions
KR20150113379A (ko
Inventor
배명진
이상길
배성근
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Priority to KR1020140036604A priority Critical patent/KR101621780B1/ko
Priority to CN201480077604.4A priority patent/CN106133834A/zh
Priority to PCT/KR2014/002850 priority patent/WO2015147363A1/ko
Priority to US15/300,166 priority patent/US9907509B2/en
Publication of KR20150113379A publication Critical patent/KR20150113379A/ko
Application granted granted Critical
Publication of KR101621780B1 publication Critical patent/KR101621780B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4845Toxicology, e.g. by detection of alcohol, drug or toxic products
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Epidemiology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Fuzzy Systems (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Toxicology (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)

Abstract

음주 판별 방법은, 입력된 음성 신호의 유효 프레임을 검출하는 단계; 유효 프레임의 원신호의 차신호를 검출하는 단계; 원신호와 차신호 각각의 고속 푸리에 변환을 수행하는 단계; 및 고속 푸리에 변환된 원신호와 고속 푸리에 변환된 차신호의 주파수 영역에서의 기울기 차이에 기초하여 음주 상태를 판단하는 단계를 포함한다. 이에 따라, 원거리에 있는 운전자 또는 운항자의 음주 여부 및 정도를 파악할 수 있으므로, 음주 운전 또는 운항으로 인한 사고를 예방할 수 있다.

Description

차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치{METHOD FOMETHOD FOR JUDGMENT OF DRINKING USING DIFFERENTIAL FREQUENCY ENERGY, RECORDING MEDIUM AND DEVICE FOR PERFORMING THE METHOD}
본 발명은 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치에 관한 것으로서, 더욱 상세하게는 목소리를 이용한 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치에 관한 것이다.
적당한 양의 알코올 섭취는 사람에게 여러 가지 도움을 주지만 지나친 음주는 건강을 해친다. 또한, 음주 운전 후 운전으로 인한 사고는 대형 사고를 일으켜 목숨까지도 앗아간다.
음주 상태를 측정하는 방법으로는 알코올 센서가 장착된 호흡형 음주 측정기기를 사용하여 호흡 시에 내뿜는 공기에서 알코올 농도를 측정하는 방법과 레이저를 이용하여 혈류량에 포함된 알코올 농도를 측정하는 방법이 있다. 일반적으로 음주 단속에 사용되는 방법으로는 흔히 전자의 방법이 사용되는데, 일부 음주측정에 불복하는 운전자에 대해 운전자의 동의를 얻어 혈액 채취 등의 방법으로 혈중 알코올 농도를 추정하는 위드마크(Widmark) 공식을 사용하는 경우도 있다.
한편, 요즘 자동차뿐만 아니라 해양 및 항공에서의 음주운항으로 인한 사고도 문제되고 있으나, 기존의 음주 측정방법은 음주자를 직접 대면해서 측정하는 방법이므로 원거리에 있는 운항자의 음주 여부를 판단하기에는 적합하지 않다.
따라서, 해양 및 항공에서의 음주운항을 예방하기 위해 정부에서는 여러 가지 노력을 하고 있다. 그 노력의 일환으로 선박의 경우 운항 전과 후에 음주 측정을 하여 단속하지만 항해 중에는 측정이 어렵다. 물론 불시에 해양경찰청에서 해양 위에서의 직접 접촉을 통해 측정하기도 하지만 선박끼리의 접촉의 어려움과 도주 등의 위험으로 이 방법은 매우 위험하다.
대부분은 해양 위에 있는 운항자와의 통신을 통해 간접적으로 음주여부를 판별하지만, 이 또한 운항자가 음주를 부인하는 경우 음주 여부를 판단하기 어렵다. 그러므로, 원거리에서도 간접적이고 객관적인 운항자의 음주 여부 판단 방법이 필요하다.
이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 통신 중 채취한 운항자의 음성을 분석하여 음주 여부 및 정도를 판단하기 위한 음주 판별 방법을 제공하는 것이다.
본 발명의 다른 목적은 상기 음주 판별 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 기록 매체를 제공하는 것이다.
본 발명의 또 다른 목적은 상기 음주 판별 방법을 수행하기 위한 장치를 제공하는 것이다.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 음주 판별 방법은, 입력된 음성 신호의 유효 프레임을 검출하는 단계; 상기 유효 프레임의 원신호의 차신호를 검출하는 단계; 상기 원신호와 상기 차신호 각각의 고속 푸리에 변환을 수행하는 단계; 및 상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 영역에서의 기울기 차이에 기초하여 음주 상태를 판단하는 단계를 포함한다.
본 발명의 실시예에서, 상기 음주 상태를 판단하는 단계는, 상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 기울기들을 생성하는 단계; 상기 기울기들의 차이를 측정하여 상기 원신호와 상기 차신호의 에너지 차이를 측정하는 단계; 및 상기 에너지 차이가 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 단계를 포함할 수 있다.
본 발명의 실시예에서, 상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 기울기들은 포만트 기울기일 수 있다.
본 발명의 실시예에서, 상기 유효 프레임을 검출하는 단계는, 상기 입력된 음성 신호의 음성 프레임을 형성하는 단계; 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 단계를 포함할 수 있다.
본 발명의 실시예에서, 상기 고속 푸리에 변환을 수행하는 단계는, 상기 원신호의 고속 푸리에 변환을 수행하는 단계; 및 상기 차신호의 고속 푸리에 변환을 수행하는 단계를 포함할 수 있다.
본 발명의 실시예에서, 상기 차신호를 검출하는 단계는, 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 단계; 및 상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 단계를 포함할 수 있다.
상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 컴퓨터로 판독 가능한 저장 매체에는, 전술한 음주 판별 방법을 수행하기 위한 컴퓨터 프로그램이 기록되어 있다.
상기한 본 발명의 또 다른 목적을 실현하기 위한 일 실시예에 따른 음주 판별을 수행하기 위한 장치는, 입력된 음성 신호의 유효 프레임을 검출하는 유효 프레임 검출부; 상기 유효 프레임의 원신호의 차신호를 검출하는 차신호 검출부; 상기 원신호와 상기 차신호 각각의 고속 푸리에 변환을 수행하는 푸리에 변환부; 및 상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 영역에서의 기울기 차이에 기초하여 음주 상태를 판단하는 음주 판단부를 포함한다.
본 발명의 실시예에서, 상기 음주 판단부는, 상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 기울기들을 생성하는 기울기 추출부; 상기 기울기들의 차이를 측정하여 상기 원신호와 상기 차신호의 에너지 차이를 측정하는 에너지 비교부; 및 상기 에너지 차이가 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 결과 출력부를 포함할 수 있다.
본 발명의 실시예에서, 상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 기울기들은 포만트 기울기일 수 있다,
본 발명의 실시예에서, 상기 유효 프레임 검출부는, 상기 입력된 음성 신호의 음성 프레임을 형성하는 프레임 형성부; 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 유성음 판단부를 포함할 수 있다.
본 발명의 실시예에서, 상기 푸리에 변환부는, 상기 원신호의 고속 푸리에 변환을 수행하는 제1 푸리에 변환부; 및 상기 차신호의 고속 푸리에 변환을 수행하는 제2 푸리에 변환부를 포함할 수 있다.
본 발명의 실시예에서, 상기 차신호 검출부는, 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 시프트 신호부; 및 상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 차신호 출력부를 포함할 수 있다.
이와 같은 본 발명에 따르면, 음성의 특징 파라미터를 주파수 영역에서 추출하고 적용하여 원거리에 있는 운전자 또는 운항자의 음주 여부 및 정도를 파악할 수 있으며, 음주 전과 음주 후의 음성을 화자 독립과 화자 종속에 적용 가능하다. 특히, 유효 프레임이 많은 경우에는 판단의 정확도를 높일 수 있으므로, 장기간의 음성 변화를 측정하는데 유용하다.
따라서, 원거리에 있는 운전자 또는 운항자라도 통신에 의해 음성을 추출하여 음주 여부를 간접적이면서도 객관적으로 파악할 수 있으므로, 음주 운전 또는 운항으로 인한 사고를 예방할 수 있다.
도 1은 본 발명의 일 실시예에 따른 음주 판별을 수행하기 위한 장치의 블록도이다.
도 2는 도 1의 유효 프레임 검출부의 상세 블록도이다.
도 3은 도 2의 유효 프레임 검출부의 프레임 형성부에서 음성 신호를 음성 프레임으로 변환하는 개념을 설명하기 위한 도면이다.
도 4는 도 2의 유효 프레임 검출부의 유성음 판단부의 상세 블록도이다.
도 5는 도 1의 차신호 검출부의 상세 블록도이다.
도 6은 도 1의 음주 판단부의 상세 블록도이다.
도 7은 도 1의 푸리에 변환부의 주파수 출력을 설명하기 위한 그래프이다.
도 8은 도 1의 음주 판단부에서 생성하는 포만트 기울기를 나타내는 그래프이다.
도 9는 도 1의 음주 판단부에서 기울기 변화 측정에 의한 에너지 차이를 나타내는 그래프이다.
도 10은 본 발명의 일 실시예에 따른 음주 판별 방법의 흐름도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 음주 판별을 수행하기 위한 장치의 블록도이다.
도 1을 참조하면, 본 실시예에 따른 음주 판별을 수행하기 위한 장치(10)는 입력된 음성 신호의 유효 프레임을 검출하는 유효 프레임 검출부(110), 상기 유효 프레임의 원신호의 차신호를 검출하는 차신호 검출부(130), 상기 원신호와 상기 차신호 각각의 고속 푸리에 변환을 수행하는 푸리에 변환부(150) 및 상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 영역에서의 기울기 차이에 기초하여 음주 상태를 판단하는 음주 판단부(170)를 포함한다.
본 발명의 상기 장치(10)는 음주 판별을 수행하기 위한 소프트웨어(애플리케이션)가 설치되어 실행될 수 있으며, 상기 유효 프레임 검출부(110) 등의 구성은 상기 장치(10)에서 실행되는 상기 음주 판별을 위한 소프트웨어에 의해 제어될 수 있다.
상기 장치(10)는 별도의 단말이거나 또는 단말의 일부 모듈일 수 있다. 상기 장치(10)는 이동성을 갖거나 고정될 수 있다. 상기 장치(10)는, 단말(terminal), UE(user equipment), MS(mobile station), MT(mobile terminal), UT(user terminal), SS(subscriber station), 무선기기(wireless device), PDA(personal digital assistant), 무선 모뎀(wireless modem), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다.
상기 장치(10)는 유선 또는 무선 통신을 지원하는 장치로서, 스마트 폰, 휴대 전화, 태블릿 컴퓨터, 노트북, 넷북, 피디에이(PDA), 피엠피(PMP), 피에스피(PSP), 엠피쓰리(MP3) 플레이어, 이북(e-book) 리더, 내비게이션, 스마트 카메라, 전자사전, 전자시계, 게임기 등 다양한 형태의 모바일(mobile) 장치뿐만 아니라 데스크 탑 컴퓨터, 스마트 TV 등의 전자 장치를 포함할 수 있다.
상기 장치(10)는 운영체제(Operation System; OS)를 기반으로 다양한 애플리케이션을 실행할 수 있다. 상기 운영체제는 애플리케이션이 장치의 하드웨어를 사용할 수 있도록 하기 위한 시스템 프로그램으로서, iOS, 안드로이드 OS, 윈도우 모바일 OS, 바다 OS, 심비안 OS, 블랙베리 OS 등 모바일 컴퓨터 운영체제 및 윈도우 계열, 리눅스 계열, 유닉스 계열, MAC, AIX, HP-UX 등 컴퓨터 운영체제를 모두 포함할 수 있다.
상기 애플리케이션은 단말기를 이용하여 특정한 작업을 수행할 수 있도록 개발된 프로그램으로서, 각종 응용 프로그램 및 서비스 객체뿐 아니라 게임, 동영상, 사진 등의 각종 멀티미디어 컨텐츠(contents) 또는 상기 멀티미디어 컨텐츠를 실행하는 이미지 뷰어, 동영상 재생기 등의 실행 프로그램을 모두 포함할 수 있다. 이하에서는, 애플리케이션으로 기재하나, 모든 응용 프로그램 및 실행 프로그램을 포함할 수 있다.
상기 유효 프레임 검출부(110)는 입력되는 사용자의 음성 신호의 유효 프레임을 검출하여 출력한다. 상기 음성 신호는 상기 장치(10)에 직접 입력되거나 통신에 의해 입력될 수 있다. 즉, 음성 신호는 상기 장치(10)에 구비된 마이크를 통해 입력되거나, 원격에서 송신될 수 있다.
도 2를 참조하면, 상기 유효 프레임 검출부(110)는 상기 입력된 음성 신호의 음성 프레임을 형성하는 프레임 형성부(111) 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 유성음 판단부(113)를 포함한다.
상기 프레임 형성부(111)는 사람의 음성을 입력받아 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환하여 출력한다. 통상적으로 아날로그 음성 신호는 초당 8000개의 샘플과 16비트(65535단계)의 크기로 샘플링하여 음성데이터로 변환된다.
상기 프레임 형성부(111)는 입력되는 음성 신호를 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환할 수 있다. 여기서, 하나의 음성 프레임 데이터는 256개의 에너지 값을 갖게 된다.
음성 데이터는 도 3에서와 같이, 입력되는 음성에 따라 다수의 음성 프레임들(n=프레임의 개수, n=1,2,3,...)로 구성된다. 상기 프레임 형성부(111)는 음성 프레임을 생성한 후, 그 정보를 상기 유성음 판단부(113)로 출력한다.
상기 유성음 판단부(113)는 음성 프레임을 입력받아 기 설정된 특징들을 추출하고, 추출된 특징들에 따라 입력된 음성 프레임이 유성음, 무성음 또는 잡음에 대한 것인지 여부를 분석한다. 그 분석 결과에 따라 음성 프레임 중 유성음에 대한 프레임만 분리하여 출력할 수 있다.
도 4를 참조하면, 상기 유성음 판단부(113)는 음성 프레임을 입력받아 기 설정된 특징들을 추출하는 특징 추출부(113a)와, 음성 프레임의 인식 결과를 도출하는 인식부(113b)와, 인식 결과에 따라 입력된 음성 프레임이 유성음에 대한 것인지 무성음에 대한 것인지, 또는 배경 잡음에 의한 것인지를 판별하는 판단부(113c)와, 판별 결과에 따라 유효 프레임을 분리하여 출력하는 분리 출력부(113d)를 포함할 수 있다.
상기 특징 추출부(113a)는 상기 프레임 형성부(111)를 통해 음성 프레임이 입력되면, 그 음성 프레임으로부터 고조파의 주기적 특성 또는 저대역 음성 신호 에너지 영역의 크기(RMSE: Root Mean Squared Energy of Signal)나 0점 교차 횟수(Zero-Crossing Count: ZC) 등과 같은 특징들을 추출할 수 있다.
상기 인식부(113b)는 일반적으로 신경망으로 구성될 수 있다. 이는 신경망의 특성상, 비선형적, 즉 수학적으로 해결 가능하지 않은 복잡한 문제들을 분석하는데 유용하기 때문에, 음성 신호들을 분석하고, 분석된 결과에 따라 해당 음성 신호를 유성음 또는 무성음 및 배경 잡음으로 판단하기에 적합하기 때문이다. 이러한 신경망으로 구성된 상기 인식부(113b)는 상기 특징 추출부(113a)로부터 추출된 특징들에 기 설정된 가중치를 부여하고, 신경망 계산 과정을 통해 음성 프레임의 인식 결과를 도출할 수 있다. 여기서 인식 결과라는 것은 음성 프레임에 대해 각 음성 프레임의 특징 별로 부여된 가중치에 따라 각각의 계산 요소를 계산한 결과, 산출된 값을 말한다.
상기 판단부(113c)는 상술한 인식 결과, 즉 상기 인식부(113b)로부터 산출된 값에 따라 입력된 음성 신호가 유성음인지 무성음인지에 대한 판단을 하고, 상기 판단부(113c)의 판단 결과에 따라 상기 분리 출력부(113d)는 음성 프레임을 유성음, 무성음 또는 배경잡음으로 분리한다.
한편, 유성음의 경우 다양한 특징들이 무성음 및 배경 잡음과 확연히 차이가 나므로, 이를 구분하기는 상대적으로 쉬운 편이며 공지된 여러 가지 기술이 있다. 예를 들어, 유성음의 경우 고조파가 일정 주기를 반복하여 나타나는 주기적 특성을 가지고 있는 반면, 배경 잡음은 고조파라는 특징을 가지지 않는다.
그런데, 무성음의 경우에는 고조파가 있기는 하여도 그것이 가지는 주기성이 약하다. 다시 말해, 유성음의 경우 고조파가 하나의 프레임 안에서도 반복된다는 특성이 있으나, 무성음의 경우 고조파가 있다고는 하나, 고조파의 주기성과 같은 유성음의 특성이, 몇 개 이상의 프레임에 걸쳐서 나타나게 될 정도로 약하게 나타난다는 특성이 있다.
상기 유성음 판단부(113)가 유성음, 무성음 또는 배경잡음을 분리하면, 상기 유효 프레임 검출부(110)는 유성음에 대한 프레임만 출력한다. 이와 같이 출력된 유성음에 대한 프레임을 유효 프레임의 원신호(S(n))라 하며, 상기 유효 프레임의 원신호(S(n))는 상기 차신호 검출부(130) 및 상기 푸리에 변환부(150)로 전달된다.
도 5를 참조하면, 상기 차신호 검출부(130)는 상기 유효 프레임의 원신호(S(n))의 차신호(S(n)-S(n-1))를 출력하기 위해 시프트 신호부(131) 및 차신호 출력부(133)를 포함한다.
상기 시프트 신호부(131)는 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하고, 상기 차신호 출력부(133)는 상기 원신호와 상기 시프트 신호(S(n-1))와의 차신호(S(n)-S(n-1))를 출력한다.
음주 전 후의 특징으로는 비음의 특성처럼 고주파 성분이 상승하는 것으로 보고되어 있는데, 저주파 성분은 거의 변화가 없지만 고주파 성분에서 상당한 차이가 나는 현상을 보이고 있다. 이는 음주 후에는 청각 기능이 저하되어 잘 들리지 않아 화자가 소리를 크게 내게 되고 소리를 크게 내려면 입도 크게 벌리게 되고 이로써 폐활량이 증가하여 에너지에 영향을 주기 때문이다. 또한, 술에 취할 경우 음성이 적정한 음량을 일정하게 지키지 못하고 너무 커지거나 너무 작아지는 것이 일반적이기 때문에 술 마신 후 말하는 크기의 편차가 심해진다.
본 발명에서는 원신호의 차신호를 구하게 되는데 이렇게 구해진 신호는 고주파 성분이 강조된 특성을 보인다. 따라서, 음주 전 후의 차이를 더욱 강조할 수 있고, 차신호를 이용하여 고주파의 분석이 더욱 용이해진다.
상기 푸리에 변환부(150)는 상기 유효 프레임 검출부(110)에서 출력된 상기 유효 프레임의 원신호(S(n)) 및 상기 차신호 검출부(130)에서 출력된 상기 유효 프레임의 차신호(S(n)-S(n-1))의 고속 푸리에 변환(FFT: Fast Fourier Transform)을 수행하여 음성 신호를 주파수 영역으로 변환한다.
푸리에 변환이란, 시간 영역에서의 신호를 주파수 영역으로 변환해서 각각의 합성신호를 분석하는 방법으로 각각의 신호의 주파수나 특성을 알 수 있다. 예를 들어, 안테나에서 신호를 보내면 라디오에서는 주파수를 맞추어서 전파를 들을 수 있다. 물론 그러한 주파수를 맞춰놓으면 다른 주파수의 신호(전파)에 있는 필터가 다른 신호를 막는 역할을 한다. 이러한 필터를 만들기 위해 푸리에 변환을 하는 것이다. 시간함수 u(t)를 주파수함수 U(ω)로 변환하는 것을 푸리에 변환이라고 하고, 역으로 주파수함수 U(ω)를 시간함수 u(t)로 변환하는 것을 역푸리에 변환이라고 한다. 
고속 푸리에 변환은 상기 푸리에 변환에 근거하여 근사공식을 이용한 이산푸리에변환(discrete Fourier transform)을 계산할 때 연산횟수를 줄일 수 있도록 고안된 알고리즘이다.
상기 푸리에 변환부(150)는 상기 유효 프레임의 원신호(S(n))의 고속 푸리에 변환을 수행하는 제1 푸리에 변환부(151) 및 상기 유효 프레임의 차신호(S(n)-S(n-1))의 고속 푸리에 변환을 수행하는 제2 푸리에 변환부(152)를 포함할 수 있다.
본 실시예에서는 상기 유효 프레임의 원신호(S(n))와 상기 유효 프레임의 차신호(S(n)-S(n-1))가 별도의 푸리에 변환부에서 고속 푸리에 변환이 수행되나, 다른 실시예로서, 상기 푸리에 변환부(150)는 상기 유효 프레임의 원신호(S(n)) 및 상기 유효 프레임의 차신호(S(n)-S(n-1))의 고속 푸리에 변환을 동시에, 임의의 순서로 또는 차례로 수행할 수도 있다.
상기 유효 프레임의 원신호(S(n))의 고속 푸리에 변환 신호(FE1) 및 상기 유효 프레임의 차신호(S(n)-S(n-1))의 고속 푸리에 변환 신호(FE2)는 주파수 영역의 음성 신호로서, 상기 음주 판단부(170)로 출력된다.
상기 음주 판단부(170)는 상기 고속 푸리에 변환된 원신호(FE1)와 상기 고속 푸리에 변환된 차신호(FE2)로부터 에너지 차이를 구하여 음주 상태를 판단한다. 상기 두 신호의 에너지 차이를 구하기 위해 상기 원신호의 주파수 영역의 신호(FE1)와 상기 차신호의 주파수 영역의 신호(FE2)의 각 기울기를 생성하고, 상기 기울기 간의 차이로부터 에너지 차이를 도출할 수 있다.
음주를 하게 되면 목소리의 크기를 제어하는 능력이 저하되어 고주파 성분의 에너지 변화가 크므로, 상기 음주 판단부(170)는 일정 구간 동안의 고주파 성분의 에너지 변화에 대한 차이에 따라 음주 여부를 판별할 수 있게 된다.
도 6을 참조하면, 상기 음주 판단부(170)는 기울기 추출부(171), 에너지 비교부(173) 및 결과 출력부(175)를 포함한다.
상기 기울기 추출부(171)는 상기 고속 푸리에 변환된 원신호(FE1)와 상기 고속 푸리에 변환된 차신호(FE2)의 주파수 기울기를 생성한다. 상기 주파수 기울기는 포만트 기울기일 수 있다.
도 7은 제1 푸리에 변환부에서 상기 유효 프레임의 원신호(S(n))의 고속 푸리에 변환된, 고속 푸리에 변환된 원신호(FE1)를 보여준다. 상기 고속 푸리에 변환된 원신호(FE1)는 주파수 영역의 신호로서, 낮은 주파수부터 피크를 찾으면 그것이 각각 제1 내지 제4 피크 주파수(P1, P2, P3, P4)가 된다.
도 8은 도 7의 고속 푸리에 변환된 원신호(FE1)에서 포만트 기울기를 추출하는 것을 보여준다.
상기 기울기 추출부(171)에서, 제1 피크 주파수(P1)와 제4 피크 주파수(P4) 간의 기울기(F14), 제1 피크 주파수(P1)와 제3 피크 주파수(P3) 간의 기울기(F13), 제1 피크 주파수(P1)와 제2 피크 주파수(P2) 간의 기울기(F12) 등을 추출할 수 있다.
예를 들어, 복수 개의 포만트 기울기 중 F14(제1 피크 주파수와 제4 피크 주파수 간의 기울기)와, F24(제2 피크 주파수와 제4 피크 주파수 간의 기울기)를 음주 판단에 사용할 수 있다. 사람은 음주 후의 신체적 변화로 목소리의 크기를 제어하는 능력이 저하된다. 이에 따라, 에너지 변화를 이용해 리듬을 타듯 대화를 매끄럽게 이끌어내지 못하므로, 연속적으로 소리를 내어 발음하거나 작게 발음해야 할 경우도 크게 발음한다. 이런 특징은 제1 피크 주파수(P1)에 변화가 생기는 것을 의미한다. 또한, 음주를 하게 되면 발음할 때 혀의 위치에도 변화가 생기는데 이는 제2 피크 주파수(P2)에 영향을 준다. 즉, 혀가 앞에 위치하게 되면 제2 피크 주파수(P2)가 커지고, 뒤에 있으면 작아진다. 제4 피크 주파수(P4는 조음기관의 영향을 거의 받지 않으므로 음주 전후에 거의 일정하다. 따라서, F14와 F24의 변화량에 따라 음주 여부 판단이 더욱 용이해질 수 있다.
상기 기울기 추출부(171)는 동일한 방법으로 고속 푸리에 변환된 차신호(FE2)에서 포만트 기울기를 추출하여, 에너지 비교부(173)로 출력한다.
상기 에너지 비교부(173)는 상기 기울기의 차이를 측정하여 상기 원신호와 상기 차신호의 에너지 차이를 측정한다. 상기 에너지 차이는 상기 포만트 기울기의 거리차로부터 도출 가능하다.
도 9를 참조하면, 상기 에너지 비교부(173)는 고속 푸리에 변환된 원신호(FE1)와 고속 푸리에 변환된 차신호(FE2)의 포만트 기울기 차이로부터 에너지 차(ED)를 도출한다. 상기 고속 푸리에 변환된 원신호(FE1)의 기울기(F1) 및 상기 고속 푸리에 변환된 차신호(FE2)의 기울기(F2)의 포만트 기울기 차이는 기울기의 거리차로서, 주파수마다 다른 차이를 가지므로, 거리차의 평균을 계산할 수 있다.
상기 결과 출력부(175)는 상기 에너지 차이가 임계값보다 크면 음주 상태로 판단하고, 상기 임계값 이하인 경우 비음주 상태로 판단할 수 있다.
상기 임계값은 미리 설정되어 저장될 수 있으며, 일률적으로 적용할 수 있다. 상기 임계값은 실험에 의해 설정된 최적값일 수 있다. 한편, 성별, 나이에 따라 다른 임계값이 적용되거나 개인 맞춤형으로 서로 다른 임계값이 적용될 수도 있다.
본 발명에 따른 상기 음주 판별 장치는 주파수 영역에서 음주 여부를 판단하고, 특히 음성 신호의 고주파를 강조하고 더 나아가 신호의 분석력을 높이기 위해 주파수 상에서 포만트 에너지 비교법을 사용한다. 본 발명은 유효 프레임이 많을수록 판단의 정확도가 높아지므로, 장기간에 변화를 찾아내어 음주 여부 및 정도를 판단하는데 유효한 분석법이다.
도 10은 본 발명의 일 실시예에 따른 음주 판별 방법의 흐름도이다.
본 실시예에 따른 음주 판별 방법은, 도 1의 장치(10)와 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 장치(10)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다.
또는, 본 실시예에 따른 음주 판별 방법은 음주 판별을 위한 소프트웨어(애플리케이션)에 의해 실행될 수 있다.
도 10을 참조하면, 본 실시예에 따른 음주 판별 방법은, 입력된 음성 신호의 유효 프레임을 검출한다(단계 S110).
상기 유효 프레임을 검출하는 단계(단계 S110)는, 상기 입력된 음성 신호의 음성 프레임을 형성하는 단계 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 단계를 포함할 수 있다.
구체적으로, 사람의 음성을 입력받아 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환한 후, 음성 프레임이 유성음, 무성음 또는 잡음에 대한 것인지 여부를 분석한다. 그 분석 결과에 따라 유성음에 대한 프레임, 즉 유효 프레임만 출력할 수 있다.
상기 유효 프레임이 검출되면, 상기 유효 프레임의 원신호의 차신호를 검출한다(단계 S130).
상기 차신호를 검출하는 단계(단계 S130)는, 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 단계 및 상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 단계를 포함할 수 있다.
상기 차신호는 고주파 성분이 강조된 특성을 보이므로, 음주 전 후의 차이를 더욱 강조할 수 있고, 차신호를 이용하여 고주파의 분석이 더 용이해진다.
상기 원신호와 상기 차신호는 각각 고속 푸리에 변환이 수행된다(단계 S150).
상기 고속 푸리에 변환을 수행하는 단계(단계 S150)는, 상기 원신호의 고속 푸리에 변환을 수행하는 단계 및 상기 차신호의 고속 푸리에 변환을 수행하는 단계를 포함할 수 있다.
이와 다르게, 상기 유효 프레임의 원신호(S(n)) 및 상기 유효 프레임의 차신호(S(n)-S(n-1))의 고속 푸리에 변환은 동시에, 임의의 순서로 또는 차례로 수행될 수도 있다.
상기 유효 프레임의 원신호(S(n))의 고속 푸리에 변환 신호(FE1) 및 상기 유효 프레임의 차신호(S(n)-S(n-1))의 고속 푸리에 변환 신호(FE2)는 주파수 영역의 음성 신호로 출력된다.
출력된 상기 고속 푸리에 변환된 원신호(FE1)와 상기 고속 푸리에 변환된 차신호(FE2)의 주파수 영역에서의 기울기 차이에 기초하여 음주 상태를 판단한다(단계 S170).
상기 음주 상태를 판단하는 단계(단계 S170)는, 상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 기울기들을 생성하는 단계, 상기 기울기들의 차이를 측정하여 상기 원신호와 상기 차신호의 에너지 차이를 측정하는 단계, 및 상기 에너지 차이가 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 단계를 포함할 수 있다.
상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 기울기들은 포만트 기울기일 수 있다. 상기 포만트 기울기 차이는 기울기 거리차로서, 주파수마다 다른 차이를 가지므로, 거리차의 평균을 계산할 수 있다. 상기 에너지 차이의 평균값이 임계값보다 큰 경우에는, 고주파 성분의 에너지 변화가 큰 것이므로 음주 상태로 판단할 수 있다.
이와 같은, 음주 판별 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
본 발명에 따른 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치는, 원거리에 있는 운전자 또는 운항자의 음주 여부를 통신을 통해 파악할 수 있으므로 음주 운전 또는 운항으로 인한 사고를 예방할 수 있다. 또한, 선박뿐 아니라 철도, 항공기, 자동차, 버스, 고속도로 등 근접거리에서 측정이 어려운 수송기관 및 국내외 모든 해상 및 항공 교통관제서비스 시스템에 장착하는 등 널리 적용 가능하다. 나아가, 개인 휴대폰으로 음주를 측정하는 웹 어플리케이션에 기여할 수 있다.
10: 장치 110: 유효 프레임 검출부
130: 차신호 검출부 150: 푸리에 변환부
170: 음주 판단부

Claims (13)

  1. 입력된 음성 신호의 유효 프레임을 검출하는 단계;
    상기 유효 프레임의 원신호의 차신호를 검출하는 단계;
    상기 원신호와 상기 차신호 각각의 고속 푸리에 변환을 수행하는 단계;
    상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 영역에서의 기울기 차이에 기초하여 음주 상태를 판단하는 단계;를 포함하고,
    상기 유효 프레임을 검출하는 단계는,
    상기 입력된 음성 신호의 음성 프레임을 형성하는 단계;
    상기 음성 프레임으로부터 고조파의 주기적 특성, 저대역 음성 신호 에너지 영역의 크기 또는 0점 교차 횟수의 특징을 추출하는 단계;
    상기 추출된 특징들에 기 설정된 가중치를 부여하고, 각 음성 프레임의 특징 별로 부여된 가중치에 따라 상기 각 음성 프레임의 인식 결과를 산출하는 단계;
    상기 인식 결과에 따라 상기 입력된 음성 신호가 유성음 또는 무성음인지 여부를 판단하는 단계; 및
    상기 판단된 결과에 따라 상기 입력된 음성 신호를 유성음과 무성음으로 분리하는 단계를 포함하고,
    상기 음주 상태를 판단하는 단계는,
    상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 기울기들을 생성하는 단계;
    상기 기울기들의 차이를 측정하여 상기 원신호와 상기 차신호의 에너지 차이를 측정하는 단계; 및
    상기 에너지 차이가 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 단계를 포함하는, 음주 판별 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 기울기들은 포만트 기울기인, 음주 판별 방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 고속 푸리에 변환을 수행하는 단계는,
    상기 원신호의 고속 푸리에 변환을 수행하는 단계; 및
    상기 차신호의 고속 푸리에 변환을 수행하는 단계를 포함하는, 음주 판별 방법.
  6. 제1항에 있어서,
    상기 차신호를 검출하는 단계는,
    상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 단계; 및
    상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 단계를 포함하는, 음주 판별 방법.
  7. 제1항, 제3항, 제5항 내지 제6항 중 어느 하나의 항에 따른 음주 판별 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
  8. 입력된 음성 신호의 유효 프레임을 검출하는 유효 프레임 검출부;
    상기 유효 프레임의 원신호의 차신호를 검출하는 차신호 검출부;
    상기 원신호와 상기 차신호 각각의 고속 푸리에 변환을 수행하는 푸리에 변환부; 및
    상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 영역에서의 기울기 차이에 기초하여 음주 상태를 판단하는 음주 판단부를 포함하고,
    상기 유효 프레임 검출부는 상기 입력된 음성 신호의 음성프레임을 형성하는 프레임 형성부 및 상기 음성 프레임으로부터 고조파의 주기적 특성, 저대역 음성 신호 에너지 영역의 크기 또는 0점 교차 횟수의 특징을 추출하는 특징 추출부, 상기 특징 추출부에 의해 추출된 상기 특징들에 기 설정된 가중치를 부여하고, 각 음성 프레임의 특징 별로 부여된 가중치에 따라 상기 각 음성 프레임의 인식 결과를 산출하는 인식부, 상기 인식부에서 산출된 상기 인식 결과에 따라 상기 입력된 음성 신호가 무성음 또는 유성음인지 여부를 판단하는 판단부 및 상기 판단부에 의해 판단된 결과에 따라 상기 입력된 음성 신호를 유성음과 무성음으로 분리하는 분리 출력부를 포함하는 유성음 판단부를 포함하고,
    상기 음주 판단부는,
    상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 기울기들을 생성하는 기울기 추출부;
    상기 기울기들의 차이를 측정하여 상기 원신호와 상기 차신호의 에너지 차이를 측정하는 에너지 비교부; 및
    상기 에너지 차이가 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 결과 출력부를 포함하는, 음주 판별 장치.
  9. 삭제
  10. 제 8항에 있어서,
    상기 고속 푸리에 변환된 원신호와 상기 고속 푸리에 변환된 차신호의 주파수 기울기들은 포만트 기울기인, 음주 판별 장치.
  11. 삭제
  12. 제8항에 있어서,
    상기 푸리에 변환부는,
    상기 원신호의 고속 푸리에 변환을 수행하는 제1 푸리에 변환부; 및
    상기 차신호의 고속 푸리에 변환을 수행하는 제2 푸리에 변환부를 포함하는, 음주 판별 장치.
  13. 제8항에 있어서,
    상기 차신호 검출부는,
    상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 시프트 신호부; 및
    상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 차신호 출력부를 포함하는, 음주 판별 장치.
KR1020140036604A 2014-03-28 2014-03-28 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 KR101621780B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140036604A KR101621780B1 (ko) 2014-03-28 2014-03-28 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
CN201480077604.4A CN106133834A (zh) 2014-03-28 2014-04-02 用于使用差分频率能量判断饮酒的方法、用于执行该方法的记录介质和装置
PCT/KR2014/002850 WO2015147363A1 (ko) 2014-03-28 2014-04-02 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
US15/300,166 US9907509B2 (en) 2014-03-28 2014-04-02 Method for judgment of drinking using differential frequency energy, recording medium and device for performing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140036604A KR101621780B1 (ko) 2014-03-28 2014-03-28 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치

Publications (2)

Publication Number Publication Date
KR20150113379A KR20150113379A (ko) 2015-10-08
KR101621780B1 true KR101621780B1 (ko) 2016-05-17

Family

ID=54195857

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140036604A KR101621780B1 (ko) 2014-03-28 2014-03-28 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치

Country Status (4)

Country Link
US (1) US9907509B2 (ko)
KR (1) KR101621780B1 (ko)
CN (1) CN106133834A (ko)
WO (1) WO2015147363A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102825B (zh) * 2018-07-27 2021-06-04 科大讯飞股份有限公司 一种饮酒状态检测方法及装置
KR102093822B1 (ko) * 2018-11-12 2020-03-26 한국과학기술연구원 음원 분리 장치
WO2022024297A1 (ja) * 2020-07-30 2022-02-03 日本電気株式会社 音声処理装置、音声処理方法、記録媒体、および音声認証システム

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9419388D0 (en) 1994-09-26 1994-11-09 Canon Kk Speech analysis
KR100206205B1 (ko) 1995-12-23 1999-07-01 정몽규 음성 인식 기능을 이용한 음주운전 방지장치 및 방법
US6446038B1 (en) 1996-04-01 2002-09-03 Qwest Communications International, Inc. Method and system for objectively evaluating speech
US5776055A (en) 1996-07-01 1998-07-07 Hayre; Harb S. Noninvasive measurement of physiological chemical impairment
KR100201256B1 (ko) * 1996-08-27 1999-06-15 윤종용 음성을 이용한 차량 시동 제어장치
JP2955247B2 (ja) 1997-03-14 1999-10-04 日本放送協会 話速変換方法およびその装置
US6006188A (en) 1997-03-19 1999-12-21 Dendrite, Inc. Speech signal processing for determining psychological or physiological characteristics using a knowledge base
KR19990058415A (ko) 1997-12-30 1999-07-15 윤종용 음주 운전 방지 시스템
WO2001007281A1 (en) 1999-07-24 2001-02-01 Novtech Co Ltd Apparatus and method for prevention of driving of motor vehicle under the influence of alcohol and prevention of vehicle theft
US6275806B1 (en) 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US7222075B2 (en) 1999-08-31 2007-05-22 Accenture Llp Detecting emotions using voice signal analysis
US6427137B2 (en) 1999-08-31 2002-07-30 Accenture Llp System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud
JP4696418B2 (ja) 2001-07-25 2011-06-08 ソニー株式会社 情報検出装置及び方法
DE60115653T2 (de) 2001-10-05 2006-08-10 Sony Deutschland Gmbh Verfahren zur Detektion von Emotionen, unter Verwendung von Untergruppenspezialisten
US7283962B2 (en) 2002-03-21 2007-10-16 United States Of America As Represented By The Secretary Of The Army Methods and systems for detecting, measuring, and monitoring stress in speech
KR100497837B1 (ko) 2002-10-16 2005-06-28 이시우 유무선 통신망과 음성신호를 이용한 음주상태의 안내서비스 시스템
US8972266B2 (en) 2002-11-12 2015-03-03 David Bezar User intent analysis extent of speaker intent analysis system
US20040167774A1 (en) 2002-11-27 2004-08-26 University Of Florida Audio-based method, system, and apparatus for measurement of voice quality
KR100511316B1 (ko) 2003-10-06 2005-08-31 엘지전자 주식회사 음성신호의 포만트 주파수 검출방법
DE60320414T2 (de) 2003-11-12 2009-05-20 Sony Deutschland Gmbh Vorrichtung und Verfahren zur automatischen Extraktion von wichtigen Ereignissen in Audiosignalen
US8938390B2 (en) 2007-01-23 2015-01-20 Lena Foundation System and method for expressive language and developmental disorder assessment
US9300790B2 (en) 2005-06-24 2016-03-29 Securus Technologies, Inc. Multi-party conversation analyzer and logger
US8478596B2 (en) 2005-11-28 2013-07-02 Verizon Business Global Llc Impairment detection using speech
KR100664271B1 (ko) 2005-12-30 2007-01-04 엘지전자 주식회사 음원분리가 가능한 휴대용 단말기 및 그 방법
KR100717625B1 (ko) 2006-02-10 2007-05-15 삼성전자주식회사 음성 인식에서의 포먼트 주파수 추정 방법 및 장치
KR100762596B1 (ko) * 2006-04-05 2007-10-01 삼성전자주식회사 음성 신호 전처리 시스템 및 음성 신호 특징 정보 추출방법
EP1850328A1 (en) 2006-04-26 2007-10-31 Honda Research Institute Europe GmbH Enhancement and extraction of formants of voice signals
US7925508B1 (en) * 2006-08-22 2011-04-12 Avaya Inc. Detection of extreme hypoglycemia or hyperglycemia based on automatic analysis of speech patterns
US7962342B1 (en) * 2006-08-22 2011-06-14 Avaya Inc. Dynamic user interface for the temporarily impaired based on automatic analysis for speech patterns
EP2063416B1 (en) 2006-09-13 2011-11-16 Nippon Telegraph And Telephone Corporation Feeling detection method, feeling detection device, feeling detection program containing the method, and recording medium containing the program
US20100010689A1 (en) * 2007-02-07 2010-01-14 Pioneer Corporation Drunken driving prevention device, drunken driving prevention method, and drunken driving prevention program
EP2162880B1 (en) 2007-06-22 2014-12-24 VoiceAge Corporation Method and device for estimating the tonality of a sound signal
CN101359978B (zh) * 2007-07-30 2014-01-29 向为 一种控制变速率多模式宽带编码速率的方法
KR101441896B1 (ko) 2008-01-29 2014-09-23 삼성전자주식회사 적응적 lpc 계수 보간을 이용한 오디오 신호의 부호화,복호화 방법 및 장치
JP5077107B2 (ja) 2008-07-04 2012-11-21 日産自動車株式会社 車両用飲酒検知装置及び車両用飲酒検知方法
WO2010148141A2 (en) 2009-06-16 2010-12-23 University Of Florida Research Foundation, Inc. Apparatus and method for speech analysis
WO2011011413A2 (en) 2009-07-20 2011-01-27 University Of Florida Research Foundation, Inc. Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data
US9613630B2 (en) 2009-11-12 2017-04-04 Lg Electronics Inc. Apparatus for processing a signal and method thereof for determining an LPC coding degree based on reduction of a value of LPC residual
US20130024191A1 (en) * 2010-04-12 2013-01-24 Freescale Semiconductor, Inc. Audio communication device, method for outputting an audio signal, and communication system
JP5834449B2 (ja) 2010-04-22 2015-12-24 富士通株式会社 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法
JP2011243148A (ja) * 2010-05-21 2011-12-01 Sony Corp 情報処理装置、情報処理方法及びプログラム
AU2010357179A1 (en) 2010-07-06 2013-02-14 Rmit University Emotional and/or psychiatric state detection
WO2012014301A1 (ja) 2010-07-29 2012-02-02 ユニバーサルロボット株式会社 飲酒状態判定装置及び飲酒状態判定方法
US9230538B2 (en) 2011-04-08 2016-01-05 Mitsubishi Electric Corporation Voice recognition device and navigation device
EP2708040B1 (en) 2011-05-11 2019-03-27 Robert Bosch GmbH System and method for emitting and especially controlling an audio signal in an environment using an objective intelligibility measure
CA2836196C (en) 2011-05-17 2021-06-29 University Health Network Breathing disorder identification, characterization and diagnosis methods, devices and systems
ES2364401B2 (es) 2011-06-27 2011-12-23 Universidad Politécnica de Madrid Método y sistema para la estimación de parámetros fisiológicos de la fonación.
JP5664480B2 (ja) 2011-06-30 2015-02-04 富士通株式会社 異常状態検出装置、電話機、異常状態検出方法、及びプログラム
US11344225B2 (en) 2013-01-24 2022-05-31 B. G. Negev Technologies And Applications Ltd. Determining apnea-hypopnia index AHI from speech
JP6263868B2 (ja) 2013-06-17 2018-01-24 富士通株式会社 音声処理装置、音声処理方法および音声処理プログラム
KR101475894B1 (ko) 2013-06-21 2014-12-23 서울대학교산학협력단 장애 음성 개선 방법 및 장치
CN106409310B (zh) 2013-08-06 2019-11-19 华为技术有限公司 一种音频信号分类方法和装置
US20150127343A1 (en) * 2013-11-04 2015-05-07 Jobaline, Inc. Matching and lead prequalification based on voice analysis
WO2015111771A1 (ko) * 2014-01-24 2015-07-30 숭실대학교산학협력단 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기
WO2015115677A1 (ko) * 2014-01-28 2015-08-06 숭실대학교산학협력단 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기
US10004431B2 (en) * 2014-03-13 2018-06-26 Gary Stephen Shuster Detecting medical status and cognitive impairment utilizing ambient data
KR20150123579A (ko) 2014-04-25 2015-11-04 삼성전자주식회사 사용자 음성으로부터 감정정보를 확인하는 방법 및 장치

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
이원희 외 2명, ‘음주·비음주 음성의 유효프레임 거리 편차에 관한 연구’, 한국통신학회 2014년도 동계종합학술발표회, pp.876-8797, 2014년 1월.*
이원희 외 3명, ‘차신호 특성을 이용한 고주파 변화에 따른 음주 식별에 관한 연구’, 한국통신학회 2014년도 동계종합학술발표회, pp.878-879 , 2014년 1월.*
정찬중 외 2명, ‘스펙트럴 변화 특성을 이용한 음주판별에 관한 연구’, 한국통신학회 2013년도 동계종합학술발표회, pp.674-675 , 2013년 1월.*

Also Published As

Publication number Publication date
CN106133834A (zh) 2016-11-16
US20170181695A1 (en) 2017-06-29
US9907509B2 (en) 2018-03-06
KR20150113379A (ko) 2015-10-08
WO2015147363A1 (ko) 2015-10-01

Similar Documents

Publication Publication Date Title
US11270707B2 (en) Analysing speech signals
KR101721303B1 (ko) 백그라운드 잡음의 존재에서 음성 액티비티 검출
CN106531172A (zh) 基于环境噪声变化检测的说话人语音回放鉴别方法及系统
EP2407960B1 (en) Audio signal detection method and apparatus
KR20210038871A (ko) 리플레이 공격의 탐지
US8046215B2 (en) Method and apparatus to detect voice activity by adding a random signal
EP2927906B1 (en) Method and apparatus for detecting voice signal
US9767829B2 (en) Speech signal processing apparatus and method for enhancing speech intelligibility
KR101621780B1 (ko) 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
US10522160B2 (en) Methods and apparatus to identify a source of speech captured at a wearable electronic device
CN107274892A (zh) 说话人识别方法及装置
CN106601233A (zh) 语音命令识别方法、装置及电子设备
KR101569343B1 (ko) 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
KR101621797B1 (ko) 시간 영역에서의 차신호 에너지법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
US20150279373A1 (en) Voice response apparatus, method for voice processing, and recording medium having program stored thereon
US20080147389A1 (en) Method and Apparatus for Robust Speech Activity Detection
Dov et al. Voice activity detection in presence of transients using the scattering transform
KR101547261B1 (ko) 화자 식별 방법
CN107039046B (zh) 一种基于特征融合的语音声效模式检测方法
KR20110078091A (ko) 이퀄라이저 조정 장치 및 방법
KR20160000680A (ko) 광대역 보코더용 휴대폰 명료도 향상장치와 이를 이용한 음성출력장치
JP2016080767A (ja) 周波数成分抽出装置、周波数成分抽出方法及び周波数成分抽出プログラム
Ong et al. Real-time Voice Activity Detector Using Gammatone Filter and Modified Long-Term Signal Variability
KR102424795B1 (ko) 음성 구간 검출 방법
Undhad et al. Exploiting speech source information for vowel landmark detection for low resource language

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 4