KR101569343B1 - 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 - Google Patents

차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 Download PDF

Info

Publication number
KR101569343B1
KR101569343B1 KR1020140036602A KR20140036602A KR101569343B1 KR 101569343 B1 KR101569343 B1 KR 101569343B1 KR 1020140036602 A KR1020140036602 A KR 1020140036602A KR 20140036602 A KR20140036602 A KR 20140036602A KR 101569343 B1 KR101569343 B1 KR 101569343B1
Authority
KR
South Korea
Prior art keywords
high frequency
signal
difference
frame
detecting
Prior art date
Application number
KR1020140036602A
Other languages
English (en)
Other versions
KR20150113378A (ko
Inventor
배명진
이상길
배성근
Original Assignee
숭실대학교산학협력단
(주) 지씨에스씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단, (주) 지씨에스씨 filed Critical 숭실대학교산학협력단
Priority to KR1020140036602A priority Critical patent/KR101569343B1/ko
Priority to US15/300,168 priority patent/US9916845B2/en
Priority to PCT/KR2014/002849 priority patent/WO2015147362A1/ko
Priority to CN201480077593.XA priority patent/CN106133833A/zh
Publication of KR20150113378A publication Critical patent/KR20150113378A/ko
Application granted granted Critical
Publication of KR101569343B1 publication Critical patent/KR101569343B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4845Toxicology, e.g. by detection of alcohol, drug or toxic products
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/15Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Toxicology (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Epidemiology (AREA)
  • Telephone Function (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Telephonic Communication Services (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

음주 판별 방법은, 입력된 음성 신호의 유효 프레임을 검출하는 단계; 유효 프레임의 원신호의 차신호를 검출하는 단계; 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 단계; 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 단계; 및 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 단계를 포함한다. 이에 따라, 원거리에 있는 운전자 또는 운항자의 음주 여부 및 정도를 파악할 수 있으므로, 음주 운전 또는 운항으로 인한 사고를 예방할 수 있다.

Description

차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치{MMETHOD FOR JUDGMENT OF DRINKING USING DIFFERENTIAL HIGH-FREQUENCY ENERGY, RECORDING MEDIUM AND DEVICE FOR PERFORMING THE METHOD}
본 발명은 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치에 관한 것으로서, 더욱 상세하게는 목소리를 이용한 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치에 관한 것이다.
적당한 양의 알코올 섭취는 사람에게 여러 가지 도움을 주지만 지나친 음주는 건강을 해친다. 또한, 음주 운전 후 운전으로 인한 사고는 대형 사고를 일으켜 목숨까지도 앗아간다.
음주 상태를 측정하는 방법으로는 알코올 센서가 장착된 호흡형 음주 측정기기를 사용하여 호흡 시에 내뿜는 공기에서 알코올 농도를 측정하는 방법과 레이저를 이용하여 혈류량에 포함된 알코올 농도를 측정하는 방법이 있다. 일반적으로 음주 단속에 사용되는 방법으로는 흔히 전자의 방법이 사용되는데, 일부 음주측정에 불복하는 운전자에 대해 운전자의 동의를 얻어 혈액 채취 등의 방법으로 혈중 알코올 농도를 추정하는 위드마크(Widmark) 공식을 사용하는 경우도 있다.
한편, 요즘 자동차뿐만 아니라 해양 및 항공에서의 음주운항으로 인한 사고도 문제되고 있으나, 기존의 음주 측정방법은 음주자를 직접 대면해서 측정하는 방법이므로 원거리에 있는 운항자의 음주 여부를 판단하기에는 적합하지 않다.
따라서, 해양 및 항공에서의 음주운항을 예방하기 위해 정부에서는 여러 가지 노력을 하고 있다. 그 노력의 일환으로 선박의 경우 운항 전과 후에 음주 측정을 하여 단속하지만 항해 중에는 측정이 어렵다. 물론 불시에 해양경찰청에서 해양 위에서의 직접 접촉을 통해 측정하기도 하지만 선박끼리의 접촉의 어려움과 도주 등의 위험으로 이 방법은 매우 위험하다.
대부분은 해양 위에 있는 운항자와의 통신을 통해 간접적으로 음주여부를 판별하지만, 이 또한 운항자가 음주를 부인하는 경우 음주 여부를 판단하기 어렵다. 그러므로, 원거리에서도 간접적이고 객관적인 운항자의 음주 여부 판단 방법이 필요하다.
이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 통신 중 채취한 운항자의 음성을 분석하여 음주 여부 및 정도를 판단하기 위한 음주 판별 방법을 제공하는 것이다.
본 발명의 다른 목적은 상기 음주 판별 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 기록 매체를 제공하는 것이다.
본 발명의 또 다른 목적은 상기 음주 판별 방법을 수행하기 위한 장치를 제공하는 것이다.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 음주 판별 방법은, 입력된 음성 신호의 유효 프레임을 검출하는 단계; 상기 유효 프레임의 원신호의 차신호를 검출하는 단계; 상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 단계; 상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 단계; 및 상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 단계를 포함한다.
본 발명의 실시예에서, 상기 음주 상태를 판단하는 단계는, 상기 고주파 성분들의 주파수 기울기들을 각각 생성하는 단계; 상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 단계; 상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하는 단계; 및 상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 단계를 포함할 수 있다.
본 발명의 실시예에서, 상기 고주파 성분들의 주파수 기울기들은 포만트 기울기일 수 있다.
본 발명의 실시예에서, 상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 단계는, 서로 이웃하는 고주파 성분들 간의 기울기 차이를 측정할 수 있다.
본 발명의 실시예에서, 상기 유효 프레임을 검출하는 단계는, 상기 입력된 음성 신호의 음성 프레임을 형성하는 단계; 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 단계를 포함할 수 있다.
본 발명의 실시예에서, 상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 단계는, 검출된 고주파 성분들을 순차적으로 4개씩 그룹화하는 단계를 포함할 수 있다.
본 발명의 실시예에서, 상기 차신호를 검출하는 단계는, 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 단계; 및 상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 단계를 포함할 수 있다.
상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 컴퓨터로 판독 가능한 저장 매체에는, 전술한 음주 판별 방법을 수행하기 위한 컴퓨터 프로그램이 기록되어 있다.
상기한 본 발명의 또 다른 목적을 실현하기 위한 일 실시예에 따른 음주 판별을 수행하기 위한 장치는, 입력된 음성 신호의 유효 프레임을 검출하는 유효 프레임 검출부; 상기 유효 프레임의 원신호의 차신호를 검출하는 차신호 검출부; 상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 푸리에 변환부; 상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 고주파 검출부; 및 상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 음주 판단부를 포함한다.
본 발명의 실시예에서, 상기 음주 판단부는, 상기 고주파 성분들의 주파수 기울기들을 각각 생성하는 기울기 추출부; 상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 에너지 차이 검출부; 상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하는 평균 계산부; 및 상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 결과 출력부를 포함할 수 있다.
본 발명의 실시예에서, 상기 고주파 성분들의 주파수 기울기들은 포만트 기울기일 수 있다.
본 발명의 실시예에서, 상기 에너지 차이 검출부는, 서로 이웃하는 고주파 성분들 간의 기울기 차이를 측정할 수 있다.
본 발명의 실시예에서, 상기 유효 프레임 검출부는, 상기 입력된 음성 신호의 음성 프레임을 형성하는 프레임 형성부; 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 유성음 판단부를 포함할 수 있다.
본 발명의 실시예에서, 상기 고주파 검출부는, 상기 고속 푸리에 변환된 차신호의 제(4n-3)(여기서, n은 자연수)번째 고주파 성분을 검출하는 제1 고주파 검출부; 상기 고속 푸리에 변환된 차신호의 제(4n-2)번째 고주파 성분을 검출하는 제2 고주파 검출부; 상기 고속 푸리에 변환된 차신호의 제(4n-1)번째 고주파 성분을 검출하는 제3 고주파 검출부; 및 상기 고속 푸리에 변환된 차신호의 제(4n)번째 고주파 성분을 검출하는 제4 고주파 검출부를 포함할 수 있다.
본 발명의 실시예에서, 상기 차신호 검출부는, 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 시프트 신호부; 및 상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 차신호 출력부를 포함할 수 있다.
이와 같은 본 발명에 따르면, 음성의 특징 파라미터를 주파수 영역에서의 고주파 성분을 비교 분석하고 추출하여, 원거리에 있는 운전자 또는 운항자의 음주 여부 및 정도를 파악할 수 있으며, 음주 전과 음주 후의 음성을 화자 독립과 화자 종속에 적용 가능하다. 특히, 한 프레임 내의 음성 변화를 작은 단위로 분리하여 고주파 변화를 측정하고, 이를 특징 파라미터로 이용하므로 단기간의 음성 변화를 측정하는데 유용하다.
따라서, 원거리에 있는 운전자 또는 운항자라도 통신에 의해 음성을 추출하여 음주 여부를 간접적이면서도 객관적으로 파악할 수 있으므로, 음주 운전 또는 운항으로 인한 사고를 예방할 수 있다.
도 1은 본 발명의 일 실시예에 따른 음주 판별을 수행하기 위한 장치의 블록도이다.
도 2는 도 1의 유효 프레임 검출부의 상세 블록도이다.
도 3은 도 2의 유효 프레임 검출부의 프레임 형성부에서 음성 신호를 음성 프레임으로 변환하는 개념을 설명하기 위한 도면이다.
도 4는 도 2의 유효 프레임 검출부의 유성음 판단부의 상세 블록도이다.
도 5는 도 1의 차신호 검출부의 상세 블록도이다.
도 6은 도 1의 고주파 검출부에서 고주파를 검출하여 그룹화하는 것을 설명하기 위한 그래프이다.
도 7은 도 1의 음주 판단부의 상세 블록도이다.
도 8은 도 1의 음주 판단부에서 생성하는 포만트 기울기를 나타내는 그래프이다.
도 9는 도 1의 음주 판단부에서 기울기 변화 측정에 의한 에너지 차이를 나타내는 그래프이다.
도 10은 본 발명의 일 실시예에 따른 음주 판별 방법의 흐름도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 음주 판별을 수행하기 위한 장치의 블록도이다.
도 1을 참조하면, 본 실시예에 따른 음주 판별을 수행하기 위한 장치(10)는 입력된 음성 신호의 유효 프레임을 검출하는 유효 프레임 검출부(110), 상기 유효 프레임의 원신호의 차신호를 검출하는 차신호 검출부(130), 상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 푸리에 변환부(150), 상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 고주파 검출부(170) 및 상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 음주 판단부(190)를 포함한다.
본 발명의 상기 장치(10)는 음주 판별을 수행하기 위한 소프트웨어(애플리케이션)가 설치되어 실행될 수 있으며, 상기 유효 프레임 검출부(110) 등의 구성은 상기 장치(10)에서 실행되는 상기 음주 판별을 위한 소프트웨어에 의해 제어될 수 있다.
상기 장치(10)는 별도의 단말이거나 또는 단말의 일부 모듈일 수 있다. 상기 장치(10)는 이동성을 갖거나 고정될 수 있다. 상기 장치(10)는, 단말(terminal), UE(user equipment), MS(mobile station), MT(mobile terminal), UT(user terminal), SS(subscriber station), 무선기기(wireless device), PDA(personal digital assistant), 무선 모뎀(wireless modem), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다.
상기 장치(10)는 유선 또는 무선 통신을 지원하는 장치로서, 스마트 폰, 휴대 전화, 태블릿 컴퓨터, 노트북, 넷북, 피디에이(PDA), 피엠피(PMP), 피에스피(PSP), 엠피쓰리(MP3) 플레이어, 이북(e-book) 리더, 내비게이션, 스마트 카메라, 전자사전, 전자시계, 게임기 등 다양한 형태의 모바일(mobile) 장치뿐만 아니라 데스크 탑 컴퓨터, 스마트 TV 등의 전자 장치를 포함할 수 있다.
상기 장치(10)는 운영체제(Operation System; OS)를 기반으로 다양한 애플리케이션을 실행할 수 있다. 상기 운영체제는 애플리케이션이 장치의 하드웨어를 사용할 수 있도록 하기 위한 시스템 프로그램으로서, iOS, 안드로이드 OS, 윈도우 모바일 OS, 바다 OS, 심비안 OS, 블랙베리 OS 등 모바일 컴퓨터 운영체제 및 윈도우 계열, 리눅스 계열, 유닉스 계열, MAC, AIX, HP-UX 등 컴퓨터 운영체제를 모두 포함할 수 있다.
상기 애플리케이션은 단말기를 이용하여 특정한 작업을 수행할 수 있도록 개발된 프로그램으로서, 각종 응용 프로그램 및 서비스 객체뿐 아니라 게임, 동영상, 사진 등의 각종 멀티미디어 컨텐츠(contents) 또는 상기 멀티미디어 컨텐츠를 실행하는 이미지 뷰어, 동영상 재생기 등의 실행 프로그램을 모두 포함할 수 있다. 이하에서는, 애플리케이션으로 기재하나, 모든 응용 프로그램 및 실행 프로그램을 포함할 수 있다.
상기 유효 프레임 검출부(110)는 입력되는 사용자의 음성 신호의 유효 프레임을 검출하여 출력한다. 상기 음성 신호는 상기 장치(10)에 직접 입력되거나 통신에 의해 입력될 수 있다. 즉, 음성 신호는 상기 장치(10)에 구비된 마이크를 통해 입력되거나, 원격에서 송신될 수 있다.
도 2를 참조하면, 상기 유효 프레임 검출부(110)는 상기 입력된 음성 신호의 음성 프레임을 형성하는 프레임 형성부(111) 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 유성음 판단부(113)를 포함한다.
상기 프레임 형성부(111)는 사람의 음성을 입력받아 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환하여 출력한다. 통상적으로 아날로그 음성 신호는 초당 8000개의 샘플과 16비트(65535단계)의 크기로 샘플링하여 음성데이터로 변환된다.
상기 프레임 형성부(111)는 입력되는 음성 신호를 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환할 수 있다. 여기서, 하나의 음성 프레임 데이터는 256개의 에너지 값을 갖게 된다.
음성 데이터는 도 3에서와 같이, 입력되는 음성에 따라 다수의 음성 프레임들(n=프레임의 개수, n=1,2,3,...)로 구성된다. 상기 프레임 형성부(111)는 음성 프레임을 생성한 후, 그 정보를 상기 유성음 판단부(113)로 출력한다.
상기 유성음 판단부(113)는 음성 프레임을 입력받아 기 설정된 특징들을 추출하고, 추출된 특징들에 따라 입력된 음성 프레임이 유성음, 무성음 또는 잡음에 대한 것인지 여부를 분석한다. 그 분석 결과에 따라 음성 프레임 중 유성음에 대한 프레임만 분리하여 출력할 수 있다.
도 4를 참조하면, 상기 유성음 판단부(113)는 음성 프레임을 입력받아 기 설정된 특징들을 추출하는 특징 추출부(113a)와, 음성 프레임의 인식 결과를 도출하는 인식부(113b)와, 인식 결과에 따라 입력된 음성 프레임이 유성음에 대한 것인지 무성음에 대한 것인지, 또는 배경 잡음에 의한 것인지를 판별하는 판단부(113c)와, 판별 결과에 따라 유효 프레임을 분리하여 출력하는 분리 출력부(113d)를 포함할 수 있다.
상기 특징 추출부(113a)는 상기 프레임 형성부(111)를 통해 음성 프레임이 입력되면, 그 음성 프레임으로부터 고조파의 주기적 특성 또는 저대역 음성 신호 에너지 영역의 크기(RMSE: Root Mean Squared Energy of Signal)나 0점 교차 횟수(Zero-Crossing Count: ZC) 등과 같은 특징들을 추출할 수 있다.
상기 인식부(113b)는 일반적으로 신경망으로 구성될 수 있다. 이는 신경망의 특성상, 비선형적, 즉 수학적으로 해결 가능하지 않은 복잡한 문제들을 분석하는데 유용하기 때문에, 음성 신호들을 분석하고, 분석된 결과에 따라 해당 음성 신호를 유성음 또는 무성음 및 배경 잡음으로 판단하기에 적합하기 때문이다. 이러한 신경망으로 구성된 상기 인식부(113b)는 상기 특징 추출부(113a)로부터 추출된 특징들에 기 설정된 가중치를 부여하고, 신경망 계산 과정을 통해 음성 프레임의 인식 결과를 도출할 수 있다. 여기서 인식 결과라는 것은 음성 프레임에 대해 각 음성 프레임의 특징 별로 부여된 가중치에 따라 각각의 계산 요소를 계산한 결과, 산출된 값을 말한다.
상기 판단부(113c)는 상술한 인식 결과, 즉 상기 인식부(113b)로부터 산출된 값에 따라 입력된 음성 신호가 유성음인지 무성음인지에 대한 판단을 하고, 상기 판단부(113c)의 판단 결과에 따라 상기 분리 출력부(113d)는 음성 프레임을 유성음, 무성음 또는 배경잡음으로 분리한다.
한편, 유성음의 경우 다양한 특징들이 무성음 및 배경 잡음과 확연히 차이가 나므로, 이를 구분하기는 상대적으로 쉬운 편이며 공지된 여러 가지 기술이 있다. 예를 들어, 유성음의 경우 고조파가 일정 주기를 반복하여 나타나는 주기적 특성을 가지고 있는 반면, 배경 잡음은 고조파라는 특징을 가지지 않는다.
그런데, 무성음의 경우에는 고조파가 있기는 하여도 그것이 가지는 주기성이 약하다. 다시 말해, 유성음의 경우 고조파가 하나의 프레임 안에서도 반복된다는 특성이 있으나, 무성음의 경우 고조파가 있다고는 하나, 고조파의 주기성과 같은 유성음의 특성이, 몇 개 이상의 프레임에 걸쳐서 나타나게 될 정도로 약하게 나타난다는 특성이 있다.
상기 유성음 판단부(113)가 유성음, 무성음 또는 배경잡음을 분리하면, 상기 유효 프레임 검출부(110)는 유성음에 대한 프레임만 출력한다. 이와 같이 출력된 유성음에 대한 프레임을 유효 프레임의 원신호(S(n))라 하며, 상기 유효 프레임의 원신호(S(n))는 상기 차신호 검출부(130)로 전달된다.
도 5를 참조하면, 상기 차신호 검출부(130)는 상기 유효 프레임의 원신호(S(n))의 차신호(S(n)-S(n-1))를 출력하기 위해 시프트 신호부(131) 및 차신호 출력부(133)를 포함한다.
상기 시프트 신호부(131)는 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하고, 상기 차신호 출력부(133)는 상기 원신호와 상기 시프트 신호(S(n-1))와의 차신호(S(n)-S(n-1))를 출력한다.
음주 전 후의 특징으로는 비음의 특성처럼 고주파 성분이 상승하는 것으로 보고되어 있는데, 저주파 성분은 거의 변화가 없지만 고주파 성분에서 상당한 차이가 나는 현상을 보이고 있다. 이는 음주 후에는 청각 기능이 저하되어 잘 들리지 않아 화자가 소리를 크게 내게 되고 소리를 크게 내려면 입도 크게 벌리게 되고 이로써 폐활량이 증가하여 에너지에 영향을 주기 때문이다. 또한, 술에 취할 경우 음성이 적정한 음량을 일정하게 지키지 못하고 너무 커지거나 너무 작아지는 것이 일반적이기 때문에 술 마신 후 말하는 크기의 편차가 심해진다.
본 발명에서는 원신호의 차신호를 구하게 되는데 이렇게 구해진 신호는 고주파 성분이 강조된 특성을 보인다. 따라서, 음주 전 후의 차이를 더욱 강조할 수 있고, 차신호를 이용하여 고주파의 분석이 더욱 용이해진다.
상기 푸리에 변환부(150)는 상기 차신호 검출부(130)에서 출력된 상기 유효 프레임의 차신호(S(n)-S(n-1))의 고속 푸리에 변환(FFT: Fast Fourier Transform)을 수행하여 음성 신호를 주파수 영역으로 변환한다.
푸리에 변환이란, 시간 영역에서의 신호를 주파수 영역으로 변환해서 각각의 합성신호를 분석하는 방법으로 각각의 신호의 주파수나 특성을 알 수 있다. 예를 들어, 안테나에서 신호를 보내면 라디오에서는 주파수를 맞추어서 전파를 들을 수 있다. 물론 그러한 주파수를 맞춰놓으면 다른 주파수의 신호(전파)에 있는 필터가 다른 신호를 막는 역할을 한다. 이러한 필터를 만들기 위해 푸리에 변환을 하는 것이다. 시간함수 u(t)를 주파수함수 U(ω)로 변환하는 것을 푸리에 변환이라고 하고, 역으로 주파수함수 U(ω)를 시간함수 u(t)로 변환하는 것을 역푸리에 변환이라고 한다. 
고속 푸리에 변환은 상기 푸리에 변환에 근거하여 근사공식을 이용한 이산푸리에변환(discrete Fourier transform)을 계산할 때 연산횟수를 줄일 수 있도록 고안된 알고리즘이다.
상기 고속 푸리에 변환된 차신호(FFT(S(n)-S(n-1)))는 주파수 영역의 음성 신호로서, 상기 고주파 검출부(170)로 출력된다.
상기 고주파 검출부(170)는 상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하여, 그룹화한다. 본 발명에서는 한 프레임 내의 음의 변화를 작은 단위로 분리하여 고주파 변화를 측정하고, 이것을 특징 파라미터로 사용한다.
구체적으로, 상기 고주파 검출부(170)는 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 전환한 후 일정 개수 단위로 솎아내기를 하여 재배열한다. 즉, 고주파 성분들을 순차적으로 일정 개수로 묶어서 저주파 성분과 고주파 성분이 골고루 분포하게 한다.
도 6을 참조하면, 제1 내지 제4의 고주파 성분들(FE1, FE2, FE3, FE4)을 보여주며, 예를 들어, 4개씩 그룹화한다면, FE1 내지 FE4는 한 그룹이 되는 것이다. 이것은 마치 한 프레임을 4등분하여 고속 푸리에 변환한 것과 마찬가지의 효과를 얻는다.
이 경우, 상기 고주파 검출부(170)는 상기 고속 푸리에 변환된 차신호의 제1, 5, 9, 13, ... 번째 고주파 성분을 검출하는 제1 고주파 검출부, 상기 고속 푸리에 변환된 차신호의 제2, 6, 10, 14, ... 번째 주파 성분을 검출하는 제2 고주파 검출부, 상기 고속 푸리에 변환된 차신호의 제3, 7, 11, 15, ... 번째 고주파 성분을 검출하는 제3 고주파 검출부 및 상기 고속 푸리에 변환된 차신호의 제4, 8, 12, 16, ... 번째 고주파 성분을 검출하는 제4 고주파 검출부를 포함할 수 있다.
음성 신호는 2kHz 이상의 고주파 성분에서 음주 전후에 큰 변화량을 나타낸다. 본 발명은 단기간에 고주파 성분의 변화를 분석할 수 있는 특징이 있기 때문에 이러한 특징을 이용하여 단기간의 특징을 분석해 낼 수 있다.
상기 검출된 고주파 성분들(FE1, FE2, FE3, FE4)은 상기 음주 판단부(190)로 출력된다.
상기 음주 판단부(190)는 한 그룹 내의 상기 고주파 성분들(FE1, FE2, FE3, FE4)로부터 에너지 차이를 구하여 음주 상태를 판단한다. 상기 고주파 성분들의 에너지 차이를 구하기 위해 상기 고주파 성분들의 각 기울기를 생성하고, 상기 기울기 간의 차이로부터 에너지 차이를 도출할 수 있다.
음주를 하게 되면 목소리의 크기를 제어하는 능력이 저하되어 고주파 성분의 에너지 변화가 크므로, 상기 음주 판단부(190)는 일정 구간 동안의 고주파 성분의 에너지 변화에 대한 차이에 따라 음주 여부를 판별할 수 있게 된다.
도 7을 참조하면, 상기 음주 판단부(190)는 기울기 추출부(191), 에너지 차이 검출부(193), 평균 계산부(195) 및 결과 출력부(197)를 포함한다.
상기 기울기 추출부(191)는 상기 고주파 성분들(FE1, FE2, FE3, FE4)의 주파수 기울기들을 각각 생성한다. 상기 주파수 기울기는 포만트 기울기일 수 있다.
도 8은 도 6의 제1 고주파 성분(FE1)에서 포만트 기울기를 추출하는 것을 보여준다. 상기 제1 고주파 성분(FE1)는 주파수 영역의 신호로서, 낮은 주파수부터 피크를 찾으면 그것이 각각 제1 내지 제4 피크 주파수(P1, P2, P3, P4)가 된다.
상기 기울기 추출부(191)에서, 제1 피크 주파수(P1)와 제4 피크 주파수(P4) 간의 기울기(F14), 제1 피크 주파수(P1)와 제3 피크 주파수(P3) 간의 기울기(F13), 제1 피크 주파수(P1)와 제2 피크 주파수(P2) 간의 기울기(F12) 등을 추출할 수 있다.
예를 들어, 복수 개의 포만트 기울기 중 F14(제1 피크 주파수와 제4 피크 주파수 간의 기울기)와, F24(제2 피크 주파수와 제4 피크 주파수 간의 기울기)를 음주 판단에 사용할 수 있다. 사람은 음주 후의 신체적 변화로 목소리의 크기를 제어하는 능력이 저하된다. 이에 따라, 에너지 변화를 이용해 리듬을 타듯 대화를 매끄럽게 이끌어내지 못하므로, 연속적으로 소리를 내어 발음하거나 작게 발음해야 할 경우도 크게 발음한다. 이런 특징은 제1 피크 주파수(P1)에 변화가 생기는 것을 의미한다. 또한, 음주를 하게 되면 발음할 때 혀의 위치에도 변화가 생기는데 이는 제2 피크 주파수(P2)에 영향을 준다. 즉, 혀가 앞에 위치하게 되면 제2 피크 주파수(P2)가 커지고, 뒤에 있으면 작아진다. 제4 피크 주파수(P4는 조음기관의 영향을 거의 받지 않으므로 음주 전후에 거의 일정하다. 따라서, F14와 F24의 변화량에 따라 음주 여부 판단이 더욱 용이해질 수 있다.
상기 기울기 추출부(191)는 동일한 방법으로 제2 고주파 성분(FE2) 내지 제4 고주파 성분(FE4)에서 각각 포만트 기울기를 추출하여, 에너지 차이 검출부 (193)로 출력한다.
에너지 차이 검출부(193)는 한 그룹 내의 상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정한다. 상기 에너지 차이는 상기 포만트 기울기의 거리차로부터 도출 가능하다.
예를 들어, 에너지 차이 검출부(193)는 서로 이웃하는 고주파 성분들 간의 기울기 차이를 측정할 수 있다. 즉, 제1 고주파 성분(FE1)과 제2 고주파 성분(FE2) 간의 기울기 차이, 제2 고주파 성분(FE2)과 제3 고주파 성분(FE3) 간의 기울기 차이, 제3 고주파 성분(FE3)과 제4 고주파 성분(FE4) 간의 기울기 차이를 각각 구할 수 있다.
그러나, 다른 실시예로서, 서로 이웃하지 않은 고주파 성분들 간의 기울기 차이를 더 측정할 수도 있다. 예를 들어, 제1 고주파 성분(FE1)과 제3 고주파 성분(FE3) 간의 기울기 차이, 제2 고주파 성분(FE2)과 제4 고주파 성분(FE4) 간의 기울기 차이, 제1 고주파 성분(FE1)과 제4 고주파 성분(FE4) 간의 기울기 차이 등을 더 측정하여 에너지 차이를 검출할 수도 있다.
도 9를 참조하면, 상기 에너지 차이 검출부 (193)는 제1 고주파 성분(FE1)과 제2 고주파 성분(FE2)의 포만트 기울기 차이로부터 에너지 차(ED)를 도출한다. 상기 고속 푸리에 변환된 원신호(FE1)의 기울기(F1) 및 상기 고속 푸리에 변환된 차신호(FE2)의 기울기(F2)의 포만트 기울기 차이는 기울기의 거리차로서, 주파수마다 다른 차이를 가지므로, 거리차의 평균을 계산할 수 있다.
동일한 방법으로, 제2 고주파 성분(FE2)과 제3 고주파 성분(FE3) 간의 에너지 차이, 제3 고주파 성분(FE3)과 제4 고주파 성분(FE4) 간의 에너지 차이를 각각 검출할 수 있다. 검출된 에너지 차이값들은 상기 평균 계산부(195)로 제공된다.
상기 평균 계산부(195)는 상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하여 상기 결과 출력부(197)에 제공한다. 만약, 두 개 이상의 그룹이 있는 경우, 한 그룹 내의 고주파 성분들끼리의 에너지 차이를 구하여 모든 그룹의 에너지 차이들을 합산하여 에너지 평균값을 계산할 수 있다.
상기 결과 출력부(197)는 상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하고, 상기 임계값 이하인 경우 비음주 상태로 판단할 수 있다.
상기 임계값은 미리 설정되어 저장될 수 있으며, 일률적으로 적용할 수 있다. 상기 임계값은 실험에 의해 설정된 최적값일 수 있다. 한편, 성별, 나이에 따라 다른 임계값이 적용되거나 개인 맞춤형으로 서로 다른 임계값이 적용될 수도 있다.
본 발명에 따른 상기 음주 판별 장치는 주파수 영역에서 음주 여부를 판단하고, 특히 음성 신호의 고주파를 강조하고 더 나아가 신호의 분석력을 높이기 위해 주파수 상에서 포만트 에너지 비교법을 사용한다. 또한, 한 프레임 내의 음의 변화를 작은 단위로 분리하여 고주파 변화를 측정하고, 이것을 특징 파라미터로 사용하므로, 단기간에 고주파 성분의 변화를 분석할 수 있다. 따라서, 단기간의 특징을 분석하여 음주 여부 및 정도를 판단하는데 유효한 분석법이다.
도 10은 본 발명의 일 실시예에 따른 음주 판별 방법의 흐름도이다.
본 실시예에 따른 음주 판별 방법은, 도 1의 장치(10)와 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 장치(10)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다.
또는, 본 실시예에 따른 음주 판별 방법은 음주 판별을 위한 소프트웨어(애플리케이션)에 의해 실행될 수 있다.
도 10을 참조하면, 본 실시예에 따른 음주 판별 방법은, 입력된 음성 신호의 유효 프레임을 검출한다(단계 S110).
상기 유효 프레임을 검출하는 단계(단계 S110)는, 상기 입력된 음성 신호의 음성 프레임을 형성하는 단계 및 상기 음성 프레임이 유성음에 해당하는지 여부를 판단하는 단계를 포함할 수 있다.
구체적으로, 사람의 음성을 입력받아 음성 데이터로 변환하고, 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환한 후, 음성 프레임이 유성음, 무성음 또는 잡음에 대한 것인지 여부를 분석한다. 그 분석 결과에 따라 유성음에 대한 프레임, 즉 유효 프레임만 출력할 수 있다.
상기 유효 프레임이 검출되면, 상기 유효 프레임의 원신호의 차신호를 검출한다(단계 S130).
상기 차신호를 검출하는 단계(단계 S130)는, 상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 단계 및 상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 단계를 포함할 수 있다.
상기 차신호는 고주파 성분이 강조된 특성을 보이므로, 음주 전 후의 차이를 더욱 강조할 수 있고, 차신호를 이용하여 고주파의 분석이 더 용이해진다.
상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환한다(단계 S150).
상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출한다(단계 S170).
상기 고주파 성분들을 검출하는 단계(단계 S170)는, 검출된 고주파 성분들을 순차적으로 4개씩 그룹화하는 단계를 포함할 수 있다.
상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단한다(단계 S190).
상기 음주 상태를 판단하는 단계(단계 S190)는, 상기 고주파 성분들의 주파수 기울기들을 각각 생성하는 단계, 상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 단계, 상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하는 단계 및 상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 단계를 포함할 수 있다.
상기 고주파 성분들의 주파수 기울기들은 포만트 기울기일 수 있다. 상기 포만트 기울기 차이는 기울기 거리차로서, 주파수마다 다른 차이를 가지므로, 거리차의 평균을 계산할 수 있다. 이와 같은 방식으로 이웃하는 고주파 간의 에너지 차이를 각각 검출하고, 에너지 차이의 평균값을 계산한다.
상기 에너지 차이의 평균값이 임계값보다 큰 경우에는, 고주파 성분의 에너지 변화가 큰 것이므로 음주 상태로 판단할 수 있다.
이와 같은, 음주 판별 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
본 발명에 따른 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치는, 원거리에 있는 운전자 또는 운항자의 음주 여부를 통신을 통해 파악할 수 있으므로 음주 운전 또는 운항으로 인한 사고를 예방할 수 있다. 또한, 선박뿐 아니라 철도, 항공기, 자동차, 버스, 고속도로 등 근접거리에서 측정이 어려운 수송기관 및 국내외 모든 해상 및 항공 교통관제서비스 시스템에 장착하는 등 널리 적용 가능하다. 나아가, 개인 휴대폰으로 음주를 측정하는 웹 어플리케이션에 기여할 수 있다.
10: 장치 110: 유효 프레임 검출부
130: 차신호 검출부 150: 푸리에 변환부
170: 고주파 검출부 190: 음주 판단부

Claims (15)

  1. 입력된 음성 신호의 유효 프레임을 검출하는 단계;
    상기 유효 프레임의 원신호의 차신호를 검출하는 단계;
    상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 단계;
    상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 단계; 및
    상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 단계를 포함하며,
    상기 유효 프레임을 검출하는 단계는,
    상기 입력된 음성 신호를 음성 데이터로 변환하고, 상기 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환하는 단계;
    상기 음성 프레임 데이터로부터 고조파의 주기적 특성, 저대역 음성 신호 에너지 영역의 크기 또는 0점 교차횟수에 대한 특징을 추출하는 단계;
    상기 음성 프레임에 상기 음성 프레임 별로 추출된 특징에 따라 기 설정된 가중치를 부여하고, 상기 음성 프레임의 특징 별로 부여된 가중치에 따라 각 음성 프레임의 인식값을 산출하는 단계;
    상기 산출된 인식값에 따라 상기 음성 프레임 별로 프레임에 포함된 음성 신호가 유성음, 무성음 또는 배경 잡음인지 여부를 판단하는 단계; 및
    상기 판단된 결과에 따라 상기 음성 프레임 데이터 중 유성음에 대한 음성 프레임을 분리하여 유효 프레임을 검출하는 단계를 포함하는 음주 판별 방법.
  2. 제1항에 있어서,
    상기 음주 상태를 판단하는 단계는,
    상기 고주파 성분들의 주파수 기울기들을 각각 생성하는 단계;
    상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 단계;
    상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하는 단계; 및
    상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 단계를 포함하는, 음주 판별 방법.
  3. 제2항에 있어서,
    상기 고주파 성분들의 주파수 기울기들은 포만트 기울기인, 음주 판별 방법.
  4. 제2항에 있어서,
    상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 단계는,
    서로 이웃하는 고주파 성분들 간의 기울기 차이를 측정하는, 음주 판별 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 단계는,
    검출된 고주파 성분들을 순차적으로 4개씩 그룹화하는 단계를 포함하는, 음주 판별 방법.
  7. 제1항에 있어서,
    상기 차신호를 검출하는 단계는,
    상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 단계; 및
    상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 단계를 포함하는, 음주 판별 방법.
  8. 제1항 내지 제4항 및 제6항 내지 제7항 중 어느 하나의 항에 따른 음주 판별 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
  9. 입력된 음성 신호의 유효 프레임을 검출하는 유효 프레임 검출부;
    상기 유효 프레임의 원신호의 차신호를 검출하는 차신호 검출부;
    상기 차신호의 고속 푸리에 변환을 수행하여 주파수 영역으로 변환하는 푸리에 변환부;
    상기 고속 푸리에 변환된 차신호의 고주파 성분들을 검출하는 고주파 검출부; 및
    상기 고주파 성분들 간의 기울기 차이에 기초하여 음주 상태를 판단하는 음주 판단부를 포함하며,
    상기 유효 프레임 검출부는 상기 입력된 음성 신호를 음성 데이터로 변환하고, 상기 음성 데이터를 프레임 단위의 음성 프레임 데이터로 변환하는 프레임 형성부 및 상기 음성 프레임 데이터로부터 고조파의 주기적 특성, 저대역 음성 신호 에너지 영역의 크기 또는 0점 교차횟수에 대한 특징을 추출하는 특징 추출부, 상기 음성 프레임에 상기 음성 프레임 별로 추출된 특징에 따라 기 설정된 가중치를 부여하고, 상기 음성 프레임의 특징 별로 부여된 가중치에 따라 각 음성 프레임의 인식값을 산출하는 인식부, 상기 산출된 인식값에 따라 상기 음성 프레임 별로 프레임에 포함된 음성 신호가 유성음, 무성음 또는 배경 잡음인지 여부를 판단하는 판단부 및 상기 판단부에 의해 판단된 결과에 따라 상기 음성 프레임 데이터 중 유성음에 대한 음성 프레임을 분리하여 유효 프레임을 검출하는 분리 출력부를 포함하는 유성음 판단부를 포함하는 음주 판별 장치.
  10. 제9항에 있어서,
    상기 음주 판단부는,
    상기 고주파 성분들의 주파수 기울기들을 각각 생성하는 기울기 추출부;
    상기 고주파 성분들 간의 기울기 차이를 측정하여 상기 고주파 성분들 간의 에너지 차이를 측정하는 에너지 차이 검출부;
    상기 측정한 에너지 차이들을 합산하여 에너지 차이의 평균값을 계산하는 평균 계산부; 및
    상기 에너지 차이의 평균값이 임계값보다 크면 음주 상태로 판단하여 결과를 출력하는 결과 출력부를 포함하는, 음주 판별 장치.
  11. 제10항에 있어서,
    상기 고주파 성분들의 주파수 기울기들은 포만트 기울기인, 음주 판별 장치.
  12. 제10항에 있어서,
    상기 에너지 차이 검출부는, 서로 이웃하는 고주파 성분들 간의 기울기 차이를 측정하는, 음주 판별 장치.
  13. 삭제
  14. 제9항에 있어서,
    상기 고주파 검출부는,
    상기 고속 푸리에 변환된 차신호의 제(4n-3)(여기서, n은 자연수)번째 고주파 성분을 검출하는 제1 고주파 검출부;
    상기 고속 푸리에 변환된 차신호의 제(4n-2)번째 고주파 성분을 검출하는 제2 고주파 검출부;
    상기 고속 푸리에 변환된 차신호의 제(4n-1)번째 고주파 성분을 검출하는 제3 고주파 검출부; 및
    상기 고속 푸리에 변환된 차신호의 제(4n)번째 고주파 성분을 검출하는 제4 고주파 검출부를 포함하는, 음주 판별 장치.
  15. 제9항에 있어서,
    상기 차신호 검출부는,
    상기 유효 프레임의 원신호(S(n))를 시프트 한 시프트 신호(S(n-1))를 생성하는 시프트 신호부; 및
    상기 원신호와 상기 시프트 신호와의 차신호(S(n)-S(n-1))를 출력하는 차신호 출력부를 포함하는, 음주 판별 장치.
KR1020140036602A 2014-03-28 2014-03-28 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치 KR101569343B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140036602A KR101569343B1 (ko) 2014-03-28 2014-03-28 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
US15/300,168 US9916845B2 (en) 2014-03-28 2014-04-02 Method for determining alcohol use by comparison of high-frequency signals in difference signal, and recording medium and device for implementing same
PCT/KR2014/002849 WO2015147362A1 (ko) 2014-03-28 2014-04-02 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
CN201480077593.XA CN106133833A (zh) 2014-03-28 2014-04-02 通过差分信号中的高频信号的比较确定饮酒的方法以及用于实现该方法的记录介质和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140036602A KR101569343B1 (ko) 2014-03-28 2014-03-28 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치

Publications (2)

Publication Number Publication Date
KR20150113378A KR20150113378A (ko) 2015-10-08
KR101569343B1 true KR101569343B1 (ko) 2015-11-30

Family

ID=54195856

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140036602A KR101569343B1 (ko) 2014-03-28 2014-03-28 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치

Country Status (4)

Country Link
US (1) US9916845B2 (ko)
KR (1) KR101569343B1 (ko)
CN (1) CN106133833A (ko)
WO (1) WO2015147362A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102825B (zh) * 2018-07-27 2021-06-04 科大讯飞股份有限公司 一种饮酒状态检测方法及装置

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5450525A (en) * 1992-11-12 1995-09-12 Russell; Donald P. Vehicle accessory control with manual and voice response
US5704008A (en) * 1993-12-13 1997-12-30 Lojack Corporation Method of and apparatus for motor vehicle security assurance employing voice recognition control of vehicle operation
BR9507142A (pt) * 1994-03-24 1997-09-30 Minnesota Mining & Mfg Sistema de identificação pessoal biométrico processo para identificar uma pessoa e equipamento
GB9419388D0 (en) 1994-09-26 1994-11-09 Canon Kk Speech analysis
US5774858A (en) * 1995-10-23 1998-06-30 Taubkin; Vladimir L. Speech analysis method of protecting a vehicle from unauthorized accessing and controlling
KR100206205B1 (ko) 1995-12-23 1999-07-01 정몽규 음성 인식 기능을 이용한 음주운전 방지장치 및 방법
US6446038B1 (en) 1996-04-01 2002-09-03 Qwest Communications International, Inc. Method and system for objectively evaluating speech
US5776055A (en) * 1996-07-01 1998-07-07 Hayre; Harb S. Noninvasive measurement of physiological chemical impairment
KR100201256B1 (ko) 1996-08-27 1999-06-15 윤종용 음성을 이용한 차량 시동 제어장치
JP2955247B2 (ja) 1997-03-14 1999-10-04 日本放送協会 話速変換方法およびその装置
US6006188A (en) 1997-03-19 1999-12-21 Dendrite, Inc. Speech signal processing for determining psychological or physiological characteristics using a knowledge base
KR19990058415A (ko) 1997-12-30 1999-07-15 윤종용 음주 운전 방지 시스템
US6236968B1 (en) * 1998-05-14 2001-05-22 International Business Machines Corporation Sleep prevention dialog based car system
WO2001007281A1 (en) * 1999-07-24 2001-02-01 Novtech Co Ltd Apparatus and method for prevention of driving of motor vehicle under the influence of alcohol and prevention of vehicle theft
US6275806B1 (en) 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US7222075B2 (en) 1999-08-31 2007-05-22 Accenture Llp Detecting emotions using voice signal analysis
US6427137B2 (en) 1999-08-31 2002-07-30 Accenture Llp System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud
JP4696418B2 (ja) 2001-07-25 2011-06-08 ソニー株式会社 情報検出装置及び方法
EP1300831B1 (en) 2001-10-05 2005-12-07 Sony Deutschland GmbH Method for detecting emotions involving subspace specialists
US7283962B2 (en) 2002-03-21 2007-10-16 United States Of America As Represented By The Secretary Of The Army Methods and systems for detecting, measuring, and monitoring stress in speech
KR100497837B1 (ko) 2002-10-16 2005-06-28 이시우 유무선 통신망과 음성신호를 이용한 음주상태의 안내서비스 시스템
US8972266B2 (en) 2002-11-12 2015-03-03 David Bezar User intent analysis extent of speaker intent analysis system
US20040167774A1 (en) 2002-11-27 2004-08-26 University Of Florida Audio-based method, system, and apparatus for measurement of voice quality
KR100511316B1 (ko) 2003-10-06 2005-08-31 엘지전자 주식회사 음성신호의 포만트 주파수 검출방법
EP1531458B1 (en) 2003-11-12 2008-04-16 Sony Deutschland GmbH Apparatus and method for automatic extraction of important events in audio signals
US8938390B2 (en) 2007-01-23 2015-01-20 Lena Foundation System and method for expressive language and developmental disorder assessment
US9300790B2 (en) 2005-06-24 2016-03-29 Securus Technologies, Inc. Multi-party conversation analyzer and logger
US8478596B2 (en) * 2005-11-28 2013-07-02 Verizon Business Global Llc Impairment detection using speech
KR100664271B1 (ko) 2005-12-30 2007-01-04 엘지전자 주식회사 음원분리가 가능한 휴대용 단말기 및 그 방법
KR100717625B1 (ko) 2006-02-10 2007-05-15 삼성전자주식회사 음성 인식에서의 포먼트 주파수 추정 방법 및 장치
KR100762596B1 (ko) 2006-04-05 2007-10-01 삼성전자주식회사 음성 신호 전처리 시스템 및 음성 신호 특징 정보 추출방법
EP1850328A1 (en) * 2006-04-26 2007-10-31 Honda Research Institute Europe GmbH Enhancement and extraction of formants of voice signals
US7925508B1 (en) 2006-08-22 2011-04-12 Avaya Inc. Detection of extreme hypoglycemia or hyperglycemia based on automatic analysis of speech patterns
US7962342B1 (en) * 2006-08-22 2011-06-14 Avaya Inc. Dynamic user interface for the temporarily impaired based on automatic analysis for speech patterns
WO2008032787A1 (fr) 2006-09-13 2008-03-20 Nippon Telegraph And Telephone Corporation ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme
US20100010689A1 (en) 2007-02-07 2010-01-14 Pioneer Corporation Drunken driving prevention device, drunken driving prevention method, and drunken driving prevention program
CA2690433C (en) 2007-06-22 2016-01-19 Voiceage Corporation Method and device for sound activity detection and sound signal classification
KR101441896B1 (ko) 2008-01-29 2014-09-23 삼성전자주식회사 적응적 lpc 계수 보간을 이용한 오디오 신호의 부호화,복호화 방법 및 장치
JP5077107B2 (ja) 2008-07-04 2012-11-21 日産自動車株式会社 車両用飲酒検知装置及び車両用飲酒検知方法
US8788270B2 (en) 2009-06-16 2014-07-22 University Of Florida Research Foundation, Inc. Apparatus and method for determining an emotion state of a speaker
WO2011011413A2 (en) 2009-07-20 2011-01-27 University Of Florida Research Foundation, Inc. Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data
WO2011059254A2 (en) 2009-11-12 2011-05-19 Lg Electronics Inc. An apparatus for processing a signal and method thereof
JP5834449B2 (ja) 2010-04-22 2015-12-24 富士通株式会社 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法
AU2010357179A1 (en) 2010-07-06 2013-02-14 Rmit University Emotional and/or psychiatric state detection
WO2012014301A1 (ja) 2010-07-29 2012-02-02 ユニバーサルロボット株式会社 飲酒状態判定装置及び飲酒状態判定方法
US9230538B2 (en) * 2011-04-08 2016-01-05 Mitsubishi Electric Corporation Voice recognition device and navigation device
US9659571B2 (en) 2011-05-11 2017-05-23 Robert Bosch Gmbh System and method for emitting and especially controlling an audio signal in an environment using an objective intelligibility measure
CA2836196C (en) 2011-05-17 2021-06-29 University Health Network Breathing disorder identification, characterization and diagnosis methods, devices and systems
ES2364401B2 (es) 2011-06-27 2011-12-23 Universidad Politécnica de Madrid Método y sistema para la estimación de parámetros fisiológicos de la fonación.
JP5664480B2 (ja) 2011-06-30 2015-02-04 富士通株式会社 異常状態検出装置、電話機、異常状態検出方法、及びプログラム
WO2014115115A2 (en) 2013-01-24 2014-07-31 B. G. Negev Technologies And Applications Ltd. Determining apnea-hypopnia index ahi from speech
JP6263868B2 (ja) 2013-06-17 2018-01-24 富士通株式会社 音声処理装置、音声処理方法および音声処理プログラム
KR101475894B1 (ko) 2013-06-21 2014-12-23 서울대학교산학협력단 장애 음성 개선 방법 및 장치
CN106409313B (zh) 2013-08-06 2021-04-20 华为技术有限公司 一种音频信号分类方法和装置
US20150127343A1 (en) 2013-11-04 2015-05-07 Jobaline, Inc. Matching and lead prequalification based on voice analysis
US9934793B2 (en) 2014-01-24 2018-04-03 Foundation Of Soongsil University-Industry Cooperation Method for determining alcohol consumption, and recording medium and terminal for carrying out same
WO2015115677A1 (ko) 2014-01-28 2015-08-06 숭실대학교산학협력단 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기
US20150262429A1 (en) 2014-03-13 2015-09-17 Gary Stephen Shuster Systems, devices and methods for sensory augmentation to achieve desired behaviors or outcomes
KR20150123579A (ko) 2014-04-25 2015-11-04 삼성전자주식회사 사용자 음성으로부터 감정정보를 확인하는 방법 및 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
배성근, ‘음주운항 단속을 위한 음성감시시스템 개선에 관한 연구’, 숭실대학교 대학원 정보통신공학과, 박사학위논문, 2014년 2월.*
정찬중 외 2명, ‘스펙트럴 변화 특성을 이용한 음주판별에 관한 연구’, 한국통신학회 2013년도 동계종합학술발표회, pp.674-675 , 2013년 1월.*

Also Published As

Publication number Publication date
CN106133833A (zh) 2016-11-16
KR20150113378A (ko) 2015-10-08
WO2015147362A1 (ko) 2015-10-01
US9916845B2 (en) 2018-03-13
US20170140776A1 (en) 2017-05-18

Similar Documents

Publication Publication Date Title
CN106531172B (zh) 基于环境噪声变化检测的说话人语音回放鉴别方法及系统
KR101721303B1 (ko) 백그라운드 잡음의 존재에서 음성 액티비티 검출
EP2352145B1 (en) Transient speech signal encoding method and device, decoding method and device, processing system and computer-readable storage medium
EP2828856B1 (en) Audio classification using harmonicity estimation
US9749021B2 (en) Method and apparatus for mitigating feedback in a digital radio receiver
EP2927906B1 (en) Method and apparatus for detecting voice signal
US9767829B2 (en) Speech signal processing apparatus and method for enhancing speech intelligibility
JP2019053321A (ja) 音声信号を検出するための方法および装置
KR100735343B1 (ko) 음성신호의 피치 정보 추출장치 및 방법
KR101621780B1 (ko) 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
CN106991998A (zh) 噪声环境下语音端点的检测方法
US10522160B2 (en) Methods and apparatus to identify a source of speech captured at a wearable electronic device
CN107274892A (zh) 说话人识别方法及装置
KR101569343B1 (ko) 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
CN104036785A (zh) 语音信号的处理方法和装置、以及语音信号的分析系统
KR101621797B1 (ko) 시간 영역에서의 차신호 에너지법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
KR20090098891A (ko) 강인한 언어 활동 검출 방법 및 장치
Dov et al. Voice activity detection in presence of transients using the scattering transform
Kohmura et al. A zero phase noise reduction method with damped oscillation estimator
CN112581975A (zh) 基于信号混叠和双声道相关性的超声波语音指令防御方法
KR20160000680A (ko) 광대역 보코더용 휴대폰 명료도 향상장치와 이를 이용한 음성출력장치
Ong et al. Real-time Voice Activity Detector Using Gammatone Filter and Modified Long-Term Signal Variability
Kyoya et al. A method for impact noise reduction from speech using a stationary-nonstationary separating filter
Sun et al. A robust feature extraction approach based on an auditory model for classification of speech and expressiveness
Park et al. Pitch Error Improved with SNR Compensation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181022

Year of fee payment: 4