KR102316509B1 - 음원 출력 제어 장치 및 그 방법 - Google Patents

음원 출력 제어 장치 및 그 방법 Download PDF

Info

Publication number
KR102316509B1
KR102316509B1 KR1020200088942A KR20200088942A KR102316509B1 KR 102316509 B1 KR102316509 B1 KR 102316509B1 KR 1020200088942 A KR1020200088942 A KR 1020200088942A KR 20200088942 A KR20200088942 A KR 20200088942A KR 102316509 B1 KR102316509 B1 KR 102316509B1
Authority
KR
South Korea
Prior art keywords
sound
sound source
vehicle
external noise
driving
Prior art date
Application number
KR1020200088942A
Other languages
English (en)
Other versions
KR20210010404A (ko
Inventor
안강헌
김현재
Original Assignee
충남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충남대학교산학협력단 filed Critical 충남대학교산학협력단
Publication of KR20210010404A publication Critical patent/KR20210010404A/ko
Application granted granted Critical
Publication of KR102316509B1 publication Critical patent/KR102316509B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1091Details not provided for in groups H04R1/1008 - H04R1/1083
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

본 발명은 적어도 하나의 프로세서에 의해 동작하는 음원 출력 제어 장치의 동작 방법으로서, 연동되는 하나 이상의 마이크를 통해 일정 시간 동안 외부 소음을 수집하고, 수집한 외부 소음의 평균 크기를 산출하여 역치를 산정하는 단계, 실시간으로 수집되는 외부 소음이 상기 역치보다 큰 값을 가지면 외부 소음에 대해 학습된 소리 분석 모델의 입력에 맞게 전처리하는 단계, 전처리한 외부 소음을 학습된 소리 분석 모델에 입력하여 임계 거리 이내에 발생한 소리에 대해 사람의 음성 또는 차량의 주행 소리 인지 판별하는 단계, 그리고 외부 소음이 사람의 음성 또는 차량의 주행 소리로 판별하면 해당 외부 소음을 연동하는 음원 출력 장치로 출력하는 단계를 포함하고, 음원 출력 장치에서 음원 콘텐츠가 출력되고 있는 경우, 음원 콘텐츠와 상기 사람의 음성 또는 차량의 주행 소리를 조합하여 출력한다.

Description

음원 출력 제어 장치 및 그 방법{APPARATUS FOR ADJUSTING OUTPUT SOUND SOURCE AND METHOD THEREOF}
외부 소음에 기초하여 음원 출력을 자동으로 제어하는 음원 출력 제어 장치 및 그 방법에 관한 것이다.
최근에는 다양한 소형기기가 대중화됨에 따라 일상 생활에서 음악, 동영상 및 DMB를 시청하는 경우가 증가하고 있다. 이러한 기기들을 이용하기 위해서는 해당 콘텐츠에 집중할 수 있도록 외부 소음을 차단하는 구조로 형성된 이어폰, 헤드폰 등을 착용하게 된다.
그러나 외부 소음을 완전 차단하지 못하기 때문에, 사용자는 착용한 이어폰, 헤드폰 등의 볼륨을 높이게 되며, 이를 오랜 시간 유지하는 경우, 청력이 손실되는 문제로 발전할 수 있다.
또한, 외부 소음과 차단되어 콘텐츠에 집중함으로써, 사용자가 인지해야만 하는 주변 상황을 놓치거나 무시하게 되어 사고가 발생하고, 이로 인한 사회적 손실이 발생할 수 있다.
이러한 문제를 해결하고자, 사용자가 이어폰을 착용한 상태에서 갑작스러운 큰 소음이 외부에서 발생하면 해당 소음에 대응하여 이어폰의 볼륨을 조절하는 기술이 연구되고 있지만, 외부에서 큰 소음이 발생한 경우에는 이미 사고가 발생된 이후의 상황일 가능성이 크기 때문에 사용자가 해당 상황에 대한 대응할 시간을 확보할 수 없다.
따라서, 사용자가 해당 상황을 인지하고 대응할 시간을 확보할 수 있도록 주변에서 발생하는 소음을 정확하게 구분하여 사용자가 착용한 이어폰의 볼륨을 제어하거나 외부 소음을 이어폰으로 출력하는 기술이 요구된다.
해결하고자 하는 과제는 음원 콘텐츠를 출력하는 상황에서 외부 소음 중에서 사람의 음성 또는 차량의 주행 소리를 인식하면 음원 콘텐츠와 인식한 사람의 음성 또는 차량의 주행 소리를 조합하여 출력하는 기술을 제공하는 것이다.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서에 의해 동작하는 음원 출력 제어 장치의 동작 방법으로서, 연동되는 하나 이상의 마이크를 통해 일정 시간 동안 외부 소음을 수집하고, 수집한 외부 소음의 평균 크기를 산출하여 역치를 산정하는 단계, 실시간으로 수집되는 외부 소음이 역치보다 큰 값을 가지면 외부 소음에 대해 학습된 소리 분석 모델의 입력에 맞게 전처리하는 단계, 전처리한 외부 소음을 학습된 소리 분석 모델에 입력하여 임계 거리 이내에 발생한 소리에 대해 사람의 음성 또는 차량의 주행 소리 인지 판별하는 단계, 그리고 외부 소음이 사람의 음성 또는 차량의 주행 소리로 판별하면 해당 외부 소음을 연동하는 음원 출력 장치로 출력하는 단계를 포함하고, 음원 출력 장치에서 음원 콘텐츠가 출력되고 있는 경우, 음원 콘텐츠와 상기 사람의 음성 또는 차량의 주행 소리를 조합하여 출력한다.
다양한 위치에서 발화하는 사람의 음성들과 주행하는 차량의 주행 소리들을 수집하는 단계, 사람의 음성 또는 차량의 주행 소리 중에서 소리 신호의 거리 특성에 기초하여 임계 거리 내에서 발생된 소리만을 선택하여 데이터 셋을 구축하는 단계, 그리고 데이터 셋을 이용하여 임계 거리 이내에서 발화하는 사람의 음성을 판별하는 제1 소리 분석 모델과 임계 거리 이내에서 발생된 차량의 주행 소리를 판별하는 제2 소리 분석 모델을 학습시키는 단계를 더 포함할 수 있다.
마이크는 각각의 면 중앙부에 마이크 센서가 부착되어 상기 마이크 센서마다 소리를 수음하는 다면체 마이크를 나타낼 수 있다.
학습시키는 단계는, 복수의 마이크를 통해 외부 소음을 수음하는 경우, 발생되는 소리의 위치에서부터 마이크마다 도달되는 시간차에 기초하여 임계 거리 이내의 소리만을 분류하고, 분류된 임계 거리 이내의 소리에 대해서 사람의 음성 또는 차량의 주행 소리 여부를 판별하도록 학습시킬 수 있다.
학습시키는 단계는, 다음 수학식과 같이 음원 소리 신호(So(t')가 t 시간 만큼 전파되었을 때 소리 신호(S(t))의 거리에 따른 소리의 분산 특성(gd)에 기초하여 주파수 도메인 상에서 거리에 따른 소리의 분산 특성Gd(W)을 산출하고 산출된 소리의 분산 특성에 기초하여 임계 거리 내에서 발생된 소리만을 선택하도록 학습시킬 수 있다.
Figure 112020074762619-pat00001
여기서, So(t')는 음원의 신호 값으로 설정된 값을 의미하고 So(w)는 주파수 도메인상에서의 음원 소리 신호, S(W)는 주파수 도메인 상에서의 소리 신호(S(t)를 나타낸다.
역치를 산정하는 단계는 수집된 외부 소음을 디지털 신호로 변환하고, 전환된 디지털 신호들을 기초로 평균 크기를 산출하면 산출된 평균 크기에 대한 오차 범위를 더한 값으로 역치를 산정할 수 있다.
음원 출력 장치로 출력하는 단계는, 인식된 사람의 음성 또는 차량의 주행 소리에 기초하여 외부 소리 볼륨 값을 설정하면, 외부 소리 볼륨 값에 기초하여 음원 콘텐츠의 볼륨이 낮아지도록 제어할 수 있다.
본 발명의 또 실시예에 따르면, 컴퓨팅 장치에 의해 실행되고, 컴퓨터로 판독가능한 저장매체에 저장되는 프로그램으로서, 연동되는 하나 이상의 마이크를 통해 일정 시간 동안 외부 소음을 수집하고, 수집한 외부 소음의 평균 크기를 산출하여 역치를 산정하는 단계, 실시간으로 수집되는 외부 소음이 역치보다 작은 값을 가지면 삭제하고 역치보다 큰 값을 가지면 외부 소음에 대해 학습된 소리 분석 모델의 입력에 맞게 전처리하는 단계, 전처리한 외부 소음을 학습된 소리 분석 모델에 입력하여 임계 거리 이내에 발생한 소리에 대해 사람의 음성 또는 차량의 주행 소리 인지 판별하는 단계, 그리고 외부 소음이 사람의 음성 또는 차량의 주행 소리로 판별하면 해당 외부 소음을 연동하는 음원 출력 장치로 출력하는 단계를 실행하는 명령어들을 포함한다.
실시예에 따르면, 외부 소음을 차단하면서 음원 콘텐츠를 이용하는 사용자의 근거리에서 발화하는 사람의 음성이나 근거리로 다가오는 차량의 주행 소리를 인식하여 제공함으로써, 사용자가 주변 상황의 변화를 쉽게 인지하여 발생할 수 있는 사고를 예방할 수 있다.
또한, 실시예에 따르면 사용자가 주변 사람과 대화를 하고자 하거나 소음이 발생하는 상황에 주의를 기울이기 위해 이용하고 있는 음원 콘텐츠를 직접 제어하지 않아도 의사 소통이 가능하도록 자동으로 음원 출력 제어 장치의 볼륨을 제어함으로써 사용자의 편의성을 제공한다.
도 1은 본 발명의 실시예에 따른 음원 출력 제어 장치를 포함하는 시스템을 나타낸 구성도이다.
도 2는 본 발명의 실시예에 따른 사면체 마이크를 통해 임계거리 내의 소리들을 분석하는 방법에 대해서 설명하기 위한 예시도이다.
도 3는 본 발명의 실시예에 따른 거리에 따른 주파수 도메인을 나타낸 예시도이다.
도 4는 본 발명의 실시예에 따른 음원 출력 제어 장치를 나타낸 구성도이다.
도 5는 본 발명의 실시예에 따른 소리 분석 모델을 나타낸 예시도이다.
도 6은 본 발명의 실시예에 따른 외부 소리에 따른 음원 출력을 제어하는 방법을 나타낸 순서도이다.
도 7는 본 발명의 실시예에 따른 컴퓨팅 장치의 하드웨어 구성도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
명세서 상에서 외부 소음은 사람의 음성 또는 자동차 소리 등 외부에서 발생한 모든 소리를 포함한다.
명세서 상에서는 음원 출력 장치는 사용자의 신체에 탈장착이 가능하며 음원 콘텐츠를 출력하는 이어폰 또는 헤드셋등을 나타내며, 이하에서는 음원 출력 장치를 사용자가 장착한 상황에서 실시예가 구현된다.
명세서 상에서 음원 출력 제어 장치는 음원 출력 장치에 음원 콘텐츠를 제공하는 단말에 장착되지만 이에 반드시 한정하는 것은 아니고 이어폰 또는 헤드셋과 같이 음원 출력 장치에 내장되는 형태로 구현 가능하다. 이를 통해 음원 출력 제어 장치는 음원 출력 장치에서 출력되는 음원 콘텐츠의 볼륨, 재생 또는 정지 등에 대해 제어할 수 있다. 여기서, 이어폰 또는 헤드셋의 종류, 유선 또는 무선, 페어링 형식 등에 의해 한정되지 않는다.
명세서 상에서 사람의 음성 또는 차량의 주행 소리는 사용자를 기준으로 근거리로 나타내는 임계거리 내에서 발생되는 소리이거나 사용자 방향으로 진행하는 소리를 의미하지만 반드시 이에 한정하는 것은 아니며, 자전거 클락션 소리, 자전거 주행 소리, 오토바이, 전기 스쿠터 등 다양한 교통 수단에 의한 소리도 포함할 수 있다.
명세서 상에서 음원과 소리는 동일한 의미로 사용되며, 음원 콘텐츠는, 소리를 이용하여 콘텐츠를 의미하며, 음악, 노래, 강연, 강의 등을 모두 포함한다.
도 1은 본 발명의 실시예에 따른 음원 출력 제어 장치를 포함하는 시스템을 나타낸 구성도이다.
도 1에 도시한 바와 같이, 시스템은 음원 출력 제어 장치(100)에 하나 이상의 마이크(10)와 연동하고, 해당 마이크(10)를 통해 외부 소음을 집음한다. 그리고 음원 출력 제어 장치(100)는 외부 소음을 분석하여 근거리에서 사람의 음성 또는 차량의 주행 소리를 인식하면 연동되는 음원 출력 장치(20)를 통해 해당 소리를 출력한다. 음원 출력 장치(20)는 이어폰 또는 헤드셋 등과 같은 귀에 밀착하여 음원을 출력하는 장치로, 유선 또는 무선으로 연결된 한 쌍의 출력 장치를 나타낸다.
이때, 음원 출력 제어 장치(100)는 마이크(10)에서 집음하는 외부 소음이 임계 거리에서 발생하는 사람의 음성 또는 차량의 주행 소리인지를 판별하기 위해 하나 이상의 학습된 인공 신경망을 이용할 수 있다.
그리고 음원 출력 제어 장치(100)는 외부 소음으로부터 임계 거리 내에서 사람의 음성 또는 차량의 주행 소리를 인식하면, 현재 출력되는 콘텐츠가 있는 경우, 해당 콘텐츠의 볼륨을 낮추도록 제어한다. 이때, 임계 거리란, 사용자의 위치에서의 미리 설정된 근거리를 나타내는 것으로 사용자의 사용환경에 기초하여 변경 및 설정가능하다.
그리고 음원 출력 제어 장치(100)는 마이크(10)로부터 수음된 외부 소음을 그대로 음원 출력 장치(20)를 통해 출력할 수 있다. 상세하게는 음원 출력 제어 장치(100)는 출력 중이던 음원 콘텐츠와 외부 소음 소리를 결합하여 음원 출력 장치(20)를 통해 출력할 수 있으며, 이때 출력 중이던 음원 콘텐츠의 볼륨보다 외부 소음 소리를 더 크게 출력하도록 제어할 수 있다.
여기서 출력되는 음원 콘텐츠는 단말에 저장된 음원 콘텐츠이거나 유선 또는 무선 네트워크로 연결된 외부 서버(30)로부터 실시간으로 수신된 음원 콘텐츠이다.
다시 말해, 음원 출력 제어 장치(100)가 내장된 단말은 외부 서버(30)와 네트워크를 통해 연결되어 데이터를 송수신한다.
여기서 네트워크는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등들 포함하지만 반드시 이에 한정하는 것은 아니다.
이를 통해 음원 출력 제어 장치(100)는 별도의 통신 모듈을 통해 외부 장치 또는 외부 서버(30)와 네트워크로 연결되어 데이터를 송수신할 수 있지만, 단말을 통해 외부 장치 또는 외부 서버(30)와 네트워크로 연결되어 데이터를 송수신할 수 있다. 이러한 구성은 추후에 사용자에 의해 용이하게 설계 및 변경 가능하다.
한편, 음원 출력 제어 장치(100)는 음원 콘텐츠의 재생 여부, 볼륨 조절 등과 같은 제어를 수행하며, 장착된 마이크(10)와 음원 출력 장치(20)와 네트워크를 통해 연결되는 장치인 단말, 스마트 단말, 스마트 워치 등에 내장될 수 있으나 특정 단말로 한정하는 것은 아니다.
이하에서는 음원 출력 제어 장치(100)가 단말에 내장된 것으로 가정하고 설명하지만, 반드시 이에 한정하는 것은 아니고, 상황이나 구현조건에 따라 음원 출력장치(20)에 내장되거나 단말과 음원 출력 장치(20)의 연결 라인에 내장될 수 있다.
이하에서는 도 2 및 도 3을 이용하여 마이크(10)를 통해 수음되는 소리들의 임계 거리를 구분하기 위한 사면체 마이크 구성이나 확보한 데이터 셋에 대해서 상세하게 설명한다.
이하에서는 임계 거리 이내의 소리만을 분류할 수 있도록 사면체 마이크를 이용하거나 소리 신호의 거리 특성을 이용하는 구성에 대해서 상세하게 설명한다.
도 2는 본 발명의 실시예에 따른 사면체 마이크를 통해 임계거리 내의 소리들을 분석하는 방법에 대해서 설명하기 위한 예시도이고, 도 3은 본 발명의 실시예에 따른 거리에 따른 주파수 도메인을 나타낸 예시도이다.
도 2에 도시한 바와 같이, 마이크(10)는 사면체 마이크로 구현될 수 있으며, 사면의 중점에 각각 위치한 지점에 각각 마이크 센서가 배열되어 4개의 마이크 센서(원형으로 표시)로부터 음성을 수음할 수 있다.
이때, 음원 발생 지점과의 거리에 따라서 복수개의 마이크 센서에서 수음하는 시간차이가 달라진다.
예를 들어 마이크(10)와 음원(sound source)간의 거리가 임계 거리 이내인 경우(near field), 음원(sound source)의 위치로부터 각 마이크 센서에 도달하는 시간이 서로 다르게 나타난다.
도 2에 도시한 바와 같이, 임계 거리 이내일수록 각 마이크 센서(mic1, mic2, mic3)에 각 도달하는 거리가 상이하게 적용되므로 결과적으로 각 마이크 센서마다 수음한 시간을 비교하면 시간 지연이 발생한다.
상세하게는 마이크 센서(mic2)의 거리(x)를 기준으로 보면, 마이크 센서(mic2)보다 가까운 거리에서 수음하는 mic3에서는 음원과의 거리값이 x 보다 d2만큼 더 가까운 거리에 위치하고, 마이크 센서(mic2)보다 먼 거리에서 수음하는 mic1에서는 음원과의 거리값이 x 보다 d1만큼 더 먼 거리에 위치하게 된다.
이러한 음원과의 거리값의 차이에 의해 마이크 센서마다 해당 음원을 수음하는 시간차이가 발생한다.
이에 임계 거리 내인 근거리(near field)의 경우, 마이크 센서((mic1, mic2) 간의 시간 차이 값과 마이크 센서((mic2, mic3)간의 시간 차이 값이 크게 나타나게 되며, 반면에 원거리(Far field)의 경우, 마이크 센서((mic1, mic2) 간의 시간 차이 값과 마이크 센서((mic2, mic3)간의 시간 차이 값이 상대적으로 근소하게 나타나게 된다.
예를 들어, 근거리(near field)의 경우, 마이크 센서((mic1, mic2) 간의 음원을 감지한 시간 차이 값이 약 10초이고, 마이크 센서((mic2, mic3)간의 음원을 감지한 시간 차이 값이 약 20초로 나타난다. 이처럼 근거리의 경우, 마이크 센서간의 시간 지연 값이 임계값 이상으로 차이가 나타난다.
반면에 원거리( Far field)의 경우 예를 들어, 마이크 센서((mic1, mic2) 간의 음원을 감지한 시간 차이 값이 약10초이고, 마이크 센서((mic2, mic3)간의 음원을 감지한 시간 차이 값이 약 11초와 같이 나타난다. 이처럼 원거리의 경우, 마이크 센서간의 시간 지연 값이 임계값 이하로 차이가 나타난다.
다음 수학식 1과 같이 마이크 센서(mic1, mic2, mic3)를 이용하여 임계 거리 이내에 위치하는 음원에 대한 시간 지연(1)을 나타내고, 임계 거리 이상에 위치하는 음원에 대한 시간 지연(2)을 나타낼 수 있다.
[수학식 1]
Figure 112020074762619-pat00002
여기서 τ12는 mic1과 mic2에서 수음되는 시간차, d1은 음원 위치와 mic1과의 거리에서 음원 위치와 mic2과의 거리를 제외한 길이, τ23는 mic2과 mic3에서 수음되는 시간차, d2은 음원 위치에서 mic2과의 거리에서 음원 위치와 mic3과를 거리를 제외한 길이 그리고 c는 소리 신호의 속도를 나타낸다.
그리고 d는 음원과 각 마이크 센서간의 원거리,l은 마이크 센서간의 거리를 나타낸다.
이와 같이, 사면체 마이크(10)의 다수의 마이크 센서를 통해 입력되는 동일 소리에 대한 시간차에 기초하여 음원 출력 제어 장치(100)는 실시간으로 수음되는 외부 소음의 위치가 임계 거리 이내인지 임계 거리 이상인지를 분류할 수 있다.
또한, 음원 출력 제어 장치(100)는 마이크(10)와 음성 또는 차량의 주행 소리가 발생하는 위치간의 다양한 거리에 따른 다양한 데이터 셋을 확보하여 인공 신경망을 학습하는 데 이용할 수 있다.
한편, 음원 출력 제어 장치(100)는 마이크(10)의 형태가 사면체 마이크가 아닌 다면체 마이크로 구현되거나 각각의 마이크가 일정한 거리를 가지며 복수개의 형태로 구현될 수 있다.
그리고 이러한 다면체 마이크가 아닌 경우에는 거리 특성에 대한 소리 신호에 기초하여 임계거리 이내의 소리만을 인공 신경망을 학습하는 데 이용할 수 있다.
도 4의 (a)는 거리에 따른 소리 분산 특성을 나타내는 그래프이고, (b)는 1m 거리의 사람 소리(1m PN), 6m 거리의 사람 소리(6m PN)를 나타낸다.
음원 소리 신호 S0(t')가 발생하였을 때 t 만큼 전파되었을 때 소리 신호는 S(t)로, 거리에 따른 분산 특성은 다음 수학식 2와 같다.
[수학식 2]
Figure 112020074762619-pat00003
여기서, gd는 소리 신호 S(t)의 거리에 따른 분산 특성을 나타내며, 이러한 분산 특성은 주파수 도메인 상에서 Gd(w)로 나타나며, 음원 소리 신호 대 t시간 전파된 소리 신호의 비로 나타낼 수 있다.
다시 말해, So(w)는 주파수 도메인상에서의 음원 소리 신호, S(W)는 주파수 도메인 상에서의 소리 신호(S(t))를 의미한다.
음원 출력 제어 장치(100)는 다양한 위치에서 발생하는 음원을 데이터 셋으로 확보하면 이러한 소리 신호의 거리 특성을 고려하여 인공신경망을 학습시키도록 할 수 있다.
다시 말해 음원 출력 장치(100)는 임계 거리에서 발생하는 소리에 대한 분산 특성과 임계 거리 이외에서 발생하는 소리에 대한 분산 특성의 차이에 기초하여 임계 거리 내의 신호만을 선별하여 인공신경망을 학습시킬 수 있다.
이하에서는 도 4 및 도 5를 이용하여 임계거리에 위치하는 사람의 음성 또는 차량의 주행 소리를 판별하는 인공신경망을 학습시키고, 학습된 인공 신경망을 이용하여 판별된 결과에 따라 음원 출력을 제어하는 음원 출력 제어 장치에 대해서 상세하게 설명한다.
도 4은 본 발명의 실시예에 따른 음원 출력 제어 장치를 나타낸 구성도이다.
도 4에 도시한 바와 같이, 음원 출력 제어 장치(100)는 수집부(110), 전처리부(120), 학습부(130), 인식부(140), 그리고 제어부(150)를 포함한다.
설명을 위해, 수집부(110), 전처리부(120), 학습부(130), 인식부(140), 그리고 제어부(150)로 명명하여 부르나, 이들은 적어도 하나의 프로세서에 의해 동작하는 컴퓨팅 장치이다. 여기서, 수집부(110), 전처리부(120), 학습부(130), 인식부(140), 그리고 제어부(150)는 하나의 컴퓨팅 장치에 구현되거나, 별도의 컴퓨팅 장치에 분산 구현될 수 있다. 별도의 컴퓨팅 장치에 분산 구현된 경우, 수집부(110), 전처리부(120), 학습부(130), 인식부(140), 그리고 제어부(150)는 통신 인터페이스를 통해 서로 통신할 수 있다. 컴퓨팅 장치는 본 발명을 수행하도록 작성된 소프트웨어 프로그램을 실행할 수 있는 장치이면 충분하다.
수집부(110)는 연동되는 하나 이상의 마이크 센서를 통해 외부 소음을 실시간으로 수집하여 디지털 신호로 전환한다.
그리고 전처리부(120)는 미리 설정된 시간동안 전환된 디지털 신호들을 기초로 평균 크기를 산출한다.
여기서 평균 크기가 의미하는 바는 일반적으로 발생되는 소음의 크기에 대한 것으로 사람의 음성 또는 차량 소리 등 특정 소리로 판별하기 어려운 값을 나타낸다.
그러므로 전처리부(120)는 디지털 신호들의 평균 크기 값에 임계치를 더한 값을 역치로 설정할 수 있다. 전처리부(120)는 특정 주기마다, 설정된 시간 간격마다 또는 역치보다 큰 디지털 신호들이 지속적으로 검출되지만 사람의 음성 또는 자동차의 주행 소리로 인식되지 않는 경우가 N번(N은 자연수) 반복되면 역치를 재설정할 수 있다.
이에 전처리부(120)는 역치 값이 설정된 이후에 실시간으로 전환된 디지털 신호가 역치보다 작으면 해당 디지털 신호를 무시하고, 역치보다 크면 해당 디지털 신호를 분석하기 위해 전달한다. 예를 들어 전처리부(120)는 해당 디지털 신호가 데이터 셋(data set)으로 수음된 경우, 학습부(130)로 전달하고 실제 데이터인 경우 인식부(140)로 전달할 수 있다.
그리고 전처리부(120)는 연동되는 소리 분석 모델의 입력 형식에 맞춰 해당 디지털 신호에 대한 복수의 구간으로 나누거나 복수의 행렬 형태로 변환하는 등의 전처리 작업을 수행할 수 있다.
다시 말해 전처리부(120)는 연동되는 소리 분석 모델에 입력하기 위해 해당 디지털 신호에 대해 MFCC(Mel-Frequency Cepstral Coefficient)를 통해 복수개의 특성값을 추출할 수 있다. 그리고 추출된 특성 값들은 사람 음성을 인식하기 위한 소리 분석 모델에 입력된다. 이러한 특성값 추출은 소리 분석 모델의 종류에 의해 설정 및 변경 가능하다.
그리고 서로 다른 종류의 소리 분석 모델을 사용하는 경우에 전처리부(120)는 각 소리 분석 모델의 종류마다 각각의 입력 형식으로 해당 디지털 신호를 변환할 수 있다.
학습부(130)는 복수개의 데이터 셋를 기초로 하나 이상의 소리 분석 모델을 학습시킨다. 여기서 데이터 셋은 소리 분석 모델을 학습시키기 위한 일종의 학습 데이터를 의미하며, 수집부(110) 그리고 전처리부(120)와 동일한 과정을 통해 수집된 디지털 신호에 해당 신호가 의미하는 사람의 음성 또는 차량의 주행 소리에 대해 태깅하여 확보할 수 있다.
소리 분석 모델은 하나의 인공지능 모델로 인공 신경망(artificial neural network)을 의미하지만 반드시 한정하는 것은 아니고 선형 회귀 (linear regression), 로지스틱 회귀 (logistic regression), 결정 트리 (decision tree), 서포트 벡터 머신 (support vector machine), 등으로 구현될 수 있고, 또는 강화 학습 모델, 콘볼루션 신경망(CNN), 심층 순환 신경망(deep RNN : deep Recurrent Neural Network), 심층 오토인코더(deep autoencoder) 구현될 수 있으며, 어느 하나로 한정되는 것은 아니다.(이하에서는 소리 분석모델과 인공지능 모델을 혼용하여 설명한다)
학습부(130)는 수집된 디지털 신호로부터 사람의 음성을 판단하는 인공 신경망 또는 디지털 신호로부터 차량의 주행 소리를 판단하는 인공 신경망을 각각 학습시킬 수 있다. 다시 말해, 사람의 음성을 판단하는 제1 소리 분석 모델과 차량의 주행 소리를 판단하는 제2 소리 분석 모델에 대해서 각각 학습시킬 수 있다.
이러한 학습부(130)는 별도의 컴퓨팅 장치로 구현될 수 있고, 연동되는 데이터베이스에 학습이 완료된 하나 이상의 인공 신경망을 저장하거나 일정 주기에 따라 해당 인공 신경망을 재학습할 수 있다.
예를 들어, 학습부(130)가 별도의 컴퓨팅 장치에서 구현되는 경우, 유선 또는 무선 네트워크를 통해 음원 출력 제어 장치(100)에 학습이 완료된 인공 신경망을 저장하고, 일정 주기 또는 실시간으로 재학습된 인공 신경망에 대한 내부 가중치 값을 업데이트할 수 있다.
또한 학습부(130)는 소리가 발생한 위치와의 거리에 기초하여 복수개의 마이크 센서로부터 수집되는 음원의 시간 지연 특성을 고려하여 제1 소리 분석 모델과 제2 소리 분석 모델을 학습시킬 수 있다.
다시 말해 학습부(130)는 임계 거리 이내의 위치에서 발생하는 소리만을 분류하여 해당 소리가 사람의 음성인지 또는 차량의 주행 소리인지를 판별하도록 소리 분석 모델을 학습시킨다.
이에 학습부(130)는 모델 학습 과정에서 원하는 임계 거리 이내의 음성 또는 차량의 주행 소리만 감지하도록 하면서, 임계 거리 밖에서 발생한 소리라고 분류되는 경우 해당 소리가 음성 또는 차량의 주행 소리라 할지라도 노이즈로 분류되도록 학습시킬 수 있다.
앞서 도 2 및 3을 통해 설명한 바와 같이, 학습부(130)는 발생되는 음원과의 거리 정보를 포함하여 해당 음원이 임계 거리 이내에서 발생한 사람의 음성 또는 차량의 주행 소리여부를 판별하도록 학습시킨다.
인식부(140)는 전처리부(120)에서 전달받은 실제 외부 소음에 대한 디지털 신호를 학습된 인공 신경망에 적용하여 해당 디지털 신호가 사람의 음성 또는 차량의 주행 소리 여부를 판별한다.
인식부(140)는 하나 이상의 학습이 완료된 인공 신경망을 이용하는 경우, 일정한 기준에 의해 순차적으로 특정 인공 신경망을 통해 차량의 주행 소리 여부인지 먼저 판단하여 차량의 주행 소리가 아닌 경우 사람의 음성에 해당하는 지 판별할 수 있다.
예를 들어, 사용자의 위험 상황인지에 대해 우선순위를 두는 경우, 차량의 주행 소리인지를 먼저 판별한 후, 사람의 음성에 대해서 판별할 수 있다. 이러한 인공 신경망을 선택하여 순차적으로 판별하는 일정한 기준은 추후에 용이하게 변경 가능하다.
인식부(140)는 학습된 인공 신경망(소리 분석 모델)을 통해 차량의 주행 소리가 사용자 위치로 저속으로 이동하는 소리를 판별하거나 차량의 주행 소리가 사용자의 근방에서 급정지 또는 브레이크 소리 등을 판별하거나 차량의 주행 소리 이외에 클락션 소리 등등 에 대한 다양한 소리의 판별이 가능하다. 이에 차량의 주행 소리에 대한 판별은 각각 독립적인 인공신경망을 이용하거나 하나의 인공신경망을 통해 확인할 수 있다.
또는 인식부(140)는 복수개의 소리 분석 모델에 동시에 입력하여 각각의 소리 분석 모델으로부터 획득한 결과 데이터를 기초로 해당 디지털 신호가 의미하는 소리가 무엇인지 인식할 수 있다.
예를 들어, 인식부(140)는 학습된 소리 분석 모델을 통해 해당 소음이 사람의 음성이거나 차량의 주행 소리인지에 대한 결과값을 획득하거나 해당 소음이 사람의 음성이거나 차량의 주행 소리이면 볼륨을 낮추라는 결과값을 획득할 수 있다.
제어부(150)는 인식부(140)의 인식 결과에 따라 제공되는 음원 콘텐츠의 볼륨을 조절하거나 일시 정지하도록 제어할 수 있다.
예를 들어 제어부(150)는 해당 디지털 신호가 사람의 음성이거나 차량의 주행 소리인 경우, 제공하는 음원 콘텐츠의 볼륨이 낮아지도록 제어하고 음원 콘텐츠와 사람의 음성 또는 차량의 주행 소리를 결합하여 함께 출력할 수 있다.
이때 사람의 음성 또는 차량의 주행 소리를 그대로 출력 가능하며, 음원 콘텐츠와 사람의 음성 또는 차량의 주행 소리를 구별하여 인식하도록 볼륨의 차이를 두고 출력할 수 있다.
예를 들어 제어부(150)는 음원 콘텐츠보다 사람의 음성 또는 차량의 주행 소리의 볼륨을 더 크게 출력 가능하다.
또한 제어부(150)는 해당 외부 소음을 그대로 출력가능하거나 해당 사람의 음성 또는 차량의 주행 소리만을 선별하여 출력도 가능하다.
그리고 제어부(150)는 사람의 음성과 차량의 주행 소리가 모두 판별되는 경우, 제공되는 음원 콘텐츠를 일시 정지하여 해당 사람의 음성과 차량의 주행 소리를 출력할 수 있다.
상세하게는 제어부(150)는 아래 수학식 3를 통해 음원 콘텐츠와 사람의 음성 또는 차량의 주행 소리의 조합(S)을 생성한다.
[수학식 3]
S = a * S1 + (1-a)* S2
여기서, S1은 재생되고 있는 음원 콘텐츠를 의미하고, S2는 외부에서 수음된 소리를 나타낸다. 그리고 a는 0 에서 1 의 값을 가지는 값으로, S2가 사람의 음성 또는 차량의 주행 소리인 경우, a는 1 보다 작은 값을 가지며, 그 이외의 경우에는 a=1을 가진다. 여기서 a는 사람의 음성 또는 차량의 주행 소리에 따라 미리 설정된 값으로 적용가능하며, 이러한 a 값의 설정은 추후에 용이하게 변경 및 설계 가능하다.
한편, 제어부(150)는 사람의 음성 또는 차량의 주행 소리가 아닌 경우, 단순 소음으로 추정할 수 있으며, 단순 소음으로 추정하는 경우 해당 소리를 삭제하면서 단순 소음에 대한 카운트하고, 해당 카운트를 누적한 횟수가 임계값과 일치하면 역치를 재설정하도록 할 수 있다.
이처럼 제어부(150)는 음원 콘텐츠와 사람의 음성 또는 차량의 주행 소리를 조합하여 자동으로 출력가능하며, 실시간으로 사람의 음성 또는 차량의 주행 소리가 인식되지 않는 경우, 해당 음원 콘텐츠의 볼륨을 조절 전으로 재설정가능하다.
도 5는 본 발명의 실시예에 따른 소리 분석 모델을 나타낸 예시도이다.
도 5에 도시한 바와 같이, 소리 분석 모델에 복수개의 데이터 셋을 이용하여 각각 사람의 음성 또는 차량의 주행 소리를 판별하도록 반복 학습시킨다.
이때, 음원 출력 제어 장치(100)는 다양한 사람들 목소리 및 사용자를 기준으로 임계 거리 안에서 서로 상이한 거리마다 사용자를 향해 발성한 음성에 대한 데이터들을 데이터 셋으로 확보하여 소리 분석 모델 A(제1 소리 분석 모델)를 반복 학습시킴으로써, 음성 데이터의 특성값을 분석하여 해당 음성 데이터가 사람의 음성을 하면 해당 볼륨이 낮아지도록 제어할수 있다.
상세하게는 소리 분석 모델 A에 행렬 형태로 입력하고, 과거 시간을 고려하지 않는 원인 컨볼루션(Causal Convolution)과 효율적인 계산을 위한 분리 가능한 컨볼루션(Separable Convolution)을 동시에 수행하고, 게이트 활성화(Gated Activation, G.A.) 연산을 각각 독립적으로 거친다. 독립적으로 계산된 G.A. 결과값을 Concatenation (Concat)을 통해 하나의 배열로 합치는 과정을 반복한다.
그리고 +로 표시된 구간에서 연결(Residual Connect)로 입력된 값들을 각 행렬 인덱스(index)별로 더해주는 연산을 수행하며, 마지막 단계에서는 로그 소프트맥스(Log Softmax)로 연산하여 해당 입력 데이터가 사람의 음성인지 잡음인지를 판단하고, 최종으로 볼륨은 낮추도록 하는 결과값을 획득할 수 있다.
한편, 음원 출력 제어 장치(100)는 다양한 차량의 주행 소리 및 사용자를 기준으로 임계 거리 안에서 서로 상이한 거리마다 사용자를 향해 주행하는 차량으로부터 수집한 데이터를 데이터 셋으로 확보하여 소리 분석 모델 B(제2 소리 분석 모델)를 반복 학습시킴으로써, 음성 데이터의 특성값을 분석하여 해당 음성 데이터가 차량의 주행 소리인지를 판별하여 최종으로 볼륨은 낮추도록 하는 결과값을 획득할 수 있다.
상세하게는 소리 분석 모델 B에 다수의 소리 샘플 포인트가 입력하여 반복 학습을 통해 차량의 주행 소리인지를 판별할 수 있다.
이처럼 음원 출력 제어 장치(100)는 사람의 음성 또는 차량의 주행 소리에 각각에 최적화된 소리 분석 모델을 이용하여 판별할 수 있다.
한편, 소리 분석 모델 A 및 소리 분석 모델 B는 하나의 실시예로 반드시 해당 신경망을 이용하는 것으로 한정하는 것은 아니다.
도 6는 본 발명의 실시예에 따른 외부 소리에 따른 음원 출력을 제어하는 방법을 나타낸 순서도이다.
도 6에 도시한 바와 같이, 음원 출력 제어 장치(100)는 사람 음성 또는 차량의 주행 소리를 포함하는 학습데이터 수집한다(S110).
음원 출력 제어 장치(100)는 임계 거리 이내에서 발화되는 음성 또는 중심 영역을 향해 이동하는 차량의 주행 소리를 수집할 수 있다.
예를 들어 일정한 지름을 가지는 영역 내에서 중심 영역을 향해 발화된 음성 또는 중심 영역을 향해 이동하는 차량의 주행 소리를 수집할 수 있다.
음원 출력 제어 장치(100)는 사면체 마이크를 이용하여 각 면에 장착된 마이크 센서로 수음되는 소리의 지연 시간차를 이용하거나 음원과의 거리 특성에 따른 소리 신호의 분산 특성을 이용하여 임계 거리 이내의 음성 또는 차량의 주행 소리를 분류할 수 있다.
다음으로 음원 출력 제어 장치(100)는 수집한 데이터 셋에 기초하여 하나 이상의 인공신경망을 학습한다(S120).
음원 출력 제어 장치(100)는 임계치 이상의 정확도로 입력된 데이터에 대해서 사람 음성 또는 차량의 주행 소리로 분류하도록 반복적인 학습을 수행한다.
한편, 상황에 따라 일반적인 사람 음성 또는 차량의 주행 소리 이외에 특정인에 대한 음성 또는 차량 이외의 자전거 또는 전기 스쿠터와 같은 다양한 외부 소리를 데이터 셋으로 수집하여 학습된 인공신경망을 생성할 수 있다.
이처럼 사용자의 상황에 따라 가장 적합하도록 데이터 셋을 수집하고 인식할 수 있도록 인공 신경망을 학습시킬 수 있다.
인공신경망이 학습된 이후에는 S110 단계와 S120 단계를 제외하고 바로 S130 단계에서 시작할 수 있다.
다음으로 음원 출력 제어 장치(100)는 일정 시간 동안의 외부 소음의 평균 크기를 통해 역치를 산정한다(S130).
음원 출력 제어 장치(100)는 수집된 외부 소음에 대해 산출한 평균 소음에 대해서 추정되는 오차 범위를 더하여 역치를 산정할 수 있다. 여기서 오차 범위를 추후에 용이하게 변경 및 설계 가능하다.
그리고 음원 출력 제어 장치(100) 음원 출력 장치의 외부 소음을 실시간으로 수집한다(S140). 음원 출력 제어 장치(100)는 연동되는 마이크를 통해 실시간으로 외부 소음을 수집하여 디지털 신호로 변환한다.
그리고 음원 출력 제어 장치(100)는 외부 소음의 크기가 역치보다 큰 값을 가지는 지 확인한다(S150).
이때, 음원 출력 제어 장치(100)는 외부 소음의 크기가 역치보다 작으면 판별할 수 없는 소음으로 추정하여 무시하고 S140 단계 또는 S130 단계로 회귀한다.
외부 소음의 크기가 역치보다 큰 값을 가지면, 음원 출력 제어 장치(100)는 학습된 인공신경망을 통해 외부 소음에서 사람 음성 또는 차량의 주행 소리를 인식한다(S160).
음원 출력 제어 장치(100)는 학습된 인공 신경망을 통해 외부 소음이 사용자를 향해 발화하는 사람의 음성 여부, 사용자를 향해 다가오는 차량의 주행 소리 여부를 판별할 수 있다.
이때, 음원 출력 제어 장치(100)는 사람의 음성 또는 차량의 주행 소리가 모두 아닌 경우, 해당 외부 소음을 무시하고, S140 단계 또는 S130 단계로 회귀할 수 있다.
사람의 음성 또는 차량의 주행 소리를 인식하면, 음원 출력 제어 장치(100)는 인식된 사람 음성 또는 차량 주행 소리를 음원 출력 장치를 통해 출력한다(S170).
음원 출력 제어 장치(100)는 사용자가 착용한 음원 출력 장치로 해당 사람 음성 또는 차량 주행 소리를 출력한다. 이때, 음원 출력 장치에서 음원 콘텐츠가 출력되고 있는 경우에는 음원 출력 제어 장치(100)는 음원 콘텐츠의 볼륨을 낮추도록 제어하면서 해당 사람 음성 또는 차량 주행 소리를 출력할 수 있다.
그리고 음원 출력 제어 장치(100)는 사용자가 해당 음원 출력 장치의 사용을 종료하거나 사용자의 신체에서 탈착한 경우에는 자동으로 종료된다.
도7은 본 발명의 실시예에 따른 컴퓨팅 장치의 하드웨어 구성도이다.
도 7에 도시한 바와 같이, 컴퓨팅 장치(200)의 하드웨어는 적어도 하나의 프로세서(210), 메모리(220), 스토리지(230), 통신 인터페이스(240)를 포함할 수 있고, 버스를 통해 연결될 수 있다. 이외에도 입력 장치 및 출력 장치 등의 하드웨어가 포함될 수 있다. 컴퓨팅 장치(200)는 프로그램을 구동할 수 있는 운영 체제를 비롯한 각종 소프트웨어가 탑재될 수 있다.
프로세서(210)는 컴퓨팅 장치(200)의 동작을 제어하는 장치로서, 프로그램에 포함된 명령들을 처리하는 다양한 형태의 프로세서(210)일 수 있고, 예를 들면, CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 등 일 수 있다. 메모리(220)는 본 발명의 동작을 실행하도록 기술된 명령들이 프로세서(210)에 의해 처리되도록 해당 프로그램을 로드한다. 메모리(220)는 예를 들면, ROM(read only memory), RAM(random access memory) 등 일 수 있다. 스토리지(230)는 본 발명의 동작을 실행하는데 요구되는 각종 데이터, 프로그램 등을 저장한다. 통신 인터페이스(240)는 유/무선 통신 모듈일 수 있다.
실시예에 따르면, 음원 콘텐츠를 이용하는 사용자의 근거리에서 발생하는 사람의 음성이나 근거리로 다가오는 차량의 주행 소리를 인식하여 제공함으로써, 주변 상황의 변화를 쉽게 인지하여 발생할 수 있는 사고를 예방할 수 있다.
또한, 실시예에 따르면 사용자가 대화를 하거나 어떤 상황에 주의를 기울이기 위해 이용하고 있는 음원 콘텐츠를 제어하지 않아도 의사 소통이 가능하다.
또한, 외부 소음에 대해 MFCC를 이용하여 수십개의 계수에 해당하는 소리의 특성값들을 추출하고, 해당 특성값들을 인공신경망에 입력하기 때문에 상대적으로 적은 인공신경망의 계산양으로도 정확하게 사람의 음성 또는 차량의 주행 소리를 판별할 수 있다.
이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.

Claims (14)

  1. 적어도 하나의 프로세서에 의해 동작하는 음원 출력 제어 장치의 동작 방법으로서,
    연동되는 하나 이상의 마이크를 통해 일정 시간 동안 외부 소음을 수집하고, 수집한 외부 소음의 평균 크기를 산출하여 역치를 산정하는 단계,
    실시간으로 수집되는 외부 소음이 상기 역치보다 큰 값을 가지면 상기 외부 소음에 대해 학습된 소리 분석 모델의 입력에 맞게 전처리하는 단계,
    전처리한 상기 외부 소음을 상기 학습된 소리 분석 모델에 입력하여 임계 거리 이내에 발생한 소리에 대해 사람의 음성 또는 차량의 주행 소리 인지 판별하는 단계, 그리고
    상기 외부 소음이 상기 사람의 음성 또는 상기 차량의 주행 소리로 판별하면 해당 외부 소음을 연동하는 음원 출력 장치로 출력하는 단계,
    를 포함하고,
    상기 음원 출력 장치에서 음원 콘텐츠가 출력되고 있는 경우, 상기 음원 콘텐츠와 상기 사람의 음성 또는 차량의 주행 소리를 조합하여 출력하고,
    상기 학습된 소리 분석 모델은,
    거리에 따른 소리의 분산 특성에 기초하여 음원 소리 신호 대 t 시간 전파된 소리 신호의 비로 나타내는 주파수 도메인 상의 분산 특성에 따라 상기 임계 거리 내에서 발생된 소리만을 선택하도록 학습된 모델인 동작 방법.
  2. 제1항에서,
    다양한 위치에서 발화하는 사람의 음성들과 주행하는 차량의 주행 소리들을 수집하는 단계,
    상기 사람의 음성 또는 차량의 주행 소리 중에서 소리 신호의 거리 특성에 기초하여 임계 거리 내에서 발생된 소리만을 선택하여 데이터 셋을 구축하는 단계, 그리고
    상기 데이터 셋을 이용하여 임계 거리 이내에서 발화하는 사람의 음성을 판별하는 제1 소리 분석 모델과 임계 거리 이내에서 발생된 차량의 주행 소리를 판별하는 제2 소리 분석 모델을 학습시키는 단계,
    를 더 포함하는 동작 방법.
  3. 제2항에서,
    상기 마이크는 각각의 면 중앙부에 마이크 센서가 부착되어 상기 마이크 센서마다 소리를 수음하는 다면체 마이크를 나타내는 동작 방법.
  4. 제3항에서,
    상기 학습시키는 단계는,
    복수의 마이크를 통해 외부 소음을 수음하는 경우, 발생되는 소리의 위치에서부터 마이크마다 도달되는 시간차에 기초하여 임계 거리 이내의 소리만을 분류하고, 분류된 상기 임계 거리 이내의 소리에 대해서 사람의 음성 또는 차량의 주행 소리 여부를 판별하도록 학습시키는 동작 방법.
  5. 제2항에서,
    상기 학습시키는 단계는,
    다음 수학식과 같이 음원 소리 신호(So(t')가 t 시간 만큼 전파되었을 때 소리 신호(S(t))의 거리에 따른 소리의 분산 특성(gd)에 기초하여 주파수 도메인 상에서 거리에 따른 소리의 분산 특성Gd(W)을 산출하고 산출된 소리의 분산 특성에 기초하여 상기 임계 거리 내에서 발생된 소리만을 선택하도록 학습시키는 동작 방법.
    Figure 112020074762619-pat00004

    여기서, (So(t')는 음원 소리 신호의 신호 값으로 설정된 값을 의미하고 So(w)는 주파수 도메인상에서의 음원 소리 신호, S(W)는 주파수 도메인 상에서의 소리 신호(S(t)를 나타냄
  6. 제2항에서,
    상기 역치를 산정하는 단계는
    수집된 외부 소음을 디지털 신호로 변환하고, 전환된 디지털 신호들을 기초로 평균 크기를 산출하면 산출된 평균 크기에 대한 오차 범위를 더한 값으로 상기 역치를 산정하는 동작 방법.
  7. 제6항에서,
    상기 음원 출력 장치로 출력하는 단계는,
    인식된 상기 사람의 음성 또는 상기 차량의 주행 소리에 기초하여 외부 소리 볼륨 값을 설정하면, 상기 외부 소리 볼륨 값에 기초하여 상기 음원 콘텐츠의 볼륨이 낮아지도록 제어하는 동작 방법.
  8. 컴퓨팅 장치에 의해 실행되고, 컴퓨터로 판독가능한 저장매체에 저장되는 프로그램으로서,
    연동되는 하나 이상의 마이크를 통해 일정 시간 동안 외부 소음을 수집하고, 수집한 외부 소음의 평균 크기를 산출하여 역치를 산정하는 단계,
    실시간으로 수집되는 외부 소음이 상기 역치보다 작은 값을 가지면 삭제하고 상기 역치보다 큰 값을 가지면 상기 외부 소음에 대해 학습된 소리 분석 모델의 입력에 맞게 전처리하는 단계,
    전처리한 상기 외부 소음을 상기 학습된 소리 분석 모델에 입력하여 임계 거리 이내에 발생한 소리에 대해 사람의 음성 또는 차량의 주행 소리 인지 판별하는 단계, 그리고
    상기 외부 소음이 상기 사람의 음성 또는 상기 차량의 주행 소리로 판별하면 해당 외부 소음을 연동하는 음원 출력 장치로 출력하는 단계,
    를 실행하는 명령어들을 포함하고,
    상기 학습된 소리 분석 모델은,
    거리에 따른 소리의 분산 특성에 기초하여 음원 소리 신호 대 t 시간 전파된 소리 신호의 비로 나타내는 주파수 도메인 상의 분산 특성에 따라 상기 임계 거리 내에서 발생된 소리만을 선택하도록 학습된 모델인 컴퓨터로 판독가능한 저장매체에 저장되는 프로그램.
  9. 제8항에서,
    다양한 위치에서 발화하는 사람의 음성들과 주행하는 차량의 주행 소리들을 수집하는 단계,
    상기 사람의 음성 또는 차량의 주행 소리 중에서 소리 신호의 거리 특성에 기초하여 임계 거리 내에서 발생된 소리만을 선택하여 데이터 셋을 구축하는 단계, 그리고
    상기 데이터 셋을 이용하여 임계 거리 이내에서 발화하는 사람의 음성을 판별하는 제1 소리 분석 모델과 임계 거리 이내에서 발생된 차량의 주행 소리를 판별하는 제2 소리 분석 모델을 학습시키는 단계,
    를 더 포함하는 컴퓨터로 판독가능한 저장매체에 저장되는 프로그램.
  10. 제9항에서,
    각각의 면 중앙부에 마이크 센서가 부착되어 상기 마이크 센서마다 소리를 수음하는 다면체 마이크를 이용하여 실시간으로 상기 외부 소음을 수집하는 컴퓨터로 판독가능한 저장매체에 저장되는 프로그램.
  11. 제10항에서,
    상기 학습시키는 단계는,
    발생되는 소리의 위치에서부터 상기 마이크 센서마다 도달되는 시간차에 기초하여 임계 거리 이내의 소리만을 분류하고, 분류된 상기 임계 거리 이내의 소리에 대해서 사람의 음성 또는 차량의 주행 소리 여부를 판별하도록 학습시키는 컴퓨터로 판독가능한 저장매체에 저장되는 프로그램.
  12. 삭제
  13. 제9항에서,
    상기 음원 출력 장치로 출력하는 단계는,
    상기 음원 출력 장치에서 음원 콘텐츠가 출력되고 있는 경우에 상기 음원 콘텐츠와 상기 사람의 음성 또는 차량의 주행 소리를 조합하여 출력하는 컴퓨터로 판독가능한 저장매체에 저장되는 프로그램.
  14. 제13항에서,
    상기 음원 출력 장치로 출력하는 단계는,
    인식된 상기 사람의 음성 또는 상기 차량의 주행 소리에 기초하여 외부 소리 볼륨 값을 설정하면, 상기 외부 소리 볼륨 값에 기초하여 상기 음원 콘텐츠의 볼륨이 낮아지도록 제어하여 조합된 소리의 볼륨을 결정하는 컴퓨터로 판독가능한 저장매체에 저장되는 프로그램.
KR1020200088942A 2019-07-17 2020-07-17 음원 출력 제어 장치 및 그 방법 KR102316509B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190086522 2019-07-17
KR1020190086522 2019-07-17

Publications (2)

Publication Number Publication Date
KR20210010404A KR20210010404A (ko) 2021-01-27
KR102316509B1 true KR102316509B1 (ko) 2021-10-22

Family

ID=74239062

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200088942A KR102316509B1 (ko) 2019-07-17 2020-07-17 음원 출력 제어 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR102316509B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023191210A1 (ko) * 2022-03-30 2023-10-05 엘지전자 주식회사 소리 제어 장치를 구비하는 차량
CN117476039B (zh) * 2023-12-25 2024-03-08 西安理工大学 基于声学信号的水轮机初生空化预警方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140112498A1 (en) * 2012-10-23 2014-04-24 Huawei Device Co., Ltd. Method and implementation apparatus for intelligently controlling volume of electronic device
KR101729189B1 (ko) * 2016-03-15 2017-04-25 한림대학교 산학협력단 상황 인식 기반의 이어폰 출력을 제어하기 위한 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터 판독 가능한 기록매체

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102331233B1 (ko) * 2015-06-26 2021-11-25 하만인터내셔날인더스트리스인코포레이티드 상황 인식력을 갖는 스포츠 헤드폰

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140112498A1 (en) * 2012-10-23 2014-04-24 Huawei Device Co., Ltd. Method and implementation apparatus for intelligently controlling volume of electronic device
KR101729189B1 (ko) * 2016-03-15 2017-04-25 한림대학교 산학협력단 상황 인식 기반의 이어폰 출력을 제어하기 위한 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터 판독 가능한 기록매체

Also Published As

Publication number Publication date
KR20210010404A (ko) 2021-01-27

Similar Documents

Publication Publication Date Title
US11290826B2 (en) Separating and recombining audio for intelligibility and comfort
US10485049B1 (en) Wireless device connection handover
US10607597B2 (en) Speech signal recognition system and method
KR102226132B1 (ko) 헤드셋 및 그의 구동 방법
KR102316509B1 (ko) 음원 출력 제어 장치 및 그 방법
US10721661B2 (en) Wireless device connection handover
JP4166153B2 (ja) 鳴声の音声的特徴分析に基づく犬の感情判別装置及びその方法
CN112637749A (zh) 包括检测器和经训练的神经网络的听力装置
EP3525141A1 (en) Emotion inference device and emotion inference system
US20180213339A1 (en) Adapting hearing aids to different environments
CN106686223A (zh) 聋哑人与正常人的辅助对话系统、方法及智能手机
WO2022001347A1 (zh) 一种车舱内语音指令控制方法及相关设备
CN112397065A (zh) 语音交互方法、装置、计算机可读存储介质及电子设备
US20200043476A1 (en) Electronic device, control method therefor, and non-transitory computer readable recording medium
KR20190096852A (ko) 볼륨 조절 장치 및 이의 조절 방법
JP2004199053A (ja) 絶対音量を使用して音声信号を処理する方法
CN108665907B (zh) 声音识别装置、声音识别方法、记录介质以及机器人
KR102037789B1 (ko) 로봇을 이용한 수화통역시스템
US10623843B1 (en) Using bandwidth-limited audio devices
KR20190059381A (ko) 자동 음성/제스처 인식 기반 멀티미디어 편집 방법
JP6755843B2 (ja) 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム
KR101171047B1 (ko) 음성 및 영상 인식 기능을 갖는 로봇 시스템 및 그의 인식 방법
US20100249961A1 (en) Environmental sound reproducing device
KR102023356B1 (ko) 웨어러블 수화통역장치
JP2005227511A (ja) 対象音検出方法、音信号処理装置、音声認識装置及びプログラム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant