KR20220088205A - 전자 장치 및 그 제어 방법 - Google Patents

전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20220088205A
KR20220088205A KR1020200179015A KR20200179015A KR20220088205A KR 20220088205 A KR20220088205 A KR 20220088205A KR 1020200179015 A KR1020200179015 A KR 1020200179015A KR 20200179015 A KR20200179015 A KR 20200179015A KR 20220088205 A KR20220088205 A KR 20220088205A
Authority
KR
South Korea
Prior art keywords
noise
sound source
source
electronic device
server
Prior art date
Application number
KR1020200179015A
Other languages
English (en)
Inventor
김정민
강지호
문성호
이종수
Original Assignee
김정민
강지호
문성호
이종수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김정민, 강지호, 문성호, 이종수 filed Critical 김정민
Priority to KR1020200179015A priority Critical patent/KR20220088205A/ko
Publication of KR20220088205A publication Critical patent/KR20220088205A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K2210/00Details of active noise control [ANC] covered by G10K11/178 but not provided for in any of its subgroups
    • G10K2210/10Applications
    • G10K2210/108Communication systems, e.g. where useful sound is kept and noise is cancelled
    • G10K2210/1082Microphones, e.g. systems using "virtual" microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/01Hearing devices using active noise cancellation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

전자 장치가 개시된다. 전자 장치는 마이크, 스피커, 통신 인터페이스, 적어도 하나의 인스트럭션을 저장하는 메모리 및, 상기 인스트럭션을 실행함으로써, 상기 마이크를 통해 노이즈 음원을 포함하는 오디오 데이터가 입력되면, 상기 오디오 데이터에서 상기 노이즈 음원을 추출하고, 상기 통신 인터페이스를 통해 상기 노이즈 음원을 서버로 전송하고, 상기 서버로부터 상기 노이즈 음원과 관련된 상쇄 음원이 수신되면, 상기 상쇄 음원을 출력하도록 상기 스피커를 제어하는 프로세서를 포함하며, 상기 상쇄 음원은, 상기 노이즈 음원을 인공 지능 모델에 입력하여 획득되는 예측 노이즈 음원에 기초하여 생성되는 데이터일 수 있다.

Description

전자 장치 및 그 제어 방법{ELECTRIC DEVICE AND CONTROLLING METHOD OF THE SAME}
본 개시는 전자 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 노이즈 캔슬링 기능을 제공하는 전자 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 기기가 개발 및 보급되고 있다. 특히, 스마트 폰과 같은 사용자 단말은 사용자의 니즈를 만족시키기 위하여 최근 수년 간 지속적으로 발전하고 있다.
사용자 단말에서 주로 사용되는 예를 들어, 이어폰, 헤드폰 내의 마이크에서 주변의 소리를 받아오고 소리에 대한 파동의 위상을 반대로 반전시킨 후, 반전시킨 소리를 스피커로 쏘아 주변의 소음에 상쇄 간섭을 일으키게 된다. 이때, 주변의 소음을 차단시켜 더욱 음악에 집중할 수 있도록 도와줄 수 있다.
본 개시은 상술한 필요성에 따른 것으로, 본 개시의 목적은 인공 지능 모델을 이용하여 액티브 노이즈 캔슬링(Active Noise Cancellation, ANC) 기능을 제공하는 전자 장치 및 그의 제어 방법을 제공함에 있다.
상술한 목적을 달성하기 위한 본 실시 예에 따른 전자 장치는 마이크, 스피커, 통신 인터페이스, 적어도 하나의 인스트럭션을 저장하는 메모리 및 상기 인스트럭션을 실행함으로써, 상기 마이크를 통해 노이즈 음원을 포함하는 오디오 데이터가 입력되면, 상기 오디오 데이터에서 상기 노이즈 음원을 추출하고, 상기 통신 인터페이스를 통해 상기 노이즈 음원을 외부 서버로 전송하고, 상기 외부 서버로부터 상기 노이즈 음원과 관련된 상쇄 음원이 수신되면, 상기 상쇄 음원을 출력하도록 상기 스피커를 제어하는 프로세서를 포함하며, 상기 상쇄 음원은, 상기 노이즈 음원을 인공 지능 모델에 입력하여 획득되는 예측 노이즈 음원에 기초하여 생성되는 데이터일 수 있다.
여기서, 상기 인공 지능 모델은, 노이즈 음원을 포함하는 훈련 데이터에 기초하여 추후 발생될 노이즈 음원을 예측하도록 학습될 수 있다.
또한, 상기 서버는, 액티브 노이즈 캔슬링(Active Noise Cancellation, ANC) 방식에 기초하여 상기 인공 지능 모델로부터 획득된 예측 노이즈 음원에 대응되는 상기 상쇄 음원을 생성하여 상기 전자 장치로 전송할 수 있다.
또한, 상기 프로세서는, 상기 오디오 데이터에 포함된 노이즈 음원 중 특정 조건을 만족하는 노이즈 음원을 추출하여 상기 외부 서버로 전송할 수 있다.
한편, 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 노이즈 음원을 포함하는 오디오 데이터가 입력되면, 상기 오디오 데이터에서 상기 노이즈 음원을 추출하는 단계, 상기 노이즈 음원을 외부 서버로 전송하고, 상기 외부 서버로부터 상기 노이즈 음원과 관련된 상쇄 음원이 수신되면, 상기 상쇄 음원을 스피커를 통해 출력하는 단계를 포함하며, 상기 상쇄 음원은, 상기 노이즈 음원을 인공 지능 모델에 입력하여 획득되는 예측 노이즈 음원에 기초하여 생성되는 데이터일 수 있다.
여기서, 상기 인공 지능 모델은, 노이즈 음원을 포함하는 훈련 데이터에 기초하여 추후 발생될 노이즈 음원을 예측하도록 학습될 수 있다.
또한, 상기 서버는, 액티브 노이즈 캔슬링(Active Noise Cancellation, ANC) 방식에 기초하여 상기 인공 지능 모델로부터 획득된 예측 노이즈 음원에 대응되는 상기 상쇄 음원을 생성하여 상기 전자 장치로 전송할 수 있다.
또한, 상기 노이즈 음원을 추출하는 단계는, 상기 오디오 데이터에 포함된 노이즈 음원 중 특정 조건을 만족하는 노이즈 음원을 추출하여 상기 외부 서버로 전송할 수 있다.
한편, 일 실시 예에 따른 전자 장치 및 서버를 포함하는 시스템은, 마이크를 통해 노이즈 음원을 포함하는 오디오 데이터가 입력되면, 상기 오디오 데이터에서 상기 노이즈 음원을 추출하고, 상기 노이즈 음원을 상기 서버로 전송하고, 상기 서버로부터 상기 노이즈 음원과 관련된 상쇄 음원이 수신되면, 상기 상쇄 음원을 스피커를 통해 출력하는 전자 장치 및, 상기 전자 장치로부터 상기 노이즈 음원이 수신되면, 상기 노이즈 음원을 인공 지능 모델에 입력하여 예측 노이즈 음원을 획득하고, 상기 획득된 예측 노이즈 음원에 기초하여 상쇄 음원을 획득하고, 상기 획득된 상쇄 음원을 상기 전자 장치로 전송하는 서버를 포함할 수 있다.
상술한 다양한 실시 예에 따르면, 인공 지능 모델을 이용하여 추후 발생될 소음을 예측하여 상쇄 음원을 생성하여 출력하므로 발생되는 소음을 제거할 수 있게 되므로, 사용자의 편의성이 향상된다.
도 1은 본 개시의 일 실시 예에 따른 동작을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치(100)의 구성을 나타내는 블럭도이다.
도 3은 본 개시의 일 실시 예에 따른 액티브 노이즈 캔슬링 방식을 설명하기 위한 도면이다.
도 4a 및 도 4b는 본 개시의 일 실시 예에 따른 인공 지능 모델의 학습 방법 및 이용 방법을 설명하기 위한 도면들이다.
도 5는 본 개시의 일 실시 예에 따른 전자 장치 및 서버 간 동작을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다. A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 명세서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
이하 첨부된 도면들을 참조하여 본 개시의 일 실시예를 보다 상세하게 설명한다.
도 1은 본 개시의 일 실시 예에 따른 동작을 설명하기 위한 도면이다.
일 실시 예에 따른 전자 장치(100)는 오디오 출력이 가능한 다양한 유형의 장치로 구현될 수 있다. 예를 들어, 전자 장치(100)는 스마트 폰, 태블릿, PC, LFD(large format display), Digital Signage(디지털 간판), DID(Digital Information Display), 비디오 월(video wall) 등과 같은 오디오 출력이 가능한 다양한 유형의 전자 장치로 구현될 수 있다.
일 실시 예에 따라 전자 장치(100)는 구비된 스피커(미도시)를 통해 오디오 데이터를 출력할 수 있지만, 다른 실시 예에 따라 전자 장치(100)는 사운드 출력 기기(20)와 유선 또는 무선으로 통신을 수행하여 사운드 출력 기기(20)를 통해 오디오 데이터를 출력할 수 있다. 여기서, 사운드 출력 기기(20)는 다양한 종류의 스피커 장치가 될 수 있다. 예를 들어, 이어폰(유선 또는 무선), 헤드폰(유선 또는 무선) 등으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 사운드 출력 기기는 Wireless 스피커, 사운드 바, 룸 스피커 등과 같은 스피커 장치로 구현될 수 있다.
일 예에 따라 전자 장치(100)는 액티브 노이즈 캔슬링(Active Noise Cancellation, ANC) 방법을 이용하여 노이즈 캔슬링을 수행할 수 있다. 예를 들어 전자 장치(100)는 전자 장치(100) 또는 음향 출력 기기(20) 중 적어도 하나에 구비된 마이크에서 주변의 소리를 받아오고 소리에 대한 파동의 위상을 반대로 반전시킨 후, 반전시킨 소리를 스피커(미도시)로 출력하여 주변의 소음에 상쇄 간섭을 일으켜 주변의 소음을 차단시킬 수 있다.
특히, 일 실시 예에 따르면, 전자 장치(100)는 서버에 포함된 인공 지능 모델(10)을 이용하여 노이즈 캔슬링을 수행할 수 있는데 이하에서는 이와 관련된 다양한 실시 예에 대해 설명하도록 한다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치(100)의 구성을 나타내는 블럭도이다.
도 2에 따른 전자 장치(100)는 마이크(110), 스피커(120), 통신 인터페이스(130), 메모리(140) 및 프로세서(150)를 포함한다.
마이크(110)는 오디오 데이터를 입력받을 수 있다. 특히, 입력된 오디오 데이터에는 노이즈 음원이 포함되어 있을 수 있다. 예를 들어 노이즈 음원은 다양한 생활 소음, 산업 현장 소음, 지하철 소음, 차량 소음 등을 포함할 수 있다.
스피커(120)는 오디오 데이터를 출력할 수 있다. 스피커(120)는 전자 장치(100)에 내장되어 있거나, 부착되어 있을 수 있을 수 있다. 구현 형태에 따라 스피커(120)는 오디오 앰프(audio amplifier) 등을 포함할 수 있다.
통신 인터페이스(130)는 다양한 유형의 통신 방식에 따라 다양한 유형의 외부 장치와 통신을 수행하는 구성이다.
일 실시 예에 따라 통신 인터페이스(130)는 와이파이 모듈, 블루투스 모듈, 이더넷 통신 모듈 또는 적외선 통신 모듈 중 적어도 하나를 포함한다. 여기서, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다. 와이파이 모듈, 블루투스 모듈은 각각 와이파이(WiFi) 방식, 블루투스 방식으로 통신을 수행한다. 와이파이 모듈이나 블루투스 모듈을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 적외선 통신 모듈은 시 광선과 밀리미터파 사이에 있는 적외선을 이용하여 근거리에 무선으로 데이터를 전송하는 적외선 통신(IrDA, infrared Data Association)기술에 따라 통신을 수행한다.
무선 통신 모듈은 상술한 통신 방식 이외에 지그비(zigbee), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 4G(4th Generation), 5G(5th Generation)등과 같은 다양한 무선 통신 규격에 따라 통신을 수행하는 적어도 하나의 통신 칩을 포함할 수 있다.
그 밖에 통신 인터페이스(130)는 LAN(Local Area Network) 모듈, 이더넷 모듈, 또는 페어 케이블, 동축 케이블 또는 광섬유 케이블 등을 이용하여 통신을 수행하는 유선 통신 모듈 중 적어도 하나를 포함할 수 있다.
메모리(140)는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리(140)는 데이터 저장 용도에 따라 전자 장치(100)에 임베디드된 메모리 형태로 구현되거나, 전자 장치(100)와 통신 가능한(또는 탈부착 가능한) 메모리 형태로 구현될 수도 있다. 예를 들어, 전자 장치(100)의 구동을 위한 데이터의 경우 전자 장치(100)에 임베디드된 메모리에 저장되고, 전자 장치(100)의 확장 기능을 위한 데이터의 경우 전자 장치(100)와 통신 가능한 메모리에 저장될 수 있다.
일 예에 따라 메모리(140)는 전자 장치(100)를 제어하기 위한 적어도 하나의 인스트럭션(instruction) 또는 인스트럭션들을 포함하는 컴퓨터 프로그램을 저장할 수 있다.
프로세서(150)는 메모리(140)와 전기적으로 연결되어 전자 장치(100)의 전반적인 동작을 제어한다. 프로세서(150)는 하나 또는 복수의 프로세서로 구성될 수 있다. 구체적으로, 프로세서(150)는 메모리(140)에 저장된 적어도 하나의 인스트럭션(instruction)을 실행함으로써, 본 개시의 다양한 실시 예에 따른 전자 장치(100)의 동작을 수행할 수 있다.
일 실시 예에 따라 프로세서(150)는 디지털 영상 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), GPU(Graphics Processing Unit), AI(Artificial Intelligence) 프로세서, NPU (Neural Processing Unit), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(150)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, ASIC(application specific integrated circuit), FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
또한, 일 실시 예에 따른 인공 지능 모델을 실행하기 위한 프로세서(150)는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공 지능 전용 프로세서과 소프트웨어의 조합을 통해 구현될 수 있다. 프로세서(150)는, 메모리(140)에 저장된 기 정의된 동작 규칙 또는 인공 지능 모델에 따라, 입력 데이터를 처리하도록 제어할 수 있다. 또는, 프로세서(150)가 전용 프로세서(또는 인공 지능 전용 프로세서)인 경우, 특정 인공 지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. 예를 들어, 특정 인공 지능 모델의 처리에 특화된 하드웨어는 ASIC, FPGA 등의 하드웨어 칩으로 설계될 수 있다. 프로세서(150)가 전용 프로세서로 구현되는 경우, 본 개시의 실시 예를 구현하기 위한 메모리를 포함하도록 구현되거나, 외부 메모리를 이용하기 위한 메모리 처리 기능을 포함하도록 구현될 수 있다.
일 실시 예에 따르면, 프로세서(150)는 마이크(110)를 통해 노이즈 음원을 포함하는 오디오 데이터가 입력되면, 입력된 오디오 데이터에서 노이즈 음원을 추출할 수 있다.
예를 들어, 프로세서(150)는, 오디오 데이터에 포함된 노이즈 음원 중 특정 조건을 만족하는 노이즈 음원을 추출하여 서버(미도시)로 전송할 수 있다. 여기서, 특정 조건은 사용자에 의해 설정된 조건, 예를 들어, 특정 크기 또는 특정 주파수 이상의 조건, 전자 장치(100)의 제조시에 기설정된 조건 등이 될 수 있다.
이어서, 프로세서(150)는 추출된 노이즈 음원을 통신 인터페이스(130)를 통해 서버로 전송할 수 있다.
이 후, 프로세서(150)는 서버(미도시)로부터 노이즈 음원과 관련된 상쇄 음원이 수신되면, 상쇄 음원을 출력하도록 스피커(120)를 제어할 수 있다.
한편, 서버(미도시)는 도 3에 도시된 바와 같은 액티브 노이즈 캔슬링(Active Noise Cancellation, ANC) 방식에 기초하여 예측 노이즈 음원에 대응되는 상쇄 음원을 생성하여 전자 장치(100)로 전송할 수 있다. 예를 들어, 위상이 반대인 두 파동이 중첩하여 합성파의 진폭이 0이 되는 현상(소멸 간섭 현상)을 이용할 수 있다. 이는 동일한 진폭과 진동수를 가진 두 파동이 어느 순간 같은 영역을 통과할 때 나타나는 형상으로 두 파동의 위상이 180도 어긋나 있을 때 즉 마루와 골이 중첩될 때 두 파동은 완전히 상쇄되어 합성파의 진폭이 0이 될 수 있다. 이와 같은 원리를 이용하여 예측 노이즈 음원에 대응되는 상쇄 음원을 생성할 수 있다.
서버(미도시)는 전자 장치(100)에 구비된 임베디드 서버, 또는 전자 장치(100)의 외부 서버로 구현될 수 있다. 여기서, 상쇄 음원은, 노이즈 음원을 인공 지능 모델에 입력하여 획득되는 예측 노이즈 음원에 기초하여 생성되는 데이터일 수 있다. 이 경우, 인공 지능 모델은 노이즈 음원을 포함하는 훈련 데이터에 기초하여 추후 발생될 노이즈 음원을 예측하도록 학습될 수 있다.
서버(미도시)는 복수의 레이어를 포함하는 인공 지능 모델에 관한 정보를 저장할 수 있다. 여기서, 인공 지능 모델에 관한 정보를 저장한다는 것은 인공 지능 모델의 동작과 관련된 다양한 정보, 예를 들어 인공 지능 모델에 포함된 복수의 레이어에 대한 정보, 복수의 레이어 각각에서 이용되는 파라미터(예를 들어, 필터 계수, 바이어스 등)에 대한 정보 등을 저장한다는 것을 의미할 수 있다. 인공 지능 모델은 입력 훈련 데이터 및 출력 훈련 데이터 쌍에 기초하여 학습되거나, 입력 훈련 데이터에 기초하여 학습될 수 있다.학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다. 다만, 이는 지도 학습의 경우를 예를 든 것이며, 출력 데이터로서 추천 행정 정보를 이용하지 않고 입력 데이터 만을 입력하여 인공 지능 모델을 학습시키는 비지도 학습에 기초하여 인공 지능 모델을 학습시킬 수 있음은 물론이다.
도 4a 및 도 4b는 본 개시의 일 실시 예에 따른 인공 지능 모델의 학습 방법 및 이용 방법을 설명하기 위한 도면들이다.
도 4a에 도시된 바와 인공 지능 모델(410)은 같이 현재 노이즈 음원(421) 및 다음 노이즈 음원(422)을 각각 입출력 훈련 데이터 쌍으로 이용하여 학습될 수 있다. 예를 들어, 샘플 노이즈 음원에서 특정 시점의 노이즈 음원 및 바로 이후 시점의 노이즈 음원을 각각 입출력 훈련 데이터 쌍으로 이용하여 학습될 수 있다. 다만, 이는 지도 학습의 경우를 예를 든 것이며, 출력 데이터로서 다음 노이즈 음원을 이용하지 않고 현재 노이즈 음원 만을 입력하여 학습시키는 비지도 학습에 기초하여 인공 지능 모델을 학습시킬 수 있음은 물론이다.
이 후, 학습된 인공 지능 모델(410)에 현재 노이즈 음원(431)을 입력하게 되면, 도 4b에 도시된 바와 같이 예측 노이즈 음원(432)이 출력될 수 있다.
다만 상술한 실시 예에서는 서버에 인공 지능 모델에 대한 정보가 저장되고 서버에서 학습이 이루어지는 것으로 설명하였으나, 최근의 온 디바이스(on device)화 경향에 따라 전자 장치(100)에 인공 지능 모델에 대한 정보가 저장되고 전자 장치에서 학습이 이루어지나, 기 학습된 인공 지능 모델에 대한 정보가 전자 장치(100)에 저장되는 것도 가능하다.
도 5는 일 실시 예에 따른 전자 장치 및 서버 간 동작을 설명하기 위한 도면이다.
일 실시 예에 따르면, 전자 장치(100)는 노이즈 음원을 포함하는 오디오 데이터가 입력되면, 입력된 오디오 데이터에서 노이즈 음원을 추출하고, 추출된 노이즈 음원을 통신 인터페이스(130)를 통해 서버(200)로 전송할 수 있다.
서버(200)는 학습된 인공 지능 모델을 이용하여 수신된 노이즈 음원 이후의 노이즈 음원을 예측하고 예측 노이즈 음원에 대응되는 상쇄 음원을 생성하여 전자 장치(100)로 전송할 수 있다. 일 예에 따라 액티브 노이즈 캔슬링(Active Noise Cancellation, ANC) 방식에 기초하여 예측 노이즈 음원에 대응되는 상쇄 음원을 생성하여 전자 장치(100)로 전송할 수 있다.
전자 장치(100)는 노이즈 음원과 관련된 상쇄 음원이 수신되면, 스피커를 통해 상쇄 음원을 출력할 수 있다.
도 6은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 6에 도시된 전자 장치의 제어 방법에 따르면, 노이즈 음원을 포함하는 오디오 데이터가 입력되면, 오디오 데이터에서 노이즈 음원을 추출한다(S610). 이 경우, 오디오 데이터에 포함된 노이즈 음원 중 특정 조건을 만족하는 노이즈 음원을 추출할 수 있다.
이어서, 노이즈 음원을 서버로 전송한다(S620).
이 후, 서버로부터 노이즈 음원과 관련된 상쇄 음원이 수신되면, 상쇄 음원을 스피커를 통해 출력한다(S630). 여기서, 상쇄 음원은, 노이즈 음원을 인공 지능 모델에 입력하여 획득되는 예측 노이즈 음원에 기초하여 생성되는 음향 데이터일 수 있다.
이 경우, 인공 지능 모델은, 노이즈 음원을 포함하는 훈련 데이터에 기초하여 추후 발생될 노이즈 음원을 예측하도록 학습될 수 있다.
여기서, 서버(200)는 액티브 노이즈 캔슬링(Active Noise Cancellation, ANC) 방식에 기초하여 인공 지능 모델로부터 획득된 예측 노이즈 음원에 대응되는 상쇄 음원을 생성하여 전자 장치(100)로 전송할 수 있다.
상술한 다양한 실시 예에 따르면, 인공 지능 모델을 이용하여 추후 발생될 소음을 예측하여 상쇄 음원을 생성하여 출력하므로 발생되는 소음을 제거할 수 있게 되므로, 사용자의 편의성이 향상된다.
한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 설치 가능한 어플리케이션 형태로 구현될 수 있다.
또한, 상술한 본 발명의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치 중 적어도 하나에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다.
또한, 본 발명에 따른 제어 방법을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110: 마이크 120: 스피커
130: 통신 인터페이스 140: 메모리
150: 프로세서

Claims (9)

  1. 전자 장치에 있어서,
    마이크;
    스피커;
    통신 인터페이스;
    적어도 하나의 인스트럭션을 저장하는 메모리; 및
    상기 인스트럭션을 실행함으로써,
    상기 마이크를 통해 노이즈 음원을 포함하는 오디오 데이터가 입력되면, 상기 오디오 데이터에서 상기 노이즈 음원을 추출하고,
    상기 통신 인터페이스를 통해 상기 노이즈 음원을 서버로 전송하고, 상기 서버로부터 상기 노이즈 음원과 관련된 상쇄 음원이 수신되면, 상기 상쇄 음원을 출력하도록 상기 스피커를 제어하는 프로세서;를 포함하며,
    상기 상쇄 음원은,
    상기 노이즈 음원을 인공 지능 모델에 입력하여 획득되는 예측 노이즈 음원에 기초하여 생성되는 데이터인, 전자 장치.
  2. 제1항에 있어서,
    상기 인공 지능 모델은,
    노이즈 음원을 포함하는 훈련 데이터에 기초하여 추후 발생될 노이즈 음원을 예측하도록 학습되는, 전자 장치.
  3. 제2항에 있어서,
    상기 서버는,
    액티브 노이즈 캔슬링(Active Noise Cancellation, ANC) 방식에 기초하여 상기 인공 지능 모델로부터 획득된 예측 노이즈 음원에 대응되는 상기 상쇄 음원을 생성하여 상기 전자 장치로 전송하는, 전자 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 오디오 데이터에 포함된 노이즈 음원 중 특정 조건을 만족하는 노이즈 음원을 추출하여 상기 서버로 전송하는, 전자 장치.
  5. 전자 장치의 제어 방법에 있어서,
    노이즈 음원을 포함하는 오디오 데이터가 입력되면, 상기 오디오 데이터에서 상기 노이즈 음원을 추출하는 단계;
    상기 노이즈 음원을 서버로 전송하고, 상기 서버로부터 상기 노이즈 음원과 관련된 상쇄 음원이 수신되면, 상기 상쇄 음원을 스피커를 통해 출력하는 단계;를 포함하며,
    상기 상쇄 음원은,
    상기 노이즈 음원을 인공 지능 모델에 입력하여 획득되는 예측 노이즈 음원에 기초하여 생성되는 데이터인, 제어 방법.
  6. 제5항에 있어서,
    상기 인공 지능 모델은,
    노이즈 음원을 포함하는 훈련 데이터에 기초하여 추후 발생될 노이즈 음원을 예측하도록 학습되는, 제어 방법.
  7. 제6항에 있어서,
    상기 서버는,
    액티브 노이즈 캔슬링(Active Noise Cancellation, ANC) 방식에 기초하여 상기 인공 지능 모델로부터 획득된 예측 노이즈 음원에 대응되는 상기 상쇄 음원을 생성하여 상기 전자 장치로 전송하는, 제어 방법.
  8. 제5항에 있어서,
    상기 노이즈 음원을 추출하는 단계는,
    상기 오디오 데이터에 포함된 노이즈 음원 중 특정 조건을 만족하는 노이즈 음원을 추출하여 상기 서버로 전송하는, 제어 방법.
  9. 전자 장치 및 서버를 포함하는 시스템에 있어서,
    마이크를 통해 노이즈 음원을 포함하는 오디오 데이터가 입력되면, 상기 오디오 데이터에서 상기 노이즈 음원을 추출하고, 상기 노이즈 음원을 상기 서버로 전송하고, 상기 서버로부터 상기 노이즈 음원과 관련된 상쇄 음원이 수신되면, 상기 상쇄 음원을 스피커를 통해 출력하는 전자 장치; 및
    상기 전자 장치로부터 상기 노이즈 음원이 수신되면, 상기 노이즈 음원을 인공 지능 모델에 입력하여 예측 노이즈 음원을 획득하고, 상기 획득된 예측 노이즈 음원에 기초하여 상쇄 음원을 획득하고, 상기 획득된 상쇄 음원을 상기 전자 장치로 전송하는 서버;를 포함하는 시스템.
KR1020200179015A 2020-12-18 2020-12-18 전자 장치 및 그 제어 방법 KR20220088205A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200179015A KR20220088205A (ko) 2020-12-18 2020-12-18 전자 장치 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200179015A KR20220088205A (ko) 2020-12-18 2020-12-18 전자 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20220088205A true KR20220088205A (ko) 2022-06-27

Family

ID=82246933

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200179015A KR20220088205A (ko) 2020-12-18 2020-12-18 전자 장치 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR20220088205A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117590916A (zh) * 2024-01-17 2024-02-23 苏州元脑智能科技有限公司 一种服务器降噪方法、系统、装置、设备及计算机介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117590916A (zh) * 2024-01-17 2024-02-23 苏州元脑智能科技有限公司 一种服务器降噪方法、系统、装置、设备及计算机介质
CN117590916B (zh) * 2024-01-17 2024-04-16 苏州元脑智能科技有限公司 一种服务器降噪方法、系统、装置、设备及计算机介质

Similar Documents

Publication Publication Date Title
US10685663B2 (en) Enabling in-ear voice capture using deep learning
US11126398B2 (en) Smart speaker
JP2023532078A (ja) ヘッドセットノイズ処理方法、装置及びヘッドセット
US9089783B2 (en) System and method for a toy to interact with a computing device through wireless transmissions
US11412341B2 (en) Electronic apparatus and controlling method thereof
US11031028B2 (en) Information processing apparatus, information processing method, and recording medium
CN104954960A (zh) 调整助听器声音的方法、执行该方法的助听器和电子装置
US11197142B1 (en) Methods and systems for communicating with device cases
US11356796B2 (en) Priority-based soundfield coding for virtual reality audio
US20220329966A1 (en) Electronic apparatus and controlling method thereof
KR20200095719A (ko) 전자 장치 및 그 제어 방법
Basak et al. mmspy: Spying phone calls using mmwave radars
CN108683790B (zh) 语音处理方法及相关产品
EP4203447A1 (en) Sound processing method and apparatus thereof
KR20220088205A (ko) 전자 장치 및 그 제어 방법
EP2887698B1 (en) Hearing aid for playing audible advertisement
US20200278832A1 (en) Voice activation for computing devices
CN116508100A (zh) 用文本和言语自动生成面部动作单元的面部动画控制
US9491568B2 (en) System and method for mobile terminal interactions
EP3340647B1 (en) Media capture and process system
US20210006901A1 (en) Apparatus and method for processing audio signal
US20230343361A1 (en) Dynamic signal processing load based on subjective quality assessment
CN114615609B (zh) 助听器控制方法、助听器设备、装置、设备和计算机介质
CN116347320B (zh) 音频播放方法及电子设备
EP4325486A1 (en) Electronic device and control method thereof