KR20200101917A - 어드밴스드 오디오 프로세싱 시스템 - Google Patents

어드밴스드 오디오 프로세싱 시스템 Download PDF

Info

Publication number
KR20200101917A
KR20200101917A KR1020207017212A KR20207017212A KR20200101917A KR 20200101917 A KR20200101917 A KR 20200101917A KR 1020207017212 A KR1020207017212 A KR 1020207017212A KR 20207017212 A KR20207017212 A KR 20207017212A KR 20200101917 A KR20200101917 A KR 20200101917A
Authority
KR
South Korea
Prior art keywords
audio
interface
audio component
processor
algorithm
Prior art date
Application number
KR1020207017212A
Other languages
English (en)
Inventor
필리프 막시밀리안 크레이치
카다가투르 고피나다 스리니디
다비 하들리
토비아스 뮌히
Original Assignee
하만인터내셔날인더스트리스인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 하만인터내셔날인더스트리스인코포레이티드 filed Critical 하만인터내셔날인더스트리스인코포레이티드
Publication of KR20200101917A publication Critical patent/KR20200101917A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/038Cross-faders therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios

Abstract

오디오 프로세싱 시스템은 복수의 오디오 신호 프로세싱 알고리즘과 오디오 컴포넌트를 보유하도록 구성된 메모리와, 프로세서를 갖는 서버를 포함할 수 있다. 프로세서는 신호 프로세싱 알고리즘 및 오디오 컴포넌트의 적어도 일부를 디스플레이하는 인터페이스를 제공하고; 오디오 컴포넌트 중 적어도 하나의 사용자 선택을 수신하고, 인터페이스를 통해 적어도 하나의 선택된 오디오 컴포넌트를 제시하고, 적어도 하나의 선택된 오디오 컴포넌트에 적용하기 위해 적어도 하나의 신호 프로세싱 알고리즘의 사용자 선택을 수신하고; 적어도 하나의 선택된 알고리즘을 적어도 하나의 선택된 오디오 컴포넌트에 적용하고, 인터페이스를 통해 적어도 하나의 선택된 알고리즘 및 적어도 하나의 선택된 오디오 컴포넌트의 측정을 제공하도록 구성된다.

Description

어드밴스드 오디오 프로세싱 시스템
관련 출원들에 대한 상호 참조
본 출원은 2017 년 12 월 29 일에 출원된 미국 가특허 출원 일련 번호 62/611,682의 이익을 주장하며, 그 개시 내용은 본 출원에 참고로 그 전체가 통합된다.
기술 분야
어드밴스드(advanced) 오디오 프로세싱 시스템이 본 출원에 개시된다.
오디오 제품 개발에는 신호 프로세싱, 설정 할당, 파라미터 등의 다양한 애플리케이션들이 포함되어 새 제품과 기존 제품에 적용된다. 오디오 컴포넌트를 포함한 제품의 수와 정도가 다양해짐에 따라, 제조업체는 여러 제약 조건 중에서 제품 수명주기 단축, 비용 증가, 풍부한 경험에 대한 소비자 요구를 직면하고 있다.
오디오 프로세싱 시스템은 복수의 오디오 신호 프로세싱 알고리즘과 오디오 컴포넌트를 보유하도록 구성된 적어도 하나의 메모리와, 프로세서를 갖는 서버를 포함할 수 있다. 프로세서는 신호 프로세싱 알고리즘 및 오디오 컴포넌트의 적어도 일부를 디스플레이하는 인터페이스를 제공하고; 오디오 컴포넌트 중 적어도 하나의 사용자 선택을 수신하고, 인터페이스를 통해 적어도 하나의 선택된 오디오 컴포넌트를 제시하고, 적어도 하나의 선택된 오디오 컴포넌트에 적용하기 위해 적어도 하나의 신호 프로세싱 알고리즘의 사용자 선택을 수신하고; 적어도 하나의 선택된 알고리즘을 적어도 하나의 선택된 오디오 컴포넌트에 적용하고, 인터페이스를 통해 적어도 하나의 선택된 알고리즘 및 적어도 하나의 선택된 오디오 컴포넌트의 측정을 제공하도록 구성된다.
오디오 프로세싱 시스템을 위한 방법은 복수의 신호 프로세싱 알고리즘 및 오디오 컴포넌트를 디스플레이하는 인터페이스를 제시하는 단계, 오디오 컴포넌트 중 적어도 하나의 사용자 선택을 수신하는 단계, 인터페이스를 통해 적어도 하나의 선택된 오디오 컴포넌트를 제시하는 단계, 적어도 하나의 선택된 오디오 컴포넌트에 적용하기 위해 적어도 하나의 신호 프로세싱 알고리즘의 사용자 선택을 수신하는 단계, 적어도 하나의 선택된 알고리즘을 적어도 하나의 선택된 오디오 컴포넌트에 적용하는 단계, 및 인터페이스를 통해 적어도 하나의 선택된 알고리즘 및 적어도 하나의 선택된 오디오 컴포넌트의 측정을 제공하는 단계를 포함할 수 있다.
본 개시의 실시예는 첨부된 청구 범위에서 특히 지적된다. 그러나, 다양한 실시예의 다른 특징은 첨부 도면과 함께 이하의 상세한 설명을 참조함으로써 보다 명백해지고 가장 잘 이해될 것이다.
도 1은 일 실시예에 따른 오디오 프로세싱 시스템의 블록도를 예시한다.
도 2는 예시적인 확장 가능한 오디오 프레임 워크 (xAF)를 예시한다.
도 3은 xAF에 대한 예시적인 디자인 흐름을 예시한다.
도 4는 예시적인 개발 키트 통합을 예시한다.
도 5a 및 5b는 글로벌 튜닝 툴 (GTT)의 다양한 양태의 블록도를 예시한다.
도 6a는 GTT의 예시적인 오디오 패널을 예시한다.
도 6b는 GTT의 다른 예시적인 오디오 패널을 예시한다.
도 6c는 GTT의 다른 오디오 패널의 예를 예시한다.
도 6d는 GTT의 다른 커스텀 오디오 패널을 예시한다.
도 6e는 GTT의 예시적인 신호 흐름 디자인 패널을 예시한다.
도 6f는 알고리즘 툴 박스를 갖는 시스템의 예시적인 데이터베이스 패널을 예시한다.
도 6g는 시스템의 예시적인 특성 패널을 예시한다.
도 6h는 선택된 객체에 대한 예시적인 네이티브 패널(native panel)을 예시한다.
도 6i는 예시적인 SoC (system-on-chip) 패널을 예시한다.
도 6j는 예시적인 시스템 기능 편집 패널을 예시한다.
도 6k는 편집 패널에 응답하여 생성된 예시적인 네이티브 패널을 예시한다.
도 7은 GTT에 대한 예시적인 트랜잭션 프로세스를 예시한다.
도 8은 전체 시스템의 예시적인 블록도를 예시한다.
도 9는 다수의 디바이스가 동시에 구성되는 GTT의 예시적인 구성을 예시한다.
도 10은 측정 루틴의 프로세스에 대한 예시적인 흐름도를 예시한다.
도 11은 예시적인 측정 패널을 예시한다.
도 12는 예시적인 링크 패널을 예시한다.
필요에 따라, 본 개시의 상세한 실시예가 본 출원에 개시되고; 그러나, 개시된 실시예들은 단지 다양하고 대안적인 형태로 구현될 수 있는 본 발명을 나타내는 것임을 이해해야 한다. 도면들은 반드시 축척에 맞지는 않고; 일부 특징들은 특정 컴포넌트의 세부 사항을 보여주기 위해 과장되거나 최소화될 수 있다. 따라서, 본 출원에 개시된 특정 구조 및 기능적 세부 사항은 제한으로서 해석되어서는 안 되며, 당업자가 본 발명을 다양하게 채용하도록 가르치기 위한 예시적인 기초로서만 해석되어야 한다.
오디오 컴포넌트 제조업체는 여러 플랫폼으로 확장할 수 있는 능력을 통해 주어진 아키텍처 프레임 워크에 대해 최상의 가능한 오디오 및 능동 노이즈 관리 솔루션을 달성하는 것을 목표로 한다. 그러나, 제품 개발에 대한 요구로 인해, 스트림라인된(streamlined) 오디오 개발 및 디자인 프로세스가 유리하다.
본 출원에는 B2B (Business-to-Business) 및 B2C (Business-to-Consumer) 사용을 위한 향상된 시스템이 개시되며, 오디오 피처 개발 및 사용을 위한 단일 워크 플로우(workflow) 및 구조를 제공하기 위해 단일 오디오 프레임 워크가 플랫폼 및 프로젝트에 걸쳐 글로벌하게 사용되는 것을 허용한다. 오디오 프로세싱 시스템은 하드웨어 업그레이드 없이도 오디오 객체 및 튜닝 전략을 심리스로(seamlessly) 사용하여 엔트리 레벨에서 복잡한 시스템에 이르기까지 다양한 시스템 레벨에 프리미엄 사운드를 제공할 수 있는 성능과 유연성을 허용한다. 시스템은 무선으로 업데이트를 푸시하고 종량제 수익(pay-as-you-go monetization)을 창출한다. 시스템은 디자이너가 제품을 고르고 선택하고, 해당 제품에 다양한 파라미터 및 프로세싱을 적용하고, 제품 개발을 위한 심리스(seamless) 최적화를 가능하게 하기 위해 빌드(build)를 분석할 수 있는 용이한 맞춤형(customizable) 오디오 제품 빌드 메커니즘을 허용한다.
시스템은 시스템 엔지니어가 복잡한 신호 및 데이터 흐름을 한 곳에서 구성, 튜닝 및 측정할 수 있는 그래픽 신호 흐름 디자이너를 제공한다. 시스템은 디바이스 독립적이며 시뮬레이션 및 빠른 프로토타이핑(prototyping)을 위한 가상 증폭기가 제공된다. 시스템은 단일 프로세서, DSP (digital signal processor) 또는 SoC의 하나 이상의 코어에서 작동하도록 디자인된다. 시스템은 여러 디바이스에서 동시에 작동하도록 디자인된다 (예를 들어, 헤드 유닛 및 증폭기(들)의 신호 흐름은 시스템의 한 인스턴스를 통해 전부 구성 및 튜닝될 수 있다).
시스템은 여러 물리적 인터페이스를 지원하는 가상 또는 타겟 디바이스와의 통신을 위한 호스트 서버 애플리케이션 (AmpSrv2)을 제공한다. 시스템은 커스텀 패널, 네이티브 패널 및 두 패널 유형의 하이브리드를 사용하여 튜닝 패널의 완전 맞춤화를 지원하도록 디자인된다. 시스템은 가상 또는 타겟 디바이스와의 효율적인 양방향 통신을 위한 전용 튜닝 프로토콜 (xTP)을 갖는다. 시스템은 다양한 범위의 오디오 측정 루틴을 간단하고 효율적으로 자동화하기 위해 타겟 디바이스와 직접 통신할 수 있도록 디자인된 측정 모듈을 제공한다. 시스템은 직관적인 UX/UI 개념으로 상태 변수에 대한 링크 메커니즘(linking mechanism)을 제공한다.
도 1은 오디오 프로세싱 시스템 (100)의 블록도를 예시한다. 시스템 (100)은 DSP 라이브러리 또는 DSP 데이터베이스 (102), DSP 흐름 디자이너 (104) 및 DSP 튜닝 블록 (106), 시뮬레이션 블록 (108) 및 컴파일 블록 (112)을 포함하는 글로벌 튜닝 툴 (GTT : global tuning tool) (105)을 포함하는 프로세서 (110)를 포함할 수 있다. 프로세서 (110)는 범용 프로세서, 디지털 신호 프로세서 (DSP) 등일 수 있다. 프로세서 (110)는 시스템 (100)에 로컬일 수 있거나 또는 그로부터 원격일 수 있다. 프로세서 (110)는 제어기 (미도시)를 포함할 수 있다. 제어기는 일반적으로 본 출원에 설명된 방정식 및 방법을 실행하기 위한 명령의 동작을 위해 메모리에 결합될 수 있다. 일반적으로, 제어기는 본 출원에 언급된 다양한 방법을 실행하도록 프로그래밍된다.
DSP 데이터베이스 (102)는 이용 가능한 튜닝 알고리즘의 라이브러리, 디지털 신호 프로세싱 애플리케이션 및 라이브러리, 디바이스 라이브러리 등을 포함할 수 있다. 데이터베이스 (102)는 제어기에 의해 분리되거나 공유되는 메모리를 포함할 수 있다.
데이터베이스 (102)는 수백의 표준화된 오디오 알고리즘의 컴포넌트로 이루어진 오디오 알고리즘 툴 (AAT)을 포함할 수 있다. 데이터베이스 (102)는 표준화된 DSP 프레임 워크, 빠른 디자인, 다양한 하드웨어에서의 빠른 포팅(porting), 시장에서 높은 유연성 및 효율성으로 구성된 확장 가능한 오디오 프레임 워크 (xAF)를 포함할 수 있다. 데이터베이스 (102)는 또한 오디오 알고리즘 데이터베이스 및 DSP 프레임 워크를 구성하고 다양한 알고리즘을 튜닝 및 제어하기 위해 GTT (105)를 포함할 수 있다. 추가적으로 또는 대안적으로, GTT (105)는 도 1의 예에 도시된 데이터베이스로부터 분리될 수 있다.
오디오 프로세싱 시스템 (100)은 오디오 프로세싱 성능을 갖는 임의의 하드웨어에 신속하게 적응할 수 있는 포괄적인 오디오 개발 솔루션을 허용한다. 표준화된 오디오 객체 및 제 3 자 객체의 통합은 쉽게 포함하고 현재 제품과 결합될 수 있다. 시스템 (100)은 표준화된 PC 아키텍처 상의 시뮬레이션 환경을 제공하여 신속한 프로토타이핑(prototyping) 클러스터링(cluing) 벤치마킹 및 성능 평가를 가능하게 한다. 시스템 (100)은 개발 전반에 걸쳐 품질, 효율성 및 보다 나은 시장 출시 시간을 보장한다.
DSP 데이터베이스 (102)는 다수의 비즈니스 유닛에 걸쳐 쉽게 적용할 수 있도록 가장 최신의 효과적인 신호 프로세싱 알고리즘을 보유한다. 데이터베이스 (102)는 모든 비즈니스 유닛 및 개발 팀을 구성하는 수백 개의 오디오 알고리즘을 카탈로그화한다. 데이터베이스 (102)는 광범위한 스펙트럼의 카테고리의 제품 및 설정을 허용한다. 이 시스템 (100)은 플러그 앤 플레이 유형의 애플리케이션을 허용하여, 알고리즘이 다수의 산업에 걸쳐 광범위한 제품에 대해 용이하게 드롭, 적용 및 튜닝될 수 있게 한다. 시스템 (100)은 여러 하드웨어 플랫폼에서 랩톱, PC 또는 태블릿을 통해 쉽게 적응될 수 있다.
시스템 (100)은 사용의 용이성을 위해 표준화된 다양한 사용자 인터페이스를 제공할 수 있다. 시스템 (100)은 설정, 분석 동안 포괄적인 테스트를 허용하고, 디자인 프로세스 동안 심층적인 문서화를 제공할 수 있다.
DSP 신호 흐름 디자이너 (104)는 다양한 오디오 시그널링 프로세스가 사용자 인터페이스를 통해 선택되도록 허용할 수 있다. 예를 들어, 다양한 유형의 필터 (무한 임펄스 응답 (IIR), 유한 임펄스 응답 (FIR), 톤 제어, 이퀄라이제이션 (EQ) 등), 믹서, 볼륨, 뮤트, 라우터, 머저(merger), 스플리터(splitter), 컨볼버(convolver), 리샘플(resample), 고속 푸리에 변환 (FFT)을 포함한 기본 알고리즘은 흐름 디자이너 (104)에 모두 포함되어 적용될 수 있다. 어드밴스드 프로세싱이 또한 적용될 수 있으며 컴프레서, 리미터, 게이트, 익스팬더(expander), ACG, 스피커 보호, 열 보호와 같은 예를 포함할 수 있다. 사용자 선택 가능한 신호 제너레이터, 변조기 및 신디사이저(synthesizer)도 포함될 수 있다. 신호 분석기, 마이크로폰, 음성 및 통신 프로세싱 뿐만 아니라 노이즈, 에코 및 피드백 제어기가 구현될 수 있다. 리버브(reverb)와 이펙트(effect)도 적용될 수 있다. 개별 사운드 존 및 가상 베뉴에스(venues)도 적용될 수 있다.
DSP 튜닝 블록 (106)은 흐름 디자이너 (104)를 통해 선택하는 다양한 제품 및 알고리즘의 맞춤형 튜닝을 가능하게 할 수 있다. 이는 본 출원에 설명된 휴먼 머신 인터페이스 (HMI : human machine interface)에 제시된 스크린을 통해 달성될 수 있다.
상기에서 언급된 바와 같이, 데이터베이스 (102)는 확장 가능한 오디오 프레임 워크 (xAF)를 포함할 수 있다. 도 2는 예시적인 xAF 프레임 워크 (120)를 예시한다. 프레임 워크 (120)는 모듈식, 확장 가능한, 구성 가능한 및 휴대용일 수 있으며, 최신 개발 프로세스의 상태를 가능하게 한다.
프레임 워크 (120)는 볼륨, 바이쿼드, 리미터 등과 같은 기본 오디오 객체를 포함하는 DSP 프레임 워크를 포함할 수 있다. 이 프레임 워크 (120)는 멀티 코어 SoC를 포함하는 프로세서 및 플랫폼에 걸쳐 휴대 가능하다. 하드웨어 및 운영 체제 추상화 계층(abstraction layer)으로 인해, 프레임 워크 (120)는 고효율을 갖는다. 프레임 워크 (120)는 PC에서 증폭기를 실시간으로 시뮬레이션하기 위한 가상 증폭기 접근법(virtual amplifier approach)을 지원한다. 가상 증폭기는 가상 스튜디오 기술 (VST)을 허용할 수 있고, 외부 제 3 자 VST 호스트 또는 시스템 (100) 내부에 내장된 VST 호스트가 VST의 직접 디버깅을 가능하게 할 수 있다. 프레임 워크 내의 그래픽 디자이너는 유연한 오디오 경로 정의를 허용한다. 프레임 워크 (120)는 다른 GTT 및 AAT와 호환 가능하고 제 3 자 알고리즘을 지원한다. 시스템 (100)은 단일 DSP 뿐만 아니라 다수의 SoC (system-on-chip) 코어에서 작동할 수 있다. GTT (105)는 새로운 디바이스 및 새로운 디바이스에 대한 선택된 코어의 생성을 허용할 수 있다. 이것은 도 6i에 예로서 예시된다.
도 3은 xAF 프레임 워크 (120)에 대한 예시적인 디자인 흐름을 예시한다. 먼저, DSP 데이터베이스 (102)가 생성된다. 설명된 바와 같이, DSP 데이터베이스 (102)는 포괄적이고 표준화된 알고리즘 라이브러리가 생성되고 중앙에 저장된다. 신호 흐름은 다양한 알고리즘 등을 적용함으로써 동적으로 변경될 수 있다. GTT (105)는 사용자가 사용자 인터페이스를 통해 신호 흐름 디자이너 (104)에서 DSP 프로젝트를 생성할 수 있도록 알고리즘 라이브러리를 판독할 수 있다. GTT (105)의 DSP 튜닝 블록 (106)은 흐름 디자이너 (104)를 통해 선택되는 다양한 제품 및 알고리즘의 맞춤형 튜닝이 가능할 수 있다.
GTT (105)는 데이터베이스 파일을 생성하여 가상 증폭기를 PC에 최적화된 플러그인으로서 생성하고 소스 코드로 컴파일되어 타겟 증폭기 (116)에 플래시(flash)될 수 있다. GTT (105)는 구성될 가상 증폭기 (114) 또는 타겟 증폭기 (116)로부터 데이터베이스 파일을 판독할 수 있다. GTT (105)는 가상 증폭기 및/또는 타겟 증폭기를 제어하여 PC에서 증폭기를 실시간으로 시뮬레이션할 수 있다.
도 4는 GTT(105)에 대한 예시적인 개발 키트 통합을 예시한다. GTT (105)는 DSP 프레임 워크 (122)를 수립할 수 있다. DSP 프레임 워크 (122)는 CoC SW 기준 SDK (RSDK)의 일부일 수 있으며, 기준 하드웨어, GTT (105) 및 더 중요한 오디오 알고리즘과 주기적으로 통합된다. DSP 프레임 워크 (122)는 흐름 디자이너 (104)에 대한 기본 신호 흐름을 수립하기 위해 최소의 필수 객체를 함유한다. DSP 프레임 워크 (122)는 ISZ, 가상 베뉴에스, Clari-Fi, 오디오 레벨 라이저, 사운드2타겟(Sound2Target) 등과 같은 다양한 기술을 통합하고 호출할 수 있다. 이들 기술은 원활한 통합 및 고품질을 보장하기 위해 DSP 프레임 워크 (122) 로 포팅(port)될 수 있다. RSDK는 전체 패키지의 고품질 통합, 테스트 및 문서화를 보장한다. DSP 프레임 워크 (122)는 가상 베뉴에스를 포함할 수 있다.
도 5a 및 5b는 글로벌 튜닝 툴 (GTT) (105)의 다양한 양태의 블록도를 예시한다. GTT(105)는 포괄적인 오디오 및 튜닝 툴 제품군을 포함한다. 오디오 및 음향 전문가의 다양한 측정, 튜닝 및 시뮬레이션이 GTT(105)에 번들로 제공되어 단순한 시스템 디자인에서 복잡한 시스템 디자인에 이르기까지 맞춤화를 위하 고유한 유연성을 생성한다. GTT(105)는 실제적이고 완전한 가상 튜닝을 지원한다. 사용하기 쉬운 사용자 인터페이스 또는 HMI 및 데이터 핸들링으로 인해 튜닝 효율성과 품질이 향상된다. 하나의 포괄적인 툴은 오디오 및 HALO 소닉(sonic)/NVH 튜닝 애플리케이션과 같은 여러 애플리케이션에 사용된다.
다양한 오디오 개발 툴로 인해 기존 오디오 알고리즘에 대한 지속적인 개요를 실현하고 각 제품에 적합한 솔루션을 찾기가 어려울 수 있다. 고객은 효율적이고 직관적인 방식으로 제품에 대한 완벽한 솔루션과 조합을 찾고자 할 수 있다. GTT(105)는 지식과 사용자 경험을 한 곳에 모아서 최고의 툴을 통합한다. 프레임 워크에는 자동차, 고급 오디오 및 소비자의 광범위한 오디오 애플리케이션 및 기술에 대한 현재 및 미래의 요구를 충족시키기 위한 맞춤형 아키텍처가 포함될 수 있다. GTT (105)는 새로운 기능을 확장 및 추가하고 다양한 애플리케이션들 사이의 링크를 생성할 수 있다.
도 6a는 GTT (105)의 예시적인 오디오 패널 (602)을 예시한다. 사용자 인터페이스는 프로세싱 블록의 특성에 링크될 수 있고 프로파일링을 지원한다. 각각의 채널의 지연이 조정될 수 있다. 전체 지연은 동적으로 업데이트되고 그에 따라 디스플레이될 수 있다.
도 6b는 GTT의 다른 예시적인 오디오 패널 (604)을 예시한다. 사용자 인터페이스는 각각의 채널의 중요한 설정을 제시할 수 있다. 게인, 인버전, 뮤트 등 각각의 채널의 특성이 조정될 수 있다.
도 6c는 GTT의 다른 예시적인 오디오 패널 (606)을 예시한다. 사용자 인터페이스는 증폭기로부터의 쉬운 모니터링 및 데이터 스트리밍을 허용할 뿐만 아니라 쉬운 데이터 분석을 가능하게 할 수 있다. 게인, 임계값, 홀드 임계값, 부착, 홀드 및 릴리즈 시간 등을 포함하여 각각의 채널의 특성을 쉽게 보고 조정할 수 있다.
도 6d는 GTT (105)의 다른 예시적인 오디오 패널 (608)을 예시한다. 사용자 인터페이스는 ISZ 입력 믹서를 통해 사용 가능한 네이티브 및 완전 맞춤화된 패널의 조합을 제공할 수 있다. 이 믹서는 1 차 오디오 소스 및 2 차 오디오 소스가 각각 좌우 채널에서 조정될 수 있게 한다. 프리셋(preset)이 믹서에 적용될 수 있으며, 각각의 채널에 대한 소스가 선택될 수 있다. 프리셋은 리콜(recall)될 수 있고 저장/보관 및 삭제될 수 있다.
도 6e는 신호 흐름 디자이너 (104)를 위한 GTT (105)의 예시적인 디자인 패널 (610)을 예시한다. 신호 흐름 디자이너 (104)는 다양한 블록 (611)을 포함하는 단순하고 복잡한 단일 흐름의 생성을 가능하게 한다. DSP 데이터베이스 (102)로부터의 오디오 컴포넌트/블록 (611)은 드래그 앤 드롭 기능에 의해 흐름에 추가될 수 있다. 블록 (611)은 증폭기, 스피커, 필터, 오디오 레벨라이저(audio levelizer), 대역 분할, 매트릭스 등과 같은 오디오 컴포넌트를 나타낼 수 있다. 프레임 워크는 사용자가 흐름 디자인을 쉽게 볼 수 있도록 심미적으로 배열될 수 있다.
도시되지는 않았지만, 튜닝 뷰(tuning view)에 대해 유사한 뷰가 디스플레이될 수 있다. 사용자는 디자인 뷰에서 튜닝 뷰로 스위칭할 수 있다. 튜닝 파라미터를 제어하기 위한 패널은 조정된 특성에 기초하여 자동으로 채워질 수 있다. 오디오 파이프 라인 구성은 또한 확장된 튜닝 프로토콜을 통해 증폭기로 발송될 수 있다. 블록들 (611)에 의해 표현되는 특정 객체는 블록 (611)을 클릭하거나 터치함으로써 선택될 수 있다. 선택된 객체에 관한 스크린이 선택에 응답하여 제시될 수 있다. 이러한 스크린의 예가 도 6h에 예시된다.
도 6f는 시스템 (100)의 예시적인 데이터베이스 패널 (612)을 예시한다. DSP 데이터베이스 (102)는 다양한 알고리즘을 포함할 수 있다. 타겟 디바이스 또는 증폭기에 따라, 데이터베이스 (105) 내에 저장된 알고리즘 형태의 오디오 프로세싱이 사전 선택되고 사전 필터링될 수 있다. 이러한 알고리즘이 타겟 디바이스에 자동으로 적용되는지 여부는 오디오 객체의 라이센싱(licensing) 및 가용성에 따라 달라질 수 있다.
도 6g는 시스템 (100)의 예시적인 특성 패널 (614)을 예시한다. 각각의 오디오 객체의 특성은 타겟 디바이스의 다른 사용 케이스(case)에 따라 조정 및 맞춤화될 수 있다. 도 6g에 도시된 이 예에서, 객체는 2 개의 채널 및 10 개의 엘리먼트 또는 바이쿼드로 구성된다. 신호 오디오 객체는 SFD에서도 조정될 수 있는 상이한 구성 모드를 가질 수 있다.
도 6h는 선택된 객체에 대한 예시적인 네이티브 패널(native panel)(616)을 예시한다. 튜닝 외에도, 패널 (611)은 확장된 디자인 기능으로 생성될 수도 있다. 구체적으로 도시되지는 않았지만, 시스템 (100)은 오디오 파이프 라인의 임의의 위치에 프로브 지점(probe point)을 포함할 수도 있다. 프로브 지점은 프로세서 (110)가 다양한 오디오 객체들 사이에서 프로세싱된 신호를 분석하게 할 수 있다. 이는 xTP 튜닝 프로토콜의 일부인 스트리밍 및 모니터링 명령을 통해 관리될 수 있다.
도 6i는 예시적인 SoC 패널 (618)을 예시한다. GTT (105)는 새로운 디바이스 및 새로운 디바이스에 대한 선택된 코어의 생성을 허용할 수 있다. 본 출원에 예시된 예는 멀티 코어 SoC에 대한 기본 구성을 예시한다.
도 6j는 도 6j의 커스텀 패널을 생성하기 위한 예시적인 시스템 기능 편집 패널 (622)을 예시한다. 사용자가 "네이티브 패널 개시(launch natvie panel)"을 선택한 것에 응답하여, 사용자는 커스텀 패널을 생성할 수 있다.
도 6k는 편집 패널 (622)에 응답하여 생성된 네이티브 패널 (624)의 예를 예시한다. 이 예시적인 네이티브 패널 (624)은 새로운 UX/UI 스타일 및 고객 및 사용자 요구에 기초하여 프로그래밍될 수 있지만, GTT (105)에 네이티브하다.
네이티브 패널과 커스텀 패널의 하이브리드인 패널이 생성될 수 있다. 패널은 사용자/고객 요구 사항에 맞춤화된 네이티브 피처를 포함할 수 있다.
도 6a-6k는 예시적인 사용자 인터페이스이고, 시스템은 사용자가 오디오 객체를 빌드할 수 있는 다양한 다른 사용자 인터페이스를 포함할 수 있음에 유의해야 한다.
도 7은 GTT (105)에 대한 예시적인 트랜잭션 프로세스(transaction process)(702)를 예시한다. 통합 DSP 데이터베이스 (102)는 쉽고 안전한 데이터 핸들링을 가능하게 한다. 트랜잭션 프로세스 (702)는 블록 (704)에서 시작할 수 있으며, 프로세서 (110)는 디바이스 선택을 수신한다. 디바이스 선택은 프로그래밍/시뮬레이션될 타겟 디바이스의 선택을 포함할 수 있다. 예를 들어, 타겟 디바이스 증폭기, 스피커, 마이크로폰 등을 포함할 수 있다. 예를 들어, 타겟 디바이스 홈 오디오용 스피커, 차량 오디오용 스피커, 전문 오디오 뿐만 아니라 스마트 폰, 태블릿, 퍼스널 컴퓨터 등과 같은 특정 애플리케이션을 가질 수 있다.
블록 (706)에서, 프로세서 (110)는 프로젝트의 선택을 수신할 수 있다. 프로젝트는 타겟 디바이스의 프로그래밍의 선택일 수 있다.
블록 (708)에서, 프로세서 (110)는 신호 흐름의 선택을 수신할 수 있다. 이것은 HMI에서의 다양한 사용자 입력에 기초하여 흐름 디자이너 (104)에 의해 수립될 수 있다. 더구나, 프로젝트는 다수의 신호 흐름을 가질 수 있다.
블록 (710)에서, 프로세서 (110)는 튜닝 데이터를 수신할 수 있다. 이것은 GTT (105)의 튜닝 블록 (106)의 일부로서 수립될 수 있다.
블록 (712)에서, 프로세서 (110)는 각각의 튜닝에 대해 다양한 측정을 프로세싱하고 측정 데이터를 저장할 수 있다. 이 측정 데이터는 사용자에 의해 튜닝, 디바이스, 사용된 알고리즘 등에 대한 조정을 하기 위해 사용될 수 있다. 측정 데이터는 다양한 범위의 오디오 측정 루틴을 간단하고 효율적으로 자동화하기 위해 타겟 디바이스에 직접 통신될 수 있다. 측정 데이터는 동일한 PC 또는 네트워크를 통해 액세스될 수 있다. 연결은 무엇보다도 Asio 또는 MME 사운드 카드를 통해 이루어질 수 있다.
블록 (714)에서, 프로세서 (110)는 디바이스 및 적용된 알고리즘과 관련하여 사후 측정 데이터를 저장 및/또는 디스플레이할 수 있다. 이는 프레임 워크를 시뮬레이션 한 후의 입력 신호에 기초하여 그리고 측정 데이터에 기초하여 출력 신호를 출력하는 것을 포함할 수 있다.
도 8은 전체 시스템 (100)의 예시적인 블록도를 예시한다. 시스템 (100)은 적어도 하나의 비즈니스 유닛 (130)를 포함할 수 있다. 도 8에 도시된 예에서, 제 1 비즈니스 유닛 (130a) 및 제 2 비즈니스 유닛 (130b)이 예시된다. 각각의 비즈니스 유닛 (130)에 액세스하고 시스템(100)을 이용할 수 있다. 하나 이상의 비즈니스 유닛 (130)은 도 1의 DSP 데이터베이스(102)에 유사한 비즈니스 데이터베이스 (132)와 연관될 수 있다. 예를 들어, 제 1 비즈니스 유닛 (130a)은 제 1 비즈니스 데이터베이스 (132a)와 연관될 수 있고, 제 2 비즈니스 유닛 (130b)은 제 2 비즈니스 데이터베이스 (132b)와 연관될 수 있다. 비즈니스 유닛 (130)은 다양한 DSP 알고리즘을 시스템에 제공할 수 있다. 이들 데이터베이스 (102)는 DSP 데이터베이스 (102)에 추가될 수 있다. 추가적으로 또는 대안적으로, 제 3 자 제품 및 알고리즘이 DSP 데이터베이스 (102)에 제공될 수도 있다.
비즈니스 데이터베이스 (132)가 DSP 데이터베이스 (102)에 업로드되게 함으로써, DSP 데이터베이스 (102)는 최신 버전의 다양한 알고리즘을 포함하도록 지속적으로 업데이트될 수 있다. xAF, AAT 및 GTT를 포함하는 시스템 (100)은 데이터베이스 (102)에 저장된 알고리즘 및 제품을 사용하여 다양한 제품의 빌드를 가능하게 하기 위해 DSP 데이터베이스 (102)에 액세스 할 수 있다.
다양한 제 3 자 (134)는 비즈니스 유닛 (130)에 추가하여, DSP 데이터베이스에 액세스할 수 있다. 제 3 자 (134)는 DSP 데이터베이스 (102)로부터 알고리즘을 수신하고 그 알고리즘을 로컬 제 3 자 데이터베이스 (136)에 저장할 수 있다. 일부 예에서, 제 3 자 (134)는 또한 DSP 데이터베이스 (102)에 업로드할 수 있다.
다양한 비즈니스 유닛 (130) 뿐만 아니라 제 3 자 (134)는 HMI (122)를 통해 다양한 알고리즘 및 제품을 풀링(pull), 적용 및 튜닝할 수 있다. HMI (122)는 다양한 오디오 제품을 빌드하는데 사용하기 용이한 구성 가능한 그리고 업데이트 제품의 라이브러리를 허용할 수 툴 및 시스템 (100) 및 데이터베이스 (102)를 쉽게 사용할 수 있도록 제공할 수 있다. HMI (122)는 본 출원에 예시되고 설명된 것과 유사한 스크린을 제공할 수 있다.
비즈니스 유닛 (130) 및 제 3 자 (134)는 시스템 (100)을 사용하기 전에 인증될 수 있다. 인증은 사용자의 검증에 응답하여 승인될 수 있다. 사용자의 검증은 시스템 (100)에 대한 가입에 의존할 수 있다. 검증은 제 3 자 계약 관계 또는 비즈니스 유닛에 의존할 수 있다. 예를 들어, 일부 제 3 자 공급 업체는 다른 공급 업체와 다른 액세스 레벨을 가질 수 있다.
도 9는 다수의 디바이스가 동시에 구성되는 GTT (105)의 예시적인 구성을 예시한다. 디바이스를 한 번에 전부 구성되고 조정될 수 있다. 제 1 디바이스 (124a)는 헤드 유닛일 수 있다. 제 2 디바이스 (124b)는 SoC를 갖는 증폭기일 수 있다. 디바이스들 (124)은 또한 소비자 또는 전문 오디오 애플리케이션에서 다수의 룸 구성에서 사용되는 증폭기일 수 있다. 디바이스 (124)는 또한 테이블, 전화, 랩탑 또는 PC 일 수 있다. 프로세서 (110)를 통한 시스템 (110)은 두 디바이스 (124)를 튜닝 및 캘리브레이션(calibrate)할 수 있다. 시스템 (100)은 다수의 코어, 프로세서, 디바이스 등을 핸들링할 수 있다. 프로세서(110)는 객체(611) 및 거기에 적용된 파라미터들에 기초하여 다양한 출력 신호를 시뮬레이션할 수 있다. 각각의 디바이스 (124)에 대한 통신은 AmpSrv2 애플리케이션을 통해 가능하게 될 수 있다. 각각의 디바이스 (124)는 새로운 클라이언트로서 핸들링될 수 있다. GTT (105)는 튜닝 및 흐름 파라미터에 대한 조정을 가능하게 할 수 있다.
AmpSrv2 애플리케이션은 다수의 물리적 인터페이스가 지원하는 가상 디바이스와 타겟 디바이스 간의 통신을 허용할 수 있다. 데이터는 글로벌하게 표준화되고 합의된 프로토콜을 통해 송수신될 수 있다. 일 예에서, 프로토콜은 xTP (확장 튜닝 프로토콜)일 수 있다. 이를 통해 디바이스로 데이터를 플래싱(flash)하고 오디오 프레임 워크로부터 메타 데이터를 판독할 수 있다. AmpSrv2 애플리케이션은 RS232, MOST, CAN, 이더넷 (소켓), 이더넷 (UDP 메시지)과 같은 다양한 인터페이스를 지원할 수 있다. 애플리케이션은 연결된 디바이스에 대한 진행중인 통신을 디스프레이, 분석 및 기록할 수 있다. 프로그램 및 데이터가 업데이트될 수 있다. 헤드 유닛 및 다른 차량 데이터의 시뮬레이션은 볼륨, 저음(bass), 고음(treble), 페이더(fader) 뿐만 아니라 속도, 스로틀 위치, rpm 등과 같은 차량 데이터를 포함할 수 있다. 애플리케이션은 라우드 스피커 점검, 판독 에러 로그 및 마이크로폰의 캘리브레이션을 포함한 진단 기능을 수행할 수도 있다.
도 10은 측정 루틴의 프로세스(1000)에 대한 예시적인 흐름도를 예시한다. 측정 루틴은 도 7과 관련하여 블록 (712)에서 논의된 측정 데이터 획득의 일부일 수 있다. 설명된 바와 같이, 이 측정 데이터는 사용자에 의해 튜닝, 디바이스, 사용된 알고리즘 등에 대한 조정을 위해 사용될 수 있다. 측정 데이터는 다양한 범위의 오디오 측정 루틴을 간단하고 효율적으로 자동화하기 위해 타겟 디바이스에 직접 통신될 수 있다. 측정 데이터는 동일한 PC 또는 네트워크를 통해 액세스될 수 있다. 연결은 무엇보다도 Asio 또는 MME 사운드 카드를 통해 이루어질 수 있다.
프로세스 (1000)는 클라이언트 측정 블록 (1002) 및 튜닝 블록 (1004)을 포함할 수 있다. 클라이언트 측정 블록 (1002)은 클라이언트에 의해 제공되는 프론트엔드(frontend) 측정을 포함할 수 있다. 튜닝 블록(1004)은 다른 측정치 예컨대, EQ 패널로부터의 측정치를 포함할 수 있다. 클라이언트 측정 블록(1002) 및 튜닝 블록 (1004)은 서로 통신할 수 있다. 튜닝 블록 (1004)은 제시된 것(present), 리콜(recall) 등을 송수신할 수 있다. 클라이언트 측정 블록 (1002)과 튜닝 블록 (1004) 사이에서 측정 선택, 트리거 이벤트, 측정 구성, 결과 등이 또한 송신될 수 있다.
프로세스 (1000)는 백엔드 (1010)와 통신하도록 구성된 미들웨어 인터페이스 (1008)를 포함할 수 있다. 측정 결과, 프리셋 등은 GTT (105)로부터 백엔드(backend) (1010)로 송신될 수 있다. 백엔드 (1010)는 프로세서 (110)에 의해 수행되는 프로세싱일 수 있다. 예를 들어, 가용 가능한 측정 리스트 (1012) 및 사용자에 의해 개시될 수 있는 생성된 측정 인스턴스 (1014)는 블록 (1020)에서 측정을 선택하기 위해 결합될 수 있다. 측정 인터페이스 (1022)는 측정 결과를 사용자에게 제시할 수 있다.
도 11은 예시적인 측정 패널 (1102)을 예시한다. 도 11의 측정 패널 (1102)은 6 개의 마이크로폰을 갖는 자동차 오디오 측정을 위한 예시적인 패널을 예시한다. 신호 흐름에 따라 그리고 파이프 라인에 오디오 객체의 파라미터를 직접 제어하여 측정이 자동화될 수 있다.
도 12는 예시적인 링크 패널(linking panel) (1202)을 예시한다. 링크 패널은 직관적인 UX/UI 개념을 갖는 상태 변수가 링크될 수 있게 한다.
따라서, 복잡한 시스템에서의 오디오 기능의 상호 운용성은 상술된 시스템을 통해 촉진될 수 있다. 이 스마트하고 심리스(seamless)의 직관적인 솔루션을 통해 오디오 알고리즘 데이터베이스 및 DSP 프레임 워크를 쉽게 구성하고 다양한 알고리즘을 조정 및 제어할 수 있다. 시스템을 통해 최고의 유연성과 시장에서 효율적으로 고품질 오디오 제품을 제작할 수 있다. 시스템은 다양한 하드웨어에서 빠른 디자인, 빠른 프로토 타이핑 및 빠른 출시 기간을 보장한다.
시스템은 제 3 자 요구에 맞도록 조정될 수 있고 다양한 비즈니스 모델을 가능하게 한다. HaloSonic을 사용하면 제 3 자 솔루션을 포함한 사운드 관리를 통합할 수 있다. 이는 배출 잡음 생성, 배출 제거, 능동 노이즈 진동 마운트 알고리즘 및 포괄적인 키 튜닝 툴 기능을 포함할 수 있다. NVH와 오디오 흐름이 원활하게 연동되어 각각의 도메인의 성능을 최대화한다.
하드웨어 및 운영 체제 (OS) 추상화 계층으로 인해 어느 곳에서나 모든 하드웨어를 신속하게 조정하고 최적화할 수 있다. 시스템은 스마트 폰의 강력한 프로세서에 대한 레거시 하드웨어 뿐만 아니라 헤드 유닛 또는 증폭기에서 실행될 수 있다. 이 툴은 PC, 스마트 폰 또는 태블릿에서 실행될 수 있으며, 하나의 단일 GTT 인스턴스로 실행되는 멀티 인스턴스, 멀티 코어, 멀티 프로세서, 멀티 디바이스를 지원할 수 있다.
모든 알고리즘과 객체는 표준화된 인터페이스를 사용할 수 있으며, 일관된 품질 및 상호 운용성을 보장하기 위해 인증 절차에 의해 관리될 수 있다. 제 3 자 알고리즘이 쉽게 통합될 수 있다. 인증 프로세스는 제 3 자 알고리즘이 사전 정의된/조정된 품질 표준을 준수하는 것을 보장한다.
완성된 사운드 튜닝은 다중 물리 시뮬레이션, 가상 음향, 청각화 및 가상 증폭기 솔루션을 기반으로 사실상 수행될 수 있다. 이를 통해 실제 제품 및/또는 증폭기가 아직 존재하지 않는 개발 사이클의 초기 단계에서 사운드 튜닝이 가능하다.
시스템은 프로세서 MIPS 및 메모리에 대한 실시간 프로파일링으로 빠른 프로토 타이핑을 가능하게 한다. 새로운 디자인은 프로젝트 개발 단계 초기에 테스트, 데모 및 벤치마킹될 수 있다.
본 출원에 기술된 컴퓨팅 디바이스는 일반적으로 컴퓨터 실행 가능한 명령을 포함하고, 여기서 명령은 상기 열거된 것과 같은 하나 이상의 컴퓨팅 또는 하드웨어 디바이스에 의해 실행될 수 있다. 컴퓨터 실행 가능 명령은 Java™, C, C ++, 비주얼 베이직(Visual Basic), 자바 스크립트(Java Script), 펄(Perl) 등을 포함하지만 이에 한정되지 않는 다양한 프로그래밍 언어 및/또는 기술을 사용하여 생성된 컴퓨터 프로그램으로부터 컴파일되거나 해석될 수 있다. 일반적으로, 프로세서 (예를 들어, 마이크로 프로세서)는 예를 들어 메모리, 컴퓨터 판독 가능 매체 등으로부터 명령을 수신하고, 이들 명령을 실행함으로써, 본 출원에 설명된 하나 이상의 프로세스를 포함하는 하나 이상의 프로세스를 수행한다. 이러한 명령 및 다른 데이터는 다양한 컴퓨터 판독 가능 매체를 사용하여 저장 및 송신될 수 있다.
예시적인 실시예가 상기에서 설명되었지만, 이들 실시예는 본 발명의 모든 가능한 형태를 설명하도록 의도된 것은 아니다. 오히려, 본 출원에서 사용된 단어는 제한이 아니라 설명의 단어이며, 본 발명의 사상 및 범위를 벗어나지 않고 다양한 변경이 이루어질 수 있음이 이해된다. 추가적으로, 다양한 구현 실시예의 특징은 본 발명의 추가 실시예를 형성하기 위해 결합될 수 있다.

Claims (20)

  1. 오디오 프로세싱 시스템(audio processing system)에 있어서,
    복수의 오디오 신호 프로세싱 알고리즘 및 오디오 컴포넌트를 보유하도록 구성된 적어도 하나의 메모리; 및
    프로세서를 갖는 서버를 포함하되, 상기 프로세서는
    상기 신호 프로세싱 알고리즘 및 오디오 컴포넌트의 적어도 일부를 디스플레이하는 인터페이스를 제공하고;
    상기 오디오 컴포넌트 중 적어도 하나의 사용자 선택을 수신하고;
    상기 인터페이스를 통해 적어도 하나의 선택된 오디오 컴포넌트를 제시하고;
    상기 적어도 하나의 선택된 오디오 컴포넌트에 적용하기 위해 적어도 하나의 신호 프로세싱 알고리즘의 사용자 선택을 수신하고;
    상기 하나 이상의 선택된 알고리즘을 상기 하나 이상의 선택된 오디오 컴포넌트에 적용하고; 및
    상기 인터페이스를 통해 적어도 하나의 선택된 알고리즘 및 적어도 하나의 선택된 오디오 컴포넌트의 측정을 제공하도록 구성된, 시스템.
  2. 제 1 항에 있어서, 상기 프로세서는 상기 적어도 하나의 선택된 오디오 컴포넌트에 기초하여 오디오 시스템 프레임 워크(framework)를 생성하고 상기 인터페이스를 통해 상기 오디오 시스템 프레임 워크의 적어도 일부의 시각적 표현을 제시하도록 추가로 구성된, 시스템.
  3. 제 2 항에 있어서, 상기 프로세서는 또한 타겟 디바이스의 선택을 수신하고 상기 오디오 시스템 프레임 워크를 상기 선택된 타겟 디바이스에 적용하도록 구성된, 시스템.
  4. 제 3 항에 있어서, 상기 타겟 디바이스는 복수의 타겟 디바이스를 포함하고, 상기 측정은 각각의 타겟 디바이스에 대해 동시에 제공되는, 시스템.
  5. 제 1 항에 있어서, 상기 적어도 하나의 선택된 오디오 프로세싱 알고리즘은 가상 증폭기(virtual amplifier)를 포함하는, 시스템.
  6. 제 1 항에 있어서, 상기 적어도 하나의 오디오 프로세싱 알고리즘은 상기 오디오 컴포넌트를 튜닝하기 위한 튜닝 프로토콜을 포함하는, 시스템.
  7. 제 1 항에 있어서, 상기 프로세서는 또한 상기 인터페이스를 통해 맞춤화된 인터페이스를 생성하기 위한 옵션을 제시하도록 구성된, 시스템.
  8. 제 1 항에 있어서, 상기 프로세서는 상기 적어도 하나의 선택된 오디오 컴포넌트를 통한 신호의 흐름을 나타내는 신호 흐름 선택을 수신하도록 추가로 구성된, 시스템.
  9. 제 1 항에 있어서, 상기 프로세서는 사용자 선택을 수신하고 상기 인터페이스를 제시하기 전에 사용자를 인증하도록 추가로 구성된, 시스템.
  10. 제 1 항에 있어서, 상기 프로세서는 상기 적어도 하나의 선택된 알고리즘 및 상기 적어도 하나의 선택된 오디오 컴포넌트의 측정에 기초하여 오디오 출력을 시뮬레이션하고 상기 인터페이스를 통해 상기 시뮬레이션된 출력을 제시하도록 추가로 구성된, 시스템.
  11. 오디오 프로세싱 시스템을 위한 방법으로서,
    복수의 신호 프로세싱 알고리즘 및 오디오 컴포넌트를 디스플레이하는 인터페이스를 제시하는 단계;
    상기 오디오 컴포넌트 중 적어도 하나의 사용자 선택을 수신하는 단계;
    상기 인터페이스를 통해 상기 적어도 하나의 선택된 오디오 컴포넌트를 제시하는 단계;
    상기 적어도 하나의 선택된 오디오 컴포넌트에 적용하기 위해 적어도 하나의 신호 프로세싱 알고리즘의 사용자 선택을 수신하는 단계;
    상기 적어도 하나의 선택된 알고리즘을 상기 적어도 하나의 선택된 오디오 컴포넌트에 적용하는 단계; 및
    상기 인터페이스를 통해 상기 적어도 하나의 선택된 알고리즘 및 상기 적어도 하나의 선택된 오디오 컴포넌트의 측정을 제공하는 단계를 포함하는, 방법.
  12. 제 11 항에 있어서, 상기 적어도 하나의 선택된 오디오 컴포넌트에 기초하여 오디오 시스템 프레임 워크(framework)를 생성하는 단계 및 상기 인터페이스를 통해 상기 오디오 시스템 프레임 워크의 적어도 일부의 시각적 표현을 제시하는 단계를 더 포함하는, 방법.
  13. 제 12 항에 있어서, 타겟 디바이스의 선택을 수신하는 단계 및 상기 오디오 시스템 프레임 워크를 상기 선택된 타겟 디바이스에 적용하는 단계를 더 포함하는, 방법.
  14. 제 13 항에 있어서, 상기 타겟 디바이스는 복수의 타겟 디바이스를 포함하고, 상기 측정은 각각의 타겟 디바이스에 대해 동시에 제공되는, 방법.
  15. 제 11 항에 있어서, 상기 적어도 하나의 오디오 프로세싱 알고리즘은 가상 증폭기(virtual amplifier)를 포함하는, 방법.
  16. 제 11 항에 있어서, 상기 적어도 하나의 오디오 프로세싱 알고리즘은 상기 오디오 컴포넌트를 튜닝하기 위한 튜닝 프로토콜을 포함하는, 방법.
  17. 제 11 항에 있어서, 맞춤화된 인터페이스를 생성하기 위한 옵션을 제시하는 단계를 포함하는, 방법.
  18. 제 11 항에 있어서, 상기 적어도 하나의 선택된 오디오 컴포넌트를 통한 신호의 흐름을 나타내는 신호 흐름 선택을 수신하는 단계를 더 포함하는, 방법.
  19. 제 11 항에 있어서, 사용자 선택을 수신하고 상기 인터페이스를 제시하기 전에 사용자를 인증하는 단계를 더 포함하는, 방법.
  20. 제 11 항에 있어서, 상기 적어도 하나의 선택된 알고리즘 및 상기 적어도 하나의 선택된 오디오 컴포넌트의 측정에 기초하여 오디오 출력을 시뮬레이션하는 단계 및 상기 인터페이스를 통해 상기 시뮬레이션된 출력을 제시하는 단계를 더 포함하는, 방법.
KR1020207017212A 2017-12-29 2018-12-31 어드밴스드 오디오 프로세싱 시스템 KR20200101917A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762611682P 2017-12-29 2017-12-29
US62/611,682 2017-12-29
PCT/IB2018/060746 WO2019130286A1 (en) 2017-12-29 2018-12-31 Advanced audio processing system

Publications (1)

Publication Number Publication Date
KR20200101917A true KR20200101917A (ko) 2020-08-28

Family

ID=65352060

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207017212A KR20200101917A (ko) 2017-12-29 2018-12-31 어드밴스드 오디오 프로세싱 시스템

Country Status (6)

Country Link
US (2) US11900008B2 (ko)
EP (1) EP3732561A1 (ko)
JP (2) JP7399091B2 (ko)
KR (1) KR20200101917A (ko)
CN (1) CN111566613A (ko)
WO (1) WO2019130286A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117652159A (zh) * 2021-07-15 2024-03-05 索尼集团公司 信息处理装置、信息处理方法和程序

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6490359B1 (en) * 1992-04-27 2002-12-03 David A. Gibson Method and apparatus for using visual images to mix sound
US7859533B2 (en) * 2005-04-05 2010-12-28 Yamaha Corporation Data processing apparatus and parameter generating apparatus applied to surround system
US9484061B2 (en) * 2007-10-23 2016-11-01 Adobe Systems Incorporated Automatically correcting audio data
US7805286B2 (en) 2007-11-30 2010-09-28 Bose Corporation System and method for sound system simulation
JP5092817B2 (ja) 2008-03-11 2012-12-05 ヤマハ株式会社 音響機器と、その音響機器を制御するための制御装置とを接続したネットワークにより構成される音響システム
EP2101476A3 (en) 2008-03-11 2014-08-20 Yamaha Corporation Controlling and monitoring of a sound system
JP5454271B2 (ja) 2010-03-19 2014-03-26 ヤマハ株式会社 音響信号処理装置
GB201204324D0 (en) * 2012-03-12 2012-04-25 Jaguar Cars Audio system
US9160294B2 (en) 2013-03-05 2015-10-13 Thomas Alexander Allen Virtual pre-amplifier and effects system and methods for customizing and using the same in live performances
US20160239255A1 (en) * 2015-02-16 2016-08-18 Harman International Industries, Inc. Mobile interface for loudspeaker optimization
US9924291B2 (en) 2016-02-16 2018-03-20 Sony Corporation Distributed wireless speaker system
US10140087B2 (en) * 2016-03-21 2018-11-27 Access Analog, Llc Remote streaming audio processing system
US10199070B2 (en) * 2017-04-03 2019-02-05 Adobe Inc. Digital audio data user interface customization based on user expertise, content type, or testing

Also Published As

Publication number Publication date
JP7399091B2 (ja) 2023-12-15
WO2019130286A1 (en) 2019-07-04
JP2023179770A (ja) 2023-12-19
US20240069852A1 (en) 2024-02-29
US11900008B2 (en) 2024-02-13
CN111566613A (zh) 2020-08-21
US20200341725A1 (en) 2020-10-29
EP3732561A1 (en) 2020-11-04
JP2021509552A (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
Grimm et al. The master hearing aid: A PC-based platform for algorithm development and evaluation
US8908875B2 (en) Electronic device with digital reverberator and method
CN106576203B (zh) 确定和使用房间优化传输函数
US20150264505A1 (en) Wireless exchange of data between devices in live events
US20240069852A1 (en) Advanced audio processing system
CN104768121A (zh) 响应于多通道音频通过使用至少一个反馈延迟网络产生双耳音频
US9711165B2 (en) Process and associated system for separating a specified audio component affected by reverberation and an audio background component from an audio mixture signal
US20120016640A1 (en) Modelling wave propagation characteristics in an environment
Melchior Investigations on spatial sound design based on measured room impulse responses
US10299059B1 (en) Graphical monitor mixing system that uses a stage plot to create spatially accurate sound
McArthur et al. A survey of 3D audio through the browser: practitioner perspectives
CN111385726B (zh) 音频测试系统、方法及计算机可读存储介质
Thomas Wayverb: A graphical tool for hybrid room acoustics simulation
Husung et al. Acoustical investigations in virtual environments for a car passing application
Bergner et al. Application of wave field synthesis in virtual acoustic engineering
Eckel et al. StiffNeck: The Electroacoustic Music Performance Venue in a Box
CN103916771A (zh) 基于多dsp处理器的有源一体化扬声器的遥控方法
WO2020073565A1 (zh) 音频处理方法和装置
Strübig Room Reverberation Simulation using Parametrised Feedback Delay Networks
Krüger et al. RTPROC: A system for rapid real-time prototyping in audio signal processing
Bleakney et al. Multi Channel Audio Environment
CN103916777A (zh) 智能降噪有源音箱的控制方法
CN103916741A (zh) 基于多数字信号处理器的有源一体化扬声器的遥控方法
CN103916761A (zh) 具有多数字信号处理器的有源音箱的控制方法
CN103916759A (zh) 具有多dsp系统的有源一体化音箱的控制方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal