KR20240050247A - 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치 - Google Patents

객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치 Download PDF

Info

Publication number
KR20240050247A
KR20240050247A KR1020230044165A KR20230044165A KR20240050247A KR 20240050247 A KR20240050247 A KR 20240050247A KR 1020230044165 A KR1020230044165 A KR 1020230044165A KR 20230044165 A KR20230044165 A KR 20230044165A KR 20240050247 A KR20240050247 A KR 20240050247A
Authority
KR
South Korea
Prior art keywords
distance
audio
minimum distance
gain
sound source
Prior art date
Application number
KR1020230044165A
Other languages
English (en)
Inventor
이용주
유재현
장대영
박수영
정영호
강경옥
이태진
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US18/484,117 priority Critical patent/US20240129682A1/en
Publication of KR20240050247A publication Critical patent/KR20240050247A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)

Abstract

객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치가 개시된다. 본 발명의 일실시예에 따른 객체 오디오 렌더링 방법은 비트스트림을 식별하는 동작, 상기 비트스트림에 기초하여, 객체 음원의 기준 거리를 결정하는 동작, 상기 기준 거리에 기초하여, 거리에 따른 감쇠를 적용하기 위한 최소 거리를 결정하는 동작, 상기 기준 거리 및 상기 최소 거리에 기초하여, 상기 비트스트림에 포함된 객체 오디오의 이득을 결정하는 동작을 포함할 수 있다.

Description

객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치 {METHOD OF RENDERING OBJECT-BASED AUDIO, AND ELECTRONIC DEVICE PERPORMING THE METHODS}
본 발명은 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치에 관한 것이다.
오디오 서비스는 모노, 스테레오 서비스에서 5.1 7.1 채널 등을 거쳐 상향 채널을 포함하는 9.1, 11.1, 10.2, 13.1, 15.1, 22.2 채널과 같은 다채널 서비스로 변화를 해왔다.
한편 기존의 채널 서비스와 다르게 하나의 음원 소스를 객체로 간주하고, 객체 오디오 신호와 객체 오디오의 위치, 크기 등과 같은 객체 오디오 관련 정보를 저장/전송/재생하는 객체기반 오디오 서비스 기술도 개발이 되고 있다.
위에서 설명한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다.
다양한 실시예들에 따른 객체 오디오 렌더링 방법 및 전자 장치는 공간 음향 재현을 위한 객체 오디오의 렌더링에 있어서, 거리에 따른 감쇠 효과를 계산할 수 있다.
다양한 실시예들에 따른 객체 오디오 렌더링 방법 및 전자 장치는 객체 오디오의 이득을 결정하기 위한 기준 거리가 거리에 따른 감쇠 효과의 적용 여부를 결정하기 위한 최소 거리보다 작은 경우, 기준 거리 또는 최소 거리를 설정하고, 객체 오디오의 이득을 결정하여, 객체 오디오를 렌더링할 수 있다.
다양한 실시예들에 따른 객체 오디오 렌더링 방법은 비트스트림을 식별하는 동작, 상기 비트스트림에 기초하여, 객체 음원의 기준 거리를 결정하는 동작, 상기 기준 거리에 기초하여, 거리에 따른 감쇠를 적용하기 위한 최소 거리를 결정하는 동작, 상기 기준 거리 및 상기 최소 거리에 기초하여, 상기 비트스트림에 포함된 객체 오디오의 이득을 결정하는 동작을 포함할 수 있다.
상기 최소 거리를 결정하는 동작은, 상기 기준 거리가 상기 최소 거리의 설정값보다 큰 경우, 상기 최소 거리를 상기 설정값으로 결정할 수 있다.
상기 최소 거리를 결정하는 동작은, 상기 기준 거리가 상기 최소 거리의 설정값 이하인 경우, 상기 기준 거리를 상기 최소 거리로 결정할 수 있다.
상기 객체 오디오의 이득을 결정하는 동작은, 상기 객체 음원의 거리가 상기 최소 거리 이하인 경우, 상기 객체 오디오의 이득을 설정된 크기로 결정할 수 있다.
상기 객체 오디오의 이득을 결정하는 동작은, 상기 객체 음원의 거리가 상기 최소 거리보다 큰 경우, 상기 객체 음원의 거리와 상기 기준 거리의 비에 기초하여, 상기 객체 오디오의 이득을 결정할 수 있다.
다양한 실시예들에 따른 객체 오디오 렌더링 방법은 비트스트림을 식별하는 동작, 상기 비트스트림에 기초하여, 거리에 따른 감쇠를 적용하기 위한 최소 거리 이상이 되도록 객체 음원의 기준 거리를 결정하는 동작 및 상기 최소 거리 및 상기 기준 거리에 기초하여, 상기 비트스트림에 포함된 객체 오디오의 이득을 결정하는 동작을 포함할 수 있다.
상기 객체 음원의 기준 거리를 결정하는 동작은, 상기 최소 거리 이상, 설정된 최대 기준 거리 이하의 범위 내에서 상기 기준 거리를 결정할 수 있다.
상기 객체 오디오의 이득을 결정하는 동작은, 상기 객체 음원의 거리가 상기 최소 거리 이하인 경우, 상기 객체 오디오의 이득을 설정된 크기로 결정할 수 있다.
상기 객체 오디오의 이득을 결정하는 동작은, 상기 객체 음원의 거리가 상기 최소 거리보다 큰 경우, 상기 객체 음원의 거리와 상기 기준 거리의 비에 기초하여, 상기 객체 오디오의 이득을 결정할 수 있다.
다양한 실시예들에 따른 전자 장치는 프로세서를 포함하고, 상기 프로세서는, 비트스트림을 식별하고, 상기 비트스트림에 기초하여, 객체 음원의 기준 거리를 결정하고, 상기 기준 거리에 기초하여, 거리에 따른 감쇠를 적용하기 위한 최소 거리를 결정하고, 상기 기준 거리 및 상기 최소 거리에 기초하여, 상기 비트스트림에 포함된 객체 오디오의 이득을 결정할 수 있다.
상기 프로세서는, 상기 기준 거리가 상기 최소 거리의 설정값보다 큰 경우, 상기 최소 거리를 상기 설정값으로 결정할 수 있다.
상기 프로세서는, 상기 기준 거리가 상기 최소 거리의 설정값 이하인 경우, 상기 기준 거리를 상기 최소 거리로 결정할 수 있다.
상기 프로세서는, 상기 객체 음원의 거리가 상기 최소 거리 이하인 경우, 상기 객체 오디오의 이득을 설정된 크기로 결정할 수 있다.
상기 프로세서는, 상기 객체 음원의 거리가 상기 최소 거리보다 큰 경우, 상기 객체 음원의 거리와 상기 기준 거리의 비에 기초하여, 상기 객체 오디오의 이득을 결정할 수 있다.
다양한 실시예들에 따르면, 기준 거리(reference distance), 최소 거리(minimum distance)를 이용하여, 객체 음원의 거리에 따른 감쇠가 적용된 객체 오디오의 이득을 계산할 때, 기준 거리가 최소 거리보다 작은 경우 일반적인 거리에 따른 감쇠 효과를 적용한 결과와 다른 결과가 나타나는 문제를 해결할 수 있다.
도 1은 일 실시예에 따른 렌더링 아키텍쳐를 나타낸 도면이다.
도 2는 다양한 실시예들에 따른 오디오 신호 처리 장치의 제어 워크플로우 및 렌더링 워크플로우를 나타낸 도면이다.
도 3은 다양한 실시예들에 따른 렌더러 파이프라인을 나타낸 도면이다.
도 4는 일 실시예에 따른 직접음(direct sound), 초기 반사음(early reflection) 및 잔향(late reverberation)의 임펄스 응답(impulse response)을 나타낸 도면이다.
도 5는 다양한 실시예들에 따른 전자 장치의 개략적인 블록도이다.
도 6은 다양한 실시예들에 따른 객체 오디오 렌더링 방법의 동작 흐름도이다.
도 7은 다양한 실시예들에 따른 최소 거리를 결정하는 동작을 나타낸 도면이다.
도 8은 다양한 실시예들에 따른 객체 오디오 렌더링 방법의 동작 흐름도이다.
도 9는 다양한 실시예들에 따른 전자 장치가 객체 오디오의 이득을 결정하는 동작을 나타낸 도면이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 실시예에 따른 렌더링 아키텍쳐(100)를 나타낸 도면이다.
일례로, 렌더러(renderer)(예: 도 1의 MPEG-I Renderer)는 48kHz의 글로벌 샘플링 주파수로 작동할 수 있다. 다른 샘플링 주파수를 사용하는 입력 PCM(Pulse-Code Modulation) 오디오 데이터는 처리 전에 48kHz로 다시 샘플링될 수 있다.
도 1은 렌더러가 MPEG-H 3DA 코딩 오디오 엘리먼트 비트스트림(MPEG-H 3DA coded Audio Element bitstreams), 메타데이터 MPEG-I 비트스트림 및 기타 인터페이스와 같은 외부 장치에 어떻게 연결되는지를 나타낼 수 있다.
예를 들어, MPEG-H 3DA로 코딩된 오디오 엘리먼트(예: MPEG-H 3DA Audio Bitstream)는 MPEG-H 3DA 디코더(decoder)에 의해 디코딩될 수 있다. 디코딩된 오디오는 MPEG-I 비트스트림(MPEG-I Bitstream)과 함께 렌더링될 수 있다. MPEG-I 비트스트림은 렌더러에서 사용하는 오디오 장면 디스크립션(Audio Scene description) 및 기타 메타데이터를 렌더러로 전달할 수 있다. 또한, 렌더러에는 소비 환경 정보(consumption environment information), 재생 중 장면 업데이트(scene updates during playback), 사용자 상호작용 및 사용자 위치 정보에 액세스할 수 있는 인터페이스가 입력될 수 있다.
렌더러는 사용자가 장면의 엔티티(entities in the scene)와 직접 상호작용할 수 있는 6DoF 오디오 장면의 실시간 청각화(real-time auralization)를 제공할 수 있다. 6DoF 오디오 장면의 실시간 청각화를 위하여, 다중 스레드 소프트웨어 아키텍처(multithreaded software architecture)는 여러 워크플로우들 및 컴포넌트들로 나뉠 수 있다. 렌더러 컴포넌트가 포함된 블록 다이어그램은 도 2에 도시될 수 있다. 렌더러는 VR 및 AR 장면의 렌더링을 지원할 수 있다. 렌더러는 VR 및 AR 장면을 위한 렌더링 메타데이터 및 오디오 장면 정보를 비트스트림으로부터 획득할 수 있다. 예를 들어, AR 장면의 경우, 렌더러는 재생 중에 AR 장면을 위한 청취 공간 정보(listening space information)를 LSDF 파일로 획득될 수 있다.
도 2는 다양한 실시예들에 따른 오디오 신호 처리 장치의 제어 워크플로우 및 렌더링 워크플로우(200)를 나타낸 도면이다.
일 실시예에 따르면, 오디오 신호 처리 장치는 객체 오디오 신호 및 메타 데이터를 이용하여, 객체 오디오의 렌더링을 수행할 수 있다. 예를 들어, 오디오 신호 처리 장치는 렌더러(renderer)를 의미할 수 있다.
예를 들어, 오디오 신호 처리 장치는 사용자가 음향 장면(scene)의 엔티티(entity)와 직접 상호 작용할 수 있는 6 DoF(degree of freedom) 오디오 장면의 실시간 청각화를 수행할 수 있다. 오디오 신호 처리 장치는 VR(virtual reality) 또는 AR(augmented reality) 장면의 렌더링을 수행할 수 있다. VR 또는 AR 장면의 경우, 오디오 신호 처리 장치는 메타 데이터 및 오디오 장면 정보를 비트스트림(bitstream)으로부터 획득할 수 있다. AR 장면의 경우, 오디오 신호 처리 장치는 사용자가 위치한 청취 공간 정보를 LSDF(Listener Space Description Format) 파일로부터 획득할 수 있다.
오디오 신호 처리 장치는 도 1과 같이, 제어 워크플로우(control workflow)와 렌더링 워크플로우(rendering workflow)를 통해 음향을 출력(audio output)할 수 있다.
제어 워크플로우는 렌더러의 진입 포인트이며, 오디오 신호 처리 장치는 제어 워크플로우를 통해 외부 시스템 및 구성 요소와의 인터페이스를 수행할 수 있다. 오디오 신호 처리 장치는 제어 워크플로우에서 장면 컨트롤러(scene controller)를 이용하여, 6 DoF 장면의 엔티티들의 상태를 조정하고, 대화형 인터페이스를 구현할 수 있다.
오디오 신호 처리 장치는 장면 상태(scene state)를 제어할 수 있다. 장면 상태는 오디오 요소, 변환/앵커 및 기하학(geometry)을 포함한 모든 장면 개체(scene object)의 현재 상태를 반영할 수 있다. 오디오 신호 처리 장치는 렌더링이 시작되기 전에 전체 장면의 모든 개체를 생성하고, 모든 개체의 메타 데이터가 재생 시작 시 원하는 장면 구성을 반영한 상태로 업데이트 할 수 있다.
오디오 신호 처리 장치는 스트림 매니저(stream manager)를 이용하여, 장면 상태의 오디오 요소와 연결된 오디오 스트림에 접근하기 위해, 렌더러 구성 요소에 대한 통합 인터페이스를 제공할 수 있다. 오디오 스트림은 PCM(Pulse-code modulation) 플로트(float) 샘플로 입력될 수 있다. 오디오 스트림의 소스는 예를 들어, 디코딩된 MPEG-H 오디오 스트림 또는 로컬 캡쳐 오디오일 수 있다.
클럭(clock)은 렌더러 구성 요소에 대한 인터페이스를 제공하여, 현재 장면 시간을 초 단위로 제공할 수 있다. 클럭 입력은 예를 들어, 다른 하위 시스템의 동기화 신호 또는 렌더러의 내부 클럭일 수 있다.
렌더링 워크플로우는 오디오 출력 신호(audio output)을 생성할 수 있다. 예를 들어, 오디오 출력 신호는 PCM 플로트일 수 있다. 렌더링 워크플로우는 제어 워크플로우와 분리될 수 있다. 6 DoF 장면의 모든 변경 사항을 전달하기 위한 장면 상태와 입력 오디오 스트림을 제공하기 위한 스트림 매니저는 두 워크 플로우(제어 워크플로우 및 렌더링 워크플로우) 간의 통신을 위해, 렌더링 워크플로우에 접근할 수 있다.
렌더러 파이프라인(renderer pipeline)은 현재의 장면 상태를 기반으로, 스트림 매니저에서 제공하는 입력 오디오 스트림을 청각화 할 수 있다. 예를 들어, 렌더링은 개별 렌더러 단계가 독립적인 지각 효과를 구현하고, 이전 및 후속 단계의 처리를 사용하도록 순차적인 파이프라인에 따라 수행될 수 있다.
스페이셜라이저(spatializer)는 렌더러 파이프라인을 종료하고, 렌더러 단계의 출력을 원하는 재생 방법(예: 바이노럴 또는 라우드 스피커 재생)에 적합한 단일 출력 오디오 스트림으로 청각화 할 수 있다.
리미터(limiter)는 청각화된 출력 신호에 대한 클리핑(clipping) 보호 기능을 제공할 수 있다.
도 3은 다양한 실시예들에 따른 렌더러 파이프라인(300)을 나타낸 도면이다.
예를 들어, 렌더러 파이프라인의 각 렌더러 단계는 설정된 순서에 따라 수행될 수 있다. 예를 들어, 렌더러 파이프라인은 방 할당(room assignment), 잔향(reverb), 포털(portal), 초기 반사음(early reflection), 볼륨 음원 발굴(discover SESS), 장애물(occlusion)(또는 obstruction), 회절(diffraction), 메타 데이터 관리(metadata culling), 다중 볼륨 음원(heterogeny. extent), 지향성(directivity), 거리(distance), 등화기(EQ), 페이드(fade), 단일 HOA(SP HOA, single point higher order ambisonics), 균일 볼륨 음원(homogen. extent), 패너(panner), 다중 HOA(MP HOA, multi point higher order ambisonics) 단계를 포함할 수 있다.
예를 들어, 오디오 신호 처리 장치는 렌더링 워크플로우(예: 도 2의 렌더링 워크플로우)에서 객체 오디오와 청취자 사이의 거리에 따라, 객체 오디오의 이득(gain), 전달 지연(propagation delay), 매질 흡수(medium absorption)을 렌더링 할 수 있다. 예를 들어, 오디오 신호 처리 장치는 렌더러 파이프라인의 거리 단계에서, 객체 오디오의 이득, 전달 지연 및 매질 흡수 중 적어도 하나를 결정할 수 있다.
오디오 신호 처리 장치는 거리 단계에서 각 RI(render item)와 청취자 사이의 거리를 계산하고, 등속 모델을 기반으로 객체 오디오 스트림의 업데이트 루틴 호출 사이의 거리를 보간할 수 있다. RI는 렌더러 파이프라인 내의 모든 오디오 요소(audio element)를 의미할 수 있다.
오디오 신호 처리 장치는 물리적으로 정확한 지연과 도플러 효과를 생성하기 위해 RI와 관련된 신호에 전달 지연을 적용할 수 있다.
오디오 신호 처리 장치는 거리 감쇠(distance attenuation)을 적용하여, 소스 에너지의 기하학적 확산으로 인한 오디오 요소의 주파수 독립적 감쇠를 모델링할 수 있다. 오디오 신호 처리 장치는 기하학적으로 확장된 음원의 거리 감쇠를 위해, 음원의 크기를 고려한 모델을 사용할 수 있다.
오디오 신호 처리 장치는 공기의 흡수 특성과 관련된 오디오 요소의 주파수 종속 감쇠를 모델링하여, 객체 오디오에 매질 흡수를 적용할 수 있다.
오디오 신호 처리 장치는 객체 오디오와 청취자의 거리에 따라, 거리 감쇠를 적용하여 객체 오디오의 이득을 결정할 수 있다. 오디오 신호 처리 장치는 음원의 크기를 고려한 파라메트릭 모델을 사용하여, 기하학적 확산으로 인한 거리 감쇠를 적용할 수 있다.
6 DoF 환경에서 오디오를 재상할 때, 거리에 따라 객체 오디오의 사운드 레벨이 달라질 수 있고, 거리에 반비례하여 크기가 감소하는 1/r 법칙에 따라 객체 오디오의 크기를 결정할 수 있다. 예를 들어, 오디오 신호 처리 장치는 객체 오디오와 청취자 사이의 거리가 최소 거리보다 크고, 최대 거리보다 작은 영역에서 1/r 법칙에 따라 객체 오디오의 크기를 결정할 수 있다. 최소 거리 및 최대 거리는, 거리에 따른 감쇠, 전달 지연, 공기 흡음 효과를 적용하기 위하여 설정되는 거리를 의미할 수 있다.
예를 들어, 오디오 신호 처리 장치는 메타 데이터를 이용하여, 청취자의 위치(예: 3차원 공간 정보), 객체 오디오의 위치(예: 3차원 공간 정보), 객체 오디오의 속도 등을 식별할 수 있다. 오디오 신호 처리 장치는 청취자의 위치 및 객체 오디오의 위치를 이용하여, 청취자와 객체 오디오 사이의 거리를 계산할 수 있다.
청취자에게 전달되는 오디오 신호의 크기는 오디오 소스(예: 객체 오디오의 위치)와 청취자 간의 거리에 따라 변화한다. 예를 들어, 일반적으로 오디오 소스로부터 1m 거리에 위치하는 청취자에게 전달되는 소리의 크기보다, 2m 거리에 위치하는 청취자에게 전달되는 소리가 더 작아진다. 자유 음장(free field) 환경에서 소리의 크기는 1/r(r은 객체 오디오와 청취자 사이의 거리)의 비율로 작아지게 되는데, 소스와 청취자가 간의 거리가 2배가 되면, 청취자에게 들리는 소리의 크기(sound level)는 약 6dB 감소하게 된다.
거리와 소리의 크기 감쇄에 대한 법칙이 6Dof(Degree of Freedom) VR(Virtual Reality) 환경에서 적용이 될 수 있다. 오디오 신호 처리 장치는 하나의 객체 오디오 신호에 대하여, 청취자로부터 거리가 멀리 있을 때는 그 크기를 작게 해주고, 거리가 가까워지면 크게 해주는 방식을 사용할 수 있다.
예를 들어, 청취자가 오디오 객체와 1m 떨어져 있을 때 청취자에게 들리는 소리의 음압 레벨이 0dB라고 하였을 때, 청취자가 객체로부터 2m로 멀어지는 경우, 음압 레벨을 -6dB로 변경해 주면, 음압이 자연스럽게 감소하는 것처럼 느껴질 수 있다.
예를 들어, 오디오 신호 처리 장치는 객체 오디오와 청취자 사이의 거리가 최소 거리보다 크고, 최대 거리보다 작을 때, 아래 수학식 1에 따라 객체 오디오의 이득(Gain)을 결정할 수 있다. 아래 수학식 1에서. "reference_distance"는 기준 거리, "current_distance"는 객체 오디오와 청취자 사이의 거리를 의미할 수 있다. 기준 거리는 객체 오디오의 이득이 0dB가 되는 거리를 의미할 수 있고, 객체 오디오 각각에 다르게 설정될 수 있다. 예를 들어, 메타 데이터는 객체 오디오의 기준 거리를 포함할 수 있다.
[수학식 1]
예를 들어, RI(render item)는 장면에서 음향적으로 활성화된 요소를 나타낼 수 있다. RI는 프라이머리, 즉 장면 내 오디오 엘리먼트에서 직접 파생되거나 또는 세컨더리(secondary), 즉, 다른 RI(예: 반사 또는 회절 경로)에서 파생될 수 있다. RI의 속성은 아래 표 1과 같을 수 있다.
Field name Data type Description Default value
idx const int Unique identifier of the RI -
status ItemStatus The status of the RI (see ItemStatus type description) -
type ItemType The type of the RI (see ItemType type description) -
changed ItemProperty Flags to mark changed properties of the RI (see ItemProperty type description) -
aparams AParam Flags to mark special rendering instructions for the RI (see AParam type description) -
reverbId int Identifier of the reverberation environment this RI is located in (special value -1 if the RI is outside of all reverberation environments in the scene) -1
trajectory Trajectory Optional constant-velocity trajectory to interpolate the location of the RI between successive calls to the update() routine None
teleport bool Whether or not this RI should be handled as teleported false
position Position The position (location and orientation) of the RI in global coordinates (see Position type description) -
apparentDistanceDelta float Compensation for the distance to the listener for synchronizing multiple RIs with different locations in terms of their propagation delay and distance attenuation 0
refDistance float Reference distance for the distance attenuation model 1
signal StreamBuffer Reference to a StreamBuffer instance (see Stream Manager section) -
eq List<float> Frequency-dependent gain for the signal associated with this RI in globally defined bands (see Equalizer section) N x 1
gain float Global frequency-independent gain for the signal associated with this RI 1
directivity Directivity Optional reference to a Directivity representation for the RI (see Directivity type description) None
directiveness float Parameter to control the frequency-independent intensity of the Directivity 1
extent Geometry Optional reference to a Geometry that describes the extent of the RI None
extentLayout ExtentLayout Reference to the channel layout of a heterogeneous extended source None
rayHits List<RayHit> Data structure to aid the processing of extended sources (see respective stages) Empty
reflectionInfo ReflectionInfo Optional reference to a special struct that contains information about the reflection path this RI represents (see 6.6.4) None
occlusionInfo OcclusionInfo Optional reference to a special struct that contains information about the occlusion of this RI (see 6.6.6) None
channelPositions List<Position> None
hoaInfo HoaInfo Optional reference to a special struct that contains information about the HOA source this RI represents (see 6.6.15) None
예를 들어, RI는 ItemStatus를 포함할 수 있다. ItemStatus는 렌더러 스테이지에서 활성 상태(active)로 처리될 수 있다. ItemStatus가 이전 업데이트 콜(update() call)의 상태와 다른 경우, 변경된 ItemStatus의 상태에 따라 변경된 플래그가 설정될 수 있다.예를 들어, RI는 ItemType을 포함할 수 있다. ItemType이 Primary인 경우, RI가 장면 객체에서 직접 파생된 것을 나타낼 수 있다. ItemType이 Reflection인 경우, RI가 다른 RI의 정반사(specular reflection)로 파생된 세컨더리 RI인 것을 나타낼 수 있다. ItemType가 Diffraction인 경우, RI가 다른 RI의 기하학적 회절 경로(geometrically diffracted path)로 파생된 세컨더리 RI인 것을 나타낼 수 있다.
도 4는 일 실시예에 따른 직접음(direct sound), 초기 반사음(early reflection) 및 잔향(late reverberation)의 임펄스 응답(impulse response)을 나타낸 도면이다.
음향학적 공간 정보는 공간의 음향 특성을 더 잘 시뮬레이션 할 수 있는 정보가 될 수 있다. 그러나, 음향 공간 정보를 활용하여 음향 전달 특성을 시뮬레이션 하는 것은 복잡한 연산이 필요하기 때문에, 공간 음향 전달 특성의 생성을 간략하게 수행하기 위하여, 공간 음향 전달 특성을 직접음(direct sound), 초기 반사음(early reflection), 잔향(late reverberation)으로 나누고, 제공된 음향 공간 정보를 활용하여 반사음과 잔향의 생성에 활용할 수 있다.
예를 들어, 도 4와 같이, 렌더러는 공간 음향 전달 특성인 임펄스 응답을 직접음, 초기 반사음 및 잔향에 따라 생성할 수 있다.
렌더러는 장애물(occlusion)에 따른 음향 처리를 수행할 수 있다. 예를 들어, 장애물에 따른 음향 처리는 회절, 분산 등에 따른 음향 처리를 포함할 수 있다.
상기의 도 1 내지 도 4의 렌더러에 관한 설명은 오디오 신호 처리 장치에 실질적으로 동일하게 적용될 수 있다.
도 5는 다양한 실시예들에 따른 전자 장치(500)의 개략적인 블록도이다.
도 5를 참조하면, 전자 장치(500)는 프로세서(520) 및 메모리(530)를 포함할 수 있다.
프로세서(520)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(520)에 연결된 전자 장치(500)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(520)는 다른 구성요소(예: 센서 모듈 또는 통신 모듈)로부터 수신된 명령 또는 데이터를 휘발성 메모리에 저장하고, 휘발성 메모리에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다. 일실시예에 따르면, 프로세서(520)는 메인 프로세서(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(500)가 메인 프로세서 및 보조 프로세서를 포함하는 경우, 보조 프로세서는 메인 프로세서보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서는 메인 프로세서와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서는, 예를 들면, 메인 프로세서가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서를 대신하여, 또는 메인 프로세서가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서와 함께, 전자 장치(500)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈, 센서 모듈, 또는 통신 모듈)와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈 또는 통신 모듈)의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(500) 자체에서 수행될 수 있고, 별도의 서버(예: 서버)를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(530)는, 전자 장치(500)의 적어도 하나의 구성요소(예: 프로세서(520) 또는 센서 모듈)에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.
일례로, 전자 장치(500)는 비트스트림(510)을 수신할 수 있다. 예를 들어, 비트스트림(510)은 오디오 신호(511) 및 메타 데이터(513)를 포함할 수 있다.
예를 들어, 메타 데이터(513)는 청취자, 물체(object), 객체 음원(또는 이미지 소스(image source)) 등과 같은 렌더 아이템, 음향 장면에 관한 것으로, 이득(gain), 거리(distance), 음향 기하학 정보(acoustic geometry information), 청취자 위치(user/listener position), 객체 위치(object position), 기준 거리(reference distance)(또는 기준 거리를 설정하기 위한 값) 등을 포함할 수 있다.
예를 들어, 오디오 신호(511)는 객체 오디오(또는 객체-기반 오디오 신호(object-based audio signal))을 나타낼 수 있다.
전자 장치(500)는 비트스트림(510)에 기초하여, 객체 음원의 기준 거리를 결정할 수 있다. 예를 들어, 비트스트림(510)은 객체 음원의 기준 거리를 포함할 수 있다. 예를 들어, 비트스트림(510)은 객체 음원의 기준 거리에 관하여 설정된 변수(예: objectSourceRefDistance)를 포함할 수 있다. 객체 음원의 기준 거리에 관하여 설정된 변수는 10 bit의 uimsbf(unsigned integer, most significant bit first)로 표현될 수 있다.
기준 거리는 객체 음원이 기준 거리에 위치할 때 이득이 0 dB가 되는 거리를 나타낼 수 있다. 전자 장치(500)는 기준 거리에 기초하여, 객체 음원의 거리에 따른 감쇠를 적용하여, 객체 오디오의 이득을 결정할 수 있다.
예를 들어, 전자 장치(500)는 아래 수학식 2와 같이, 비트스트림(510)에 포함된 객체 음원의 기준 거리에 관한 변수를 이용하여, 객체 음원의 기준 거리를 결정할 수 있다.
[수학식 2]
상기의 수학식 1에서, 은 비트스트림(510)에 포함된 객체 음원의 기준 거리에 관한 변수, 은 객체 음원의 기준 거리를 의미할 수 있다. 예를 들어, 가 10 bit의 uimsbf로 표현될 때, 는 10이 될 수 있다. 상기 수학식 2에 따라 계산된 기준 거리는 float 형식으로 표현될 수 있다.
전자 장치(500)는 기준 거리에 기초하여, 거리에 따른 감쇠를 적용하기 위한 최소 거리를 결정할 수 있다. 예를 들어, 최소 거리는 1/r 법칙을 적용하기 위한 임계 거리를 나타낼 수 있다.
예를 들어, 전자 장치(500)는 기준 거리가 최소 거리의 설정값(예: 0.2m 등)보다 큰 경우, 최소 거리를 설정값으로 결정할 수 있다. 최소 거리의 설정값은 최소 거리의 초기값을 나타낼 수 있다.
예를 들어, 전자 장치(500)는 기준 거리가 최소 거리의 설정값 이하인 경우, 기준 거리를 최소 거리로 결정할 수 있다. 예를 들어, 기준 거리를 최소 거리로 설정하는 전자 장치(500)의 동작은 아래 표 2와 같은 코드에 의해 수행될 수 있다.
If (refDist < dampingStart) {
dampingStart = refDist ;
}
상기의 표 2에서 refDist는 기준 거리, dampingStart는 최소 거리를 나타낼 수 있다.기준 거리가 0.1m이고, 최소 거리의 설정값이 0.2m인 경우, 전자 장치(500)는 최소 거리를 0.1m로 결정할 수 있다. 전자 장치(500)는 거리에 따른 감쇠를 적용하여 객체 오디오의 이득을 아래 수학식 3과 같이 계산할 수 있다.
[수학식 3]
본 발명의 실시예와 달리, 기준 거리가 0.1m이고, 최소 거리의 설정값이 0.2m인 경우, 기준 거리를 최소 거리로 설정하는 경우 아래의 수학식 4와 같이 거리에 따른 객체 오디오의 이득을 계산할 수 있다.
[수학식 4]
상기의 수학식 3과 수학식 4을 비교하면, 일실시예에 따른 전자 장치(500)는 기준 거리가 최소 거리 이하인 경우에도 객체 음원의 기준 거리를 동일하게 유지할 수 있다. 반면, 기준 거리를 최소 거리로 변경하는 경우, 상기 수학식 4와 같이 최소 거리의 설정값으로 변경된 기준 거리에 기초하여, 거리에 따라 이득을 계산하게 된다.
전자 장치(500)는 기준 거리 및 최소 거리에 기초하여, 객체 오디오의 이득을 결정할 수 있다. 전자 장치(500)는 객체 음원의 거리가 최소 거리 이상일 때, 상기 수학식 1을 이용하여 객체 오디오의 이득을 결정할 수 있다. 전자 장치(500)는 객체 음원의 거리가 최소 거리 이상일 때, 객체 오디오에 거리에 따른 감쇠 효과를 적용할 수 있다. 전자 장치(500)는 수학식 1을 이용하여, 객체 음원의 거리와 기준 거리의 비에 기초하여, 객체 오디오의 이득을 결정할 수 있다.
객체 음원의 거리가 최소 거리보다 작은 경우, 전자 장치(500)는 객체 오디오의 이득을 설정된 크기로 결정할 수 있다. 예를 들어, 전자 장치(500)는 최소 거리에서 객체 오디오의 이득을, 객체 음원의 거리가 최소 거리 이하인 객체 오디오의 이득으로 결정할 수 있다. 설정된 크기는 객체 음원이 최소 거리에 위치할 때의 객체 오디오의 이득을 나타낼 수 있다.
기준 거리는 객체 오디오의 이득이 0 dB가 되는 거리를 나타낼 수 있다. 전자 장치(500)는 기준 거리를 기준으로, 객체 음원의 거리에 따라 객체 오디오의 이득을 결정할 수 있다.
청취자가 객체 음원에 매우 근접할 때, 과도한 거리 이득을 방지하기 위해, 거리에 따른 감쇠 모델의 거리 감쇠 곡선은 특정 임계 거리부터 적용될 수 있다. 예를 들어, 최소 거리는 거리에 따른 감쇠 모델을 적용하기 위한 임계 거리를 나타낼 수 있다. 객체 음원의 거리가 최소 거리 이상일 때, 전자 장치(500)는 거리에 따른 감쇠 모델을 적용하여, 객체 오디오의 이득을 결정할 수 있다. 객체 음원의 거리가 최소 거리 이상일 때, 전자 장치(500)는 수학식 1에 따라 객체 오디오의 이득을 결정할 수 있다.
청취자로부터 매우 멀리 위치한 객체 음원은 들리지 않기 때문에, 객체 음원의 불필요한 렌더링을 피하기 위하여 거리에 따른 객체 오디오의 이득은 특정 롤오프 시작 거리(예: 500m)에서 롤오프 끝 거리(예: 510m)까지 선형적으로 감소할 수 있다. 객체 음원의 거리가 롤오프 끝 거리 이상인 경우, 전자 장치(500)는 객체 음원을 비활성화하고, 객체 음원을 렌더링하지 않을 수 있다.
기준 거리가 최소 거리의 설정값보다 작은 경우, 1) 일 실시 예에 따라 최소 거리를 기준 거리로 결정하는 경우, 2) 기준 거리를 최소 거리로 변경하는 경우에 현재 거리(current_distance)에 따른 이득을 비교한다. 예를 들어, 기준 거리는 0.1m, 최소 거리의 설정값(또는 초기값)이 0.2m인 경우, 수학식 3 및 수학식 4를 이용하여 계산된 이득을 비교한다.
예를 들어, 현재 거리가 0.05m인 경우, 전자 장치(500)는 수학식 3에 따라 객체 오디오의 이득을 20 log (0.1 / 0.1) = 0 dB로 결정할 수 있다. 현재 거리(객체 음원의 거리)가 최소 거리 0.1 m보다 작으므로, 전자 장치(500)는 객체 음원이 최소 거리에 위치할 때의 이득을 객체 오디오의 이득으로 결정할 수 있다.
현재 거리가 최소 거리 0.2m보다 작으므로, 수학식 4에 따른 이득은 20 log (0.2 / 0.2) = 0 dB으로, 동일한 이득을 얻을 수 있다.
현재 거리가 0.15m인 경우, 전자 장치(500)는 수학식 3에 따라 객체 오디오의 이득을 20 log (0.1 / 0.15) dB로 결정할 수 있다. 반면, 수학식 4에 따른 객체 오디오의 이득은 20 log (0.2 / 0.2) = 0 dB로 계산될 수 있다.
현재 거리가 1.0m인 경우, 전자 장치(500)는 수학식 3에 따라 객체 오디오의 이득을 20 log (0.1 / 1.0) dB로 결정할 수 있다. 반면, 수학식 4에 따른 객체 오디오의 이득은 20 log (0.2 / 1.0) dB로 계산될 수 있다.
즉, 상기의 예시를 참고하면, 전자 장치(500)는 기준 거리가 최소 거리의 설정값 이하인 경우, 최소 거리를 기준 거리로 결정하고, 기준 거리는 동일하게 유지함으로써, 거리에 따른 객체 오디오의 이득 감쇠를 보다 자연스럽게 처리할 수 있다.
일 실시 예에 따른 전자 장치(500)는 비트스트림(510)에 기초하여, 최소 거리 이상이 되도록 기준 거리를 결정할 수 있다. 예를 들어, 전자 장치(500)는 최소 거리의 설정값 이상이 되도록 기준 거리를 결정할 수 있다.
예를 들어, 전자 장치(500)는 아래 수학식 5와 같이 최소 거리의 설정값 이상이 되도록 기준 거리를 결정할 수 있다.
[수학식 5]
수학식 5에서 은 기준 거리, 는 최소 거리의 설정값, 은 비트스트림(510)에 포함된 객체 음원의 기준 거리에 관한 변수, 의 비트 수를 나타낼 수 있다. 예를 들어, 가 10 bit의 uimsbf로 표현될 때, 는 10이 될 수 있다. 상기 수학식 5에 따라 계산된 기준 거리는 float 형식으로 표현될 수 있다.
전자 장치(500)는 최소 거리(또는 최소 거리의 설정값) 이상, 설정된 최대 기준 거리 이하의 범위 내에서 기준 거리를 결정할 수 있다. 예를 들어, 상기 수학식 5는 설정된 최대 기준 거리가 100m인 경우 기준 거리를 결정하기 위한 식을 나타낼 수 있다. 전자 장치(500)는 수학식 5에 따라, 최소 거리의 설정값 min_distance 이상, 최대 기준 거리 100m 이하의 범위 내에서 의 값에 따라 기준 거리를 결정할 수 있다.
전자 장치(500)는 객체 오디오의 이득을 이용하여, 렌더링된 오디오 신호(540)를 출력할 수 있다.
도 6은 다양한 실시예들에 따른 객체 오디오 렌더링 방법의 동작 흐름도이다.
도 6을 참조하면, 다양한 실시예들에 따른 전자 장치(500)는 동작(610)에서 비트스트림(510)을 식별할 수 있다. 비트스트림(510)은 오디오 신호(511) 및 메타 데이터(513)를 포함할 수 있다. 예를 들어, 메타 데이터(513)는 객체 음원의 거리(또는 위치), 객체 음원의 기준 거리, 청취자의 위치 등을 포함할 수 있다. 객체 음원의 기준 거리는 10 bit uimibf 변수일 수 있다.
전자 장치(500)는 동작(620)에서 비트스트림(510)에 기초하여 객체 음원의 기준 거리를 결정할 수 있다. 예를 들어, 전자 장치(500)는 비트스트림(510)에 포함된 객체 음원의 기준 거리에 관한 변수를 이용하여, 객체 음원의 기준 거리를 결정할 수 있다. 예를 들어, 전자 장치(500)는 상기 수학식 2를 이용하여 객체 음원의 기준 거리를 결정할 수 있다.
전자 장치(500)는 동작(630)에서 기준 거리에 기초하여 최소 거리를 결정할 수 있다. 최소 거리는 수학식 1에 따라 거리에 의한 감쇠를 적용하기 위한 임계값을 나타낼 수 있다.
전자 장치(500)는 동작(640)에서 기준 거리 및 최소 거리에 기초하여, 객체 오디오의 이득을 결정할 수 있다.
예를 들어, 객체 음원의 거리가 최소 거리 이상인 경우, 전자 장치(500)는 수학식 1에 따라 객체 오디오의 이득을 결정할 수 있다.
예를 들어, 객체 음원의 거리가 최소 거리보다 작은 경우, 전자 장치(500)는 설정된 크기를 객체 오디오의 이득으로 결정할 수 있다. 예를 들어, 설정된 크기는 객체 음원이 최소 거리에 위치할 때 객체 오디오의 이득을 나타낼 수 있다.
도 7은 다양한 실시예들에 따른 최소 거리를 결정하는 동작을 나타낸 도면이다.
전자 장치(500)는 동작(710)에서 기준 거리를 최소 거리의 설정값과 비교할 수 있다. 최소 거리의 설정값은 최소 거리의 초기값을 나타낼 수 있다.
동작(710)에서, 기준 거리가 최소 거리의 설정값보다 큰 경우, 전자 장치(500)는 동작(720)에서 설정값으로 최소 거리를 결정할 수 있다.
동작(710)에서, 기준 거리가 최소 거리의 설정값 이하인 경우, 전자 장치(500)는 동작(730)에서 기준 거리를 최소 거리로 설정할 수 있다. 예를 들어, 기준 거리가 0.1m이고, 최소 거리의 설정값이 0.2m인 경우, 전자 장치(500)는 최소 거리를 0.1m로 결정할 수 있다.
도 8은 다양한 실시예들에 따른 객체 오디오 렌더링 방법의 동작 흐름도이다.
전자 장치(500)는 동작(810)에서 비트스트림(510)을 식별할 수 있다. 도 6의 동작(610)에 관한 설명이 동작(810)에 실질적으로 동일하게 적용될 수 있다.
전자 장치(500)는 동작(820)에서 비트스트림(510)에 기초하여, 최소 거리 이상이 되도록 객체 음원의 기준 거리를 결정할 수 있다. 예를 들어, 전자 장치(500)는 수학식 5와 같이 객체 음원의 기준 거리를 결정할 수 있다.
예를 들어, 전자 장치(500)는 최소 거리 이상, 설정된 최대 기준 거리 이내의 범위에서 기준 거리를 결정할 수 있다. 수학식 5는 최대 기준 거리가 100m인 경우, 최소 거리 이상, 100m 이내의 범위에서 기준 거리를 결정하는 식을 나타낸다.
전자 장치(500)는 동작(830)에서 기준 거리 및 최소 거리에 기초하여, 객체 오디오의 이득을 결정할 수 있다. 도 6의 동작(640)에 관한 설명이 동작(830)에 실질적으로 동일하게 적용될 수 있다.
도 9는 다양한 실시예들에 따른 전자 장치(500)가 객체 오디오의 이득을 결정하는 동작을 나타낸 도면이다.
전자 장치(500)는 동작(910)에서 객체 음원의 거리를 최소 거리와 비교할 수 있다. 객체 음원의 거리는 객체 음원과 청취자 사이의 거리를 나타낼 수 있다. 전자 장치(500)는 비트스트림(510)에 기초하여, 객체 음원의 거리를 계산할 수 있다.
동작(910)에서 객체 음원의 거리가 최소 거리보다 큰 경우, 전자 장치(500)는 동작(920)에서 객체 음원의 거리와 기준 거리의 비에 기초하여, 객체 오디오의 이득을 결정할 수 있다.
동작(910)에서 객체 음원의 거리가 최소 거리 이하인 경우, 전자 장치(500)는 동작(930)에서 객체 오디오의 이득을 설정된 크기로 결정할 수 있다. 예를 들어, 설정된 크기는 객체 음원이 최소 거리에 위치할 때 객체 오디오의 이득의 크기를 나타낼 수 있다.
한편, 본 발명에 따른 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성되어 마그네틱 저장매체, 광학적 판독매체, 디지털 저장매체 등 다양한 기록 매체로도 구현될 수 있다.
본 명세서에 설명된 각종 기술들의 구현들은 디지털 전자 회로조직으로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 그들의 조합들로 구현될 수 있다. 구현들은 데이터 처리 장치, 예를 들어 프로그램가능 프로세서(520), 컴퓨터, 또는 다수의 컴퓨터들의 동작에 의한 처리를 위해, 또는 이 동작을 제어하기 위해, 컴퓨터 프로그램 제품, 즉 정보 캐리어, 예를 들어 기계 판독가능 저장 장치(컴퓨터 판독가능 매체) 또는 전파 신호에서 유형적으로 구체화된 컴퓨터 프로그램으로서 구현될 수 있다. 상술한 컴퓨터 프로그램(들)과 같은 컴퓨터 프로그램은 컴파일된 또는 인터프리트된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있고, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서의 사용에 적절한 다른 유닛으로서 포함하는 임의의 형태로 전개될 수 있다. 컴퓨터 프로그램은 하나의 사이트에서 하나의 컴퓨터 또는 다수의 컴퓨터들 상에서 처리되도록 또는 다수의 사이트들에 걸쳐 분배되고 통신 네트워크에 의해 상호 연결되도록 전개될 수 있다.
컴퓨터 프로그램의 처리에 적절한 프로세서(520)들은 예로서, 범용 및 특수 목적 마이크로프로세서(520)들 둘 다, 및 임의의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서(520)들을 포함한다. 일반적으로, 프로세서(520)는 판독 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 요소들은 명령어들을 실행하는 적어도 하나의 프로세서(520) 및 명령어들 및 데이터를 저장하는 하나 이상의 메모리 장치들을 포함할 수 있다. 일반적으로, 컴퓨터는 데이터를 저장하는 하나 이상의 대량 저장 장치들, 예를 들어 자기, 자기-광 디스크들, 또는 광 디스크들을 포함할 수 있거나, 이것들로부터 데이터를 수신하거나 이것들에 데이터를 송신하거나 또는 양쪽으로 되도록 결합될 수도 있다. 컴퓨터 프로그램 명령어들 및 데이터를 구체화하는데 적절한 정보 캐리어들은 예로서 반도체 메모리 장치들, 예를 들어, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리, EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 등을 포함한다. 프로세서(520) 및 메모리는 특수 목적 논리 회로조직에 의해 보충되거나, 이에 포함될 수 있다.
또한, 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용매체일 수 있고, 컴퓨터 저장매체 및 전송매체를 모두 포함할 수 있다.
본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.
마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 장치 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 장치들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.
한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.
500: 전자 장치
510: 비트스트림
520: 프로세서
530: 메모리
540: 렌더링된 오디오 신호

Claims (14)

  1. 비트스트림을 식별하는 동작;
    상기 비트스트림에 기초하여, 객체 음원의 기준 거리를 결정하는 동작;
    상기 기준 거리에 기초하여, 거리에 따른 감쇠를 적용하기 위한 최소 거리를 결정하는 동작;
    상기 기준 거리 및 상기 최소 거리에 기초하여, 상기 비트스트림에 포함된 객체 오디오의 이득을 결정하는 동작
    을 포함하는,
    객체 오디오 렌더링 방법.
  2. 제1항에 있어서,
    상기 최소 거리를 결정하는 동작은,
    상기 기준 거리가 상기 최소 거리의 설정값보다 큰 경우, 상기 최소 거리를 상기 설정값으로 결정하는,
    객체 오디오 렌더링 방법.
  3. 제1항에 있어서,
    상기 최소 거리를 결정하는 동작은,
    상기 기준 거리가 상기 최소 거리의 설정값 이하인 경우, 상기 기준 거리를 상기 최소 거리로 결정하는,
    객체 오디오 렌더링 방법.
  4. 제1항에 있어서,
    상기 객체 오디오의 이득을 결정하는 동작은,
    상기 객체 음원의 거리가 상기 최소 거리 이하인 경우, 상기 객체 오디오의 이득을 설정된 크기로 결정하는,
    객체 오디오 렌더링 방법.
  5. 제1항에 있어서,
    상기 객체 오디오의 이득을 결정하는 동작은,
    상기 객체 음원의 거리가 상기 최소 거리보다 큰 경우, 상기 객체 음원의 거리와 상기 기준 거리의 비에 기초하여, 상기 객체 오디오의 이득을 결정하는,
    객체 오디오 렌더링 방법.
  6. 비트스트림을 식별하는 동작;
    상기 비트스트림에 기초하여, 거리에 따른 감쇠를 적용하기 위한 최소 거리 이상이 되도록 객체 음원의 기준 거리를 결정하는 동작; 및
    상기 최소 거리 및 상기 기준 거리에 기초하여, 상기 비트스트림에 포함된 객체 오디오의 이득을 결정하는 동작
    을 포함하는,
    객체 오디오 렌더링 방법.
  7. 제6항에 있어서,
    상기 객체 음원의 기준 거리를 결정하는 동작은,
    상기 최소 거리 이상, 설정된 최대 기준 거리 이하의 범위 내에서 상기 기준 거리를 결정하는,
    객체 오디오 렌더링 방법.
  8. 제6항에 있어서,
    상기 객체 오디오의 이득을 결정하는 동작은,
    상기 객체 음원의 거리가 상기 최소 거리 이하인 경우, 상기 객체 오디오의 이득을 설정된 크기로 결정하는,
    객체 오디오 렌더링 방법.
  9. 제6항에 있어서,
    상기 객체 오디오의 이득을 결정하는 동작은,
    상기 객체 음원의 거리가 상기 최소 거리보다 큰 경우, 상기 객체 음원의 거리와 상기 기준 거리의 비에 기초하여, 상기 객체 오디오의 이득을 결정하는,
    객체 오디오 렌더링 방법.
  10. 전자 장치에 있어서,
    프로세서
    를 포함하고,
    상기 프로세서는,
    비트스트림을 식별하고,
    상기 비트스트림에 기초하여, 객체 음원의 기준 거리를 결정하고;
    상기 기준 거리에 기초하여, 거리에 따른 감쇠를 적용하기 위한 최소 거리를 결정하고;
    상기 기준 거리 및 상기 최소 거리에 기초하여, 상기 비트스트림에 포함된 객체 오디오의 이득을 결정하는,
    전자 장치.
  11. 제10항에 있어서,
    상기 프로세서는,
    상기 기준 거리가 상기 최소 거리의 설정값보다 큰 경우, 상기 최소 거리를 상기 설정값으로 결정하는,
    전자 장치.
  12. 제10항에 있어서,
    상기 프로세서는,
    상기 기준 거리가 상기 최소 거리의 설정값 이하인 경우, 상기 기준 거리를 상기 최소 거리로 결정하는,
    전자 장치.
  13. 제10항에 있어서,
    상기 프로세서는,
    상기 객체 음원의 거리가 상기 최소 거리 이하인 경우, 상기 객체 오디오의 이득을 설정된 크기로 결정하는,
    전자 장치.
  14. 제10항에 있어서,
    상기 프로세서는,
    상기 객체 음원의 거리가 상기 최소 거리보다 큰 경우, 상기 객체 음원의 거리와 상기 기준 거리의 비에 기초하여, 상기 객체 오디오의 이득을 결정하는,
    전자 장치.

KR1020230044165A 2022-10-11 2023-04-04 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치 KR20240050247A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/484,117 US20240129682A1 (en) 2022-10-11 2023-10-10 Method of rendering object-based audio and electronic device performing the method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220129907 2022-10-11
KR1020220129907 2022-10-11

Publications (1)

Publication Number Publication Date
KR20240050247A true KR20240050247A (ko) 2024-04-18

Family

ID=90844354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230044165A KR20240050247A (ko) 2022-10-11 2023-04-04 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치

Country Status (1)

Country Link
KR (1) KR20240050247A (ko)

Similar Documents

Publication Publication Date Title
JP5410682B2 (ja) マルチチャンネルスピーカシステムのマルチチャンネル信号の再生方法及び装置
EP2936485B1 (en) Object clustering for rendering object-based audio content based on perceptual criteria
JP6316407B2 (ja) ミキシング制御装置、音声信号生成装置、音声信号供給方法およびコンピュータプログラム
CN109891503B (zh) 声学场景回放方法和装置
KR102458962B1 (ko) 가상 현실에서 음향 확대 효과 적용을 위한 음향 신호 제어 방법 및 장치
EP3014901B1 (en) Improved rendering of audio objects using discontinuous rendering-matrix updates
US11337020B2 (en) Controlling rendering of a spatial audio scene
JP7371003B2 (ja) オーディオ・レンダリングのための事前レンダリングされた信号のための方法、装置およびシステム
US20210014630A1 (en) Rendering of spatial audio content
JP7277475B2 (ja) オブジェクトベースの空間オーディオマスタリングのための装置および方法
TWI797576B (zh) 使用管線層來渲染一聲音場景的設備及方法
KR102527336B1 (ko) 가상 공간에서 사용자의 이동에 따른 오디오 신호 재생 방법 및 장치
KR20240050247A (ko) 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치
US20240129682A1 (en) Method of rendering object-based audio and electronic device performing the method
US20230345197A1 (en) Method of rendering object-based audio and electronic device for performing the method
US20230328472A1 (en) Method of rendering object-based audio and electronic device for performing the same
US20240135953A1 (en) Audio rendering method and electronic device performing the same
KR20230162523A (ko) 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치
KR20230139766A (ko) 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치
KR20240008241A (ko) 녹음 거리 파라미터 기반 오디오 렌더링 방법 및 이를 수행하는 장치
CN111344785B (zh) 在虚拟现实使用音频放大效果的音频信号控制方法及装置
KR20240054885A (ko) 오디오 렌더링 방법 및 이를 수행하는 전자 장치
KR20230150711A (ko) 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치
US20240136993A1 (en) Rendering method of preventing object-based audio from clipping and apparatus for performing the same
KR20230139772A (ko) 오디오 신호 처리 장치 및 오디오 신호 처리 방법