KR20230162523A - 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치 - Google Patents

객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치 Download PDF

Info

Publication number
KR20230162523A
KR20230162523A KR1020220168865A KR20220168865A KR20230162523A KR 20230162523 A KR20230162523 A KR 20230162523A KR 1020220168865 A KR1020220168865 A KR 1020220168865A KR 20220168865 A KR20220168865 A KR 20220168865A KR 20230162523 A KR20230162523 A KR 20230162523A
Authority
KR
South Korea
Prior art keywords
distance
object audio
gain
audio
sound source
Prior art date
Application number
KR1020220168865A
Other languages
English (en)
Inventor
이용주
유재현
장대영
강경옥
박수영
이태진
정영호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020220168865A priority Critical patent/KR20230162523A/ko
Priority to US18/320,729 priority patent/US20230362574A1/en
Publication of KR20230162523A publication Critical patent/KR20230162523A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)

Abstract

객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치가 개시된다. 다양한 실시예들에 따른 객체 오디오 렌더링 방법은 객체 오디오의 메타 데이터를 식별하는 동작, 상기 메타 데이터를 이용하여, 상기 객체 오디오와 청취자 사이의 음원 거리를 식별하는 동작, 상기 메타 데이터에 포함된 상기 객체 오디오의 기준 거리(reference distance)에 기초하여, 상기 음원 거리에 따른 감쇄를 적용하기 위한 상기 객체 오디오의 최소 거리(minimum distance)를 결정하는 동작, 상기 음원 거리 및 상기 최소 거리를 이용하여, 상기 객체 오디오를 렌더링하는 동작을 포함할 수 있다.

Description

객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치{THE METHOD OF RENDERING OBJECT-BASED AUDIO, AND THE ELECTRONIC DEVICE PERFORMING THE METHOD}
아래 개시는 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치에 관한 것이다.
오디오 서비스는 모노, 스테레오 서비스에서 5.1 7.1 채널 등을 거쳐 상향 채널을 포함하는 9.1, 11.1, 10.2, 13.1, 15.1, 22.2 채널과 같은 다채널 서비스로 변화를 해왔다.
한편 기존의 채널 서비스와 다르게 하나의 음원 소스를 객체로 간주하고, 객체 오디오 신호와 객체 오디오의 위치, 크기 등과 같은 객체 오디오 관련 정보를 저장/전송/재생하는 객체기반 오디오 서비스 기술도 개발이 되고 있다.
위에서 설명한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다.
다양한 실시예들에 따르면, VR 환경에서 청취자와 객체 오디오 사이의 거리에 따른 소리의 볼륨을 계산하고 처리함에 있어서, 오디오 객체의 소리가 더 이상 커지지 않는 최소 거리를 설정하여, 객체 오디오를 렌더링할 수 있다.
다양한 실시예들에 따르면, 기준 거리에 기초하여 최소 거리를 설정하고, 최소 거리 이하로 객체 오디오와 청취자 사이의 거리가 가까워지는 경우, 객체 오디오의 소리가 너무 커지는 것을 방지하여 청취자를 효과적으로 보호할 수 있고, 객체 오디오를 자연스럽게 렌더링할 수 있다.
다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.
다양한 실시예들에 따른 객체 오디오 렌더링 방법은, 객체 오디오의 메타 데이터를 식별하는 동작, 상기 메타 데이터를 이용하여, 상기 객체 오디오와 청취자 사이의 음원 거리를 식별하는 동작, 상기 메타 데이터에 포함된 상기 객체 오디오의 기준 거리(reference distance)에 기초하여, 상기 음원 거리에 따른 감쇄를 적용하기 위한 상기 객체 오디오의 최소 거리(minimum distance)를 결정하는 동작, 상기 음원 거리 및 상기 최소 거리를 이용하여, 상기 객체 오디오를 렌더링하는 동작을 포함할 수 있다.
상기 최소 거리를 결정하는 동작은, 상기 기준 거리를 설정된 정수로 나눈 값으로 상기 최소 거리를 결정할 수 있다.
상기 최소 거리를 결정하는 동작은, 상기 기준 거리에서 상기 객체 오디오의 이득과 비교하여, 설정된 이득만큼 커지는 거리를 상기 최소 거리로 결정할 수 있다.
상기 객체 오디오를 렌더링하는 동작은, 상기 음원 거리가 상기 최소 거리를 초과일 때, 상기 음원 거리 및 상기 기준 거리에 기초하여, 상기 객체 오디오의 이득을 결정하고, 상기 객체 오디오의 이득에 기초하여, 상기 객체 오디오를 렌더링할 수 있다.
상기 객체 오디오를 렌더링하는 동작은, 상기 음원 거리가 상기 최소 거리 이하일 때, 상기 객체 오디오가 상기 최소 거리에 위치할 때의 상기 객체 오디오의 이득을 결정하고, 상기 객체 오디오의 이득에 기초하여, 상기 객체 오디오를 렌더링할 수 있다.
다양한 실시예들에 따른 객체 오디오 렌더링 방법은, 객체 오디오의 메타 데이터를 식별하는 동작, 상기 메타 데이터를 이용하여, 상기 객체 오디오와 청취자 사이의 거리를 식별하는 동작, 상기 메타 데이터에 포함된 상기 객체 오디오의 기준 거리(reference distance)에 기초하여, 상기 음원 거리에 따른 감쇄를 적용하기 위한 상기 객체 오디오의 최소 거리(minimum distance)를 결정하는 동작, 상기 음원 거리가 상기 최소 거리를 초과할 때, 상기 음원 거리 및 상기 기준 거리에 기초하여, 상기 음원 거리에 따른 감쇄를 적용하여 상기 객체 오디오의 이득을 결정하는 동작, 상기 음원 거리가 상기 최소 거리 이하일 때, 상기 객체 오디오가 상기 최소 거리에 위치할 때의 상기 객체 오디오의 이득을 결정하는 동작 및 상기 객체 오디오의 이득에 기초하여, 상기 객체 오디오를 렌더링하는 동작을 포함할 수 있다.
상기 최소 거리를 결정하는 동작은, 상기 기준 거리를 설정된 정수로 나눈 값으로 상기 최소 거리를 결정할 수 있다.
상기 최소 거리를 결정하는 동작은, 상기 기준 거리에서 상기 객체 오디오의 이득과 비교하여, 설정된 이득만큼 커지는 거리를 상기 최소 거리로 결정할 수 있다.
다양한 실시예들에 따른 전자 장치는 프로세서를 포함하고, 상기 프로세서는, 객체 오디오의 메타 데이터를 식별하고, 상기 메타 데이터를 이용하여, 상기 객체 오디오와 청취자 사이의 거리를 식별하고, 상기 메타 데이터에 포함된 상기 객체 오디오의 기준 거리(reference distance)에 기초하여, 상기 음원 거리에 따른 감쇄를 적용하기 위한 상기 객체 오디오의 최소 거리(minimum distance)를 결정하고, 상기 음원 거리 및 상기 최소 거리를 이용하여, 상기 객체 오디오를 렌더링할 수 잇다.
상기 프로세서는, 상기 기준 거리를 설정된 정수로 나눈 값으로 상기 최소 거리를 결정할 수 있다.
상기 프로세서는, 상기 기준 거리에서 상기 객체 오디오의 이득과 비교하여, 설정된 이득만큼 커지는 거리를 상기 최소 거리로 결정할 수 있다.
상기 프로세서는, 상기 음원 거리가 상기 최소 거리를 초과할 때, 상기 음원 거리 및 상기 기준 거리에 기초하여, 상기 객체 오디오의 이득을 결정하고, 상기 객체 오디오의 이득에 기초하여, 상기 객체 오디오를 렌더링할 수 있다.
상기 프로세서는, 상기 음원 거리가 상기 최소 거리 이하일 때, 상기 객체 오디오가 상기 최소 거리에 위치할 때의 상기 객체 오디오의 이득을 결정하고, 상기 객체 오디오의 이득에 기초하여, 상기 객체 오디오를 렌더링할 수 있다.
본 발명의 일실시예에 따르면, 객체 오디오 렌더링 방법 및 전자 장치를 이용하여, 객체 오디오의 거리에 따라 렌더링 된 객체 오디오 출력 신호의 클리핑을 방지 또는 개선하고, 청취자의 청력 손상을 방지 또는 개선할 수 있다.
도 1은 다양한 실시예들에 따른 전자 장치의 제어 워크플로우 및 렌더링 워크플로우를 나타낸 도면이다.
도 2는 다양한 실시예들에 따른 렌더러 파이프라인을 나타낸 도면이다.
도 3은 다양한 실시예들에 따른 전자 장치의 개략적인 블록도이다.
도 4는 다양한 실시예들에 따른 객체 오디오 렌더링 방법의 동작 흐름도이다.
도 5은 다양한 실시예들에 따른 음원 거리 및 최소 거리에 기초하여, 객체 오디오를 렌더링하는 방법의 동작 흐름도이다.
도 6는 다양한 실시예들에 따른 거리에 따른 객체 오디오의 이득을 나타낸 도면이다.
도 7a, 7b 및 7c는 다양한 실시예들에 따라 결정된 최소 거리에 기초하여 결정된 객체 오디오의 이득을 나타낸 도면이다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 예를 들어, '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함할 수 있다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다. 또한, '~부'는 하나 이상의 프로세서를 포함할 수 있다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 다양한 실시예들에 따른 전자 장치의 제어 워크플로우 및 렌더링 워크플로우를 나타낸 도면이다.
일 실시예에 따르면, 전자 장치는 객체 오디오 신호 및 메타 데이터를 이용하여, 객체 오디오의 렌더링을 수행할 수 있다. 예를 들어, 전자 장치는 렌더러(renderer)를 의미할 수 있다.
예를 들어, 전자 장치는 사용자가 음향 장면(scene)의 엔티티(entity)와 직접 상호 작용할 수 있는 6 DoF(degree of freedom) 오디오 장면의 실시간 청각화를 수행할 수 있다. 전자 장치는 VR(virtual reality) 또는 AR(augmented reality) 장면의 렌더링을 수행할 수 있다. VR 또는 AR 장면의 경우, 전자 장치는 메타 데이터 및 오디오 장면 정보를 비트스트림(bitstream)으로부터 획득할 수 있다. AR 장면의 경우, 전자 장치는 사용자가 위치한 청취 공간 정보를 LSDF(Listener Space Description Format) 파일로부터 획득할 수 있다.
전자 장치는 도 1과 같이, 제어 워크플로우(control workflow)와 렌더링 워크플로우(rendering workflow)를 통해 음향을 출력(audio output)할 수 있다.
제어 워크플로우는 렌더러의 진입 포인트이며, 전자 장치는 제어 워크플로우를 통해 외부 시스템 및 구성 요소와의 인터페이스를 수행할 수 있다. 전자 장치는 제어 워크플로우에서 장면 컨트롤러(scene controller)를 이용하여, 6 DoF 장면의 엔티티들의 상태를 조정하고, 대화형 인터페이스를 구현할 수 있다.
전자 장치는 장면 상태(scene state)를 제어할 수 있다. 장면 상태는 오디오 요소, 변환/앵커 및 기하학(geometry)을 포함한 모든 장면 개체(scene object)의 현재 상태를 반영할 수 있다. 전자 장치는 렌더링이 시작되기 전에 전체 장면의 모든 개체를 생성하고, 모든 개체의 메타 데이터가 재생 시작 시 원하는 장면 구성을 반영한 상태로 업데이트 할 수 있다.
전자 장치는 스트림 매니저(stream manager)를 이용하여, 장면 상태의 오디오 요소와 연결된 오디오 스트림에 접근하기 위해, 렌더러 구성 요소에 대한 통합 인터페이스를 제공할 수 있다. 오디오 스트림은 PCB 플로트(float) 샘플로 입력될 수 있다. 오디오 스트림의 소스는 예를 들어, 디코딩된 MPEG-H 오디오 스트림 또는 로컬 캡쳐 오디오일 수 있다.
클럭(clock)은 렌더러 구성 요소에 대한 인터페이스를 제공하여, 현재 장면 시간을 초 단위로 제공할 수 있다. 클럭 입력은 예를 들어, 다른 하위 시스템의 동기화 신호 또는 렌더러의 내부 클럭일 수 있다.
렌더링 워크플로우는 오디오 출력 신호(audio output)을 생성할 수 있다. 예를 들어, 오디오 출력 신호는 PCM 플로트일 수 있다. 렌더링 워크플로우는 제어 워크플로우와 분리될 수 있다. 6 DoF 장면의 모든 변경 사항을 전달하기 위한 장면 상태와 입력 오디오 스트림을 제공하기 위한 스트림 매니저는 두 워크 플로우(제어 워크플로우 및 렌더링 워크플로우) 간의 통신을 위해, 렌더링 워크플로우에 접근할 수 있다.
렌더러 파이프라인(renderer pipeline)은 현재의 장면 상태를 기반으로, 스트림 매니저에서 제공하는 입력 오디오 스트림을 청각화 할 수 있다. 예를 들어, 렌더링은 개별 렌더러 단계가 독립적인 지각 효과를 구현하고, 이전 및 후속 단계의 처리를 사용하도록 순차적인 파이프라인에 따라 수행될 수 있다.
스페이셜라이저(spatializer)는 렌더러 파이프라인을 종료하고, 렌더러 단계의 출력을 원하는 재생 방법(예: 바이노럴 또는 라우드 스피커 재생)에 적합한 단일 출력 오디오 스트림으로 청각화 할 수 있다.
리미터(limiter)는 청각화된 출력 신호에 대한 클리핑(clipping) 보호 기능을 제공할 수 있다.
도 2는 다양한 실시예들에 따른 렌더러 파이프라인을 나타낸 도면이다.
예를 들어, 렌더러 파이프라인의 각 렌더러 단계는 설정된 순서에 따라 수행될 수 있다. 예를 들어, 렌더러 파이프라인은 방 할당(room assignment), 잔향(reverb), 포털(portal), 초기 반사음(early reflection), 볼륨 음원 발굴(discover SESS), 장애물(occlusion), 회절(diffraction), 메타 데이터 관리(metadata culling), 다중 볼륨 음원(heterogeny. extent), 지향성(directivity), 거리(distance), 등화기(EQ), 페이드(fade), 단일 HOA(SP HOA), 균일 볼륨 음원(homogen. extent), 패너(panner), 다중 HOA(MP HOA) 단계를 포함할 수 있다.
예를 들어, 전자 장치는 렌더링 워크플로우(예: 도 1의 렌더링 워크플로우)에서 객체 오디오와 청취자 사이의 거리에 따라, 객체 오디오의 이득(gain), 전달 지연(propagation delay), 매질 흡수(medium absorption)을 렌더링 할 수 있다. 예를 들어, 전자 장치는 렌더러 파이프라인의 거리 단계에서, 객체 오디오의 이득, 전달 지연 및 매질 흡수 중 적어도 하나를 결정할 수 있다.
전자 장치는 거리 단계에서 각 RI(render item)와 청취자 사이의 거리를 계산하고, 등속 모델을 기반으로 객체 오디오 스트림의 업데이트 루틴 호출 사이의 거리를 보간할 수 있다. RI는 렌더러 파이프라인 내의 모든 오디오 요소(audio element)를 의미할 수 있다.
전자 장치는 물리적으로 정확한 지연과 도플러 효과를 생성하기 위해 RI와 관련된 신호에 전달 지연을 적용할 수 있다.
전자 장치는 거리 감쇠(distance attenuation)을 적용하여, 소스 에너지의 기하학적 확산으로 인한 오디오 요소의 주파수 독립적 감쇠를 모델링할 수 있다. 전자 장치는 기하학적으로 확장된 음원의 거리 감쇠를 위해, 음원의 크기를 고려한 모델을 사용할 수 있다.
전자 장치는 공기의 흡수 특성과 관련된 오디오 요소의 주파수 종속 감쇠를 모델링하여, 객체 오디오에 매질 흡수를 적용할 수 있다.
전자 장치는 객체 오디오와 청취자의 거리에 따라, 거리 감쇠를 적용하여 객체 오디오의 이득을 결정할 수 있다. 전자 장치는 음원의 크기를 고려한 파라메트릭 모델을 사용하여, 기하학적 확산으로 인한 거리 감쇠를 적용할 수 있다.
6 DoF 환경에서 오디오를 재상할 때, 거리에 따라 객체 오디오의 사운드 레벨이 달라질 수 있고, 거리에 반비례하여 크기가 감소하는 1/r 법칙에 따라 객체 오디오의 크기를 결정할 수 있다. 예를 들어, 전자 장치는 객체 오디오와 청취자 사이의 거리가 최소 거리보다 크고, 최대 거리보다 작은 영역에서 1/r 법칙에 따라 객체 오디오의 크기를 결정할 수 있다. 최소 거리 및 최대 거리는, 거리에 따른 감쇠, 전달 지연, 공기 흡음 효과를 적용하기 위하여 설정되는 거리를 의미할 수 있다.
예를 들어, 전자 장치는 메타 데이터를 이용하여, 청취자의 위치(예: 3차원 공간 정보), 객체 오디오의 위치(예: 3차원 공간 정보), 객체 오디오의 속도 등을 식별할 수 있다. 전자 장치는 청취자의 위치 및 객체 오디오의 위치를 이용하여, 청취자와 객체 오디오 사이의 거리를 계산할 수 있다.
청취자에게 전달되는 오디오 신호의 크기는 오디오 소스(예: 객체 오디오의 위치)와 청취자 간의 거리에 따라 변화한다. 예를 들어, 일반적으로 오디오 소스로부터 1m 거리에 위치하는 청취자에게 전달되는 소리의 크기보다, 2m 거리에 위치하는 청취자에게 전달되는 소리가 더 작아진다. 자유 음장(free field) 환경에서 소리의 크기는 1/r(r은 객체 오디오와 청취자 사이의 거리)의 비율로 작아지게 되는데, 소스와 청취자가 간의 거리가 2배가 되면, 청취자에게 들리는 소리의 크기(sound level)는 약 6dB 감소하게 된다.
거리와 소리의 크기 감쇄에 대한 법칙이 6Dof(Degree of Freedom) VR(Virtual Reality) 환경에서 적용이 될 수 있다. 전자 장치는 하나의 객체 오디오 신호에 대하여, 청취자로부터 거리가 멀리 있을 때는 그 크기를 작게 해주고, 거리가 가까워지면 크게 해주는 방식을 사용할 수 있다.
예를 들어, 청취자가 오디오 객체와 1m 떨어져 있을 때 청취자에게 들리는 소리의 음압 레벨이 0dB라고 하였을 때, 청취자가 객체로부터 2m로 멀어지는 경우, 음압 레벨을 -6dB로 변경해 주면, 음압이 자연스럽게 감소하는 것처럼 느껴질 수 있다.
예를 들어, 전자 장치는 객체 오디오와 청취자 사이의 거리가 최소 거리보다 크고, 최대 거리보다 작을 때, 아래 수학식 1에 따라 객체 오디오의 이득(Gain)을 결정할 수 있다. 아래 수학식 1에서. "reference_distance"는 기준 거리, "current_distance"는 객체 오디오와 청취자 사이의 거리를 의미할 수 있다. 기준 거리는 객체 오디오의 이득이 0dB가 되는 거리를 의미할 수 있고, 객체 오디오 각각에 다르게 설정될 수 있다. 예를 들어, 메타 데이터는 객체 오디오의 기준 거리를 포함할 수 있다.
[수학식 1]
전자 장치는 거리에 따라, 공기 흡음 효과를 고려하여 객체 오디오의 이득을 결정할 수 있다. 매질 감쇠는 기하학적 에너지 확산으로 인한 음원의 주파수 종속(frequency-dependant) 감쇠에 해당한다. 전자 장치는 거리 단계에서 EQ 필드를 수정하여, 공기 흡음 효과에 따른 매질 감쇠를 모델링할 수 있다. 매질 감쇠에 따라, 전자 장치는 청취자로부터 멀리 떨어진 객체 오디오에 대하여 저역 통과 효과를 적용할 수 있다.
상기 수학식 1에 따라, 객체 오디오의 이득을 결정하는 경우, 객체 오디오와 청취자 사이의 거리가 가까운 경우, 객체 오디오의 사운드 레벨이 급격히 증가하여 클리핑(clipping)이 발생할 수 있다. 전자 장치는 객체 오디오와 청취자 사이의 거리가 가까워짐에 따라 클리핑이 발생하는 것을 방지 또는 경감시키기 위하여, 객체 오디오의 최소 거리를 기준 거리에 기초하여 결정할 수 있다.
다른 예로, 전자 장치는 렌더링 워크플로우의 리미터 단계에서, 출력되는 오디오 아웃풋의 크기를 제한할 수 있다.
도 3은 다양한 실시예들에 따른 전자 장치(100)의 개략적인 블록도이다.
도 3을 참조하면, 다양한 실시예들에 따른 전자 장치(100)는 메모리(110) 및 프로세서(120)를 포함할 수 있다.
메모리(110)는, 전자 장치(100)의 적어도 하나의 구성요소(예: 프로세서 또는 센서 모듈)에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(110)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(120)에 연결된 전자 장치(100)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈 또는 통신 모듈)로부터 수신된 명령 또는 데이터를 휘발성 메모리에 저장하고, 휘발성 메모리에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(100)가 메인 프로세서 및 보조 프로세서를 포함하는 경우, 보조 프로세서는 메인 프로세서보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서는 메인 프로세서와 별개로, 또는 그 일부로서 구현될 수 있다.
이하에서 설명하는 동작들에 관하여, 전자 장치(100)는 프로세서를 이용하여 동작들을 수행할 수 있다. 예를 들어, 전자 장치(100)는 프로세서를 이용하여 객체 오디오(130) 및 메타 데이터(140)를 식별하고, 객체 오디오(130)의 이득을 결정할 수 있다. 다른 예로, 전자 장치(100)는 거리에 따른 객체 오디오(130)의 이득(또는 볼륨, 볼륨 크기, 사운드 레벨)을 결정하기 위한 별도의 모듈(미도시) 또는 블록(미도시)를 더 포함할 수 있다. 예를 들어, 전자 장치(100)는 객체 오디오(130)를 렌더링하기 위한 렌더러(미도시)를 더 포함할 수 있고, 전자 장치(100)의 렌더러는 객체 오디오(130) 및 메타 데이터(140)를 이용하여, 객체 오디오(130)를 렌더링할 수 있다.
전자 장치(100)는 객체 오디오(130) 및 객체 오디오(130)의 메타 데이터(140)를 식별할 수 있다. 메타 데이터(140)는 객체 오디오(130)에 관한 정보를 포함할 수 있다. 예를 들어, 메타 데이터(140)는 객체 오디오(130)의 3차원 위치 정보, 볼륨 정보, 기준 거리(reference distance) 정보, 최소 거리(minimum distance) 정보 및 최대 거리(maximum distance) 정보 중 적어도 어느 하나, 또는 이들의 조합을 포함할 수 있다.
기준 거리는 객체 오디오(130)의 이득이 0dB가 되는 거리를 의미할 수 있고, 거리에 따른 감쇠를 적용하기 위한 기준을 나타낼 수 있다. 최소 거리 및 최대 거리는 거리 감쇠(distance attenuation) 모델을 적용하기 위한 거리를 의미할 수 있다. 예를 들어, 객체 오디오(130)와 청취자 사이의 음원 거리가 최소 거리 이상이고, 최대 거리 이하일 때, 전자 장치(100)는 거리 감쇠 모델(예: 수학식 1에 따른 거리 감쇠, 1/r 법칙에 따른 거리 감쇠)를 적용하여, 객체 오디오(130)의 이득을 결정할 수 있다.
전자 장치(100)는 기준 거리에 기초하여, 객체 오디오(130)의 최소 거리를 결정할 수 있다. 일례로, 전자 장치(100)는 객체 오디오(130)의 기준 거리를 설정된 정수로 나눈 값으로 최소 거리를 결정할 수 있다. 전자 장치(100)는 아래 수학식 2와 같이, 기준 거리(reference_distance)에 설정된 정수(A)로 나눈 값으로 최소 거리(minimum_distance)를 결정할 수 있다.
[수학식 2]
예를 들어, 전자 장치(100)는 설정된 정수가 5인 경우, 아래 표 1과 같이, 각각의 객체 오디오(130)의 기준 거리(reference distance of object)에 따라, 최소 거리(minimum distance of object)를 결정할 수 있다.
reference distance
of object (meter)
1 2 4 5 10 20 50 90 100 300
minimum distance
of object (meter)
0.2 0.4 0.8 1 2 4 10 18 20 60
설정된 정수가 10인 경우, 전자 장치(100)는 아래 표 2와 같이, 객체 오디오(130)의 기준 거리(reference distance of object)에 따라, 최소 거리(minimum distance of object)를 결정할 수 있다.
reference distance of object [m] 1 2 5 10 20 50 100 200 500
minimum distance by proposed method [m] 0.1 0.2 0.5 1 2 5 10 20 50
객체 오디오(130)의 종류에 따라, 객체 오디오(130)와 청취자 사이의 음원 거리가 매우 가까울 때(예: 약 0.2m), 거리 감쇠 모델에 따라 객체 오디오(130)의 이득을 크게 결정하여야 하는 경우 또는 거리 감쇠 모델을 적용하지 않고, 객체 오디오(130)의 이득을 제한하여야 하는 경우가 발생할 수 있다. 예를 들어, 객체 오디오(130)가 '모기 소리'이고, 객체 오디오(130)와 청취자 사이의 음원 거리가 약 0.2m인 경우, 전자 장치(100)는 거리 감쇠 모델에 따라 객체 오디오(130)의 이득을 크게 결정하여, 청취자에게 객체 오디오(130)를 재생할 필요가 있다. 반면, 객체 오디오(130)가 '천둥 소리'이고, 객체 오디오(130)와 청취자 사이의 음원 거리가 약 0.2m인 경우, 거리 감쇠 모델에 따라 객체 오디오(130)의 이득을 결정하는 경우 청취자의 청력에 손상을 야기할 수 있고, 클리핑 현상이 발생할 수 있다. 전자 장치(100)는 기준 거리에 기초하여 최소 거리를 결정함으로써, 각 객체 오디오(130)에 거리 감쇠 모델에 따른 이득을 결정할 수 있다.일례로, 전자 장치(100)는 기준 거리에서 객체 오디오(130)의 이득과 비교하여, 설정된 이득만큼 커지는 거리를 최소 거리로 결정할 수 있다. 예를 들어, 전자 장치(100)는 기준 거리에서 객체 오디오(130)의 이득보다 12 dB 커지는 거리를 최소 거리로 결정할 수 있다. 상기의 수학식 1을 참고하면, 기준 거리에서 객체 오디오(130)의 이득보다 12 dB 커지는 최소 거리는 기준 거리의 약 1/4배가 될 수 있다.
예를 들어, 기준 거리에서 객체 오디오(130)의 이득보다 6 dB, 12 dB, 18 dB 커지는 거리를 최소 거리로 결정하는 경우, 전자 장치(100)는 기준 거리의 1/2, 1/4, 1/8배가 되는 거리를 최소 거리로 결정할 수 있다.
위의 예시에서, 기준 거리에서 객체 오디오(130)의 이득보다 설정된 이득만큼 커지는 것은, 객체 오디오(130)의 소리의 크기가 기준 거리에서의 소리의 크기보다 설정된 크기만큼 증가하는 것을 의미할 수 있다.
아래 표 3은, 상기 수학식 1에서 설정된 정수가 5일 때, 기준 거리(reference distance of object (meter)), 기준 거리에 기초하여 결정된 최소 거리(minimum distance of object (meter)), 객체 오디오(130)의 최소 거리가 0.2m로 설정되었을 때의 객체 오디오(130)의 이득(gain dB at 0.2m where minimum distance is 0.2m (dB) - A), 객체 오디오(130)의 최소 거리가 기준 거리에 기초하여 결정되었을 때의 객체 오디오(130)의 이득(gain dB at 0.2m where minimum distance is calculated by our proposal (dB) - B)을 나타낸다.
reference distance
of object (meter)
1 2 4 5 10 20 50 90 100 300
minimum distance
of object (meter)
0.2 0.4 0.8 1 2 4 10 18 20 60
gain dB at 0.2m where minimum distance is 0.2m (dB) - A 13.98 20.00 26.02 27.96 33.98 40.00 47.96 53.06 53.98 63.52
gain dB at 0.2m where
minimum distance is calculated by our proposal (dB) - B
13.98 13.98 13.98 13.98 13.98 13.98 13.98 13.98 13.98 13.98
A - B (dB) 0.00 6.02 12.04 13.98 20.00 26.02 33.98 39.08 40.00 49.54
위의 표 3과 같이, 객체 오디오(130)의 최소 거리가 모두 0.2m로 설정되고, 객체 오디오(130)와 청취자 사이의 음원 거리가 0.2m일 때, 객체 오디오(130)의 이득은 13.98 dB, 20.00 dB, 26.02 dB 등으로 결정될 수 있다. 객체 오디오(130)의 최소 거리가 기준 거리에 기초하여 결정되고, 객체 오디오(130)와 청취자 사이의 음원 거리가 0.2m일 때, 객체 오디오(130)의 이득은 13.98 dB로 결정될 수 있다.예를 들어, 기준 거리가 10m인 객체 오디오(130)의 경우, 최소 거리가 모든 객체 오디오(130)에 동일하게 설정된 0.2m이고, 객체 오디오(130)와 청취자와의 음원 거리가 0.2m인 경우, 약 33.98dB의 높은 음압 레벨을 가질 수 있다. 동일한 조건에서 기준 거리에 기초하여 결정된 최소 거리 2.0m, 오디오 객체와 청취자와의 음원 거리가 0.2m인 경우 약 13.98dB의 상대적으로 낮은 음압 레벨을 가질 수 있다.
표 3과 같이, 전자 장치(100)는 객체 오디오(130)의 최소 거리를 기준 거리에 기초하여 결정하고, 객체 오디오(130)의 이득을 결정함으로써, 클리핑 발생을 방지 또는 개선하고, 청취자의 청력을 보호할 수 있다.
아래 표 4은, 상기 수학식 1에서 설정된 정수가 10일 때, 기준 거리(reference distance of object (meter)), 기준 거리에 기초하여 결정된 최소 거리(minimum distance of object (meter)), 객체 오디오(130)의 최소 거리가 0.2m로 설정되었을 때의 객체 오디오(130)의 이득(gain dB at 0.2m where minimum distance is 0.2m (dB) - A), 객체 오디오(130)의 최소 거리가 기준 거리에 기초하여 결정되었을 때의 객체 오디오(130)의 이득(gain dB at 0.2m where minimum distance is calculated by our proposal (dB) - B)을 나타낸다.
reference distance of object [m] 1 2 5 10 20 50 100 200 500
minimum distance
of object (meter)
0.1 0.2 0.5 1 2 5 10 20 50
gain dB at 0.2m where
minimum distance is 0.2m (dB) - A
13.98 20.00 27.96 33.98 40.00 47.96 53.98 60.00 67.96
gain dB at 0.2m where
minimum distance is calculated by our proposal (dB) - B
20.00 20.00 20.00 20.00 20.00 20.00 20.00 20.00 20.00
A - B [dB] -6.02 0.00 7.96 13.98 20.00 27.96 33.98 40.00 47.96
상기의 표 4와 관련하여, 상기의 표 3에서 설명한 내용과 유사하게, 객체 오디오(130)와 청취자 사이의 음원 거리가 가까울 때(예: 0.2m), 객체 오디오(130)의 최소 거리를 기준 거리에 기초하여 결정하고, 객체 오디오(130)의 이득을 결정함으로써, 클리핑 발생을 방지 또는 개선하고, 청취자의 청력을 보호할 수 있다.전자 장치(100)는 음원 거리 및 최소 거리에 기초하여, 객체 오디오(130)를 렌더링할 수 있다. 예를 들어, 전자 장치(100)는 음원 거리 및 최소 거리에 기초하여, 객체 오디오(130)의 이득을 결정할 수 있다.
예를 들어, 음원 거리가 최소 거리를 초과하는 경우, 전자 장치(100)는 음원 거리 및 기준 거리에 기초하여 객체 오디오(130)의 이득을 결정할 수 있다. 예를 들어, 전자 장치(100)는 상기 수학식 1에 따라, 객체 오디오(130)의 이득을 결정할 수 있다.
음원 거리가 최소 거리 이하인 경우, 전자 장치(100)는 객체 오디오(130)가 최소 거리에 위치할 때의 객체 오디오(130)의 이득을 결정할 수 있다. 음원 거리가 최소 거리 이하가 되더라도, 전자 장치(100)는 객체 오디오(130)가 최소 거리에 위치할 때의 객체 오디오(130)의 이득을 음원 거리가 최소 거리 이하인 객체 오디오(130)의 이득으로 결정할 수 있다.
도 4는 다양한 실시예들에 따른 객체 오디오(130) 렌더링 방법의 동작 흐름도이다.
도 4를 참조하면, 다양한 실시예들에 따른 전자 장치(100)는 동작(210)에서 메타 데이터(140)를 식별할 수 있다. 예를 들어, 메타 데이터(140)는 객체 오디오(130)의 3차원 위치 정보, 볼륨 정보, 기준 거리(reference distance) 정보, 최소 거리(minimum distance) 정보 및 최대 거리(maximum distance) 정보 중 적어도 어느 하나, 또는 이들의 조합을 포함할 수 있다.
전자 장치(100)는 동작(220)에서 메타 데이터(140)를 이용하여, 음원 거리를 식별할 수 있다. 예를 들어, 전자 장치(100)는 청취자의 위치 및 객체 오디오(130)의 위치를 이용하여, 음원 거리를 계산할 수 있다.
전자 장치(100)는 동작(230)에서 메타 데이터(140)에 포함된 기준 거리에 기초하여, 객체 오디오(130)의 최소 거리를 결정할 수 있다. 예를 들어, 전자 장치(100)는 기준 거리에 설정된 정수로 나눈 값을 최소 거리로 결정할 수 있다. 예를 들어, 전자 장치(100)는 기준 거리에 객체 오디오(130)가 위치할 때의 이득과 비교하여, 설정된 크기의 이득이 되는 거리를 최소 거리로 결정할 수 있다.
전자 장치(100)는 동작(240)에서 음원 거리 및 최소 거리를 이용하여, 객체 오디오(130)를 렌더링 할 수 있다. 예를 들어, 전자 장치(100)는 음원 거리 및 최소 거리를 이용하여, 객체 오디오(130)의 이득을 결정할 수 있다. 전자 장치(100)는 객체 오디오(130)의 이득에 기초하여, 객체 오디오(130)를 렌더링할 수 있다.
도 5은 다양한 실시예들에 따른 음원 거리 및 최소 거리에 기초하여, 객체 오디오(130)를 렌더링하는 방법의 동작 흐름도이다.
전자 장치(100)는 동작(310)에서, 음원 거리와 최소 거리를 비교할 수 있다.
예를 들어, 음원 거리가 최소 거리를 초과할 때, 전자 장치(100)는 동작(320)에서 음원 거리 및 기준 거리에 기초하여, 객체 오디오(130)의 이득을 결정할 수 있다. 전자 장치(100)는 거리 감쇠 모델(예: 수학식 1, 1/r 법칙)에 따라, 객체 오디오(130)의 이득을 결정할 수 있다. 전자 장치(100)는 상기 수학식 1에 따라, 객체 오디오(130)의 이득을 결정할 수 있다.
예를 들어, 전자 장치(100)는 음원 거리가 최소 거리를 초과하고, 최대 거리 미만일 때, 거리 감쇠 모델에 따라 객체 오디오(130)의 이득을 결정할 수 있다. 예를 들어, 음원 거리가 최대 거리 이상인 경우, 전자 장치(100)는 객체 오디오(130)를 렌더링하지 않거나, 음향 신호를 출력하지 않도록 할 수 있다.
예를 들어, 음원 거리가 최소 거리 이하일 때, 전자 장치(100)는 동작(330)에서 객체 오디오(130)가 최소 거리에 위치할 때의 이득을 객체 오디오(130)의 이득으로 결정할 수 있다.
전자 장치(100)는 동작(340)에서 결정된 객체 오디오(130)의 이득에 기초하여, 객체 오디오(130)를 렌더링할 수 있다. 전자 장치(100)는 출력되는 음향 신호의 크기를 객체 오디오(130)의 이득에 기초하여 결정할 수 있다.
도 6는 다양한 실시예들에 따른 거리에 따른 객체 오디오(130)의 이득을 나타낸 도면이다.
도 6을 참조하면, 음원 거리(예: 도 6의 distance, )가 최소 거리(예: 도 6의 )보다 작은 경우, 객체 오디오(130)의 이득(예: 도 6의 signal gain, )는 음원 거리와 무관하게 으로 일정함을 확인할 수 있다. 전자 장치(100)는 음원 거리가 최소 거리 이하일 때, 객체 오디오(130)의 이득을 객체 오디오(130)가 최소 거리에 위치할 때의 이득 으로 결정할 수 있다.
음원 거리가 최소 거리를 초과할 때, 전자 장치(100)는 거리 감쇠 모델에 따라, 객체 오디오(130)의 이득을 결정할 수 있다. 도 6에서, 음원 거리가 최소 거리 보다 큰 일 때, 전자 장치(100)는 객체 오디오(130)의 이득을 으로 결정할 수 있다.
도 7a, 7b 및 7c는 다양한 실시예들에 따라 결정된 최소 거리에 기초하여 결정된 객체 오디오(130)의 이득을 나타낸 도면이다.
도 7a는 객체 오디오(130)의 최소 거리가 기준 거리와 무관하게 일정한 값(예: 0.2m)로 결정된 경우 거리에 따른 객체 오디오(130)의 이득, 도 7b는 수학식 2에서 설정된 정수가 5인 경우 거리에 따른 객체 오디오(130)의 이득, 도 7c는 수학식 2에서 설정된 정수가 10인 경우 거리에 따른 객체 오디오(130)의 이득을 나타낸다.
도 7a, 7b 및 7c에서 그래프(501, 511, 521)는 기준 거리가 1m인 객체 오디오(130)의 이득을 나타내고, 그래프(502, 512, 522)는 기준 거리가 2m인 객체 오디오(130)의 이득, 그래프(503, 513, 523)는 기준 거리가 5m인 객체 오디오(130)의 이득, 그래프(504, 514, 524)는 기준 거리가 10m인 객체 오디오(130)의 이득, 그래프(505, 515, 525)는 기준 거리가 20m인 객체 오디오(130)의 이득을 나타낸다.
도 7a와 같이, 그래프(501, 502, 503, 504, 505)를 참고하면, 객체 오디오(130)의 최소 거리가 0.2m로 동일하게 설정된 경우, 음원 거리가 최소 거리 이하일 때, 객체 오디오(130)의 이득이 기준 거리에 따라 각각 높은 이득(예: 기준 거리 20m인 객체 오디오(130)의 이득 약 40 dB)을 가짐을 확인할 수 있다.
도 7b에서, 그래프(511, 512, 513, 514, 515)를 참고하면, 음원 거리가 최소 거리 이하일 때, 객체 오디오(130)의 이득은 약 13.98 dB가 되는 것을 확인할 수 있다. 예를 들어, 그래프(515)를 참고하면, 음원 거리가 기준 거리 20m의 1/5배로 결정된 최소 거리 4m 이하일 때, 전자 장치(100)는 객체 오디오(130)의 이득을 약 13.98 dB로 결정할 수 있다.
도 7c에서, 그래프(521, 522, 523, 524, 525)를 참고하면, 음원 거리가 최소 거리 이하일 때, 객체 오디오(130)의 이득은 약 20 dB가 되는 것을 확인할 수 있다. 예를 들어, 그래프(525)를 참고하면, 음원 거리가 기준 거리 20m의 1/10배로 결정된 최소 거리 2m 이하일 때, 전자 장치(100)는 객체 오디오(130)의 이득을 약 20 dB로 결정할 수 있다.
한편, 본 발명에 따른 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성되어 마그네틱 저장매체, 광학적 판독매체, 디지털 저장매체 등 다양한 기록 매체로도 구현될 수 있다.
본 명세서에 설명된 각종 기술들의 구현들은 디지털 전자 회로조직으로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 그들의 조합들로 구현될 수 있다. 구현들은 데이터 처리 장치, 예를 들어 프로그램가능 프로세서, 컴퓨터, 또는 다수의 컴퓨터들의 동작에 의한 처리를 위해, 또는 이 동작을 제어하기 위해, 컴퓨터 프로그램 제품, 즉 정보 캐리어, 예를 들어 기계 판독가능 저장 장치(컴퓨터 판독가능 매체) 또는 전파 신호에서 유형적으로 구체화된 컴퓨터 프로그램으로서 구현될 수 있다. 상술한 컴퓨터 프로그램(들)과 같은 컴퓨터 프로그램은 컴파일된 또는 인터프리트된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있고, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서의 사용에 적절한 다른 유닛으로서 포함하는 임의의 형태로 전개될 수 있다. 컴퓨터 프로그램은 하나의 사이트에서 하나의 컴퓨터 또는 다수의 컴퓨터들 상에서 처리되도록 또는 다수의 사이트들에 걸쳐 분배되고 통신 네트워크에 의해 상호 연결되도록 전개될 수 있다.
컴퓨터 프로그램의 처리에 적절한 프로세서들은 예로서, 범용 및 특수 목적 마이크로프로세서들 둘 다, 및 임의의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서들을 포함한다. 일반적으로, 프로세서는 판독 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 요소들은 명령어들을 실행하는 적어도 하나의 프로세서 및 명령어들 및 데이터를 저장하는 하나 이상의 메모리 장치들을 포함할 수 있다. 일반적으로, 컴퓨터는 데이터를 저장하는 하나 이상의 대량 저장 장치들, 예를 들어 자기, 자기-광 디스크들, 또는 광 디스크들을 포함할 수 있거나, 이것들로부터 데이터를 수신하거나 이것들에 데이터를 송신하거나 또는 양쪽으로 되도록 결합될 수도 있다. 컴퓨터 프로그램 명령어들 및 데이터를 구체화하는데 적절한 정보 캐리어들은 예로서 반도체 메모리 장치들, 예를 들어, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리, EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 등을 포함한다. 프로세서 및 메모리는 특수 목적 논리 회로조직에 의해 보충되거나, 이에 포함될 수 있다.
또한, 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용매체일 수 있고, 컴퓨터 저장매체 및 전송매체를 모두 포함할 수 있다.
본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.
마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 장치 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 장치들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.
한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.
100: 전자 장치
110: 메모리
120: 프로세서
130: 객체 오디오
140: 메타 데이터

Claims (13)

  1. 객체 오디오의 메타 데이터를 식별하는 동작;
    상기 메타 데이터를 이용하여, 상기 객체 오디오와 청취자 사이의 음원 거리를 식별하는 동작;
    상기 메타 데이터에 포함된 상기 객체 오디오의 기준 거리(reference distance)에 기초하여, 상기 음원 거리에 따른 감쇄를 적용하기 위한 상기 객체 오디오의 최소 거리(minimum distance)를 결정하는 동작;
    상기 음원 거리 및 상기 최소 거리를 이용하여, 상기 객체 오디오를 렌더링하는 동작
    을 포함하는,
    객체 오디오 렌더링 방법.
  2. 제1항에 있어서,
    상기 최소 거리를 결정하는 동작은,
    상기 기준 거리를 설정된 정수로 나눈 값으로 상기 최소 거리를 결정하는,
    객체 오디오 렌더링 방법.
  3. 제1항에 있어서,
    상기 최소 거리를 결정하는 동작은,
    상기 기준 거리에서 상기 객체 오디오의 이득과 비교하여, 설정된 이득만큼 커지는 거리를 상기 최소 거리로 결정하는,
    객체 오디오 렌더링 방법.
  4. 제1항에 있어서,
    상기 객체 오디오를 렌더링하는 동작은,
    상기 음원 거리가 상기 최소 거리를 초과일 때, 상기 음원 거리 및 상기 기준 거리에 기초하여, 상기 객체 오디오의 이득을 결정하고,
    상기 객체 오디오의 이득에 기초하여, 상기 객체 오디오를 렌더링하는,
    객체 오디오 렌더링 방법.
  5. 제1항에 있어서,
    상기 객체 오디오를 렌더링하는 동작은,
    상기 음원 거리가 상기 최소 거리 이하일 때, 상기 객체 오디오가 상기 최소 거리에 위치할 때의 상기 객체 오디오의 이득을 결정하고,
    상기 객체 오디오의 이득에 기초하여, 상기 객체 오디오를 렌더링하는,
    객체 오디오 렌더링 방법.
  6. 객체 오디오의 메타 데이터를 식별하는 동작;
    상기 메타 데이터를 이용하여, 상기 객체 오디오와 청취자 사이의 음원 거리를 식별하는 동작;
    상기 메타 데이터에 포함된 상기 객체 오디오의 기준 거리(reference distance)에 기초하여, 상기 음원 거리에 따른 감쇄를 적용하기 위한 상기 객체 오디오의 최소 거리(minimum distance)를 결정하는 동작;
    상기 음원 거리가 상기 최소 거리를 초과할 때, 상기 음원 거리 및 상기 기준 거리에 기초하여, 상기 음원 거리에 따른 감쇄를 적용하여 상기 객체 오디오의 이득을 결정하는 동작;
    상기 음원 거리가 상기 최소 거리 이하일 때, 상기 객체 오디오가 상기 최소 거리에 위치할 때의 상기 객체 오디오의 이득을 결정하는 동작; 및
    상기 객체 오디오의 이득에 기초하여, 상기 객체 오디오를 렌더링하는 동작
    을 포함하는,
    객체 오디오 렌더링 방법.
  7. 제6항에 있어서,
    상기 최소 거리를 결정하는 동작은,
    상기 기준 거리를 설정된 정수로 나눈 값으로 상기 최소 거리를 결정하는,
    객체 오디오 렌더링 방법.
  8. 제6항에 있어서,
    상기 최소 거리를 결정하는 동작은,
    상기 기준 거리에서 상기 객체 오디오의 이득과 비교하여, 설정된 이득만큼 커지는 거리를 상기 최소 거리로 결정하는,
    객체 오디오 렌더링 방법.
  9. 전자 장치에 있어서,
    프로세서
    를 포함하고,
    상기 프로세서는,
    객체 오디오의 메타 데이터를 식별하고;
    상기 메타 데이터를 이용하여, 상기 객체 오디오와 청취자 사이의 음원 거리를 식별하고;
    상기 메타 데이터에 포함된 상기 객체 오디오의 기준 거리(reference distance)에 기초하여, 상기 음원 거리에 따른 감쇄를 적용하기 위한 상기 객체 오디오의 최소 거리(minimum distance)를 결정하고;
    상기 음원 거리 및 상기 최소 거리를 이용하여, 상기 객체 오디오를 렌더링하는,
    전자 장치.
  10. 제9항에 있어서,
    상기 프로세서는,
    상기 기준 거리를 설정된 정수로 나눈 값으로 상기 최소 거리를 결정하는,
    전자 장치.
  11. 제9항에 있어서,
    상기 프로세서는,
    상기 기준 거리에서 상기 객체 오디오의 이득과 비교하여, 설정된 이득만큼 커지는 거리를 상기 최소 거리로 결정하는,
    전자 장치.
  12. 제9항에 있어서,
    상기 프로세서는,
    상기 음원 거리가 상기 최소 거리를 초과할 때, 상기 음원 거리 및 상기 기준 거리에 기초하여, 상기 객체 오디오의 이득을 결정하고,
    상기 객체 오디오의 이득에 기초하여, 상기 객체 오디오를 렌더링하는,
    전자 장치.
  13. 제9항에 있어서,
    상기 프로세서는,
    상기 음원 거리가 상기 최소 거리 이하일 때, 상기 객체 오디오가 상기 최소 거리에 위치할 때의 상기 객체 오디오의 이득을 결정하고,
    상기 객체 오디오의 이득에 기초하여, 상기 객체 오디오를 렌더링하는,
    전자 장치.

KR1020220168865A 2022-05-05 2022-12-06 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치 KR20230162523A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220168865A KR20230162523A (ko) 2022-05-05 2022-12-06 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치
US18/320,729 US20230362574A1 (en) 2022-05-05 2023-05-19 Method of rendering object-based audio and electronic device performing the method

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20220062101 2022-05-05
KR1020220062101 2022-05-20
KR20220085786 2022-07-12
KR1020220085786 2022-07-12
KR1020220168865A KR20230162523A (ko) 2022-05-05 2022-12-06 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치

Publications (1)

Publication Number Publication Date
KR20230162523A true KR20230162523A (ko) 2023-11-28

Family

ID=88647826

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220168865A KR20230162523A (ko) 2022-05-05 2022-12-06 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치

Country Status (2)

Country Link
US (1) US20230362574A1 (ko)
KR (1) KR20230162523A (ko)

Also Published As

Publication number Publication date
US20230362574A1 (en) 2023-11-09

Similar Documents

Publication Publication Date Title
US11681490B2 (en) Binaural rendering for headphones using metadata processing
JP5410682B2 (ja) マルチチャンネルスピーカシステムのマルチチャンネル信号の再生方法及び装置
EP2936485B1 (en) Object clustering for rendering object-based audio content based on perceptual criteria
US10327090B2 (en) Distance rendering method for audio signal and apparatus for outputting audio signal using same
US11516616B2 (en) System for and method of generating an audio image
EP3014901B1 (en) Improved rendering of audio objects using discontinuous rendering-matrix updates
CN111344785B (zh) 在虚拟现实使用音频放大效果的音频信号控制方法及装置
KR101673232B1 (ko) 수직 방향 가상 채널을 생성하는 장치 및 그 방법
US11616482B2 (en) Multichannel audio enhancement, decoding, and rendering in response to feedback
KR20230162523A (ko) 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치
US20230328472A1 (en) Method of rendering object-based audio and electronic device for performing the same
KR20230139766A (ko) 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치
US20230345197A1 (en) Method of rendering object-based audio and electronic device for performing the method
KR20210007122A (ko) 오디오 신호 처리 방법 및 장치
KR20240050247A (ko) 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치
US20240129682A1 (en) Method of rendering object-based audio and electronic device performing the method
US10779106B2 (en) Audio object clustering based on renderer-aware perceptual difference
KR20230150711A (ko) 객체 오디오 렌더링 방법 및 상기 방법을 수행하는 전자 장치
US12009877B1 (en) Modification of signal attenuation relative to distance based on signal characteristics
US20240135953A1 (en) Audio rendering method and electronic device performing the same
RU2803638C2 (ru) Обработка пространственно диффузных или больших звуковых объектов
US20220232340A1 (en) Indication of responsibility for audio playback
KR20240054885A (ko) 오디오 렌더링 방법 및 이를 수행하는 전자 장치
CA3237716A1 (en) Late reverberation distance attenuation
US20240187807A1 (en) Clustering audio objects