KR102654354B1 - 객체-기반 공간 오디오 마스터링 디바이스 및 방법 - Google Patents
객체-기반 공간 오디오 마스터링 디바이스 및 방법 Download PDFInfo
- Publication number
- KR102654354B1 KR102654354B1 KR1020227026195A KR20227026195A KR102654354B1 KR 102654354 B1 KR102654354 B1 KR 102654354B1 KR 1020227026195 A KR1020227026195 A KR 1020227026195A KR 20227026195 A KR20227026195 A KR 20227026195A KR 102654354 B1 KR102654354 B1 KR 102654354B1
- Authority
- KR
- South Korea
- Prior art keywords
- audio
- processing
- audio objects
- objects
- group
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 78
- 238000012545 processing Methods 0.000 claims abstract description 138
- 230000000694 effects Effects 0.000 claims abstract description 130
- 238000004590 computer program Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 description 25
- 230000008859 change Effects 0.000 description 22
- 238000009877 rendering Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 13
- 238000004519 manufacturing process Methods 0.000 description 13
- 230000005236 sound signal Effects 0.000 description 13
- 230000007704 transition Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 230000006835 compression Effects 0.000 description 10
- 238000007906 compression Methods 0.000 description 10
- 238000013459 approach Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 210000003746 feather Anatomy 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005562 fading Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000036962 time dependent Effects 0.000 description 3
- 101100058681 Drosophila melanogaster Btk29A gene Proteins 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000003292 glue Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/307—Frequency adjustment, e.g. tone control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/03—Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
Abstract
Description
도1은 일 실시예에 따라 복수의 오디오 객체들을 이용하는 동안 처리된 신호를 생성하기 위한 디바이스를 보여준다.
도2는 또다른 실시예에 따른 디바이스로서 인코더를 보여준다.
도3은 또다른 실시예에 따른 디바이스로서 디코더를 보여준다.
도4는 일 실시예에 따른 시스템을 보여준다.
도5는 일 실시예에 따라 영역(A) 및 페이딩 영역(Af)을 포함하는 프로세싱 객체를 보여준다.
도6은 일 실시예에 따라 영역(A) 및 객체 반경들을 포함하는 프로세싱 객체를 보여준다.
도7은 일 실시예에 따라 프로세싱 객체에 대한 오디오 객체들의 상대적인 각도를 보여준다.
도8은 일 실시예에 따라 새로운 방사상 원주를 갖는 이퀄라이저 객체를 보여준다.
도9는 일 실시예에 따라 n 소스들로부터의 신호들의 압축의 신호 흐름을 보여준다.
도10은 일 실시예에 따라 제어 패널(M)을 이용하는 동안 장면 변환을 보여준다.
도11은 일 실시예에 따라 오디오 신호 효과들 및 메타데이터 효과들을 일으키는 프로세싱 객체의 맥락을 보여준다.
도12는 일 실시예에 따라 사용자 입력시 오디오 객체들 및 오디오 신호들의 조정을 보여준다.
도13은 일 실시예에 따라 사용자에 의한 코너들(C1,C2,C3,C4)의 왜곡에 대한 사각형(M)을 갖는 프로세싱 객체(PO4)를 보여준다.
도14는 일 실시예에 따라 영향의 그들 각각의 중첩하는 2차원 영역들(A,B)를 갖는 프로세싱 객체(PO1, PO2)를 보여준다.
도15는 일 실시예에 따라 사각형, 영향의 2차원 영역 및 PO3 및 할당된 소스들(S1,S2,S3)을 갖는 프로세싱 객체(PO3)를 보여준다.
도16은 일 실시예에 다라 프로세싱 객체에 적용되는 이퀄라이저 효과의 가능한 도식적인 구현을 도시한다.
도17은 일 실시예에 따라 영향의 영역을 통해 할당된 소스들(S1,S2,S3)에 대한 각각의 거리들(dS1,dS2,dS3) 및 영향의 3D 영역(D)을 갖는 프로세싱 객체(PO5)를 보여준다.
도18은 일 실시예에 따라 이퀄라이저가 적용된 프로세싱 객체의 원형적 구현을 보여준다.
도19는 일 실시예에 따라 도18과 같은 프로세싱 객체로서, 다른 위치에 있으며 천이 영역이 없는 프로세싱 객체를 보여준다.
도20은 일 실시예에 따라 그것의 방위각을 통해 영향의 영역으로 정의되는 영역을 갖는 프로세싱 객체를 보여주며, 따라서 소스들(Src22 및 Src4)이 프로세싱 객체와 연계된다.
도21은 일 실시예에 따라 도20과 같은 프로세싱 객체로서, "페더(Feather)" 슬라이더를 통해 사용자가 제어할 수 있는 추가적인 천이 영역을 갖는 프로세싱 객체를 보여준다.
도22는 일 실시예에 따라 영향의 다른 영역들을 갖는, 장면 내의 몇몇 프로세싱 객체들을 보여준다.
도23은 이미지의 우측의 적색 사각형이 일 실시예에 따라 오디오 객체들의 위치의 수평적 왜곡을 위한 프로세싱 객체를 나타내는 것을 도시한다.
도24는 일 실시예에 따라 사용자가 프로세싱 객체의 코너들을 왜곡한 후의 장면들을 보여주며, 모든 소스들의 위치가 왜곡의 기능에 따라 변화한다
도25는 일 실시예에 따라 프로세싱 객체를 갖는 개별적인 오디오 객체들의 연계의 가능한 시각화를 보여준다.
Claims (19)
- 다수의 오디오 객체들을 이용하는 동안 처리된 신호를 생성하는 디바이스로서, 상기 다수의 오디오 객체들 중 각각의 오디오 객체는 오디오 객체 신호 및 오디오 객체 메타데이터를 포함하고, 상기 오디오 객체 메타데이터는 상기 오디오 객체의 위치를 포함하는 디바이스에 있어서,
사용자 측에 의해 오디오 객체들의 프로세싱 객체 그룹의 적어도 하나의 이펙트 파라미터를 지정하기 위한 인터페이스(110)로서, 상기 오디오 객체들의 오디오 객체 그룹은 상기 다수의 오디오 객체들 중 2 이상의 오디오 객체들을 포함하는 상기 인터페이스(110), 및
상기 인터페이스(110)를 통해 지정된 상기 적어도 하나의 이펙트 파라미터가 상기 오디오 객체들의 프로세싱-객체 그룹의 상기 오디오 객체들 각각의 상기 오디오 객체 신호 또는 상기 오디오 객체 메타데이터에 적용되도록 상기 처리된 신호를 생성하도록 구성되는 프로세서 유닛(120)을 포함하고,
상기 다수의 오디오 객체들 중 하나 이상의 오디오 객체가 상기 오디오 객체들의 프로세싱-객체 그룹에 속하지 않으며, 상기 프로세서 유닛(120)은 상기 인터페이스를 통해 지정된 상기 적어도 하나의 이펙트 파라미터를, 상기 오디오 객체들의 프로세싱-객체 그룹에 속하지 않는 상기 하나 이상의 오디오 객체의 오디오 객체 신호 및 오디오 객체 메타데이터에 적용하지 않도록 구성되는 디바이스.
- 제1항에 있어서,
상기 프로세서 유닛(120)은 상기 인터페이스(110)를 통해 지정된 상기 적어도 하나의 이펙트 파라미터가 상기 오디오 객체들의 프로세싱-객체 그룹의 상기 오디오 객체들 각각의 상기 오디오 객체 신호에 적용되도록 상기 처리된 신호를 생성하도록 구성되고,
상기 프로세서 유닛(120)은 상기 인터페이스를 통해 지정된 상기 적어도 하나의 이펙트 파라미터를, 상기 오디오 객체들의 프로세싱-객체 그룹에 속하지 않는 상기 다수의 오디오 객체들 중 상기 하나 이상의 오디오 객체의 오디오 객체 신호에 적용하지 않도록 구성되는 디바이스.
- 제1항에 있어서,
상기 프로세서 유닛(120)은 상기 인터페이스(110)를 통해 지정된 상기 적어도 하나의 이펙트 파라미터가 상기 오디오 객체들의 프로세싱-객체 그룹의 상기 오디오 객체들 각각의 상기 메타데이터 중 위치에 적용되도록 상기 처리된 신호를 생성하도록 구성되고,
상기 프로세서 유닛(120)은 상기 인터페이스를 통해 지정된 상기 적어도 하나의 이펙트 파라미터를, 상기 오디오 객체들의 프로세싱-객체 그룹에 속하지 않는 상기 다수의 오디오 객체들 중 상기 하나 이상의 오디오 객체의 상기 오디오 객체 메타데이터 중 위치에 적용하지 않도록 구성되는 디바이스.
- 제1항에 있어서,
상기 인터페이스(110)는 사용자에 의해 상기 오디오 객체들의 프로세싱-객체 그룹의 적어도 하나의 정의 파라미터를 지정하도록 구성되고,
상기 프로세서 유닛(120)은 상기 인터페이스(110)를 통해 지정된 상기 오디오 객체들의 프로세싱-객체 그룹의 상기 적어도 하나의 정의 파라미터에 기초하여 상기 다수의 오디오 객체 중 어느 오디오 객체가 상기 오디오 객체들의 프로세싱-객체 그룹에 속하는지를 결정하도록 구성되는 디바이스.
- 제4항에 있어서,
상기 오디오 객체들의 프로세싱-객체 그룹의 상기 적어도 하나의 정의 파라미터는 상기 오디오 객체들의 프로세싱-객체 그룹과 연관된 관심 영역의 적어도 하나의 위치를 포함하고,
상기 프로세서 유닛(120)은 상기 관심 영역의 위치에 기초하고 및 상기 오디오 객체의 상기 오디오 객체 메타데이터의 위치에 기초하여, 상기 다수의 오디오 객체들 중 오디오 객체 각각에 대하여 상기 오디오 객체가 상기 오디오 객체들의 프로세싱-객체 그룹에 속하는지를 결정하도록 구성되는 디바이스.
- 제5항에 있어서,
상기 오디오 객체들의 프로세싱-객체 그룹의 상기 적어도 하나의 정의 파라미터는 상기 오디오 객체들의 프로세싱-객체 그룹과 연관된 상기 관심 영역의 반경을 더 포함하고,
상기 프로세서 유닛(120)은 상기 다수의 오디오 객체들 중 오디오 객체 각각에 대해서, 그 오디오 객체의 상기 오디오 객체 메타데이터 중 상기 위치에 기초하여 및 상기 관심 영역의 위치 및 반경에 기초하여, 그 오디오 객체가 상기 오디오 객체들의 프로세싱-객체 그룹에 속하는지를 결정하도록 구성되는 디바이스.
- 제4항에 있어서,
상기 오디오 객체들의 프로세싱-객체 그룹의 상기 적어도 하나의 정의 파라미터는 상기 오디오 객체들의 프로세싱-객체 그룹과 연관된 관심 영역이 있는, 정의된 사용자 위치로부터의 방향을 나타내는 적어도 하나의 각도를 포함하고,
상기 프로세서 유닛(120)은 상기 관심 영역이 위치하는 상기 정의된 사용자 위치로부터의 상기 방향을 나타내는 상기 각도에 기초하여 및 상기 오디오 객체의 상기 메타데이터 중 상기 위치에 기초하여, 상기 다수의 오디오 객체들 중 오디오 객체 각각에 대해서, 상기 오디오 객체가 상기 오디오 객체들의 프로세싱-객체 그룹에 속하는지를 결정하도록 구성되는 디바이스.
- 제1항에 있어서,
상기 오디오 객체들의 프로세싱-객체 그룹은 상기 오디오 객체들의 제1 프로세싱-객체 그룹이고, 오디오 객체들의 하나 이상의 추가의 프로세싱-객체 그룹이 역시 존재하며, 상기 하나 이상의 추가의 오디오 객체들의 프로세싱-객체 그룹들 중의 각각의 프로세싱-객체 그룹은 상기 다수의 오디오 객체들 중 하나 이상의 오디오 객체들을 포함하고, 상기 하나 이상의 추가의 오디오 객체들의 프로세싱-객체 그룹들 중 프로세싱-객체 그룹의 적어도 하나의 오디오 객체는 상기 오디오 객체들의 제1 프로세싱-객체 그룹의 오디오 객체가 아니며,
상기 인터페이스(110)는 상기 하나 이상의 추가의 오디오 객체들의 프로세싱-객체 그룹들 중의 프로세싱-객체 그룹 각각에 대해서, 상기 사용자에 의한 그 오디오 객체들의 프로세싱-객체 그룹에 대한 적어도 하나의 이펙트 파라미터 지정을 위하여 구성되고,
상기 프로세서 유닛(120)은 상기 하나 이상의 추가의 오디오 객체들의 프로세싱-객체 그룹들 중의 프로세싱-객체 그룹 각각에 대해서, 상기 인터페이스(110)를 통해 지정된 이 프로세싱-객체 그룹의 상기 적어도 하나의 이펙트 파라미터가 이 프로세싱-객체 그룹의 상기 하나 이상의 오디오 객체들 각각의 상기 오디오 객체 메타데이터 또는 상기 오디오 객체 신호에 적용되도록 상기 처리된 신호를 생성하도록 구성되고, 상기 다수의 오디오 객체들 중 하나 이상의 오디오 객체들이 이 프로세싱-객체 그룹에 속하지 않으며, 및 상기 프로세서 유닛(120)은 상기 인터페이스를 통해 지정된 이 프로세싱-객체 그룹의 상기 적어도 하나의 이펙트 파라미터를 이 프로세싱-객체 그룹에 속하지 않는 상기 하나 이상의 오디오 객체의 오디오 객체 신호 및 오디오 객체 메타데이터에 적용하지 않도록 구성되는 디바이스.
- 제8항에 있어서,
상기 인터페이스(110)는 상기 오디오 객체들의 제1 프로세싱-객체 그룹에 더하여, 상기 사용자에 의한 하나 이상의 오디오 객체들의 상기 하나 이상의 추가의 프로세싱-객체 그룹들의 지정을 위해 구성되고, 상기 인터페이스(110)는 상기 하나 이상의 오디오 객체들의 하나 이상의 추가의 프로세싱-객체 그룹들의 프로세싱-객체 그룹 각각에 대해서, 사용자에 의한 이 프로세싱-객체 그룹의 적어도 하나의 정의 파라미터의 지정을 위해 구성되며,
상기 프로세서 유닛(120)은 상기 하나 이상의 오디오 객체들의 하나 이상의 추가의 프로세싱-객체 그룹들 중의 프로세싱-객체 그룹 각각에 대해서, 상기 인터페이스(110)를 통해 지정된 이 프로세싱-객체 그룹의 상기 적어도 하나의 정의 파라미터에 따라서, 어느 오디오 객체들이 이 프로세싱-객체 그룹의 다수의 오디오 객체들에 속하는지를 결정하도록 구성되는 디바이스.
- 제1항에 있어서,
상기 디바이스는 인코더이고, 상기 프로세서 유닛(120)은 상기 다수의 오디오 객체들의 상기 오디오 객체 신호를 이용하는 동안 다운믹스 신호를 생성하도록 구성되고, 상기 프로세서 유닛(120)은 상기 다수의 오디오 객체들의 상기 오디오 객체 메타데이터를 이용하는 동안 메타데이터 신호를 생성하도록 구성되며,
상기 프로세서 유닛(120)은 상기 오디오 객체들의 프로세싱-객체 그룹의 오디오 객체 각각에 대해서, 상기 처리된 신호로서 상기 다운믹스 신호, 상기 다운믹스 신호 내의 믹싱된 적어도 하나의 수정된 객체 신호를 생성하도록 구성되고, 상기 프로세서 유닛(120)은 상기 오디오 객체들의 프로세싱-객체 그룹의 오디오 객체 각각에 대해서, 상기 인터페이스(110)를 통해 지정된 상기 적어도 하나의 이펙트 파라미터를 이 오디오 객체의 상기 오디오 객체 신호에 적용함으로써, 이 오디오 객체의 상기 수정된 객체 신호를 생성하도록 구성되며, 또는
상기 프로세서 유닛(120)은 상기 처리된 신호로서 상기 메타데이터 신호를 생성하도록 구성되고, 상기 메타데이터 신호는 상기 오디오 객체들의 프로세싱-객체 그룹의 오디오 객체 각각에 대한 적어도 하나의 수정된 위치를 포함하고, 상기 프로세서 유닛(120)은 상기 오디오 객체들의 프로세싱-객체 그룹의 오디오 객체 각각에 대해 상기 인터페이스(110)를 통해 지정된 상기 적어도 하나의 이펙트 파라미터를 이 오디오 객체의 상기 위치에 적용함으로써, 이 오디오 객체의 상기 수정된 위치를 생성하도록 구성되는 디바이스.
- 다수의 오디오 객체들을 이용하는 동안 처리된 신호를 생성하는 방법으로서, 상기 다수의 오디오 객체들 중의 오디오 객체 각각은 오디오 객체 신호 및 오디오 객체 메타데이터를 포함하고, 상기 오디오 객체 메타데이터는 상기 오디오 객체의 위치를 포함하는 방법에 있어서,
인터페이스(110)를 통해 사용자에 의한 오디오 객체들의 프로세싱-객체 그룹의 적어도 하나의 이펙트 파라미터를 지정하는 단계로서, 상기 프로세싱-객체 그룹은 상기 다수의 오디오 객체들 중 2 이상의 오디오 객체들을 포함하는 단계, 및
프로세서 유닛(120)에 의해, 상기 인터페이스를 통해 지정된 상기 적어도 하나의 이펙트 파라미터가 상기 오디오 객체들의 프로세싱-객체 그룹의 오디오 객체 각각의 상기 오디오 객체 신호 또는 상기 오디오 객체 메타데이터에 적용되도록 상기 처리된 신호를 생성하는 단계를 포함하고,
상기 다수의 오디오 객체들 중 하나 이상의 오디오 객체가 상기 오디오 객체들의 프로세싱-객체 그룹에 속하지 않으며, 상기 프로세서 유닛(120)은 상기 인터페이스를 통해 지정된 상기 적어도 하나의 이펙트 파라미터를, 상기 오디오 객체들의 프로세싱-객체 그룹에 속하지 않는 상기 하나 이상의 오디오 객체의 오디오 객체 신호 및 오디오 객체 메타데이터에 적용하지 않도록 구성되는 방법.
- 제11항에 청구된 방법을 수행하기 위한 프로그램 코드를 포함하는 컴퓨터 프로그램을 포함하는 비일시적 컴퓨터 판독가능 매체.
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020247010821A KR20240052967A (ko) | 2018-02-19 | 2019-02-18 | 객체-기반 공간 오디오 마스터링 디바이스 및 방법 |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018202511 | 2018-02-19 | ||
DE102018202511.8 | 2018-02-19 | ||
DE102018206025.8 | 2018-04-19 | ||
DE102018206025.8A DE102018206025A1 (de) | 2018-02-19 | 2018-04-19 | Vorrichtung und Verfahren für objektbasiertes, räumliches Audio-Mastering |
PCT/EP2019/053961 WO2019158750A1 (de) | 2018-02-19 | 2019-02-18 | Vorrichtung und verfahren für objektbasiertes, räumliches audio-mastering |
KR1020207026941A KR102427809B1 (ko) | 2018-02-19 | 2019-02-18 | 객체-기반 공간 오디오 마스터링 디바이스 및 방법 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207026941A Division KR102427809B1 (ko) | 2018-02-19 | 2019-02-18 | 객체-기반 공간 오디오 마스터링 디바이스 및 방법 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020247010821A Division KR20240052967A (ko) | 2018-02-19 | 2019-02-18 | 객체-기반 공간 오디오 마스터링 디바이스 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220108218A KR20220108218A (ko) | 2022-08-02 |
KR102654354B1 true KR102654354B1 (ko) | 2024-04-03 |
Family
ID=67482130
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020227026195A KR102654354B1 (ko) | 2018-02-19 | 2019-02-18 | 객체-기반 공간 오디오 마스터링 디바이스 및 방법 |
KR1020247010821A KR20240052967A (ko) | 2018-02-19 | 2019-02-18 | 객체-기반 공간 오디오 마스터링 디바이스 및 방법 |
KR1020207026941A KR102427809B1 (ko) | 2018-02-19 | 2019-02-18 | 객체-기반 공간 오디오 마스터링 디바이스 및 방법 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020247010821A KR20240052967A (ko) | 2018-02-19 | 2019-02-18 | 객체-기반 공간 오디오 마스터링 디바이스 및 방법 |
KR1020207026941A KR102427809B1 (ko) | 2018-02-19 | 2019-02-18 | 객체-기반 공간 오디오 마스터링 디바이스 및 방법 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20200374649A1 (ko) |
EP (1) | EP3756363A1 (ko) |
JP (2) | JP7277475B2 (ko) |
KR (3) | KR102654354B1 (ko) |
CA (1) | CA3091529A1 (ko) |
DE (1) | DE102018206025A1 (ko) |
SG (1) | SG11202105234TA (ko) |
WO (1) | WO2019158750A1 (ko) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2594265A (en) * | 2020-04-20 | 2021-10-27 | Nokia Technologies Oy | Apparatus, methods and computer programs for enabling rendering of spatial audio signals |
US11579838B2 (en) * | 2020-11-26 | 2023-02-14 | Verses, Inc. | Method for playing audio source using user interaction and a music application using the same |
US12198661B2 (en) * | 2021-09-03 | 2025-01-14 | Dolby Laboratories Licensing Corporation | Music synthesizer with spatial metadata output |
WO2023062865A1 (ja) * | 2021-10-15 | 2023-04-20 | ソニーグループ株式会社 | 情報処理装置および方法、並びにプログラム |
WO2024038925A1 (ko) * | 2022-08-18 | 2024-02-22 | 엘지전자 주식회사 | Tv 및 tv의 제어 방법 |
WO2024263170A1 (en) * | 2023-06-23 | 2024-12-26 | Harman International Industries, Incorporated | Sound synthesis system using multiple interactive devices |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101553868B (zh) * | 2006-12-07 | 2012-08-29 | Lg电子株式会社 | 用于处理音频信号的方法和装置 |
US20100223552A1 (en) * | 2009-03-02 | 2010-09-02 | Metcalf Randall B | Playback Device For Generating Sound Events |
DE102010030534A1 (de) * | 2010-06-25 | 2011-12-29 | Iosono Gmbh | Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion |
US9179236B2 (en) * | 2011-07-01 | 2015-11-03 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
US9516446B2 (en) * | 2012-07-20 | 2016-12-06 | Qualcomm Incorporated | Scalable downmix design for object-based surround codec with cluster analysis by synthesis |
EP3264259A1 (en) * | 2016-06-30 | 2018-01-03 | Nokia Technologies Oy | Audio volume handling |
US9980078B2 (en) * | 2016-10-14 | 2018-05-22 | Nokia Technologies Oy | Audio object modification in free-viewpoint rendering |
-
2018
- 2018-04-19 DE DE102018206025.8A patent/DE102018206025A1/de active Pending
-
2019
- 2019-02-18 KR KR1020227026195A patent/KR102654354B1/ko active IP Right Grant
- 2019-02-18 CA CA3091529A patent/CA3091529A1/en active Pending
- 2019-02-18 KR KR1020247010821A patent/KR20240052967A/ko active Search and Examination
- 2019-02-18 SG SG11202105234TA patent/SG11202105234TA/en unknown
- 2019-02-18 KR KR1020207026941A patent/KR102427809B1/ko active IP Right Grant
- 2019-02-18 JP JP2020543912A patent/JP7277475B2/ja active Active
- 2019-02-18 EP EP19710283.3A patent/EP3756363A1/de active Pending
- 2019-02-18 WO PCT/EP2019/053961 patent/WO2019158750A1/de active Search and Examination
-
2020
- 2020-08-11 US US16/990,835 patent/US20200374649A1/en active Pending
-
2023
- 2023-01-13 JP JP2023004163A patent/JP2023055736A/ja active Pending
Non-Patent Citations (2)
Title |
---|
SCHEIRER 외 2명. "AudioBIFS: Describing Audio Scenes with the MPEG-4 Multimedia Stanard". IEEE TRANSACTIONS ON MULTIMEDIA, PISCATAWAY, NJ, US, Bd. 1, Nr. 3, 페이지 237-250, 1999.09.01. 1부.* |
THIBAUT CARPENTIER. "Panoramix: 3D mixing and post-production workstation". 42ND INTERNATIONAL COMPUTER MUSI CONFERENCE (ICMC) 2016, 페이지 122-127, 2016.09.01. 1부.* |
Also Published As
Publication number | Publication date |
---|---|
KR102427809B1 (ko) | 2022-08-01 |
KR20200120734A (ko) | 2020-10-21 |
WO2019158750A1 (de) | 2019-08-22 |
DE102018206025A1 (de) | 2019-08-22 |
JP2023055736A (ja) | 2023-04-18 |
US20200374649A1 (en) | 2020-11-26 |
JP2021514164A (ja) | 2021-06-03 |
SG11202105234TA (en) | 2021-06-29 |
KR20220108218A (ko) | 2022-08-02 |
KR20240052967A (ko) | 2024-04-23 |
JP7277475B2 (ja) | 2023-05-19 |
CA3091529A1 (en) | 2019-08-22 |
EP3756363A1 (de) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102654354B1 (ko) | 객체-기반 공간 오디오 마스터링 디바이스 및 방법 | |
JP6055576B2 (ja) | 任意のスピーカー・レイアウトへのオーディオ・オブジェクトのパン | |
KR101407200B1 (ko) | 가상 소스와 연관된 오디오 신호를 위한 라우드스피커 배열의 라우드스피커들에 대한 구동 계수를 계산하는 장치 및 방법 | |
TWI595785B (zh) | 用於螢幕相關音訊物件再對映之裝置及方法 | |
EP3069528B1 (en) | Screen-relative rendering of audio and encoding and decoding of audio for such rendering | |
KR20220044973A (ko) | 다중-층 묘사를 이용하여 증강된 음장 묘사 또는 수정된 음장 묘사를 생성하기 위한 개념 | |
US20240089694A1 (en) | A Method and Apparatus for Fusion of Virtual Scene Description and Listener Space Description | |
US20240276168A1 (en) | Spatially-bounded audio elements with interior and exterior representations | |
CN109314833B (zh) | 音频处理装置和音频处理方法以及程序 | |
US20230133555A1 (en) | Method and Apparatus for Audio Transition Between Acoustic Environments | |
CN117242796A (zh) | 渲染混响 | |
US20240292178A1 (en) | Renderers, decoders, encoders, methods and bitstreams using spatially extended sound sources | |
US10986457B2 (en) | Method and device for outputting audio linked with video screen zoom | |
KR20190060464A (ko) | 오디오 신호 처리 방법 및 장치 | |
CN114503609A (zh) | 在6自由度场景中呈现预混合内容 | |
Schwark et al. | Audiovisual Virtual Environments: Enabling Realtime Rendering of Early Reflections by Scene Graph Simplification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
PA0104 | Divisional application for international application |
Comment text: Divisional Application for International Patent Patent event code: PA01041R01D Patent event date: 20220727 Application number text: 1020207026941 Filing date: 20200917 |
|
PG1501 | Laying open of application | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220824 Comment text: Request for Examination of Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230413 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20231228 |
|
PG1601 | Publication of registration |