JP2023527650A - オーディオシーンの関心スペースのための方法および装置 - Google Patents

オーディオシーンの関心スペースのための方法および装置 Download PDF

Info

Publication number
JP2023527650A
JP2023527650A JP2022562518A JP2022562518A JP2023527650A JP 2023527650 A JP2023527650 A JP 2023527650A JP 2022562518 A JP2022562518 A JP 2022562518A JP 2022562518 A JP2022562518 A JP 2022562518A JP 2023527650 A JP2023527650 A JP 2023527650A
Authority
JP
Japan
Prior art keywords
audio
space
source data
interest
audio source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022562518A
Other languages
English (en)
Inventor
ティエン,ジュン
シュウ,シャオンジョン
リウ,シャン
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2023527650A publication Critical patent/JP2023527650A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)

Abstract

本開示の態様は、オーディオシーンのオーディオデータを復号化する方法、装置、および非一時的なコンピュータ読取可能記憶媒体を含む。1つの装置は、第1のオーディオソースデータおよび第2のオーディオソースデータを受信する処理回路構成を含む。第1のオーディオソースデータは、オーディオシーン内の関心空間に対応し、第2のオーディオソースデータは、オーディオシーン内の関心空間に対応しない。オーディオシーンの関心空間は、視聴者空間、オーディオチャネル、またはオーディオオブジェクトのうちの少なくとも1つによって表される。処理回路構成は、関心空間に基づいて第1のオーディオソースデータを復号化する。

Description

(関連出願の参照)
本出願は、2021年4月20日に出願された米国仮出願第63/177,258号「SPACE OF INTEREST OF AUDIO SPACE」に対する優先権の利益を主張する、2021年10月12日に出願された米国特許出願第17/499,398号「METHOD AND APPARATUS FOR SPACE OF INTEREST OF AUDIO SCENE」に対する優先権の利益を主張する。先の出願の開示は、その全体が参照により本明細書に援用される。
(技術分野)
本開示は、オーディオシーン表現に概ね関連する実施形態を記載する。
本明細書で提供される背景記述は、本開示の文脈を一般的に提示するためのものである。その業績がこの背景セクションに記載される範囲における、現在指名されている発明者の業績、並びに、出願時に他の点では先行技術として適格でないことがある記述の態様は、本開示に対する先行技術として明示的にも暗示的にも認められていない。
関心領域(ROI:region of interest)は、特定の目的のために識別されたデータセット内のサンプルの領域である。ROIの概念は、医療撮像、地理情報システム、コンピュータビジョン、光学文字認識、および同等のことのような、多くの適用分野で一般に使用されている。
ROIは、一次元オーディオ信号に対して使用されることができるが、オーディオシーンにおいて、そのような概念は、直接的に適用されないことがある。本開示では、オーディオシーンの関心空間(space of interest)を表現する方法が提供される。
本開示の態様は、オーディオシーンのオーディオデータを復号化する装置を提供する。1つの装置は、第1のオーディオソースデータおよび第2のオーディオソースデータを受信する処理回路構成を含む。第1のオーディオソースデータは、オーディオシーン内の関心空間に対応し、第2のオーディオソースデータは、オーディオシーン内の関心空間に対応しない。オーディオシーンの関心空間は、視聴者空間、オーディオチャネル、またはオーディオオブジェクトのうちの少なくとも1つによって表される。処理回路構成は、関心空間に基づいて第1のオーディオソースデータを復号化する。
一実施形態において、処理回路構成は、第2のオーディオソースデータが関心空間に対応しないと決定されることに基づいて、第2のオーディオソースデータが復号化されるべきでないと決定する。
一実施形態において、処理回路構成は、第1の復号化スキーム(方式)に基づいて第1のオーディオソースデータを復号化する。処理回路構成は、第1の復号化スキームとは異なる第2の復号化スキームに基づいて第2のオーディオソースデータを復号化する。
一実施形態において、第1のオーディオソースデータおよび第2のオーディオソースデータを符号化する際に使用される符号化スキームは異なる。
一実施形態において、第1のオーディオソースデータおよび第2のオーディオソースデータを符号化する際に使用されるビット割当スキームは異なる。
一実施形態において、処理回路構成は、第1のオーディオレンダリングスキームに基づいて第1のオーディオソースデータのオーディオコンテンツをレンダリングする。処理回路構成は、第1のオーディオレンダリングスキームとは異なる第2のオーディオレンダリングスキームに基づいて第2のオーディオソースデータのオーディオコンテンツをレンダリングする。
一実施形態において、処理回路構成は、第2のオーディオソースデータが関心空間に対応しないと決定されることに基づいて、第1のオーディオソースデータのオーディオコンテンツがレンダリングされるべきであること、および第2のオーディオソースデータのオーディオコンテンツがレンダリングされるべきでないことを決定する。
一実施形態において、第1の復号化スキームおよび第2の復号化スキームの複雑さは異なる。
本開示の態様は、オーディオシーンのオーディオデータを復号化する方法を提供する。1つの方法では、第1のオーディオソースデータおよび第2のオーディオソースデータが受信される。第1のオーディオソースデータは、オーディオシーン内の関心空間に対応し、第2のオーディオソースデータは、オーディオシーン内の関心空間に対応しない。オーディオシーン内の関心空間は、視聴者空間、オーディオチャネル、またはオーディオオブジェクトのうちの少なくとも1つによって表される。第1のオーディオソースデータは、関心空間に基づいて復号化される。
本開示の態様は、オーディオシーンのオーディオデータを符号化する装置を提供する。1つの装置は、オーディオシーン内の複数のオーディオソースのオーディオコンテンツを受信する処理回路構成を含む。処理回路構成は、複数のオーディオソースの各々について、それぞれのオーディオソースがオーディオシーン内の関心空間内にあるかどうかを決定する。オーディオシーン内の関心空間は、視聴者空間、オーディオチャネル、またはオーディオオブジェクトのうちの少なくとも1つによって表される。処理回路構成は、それぞれのオーディオソースがオーディオシーン内の関心空間内にあることに基づいて、それぞれのオーディオソースのオーディオコンテンツが第1の符号化スキームに従って符号化されるべきであると決定する。処理回路構成は、それぞれのオーディオソースのオーディオコンテンツが、それぞれのオーディオソースがオーディオシーン内の関心空間内にないことに基づいて、第2の符号化スキームに従って(i)符号化されるべきでないことまたは(ii)符号化されるべきであることのうちの1つであると決定する。第2の符号化スキームは、第1の符号化スキームとは異なる。
一実施形態において、それぞれのオーディオソースのオーディオコンテンツは、それぞれのオーディオソースがオーディオシーン内の関心空間内にないことに基づいて符号化されない。
一実施形態において、それぞれのオーディオソースのオーディオコンテンツは、それぞれのオーディオソースがオーディオシーン内の関心空間内にないことに基づいて、第2の符号化スキームに従って符号化される。
一実施形態において、第1の符号化スキームは、第1のビット割当スキームであり、第2の符号化スキームは、第1のビット割当スキームとは異なる第2のビット割当スキームである。
本開示の態様は、オーディオシーンのオーディオデータを符号化する方法を提供する。1つの方法では、オーディオシーン内の複数のオーディオソースのオーディオコンテンツが受信される。複数のオーディオソースの各々について、それぞれのオーディオソースがオーディオシーン内の関心空間内にあるかどうかが決定される。オーディオシーン内の関心空間は、視聴者空間、オーディオチャネル、またはオーディオオブジェクトのうちの少なくとも1つによって表される。それぞれのオーディオソースのオーディオコンテンツは、それぞれのオーディオソースがオーディオシーン内の関心空間内にあることに基づいて第1の符号化スキームに従って符号化されると決定される。それぞれのオーディオソースのオーディオコンテンツは、それぞれのオーディオソースがオーディオシーン内の関心空間内にないことに基づいて第2の符号化スキームに従って(i)符号化されるべきでないことまたは(ii)符号化されるべきであることのうちの1つが決定される。第2の符号化スキームは、第1の符号化スキームとは異なる。
本開示の態様は、命令を格納する非一時的コンピュータ読取可能媒体を提供し、前記命令は、少なくとも1つのプロセッサによって実行されたときに、少なくとも1つのプロセッサに、オーディオシーンのオーディオデータを符号化/復号化する方法のいずれか1つまたは組み合わせを実行させる。
開示する主題のさらなる構成、性質、および様々な利点は、以下の詳細な記述および添付の図面からより明らかになるであろう。
本開示の一実施形態によるオーディオシーンの例示的なスイートスポットを示している。
本開示の一実施形態による限定的な範囲の高度を持つ聴覚空間の一例を示している。
本開示の一実施形態によるボール形状を持つ聴覚空間の一例を示している。
本開示の一実施形態による転動ボール形状を持つ聴覚空間の一例を示している。
本開示の一実施形態による例示的なフローチャートを示している。
本開示の一実施形態による別の例示的なフローチャートを示している。
本開示の一実施形態によるコンピュータシステムの概略図である。
I.関心空間の表現
この開示は、オーディオシーン(audio scene)記述の方法を含む。オーディオシーン内の関心空間(space of interest)が、この開示において記載される。関心空間は、オーディオシーンで考慮中の空間の境界(または輪郭または形状)として定義されることができる。関心空間は、オーディオコーディング(coding)、処理(processing)、レンダリング(rendering)、および同等のことにおいて使用されることができる。
この開示に含まれる方法は、別々にまたは組み合わせにおいて使用されることができることに留意されたい。方法は、部分的にまたは全体として使用されることができる。
オーディオシーンは、1つ以上の主要なサウンドソース(音源)によって特徴づけられる意味的に一貫性のあるサウンドセグメントである。オーディオシーンは、サウンドソースの集合としてモデル化されることができる。幾つかの実施形態において、オーディオシーンは、サウンドソースの集合のサブセットによって支配されることができる。サウンドソースの集合のサブセットは、関心空間内のサウンドソースと考えられることができる。
幾つかの実施形態において、オーディオシーンを表すサウンドソースの集合のサブセットは、オーディオシーン内のサウンドソースの位置に基づいて決定されることができる。すなわち、関心空間は、オーディオシーン内のサウンドソースの位置に基づいて決定されることができる。
一実施形態において、関心空間は、視聴者(リスナ)が移動できる空間によって表されることができる。例えば、空間全体を、視聴者が移動できる1つ以上の領域と、視聴者が移動できない他の領域とに分割することができる。従って、関心空間は、視聴者が移動できる領域の集合によって表されることができる。視聴者が移動できる領域内のサウンドソースは、オーディオシーンを表す関心空間内のサウンドソースとして考えられることができる一方で、視聴者が移動できない領域内のサウンドソースは、関心空間領域外のサウンドソースとして考えられることができ、オーディオシーンを表さないことがある。
一実施形態において、関心空間は、個人(例えば、視聴者)が、オーディオミキサによって生成されるオーディオミックスを、それが聴かれることが意図される方法で、完全に聴くことができる、オーディオシーンのスイートスポット(sweet spot(s))によって表されることができる。サラウンドサウンドの場合、スイートスポットは、全ての波面(wave fronts)が同時に到達するように、複数のスピーカ間の焦点である。
図1は、本開示の一実施形態によるオーディオシーンの例示的なスイートスポットを示している。図1において、オーディオシーンのスイートスポットは、1~7のラベルが付されたサウンドソースによってカバーされるエリアの交点である。よって、スイートスポットは、図1の椅子の周りに円で示されている。国際的な勧告(international recommendations)のような幾つかの場合には、スウィートスポットを基準リスニングポイント(reference listening point)と呼ぶことができる。
幾つかの実施形態において、関心空間は、聴覚空間(auditory space)によって表されることができる。
一実施形態において、関心空間は、限定的な範囲の高度(elevation)を持つ聴覚空間によって表されることができる。例えば、関心空間は、2つの数字で表されることができ、その場合、聴覚空間は、これら2つの数字の間の高度内にある。
図2は、0.0~4.0mの間の高度を持つ聴覚空間の一例を示している。
一実施形態において、関心空間は、長方形プリズム(rectangular prism)を持つ聴覚空間によって表わされることができる。その表現は、長方形プリズムの2つの対角の頂点の座標であることができる。その表現は、長方形プリズムの1つの頂点の座標、および長方形プリズムの高さ(height)、幅、および長さの値であり得る。幾つかの場合において、長方形プリズムは、常に垂直または水平でないことがあるので、長方形プリズムの方向性情報は、記述されることができる。
一実施形態において、関心空間は、多面体形状を持つ聴覚空間によって表されることができる。その表現は、多面体形状の頂点の座標であることができる。その表現は、多面体形状の表面の集合であることができる。
一実施形態において、関心空間は、図3に示すように、視聴者の場所で中心化されたボール形状を持つ聴覚空間によって表されることができる。その表現は、ボール形状の中心の座標、およびボール形状の半径の値であることができる。
一実施形態において、関心空間は、転動ボール形状(rolling ball shape)を持つ聴覚空間によって表されることができる。転動ボール形状の中心は、図4に示すように、視聴者の歩行経路に沿うことができる。その表現は、歩行経路、および転動ボール形状の半径を記述する関数であることができる。
一実施形態において、関心空間は、マルチチャネルオーディオからのオーディオチャネルの組み合わせによって表されることができる。例えば、その表現は、7.1オーディオチャネルからの前面左チャネルおよび前面右チャネルのセットであることができる。
一実施形態において、関心空間は、オーディオオブジェクトの組み合わせによって表されることができる。例えば、病院オーディオシーンは、ドア、テーブル、椅子、TV、ラジオ、医師、および患者のオーディオオブジェクトを含むことができる。すなわち、病院オーディオシーンは、ドア、テーブル、椅子、TV、ラジオ、医師、および患者の、或いはドア、テーブル、椅子、TV、ラジオ、医師、および患者からのサウンドのような、様々なオーディオソースを含むことができる。この例における関心空間は、ドア、医師、および患者のセットによって表されることができる。
開示の態様によれば、関心空間は、(視聴者空間と呼ぶ)視聴者が移動できる空間、オーディオチャネル、およびオーディオオブジェクトからの2つまたは3つのタイプのアイテムの集合によって表されることができる。すなわち、オーディオシーンの関心空間は、視聴者空間、オーディオチャネル、および/またはオーディオオブジェクトの集合によって表されることができる。
本開示の幾つかの実施形態によれば、オーディオコンテンツは、関心空間に基づいて符号化(エンコード)されることができる。例えば、オーディオエンコーダは、関心空間内の1つ以上のオーディオソースのオーディオコンテンツおよび関心空間外の1つ以上のオーディオソースのオーディオコンテンツに異なる符号化戦略を適用することができる。
一実施形態では、関心空間内のオーディオソースのオーディオコンテンツについて、エンコーダは、関心空間外のオーディオソースのオーディオコンテンツについて使用される第2のビット割当スキーム(方式)とは異なる第1のビット割当スキームを適用することができる。例えば、関心空間内のオーディオソースのオーディオコンテンツに割り当てられるビットの数は、関心空間外のオーディオソースのオーディオコンテンツに割り当てられるビットの数よりも大きい。
一実施形態において、エンコーダは、関心空間内のオーディオソースのオーディオコンテンツのみを符号化することができ、関心空間外のオーディオソースのオーディオコンテンツを廃棄することができる。
本開示の幾つかの実施形態によれば、オーディオコンテンツは、関心空間に基づいて復号化(デコード)されることができる。例えば、オーディオデコーダが、関心空間内のオーディオソースの符号化されたオーディオコンテンツおよび関心空間外のオーディオソースの符号化されたオーディオコンテンツに異なる復号化戦略を適用することができる。
一実施形態において、オーディオデコーダは、関心空間内のオーディオソースの符号化されたオーディオコンテンツに対して1つのオーディオ復号化スキームを適用することができ、関心空間外のオーディオソースの符号化されたオーディオコンテンツに対して別のオーディオ復号化スキームを適用することができる。一例において、2つのオーディオ復号化スキームの複雑さは、異なることができる。関心空間内のオーディオソースの符号化されたオーディオコンテンツに対して適用されるオーディオ復号化スキームの複雑さは、関心空間外のオーディオソースの符号化されたオーディオコンテンツに対して適用されるオーディオ復号化スキームの複雑さよりも高い。本明細書における復号化の複雑さは、符号化されたビットストリームを復号化するためにプロセッサによって消費される多数の中央処理装置(CPU)命令を参照することができる。
一実施形態において、オーディオデコーダは、関心空間内のオーディオソースの符号化されたオーディオコンテンツのみを復号化することができる。関心空間外のオーディオソースの符号化されたオーディオコンテンツは、廃棄されることができる。
本開示の幾つかの実施形態によれば、オーディオレンダリングは、関心空間に基づいて実行されることができる。例えば、オーディオレンダラ(audio renderer)が、関心空間内のオーディオソースの復号化されたオーディオコンテンツおよび関心空間外のオーディオソースの復号化されたオーディオコンテンツに異なるオーディオレンダリングスキームを適用することができる。
一実施形態において、オーディオレンダラは、関心空間内のオーディオソースの復号化されたオーディオコンテンツに対して1つのオーディオレンダリングスキームを適用することができ、関心空間外のオーディオソースの復号化されたオーディオコンテンツに対して別のオーディオレンダリングスキームを適用することができる。一例において、2つのオーディオレンダリングスキームのレンダリング品質は、異なることができる。例えば、関心空間内のオーディオソースの復号化されたオーディオコンテンツに対して適用されるオーディオレンダリングスキームの複雑さは、関心空間外のオーディオソースの復号化されたオーディオコンテンツに対して適用されるオーディオレンダリングスキームの複雑さよりも高いので、関心空間内のオーディオソースの復号化されたオーディオコンテンツのレンダリング品質は、関心空間外のオーディオソースの復号化されたオーディオコンテンツのレンダリング品質よりも良い。
一実施形態において、オーディオレンダラは、関心空間内のオーディオソースの復号化されたオーディオコンテンツのみをレンダリングすることができ、関心空間外のオーディオソースの復号化されたオーディオコンテンツを廃棄することができる。
II.フローチャート
図5は、本開示の一実施形態による例示的なプロセス(500)を概説するフローチャートを示している
。様々な実施形態において、プロセス(500)は、図7に示すような処理回路構成のような、処理回路構成によって実行される。幾つかの実施形態において、プロセス(500)は、ソフトウェア命令で実装され、よって、処理回路構成がソフトウェア命令を実行するとき、処理回路構成は、プロセス(500)を実行する。
プロセス(500)は、一般に、ステップ(S510)で開始し、プロセス(500)は、ステップ(S510)で、第1のオーディオソースデータと、第2のオーディオソースデータとを受信する。第1のオーディオソースデータは、オーディオシーン内の関心空間に対応し、第2のオーディオソースデータは、オーディオシーン内の関心空間に対応しない。オーディオシーン内の関心空間は、視聴者空間、オーディオチャネル、またはオーディオオブジェクトのうちの少なくとも1つによって表される。次に、プロセス(500)は、ステップ(S520)に進む。
ステップ(S520)で、プロセス(500)は、関心空間に基づいて第1のオーディオソースデータを復号化する。次に、プロセス(500)は、終了する。
一実施形態において、プロセス(500)は、第2のオーディオソースデータが、関心空間に対応しないように決定される第2のオーディオソースデータに基づいて復号化されないと決定する。
一実施形態において、プロセス(500)は、第1の復号化スキームに基づいて第1のオーディオソースデータを復号化する。プロセス(500)は、第1の復号化スキームとは異なる第2の復号化スキームに基づいて第2のオーディオソースデータを復号化する。
一実施形態において、第1のオーディオソースデータおよび第2のオーディオソースデータを符号化する際に使用される符号化スキームは異なる。
一実施形態において、第1のオーディオソースデータおよび第2のオーディオソースデータを符号化する際に使用されるビット割当スキームは異なる。
一実施形態において、プロセス(500)は、第1のオーディオレンダリングスキームに基づいて第1のオーディオソースデータのオーディオコンテンツをレンダリングする。プロセス(500)は、第1のオーディオレンダリングスキームとは異なる第2のオーディオレンダリングスキームに基づいて第2のオーディオソースデータのオーディオコンテンツをレンダリングする。
一実施形態において、プロセス(500)は、第1のオーディオソースデータのオーディオコンテンツが、レンダリングされるべきであると決定し、第2のオーディオソースデータのオーディオコンテンツが、関心空間に対応しないように決定される第2のオーディオソースデータに基づいてレンダリングされるべきでないと決定する。
一実施形態において、第1の復号化スキームおよび第2の復号化スキームの複雑さは異なる。
図6は、本開示の一実施形態による例示的プロセス(600)を概説する別のフローチャートを示している。様々な実施形態において、プロセス(600)は、図7に示すような処理回路構成のような、処理回路構成によって実行される。幾つかの実施形態において、プロセス(600)は、ソフトウェア命令で実装され、よって、処理回路構成がソフトウェア命令を実行するとき、処理回路構成は、プロセス(600)を実行する。
プロセス(600)は、一般に、ステップ(S610)で開始し、プロセス(600)は、オーディオシーン内の複数のオーディオソースのオーディオコンテンツを受信する。次に、プロセス(600)は、ステップ(S620)に進む。
ステップ(S620)で、プロセス(600)は、複数のオーディオソースの各々について、それぞれのオーディオソースが、オーディオシーン内の関心空間内にあるかどうかを決定する。オーディオシーン内の関心空間は、視聴者空間、オーディオチャネル、またはオーディオオブジェクトのうちの少なくとも1つによって表される。それぞれのオーディオソースがオーディオシーン内の関心空間内にあることに基づいて、プロセス(600)は、ステップ(S630)に進む。さもなければ、プロセス(600)は、ステップ(S640)に進む。
ステップ(S630)で、プロセス(600)は、それぞれのオーディオソースのオーディオコンテンツが、それぞれのオーディオソースがオーディオシーン内の関心空間にあることに基づいて第1の符号化スキームに従って符号化されるべきであると決定する。次に、プロセス(600)は、ステップ(S640)に進む。
ステップ(S640)で、プロセス(600)は、それぞれのオーディオソースのオーディオコンテンツが、(i)符号化されるべきでないこと、または(ii)それぞれのオーディオソースがオーディオシーン内の関心空間内にないことに基づいて第2の符号化スキームに従って符号化されるべきであることのうちのいずれか一方であると決定する。第2の符号化スキームは、第1の符号化スキームと異なる。
次に、プロセス(600)が終了する。
一実施形態において、それぞれのオーディオソースのオーディオコンテンツは、それぞれのオーディオソースがオーディオシーン内の関心空間にないことに基づいて符号化されない。
一実施形態において、それぞれのオーディオソースのオーディオコンテンツは、それぞれのオーディオソースがオーディオシーン内の関心空間にないことに基づいて第2の符号化スキームに従って符号化される。
一実施形態において、第1の符号化スキームは、第1のビット割当スキームであり、第2の符号化スキームは、第1のビット割当スキームとは異なる第2のビット割当スキームである。
III.コンピュータシステム
上述の技術は、コンピュータ読取可能命令を用いてコンピュータソフトウェアとして実装されることができ、1つ以上のコンピュータ読取可能媒体内に物理的に格納されることができる。例えば、図7は、開示する主題の特定の実施形態を実装するのに適したコンピュータシステム(700)を示している。
コンピュータソフトウェアを、アセンブリ、コンパイル、リンク、または類似のメカニズムの対象となることがある任意の適切な機械コードまたはコンピュータ言語を使用してコーディングして、1つ以上のコンピュータ中央処理装置(CPU)、グラフィックス処理装置(GPU)、および同等物によって、直接的に、或いは解釈、マイクロコード実行、および同等のことを通じて実行することができる命令を含むコードを作成することができる。
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲームデバイス、モノのインターネットデバイス、および同等物を含む、様々なタイプのコンピュータまたはそのコンポーネント(構成要素)上で実行されることができる。
コンピュータシステム(700)について図7に示すコンポーネントは、例示的な性質のものであり、本開示の実施形態を実装するコンピュータソフトウェアの使用範囲または機能性に関する如何なる限定を示唆することも意図するものでない。コンポーネントの構成は、コンピュータシステム(700)の例示的な実施形態に図示されるコンポーネントの任意の1つまたは組み合わせに関する如何なる従属性または要件を有するものとしても解釈されてならない。
コンピュータシステム(700)は、特定のヒューマンインターフェース入力デバイスを含むことがある。このようなヒューマンインターフェース入力デバイスは、例えば、(キーストローク、スワイプ、データグローブの動きのような)触覚入力、(音声(voice)、拍手のような)オーディオ入力、(ジェスチャのような)視覚入力、嗅覚入力(図示せず)を通じて、1人以上の人間ユーザによる入力に応答することがある。また、ヒューマンインターフェースデバイスは、(発話(speech)、音楽、周囲サウンドのような)オーディオ、(スキャンされた画像、静止画像カメラから得られる写真画像のような)画像、(二次元ビデオ、立体視ビデオを含む三次元ビデオのような)ビデオのような、人間による意識的入力に必ずしも直接的に関係しないことがある特定の媒体を取り込むためにも使用されることができる。
入力ヒューマンインターフェースデバイスは、キーボード(701)、マウス(702)、トラックパッド(703)、タッチスクリーン(710)、データグローブ(図示せず)、ジョイスティック(705)、マイクロホン(706)、スキャナ(707)、およびカメラ(708)のうちの1つ以上(それぞれ1つが描写されている)を含むことがある。
コンピュータシステム(700)はまた、特定のヒューマンインターフェース出力デバイスを含んでもよい。そのようなヒューマンインターフェース出力デバイスは、例えば、触覚出力、サウンド(音)、光、および臭覚/味覚を通じて、1人以上の人間ユーザの感覚を刺激することがある。そのようなヒューマンインターフェース出力デバイスは、触覚出力デバイス(例えば、タッチスクリーン(710)、データグローブ(図示せず)、またはジョイスティック(705)による触覚フィードバックであるが、入力デバイスとして機能しない触覚フィードバックデバイスもあり得る)、CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含み、各々がタッチスクリーン入力能力を有するか或いは有さず、各々が触覚フィードバック能力を有するか或いは有さず、それらの一部は、立体画像出力のような手段を通じて二次元視覚出力または三次元よりも多くの次元の出力を出力することができる、(スピーカ(709)、ヘッドフォン(図示せず)のような)オーディオ出力デバイス、仮想現実グラス(図示せず)、ホログラフィックディスプレイおよびスモークタンク(図示せず)、およびプリンタ(図示せず)を含むことがある。これらの(スクリーン(710)のような)視覚出力デバイスは、グラフィックスアダプタ(750)を通じてシステムバス(748)に接続されることができる。
コンピュータシステム(700)は、CD/DVDまたは同等媒体(721)を備えるCD/DVD ROM/RW(720)、サムドライブ(722)、取り外し可能なハードドライブまたはソリッドステートドライブ(723)、テープおよびフロッピーディスク(図示せず)のようなレガシー磁気媒体、セキュリティドングル(図示せず)のような特殊化されたROM/ASIC/PLDベースのデバイス、および同等物を含む、人間がアクセス可能な記憶デバイスおよびそれらの関連媒体を含むこともできる。
当業者は、現在開示されている主題に関連して使用されるような「コンピュータ読取可能媒体」という用語は、伝送媒体、搬送波、または他の過渡信号を包含しないことも理解するはずである。
コンピュータシステム(700)は、1つ以上の通信ネットワーク(755)へのネットワークインターフェース(754)を含むこともできる。1つ以上の通信ネットワーク(755)は、例えば、無線、有線、光であることができる。1つ以上の通信ネットワーク(755)は、さらに、ローカル、ワイドエリア、メトロポリタン、車両および産業、リアルタイム、遅延耐性などであることができる。1つ以上の通信ネットワーク(755)の例は、イーサネット、無線LAN、GSM、3G、4G、5G、LTEおよび同等物を含むセルラネットワーク、ケーブルTV、衛星TV、地上放送TVを含む有線および無線ワイドエリアまたはデジタルネットワーク、CANBusを含む車両および産業などを含む。特定のネットワークは、一般に、(例えば、コンピュータシステム(700)のUSBポートのような)特定の汎用データポートまたは周辺バス(749)に取り付けられる外部ネットワークインターフェースアダプタを必要とし、他のネットワークは、一般に、以下に記載するシステムバスへの接続によってコンピュータシステム(700)のコアに統合される(例えば、PCコンピュータシステムへのイーサネットインターフェースまたはスマートフォンコンピュータシステムへのセルラネットワークインターフェース)。これらのネットワークのいずれかを使用して、コンピュータシステム(700)は、他のエンティティと通信することができる。そのような通信は、単指向性(uni-directional)、受信のみ(例えば、放送テレビ)、単指向性送信のみ(例えば、特定のCANbusデバイスへのCANbus)、または、例えば、ローカルまたはワイドエリアデジタルネットワークを用いる他のコンピュータシステムへの双指向性(bi-directional)であることができる。特定のプロトコルおよびプロトコルスタックは、上述のように、それらのネットワークおよびネットワークインターフェースの各々で使用されることができる。
前述のヒューマンインターフェースデバイス、人間がアクセス可能な記憶デバイス、およびネットワークインターフェースは、コンピュータシステム(700)のコア(740)に取り付けられることができる。
コア(740)は、1つ以上の中央処理装置(CPU)(741)、グラフィックス処理装置(GPU)(742)、フィールドプログラマブルゲートエリア(FPGA)(743)の形態の特殊化されたプログラマブル処理装置、特定のタスクのためのハードウェアアクセラレータ(744)、グラフィックスアダプタ(750)などを含むことができる。これらのデバイスは、読出し専用メモリ(ROM)(745)、ランダムアクセスメモリ(746)、内部ユーザアクセス不能ハードドライブのような内部大容量記憶装置(747)、SSD、および同等物と共に、例えば、システムバス(748)を通じて接続されてよい。幾つかのコンピュータシステムにおいて、システムバス(748)は、追加のCPU、GPU、および同等物による拡張を可能にするために、1つ以上の物理プラグの形態でアクセス可能であることができる。周辺デバイスは、コアのシステムバス(748)に直接的に、或いは周辺バス(749)を通じて取り付けられることができる。一例において、スクリーン(710)は、グラフィックスアダプタ(750)に接続されることができる。周辺バスのアーキテクチャは、PCI、USB、および同等物を含む。
CPU(741)、GPU(742)、FPGA(743)、およびアクセラレータ(744)は、組み合わせにおいて、上述のコンピュータコードを構成することができる、特定の命令を実行することができる。そのコンピュータコードは、ROM(745)またはRAM(746)に格納されることができる。移行データも、RAM(746)に格納されることができるのに対し、永久データは、例えば、内部大容量記憶装置(747)に格納されることができる。1つ以上のCPU(741)、GPU(742)、大容量記憶装置(747)、ROM(745)、RAM(746)、および同等物と密接に関連付けられることができるキャッシュメモリの使用を通じて、メモリデバイスのいずれかへの高速記格納よび検索を可能にすることができる。
コンピュータ読取可能媒体は、様々なコンピュータ実装された動作を実行するためのコンピュータコードをその上に有することができる。媒体およびコンピュータコードは、本開示の目的のために特別に設計および構築されたものであることができ、或いは、それらは、コンピュータソフトウェア技術に熟練した者によく知られており且つ利用可能な種類のものであることができる。
一例として、非限定的に、アーキテクチャ(700)および具体的にはコア(740)を有するコンピュータシステムは、1つ以上の有形のコンピュータ読取可能媒体に具現化されたソフトウェアを実行する(CPU、GPU、FPGA、アクセラレータ、および同等物を含む)プロセッサの結果としての機能性を提供することができる。そのようなコンピュータ読取可能媒体は、上記で紹介したユーザアクセス可能な大容量記憶装置と関連付けられる媒体、並びにコア内部大容量記憶装置747またはROM745のような非一時的な性質を有するコア(740)の特定の記憶装置であることができる。本開示の様々な実施形態を実装するソフトウェアは、そのようなデバイスに格納されることができ、且つコア(740)によって実行されることができる。コンピュータ読取可能媒体は、特定のニーズに従って、1つ以上のメモリデバイスまたはチップを含むことができる。ソフトウェアは、コア(740)および具体的にはその中の(CPU、GPU、FPGA、および同等物を含む)プロセッサに、RAM(746)に格納されるデータ構造を定義することおよびソフトウェアによって定義されるプロセスに従ってそのようなデータ構造を修正することを含む、本明細書に記載された特定のプロセスまたは特定のプロセスの特定の部分を実行させることができる。追加的にまたは代替的に、コンピュータシステムは、回路内に配線された或いは他の方法で具現された論理(ロジック)の結果としての機能性(例えば、アクセラレータ(744))を提供することができ、それは本明細書に記載する特定のプロセスまたは特定のプロセスの特定の部分を実行するためにソフトウェアの代わりに或いはソフトウェアと共に作動することができる。ソフトウェアへの言及は、論理を含み、必要に応じて、その逆も可能である。コンピュータ読取可能媒体への言及は、実行のためのソフトウェアを格納する(集積回路(IC)のような)回路、実行のための論理を具現する回路、または、適切な場合には、それらの両方を包含することができる。本開示は、ハードウェアおよびソフトウェアの任意の適切な組み合わせを包含する。
本開示は、幾つかの例示的な実施形態を記載したが、本開示の範囲内にある変更、置換、および様々な代替的な均等物がある。よって、当業者は、本明細書に明示的に示されていないか或いは記載されていないが、本開示の原理を具現する、よって、本開示の精神および範囲内にある、多数のシステムおよび方法を考案することができることが理解されるであろう。

Claims (21)

  1. オーディオシーンのオーディオデータを復号化する方法であって、
    第1のオーディオソースデータと、第2のオーディオソースデータとを受信するステップであって、前記第1のオーディオソースデータは、前記オーディオシーン内の関心空間に対応し、前記第2のオーディオソースデータは、前記オーディオシーン内の前記関心空間に対応せず、前記オーディオシーン内の前記関心空間は、視聴者空間、オーディオチャネル、またはオーディオオブジェクトのうちの少なくとも1つによって表される、受信することと、
    前記関心空間に基づいて前記第1のオーディオソースデータを復号化することと、を含む、
    方法。
  2. 前記第2のオーディオソースデータが前記関心空間に対応しないことに基づいて、前記第2のオーディオソースデータが復号化されるべきでないと決定することを更に含む、請求項1に記載の方法。
  3. 前記復号化することは、第1の復号化スキームに基づいて前記第1のオーディオソースデータを復号化することを含み、
    当該方法は、前記第1の復号化スキームとは異なる第2の復号化スキームに基づいて前記第2のオーディオソースデータを復号化することを更に含む、
    請求項1に記載の方法。
  4. 前記第1のオーディオソースデータおよび前記第2のオーディオソースデータを符号化する際に使用される符号化スキームは異なる、請求項1に記載の方法。
  5. 前記第1のオーディオソースデータおよび前記第2のオーディオソースデータを符号化する際に使用されるビット割当スキームは異なる、請求項1に記載の方法。
  6. 第1のオーディオレンダリングスキームに基づいて前記第1のオーディオソースデータのオーディオコンテンツをレンダリングすることと、
    前記第1のオーディオレンダリングスキームとは異なる第2のオーディオレンダリングスキームに基づいて前記第2のオーディオソースデータのオーディオコンテンツをレンダリングすることと、を更に含む、
    請求項1に記載の方法。
  7. 前記第2のオーディオソースデータが前記関心空間に対応しないと決定されることに基づいて、前記第1のオーディオソースデータのオーディオコンテンツがレンダリングされるべきこと、および前記第2のオーディオソースデータのオーディオコンテンツがレンダリングされるべきでないことを決定することを更に含む、請求項1に記載の方法。
  8. 前記第1の復号化スキームおよび前記第2の復号化スキームの複雑さは異なる、請求項3に記載の方法。
  9. オーディオシーンのオーディオデータを符号化する方法であって、
    前記オーディオシーン内の複数のオーディオソースのオーディオコンテンツを受信することと、
    前記複数のオーディオソースの各々について、それぞれのオーディオソースが前記オーディオシーン内の関心空間内にあるかどうかを決定することであって、前記オーディオシーン内の前記関心空間は、視聴者空間、オーディオチャネル、またはオーディオオブジェクトのうちの少なくとも1つによって表される、決定することと、
    前記それぞれのオーディオソースが前記オーディオシーン内の前記関心空間内にあることに基づいて、前記それぞれのオーディオソースの前記オーディオコンテンツが第1の符号化スキームに従って符号化されるべきと決定することと、
    前記それぞれのオーディオソースが前記オーディオシーン内の前記関心空間内にないことに基づいて、前記それぞれのオーディオソースの前記オーディオコンテンツが、第2の符号化スキームに従って(i)符号化されるべきでないこと、または(ii)符号化されるべきであることのうちの1つであると決定することであって、前記第2の符号化スキームは、前記第1の符号化スキームとは異なる、
    方法。
  10. 前記それぞれのオーディオソースの前記オーディオコンテンツは、前記それぞれのオーディオソースが前記オーディオシーン内の前記関心空間内にないことに基づいて符号化されない、請求項9に記載の方法。
  11. 前記それぞれのオーディオソースの前記オーディオコンテンツは、前記それぞれのオーディオソースが前記オーディオシーン内の前記関心空間内にないことに基づいて、前記第2の符号化スキームに従って符号化される、請求項9に記載の方法。
  12. 前記第1の符号化スキームは、第1のビット割当スキームであり、前記第2の符号化スキームは、前記第1のビット割当スキームとは異なる第2のビット割当スキームである、請求項9に記載の方法。
  13. 処理回路構成を含む、オーディオシーンの関心空間を表す装置であって、
    前記処理回路構成は、第1のオーディオソースデータと、第2のオーディオソースデータとを受信するように構成され、前記第1のオーディオソースデータは、前記オーディオシーン内の関心空間に対応し、前記第2のオーディオソースデータは、前記オーディオシーン内の前記関心空間に対応せず、前記オーディオシーン内の前記関心空間は、視聴者空間、オーディオチャネル、またはオーディオオブジェクトのうちの少なくとも1つによって表され、
    前記処理回路構成は、前記関心空間に基づいて前記第1のオーディオソースデータを復号化するように構成される、
    装置。
  14. 前記処理回路構成は、前記第2のオーディオソースデータが前記関心空間に対応しないと決定されることに基づいて、前記第2のオーディオソースデータが復号化されるべきでないと決定するように構成される、請求項13に記載の装置。
  15. 前記処理回路構成は、
    第1の復号化スキームに基づいて前記第1のオーディオソースデータを復号化し、
    前記第1の復号化スキームとは異なる第2の復号化スキームに基づいて前記第2のオーディオソースデータを復号化する、
    ように構成される、
    請求項13に記載の装置。
  16. 前記第1のオーディオソースデータおよび前記第2のオーディオソースデータを符号化する際に使用される符号化スキームは異なる、請求項13に記載の装置。
  17. 前記第1のオーディオソースデータおよび前記第2のオーディオソースデータを符号化する際に使用されるビット割当スキームは異なる、請求項13に記載の装置。
  18. 前記処理回路構成は、
    第1のオーディオレンダリングスキームに基づいて前記第1のオーディオソースデータのオーディオコンテンツをレンダリングし、
    前記第1のオーディオレンダリングスキームとは異なる第2のオーディオレンダリングスキームに基づいて前記第2のオーディオソースデータのオーディオコンテンツをレンダリングする、
    ように構成される、
    請求項13に記載の装置。
  19. 前記処理回路構成は、前記第2のオーディオソースデータが前記関心空間に対応しないと決定されることに基づいて、前記第1のオーディオソースデータのオーディオコンテンツがレンダリングされるべきであること、および前記第2のオーディオソースデータのオーディオコンテンツがレンダリングされるべきでないことを決定するように構成される、請求項13に記載の装置。
  20. 前記第1の復号化スキームおよび前記第2の復号化スキームの複雑さは異なる、請求項15に記載の装置。
  21. 命令を格納する、非一時的コンピュータ読取可能媒体であって、
    前記命令は、少なくとも1つのプロセッサによって実行されたときに、請求項1~12のうちのいずれか1項に記載の方法を実行させる、
    非一時的なコンピュータ読取可能媒体。
JP2022562518A 2021-04-20 2021-10-14 オーディオシーンの関心スペースのための方法および装置 Pending JP2023527650A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163177258P 2021-04-20 2021-04-20
US63/177,258 2021-04-20
US17/499,398 2021-10-12
US17/499,398 US11710491B2 (en) 2021-04-20 2021-10-12 Method and apparatus for space of interest of audio scene
PCT/US2021/054946 WO2022225555A1 (en) 2021-04-20 2021-10-14 Method and apparatus for space of interest of audio scene

Publications (1)

Publication Number Publication Date
JP2023527650A true JP2023527650A (ja) 2023-06-30

Family

ID=83602776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022562518A Pending JP2023527650A (ja) 2021-04-20 2021-10-14 オーディオシーンの関心スペースのための方法および装置

Country Status (6)

Country Link
US (1) US11710491B2 (ja)
EP (1) EP4327567A4 (ja)
JP (1) JP2023527650A (ja)
KR (1) KR20220167313A (ja)
CN (1) CN115500091A (ja)
WO (1) WO2022225555A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112440A (ja) * 2002-09-19 2004-04-08 Canon Inc 画像処理装置及び画像処理方法
US20180190300A1 (en) * 2017-01-03 2018-07-05 Nokia Technologies Oy Adapting A Distributed Audio Recording For End User Free Viewpoint Monitoring
US20180225885A1 (en) * 2013-10-01 2018-08-09 Aaron Scott Dishno Zone-based three-dimensional (3d) browsing
JP2020537418A (ja) * 2017-10-12 2020-12-17 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 仮想現実アプリケーションのためのオーディオ配信の最適化

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104054126B (zh) * 2012-01-19 2017-03-29 皇家飞利浦有限公司 空间音频渲染和编码
US9549253B2 (en) 2012-09-26 2017-01-17 Foundation for Research and Technology—Hellas (FORTH) Institute of Computer Science (ICS) Sound source localization and isolation apparatuses, methods and systems
KR20140128564A (ko) 2013-04-27 2014-11-06 인텔렉추얼디스커버리 주식회사 음상 정위를 위한 오디오 시스템 및 방법
EP3201916B1 (en) 2014-10-01 2018-12-05 Dolby International AB Audio encoder and decoder
US20170347219A1 (en) * 2016-05-27 2017-11-30 VideoStitch Inc. Selective audio reproduction
WO2019165642A1 (en) * 2018-03-02 2019-09-06 Intel Corporation Adaptive bitrate coding for spatial audio streaming
GB2599831B (en) * 2019-06-14 2024-07-10 Quantum Interface Llc Predictive virtual training systems, apparatuses, interfaces, and methods for implementing same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112440A (ja) * 2002-09-19 2004-04-08 Canon Inc 画像処理装置及び画像処理方法
US20180225885A1 (en) * 2013-10-01 2018-08-09 Aaron Scott Dishno Zone-based three-dimensional (3d) browsing
US20180190300A1 (en) * 2017-01-03 2018-07-05 Nokia Technologies Oy Adapting A Distributed Audio Recording For End User Free Viewpoint Monitoring
JP2020537418A (ja) * 2017-10-12 2020-12-17 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 仮想現実アプリケーションのためのオーディオ配信の最適化

Also Published As

Publication number Publication date
EP4327567A4 (en) 2024-10-30
US11710491B2 (en) 2023-07-25
CN115500091A (zh) 2022-12-20
KR20220167313A (ko) 2022-12-20
EP4327567A1 (en) 2024-02-28
WO2022225555A1 (en) 2022-10-27
US20220335955A1 (en) 2022-10-20

Similar Documents

Publication Publication Date Title
JP7505029B2 (ja) 適応オーディオ配信およびレンダリング
US11937070B2 (en) Layered description of space of interest
JP2023527650A (ja) オーディオシーンの関心スペースのための方法および装置
JP7489488B2 (ja) オーディオシーンの関心空間を表現する方法および装置
JP7518191B2 (ja) オーディオシーンのシグナリングラウドネス調整のための方法及び装置
US20220270626A1 (en) Method and apparatus in audio processing
US12137336B2 (en) Immersive media compatibility
US11956409B2 (en) Immersive media interoperability
US20230057207A1 (en) Immersive media compatibility
CN118318254A (zh) 用于对称网格的连接性编码

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240809