JP6904463B2 - 送信装置および送信方法 - Google Patents

送信装置および送信方法 Download PDF

Info

Publication number
JP6904463B2
JP6904463B2 JP2020100848A JP2020100848A JP6904463B2 JP 6904463 B2 JP6904463 B2 JP 6904463B2 JP 2020100848 A JP2020100848 A JP 2020100848A JP 2020100848 A JP2020100848 A JP 2020100848A JP 6904463 B2 JP6904463 B2 JP 6904463B2
Authority
JP
Japan
Prior art keywords
content
audio
sound pressure
decrease
increase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020100848A
Other languages
English (en)
Other versions
JP2020145760A (ja
Inventor
塚越 郁夫
郁夫 塚越
徹 知念
徹 知念
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2020145760A publication Critical patent/JP2020145760A/ja
Priority to JP2021104300A priority Critical patent/JP7205571B2/ja
Application granted granted Critical
Publication of JP6904463B2 publication Critical patent/JP6904463B2/ja
Priority to JP2022171013A priority patent/JP2022191490A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Television Systems (AREA)

Description

本技術は、送信装置および送信方法に関する。

従来、立体(3D)音響技術として、符号化サンプルデータをメタデータに基づいて任意の位置に存在するスピーカにマッピングさせてレンダリングする技術が提案されている(例えば、特許文献1参照)。
特表2014−520491号公報
5.1チャネル、7.1チャネルなどのチャネル符号化データと共に、符号化サンプルデータおよびメタデータからなる種々のタイプのオブジェクトコンテントの符号化データを送信し、受信側において臨場感を高めた音響再生を可能とすることが考えられる。例えば、ダイアログ・ランゲージなどのオブジェクトコンテントは、背景音や視聴環境によっては聞き取り難い場合がある。
本技術の目的は、受信側でオブジェクトコンテントの音圧調整を良好に行い得るようにすることにある。
本技術の概念は、
所定数のオブジェクトコンテントの符号化データを持つオーディオストリームを生成するオーディオエンコード部と、
上記オーディオストリームを含む所定フォーマットのコンテナを送信する送信部と、
上記オーディオストリームのレイヤおよび/または上記コンテナのレイヤに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報を挿入する情報挿入部を備える
送信装置にある。
本技術において、オーディオエンコード部により、所定数のオブジェクトコンテントの符号化データを持つオーディオストリームが生成される。情報挿入部により、オーディオストリームのレイヤおよび/またはコンテナのレイヤに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報が挿入される。
例えば、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報は、音圧の上限値および下限値の情報である。また、例えば、オーディオストリームの符号化方式は、MPEG−H 3D Audioであり、情報挿入部は、オーディオフレームに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報を持つエクステンションエレメントを含める、ようにされてもよい。
このように本技術においては、オーディオストリームのレイヤおよび/またはコンテナのレイヤに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報が挿入される。そのため、受信側では、この挿入情報を用いることで、各オブジェクトコンテントの音圧の増減の調整を許容範囲内で行うことが容易となる。
なお、本技術において、例えば、所定数のオブジェクトコンテントのそれぞれは所定数のコンテントグループのいずれかに属し、情報挿入部は、オーディオストリームのレイヤおよび/またはコンテナのレイヤに、各コンテントグループに対する音圧の増減の許容範囲を示す情報を挿入する、ようにされてもよい。この場合、音圧の増減の許容範囲を示す情報をコンテントグループの数だけ送ればよく、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報を効率的に送信することが可能となる。
また、本技術において、例えば、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報には、複数のファクタータイプのうちのいずれを適用するかを示すファクタータイプ情報が付加される、ようにされてもよい。この場合、オブジェクトコンテントごとに、適切なファクタータイプの適用が可能となる。
また、本技術の他の概念は、
所定数のオブジェクトコンテントの符号化データを持つオーディオストリームを含む所定フォーマットのコンテナを受信する受信部と、
ユーザ選択に係るオブジェクトコンテントに対する音圧増減を行う音圧増減処理を制御する制御部を備える
受信装置にある。
本技術において受信部により、所定数のオブジェクトコンテントの符号化データを持つオーディオストリームを含む所定フォーマットのコンテナが受信される。制御部により、ユーザ選択に係るオブジェクトコンテントに対する音圧増減を行う音圧増減処理が制御される。
このように本技術においては、ユーザ選択に係るオブジェクトコンテントに対する音圧増減の処理が行われる。そのため、例えば、所定のオブジェクトコンテントの音圧を増加させ、その他のオブジェクトコンテントの音圧を減少させるということも可能となり、所定数のオブジェクトコンテントの音圧の調整を効果的に行うことが可能となる。
なお、本技術において、例えば、オーディオストリームのレイヤおよび/またはコンテナのレイヤに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報が挿入されており、制御部は、オーディオストリームのレイヤおよび/またはコンテナのレイヤから各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報を抽出する情報抽出処理をさらに制御し、音圧増減処理では、抽出された情報に基づいてユーザの選択に係るオブジェクトコンテントに対する音圧増減を行う、ようにされてもよい。この場合、各オブジェクトコンテントの音圧の調整を許容範囲内で行うことが容易となる。
また、本技術において、例えば、音圧増減処理では、ユーザ選択に係るオブジェクトコンテントに対して音圧を増加するとき他のオブジェクトコンテントに対して音圧を減少し、ユーザ選択に係るオブジェクトコンテントに対して音圧を減少するとき他のオブジェクトコンテントに対して音圧を増加する、ようにされてもよい。この場合、ユーザに操作手間を取らせることなく、オブジェクトコンテント全体の音圧を一定に保つことが可能となる。
また、本技術において、例えば、制御部は、音圧増減処理で音圧増減されるオブジェクトコンテントの音圧状態を示すユーザインタフェース画面を表示する表示処理をさらに制御する、ようにされてもよい。この場合、ユーザは、各オブジェクトコンテントの音圧状態を容易に確認でき、音圧設定を容易に行い得る。
本技術によれば、受信側でオブジェクトコンテントの音圧調整を良好に行い得る。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
実施の形態としての送受信システムの構成例を示すブロック図である。 MPEG−H 3D Audioの伝送データの構成例を示す図である。 MPEG−H 3D Audioの伝送データにおけるオーディオフレームの構造例を示す図である。 エクステンションエレメントのタイプ(ExElementType)と、その値(Value)との対応関係を示す図である。 各コンテントグループに対する音圧の増減の許容範囲を示す情報をエクステンションエレメントとして含むコンテント・エンハンスメント・フレームの構造例を示す図である。 コンテント・エンハンスメント・フレームの構造例における主要な情報の内容を示す図である。 音圧の増減の許容範囲を示す情報が示す音圧の値(ファクター値)の一例を示す図である。 オーディオ・コンテント・エンハンスメント・デスクリプタの構造例を示す図である。 サービス送信機が備えるストリーム生成部の構成例を示すブロック図である。 トランスポートストリームTSの構造例を示す図である。 サービス受信機の構成例を示すブロック図である。 オーディオデコード部の構成例を示すブロック図である。 各ブジェクトコンテントの現在の音圧状態示すユーザインタフェース画面の一例を示す図である。 ユーザの単位操作に対応した、オブジェクトエンハンサにおける音圧の増減処理の一例を示すフローチャートである。 オブジェクトコンテントの音圧調整例とどの効果を説明するための図である。 音圧の増減の許容範囲を示す情報が示す音圧の値(ファクター値)の他の例を示す図である。 各コンテントグループに対する音圧の増減の許容範囲を示す情報をエクステンションエレメントとして含むコンテント・エンハンスメント・フレームの他の構造例を示す図である。 コンテント・エンハンスメント・フレームの構造例における主要な情報の内容を示す図である。 オーディオ・コンテント・エンハンスメント・デスクリプタの他の構造例を示す図である。 ユーザの単位操作に対応した、オブジェクトエンハンサにおける音圧の増減処理の他の例を示すフローチャートである。 MMTストリームの構造例を示す図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[送受信システムの構成例]
図1は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、サービス送信機100とサービス受信機200により構成されている。サービス送信機100は、トランスポートストリームTSを、放送波あるいはネットのパケットに載せて送信する。
トランスポートストリームTSは、オーディオストリーム、あるいは、ビデオストリームとオーディオストリームを有している。オーディオストリームは、チャネル符号化データと共に、所定数のオブジェクトコンテントの符号化データ(オブジェクト符号化データ)を持っている。この実施の形態において、オーディオストリームの符号化方式は、MPEG−H 3D Audioとされる。
サービス送信機100は、オーディオストリームのレイヤおよび/またはコンテナとしてのトランスポートストリームTSのレイヤに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報(上限値、下限値の情報)を挿入する。例えば、所定数のオブジェクトコンテントのそれぞれは所定数のコンテントグループのいずれかに属し、サービス送信機200は、オーディオストリームのレイヤおよび/またはコンテナのレイヤに、各コンテントグループに対する音圧の増減の許容範囲を示す情報を挿入する。
図2は、MPEG−H 3D Audioの伝送データの構成例を示している。この構成例では、1つのチャネル符号化データと6つのオブジェクト符号化データとからなっている。1つのチャネル符号化データは、5.1チャネルのチャネル符号化データ(CD)であり、SCE1,CPE1.1,CPE1.2,LFE1の各符号化サンプルデータからなっている。
6つのオブジェクト符号化データのうち、最初の3つのオブジェクト符号化データは、ダイアログ・ランゲージ・オブジェクトのコンテントグループの符号化データ(DOD)に属している。この3つのオブジェクト符号化データは、第1、第2、第3の言語のそれぞれに対応したダイアログ・ランゲージ・オブジェクト(Object for dialog language)の符号化データである。
この第1、第2、第3の言語に対応したダイアログ・ランゲージ・オブジェクトの符号化データは、それぞれ、符号化サンプルデータSCE2,SCE3,SCE4と、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータ(Object metadata)とからなっている。
また、6つのオブジェクト符号化データのうち、残りの3つのオブジェクト符号化データは、サウンド・エフェクト・オブジェクトのコンテントグループの符号化データ(SEO)に属している。この3つのオブジェクト符号化データは、第1、第2、第3の効果音のそれぞれに対応したサウンド・エフェクト・オブジェクト(Object for sound effect)の符号化データである。
この第1、第2、第3の効果音に対応したサウンド・エフェクト・オブジェクトの符号化データは、それぞれ、符号化サンプルデータSCE5,SCE6,SCE7と、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータ(Object metadata)とからなっている。
符号化データは、種類別にグループ(Group)という概念で区別される。この構成例では、5.1チャネルのチャネル符号化データはグループ1(Group 1)とされる。また、第1、第2、第3の言語に対応したダイアログ・ランゲージ・オブジェクトの符号化データは、それぞれ、グループ2(Group 2)、グループ3(Group 3)、グループ4(Group 4)とされる。また、第1、第2、第3の効果音に対応したサウンド・エフェクト・オブジェクトの符号化データは、それぞれ、グループ5(Group 5)、グループ6(Group 6)、グループ7(Group 7)とされる。
また、受信側においてグループ間で選択できるものはスイッチグループ(SW Group)に登録されて符号化される。この構成例では、ダイアログ・ランゲージ・オブジェクトのコンテントグループに属するグループ2、グループ3、グループ4はスイッチグループ1(SW Group 1)とされる。また、サウンド・エフェクト・オブジェクトのコンテントグループに属するグループ5、グループ6、グループ7はスイッチグループ2(SW Group 2)とされる。
図3は、MPEG−H 3D Audioの伝送データにおけるオーディオフレームの構造例を示している。このオーディオフレームは、複数のMPEGオーディオストリームパケット(mpeg Audio Stream Packet)からなっている。各MPEGオーディオストリームパケットは、ヘッダ(Header)とペイロード(Payload)により構成されている。
ヘッダは、パケットタイプ(Packet Type)、パケットラベル(Packet Label)、パケットレングス(Packet Length)などの情報を持つ。ペイロードには、ヘッダのパケットタイプで定義された情報が配置される。このペイロード情報には、同期スタートコードに相当する“SYNC”と、3Dオーディオの伝送データの実際のデータである“Frame”と、この“Frame”の構成を示す“Config”が存在する。
“Frame”には、3Dオーディオの伝送データを構成するチャネル符号化データとオブジェクト符号化データが含まれる。ここで、チャネル符号化データは、SCE(Single Channel Element)、CPE(Channel Pair Element)、LFE(Low Frequency Element)などの符号化サンプルデータで構成される。また、オブジェクト符号化データは、SCE(Single Channel Element)の符号化サンプルデータと、それを任意の位置に存在するスピーカにマッピングさせてレンダリングするためのメタデータにより構成される。このメタデータは、エクステンションエレメント(Ext_element)として含まれる。
この実施の形態では、エクステンションエレメント(Ext_element)として、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つエレメント(Ext_content_enhancement)を新たに定義する。これに伴って、“Config”に、そのエレメントの構成情報(content_enhancement config)を新たに定義する。
図4は、エクステンションエレメント(Ext_element)のタイプ(ExElementType)と、その値(Value)との対応関係を示している。例えば、128を、新たに、“ID_EXT_ELE_content_enhancement”のタイプの値として定義する。
図5は、各コンテントグループに対する音圧の増減の許容範囲を示す情報をエクステンションエレメントとして含むコンテント・エンハンスメント・フレーム(Content_Enhancement_frame())の構造例(syntax)を示している。図6は、その構成例における主要な情報の内容(semantics)を示している。
「num_of_content_groups」の8ビットフィールドは、コンテントグループの数を示す。このコンテントグループの数だけ、「content_group_id」の8ビットフィールド、「content_type」の8ビットフィールド、「content_enhancement_plus_factor」の8ビットフィールドおよび「content_enhancement_minus_factor」の8ビットフィールドが、繰り返し存在する。
「content_group_id」フィールドは、コンテントグループのID(識別)を示す。「content_type」のフィールドは、コンテントグループのタイプを示す。例えば、“0”は「dialog language」を示し、“1”は「sound effect」を示し、“2”は「BGM」を示し、“3”は「spoken subtitles」を示す。
「content_enhancement_plus_factor」のフィールドは、音圧の増減における上限値を示す。例えば、図7のテーブルに示すように、“0x00”は1(0dB)、“0x01”は1.4(+3dB)、・・・、“0xFF”はinfinite(+infinit dB)を示す。「content_enhancement_minus_factor」のフィールドは、音圧の増減における下限値を示す。例えば、図7のテーブルに示すように、“0x00”は1(0dB)、“0x01”は0.7(−3dB)、・・・、“0xFF”は0.00(-infinit dB)を示す。なお、図7のテーブルは、サービス受信機200において共有されている。
また、この実施の形態では、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つオーディオ・コンテント・エンハンスメント・デスクリプタ(Audio_Content_Enhancement descriptor)を新規定義する。そして、このデスクリプタを、プログラムマップテーブル(PMT:Program Map Table)の配下に存在するオーディオエレメンタリストリームループ内に挿入する。
図8は、オーディオ・コンテント・エンハンスメント・デスクリプタの構造例(Syntax)を示している。「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、オーディオ・コンテント・エンハンスメント・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。
「num_of_content_groups」の8ビットフィールドは、コンテントグループの数を示す。このコンテントグループの数だけ、「content_group_id」の8ビットフィールド、「content_type」の8ビットフィールド、「content_enhancement_plus_factor」の8ビットフィールドおよび「content_enhancement_minus_factor」の8ビットフィールドが、繰り返し存在する。なお、各フィールドの情報の内容については、上述のコンテント・エンハンスメント・フレーム(図5参照)で説明したと同様である。
図1に戻って、サービス受信機200は、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSは、ビデオストリームの他に、オーディオストリームを有している。オーディオストリームは、3Dオーディオの伝送データを構成する、チャネル符号化データと、所定数のオブジェクトコンテントの符号化データ(オブジェクト符号化データ)を持っている。
オーディオストリームのレイヤおよび/またはコンテナとしてのトランスポートストリームTSのレイヤに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報が挿入されている。例えば、所定数のコンテントグループに対する音圧の増減の許容範囲を示す情報を挿入されている。ここで、1つのコンテントグループには、1つまたは複数のオブジェクトコンテントが属している。
サービス受信機200は、ビデオストリームにデコード処理を施してビデオデータを得る。また、サービス受信機200は、オーディオストリームにデコード処理を施して3Dオーディオのオーディオデータを得る。
サービス受信機200は、ユーザ選択に係るオブジェクトコンテントに対する音圧増減を処理する。このとき、サービス受信機200は、オーディオストリームのレイヤおよび/またはコンテナとしてのトランスポートストリームTSのレイヤに挿入されている各オブジェクトコンテントに対する音圧の増減の許容範囲に基づいて、音圧の増減の範囲を制限する。
[サービス送信機のストリーム生成部]
図9は、サービス送信機100が備えるストリーム生成部110の構成例を示している。このストリーム生成部110は、制御部111と、ビデオエンコーダ112と、オーディオエンコーダ113と、マルチプレクサ114を有している。
ビデオエンコーダ112は、ビデオデータSVを入力し、このビデオデータSVに対して符号化を施し、ビデオストリーム(ビデオエレメンタリストリーム)を生成する。オーディオエンコーダ113は、オーディオデータSAとして、チャネルデータと共に、所定数のコンテントグループのオブジェクトデータを入力する。各コンテントグループには、1つまたは複数のオブジェクトコンテントが属している。
オーディオエンコーダ113は、オーディオデータSAに対して符号化を施して3Dオーディオの伝送データを得、この3Dオーディオの伝送データを含むオーディオストリーム(オーディオエレメンタリストリーム)を生成する。3Dオーディオの伝送データには、チャネル符号化データと共に、所定数のコンテントグループのオブジェクト符号化データが含まれる。
例えば、図2の構成例に示すように、チャネル符号化データ(CD)と、ダイアログ・ランゲージ・オブジェクトのコンテントグループの符号化データ(DOD)と、サウンド・エフェクト・オブジェクトのコンテントグループの符号化データ(SEO)が含まれる。
オーディオエンコーダ113は、制御部111による制御のもと、オーディオストリームに、各コンテントグループに対する音圧の増減の許容範囲を示す情報を挿入する。この実施の形態では、オーディオフレームに、エクステンションエレメント(Ext_element)として、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つ新規定義するエレメント(Ext_content_enhancement)を挿入する(図3、図5参照)。
マルチプレクサ114は、ビデオエンコーダ112から出力されるビデオストリームおよびオーディオエンコーダ113から出力される所定数のオーディオストリームを、それぞれ、PESパケット化し、さらにトランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。
マルチプレクサ114は、制御部111の制御のもと、コンテナとしてのトランスポートストリームTSに、各コンテントグループに対する音圧の増減の許容範囲を示す情報を挿入する。この実施の形態では、PMTの配下に存在するオーディオエレメンタリストリームループ内に、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つ新規定義するオーディオ・コンテント・エンハンスメント・デスクリプタ(Audio_Content_Enhancement descriptor)を挿入する(図8参照)。
図9に示すストリーム生成部110の動作を簡単に説明する。ビデオデータは、ビデオエンコーダ112に供給される。このビデオエンコーダ112では、ビデオデータSVに対して符号化が施され、符号化ビデオデータを含むビデオストリームが生成される。このビデオストリームは、マルチプレクサ114に供給される。
オーディオデータSAは、オーディオエンコーダ113に供給される。このオーディオデータSAには、チャネルデータと共に、所定数のコンテントグループのオブジェクトデータが含まれる。ここで、各コンテントグループには、1つまたは複数のオブジェクトコンテントが属している。
オーディオエンコーダ113では、オーディオデータSAに対して符号化が施されて3Dオーディオの伝送データが得られる。この3Dオーディオの伝送データには、チャネル符号化データと共に、所定数のコンテントグループのオブジェクト符号化データが含まれる。そして、オーディオエンコーダ113では、この3Dオーディオの伝送データを含むオーディオストリームが生成される。
このとき、オーディオエンコーダ113では、制御部111による制御のもと、オーディオストリームに、各コンテントグループに対する音圧の増減の許容範囲を示す情報が挿入される。すなわち、オーディオフレームに、エクステンションエレメント(Ext_element)として、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つ新規定義するエレメント(Ext_content_enhancement)が挿入される(図3、図5参照)。
ビデオエンコーダ112で生成されたビデオストリームは、マルチプレクサ114に供給される。また、オーディオエンコーダ113で生成されたオーディオストリームは、マルチプレクサ114に供給される。マルチプレクサ114では、各エンコーダから供給されるストリームがPESパケット化され、さらにトランスポートパケット化されて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。
このとき、マルチプレクサ114では、制御部111の制御のもと、コンテナとしてのトランスポートストリームTSに、各コンテントグループに対する音圧の増減の許容範囲を示す情報が挿入される。すなわち、PMTの配下に存在するオーディオエレメンタリストリームループ内に、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つ新規定義するオーディオ・コンテント・エンハンスメント・デスクリプタ(Audio_Content_Enhancement descriptor)が挿入される(図8参照)。
[トランスポートストリームTSの構成]
図10は、トランスポートストリームTSの構造例を示している。この構造例では、PID1で識別されるビデオストリームのPESパケット「video PES」が存在すると共に、PID2で識別されるオーディオストリームのPESパケット「audio PES」が存在する。PESパケットは、PESヘッダ(PES_header)とPESペイロード(PES_payload)からなっている。PESヘッダには、DTS,PTSのタイムスタンプが挿入されている。
オーディオストリームのPESパケットのPESペイロードにはオーディオストリーム(Audio coded stream)が挿入される。このオーディオストリームのオーディオフレームに、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つコンテント・エンハンスメント・フレーム(Content_Enhancement_frame())が挿入される。
また、トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。PSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。PMTには、プログラム全体に関連する情報を記述するプログラム・ループ(Program loop)が存在する。
また、PMTには、各エレメンタリストリームに関連した情報を持つエレメンタリストリームループが存在する。この構成例では、ビデオストリームに対応したビデオエレメンタリストリームループ(video ES loop)が存在すると共に、オーディオストリームに対応したオーディオエレメンタリストリームループ(audio ES loop)が存在する
ビデオエレメンタリストリームループ(video ES loop)には、ビデオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのビデオストリームに関連する情報を記述するデスクリプタも配置される。このビデオストリームの「Stream_type」の値は「0x24」に設定され、PID情報は、上述したようにビデオストリームのPESパケット「video PES」に付与されるPID1を示すものとされる。デスクリプタの一つして、HEVC デスクリプタが配置される。
また、オーディオエレメンタリストリームループ(audio ES loop)には、オーディオストリームに対応して、ストリームタイプ、PID(パケット識別子)等の情報が配置されると共に、そのオーディオストリームに関連する情報を記述するデスクリプタも配置される。このオーディオストリームの「Stream_type」の値は「0x2C」に設定され、PID情報は、上述したようにオーディオストリームのPESパケット「audio PES」に付与されるPID2を示すものとされる。デスクリプタの一つして、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つオーディオ・コンテント・エンハンスメント・デスクリプタ(Audio_Content_Enhancement descriptor)が配置される。
[サービス受信機の構成例]
図11は、サービス受信機200の構成例を示している。このサービス受信機200は、受信部201と、デマルチプレクサ202と、ビデオデコード部203と、映像処理回路204と、パネル駆動回路205と、表示パネル206を有している。また、このサービス受信機200は、オーディオデコード部214と、音声出力回路215と、スピーカシステム216を有している。また、このサービス受信機200は、CPU221と、フラッシュROM222と、DRAM223と、内部バス224と、リモコン受信部225と、リモコン送信機226を有している。
CPU221は、サービス受信機200の各部の動作を制御する。フラッシュROM222は、制御ソフトウェアの格納およびデータの保管を行う。DRAM223は、CPU221のワークエリアを構成する。CPU221は、フラッシュROM222から読み出したソフトウェアやデータをDRAM223上に展開してソフトウェアを起動させ、サービス受信機200の各部を制御する。
リモコン受信部225は、リモコン送信機226から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU221に供給する。CPU221は、このリモコンコードに基づいて、サービス受信機200の各部を制御する。CPU221、フラッシュROM222およびDRAM223は、内部バス224に接続されている。
受信部201は、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSは、ビデオストリームの他に、オーディオストリームを有している。オーディオストリームは、3Dオーディオの伝送データを構成する、チャネル符号化データと、所定数のオブジェクトコンテントの符号化データ(オブジェクト符号化データ)を持っている。
オーディオストリームのレイヤおよび/またはコンテナとしてのトランスポートストリームTSのレイヤに、所定数のコンテントグループに対する音圧の増減の許容範囲を示す情報が挿入されている。なお、1つのコンテントグループに、1つまたは複数のオブジェクトコンテントが属している。
ここで、オーディオフレームに、エクステンションエレメント(Ext_element)として、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つ新規定義するエレメント(Ext_content_enhancement)が挿入されている(図3、図5参照)。また、PMTの配下に存在するオーディオエレメンタリストリームループ内に、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つ新規定義するオーディオ・コンテント・エンハンスメント・デスクリプタ(Audio_Content_Enhancement descriptor)が挿入されている(図8参照)。
デマルチプレクサ202は、トランスポートストリームTSからビデオストリームを抽出し、ビデオデコード部203に送る。ビデオデコード部203は、ビデオストリームに対してデコード処理を行って非圧縮のビデオデータを得る。
映像処理回路204は、ビデオデコード部203で得られたビデオデータに対してスケーリング処理、画質調整処理などを行って、表示用のビデオデータを得る。パネル駆動回路205は、映像処理回路204で得られる表示用の画像データに基づいて、表示パネル206を駆動する。表示パネル206は、例えば、LCD(Liquid Crystal Display)、有機ELディスプレイ(organic electroluminescence display)などで構成されている。
また、デマルチプレクサ202は、トランスポートストリームTSからデスクリプタ情報などの各種情報を抽出し、CPU221に送る。この各種情報には、上述した各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つオーディオ・コンテント・エンハンスメント・デスクリプタも含まれる。CPU221は、このデスクリプタにより、各コンテントグループに対する音圧の増減の許容範囲(上限値、下限値)を認識できる。
また、デマルチプレクサ202は、トランスポートストリームTSからオーディオストリームを抽出し、オーディオデコード部214に送る。オーディオデコード部214は、オーディオストリームに対してデコード処理を行って、スピーカシステム216を構成する各スピーカを駆動するためのオーディデータを得る。
この場合、オーディオデコード部214は、オーディオストリームに含まれる所定数のオブジェクトコンテントの符号化データのうち、スイッチグループを構成する複数のオブジェクトコンテントの符号化データに関しては、CPU221の制御のもと、ユーザ選択に係るいずれか1つのオブジェクトコンテントの符号化データのみをデコード対象とする。
また、オーディオデコード部214は、オーディオストリームに挿入されている各種情報を抽出し、CPU221に送信する。この各種情報には、上述した各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つエレメントも含まれる。CPU221は、このエレメントにより、各コンテントグループに対する音圧の増減の許容範囲(上限値、下限値)を認識できる。
また、オーディオデコード部214は、CPU221の制御のもと、ユーザ選択に係るオブジェクトコンテントに対する音圧増減を処理する。このとき、オーディオストリームのレイヤおよび/またはコンテナとしてのトランスポートストリームTSのレイヤに挿入されている各オブジェクトコンテントに対する音圧の増減の許容範囲(上限値、下限値)に基づいて、音圧の増減の範囲を制限する。このオーディオデコード部214の詳細については、後述する。
音声出力処理回路215は、オーディオデコード部214で得られた各スピーカを駆動するためのオーディオデータに対して、D/A変換や増幅等の必要な処理を行って、スピーカシステム216に供給する。スピーカシステム216は、複数チャネル、例えば2チャネル、5.1チャネル、7.1チャネル、22.2チャネルなどの複数のスピーカを備える。
「オーディオデコード部の構成例」
図12は、オーディオデコード部214の構成例を示している。オーディオデコード部214は、デコーダ231と、オブジェクトエンハンサ232と、オブジェクトレンダラ233と、ミキサ234を有している。
デコーダ231は、デマルチプレクサ202で抽出されたオーディオストリームに対してデコード処理を行って、チャネルデータと共に、所定数のオブジェクトコンテントのオブジェクトデータを得る。このデコーダ213は、図9のストリーム生成部110のオーディオエンコーダ113とほぼ逆の処理をする。なお、スイッチグループを構成する複数のオブジェクトコンテントに関しては、CPU221の制御のもと、ユーザ選択に係るいずれか1つのオブジェクトコンテントのオブジェクトデータのみを得る。
また、デコーダ231は、オーディオストリームに挿入されている各種情報を抽出し、CPU221に送信する。この各種情報には、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つエレメントも含まれる。CPU221は、このエレメントにより、各コンテントグループに対する音圧の増減の許容範囲(上限値、下限値)を認識できる。
オブジェクトエンハンサ232は、デコーダ231で得られた所定数のオブジェクトデータにうち、ユーザ選択に係るオブジェクトコンテントに対して音圧増減の処理をする。音圧の増減処理時には、ユーザ操作に応じて、CPU221からオブジェクトエンハンサ232に、音圧の増減処理をすべき対象のオブジェクコンテントを示すターゲットコンテント(target_content)と、増加であるか減少であるかを示すコマンド(command)が与えられると共に、当該ターゲットコンテントに対する音圧の増減の許容範囲(上限値、下限値)が与えられる。
オブジェクトエンハンサ232は、ユーザの単位操作毎に、ターゲットコンテント(target_content)のオブジェクトコンテントの音圧を、コマンド(command)が示す方向(増加、または減少)に、所定の幅だけ変化させる。この場合、既に、音圧が許容範囲(上限値、下限値)で示される限界値にあるときは、音圧は変化させずにそのままとする。
また、オブジェクトエンハンサ232は、音圧の変化幅(所定の幅)を、例えば、図7のテーブルを参照して行う。例えば、現在の状態が1(0dB)にあって、ユーザの単位操作が増加である場合には、1.4(+3dB)の状態に変化させる。また、例えば、現在の状態が1.4(+3dB)にあって、ユーザの単位操作が増加である場合には、1.9(+6dB)の状態に変化させる。
また、例えば、現在の状態が1(0dB)にあって、ユーザの単位操作が減少である場合には、0.7(−3dB)の状態に変化させる。また、例えば、現在の状態が0.7(−3dB)にあって、ユーザの単位操作が増加である場合には、0.5(−6dB)の状態に変化させる。
また、オブジェクトエンハンサ232は、音圧の増減処理時には、各オブジェクトデータの音圧状態を示す情報を、CPU221に送る。CPU221は、この情報に基づいて、表示部、例えば表示パネル206に、各オブジェクトコンテントの現在の音圧状態を示すユーザインタフェース画面を表示し、ユーザの音圧設定の便に供するようにされる。
図13は、音圧状態示すユーザインタフェース画面の一例を示している。この例では、オブジェクトコンテントとして、ダイアログ・ランゲージ・オブジェクト(DOD)とサウンド・エフェクト・オブジェクト(SEO)の2つが存在する場合を示している(図2参照)。ハッチングを付して示すマーク部分で現在の音圧状態が示される。なお、「plus_i」は上限値を示し、「minus_i」は下限値を示している。
図14のフローチャートは、ユーザの単位操作に対応した、オブジェクトエンハンサ232における音圧の増減処理の一例を示している。オブジェクトエンハンサ232は、ステップST1において、処理を開始する。その後、オブジェクトエンハンサ232は、ステップST2の処理に移る。
このステップST2において、オブジェクトエンハンサ232は、コマンド(command)は増加命令であるか否かを判断する。増加命令であるとき、オブジェクトエンハンサ232は、ステップST3の処理に移る。このステップST3において、オブジェクトエンハンサ232は、ターゲットコンテント(target_content)のオブジェクトコンテントの音圧を、上限値にないときには、所定幅だけ増加させる。オブジェクトエンハンサ232は、ステップST3の処理の後、ステップST4において、処理を終了する。
また、ステップST2で増加命令でないとき、すなわち減少命令であるとき、オブジェクトエンハンサ232は、ステップST5の処理に移る。このステップST5において、オブジェクトエンハンサ232は、ターゲットコンテント(target_content)のオブジェクトコンテントの音圧を、下限値にないときには、所定幅だけ減少させる。オブジェクトエンハンサ232は、ステップST5の処理の後、ステップST4において、処理を終了する。
図12に戻って、オブジェクトレンダラ233は、オブジェクトエンハンサ232を通じて得られた所定数のオブジェクトコンテントのオブジェクトデータに対してレンダリング処理を施して、所定数のオブジェクトコンテントのチャネルデータを得る。ここで、オブジェクトデータは、オブジェクト音源のオーディオデータと、このオブジェクト音源の位置情報から構成されている。オブジェクトレンダラ233は、オブジェクト音源のオーディオデータをオブジェクト音源の位置情報に基づいて任意のスピーカ位置にマッピングすることで、チャネルデータを得る。
ミキサ234は、デコーダ231で得られたチャネルデータに、オブジェクトレンダラ233で得られた各オブジェクトコンテントのチャネルデータを合成し、スピーカシステム216を構成する各スピーカを駆動するためのオーディデータ(チャネルデータ)を得る。
図11に示すサービス受信機200の動作を簡単に説明する。受信部201では、サービス送信機100から放送波あるいはネットのパケットに載せて送られてくるトランスポートストリームTSが受信される。このトランスポートストリームTSは、ビデオストリームの他に、オーディオストリームを有している。
オーディオストリームは、3Dオーディオの伝送データを構成する、チャネル符号化データと、所定数のオブジェクトコンテントの符号化データ(オブジェクト符号化データ)を持っている。この所定数のオブジェクトコンテントのそれぞれは所定数のコンテントグループのいずれかに属している。つまり、1つのコンテントグループに、1つまたは複数のオブジェクトコンテントが属している。
このトランスポートストリームTSは、デマルチプレクサ202に供給される。デマルチプレクサ202では、トランスポートストリームTSからビデオストリームが抽出され、ビデオデコード部203に供給される。ビデオデコード部203では、ビデオストリームに対してデコード処理が施されて、非圧縮のビデオデータが得られる。このビデオデータは、映像処理回路204に供給される。
映像処理回路204では、ビデオデータに対してスケーリング処理、画質調整処理などが行われて、表示用のビデオデータが得られる。この表示用のビデオデータはパネル駆動回路205に供給される。パネル駆動回路205では、表示用のビデオデータに基づいて、表示パネル206を駆動することが行われる。これにより、表示パネル206には、表示用のビデオデータに対応した画像が表示される。
また、デマルチプレクサ202では、トランスポートストリームTSからデスクリプタ情報などの各種情報が抽出され、CPU221に送られる。この各種情報には、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つオーディオ・コンテント・エンハンスメント・デスクリプタも含まれる。CPU221では、このデスクリプタにより、各コンテントグループに対する音圧の増減の許容範囲(上限値、下限値)が認識される。
また、デマルチプレクサ202では、トランスポートストリームTSからオーディオストリームが抽出され、オーディオデコード部214に送られる。オーディオデコード部214では、オーディオストリームに対してデコード処理が施されて、スピーカシステム216を構成する各スピーカを駆動するためのオーディデータが得られる。
この場合、オーディオデコード部214では、オーディオストリームに含まれる所定数のオブジェクトコンテントの符号化データのうち、スイッチグループを構成する複数のオブジェクトコンテントの符号化データに関しては、CPU221の制御のもと、ユーザ選択に係るいずれか1つのオブジェクトコンテントの符号化データのみがデコード対象とされる。
また、オーディオデコード部214では、オーディオストリームに挿入されている各種情報が抽出され、CPU221に送信される。この各種情報には、上述した各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つエレメントも含まれる。CPU221では、このエレメントにより、各コンテントグループに対する音圧の増減の許容範囲(上限値、下限値)が認識される。
また、オーディオデコード部214では、CPU221の制御のもと、ユーザ選択に係るオブジェクトコンテントに対する音圧増減の処理が行われる。このとき、オーディオデコード部214では、各オブジェクトコンテントに対する音圧の増減の許容範囲(上限値、下限値)に基づいて、音圧の増減の範囲が制限される。
すなわち、この場合、ユーザ操作に応じて、CPU221からオーディオデコード部214に、音圧の増減処理をすべき対象のオブジェクコンテントを示すターゲットコンテント(target_content)と、増加であるか減少であるかを示すコマンド(command)が与えられると共に、当該ターゲットコンテントに対する音圧の増減の許容範囲(上限値、下限値)が与えられる。
そして、オーディオデコード部214では、ユーザの単位操作毎に、ターゲットコンテント(target_content)のコンテントグループに属するオブジェクトデータの音圧が、コマンド(command)が示す方向(増加、または減少)に、所定の幅だけ変化させられる。この場合、既に、音圧が許容範囲(上限値、下限値)で示される限界値にあるときは、音圧は変化させずにそのままとされる。
オーディオデコード部214で得られた各スピーカを駆動するためのオーディオデータは、音声出力処理回路215に供給される。音声出力処理回路215では、このオーディオデータに対して、D/A変換や増幅等の必要な処理が行われる。そして、処理後のオーディオデータはスピーカシステム216に供給される。これにより、スピーカシステム216からは表示パネル206の表示画像に対応した音響出力が得られる。
上述したように、図1に示す送受信システム10において、サービス受信機200は、ユーザ選択に係るオブジェクトコンテントに対する音圧増減の処理をする。そのため、例えば、所定のオブジェクトコンテントの音圧を増加させ、その他のオブジェクトコンテントの音圧を減少させるということも可能となり、所定数のオブジェクトコンテントの音圧の調整を効果的に行うことが可能となる。
図15(a)はダイアログ・ランゲージのオブジェクトコンテントのオーディオデータの波形を概略的に示し、図15(b)はその他のオブジェクトコンテントのオーディオデータの波形を概略的に示している。図15(c)は、それらのオーディオデータをまとめた場合の波形を概略的に示している。この場合、ダイアログ・ランゲージのオーディオデータの波形の振幅よりその他の複数のオブジェクトコンテントのオーディオデータの波形の振幅が大きくなることから、ダイアログ・ランゲージの音は、その他のオブジェクトコンテントの音でマスキングされ、非常に聞き取り難いものとなる。
図15(d)は音圧を増加させたダイアログ・ランゲージのオブジェクトコンテントのオーディオデータの波形を概略的に示し、図15(e)は音圧を減少させたその他のオブジェクトコンテントのオーディオデータの波形を概略的に示している。図15(f)は、それらのオーディオデータをまとめた場合の波形を概略的に示している。
この場合、ダイアログ・ランゲージのオーディオデータの波形の振幅はその他の複数のオブジェクトコンテントのオーディオデータの波形の振幅より大きくなることから、ダイアログ・ランゲージの音は、その他のオブジェクトコンテントの音でマスキングされることなく、聞き取りやすくなる。また、この場合、ダイアログ・ランゲージのオブジェクトコンテントの音圧は増加されるが、その他のオブジェクトコンテントの音圧は減少されるので、オブジェクトコンテントの全体の音圧を一定に保たれる。
また、図1に示す送受信システム10において、サービス送信機100は、オーディオストリームのレイヤおよび/またはコンテナとしてのトランスポートストリームTSのレイヤに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報を挿入する。そのため、受信側では、この挿入情報を用いることで、各オブジェクトコンテントの音圧の増減の調整を許容範囲内で行うことが容易となる。
また、図1に示す送受信システム10において、サービス送信機100は、オーディオストリームのレイヤおよび/またはコンテナとしてのトランスポートストリームTSに、所定数のオブジェクトコンテントが属する各コンテントグループに対する音圧の増減の許容範囲を示す情報を挿入する。そのため、音圧の増減の許容範囲を示す情報をコンテントグループの数だけ送ればよく、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報を効率的に送信することが可能となる。
<2.変形例>
なお、上述実施の形態においては、各オブジェクトコンテント、従って各コンテントグループに対する音圧の増減の許容範囲を示す情報のファクタータイプが1つである例を示した(図7参照)。しかし、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報のファクタータイプを複数のタイプから選択可能とすることも考えられる。
図16は、各コンテントグループに対する音圧の増減の許容範囲を示す情報のファクタータイプを複数のタイプから選択可能とする場合におけるテーブルの一例を示している。この例は、ファクタータイプが、「factor_1」、「factor_2」の2つである場合の例である。
この場合、受信側では、「factor_1」が指定されたコンテントグループに関しては、テーブルの「factor_1」の部分が参照されて、音圧の上限値、下限値が認識され、また、音圧の増減調整における変化幅も認識される。また、同様に、受信側では、「factor_2」が指定されたコンテントグループに関しては、テーブルの「factor_2」の部分が参照されて、音圧の上限値、下限値が認識され、また、音圧の増減調整における変化幅も認識される。
例えば、「content_enhancement_plus_factor」が“0x02”で同じであっても、「factor_1」が指定されている場合には上限値は1.9(+6dB)と認識され、「factor_2」が指定されている場合には上限値は3.9(+12dB)と認識される。また、1(0dB)の状態から増加命令があった場合、「factor_1」が指定されている場合には1.4(+3dB)の状態に変化させられ、「factor_2」が指定されている場合には1.9(+6dB)の状態に変化させられる。また、いずれのファクターである場合にも、指定値が“0x00”である場合は、上限値、あるいは下限値とも0dBであり、この場合は対象のコンテントグループに関しては音圧の変更ができないことを意味する。
図17は、各コンテントグループに対する音圧の増減の許容範囲を示す情報のファクタータイプを複数のタイプから選択可能とする場合におけるコンテント・エンハンスメント・フレーム(Content_Enhancement_frame())の構造例(syntax)を示している。図18は、その構成例における主要な情報の内容(semantics)を示している。
「num_of_content_groups」の8ビットフィールドは、コンテントグループの数を示す。このコンテントグループの数だけ、「content_group_id」の8ビットフィールド、「content_type」の8ビットフィールド、「factor_type」の8ビットフィールド、「content_enhancement_plus_factor」の8ビットフィールドおよび「content_enhancement_minus_factor」の8ビットフィールドが、繰り返し存在する。
「content_group_id」フィールドは、コンテントグループのID(識別)を示す。「content_type」のフィールドは、コンテントグループのタイプを示す。例えば、“0”は「dialog language」を示し、“1”は「sound effect」を示し、“2”は「BGM」を示し、“3”は「spoken subtitles」を示す。「factor_type」のフィールドは、適用ファクタータイプを示す。例えば、“0”は「factor_1」を示し、“1”は「factor_2」を示す。
「content_enhancement_plus_factor」のフィールドは、音圧の増減における上限値を示す。例えば、図16のテーブルに示すように、適用ファクタータイプが「factor_1」である場合には“0x00”は1(0dB)、“0x01”は1.4(+3dB)、・・・、“0xFF”はinfinite(+infinit dB)を示し、適用ファクタータイプが「factor_2」である場合には“0x00”は1(0dB)、“0x01”は1.9(+6dB)、・・・、“0x7F”はinfinite(+infinit dB)を示す。
「content_enhancement_minus_factor」のフィールドは、音圧の増減における下限値を示す。例えば、図16のテーブルに示すように、適用ファクタータイプが「factor_1」である場合には“0x00”は1(0dB)、“0x01”は0.7(−3dB)、・・・、“0xFF”は0.00(-infinit dB)を示し、適用ファクタータイプが「factor_2」である場合には0x00”は1(0dB)、“0x01”は0.5(−6dB)、・・・、“0x7F”は0.00(-infinit dB)を示す。
図19は、各コンテントグループに対する音圧の増減の許容範囲を示す情報のファクタータイプを複数のタイプから選択可能とする場合におけるオーディオ・コンテント・エンハンスメント・デスクリプタ(Audio_Content_Enhancement descriptor)の構造例(syntax)を示している。
「descriptor_tag」の8ビットフィールドは、デスクリプタタイプを示す。ここでは、オーディオ・コンテント・エンハンスメント・デスクリプタであることを示す。「descriptor_length」の8ビットフィールドは、デスクリプタの長さ(サイズ)を示し、デスクリプタの長さとして、以降のバイト数を示す。
「num_of_content_groups」の8ビットフィールドは、コンテントグループの数を示す。このコンテントグループの数だけ、「content_group_id」の8ビットフィールド、「content_type」の8ビットフィールド、「factor_type」の8ビットフィールド、「content_enhancement_plus_factor」の8ビットフィールドおよび「content_enhancement_minus_factor」の8ビットフィールドが、繰り返し存在する。なお、各フィールドの情報の内容については、上述のコンテント・エンハンスメント・フレーム(図17参照)で説明したと同様である。
また、上述実施の形態においては、サービス受信機200においては、ユーザ選択に係るターゲットコンテント(target_content)のオブジェクトコンテントの音圧を、コマンド(command)が示す方向(増加、または減少)に、所定幅だけ変化させる例を示した。しかし、ターゲットコンテント(target_content)のオブジェクトコンテントの音圧の増減処理をする際に、自動的に、その他のオブジェクトコンテントの音圧を逆方向に増減処理することも考えられる。
このようにすることで、例えば、図15(d),(e)の処理を、ユーザは、ダイアログ・ランゲージのオブジェクトコンテントの増加操作を行うことだけで、サービス受信機200において実行させることが可能となる。
図20のフローチャートは、その場合における、ユーザの単位操作に対応した、オブジェクトエンハンサ232(図12参照)における音圧の増減処理の一例を示している。オブジェクトエンハンサ232は、ステップST11において、処理を開始する。その後、オブジェクトエンハンサ232は、ステップST12の処理に移る。
このステップST12において、オブジェクトエンハンサ232は、コマンド(command)は増加命令であるか否かを判断する。増加命令であるとき、オブジェクトエンハンサ232は、ステップST13の処理に移る。このステップST13において、オブジェクトエンハンサ232は、ターゲットコンテント(target_content)のオブジェクトコンテントの音圧を、上限値にないときには、所定幅だけ増加させる。
次に、オブジェクトエンハンサ232は、ステップST14において、オブジェクトコンテントの全体の音圧を一定に保つために、ターゲットコンテント(target_content)でない他のオブジェクトコンテントの音圧を減少させる。この場合、上述のターゲットコンテント(target_content)のオブジェクトコンテントの音圧の増加に見合う分だけ減少させる。この場合、音圧減少に係る他のオブジェクトコンテントは1つまたは複数のいずれかとされる。オブジェクトエンハンサ232は、ステップST14の処理の後、ステップST15において、処理を終了する。
また、ステップST12で増加命令でないとき、すなわち減少命令であるとき、オブジェクトエンハンサ232は、ステップST16の処理に移る。このステップST16において、オブジェクトエンハンサ232は、ターゲットコンテント(target_content)のオブジェクトコンテントの音圧を、下限値にないときには、所定幅だけ減少させる。
次に、オブジェクトエンハンサ232は、ステップST17において、オブジェクトコンテントの全体の音圧を一定に保つために、ターゲットコンテント(target_content)でない他のオブジェクトコンテントの音圧を増加させる。この場合、上述のターゲットコンテント(target_content)のオブジェクトコンテントの音圧の増加に見合う分だけ減少させる。この場合、音圧減少に係る他のオブジェクトコンテントは1つまたは複数のいずれかとされる。オブジェクトエンハンサ232は、ステップST17の処理の後、ステップST15において、処理を終了する。
なお、上述実施の形態においては、オーディオストリームのレイヤおよびコンテナとしてのトランスポートストリームTSのレイヤの双方に、各コンテントグループに対する音圧の増減の許容範囲を示す情報を挿入する例を示した。しかし、この情報を、オーディオストリームのレイヤのみ、あるいはコンテナとしてのトランスポートストリームTSのレイヤのみに挿入することも考えられる。
また、上述実施の形態においては、コンテナがトランスポートストリーム(MPEG−2 TS)である例を示した。しかし、本技術は、MP4やそれ以外のフォーマットのコンテナで配信されるシステムにも同様に適用できる。例えば、MPEG−DASHベースのストリーム配信システム、あるいは、MMT(MPEG Media Transport)構造伝送ストリームを扱う送受信システムなどである。
図21は、MMTストリームの構造例を示している。MMTストリームには、ビデオ、オーディオ等の各アセットのMMTパケットが存在する。この構造例では、ID1で識別されるビデオのアセットのMMTパケットと共に、ID2で識別されるオーディオのアセットのMMTパケットが存在する。
オーディオのアセット(オーディオストリーム)のオーディオフレームに、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つコンテント・エンハンスメント・フレーム(Content_Enhancement_frame())が挿入される。
また、MMTストリームには、PA(Packet Access)メッセージパケットなどのメッセージパケットが存在する。PAメッセージパケットには、MMT・パケット・テーブル(MMT Package Table)などのテーブルが含まれている。MPテーブルには、アセット毎の情報が含まれている。オーディオのアセット(オーディオストリーム)に対応して、各コンテントグループに対する音圧の増減の許容範囲を示す情報を持つオーディオ・コンテント・エンハンスメント・デスクリプタ(Audio_Content_Enhancement descriptor)が配置される。
なお、本技術は、以下のような構成もとることができる。
(1)所定数のオブジェクトコンテントの符号化データを持つオーディオストリームを生成するオーディオエンコード部と、
上記オーディオストリームを含む所定フォーマットのコンテナを送信する送信部と、
上記オーディオストリームのレイヤおよび/または上記コンテナのレイヤに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報を挿入する情報挿入部を備える
送信装置。
(2)上記所定数のオブジェクトコンテントのそれぞれは所定数のコンテントグループのいずれかに属し、
上記情報挿入部は、上記オーディオストリームのレイヤおよび/または上記コンテナのレイヤに、各コンテントグループに対する音圧の増減の許容範囲を示す情報を挿入する
前記(1)に記載の送信装置。
(3)上記オーディオストリームの符号化方式は、MPEG−H 3D Audioであり、
上記情報挿入部は、オーディオフレームに、上記各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報を持つエクステンションエレメントを含める
前記(1)または(2)に記載の送信装置。
(4)上記各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報には、複数のファクターのいずれかを示すファクター選択情報が付加される
前記(1)から(3)のいずれかに記載の送信装置。
(5)所定数のオブジェクトコンテントの符号化データを持つオーディオストリームを生成するオーディオエンコードステップと、
送信部により、上記オーディオストリームを含む所定フォーマットのコンテナを送信する送信ステップと、
上記オーディオストリームのレイヤおよび/または上記コンテナのレイヤに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報を挿入する情報挿入ステップを有する
送信方法。
(6)所定数のオブジェクトコンテントの符号化データを持つオーディオストリームを含む所定フォーマットのコンテナを受信する受信部と、
ユーザ選択に係るオブジェクトコンテントに対する音圧増減の処理を行う処理部を備える
受信装置。
(7)上記オーディオストリームのレイヤおよび/または上記コンテナのレイヤに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報が挿入されており、
上記オーディオストリームのレイヤおよび/または上記コンテナのレイヤから、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報を抽出する情報抽出部をさらに備え、
上記処理部は、上記抽出された情報に基づいてユーザ選択に係るオブジェクトコンテントに対する音圧増減を処理する
前記(6)に記載の受信装置。
(8)上記処理部は、
上記ユーザ選択に係るオブジェクトコンテントに対して音圧を増加するとき他のオブジェクトコンテントに対して音圧を減少し、上記ユーザ選択に係るオブジェクトコンテントに対して音圧を減少するとき他のオブジェクトコンテントに対して音圧を増加する
前記(6)または(7)に記載の受信装置。
(9)上記処理部で音圧増減処理されるオブジェクトコンテントの音圧状態を示すUI画面を表示する表示制御部をさらに備える
前記(6)から(8)のいずれかに記載の受信装置。
(10)受信部により、所定数のオブジェクトコンテントの符号化データを持つオーディオストリームを含む所定フォーマットのコンテナを受信する受信ステップと、
ユーザ選択に係るオブジェクトコンテントに対する音圧増減を処理する処理ステップを有する
受信方法。
本技術の主な特徴は、オーディオストリームのレイヤおよび/またはコンテナのレイヤに、各オブジェクトコンテントに対する音圧の増減の許容範囲を示す情報を挿入することで、受信側において各オブジェクトコンテントの音圧の増減の調整を許容範囲内で適切に行い得るようにしたことである(図9、図10参照)。
10・・・送受信システム
100・・・サービス送信機
110・・・ストリーム生成部
111・・・制御部
112・・・ビデオエンコーダ
113・・・オーディオエンコーダ
114・・・マルチプレクサ
200・・・サービス受信機
201・・・受信部
202・・・デマルチプレクサ
203・・・ビデオデコード部
204・・・映像処理回路
205・・・パネル駆動回路
206・・・表示パネル
214・・・オーディオデコード部
215・・・音声出力処理回路
216・・・スピーカシステム
221・・・CPU
222・・・フラッシュROM
223・・・DRAM
224・・・内部バス
225・・・リモコン受信部
226・・・リモコン送信機
231・・・デコーダ
232・・・オブジェクトエンハンサ
233・・・オブジェクトレンダラ
234・・・ミキサ

Claims (5)

  1. 複数のオブジェクトコンテントの符号化データを含むオーディオストリームを生成するオーディオエンコード部と、
    上記オーディオストリームを含む所定フォーマットのコンテナを送信する送信部と、
    上記オーディオストリームのレイヤまたは上記コンテナのレイヤに、各コンテントグループに対する音圧の増減の許容範囲を示す情報を挿入する情報挿入部を備え
    各オブジェクトコンテントは複数のコンテントグループのいずれかに属し、
    上記複数のコンテントグループは、ダイアログランゲージ、サウンド・エフェクト、またはSpoken Subtitlesのいずれかを含む、
    送信装置。
  2. 上記オーディオストリームの符号化方式は、MPEG−H 3D Audioである、
    請求項1に記載の送信装置。
  3. 上記情報挿入部は、オーディオフレームに、上記音圧の増減の許容範囲を示す情報を含むエクステンションエレメントを含める
    請求項2に記載の送信装置。
  4. 記音圧の増減の許容範囲を示す情報には、複数のファクタータイプのうちのいずれを適用するかを示すファクタータイプ情報が付加される
    請求項1に記載の送信装置。
  5. 複数のオブジェクトコンテントの符号化データを含むオーディオストリームを生成するオーディオエンコードステップと、
    送信部により、上記オーディオストリームを含む所定フォーマットのコンテナを送信する送信ステップと、
    上記オーディオストリームのレイヤまたは上記コンテナのレイヤに、各コンテントグループに対する音圧の増減の許容範囲を示す情報を挿入する情報挿入ステップを有し、
    各オブジェクトコンテントは複数のコンテントグループのいずれかに属し、
    上記複数のコンテントグループは、ダイアログランゲージ、サウンド・エフェクト、またはSpoken Subtitlesのいずれかを含む、
    送信方法。
JP2020100848A 2015-06-17 2020-06-10 送信装置および送信方法 Active JP6904463B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021104300A JP7205571B2 (ja) 2015-06-17 2021-06-23 受信装置および受信方法
JP2022171013A JP2022191490A (ja) 2015-06-17 2022-10-25 送信装置、送信方法、受信装置および受信方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015122292 2015-06-17
JP2015122292 2015-06-17
JP2018047395A JP6717329B2 (ja) 2015-06-17 2018-03-15 受信装置および受信方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018047395A Division JP6717329B2 (ja) 2015-06-17 2018-03-15 受信装置および受信方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021104300A Division JP7205571B2 (ja) 2015-06-17 2021-06-23 受信装置および受信方法

Publications (2)

Publication Number Publication Date
JP2020145760A JP2020145760A (ja) 2020-09-10
JP6904463B2 true JP6904463B2 (ja) 2021-07-14

Family

ID=57545876

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2016571767A Active JP6308311B2 (ja) 2015-06-17 2016-06-13 送信装置、送信方法、受信装置および受信方法
JP2018047395A Active JP6717329B2 (ja) 2015-06-17 2018-03-15 受信装置および受信方法
JP2020100848A Active JP6904463B2 (ja) 2015-06-17 2020-06-10 送信装置および送信方法
JP2021104300A Active JP7205571B2 (ja) 2015-06-17 2021-06-23 受信装置および受信方法
JP2022171013A Pending JP2022191490A (ja) 2015-06-17 2022-10-25 送信装置、送信方法、受信装置および受信方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016571767A Active JP6308311B2 (ja) 2015-06-17 2016-06-13 送信装置、送信方法、受信装置および受信方法
JP2018047395A Active JP6717329B2 (ja) 2015-06-17 2018-03-15 受信装置および受信方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021104300A Active JP7205571B2 (ja) 2015-06-17 2021-06-23 受信装置および受信方法
JP2022171013A Pending JP2022191490A (ja) 2015-06-17 2022-10-25 送信装置、送信方法、受信装置および受信方法

Country Status (9)

Country Link
US (3) US10553221B2 (ja)
EP (2) EP3313103B1 (ja)
JP (5) JP6308311B2 (ja)
KR (3) KR102465286B1 (ja)
CN (1) CN106664503B (ja)
BR (1) BR112017002758B1 (ja)
CA (2) CA3149389A1 (ja)
MX (1) MX365274B (ja)
WO (1) WO2016204125A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016171002A1 (ja) 2015-04-24 2018-02-15 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
KR102465286B1 (ko) * 2015-06-17 2022-11-10 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
CN111133775B (zh) * 2017-09-28 2021-06-08 株式会社索思未来 音响信号处理装置以及音响信号处理方法
BR112020015531A2 (pt) 2018-02-22 2021-02-02 Dolby International Ab método e aparelho para processamento de fluxos de mídias auxiliares integrados em um fluxo de áudio mpeg-h 3d
WO2020209103A1 (ja) * 2019-04-11 2020-10-15 ソニー株式会社 情報処理装置および方法、再生装置および方法、並びにプログラム

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5666430A (en) * 1995-01-09 1997-09-09 Matsushita Electric Corporation Of America Method and apparatus for leveling audio output
TW384434B (en) * 1997-03-31 2000-03-11 Sony Corp Encoding method, device therefor, decoding method, device therefor and recording medium
US6778966B2 (en) * 1999-11-29 2004-08-17 Syfx Segmented mapping converter system and method
JP4497534B2 (ja) * 2004-09-21 2010-07-07 株式会社ケンウッド 無線通信装置及び無線通信方法
WO2006088145A1 (ja) * 2005-02-18 2006-08-24 Matsushita Electric Industrial Co., Ltd. ストリーム再生装置、ストリーム供給装置
ATE487339T1 (de) * 2006-09-14 2010-11-15 Lg Electronics Inc Dialogerweiterungsverfahren
KR20090076964A (ko) * 2006-11-10 2009-07-13 파나소닉 주식회사 파라미터 복호 장치, 파라미터 부호화 장치 및 파라미터 복호 방법
EP2092516A4 (en) 2006-11-15 2010-01-13 Lg Electronics Inc METHOD AND APPARATUS FOR AUDIO SIGNAL DECODING
KR20090122221A (ko) * 2007-02-13 2009-11-26 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
RU2419168C1 (ru) * 2007-03-09 2011-05-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ обработки аудиосигнала и устройство для его осуществления
WO2008120933A1 (en) * 2007-03-30 2008-10-09 Electronics And Telecommunications Research Institute Apparatus and method for coding and decoding multi object audio signal with multi channel
KR101061129B1 (ko) * 2008-04-24 2011-08-31 엘지전자 주식회사 오디오 신호의 처리 방법 및 이의 장치
EP2146522A1 (en) * 2008-07-17 2010-01-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating audio output signals using object based metadata
WO2010087631A2 (en) * 2009-01-28 2010-08-05 Lg Electronics Inc. A method and an apparatus for decoding an audio signal
KR101137360B1 (ko) * 2009-01-28 2012-04-19 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
JP5307770B2 (ja) * 2010-07-09 2013-10-02 シャープ株式会社 音声信号処理装置、方法、プログラム、及び記録媒体
US8989406B2 (en) * 2011-03-11 2015-03-24 Sony Corporation User profile based audio adjustment techniques
WO2012125855A1 (en) * 2011-03-16 2012-09-20 Dts, Inc. Encoding and reproduction of three dimensional audio soundtracks
US9620131B2 (en) * 2011-04-08 2017-04-11 Evertz Microsystems Ltd. Systems and methods for adjusting audio levels in a plurality of audio signals
KR102394141B1 (ko) 2011-07-01 2022-05-04 돌비 레버러토리즈 라이쎈싱 코오포레이션 향상된 3d 오디오 오서링과 렌더링을 위한 시스템 및 툴들
JP5364141B2 (ja) * 2011-10-28 2013-12-11 楽天株式会社 携帯端末、店舗端末、送信方法、受信方法、決済システム、決済方法、プログラムおよびコンピュータ読み取り可能な記憶媒体
JP5962038B2 (ja) * 2012-02-03 2016-08-03 ソニー株式会社 信号処理装置、信号処理方法、プログラム、信号処理システムおよび通信端末
US20130308800A1 (en) * 2012-05-18 2013-11-21 Todd Bacon 3-D Audio Data Manipulation System and Method
KR20140047509A (ko) * 2012-10-12 2014-04-22 한국전자통신연구원 객체 오디오 신호의 잔향 신호를 이용한 오디오 부/복호화 장치
JP2016501456A (ja) * 2012-11-09 2016-01-18 ストーミングスイス・ソシエテ・ア・レスポンサビリテ・リミテ 多チャンネル信号の非線形逆コーディング
EP2779578B1 (en) * 2013-03-15 2019-11-20 Samsung Electronics Co., Ltd. Data Transmitting Apparatus, Data Receiving Apparatus, Data Transceiving System, Method for Transmitting Data, and Method for Receiving Data
US9607624B2 (en) * 2013-03-29 2017-03-28 Apple Inc. Metadata driven dynamic range control
EP2830049A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for efficient object metadata coding
EP2830050A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for enhanced spatial audio object coding
CN111580772B (zh) * 2013-10-22 2023-09-26 弗劳恩霍夫应用研究促进协会 用于音频设备的组合动态范围压缩和引导截断防止的构思
CN117376809A (zh) * 2013-10-31 2024-01-09 杜比实验室特许公司 使用元数据处理的耳机的双耳呈现
EP2879131A1 (en) * 2013-11-27 2015-06-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder, encoder and method for informed loudness estimation in object-based audio coding systems
CN104900236B (zh) * 2014-03-04 2020-06-02 杜比实验室特许公司 音频信号处理
CN106537929B (zh) * 2014-05-28 2019-07-09 弗劳恩霍夫应用研究促进协会 处理音频数据的方法、处理器及计算机可读存储介质
GB2528247A (en) * 2014-07-08 2016-01-20 Imagination Tech Ltd Soundbar
EP3175446B1 (en) * 2014-07-31 2019-06-19 Dolby Laboratories Licensing Corporation Audio processing systems and methods
CN105451151B (zh) * 2014-08-29 2018-09-21 华为技术有限公司 一种处理声音信号的方法及装置
US9525392B2 (en) * 2015-01-21 2016-12-20 Apple Inc. System and method for dynamically adapting playback device volume on an electronic device
CN106303897A (zh) * 2015-06-01 2017-01-04 杜比实验室特许公司 处理基于对象的音频信号
KR102465286B1 (ko) * 2015-06-17 2022-11-10 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
US9837086B2 (en) * 2015-07-31 2017-12-05 Apple Inc. Encoded audio extended metadata-based dynamic range control
US20180242042A1 (en) * 2015-08-14 2018-08-23 Thomson Licensing Method and apparatus for volume control of content
WO2018144367A1 (en) * 2017-02-03 2018-08-09 iZotope, Inc. Audio control system and related methods

Also Published As

Publication number Publication date
JP2021152677A (ja) 2021-09-30
EP3313103A1 (en) 2018-04-25
KR102387298B1 (ko) 2022-04-15
US10522158B2 (en) 2019-12-31
BR112017002758A2 (ja) 2018-01-30
KR20170012569A (ko) 2017-02-02
KR101804738B1 (ko) 2017-12-04
CA2956136A1 (en) 2016-12-22
US20170162206A1 (en) 2017-06-08
JP2018116299A (ja) 2018-07-26
JP7205571B2 (ja) 2023-01-17
CA2956136C (en) 2022-04-05
CN106664503A (zh) 2017-05-10
US20200118575A1 (en) 2020-04-16
US11170792B2 (en) 2021-11-09
MX365274B (es) 2019-05-29
JPWO2016204125A1 (ja) 2017-06-29
JP6717329B2 (ja) 2020-07-01
KR20180009338A (ko) 2018-01-26
MX2017001877A (es) 2017-04-27
US10553221B2 (en) 2020-02-04
CA3149389A1 (en) 2016-12-22
JP6308311B2 (ja) 2018-04-11
JP2022191490A (ja) 2022-12-27
WO2016204125A1 (ja) 2016-12-22
EP3313103A4 (en) 2018-12-19
KR102465286B1 (ko) 2022-11-10
CN106664503B (zh) 2018-10-12
KR20220051029A (ko) 2022-04-25
BR112017002758B1 (pt) 2022-12-20
EP3731542A1 (en) 2020-10-28
KR20220155399A (ko) 2022-11-22
US20190130922A1 (en) 2019-05-02
JP2020145760A (ja) 2020-09-10
EP3313103B1 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
JP6904463B2 (ja) 送信装置および送信方法
JP6908168B2 (ja) 受信装置、受信方法、送信装置および送信方法
JP2021105735A (ja) 受信装置および受信方法
JP6876924B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP6841230B2 (ja) 送信装置、送信方法、受信装置および受信方法
KR102668642B1 (ko) 송신 장치, 송신 방법, 수신 장치 및 수신 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210607

R151 Written notification of patent or utility model registration

Ref document number: 6904463

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151