JP2020190615A - 音声配信システム、配信サーバ、再生装置、及びプログラム - Google Patents

音声配信システム、配信サーバ、再生装置、及びプログラム Download PDF

Info

Publication number
JP2020190615A
JP2020190615A JP2019095290A JP2019095290A JP2020190615A JP 2020190615 A JP2020190615 A JP 2020190615A JP 2019095290 A JP2019095290 A JP 2019095290A JP 2019095290 A JP2019095290 A JP 2019095290A JP 2020190615 A JP2020190615 A JP 2020190615A
Authority
JP
Japan
Prior art keywords
audio
volume
parameter
stream
volume balance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019095290A
Other languages
English (en)
Other versions
JP7235590B2 (ja
Inventor
翔平 森
Shohei Mori
翔平 森
敏 西村
Satoshi Nishimura
敏 西村
山本 正男
Masao Yamamoto
正男 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2019095290A priority Critical patent/JP7235590B2/ja
Publication of JP2020190615A publication Critical patent/JP2020190615A/ja
Application granted granted Critical
Publication of JP7235590B2 publication Critical patent/JP7235590B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】再生側でレンダリング機能がなくてもオブジェクトベース音響の音声サービスを実現でき、且つ従来のオブジェクトベース音響方式よりも伝送量を低減させる。【解決手段】音声配信システム1は、N個の第1音声素材の音量を増減して音量制御済み第1音声素材を生成し、該音声素材を混合して音量バランス及び組み合わせが異なるN’個のレンダリング済み第1音声素材を生成するレンダリング装置10と、N’個のレンダリング済み第1音声素材及びM個の第2音声素材を符号化してN’個の第1音声ストリーム及びM個の第2音声ストリームを生成する符号化装置20と、第1再生装置40及び第2再生装置50からの要求に応じて、N’個のうち1個の第1音声ストリームを配信し、第2再生装置50のみからの要求に応じて、M個のうち要求のあった数の第2音声ストリームを配信する配信サーバ30と、を備える。【選択図】図1

Description

本発明は、音声配信システム、配信サーバ、再生装置、及びプログラムに関する。
現在広く用いられているチャンネルベース音響方式では、配信側で完成された番組音声を伝送しており、視聴者に音声を選択する自由度は少ない。視聴者が好みの音声を選択して聴くことができる例としては、主音声と副音声の活用が挙げられる。例えば、主音声が母国語であり、副音声が外国語である場合、副音声を選択すれば外国語で動画を視聴することができる。また、主音声としてスポーツ実況の音声が提供され、副音声としてスポーツ実況のない競技場の背景音の音声が提供される場合もある。上記の主音声と副音声の活用のように、配信側で複数種類の音声を生成しておき、再生側で再生する音声を選択する方式とすることで、多様な音声サービスが可能になる。チャンネルベース音響方式において、音声の選択視聴を可能とする配信技術としては、例えば非特許文献1に記載の、MPEG−DASH(Dynamic Adaptive Streaming over HTTP)を用いて音声切り替えを行う技術が知られている。
また、近年では、次世代の音声サービスとして、視聴者の好みや視聴環境に応じて番組音声のカスタマイズができるオブジェクトベース音響方式が注目されている。オブジェクトベース音響方式では、音声素材及び音響メタデータを伝送し、再生側のレンダリング機能を用いて、再生する音声信号を生成する。これにより、背景音及び解説音声の音量バランスの調節、外国語の解説音声への切り替えなど、視聴者が自身の好みに合わせて音声をカスタマイズすることができる。
オブジェクトベース音響方式の再生技術例として、次の2点が挙げられる。1点目は、伝送された音声素材及び音響メタデータから再生する音声信号を生成するレンダリング機能をハードウェアにより実装する方法である。この方法は、チャンネルベース音響用の再生装置とは別にオブジェクトベース音響用のレンダリング機能を用意するか、オブジェクトベース音響用のレンダリング機能が内蔵された再生装置を用意する必要がある。2点目は、伝送された音声素材及び音響メタデータから再生する音声信号を生成するレンダリング機能を、ウェブブラウザ上でソフトウェアにより実装する方法である。例えば非特許文献2に記載の、ウェブ標準のHTML5の音声信号制御機能であるWeb Audio APIを用いて音声のレンダリングを行う技術が知られている。
上記のオブジェクトベース音響方式の再生技術により、再生側で視聴者が自身の好みや視聴環境に応じて番組音声をカスタマイズすることが可能となる。例えば、以下のような音声サービスが挙げられる。日本語の解説音声から英語などの外国語の解説音声に切り替えたり、スポーツ番組においてホーム側解説やビジター側解説に切り替えたりできるマルチ音声サービスが可能である。また、解説音声のみ音量を上げることもでき、高齢者や母語話者でない人などにとっても聞き取りやすい音声に調節することが可能である。さらに、効果音を追加したり、聴取位置を仮想的に切り替えたりといったサービスも考えられる。これらの音声サービスは、ステレオスピーカー、ヘッドフォンなど広く用いられている2チャンネルステレオの他、5.1チャンネルサラウンド、7.1チャンネルサラウンドなどのマルチチャンネルオーディオの再生環境にも対応することができる。
一般財団法人NHKエンジニアリングシステム、"ハイブリッドキャスト関連技術"、[2019年5月8日検索]、インターネット<URL:http://www.nes.or.jp/transfer/catalog/2018/01/71a/> Chris Pike、Peter Taylour、Frank Melchior、"Proceedings of the 1st Web Audio Conference"、2015
オブジェクトベース音響方式の音声サービスを享受するためには、別途用意したオブジェクトベース音響専用のレンダリング装置、レンダリング機能が内蔵された再生装置、又はブラウザ上にレンダリング機能を実装可能な視聴端末が必要となるため、オブジェクトベース音響方式の再生環境を構築することは必ずしも容易ではない。
非特許文献2に記載の、ブラウザ上にレンダリング機能を実装する方法により、専用のレンダリング機能を有していなくてもオブジェクトベース音響方式の再生が可能となる。しかし、Web Audio API対応の視聴端末であることが前提であるため、テレビのブラウザや、PCとモバイル端末の一部のブラウザは、Web Audio APIに対応しておらず、上記技術を利用することができない。
また、再生側でレンダリングを行うためには、レンダリングに用いる全ての音声素材を配信する必要があるため、チャンネルベース音響方式で単一の音声を配信する場合と比較して、音声素材の伝送量が大幅に増大する。伝送量の増加は、配信負荷の増加やネットワークの混雑につながることから、不必要に伝送量を増大させることは望ましくない。
かかる事情に鑑みてなされた本発明の目的は、再生側でレンダリング機能を備えていなくてもオブジェクトベース音響方式の音声サービスを実現でき、且つ従来のオブジェクトベース音響方式よりも伝送量を低減させることが可能な音声配信システム、配信サーバ、再生装置、及びプログラムを提供することにある。
上記課題を解決するため、本発明に係る音声配信システムは、レンダリング機能を有さない第1再生装置及びレンダリング機能を有する第2再生装置に音声ストリームを配信する音声配信システムであって、N個の第1音声素材それぞれの音量を増減して音量制御済み第1音声素材を生成する音量制御部と、該音量制御済み第1音声素材を異なる組み合わせで混合して、音量バランス及び組み合わせが異なるN’個のレンダリング済み第1音声素材を生成する音声混合部と、を有するレンダリング装置と、前記N’個のレンダリング済み第1音声素材をそれぞれ符号化してN’個の第1音声ストリームを生成するとともに、M個の第2音声素材をそれぞれ符号化してM個の第2音声ストリームを生成する符号化装置と、前記第1再生装置及び前記第2再生装置からの要求に応じて、N’個のうち1個の前記第1音声ストリームを配信し、前記第2再生装置のみからの要求に応じて、M個のうち要求のあった数の前記第2音声ストリームを配信する配信サーバと、を備えることを特徴とする。
さらに、本発明に係る音声配信システムにおいて、前記音声混合部は、前記第1音声素材をカテゴリー別にグルーピングし、カテゴリーごとに1つの音量制御済み第1音声素材を選択して組み合わせることにより、前記レンダリング済み第1音声素材を生成することを特徴とする。
さらに、本発明に係る音声配信システムにおいて、前記音声混合部は、受信側においてチャンネルベース音響方式の音量を増減させることにより等価な音量バランスを再構築できる組み合わせを除外して、前記レンダリング済み第1音声素材を生成することを特徴とする。
また、上記課題を解決するため、本発明に係る配信サーバは、レンダリング機能を有さない第1再生装置及びレンダリング機能を有する第2再生装置に音声ストリームを配信する配信サーバであって、音量バランス及び組み合わせが異なるN’個のレンダリング済み第1音声素材、及びM個の第2音声素材をそれぞれ符号化した、N’個の第1音声ストリーム及びM個の第2音声ストリームを記憶し、前記第1再生装置及び前記第2再生装置からの要求に応じて、N’個のうち1個の前記第1音声ストリームを配信し、前記第2再生装置のみからの要求に応じて、M個のうち要求のあった数の前記第2音声ストリームを配信することを特徴とする。
また、上記課題を解決するため、本発明に係る再生装置は、配信サーバから第1音声素材の音声ストリームである第1音声ストリームを受信する再生装置であって、視聴者により選択された、チャンネルベース音響方式として第1音声ストリームを再構築することができる音量バランスを表す第1音量バランスパラメータを取得するパラメータ取得部と、前記第1音量バランスパラメータに対応する、配信側にて第1音声素材同士を混合する際の音量バランスを表す第1音量バランス基準パラメータを決定し、該第1音量バランス基準パラメータに従う1個の第1音声ストリームを決定する要求ストリーム決定部と、前記要求ストリーム決定部により決定された前記第1音声ストリームを前記配信サーバから受信するストリーム受信部と、前記第1音量バランスパラメータ及び前記第1音量バランス基準パラメータの差に基づいて、前記ストリーム受信部により受信した前記第1音声ストリームの音量バランスを制御する音量制御部と、を備えることを特徴とする。
さらに、本発明に係る再生装置において、前記パラメータ取得部は、さらに視聴者により選択された素材組み合わせパラメータを取得し、前記要求ストリーム決定部は、前記素材組み合わせパラメータ及び前記第1音量バランスパラメータに従う1個の第1音声ストリームを決定することを特徴とする。
さらに、本発明に係る再生装置において、前記パラメータ取得部は、さらに視聴者により選択された1以上の第2音声ストリームの音量バランスを表すパラメータを第2音量バランスパラメータとして取得し、前記要求ストリーム決定部は、さらに第2音量バランスパラメータに従う1以上の第2音声ストリームを決定し、前記ストリーム受信部は、さらに前記要求ストリーム決定部により決定された前記1以上の第2音声ストリームを前記配信サーバから受信し、前記音量制御部は、さらに前記第2音量バランスパラメータに基づいて、前記ストリーム受信部により受信した前記第2音声ストリームの音量バランスを制御することを特徴とする。
また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記再生装置として機能させることを特徴とする。
本発明によれば、視聴者が好みや再生環境に応じて音声をカスタマイズすることのできるオブジェクトベース音響方式の音声サービスを、再生側でレンダリング機能を備えていなくても簡易的に実現することができる。また、再生側でオブジェクトベース音響専用のレンダリング機能を備えている場合には、従来の再生技術の利点を損なわない。さらに、従来のオブジェクトベース音響方式と比べて、音声サービスを実現するための音声の配信負荷を低減することができる。
本発明の一実施形態に係る音声配信システムの構成例を示す図である。 本発明の一実施形態に係る音声配信システムにおけるレンダリング装置の構成例を示す図である。 本発明の一実施形態に係る音声配信システムにおけるレンダリング装置で生成する音声数を低減する第1の方法を示す図である。 本発明の一実施形態に係る音声配信システムにおけるレンダリング装置で生成する音声数を低減する第2の方法を示す図である。 本発明の一実施形態に係る音声配信システムにおけるレンダリング装置で生成する音声数を低減する第2の方法を示す図である。 本発明の一実施形態に係る音声配信システムにおける符号化装置の入出力信号を示す図である。 本発明の一実施形態に係る第1再生装置の構成例を示す図である。 本発明の一実施形態に係る第1再生装置の音量制御動作の一例を示すフローチャートである。 本発明の一実施形態に係る第2再生装置の構成例を示す図である。 本発明の一実施形態に係る第2音声素材の音量バランスの選択画面の一例を示す図である。 本発明の一実施形態に係る第2再生装置におけるレンダリング処理部の構成例を示すブロック図である。 本発明の一実施形態に係る第1再生装置及び第2再生装置の音声再生方法の一例を示すフローチャートである。
以下、本発明の一実施形態について、図面を参照して詳細に説明する。
図1は、本発明の一実施形態に係る音声配信システムの構成例を示す図である。図1に示すように、音声配信システム1は、レンダリング装置10と、符号化装置20と、配信サーバ30とを備え、音声を配信する。なお、以下の実施形態では音声配信に関して説明するが、映像を併せて配信してもよい。したがって、本発明は動画に含まれる音声に対して適用することもできる。
音声配信システム1は、第1音声素材の音声ストリームを、ネットワーク60を介して、レンダリング機能を有さない1以上の第1再生装置40及びレンダリング機能を有する1以上の第2再生装置50の双方に配信する。また、音声配信システム1は、第2音声素材の音声ストリームを、ネットワーク60を介して、1以上の第2再生装置50に配信する。図1では便宜上、第1再生装置40及び第2再生装置50を1つずつ示している。
ここで、第1音声素材は、番組音声を構成する上で頻繁に用いられる音声素材であり、第2音声素材は、番組音声を構成する上で頻繁には用いられない音声素材である。一例としてスポーツ番組の場合、第1音声素材には日本語解説音声、英語解説音声、ホーム側解説、ビジター側解説、会場の背景音、ホーム側背景音、ビジター側背景音などを割り当てることが考えられる。また、第2音声素材には特定の選手の音声や効果音、第1音声素材に含まれていない外国語、2チャンネルステレオ以外の5.1チャンネルサラウンド、7.1チャンネルサラウンドなどのマルチチャンネルオーディオ用などを割り当てることが考えられる。
レンダリング装置10は、音声配信システム1の外部からN個の第1音声素材を入力し、音量バランス及び組み合わせが異なるN’個の音声(レンダリング済み第1音声素材)を生成する。
図2は、レンダリング装置10の構成例を示す図である。図2に示すように、レンダリング装置10は、N個の音量制御部11と、音声混合部12とを備える。
各音量制御部11は、第1音声素材の音量を増減してG個の音量制御済み第1音声素材を生成し、音声混合部12に出力する。
音声混合部12は、N個の音量制御部11から入力された音量制御済み第1音声素材を様々な異なる組み合わせで混合して、音量バランス及び組み合わせが異なるN’個のレンダリング済み第1音声素材を生成し、符号化装置20に出力する。音量制御部11で調節するゲインをG通りとするとき、レンダリング装置10で生成するレンダリング済み第1音声素材の音声数N’の最大値は、数学的にはG個となる。しかし、G個全ての音声を生成するとなると、レンダリング装置10や符号化装置20における処理負荷が増大することや、配信サーバ30に記憶させるデータ量が膨大となることが問題になり得る。そこで、音声数N’を低減させる方法について以下に説明する。
図3は、レンダリング装置10で生成する音声数N’を低減する第1の方法を示す図である。この方法では、音声混合部12は、音量制御済み第1音声素材をカテゴリー別にグルーピングし、カテゴリーごとに1つの音量制御済み第1音声素材を選択して組み合わせることにより、N’個のレンダリング済み第1音声素材を生成する。これにより、番組音声を構成する際に不要な組み合わせを除外することができ、生成する音声数を低減することができる。該グルーピングは、レンダリング装置10のユーザの指示に基づいてなされてもよいし、音量制御済み第1音声素材の音声信号から抽出した特徴量などに基づいて自動化されてもよい。
図3に示す例では、スポーツ番組の第1音声素材として日本語解説、英語解説、ホーム側解説、ビジター解説、会場背景、ホーム側背景、及びビジター側背景の7個があり、これら7個の第1音声素材を、解説音声カテゴリーと背景音カテゴリーにグルーピングする。解説音声カテゴリーは、日本語解説音声、英語解説音声、ホーム側解説、及びビジター側解説の4個であり、背景音カテゴリーは、会場の背景音、ホーム側背景音、ビジター側背景音の3個である。視聴操作ではそれぞれのカテゴリーから所望の第1音声素材を1つずつ選択するため、解説音声同士、背景音同士などの不要な組み合わせを削減することができる。したがって、このスポーツ番組の場合、1組の音量バランスに対しては、組み合わせの異なる4×3=12通りの音声を生成すればよい。一例を示したが、カテゴリー数は任意でよく、カテゴリーA、カテゴリーBなどと一般化して記述してもよい。このように、どの音声素材同士を混合するかを示すパラメータを、素材組み合わせパラメータと称する。
図4は、レンダリング装置10で生成する音声数N’を低減する第2の方法を示す図である。この方法では、音声混合部12は、受信側においてチャンネルベース音響方式の音量を増減させることにより等価な音量バランスを再構築できる組み合わせを除外して、N’個のレンダリング済み第1音声素材を生成する。ここでは、図3と同じく、カテゴリー数が2個である場合の例について考える。音量制御部11で調節する音量は任意だが、一例として元の音声素材に対して、−6dB,−3dB,0dB,+3dB,+6dBの5通り(G=5)で音量制御を行うとする。カテゴリーAとカテゴリーBから選択した1組の第1音声素材に対する音量バランスは、図のように全部で25通りとなる。
ここで、例えばカテゴリーAが+6dBでカテゴリーBが−3dBである組み合わせに着目すると、共に3dB分音量を下げたカテゴリーAが+3dBでカテゴリーBが−6dBである組み合わせは、チャンネルベース音響方式としての音量を3dB分下げることと等価である。したがって、オブジェクトベース音響方式のレンダリング機能を有していない第1再生装置40においても、カテゴリーAが+6dBでカテゴリーBが−3dBである組み合わせを配信すれば、カテゴリーAが+3dBでカテゴリーBが−6dBである組み合わせを再構築することができる。同様に、図4Aの斜線部に該当する音量バランスの組み合わせは受信側で再構築することができるため、レンダリング装置10による音声生成は不要である。したがって、音声混合部12は、カテゴリーAとカテゴリーBから選択した1組の第1音声素材に対して、(+6dB,−6dB)、(+6dB,−3dB)、(+6dB,0dB)、(+6dB,+3dB)、(+6dB,+6dB)、(+3dB,+6dB)、(0dB,+6dB)、(−3dB,+6dB)、(−6dB,+6dB)の9通りの音量バランスの異なる音声を生成すればよい。
図4Bは、第1音量バランス基準パラメータと第1音量バランスパラメータとの対応表の一例を示す図である。ここで、第1音量バランス基準パラメータとは、配信側(レンダリング装置10)にて第1音声素材同士を混合する際の音量バランスを表すパラメータである。第1音量バランスパラメータとは、視聴操作で選択でき、再生側(第1再生装置40及び第2再生装置50)にてチャンネルベース音響方式として第1音声ストリームを再構築することができる音量バランスを表すパラメータである。
図4Bに示す対応表は、右欄の第1音量バランスパラメータに従う音量制御が、左欄の第1音量バランス基準パラメータに従って音量制御された音声を基準として行われることを意味する。第1音量バランス基準パラメータに従ってレンダリングした音声素材を配信すれば、その第1音量バランス基準パラメータに対応する第1音量バランスパラメータの音声へは、受信側においてチャンネルベース音響方式で音量を増減させることにより変換することができる。以上より、図3及び図4に示した例であれば、音声混合部12は、組み合わせと音量バランスが異なるレンダリング済み第1音声素材を、合計で12×9=108通り生成すればよい。
さらに、音声混合部12は、視聴者によって選択される数が統計的に少ない組み合わせを除外して、N’個のレンダリング済み第1音声素材を生成してもよい。これにより、生成する音声数N’を更に低減させることができる。例えば、過去に放送された類似の構成の番組で用いられていた音声素材の組み合わせのアクセス率を取得し、アクセス率が閾値(例えば1%)未満の組み合わせを生成しないようにする。閾値は、組み合わせ数や視聴者層などの複数の要因で変化するため、適宜変更してもよい。また、該アクセス率は、レンダリング装置10のユーザが入力してもよい。
図5は、符号化装置20の入出力信号を示す図である。図5に示すように、符号化装置20は、レンダリング装置10から入力されたN’個のレンダリング済み第1音声素材をそれぞれ符号化してストリーム形式に変換し、N’個の第1音声ストリームを生成し、配信サーバ30に送信する。また、符号化装置20は、音声配信システム1の外部から入力されたM個の第2音声素材をそれぞれ符号化してストリーム形式に変換し、M個の第2音声ストリームを生成し、配信サーバ30に送信する。配信プロトコルには、MPEG−DASHやHTTP Live Streamingなどのストリーミング方式を利用してもよい。
再び図1を参照する。配信サーバ30は、符号化装置20から送信された第1音声ストリーム及び第2音声ストリームを、記憶部31に格納し、第1再生装置40,50から要求のあったストリームを配信する。第1音声ストリームについては、配信サーバ30は第1再生装置40及び第2再生装置50のいずれからも要求を受け付け、N’個のうち1個の第1音声ストリームを配信する。第2音声ストリームについては、配信サーバ30は第2再生装置50のみからの要求を受け付け、M個のうち要求のあった数の第2音声ストリームを配信する。
<第1再生装置>
次に、レンダリング機能を有さない第1再生装置40について説明する。図6は、第1再生装置40の構成例を示す図である。第1再生装置40は、通信インターフェース41と、パラメータ取得部42と、パラメータ保持部43と、要求ストリーム決定部44と、ストリーム配信要求部45と、ストリーム受信部46と、音量制御指示部47と、音量制御部48と、再生処理部49とを備える。
通信インターフェース41は、イーサネット(登録商標)インターフェース、無線LANインターフェースなどであり、有線又は無線によりネットワーク60と接続する。
パラメータ取得部42は、図3に示したような素材組み合わせパラメータを表示部(図示しない)に表示させる。そして、視聴者により選択された素材組み合わせパラメータを取得し、パラメータ保持部43に出力する。また、パラメータ取得部42は、第1音声素材の組み合わせに対して、図4Bの右欄に示したような第1音量バランスパラメータを表示部に表示させる。そして、視聴者により選択された第1音量バランスパラメータを取得し、パラメータ保持部43に出力する。なお、表示部に表示させるための素材組み合わせパラメータ及び第1音量バランスパラメータは、配信サーバ30から予め受信しておく。
パラメータ保持部43は、パラメータ取得部42により取得した素材組み合わせパラメータ及び第1音量バランスパラメータを、パラメータ取得部42により新たにパラメータが取得されるまで保持する。パラメータ保持部43が保持しているパラメータは、ストリーム配信要求部45及び音量制御指示部47からの参照要求に応じて、パラメータを提示する。
要求ストリーム決定部44は、パラメータ取得部42により取得された第1音量バランスパラメータに対応する第1音量バランス基準パラメータを決定する。そして、要求ストリーム決定部44は、素材組み合わせパラメータ及び第1音量バランス基準パラメータに従う1個の第1音声ストリームを決定し、ストリーム配信要求部45に出力する。
ストリーム配信要求部45は、要求ストリーム決定部44により決定された1個の第1音声ストリームを、配信サーバ30に要求する。
ストリーム受信部46は、要求ストリーム決定部44により決定された1個の第1音声ストリームを、配信サーバ30から受信し、バッファリングする。
音量制御指示部47は、第1音量バランス基準パラメータ及び第1音量バランスパラメータの差に基づいて、ストリーム受信部46により受信した第1音声ストリームの音量バランスから、第1音量バランスパラメータに基づく音量バランスに再構築するための、第1音声ストリームの音量制御指示値を決定し、音量制御部48に出力する。
音量制御部48は、音量制御指示部47により決定された指示値に従って、ストリーム受信部46により受信した第1音声ストリームの音量バランスを制御し、再生処理部49に出力する。
再生処理部49は、音量制御部48から入力された音声信号を再生する。音声信号の再生にはスピーカー、ヘッドフォンなどを用いればよい。なお、再生処理部49を第1再生装置40から分離し、通信インターフェース41を介して別の装置で音声信号を再生してもよい。
図7は、音量制御指示部47及び音量制御部48の動作例を示すフローチャートである。ステップS101では、音量制御指示部47は、パラメータ保持部43から視聴操作により選択された第1音量バランスパラメータを取得する。
ステップS102では、音量制御指示部47は、図4Bに例示したような第1音量バランス基準パラメータ及び第1音量バランスパラメータの対応表に基づいて、第1音量バランスパラメータと、該第1音量バランスパラメータに対応する第1音量バランス基準パラメータとを比較する。両者が等しい場合には処理をステップS103に進め、両者が等しくない場合には処理をステップS104に進める。
ステップS103では、第1音量バランス基準パラメータ及び第1音量バランスパラメータが等しいため、音量バランスを再構築する必要がない。したがって、音量制御指示部47は音声制御値を0[dB]とする。この場合、音量制御部48は音量制御を行わない。
ステップS104では、第1音量バランス基準パラメータ及び第1音量バランスパラメータが異なるため、音量バランスを再構築する必要がある。そのため、音量制御指示部47は、第1音量バランスパラメータから、該第1音量バランスパラメータに対応する第1音量バランス基準パラメータを引いた差を計算し、その差x[dB]を音量制御指示値とする。例えば第1音量バランスパラメータが(0dB,−3dB)であり、図4Bに示した対応表を参照する場合、該第1音量バランスパラメータ対応する第1音量バランス基準パラメータは(+6dB,+3dB)であるため、音量制御指示値x=−6[dB]となる。
ステップS105では、音量制御部48は音量制御指示値xが正の場合にはx[dB]分音量を増加させ、xが負の値の場合は|x|[dB]分音量を減少させる音量制御を行う。
<第2再生装置>
次に、レンダリング機能を有する第2再生装置50について説明する。図8は、第2再生装置50の構成例を示す図である。第2再生装置50は、通信インターフェース51と、パラメータ取得部52と、パラメータ保持部53と、要求ストリーム決定部54と、ストリーム配信要求部55と、ストリーム受信部56と、音量制御指示部57と、レンダリング処理部58と、再生処理部59とを備える。
通信インターフェース51は、第1再生装置40の通信インターフェース41と同様に、有線又は無線によりネットワーク60と接続する。
パラメータ取得部52は、第1再生装置40のパラメータ取得部42と同様に、図3に示したような素材組み合わせパラメータを表示部(図示しない)に表示させる。そして、視聴者により選択された素材組み合わせパラメータを取得し、パラメータ保持部53に出力する。また、パラメータ取得部52は、第1再生装置40のパラメータ取得部42と同様に、第1音声素材の組み合わせに対して、図4Bの右欄に示したような第1音量バランスパラメータを表示部に表示させる。そして、視聴者により選択された第1音量バランスパラメータを取得し、パラメータ保持部53に出力する。
さらに、パラメータ取得部52は、図9に示すような第2音声素材の音量バランスの選択画面を表示部に表示させる。そして、視聴者により選択された1以上の第2音声素材の音量バランスを表すパラメータを第2音量バランスパラメータとして取得する。図9に示す例では、第2音声素材1の音量バランスを+2とし、第2音声素材2の音量バランスを−4とした例を示している。
パラメータ保持部53は、パラメータ取得部52により取得した素材組み合わせパラメータ、第1音量バランスパラメータ、及び第2音量バランスパラメータを、パラメータ取得部52により新たにパラメータが取得されるまで保持する。
要求ストリーム決定部54は、第1再生装置40の要求ストリーム決定部44と同様に、パラメータ取得部52により取得された第1音量バランスパラメータに対応する第1音量バランス基準パラメータを決定する。そして、要求ストリーム決定部54は、素材組み合わせパラメータ及び第1音量バランス基準パラメータに従う1個の第1音声ストリームを決定し、ストリーム配信要求部55に出力する。
また、要求ストリーム決定部54は、パラメータ取得部52により取得された第2音量バランスパラメータに従う1以上(視聴者に選択された数)の第2音声ストリームを決定し、ストリーム配信要求部55に出力する。
ストリーム配信要求部55は、要求ストリーム決定部54により決定された1個の第1音声ストリーム及び1以上の第2音声ストリームを、配信サーバ30に要求する。
ストリーム受信部56は、要求ストリーム決定部54により決定された1個の第1音声ストリーム及び1以上の第2音声ストリームを、配信サーバ30から受信し、バッファリングする。
音量制御指示部57は、第1再生装置40の音量制御指示部47と同様に、第1音量バランス基準パラメータで配信された第1音声ストリームの音量バランスから第1音量バランスパラメータの音量バランスに再構築するための、第1音声ストリームの音声制御指示値を決定し、レンダリング処理部58に出力する。
また、音量制御指示部57は、第2音量バランスパラメータに基づいて、第2音声ストリームの音量制御指示値を決定し、レンダリング処理部58に出力する。
レンダリング処理部58は、音量制御指示部57により決定された音量制御指示値に従ってレンダリング処理を行い、再生処理部59に出力する。
図10は、レンダリング処理部58の構成例を示すブロック図である。レンダリング処理部58は、(j+1)個の音量制御部581と、音声混合部582とを備える。音量制御部581は、配信サーバ30から配信された1個の第1音声ストリーム及び選択数(j個)の第2音声ストリームのそれぞれに対して、音量制御指示部57により決定された音量制御指示値に従って音量バランスを制御し、音声混合部582に出力する。音声混合部582は、音量制御部581から入力された第1音声ストリーム及び第2音声ストリームを混合してレンダリング済み音声信号を生成し、再生処理部59に出力する。
再生処理部59は、レンダリング処理部58から入力されたレンダリング済み音声信号を再生する。レンダリング済み音声信号の再生にはスピーカー、ヘッドフォンなどを用いればよい。なお、再生処理部59を第2再生装置50から分離し、通信インターフェース51を介して別の装置で音声信号を再生してもよい。
<音声再生方法>
次に、第1再生装置40及び第2再生装置50の音声再生方法について、図11を参照しながら説明する。図11は、第1再生装置40及び第2再生装置50の音声再生方法の一例を示すフローチャートである。
ステップS201では、第1再生装置40及び第2再生装置50は、通信インターフェース41,51を介して、配信サーバ30から素材組み合わせパラメータ及び第1音量バランスパラメータを受信する。
ステップS202では、第1再生装置40及び第2再生装置50は、音声配信が終了するまで視聴操作を受け付ける。視聴操作があった場合には、ステップS203の視聴操作を検出するプロセスへ移る。視聴操作がない間は、音声信号の再生を継続する。
ステップS203では、視聴操作を検出する。視聴者は、表示部に提示されている素材組み合わせパラメータ及び第1音量バランスパラメータのうち、聴きたい音声素材及び音量を画面タッチなどで選択する。視聴操作の方法は、画面タッチの他、リモコンのボタン操作やジェスチャー操作、レーザーポインターなどの遠隔操作であってもよい。
ステップS204では、パラメータ取得部42,52により、視聴操作によって選択された素材組み合わせパラメータ及び第1音量バランスパラメータを取得する。なお、音声素材へのパラメータの付与は、ファイル名に指定してもよいし、配列、リストなどを用いて音声素材のメタデータとして記述してもよい。
ステップS205では、レンダリング機能を有するか否かに応じて、以降の処理を決定する。レンダリング機能を有さない第1再生装置40は、ステップS206〜S209の処理を行った後に音声信号を再生し、レンダリング機能を有する第2再生装置50は、ステップS210〜S213の処理を行った後に音声信号を再生する。
(レンダリング機能なし)
ステップS206では、要求ストリーム決定部44により、第1音量バランスパラメータから、該第1音量バランスパラメータに対応する第1音量バランス基準パラメータを決定する。
ステップS207では、要求ストリーム決定部44により、素材組み合わせパラメータ及び第1音量バランス基準パラメータに従う1個の第1音声ストリームを、配信サーバ30に要求する。
ステップS208では、ストリーム受信部46により、配信サーバ30から配信された第1音声ストリームを受信する。
ステップS209では、音量制御指示部47により、第1音量バランスパラメータ及び第1音量バランス基準パラメータから音声制御指示値を決定し、音量制御部48により音声制御指示値に従って音量制御を行う。具体的には、第1再生装置40は、視聴操作で選択された第1音量バランスパラメータと、該第1音量バランスパラメータに対応する第1音量バランス基準パラメータとを比較し、両者が等しい場合には音量制御を行わず、両者が異なる場合には、音量制御指示値に基づいて音量制御を行う。
(レンダリング機能あり)
ステップS210では、要求ストリーム決定部54により、第1音量バランスパラメータから、該第1音量バランスパラメータに対応する第1音量バランス基準パラメータを決定する。また、パラメータ取得部52により、視聴操作によって選択された第2音量バランスパラメータを取得する。
ステップS211では、要求ストリーム決定部54により、素材組み合わせパラメータ及び第1音量バランス基準パラメータに従う1個の第1音声ストリームと、第2音量バランスパラメータに従う選択数の第2音声ストリームとを、配信サーバ30に要求する。
ステップS212では、ストリーム受信部56により、配信サーバ30から配信された第1音声ストリーム及び第2音声ストリームを受信する。
ステップS213では、音量制御指示部57により、第1音量バランスパラメータ、第1音量バランス基準パラメータ、及び第2音量バランスパラメータから音声制御指示値を決定し、レンダリング処理部58により音声制御指示値に従ってレンダリング処理を行う。具体的には、第2再生装置50は、第1音声ストリームに対しては、視聴操作で選択された第1音量バランスパラメータと、該第1音量バランスパラメータに対応する第1音量バランス基準パラメータとを比較し、両者が等しい場合、音量制御を行わず、両者が異なる場合には、音量制御指示値をもとに音量制御を行う。また、第2再生装置50は、第2音声ストリームに対しては、第2音量バランスパラメータに一致するように音量制御を行う。そして、第2再生装置50は、音量制御された第1音声ストリーム及び第2音声ストリームを混合してレンダリング済み音声信号を生成する。
ステップS214では、再生処理部49,59により音声信号を再生し、出力する。
ステップS215では、第1再生装置40及び第2再生装置50は、音声配信が終了しているか否かを判定し、音声配信が終了していなければ、処理をステップS202に戻す。
なお、上述したレンダリング装置10、符号化装置20、配信サーバ30、第1再生装置40、及び第2再生装置50の全体又は一部として機能させるためにコンピュータを用いることも可能である。そのようなコンピュータは、レンダリング装置10、符号化装置20、配信サーバ30、第1再生装置40、及び第2再生装置50の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPU(Central Processing Unit)やDSP(Digital Signal Processor)によってこのプログラムを読み出して実行させることで実現することができる。
また、このプログラムは、コンピュータが読み取り可能な記録媒体に記録されていてもよい。このような記録媒体を用いれば、プログラムをコンピュータにインストールすることが可能である。ここで、プログラムが記録された記録媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD−ROM、DVD−ROMなどの記録媒体であってもよい。また、このプログラムは、ネットワークを介したダウンロードによって提供することもできる。
上述したように、レンダリング装置10は、音量制御部11によりN個の第1音声素材それぞれの音量を増減して音量制御済み第1音声素材を生成し、音声混合部12により該音量制御済み第1音声素材を異なる組み合わせで混合して、音量バランス及び組み合わせが異なるN’個のレンダリング済み第1音声素材を生成する。符号化装置20は、N’個のレンダリング済み第1音声素材及びM個の第2音声素を符号化してN’個の第1音声ストリーム及びM個の第2音声ストリームを生成する。配信サーバ30は、第1再生装置40及び第2再生装置50から第1音声ストリームの要求を受け付けてN’個のうち1個の第1音声ストリームを配信し、第2再生装置50のみから第2音声ストリームの要求を受け付けてM個のうち要求のあった数の第2音声ストリームを配信する。
かかる構成により、本発明によれば、視聴者が好みや再生環境に応じて音声をカスタマイズすることのできるオブジェクトベース音響方式の音声サービスを、レンダリング機能を備えていない第1再生装置40においても簡易的に実現することができる。非特許文献2に記載のブラウザレンダリングを行う方法により、専用のレンダリング装置がなくてもオブジェクトベース音響方式の再生が可能となるが、Web Audio API対応の視聴端末であることが前提である。本発明では、HTML5対応でストリーミング再生が可能な視聴端末でさえあれば、オブジェクトベース音響方式の簡易的な音声サービスをチャンネルベース音響方式の再生環境で享受することができる。また、Web Audio APIに対応していれば、同様にオブジェクトベース音響方式の再生環境を構築できるという利点を損なわない。
また、本発明によれば、配信側で予め設定したパラメータでレンダリングした音声を複数種類用意しておき、選択された音声を配信するため、音声サービスを実現するための音声の配信負荷を低減することができる。ただし、配信する音声を予め設定したパラメータに限定することで、レンダリングに用いる全ての音声素材を伝送する必要がある従来のオブジェクトベース音響方式と比較して音声素材の伝送量は低減されるが、あらゆる視聴者の視聴操作で選択されるあらゆるパターンを予め用意しておくことは非現実的である。そこで、音量制御部11により、レンダリングして生成する音声数を低減させる工夫を施すことが好適である。また、頻繁には視聴操作で選択されないと予想される音声は、従来のオブジェクトベース音響方式の配信を行うことで、配信側で生成する音声数を低減しつつ、配信負荷を低減させることができる。
上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。
1 音声配信システム
10 レンダリング装置
11 音量制御部
12 音声混合部
20 符号化装置
30 配信サーバ
31 記憶部
40 第1再生装置
41,51 通信インターフェース
42,52 パラメータ取得部
43,53 パラメータ保持部
44,54 要求ストリーム決定部
45,55 ストリーム配信要求部
46,56 ストリーム受信部
47,57 音量制御指示部
48 音量制御部
49,59 再生処理部
50 第2再生装置
58 レンダリング処理部
60 ネットワーク
581 音量制御部
582 音声混合部

Claims (8)

  1. レンダリング機能を有さない第1再生装置及びレンダリング機能を有する第2再生装置に音声ストリームを配信する音声配信システムであって、
    N個の第1音声素材それぞれの音量を増減して音量制御済み第1音声素材を生成する音量制御部と、該音量制御済み第1音声素材を異なる組み合わせで混合して、音量バランス及び組み合わせが異なるN’個のレンダリング済み第1音声素材を生成する音声混合部と、を有するレンダリング装置と、
    前記N’個のレンダリング済み第1音声素材をそれぞれ符号化してN’個の第1音声ストリームを生成するとともに、M個の第2音声素材をそれぞれ符号化してM個の第2音声ストリームを生成する符号化装置と、
    前記第1再生装置及び前記第2再生装置からの要求に応じて、N’個のうち1個の前記第1音声ストリームを配信し、前記第2再生装置のみからの要求に応じて、M個のうち要求のあった数の前記第2音声ストリームを配信する配信サーバと、
    を備えることを特徴とする、音声配信システム。
  2. 前記音声混合部は、前記第1音声素材をカテゴリー別にグルーピングし、カテゴリーごとに1つの音量制御済み第1音声素材を選択して組み合わせることにより、前記レンダリング済み第1音声素材を生成することを特徴とする、請求項1に記載の音声配信システム。
  3. 前記音声混合部は、受信側においてチャンネルベース音響方式の音量を増減させることにより等価な音量バランスを再構築できる組み合わせを除外して、前記レンダリング済み第1音声素材を生成することを特徴とする、請求項1又は2に記載の音声配信システム。
  4. レンダリング機能を有さない第1再生装置及びレンダリング機能を有する第2再生装置に音声ストリームを配信する配信サーバであって、
    音量バランス及び組み合わせが異なるN’個のレンダリング済み第1音声素材、及びM個の第2音声素材をそれぞれ符号化した、N’個の第1音声ストリーム及びM個の第2音声ストリームを記憶し、
    前記第1再生装置及び前記第2再生装置からの要求に応じて、N’個のうち1個の前記第1音声ストリームを配信し、前記第2再生装置のみからの要求に応じて、M個のうち要求のあった数の前記第2音声ストリームを配信することを特徴とする、配信サーバ。
  5. 配信サーバから第1音声素材の音声ストリームである第1音声ストリームを受信する再生装置であって、
    視聴者により選択された、チャンネルベース音響方式として第1音声ストリームを再構築することができる音量バランスを表す第1音量バランスパラメータを取得するパラメータ取得部と、
    前記第1音量バランスパラメータに対応する、配信側にて第1音声素材同士を混合する際の音量バランスを表す第1音量バランス基準パラメータを決定し、該第1音量バランス基準パラメータに従う1個の第1音声ストリームを決定する要求ストリーム決定部と、
    前記要求ストリーム決定部により決定された前記第1音声ストリームを前記配信サーバから受信するストリーム受信部と、
    前記第1音量バランスパラメータ及び前記第1音量バランス基準パラメータの差に基づいて、前記ストリーム受信部により受信した前記第1音声ストリームの音量バランスを制御する音量制御部と、
    を備えることを特徴とする、再生装置。
  6. 前記パラメータ取得部は、さらに視聴者により選択された素材組み合わせパラメータを取得し、
    前記要求ストリーム決定部は、前記素材組み合わせパラメータ及び前記第1音量バランスパラメータに従う1個の第1音声ストリームを決定することを特徴とする、請求項5に記載の再生装置。
  7. 前記パラメータ取得部は、さらに視聴者により選択された1以上の第2音声ストリームの音量バランスを表すパラメータを第2音量バランスパラメータとして取得し、
    前記要求ストリーム決定部は、さらに第2音量バランスパラメータに従う1以上の第2音声ストリームを決定し、
    前記ストリーム受信部は、さらに前記要求ストリーム決定部により決定された前記1以上の第2音声ストリームを前記配信サーバから受信し、
    前記音量制御部は、さらに前記第2音量バランスパラメータに基づいて、前記ストリーム受信部により受信した前記第2音声ストリームの音量バランスを制御することを特徴とする、請求項5又は6に記載の再生装置。
  8. コンピュータを、請求項5から7のいずれか一項に記載の再生装置として機能させるためのプログラム。

JP2019095290A 2019-05-21 2019-05-21 音声配信システム、配信サーバ、再生装置、及びプログラム Active JP7235590B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019095290A JP7235590B2 (ja) 2019-05-21 2019-05-21 音声配信システム、配信サーバ、再生装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019095290A JP7235590B2 (ja) 2019-05-21 2019-05-21 音声配信システム、配信サーバ、再生装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020190615A true JP2020190615A (ja) 2020-11-26
JP7235590B2 JP7235590B2 (ja) 2023-03-08

Family

ID=73454513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019095290A Active JP7235590B2 (ja) 2019-05-21 2019-05-21 音声配信システム、配信サーバ、再生装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP7235590B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005164977A (ja) * 2003-12-03 2005-06-23 Eiji Fujisaki マイナスワンの記録方法及び対応する楽譜
JP2007093921A (ja) * 2005-09-28 2007-04-12 Yamaha Corp 情報配信装置
JP2007178584A (ja) * 2005-12-27 2007-07-12 Yamaha Corp 楽曲データ配信方法及び装置
JP2007225934A (ja) * 2006-02-23 2007-09-06 Xing Inc カラオケシステム及びそのホスト装置
JP2017028352A (ja) * 2015-07-15 2017-02-02 富士通株式会社 放送制御装置、方法、及びプログラム
JP2017511048A (ja) * 2014-02-27 2017-04-13 ディーティーエス・インコーポレイテッドDTS,Inc. オブジェクトベースのオーディオ音量管理
WO2018096954A1 (ja) * 2016-11-25 2018-05-31 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005164977A (ja) * 2003-12-03 2005-06-23 Eiji Fujisaki マイナスワンの記録方法及び対応する楽譜
JP2007093921A (ja) * 2005-09-28 2007-04-12 Yamaha Corp 情報配信装置
JP2007178584A (ja) * 2005-12-27 2007-07-12 Yamaha Corp 楽曲データ配信方法及び装置
JP2007225934A (ja) * 2006-02-23 2007-09-06 Xing Inc カラオケシステム及びそのホスト装置
JP2017511048A (ja) * 2014-02-27 2017-04-13 ディーティーエス・インコーポレイテッドDTS,Inc. オブジェクトベースのオーディオ音量管理
JP2017028352A (ja) * 2015-07-15 2017-02-02 富士通株式会社 放送制御装置、方法、及びプログラム
WO2018096954A1 (ja) * 2016-11-25 2018-05-31 ソニー株式会社 再生装置、再生方法、情報処理装置、情報処理方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
技研だより, vol. 2019年5月号、No. 170, JPN6023003104, 30 May 2019 (2019-05-30), pages 1 - 4, ISSN: 0004976949 *

Also Published As

Publication number Publication date
JP7235590B2 (ja) 2023-03-08

Similar Documents

Publication Publication Date Title
US10992276B2 (en) Metadata for ducking control
KR101673834B1 (ko) 협업 사운드 시스템
US20160315722A1 (en) Audio stem delivery and control
US20140328485A1 (en) Systems and methods for stereoisation and enhancement of live event audio
CN110910860B (zh) 线上ktv实现方法、装置、电子设备及存储介质
US20140226842A1 (en) Spatial audio processing apparatus
CN110915220B (zh) 具有流式传输能力的音频输入和输出装置
US11950080B2 (en) Method and device for processing audio signal, using metadata
Olivieri et al. Scene-based audio and higher order ambisonics: A technology overview and application to next-generation audio, vr and 360 video
JP2022083443A (ja) オーディオと関連してユーザカスタム型臨場感を実現するためのコンピュータシステムおよびその方法
CN115065829A (zh) 一种多人连麦方法及相关设备
US20230085918A1 (en) Audio Representation and Associated Rendering
US11930350B2 (en) Rendering audio
CN114915874A (zh) 音频处理方法、装置、设备、介质及程序产品
CN114339297B (zh) 音频处理方法、装置、电子设备和计算机可读存储介质
JP7235590B2 (ja) 音声配信システム、配信サーバ、再生装置、及びプログラム
Francombe et al. Media device orchestration for immersive spatial audio reproduction
US10346126B2 (en) User preference selection for audio encoding
JP7037671B2 (ja) オーディオの提示のための装置および関連する方法
WO2019188091A1 (ja) 映像挿入装置、映像表示端末装置
KR20170095477A (ko) 스마트 다중 음향제어 통합 시스템 및 방법
CN112346694A (zh) 显示装置
Baume et al. Scaling New Heights in Broadcasting using Ambisonics
Pike 3D audio in broadcasting
US20240163629A1 (en) Adaptive sound scene rotation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230224

R150 Certificate of patent or registration of utility model

Ref document number: 7235590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150