JP7335316B2 - プログラム及び情報処理装置 - Google Patents

プログラム及び情報処理装置 Download PDF

Info

Publication number
JP7335316B2
JP7335316B2 JP2021212842A JP2021212842A JP7335316B2 JP 7335316 B2 JP7335316 B2 JP 7335316B2 JP 2021212842 A JP2021212842 A JP 2021212842A JP 2021212842 A JP2021212842 A JP 2021212842A JP 7335316 B2 JP7335316 B2 JP 7335316B2
Authority
JP
Japan
Prior art keywords
data
singing
sound source
unit
source data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021212842A
Other languages
English (en)
Other versions
JP2023096830A (ja
Inventor
岬 壱岐
雄大 石川
直美 菅
琢人 田寺
アンジャナー ゴビンダラジャン
樹理 投野
隆資 岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Line Corp
Original Assignee
Line Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Corp filed Critical Line Corp
Priority to JP2021212842A priority Critical patent/JP7335316B2/ja
Priority to PCT/JP2022/045902 priority patent/WO2023127486A1/ja
Publication of JP2023096830A publication Critical patent/JP2023096830A/ja
Priority to JP2023132975A priority patent/JP2023144076A/ja
Application granted granted Critical
Publication of JP7335316B2 publication Critical patent/JP7335316B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本開示は、楽曲の音源データからリファレンスデータを生成するプログラム及び情報処理装置に関するものである。
楽曲データの歌唱データ中、センター定位されているボーカル信号の帯域をキャンセルし、残りのデータを元データ(歌唱データ)より減算して主ボーカルデータとして抽出することにより、楽曲データから主旋律の歌唱データである主ボーカルデータを抽出するプログラム主ボーカルデータ抽出手段と、抽出された主ボーカルデータから、歌唱を採点する際の基準となるリファレンスデータを生成するリファレンスデータ生成手段と、を有するカラオケ装置が知られている(例えば、特許文献1参照)。
特開2015-225302号公報
しかしながら、特許文献1に示されるような技術では、抽出された主ボーカルデータが、必ずしもカラオケとして歌唱する部分と一致していない場合がある。例えば、歌唱部分以外で人の声が使われている演出部分や、楽器音であるが抽出精度等の問題で誤って抽出されてしまった音等が、抽出された主ボーカルデータに混じってしまう可能性がある。そして、このようなカラオケの歌唱部分と一致していない非歌唱部分を含む主ボーカルデータを用いてリファレンスデータを生成すると、歌唱を採点する際の基準として適切ではなくなってしまうおそれがある。
本開示は、このような課題を解決するためになされたものである。その目的は、楽曲の伴奏パート及びメロディパートが混合された波形データである音源データから、歌唱を採点する際の基準として、より適切であるリファレンスデータを生成可能なプログラム及び情報処理装置を提供することにある。
本開示に係るプログラムは、情報処理装置のコンピュータに実行されるためのプログラムであって、楽曲の伴奏パート及びメロディパートが混合された波形データからなる音源データを取得する音源データ取得ステップと、前記メロディパートの歌詞データを取得する歌詞データ取得ステップと、前記歌詞データ取得ステップで取得された前記歌詞データに基づいて、前記音源データ取得ステップで取得された前記音源データにおける歌唱部分を特定する歌唱部分特定ステップと、前記歌唱部分特定ステップで特定された歌唱部分の前記音源データを用いて、前記メロディパートのリファレンスデータを生成するリファレンスデータ生成ステップと、が前記情報処理装置のコンピュータに実行される。
あるいは、本開示に係るプログラムは、情報処理装置のコンピュータに実行されるためのプログラムであって、楽曲の伴奏パート及びメロディパートが混合された波形データからなる音源データを取得する音源データ取得ステップと、前記音源データ取得ステップで取得された前記音源データから複数の人の歌唱音声データのそれぞれを分離して抽出する歌唱音声分離抽出ステップと、前記歌唱音声分離抽出ステップで抽出された複数の人の歌唱音声データのうちの特定の人の歌唱音声データに基づいて、前記メロディパートのリファレンスデータを生成するリファレンスデータ生成ステップと、が前記情報処理装置のコンピュータに実行される。
本開示に係る情報処理装置は、情報処理装置であって、楽曲の伴奏パート及びメロディパートが混合された波形データからなる音源データを取得する音源データ取得部と、前記メロディパートの歌詞データを取得する歌詞データ取得部と、前記歌詞データ取得部により取得された前記歌詞データに基づいて、前記音源データ取得部により取得された前記音源データにおける歌唱部分を特定する歌唱部分特定部と、前記歌唱部分特定部により特定された歌唱部分の前記音源データを用いて、前記メロディパートのリファレンスデータを生成するリファレンスデータ生成部と、を含む。
本開示に係るプログラム及び情報処理装置によれば、楽曲の伴奏パート及びメロディパートが混合された波形データである音源データから、歌唱を採点する際の基準として、より適切であるリファレンスデータを生成可能であるという効果を奏する。
実施の形態1に係る通信システムの全体構成を示す図である。 実施の形態1に係る通信システムが備える端末の構成を示すブロック図である。 実施の形態1に係る通信システムが備えるサーバの構成を示すブロック図である。 実施の形態1に係る通信システムが備えるサーバに記憶された同期歌詞データの一例を示す図である。 実施の形態1に係る通信システムにおける処理の一例を示すフローチャートである。 実施の形態1に係る通信システムが備えるサーバの変形例における要部の構成を示すブロック図である。 実施の形態1に係る通信システムの変形例における処理の一例を示すフローチャートである。 実施の形態2に係る通信システムが備えるサーバの構成を示すブロック図である。 実施の形態2に係る通信システムにおける処理の一例を示すフローチャートである。
本開示に係る情報処理装置、通信システム、情報処理方法及びプログラムを実施するための形態について添付の図面を参照しながら説明する。各図において、同一又は相当する部分には同一の符号を付して、重複する説明は適宜に簡略化又は省略する。以下の説明においては便宜上、図示の状態を基準に各構造の位置関係を表現することがある。なお、本開示は以下の実施の形態に限定されることなく、本開示の趣旨を逸脱しない範囲において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、又は各実施の形態の任意の構成要素の省略が可能である。
実施の形態1.
図1から図7を参照しながら、本開示の実施の形態1について説明する。図1は通信システムの全体構成を示す図である。図2は通信システムが備える端末の構成を示すブロック図である。図3は通信システムが備えるサーバの構成を示すブロック図である。図4は通信システムが備えるサーバに記憶された同期歌詞データの一例を示す図である。図5は通信システムにおける処理の一例を示すフローチャートである。図6は通信システムが備えるサーバの変形例における要部の構成を示すブロック図である。図7は通信システムの変形例における処理の一例を示すフローチャートである。
図1に示すように、この実施の形態に係る通信システム400は、サーバ100と、端末200とを備えている。通信システム400では、サーバ100と端末200とが、ネットワーク300を介して通信可能に接続されている。ここで説明する構成例では、サーバ100は、ネットワーク300を介してユーザが所有する端末200に、楽曲の音源データの配信サービスやカラオケ採点サービス等を提供する。なお、ネットワーク300に接続される端末200の数は2台に限られず、1台であってもよいし3台以上であってもよい。
ネットワーク300は、1以上の端末200と、1以上のサーバ100とを接続する役割を担う。すなわち、ネットワーク300は、端末200がサーバ100に接続した後、データを送受信することができるように接続経路を提供する通信網を意味する。ネットワーク300のうちの1つ又は複数の部分は、有線ネットワークや無線ネットワークであってもよいし、そうでなくてもよい。
ネットワーク300は、例えば、アドホック・ネットワーク(Ad Hoc Network)、イントラネット、エクストラネット、仮想プライベート・ネットワーク(Virtual Private Network:VPN)、ローカル・エリア・ネットワーク(Local Area Network:LAN)、ワイヤレスLAN(Wireless LAN:WLAN)、広域ネットワーク(Wide Area Network:WAN)、ワイヤレスWAN(Wireless WAN:WWAN)、大都市圏ネットワーク(Metropolitan Area Network:MAN)、インターネットの一部、公衆交換電話網(Public Switched Telephone Network:PSTN)の一部、携帯電話網、ISDN(Integrated Service Digital Networks)、無線LAN、LTE(Long Term Evolution)、CDMA(Code Division Multiple Access)、ブルートゥース(Bluetooth(登録商標))、又は、衛星通信等、もしくは、これらの2つ以上の組合せを含むことができる。ネットワーク300は、1つ又は複数のネットワーク300を含むことができる。
端末200は、本開示に係る実施形態の機能を実現できる情報処理端末であればどのような端末であってもよい。端末200は、例えば、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ(例えば、デスクトップPC、ラップトップPC、タブレットPC等)、メディアコンピュータプラットホーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(例えば、PDA(Personal Digital Assistant)、電子メールクライアント等)、ウェアラブル端末(メガネ型デバイス、時計型デバイス等)、又は他種のコンピュータ、又はコミュニケーションプラットホームを含む。また、端末200は情報処理端末と表現されてもよい。
サーバ100は、端末200に対して、所定のサービスを提供する機能を備える。サーバ100は、本開示に係る実施形態の機能を実現できる情報処理装置であればどのような装置であってもよい。サーバ100は、例えば、サーバ装置、コンピュータ(例えば、デスクトップPC、ラップトップPC、タブレットPC等)、メディアコンピュータプラットホーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(例えば、PDA、電子メールクライアント等)、あるいは他種のコンピュータ、又はコミュニケーションプラットホームを含む。また、サーバ100は情報処理装置と表現されてもよい。サーバ100と端末200とを区別する必要がない場合は、サーバ100と端末200とは、それぞれ情報処理装置と表現されてもよいし、されなくてもよい。
それぞれの端末200の構成は基本的には同一である。次に、図2を参照しながら、端末200の構成について説明する。端末200は、端末制御部230、端末記憶部220、端末通信部210、入出力部240、表示部250、マイク260、スピーカ270及びカメラ280を備える。端末200のハードウェアの各構成要素は、例えば、バスを介して相互に接続されている。なお、端末200のハードウェア構成として、ここで説明する全ての構成要素を含むことは必須ではない。例えば、端末200は、カメラ280等の個々の構成要素、又は複数の構成要素を取り外すような構成であってもよいし、そうでなくてもよい。
端末通信部210は、ネットワーク300を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。端末通信部210は、ネットワーク300を介して、サーバ100との通信を実行する機能を有する。端末通信部210は、端末送信部211及び端末受信部212を含んでいる。端末送信部211は、各種データを端末制御部230からの指示に従って、サーバ100に送信する。端末受信部212は、サーバ100から送信された各種データを受信し、端末制御部230に伝達する。また、端末通信部210を端末通信I/F(インタフェース)と表現する場合もある。また、端末通信部210が物理的に構造化された回路で構成される場合には、端末通信回路と表現する場合もある。
入出力部240は、入力部及び出力部を含む。入力部は、端末200に対する各種操作を入力する装置である。出力部は、端末200で処理された処理結果を出力する装置である。入出力部240は、入力部と出力部が一体化していてもよいし、入力部と出力部に分離していてもよいし、そうでなくてもよい。
入力部は、ユーザからの入力を受け付けて、当該入力に係る情報を端末制御部230に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力部は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(動画像を介した操作入力)、マイク(音声による操作入力)を含む。
出力部は、端末制御部230で処理された処理結果を出力することができる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。出力部は、例えば、タッチパネル、タッチディスプレイ、スピーカ(音声出力)、レンズ(例えば3D(Three Dimensions)出力や、ホログラム出力)、プリンター等を含む。
表示部250は、フレームバッファに書き込まれた表示データに従って、表示することができる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。表示部250は、例えば、タッチパネル、タッチディスプレイ、モニタ(例えば、液晶ディスプレイやOELD(Organic Electroluminescence Display)等)、ヘッドマウントディスプレイ(HDM:Head Mounted Display)、プロジェクションマッピング、ホログラム、空気中等(真空であってもよいし、そうでなくてもよい)に画像やテキスト情報等を表示可能な装置を含む。なお、これらの表示部250は、3Dで表示データを表示可能であってもよいし、そうでなくてもよい。
なお、入出力部240がタッチパネルを有する場合、入出力部240と表示部250とは、略同一の大きさ及び形状で対向して配置されていてもよい。
端末制御部230は、プログラム内に含まれたコード又は命令によって実現する機能を実行するために物理的に構造化された回路を有し、例えば、ハードウェアに内蔵されたデータ処理装置により実現される。そのため、端末制御部230は、制御回路と表現されてもよいし、されなくてもよい。
端末制御部230は、例えば、中央処理装置(CPU:Central Processing Unit)、マイクロプロセッサ(Microprocessor)、プロセッサコア(Processor Core)、マルチプロセッサ(Multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含む。
端末記憶部220は、端末200が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。端末記憶部220は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)等各種の記憶媒体を含む。また、端末記憶部220は、メモリ(Memory)と表現されてもよいし、されなくてもよい。
端末200は、プログラムを端末記憶部220に記憶し、このプログラムを実行することで、端末制御部230が、端末制御部230に含まれる各部としての処理を実行する。つまり、端末記憶部220に記憶されるプログラムは、端末200に、端末制御部230が実行する各機能を実現させる。換言すれば、端末200においてメモリに記憶されたプログラムをプロセッサが実行し、端末200のハードウェアとソフトウェアとが協働することによって、端末200が備える各部の機能が実現される。なお、このプログラムは、プログラムモジュールと表現されてもよいし、されなくてもよい。
マイク260は、音声データの入力に利用される。スピーカ270は、音声データの出力に利用される。カメラ280は、動画像データ及び/又は静止画像データの取得に利用される。
次に、図3を参照しながら、サーバ100の構成について説明する。サーバ100は、サーバ制御部130、サーバ記憶部120及びサーバ通信部110を備えている。サーバ100のハードウェアの各構成要素は、例えば、バスを介して相互に接続されている。
サーバ制御部130は、プログラム内に含まれたコード又は命令によって実現する機能を実行するために物理的に構造化された回路を有し、例えば、ハードウェアに内蔵されたデータ処理装置により実現される。サーバ制御部130は、代表的には中央処理装置(CPU)であり、その他にマイクロプロセッサ、プロセッサコア、マルチプロセッサ、ASIC、FPGA等であってもよいし、そうでなくてもよい。本開示において、サーバ制御部130は、これらに限定されない。
サーバ記憶部120は、サーバ100が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。サーバ記憶部120は、HDD、SSD、フラッシュメモリ等各種の記憶媒体により実現される。ただし、本開示において、サーバ記憶部120は、これらに限定されない。また、サーバ記憶部120は、メモリ(Memory)と表現されてもよいし、されなくてもよい。
サーバ通信部110は、ネットワーク300を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。サーバ通信部110は、ネットワーク300を介して、端末200との通信を実行する機能を有する。サーバ通信部110は、サーバ送信部111及びサーバ受信部112を含んでいる。サーバ送信部111は、各種データをサーバ制御部130からの指示に従って、端末200に送信する。また、サーバ通信部110は、端末200から送信された各種データを受信し、サーバ制御部130に伝達する。また、サーバ通信部110をサーバ通信I/F(インタフェース)と表現する場合もある。また、サーバ通信部110が物理的に構造化された回路で構成される場合には、サーバ通信回路と表現する場合もある。
なお、サーバ100は、ハードウェア構成として、入出力部及びディスプレイを備えてもよい。入出力部は、サーバ100に対する各種操作を入力する装置により実現される。入出力部は、ユーザからの入力を受け付けて、当該入力に係る情報をサーバ制御部130に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。ディスプレイは、代表的にはモニタ(例えば、液晶ディスプレイやOELD等)で実現される。この場合、例えば、サーバ100のハードウェアは、ディスプレイを取り外すような構成であってもよいし、そうでなくてもよい。
サーバ100は、プログラムをサーバ記憶部120に記憶し、このプログラムを実行することで、サーバ制御部130が、サーバ制御部130に含まれる各部としての処理を実行する。つまり、サーバ記憶部120に記憶されるプログラムは、サーバ100に、サーバ制御部130が実行する各機能を実現させる。換言すれば、サーバ100においてメモリに記憶されたプログラムをプロセッサが実行し、サーバ100のハードウェアとソフトウェアとが協働することによって、サーバ100が備える各部の機能が実現される。なお、このプログラムは、プログラムモジュールと表現されてもよいし、されなくてもよい。
なお、端末200の端末制御部230、及び/又は、サーバ100のサーバ制御部130は、制御回路を有するCPUだけでなく、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各処理を実現してもよいし、そうでなくてもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、本開示に係る実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよいし、そうでなくてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。
また、本開示に係る実施形態のプログラム(例えば、ソフトウェアプログラム、コンピュータプログラム、又はプログラムモジュール)は、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよいし、されなくてもよい。記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。また、プログラムは、本開示に係る実施形態の機能の一部を実現するためのものであってもよいし、そうでなくてもよい。さらに、本開示に係る実施形態の機能を記憶媒体に既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよいし、そうでなくてもよい。
記憶媒体は、1つ又は複数の半導体ベースの、又は他の集積回路(IC)(例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)又は特定用途向けIC(ASIC)等)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カード、又はドライブ、任意の他の適切な記憶媒体、もしくは、これらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、又は揮発性と不揮発性の組合せでよい。なお、記憶媒体はこれらの例に限られず、プログラムを記憶可能であれば、どのようなデバイス又は媒体であってもよい。また、記憶媒体をメモリ(Memory)と表現されてもよいし、されなくてもよい。
また、本開示のプログラムは、当該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、サーバ100及び/又は端末200に提供されてもよいし、されなくてもよい。プログラムが伝送媒体を介して提供される場合、サーバ100及び/又は端末200は、例えば、インターネット等を介してダウンロードしたプログラムを実行することにより、各実施形態に示す複数の機能部の機能を実現することが可能である。
また、本開示に係る実施形態は、プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。また、サーバ100及び/又は端末200における処理の少なくとも一部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよいし、そうでなくてもよい。また、端末200における処理の少なくとも一部を、サーバ100により行う構成としてもよいし、そうでなくてもよい。この場合、端末200の端末制御部230の各機能部の処理のうち少なくとも一部の処理を、サーバ100で行う構成としてもよいし、そうでなくてもよい。また、サーバ100における処理の少なくとも一部を、端末200により行う構成としてもよいし、そうでなくてもよい。この場合、サーバ100のサーバ制御部130の各機能部の処理のうち少なくとも一部の処理を、端末200で行う構成としてもよいし、そうでなくてもよい。
なお、本開示のプログラムは、例えば、ActionScript、JavaScript(登録商標)等のスクリプト言語、Objective-C、Java(登録商標)等のオブジェクト指向プログラミング言語、HTML5等のマークアップ言語等を用いて実装され得る。
この実施の形態に係る通信システム400においては、図3に示すように、サーバ100のサーバ記憶部120は、音源データ記憶部121及び歌詞データ記憶部122を含んでいる。音源データ記憶部121は、楽曲の音源データを記憶している。音源データは、楽曲の伴奏パート及びメロディパートが混合された波形データからなるデータである。メロディパートは主旋律のパートであり、通常は人が歌唱するボーカルパートである。音源データには、WAVE、AIFF、MP3、AAC、FLAC等の各種の音声ファイル形式を用いることができる。
歌詞データ記憶部122は、楽曲の歌詞データを記憶している。歌詞データは、楽曲のメロディパートの歌詞のデータである。ここで説明する構成例では、歌詞データは同期歌詞データである。同期歌詞データには、複数の歌詞フレーズが含まれている。そして、同期歌詞データにおいては、それぞれの歌詞フレーズ毎に当該楽曲の音源データの再生と同期して表示するため表示開始時間が対応付けられている。
このような同期歌詞データとして、例えばLRCファイルを用いることができる。同期歌詞データであるLRCファイルの一例を図4に示す。LRCファイルは、特定の書式に従ったテキスト形式のファイルである。LRCファイルの書式では、各行が一度に表示する歌詞フレーズになっている。そして、各行の先頭の”[”及び”]”で囲われた数字が当該行の歌詞フレーズの表示開始時間である。表示開始時間は、mm:ss.xxの書式で記載されている。mmは分、ssは秒、xxは1/100秒を示している。
この実施の形態に係る通信システム400においては、サーバ100は、サーバ制御部130により実現される機能として、音源データ取得部131、歌詞データ取得部132、歌唱部分特定部133及びリファレンスデータ生成部134を備えている。音源データ取得部131は、音源データ記憶部121に記憶されている音源データを取得する処理を行う。歌詞データ取得部132は、歌詞データ記憶部122に記憶されている歌詞データを取得する処理を行う。
歌唱部分特定部133は、歌詞データ取得部132により取得された歌詞データに基づいて、音源データ取得部131により取得された音源データにおける歌唱部分を特定する。ここで説明する構成例では、歌詞データ取得部132が取得する歌詞データは、同期歌詞データである。そして、歌唱部分特定部133は、同期歌詞データに含まれる各歌詞フレーズの表示開始時間に基づいて、音源データにおける歌唱部分を特定する。
この歌唱部分特定部133による歌唱部分の特定について、具体例を挙げながら説明する。例えば、図4に示す同期歌詞データの場合、楽曲が開始してから11.14秒が経過するまでは歌詞がない前奏である。そして、11.14秒から1分10.68秒までは、1番の歌唱部分である。また、1分10.68秒から1分34.16秒までは歌詞がない間奏である。1分34.16秒から2分16.71秒までは、2番の歌唱部分である。そして、2分16.71秒以降は後奏である。前奏、間奏及び後奏は非歌唱部分である。
リファレンスデータ生成部134は、音源データのメロディパートのリファレンスデータを生成する。リファレンスデータは、メロディパートの音の要素に関するデータである。リファレンスデータの対象となる音の要素には、音高(ピッチ)、発音タイミング、音長等が含まれる。
リファレンスデータ生成部134は、まず、音源データから人の歌唱音声データを抽出する。音源データからの歌唱音声データの抽出は、例えば、音源データがステレオ音源であれば人の歌唱音声(ボーカルパート)は中央に定位している場合が多いことを利用したり、人の歌唱音声の周波数成分を抽出したり、人の声でない楽器等の音色の波形成分を除去したり等の既知の方法を用いて行うことができる。そして、リファレンスデータ生成部134は、例えば、抽出した歌唱音声データについて既知のピッチ検出アルゴリズムを利用してピッチを検出し、リファレンスデータとして出力する。
特に、この実施の形態に係るサーバ100においては、リファレンスデータ生成部134は、歌唱部分特定部133により特定された歌唱部分の音源データを用いて、メロディパートのリファレンスデータを生成する。逆にいえば、リファレンスデータ生成部134は、当該楽曲の音源データから非歌唱部分を除外した上で、メロディパートのリファレンスデータを生成する。
前述した図4に示す同期歌詞データの例では、リファレンスデータ生成部134は、音源データのうちで、11.14秒から1分10.68秒までの1番の歌唱部分と、1分34.16秒から2分16.71秒までの2番の歌唱部分とを用いて、メロディパートのリファレンスデータを生成する。したがって、リファレンスデータ生成部134は、当該楽曲の音源データのうちで11.14秒から1分10.68秒までと1分34.16秒から2分16.71秒までの部分を用いて、メロディパートのリファレンスデータを生成する。これは、楽曲が開始してから11.14秒までと1分10.68秒から1分34.16秒までと2分16.71秒以降の非歌唱部分を除外した上で、メロディパートのリファレンスデータを生成すると言い換えることができる。
図3に示すように、サーバ記憶部120は、リファレンスデータ記憶部123をさらに含んでいる。リファレンスデータ記憶部123は、リファレンスデータ生成部134により生成されたそれぞれの楽曲のリファレンスデータを記憶する。
また、図3に示す構成例では、サーバ100は、サーバ制御部130により実現される機能として、伴奏パート取得部135をさらに備えている。伴奏パート取得部135は、音源データ取得部131により取得された音源データについて、いわゆるボーカルキャンセル処理を施し、当該楽曲の伴奏パートを抽出して取得する。ボーカルキャンセル処理には既知の方法が利用できる。伴奏パート取得部135により取得された伴奏パートのデータは、いわゆるカラオケ音源のデータとして利用できる。
サーバ100のサーバ送信部111は、音源データ記憶部121に記憶されている楽曲の音源データを端末200に送信する。これにより、楽曲の音源データの配信サービスが実現される。また、サーバ送信部111は、歌詞データ記憶部122に記憶されている楽曲の歌詞データを端末200に送信してもよい。さらに、サーバ送信部111は、伴奏パート取得部135により取得された伴奏パートのデータを端末200に送信してもよい。
端末200の端末受信部212は、サーバ100から送信された楽曲の音源データ、歌詞データ及び伴奏パートのデータを受信する。図2に示す構成例では、端末200は、端末制御部230により実現される機能として、再生処理部231、表示処理部232及び歌唱者音声取得部233を備えている。再生処理部231は、端末受信部212により受信された楽曲の音源データを再生し、スピーカ270等から出力させる。
また、再生処理部231は、端末受信部212により受信された楽曲の伴奏パートのデータを再生し、スピーカ270等から出力させる。この際、表示処理部232は、端末受信部212により受信された楽曲の歌詞データを表示部250に表示させる。前述したように、ここで説明する構成例では歌詞データは同期歌詞データである。このため、表示処理部232は、再生処理部231による楽曲の伴奏パートのデータの再生と同期させて、歌詞データを表示させることができる。歌唱者音声取得部233は、再生処理部231による楽曲の伴奏パートのデータの再生中において、マイク260に入力された音声を歌唱者の歌唱音声データとして取得する。
端末送信部211は、歌唱者音声取得部233により取得された歌唱音声データをサーバ100に送信する。サーバ100のサーバ受信部112は、端末200から送信された歌唱者の歌唱音声データを受信する。
図3に示す構成例では、サーバ100は、サーバ制御部130により実現される機能として、歌唱音声取得部136及び評価部137をさらに備えている。歌唱音声取得部は、サーバ受信部112が受信した歌唱音声データを取得する。そして、サーバ100の評価部137は、歌唱音声取得部136により取得された歌唱者の歌唱音声データを、リファレンスデータ記憶部123に記憶されているリファレンスデータと比較して評価する。例えば、評価部137は、前述した既知のピッチ検出アルゴリズムを利用して歌唱者の歌唱音声データのピッチを検出する。そして、評価部137は、リファレンスデータの基準ピッチと比較し、これらのピッチの一致度が高いほどよい評価をする。評価部137による評価結果は、サーバ送信部111及び端末受信部212を介して端末200に送信され、例えば表示部250に表示される。
また、リファレンスデータをサーバ100から端末200に送信してもよい。この場合、例えば、端末200においてカラオケ音源である伴奏パートのデータを再生中に、リファレンスデータを用いて表示部250にいわゆるガイドメロディを表示させることができる。また、評価部137をサーバ100でなく端末200に設けるようにしてもよい。
次に、図5のフロー図を参照しながら、この実施の形態に係る通信システム400の動作例について説明する。まず、ステップS10において、サーバ100の音源データ取得部131は、音源データ記憶部121に記憶されている音源データを取得する。続くステップS11において、歌詞データ取得部132は、歌詞データ記憶部122に記憶されている歌詞データを取得する。ステップS11の後、サーバ制御部130は次にステップS12の処理を行う。
ステップS12において、歌唱部分特定部133は、ステップS11で取得された歌詞データに基づいて、ステップS10で取得された音源データにおける歌唱部分を特定する。続くステップS13において、リファレンスデータ生成部134は、ステップS12で特定された歌唱部分の音源データを用いて、メロディパートのリファレンスデータを生成する。ステップS13の後、サーバ100は次にステップS14の処理を行う。
ステップS14において、サーバ100のリファレンスデータ記憶部123は、ステップS13で生成されたリファレンスデータを記憶する。また、伴奏パート取得部135は、ステップS10で取得された音源データから伴奏パートを抽出して取得する。そして、サーバ送信部111は、音源データ、歌詞データ及び伴奏パートのデータを端末200に送信する。ステップS14の後、端末200は次にステップS15の処理を行う。
ステップS15においては、端末200の端末受信部212は、ステップS14でサーバ100から送信された楽曲の音源データ、歌詞データ及び伴奏パートのデータを受信する。そして、端末200の再生処理部231は、端末受信部212により受信された楽曲の伴奏パートのデータを再生し、スピーカ270等から出力させる。また、端末200の表示処理部232は、端末受信部212により受信された楽曲の歌詞データを表示部250に表示させる。ステップS15の後、端末200は次にステップS16の処理を行う。
ステップS16においては、端末200の歌唱音声取得部136は、マイク260に入力された歌唱者の歌唱音声データを取得する。続くステップS17において、端末送信部211は、ステップS16で取得された歌唱音声データをサーバ100に送信する。サーバ100のサーバ受信部112は、端末200から送信された歌唱者の歌唱音声データを受信する。ステップS17の後、サーバ100は次にステップS18の処理を行う。
ステップS18においては、サーバ100の歌唱音声取得部136は、ステップS16でサーバ受信部112が受信した歌唱音声データを取得する。続くステップS19において、サーバ100の評価部137は、ステップS18で取得された歌唱者の歌唱音声データを、ステップS14でリファレンスデータ記憶部123に記憶されたリファレンスデータと比較して評価する。さらに続くステップS20において、評価部137による評価結果は、サーバ送信部111及び端末受信部212を介して端末200に送信され、例えば表示部250に表示される。
以上のフローにおいて、ステップS10は音源データ取得ステップに、ステップS11は歌詞データ取得ステップに、ステップS12は歌唱部分特定ステップに、ステップS13はリファレンスデータ生成ステップに、それぞれ相当する。そして、ステップS18は歌唱音声取得ステップに、ステップS19は評価ステップに、それぞれ相当する。
以上のように構成された通信システム400が有するサーバ100によれば、歌詞データを用いて音源データにおける歌唱部分を特定し、特定された歌唱部分の音源データを用いて、メロディパートのリファレンスデータを生成する。このため、歌唱部分以外で人の声が使われている演出部分や、楽器音であるが抽出精度等の問題で誤って抽出されてしまった音等がリファレンスデータに反映されてしまうことを抑制でき、歌唱を採点する際の基準として、より適切であるリファレンスデータを生成することができる。
次に、この実施の形態に係る通信システム400が有するサーバ100の変形例について説明する。この変形例では、サーバ100の歌唱部分特定部133は、図6に示すように、歌唱音声抽出部141、テキスト化部142及び照合部143を備えている。歌唱音声抽出部141は、音源データ取得部131により取得された音源データから人の歌唱音声データを抽出する。音源データからの人の歌唱音声データの抽出は、前述した既知の方法を利用して行うことができる。
テキスト化部142は、歌唱音声抽出部141で抽出された歌唱音声データを既知の音声認識処理によってテキスト化して歌唱テキストデータを生成する。照合部143は、テキスト化部142により生成された歌唱テキストデータと歌詞データ取得部132により取得された歌詞データとを照合して音源データにおける歌唱部分を特定する。すなわち、照合部143は、歌唱テキストデータと歌詞データとが一致する部分を歌唱部分として特定する。また、逆にいえば、照合部143は、歌唱テキストデータと歌詞データとが一致しない部分を非歌唱部分として特定する。
次に、図7のフロー図を参照しながら、この変形例に係るサーバ100の動作例について説明する。同図のフロー図は、図5のフロー図におけるステップS12(歌唱部分特定ステップ)のサブプロセスを示している。まず、ステップS30において、歌唱音声抽出部141は、図5のステップS10で取得された音源データから人の歌唱音声データを抽出し、抽出された歌唱音声データを取得する。続くステップS31において、テキスト化部142は、ステップS30で取得された歌唱音声データを音声認識処理によってテキスト化して歌唱テキストデータを生成し、生成された歌唱テキストデータを取得する。さらに続くステップS32において、照合部143は、ステップS31で取得された歌唱テキストデータと図5のステップS11で取得された歌詞データとを照合して音源データにおける歌唱部分を特定する。
以上のフローにおいて、ステップS30は歌唱音声抽出ステップに、ステップS31はテキスト化ステップに、ステップS32は照合ステップに、それぞれ相当する。
この変形例では、歌詞データに歌詞フレー毎の表示開始時間が含まれていなくともよい。したがって、このような変形例によれば、同期歌詞データでない歌詞データを用いて、音源データの歌唱部分/非歌唱部分を特定し、非歌唱部分の音がリファレンスデータに反映されてしまうことを抑制でき、歌唱を採点する際の基準として、より適切であるリファレンスデータを生成することができる。
実施の形態2.
図8及び図9を参照しながら、本開示の実施の形態2について説明する。図8は通信システムが備えるサーバの構成を示すブロック図である。図9は通信システムにおける処理の一例を示すフローチャートである。
以下、この実施の形態2に係る情報処理装置及びプログラムについて、実施の形態1との相違点を中心に説明する。説明を省略した構成については実施の形態1と基本的に同様である。以降の説明においては、実施の形態1と同様の又は対応する構成について、原則として実施の形態1の説明で用いたものと同じ符号を付して記載する。
この実施の形態に係る通信システム400においては、図8に示すように、サーバ100は、サーバ制御部130により実現される機能として、歌唱音声分離抽出部150をさらに備えている。歌唱音声分離抽出部150は、音源データ取得部131により取得された音源データから複数の人の歌唱音声データのそれぞれを分離して抽出する。歌唱音声分離抽出部150は、例えば、まず音源データから人の歌唱音声データを抽出する。音源データからの人の歌唱音声データの抽出は、前述した既知の方法を利用して行うことができる。そして、歌唱音声分離抽出部150は、抽出した歌唱音声データに複数の人の歌唱音声データが含まれている場合には、歌唱音声データを人毎に分離する。この際の分離は、歌唱音声データの波形分析等の既知の方法により行うことができる。なお、歌唱音声分離抽出部150は、音源データから直接に複数の人の歌唱音声データのそれぞれを分離してもよい。
この実施の形態においては、歌唱部分特定部133は、歌唱音声分離抽出部150で抽出された複数の人の歌唱音声データのうちの特定の人の歌唱音声データに基づいて、音源データにおける歌唱部分を特定する。ここでいう特定の人の歌唱音声データとは、例えば、メインボーカルの歌唱音声データである。歌唱部分特定部133は、例えば、複数の人の歌唱音声データのそれぞれの定位、音量、当該楽曲の再生時間に占める割合等を用いて、特定の人の歌唱音声データを決定する。また、当該楽曲のアーティスト名からメインボーカルの性別が判明している場合には、複数の人の歌唱音声データのそれぞれが男声か女声かに基づいて、特定の人の歌唱音声データを決定してもよい。
歌唱部分特定部133は、このようにして決定した特定の人の歌唱音声データの歌唱部分を特定し、これを当該楽曲の音源データの歌唱部分とする。そして、リファレンスデータ生成部134は、歌唱部分特定部133により特定された歌唱部分の音源データを用いて、メロディパートのリファレンスデータを生成する。
なお、特定の人の歌唱音声データは、1人のものに限られず、2人以上の歌唱音声データであってもよい。この場合、歌唱部分特定部133は、特定の複数人の歌唱音声データのそれぞれに基づいて、音源データにおける複数人の歌唱部分のそれぞれを特定する。そして、リファレンスデータ生成部134は、歌唱部分特定部133により特定された複数人の歌唱部分のそれぞれの音源データを用いて、メロディパートのリファレンスデータを生成する。このようにすることで、メロディパートを複数の歌唱者が交代しながら担当する曲等の場合に、メロディパートを担当する複数の歌唱者のそれぞれの担当部分について、別々にリファレンスデータを生成できる。したがって、例えば、メロディパートを担当する歌唱者のうちの任意の人のみをキャンセルしたカラオケ伴奏を再生し、当該人が歌唱を担当する部分だけをリファレンスデータを用いて採点することができる。
次に、図9のフロー図を参照しながら、この実施の形態に係る通信システム400の動作例について説明する。同図のフロー図におけるステップS10及びS11は、図5のフロー図におけるステップS10及びS11と同様であるため、その説明はここでは省略する。ステップS11の後、サーバ制御部130は次にステップS40の処理を行う。
ステップS40においては、歌唱音声分離抽出部150は、ステップS10で取得された音源データから複数の人の歌唱音声データのそれぞれを分離して抽出する。このステップS40は歌唱音声分離抽出ステップに相当する。ステップS40の後、サーバ制御部130は次にステップS12の処理を行う。ステップS12においては、歌唱部分特定部133は、ステップS40で抽出された複数の人の歌唱音声データのうちの特定の人の歌唱音声データに基づいて、音源データにおける歌唱部分を特定する。ステップS12以降のステップS13からS20は、図5のフロー図におけるステップS13からS20と同様であるため、その説明はここでは省略する。
なお、この実施の形態においては、サーバ100は、歌唱部分特定部133を備えていなくともよい。この場合、リファレンスデータ生成部134は、歌唱音声分離抽出部150で抽出された複数の人の歌唱音声データのうちの特定の人の歌唱音声データに基づいて、メロディパートのリファレンスデータを生成する。また、この場合、図9のフロー図におけるステップS12の処理は行われず、ステップS40の後、サーバ制御部130は次にステップS13の処理を行う。そして、ステップS13においては、リファレンスデータ生成部134は、ステップS40で抽出された複数の人の歌唱音声データのうちの特定の人の歌唱音声データに基づいて、メロディパートのリファレンスデータを生成する。このような構成によっても、複数の人の歌唱音声データのうちの特定の人の歌唱音声データに基づいてリファレンスデータを生成することで、歌唱部分以外で人の声が使われている演出部分等がリファレンスデータに反映されてしまうことを抑制でき、歌唱を採点する際の基準として、より適切であるリファレンスデータを生成することができる。
また、以上で説明した各実施の形態の構成例では、音源データ取得部131、歌詞データ取得部132、歌唱部分特定部133(歌唱音声抽出部141、テキスト化部142及び照合部143を含む)、リファレンスデータ生成部134、伴奏パート取得部135、歌唱音声取得部136、評価部137及び歌唱音声分離抽出部150が単一のサーバ100に設けられている。しかしながら、これらの各部は単一のサーバ100でなく、複数のサーバ装置に分散して設けられていてもよい。また、複数の装置で協働してサーバ100が有する各部の機能を実現してもよい。
本開示に係る発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。したがって、これらの変形や修正は本開示に係る発明の範囲に含まれることに留意されたい。例えば、各部、各手段、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段やステップ等を1つに組み合わせたり、あるいは分割したりすることが可能である。また、以上で説明した実施形態に示す構成を適宜組み合わせることとしてもよい。
本開示に係るプログラム及び情報処理装置は、楽曲の音源データからリファレンスデータを生成するプログラム及び情報処理装置として活用することができる。
100 サーバ
110 サーバ通信部
111 サーバ送信部
112 サーバ受信部
120 サーバ記憶部
121 音源データ記憶部
122 歌詞データ記憶部
123 リファレンスデータ記憶部
130 サーバ制御部
131 音源データ取得部
132 歌詞データ取得部
133 歌唱部分特定部
134 リファレンスデータ生成部
135 伴奏パート取得部
136 歌唱音声取得部
137 評価部
141 歌唱音声抽出部
142 テキスト化部
143 照合部
150 歌唱音声分離抽出部
200 端末
210 端末通信部
211 端末送信部
212 端末受信部
220 端末記憶部
230 端末制御部
231 再生処理部
232 表示処理部
233 歌唱者音声取得部
240 入出力部
250 表示部
260 マイク
270 スピーカ
280 カメラ
300 ネットワーク
400 通信システム

Claims (5)

  1. 情報処理装置のコンピュータに実行されるためのプログラムであって、
    楽曲の伴奏パート及びメロディパートが混合された波形データからなる音源データを取得する音源データ取得ステップと、
    前記メロディパートの歌詞データを取得する歌詞データ取得ステップと、
    前記歌詞データ取得ステップで取得された前記歌詞データに基づいて、前記音源データ取得ステップで取得された前記音源データにおける歌唱部分を特定する歌唱部分特定ステップと、
    前記歌唱部分特定ステップで特定された歌唱部分以外の非歌唱部分を前記音源データから除外し、非歌唱部分が除外された前記音源データを用いて、前記メロディパートのリファレンスデータを生成するリファレンスデータ生成ステップと、が前記情報処理装置のコンピュータに実行される。
  2. 請求項1に記載のプログラムであって、
    前記歌詞データは、複数の歌詞フレーズを含み、それぞれの前記歌詞フレーズ毎に前記音源データの再生と同期して表示するため表示開始時間が対応付けられている同期歌詞データであり、
    前記歌唱部分特定ステップは、前記同期歌詞データの表示開始時間に基づいて、前記音源データにおける歌唱部分を特定する。
  3. 請求項1に記載のプログラムであって、
    前記歌唱部分特定ステップは、
    前記音源データ取得ステップで取得された前記音源データから抽出された人の歌唱音声データを取得する歌唱音声抽出ステップと、
    前記歌唱音声抽出ステップで取得された歌唱音声データを音声認識処理によってテキスト化して生成された歌唱テキストデータを取得するテキスト化ステップと、
    前記テキスト化ステップで取得された前記歌唱テキストデータと前記歌詞データ取得ステップで取得された前記歌詞データとを照合して前記音源データにおける歌唱部分を特定する照合ステップと、を含む。
  4. 請求項1から請求項のいずれか一項に記載のプログラムであって、
    歌唱者の歌唱音声データを取得する歌唱音声取得ステップと、
    前記歌唱音声取得ステップで取得された歌唱音声データを前記リファレンスデータ生成ステップで生成された前記リファレンスデータと比較して評価する評価ステップと、前記情報処理装置のコンピュータにさらに実行される。
  5. 情報処理装置であって、
    楽曲の伴奏パート及びメロディパートが混合された波形データからなる音源データを取得する音源データ取得部と、
    前記メロディパートの歌詞データを取得する歌詞データ取得部と、
    前記歌詞データ取得部により取得された前記歌詞データに基づいて、前記音源データ取得部により取得された前記音源データにおける歌唱部分を特定する歌唱部分特定部と、
    前記歌唱部分特定部により特定された歌唱部分以外の非歌唱部分を前記音源データから除外し、非歌唱部分が除外された前記音源データを用いて、前記メロディパートのリファレンスデータを生成するリファレンスデータ生成部と、を含む。
JP2021212842A 2021-12-27 2021-12-27 プログラム及び情報処理装置 Active JP7335316B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021212842A JP7335316B2 (ja) 2021-12-27 2021-12-27 プログラム及び情報処理装置
PCT/JP2022/045902 WO2023127486A1 (ja) 2021-12-27 2022-12-13 プログラム及び情報処理装置
JP2023132975A JP2023144076A (ja) 2021-12-27 2023-08-17 プログラム、情報処理方法及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021212842A JP7335316B2 (ja) 2021-12-27 2021-12-27 プログラム及び情報処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023132975A Division JP2023144076A (ja) 2021-12-27 2023-08-17 プログラム、情報処理方法及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2023096830A JP2023096830A (ja) 2023-07-07
JP7335316B2 true JP7335316B2 (ja) 2023-08-29

Family

ID=86998772

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021212842A Active JP7335316B2 (ja) 2021-12-27 2021-12-27 プログラム及び情報処理装置
JP2023132975A Pending JP2023144076A (ja) 2021-12-27 2023-08-17 プログラム、情報処理方法及び情報処理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023132975A Pending JP2023144076A (ja) 2021-12-27 2023-08-17 プログラム、情報処理方法及び情報処理装置

Country Status (2)

Country Link
JP (2) JP7335316B2 (ja)
WO (1) WO2023127486A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225302A (ja) 2014-05-29 2015-12-14 株式会社第一興商 カラオケ装置
JP2017116899A (ja) 2015-12-27 2017-06-29 株式会社コシダカホールディングス 音声入力によるカラオケ生成
WO2020045398A1 (ja) 2018-08-28 2020-03-05 ヤマハ株式会社 楽曲再生システム、楽曲再生システムの制御方法およびプログラム
WO2022070639A1 (ja) 2020-09-29 2022-04-07 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015225302A (ja) 2014-05-29 2015-12-14 株式会社第一興商 カラオケ装置
JP2017116899A (ja) 2015-12-27 2017-06-29 株式会社コシダカホールディングス 音声入力によるカラオケ生成
WO2020045398A1 (ja) 2018-08-28 2020-03-05 ヤマハ株式会社 楽曲再生システム、楽曲再生システムの制御方法およびプログラム
WO2022070639A1 (ja) 2020-09-29 2022-04-07 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JP2023096830A (ja) 2023-07-07
JP2023144076A (ja) 2023-10-06
WO2023127486A1 (ja) 2023-07-06

Similar Documents

Publication Publication Date Title
CN111402842B (zh) 用于生成音频的方法、装置、设备和介质
CN110675886B (zh) 音频信号处理方法、装置、电子设备及存储介质
JP4655047B2 (ja) 音声評価装置及びカラオケ装置
CN111798821B (zh) 声音转换方法、装置、可读存储介质及电子设备
CN111899720A (zh) 用于生成音频的方法、装置、设备和介质
JP2006195385A (ja) 音楽再生装置および音楽再生プログラム
JP6615952B1 (ja) テキスト表示用同期情報生成装置および方法
KR20200045852A (ko) 음성 합성 또는 영상 편집을 통한 멀티미디어 컨텐츠 내 광고 서비스 플랫폼 및 음성 합성 서비스와 영상 편집 서비스를 제공하는 방법
KR20200067382A (ko) 사운드를 출력하기 위한 전자 장치 및 그의 동작 방법
CN113836344A (zh) 个性化歌曲文件生成方法和装置、音乐演唱设备
CN112035699A (zh) 音乐合成方法、装置、设备和计算机可读介质
WO2024146338A1 (zh) 视频生成方法、装置、电子设备及存储介质
CN113923390A (zh) 视频录制方法、装置、设备及存储介质
JP7335316B2 (ja) プログラム及び情報処理装置
JP5034599B2 (ja) 楽曲紹介文生成装置、ナレーション付加装置およびプログラム
CN113823300B (zh) 语音处理方法及装置、存储介质、电子设备
CN114783408A (zh) 一种音频数据处理方法、装置、计算机设备以及介质
JP7117228B2 (ja) カラオケシステム、カラオケ装置
US20240194086A1 (en) Devices and methods for facilitating learning by merging text with music
US20240112689A1 (en) Synthesizing audio for synchronous communication
CN114514576A (zh) 数据处理方法、装置和存储介质
JP7423164B2 (ja) カラオケ装置
JP2015025839A (ja) マイク選択装置、マイク選択方法及びマイク選択プログラム
WO2023010949A1 (zh) 一种音频数据的处理方法及装置
US11398212B2 (en) Intelligent accompaniment generating system and method of assisting a user to play an instrument in a system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230227

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230817

R150 Certificate of patent or registration of utility model

Ref document number: 7335316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350