JP2023144076A - Program, information processing method and information processing device - Google Patents
Program, information processing method and information processing device Download PDFInfo
- Publication number
- JP2023144076A JP2023144076A JP2023132975A JP2023132975A JP2023144076A JP 2023144076 A JP2023144076 A JP 2023144076A JP 2023132975 A JP2023132975 A JP 2023132975A JP 2023132975 A JP2023132975 A JP 2023132975A JP 2023144076 A JP2023144076 A JP 2023144076A
- Authority
- JP
- Japan
- Prior art keywords
- data
- singing voice
- singer
- sound source
- singing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 36
- 238000003672 processing method Methods 0.000 title claims description 11
- 238000000605 extraction Methods 0.000 claims abstract description 26
- 238000000926 separation method Methods 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims description 20
- 238000011156 evaluation Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 11
- 238000004891 communication Methods 0.000 description 58
- 238000012545 processing Methods 0.000 description 35
- 238000003860 storage Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 23
- 238000013500 data storage Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 230000001360 synchronised effect Effects 0.000 description 13
- 230000001755 vocal effect Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 239000011295 pitch Substances 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/04—Sound-producing devices
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Description
本開示は、楽曲の音源データからリファレンスデータを生成するプログラム、情報処理方法及び情報処理装置に関するものである。 The present disclosure relates to a program, an information processing method, and an information processing apparatus that generate reference data from sound source data of a song.
楽曲データの歌唱データ中、センター定位されているボーカル信号の帯域をキャンセルし、残りのデータを元データ(歌唱データ)より減算して主ボーカルデータとして抽出することにより、楽曲データから主旋律の歌唱データである主ボーカルデータを抽出するプログラム主ボーカルデータ抽出手段と、抽出された主ボーカルデータから、歌唱を採点する際の基準となるリファレンスデータを生成するリファレンスデータ生成手段と、を有するカラオケ装置が知られている(例えば、特許文献1参照)。 By canceling the band of the center-localized vocal signal in the singing data of the song data and subtracting the remaining data from the original data (singing data) and extracting it as main vocal data, the singing data of the main melody is extracted from the song data. A karaoke apparatus is known which has a program main vocal data extraction means for extracting main vocal data, and a reference data generation means for generating reference data that is a standard for scoring singing from the extracted main vocal data. (For example, see Patent Document 1).
しかしながら、特許文献1に示されるような技術では、抽出された主ボーカルデータが、必ずしもカラオケとして歌唱する部分と一致していない場合がある。例えば、歌唱部分以外で人の声が使われている演出部分や、楽器音であるが抽出精度等の問題で誤って抽出されてしまった音等が、抽出された主ボーカルデータに混じってしまう可能性がある。そして、このようなカラオケの歌唱部分と一致していない非歌唱部分を含む主ボーカルデータを用いてリファレンスデータを生成すると、歌唱を採点する際の基準として適切ではなくなってしまうおそれがある。 However, with the technology shown in Patent Document 1, the extracted main vocal data may not necessarily match the part sung as karaoke. For example, production parts where human voices are used in areas other than singing parts, sounds of musical instruments that were incorrectly extracted due to problems with extraction accuracy, etc., may be mixed in with the extracted main vocal data. there is a possibility. If reference data is generated using main vocal data including non-singing parts that do not match the karaoke singing parts, it may not be appropriate as a standard for scoring singing.
本開示は、このような課題を解決するためになされたものである。その目的は、楽曲のメロディパートを含む音源データから、歌唱を採点する際の基準として、より適切であるリファレンスデータを生成可能なプログラム、情報処理方法及び情報処理装置を提供することにある。 The present disclosure has been made to solve such problems. The purpose is to provide a program, an information processing method, and an information processing device that can generate reference data that is more appropriate as a standard for scoring singing from sound source data that includes a melody part of a song.
本開示に係るプログラムは、情報処理装置のコンピュータに実行されるためのプログラムであって、楽曲のメロディパートを含む音源データを取得する音源データ取得ステップと、前記音源データから、第1歌唱者の第1歌唱音声データと前記第1歌唱者とは異なる第2歌唱者の第2歌唱音声データとを分離して抽出する歌唱音声分離抽出ステップと、前記第1歌唱音声データに基づいて前記メロディパートのうちで前記第1歌唱者が歌唱する部分の第1リファレンスデータを生成し、前記第2歌唱音声データに基づいて前記メロディパートのうちで前記第2歌唱者が歌唱する部分の第2リファレンスデータを生成するリファレンスデータ生成ステップと、が前記情報処理装置のコンピュータに実行される。 A program according to the present disclosure is a program to be executed by a computer of an information processing device, and includes a sound source data acquisition step of acquiring sound source data including a melody part of a song, and a step of acquiring sound source data including a melody part of a song, and a step of acquiring sound source data of a first singer from the sound source data. a singing voice separation and extraction step of separating and extracting first singing voice data and second singing voice data of a second singer different from the first singer; generating first reference data for a part of the melody part sung by the first singer; and based on the second singing voice data, second reference data for a part of the melody part sung by the second singer. A reference data generation step of generating the reference data is executed by the computer of the information processing device.
本開示に係る情報処理方法は、情報処理装置のコンピュータに実行される情報処理方法であって、楽曲のメロディパートを含む音源データを取得する音源データ取得ステップと、前記音源データから、第1歌唱者の第1歌唱音声データと前記第1歌唱者とは異なる第2歌唱者の第2歌唱音声データとを分離して抽出する歌唱音声分離抽出ステップと、前記第1歌唱音声データに基づいて前記メロディパートのうちで前記第1歌唱者が歌唱する部分の第1リファレンスデータを生成し、前記第2歌唱音声データに基づいて前記メロディパートのうちで前記第2歌唱者が歌唱する部分の第2リファレンスデータを生成するリファレンスデータ生成ステップと、を含む。 An information processing method according to the present disclosure is an information processing method executed by a computer of an information processing device, and includes a sound source data acquisition step of acquiring sound source data including a melody part of a song, and a step of acquiring sound source data including a melody part of a song. a singing voice separation and extraction step of separating and extracting first singing voice data of a person and second singing voice data of a second singer different from the first singer; Generate first reference data of a part of the melody part sung by the first singer, and generate second reference data of the part of the melody part sung by the second singer based on the second singing voice data. and a reference data generation step of generating reference data.
本開示に係る情報処理装置は、楽曲のメロディパートを含む音源データを取得する音源データ取得部と、前記音源データから、第1歌唱者の第1歌唱音声データと前記第1歌唱者とは異なる第2歌唱者の第2歌唱音声データとを分離して抽出する歌唱音声分離抽出部と、前記第1歌唱音声データに基づいて前記メロディパートのうちで前記第1歌唱者が歌唱する部分の第1リファレンスデータを生成し、前記第2歌唱音声データに基づいて前記メロディパートのうちで前記第2歌唱者が歌唱する部分の第2リファレンスデータを生成するリファレンスデータ生成部と、を含む。 The information processing device according to the present disclosure includes a sound source data acquisition unit that acquires sound source data including a melody part of a song, and from the sound source data, first singing voice data of a first singer is different from the first singer. a singing voice separation and extraction unit that separates and extracts second singing voice data of a second singer; and a singing voice separating and extracting unit that separates and extracts second singing voice data of a second singer; 1 reference data, and generates second reference data of a portion of the melody part sung by the second singer based on the second singing voice data.
本開示に係るプログラム、情報処理方法及び情報処理装置によれば、楽曲のメロディパートを含む音源データから、歌唱を採点する際の基準として、より適切であるリファレンスデータを生成可能であるという効果を奏する。 According to the program, information processing method, and information processing device according to the present disclosure, it is possible to generate reference data that is more appropriate as a standard for scoring singing from sound source data including the melody part of a song. play.
本開示に係るプログラム、情報処理方法及び情報処理装置を実施するための形態について添付の図面を参照しながら説明する。各図において、同一又は相当する部分には同一の符号を付して、重複する説明は適宜に簡略化又は省略する。以下の説明においては便宜上、図示の状態を基準に各構造の位置関係を表現することがある。なお、本開示は以下の実施の形態に限定されることなく、本開示の趣旨を逸脱しない範囲において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、又は各実施の形態の任意の構成要素の省略が可能である。 Embodiments for implementing a program, an information processing method, and an information processing apparatus according to the present disclosure will be described with reference to the accompanying drawings. In each figure, the same or corresponding parts are given the same reference numerals, and overlapping explanations will be simplified or omitted as appropriate. In the following description, for convenience, the positional relationship of each structure may be expressed based on the illustrated state. Note that the present disclosure is not limited to the following embodiments, and any combination of embodiments, modification of any component of each embodiment, or modification of each embodiment may be made without departing from the spirit of the present disclosure. Any component of the embodiment can be omitted.
実施の形態1.
図1から図7を参照しながら、本開示の実施の形態1について説明する。図1は通信システムの全体構成を示す図である。図2は通信システムが備える端末の構成を示すブロック図である。図3は通信システムが備えるサーバの構成を示すブロック図である。図4は通信システムが備えるサーバに記憶された同期歌詞データの一例を示す図である。図5は通信システムにおける処理の一例を示すフローチャートである。図6は通信システムが備えるサーバの変形例における要部の構成を示すブロック図である。図7は通信システムの変形例における処理の一例を示すフローチャートである。
Embodiment 1.
Embodiment 1 of the present disclosure will be described with reference to FIGS. 1 to 7. FIG. 1 is a diagram showing the overall configuration of a communication system. FIG. 2 is a block diagram showing the configuration of a terminal included in the communication system. FIG. 3 is a block diagram showing the configuration of a server included in the communication system. FIG. 4 is a diagram showing an example of synchronized lyrics data stored in a server included in the communication system. FIG. 5 is a flowchart showing an example of processing in the communication system. FIG. 6 is a block diagram showing the configuration of main parts in a modified example of the server included in the communication system. FIG. 7 is a flowchart showing an example of processing in a modified example of the communication system.
図1に示すように、この実施の形態に係る通信システム400は、サーバ100と、端末200とを備えている。通信システム400では、サーバ100と端末200とが、ネットワーク300を介して通信可能に接続されている。ここで説明する構成例では、サーバ100は、ネットワーク300を介してユーザが所有する端末200に、楽曲の音源データの配信サービスやカラオケ採点サービス等を提供する。なお、ネットワーク300に接続される端末200の数は2台に限られず、1台であってもよいし3台以上であってもよい。
As shown in FIG. 1, a
ネットワーク300は、1以上の端末200と、1以上のサーバ100とを接続する役割を担う。すなわち、ネットワーク300は、端末200がサーバ100に接続した後、データを送受信することができるように接続経路を提供する通信網を意味する。ネットワーク300のうちの1つ又は複数の部分は、有線ネットワークや無線ネットワークであってもよいし、そうでなくてもよい。
The
ネットワーク300は、例えば、アドホック・ネットワーク(Ad Hoc Network)、イントラネット、エクストラネット、仮想プライベート・ネットワーク(Virtual Private Network:VPN)、ローカル・エリア・ネットワーク(Local Area Network:LAN)、ワイヤレスLAN(Wireless LAN:WLAN)、広域ネットワーク(Wide Area Network:WAN)、ワイヤレスWAN(Wireless WAN:WWAN)、大都市圏ネットワーク(Metropolitan Area Network:MAN)、インターネットの一部、公衆交換電話網(Public Switched Telephone Network:PSTN)の一部、携帯電話網、ISDN(Integrated Service Digital Networks)、無線LAN、LTE(Long Term Evolution)、CDMA(Code Division Multiple Access)、ブルートゥース(Bluetooth(登録商標))、又は、衛星通信等、もしくは、これらの2つ以上の組合せを含むことができる。ネットワーク300は、1つ又は複数のネットワーク300を含むことができる。
The
端末200は、本開示に係る実施形態の機能を実現できる情報処理端末であればどのような端末であってもよい。端末200は、例えば、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ(例えば、デスクトップPC、ラップトップPC、タブレットPC等)、メディアコンピュータプラットホーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(例えば、PDA(Personal Digital Assistant)、電子メールクライアント等)、ウェアラブル端末(メガネ型デバイス、時計型デバイス等)、又は他種のコンピュータ、又はコミュニケーションプラットホームを含む。また、端末200は情報処理端末と表現されてもよい。
The
サーバ100は、端末200に対して、所定のサービスを提供する機能を備える。サーバ100は、本開示に係る実施形態の機能を実現できる情報処理装置であればどのような装置であってもよい。サーバ100は、例えば、サーバ装置、コンピュータ(例えば、デスクトップPC、ラップトップPC、タブレットPC等)、メディアコンピュータプラットホーム(例えば、ケーブル、衛星セットトップボックス、デジタルビデオレコーダ)、ハンドヘルドコンピュータデバイス(例えば、PDA、電子メールクライアント等)、あるいは他種のコンピュータ、又はコミュニケーションプラットホームを含む。また、サーバ100は情報処理装置と表現されてもよい。サーバ100と端末200とを区別する必要がない場合は、サーバ100と端末200とは、それぞれ情報処理装置と表現されてもよいし、されなくてもよい。
The
それぞれの端末200の構成は基本的には同一である。次に、図2を参照しながら、端末200の構成について説明する。端末200は、端末制御部230、端末記憶部220、端末通信部210、入出力部240、表示部250、マイク260、スピーカ270及びカメラ280を備える。端末200のハードウェアの各構成要素は、例えば、バスを介して相互に接続されている。なお、端末200のハードウェア構成として、ここで説明する全ての構成要素を含むことは必須ではない。例えば、端末200は、カメラ280等の個々の構成要素、又は複数の構成要素を取り外すような構成であってもよいし、そうでなくてもよい。
The configuration of each terminal 200 is basically the same. Next, the configuration of the terminal 200 will be described with reference to FIG. 2. The terminal 200 includes a
端末通信部210は、ネットワーク300を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。端末通信部210は、ネットワーク300を介して、サーバ100との通信を実行する機能を有する。端末通信部210は、端末送信部211及び端末受信部212を含んでいる。端末送信部211は、各種データを端末制御部230からの指示に従って、サーバ100に送信する。端末受信部212は、サーバ100から送信された各種データを受信し、端末制御部230に伝達する。また、端末通信部210を端末通信I/F(インタフェース)と表現する場合もある。また、端末通信部210が物理的に構造化された回路で構成される場合には、端末通信回路と表現する場合もある。
The
入出力部240は、入力部及び出力部を含む。入力部は、端末200に対する各種操作を入力する装置である。出力部は、端末200で処理された処理結果を出力する装置である。入出力部240は、入力部と出力部が一体化していてもよいし、入力部と出力部に分離していてもよいし、そうでなくてもよい。
The input/
入力部は、ユーザからの入力を受け付けて、当該入力に係る情報を端末制御部230に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。入力部は、例えば、タッチパネル、タッチディスプレイ、キーボード等のハードウェアキーや、マウス等のポインティングデバイス、カメラ(動画像を介した操作入力)、マイク(音声による操作入力)を含む。
The input unit is realized by any one of all types of devices, or a combination thereof, that can receive input from the user and transmit information related to the input to the
出力部は、端末制御部230で処理された処理結果を出力することができる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。出力部は、例えば、タッチパネル、タッチディスプレイ、スピーカ(音声出力)、レンズ(例えば3D(Three Dimensions)出力や、ホログラム出力)、プリンター等を含む。
The output unit is realized by any of all types of devices capable of outputting the processing results processed by the
表示部250は、フレームバッファに書き込まれた表示データに従って、表示することができる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。表示部250は、例えば、タッチパネル、タッチディスプレイ、モニタ(例えば、液晶ディスプレイやOELD(Organic Electroluminescence Display)等)、ヘッドマウントディスプレイ(HDM:Head Mounted Display)、プロジェクションマッピング、ホログラム、空気中等(真空であってもよいし、そうでなくてもよい)に画像やテキスト情報等を表示可能な装置を含む。なお、これらの表示部250は、3Dで表示データを表示可能であってもよいし、そうでなくてもよい。
The
なお、入出力部240がタッチパネルを有する場合、入出力部240と表示部250とは、略同一の大きさ及び形状で対向して配置されていてもよい。
Note that when the input/
端末制御部230は、プログラム内に含まれたコード又は命令によって実現する機能を実行するために物理的に構造化された回路を有し、例えば、ハードウェアに内蔵されたデータ処理装置により実現される。そのため、端末制御部230は、制御回路と表現されてもよいし、されなくてもよい。
The
端末制御部230は、例えば、中央処理装置(CPU:Central Processing Unit)、マイクロプロセッサ(Microprocessor)、プロセッサコア(Processor Core)、マルチプロセッサ(Multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を含む。
The
端末記憶部220は、端末200が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。端末記憶部220は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)等各種の記憶媒体を含む。また、端末記憶部220は、メモリ(Memory)と表現されてもよいし、されなくてもよい。
The
端末200は、プログラムを端末記憶部220に記憶し、このプログラムを実行することで、端末制御部230が、端末制御部230に含まれる各部としての処理を実行する。つまり、端末記憶部220に記憶されるプログラムは、端末200に、端末制御部230が実行する各機能を実現させる。換言すれば、端末200においてメモリに記憶されたプログラムをプロセッサが実行し、端末200のハードウェアとソフトウェアとが協働することによって、端末200が備える各部の機能が実現される。なお、このプログラムは、プログラムモジュールと表現されてもよいし、されなくてもよい。
The terminal 200 stores a program in the
マイク260は、音声データの入力に利用される。スピーカ270は、音声データの出力に利用される。カメラ280は、動画像データ及び/又は静止画像データの取得に利用される。
次に、図3を参照しながら、サーバ100の構成について説明する。サーバ100は、サーバ制御部130、サーバ記憶部120及びサーバ通信部110を備えている。サーバ100のハードウェアの各構成要素は、例えば、バスを介して相互に接続されている。
Next, the configuration of the
サーバ制御部130は、プログラム内に含まれたコード又は命令によって実現する機能を実行するために物理的に構造化された回路を有し、例えば、ハードウェアに内蔵されたデータ処理装置により実現される。サーバ制御部130は、代表的には中央処理装置(CPU)であり、その他にマイクロプロセッサ、プロセッサコア、マルチプロセッサ、ASIC、FPGA等であってもよいし、そうでなくてもよい。本開示において、サーバ制御部130は、これらに限定されない。
The
サーバ記憶部120は、サーバ100が動作するうえで必要とする各種プログラムや各種データを記憶する機能を有する。サーバ記憶部120は、HDD、SSD、フラッシュメモリ等各種の記憶媒体により実現される。ただし、本開示において、サーバ記憶部120は、これらに限定されない。また、サーバ記憶部120は、メモリ(Memory)と表現されてもよいし、されなくてもよい。
The
サーバ通信部110は、ネットワーク300を介して各種データの送受信を行う。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。サーバ通信部110は、ネットワーク300を介して、端末200との通信を実行する機能を有する。サーバ通信部110は、サーバ送信部111及びサーバ受信部112を含んでいる。サーバ送信部111は、各種データをサーバ制御部130からの指示に従って、端末200に送信する。また、サーバ通信部110は、端末200から送信された各種データを受信し、サーバ制御部130に伝達する。また、サーバ通信部110をサーバ通信I/F(インタフェース)と表現する場合もある。また、サーバ通信部110が物理的に構造化された回路で構成される場合には、サーバ通信回路と表現する場合もある。
The
なお、サーバ100は、ハードウェア構成として、入出力部及びディスプレイを備えてもよい。入出力部は、サーバ100に対する各種操作を入力する装置により実現される。入出力部は、ユーザからの入力を受け付けて、当該入力に係る情報をサーバ制御部130に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現される。ディスプレイは、代表的にはモニタ(例えば、液晶ディスプレイやOELD等)で実現される。この場合、例えば、サーバ100のハードウェアは、ディスプレイを取り外すような構成であってもよいし、そうでなくてもよい。
Note that the
サーバ100は、プログラムをサーバ記憶部120に記憶し、このプログラムを実行することで、サーバ制御部130が、サーバ制御部130に含まれる各部としての処理を実行する。つまり、サーバ記憶部120に記憶されるプログラムは、サーバ100に、サーバ制御部130が実行する各機能を実現させる。換言すれば、サーバ100においてメモリに記憶されたプログラムをプロセッサが実行し、サーバ100のハードウェアとソフトウェアとが協働することによって、サーバ100が備える各部の機能が実現される。なお、このプログラムは、プログラムモジュールと表現されてもよいし、されなくてもよい。
The
なお、端末200の端末制御部230、及び/又は、サーバ100のサーバ制御部130は、制御回路を有するCPUだけでなく、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路によって各処理を実現してもよいし、そうでなくてもよい。また、これらの回路は、1又は複数の集積回路により実現されてよく、本開示に係る実施形態に示す複数の処理を1つの集積回路により実現されることとしてもよいし、そうでなくてもよい。また、LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSI等と呼称されることもある。
Note that the
また、本開示に係る実施形態のプログラム(例えば、ソフトウェアプログラム、コンピュータプログラム、又はプログラムモジュール)は、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよいし、されなくてもよい。記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。また、プログラムは、本開示に係る実施形態の機能の一部を実現するためのものであってもよいし、そうでなくてもよい。さらに、本開示に係る実施形態の機能を記憶媒体に既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよいし、そうでなくてもよい。 Further, the program (for example, a software program, a computer program, or a program module) according to an embodiment of the present disclosure may or may not be provided in a state stored in a computer-readable storage medium. . The storage medium is a "non-temporary tangible medium" that can store a program. Furthermore, the program may or may not be for realizing part of the functions of the embodiments of the present disclosure. Furthermore, it may or may not be a so-called difference file (difference program) that can realize the functions of the embodiments of the present disclosure in combination with a program already recorded on a storage medium.
記憶媒体は、1つ又は複数の半導体ベースの、又は他の集積回路(IC)(例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)又は特定用途向けIC(ASIC)等)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カード、又はドライブ、任意の他の適切な記憶媒体、もしくは、これらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、又は揮発性と不揮発性の組合せでよい。なお、記憶媒体はこれらの例に限られず、プログラムを記憶可能であれば、どのようなデバイス又は媒体であってもよい。また、記憶媒体をメモリ(Memory)と表現されてもよいし、されなくてもよい。 The storage medium may include one or more semiconductor-based or other integrated circuits (ICs), such as field programmable gate arrays (FPGAs) or application specific integrated circuits (ASICs), hard disk drives, etc. (HDD), hybrid hard drive (HHD), optical disk, optical disk drive (ODD), magneto-optical disk, magneto-optical drive, floppy diskette, floppy disk drive (FDD), magnetic tape, solid-state drive (SSD) , a RAM drive, a secure digital card, or a drive, any other suitable storage medium, or a suitable combination of two or more thereof. Storage media may be volatile, non-volatile, or a combination of volatile and non-volatile, where appropriate. Note that the storage medium is not limited to these examples, and may be any device or medium as long as it can store the program. Further, the storage medium may or may not be expressed as a memory.
また、本開示のプログラムは、当該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、サーバ100及び/又は端末200に提供されてもよいし、されなくてもよい。プログラムが伝送媒体を介して提供される場合、サーバ100及び/又は端末200は、例えば、インターネット等を介してダウンロードしたプログラムを実行することにより、各実施形態に示す複数の機能部の機能を実現することが可能である。
Further, the program of the present disclosure may or may not be provided to the
また、本開示に係る実施形態は、プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。また、サーバ100及び/又は端末200における処理の少なくとも一部は、1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよいし、そうでなくてもよい。また、端末200における処理の少なくとも一部を、サーバ100により行う構成としてもよいし、そうでなくてもよい。この場合、端末200の端末制御部230の各機能部の処理のうち少なくとも一部の処理を、サーバ100で行う構成としてもよいし、そうでなくてもよい。また、サーバ100における処理の少なくとも一部を、端末200により行う構成としてもよいし、そうでなくてもよい。この場合、サーバ100のサーバ制御部130の各機能部の処理のうち少なくとも一部の処理を、端末200で行う構成としてもよいし、そうでなくてもよい。
Embodiments according to the present disclosure may also be implemented in the form of a data signal embedded in a carrier wave, where the program is embodied by electronic transmission. Furthermore, at least part of the processing in the
なお、本開示のプログラムは、例えば、ActionScript、JavaScript(登録商標)等のスクリプト言語、Objective-C、Java(登録商標)等のオブジェクト指向プログラミング言語、HTML5等のマークアップ言語等を用いて実装され得る。 Note that the program of the present disclosure may be implemented using, for example, a script language such as ActionScript or JavaScript (registered trademark), an object-oriented programming language such as Objective-C or Java (registered trademark), or a markup language such as HTML5. obtain.
この実施の形態に係る通信システム400においては、図3に示すように、サーバ100のサーバ記憶部120は、音源データ記憶部121及び歌詞データ記憶部122を含んでいる。音源データ記憶部121は、楽曲の音源データを記憶している。音源データは、楽曲の伴奏パート及びメロディパートが混合された波形データからなるデータである。メロディパートは主旋律のパートであり、通常は人が歌唱するボーカルパートである。音源データには、WAVE、AIFF、MP3、AAC、FLAC等の各種の音声ファイル形式を用いることができる。
In the
歌詞データ記憶部122は、楽曲の歌詞データを記憶している。歌詞データは、楽曲のメロディパートの歌詞のデータである。ここで説明する構成例では、歌詞データは同期歌詞データである。同期歌詞データには、複数の歌詞フレーズが含まれている。そして、同期歌詞データにおいては、それぞれの歌詞フレーズ毎に当該楽曲の音源データの再生と同期して表示するため表示開始時間が対応付けられている。
The lyrics
このような同期歌詞データとして、例えばLRCファイルを用いることができる。同期歌詞データであるLRCファイルの一例を図4に示す。LRCファイルは、特定の書式に従ったテキスト形式のファイルである。LRCファイルの書式では、各行が一度に表示する歌詞フレーズになっている。そして、各行の先頭の”[”及び”]”で囲われた数字が当該行の歌詞フレーズの表示開始時間である。表示開始時間は、mm:ss.xxの書式で記載されている。mmは分、ssは秒、xxは1/100秒を示している。 For example, an LRC file can be used as such synchronized lyrics data. An example of an LRC file that is synchronized lyrics data is shown in FIG. The LRC file is a text file that follows a specific format. In the LRC file format, each line is a lyric phrase that is displayed at once. The number surrounded by "[" and "]" at the beginning of each line is the display start time of the lyrics phrase in that line. The display start time is mm:ss. It is written in xx format. mm indicates minutes, ss indicates seconds, and xx indicates 1/100 seconds.
この実施の形態に係る通信システム400においては、サーバ100は、サーバ制御部130により実現される機能として、音源データ取得部131、歌詞データ取得部132、歌唱部分特定部133及びリファレンスデータ生成部134を備えている。音源データ取得部131は、音源データ記憶部121に記憶されている音源データを取得する処理を行う。歌詞データ取得部132は、歌詞データ記憶部122に記憶されている歌詞データを取得する処理を行う。
In the
歌唱部分特定部133は、歌詞データ取得部132により取得された歌詞データに基づいて、音源データ取得部131により取得された音源データにおける歌唱部分を特定する。ここで説明する構成例では、歌詞データ取得部132が取得する歌詞データは、同期歌詞データである。そして、歌唱部分特定部133は、同期歌詞データに含まれる各歌詞フレーズの表示開始時間に基づいて、音源データにおける歌唱部分を特定する。
The singing
この歌唱部分特定部133による歌唱部分の特定について、具体例を挙げながら説明する。例えば、図4に示す同期歌詞データの場合、楽曲が開始してから11.14秒が経過するまでは歌詞がない前奏である。そして、11.14秒から1分10.68秒までは、1番の歌唱部分である。また、1分10.68秒から1分34.16秒までは歌詞がない間奏である。1分34.16秒から2分16.71秒までは、2番の歌唱部分である。そして、2分16.71秒以降は後奏である。前奏、間奏及び後奏は非歌唱部分である。
The identification of a singing part by the singing
リファレンスデータ生成部134は、音源データのメロディパートのリファレンスデータを生成する。リファレンスデータは、メロディパートの音の要素に関するデータである。リファレンスデータの対象となる音の要素には、音高(ピッチ)、発音タイミング、音長等が含まれる。
The reference
リファレンスデータ生成部134は、まず、音源データから人の歌唱音声データを抽出する。音源データからの歌唱音声データの抽出は、例えば、音源データがステレオ音源であれば人の歌唱音声(ボーカルパート)は中央に定位している場合が多いことを利用したり、人の歌唱音声の周波数成分を抽出したり、人の声でない楽器等の音色の波形成分を除去したり等の既知の方法を用いて行うことができる。そして、リファレンスデータ生成部134は、例えば、抽出した歌唱音声データについて既知のピッチ検出アルゴリズムを利用してピッチを検出し、リファレンスデータとして出力する。
The reference
特に、この実施の形態に係るサーバ100においては、リファレンスデータ生成部134は、歌唱部分特定部133により特定された歌唱部分の音源データを用いて、メロディパートのリファレンスデータを生成する。逆にいえば、リファレンスデータ生成部134は、当該楽曲の音源データから非歌唱部分を除外した上で、メロディパートのリファレンスデータを生成する。
In particular, in the
前述した図4に示す同期歌詞データの例では、リファレンスデータ生成部134は、音源データのうちで、11.14秒から1分10.68秒までの1番の歌唱部分と、1分34.16秒から2分16.71秒までの2番の歌唱部分とを用いて、メロディパートのリファレンスデータを生成する。したがって、リファレンスデータ生成部134は、当該楽曲の音源データのうちで11.14秒から1分10.68秒までと1分34.16秒から2分16.71秒までの部分を用いて、メロディパートのリファレンスデータを生成する。これは、楽曲が開始してから11.14秒までと1分10.68秒から1分34.16秒までと2分16.71秒以降の非歌唱部分を除外した上で、メロディパートのリファレンスデータを生成すると言い換えることができる。
In the example of the synchronized lyrics data shown in FIG. 4 described above, the reference
図3に示すように、サーバ記憶部120は、リファレンスデータ記憶部123をさらに含んでいる。リファレンスデータ記憶部123は、リファレンスデータ生成部134により生成されたそれぞれの楽曲のリファレンスデータを記憶する。
As shown in FIG. 3, the
また、図3に示す構成例では、サーバ100は、サーバ制御部130により実現される機能として、伴奏パート取得部135をさらに備えている。伴奏パート取得部135は、音源データ取得部131により取得された音源データについて、いわゆるボーカルキャンセル処理を施し、当該楽曲の伴奏パートを抽出して取得する。ボーカルキャンセル処理には既知の方法が利用できる。伴奏パート取得部135により取得された伴奏パートのデータは、いわゆるカラオケ音源のデータとして利用できる。
In the configuration example shown in FIG. 3, the
サーバ100のサーバ送信部111は、音源データ記憶部121に記憶されている楽曲の音源データを端末200に送信する。これにより、楽曲の音源データの配信サービスが実現される。また、サーバ送信部111は、歌詞データ記憶部122に記憶されている楽曲の歌詞データを端末200に送信してもよい。さらに、サーバ送信部111は、伴奏パート取得部135により取得された伴奏パートのデータを端末200に送信してもよい。
The
端末200の端末受信部212は、サーバ100から送信された楽曲の音源データ、歌詞データ及び伴奏パートのデータを受信する。図2に示す構成例では、端末200は、端末制御部230により実現される機能として、再生処理部231、表示処理部232及び歌唱者音声取得部233を備えている。再生処理部231は、端末受信部212により受信された楽曲の音源データを再生し、スピーカ270等から出力させる。
The
また、再生処理部231は、端末受信部212により受信された楽曲の伴奏パートのデータを再生し、スピーカ270等から出力させる。この際、表示処理部232は、端末受信部212により受信された楽曲の歌詞データを表示部250に表示させる。前述したように、ここで説明する構成例では歌詞データは同期歌詞データである。このため、表示処理部232は、再生処理部231による楽曲の伴奏パートのデータの再生と同期させて、歌詞データを表示させることができる。歌唱者音声取得部233は、再生処理部231による楽曲の伴奏パートのデータの再生中において、マイク260に入力された音声を歌唱者の歌唱音声データとして取得する。
Furthermore, the
端末送信部211は、歌唱者音声取得部233により取得された歌唱音声データをサーバ100に送信する。サーバ100のサーバ受信部112は、端末200から送信された歌唱者の歌唱音声データを受信する。
The
図3に示す構成例では、サーバ100は、サーバ制御部130により実現される機能として、歌唱音声取得部136及び評価部137をさらに備えている。歌唱音声取得部は、サーバ受信部112が受信した歌唱音声データを取得する。そして、サーバ100の評価部137は、歌唱音声取得部136により取得された歌唱者の歌唱音声データを、リファレンスデータ記憶部123に記憶されているリファレンスデータと比較して評価する。例えば、評価部137は、前述した既知のピッチ検出アルゴリズムを利用して歌唱者の歌唱音声データのピッチを検出する。そして、評価部137は、リファレンスデータの基準ピッチと比較し、これらのピッチの一致度が高いほどよい評価をする。評価部137による評価結果は、サーバ送信部111及び端末受信部212を介して端末200に送信され、例えば表示部250に表示される。
In the configuration example shown in FIG. 3, the
また、リファレンスデータをサーバ100から端末200に送信してもよい。この場合、例えば、端末200においてカラオケ音源である伴奏パートのデータを再生中に、リファレンスデータを用いて表示部250にいわゆるガイドメロディを表示させることができる。また、評価部137をサーバ100でなく端末200に設けるようにしてもよい。
Further, reference data may be transmitted from the
次に、図5のフロー図を参照しながら、この実施の形態に係る通信システム400の動作例について説明する。まず、ステップS10において、サーバ100の音源データ取得部131は、音源データ記憶部121に記憶されている音源データを取得する。続くステップS11において、歌詞データ取得部132は、歌詞データ記憶部122に記憶されている歌詞データを取得する。ステップS11の後、サーバ制御部130は次にステップS12の処理を行う。
Next, an example of the operation of the
ステップS12において、歌唱部分特定部133は、ステップS11で取得された歌詞データに基づいて、ステップS10で取得された音源データにおける歌唱部分を特定する。続くステップS13において、リファレンスデータ生成部134は、ステップS12で特定された歌唱部分の音源データを用いて、メロディパートのリファレンスデータを生成する。ステップS13の後、サーバ100は次にステップS14の処理を行う。
In step S12, the singing
ステップS14において、サーバ100のリファレンスデータ記憶部123は、ステップS13で生成されたリファレンスデータを記憶する。また、伴奏パート取得部135は、ステップS10で取得された音源データから伴奏パートを抽出して取得する。そして、サーバ送信部111は、音源データ、歌詞データ及び伴奏パートのデータを端末200に送信する。ステップS14の後、端末200は次にステップS15の処理を行う。
In step S14, the reference data storage unit 123 of the
ステップS15においては、端末200の端末受信部212は、ステップS14でサーバ100から送信された楽曲の音源データ、歌詞データ及び伴奏パートのデータを受信する。そして、端末200の再生処理部231は、端末受信部212により受信された楽曲の伴奏パートのデータを再生し、スピーカ270等から出力させる。また、端末200の表示処理部232は、端末受信部212により受信された楽曲の歌詞データを表示部250に表示させる。ステップS15の後、端末200は次にステップS16の処理を行う。
In step S15, the
ステップS16においては、端末200の歌唱音声取得部136は、マイク260に入力された歌唱者の歌唱音声データを取得する。続くステップS17において、端末送信部211は、ステップS16で取得された歌唱音声データをサーバ100に送信する。サーバ100のサーバ受信部112は、端末200から送信された歌唱者の歌唱音声データを受信する。ステップS17の後、サーバ100は次にステップS18の処理を行う。
In step S16, the singing
ステップS18においては、サーバ100の歌唱音声取得部136は、ステップS16でサーバ受信部112が受信した歌唱音声データを取得する。続くステップS19において、サーバ100の評価部137は、ステップS18で取得された歌唱者の歌唱音声データを、ステップS14でリファレンスデータ記憶部123に記憶されたリファレンスデータと比較して評価する。さらに続くステップS20において、評価部137による評価結果は、サーバ送信部111及び端末受信部212を介して端末200に送信され、例えば表示部250に表示される。
In step S18, the singing
以上のフローにおいて、ステップS10は音源データ取得ステップに、ステップS11は歌詞データ取得ステップに、ステップS12は歌唱部分特定ステップに、ステップS13はリファレンスデータ生成ステップに、それぞれ相当する。そして、ステップS18は歌唱音声取得ステップに、ステップS19は評価ステップに、それぞれ相当する。 In the above flow, step S10 corresponds to a sound source data acquisition step, step S11 corresponds to a lyrics data acquisition step, step S12 corresponds to a singing part identification step, and step S13 corresponds to a reference data generation step. Step S18 corresponds to a singing voice acquisition step, and step S19 corresponds to an evaluation step.
以上のように構成された通信システム400が有するサーバ100によれば、歌詞データを用いて音源データにおける歌唱部分を特定し、特定された歌唱部分の音源データを用いて、メロディパートのリファレンスデータを生成する。このため、歌唱部分以外で人の声が使われている演出部分や、楽器音であるが抽出精度等の問題で誤って抽出されてしまった音等がリファレンスデータに反映されてしまうことを抑制でき、歌唱を採点する際の基準として、より適切であるリファレンスデータを生成することができる。
According to the
次に、この実施の形態に係る通信システム400が有するサーバ100の変形例について説明する。この変形例では、サーバ100の歌唱部分特定部133は、図6に示すように、歌唱音声抽出部141、テキスト化部142及び照合部143を備えている。歌唱音声抽出部141は、音源データ取得部131により取得された音源データから人の歌唱音声データを抽出する。音源データからの人の歌唱音声データの抽出は、前述した既知の方法を利用して行うことができる。
Next, a modification of the
テキスト化部142は、歌唱音声抽出部141で抽出された歌唱音声データを既知の音声認識処理によってテキスト化して歌唱テキストデータを生成する。照合部143は、テキスト化部142により生成された歌唱テキストデータと歌詞データ取得部132により取得された歌詞データとを照合して音源データにおける歌唱部分を特定する。すなわち、照合部143は、歌唱テキストデータと歌詞データとが一致する部分を歌唱部分として特定する。また、逆にいえば、照合部143は、歌唱テキストデータと歌詞データとが一致しない部分を非歌唱部分として特定する。
The
次に、図7のフロー図を参照しながら、この変形例に係るサーバ100の動作例について説明する。同図のフロー図は、図5のフロー図におけるステップS12(歌唱部分特定ステップ)のサブプロセスを示している。まず、ステップS30において、歌唱音声抽出部141は、図5のステップS10で取得された音源データから人の歌唱音声データを抽出し、抽出された歌唱音声データを取得する。続くステップS31において、テキスト化部142は、ステップS30で取得された歌唱音声データを音声認識処理によってテキスト化して歌唱テキストデータを生成し、生成された歌唱テキストデータを取得する。さらに続くステップS32において、照合部143は、ステップS31で取得された歌唱テキストデータと図5のステップS11で取得された歌詞データとを照合して音源データにおける歌唱部分を特定する。
Next, an example of the operation of the
以上のフローにおいて、ステップS30は歌唱音声抽出ステップに、ステップS31はテキスト化ステップに、ステップS32は照合ステップに、それぞれ相当する。 In the above flow, step S30 corresponds to a singing voice extraction step, step S31 corresponds to a text conversion step, and step S32 corresponds to a collation step.
この変形例では、歌詞データに歌詞フレーズ毎の表示開始時間が含まれていなくともよい。したがって、このような変形例によれば、同期歌詞データでない歌詞データを用いて、音源データの歌唱部分/非歌唱部分を特定し、非歌唱部分の音がリファレンスデータに反映されてしまうことを抑制でき、歌唱を採点する際の基準として、より適切であるリファレンスデータを生成することができる。 In this modification, the lyrics data does not need to include the display start time for each lyrics phrase. Therefore, according to such a modification, the singing part/non-singing part of the sound source data is identified using lyrics data that is not synchronous lyrics data, and the sound of the non-singing part is suppressed from being reflected in the reference data. It is possible to generate reference data that is more appropriate as a standard for scoring singing.
実施の形態2.
図8及び図9を参照しながら、本開示の実施の形態2について説明する。図8は通信システムが備えるサーバの構成を示すブロック図である。図9は通信システムにおける処理の一例を示すフローチャートである。
Embodiment 2.
Embodiment 2 of the present disclosure will be described with reference to FIGS. 8 and 9. FIG. 8 is a block diagram showing the configuration of a server included in the communication system. FIG. 9 is a flowchart showing an example of processing in the communication system.
以下、この実施の形態2に係るプログラム、情報処理方法及び情報処理装置について、実施の形態1との相違点を中心に説明する。説明を省略した構成については実施の形態1と基本的に同様である。以降の説明においては、実施の形態1と同様の又は対応する構成について、原則として実施の形態1の説明で用いたものと同じ符号を付して記載する。 The program, information processing method, and information processing apparatus according to the second embodiment will be described below, focusing on the differences from the first embodiment. The configuration whose description is omitted is basically the same as that of the first embodiment. In the following description, structures similar to or corresponding to those of the first embodiment will be described with the same reference numerals used in the description of the first embodiment.
この実施の形態に係る通信システム400においては、図8に示すように、サーバ100は、サーバ制御部130により実現される機能として、歌唱音声分離抽出部150をさらに備えている。歌唱音声分離抽出部150は、音源データ取得部131により取得された音源データから複数の人の歌唱音声データのそれぞれを分離して抽出する。歌唱音声分離抽出部150は、例えば、まず音源データから人の歌唱音声データを抽出する。音源データからの人の歌唱音声データの抽出は、前述した既知の方法を利用して行うことができる。そして、歌唱音声分離抽出部150は、抽出した歌唱音声データに複数の人の歌唱音声データが含まれている場合には、歌唱音声データを人毎に分離する。この際の分離は、歌唱音声データの波形分析等の既知の方法により行うことができる。なお、歌唱音声分離抽出部150は、音源データから直接に複数の人の歌唱音声データのそれぞれを分離してもよい。
In the
この実施の形態においては、歌唱部分特定部133は、歌唱音声分離抽出部150で抽出された複数の人の歌唱音声データのうちの特定の人の歌唱音声データに基づいて、音源データにおける歌唱部分を特定する。ここでいう特定の人の歌唱音声データとは、例えば、メインボーカルの歌唱音声データである。歌唱部分特定部133は、例えば、複数の人の歌唱音声データのそれぞれの定位、音量、当該楽曲の再生時間に占める割合等を用いて、特定の人の歌唱音声データを決定する。また、当該楽曲のアーティスト名からメインボーカルの性別が判明している場合には、複数の人の歌唱音声データのそれぞれが男声か女声かに基づいて、特定の人の歌唱音声データを決定してもよい。
In this embodiment, the singing
歌唱部分特定部133は、このようにして決定した特定の人の歌唱音声データの歌唱部分を特定し、これを当該楽曲の音源データの歌唱部分とする。そして、リファレンスデータ生成部134は、歌唱部分特定部133により特定された歌唱部分の音源データを用いて、メロディパートのリファレンスデータを生成する。
The singing
なお、特定の人の歌唱音声データは、1人のものに限られず、2人以上の歌唱音声データであってもよい。この場合、歌唱部分特定部133は、特定の複数人の歌唱音声データのそれぞれに基づいて、音源データにおける複数人の歌唱部分のそれぞれを特定する。そして、リファレンスデータ生成部134は、歌唱部分特定部133により特定された複数人の歌唱部分のそれぞれの音源データを用いて、メロディパートのリファレンスデータを生成する。このようにすることで、メロディパートを複数の歌唱者が交代しながら担当する曲等の場合に、メロディパートを担当する複数の歌唱者のそれぞれの担当部分について、別々にリファレンスデータを生成できる。したがって、例えば、メロディパートを担当する歌唱者のうちの任意の人のみをキャンセルしたカラオケ伴奏を再生し、当該人が歌唱を担当する部分だけをリファレンスデータを用いて採点することができる。
Note that the singing voice data of a specific person is not limited to one person's singing voice data, and may be singing voice data of two or more people. In this case, the singing
次に、図9のフロー図を参照しながら、この実施の形態に係る通信システム400の動作例について説明する。同図のフロー図におけるステップS10及びS11は、図5のフロー図におけるステップS10及びS11と同様であるため、その説明はここでは省略する。ステップS11の後、サーバ制御部130は次にステップS40の処理を行う。
Next, an example of the operation of the
ステップS40においては、歌唱音声分離抽出部150は、ステップS10で取得された音源データから複数の人の歌唱音声データのそれぞれを分離して抽出する。このステップS40は歌唱音声分離抽出ステップに相当する。ステップS40の後、サーバ制御部130は次にステップS12の処理を行う。ステップS12においては、歌唱部分特定部133は、ステップS40で抽出された複数の人の歌唱音声データのうちの特定の人の歌唱音声データに基づいて、音源データにおける歌唱部分を特定する。ステップS12以降のステップS13からS20は、図5のフロー図におけるステップS13からS20と同様であるため、その説明はここでは省略する。
In step S40, the singing voice separation and
なお、この実施の形態においては、サーバ100は、歌唱部分特定部133を備えていなくともよい。この場合、リファレンスデータ生成部134は、歌唱音声分離抽出部150で抽出された複数の人の歌唱音声データのうちの特定の人の歌唱音声データに基づいて、メロディパートのリファレンスデータを生成する。また、この場合、図9のフロー図におけるステップS12の処理は行われず、ステップS40の後、サーバ制御部130は次にステップS13の処理を行う。そして、ステップS13においては、リファレンスデータ生成部134は、ステップS40で抽出された複数の人の歌唱音声データのうちの特定の人の歌唱音声データに基づいて、メロディパートのリファレンスデータを生成する。このような構成によっても、複数の人の歌唱音声データのうちの特定の人の歌唱音声データに基づいてリファレンスデータを生成することで、歌唱部分以外で人の声が使われている演出部分等がリファレンスデータに反映されてしまうことを抑制でき、歌唱を採点する際の基準として、より適切であるリファレンスデータを生成することができる。
Note that, in this embodiment, the
また、以上で説明した各実施の形態の構成例では、音源データ取得部131、歌詞データ取得部132、歌唱部分特定部133(歌唱音声抽出部141、テキスト化部142及び照合部143を含む)、リファレンスデータ生成部134、伴奏パート取得部135、歌唱音声取得部136、評価部137及び歌唱音声分離抽出部150が単一のサーバ100に設けられている。しかしながら、これらの各部は単一のサーバ100でなく、複数のサーバ装置に分散して設けられていてもよい。また、複数の装置で協働してサーバ100が有する各部の機能を実現してもよい。
In addition, in the configuration example of each embodiment described above, the sound source
本開示に係る発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。したがって、これらの変形や修正は本開示に係る発明の範囲に含まれることに留意されたい。例えば、各部、各手段、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段やステップ等を1つに組み合わせたり、あるいは分割したりすることが可能である。また、以上で説明した実施形態に示す構成を適宜組み合わせることとしてもよい。 Although the invention according to the present disclosure has been explained based on the drawings and examples, it should be noted that those skilled in the art can easily make various changes and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included within the scope of the invention according to the present disclosure. For example, the functions included in each part, each means, each step, etc. can be rearranged so as not to be logically contradictory, and it is possible to combine multiple means or steps into one, or to divide them. It is. Furthermore, the configurations shown in the embodiments described above may be combined as appropriate.
本開示に係るプログラム、情報処理方法及び情報処理装置は、楽曲の音源データからリファレンスデータを生成するプログラム、情報処理方法及び情報処理装置として活用することができる。 A program, an information processing method, and an information processing device according to the present disclosure can be utilized as a program, an information processing method, and an information processing device that generate reference data from sound source data of a song.
100 サーバ
110 サーバ通信部
111 サーバ送信部
112 サーバ受信部
120 サーバ記憶部
121 音源データ記憶部
122 歌詞データ記憶部
123 リファレンスデータ記憶部
130 サーバ制御部
131 音源データ取得部
132 歌詞データ取得部
133 歌唱部分特定部
134 リファレンスデータ生成部
135 伴奏パート取得部
136 歌唱音声取得部
137 評価部
141 歌唱音声抽出部
142 テキスト化部
143 照合部
150 歌唱音声分離抽出部
200 端末
210 端末通信部
211 端末送信部
212 端末受信部
220 端末記憶部
230 端末制御部
231 再生処理部
232 表示処理部
233 歌唱者音声取得部
240 入出力部
250 表示部
260 マイク
270 スピーカ
280 カメラ
300 ネットワーク
400 通信システム
100
Claims (6)
楽曲のメロディパートを含む音源データを取得する音源データ取得ステップと、
前記音源データから、第1歌唱者の第1歌唱音声データと前記第1歌唱者とは異なる第2歌唱者の第2歌唱音声データとを分離して抽出する歌唱音声分離抽出ステップと、
前記第1歌唱音声データに基づいて前記メロディパートのうちで前記第1歌唱者が歌唱する部分の第1リファレンスデータを生成し、前記第2歌唱音声データに基づいて前記メロディパートのうちで前記第2歌唱者が歌唱する部分の第2リファレンスデータを生成するリファレンスデータ生成ステップと、が前記情報処理装置のコンピュータに実行される。 A program to be executed on a computer of an information processing device,
a sound source data acquisition step of acquiring sound source data including a melody part of the song;
a singing voice separation and extraction step of separating and extracting first singing voice data of a first singer and second singing voice data of a second singer different from the first singer from the sound source data;
The first reference data of the part of the melody part sung by the first singer is generated based on the first singing voice data, and the first reference data of the part of the melody part sung by the first singer is generated based on the second singing voice data. A reference data generation step of generating second reference data of a portion sung by two singers is executed by the computer of the information processing device.
歌唱者の歌唱音声データを取得する歌唱音声取得ステップと、
前記歌唱音声取得ステップで取得された歌唱音声データを前記第1リファレンスデータ又は前記第2リファレンスデータの一方と比較して評価する評価ステップと、が前記情報処理装置のコンピュータにさらに実行される。 The program according to claim 1,
a singing voice acquisition step of acquiring singing voice data of a singer;
An evaluation step of comparing and evaluating the singing voice data acquired in the singing voice acquisition step with either the first reference data or the second reference data is further executed by the computer of the information processing device.
前記メロディパートのうちで前記第1歌唱者が歌唱する部分を前記音源データからキャンセルした第1伴奏データ、及び、前記メロディパートのうちで前記第2歌唱者が歌唱する部分を前記音源データからキャンセルした第2伴奏データを生成するステップが前記情報処理装置のコンピュータにさらに実行される。 The program according to claim 1,
First accompaniment data in which a portion of the melody part sung by the first singer is canceled from the sound source data, and a portion of the melody part sung by the second singer is canceled from the sound source data. The computer of the information processing device further executes the step of generating the second accompaniment data.
歌唱者の歌唱音声データを取得する歌唱音声取得ステップと、
前記第1伴奏データが再生された場合に前記歌唱音声取得ステップで取得された歌唱音声データを前記第1リファレンスデータと比較して評価し、前記第2伴奏データが再生された場合に前記歌唱音声取得ステップで取得された歌唱音声データを前記第2リファレンスデータと比較して評価する評価ステップと、が前記情報処理装置のコンピュータにさらに実行される。 4. The program according to claim 3,
a singing voice acquisition step of acquiring singing voice data of a singer;
When the first accompaniment data is played back, the singing sound data acquired in the singing sound acquisition step is evaluated by comparing it with the first reference data, and when the second accompaniment data is played back, the singing sound data is evaluated by comparing it with the first reference data. An evaluation step of comparing and evaluating the singing voice data acquired in the acquisition step with the second reference data is further executed by the computer of the information processing device.
楽曲のメロディパートを含む音源データを取得する音源データ取得ステップと、
前記音源データから、第1歌唱者の第1歌唱音声データと前記第1歌唱者とは異なる第2歌唱者の第2歌唱音声データとを分離して抽出する歌唱音声分離抽出ステップと、
前記第1歌唱音声データに基づいて前記メロディパートのうちで前記第1歌唱者が歌唱する部分の第1リファレンスデータを生成し、前記第2歌唱音声データに基づいて前記メロディパートのうちで前記第2歌唱者が歌唱する部分の第2リファレンスデータを生成するリファレンスデータ生成ステップと、を含む。 An information processing method executed by a computer of an information processing device, the method comprising:
a sound source data acquisition step of acquiring sound source data including a melody part of the song;
a singing voice separation and extraction step of separating and extracting first singing voice data of a first singer and second singing voice data of a second singer different from the first singer from the sound source data;
The first reference data of the part of the melody part sung by the first singer is generated based on the first singing voice data, and the first reference data of the part of the melody part sung by the first singer is generated based on the second singing voice data. and a reference data generation step of generating second reference data of a portion sung by two singers.
楽曲のメロディパートを含む音源データを取得する音源データ取得部と、
前記音源データから、第1歌唱者の第1歌唱音声データと前記第1歌唱者とは異なる第2歌唱者の第2歌唱音声データとを分離して抽出する歌唱音声分離抽出部と、
前記第1歌唱音声データに基づいて前記メロディパートのうちで前記第1歌唱者が歌唱する部分の第1リファレンスデータを生成し、前記第2歌唱音声データに基づいて前記メロディパートのうちで前記第2歌唱者が歌唱する部分の第2リファレンスデータを生成するリファレンスデータ生成部と、を含む。 An information processing device,
a sound source data acquisition unit that acquires sound source data including a melody part of a song;
a singing voice separation extraction unit that separates and extracts first singing voice data of a first singer and second singing voice data of a second singer different from the first singer from the sound source data;
The first reference data of the part of the melody part sung by the first singer is generated based on the first singing voice data, and the first reference data of the part of the melody part sung by the first singer is generated based on the second singing voice data. and a reference data generation unit that generates second reference data of a portion sung by two singers.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023132975A JP2023144076A (en) | 2021-12-27 | 2023-08-17 | Program, information processing method and information processing device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021212842A JP7335316B2 (en) | 2021-12-27 | 2021-12-27 | Program and information processing device |
JP2023132975A JP2023144076A (en) | 2021-12-27 | 2023-08-17 | Program, information processing method and information processing device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021212842A Division JP7335316B2 (en) | 2021-12-27 | 2021-12-27 | Program and information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023144076A true JP2023144076A (en) | 2023-10-06 |
Family
ID=86998772
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021212842A Active JP7335316B2 (en) | 2021-12-27 | 2021-12-27 | Program and information processing device |
JP2023132975A Pending JP2023144076A (en) | 2021-12-27 | 2023-08-17 | Program, information processing method and information processing device |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021212842A Active JP7335316B2 (en) | 2021-12-27 | 2021-12-27 | Program and information processing device |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7335316B2 (en) |
WO (1) | WO2023127486A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6316099B2 (en) * | 2014-05-29 | 2018-04-25 | 株式会社第一興商 | Karaoke equipment |
JP2017116899A (en) * | 2015-12-27 | 2017-06-29 | 株式会社コシダカホールディングス | Karaoke generation by voice input |
JP7095742B2 (en) * | 2018-08-28 | 2022-07-05 | ヤマハ株式会社 | Music playback system, control method and program of music playback system |
WO2022070639A1 (en) * | 2020-09-29 | 2022-04-07 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
-
2021
- 2021-12-27 JP JP2021212842A patent/JP7335316B2/en active Active
-
2022
- 2022-12-13 WO PCT/JP2022/045902 patent/WO2023127486A1/en unknown
-
2023
- 2023-08-17 JP JP2023132975A patent/JP2023144076A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP7335316B2 (en) | 2023-08-29 |
WO2023127486A1 (en) | 2023-07-06 |
JP2023096830A (en) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111402842B (en) | Method, apparatus, device and medium for generating audio | |
US9224375B1 (en) | Musical modification effects | |
WO2020177190A1 (en) | Processing method, apparatus and device | |
CN110675886B (en) | Audio signal processing method, device, electronic equipment and storage medium | |
CN111899720A (en) | Method, apparatus, device and medium for generating audio | |
CN111798821B (en) | Sound conversion method, device, readable storage medium and electronic equipment | |
CN110211556B (en) | Music file processing method, device, terminal and storage medium | |
JP2013164515A (en) | Voice translation device, voice translation method, and voice translation program | |
JP2006195385A (en) | Device and program for music reproduction | |
KR102495888B1 (en) | Electronic device for outputting sound and operating method thereof | |
WO2023051246A1 (en) | Video recording method and apparatus, device, and storage medium | |
CN113836344A (en) | Personalized song file generation method and device and music singing equipment | |
CN112035699A (en) | Music synthesis method, device, equipment and computer readable medium | |
WO2024067157A1 (en) | Special-effect video generation method and apparatus, electronic device and storage medium | |
JP7335316B2 (en) | Program and information processing device | |
CN113823300B (en) | Voice processing method and device, storage medium and electronic equipment | |
JP7117228B2 (en) | karaoke system, karaoke machine | |
JP2018091998A (en) | Information processing system and information processing method | |
WO2021102647A1 (en) | Data processing method and apparatus, and storage medium | |
JP2015187738A (en) | Speech translation device, speech translation method, and speech translation program | |
US11398212B2 (en) | Intelligent accompaniment generating system and method of assisting a user to play an instrument in a system | |
JP7423164B2 (en) | karaoke equipment | |
JP7230085B2 (en) | Method and device, electronic device, storage medium and computer program for processing sound | |
WO2023010949A1 (en) | Method and apparatus for processing audio data | |
CN112383722B (en) | Method and apparatus for generating video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230817 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20231027 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20231106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241008 |