JP2018519538A - カラオケ処理方法およびシステム - Google Patents

カラオケ処理方法およびシステム Download PDF

Info

Publication number
JP2018519538A
JP2018519538A JP2017560979A JP2017560979A JP2018519538A JP 2018519538 A JP2018519538 A JP 2018519538A JP 2017560979 A JP2017560979 A JP 2017560979A JP 2017560979 A JP2017560979 A JP 2017560979A JP 2018519538 A JP2018519538 A JP 2018519538A
Authority
JP
Japan
Prior art keywords
file
lyrics
client
user
target file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017560979A
Other languages
English (en)
Other versions
JP6534452B2 (ja
Inventor
ウエイフォン ジャオ
ウエイフォン ジャオ
チュン リ
チュン リ
シアン リィウ
シアン リィウ
ハオジエ シュイ
ハオジエ シュイ
デェウエン ジャン
デェウエン ジャン
フェイ ジョン
フェイ ジョン
リ ツァオ
リ ツァオ
ティエンウエン リ
ティエンウエン リ
シアンウエン チェン
シアンウエン チェン
Original Assignee
グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド
グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド, グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド filed Critical グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド
Publication of JP2018519538A publication Critical patent/JP2018519538A/ja
Application granted granted Critical
Publication of JP6534452B2 publication Critical patent/JP6534452B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】本発明は、他の人と一緒に歌うカラオケ体験を実現できるカラオケ処理方法およびシステムを提供する。
【解決手段】本発明のカラオケ処理システムは、第1クライアント(401)と第2クライアント(402)を備えている。第1クライアント(401)は、第1ユーザーによって入力された第1交唱リクエスト(101)を受信し、第1交唱リクエストに基づいて、伴奏オーディオファイルおよび歌詞ファイルをサーバーから取得し、伴奏オーディオファイルと歌詞ファイルを使用することで、歌詞ファイルの歌詞の一部について第1ユーザーが歌う歌を録音して第1録音ファイル(102)を取得し、第1録音ファイル(102)に基づいて第1歌詞部分を決定して、段落情報(103)を形成し、第1録音ファイル(102)と伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイル(104)を取得し、第1対象ファイル(104)と段落情報をサーバーに送信する。第2クライアント(402)は、第1対象ファイル(104)と段落情報をサーバーから取得し、段落情報に基づいて、第1対象ファイル(104)を伴奏オーディオとして使用することで、カラオケサービス(105)を第2ユーザーに提供する。
【選択図】図1

Description

本願は、2015年05月27日付で中華人民共和国国家知識産権局に提出された中国特許出願201510280492.9(発明の名称“カラオケ処理方法およびシステム”)に基づく優先権を主張する。
本発明は、オーディオ処理の分野、特にカラオケ処理方法およびカラオケ処理システムに関する。
人々の生活の質の向上に伴い、豊富な機能を有するカラオケアプリケーションが、人々の日常生活に徐々に浸透している。
カラオケアプリケーションは、音楽プレイヤーと録音ソフトウェアを組み合わせたものであり、原曲オーディオの再生だけでなくユーザーの歌の録音も行い、録音された歌と伴奏オーディオを混合させて音楽ファイルを取得することができる。さらに、ユーザーがこの音楽ファイルをインターネット上にアップロードすることで、多くの人が録音された歌を聞くことができる。
一般的に、ユーザーが歌を録音する際、カラオケアプリケーションは、ユーザーの歌の録音用の伴奏として伴奏オーディオファイルを提供する。しかし、これではユーザーは、一人でしか歌うことができず、他の人と一緒に歌うカラオケ体験ができない。
本発明は、他の人と一緒に歌うカラオケ体験を実現するための、実施形態に係るカラオケ処理方法およびカラオケ処理システムを提供する。
本発明の実施形態に係るカラオケ処理方法は、第1クライアントによって、交唱開始をリクエストするために第1ユーザーによって入力された第1交唱リクエストを受信するステップと、
第1クライアントによって、第1交唱リクエストに基づいて、歌の伴奏オーディオファイルおよび歌詞ファイルをサーバーから取得し、伴奏オーディオファイル及び歌詞ファイルを使用することで、歌詞ファイルの歌詞の一部について第1ユーザーが歌う歌を録音して、第1録音ファイルを取得するステップと、
第1クライアントによって、第1ユーザーが歌った歌詞の一部を第1歌詞部分と決定し、第1歌詞部分を識別する識別情報を含む段落情報を形成するステップと、
第1クライアントによって、第1録音ファイルと伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイルを取得するステップと、
第1クライアントによって、第1対象ファイル及び段落情報をサーバーに送信するステップとを含んでいる。
本発明の実施形態に係るカラオケ処理システムは、第1クライアントと第2クライアントを備えている。
第1クライアントは、交唱開始をリクエストするために第1ユーザーによって入力された第1交唱リクエストを受信し、
第1交唱リクエストに基づいて、歌の伴奏オーディオファイルおよび歌詞ファイルをサーバーから取得して、伴奏オーディオファイルと歌詞ファイルを使用することで、歌詞ファイルの歌詞の一部について第1ユーザーが歌う歌を録音して第1録音ファイルを取得し、
第1録音ファイルに基づいて、第1ユーザーが歌った歌詞の一部を第1歌詞部分と決定して、第1歌詞部分を識別する識別情報を含む段落情報を形成し、
第1録音ファイルと前記伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイルを取得し、
第1対象ファイルと段落情報をサーバーに送信するように構成されている。
第2クライアントは、第1対象ファイルと段落情報をサーバーから取得し、第1対象ファイルを伴奏オーディオとして使用することで、さらに、段落情報に基づいて、カラオケサービスを第2ユーザーに提供するように構成されている。
本発明の実施形態に係る技術的解決策によると、第1クライアントは、第1ユーザーによって入力された第1交唱リクエストを受信すると、第1交唱リクエストに基づいて、歌の伴奏オーディオファイルおよび歌詞ファイルをサーバーから取得して、伴奏オーディオファイルと歌詞ファイルを使用することで、歌詞ファイルの歌詞の一部について第1ユーザーが歌う歌を録音して第1録音ファイルを取得する。次に、第1クライアントは、第1ユーザーが歌った歌詞の一部を第1歌詞部分と決定して、第1歌詞部分を識別する識別情報を含む段落情報を形成する。次に、第1クライアントは、第1録音ファイルと伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイルを取得し、第1対象ファイルと段落情報をサーバーに送信する。第2クライアントは、第1対象ファイルと段落情報をサーバーから取得し、第1対象ファイルを伴奏オーディオとして使用することで、さらに、段落情報に基づいて、カラオケサービスを第2ユーザーに提供する。このように、本発明の実施形態の第1対象ファイルは、第1歌詞部分の表示時間のみに対応する第1ユーザーの歌と、歌詞の第1歌詞部分以外の歌詞部分に対応する伴奏を含んでいる。第2クライアントが第1対象ファイルを伴奏オーディオとして使用すると、段落情報と歌詞の第1歌詞部分以外の歌詞部分とに基づいて歌が歌われる。このように、対象の歌が、第1歌詞部分の表示時間中に第1ユーザーによって歌われ、歌詞の第1歌詞部分以外の歌詞部分の表示時間中に第2ユーザーによって歌われるため、他の人と一緒に歌うカラオケ体験を提供することができる。
本発明の実施形態に係るカラオケ処理方法を示す概略図 本発明の別の実施形態に係るカラオケ処理方法を示す概略図 本発明のさらに別の実施形態に係るカラオケ処理方法を示す概略図 本発明の実施形態に係るカラオケ処理システムを示す概略図 本発明の実施形態に係るカラオケ処理方法が適用されるクライアントの概略構造図
本発明は、他の人と一緒に歌うカラオケ体験を実現するための、以下に詳細に説明する実施形態に係るオーディオ処理方法およびオーディオ処理システムを提供する。
本発明の実施形態に係る技術的解決策について、本発明の実施形態を示す図面を参照して明確かつ十分な形で記載する。以下に記載する実施形態は、本発明の実施形態のすべてはなく一部にすぎない。ここで開示されている実施形態に基づいて、当業者が創造性を発揮せずに到達することができる他のすべての実施形態が本発明の保護の範囲に含まれる。
本願の明細書、クレーム、図面において「第1」、「第2」、「第3」、「第4」などの用語が存在する場合、これらの用語は類似の複数の対象を区別するためのものであり、これらの順番を特定するものではない。すなわち以下に記載する実施形態において、序数によって示されるデータは必要に応じて、図面に示され、明細書に記載されている順番とは異なる順番で実施してもよい。また、「含む」(include)、「備える」(comprise)という用語と、これら用語のすべての変形は、明確に記載されていない他の要素を排除するものではないことを意味する。例えば、工程、方法、システム、製品、装置などが一連のステップまたはユニットを含むという記載は、必ずしもここに記載されているステップまたはユニットに限定されるという意味ではなく、ここには記載されていない他のステップまたはユニット、あるいは、工程、方法、製品、装置に本来備わっている他のステップまたはユニットも包含する可能性がある。
本発明の実施形態のクライアントには、電話、パソコン(PC)および/またはパネルコンピュータや他の装置が含まれる。実際の用途において、クライアントを介してウェブページにログインしたり、クライアントにプログラムをロードしたり、種々のモバイルプラットフォームから提供されるアプリケーション(App)を使用してカラオケサービスにアクセスすることができる。
本発明の実施形態では、サーバーは、ネットワークを介してクライアントに接続される。サーバーには種々のものがあり、プロバイダ(例えば、カラオケプロバイダなど)によって構成されることで、プロバイダが提供するサービスを管理および操作することができる。
図1に示すように、本発明の実施形態に係るカラオケ処理方法は、ステップ101〜105を含んでいる。
ステップ101では、第1クライアントが、第1ユーザーによって入力された第1交唱リクエストを受信する。
実施形態では、第1交唱リクエストは、交唱開始をリクエストして交唱フローを開始させるために使用される。例えば、実際の用途において、第1交唱リクエストに対応するボタンを第1クライアントに設けて、第1ユーザーがこのボタンを押すと、第1クライアントが、第1交唱リクエストを受信するようにしてもよい。
ステップ102では、第1クライアントが、第1交唱リクエストに基づいて、歌の伴奏オーディオファイルおよび歌詞ファイルをサーバーから取得し、第1ユーザーが歌う歌を録音して第1録音ファイルを取得する。この時、第1ユーザーは、伴奏オーディオファイルと歌詞ファイルを使用することで、歌詞ファイルの歌詞の一部について歌を歌う。
実施形態では、第1クライアントが、第1交唱リクエストを受信すると、歌の伴奏オーディオファイルおよび歌詞ファイルをサーバーから取得する。伴奏オーディオファイルと原曲オーディオファイルは、生のオーディオデータである。実際の用途において、取得した伴奏オーディオファイルと原曲オーディオファイルがMP3などの圧縮形式のオーディオデータである場合、第1クライアントが、圧縮形式のオーディオデータを展開して生のオーディオデータにする。歌詞ファイルは、歌詞の表示時間を識別する時間情報を含んでおり、この時間情報に基づいて、歌詞ファイルが、伴奏オーディオファイルと容易に同期される。例えば、歌詞ファイルは、ファイルに含まれるタイムタグ(timetag)によって歌詞の表示時間を識別するLRC歌詞ファイルであってもよい。
実施形態では、第1クライアントは、伴奏オーディオファイルと歌詞ファイルを取得した後、伴奏オーディオファイルと歌詞ファイルを再生する。第1ユーザーは、自身が歌う歌詞の部分として、歌詞のどの部分を選択してもよいが、実際には、歌詞のすべてを歌うわけではない。第1クライアントは、伴奏オーディオと歌詞ファイルを使用すると同時に、歌詞ファイルの歌詞の一部について第1ユーザーが歌う歌を録音して、第1録音ファイルを取得する。
ステップ103では、第1クライアントが、第1録音ファイルに基づいて第1歌詞部分を決定し、段落情報を形成する。
実施形態では、第1歌詞部分は、第1ユーザーが歌った歌詞部分を参照して決定される。すなわち、第1クライアントは、第1録音ファイルに基づいて、第1ユーザーが歌った歌詞部分を識別し、段落情報を形成する。段落情報は、第1ユーザーが歌った歌詞部分を記録するために、第1歌詞部分を識別する識別情報を含んでいる。
実施形態では、識別情報は、第1歌詞部分の表示時間、例えば、開始時間が10秒、終了時間が15秒であるといった第1歌詞部分の表示時間を含んでいてもよい。或いは、識別情報は、第1歌詞部分を識別するセンテンス識別子、例えば、第1歌詞部分が第1センテンス、第3センテンス、第5センテンスなどを含んでいると識別するセンテンス識別子を含んでいてもよい。第1クライアントが識別情報に基づいて第1歌詞部分を識別できるのであれば、識別情報の種類は上記に限定されない。
実施形態では、第1クライアントは、様々な方法で、第1歌詞部分を決定することができる。例えば、第1クライアントは、第1録音ファイル内の音声の有効性に基づいて、第1ユーザーが歌った歌詞部分を第1歌詞部分と決定するように構成することができる。
例えば、第1クライアントは、歌詞のある部分に対応する第1ユーザーの録音された音声が有効であるか否かを判断し、この音声が有効である場合、歌詞のその部分を第1歌詞部分と決定する。
実施形態では、第1クライアントは、歌詞の上記部分に対応する第1ユーザーの録音された音声の音量が第1所定値より大きいか否か判断し、この音量が第1所定値より大きい場合、上記の録音された音声が有効であると決定するように構成することができる。VDAアルゴリズムまたはその改良されたアルゴリズムによって上記を実行することができる。
さらに第1クライアントは、歌詞の上記部分に対応する第1ユーザーの録音された音声が有効であると決定した後、この録音された音声が占める時間が、歌詞の上記部分の表示時間と一致するか否かさらに判断して歌詞の上記部分の表示時間と一致する場合、歌詞の上記部分を第1歌詞部分と決定するように構成するのが好ましい。
例えば、次のように歌詞内のセンテンスに基づいて上記の決定が行われる。歌詞内の一センテンスに対応する録音された音声が有効であると決定された後、この録音された音声が占める時間が20〜30秒であり、歌詞内の上記一センテンスの表示時間も20〜30秒である場合、歌詞内の上記一センテンスが第1歌詞部分と決定される。この場合、閾値を設定して、歌詞内の上記一センテンスに対応する録音された音声が占める時間と、歌詞内の上記一センテンスの表示時間との間の一致率(coincidence ratio)が閾値より大きい場合、歌詞内の上記一センテンスに対応する録音された音声が占める時間が、歌詞内の上記一センテンスの表示時間と一致すると決定してもよい。
実施形態では、他の方法で第1歌詞部分を決定してもよく、第1歌詞部分の決定方法は限定されない。実際の用途において、第1クライアントは、上記の決定方法を用いて、リアルタイムオーディオ検知モジュール(real−time audio detecting module)によって、第1歌詞部分を決定するように構成することができる。
ステップ104では、第1クライアントが、第1録音ファイルと伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイルを取得する。
実施形態では、上記のオーディオ混合処理は、既存のオーディオ混合アルゴリズムを用いて行うことができる。例えば、対応するサンプリング点のデータを加算してその和を2で割ることによって行う。
実施形態では、第1録音ファイルに、歌詞の第1歌詞部分以外の歌詞部分に対応する、有効でないと決定された音声またはノイズが含まれないようにするために、第1クライアントは、カラオケ処理方法のステップ104を実行する前に、段落情報に基づいて、第1録音ファイル中の、歌詞の第1歌詞部分以外の歌詞部分に対応するオーディオデータを消去するように構成することができる。こうすることで、取得される第1録音ファイルは、第1歌詞部分の表示時間内のオーディオデータのみ、すなわち、第1ユーザーの歌の有効な音声のみを含むようにすることができる。
ステップ105では、第1クライアントが、第1対象ファイルと段落情報をサーバーに送信し、第2クライアントが、第1対象ファイルと段落情報をサーバーから取得して、段落情報に基づいて、第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供する。
このように、実施形態では、第2クライアントは、第1対象ファイルと段落情報をサーバーから取得した後、段落情報に基づいて第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供することができる。このため第2ユーザーは、段落情報に基づいて既に歌われている歌詞部分を判断した上で、まだ歌われていない歌詞部分を歌うことができる。
実施形態では、第1クライアントは、第1ユーザーが使用するサウンドエフェクトパラメータ(sound effect parameter)を含む構成ファイルを形成し、構成ファイルをサーバーに送信して、第2クライアントが、段落情報と構成ファイルに基づいて第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供するように構成することができる。上記のサウンドエフェクトパラメータとして、反響パラメータ(reverberation parameter)、音声修正およびトーン修正パラメータ(sound−modifying and tone−modifying parameter)、音声美化パラメータ(voice−beautifying parameter)などを挙げることができる。
本発明の実施形態に係る技術的解決策によると、第1クライアントは、第1ユーザーによって入力された第1交唱リクエストを受信すると、第1交唱リクエストに基づいて、歌の伴奏オーディオファイルおよび歌詞ファイルをサーバーから取得し、伴奏オーディオファイルと歌詞ファイルを使用することで、歌詞の一部分について第1ユーザーが歌う歌を録音して第1録音ファイルを取得する。次に、第1クライアントは、第1ユーザーが歌った歌詞部分を第1歌詞部分と決定して、第1歌詞部分を識別する識別情報を含む段落情報を形成する。次に、第1クライアントは、第1録音ファイルと伴奏オーディオファイルに対してオーディオ混合処理を行って、第1対象ファイルを取得し、第1対象ファイルと段落情報をサーバーに送信し、第2クライアントが、第1対象ファイルと段落情報をサーバーから取得して、段落情報に基づいて第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供する。本発明の実施形態の第1対象ファイルは、第1歌詞部分の表示時間のみに対応する第1ユーザーの歌と、歌詞の第1歌詞部分以外の歌詞部分に対応する伴奏オーディオを含んでいる。この場合、第2クライアントが第1対象ファイルを伴奏オーディオとして使用すると、段落情報と歌詞の第1歌詞部分以外の歌詞部分とに基づいて歌が歌われる。このように、対象の歌が、第1歌詞部分の表示時間中に第1ユーザーによって歌われ、歌詞の第1歌詞部分以外の歌詞部分の表示時間中に第2ユーザーによって歌われることで、他の人と一緒に歌うカラオケ体験を提供することができる。
図1の実施形態に基づいて、2人のユーザーが一緒に歌うカラオケ体験を実現するために、第2クライアントが、段落情報に基づいて第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供する方法について、さらに以下に説明する。図2に示すように、本発明の別の実施形態に係るカラオケ処理方法は、ステップ201〜207を含んでいる。
ステップ201では、第1クライアントが、第1ユーザーによって入力された第1交唱リクエストを受信する。
ステップ202では、第1クライアントが、第1交唱リクエストに基づいて、歌の伴奏オーディオファイルおよび歌詞ファイルをサーバーから取得し、第1ユーザーが歌う歌を録音して第1録音ファイルを取得する。この時、第1ユーザーは、伴奏オーディオファイルと歌詞ファイルを使用することで、歌詞ファイルの歌詞の一部について歌を歌う。
ステップ203では、第1クライアントが、第1録音ファイルに基づいて第1歌詞部分を決定し、段落情報を形成する。
ステップ204では、第1クライアントが、第1録音ファイルと伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイルを取得する。
ステップ205では、第1クライアントが、第1対象ファイルと段落情報をサーバーに送信し、第2クライアントが、第1対象ファイルと段落情報をサーバーから取得して、段落情報に基づいて第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供する。
図2の実施形態のステップ201〜205は、図1の実施形態のステップ101〜105と同じであるため、ここでは繰り返して詳細に説明しない。
ステップ206では、第2クライアントが、第2ユーザーによって送信された第2交唱リクエストを受信する。
実施形態では、第2交唱リクエストは、交唱への参加をリクエストして、交唱参加フローを開始させるために使用される。例えば、実際の用途において、第2交唱リクエストに対応するボタンを第2クライアントに設けて、第2ユーザーがこのボタンを押すと、第2クライアントが、第2交唱リクエストを受信するようにしてもよい。
ステップ207では、第2クライアントが、第2交唱リクエストに基づいて、歌の第1対象ファイル、歌詞ファイル、および段落情報をサーバーから取得し、第2ユーザーの歌を録音して第2録音ファイルを取得する。この時、第2ユーザーは、第1対象ファイルを伴奏オーディオとして使用しながら、段落情報に従い、歌詞の第1歌詞部分以外のすべての歌詞部分について歌を歌う。
実施形態では、第2クライアントが、第2交唱リクエストを受信すると、第1対象ファイル、歌詞ファイル、および段落情報をサーバーから取得し、第1対象ファイルと歌詞ファイルを再生する。第2ユーザーが、歌詞の第1歌詞部分以外のすべての歌詞部分について歌を歌うと同時に、第2クライアントが、段落情報によって表される第1歌詞部分以外のすべての歌詞部分について、第1対象ファイルを伴奏オーディオとして使用して、第2ユーザーが歌う歌を録音して、第2録音ファイルを取得する。
第1クライアントが構成ファイルをサーバーに送信し、サーバーが構成ファイルをさらに含んでいる場合、ステップ207において、第2クライアントは、歌の第1対象ファイル、歌詞ファイル、段落情報、および構成ファイルをサーバーから取得し、段落情報で表される第1歌詞部分以外のすべての歌詞部分について、第1対象ファイルを伴奏オーディオとして使用して、第2ユーザーが歌う歌を録音して、第2録音ファイルを取得するように構成することができる。実際の用途において、クライアントは、構成ファイル内のサウンドエフェクトパラメータに基づいてパラメータを構成し、このパラメータの構成を、第2ユーザーが選択できるように第2ユーザーに呈示するように構成することができる。第2ユーザーは、必要に応じて、パラメータの構成を変更してもよい。
ステップ208では、第2クライアントが、第2録音ファイルと第1対象ファイルに対してオーディオ混合処理を行い、第2対象ファイルを取得する。
実施形態では、上記のオーディオ混合処理は、既存のオーディオ混合アルゴリズムを用いて行うことができる。例えば、対応するサンプリング点のデータを加算してその和を2で割ることによって行う。
実施形態の第2対象ファイルは、第1歌詞部分に対応する第1ユーザーの歌と、歌詞の第1歌詞部分以外のすべての歌詞部分に対応する第2ユーザーの歌とを含んでいるため、二人のユーザーが一緒に歌うカラオケ体験を提供することができる。
実施形態では、第2録音ファイルに、第1歌詞部分に対応する、有効でないと決定された音声またはノイズが含まれないようにするために、第2クライアントは、カラオケ処理方法のステップ208を実行する前に、段落情報に基づいて、第1録音ファイル中の第1歌詞部分に対応するオーディオデータを消去するように構成することができる。
図1の実施形態に基づいて、複数(三人以上)のユーザーが一緒に歌うカラオケ体験を実現するために、第2クライアントが、段落情報に基づいて第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供する方法について、さらに以下に説明する。図3に示すように、本発明の別の実施形態に係るカラオケ処理方法は、ステップ301〜310を含んでいる。
ステップ301では、第1クライアントが、第1ユーザーによって入力された第1交唱リクエストを受信する。
ステップ302では、第1クライアントが、第1交唱リクエストに基づいて、歌の伴奏オーディオファイルおよび歌詞ファイルをサーバーから取得し、第1ユーザーが歌う歌を録音して第1録音ファイルを取得する。この時、第1ユーザーは、伴奏オーディオファイルと歌詞ファイルを使用することで、歌詞ファイルの歌詞の一部について歌を歌う。
ステップ303では、第1クライアントが、第1録音ファイルに基づいて第1歌詞部分を決定し、段落情報を形成する。
ステップ304では、第1クライアントが、第1録音ファイルと伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイルを取得する。
ステップ305では、第1クライアントが、第1対象ファイルと段落情報をサーバーに送信し、第2クライアントが、第1対象ファイルと段落情報をサーバーから取得して、段落情報に基づいて第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供する。
図3の実施形態のステップ301〜305は、図1の実施形態のステップ101〜105と同じであるため、ここでは繰り返して詳細に説明しない。
ステップ306では、第2クライアントが、第2ユーザーによって送信された第3交唱リクエストを受信する。
実施形態では、第3交唱リクエストは、交唱への参加をリクエストして交唱参加フローを開始させるために、さらに、歌詞の第1歌詞部分以外の一部の歌詞部分のみについて録音を行うよう指示するために使用される。例えば、実際の用途において、第3交唱リクエストに対応するボタンを第2クライアントに設けて、第2ユーザーがこのボタンを押すと、第2クライアントが、第3交唱リクエストを受信するようにしてもよい。
ステップ307では、第2クライアントが、第3交唱リクエストに基づいて、歌の第1対象ファイル、歌詞ファイル、および段落情報をサーバーから取得し、第2ユーザーの歌を録音して第3録音ファイルを取得する。この時、第2ユーザーは、段落情報で表される第1歌詞部分以外の一部の歌詞部分について、第1対象ファイルを伴奏オーディオとして使用して、歌を歌う。
実施形態では、第2クライアントが、第3交唱リクエストを受信すると、第1対象ファイル、歌詞ファイル、および段落情報をサーバーから取得し、第1対象ファイルと歌詞ファイルを再生する。第2ユーザーが、歌詞の第1歌詞部分以外の一部の歌詞部分について歌を歌うと同時に、第2クライアントが、段落情報で表される第1歌詞部分以外の一部の歌詞部分について、第1対象ファイルを伴奏オーディオとして使用して、第2ユーザーが歌う歌を録音して、第3録音ファイルを取得する。図3の実施形態は、歌詞の第1歌詞部分以外のすべての歌詞部分ではなく一部の歌詞部分について第2ユーザーが歌を歌うという点において、図2の実施形態と異なっている。したがって、対象の歌は、交唱に参加する別のユーザーが使用/歌うことができる部分を含んでいる。
ステップ308では、第2クライアントが、第2歌詞部分を決定し、第2歌詞部分を識別する識別情報を段落情報に追加する。
第2歌詞部分は、第2ユーザーが歌った歌詞部分である。第2歌詞部分を決定する方法と、第2歌詞部分を識別する識別情報に関しては、図1の実施形態のステップ103に関連する説明を参照することができるため、ここでは繰り返して説明しない。
ステップ309では、第2クライアントが、第3録音ファイルと第1対象ファイルに対してオーディオ混合処理を行い、第3対象ファイルを取得する。
実施形態では、上記のオーディオ混合処理は、既存のオーディオ混合アルゴリズムを用いて行うことができる。例えば、対応するサンプリング点のデータを加算してその和を2で割ることによって行う。
実施形態では、第3録音ファイルに、歌詞の第2歌詞部分以外の歌詞部分に対応する、有効でないと決定された音声またはノイズが含まれないようにするために、第2クライアントは、カラオケ処理方法のステップ309を実行する前に、段落情報に基づいて、第3録音ファイル中の、第2歌詞部分以外の歌詞部分に対応するオーディオデータを消去するようにさらに構成することができる。こうすることで、取得される第3録音ファイルは、第2歌詞部分の表示時間内のオーディオデータのみ、すなわち、第2ユーザーの歌の有効な音声のみを含むようにすることができる。
ステップ310では、第2クライアントが、第3対象ファイルと段落情報をサーバーに送信し、第3クライアントが、サーバーを介して、段落情報で表される第1および第2歌詞部分以外の歌詞部分について第3対象ファイルを伴奏オーディオとして使用して第3ユーザーが歌う歌を録音する。
実施形態では、第3クライアントは、第3対象ファイルと段落情報をサーバーから取得し、段落情報に基づいて第3対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第3ユーザーに提供することができる。第3ユーザーは、歌詞のどの部分が既に歌われているのか(すなわち第1ユーザーが歌った第1歌詞部分と第2ユーザーが歌った第3歌詞部分を判断した上で、まだ歌われていない歌詞部分について歌を歌うことができる。
実施形態では、第2クライアントは、第2ユーザーが使用するサウンドエフェクトパラメータを構成ファイルにさらに追加して、第3クライアントが、段落情報と構成ファイルに基づいて、第3対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供するように構成することができる。上記のサウンドエフェクトパラメータとして、反響パラメータ、音声修正およびトーン修正パラメータ、音声美化パラメータなどを挙げることができる。
実施形態では、第3対象ファイルには、第1歌詞部分について第1ユーザーが歌った歌と、第2歌詞部分について第2ユーザーが歌った歌とが含まれており、さらに、第1および第2ユーザー以外の1人以上のユーザーが、第1および第2歌詞部分以外の歌詞部分基づいて歌うことができるので、複数のユーザーと一緒に歌うカラオケ体験を提供することができる。
ここまで、本発明の実施形態に係るカラオケ処理方法について説明したが、以下、本発明の実施形態に係るカラオケ処理システムについて説明する。図4に示すように、本発明の実施形態に係るカラオケ処理システムは、第1クライアント401と第2クライアント402を備えている。
第1クライアント401は、交唱開始をリクエストするために第1ユーザーによって入力された第1交唱リクエストを受信し、
第1交唱リクエストに基づいて、歌の伴奏オーディオファイルおよび歌詞ファイルをサーバーから取得して、伴奏オーディオファイルと歌詞ファイルを使用することで、歌詞ファイルの歌詞の一部について第1ユーザーが歌う歌を録音して第1録音ファイルを取得し、
第1録音ファイルに基づいて、第1ユーザーが歌った歌詞の一部を第1歌詞部分と決定して、第1歌詞部分を識別する識別情報を含む段落情報を形成し、
第1録音ファイルと伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイルを取得し、
第1対象ファイルと段落情報をサーバーに送信するように構成されている。
第2クライアント402は、第1対象ファイルと段落情報をサーバーから取得し、段落情報に基づいて第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供するように構成されている。
実施形態では、第1クライアント401は、歌詞のある部分に対応する第1ユーザーの録音された音声が有効であるか否かを判断し、この音声が有効である場合、歌詞のその部分を第1歌詞部分と決定するように構成することができる。
実施形態では、第1クライアント401は、歌詞の上記部分に対応する第1ユーザーの録音された音声の音量が所定値より大きいか否か判断し、この音量が所定値より大きい場合、上記の録音された音声が有効であると決定するように構成することができる。
実施形態では、第1クライアント401は、歌詞の上記部分に対応する第1ユーザーの録音された音声が有効であるか否か判断して、有効である場合、この録音された音声が占める時間が、歌詞の上記部分の表示時間と一致するか否かさらに判断し、歌詞の上記部分の表示時間と一致する場合、歌詞の上記部分を第1歌詞部分と決定するように構成することができる。
実施形態では、第1クライアント401は、第1録音ファイルと伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイルを取得する前に、段落情報に基づいて、歌詞の第1歌詞部分以外の歌詞部分に対応する第1録音ファイルのオーディオデータを消去するようにさらに構成することができる。
実施形態では、識別情報は、第1歌詞部分の表示時間、または、第1歌詞部分を識別するセンテンス識別子を含んでいてもよい。
実施形態では、第1クライアント401は、第1対象ファイルと段落情報をサーバーに送信する前に、第1ユーザーが使用するサウンドエフェクトパラメータを含む構成ファイルを形成して、構成ファイルをサーバーに送信するようにさらに構成することができる。
実施形態では、第2クライアント402は、交唱への参加をリクエストするために第2ユーザーによって送信された第2交唱リクエストを受信し、
第2交唱リクエストに基づいて、歌の第1対象ファイル、歌詞ファイル、および段落情報をサーバーから取得して、段落情報で表される歌詞の第1歌詞部分以外のすべての歌詞部分について、第1対象ファイルを伴奏オーディオとして使用して第2ユーザーが歌う歌を録音して第2録音ファイルを取得し、
第2録音ファイルと第1対象ファイルに対してオーディオ混合処理を行い、第2対象ファイルを取得するように構成することができる。
実施形態では、第2クライアント402は、第2録音ファイルと第1対象ファイルに対してオーディオ混合処理を行い、第2対象ファイルを取得する前に、段落情報に基づいて、第2録音ファイル中の第1歌詞部分に対応するオーディオデータを消去するようにさらに構成することができる。
実施形態では、第2クライアント402は、サーバーが構成ファイルをさらに含んでいる場合、歌の第1対象ファイル、歌詞ファイル、段落情報、および構成ファイルをサーバーから取得し、段落情報と構成ファイルで表される第1歌詞部分以外のすべての歌詞部分について、第1対象ファイルを伴奏オーディオとして使用して、第2ユーザーが歌う歌を録音して、第2録音ファイルを取得するように構成することができる。
実施形態では、第2クライアントは、交唱への参加をリクエストするために、さらに、歌詞の第1歌詞部分以外の一部の歌詞部分のみに基づいた録音を行うよう指示するために、第2ユーザーによって送信された第3交唱リクエストを受信し、
第3交唱リクエストに基づいて、歌の第1対象ファイル、歌詞ファイル、および段落情報をサーバーから取得して、段落情報で表される第1歌詞部分以外の一部の歌詞部分のみについて、第1対象ファイルを伴奏オーディオとして使用して第2ユーザーが歌う歌を録音して第3録音ファイルを取得し、
第2ユーザーが歌った上記一部の歌詞部分を第2歌詞部分と決定して、第2歌詞部分を識別する識別情報を段落情報に追加し、
第3録音ファイルと第1対象ファイルに対してオーディオ混合処理を行い、第3対象ファイルを取得し、
第3対象ファイルと段落情報をサーバーに送信するように構成することができ、この送信によって、第3クライアントが、サーバーを介して、段落情報で表される第1および第2歌詞部分以外の歌詞部分について、第3対象ファイルを伴奏オーディオとして使用して第3ユーザーが歌う歌を録音する。
上記のシステム、装置、およびユニットの具体的な作動工程については、上記の方法に関する実施形態で説明した対応の工程を参照可能であることは当業者にとって明らかであり、説明の便宜上かつ説明を簡略するため、ここでは繰り返して説明しない。
次に、本発明の実施形態に係る上記のカラオケ処理方法が適用されるクライアントの概略構造図である図5を参照されたい。実施形態では、クライアントは、コンピュータまたは同様の作動装置からなるが、実際の用途において、電話、パネルコンピュータ、または他の装置であってもよい。
図5に示すように、コンピューティング装置500は、1つまたは複数のプロセッサ502(図では1つのみ表示)、メモリ504、および送信モジュール506を備えている。図5に示す構造は一例に過ぎず、上記の電子装置の構造は図5のものに限定されない。例えば、コンピューティング装置500は、図5に示す構成要素より多いまたは少ない数の構成要素を備えていてもよく、図5の構造と異なる構造を有してもよい。
メモリ504は、本発明の実施形態に係るカラオケ処理方法に対応するプログラム指令/モジュールなどのソフトウェアプログラムおよびモジュールを格納するように構成されてもよい。プロセッサ502は、メモリ504に格納されたソフトウェアプログラムおよびモジュールを実行することで、様々な機能アプリケーションの実行とデータ処理を行い、上記カラオケ処理方法を実行する。メモリ504としては、高速ランダムメモリや、さらに、1つまたは複数の磁気記憶装置、フラッシュメモリ、他の不揮発性ソリッドステートメモリを含む不揮発性メモリが挙げられる。またメモリ504として、プロセッサ502に対して遠隔配置され、ネットワークを介して装置500に接続可能なメモリを用いることもできる。上記ネットワークの例として、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、およびこれらの組み合わせを挙げることができるが、これらに限定されない。
送信モジュール506は、ネットワークを介してデータを受信または送信するように構成されている。上記ネットワークは、有線ネットワークと無線ネットワークのいずれであってもよい。例えば、送信モジュール506は、インターネットと通信するために、ネットワークケーブルを介してルータや他のネットワーク装置に接続可能なネットワークインターフェイスコントローラ(NIC)であってもよい。また例えば、送信モジュール506は、インターネットと無線通信するために使用される無線周波数(RF)モジュールであってもよい。
本発明の複数の実施形態に係るシステム、装置、および方法は、別の形で実行/使用されてもよく、上で説明した装置の実施形態などは一例に過ぎない。例えば、上記のユニットはそのロジック機能に基づいてのみ分割されているが、実際の用途において別の形で分割されてもよい。例えば、複数のユニット/モジュールを組み合わせてまたは統合して別のシステムを構成してもよい。或いは、一部の特徴を省略してもよいし、実行/使用しなくてもよい。さらに、ここで開示し説明した連結、直接連結、または通信接続は、インターフェース、装置またはユニットを介した間接的なものと置き換えてもよく、電気、機械または別の形によって実現されてもよい。
別々の構成要素として示した複数のユニットは、物理的に切り離されていてもいなくてもよい。また、ユニットとして示した各構成要素は、物理的なユニットであってもなくてもよい。すなわち、複数の構成要素は1つの場所に配置されてもよく、複数のネットワークユニットに分配されてもよい。本発明の実施形態に係る解決策を実現(本発明の目的を達成)するために、必要に応じて、複数のユニットの一部またはすべてを選択してもよい。
また、本発明の実施形態に係る種々の機能ユニットは、1つの処理ユニットに統合されてもよく、物理的に独立した(切り離された)ユニットであってもよい。或いは、種々の機能ユニットのうち、2つ以上のユニットを統合して1つのユニットとしてもよい。ハードウェアまたはソフトウェア機能ユニットによって、上記の統合ユニットを実行/使用することができる。
統合ユニットがソフトウェア機能ユニットによって実行され、1つの独立した製品として販売または使用される場合、コンピュータで読取可能な記憶媒体にソフトウェア機能ユニットを格納することができる。この理解に基づいて、本発明の技術的解決策は、本質的または部分的に従来技術に貢献する。また、コンピュータ装置(パーソナルコンピュータ、サーバー、またはネットワーク装置など)が、本発明の種々の実施形態に係る方法のステップのすべてまたは一部を実行するための複数の指令を含む、記憶媒体に記憶されたソフトウェア製品の形で、技術的解決策のすべてまたは一部を具体化することができる。上記の記憶媒体として、USBディスク、モバイルハードディスクドライブ、読取専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク、光ディスクといったプログラムコードを格納できる種々の媒体を挙げることができる。
上記の実施形態は、本発明の技術的解決策を説明するためのものに過ぎず、本発明を限定するものではない。本発明は、上記の実施形態を参照して詳細に説明されているが、上記の実施形態で説明した技術的解決策を修正すること、または、技術的特徴の一部に対して等価な置換えが可能である。このような修正や置換えを行った場合でも、技術的解決策の本質は本発明の実施形態の精神および範囲から逸脱しない。

Claims (23)

  1. 第1クライアントによって、交唱開始をリクエストするために第1ユーザーによって入力された第1交唱リクエストを受信するステップと、
    前記第1クライアントによって、前記第1交唱リクエストに基づいて、歌の伴奏オーディオファイルおよび歌詞ファイルをサーバーから取得し、前記伴奏オーディオファイルと前記歌詞ファイルを使用することで、前記歌詞ファイルの歌詞の一部について前記第1ユーザーが歌う歌を録音して、第1録音ファイルを取得するステップと、
    前記第1クライアントによって、前記第1録音ファイルに基づいて、前記第1ユーザーが歌った前記歌詞の一部を第1歌詞部分と決定し、前記第1歌詞部分を識別する識別情報を含む段落情報を形成するステップと、
    前記第1クライアントによって、前記第1録音ファイル及び前記伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイルを取得するステップと、
    前記第1クライアントによって、前記第1対象ファイル及び前記段落情報を前記サーバーに送信するステップとを含むカラオケ処理方法。
  2. 第1クライアントによって、第1録音ファイルに基づいて、第1歌詞部分と決定する前記ステップは、
    前記第1クライアントによって、歌詞の一部に対応する前記第1ユーザーの録音された音声が有効であるか否かを判断し、
    前記第1クライアントによって、前記音声が有効であると決定した場合、前記歌詞の一部を前記第1歌詞部分と決定するステップを含む請求項1に記載のカラオケ処理方法。
  3. 第1クライアントによって、歌詞の一部に対応する第1ユーザーの録音された音声が有効であるか否かを判断する前記ステップは、
    前記第1クライアントによって、前記音声の音量が所定値より大きいか否か判断し、
    前記第1クライアントによって、前記音量が前記所定値より大きいと決定した場合、前記音声が有効であると決定するステップを含む請求項2に記載のカラオケ処理方法。
  4. 第1クライアントによって、第1録音ファイルに基づいて、第1歌詞部分と決定する前記ステップは、
    前記第1クライアントによって、歌詞の一部に対応する前記第1ユーザーの録音された音声が有効であるか否かを判断し、
    前記第1クライアントによって、前記音声が有効であると決定した場合、前記音声が占める時間が、前記歌詞の一部の表示時間と一致するか否かさらに判断し、
    前記第1クライアントによって、前記音声が占める時間が、前記歌詞の一部の表示時間と一致すると決定した場合、前記歌詞の一部を前記第1歌詞部分と決定するステップを含む請求項1に記載のカラオケ処理方法。
  5. 第1クライアントによって、第1録音ファイルと伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイルを取得する前記ステップの前に、前記第1クライアントによって、前記段落情報に基づいて、前記歌詞の前記第1歌詞部分以外の歌詞部分に対応する前記第1録音ファイルのオーディオデータを消去するステップをさらに含む請求項1に記載のカラオケ処理方法。
  6. 前記識別情報は、前記第1歌詞部分の表示時間、または、前記第1歌詞部分を識別するセンテンス識別子を含んでいる請求項1に記載のカラオケ処理方法。
  7. 第1クライアントによって、第1対象ファイル及び段落情報をサーバーに送信する前記ステップの前に、
    前記第1クライアントによって、前記第1ユーザーが使用するサウンドエフェクトパラメータを含む構成ファイルを形成するステップと、
    前記第1クライアントによって、前記構成ファイルを前記サーバーに送信するステップとをさらに含む請求項1に記載のカラオケ処理方法。
  8. 第2クライアントによって、前記第1対象ファイル及び前記段落情報を前記サーバーから取得するステップと、
    前記第2クライアントによって、前記段落情報に基づいて、前記第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供するステップとをさらに含む請求項1から7のいずれか1つに記載のカラオケ処理方法。
  9. 第2クライアントによって、第1対象ファイルと段落情報をサーバーから取得する前記ステップと、第2クライアントによって、段落情報に基づいて、第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供する前記ステップは、
    前記第2クライアントによって、交唱への参加をリクエストするために第2ユーザーによって送信された第2交唱リクエストを受信し、
    前記第2クライアントによって、前記第2交唱リクエストに基づいて、前記歌の前記第1対象ファイル、前記歌詞ファイル、および前記段落情報を前記サーバーから取得し、前記段落情報で表される前記第1歌詞部分以外のすべての歌詞部分について、前記第1対象ファイルを伴奏オーディオとして使用して前記第2ユーザーが歌う歌を録音して第2録音ファイルを取得し、
    前記第2クライアントによって、前記第2録音ファイル及び前記第1対象ファイルに対してオーディオ混合処理を行い、第2対象ファイルを取得するステップを含む請求項8に記載のカラオケ処理方法。
  10. 第2クライアントによって、第2録音ファイルと第1対象ファイルに対してオーディオ混合処理を行い、第2対象ファイルを取得する前記ステップの前に、前記第2クライアントによって、前記段落情報に基づいて、前記第2録音ファイル中の、前記第1歌詞部分に対応するオーディオデータを消去するステップをさらに含む請求項9に記載のカラオケ処理方法。
  11. 前記サーバーが構成ファイルを含む場合、第2クライアントによって、第2交唱リクエストに基づいて、歌の第1対象ファイル、歌詞ファイル、および段落情報をサーバーから取得し、段落情報で表される第2歌詞部分に基づいて、第1対象ファイルを伴奏オーディオとして使用して第2ユーザーが歌う歌を録音して第2録音ファイルを取得する前記ステップは、
    前記第2クライアントによって、前記歌の前記第1対象ファイル、前記歌詞ファイル、前記段落情報、および前記構成ファイルを前記サーバーから取得し、
    前記第2クライアントによって、前記段落情報と前記構成ファイルで表される前記第1歌詞部分以外のすべての歌詞部分について、前記第1対象ファイルを伴奏オーディオとして使用して前記第2ユーザーが歌う歌を録音して前記第2録音ファイルを取得するステップを含む請求項9に記載のカラオケ処理方法。
  12. 第2クライアントによって、第1対象ファイル及び段落情報をサーバーから取得する前記ステップ及び、段落情報に基づいて、第1対象ファイルを伴奏オーディオとして使用することでカラオケサービスを第2ユーザーに提供する前記ステップは、
    前記第2クライアントによって、交唱への参加をリクエストするために、さらに、前記歌詞の前記第1歌詞部分以外の一部の歌詞部分のみについて録音を行うよう指示するために前記第2ユーザーによって送信された第3交唱リクエストを受信し、
    前記第2クライアントによって、前記第3交唱リクエストに基づいて、前記歌の前記第1対象ファイル、前記歌詞ファイル、および前記段落情報を前記サーバーから取得し、前記段落情報で表される前記第1歌詞部分以外の前記一部の歌詞部分について、前記第1対象ファイルを伴奏オーディオとして使用して前記第2ユーザーが歌う歌を録音して第3録音ファイルを取得し、
    前記第2クライアントによって、前記第2ユーザーが歌った前記一部の歌詞部分を第2歌詞部分と決定し、前記第2歌詞部分を識別する識別情報を前記段落情報に追加し、
    前記第2クライアントによって、前記第3録音ファイルと前記第1対象ファイルに対してオーディオ混合処理を行い、第3対象ファイルを取得し、
    前記第2クライアントによって、前記第3対象ファイルと前記段落情報を前記サーバーに送信して、第3クライアントによって、前記第3対象ファイル及び前記段落情報を前記サーバーから取得し、前記段落情報に基づいて、前記第3対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第3ユーザーに提供するステップを含む請求項8に記載のカラオケ処理方法。
  13. 第1クライアントと第2クライアントを備え、
    前記第1クライアントは、交唱開始をリクエストするために第1ユーザーによって入力された第1交唱リクエストを受信し、
    前記第1交唱リクエストに基づいて、歌の伴奏オーディオファイル及び歌詞ファイルをサーバーから取得して、前記伴奏オーディオファイルと前記歌詞ファイルを使用することで、前記歌詞ファイルの歌詞の一部について前記第1ユーザーが歌う歌を録音して第1録音ファイルを取得し、
    前記第1録音ファイルに基づいて、前記第1ユーザーが歌った前記歌詞の一部を第1歌詞部分と決定して、前記第1歌詞部分を識別する識別情報を含む段落情報を形成し、
    前記第1録音ファイル及び前記伴奏オーディオファイルに対してオーディオ混合処理を行い、第1対象ファイルを取得し、
    前記第1対象ファイル及び前記段落情報を前記サーバーに送信するように構成されており、
    前記第2クライアントは、前記第1対象ファイル及び前記段落情報を前記サーバーから取得し、前記段落情報に基づいて、前記第1対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供するように構成されているカラオケ処理システム。
  14. 前記第1クライアントは、歌詞の一部に対応する前記第1ユーザーの録音された音声が有効であるか否かを判断し、前記音声が有効である場合、前記歌詞の一部を前記第1歌詞部分と決定するように構成されている請求項13に記載のカラオケ処理システム。
  15. 前記第1クライアントは、歌詞の一部に対応する前記第1ユーザーの録音された音声の音量が所定値より大きいか否か判断し、前記音量が前記所定値より大きい場合、前記録音された音声が有効であると決定するように構成されている請求項14に記載のカラオケ処理システム。
  16. 前記第1クライアントは、歌詞の一部に対応する前記第1ユーザーの録音された音声が有効であるか否か判断し、
    前記音声が有効である場合、前記音声が占める時間が、前記歌詞の一部の表示時間と一致するか否か判断し、前記音声が占める時間が、前記歌詞の一部の表示時間と一致する場合、前記歌詞の一部を前記第1歌詞部分と決定するように構成されている請求項13に記載のカラオケ処理システム。
  17. 前記第1クライアントは、前記第1録音ファイルと前記伴奏オーディオファイルに対してオーディオ混合処理を行い、前記第1対象ファイルを取得する前に、前記段落情報に基づいて、前記第1録音ファイル中の、前記歌詞の前記第1歌詞部分以外の歌詞部分に対応するオーディオデータを消去するようにさらに構成されている請求項13に記載のカラオケ処理システム。
  18. 前記識別情報は、前記第1歌詞部分の表示時間、または、前記第1歌詞部分を識別するセンテンス識別子を含んでいる請求項13に記載のカラオケ処理システム。
  19. 前記第1クライアントは、前記第1対象ファイルと前記段落情報を前記サーバーに送信する前に、前記第1ユーザーが使用するサウンドエフェクトパラメータを含む構成ファイルを形成し、
    前記構成ファイルを前記サーバーに送信するようにさらに構成されている請求項13に記載のカラオケ処理システム。
  20. 前記第2クライアントは、交唱への参加をリクエストするために前記第2ユーザーによって送信された第2交唱リクエストを受信し、
    前記第2交唱リクエストに基づいて、前記歌の前記第1対象ファイル、前記歌詞ファイル、および前記段落情報を前記サーバーから取得し、前記段落情報で表される前記第1歌詞部分以外のすべての歌詞部分について、前記第1対象ファイルを伴奏オーディオとして使用して第2ユーザーが歌う歌を録音して第2録音ファイルを取得し、
    前記第2録音ファイル及び前記第1対象ファイルに対してオーディオ混合処理を行い、第2対象ファイルを取得するように構成されている請求項13から19のいずれか1つに記載のカラオケ処理システム。
  21. 前記第2クライアントは、前記第2録音ファイル及び前記第1対象ファイルに対してオーディオ混合処理を行い前記第2対象ファイルを取得する前に、前記段落情報に基づいて、前記第2録音ファイル中の、前記第1歌詞部分に対応するオーディオデータを消去するようにさらに構成されている請求項20に記載のカラオケ処理システム。
  22. 前記第2クライアントは、前記サーバーが構成ファイルを含んでいる場合、前記歌の前記第1対象ファイル、前記歌詞ファイル、前記段落情報、および前記構成ファイルを前記サーバーから取得し、
    前記段落情報と前記構成ファイルで表される前記第1歌詞部分以外のすべての歌詞部分について、前記第1対象ファイルを伴奏オーディオとして使用して第2ユーザーが歌う歌を録音して、前記第2録音ファイルを取得するように構成されている請求項20に記載のカラオケ処理システム。
  23. 前記第2クライアントは、交唱への参加をリクエストするために、さらに、前記歌詞の前記第1歌詞部分以外の一部の歌詞部分のみに基づいた録音を行うよう指示するために、前記第2ユーザーによって送信された第3交唱リクエストを受信し、
    前記第3交唱リクエストに基づいて、前記歌の前記第1対象ファイル、前記歌詞ファイル、および前記段落情報を前記サーバーから取得して、さらに、前記段落情報に従い、前記歌詞の前記第1歌詞部分以外の一部の歌詞部分について、前記第1対象ファイルを伴奏オーディオとして使用して前記第2ユーザーが歌う歌を録音して第3録音ファイルを取得し、
    前記第2ユーザーが歌った前記一部の歌詞部分を第2歌詞部分と決定して、前記第2歌詞部分を識別する識別情報を前記段落情報に追加し、
    前記第3録音ファイルと前記第1対象ファイルに対してオーディオ混合処理を行い、第3対象ファイルを取得し、
    前記第3対象ファイル及び前記段落情報を前記サーバーに送信するように構成されており、第3クライアントは、前記第3対象ファイル及び前記段落情報を前記サーバーから取得し、前記段落情報に基づいて、前記第3対象ファイルを伴奏オーディオとして使用することで、カラオケサービスを第3ユーザーに提供するように構成されている請求項13から19のいずれか1つに記載のカラオケ処理システム。
JP2017560979A 2015-05-27 2016-05-11 カラオケ処理方法およびシステム Active JP6534452B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510280492.9A CN105023559A (zh) 2015-05-27 2015-05-27 K歌处理方法及系统
CN201510280492.9 2015-05-27
PCT/CN2016/081651 WO2016188323A1 (zh) 2015-05-27 2016-05-11 K歌处理方法及系统

Publications (2)

Publication Number Publication Date
JP2018519538A true JP2018519538A (ja) 2018-07-19
JP6534452B2 JP6534452B2 (ja) 2019-06-26

Family

ID=54413479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017560979A Active JP6534452B2 (ja) 2015-05-27 2016-05-11 カラオケ処理方法およびシステム

Country Status (7)

Country Link
US (1) US10074351B2 (ja)
EP (1) EP3306607A4 (ja)
JP (1) JP6534452B2 (ja)
KR (1) KR20180013997A (ja)
CN (1) CN105023559A (ja)
TW (1) TWI576822B (ja)
WO (1) WO2016188323A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105023559A (zh) * 2015-05-27 2015-11-04 腾讯科技(深圳)有限公司 K歌处理方法及系统
KR20180012800A (ko) * 2015-05-27 2018-02-06 광저우 쿠고우 컴퓨터 테크놀로지 컴퍼니, 리미티드 오디오 처리 방법, 장치 및 시스템
CN106601220A (zh) * 2016-12-08 2017-04-26 天脉聚源(北京)传媒科技有限公司 一种录制多人轮唱的方法及装置
CN106686431B (zh) * 2016-12-08 2019-12-10 杭州网易云音乐科技有限公司 一种音频文件的合成方法和设备
CN108269561A (zh) * 2017-01-04 2018-07-10 北京酷我科技有限公司 一种声音合成方法及系统
CN108269560A (zh) * 2017-01-04 2018-07-10 北京酷我科技有限公司 一种声音合成方法及系统
CN108630240B (zh) * 2017-03-23 2020-05-26 北京小唱科技有限公司 一种合唱方法及装置
CN108109652A (zh) * 2017-12-27 2018-06-01 北京酷我科技有限公司 一种k歌合唱录音的方法
US11250825B2 (en) 2018-05-21 2022-02-15 Smule, Inc. Audiovisual collaboration system and method with seed/join mechanic
CN108831425B (zh) * 2018-06-22 2022-01-04 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
CN113039573A (zh) * 2018-06-29 2021-06-25 思妙公司 具有种子/加入机制的视听协作系统和方法
CN109033335B (zh) * 2018-07-20 2021-03-26 广州酷狗计算机科技有限公司 音频录制方法、装置、终端及存储介质
CN109147746B (zh) * 2018-07-27 2021-07-16 维沃移动通信有限公司 一种k歌方法及终端
JP7309335B2 (ja) 2018-09-19 2023-07-18 シャープ株式会社 端末装置、基地局装置、および、通信方法
CN109410972B (zh) * 2018-11-02 2023-09-01 广州酷狗计算机科技有限公司 生成音效参数的方法、装置及存储介质
CN109461430A (zh) * 2018-11-20 2019-03-12 福建海媚数码科技有限公司 一种基于卡拉ok对唱的智能角色伴唱方法及系统
US10831824B1 (en) * 2019-07-01 2020-11-10 Koye Corp. Audio segment based and/or compilation based social networking platform
CN114303387A (zh) * 2019-08-25 2022-04-08 思妙公司 用于用户参与声乐捕获应用的短片段生成
CN110675848B (zh) * 2019-09-30 2023-05-30 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法、装置及存储介质
CN111261133A (zh) * 2020-01-15 2020-06-09 腾讯科技(深圳)有限公司 演唱处理方法、装置、电子设备及存储介质
CN111241337B (zh) * 2020-01-21 2024-01-02 腾讯音乐娱乐科技(深圳)有限公司 K歌作品分享的方法和装置
CN111402844B (zh) * 2020-03-26 2024-04-09 广州酷狗计算机科技有限公司 歌曲合唱的方法、装置及系统
CN111475672B (zh) * 2020-03-27 2023-12-08 咪咕音乐有限公司 一种歌词分配方法、电子设备及存储介质
CN113691841B (zh) * 2020-05-18 2022-08-30 聚好看科技股份有限公司 一种演唱标签添加方法、快速试听方法及显示设备
CN111669642A (zh) * 2020-06-29 2020-09-15 南谊(上海)互联网科技有限公司 一种用于社交软件的信息处理系统及方法
USD960898S1 (en) 2020-08-12 2022-08-16 Meta Platforms, Inc. Display screen with a graphical user interface
US11093120B1 (en) * 2020-08-12 2021-08-17 Facebook, Inc. Systems and methods for generating and broadcasting digital trails of recorded media
USD960899S1 (en) 2020-08-12 2022-08-16 Meta Platforms, Inc. Display screen with a graphical user interface
US11256402B1 (en) 2020-08-12 2022-02-22 Facebook, Inc. Systems and methods for generating and broadcasting digital trails of visual media
CN112150997A (zh) * 2020-09-24 2020-12-29 腾讯音乐娱乐科技(深圳)有限公司 确定合唱歌词分配信息的方法、装置、设备及存储介质
CN112489610B (zh) * 2020-11-10 2024-02-23 北京小唱科技有限公司 智能合唱的方法及装置
CN113345470B (zh) * 2021-06-17 2022-10-18 青岛聚看云科技有限公司 一种k歌内容审核方法、显示设备及服务器
CN117369759A (zh) * 2022-06-30 2024-01-09 腾讯科技(深圳)有限公司 歌曲播放方法、装置、计算机设备和计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053736A (ja) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd 通信カラオケシステムの使用方法
JP2008051896A (ja) * 2006-08-22 2008-03-06 Taito Corp 音声ミックスダウン装置、音声ミックスダウンプログラム
JP2010014823A (ja) * 2008-07-01 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> 楽曲情報制御装置
JP2010164922A (ja) * 2009-01-19 2010-07-29 Taito Corp カラオケサービスシステム、端末装置
US20140358566A1 (en) * 2013-05-30 2014-12-04 Xiaomi Inc. Methods and devices for audio processing
JP2016504618A (ja) * 2013-05-30 2016-02-12 シャオミ・インコーポレイテッド 非同期合唱方法、非同期合唱装置、プログラム及び記録媒体

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3248792B2 (ja) * 1993-08-26 2002-01-21 ヤマハ株式会社 カラオケネットワークシステムおよびカラオケ端末装置
US5808224A (en) * 1993-09-03 1998-09-15 Yamaha Corporation Portable downloader connectable to karaoke player through wireless communication channel
JP3496689B2 (ja) * 1994-04-06 2004-02-16 ソニー株式会社 再生装置
KR960002329A (ko) * 1994-06-22 1996-01-26 김광호 영상노래반주용의 기록매체, 이의 기록 및 재생방법 그리고 이에 적합한 재생장치
KR960002330A (ko) * 1994-06-22 1996-01-26 김광호 영상노래반주장치
JP3144241B2 (ja) * 1994-10-14 2001-03-12 ヤマハ株式会社 カラオケ装置およびカラオケシステム
JP2820052B2 (ja) * 1995-02-02 1998-11-05 ヤマハ株式会社 コーラス効果付与装置
JP3952523B2 (ja) * 1996-08-09 2007-08-01 ヤマハ株式会社 カラオケ装置
JP3709631B2 (ja) * 1996-11-20 2005-10-26 ヤマハ株式会社 カラオケ装置
US5869783A (en) * 1997-06-25 1999-02-09 Industrial Technology Research Institute Method and apparatus for interactive music accompaniment
JP3743298B2 (ja) 2001-03-05 2006-02-08 ヤマハ株式会社 電子楽器
US20020132212A1 (en) 2001-03-14 2002-09-19 Andrew Hou Multi-functional portable information learning device
JP4267925B2 (ja) * 2001-04-09 2009-05-27 ミュージックプレイグラウンド・インコーポレーテッド 対話型再生によるマルチパートオーディオ演奏を記憶する媒体
US20020189429A1 (en) * 2001-06-18 2002-12-19 Ziqiang Qian Portable digital music player with synchronized recording and display
US20060077767A1 (en) * 2004-09-13 2006-04-13 Richard Young Dialog-reading game with background music and sound effects cued to text
US7917238B1 (en) * 2005-12-22 2011-03-29 Thomas Lapcevic Portable music device and systems
US20090031883A1 (en) * 2007-07-31 2009-02-05 Christopher Lee Bennetts Networked karaoke system and method
US20100089223A1 (en) * 2008-10-14 2010-04-15 Waichi Ting Microphone set providing audio and text data
CN101859561B (zh) 2009-04-07 2012-12-26 林文信 伴唱歌词自动显示方法
US8779265B1 (en) * 2009-04-24 2014-07-15 Shindig, Inc. Networks of portable electronic devices that collectively generate sound
JP2011215358A (ja) * 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法及びプログラム
TW201202936A (en) * 2010-07-08 2012-01-16 Hon Hai Prec Ind Co Ltd Portable electronic device
CN102456340A (zh) * 2010-10-19 2012-05-16 盛大计算机(上海)有限公司 基于互联网的卡拉ok对唱方法及系统
TWI480854B (zh) * 2010-11-04 2015-04-11 Fu Cheng Pan 攜帶型伴唱系統、伴唱方法及應用程式
CN102497448A (zh) * 2011-12-26 2012-06-13 深圳市五巨科技有限公司 一种移动终端在线音乐播放的方法及系统
JP5811837B2 (ja) * 2011-12-27 2015-11-11 ヤマハ株式会社 表示制御装置及びプログラム
CN203689074U (zh) * 2014-01-28 2014-07-02 福建海媚数码科技有限公司 一种嵌入式数字音效处理装置
TWM486220U (zh) * 2014-04-14 2014-09-11 Fair Sound Light Corp 家庭劇院與卡拉ok整合系統
CN203870973U (zh) * 2014-05-09 2014-10-08 黄运龙 一体式智能高效数字多媒体播放系统
CN104392711A (zh) * 2014-08-27 2015-03-04 贵阳朗玛信息技术股份有限公司 一种实现卡拉ok功能的方法及装置
TWM497842U (zh) * 2014-10-08 2015-03-21 Nat Taichung University Science & Technology 行動裝置之互動式娛樂平台
CN105845158A (zh) * 2015-01-12 2016-08-10 腾讯科技(深圳)有限公司 一种信息处理方法及客户端
CN104966527B (zh) * 2015-05-27 2017-04-19 广州酷狗计算机科技有限公司 K歌处理方法、装置以及k歌处理系统
KR20180012800A (ko) * 2015-05-27 2018-02-06 광저우 쿠고우 컴퓨터 테크놀로지 컴퍼니, 리미티드 오디오 처리 방법, 장치 및 시스템
CN105023559A (zh) * 2015-05-27 2015-11-04 腾讯科技(深圳)有限公司 K歌处理方法及系统
CN106815230B (zh) * 2015-11-27 2019-05-14 腾讯科技(深圳)有限公司 歌词页面生成方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053736A (ja) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd 通信カラオケシステムの使用方法
JP2008051896A (ja) * 2006-08-22 2008-03-06 Taito Corp 音声ミックスダウン装置、音声ミックスダウンプログラム
JP2010014823A (ja) * 2008-07-01 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> 楽曲情報制御装置
JP2010164922A (ja) * 2009-01-19 2010-07-29 Taito Corp カラオケサービスシステム、端末装置
US20140358566A1 (en) * 2013-05-30 2014-12-04 Xiaomi Inc. Methods and devices for audio processing
JP2016504618A (ja) * 2013-05-30 2016-02-12 シャオミ・インコーポレイテッド 非同期合唱方法、非同期合唱装置、プログラム及び記録媒体

Also Published As

Publication number Publication date
KR20180013997A (ko) 2018-02-07
TW201642245A (zh) 2016-12-01
US10074351B2 (en) 2018-09-11
EP3306607A4 (en) 2019-01-23
JP6534452B2 (ja) 2019-06-26
TWI576822B (zh) 2017-04-01
WO2016188323A1 (zh) 2016-12-01
US20180158441A1 (en) 2018-06-07
EP3306607A1 (en) 2018-04-11
CN105023559A (zh) 2015-11-04

Similar Documents

Publication Publication Date Title
JP6534452B2 (ja) カラオケ処理方法およびシステム
JP6456525B2 (ja) カラオケ処理方法、装置、およびシステム
US10403255B2 (en) Audio processing method, apparatus and system
JP6085036B2 (ja) 非同期合唱方法、非同期合唱装置、プログラム及び記録媒体
CN106531201B (zh) 歌曲录制的方法和装置
US11120782B1 (en) System, method, and non-transitory computer-readable storage medium for collaborating on a musical composition over a communication network
EP3454328A1 (en) Computer implemented method for providing feedback of harmonic content relating to music track
CN103915086A (zh) 信息处理的方法、装置和系统
CN113270080A (zh) 合唱方法、系统、装置、终端及计算机可读存储介质
CN112927666A (zh) 音频处理方法、装置、电子设备及存储介质
WO2013189318A1 (zh) 一种数据处理方法、装置、物联网服务平台及终端
KR20150059219A (ko) 음악 컨텐츠 제공 방법과 이를 수행하는 음악 컨텐츠 제공 시스템
JP6168981B2 (ja) カラオケ装置及びカラオケシステム
CN107147741B (zh) 基于互联网的音乐创作评选方法、终端、服务器及系统
CN108196817B (zh) 音频识别方法、装置及存储介质
WO2020024508A1 (zh) 语音信息的获取方法及装置
JP5349171B2 (ja) 演奏条件設定機能付きカラオケシステム
US20220215819A1 (en) Methods, systems, apparatuses, and devices for facilitating the interactive creation of live music by multiple users
JP7079650B2 (ja) カラオケシステム
JP6924119B2 (ja) カラオケ装置
KR101458526B1 (ko) 공동음원 생성 서비스 시스템 및 그 방법, 그리고 이에 적용되는 장치
KR20240022257A (ko) 프라이빗 음원데이터 싱크 시스템 및 그 방법
JP6053007B2 (ja) 通信カラオケシステム
JP5036053B2 (ja) ゲーム機能を備えたカラオケシステム
JP2019165336A (ja) 情報処理装置、コンテンツ配信方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190528

R150 Certificate of patent or registration of utility model

Ref document number: 6534452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250