JP2018519536A - オーディオ処理方法、装置、およびシステム - Google Patents

オーディオ処理方法、装置、およびシステム Download PDF

Info

Publication number
JP2018519536A
JP2018519536A JP2017560972A JP2017560972A JP2018519536A JP 2018519536 A JP2018519536 A JP 2018519536A JP 2017560972 A JP2017560972 A JP 2017560972A JP 2017560972 A JP2017560972 A JP 2017560972A JP 2018519536 A JP2018519536 A JP 2018519536A
Authority
JP
Japan
Prior art keywords
lyrics
file
audio
audio file
display time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017560972A
Other languages
English (en)
Inventor
ウエイフォン ジャオ
ウエイフォン ジャオ
チュン リ
チュン リ
シアン リィウ
シアン リィウ
ハオジエ シュイ
ハオジエ シュイ
デェウエン ジャン
デェウエン ジャン
フェイ ジョン
フェイ ジョン
リ ツァオ
リ ツァオ
ティエンウエン リ
ティエンウエン リ
シアンウエン チェン
シアンウエン チェン
バオホア ワン
バオホア ワン
メイシン ワン
メイシン ワン
ジヨン リィウ
ジヨン リィウ
スリアン ホアン
スリアン ホアン
ボ ソォン
ボ ソォン
ウエイロォン ワン
ウエイロォン ワン
シアオカン ドン
シアオカン ドン
ションミン タン
ションミン タン
ホォンチョン フゥ
ホォンチョン フゥ
チン ジャン
チン ジャン
Original Assignee
グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド
グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201510278911.5A external-priority patent/CN105006234B/zh
Priority claimed from CN201510280492.9A external-priority patent/CN105023559A/zh
Priority claimed from CN201510280087.7A external-priority patent/CN104966527B/zh
Application filed by グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド, グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド filed Critical グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド
Publication of JP2018519536A publication Critical patent/JP2018519536A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】本発明は、他の人と一緒に歌うカラオケ体験を実現できるオーディオ処理方法、装置、およびシステムを提供する。
【解決手段】本発明のオーディオ処理方法は、歌のオーディオファイルおよび歌詞ファイルを取得するステップと、歌詞ファイルの第1歌詞部分の表示時間中に、オーディオファイルを再生してユーザーのオーディオデータを録音するステップと、歌詞ファイルの第2歌詞部分の表示時間中にオーディオファイルを再生するステップと、ユーザーのオーディオデータを、第1歌詞部分の表示時間に対応するオーディオファイルのオーディオデータと混合するステップとを備えている。
【選択図】図1

Description

本願は、2015年05月27日付で中華人民共和国国家知識産権局に提出された中国特許出願201510278911.5(発明の名称“カラオケ処理方法および装置”)と、2015年05月27日付で中華人民共和国国家知識産権局に提出された中国特許出願201510280087.7(発明の名称“カラオケ処理方法、装置、およびシステム”)と、2015年05月27日付で中華人民共和国国家知識産権局に提出された中国特許出願201510280492.9(発明の名称“カラオケ処理方法およびシステム”)とに基づく優先権を主張しており、ここでこれらの出願に言及することで、これらの出願の全内容が本明細書に組み込まれているとみなされる。
本発明は、オーディオ処理の分野、特にオーディオ処理方法、オーディオ処理装置、およびオーディオ処理システムに関する。
生活の質の向上に伴い、豊富な機能を有するカラオケアプリケーションが、人々の日常生活に徐々に浸透している。
カラオケアプリケーションは、音楽プレイヤーと録音ソフトウェアを組み合わせたものであり、原曲オーディオを再生し、ユーザーの歌を録音し、録音された歌を伴奏オーディオと混合させて音楽ファイルを取得することができる。さらに、ユーザーがこの音楽ファイルをインターネット上にアップロードすることで、多くの人が録音された歌を聞くことができる。
一般的に、ユーザーが歌を録音する際、カラオケアプリケーションは、ユーザーの歌の録音用の伴奏として伴奏オーディオファイルをユーザーに提供する。しかし、これではユーザーは、一人でしかカラオケ体験できず、他の人(例えばスター)と一緒に歌うカラオケ体験ができない。
本発明は、他の人と一緒に歌うカラオケ体験を実現するための、実施形態に係るオーディオ処理方法、オーディオ処理装置、およびオーディオ処理システムを提供する。
本発明の実施形態に係るオーディオ処理方法は、歌のオーディオファイルおよび歌詞ファイルを取得するステップと、
歌詞ファイルの第1歌詞部分の表示時間中に、オーディオファイルを再生してユーザーのオーディオデータを録音するステップと、
歌詞ファイルの第2歌詞部分の表示時間中にオーディオファイルを再生するステップと、
ユーザーのオーディオデータを、第1歌詞部分の表示時間に対応するオーディオファイルのオーディオデータと混合するステップとを備えている。
本発明の実施形態に係るオーディオ処理装置は、少なくとも1つのプロセッサと、プログラム命令を記憶するメモリとを備えており、このプログラム命令は、プロセッサによって実行されると、オーディオ処理装置に本発明のいずれかの実施形態に係る方法を実行させることができる。
本発明の実施形態に係るオーディオ処理システムは、サーバーと、少なくとも1つのクライアント装置を備えており、サーバーおよび/またはクライアント装置は、本発明のいずれかの実施形態に係る方法を実行するように構成されている。
本発明の実施形態に係るオーディオ処理装置は、歌のオーディオファイルおよび歌詞ファイルを取得するように構成された第1取得ユニットと、
歌詞ファイルの第1歌詞部分及び第2歌詞部分の表示時間中にオーディオファイルを再生し、歌詞ファイルの第1歌詞部分の表示時間中にユーザーのオーディオデータを録音するように構成された第1処理ユニットと、
ユーザーのオーディオデータを、第1歌詞部分の表示時間に対応するオーディオファイルのオーディオデータと混合するように構成された第1混合ユニットとを備えている。
従来技術と比較すると、本発明の実施形態では、第1歌詞部分の表示時間中に、オーディオファイル(例えば伴奏オーディオファイル)が再生されてユーザーのオーディオデータが録音され、第2歌詞部分の表示時間中にオーディオファイル(例えば原曲オーディオファイル)が再生され、対象の歌が、第1歌詞部分の表示時間中にユーザーによって歌われ、第2歌詞部分の表示時間中に他の人またはスターによって歌われるので、他の人またはスターと一緒に歌うカラオケ体験を得ることができる。
本発明の実施形態に係るオーディオ処理方法を示す図 本発明の別の実施形態に係るオーディオ処理方法を示す図 本発明のさらに別の実施形態に係るオーディオ処理方法を示す図 本発明のさらに別の実施形態に係るオーディオ処理方法を示す図 本発明のさらに別の実施形態に係るオーディオ処理方法を示す図 本発明の実施形態に係るオーディオ処理装置を示す図 本発明の別の実施形態に係るオーディオ処理装置を示す図 本発明のさらに別の実施形態に係るオーディオ処理装置を示す図 本発明の実施形態に係るオーディオ処理システムを示す図 本発明の別の実施形態に係るオーディオ処理システムを示す図
本発明は、他の人(例えばスター)と一緒に歌うカラオケ体験を実現するための、以下に詳細に説明する実施形態に係るオーディオ処理方法、オーディオ処理装置、およびオーディオ処理システムを提供する。
以下、本発明の実施形態に係る技術的解決策について、図面を参照して明確かつ十分な形で記載する。以下に記載する実施形態は、本発明の実施形態のすべてではなく一部にすぎない。ここで開示されている実施形態に基づいて、当業者が創造性を発揮せずに到達することができる他のすべての実施形態が本発明の保護の範囲に含まれる。
本願の明細書、クレーム、図面において「第1」、「第2」、「第3」、「第4」などの用語が存在する場合、これらの用語は類似の複数の対象を区別するためのものであり、これらの順番を特定するものではない。すなわち以下に記載する実施形態において、序数によって示されるデータは必要に応じて、図面に示され、明細書に記載されている順番とは異なる順番で実施してもよい。また、「含む」(include)、「備える」(comprise)という用語と、これら用語のすべての変形は、明確に記載されていない他の要素を排除するものではないことを意味する。例えば、工程、方法、システム、製品、装置などが一連のステップまたはユニットを含むという記載は、必ずしもここに記載されているステップまたはユニットに限定されるという意味ではなく、ここには記載されていない他のステップまたはユニット、あるいは、工程、方法、製品、装置に本来備わっている他のステップまたはユニットも包含する可能性がある。
本発明の実施形態に係るオーディオ処理方法は、歌のオーディオファイルと歌詞ファイルを取得するステップと、歌詞ファイルの第1歌詞部分の表示時間中にオーディオファイルを再生して、ユーザーのオーディオデータを録音するステップと、歌詞ファイルの第2歌詞部分の表示時間中にオーディオファイルを再生するステップと、ユーザーのオーディオデータを、第1歌詞部分の表示時間に対応するオーディオファイルのオーディオデータと混合するステップとを備えている。歌詞ファイルの第2歌詞部分の表示時間中にオーディオファイルを再生する際、ユーザーのオーディオデータを録音してもよいし録音しなくてもよいが、歌詞ファイルの第2歌詞部分の表示時間中に録音されたユーザーのオーディオデータは、混合処理や合唱ファイル形成時には使用されない。携帯電話、パソコン(PC、Personal Computer)および/またはタブレットコンピュータを含むがこれらに限定されないコンピューティング装置によって、本発明の実施形態に係るオーディオ処理方法を実行することができる。また、システムが備えるサーバーとクライアント装置の一方によって、または、サーバーとクライアント装置を協働させることで、本発明の実施形態に係るオーディオ処理方法を実行することができる。
本発明の実施形態に係るオーディオ処理方法は、例えば、カラオケ処理方法からなるが、他の用途で使用されてもよい。また、本発明の原理から逸脱しない範囲で、歌詞ファイルを、他のいずれかのテキストファイルまたは画像と置き換えてもよく、また歌のオーディオを、他のオーディオと置き換えてもよい。
クライアント装置には、携帯電話、パソコン(PC、Personal Computer)および/またはタブレットコンピュータなどが含まれる。実際の用途において、これらのクライアント装置を介してウェブページにログインしたり、これらのクライアント装置にプログラムをロードしたり、種々のモバイルプラットフォームから提供されるアプリケーション(App、Application)を使用してカラオケサービスにアクセスすることができる。
図1は、本発明の実施形態に係るオーディオ処理方法を示す。本実施形態では、オーディオ処理方法を実行する主要素としてクライアント装置を挙げているが、他の主要素によって、本実施形態のオーディオ処理方法を実行してもよい。
ステップ101では、クライアント装置が、ユーザーのリクエストを受信する。
例えば、ユーザーは、カラオケ用の歌を選択する際、カラオケ処理をスタートさせるために、カラオケリクエストをクライアント装置に入力する必要がある。
ステップ102では、クライアント装置が、ユーザーのリクエストに基づいて、歌のオーディオファイルと、対応する歌詞ファイルを取得する。歌のオーディオファイルは、例えば、歌の伴奏オーディオファイルや原曲オーディオファイル等を含むことができる。すなわち、クライアント装置によって歌のオーディオファイルを取得するステップは、例えば、クライアント装置によって歌の伴奏オーディオファイルと原曲オーディオファイル等を取得するステップであってもよい。
クライアント装置は、ユーザーによって入力されたカラオケリクエストを受信すると、このカラオケリクエストに基づいてユーザーが選択した歌を決定し、歌の伴奏オーディオファイル、原曲オーディオファイル、および対応する歌詞ファイルを取得することができる。クライアント装置は、例えば、サーバーから、歌の伴奏オーディオファイル、原曲オーディオファイル、および対応する歌詞ファイルを取得することができる。
伴奏オーディオファイルと原曲オーディオファイルは、例えば、生のオーディオデータであってもよい。実際の用途において、取得した伴奏オーディオファイルまたは原曲オーディオファイルがMP3などの圧縮形式のオーディオデータである場合、最初に、サーバーが圧縮形式のオーディオデータを展開して生のオーディオデータにする。
歌詞ファイルは、例えば、歌詞の表示時間を識別する時間情報を含むことができ、この時間情報に基づいて、歌詞ファイルが、伴奏オーディオファイルおよび原曲オーディオファイルと同期される。例えば、歌詞ファイルは、ファイルに含まれるタイムスタンプ(timestamp)を介して歌詞の表示時間を識別するLRC歌詞ファイルであってもよい。
ステップ103では、クライアント装置が、歌詞ファイルの第1歌詞部分と第2歌詞部分の表示時間中にオーディオファイルを再生し、歌詞ファイルの第1歌詞部分の表示時間中にユーザーのオーディオデータを録音する。
本発明の実施形態によると、歌詞ファイルの第2歌詞部分の表示時間中、オーディオファイルは再生されるが、例えば、ユーザーのオーディオデータを録音するマイクロホンのスイッチを切ることで、ユーザーのオーディオデータは録音されない。本発明の別の実施形態によると、歌詞ファイルの第2歌詞部分の表示時間中、オーディオファイルの再生とユーザーのオーディオデータの録音が同時に行われるが、歌詞ファイルの第2歌詞部分の表示時間中に録音されたユーザーのオーディオデータは、混合処理や合唱ファイル形成時には除去される(又は、使用されない)。
本発明の実施形態によると、取得された歌のオーディオファイルが、歌の伴奏オーディオファイルと原曲オーディオファイルを含む場合、伴奏オーディオファイルは、歌詞ファイルの第1歌詞部分の表示時間中に再生され、原曲オーディオファイルは、歌詞ファイルの第2歌詞部分の表示時間中に再生される。
クライアント装置は、オーディオファイルの再生とユーザーのオーディオデータの録音を行う前に、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得するように構成することができる。
クライアント装置は、以下に例示する複数の方法で、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得するように構成することができる。
第1の方法では、クライアント装置は、ステップ103を実行する前に、ユーザーの分割指示を受信し、この分割指示に基づいて歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得する。
本発明の実施形態では、複数の歌詞分割方法をクライアント装置に予め設定しておき、複数の歌詞分割方法に基づいて、歌詞ファイルを2つの歌詞部分に分割することができる。具体例を以下に示す。
(1)クライアント装置が、歌詞ファイル内の時間情報に基づいて、歌詞ファイルの段落情報を決定し、この段落情報に基づいて、歌詞ファイルを2つの歌詞部分に分割する。
実施形態では、歌詞ファイルの時間情報は、対応する歌の各段落に対応する表示時間の始点と終点を反映するように構成することができる。すなわち、クライアント装置は、時間情報に基づいて、歌詞ファイルに含まれる段落の数と、各段落に対応する表示時間の始点および終点とを決定するように構成することができる。上記の段落情報に基づいて歌詞ファイルを分割する際、サーバーが、少なくとも1つの所定の段落を一方の歌詞部分、残りの段落を他方の歌詞部分と決定するように構成することができる。各歌詞部分の段落の数は限定されず、かつ、どの段落でも一方の歌詞部分または他方の歌詞部分とすることができる。例えば、段落情報の構成は以下のように表すことができる。
typdef struct section_info {
int section_id; //段落id
int start_ms; //開始時間ms
int end_ms; //終了時間ms
int role_id; //役割id
} Ssection, *PSection;
上記の役割(role)idは、歌の対応するパートが、女性と男性のどちらによって歌われるのかを示している。女性が歌うパートに対応する段落を一方の歌詞部分、男性が歌うパートに対応する段落を他方の歌詞部分に設定して、男女の役割に基づいて歌詞を分割し、互いに異なる役割で構成された2つの歌詞部分を取得することが好ましい。
(2)クライアント装置が、歌詞ファイルのバース部分(主歌:verse part)とリフレイン部分(副歌:refrain part)を決定した上で、バース部分を一方の歌詞部分、リフレイン部分を他方の歌詞部分と決定する。
実施形態では、クライアント装置が、リフレインとバースに基づいて歌詞ファイルを2つの歌詞部分に分割して、バース部分に対応する一方の歌詞部分と、リフレイン部分に対応する他方の歌詞部分を取得するように構成することができる。
(3)クライアント装置が、カスタムテンプレートに基づいて歌詞ファイルを分割して、2つの歌詞部分を取得する。
実施形態では、クライアント装置が、歌詞を分割するための複数のカスタムテンプレートを予め設定しておき、次に、これらのカスタムテンプレートに基づいて歌詞ファイルを分割して2つの歌詞部分を取得する。例えば、歌詞の中から決まったN個のセンテンスまたはN個のワードを一方の歌詞部分として設定することができる。カスタムテンプレートを設定する方法はこれに限定されず、当業者は、実際の状況に基づいて種々のカスタムテンプレートを設定してもよい。
クライアント装置は、ユーザーの分割指示を受信すると、ユーザーの分割指示および対応の歌詞分割方法に基づいて歌詞ファイルを分割して、第1歌詞部部分及び第2歌詞部分を取得する。実際の用途において、ユーザーが、分割された2つの歌詞部分から選択して、あるパートを第1歌詞部分または第2歌詞部分に指定できる選択モジュールをクライアント装置に設けてもよい。例えば、ユーザーは、選択モジュールを介して、男性が歌うパートをユーザー自身が歌う第1歌詞部分として、または、男性が歌うパートを他の人またはスターが歌う第2歌詞部分として選択することができる。
クライアント装置は、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得した後、第1歌詞部分の表示時間中に伴奏オーディオファイルを再生してユーザーのオーディオデータを録音し、第2歌詞部分の表示時間中に原曲オーディオファイルを再生するように構成することができる。
第2の方法では、クライアント装置は、(ユーザーの)音声が入力されているか否かに基づいて、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得する。
具体的に言うと、クライアント装置は、音声が入力されているか否かを検知し、音声の入力があると検知した場合、それに対応する表示時間の歌詞ファイルの歌詞部分を第1歌詞部分として決定した上で、伴奏オーディオファイルを再生し、マイクロホンを入力モードに切替えてユーザーのオーディオデータを録音する。また、クライアント装置は、音声の入力がないと検知した場合、それに対応する表示時間の歌詞ファイルの歌詞部分を第2歌詞部分として決定した上で、原曲オーディオファイルを再生する。この場合、クライアント装置は、第1歌詞部分と第2歌詞部分を取得した後で、第1歌詞部分の表示時間中に伴奏オーディオファイルを再生してユーザーのオーディオデータを録音し、第2歌詞部分の表示時間中に原曲オーディオファイルを再生するという一連の手順の代わりに、歌詞ファイルの分割と、再生や録音といった操作を同時に行う。
本発明の実施形態では、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得する方法を数例のみを挙げて説明しているが、実際の用途において、クライアント装置は、上記の分割方法を組み合わせてもよく、或いは、他の分割方法を用いてもよく、分割方法は限定されない。
クライアントは、クライアント装置上に表示される歌詞のどの部分をユーザー自身と、他の人/スターがそれぞれ歌うのかユーザーが識別/判断できるように構成されてもよい。すなわち、実施形態では、クライアント装置上に表示される第1歌詞部分を第1識別子で識別し、クライアント装置上に表示される第2の歌詞部分を第2識別子で識別するのが好ましい。これらの識別子は色識別子であってもよい。この場合、例えば、第1歌詞部分をある色で表示し、第2歌詞部分を第1歌詞部分の色とは別の色で表示する。或いは、これらの識別子は強調表示識別子であってもよい。この場合、例えば、第1歌詞部分を強調表示し、第2歌詞部分は強調表示しない。実施形態では、識別子の種類は上記に限定されず、当業者は、必要に応じて上記以外の識別子を利用してもよい。
ステップ104では、クライアント装置が、ユーザーのオーディオデータを、第1歌詞部分の表示時間に対応するオーディオファイルのオーディオデータと混合して、混合オーディオファイルを取得する。
本発明の実施形態によると、クライアント装置は、ユーザーのオーディオデータ(例えば、マイクロホンで集められたオーディオデータ)を取得した後、ユーザーのオーディオデータを、第1歌詞部分の表示時間に対応するオーディオファイルのオーディオデータと混合して、混合オーディオファイルを取得する。このように、混合オーディオファイルには、ユーザーの音声および対応の伴奏を含む、ユーザーが歌うパートのオーディオデータをすべて反映させることができる。
上記の混合処理は一般的な混合アルゴリズムを用いて行うことができる。例えば、対応するサンプリング点のデータを直接加算して和を取得し、その和を2で割ることによって行う。
オーディオファイルが、伴奏オーディオファイルと原曲オーディオファイルを含む場合、クライアント装置は、第1歌詞部分の表示時間中に、ユーザーのオーディオデータを伴奏オーディオファイルのオーディオデータと混合する。
本発明の実施形態では、クライアント装置は、ユーザーのオーディオデータを、第1歌詞部分の表示時間に対応するオーディオファイルのオーディオデータと混合した後、第1歌詞部分の表示時間中に、混合オーディオファイルを出力(または選択)し、第2歌詞部分の表示時間中に、合唱ファイルを形成するために、オーディオファイルを出力(または選択)することができる。尚、オーディオファイルが伴奏オーディオファイルと原曲オーディオファイルを含む場合、合唱ファイルを形成するために、第2歌詞部分の表示時間中には、原曲オーディオファイルを出力(または選択)する。
合唱ファイルを形成する過程において、第1歌詞部分の表示時間中に、対応する時間間隔の混合オーディオファイルのオーディオデータが取得され、第2歌詞部分の表示時間中に、対応する時間間隔の原曲オーディオファイルのオーディオデータが取得され、次に、各オーディオデータが切替点において、時系列順に1つのオーディオファイルに統合されて合唱ファイルが形成される。また、合唱ファイルを形成する過程において、対象オーディオファイルのオーディオデータが出力される時間と、原曲オーディオファイルのオーディオデータが出力される時間は、歌詞の表示時間に基づいて決定される。このように、取得された合唱ファイルに関しては、第1歌詞部分の表示時間中に、ユーザーが歌った対応する時間間隔のパートが出力され、第2歌詞部分の表示時間中に、対応する時間間隔の原曲パートが出力される。
クライアント装置は、合唱ファイルのオーディオデータに対し、その切替点において平衡処理(balance)を行うように構成することができる。切替点とは、第1歌詞部分の表示時間から第2歌詞部分の表示時間に切り替わる時点、または、第2歌詞部分の表示時間から第1歌詞部分の表示時間に切り替わる時点を意味するが、2つのオーディオファイル同士を接合(splice)することで混合オーディオファイルが形成されるため、この切替点(接合点)において平衡処理を行うことで、混合オーディオファイルのオーディオ品質を確保することができる。実施形態では、平衡処理を行う方法として、平均フィルタ処理(mean filtering)や重ね合せ処理(superposition)といった従来のオーディオ接合技術を用いることができる。
実施形態では、ユーザーは、クライアント装置を介して合唱ファイルをネットワーク上にアップロードして、他の人またはスターと一緒に歌う合唱を共有することができる。
クライアント装置が取得する歌のオーディオファイルは、上で説明したように、歌の伴奏オーディオファイルと原曲オーディオファイルを含んでいてもよく、或いは、サーバーによって送信され、クライアント装置によって受信される対象オーディオファイルを含んでいてもよい。また、クライアント装置が取得する歌の歌詞ファイルは、サーバーによって送信され、クライアント装置によって受信される対象歌詞ファイルを含んでいてもよい。サーバーによって、対象オーディオファイルおよび/または対象歌詞ファイルを送信するステップについては、以下に詳細に説明する。クライアント装置は、サーバーによって送信された対象オーディオファイルおよび/または対象歌詞ファイルを受信する場合、ステップ103において歌詞ファイルを分割しない。
従来技術と比較すると、本発明の実施形態では、第1歌詞部分の表示時間中にのみ、伴奏オーディオファイルの再生とユーザーのオーディオデータの録音が行われ、第2歌詞部分の表示時間中に、原曲オーディオファイルが再生される。したがって、対象の歌が、第1歌詞部分の表示時間中にユーザーによって歌われ、第2歌詞部分の表示時間中に他の人またはスターによって歌われるため、ユーザーは、他の人またはスターと一緒に歌うカラオケ体験を得ることができる。またユーザーは、本発明の実施形態に係るクライアント装置を介して、共通の伴奏オーディオファイルを用いて、他の人またはスターと一緒に歌うカラオケ体験を得ることができる。
図2は、本発明の別の実施形態に係るオーディオ処理方法を示す。本実施形態では、オーディオ処理方法を実行する主要素としてサーバーを挙げているが、他の主要素によって、本実施形態のオーディオ処理方法を実行してもよい。
ステップ201では、サーバーが、歌の伴奏オーディオファイル、原曲オーディオファイル、および対応の歌詞ファイルを取得する。歌の伴奏オーディオファイル、原曲オーディオファイル、および対応の歌詞ファイルについては上で詳細に説明しているので、ここでは繰り返して説明しない。
ステップ202では、サーバーが、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得し、歌詞分割情報を形成する。
サーバーは、以下に例示する複数の方法で、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得するように構成することができる。第1の方法では、サーバーが、時間情報に基づいて歌詞ファイルの段落情報を決定し、次に、この段落情報に基づいて、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得する。
第2の方法では、サーバーが、歌詞ファイルのバース部分とリフレイン部分を決定し、次に、バース部分を第1歌詞部分、リフレイン部分を第2歌詞部分と決定するか、或いは、リフレイン部分を第1歌詞部分、バース部分を第2歌詞部分と決定する。
第3の方法では、サーバーが、カスタムテンプレートに基づいて歌詞ファイルを分割して、第1歌詞部分と第2歌詞部分を取得する。
歌詞ファイルを分割する複数の方法については上で説明しているので、ここでは詳細に説明しない。複数の方法の詳細な説明については、ステップ103に関連する説明を参照されたい。
サーバーは、ステップ202を実行する前に、クライアント装置によって送信され、ユーザーが指定する分割方法を示す分割指示を受信した上で、この分割指示に基づいて、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得するように構成することができる。このように、ユーザーは、歌詞分割方法を選択し、自身が希望する形で第1歌詞部分と第2歌詞部分を取得することができる。
実施形態では、サーバーは、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得した後、その分割結果を記録して対応の歌詞分割情報を形成する。歌詞分割情報は、第1歌詞部分を識別する識別情報を含んでいる。歌詞は2つの歌詞部分からなるので、サーバーまたはクライアント装置は、第1歌詞部分を識別する識別情報を取得すると、第2歌詞部分も識別することができる。勿論、歌詞分割情報は、第2歌詞部分を識別する識別情報を含んでいてもよい。
ステップ203では、サーバーが、第1歌詞部分の表示時間中に伴奏オーディオファイルを出力(または選択)し、第2歌詞部分の表示時間中に原曲オーディオファイルを出力(または選択)して、対象オーディオファイルを形成する。
対象オーディオファイルを形成する過程において、第1歌詞部分の表示時間中に、対応する時間間隔の伴奏オーディオファイルのオーディオデータが取得され、第2歌詞部分の表示時間中に、対応する時間間隔の原曲オーディオファイルのオーディオデータが取得され、次に、各オーディオデータが切替点において、時系列順に1つのオーディオファイルに統合されて対象オーディオファイルが形成される。また、対象オーディオファイルを形成する過程において、伴奏オーディオファイルのオーディオデータが出力される時間と、原曲オーディオファイルのオーディオデータが出力される時間は、歌詞の表示時間に基づいて決定される。したがって、対象オーディオファイルを再生すると、第1歌詞部分の表示時間中に、対応する時間間隔の伴奏オーディオが出力され、第2歌詞部分の表示時間中に、対応する時間間隔の原曲オーディオが出力される。すなわち、対象オーディオファイルは、伴奏オーディオと原曲オーディオ間で自動的に切り替わることができる。
上記方法は、サーバーによって、対象オーディオファイルのオーディオデータに対し、その切替点において平衡処理を行うステップをさらに含んでいてもよい。切替点とは、第1歌詞部分の表示時間から第2歌詞部分の表示時間に切り替わる時点、または、第2歌詞部分の表示時間から第1歌詞部分の表示時間に切り替わる時点を意味するが、2つのオーディオファイル同士を接合することで対象オーディオファイルが形成されるため、この切替点(接合点)において平衡処理を行うことで、対象オーディオファイルのオーディオ品質を確保することができる。実施形態では、平衡処理を行う方法として、平均フィルタ処理や重ね合せ処理といった従来のオーディオ接合技術を用いることができる。
ステップ204では、サーバーが、対象オーディオファイルと対象歌詞ファイルをクライアント装置に送信する。
サーバーが、クライアント装置によって送信されたリクエスト(例えば、カラオケリクエスト)を受信すると、対象オーディオファイルと対象歌詞ファイルをクライアント装置に送信して、クライアント装置が、対象オーディオファイルを伴奏オーディオとして、対象歌詞ファイルを歌詞として再生することでカラオケサービスをユーザーに提供する。対象歌詞ファイルは、歌詞分割情報を含む歌詞ファイルに基づいて取得される。実施形態では、クライアント装置が、対象オーディオデータを再生すると、第1歌詞部分の表示時間中に、対応する時間間隔の伴奏オーディオを出力し、第2歌詞部分の表示時間中に、対応する時間間隔の原曲オーディオを出力することで、対象の歌が、第1歌詞部分の表示時間中にユーザーによって歌われ、第2歌詞部分の表示時間中に他の人(またはスター)によって歌われるため、他の人またはスターと一緒に歌うカラオケ体験を得ることができる。実施形態では、サーバーが、対象オーディオファイルと対象歌詞ファイルを形成し、対象オーディオファイルと対象歌詞ファイルをクライアント装置に送信することで、クライアント装置のロジックを変更せずに、他の人またはスターと一緒に歌うカラオケ体験を得ることができる。
従来技術と比較すると、本発明の実施形態では、サーバーからクライアント装置に送信される対象オーディオファイルは、第1歌詞部分の表示時間に対応する伴奏オーディオと、第2歌詞部分の表示時間に対応する原曲オーディオとからなる。伴奏オーディオファイルがクライアント装置に直接提供される従来技術と比較すると、実施形態では、対象の歌が、第1歌詞部分の表示時間中にユーザーによって歌われ、第2歌詞部分の表示時間中に他の人またはスターによって歌われるので、他の人またはスターと一緒に歌うカラオケ体験を得ることができる。
図3は、ステップ301~307を備えた本発明の別の実施形態に係るオーディオ処理方法を示す。
ステップ301では、サーバーが、歌の伴奏オーディオファイル、原曲オーディオファイル、および歌詞ファイルを取得する。
ステップ302では、サーバーが、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得する。
ステップ303では、サーバーが、第1歌詞部分の表示時間中に伴奏オーディオファイルを出力し、第2歌詞部分の表示時間中に原曲オーディオファイルを出力して、対象オーディオファイルを形成する。
ステップ304では、サーバーが、対象オーディオファイルと対象歌詞ファイルをクライアント装置に送信する。
ステップ301~304は、図2の実施形態のステップ201~204と類似しているため、ここでは詳細に説明しない。
ステップ305では、クライアント装置が、対象オーディオファイルと対象歌詞ファイルを再生する。
具体的に言うと、クライアント装置が、サーバーによって送信される対象オーディオファイルと対象歌詞ファイルを受信した後、クライアント装置内のカラオケアプリケーションが、対象オーディオファイルと対象歌詞ファイルを再生する。対象オーディオファイルは伴奏オーディオとして再生される。
ステップ306では、クライアント装置が、歌詞分割情報に基づいて、第1歌詞部分の表示時間中にユーザーのオーディオデータを録音する。
実施形態では、クライアント装置は、歌詞分割情報に基づいて、第1歌詞部分の表示時間と第2歌詞部分の表示時間を識別し、第1歌詞部分の表示時間中にユーザーのオーディオデータを録音し、第2歌詞部分の表示時間中に録音を停止することが可能であり、録音停止時、クライアント装置が再生する対象オーディオファイルは、他の人またはスターによって歌われる。したがって、対象の歌が、第1歌詞部分の表示時間中にユーザーによって歌われ、第2歌詞部分の表示時間中に他の人またはスターによって歌われるので、他の人またはスターと一緒に歌うカラオケ体験を得ることができる。
ステップ307では、クライアント装置が、ユーザーのオーディオデータを、対象オーディオファイルと混合して、合唱ファイルを取得する。
実施形態では、取得された合唱ファイルは、第1歌詞部分の表示時間中にユーザーが歌うオーディオデータと、第2歌詞部分の表示時間中に他の人またはスターが歌うオーディオデータ(すなわち、対応する時間間隔の原曲オーディオファイルのオーディオデータ)とからなる。実施形態では、ユーザーは、クライアント装置を介して合唱ファイルをネットワーク上にアップロードして、他の人またはスターと一緒に歌う合唱を共有することができる。
図4は、ステップ401~405を備えた本発明の別の実施形態に係るオーディオ処理方法を示す。
ステップ401では、第1クライアント装置が、第1ユーザーの第1リクエストを受信する。
第1リクエストは、例えば、合唱開始の第1合唱リクエストであってもよい。例えば、実際の用途において、第1合唱リクエストに対応するボタンを、第1クライアント装置に設けて、第1ユーザーがこのボタンを押すと、第1クライアント装置が、第1合唱リクエストを受信するようにしてもよい。
ステップ402では、第1クライアント装置が、第1リクエストに基づいて、歌の伴奏オーディオファイルと歌詞ファイルをサーバーから取得し、伴奏オーディオファイルと歌詞ファイルの歌詞の一部に基づいて第1ユーザーが録音することで、第1録音ファイルを取得する。伴奏オーディオファイル、原曲オーディオファイル、および歌詞ファイルについては上で詳細に説明しているので、ここでは説明しない。
クライアント装置は、伴奏オーディオファイルと歌詞ファイルを取得した後、伴奏オーディオファイルと歌詞ファイルを再生する。第1ユーザーは、自身が歌う歌詞の部分として、歌詞のどの部分を選択してもよいが、勿論、歌詞のすべてを歌うわけではない。クライアント装置は、伴奏オーディオと歌詞ファイルの歌詞の一部に基づいて、第1ユーザーが歌う歌を録音して、第1録音ファイルを取得する。
ステップ403では、第1クライアント装置が、第1録音ファイルに基づいて第2歌詞部分を決定し、段落情報を形成する。
第2歌詞部分は、第1ユーザーが歌った歌詞部分を参照して決まる。第1クライアント装置は、第1録音ファイルに基づいて、第1ユーザーが歌った歌詞部分を識別し、対応する段落情報を形成する。段落情報は、第1ユーザーが歌った歌詞部分を記録するために、第2歌詞部分を識別する識別情報を含んでいる。
識別情報は、第2歌詞部分の表示時間、例えば、開始時間が10秒、終了時間が15秒からなる第2歌詞部分の表示時間を含んでいてもよい。或いは、識別情報は、第2歌詞部分を識別するセンテンス識別子、例えば、第2歌詞部分が第1センテンス、第3センテンス、および第5センテンスであると識別するセンテンス識別子を含んでいてもよい。第1クライアント装置が識別情報に基づいて第2歌詞部分を識別できるのであれば、識別情報の種類は上記に限定されない。
第1クライアント装置は、複数の方法で、第2歌詞部分を決定するように構成することができる。例えば、第1クライアント装置は、第1録音ファイル内の音声の有効性に基づいて、第1ユーザーが歌った歌詞部分を第2歌詞部分と決定するように構成することができる。
具体的に言うと、第1クライアント装置は、歌詞の一部分に対応する第1ユーザーの録音された音声が有効であるか否かを判断し、この音声が有効であると決定した場合、歌詞のこの部分を第2歌詞部分と決定する。
第1クライアント装置は、歌詞の上記部分に対応する第1ユーザーの録音された音声の音量が第1所定値より大きいか否か判断し、この音量が第1所定値より大きいと決定した場合、上記の録音された音声が有効であると決定するように構成することができる。VDAアルゴリズムまたはその改良されたアルゴリズムを参照されたい。
第1クライアント装置が、歌詞の上記部分に対応する第1ユーザーの録音された音声が有効であると決定した後、この録音された音声が占める時間が、歌詞の上記部分が占める表示時間と一致するか否かさらに判断して歌詞の上記部分が占める表示時間と一致すると決定した場合、歌詞の上記部分を第2歌詞部分と決定することが好ましい。
例えば、歌詞内の一センテンスを一単位として、歌詞内のある一センテンスに対応する録音された音声が有効であると決定された後、この録音された音声が占める時間が20〜30秒であり、歌詞内の上記一センテンスが占める表示時間も20〜30秒である場合、歌詞内の上記一センテンスが第2歌詞部分と決定される。具体的に言うと、閾値を設定し、歌詞内の上記一センテンスが占める時間と、歌詞内の上記一センテンスが占める時間が重なる部分がこの閾値より大きい場合、歌詞内の上記一センテンスが占める時間を、歌詞内の上記一センテンスが占める時間と一致すると決定する。
実施形態では、他の方法で第2歌詞部分を決定してもよく、第2歌詞部分の決定方法は限定されない。実際の用途において、第1クライアント装置は、上記の決定方法を用いて、リアルタイムオーディオ検知モジュール(real−time audio detection module)を介して、第2歌詞部分を決定するように構成することができる。
ステップ404では、第1クライアント装置が、第1録音ファイルを伴奏オーディオファイルと混合して、対象オーディオファイルを取得する。
上記の混合処理は従来の混合アルゴリズムを用いて行うことができる。例えば、対応するサンプリング点のデータを直接加算して和を取得し、その和を2で割ることで行う。
前記方法は、第1録音ファイルにおいて、第2歌詞部分以外の歌詞部分に対応する、有効でないと決定された音声またはノイズが含まれないようにするために、ステップ404の前に、以下のステップをさらに備えていてもよい。
第1クライアント装置は、段落情報に基づいて、第2歌詞部分以外の歌詞部分に対応する第1録音ファイルのオーディオデータを消去する。したがって、取得される第1録音ファイルは、第2歌詞部分の表示時間内のオーディオデータのみ、すなわち、第1ユーザーが歌う有効な音声のみを含んでいる。
ステップ405では、第1クライアント装置が、対象オーディオファイルと段落情報をサーバーに送信し、第2クライアント装置が、対象オーディオファイルと段落情報をサーバーから取得して、段落情報に基づいて、対象オーディオファイルを伴奏オーディオとして使用することで、カラオケサービスを第2ユーザーに提供する。
このように、第2クライアント装置は、対象オーディオファイルと段落情報をサーバーから取得して、対象オーディオファイルを伴奏オーディオとして使用することで、段落情報に基づいて、カラオケサービスを第2ユーザーに提供することができる。具体的に言うと、第2ユーザーは、段落情報に基づいて、既に歌われている歌詞部分を判断した上で、まだ歌われていない歌詞部分を歌うことができる。
実施形態の方法は、第1クライアント装置によって、第1ユーザーが使用するサウンドエフェクトパラメータ(sound effect parameter)を含む構成ファイルを形成するステップと、第1クライアント装置によって、構成ファイルをサーバーに送信して、第2クライアント装置によって、対象オーディオファイルを伴奏オーディオとして使用することで、さらに、段落情報と構成ファイルに基づいて、カラオケサービスを第2ユーザーに提供するステップとをさらに含んでもよい。サウンドエフェクトパラメータとして、反響パラメータ(reverberation parameter)、トーン変化パラメータ(tone variation parameter)、サウンド美化パラメータ(sound landscaping parameter)などを挙げることができる。
従来技術と比較すると、本発明の実施形態にかかる対象オーディオファイルは、第2歌詞部分の表示時間中にのみ第1ユーザーによって歌われるオーディオと、第2歌詞部分以外の歌詞部分に対応する伴奏オーディオを含んでいるため、第2クライアント装置が、対象オーディオファイルを伴奏オーディオとして使用することで、段落情報に基づいて、第2歌詞部分以外の歌詞部分が第2ユーザーによって歌われる。このように、対象の歌が、第2歌詞部分の表示時間中に第1ユーザーによって歌われ、第2の歌詞部分以外の歌詞部分の表示時間中に第2ユーザーによって歌われることで、他の人と一緒に歌うカラオケ体験を得ることができる。
図5は、ステップ501~508を備えた本発明の別の実施形態に係るオーディオ処理方法を示す。
ステップ501では、第1クライアント装置が、第1ユーザーの第1リクエストを受信する。
ステップ502では、第1クライアント装置が、第1リクエストに基づいて、歌の伴奏オーディオファイルと歌詞ファイルをサーバーから取得し、伴奏オーディオファイルと歌詞ファイルの歌詞の一部に基づいて第1ユーザーによる録音が行われて、第1録音ファイルを取得する。
ステップ503では、第1クライアント装置が、第1録音ファイルに基づいて第2歌詞部分を決定し、対応する段落情報を形成する。
ステップ504では、第1クライアント装置が、第1録音ファイルを伴奏オーディオファイルと混合して、対象オーディオファイルを取得する。
ステップ505では、第1クライアント装置が、対象オーディオファイルと段落情報をサーバーに送信し、第2クライアント装置が、対象オーディオファイルと段落情報をサーバーから取得して、対象オーディオファイルを伴奏オーディオとして使用することで、段落情報に基づいてカラオケサービスを第2ユーザーに提供する。
ステップ501~505は、図4の実施形態のステップ401~405と類似しているため、ここでは詳細に説明しない。
ステップ506では、第2クライアント装置が、第2ユーザーによって送信された第2リクエストを受信する。
第2リクエストは、合唱への参加を促すために、合唱に参加するようリクエストするために使用される。例えば、実際の用途において、第2合唱リクエストに対応するボタンを、第2クライアント装置に設けて、第2ユーザーがこのボタンを押すと、第2クライアント装置が第2合唱リクエストを受信するようにしてもよい。
ステップ507では、第2クライアント装置が、第2リクエストに基づいて、対象オーディオファイル、歌詞ファイル、および段落情報をサーバーから取得し、対象オーディオファイルを伴奏オーディオとして使用することで、さらに、段落情報と、歌詞の、第2歌詞部分以外のすべてまたは一部の歌詞部分とに基づいて第2ユーザーによる録音が行われて、第2録音ファイルを取得する。
第2クライアント装置は、第2リクエストを受信すると、まず、対象オーディオファイル、歌詞ファイル、および段落情報をサーバーから取得し、次に、対象オーディオファイルと歌詞ファイルを再生する。第2ユーザーが、歌詞の、第2歌詞部分以外のすべてまたは一部の歌詞部分に基づいて歌を歌い、第2クライアント装置が、対象オーディオファイルを伴奏オーディオとして使用することで、さらに、段落情報と、歌詞の、第2歌詞部分以外のすべてまたは一部の歌詞部分とに基づいて、第2ユーザーが歌う歌を録音して、第2録音ファイルを取得する。第2ユーザーが、歌詞の、第2歌詞部分以外のすべての歌詞部分ではなく一部の歌詞部分に基づいて歌を歌う場合、歌詞の別の部分を、さらに他のユーザーが歌うようにしてもよい。
第1クライアント装置が構成ファイルをサーバーに送信することで、構成ファイルがサーバー上に存在する場合、以下のようにステップ507を実行してもよい。すなわち、ステップ507において、第2クライアント装置が、歌の対象オーディオファイル、歌詞ファイル、段落情報、および構成ファイルをサーバーから取得し、対象オーディオファイルを伴奏オーディオとして使用することで、さらに、段落情報と、構成ファイルと、歌詞の、第2歌詞部分以外のすべてまたは一部の歌詞部分とに基づいて、第2ユーザーによる録音が行われて、第2録音ファイルを取得する。実際の用途において、クライアント装置は、構成ファイル内のサウンドエフェクトパラメータに基づいてパラメータを構成し、このように構成されたパラメータを、第2ユーザーが選択できるように第2ユーザーに送信するように構成することができる。ユーザーは、必要に応じて、パラメータの構成を変更してもよい。
ステップ508では、第2クライアント装置が、第2録音ファイルを対象オーディオファイルと混合して、混合オーディオファイルを取得する。
上記の混合処理は従来の混合アルゴリズムを用いて行うことができる。例えば、対応するサンプリング点のデータを直接加算して和を取得し、その和を2で割ることができる。
混合オーディオファイルは、第2の歌詞部分では第1ユーザーによって歌われ、歌詞の、第2歌詞部分以外のすべてまたは一部の歌詞部分では第2ユーザーによって歌われるため、二人のユーザーが一緒に歌うカラオケ体験を得ることができる。
実施形態の方法は、第2録音ファイルにおいて、第2歌詞部分以外の歌詞部分に対応する、有効でないと決定された音声またはノイズが含まれないようにするために、ステップ508の前に、第2クライアント装置が、段落情報に基づいて、第2歌詞部分に対応する第1録音ファイルのオーディオデータを消去するステップをさらに備えていてもよい。
ここまで、本発明の実施形態に係るオーディオ処理方法について説明したが、以下、本発明の実施形態に係るオーディオ処理装置について説明する。図6に示すように、本発明の実施形態に係るオーディオ処理装置は、第1受信ユニット601、第1取得ユニット602、第1処理ユニット603、および第1混合ユニット604を備えている。
第1受信ユニット601は、ユーザーのリクエストを受信するように構成されている。
第1取得ユニット602は、ユーザーのリクエストに基づいて、歌のオーディオファイルと、歌詞表示時間を識別する時間情報を含む対応の歌詞ファイルとを取得するように構成されている。歌のオーディオファイルは、例えば、歌の伴奏オーディオファイルと原曲オーディオファイルを含んでもよい。
第1処理ユニット603は、歌詞ファイルの第1歌詞部分と第2歌詞部分の表示時間中にオーディオファイルを再生し、第1歌詞部分の表示時間中にユーザーのオーディオデータを録音するように構成されている。第1処理ユニット603は、歌詞ファイルを分割して、第1歌詞部分と第2歌詞部分を取得するようにさらに構成することができる。
取得された歌のオーディオデータが、歌の伴奏オーディオファイルと原曲オーディオファイルを含む場合、第1処理ユニット603は、第1歌詞部分の表示時間中に、伴奏オーディオファイルを再生してユーザーのオーディオデータを録音し、第2歌詞部分の表示時間中に原曲オーディオファイルを再生する。
第1混合ユニット604は、ユーザーのオーディオデータを、第1歌詞部分の表示時間に対応するオーディオファイルのオーディオデータと混合して、混合オーディオファイルを取得するように構成されている。オーディオファイルが、伴奏オーディオファイルと原曲オーディオファイルを含む場合、第1混合ユニット604は、ユーザーのオーディオデータを、第1歌詞部分の表示時間に対応する伴奏オーディオファイルのオーディオデータと混合するように構成されている。
本発明を十分に理解できるように、以下、本実施形態のオーディオ処理装置の内部の作動フローについて具体的なシナリオを例に挙げて説明する。
第1受信ユニット601は、ユーザーによって入力されたカラオケリクエストを受信する。第1取得ユニット602は、ユーザーのカラオケリクエストに基づいて、歌の伴奏オーディオファイルと、原曲オーディオファイルと、歌詞表示時間を識別する時間情報を含む歌詞ファイルとを取得する。第1処理ユニット603は、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得し、第1歌詞部分の表示時間中に、伴奏オーディオファイルを再生してユーザーのオーディオデータを録音し、第2歌詞部分の表示時間中に原曲オーディオファイルを再生する。
本発明の実施形態に係る技術的解決策によると、第1受信ユニット601がユーザーによって入力されたカラオケリクエストを受信すると、クライアント装置の第1取得ユニット602が、ユーザーのカラオケリクエストに基づいて、歌の伴奏オーディオファイルと、原曲オーディオファイルと、歌詞表示時間を識別する時間情報を含む対応の歌詞ファイルとを取得する。第1処理ユニット603が歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得し、第1歌詞部分の表示時間中に、伴奏オーディオファイルを再生してユーザーのオーディオデータを録音し、第2歌詞部分の表示時間中に原曲オーディオファイルを再生する。次に、録音されたユーザーのオーディオデータが、第1歌詞部分の表示時間に対応する伴奏オーディオファイルのオーディオデータと混合されて、混合オーディオファイルが取得され、第1歌詞部分の表示時間中に混合オーディオファイルが出力され、第2歌詞部分の表示時間中に原曲オーディオファイルが出力されて合唱ファイルが形成される。このように、従来技術と比較すると、本発明の実施形態では、クライアント装置が、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得し、第1歌詞部分の表示時間中にのみ、伴奏オーディオファイルを再生してユーザーのオーディオデータを録音し、第2歌詞部分の表示時間中に原曲オーディオファイルを再生することで、対象の歌が、第1歌詞部分の表示時間中にユーザーによって歌われ、第2歌詞部分の表示時間中にスターによって歌われるので、スタート一緒に歌うカラオケ体験を得ることができる。
本発明の実施形態に係るオーディオ処理装置は、第1形成ユニット605をさらに備えていてもよい。
第1形成ユニット605は、第1歌詞部分の表示時間中に混合オーディオファイルを出力(または選択)し、第2歌詞部分の表示時間中にオーディオファイルを出力(または選択)して合唱ファイルを形成するように構成されている。オーディオファイルが、伴奏オーディオファイルと原曲オーディオファイルを含む場合、第2歌詞部分の表示時間中に原曲オーディオファイルが出力(または選択)されて、合唱ファイルが形成される。
第1受信ユニット601は、ユーザーの分割指示を受信するようにさらに構成することができる。第1処理ユニット603は、ユーザーの分割指示に基づいて、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得するように構成することができる。
第1処理ユニット603は、音声が入力されているか否かを検知し、音声の入力があると検知した場合、それに対応する表示時間の歌詞ファイルの歌詞部分を第1歌詞部分として決定した上で、伴奏オーディオファイルを再生してユーザーのオーディオデータを録音し、音声の入力がないと検知した場合、それに対応する表示時間の歌詞ファイルの歌詞部分を第2歌詞部分として決定した上で、原曲オーディオファイルを再生するように構成することができる。
オーディオ処理装置は、クライアント装置上に表示される第1歌詞部分を第1識別子で識別し、クライアント装置上に表示される第2の歌詞部分を第2識別子で識別するように構成された識別ユニットをさらに備えてもよい。
オーディオ処理装置は、合唱ファイルのオーディオデータに対し、その切替点において平衡処理を行うように構成された第1平衡処理ユニットをさらに備えてもよい。切替点とは、第1歌詞部分の表示時間から第2歌詞部分の表示時間に切り替わる時点、または、第2歌詞部分の表示時間から第1歌詞部分の表示時間に切り替わる時点を意味する。
図7に示すように、本発明の別の実施形態に係るオーディオ処理装置は、第2取得ユニット701、第2処理ユニット702、第2形成ユニット703、および第1送信ユニット704を備えている。
第2取得ユニット701は、歌の伴奏オーディオファイルと、原曲オーディオファイルと、歌詞表示時間を識別する時間情報を含む対応の歌詞ファイルとを取得するように構成されている。
第2処理ユニット702は、歌詞ファイルを分割して第1歌詞部分と第2歌詞部分を取得し、第1歌詞部分を識別する識別情報を含む対応の歌詞分割情報を形成するように構成されている。
第2形成ユニット703は、第1歌詞部分の表示時間中に伴奏オーディオファイルを出力(または選択)し、第2歌詞部分の表示時間中に原曲オーディオファイルを出力(または選択)して対象オーディオファイルを形成するように構成されている。
第1送信ユニット704は、(例えば、クライアント装置によって送信されたカラオケリクエストを受信すると、)対象オーディオファイルと対象歌詞ファイルをクライアント装置に送信するように構成されており、この送信によって、クライアント装置は、対象オーディオファイルを伴奏オーディオとして、対象歌詞ファイルを歌詞として再生することで、カラオケサービスをユーザーに提供する。対象歌詞ファイルは、歌詞分割情報を含む歌詞ファイルを介して取得される。
従来技術と比較すると、本発明の実施形態では、サーバー内のオーディオ処理装置からクライアント装置に送信される対象オーディオファイルは、第1歌詞部分の表示時間に対応する伴奏オーディオと、第2歌詞部分の表示時間に対応する原曲オーディオとからなる。伴奏オーディオファイルがクライアント装置に直接提供される従来技術と比較すると、本発明の実施形態では、対象の歌が、第1歌詞部分の表示時間中にユーザーによって歌われ、第2歌詞部分の表示時間中にスターによって歌われるので、スターと一緒に歌うカラオケ体験を得ることができる。
第2処理ユニット702は、時間情報に基づいて歌詞ファイルの段落情報を決定し、この段落情報に基づいて歌詞ファイルを分割して、第1歌詞部分と第2歌詞部分を取得するように構成することができる。
第2処理ユニット702は、歌詞ファイルのバース部分とリフレイン部分を決定し、次に、バース部分を第1歌詞部分、リフレイン部分を第2歌詞部分と決定するか、或いは、リフレイン部分を第1歌詞部分、バース部分を第2歌詞部分と決定するように構成することができる。
第2処理ユニット702は、カスタムテンプレートに基づいて歌詞ファイルを分割して、第1歌詞部分と第2歌詞部分を取得するように構成することができる。
上記のオーディオ処理装置は、対象オーディオファイルのオーディオデータに対し、その切替点において平衡処理を行うように構成された第2平衡処理ユニットをさらに備えてもよい。切替点とは、第1歌詞部分の表示時間から第2歌詞部分の表示時間に切り替わる時点、または、第2歌詞部分の表示時間から第1歌詞部分の表示時間に切り替わる時点を意味する。
図8に示すように、本発明の別の実施形態に係るオーディオ処理装置は、第2受信ユニット801、第3取得ユニット802、第3処理ユニット803、第2混合ユニット804、および第2送信ユニット805を備えている。
第2受信ユニット801は、第1ユーザーの第1リクエストを受信するように構成されている。
第3取得ユニット802は、第1リクエストに基づいて、歌の伴奏オーディオファイルと歌詞ファイルをサーバーから取得し、伴奏オーディオファイルと歌詞ファイルの歌詞の一部に基づいて第1ユーザーによる録音が行われて、第1録音ファイルを取得するように構成されている。
第3処理ユニット803は、第1録音ファイルに基づいて第2歌詞部分を決定し、少なくとも第2歌詞部分を識別する識別情報を含む対応の段落情報を形成するように構成されている。
第2混合ユニット804は、第1録音ファイルを伴奏オーディオファイルと混合して、対象オーディオファイルを取得するように構成されている。
第2送信ユニット805は、対象オーディオファイルと段落情報をサーバーに送信するように構成されており、この送信によって、第2クライアント装置が、対象オーディオファイルと段落情報をサーバーから取得して、対象オーディオファイルを伴奏オーディオとして使用することで、さらに、段落情報に基づいて、カラオケサービスを第2ユーザーに提供する。
図9に示すように、本発明の実施形態に係るオーディオ処理システムは、サーバー901とクライアント装置902を備えている。本発明の上記実施形態に係るオーディオ処理方法は、オーディオ処理システムのサーバーおよび/またはクライアント装置によって実行されてもよい。
本発明の実施形態では、サーバー901は、図7の実施形態のオーディオ処理装置を含んでいてもよい。
本発明の実施形態では、クライアント装置902は、図6の実施形態のオーディオ処理装置を含んでいてもよい。
図10に示すように、本発明の別の実施形態に係るオーディオ処理システムは、第1クライアント装置1001、第2クライアント装置1002、およびサーバー1003を備えている。
第1クライアント装置1001は、第1ユーザーから第1リクエスト、例えば、合唱開始の第1リクエストを受信し、第1リクエストに基づいて、歌の伴奏オーディオファイルと歌詞ファイルをサーバー1003から取得し、伴奏オーディオファイルと歌詞ファイルの歌詞の一部に基づいて第1ユーザーによる録音が行われて、第1録音ファイルを取得し、第1録音ファイルに基づいて第2歌詞部分を決定し、対応の段落情報を形成するように構成されている。第2歌詞部分は、第1ユーザーが歌った歌詞部分であり、段落情報は、第2歌詞部分を識別する識別情報を含んでいる。第1クライアント装置1001は、第1録音ファイルを伴奏オーディオファイルと混合して、対象オーディオファイルを取得し、対象オーディオファイルと段落情報をサーバー1003に送信するようにさらに構成されており、この送信により、第2クライアント装置が、対象オーディオファイルと段落情報をサーバー1003から取得して、対象オーディオファイルを伴奏オーディオとして使用することで、さらに、段落情報に基づいて、カラオケサービスを第2ユーザーに提供することができる。
第2クライアント装置1002は、対象オーディオファイルと段落情報をサーバー1003から取得して、対象オーディオファイルを伴奏オーディオファイルとして使用することで、さらに、段落情報に基づいて、カラオケサービスを第2ユーザーに提供するように構成されている。
第1クライアント装置1001は、歌詞のある部分に対応する第1ユーザーの録音された音声が有効であるか否かを判断し、この音声が有効であると決定した場合、それに対応する歌詞の上記部分を第2歌詞部分と決定するように構成することができる。
さらに第1クライアント装置1001は、歌詞の上記部分に対応する第1ユーザーの録音された音声の音量が所定値より大きいか否か判断し、この音量が所定値より大きいと決定した場合、上記の録音された音声が有効であると決定するように構成してもよい。
さらに第1クライアント装置1001は、歌詞のある部分に対応する第1ユーザーの録音された音声が有効であるか否か判断して有効であると決定した後、この録音された音声が占める時間が、歌詞の上記部分が占める表示時間と一致するか否かをさらに判断して歌詞のこの部分が占める表示時間と一致すると決定した場合、歌詞のこの部分を第2歌詞部分と決定するように構成してもよい。
またさらに第1クライアント装置1001は、第1録音ファイルを伴奏オーディオファイルと混合して、対象オーディオファイルを取得する前に、段落情報に基づいて、第2歌詞部分以外の歌詞部分に対応する第1録音ファイルのオーディオデータを消去するように構成することができる。
識別情報は、第2歌詞部分の表示時間、または、第2歌詞部分を識別するセンテンス識別子を含んでもよい。
さらに第1クライアント装置1001は、対象オーディオファイルと段落情報をサーバーに送信する前に、第1ユーザーが使用するサウンドエフェクトパラメータを含む構成ファイルを形成し、この構成ファイルをサーバーに送信するように構成することができる。
第2クライアント装置1002は、合唱へ参加するようリクエストするために第2ユーザーが送信する第2リクエストを受信し、第2リクエストに基づいて、歌の対象オーディオファイル、歌詞ファイル、および段落情報をサーバーから取得し、対象オーディオファイルを伴奏オーディオとして使用することで、さらに、段落情報と、歌詞の、第2歌詞部分以外のすべてまたは一部の歌詞部分とに基づいて第2ユーザーによる録音が行われて、第2録音ファイルを取得し、第2録音ファイルを対象オーディオファイルと混合して混合オーディオファイルを取得するようにさらに構成することができる。
第2クライアント装置1002は、第2録音ファイルを対象オーディオファイルと混合して、混合オーディオファイルを取得する前に、段落情報に基づいて、第2歌詞部分に対応する第1録音ファイルのオーディオデータを消去するようにさらに構成することができる。
サーバーが構成ファイルを含んでいる場合、第2クライアント装置1002は、歌の対象オーディオファイル、歌詞ファイル、段落情報、および構成ファイルを取得し、対象オーディオファイルを伴奏オーディオとして使用することで、さらに、段落情報と、構成ファイルと、歌詞の、第2歌詞部分以外のすべてまたは一部の歌詞部分とに基づいて第2ユーザーによる録音が行われて、第2録音ファイルを取得するようにさらに構成することができる。
第2クライアント装置は、合唱へ参加するようリクエストするために、さらに、歌詞の第2歌詞部分以外の歌詞部分のみの録音を行うよう指示するために、第2ユーザーが送信する第3リクエストを受信し、第3リクエストに基づいて、歌の対象オーディオファイル、歌詞ファイル、および段落情報をサーバーから取得し、対象オーディオファイルを伴奏オーディオとして使用することで、さらに、段落情報と、歌詞の第2歌詞部分以外の歌詞部分とに基づいて第2ユーザーによる録音が行われて、第3録音ファイルを取得し、第2ユーザーが歌った歌詞部分を第3歌詞部分と決定し、第3歌詞部分を識別する識別情報を段落情報に追加し、第3録音ファイルを対象オーディオファイルと混合して第3対象ファイルを取得し、第3対象ファイルと段落情報をサーバーに送信するようにさらに構成することができる。このような構成において、第3クライアント装置は、サーバーを介して、第3対象オファイルを伴奏オーディオとして使用することで、さらに、段落情報と、歌詞の第2および第3歌詞部分以外の歌詞部分とに基づいて第3ユーザーの歌を録音する。
図10の実施形態では、第2クライアント装置1002は、図1の実施形態のオーディオ処理方法を実行するように構成することができ、サーバー1003は、図2の実施形態のオーディオ処理方法を実行するように構成することができ、第1クライアント装置1001は、図4の実施形態のオーディオ処理方法を実行するように構成することができる。
さらに、本発明は、少なくとも1つのプロセッサと、プログラム命令を記憶したメモリを備えたオーディオ処理装置であって、プログラム命令をプロセッサによって実行することによって、上記のいずれかの実施形態の方法を行うことができるオーディオ処理装置を提供する。
さらに、本発明は、プログラム命令を記憶した、コンピュータで読取可能な記憶媒体を提供する。このプログラム命令をプロセッサで実行することにより、コンピューティング装置は上記のいずれかの実施形態の方法を行うことができる。
上記のシステム、装置、およびユニットの具体的な作動工程については、上記の方法に関する実施形態で説明した対応の工程を参照可能であることは当業者にとって明らかであり、説明の便宜上かつ説明を簡略するため、繰り返して説明しない。
本発明の複数の実施形態に係るシステム、装置、および方法は、別の形で実行/使用されてもよく、上で説明した装置の実施形態などは一例に過ぎない。例えば、上記のユニットはそのロジック機能に基づいてのみ分類されているが、実際の用途において別の形で分類されてもよい。例えば、複数のユニット/アセンブリを組み合わせてまたは統合して別のシステムを構成してもよい。或いは、一部の特徴を省略してもよいし、実行/使用しなくてもよい。さらに、ここで開示し説明した連結、直接連結、または通信接続は、インターフェース、装置またはユニットを介した間接的なものと置き換えてもよく、電気、機械または別の形によって実現されてもよい。
別々の構成要素として示した複数のユニットは、物理的に切り離されていてもいなくてもよい。また、ユニットとして示した各構成要素は、物理的なユニットであってもなくてもよい。すなわち、複数の構成要素は同じ場所に配置されてもよく、複数のネットワークユニットに分配されてもよい。本発明の実施形態に係る解決策を実現(本発明の目的を達成)するために、必要に応じて、複数のユニットの一部またはすべてを選択してもよい。
また、本発明の実施形態に係る種々の機能ユニットは、1つの処理ユニットに統合されてもよく、物理的に独立した(切り離された)ユニットであってもよい。或いは、種々の機能ユニットのうち、2つ以上のユニットを統合して1つのユニットとしてもよい。ハードウェアまたはソフトウェア機能ユニットによって、上記の統合ユニットを実行/使用することができる。
統合ユニットがソフトウェア機能ユニットによって実行され、1つの独立した製品として販売または使用される場合、コンピュータで読取可能な記憶媒体に統合ユニットを格納することができる。この理解に基づいて、本発明の技術的解決策は、本質的または部分的に従来技術に貢献する。また、コンピュータ装置(パーソナルコンピュータ、サーバー、またはネットワーク装置など)が、本発明の種々の実施形態に係る方法のステップのすべてまたは一部を実行するための複数の指令を含む、記憶媒体に記憶されたソフトウェア製品の形で、技術的解決策のすべてまたは一部を具体化することができる。上記の記憶媒体として、USBフラッシュディスク、モバイルハードディスク、読取専用メモリ(ROM,Read−Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、磁気ディスク、光ディスクといったプログラムコードを格納できる種々の媒体を挙げることができる。
上記の実施形態は、本発明の技術的解決策を説明するためのものに過ぎず、本発明を限定するものではない。本発明は、上記の実施形態を参照して詳細に説明されているが、上記の実施形態で説明した技術的解決策を修正すること、または、技術的特徴の一部に対して等価な置換えが可能である。このような修正や置換えを行った場合でも、対応する技術的解決策の本質は本発明の実施形態の精神および範囲から逸脱しない。

Claims (31)

  1. 歌のオーディオファイルおよび前記歌の歌詞ファイルを取得するステップと、
    前記歌詞ファイルの第1歌詞部分の表示時間中に、前記オーディオファイルを再生してユーザーのオーディオデータを録音するステップと、
    前記歌詞ファイルの第2歌詞部分の表示時間中に、前記オーディオファイルを再生するステップと、
    前記ユーザーの前記オーディオデータを、前記第1歌詞部分の表示時間に対応するオーディオファイルのオーディオデータと混合するステップとを含むオーディオ処理方法。
  2. 前記ユーザーの前記オーディオデータは、前記歌詞ファイルの前記第2歌詞部分の表示時間中に録音されない請求項1に記載の方法。
  3. 前記歌の前記オーディオファイルおよび前記歌の前記歌詞ファイルを取得する前記ステップの前に、前記ユーザーのリクエストを受信するステップをさらに含み、
    前記歌の前記オーディオファイルおよび前記歌詞ファイルを取得する前記ステップが、前記リクエストに基づいて、前記歌の伴奏オーディオファイル、原曲オーディオファイル、および前記歌詞ファイルを取得するステップである請求項1に記載の方法。
  4. 前記歌の前記オーディオファイルおよび前記歌詞ファイルを取得する前記ステップの後に、前記歌詞ファイルを分割して前記第1歌詞部分と前記第2歌詞部分を取得するステップをさらに含み、
    前記歌詞ファイルの前記第1歌詞部分の表示時間中に、前記オーディオファイルを再生して前記ユーザーの前記オーディオデータを録音する前記ステップが、前記第1歌詞部分の表示時間中に、前記伴奏オーディオファイルの再生と前記ユーザーの前記オーディオデータの録音を含み、
    前記歌詞ファイルの前記第2歌詞部分の前記表示時間中に、前記オーディオファイルを再生する前記ステップが、前記第2歌詞部分の表示時間中に、前記原曲オーディオファイルを再生するステップである請求項3に記載の方法。
  5. 前記ユーザーの前記オーディオデータを、前記第1歌詞部分の表示時間に対応するオーディオファイルのオーディオデータと混合する前記ステップが、前記ユーザーの前記オーディオデータを、前記第1歌詞部分の表示時間に対応する伴奏オーディオファイルのオーディオデータと混合するステップである請求項3に記載の方法。
  6. 混合オーディオファイルが前記の混合するステップで形成され、
    前記第1歌詞部分の表示時間に対応する前記混合オーディオファイルと、前記第2歌詞部分の表示時間に対応する前記原曲オーディオファイルとに基づいて、合唱ファイルを形成するステップをさらに含む請求項3に記載の方法。
  7. 前記ユーザーの分割指示を受信するステップと、
    前記ユーザーの前記分割指示に基づいて、前記歌詞ファイルを分割して前記第1歌詞部分及び前記第2歌詞部分を取得するステップとをさらに含む請求項1に記載の方法。
  8. 音声が入力されているか否かを検知するステップと、音声の入力があると検知した場合、前記歌詞ファイルのうち対応する表示時間の歌詞部分を第1歌詞部分と決定するか、或いは、音声の入力がないと検知した場合、前記歌詞ファイルのうち対応する表示時間の歌詞部分を第2歌詞部分と決定するステップをさらに含む請求項1に記載の方法。
  9. 混合オーディオファイルが前記の混合するステップで形成され、
    前記第1歌詞部分の表示時間に対応する前記混合オーディオファイルと、前記第2歌詞部分の表示時間に対応する前記歌のオーディオファイルとに基づいて、合唱ファイルを形成するステップをさらに含む請求項1に記載の方法。
  10. 前記合唱ファイルのオーディオデータに対し、切替点において平衡処理を行うステップをさらに含み、前記切替点は、前記第1歌詞部分の表示時間から前記第2歌詞部分の表示時間に切り替わる時点、または、前記第2歌詞部分の表示時間から前記第1歌詞部分の表示時間に切り替わる時点である請求項9に記載の方法。
  11. 前記歌の前記オーディオファイルおよび前記歌詞ファイルを取得する前記ステップの前に、
    前記歌の伴奏オーディオファイル、原曲オーディオファイル、および前記歌詞ファイルを取得するステップと、
    前記歌詞ファイルを分割して前記第1歌詞部分及び前記第2歌詞部分を取得し、少なくとも前記第1歌詞部分を識別する識別情報を含む歌詞分割情報を形成するステップと、
    前記第1歌詞部分の表示時間に対応する伴奏オーディオファイルと、前記第2歌詞部分の表示時間に対応する原曲オーディオファイルとに基づいて、前記歌の前記オーディオファイルを形成するステップとをさらに備えた請求項1に記載の方法。
  12. 前記歌の前記オーディオファイルおよび前記歌詞ファイルを取得する前記ステップは、歌詞分割情報を取得するステップをさらに含み、
    前記歌詞ファイルの前記第1歌詞部分の表示時間中に、前記オーディオファイルを再生して前記ユーザーの前記オーディオデータを録音する前記ステップは、前記歌詞分割情報に基づいて、前記第1歌詞部分の表示時間中に前記ユーザーの前記オーディオデータを録音するステップを含む請求項11に記載の方法。
  13. 前記歌詞ファイルは、歌詞表示時間を識別する時間情報を備え、
    前記時間情報に基づいて、前記歌詞ファイルの段落情報を決定するステップと、
    前記段落情報に基づいて、前記歌詞ファイルを分割して、前記第1歌詞部分及び前記第2歌詞部分を取得するステップとをさらに含む請求項1に記載の方法。
  14. 前記歌詞ファイルのバース部分とリフレイン部分を決定するステップと、
    前記バース部分を前記第1歌詞部分、前記リフレイン部分を前記第2歌詞部分と決定するか、又は、前記リフレイン部分を前記第1歌詞部分、前記バース部分を前記第2歌詞部分と決定するステップとをさらに含む請求項1に記載の方法。
  15. カスタムテンプレートに基づいて前記歌詞ファイルを分割して、前記第1歌詞部分及び前記第2歌詞部分を取得するステップをさらに含む請求項1に記載の方法。
  16. 前記歌の前記オーディオファイルおよび前記歌の前記歌詞ファイルを取得する前記ステップの前に、
    別のユーザーのリクエストを受信するステップと、
    前記別のユーザーの前記リクエストに基づいて、前記歌の伴奏オーディオファイルと前記歌詞ファイルを取得するステップと、
    前記伴奏オーディオファイルと前記歌詞ファイルの歌詞の一部とに基づいて、前記別のユーザーのオーディオデータを録音して、第1録音ファイルを取得するステップと、
    前記第1録音ファイルに基づいて前記第2歌詞部分を決定し、それに対応して少なくとも前記第2歌詞部分を識別する識別情報を含む段落情報を形成するステップと、
    前記第1録音ファイルを、前記伴奏オーディオファイルと混合して、前記歌の前記オーディオファイルを取得するステップとをさらに含む請求項1に記載の方法。
  17. 前記第1録音ファイルに基づいて前記第2歌詞部分を決定する前記ステップは、
    歌詞の一部分に対応する前記別のユーザーの録音された音声が有効であるか否か判断し、この録音された音声が有効であると決定した場合、歌詞の前記一部分を前記第2歌詞部分と決定するステップである請求項16に記載の方法。
  18. 前記別のユーザーによって使用されるサウンドエフェクトパラメータを含む構成ファイルを形成するステップをさらに備えた請求項16に記載の方法。
  19. 前記歌詞ファイルの前記第1歌詞部分の表示時間中に、前記オーディオファイルを再生して前記ユーザーの前記オーディオデータを録音する前記ステップは、前記歌のオーディオファイルを伴奏オーディオとして使用することで、さらに、前記段落情報と、前記構成ファイルと、前記歌詞ファイルの、前記第2歌詞部分以外の歌詞部分とに基づいてオーディオデータを録音するステップである請求項18に記載の方法。
  20. 少なくとも1つのプロセッサと、プログラム命令を記憶するメモリとを備えたオーディオ処理装置であって、
    前記プログラム命令を前記プロセッサによって実行することによって、請求項1から19のいずれか1つに記載の方法を行うことができるオーディオ処理装置。
  21. サーバーと、少なくとも1つのクライアント装置を備え、
    前記サーバーおよび/または前記クライアント装置は、請求項1から19のいずれか1つに記載の方法を実行するように構成されているオーディオ処理システム。
  22. 前記少なくとも1つのクライアント装置は、請求項1から10のいずれか1つに記載の方法を実行するように構成された第1クライアント装置を備えた請求項21に記載のシステム。
  23. 前記サーバーは、
    前記歌の伴奏オーディオファイル、原曲オーディオファイル、および歌詞ファイルを取得し、
    前記歌詞ファイルを分割して第1歌詞部分及び第2歌詞部分を取得し、少なくとも前記第1歌詞部分を識別する識別情報を含む対応の歌詞分割情報を形成し、
    前記第1歌詞部分の表示時間に対応する伴奏オーディオファイルと、前記第2歌詞部分の表示時間に対応する原曲オーディオファイルとに基づいて、前記歌の前記オーディオファイルを形成するように構成された請求項22に記載のシステム。
  24. 前記少なくとも1つのクライアント装置は第2クライアント装置をさらに備え、
    前記第2クライアント装置は、
    別のユーザーのリクエストを受信し、
    前記別のユーザーの前記リクエストに基づいて、前記歌の伴奏オーディオファイルおよび前記歌詞ファイルを取得し、
    前記伴奏オーディオファイルと、前記歌詞ファイルの歌詞の一部に基づいて前記別のユーザーのオーディオデータを録音して第1録音ファイルを取得し、
    前記第1録音ファイルに基づいて前記第2歌詞部分を決定し、前記第2歌詞部分を識別する識別情報を含む対応の段落情報を形成し、
    前記第1録音ファイルを前記伴奏オーディオファイルと混合して、前記歌の前記オーディオファイルを取得するように構成されている請求項23に記載のシステム。
  25. 歌のオーディオファイルおよび前記歌の歌詞ファイルを取得するように構成された第1取得ユニットと、
    前記歌詞ファイルの第1歌詞部分及び第2歌詞部分の表示時間中に前記オーディオファイルを再生し、前記歌詞ファイルの前記第1歌詞部分の表示時間中にユーザーのオーディオデータを録音するように構成された第1処理ユニットと、
    前記ユーザーの前記オーディオデータを、前記第1歌詞部分の表示時間に対応するオーディオファイルのオーディオデータと混合するように構成された第1混合ユニットと、を備えたオーディオ処理装置。
  26. 前記ユーザーのリクエストを受信するように構成された第1受信ユニットをさらに備え、
    前記第1取得ユニットは、前記ユーザーの前記リクエストに基づいて、前記歌の伴奏オーディオファイル、原曲オーディオファイル、および前記歌詞ファイルを取得するようにさらに構成されている請求項25に記載の装置。
  27. 前記第1処理ユニットは、
    前記歌詞ファイルを分割して前記第1歌詞部分及び前記第2歌詞部分を取得し、
    前記第1歌詞部分の表示時間中に、前記伴奏オーディオファイルを再生して前記ユーザーのオーディオデータを録音し、
    前記第2歌詞部分の表示時間中に前記原曲オーディオファイルを再生するようにさらに構成されている請求項26に記載の装置。
  28. 前記第1混合ユニットは、前記ユーザーの前記オーディオデータを、前記第1歌詞部分の表示時間に対応する伴奏オーディオファイルのオーディオデータと混合するようにさらに構成されている請求項26に記載の装置。
  29. 前記混合によって混合オーディオファイルが形成され、
    前記第1歌詞部分の表示時間に対応する前記混合オーディオファイルと、前記第2歌詞部分の表示時間に対応する原曲オーディオファイルとに基づいて、合唱ファイルを形成するように構成された第1形成ユニットをさらに備えた請求項25に記載の装置。
  30. 前記歌の伴奏オーディオファイル、原曲オーディオファイル、および前記歌詞ファイルを取得するように構成された第2取得ユニットと、
    前記歌詞ファイルを分割して前記第1歌詞部分と前記第2歌詞部分を取得し、少なくとも前記第1歌詞部分を識別する識別情報を含む歌詞分割情報を形成するように構成された第2処理ユニットと、
    前記第1歌詞部分の表示時間に対応する伴奏オーディオファイルと、前記第2歌詞部分の表示時間に対応する原曲オーディオファイルとに基づいて、前記歌の前記オーディオファイルを形成するように構成された第2形成ユニットと、をさらに備えた請求項25に記載の装置。
  31. 別のユーザーのリクエストを受信するように構成された第2受信ユニットと、
    前記別のユーザーの前記リクエストに基づいて、前記歌の伴奏オーディオファイルと前記歌詞ファイルを取得し、前記伴奏オーディオファイルと前記歌詞ファイルの歌詞の一部に基づいて前記別のユーザーのオーディオデータを録音して、第1録音ファイルを取得するように構成された第3取得ユニットと、
    前記第1録音ファイルに基づいて前記第2歌詞部分を決定し、少なくとも前記第2歌詞部分を識別する識別情報を含む段落情報を形成するように構成された第3処理ユニットと、
    前記第1録音ファイルを前記伴奏オーディオファイルと混合して、前記歌の前記オーディオファイルを取得するように構成された第2混合ユニットと、をさらに備えた請求項25に記載の装置。
JP2017560972A 2015-05-27 2016-03-24 オーディオ処理方法、装置、およびシステム Pending JP2018519536A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
CN201510278911.5A CN105006234B (zh) 2015-05-27 2015-05-27 一种k歌处理方法及装置
CN201510280492.9A CN105023559A (zh) 2015-05-27 2015-05-27 K歌处理方法及系统
CN201510280087.7A CN104966527B (zh) 2015-05-27 2015-05-27 K歌处理方法、装置以及k歌处理系统
CN201510280087.7 2015-05-27
CN201510280492.9 2015-05-27
CN201510278911.5 2015-05-27
PCT/CN2016/077218 WO2016188211A1 (zh) 2015-05-27 2016-03-24 音频处理方法、装置及系统

Publications (1)

Publication Number Publication Date
JP2018519536A true JP2018519536A (ja) 2018-07-19

Family

ID=57392491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017560972A Pending JP2018519536A (ja) 2015-05-27 2016-03-24 オーディオ処理方法、装置、およびシステム

Country Status (5)

Country Link
US (1) US10403255B2 (ja)
EP (1) EP3306606A4 (ja)
JP (1) JP2018519536A (ja)
KR (1) KR20180012800A (ja)
WO (1) WO2016188211A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105023559A (zh) * 2015-05-27 2015-11-04 腾讯科技(深圳)有限公司 K歌处理方法及系统
CN104966527B (zh) * 2015-05-27 2017-04-19 广州酷狗计算机科技有限公司 K歌处理方法、装置以及k歌处理系统
CN107993637B (zh) * 2017-11-03 2021-10-08 厦门快商通信息技术有限公司 一种卡拉ok歌词分词方法与系统
US11250825B2 (en) 2018-05-21 2022-02-15 Smule, Inc. Audiovisual collaboration system and method with seed/join mechanic
CN108831425B (zh) * 2018-06-22 2022-01-04 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
CN111046226B (zh) * 2018-10-15 2023-05-05 阿里巴巴集团控股有限公司 一种音乐的调音方法及装置
CN114303387A (zh) 2019-08-25 2022-04-08 思妙公司 用于用户参与声乐捕获应用的短片段生成
KR102259488B1 (ko) * 2019-08-26 2021-06-02 주식회사 이멜벤처스 노래방 어플리케이션에서의 듀엣 노래부르기 제공 방법 및 시스템
CN110660376B (zh) * 2019-09-30 2022-11-29 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法、装置及存储介质
CN111125028B (zh) * 2019-12-25 2023-10-24 腾讯音乐娱乐科技(深圳)有限公司 识别音频文件的方法、装置、服务器及存储介质
CN111402844B (zh) * 2020-03-26 2024-04-09 广州酷狗计算机科技有限公司 歌曲合唱的方法、装置及系统
CN114023299A (zh) * 2021-10-29 2022-02-08 福建星网视易信息系统有限公司 一种网络合唱方法及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08306168A (ja) * 1995-03-06 1996-11-22 Fujitsu Ltd カラオケシステム
JPH1091173A (ja) * 1996-09-11 1998-04-10 Brother Ind Ltd 楽音再生装置
JP2001042878A (ja) * 1999-08-03 2001-02-16 Taito Corp プレイヤー参加型通信カラオケシステム
JP2004053736A (ja) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd 通信カラオケシステムの使用方法
JP2004240065A (ja) * 2003-02-04 2004-08-26 Konami Co Ltd カラオケ装置、音声出力制御方法、ならびに、プログラム
JP2010014823A (ja) * 2008-07-01 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> 楽曲情報制御装置
JP2010164922A (ja) * 2009-01-19 2010-07-29 Taito Corp カラオケサービスシステム、端末装置
US20110126103A1 (en) * 2009-11-24 2011-05-26 Tunewiki Ltd. Method and system for a "karaoke collage"
JP2012027417A (ja) * 2010-07-28 2012-02-09 Brother Ind Ltd 録画装置及び録画プログラム
CN103295568A (zh) * 2013-05-30 2013-09-11 北京小米科技有限责任公司 一种异步合唱方法和装置

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3241372B2 (ja) * 1990-11-27 2001-12-25 パイオニア株式会社 カラオケ演奏方法
JPH04199096A (ja) * 1990-11-29 1992-07-20 Pioneer Electron Corp カラオケ演奏装置
JPH0561491A (ja) * 1991-09-02 1993-03-12 Sanyo Electric Co Ltd カラオケ装置及びその記録媒体
JPH0744182A (ja) 1993-07-21 1995-02-14 Hitachi Ltd 音楽再生装置
KR0129964B1 (ko) * 1994-07-26 1998-04-18 김광호 악기선택 가능한 영상노래반주장치
JP2838977B2 (ja) * 1995-01-17 1998-12-16 ヤマハ株式会社 カラオケ装置
JP2820052B2 (ja) 1995-02-02 1998-11-05 ヤマハ株式会社 コーラス効果付与装置
JP3587916B2 (ja) * 1995-10-31 2004-11-10 ブラザー工業株式会社 映像音声データ供給装置
US6231347B1 (en) * 1995-11-20 2001-05-15 Yamaha Corporation Computer system and karaoke system
JP3353595B2 (ja) * 1996-03-21 2002-12-03 ヤマハ株式会社 自動演奏装置およびカラオケ装置
JP3709631B2 (ja) * 1996-11-20 2005-10-26 ヤマハ株式会社 カラオケ装置
JP4013281B2 (ja) * 1997-04-18 2007-11-28 ヤマハ株式会社 カラオケデータ伝送方法、カラオケ装置およびカラオケデータ記録媒体
JP4029442B2 (ja) * 1997-07-18 2008-01-09 ヤマハ株式会社 通信カラオケシステム
KR100270340B1 (ko) 1998-08-17 2000-12-01 김대기 이동전화망을 이용한 노래반주 서비스 시스템 및 그 구현방법
US6979769B1 (en) * 1999-03-08 2005-12-27 Faith, Inc. Data reproducing device, data reproducing method, and information terminal
US6740804B2 (en) * 2001-02-05 2004-05-25 Yamaha Corporation Waveform generating method, performance data processing method, waveform selection apparatus, waveform data recording apparatus, and waveform data recording and reproducing apparatus
US20020189429A1 (en) * 2001-06-18 2002-12-19 Ziqiang Qian Portable digital music player with synchronized recording and display
TWI244838B (en) 2002-01-07 2005-12-01 Compal Electronics Inc Method of karaoke by network system
JP4168851B2 (ja) * 2003-06-20 2008-10-22 ヤマハ株式会社 カラオケ装置
US7134876B2 (en) * 2004-03-30 2006-11-14 Mica Electronic Corporation Sound system with dedicated vocal channel
JP4382786B2 (ja) 2006-08-22 2009-12-16 株式会社タイトー 音声ミックスダウン装置、音声ミックスダウンプログラム
US20080184870A1 (en) * 2006-10-24 2008-08-07 Nokia Corporation System, method, device, and computer program product providing for a multiple-lyric karaoke system
KR20080082019A (ko) 2006-12-29 2008-09-11 고리텍 주식회사 원음 노래방 서비스를 제공하는 휴대 노래방 시스템 및 그방법
US8138409B2 (en) * 2007-08-10 2012-03-20 Sonicjam, Inc. Interactive music training and entertainment system
CN101131816B (zh) 2007-09-30 2012-01-04 炬力集成电路设计有限公司 一种音频文件生成方法、装置及数码播放器
TWI343532B (en) * 2007-11-19 2011-06-11 Inventec Besta Co Ltd Network chorusing system and method thereof
JP4844623B2 (ja) * 2008-12-08 2011-12-28 ヤマハ株式会社 合唱合成装置、合唱合成方法およびプログラム
CN101483536B (zh) 2009-02-10 2010-11-03 腾讯科技(深圳)有限公司 传输用于实现网络卡拉ok的数据的方法、系统和客户端
CN101859561B (zh) 2009-04-07 2012-12-26 林文信 伴唱歌词自动显示方法
JP2011191357A (ja) 2010-03-12 2011-09-29 Yamaha Corp カラオケシステム
CN102456340A (zh) * 2010-10-19 2012-05-16 盛大计算机(上海)有限公司 基于互联网的卡拉ok对唱方法及系统
TW201228290A (en) * 2010-12-28 2012-07-01 Tse-Ming Chang Networking multi-person asynchronous chorus audio/video works system
CN102497448A (zh) 2011-12-26 2012-06-13 深圳市五巨科技有限公司 一种移动终端在线音乐播放的方法及系统
JP2014006480A (ja) 2012-06-27 2014-01-16 Sony Corp 情報処理装置、情報処理方法及びプログラム
CN103165119B (zh) 2013-01-31 2015-12-09 华为技术有限公司 K歌方法及系统
US9224374B2 (en) * 2013-05-30 2015-12-29 Xiaomi Inc. Methods and devices for audio processing
CN103337240B (zh) 2013-06-24 2016-03-30 华为技术有限公司 处理语音数据的方法、终端、服务器及系统
CN103841278B (zh) 2014-03-11 2017-11-28 华为技术有限公司 歌曲点唱的处理方法、装置及系统
CN104392711A (zh) 2014-08-27 2015-03-04 贵阳朗玛信息技术股份有限公司 一种实现卡拉ok功能的方法及装置
CN105023559A (zh) * 2015-05-27 2015-11-04 腾讯科技(深圳)有限公司 K歌处理方法及系统
CN105006234B (zh) * 2015-05-27 2018-06-29 广州酷狗计算机科技有限公司 一种k歌处理方法及装置
CN104966527B (zh) * 2015-05-27 2017-04-19 广州酷狗计算机科技有限公司 K歌处理方法、装置以及k歌处理系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08306168A (ja) * 1995-03-06 1996-11-22 Fujitsu Ltd カラオケシステム
JPH1091173A (ja) * 1996-09-11 1998-04-10 Brother Ind Ltd 楽音再生装置
JP2001042878A (ja) * 1999-08-03 2001-02-16 Taito Corp プレイヤー参加型通信カラオケシステム
JP2004053736A (ja) * 2002-07-17 2004-02-19 Daiichikosho Co Ltd 通信カラオケシステムの使用方法
JP2004240065A (ja) * 2003-02-04 2004-08-26 Konami Co Ltd カラオケ装置、音声出力制御方法、ならびに、プログラム
JP2010014823A (ja) * 2008-07-01 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> 楽曲情報制御装置
JP2010164922A (ja) * 2009-01-19 2010-07-29 Taito Corp カラオケサービスシステム、端末装置
US20110126103A1 (en) * 2009-11-24 2011-05-26 Tunewiki Ltd. Method and system for a "karaoke collage"
JP2012027417A (ja) * 2010-07-28 2012-02-09 Brother Ind Ltd 録画装置及び録画プログラム
CN103295568A (zh) * 2013-05-30 2013-09-11 北京小米科技有限责任公司 一种异步合唱方法和装置

Also Published As

Publication number Publication date
KR20180012800A (ko) 2018-02-06
US10403255B2 (en) 2019-09-03
EP3306606A1 (en) 2018-04-11
US20180090116A1 (en) 2018-03-29
EP3306606A4 (en) 2019-01-16
WO2016188211A1 (zh) 2016-12-01

Similar Documents

Publication Publication Date Title
JP2018519536A (ja) オーディオ処理方法、装置、およびシステム
JP6456525B2 (ja) カラオケ処理方法、装置、およびシステム
JP6534452B2 (ja) カラオケ処理方法およびシステム
US20110126103A1 (en) Method and system for a &#34;karaoke collage&#34;
CN106531201B (zh) 歌曲录制的方法和装置
JP6452229B2 (ja) カラオケ効果音設定システム
CN106686431A (zh) 一种音频文件的合成方法和设备
JP2010078926A (ja) デュエット相手抽出システム
CN105190741A (zh) 音乐合奏管理方法及音乐合奏管理装置
JP5311071B2 (ja) 楽曲再生装置及び楽曲再生プログラム
JP5986387B2 (ja) 情報処理プログラム、情報処理装置、歌詞表示方法、及び通信システム
KR101250701B1 (ko) 이동통신단말기를 이용한 노래 동영상 제작 시스템
JP2019101148A (ja) 通信カラオケシステム
JP5349171B2 (ja) 演奏条件設定機能付きカラオケシステム
CN105741830B (zh) 一种音频合成方法及装置
JP6543897B2 (ja) 楽曲再生装置、および楽曲再生プログラム。
JP6924119B2 (ja) カラオケ装置
KR101426763B1 (ko) 음원 서비스 시스템 및 그 방법, 그리고 이에 적용되는 장치
KR101458526B1 (ko) 공동음원 생성 서비스 시스템 및 그 방법, 그리고 이에 적용되는 장치
JP7068955B2 (ja) カラオケシステム
WO2008087548A2 (en) Ad-hoc proximity multi-speaker entertainment
JP2021157007A (ja) フォトムービー生成システム、フォトムービー生成装置、ユーザ端末、フォトムービー生成方法、及びプログラム
JP6182493B2 (ja) 音楽再生システム、サーバ、及びプログラム
JP2023064385A (ja) カラオケ装置
JP6402654B2 (ja) 再生制御装置、プログラム、及び再生システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171122

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200602