JP2022522456A - 歌の録音方法、音声補正方法、および電子デバイス - Google Patents

歌の録音方法、音声補正方法、および電子デバイス Download PDF

Info

Publication number
JP2022522456A
JP2022522456A JP2021550197A JP2021550197A JP2022522456A JP 2022522456 A JP2022522456 A JP 2022522456A JP 2021550197 A JP2021550197 A JP 2021550197A JP 2021550197 A JP2021550197 A JP 2021550197A JP 2022522456 A JP2022522456 A JP 2022522456A
Authority
JP
Japan
Prior art keywords
cappella
user
electronic device
vibrato
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021550197A
Other languages
English (en)
Other versions
JP7222112B2 (ja
Inventor
▲凱▼ 陶
明▲ジエ▼ 尹
延奇 李
▲徳▼著 徐
恒杰 戴
海波 ▲ミアオ▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2022522456A publication Critical patent/JP2022522456A/ja
Application granted granted Critical
Publication of JP7222112B2 publication Critical patent/JP7222112B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/366Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems with means for modifying or correcting the external signal, e.g. pitch correction, reverberation, changing a singer's voice
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/095Inter-note articulation aspects, e.g. legato or staccato
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/195Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response, playback speed
    • G10H2210/201Vibrato, i.e. rapid, repetitive and smooth variation of amplitude, pitch or timbre within a note or chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • G10H2240/251Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10546Audio or video recording specifically adapted for audio data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本出願の実施形態は、歌の録音方法、音声補正方法、および電子デバイスを提供し、音声技術の分野に関連する。対応する歌唱スキルをユーザが録音した歌に追加し得、ユーザがカラオケアプリケーションを使用するときの録音効果および使用体験を改善する。方法は、電子デバイスによって、第1のインターフェースを表示することであって、第1のインターフェースは、第1の歌を録音するために使用される録音ボタンを含むことと、ユーザが録音ボタンを選択した操作に応答して、電子デバイスによって、第1の歌の伴奏および元の歌手のアカペラの特徴情報を取得することであって、元の歌手のアカペラの特徴情報は、元の歌手が第1の歌を歌うときに元の歌手の歌唱特徴を反映するために使用され得ることと、電子デバイスによって、第1の歌の伴奏の再生を開始し、ユーザによって歌われるユーザのアカペラの録音を開始することと、ユーザのアカペラを録音するプロセスにおいて、電子デバイスによって、元の歌手のアカペラの特徴情報に基づいて、第2のインターフェース上にガイダンス情報を表示することであって、ガイダンス情報は、ユーザの歌唱中に息継ぎおよびビブラートの1つまたは複数をガイドするために使用されることとを含む。

Description

この出願は、音声技術の分野、特に、歌の録音方法、音声補正方法、および電子デバイスに関連する。
この出願は、2019年2月28日に中国国家知識産権局に提出された「歌の録音方法、音声補正方法、および電子デバイス」と題された中国特許出願第201910152655.3号の優先権を主張し、参照によりその全体が本明細書に組み込まれる。
歌うことが好きなユーザにとって、カラオケアプリケーションは、携帯電話やタブレットコンピュータなどの電子デバイスにインストールされた人気のあるアプリケーションになっている。例えば、カラオケアプリケーションを開いた後、ユーザは、録音される必要のある歌を選択し得る。さらに、カラオケアプリケーションは、歌の伴奏をロードし得、かつ携帯電話のマイクなどの音声ピックアップコンポーネントを呼び出して、ユーザが歌を歌った後に取得される音声を録音し、それによって、ユーザ自身の歌声を、カラオケアプリケーションによって提供される伴奏に統合し得る。
現在、カラオケアプリケーションを使用するユーザの歌唱体験を向上させるために、一部のカラオケアプリケーションは、ユーザによって録音された歌の音声補正機能を提供している。例えば、カラオケアプリケーションは、ユーザによって録音された歌Aを歌Aの元の音声と比較し得、ユーザによって録音された歌声のイントネーションおよびリズムを元の音声のイントネーションおよびリズムに変更し得、それによって、ユーザが歌を録音するときに発生するイントネーションおよびリズムの問題を補正する。
しかしながら、イントネーションおよびリズムの問題に加えて、一般的なユーザは通常、プロの音声音楽トレーニングを受けていない。そのため、歌唱スキルが不十分なユーザは依然として、歌を録音するときに良好な録音効果を得ることができない。
この出願は、歌の録音方法、音声補正方法、および電子デバイスを提供し、ユーザが歌を録音するときに対応する歌唱スキルを使用するようにユーザをガイドし、それによってユーザがカラオケアプリケーションを使用するときの録音効果および使用体験を改善する。
前述の目的を達成するために、この出願では次の技術的解決策が使用される。
第1の態様によれば、この出願は、歌の録音方法を提供し、当該方法は、電子デバイスによって、第1のインターフェースを表示することであって、第1のインターフェースは、第1の歌を録音するために使用される録音ボタンを含むことと、ユーザが録音ボタンを選択したことが検出された場合、電子デバイスによって、第1の歌の伴奏と元の歌手のアカペラの特徴情報とを取得することであって、元の歌手のアカペラの特徴情報は、元の歌手が第1の歌を歌うときに元の歌手の歌唱の特徴を反映するために使用され得ることと、さらに、電子デバイスによって、第1の歌の伴奏の再生を開始することと、ユーザによって歌われるユーザのアカペラの録音を開始することと、ユーザのアカペラを記録するプロセスにおいて、元の歌手のアカペラの特徴情報に基づいて、電子デバイスによって第2のインターフェース上にガイダンス情報を表示することであって、ガイダンス情報は、ユーザの歌唱中の1つまたは複数の息継ぎとビブラートをガイドするために使用されることとを含む。言い換えれば、ユーザが歌を録音しているとき、電子デバイスは、元の歌手の歌唱特徴に基づいてガイダンス情報を表示し得、ユーザの歌唱中に息継ぎまたはビブラートなどの1つまたは複数の歌唱スキルをガイドし、それによって、ユーザが歌を録音するときの録音効果と使用経験を改善する。
可能な実装において、元の歌手のアカペラの特徴情報は、元の歌手のアカペラ内の息継ぎ位置を含み、この場合、ガイダンス情報は、息継ぎプロンプトを含み得る。電子デバイスによって、元の歌手のアカペラの特徴情報に基づいて第2のインターフェース上でガイダンス情報を表示することは、電子デバイスによって、元の歌手のアカペラの息継ぎ位置に基づいて第2のインターフェース上に、元の歌手のアカペラの息継ぎ位置に対応する息継ぎプロンプトを表示し、ユーザが歌う際にユーザが息継ぎの変化を制御するのを助け、それによって録音された歌の比較的明白で無秩序な息継ぎ音を減らし、録音された歌のリスニング品質を向上させる。
例えば、第2のインターフェースは、第1の歌の歌詞を含み得る。この場合、第2のインターフェース上の電子デバイスによって、元の歌手のアカペラの息継ぎ位置に基づいて、元の歌手のアカペラの息継ぎ位置に対応する息継ぎプロンプトを表示することは、電子デバイスによって、歌詞の第1の位置で息継ぎプロンプトを表示することであって、第1の位置は、元の歌手のアカペラの息継ぎ位置と同じであることを含む。
あるいは、第2のインターフェースは、歌唱ツールを含み得、歌唱ツールは、録音されている歌詞の各単語のメモを表示するように構成される。この場合、第2のインターフェース上の電子デバイスによって、元の歌手のアカペラの息継ぎ位置に基づいて、元の歌手のアカペラの息継ぎ位置に対応する息継ぎプロンプトを表示することは、電子デバイスによって、歌唱ツールの第2の位置で息継ぎプロンプトを表示することであって、第2の位置は、元の歌手のアカペラの息継ぎ位置と同じであることを含む。
可能な実装において、元の歌手のアカペラの特徴情報は、元の歌手のアカペラのビブラート特徴を含み、この場合、対応するガイダンス情報は、ビブラートプロンプトを含む。電子デバイスによって、元の歌手のアカペラの特徴情報に基づいて第2のインターフェース上にガイダンス情報を表示することは、電子デバイスによって、元の歌手のアカペラのビブラート特徴に基づいて第2のインターフェース上に元の歌手のアカペラのビブラート特徴に対応するビブラートプロンプトを表示することを含む。このように、歌を録音するとき、ユーザは、歌詞で促されたビブラート位置に基づいてビブラートで歌うことができ、ユーザが歌っているときの歌の階層感および歌唱スキルを改善し、それによって、録音された歌のリスニング品質を改善する。
例えば、ビブラート特徴はビブラート位置を含み、第2のインターフェースは第1の歌の歌詞を含む。この場合、電子デバイスによって、元の歌手のアカペラのビブラート特徴に基づいて第2のインターフェース上に、元の歌手のアカペラのビブラート特徴に対応するビブラートプロンプトを表示することは、電子デバイスによって、歌詞の第3の位置でビブラートプロンプトを表示することであって、第3の位置は元の歌手のアカペラのビブラート位置と同じであることを含む。
あるいは、ビブラート特徴はビブラート位置を含み、第2のインターフェースは歌唱ツールを含み、歌唱ツールは、録音されている歌詞の各単語の音符を表示するように構成される。この場合、電子デバイスによって、元の歌手のアカペラのビブラート特徴に基づいて第2のインターフェース上に、元の歌手のアカペラのビブラート特徴に対応するビブラートプロンプトを表示することは、電子デバイスによって、歌唱ツールの第4の位置でビブラートプロンプトを表示することであって、第4の位置は元の歌手のアカペラのビブラート位置と同じであることを含む。
例えば、元の歌手のアカペラの特徴情報は、元の歌手のアカペラの基本周波数情報をさらに含み得、電子デバイスは、元の歌手のアカペラの基本周波数情報に基づいてイントネーションプロンプトを生成し、第2のインターフェース上にイントネーションプロンプトを表示し得、歌唱中にユーザのイントネーションをガイドする。
可能な実装では、ユーザのアカペラを録音するプロセスにおいて、方法はさらに、電子デバイスによって、ユーザのアカペラからユーザのアカペラの特徴情報を抽出することであって、ユーザのアカペラは、ユーザが第1の歌を歌うときにユーザの歌唱特徴を反映するために使用されることと、電子デバイスによって、ユーザのアカペラの特徴情報を元の歌手のアカペラの特徴情報と比較することによって、第2のインターフェース上に評価結果を表示することとを含む。
ユーザの歌の録音プロセスにおいて、電子デバイスが、元の歌手のアカペラの特徴情報に基づいて、ユーザの歌唱のイントネーション、ビブラート、および息継ぎなどの1つまたは複数の歌唱スキルをリアルタイムで評価し得ることを学ぶことができる。イントネーションのみに基づいてユーザの歌唱レベルを評価するのと比較して、本出願の本実施形態では、ユーザの歌唱の評価時に、ユーザの息継ぎやビブラートなどの要素も考慮され、したがって、得られた評価結果はより正確であり、より豊富であり、より客観的である。さらに、電子デバイスは、ユーザの歌唱の評価結果を第2のインターフェース上でリアルタイムにユーザにフィードバックし得、その結果、ユーザは、ユーザの現在の歌唱効果を時間内に学習し、後続の録音プロセスで時間内に歌唱方法を調整することができる。
可能な実装において、ユーザのアカペラの特徴情報は、ユーザのアカペラ内の息継ぎ位置を含み、元の歌手のアカペラの特徴情報は、元の歌手のアカペラ内の息継ぎ位置を含む。電子デバイスによって、ユーザのアカペラの特徴情報を元の歌手のアカペラの特徴情報と比較することによって第2のインターフェース上に評価結果を表示することは、電子デバイスによって、ユーザのアカペラ内の息継ぎ位置を元の歌手のアカペラ内の息継ぎ位置と比較することによって第2のインターフェース上に息継ぎスキルの評価結果を表示することを含む。
例えば、電子デバイスによって、ユーザのアカペラの息継ぎ位置を元の歌手のアカペラの息継ぎ位置と比較することによって第2のインターフェース上に息継ぎスキルの評価結果を表示することは、ユーザのアカペラの息継ぎ位置が元の歌手のアカペラの息継ぎ位置と同じである場合に、電子デバイスによって、正確な息継ぎを示すプロンプトを第2のインターフェース上に表示すること、または、ユーザのアカペラの息継ぎ位置が元の歌手のアカペラの息継ぎ位置と異なる場合に、電子デバイスによって、息継ぎエラーを示すプロンプトを第2のインターフェース上に表示することを含む。
可能な実装において、ユーザのアカペラの特徴情報は、ユーザのアカペラのビブラート特徴を含み、元の歌手のアカペラの特徴情報は、元の歌手のアカペラのビブラート特徴を含む。電子デバイスによって、ユーザのアカペラの特徴情報を元の歌手のアカペラの特徴情報と比較することによって第2のインターフェース上に評価結果を表示することは、電子デバイスによって、ユーザのアカペラのビブラート特徴を元の歌手のアカペラのビブラート特徴と比較することによって第2のインターフェース上にビブラートスキルの評価結果を表示することを含む。
例えば、電子デバイスによって、ユーザのアカラのビブラート特徴を元の歌手のアカペラのビブラート特徴と比較することによって第2のインターフェース上にビブラートスキルの評価結果を表示することは、電子デバイスによって、ユーザのアカペラのビブラート特徴が元の歌手のアカペラのビブラート特徴と同じである場合、電子デバイスによって、正確なビブラートを示すプロンプトを第2のインターフェース上に表示すること、または、ユーザのアカペラのビブラート特徴が元の歌手のアカペラのビブラート特徴と異なる場合に、電子デバイスによって、ビブラートエラーを示すプロンプトを第2のインターフェース上に表示することを含む。
可能な実装では、電子デバイスによって、第2のインターフェース上に評価結果を表示することは、電子デバイスによって、第2のインターフェース上に歌詞内で評価結果を表示すること、または、電子デバイスによって、第2のインターフェース上に歌唱ツール内で評価結果を表示することを含む。
可能な実装では、電子デバイスによって、元の歌手のアカペラの特徴情報に基づいて第2のインターフェース上にガイダンス情報を表示した後、方法はさらに、第1の歌の録音が終了した後、電子デバイスによって、元の歌手のアカペラの特徴情報に基づいてユーザのアカペラに現れる歌唱の問題を補正することを含み、歌唱の問題は、1つまたは複数の息継ぎの問題およびビブラートの問題を含む。このように、プロの声楽訓練を受けていない一般のユーザも、比較的良好なリスニング品質で歌声を録音することができ、それにより、ユーザが歌を録音するときの録音効果および使用体験を改善する。
第2の態様によれば、この出願は、音声補正方法を提供し、当該方法は、電子デバイスによって、第1のインターフェースを表示することであって、第1のインターフェースは、第1の歌を録音するために使用される録音ボタンを含むこと、ユーザが録音ボタンを選択したことが検出された場合、電子デバイスによって、第1の歌の伴奏と元の歌手のアカペラの特徴情報とを取得することであって、元の歌手のアカペラの特徴情報は、元の歌手が第1の歌を歌うときの元の歌手の歌唱特徴を反映するために使用されることと、さらに、電子デバイスによって、第1の歌の伴奏を再生し始め、ユーザによって歌われるユーザのアカペラを録音し始めることと、第1の歌の録音が終了した後、電子デバイスによって、元の歌手のアカペラの特徴情報に基づいて、録音されたユーザのアカペラに現れる歌唱の問題を補正することであって、歌唱の問題は、1つまたは複数の息継ぎの問題およびビブラートの問題を含むことを含む。言い換えれば、電子デバイスは、ユーザによって録音された歌の息継ぎまたはビブラートなどの歌唱スキルの問題を補正し得る。このように、プロの声楽訓練を受けていない一般のユーザも、比較的良好なリスニング品質で歌声を録音することができ、それにより、ユーザが歌を録音するときの録音効果および使用体験を改善する。
可能な実装では、歌唱の問題は息継ぎの問題である。電子デバイスによって、元の歌手のアカペラの特徴情報に基づいて、ユーザのアカペラに現れる歌唱の問題を補正することは、電子デバイスによって、ユーザのアカペラからユーザアカペラの息継ぎ音を抽出することと、電子デバイスによって、ユーザのアカペラの息継ぎ音のエネルギーと周波数応答を低減して、ユーザのアカペラに現れる息継ぎの問題を弱め、それによって、録音された歌のリスニング品質を改善することとを含む。
可能な実装では、歌唱の問題はビブラートの問題である。電子デバイスによって、元の歌手のアカペラの特徴情報に基づいて、ユーザのアカペラに現れる歌唱の問題を補正することは、電子デバイスによって、ユーザのアカペラからユーザのアカペラのビブラート特徴を抽出することと、ユーザのアカペラのビブラート特徴が元の歌手のアカペラの特徴情報のビブラート特徴と一致しない場合、例えば、ユーザのアカペラのビブラート位置、ビブラート振幅、ビブラート周波数、および安定傾向項目のうちの1つが元の歌手のアカペラと一致しない場合、電子デバイスによって、元のアカペラのビブラート特徴を使用することによってユーザのアカペラのビブラート特徴を補正して、ユーザのアカペラに現れるビブラートの問題を補正することとを含む。例えば、電子デバイスは、元の歌手のアカペラ内の対応するビブラートのビブラート振幅、ビブラート周波数、または安定傾向項目を使用することによって、ユーザのアカペラ内の新しいビブラートを合成し得、ユーザのアカペラに現れるビブラート音声効果を改善する。
確かに、歌唱の問題は、あるいはイントネーションの問題であり得る。電子デバイスは、ユーザのアカペラで音調が過度に高い位置で音調降下処理を実行し得、ユーザのアカペラで音調が過度に低い位置で音調上昇処理を実行し得、ユーザのアカペラの音調が元の歌手のアカペラの音調と同じかまたはそれに近いようにする。
可能な実装において、第1の歌の録音が終了した後、方法は、電子デバイスによって、第2のインターフェースを表示することをさらに含み、第2のインターフェースは、音声補正スイッチを含む。電子デバイスによって、元の歌手のアカペラの特徴情報に基づいて、ユーザのアカペラに現れる歌唱の問題を補正することは、ユーザが音声補正スイッチをオンにしたことが検出された場合、電子デバイスによって、元の歌手のアカペラの特徴情報に基づいてユーザのアカペラに現れる歌唱の問題を補正することを含む。
可能な実装では、第1の歌の録音が終了した後、方法はさらに、電子デバイスによって、第2のインターフェースを表示することを含み、第2のインターフェースは音声補正オプションを含み、音声補正オプションは、イントネーション補正オプション、息継ぎ補正オプション、およびビブラート補正オプションを含む。電子デバイスによって、元の歌手のアカペラの特徴情報に基づいて、ユーザのアカペラに現れる歌唱の問題を補正することは、ユーザによって選択された音声補正オプションに応答して、電子デバイスによって、元の歌手のアカペラの特徴情報に基づいて、音声補正オプションに対応し、ユーザのアカペラに現れる歌唱の問題を補正することを含む。
可能な実装では、第1の歌の録音が終了した後、方法はさらに、電子デバイスによって、第2のインターフェースを表示することであって、第2のインターフェースは、単一文補正オプションを含むことと、単一文補正オプションのユーザの選択に応答して、電子デバイスによって、第3のインターフェースを表示することであって、第3のインターフェースは、第1の歌の歌詞のN(N>1)個の文を含むことを含む。この場合、電子デバイスによって、元の歌手のアカペラの特徴情報に基づいて、ユーザのアカペラに現れる歌唱の問題を補正することは特に、ユーザがN個の文から第1の歌詞を選択した場合に、電子デバイスによって、元の歌手のアカペラにあり、元の歌手が第1の歌詞を歌った後に得られる特徴情報に基づいて、第1の歌詞に対応し、ユーザのアカペラに現れる歌唱の問題を補正することを含む。このようにして、ユーザは、今回録音されたユーザのアカペラに現れる歌唱の問題を一文ずつ補正し得、ユーザによって録音された歌を、ユーザがより満足する歌唱効果に補正する。
さらに、第3のインターフェースを表示するとき、電子デバイスは、第3のインターフェース上の歌詞のN個の文において、歌唱の問題が現れる位置をさらにマークし得る。このようにして、ユーザは、ユーザが歌詞のそれぞれの文を歌うときに現れる特定の問題を直感的に見ることができる。
第3の態様によれば、この出願は、タッチスクリーン、1つまたは複数のプロセッサ、1つまたは複数のメモリ、1つまたは複数のマイクロフォン、および1つまたは複数のコンピュータプログラムを含む電子デバイスを提供する。プロセッサは、タッチスクリーン、メモリ、およびマイクロフォンに接続される。1つまたは複数のコンピュータプログラムは、メモリに保存される。電子デバイスが稼働すると、プロセッサは、メモリに格納された1つまたは複数のコンピュータプログラムを実行し、その結果、電子デバイスは、前述の実装のいずれか1つに従って、歌の録音方法または音声補正方法を実行する。
第4の態様によれば、この出願は、コンピュータ命令を含むコンピュータ記憶媒体を提供する。コンピュータ命令が電子デバイス上で実行されると、電子デバイスは、第1の態様の任意の実装に従って、歌の録音方法または音声補正方法を実行することができる。
第5の態様によれば、この出願は、コンピュータプログラム製品を提供する。コンピュータプログラム製品が電子デバイス上で実行されると、電子デバイスは、第1の態様の任意の実装に従って、歌の録音方法または音声補正方法を実行することができる。
第6の態様によれば、この出願は、グラフィカルユーザインターフェース(GUI)を提供し、グラフィカルユーザインターフェースは、電子デバイスに格納され、電子デバイスは、タッチスクリーン、メモリ、およびプロセッサを含む。プロセッサは、メモリに格納されている1つまたは複数のコンピュータプログラムを実行するように構成される。グラフィカルユーザインターフェースは、タッチスクリーンに表示される第1のGUIを含み、第1のGUIは、第1の歌を録音するために使用される録音ボタン、記録ボタンのタッチイベントに応答してタッチスクリーンに表示される第2のGUIを含み、第2のGUIは、第1の歌を録音するための録音インターフェースであり、第2のGUIは、ユーザに第1の歌を歌うように案内するためのガイダンス情報を含み、ガイダンス情報は、息継ぎプロンプトおよび/またはビブラートプロンプトを含み得る。
例えば、第2のGUIは、歌唱中のユーザの息継ぎスキルおよび/またはビブラートスキルの評価結果をさらに含み得る。
例えば、第2のGUIがタッチスクリーンに表示された後、GUIはさらに、第1の歌の録音が終了した後にタッチスクリーンに表示される第3のGUIであって、第3のGUIは第1の歌の音声補正インターフェースであり、第3のGUIは音声補正スイッチを含み、音声補正スイッチがユーザによってオンにされると、電子デバイスは、ユーザのアカペラに現れる息継ぎの問題および/またはビブラートの問題を補正する。
第3の態様で提供される電子デバイス、第4の態様で提供されるコンピュータ記憶媒体、第5の態様で提供されるコンピュータプログラム製品、および第6の態様で提供されるGUIはすべて、上記で提供された対応する方法を実行するように構成されることが理解され得る。したがって、達成できる有益な効果については、上記で提供された対応する方法の有益な効果を参照されたい。詳細については、ここでは再度説明しない。
本出願の一実施形態による電子デバイスの概略構造図1である。 本出願の一実施形態による、電子デバイス内のオペレーティングシステムの概略アーキテクチャ図である。 本出願の一実施形態による、歌の録音方法および音声補正方法の概略フローチャートである。 本出願の一実施形態による歌の録音方法のシナリオの概略図1である。 本出願の一実施形態による歌の録音方法のシナリオの概略図2である。 本出願の一実施形態による歌の録音方法のシナリオの概略図3である。 本出願の一実施形態による歌の録音方法のシナリオの概略図4である。 本出願の一実施形態による歌の録音方法のシナリオの概略図5である。 本出願の一実施形態による歌の録音方法のシナリオの概略図6である。 本出願の一実施形態による歌の録音方法のシナリオの概略図6である。 本出願の一実施形態による歌の録音方法のシナリオの概略図7である。 本出願の一実施形態による歌の録音方法のシナリオの概略図7である。 本出願の一実施形態による歌の録音方法のシナリオの概略図7である。 本出願の一実施形態による歌録音方法のシナリオの概略図8である。 本出願の一実施形態による歌録音方法のシナリオの概略図8である。 本出願の一実施形態による歌録音方法のシナリオの概略図9である。 本出願の一実施形態による歌録音方法のシナリオの概略図9である。 本出願の一実施形態による音声補正方法のシナリオの概略図1である。 本出願の一実施形態による音声補正方法のシナリオの概略図2である。 本出願の一実施形態による音声補正方法のシナリオの概略図3である。 本出願の一実施形態による音声補正方法のシナリオの概略図3である。 本出願の一実施形態による音声補正方法のシナリオの概略図4である。 本出願の一実施形態による音声補正方法のシナリオの概略図4である。 本出願の一実施形態による電子デバイスの概略構造図2である。
以下は、添付の図面を参照して、実施形態の実装を詳細に説明する。
例えば、本出願の実施形態で提供される歌の録音方法および音声補正方法は、携帯電話、タブレットコンピュータ、音符ブックコンピュータ、ウルトラモバイルパーソナルコンピュータ(ultra-mobile personal computer, UMPC)、ハンドヘルドコンピュータ、ネットブック、携帯情報端末(personal digital assistant, PDA)、ウェアラブル電子デバイス、および仮想現実デバイスなどの電子デバイスに適用され得る。これは、この出願の実施形態に限定されない。
例えば、図1は、電子デバイス100の概略構造図である。
電子デバイス100は、プロセッサ110、外部メモリインターフェース120、内部メモリ121、ユニバーサルシリアルバス(universal serial bus, USB)インターフェース130、充電管理モジュール140、電力管理モジュール141、バッテリ142、アンテナ1、アンテナ2、移動体通信モジュール150、無線通信モジュール160、音声モジュール170、ラウドスピーカー170A、電話受信機170B、マイクロフォン170C、ヘッドセットインターフェース170D、センサモジュール180、ボタン190、モータ191、インジケータ192、カメラ193、ディスプレイ194、および加入者識別モジュール(subscriber identification module, SIM)カードインターフェース195を含み得る。センサモジュール180は、圧力センサ180A、ジャイロセンサ180B、気圧センサ180C、磁気センサ180D、加速度センサ180E、距離センサ180F、光近接センサ180G、指紋センサ180H、温度センサ180J、タッチセンサ180K、環境光センサ180L、骨伝導センサ180Mなどを含み得る。
本出願のこの実施形態に示される構造は、電子デバイス100を特に限定しないことが理解され得る。この出願の他のいくつかの実施形態では、電子デバイス100は、図に示されるものよりも多いまたは少ない部品を含み得るか、いくつかの部品を組み合わせ得るか、いくつかの部品を分割し得るか、または異なる部品配置を有し得る。図に示されている部品は、ハードウェア、ソフトウェア、またはソフトウェアとハードウェアの組み合わせを使用することによって実装され得る。
プロセッサ110は、1つまたは複数の処理ユニットを含み得る。例えば、プロセッサ110は、アプリケーションプロセッサ(application processor, AP)、モデムプロセッサ、グラフィックス処理ユニット(graphics processing unit, GPU)、画像信号プロセッサ(image signal processor, ISP)、コントローラ、ビデオコーデック、デジタル信号プロセッサ(digital signal processor, DSP)、ベースバンドプロセッサ、および/またはニューラルネットワーク処理ユニット(neural-network processing unit, NPU)を含み得る。異なる処理ユニットは、独立したコンポーネントであり得、あるいは1つまたは複数のプロセッサに統合され得る。
コントローラは、命令動作コードおよび時系列信号に基づいて動作制御信号を生成し得、フェッチ命令および実行命令を制御する。
メモリは、プロセッサ110内にさらに配置し得、命令およびデータを格納するように構成される。いくつかの実施形態では、プロセッサ110内のメモリはキャッシュメモリである。メモリは、プロセッサ110によってちょうど使用されるか、または周期的に使用される命令またはデータを格納し得る。プロセッサ110が命令またはデータを再び使用する必要がある場合、プロセッサ110は、メモリから命令またはデータを直接呼び出し得、それにより、繰り返しアクセスを回避し、プロセッサ110の待機時間を短縮する。したがって、システム効率が向上する。
いくつかの実施形態では、プロセッサ110は、1つまたは複数のインターフェースを含み得る。インターフェースは、集積回路間(inter-integrated circuit, I2C)インターフェース、集積回路間音(inter-integrated circuit sound, I2S)インターフェース、パルスコード変調(pulse code modulation, PCM)インターフェース、ユニバーサル非同期受信機/送信機(universal asynchronous receiver/transmitter, UART)インターフェース、モバイル産業プロセッサーインターフェース(mobile industry processor interface, MIPI)、汎用入力/出力(general-purpose input/output, GPIO)インターフェース、加入者識別モジュール(subscriber identity module, SIM)インターフェース、ユニバーサルシリアルバス(universal serial bus, USB)インターフェースなどを含み得る。
I2Cインターフェースは双方向同期シリアルバスであり、1つのシリアルデータライン(serial data line, SDA)と1つのシリアルクロックライン(derail clock line, SCL)を含む。いくつかの実施形態では、プロセッサ110は、複数のI2Cバスを含み得る。プロセッサ110は、異なるI2Cバスインターフェースを使用することによって、タッチセンサ180K、充電器、カメラフラッシュ、カメラ193などに別々に結合され得る。例えば、プロセッサ110は、I2Cインターフェースを使用することによってタッチセンサ180Kに結合され得、その結果、プロセッサ110は、I2Cバスインターフェースを使用することによってタッチセンサ180Kと通信し、電子デバイス100のタッチ機能を実装する。
I2Sインターフェースは音声通信に使用され得るいくつかの実施形態では、プロセッサ110は、複数のI2Sバスを含み得る。プロセッサ110は、I2Sバスを使用することによって音声モジュール170に結合され得、プロセッサ110と音声モジュール170との間の通信を実装する。いくつかの実施形態では、音声モジュール170は、I2Sインターフェースを使用することによって音声信号を無線通信モジュール160に送信し得、ブルートゥースヘッドセットを使用することによって電話に出る機能を実装する。
PCMインターフェースは、音声通信、アナログ信号のサンプリング、量子化、および符号化にも使用され得る。いくつかの実施形態では、音声モジュール170は、PCMバスインターフェースを使用することによって無線通信モジュール160に結合され得る。いくつかの実施形態では、音声モジュール170はまた、PCMインターフェースを使用することによって音声信号を無線通信モジュール160に送信し得、ブルートゥースヘッドセットを使用することによって電話に出る機能を実装する。I2SインターフェースとPCMインターフェースの両方が音声通信に使用され得る。
UARTインターフェースはユニバーサルシリアルデータバスであり、非同期通信に使用される。バスは双方向通信バスであり得る。バスは、シリアル通信とパラレル通信の間で送信されるデータを変換する。いくつかの実施形態では、UARTインターフェースは通常、プロセッサ110を無線通信モジュール160に接続するように構成される。例えば、プロセッサ110は、UARTインターフェースを使用することによって無線通信モジュール160内のブルートゥースモジュールと通信して、ブルートゥース機能を実装する。いくつかの実施形態では、音声モジュール170は、UARTインターフェースを使用することによって音声信号を無線通信モジュール160に送信し得、ブルートゥースヘッドセットを使用することによって音楽を再生する機能を実装する。
MIPIインターフェースは、プロセッサ110をディスプレイ194またはカメラ193などの周辺コンポーネントに接続するように構成され得る。MIPIインターフェースは、カメラシリアルインターフェース(camera serial interface, CSI)、ディスプレイシリアルインターフェース(display serial interface, DSI)などを含む。いくつかの実施形態では、プロセッサ110は、CSIインターフェースを使用することによってカメラ193と通信して、電子デバイス100の写真撮影機能を実装する。プロセッサ110は、DSIインターフェースを使用することによってディスプレイ194と通信し、電子デバイス100の表示機能を実装する。
GPIOインターフェースは、ソフトウェアを使用することによって構成され得る。GPIOインターフェースは、制御信号として構成され得、あるいはデータ信号として構成され得る。いくつかの実施形態では、GPIOインターフェースは、プロセッサ110をカメラ193、ディスプレイ194、無線通信モジュール160、音声モジュール170、センサモジュール180などに接続するように構成され得る。GPIOインターフェースは、代替的に、I2Cインターフェース、I2Sインターフェース、UARTインターフェース、MIPIインターフェースなどとして構成され得る。
本発明の本実施形態に示されるモジュール間のインターフェース接続関係は、単に概略的な説明であり、電子デバイス100の構造を限定しないことが理解され得る。本出願の他のいくつかの実施形態では、電子デバイス100は、代替的に、前述の実施形態とは異なるインターフェース接続方法を使用し得るか、または複数のインターフェース接続方法の組み合わせを使用し得る。
充電管理モジュール140は、充電器から充電入力を受け取るように構成される。充電器は、無線充電器または有線充電器であり得る。有線充電のいくつかの実施形態では、充電管理モジュール140は、USBインターフェース130を使用することによって有線充電器の充電入力を受け取り得る。無線充電のいくつかの実施形態では、充電管理モジュール140は、電子デバイス100の無線充電コイルを使用することによって無線充電入力を受け取り得る。バッテリ142を充電している間、充電管理モジュール140は、電力管理モジュール141を使用することによって、電子デバイスにさらに電力を供給し得る。
電力管理モジュール141は、バッテリ142、充電管理モジュール140、およびプロセッサ110を接続するように構成される。電力管理モジュール141は、バッテリ142および/または充電管理モジュール140の入力を受け取り、プロセッサ110、内部メモリ121、ディスプレイ194、カメラ193、無線通信モジュール160などに電力を供給する。電力管理モジュール141は、バッテリ容量、バッテリサイクル時間の量、およびバッテリの健康状態(漏電またはインピーダンス)などのパラメータを監視するようにさらに構成され得る。いくつかの他の実施形態では、電力管理モジュール141は、代替的に、プロセッサ110内に配置され得る。いくつかの他の実施形態では、電力管理モジュール141および充電管理モジュール140は、代替的に同じ構成要素に配置され得る。
電子デバイス100の無線通信機能は、アンテナ1、アンテナ2、移動体通信モジュール150、無線通信モジュール160、モデムプロセッサ、ベースバンドプロセッサなどを使用することによって実装され得る。
アンテナ1およびアンテナ2は、電磁波信号を送受信するように構成される。電子デバイス100の各アンテナは、単一の通信周波数帯域または複数の通信周波数帯域をカバーするように構成され得る。アンテナの利用を向上させるために、異なるアンテナがさらに多重化され得る。例えば、アンテナ1は、無線ローカルエリアネットワークのダイバーシティアンテナとして多重化され得る。いくつかの他の実施形態では、アンテナは、調整スイッチと組み合わせて使用され得る。
移動体通信モジュール150は、電子デバイス100に適用される2G / 3G / 4G / 5Gなどを含む無線通信のための解決策を提供し得る。移動体通信モジュール150は、1つまたは複数のフィルタ、1つまたは複数のスイッチ、1つまたは複数の電力増幅器、1つまたは複数の低雑音増幅器(low noise amplifier, LNA)などを含み得る。移動体通信モジュール150は、アンテナ1を使用することによって電磁波を受信し得、受信した電磁波に対してフィルタリングまたは増幅などの処理を行い得、復調のために電磁波をモデムプロセッサに送信し得る。移動体通信モジュール150は、モデムプロセッサによって変調された信号をさらに増幅し得、アンテナ1を使用することによって信号を電磁波に変換し得、電磁波を放射し得る。いくつかの実施形態では、移動体通信モジュール150の少なくともいくつかの機能モジュールは、プロセッサ110内に配置され得る。いくつかの実施形態では、移動体通信モジュール150内の少なくともいくつかの機能モジュールおよびプロセッサ110内の少なくともいくつかのモジュールは、同じ構成要素に配置され得る。
モデムプロセッサは、変調器および復調器を含み得る。変調器は、送信される低周波数ベースバンド信号を中高周波数信号に変調するように構成される。復調器は、受信した電磁波信号を低周波ベースバンド信号に復調するように構成される。次に、復調器は、復調によって得られた低周波ベースバンド信号を、処理のためにベースバンドプロセッサに送信する。低周波ベースバンド信号は、ベースバンドプロセッサによって処理され、次いで、アプリケーションプロセッサに送信される。アプリケーションプロセッサは、音声デバイス(ラウドスピーカー170A、電話受信機170Bなどに限定されない)を使用することによって音声信号を出力するか、またはディスプレイ194を使用することによって画像またはビデオを表示する。いくつかの実施形態では、モデムプロセッサは、独立したコンポーネントであり得る。いくつかの他の実施形態では、モデムプロセッサは、プロセッサ110から独立し得、移動体通信モジュール150または別の機能モジュールと同じコンポーネントに配置される。
無線通信モジュール160は、電子デバイス100に適用される、無線ローカルエリアネットワーク(wireless local area networks, WLAN)(ワイヤレスフィデリティ(wireless fidelity, Wi-Fi)ネットワークなど)、ブルートゥース(Bluetooth, BT)、グローバルナビゲーション衛星システム(global navigation satellite system, GNSS)、周波数変調(frequency modulation, FM)、近距離通信(near field communication, NFC)技術、赤外線(infrared, IR)技術などを含む無線通信のための解決策を提供し得る。無線通信モジュール160は、1つまたは複数の通信処理モジュールと統合された1つまたは複数のコンポーネントであり得る。無線通信モジュール160は、アンテナ2を使用することによって電磁波を受信し、電磁波信号に対して周波数変調およびフィルタリング処理を実行し、処理された信号をプロセッサ110に送信する。無線通信モジュール160はさらに、プロセッサ110から送信される信号を受信し、信号に対して周波数変調を実行して信号を増幅し、アンテナ2を使用することによって信号を電磁波に変換し、電磁波を放射し得る。
いくつかの実施形態では、電子デバイス100のアンテナ1および移動体通信モジュール150が結合され、アンテナ2および無線通信モジュール160が結合され、その結果、電子デバイス100は、無線通信技術を使用することによってネットワークおよび別のデバイスと通信し得る。無線通信技術は、移動体通信のためのグローバルシステム(global system for mobile communications, GSM)、一般的なパケット無線サービス(general packet radio service, GPRS)、符号分割多元接続(code division multiple access, CDMA)、広帯域符号分割多元接続(wideband code division multiple access, WCDMA)、時分割符号分割多元接続(time-division code division multiple access, TD-SCDMA)、ロングタームエボリューション(long term evolution, LTE)、BT、GNSS、WLAN、NFC、FM、IR技術などを含み得る。GNSSは、全地球測位システム(global positioning system, GPS)、全地球測位衛星システム(global navigation satellite system, GLONASS)、BeiDou航法衛星システム(beidou navigation satellite system, BDS)、準天頂衛星システム(quasi-zenith satellite system, QZSS))、および/または衛星ベースの増強システム(satellite based augmentation systems, SBAS)を含み得る。
電子デバイス100は、GPU、ディスプレイ194、アプリケーションプロセッサなどを使用することによって表示機能を実装する。GPUは、画像処理のためのマイクロプロセッサであり、ディスプレイ194およびアプリケーションプロセッサに接続される。GPUは、数学的および幾何学的計算を実行するように構成され、画像のレンダリングに使用される。プロセッサ110は、表示情報を生成または変更するためのプログラム命令を実行する1つまたは複数のGPUを含み得る。
ディスプレイ194は、画像、ビデオなどを表示するように構成される。ディスプレイ194は、ディスプレイパネルを含む。ディスプレイパネルは、液晶ディスプレイ(liquid crystal display, LCD)、有機発光ダイオード(organic light-emitting diode, OLED)、アクティブマトリックス有機発光ダイオードまたはアクティブマトリックス有機発光ダイオード(active-matrix organic light emitting diode, AMOLED)、フレキシブル発光ダイオード(flex light-emitting diode, FLED)、ミニLED、マイクロLED、マイクロOLED、量子ドット発光ダイオード(quantum dot light emitting diodes, QLED)などを使用し得る。いくつかの実施形態では、電子デバイス100は、1つまたはN個のディスプレイ194を含み得、Nは、1より大きい正の整数である。
電子デバイス100は、ISP、カメラ193、ビデオコーデック、GPU、ディスプレイ194、アプリケーションプロセッサなどを使用することによって、写真撮影機能を実装し得る。
ISPは、カメラ193によってフィードバックされたデータを処理するように構成される。例えば、撮影中、シャッターが有効になり、レンズを介してカメラの感光性要素に光が送信され、光信号が電気信号に変換され、カメラの感光性要素が処理のために電気信号をISPに送信し、電気信号を見ることができる画像に変換する。ISPはさらに、画像のノイズ、輝度、および肌の色のアルゴリズム最適化を実行し得る。ISPは、撮影シーンの露出や色温度などのパラメータをさらに最適化し得る。いくつかの実施形態では、ISPは、カメラ193内に配置され得る。
カメラ193は、静止画像またはビデオをキャプチャするように構成される。物体の光学画像は、レンズを使用することによって生成され、感光性要素に投影される。感光性要素は、電荷結合デバイス(charge coupled device, CCD)または相補型金属酸化膜半導体(complementary metal-oxide-semiconductor, CMOS)光電トランジスタであり得る。感光性要素は、光信号を電気信号に変換し、次に電気信号をISPに送信して、電気信号をデジタル画像信号に変換する。ISPは、デジタル画像信号を処理のためにDSPに出力する。DSPは、デジタル画像信号をRGBまたはYUVなどの標準形式の画像信号に変換する。いくつかの実施形態では、電子デバイス100は、1つまたはN個のカメラ193を含み得、Nは、1より大きい正の整数である。
デジタル信号プロセッサは、デジタル信号を処理するように構成され、デジタル画像信号に加えて別のデジタル信号をさらに処理し得る。例えば、電子デバイス100が周波数を選択するとき、デジタル信号プロセッサは、周波数エネルギーに対してフーリエ変換などを実行するように構成される。
ビデオコーデックは、デジタルビデオを圧縮または解凍するように構成される。電子デバイス100は、1つまたは複数のビデオコーデックをサポートすることができる。このように、電子デバイス100は、複数の符号化フォーマット、例えば、動画専門家グループ(moving picture experts group, MPEG)1、MPEG2、MPEG3、およびMPEG4でビデオを再生または記録することができる。
NPUはニューラルネットワーク(neural-network, NN)コンピューティングプロセッサであり、例えば人間の脳のニューロン間の伝達モードを参照するなど、生物学的ニューラルネットワーク構造を参照することによって入力情報を迅速に処理し、さらに継続的に自己学習を実行できる。電子デバイス100のインテリジェント認識などのアプリケーションは、画像認識、顔認識、音声認識、およびテキスト理解などのNPUを使用することによって実装することができる。
外部メモリインターフェース120は、電子デバイス100の記憶能力を拡張するために、マイクロSDカードなどの外部記憶カードに接続するように構成され得る。外部記憶カードは、外部メモリインターフェース120を使用することによってプロセッサ110と通信し、データ記憶機能を実装して、例えば、音楽またはビデオなどのファイルを外部記憶カードに記憶する。
内部メモリ121は、1つまたは複数のコンピュータプログラムを格納するように構成され得、1つまたは複数のコンピュータプログラムは、命令を含む。プロセッサ110は、内部メモリ121に記憶された命令を実行し得、電子デバイス100が、この出願のいくつかの実施形態で提供されるコンタクト、様々な機能アプリケーション、データ処理などをインテリジェントに推奨する方法を実行できるようにする。内部メモリ121は、プログラム記憶領域およびデータ記憶領域を含み得る。プログラム記憶領域は、オペレーティングシステムを記憶し得る。プログラム記憶領域は、1つまたは複数のアプリケーションプログラム(ギャラリーおよび連絡先など)をさらに記憶し得る。データ記憶領域は、電子デバイス101の使用中に作成されたデータ(写真や連絡先など)を記憶し得る。さらに、内部メモリ121は、高速ランダムアクセスメモリを含み得、さらに、1つまたは複数のディスクストレージコンポーネント、フラッシュコンポーネント、またはユニバーサルフラッシュストレージ(universal flash storage, UFS)などの、不揮発性メモリを含み得る。いくつかの他の実施形態では、プロセッサ110は、内部メモリ121に記憶された命令および/またはプロセッサに配置されたメモリに記憶された命令を実行して、電子デバイス100が、この出願の実施形態で提供される番号をインテリジェントに推奨する方法、さまざまな機能アプリケーション、およびデータ処理を実行できるようにする。
電子デバイス100は、音声モジュール170、ラウドスピーカー170A、電話受信機170B、マイクロフォン170C、ヘッドセットインターフェース170D、アプリケーションプロセッサなどを使用することによって、音楽の再生または録音などの音声機能を実装し得る。
音声モジュール170は、デジタル音声情報をアナログ音声信号に変換し、アナログ音声信号を出力するように構成され、また、アナログ音声入力をデジタル音声信号に変換するように構成される。音声モジュール170は、音声信号を符号化および復号するようにさらに構成され得る。いくつかの実施形態では、音声モジュール170は、プロセッサ110内に配置され得るか、または音声モジュール170のいくつかの機能モジュールが、プロセッサ110内に配置され得る。
「スピーカー」とも呼ばれるラウドスピーカー170Aは、音声電気信号を音声信号に変換するように構成される。電子デバイス100は、ラウドスピーカー170Aを使用することによって、ハンズフリーモードで音楽を再生したり、電話に応答したりし得る。
「イヤピース」とも呼ばれる電話受信機170Bは、音声電気信号を音声信号に変換するように構成される。電子デバイス100を使用することによって電話に出たり、音声情報を聞いたりする場合、音声を聞くために、電話受信機170Bを人間の耳に近づけ得る。
「マイクロフォン」または「マイクロフォン」とも呼ばれるマイクロフォン170Cは、音声信号を電気信号に変換するように構成される。電話をかけるとき、または音声情報を送信するとき、ユーザは、口をマイクロフォン170Cに近づけて、音声信号をマイクロフォン170Cに入力することによって音を出し得る。1つまたは複数のマイクロフォン170Cは、電子デバイス100に配置され得る。いくつかの他の実施形態では、2つのマイクロフォン170Cが電子デバイス100に配置され得、音声信号を収集することに加えて、ノイズ低減機能をさらに実装し得る。いくつかの他の実施形態では、代わりに、3つ、4つ、またはそれ以上のマイクロフォン170Cが電子デバイス100に配置され得、音声信号を収集し、ノイズを低減し、さらに音源を識別し、指向性録音機能などを実装する。
この出願のこの実施形態では、電子デバイス100がカラオケアプリケーションを実行するとき、マイクロフォン170Cは、ユーザのアカペラ、具体的には、ユーザが歌を歌うときの音楽のない純粋な人間の声を収集するために使用され得る。さらに、音声モジュール170は、対応する音声補正アルゴリズムを使用し得、収集されたユーザのアカペラを補正する。
例えば、比較的明白なまたは無秩序な息継ぎ音が、ユーザによって録音された歌Aのユーザのアカペラに現れる場合、音声モジュール170は、ユーザのアカペラ内の対応する位置で息継ぎ音に対して弱化処理を実行し得、歌のリスニング品質を向上させる。
別の例では、ビブラートが歌Aの元の歌手のアカペラに現れる場合、音声モジュール170は、ユーザによって録音された歌Aのユーザのアカペラの対応する位置でもビブラートが使用されているかどうかを検出し得る。ユーザによって使用されるビブラート効果が良くない場合、音声モジュール170は、歌のリスニング品質を改善するために、ユーザのアカペラ内の対応する位置でビブラートを補正し得る。
別の例では、音声モジュール170は、歌Aのユーザのアカペラを元の歌手のアカペラと比較することによって、ユーザのアカペラにおいて「調子外れ」が発生する位置を識別し得、さらに、音声モジュール170は、ユーザのアカペラで「調子外れ」が発生する位置で対応するトーン上昇またはトーン下降を実行し得、それによって、ユーザのアカペラのイントネーションの問題を補正する。電子デバイス100によって、マイクロフォン170Cによって収集されたユーザのアカペラを補正するための特定の方法が、後続の実施形態で詳細に説明される。したがって、ここでは詳細を説明しない。
この出願のこの実施形態では、電子デバイスは、ユーザによって録音された歌のイントネーションを較正することに加えて、ユーザによって録音された歌の息継ぎまたはビブラートなどの歌唱スキルの問題をさらに解決し得ることが学習され得る。このように、プロの声楽訓練を受けていない一般のユーザも、比較的良好なリスニング品質で歌声を録音することができ、それにより、ユーザがカラオケアプリケーションを使用するときの録音効果および使用体験を改善する。
ヘッドセットインターフェース170Dは、有線ヘッドセットに接続するように構成される。ヘッドセットインターフェース170Dは、USBインターフェース130であり得るか、あるいは3.5mmのオープンモバイル端末プラットフォーム(open mobile terminal platform, OMTP)標準インターフェースまたは米国のセルラー通信工業会(cellular telecommunications industry association of the USA, CTIA)の標準インターフェースであり得る。
センサ180は、圧力センサ180A、ジャイロセンサ180B、気圧センサ180C、磁気センサ180D、加速度センサ180E、距離センサ180F、光近接センサ180G、指紋センサ180H、温度センサ180J、タッチセンサ180K、環境光センサ180L、骨伝導センサ180Mなどを含み得る。
ボタン190は、電源ボタン、音量ボタンなどを含む。ボタン190は、機械的ボタンであり得るか、またはタッチボタンであり得る。電子デバイス100は、ボタン入力を受信し得、電子デバイス100のユーザ設定および機能制御に関連するボタン信号入力を生成し得る。
モータ191は、振動プロンプトを生成し得る。モータ191は、着信振動プロンプトに使用され得、タッチ振動フィードバックにも使用され得る。例えば、さまざまなアプリケーション(写真撮影や音声再生など)で実行されるタッチ操作は、さまざまな振動フィードバック効果に対応し得る。モータ191はまた、ディスプレイ194の異なる領域で実行されるタッチ操作のための異なる振動フィードバック効果に対応し得る。さまざまなアプリケーションシナリオ(例えば、時間リマインダー、情報受信、目覚まし時計、ゲーム)も、さまざまな振動フィードバック効果に対応し得る。タッチ振動フィードバック効果のカスタマイズがさらにサポートされ得る。
インジケータ192は、充電状態および電力変化を示すために使用され得るインジケータライトであり得るか、またはメッセージ、不在着信、通知などを示すために使用され得る。
SIMカードインターフェース195は、SIMカードに接続するように構成される。SIMカードは、SIMカードインターフェース195に挿入されるか、またはSIMカードインターフェース195から引き抜かれて、電子デバイス100と接触するか、または電子デバイス100から分離され得る。電子デバイス100は、1つまたはN個のSIMカードインターフェースをサポートし得、Nは、1より大きい正の整数である。SIMカードインターフェース195は、ナノSIMカード、マイクロSIMカード、SIMカードなどをサポートし得る。複数のカードが同時に同じSIMカードインターフェース195に挿入され得る。複数のカードは、同じタイプであっても、異なるタイプであってもよい。SIMカードインターフェース195はまた、異なるタイプのSIMカードと互換性があり得る。SIMカードインターフェース195はまた、外部記憶カードと互換性があり得る。電子デバイス100は、SIMカードを使用することによってネットワークと相互作用し、通話機能、データ通信機能などを実装する。いくつかの実施形態では、電子デバイス100は、eSIM、すなわち、埋め込まれたSIMカードを使用する。eSIMカードは、電子デバイス100に埋め込まれてもよく、電子デバイス100から分離することはできない。
電子デバイス100のソフトウェアシステムは、階層的アーキテクチャ、イベント駆動型アーキテクチャ、マイクロコアアーキテクチャ、マイクロサービスアーキテクチャ、またはクラウドアーキテクチャを使用し得る。この出願のこの実施形態では、階層アーキテクチャのアンドロイドシステムが、電子デバイス100のソフトウェア構造を説明するための例として使用される。
図2は、本出願の実施形態による電子デバイス100のソフトウェア構造のブロック図である。
階層アーキテクチャでは、ソフトウェアはいくつかの層に分割され、各層は明確な役割とタスクを有する。レイヤーは、ソフトウェアインターフェースを使用して相互に通信する。いくつかの実施形態では、アンドロイドシステムは4つの層、すなわち、上から下へ、アプリケーションプログラム層、アプリケーションプログラムフレームワーク層、アンドロイドランタイム(Android runtime)およびシステムライブラリ、ならびにカーネル層に分割される。
アプリケーションプログラム層は、一連のアプリケーションパッケージを含み得る。
図2に示されるように、アプリケーションパッケージは、通話、連絡先、カメラ、ギャラリー、カレンダー、地図、ナビゲーション、ブルートゥース、音楽、ビデオ、およびメッセージなどのAPP(アプリケーション、アプリケーション)を含み得る。
この出願のこの実施形態では、「Changba」APPまたは「WeSing」APPなどのカラオケアプリケーションは、アプリケーションプログラム層にさらにインストールされ得る。ユーザは、カラオケアプリケーションを使用して歌を録音し得、ユーザの歌声をカラオケアプリケーションによって提供される伴奏に統合する。
アプリケーションプログラムフレームワーク層は、アプリケーションプログラミングインターフェース(application programming interface, API)と、アプリケーションプログラム層でのアプリケーションプログラムのプログラミングフレームワークを提供する。アプリケーションプログラムフレームワーク層は、いくつかの事前定義された機能を含む。
図2に示されるように、アプリケーションプログラムフレームワーク層は、ウィンドウマネージャ、コンテンツプロバイダ、ビューシステム、リソースマネージャ、通知マネージャなどを含み得る。
ウィンドウマネージャは、ウィンドウプログラムを管理するように構成される。ウィンドウマネージャは、表示サイズを取得し得、ステータスバー、ロック画面、画面キャプチャなどがあるかどうかを判断し得る。コンテンツプロバイダは、データを保存および取得し、アプリケーションプログラムがデータにアクセスできるようにするように構成される。データは、ビデオ、画像、音声、発信および応答された通話、閲覧履歴およびブックマーク、名簿などを含み得る。ビューシステムは、テキストを表示するためのコントロールおよび画像を表示するためのコントロールなどの視覚的コントロールを含む。ビューシステムは、アプリケーションプログラムを構築するように構成され得る。表示インターフェースは、1つまたは複数のビューを含み得る。例えば、ショートメッセージングサービスメッセージ通知アイコンを含む表示インターフェースは、テキストを表示するためのビューおよび画像を表示するためのビューを含み得る。リソースマネージャは、アプリケーションプログラムのローカライズされた文字列、アイコン、画像、レイアウトファイル、ビデオファイルなどのさまざまなリソースを提供する。通知マネージャは、アプリケーションプログラムがステータスバーに通知情報を表示できるようにし、タイプ通知メッセージを伝達するように構成され得る。タイプ通知メッセージは、少し間を置いて自動的に消えてもよく、ユーザの操作は必要ない。例えば、通知マネージャは、ダウンロードの完了、メッセージプロンプトなどを通知するように構成される。あるいは、通知マネージャは、グラフまたはスクロールバーテキストの形式でシステムの上部ステータスバーに現れる通知、例えば、バックグラウンドで実行されているアプリケーションプログラムの通知であり得、またはダイアログウィンドウの形式で画面上に現れる通知であり得る。例えば、テキスト情報がステータスバーに表示されたり、プロンプト音が鳴ったり、電子デバイスが振動したり、インジケータライトが点滅したりする。
システムライブラリは、表面マネージャ(surface manager)、メディアライブラリ(Media Libraries)、3次元グラフィックス処理ライブラリ(例えば、OpenGL ES)、および2Dグラフィックスエンジン(例えば、SGL)などの複数の機能モジュールを含み得る。
表面マネージャは、ディスプレイサブシステムを管理し、複数のアプリケーションプログラムに2Dおよび3Dレイヤーの融合を提供するように構成される。メディアライブラリは、一般的に使用される複数の音声およびビデオフォーマット、静止画像ファイルなどの再生および記録をサポートする。メディアライブラリは、MPEG4、H.264、MP3、AAC、AMR、JPG、PNGなどの複数の音声およびビデオ符号化フォーマットをサポートし得る。三次元グラフィックス処理ライブラリは、三次元グラフィックス描画、画像レンダリング、合成、レイヤー処理などを実装するように構成される。2Dグラフィックスエンジンは、2D描画用の描画エンジンである。
この出願のこの実施形態では、依然として図2に示されるように、本出願のこの実施形態で提供される関連する音声補正アルゴリズムは、動的アルゴリズムライブラリ(dynamic link library, DLL)の形態でシステムライブラリに設定され得る。例えば、音声補正アルゴリズムの動的アルゴリズムライブラリは、system/libディレクトリに記憶され得る。カラオケアプリケーションがアプリケーションプログラム層で実行されると、カラオケアプリケーションは、音声補正アルゴリズムの動的アルゴリズムライブラリを呼び出して、ユーザのアカペラのイントネーション、ビブラート、息継ぎ音などの問題を補正し得、それによって音声補正機能を実装する。
アンドロイドランタイムは、カーネルライブラリと仮想マシンを含む。アンドロイドランタイムは、アンドロイドシステムのスケジューリングと管理を担当する。
カーネルライブラリは、Java言語によって呼び出す必要のある関数とアンドロイドのカーネルライブラリとの2つの部分を含む。
アプリケーションプログラム層とアプリケーションプログラムフレームワーク層は、仮想マシンで実行される。仮想マシンは、アプリケーションプログラム層とアプリケーションプログラムフレームワーク層でJavaファイルをバイナリファイルとして実行する。仮想マシンは、オブジェクトのライフサイクル管理、スタック管理、スレッド管理、セキュリティと例外の管理、ガベージコレクションなどの機能を実行するように構成される。
カーネル層は、ハードウェアとソフトウェアとの間の層である。カーネル層は、少なくともディスプレイドライブ、カメラドライブ、音声ドライブ、センサドライブなどを含む。これは、この出願のこの実施形態では限定されない。
以下の電子デバイスの一例として、添付の図面を参照して本出願の実施形態で提供される歌の録音方法および音声補正方法を詳細に説明するために、携帯電話が使用される。図3に示されるように、方法は、以下のステップS301からS306を含む。
S301。カラオケアプリケーションを実行すると、携帯電話は、ユーザによって、歌Aを録音することを選択する操作を受け取る。
カラオケアプリケーションは、歌のリクエスト、歌の録音、音声補正などの機能をユーザに提供できるアプリケーションソフトウェアである。例えば、カラオケアプリケーションは「WeSing」APPまたは「Changba」APPであり得る。これは、この出願のこの実施形態では限定されない。
携帯電話がユーザによるカラオケアプリケーションを開く操作を検出した場合、図4に示すように、携帯電話はカラオケアプリケーションの実行を開始し得、カラオケアプリケーションの第1のインターフェース401を表示し得る。ユーザは、ユーザが好きな歌について第1のインターフェース401を検索し、その歌を録音し得る。あるいは、ユーザは、検索バー402で手動で検索を実行し、記録する必要のある歌を選択し得る。確かに、ユーザは、代わりに、カラオケアプリケーションの別の画面から、今回録音する必要がある歌を選択し得る。これは、この出願のこの実施形態では限定されない。
依然として図4に示されるように、ユーザが歌「Red Bean」を録音したい場合、ユーザは、第1のインターフェース401上で歌「Red Bean」の録音ボタン403をタップし得る。この場合、携帯電話は、ユーザが歌「Red Bean」を録音することを選択する操作を受け取り得る。ユーザが歌「Red Bean」を録音することを選択する操作に応じて、携帯電話は、引き続き以下のステップS302~S306を実行して、歌の録音および音声補正などのプロセスを完了し得る。
S302。携帯電話は、歌Aの伴奏と元の歌手のアカペラの特徴情報とを取得する。
ユーザが歌「Red Bean」を録音することは、依然として例として使用される。ユーザが歌「Red Bean」の録音ボタン403をタップしたことを検出した後、携帯電話は、歌「Red Bean」の伴奏をサーバからダウンロードし得る。確かに、携帯電話が今回、歌「Red Bean」の伴奏を記憶すれば、携帯電話はローカルメモリから伴奏を取得し得る。一般に、人間の声以外の歌の一部は伴奏と呼ばれることがあり、一部の伴奏はさらにハーモニー、背景音などを含むことがある。
この出願のこの実施形態では、ユーザが歌「Red Bean」の録音ボタン403をタップしたことを検出した後、携帯電話はさらに、歌「Red Bean」の元の歌手のアカペラの特徴情報をサーバからダウンロードし得る。特徴情報は、歌「Red Bean」を歌うときの元の歌手(例えば、Faye Wong)の歌唱の特徴を反映し得る。例えば、特徴情報は、元の歌手のアカペラの1つまたは複数の基本周波数情報、息継ぎ位置、およびビブラート特徴を含み得る。ビブラート特徴は、ビブラート位置、ビブラートの基本周波数安定性情報、ビブラート周波数、およびビブラート振幅のうちの1つまたは複数を含み得る。
基本周波数情報は、音の基本的なトーンを反映し得る。図5に示すように、サーバは、歌「Red Bean」の元の歌手のアカペラから基本周波数-時間変動曲線f(t)をフレームごとに事前に抽出し得、変動曲線f(t)は歌「Red Bean」の基本周波数情報である。依然として図5に示されるように、サーバは、元の歌手のアカペラで元の歌手が息継ぎする位置をさらに検出し得、元の歌手が息継ぎする瞬間を特徴情報の一部として使用し得る。同様に、依然として図5に示されるように、サーバは、元の歌手のアカペラにビブラートが現れる位置をさらに検出し得、ビブラートが現れる瞬間を特徴情報の一部として使用し得る。
一般的に、ビブラートは周期的なピッチ変動として現れる。ビブラート特徴を有する基本周波数曲線から、振動振幅A(t)、振動周波数Φ(t)、安定傾向項目V(t)の3つの時変特徴を抽出することができる。例えば、ビブラート1は、歌「RedBean」の元の歌手のアカペラの3番目の文に現れる。ビブラート1に対応する基本周波数曲線は、f3(t)= V(t)+A(t)cos(Φ(t))であり、tは[8s、10s]の範囲内にある。V(t)はビブラート1の基本周波数安定性情報であり、Φ(t)はビブラート1のビブラート周波数であり、A(t)はビブラート1のビブラート振幅である。サーバは、歌「Red Bean」の各ビブラートの基本周波数安定性情報、ビブラート周波数、およびビブラート振幅を特徴情報として携帯電話に送信し得る。
例えば、新しい歌がサーバ内の歌ライブラリに追加されるたびに、サーバは、新しい歌の元の歌手のアカペラに基づいて対応する特徴情報を抽出し得、抽出された特徴情報をサーバに記憶し得る。続いて、ユーザが携帯電話で歌を録音することを選択した場合、携帯電話は、サーバから歌の伴奏を取得し得、さらに、サーバから、歌に対応する元の歌手のアカペラの特徴情報を取得し得る。元の歌手のアカペラの得られた特徴情報は、ユーザが歌を録音するように案内するために使用され得、また、ユーザが録音した歌を補正するための音声補正基準としても使用され得る。
S303。カラオケアプリケーションの録音インターフェースを表示するとき、携帯電話は歌Aの伴奏を再生し、ユーザが歌うユーザのアカペラを録音する。
ユーザが歌「Red Bean」を録音することは、依然として例として使用される。携帯電話が歌「Red Bean」の伴奏を取得した後、携帯電話は歌「Red Bean」の伴奏を再生し始め得る。さらに、携帯電話は、ユーザが歌「Red Bean」を歌った後に得られるユーザのアカペラをマイクロフォンが録音し始めることを可能にし得る。
図6に示すように、歌「Red Bean」を録音するプロセスで、携帯電話は、歌「Red Bean」の録音インターフェース601を表示し得る。録音インターフェース601は、歌「Red Bean」の歌詞602を表示し得、録音されている歌詞の位置は、歌詞602にリアルタイムでマークされ得、その結果、ユーザは、歌詞602のプロンプトに基づいて歌を録音することができる。
S304。歌Aを録音しているとき、携帯電話は、元の歌手のアカペラの特徴情報に基づいて、イントネーション、息継ぎ、ビブラートなどの歌唱方法を調整するようにユーザに指示する。
例えば、ユーザがカラオケアプリケーションを用いて歌を録音する場合、歌詞602を表示する際に、携帯電話は、ステップS302で取得された特徴情報に基づいて、ユーザに歌を歌うように案内し、例えば、イントネーション、息継ぎ、またはビブラートなどのユーザの歌唱方法を案内し得る。
ユーザが歌「Red Bean」を録音することは、依然として例として使用される。ユーザのアカペラであり、携帯電話によって取得される特徴情報は、息継ぎ位置およびビブラート位置などの情報を含む。この場合、図7に示すように、歌「Red Bean」の歌詞602をリアルタイムで表示するとき、携帯電話は、元の歌手のアカペラの特徴情報に記録された息継ぎ位置に基づいて、歌詞602の対応する位置に息継ぎ位置701(すなわち、息継ぎプロンプト)をマークし得る。このように、歌「Red Bean」を録音するとき、ユーザは、歌詞602でプロンプトされた息継ぎ位置701に基づいて息継ぎし得、ユーザが歌う間の息継ぎの変化を制御するのを助け、それによって、録音された歌の比較的明白で無秩序な息継ぎ音を低減し、録音された歌のリスニング品質を改善する。
別の例では、依然として図7に示されるように、歌「Red Bean」の歌詞602をリアルタイムで表示する場合、携帯電話は、元の歌手のアカペラの特徴情報に記録されたビブラート位置に基づいて、歌詞602の対応する位置にビブラート位置702(すなわち、ビブラートプロンプト)をさらにマークし得る。このように、歌「Red Bean」を録音するとき、ユーザは、歌詞602でプロンプトされたビブラート位置702に基づいてビブラートで歌い得、ユーザが歌っているときの歌の階層感および歌唱スキルを改善し、それによって、録音された歌のリスニング品質を改善する。
いくつかの他の実施形態では、リアルタイムで表示される歌詞において、ユーザが歌うように案内することに加えて、携帯電話は、録音インターフェース上に歌唱ツールをさらに設定し得る。携帯電話は、歌唱ツールにおいて、イントネーション、息継ぎ、またはビブラートなどの歌唱方法を調整するようにユーザを案内し得る。
ユーザが歌「Red Bean」を録音することは、依然として例として使用される。図8に示されるように、録音インターフェース601を表示するとき、携帯電話は、録音インターフェース601上に歌唱ツール801を設定し得る。歌唱ツール801は、現在録音されている歌詞の文中の各単語の音符を表示し得る。例えば、携帯電話は、元の歌手のアカペラの基本周波数情報に基づいて、歌唱ツール801にトーンライン802(すなわち、イントネーションプロンプト)をリアルタイムで表示し得る。現在の音符のより高いトーンは、トーンライン802のより高い位置につながる。別の例では、携帯電話は、元の歌手のアカペラ内のビブラート位置に基づいて、歌唱ツール801にビブラート音符803(すなわち、ビブラートプロンプト)を表示し得る。ビブラート音符803は、特定の色のブレークラインまたはラインセグメントによって表され得る。ビブラート音符803が現れる位置は、元の歌手のアカペラにビブラートが現れる位置と同じである。別の例では、現在の歌詞の文に対応する元の歌手のアカペラに息継ぎ音が現れる場合、携帯電話は、元の歌手のアカペラの息継ぎ位置に基づいて、歌唱ツール801に息継ぎ音符804(すなわち、息継ぎプロンプト)を表示し得る。息継ぎ音符804は、三角形または円などの指定された形状のグラフによって表され得る。息継ぎ音符804が現れる位置は、元の歌手のアカペラに息継ぎ音が現れる位置と同じである。
このように、歌を録音するとき、ユーザは、リアルタイムで歌唱ツール801に表示されるトーンラインに基づいて人間の声のイントネーションを調整するか、またはリアルタイムで歌唱ツールに表示されるビブラート音符に基づいて対応する位置でビブラートを用いて歌うか、またはリアルタイムで歌唱ツール801に表示される息継ぎ音符に基づいて対応する位置で息継ぎし得、録音プロセスにおけるユーザの歌唱中のイントネーション、ビブラート、および息継ぎなどの歌唱スキルを案内し、それにより、歌の録音品質を改善する。
ユーザが歌を録音するとき、録音インターフェースに表示される歌詞および歌唱ツールにおいて、ユーザが歌うように案内することに加えて、ユーザが歌を録音しているとき、当業者は、元の歌手のアカペラの特徴情報を使用することによって、実際の経験または実際の適用シナリオに基づいて、ユーザが歌をよりよく歌うようにさらに案内し得ることを理解し得る。これは、この出願のこの実施形態では限定されない。
S305。歌Aが録音されているとき、携帯電話は、元の歌手のアカペラの特徴情報をユーザのアカペラの特徴情報と比較することによって、ユーザの歌唱を評価する。
ユーザが歌「Red Bean」を録音することは、依然として例として使用される。歌「Red Bean」が録音されているとき、携帯電話は、元の歌手のアカペラの特徴情報に基づいて、ユーザの現在の歌唱をリアルタイムでさらに評価し得る。例えば、携帯電話は、歌詞中の単語、句、または文を粒度として使用することによって、ユーザの歌唱を評価し得る。図9Aおよび図9Bに示されるように、携帯電話は、ユーザが「I believe an end comes at a time」と歌った後に得られるユーザのアカペラを収集した後、この文のユーザのアカペラの特徴情報を抽出し得る。元の歌手のカペラの特徴情報と同様に、携帯電話は、最初に、この文のユーザのカペラの基本周波数情報を抽出し、ユーザのアカペラの基本周波数情報に基づいて、ユーザの息継ぎ位置、ビブラート位置、ビブラートの基本周波数安定性情報、ビブラート周波数、およびビブラート振幅などの1つまたは複数の特徴情報を検出し得る。
この場合、「I believe an end comes at a time」と歌うときの元の歌手の特徴情報1と、「I believe an end comes at a time」と歌うときのユーザの特徴情報2とを比較することにより、この文を歌うときのユーザのイントネーション、ビブラート、および息継ぎなどの歌唱スキルの評価結果を決定し得る。
例えば、ユーザのアカペラの基本周波数情報と元の歌手のアカペラの基本周波数情報との差がしきい値未満である場合、この文を歌うときのユーザのイントネーションが元の歌手のそれに一致することを示す。図10(a)に示されるように、携帯電話は、録音インターフェース601上に「イントネーション エキスパート」というプロンプト1001を表示し得、この文を歌うときにユーザがイントネーションにおいて正しいことをユーザに通知する。ユーザのアカペラのビブラート位置が元の歌手のアカペラのビブラート位置と同じであり、ユーザのアカペラのビブラートのビブラート特徴(具体的には、ビブラート周波数、ビブラート振幅、および基本周波数安定性情報)と元の歌手のアカペラの対応するビブラート特徴との差がしきい値未満である場合、この文を歌うときにユーザが行ったビブラートが元の歌手のそれと一致することを示す。図10(b)に示されるように、携帯電話は、録音インターフェース601上に「ビブラート クイーン」のプロンプト1002を表示し得る。ユーザのアカペラの息継ぎ音の位置が元の歌手のアカペラの息継ぎ音の位置と同じである場合、この文を歌うときのユーザの息継ぎ調整が元の歌手のそれと一致することを示す。図10(c)に示されるように、携帯電話は、録音インターフェース601上に「息継ぎ 取得」というプロンプト1003を表示し得る。
テキストを用いてリアルタイムで現在の評価結果をユーザに通知することに加えて、携帯電話は、色、振動、特殊効果などを用いてリアルタイムでユーザに現在の評価結果を表示し得る。
例えば、図11(a)に示されるように、「I believe an end comes at a time」という歌詞を歌うときにユーザが使用するビブラートが、元の歌手がこの文を歌うときに使用するビブラートと矛盾する場合、ビブラートに対応する歌詞「end」1101を表示するときに、携帯電話は、「end」1101を他の歌詞とは異なる色としてマークしたり、異なるフォントを使用したりし得る。別の例では、図11(b)に示されるように、この文を歌うときのユーザの息継ぎ位置が、この文を歌うときの元の歌手の息継ぎ位置と矛盾する場合、携帯電話は、息継ぎ位置に対応する歌詞を表示するときに息継ぎエラーサイン1102をマークし得る。
あるいは、携帯電話は、ユーザに対して、および録音インターフェース601上の歌唱ツール801において、携帯電話によって決定された評価結果をさらに表示し得る。例えば、図12(a)に示されるように、ユーザが「comes」という単語を歌うとき、携帯電話は、元の歌手が「comes」と歌ったときに得られるトーンライン1201を、歌唱ツール801においてリアルタイムで表示し得るだけでなく、同時に、今回、ユーザが「comes」という単語を歌ったときに得られるトーンライン1202を表示してもよい。ユーザが「comes」という単語を歌うときに使用される基本周波数が、元の歌手が「comes」という単語を歌うときに使用される基本周波数よりも低い場合、「comes」と歌うときのユーザのトーンが「comes」と歌うときの元の歌手トーンよりも低く、かつ携帯電話によって表示されるトーンライン1202は、トーンライン1201よりも低いことを示す。同様に、「comes」という単語を歌うときのユーザのトーンが、「comes」という単語を歌うときの元の歌手のトーンよりも高いことが検出された場合、携帯電話によって表示されるトーンライン1202は、トーンライン1201より高くあり得る。さらに、「comes」という単語を歌うときのユーザのトーンが「comes」という単語を歌うときの元の歌手のトーンと同じであることが検出された場合、歌唱ツール801のトーンライン1202は、トーンライン1201と一致する。このように、ユーザは、リアルタイムの歌唱中に歌唱ツール801から現在の歌唱のイントネーション状況を学習し得る。
別の例として、図12(b)に示されるように、携帯電話は、歌唱ツール801において、元の歌手がビブラート1を歌うときに得られるビブラート音符1203を表示し得る。ユーザがビブラート1を歌うときにユーザのアカペラを検出した後、携帯電話は、比較を通じて、ユーザがビブラート1を歌ったときに得られるビブラート位置、ビブラート振幅A(t)、ビブラート周波数Φ(t)、および安定傾向項目V(t)が、元の歌手がビブラート1を歌ったときに得られるビブラート位置、ビブラート振幅A(t)、ビブラート周波数Φ(t)、および安定傾向項目V(t)と一致するかどうかを決定し得る。ユーザがビブラート1を歌ったときに得られるビブラート位置、ビブラート振幅A(t)、ビブラート周波数Φ(t)、および安定傾向項目V(t)が、元の歌手がビブラート1を歌ったときに得られるビブラート位置、ビブラート振幅A( t)、ビブラート周波数Φ(t)、および安定傾向項目V(t)と一致しない場合、ユーザが今回ビブラート1を歌ったときに、事前設定されたビブラート効果が達成されていないことを示し、かつ、携帯電話が、点線などの表示効果としてビブラート音符1203を表示し得る。同様に、ユーザがビブラート1を歌ったときに得られるビブラート位置、ビブラート振幅A(t)、ビブラート周波数Φ(t)、および安定傾向項目V(t)が、元の歌手がビブラート1を歌ったときに得られるビブラート位置、ビブラート振幅A( t)、ビブラート周波数Φ(t)、および安定傾向項目V(t)と一致する場合、ユーザが今回ビブラート1を歌ったときに、事前設定されたビブラート効果が達成されたことを示し、図12(b)に示されるように、携帯電話は、ビブラート音符1203を太字または強調表示し得、その結果、ユーザは、リアルタイムの歌唱プロセスにおいて、歌唱ツール801から現在のビブラート歌唱効果を学習することができる。
当業者は、実際の経験または実際の適用シナリオに基づいて、かつ、元の歌手のアカペラの特徴情報に基づいて、歌を録音するときにリアルタイムでユーザが歌うユーザのアカペラをさらに評価し得、息継ぎスキル、ビブラートスキル、またはイントネーションの評価結果をユーザに表示し得、例えば、携帯電話は、元の歌手のアカペラの特徴情報に基づいてユーザのアカペラを採点し得、かつ、採点結果をユーザに表示し得ることが理解され得る。これは、この出願のこの実施形態では限定されない。
この出願のこの実施形態では、ユーザの歌の録音プロセスにおいて、イントネーション、ビブラート、または息継ぎなどのユーザの1つまたは複数の歌唱スキルが、元の歌手のアカペラの特徴情報に基づいてリアルタイムで評価され得ることが学習することができる。イントネーションのみに基づいてユーザの歌唱レベルを評価することと比較して、本出願の本実施形態では、ユーザの歌唱の評価時に、ユーザの息継ぎやビブラートなどの要素も考慮され、したがって、得られた評価結果はより正確であり、より豊富であり、より客観的である。さらに、携帯電話は、録音プロセスにおいてリアルタイムでユーザの歌唱の評価結果をユーザにフィードバックし得、その結果、ユーザは、ユーザの現在の歌唱効果を時間内に学習し、後続の録音プロセスにおいて時間内に歌唱方法を調整することができる。
S306。歌Aの録音が終了した後、携帯電話は、元の歌手のアカペラの特徴情報およびユーザのアカペラの特徴情報に基づいて、ユーザのアカペラを補正する。
携帯電話が歌Aの伴奏の再生を終了するか、または、ユーザが入力した録音を終了する操作を検出すると、携帯電話はマイクロフォンを無効にし得、ユーザが行ったアカペラの収集を停止する。また、歌Aの録音が終了した後、図13に示されるように、携帯電話は、カラオケアプリケーションの音声補正インターフェース1301を表示し得る。音声補正インターフェース1301は、音声補正スイッチ1302を含み得る。ユーザが音声補正スイッチ1302をオンにしたことが検出された場合、携帯電話は、歌Aの元の歌手のアカペラの特徴情報に基づいて、ユーザのアカペラに現れ、ユーザが今回歌Aを録音するときに収集される歌唱の問題(例えば、イントネーション、ビブラート、息継ぎ音などの1つまたは複数の歌唱の問題)を補正し得る。
ユーザが歌「Red Bean」を録音することは、依然として例として使用される。ユーザが録音インターフェース上で「Red Bean」の歌を録音した後、携帯電話は、図13に示される音声補正インターフェース1301を表示し得る。ユーザが音声補正インターフェース1301上の音声補正スイッチ1302をオンにしたことが検出された場合、携帯電話は、元の歌手のアカペラの特徴情報に基づいて、今回収集されたユーザのアカペラのイントネーション、息継ぎ音、およびビブラートを補正し得る。
例えば、携帯電話は、元の歌手のアカペラの基本周波数情報を、今回ユーザが録音した歌「Red Bean」の基本周波数情報と比較し得、今回のユーザのアカペラに現れるイントネーションの問題を補正する。例えば、ユーザのアカペラの10秒目から20秒目のトーンが、元の歌手のアカペラの10秒目から20秒目のトーンよりも低い場合、携帯電話は、ユーザのアカペラのこの部分のトーン上昇処理を実行し得、これにより、ユーザのアカペラのこの部分のトーンは、元の歌手のアカペラのトーンと同じか、またはそれに近くなる。例えば、ユーザのアカペラの1分12秒目から1分27秒目のトーンが、元の歌手のアカペラの1分12秒目から1分27秒目のトーンよりも高い場合、携帯電話は、ユーザのアカペラのこの部分の音色に対してトーン低下処理を実行し得、これにより、ユーザのアカペラのこの部分のトーンは、元の歌手のアカペラのトーンと同じか、またはそれに近くなる。
別の例として、携帯電話は、ユーザが今回録音した歌「Red Bean」のユーザのアカペラから息継ぎ音の位置を抽出し得る。例えば、携帯電話は、事前設定された息継ぎ検出モデルを使用することによって、息継ぎ音がユーザのアカペラの14秒目および78秒目の両方に現れることを検出し得る。さらに、携帯電話は、14秒目および78秒目でのユーザのアカペラのエネルギーおよび周波数応答を低減し得、それにより、14秒目および78秒目で現れる息継ぎ音を弱め、録音された歌のリスニング品質を改善する。
別の例として、携帯電話は、元の歌手のアカペラのビブラート特徴を、今回ユーザが録音した歌「Red Bean」のビブラート特徴と比較し得、今回のユーザのアカペラのビブラート効果が低いビブラートを補正する。例えば、携帯電話は、事前設定されたビブラート検出モデルを使用することによって、ビブラートがユーザのアカペラに現れる位置を検出し得る。例えば、ビブラート1は、ユーザのアカペラにおいて15秒目に検出され、ビブラート1の振動振幅A1(t)、振動周波数Φ1(t)、および安定傾向項目V1(t)が、元の歌手のアカペラの15秒目でのビブラート2の振動振幅A2(t)、振動周波数Φ2(t)、および安定傾向項目V2(t)と一致する場合、ユーザが歌うビブラート1の効果が基本的に元の歌手のそれと同じであることを示し、携帯電話はビブラート1を補正する必要はない。同様に、ビブラート1の振動振幅A1(t)、振動周波数Φ1(t)、および安定傾向項目V1(t)が、元の歌手のアカペラの15秒目でのビブラート2の振動振幅A2(t)、振動周波数Φ2(t)、および安定傾向項目V2(t)と一致しない場合、携帯電話は、ビブラート2の振動振幅 A2(t)、振動周波数Φ2(t)、および安定傾向項目V2(t)を使用して、15秒目でのユーザのアカペラの新しいビブラートを合成し得、ユーザのアカペラに現れるビブラート音声効果を改善する。
いくつかの実施形態では、図14に示されるように、ユーザが音声補正インターフェース1301上の音声補正スイッチ1302をオンにしたことを検出した後、携帯電話は、イントネーションを補正するための音声補正オプション1401、息継ぎ音を補正するための音声補正オプション1402、およびビブラートを補正するための音声補正オプション1403をさらに表示し得る。このように、ユーザは、音声補正インターフェース1301上で、今回記録されたユーザのアカペラのイントネーションの問題、息継ぎ音の問題、またはビブラートの問題を補正することを手動で選択し得る。
他のいくつかの実施形態では、今回ユーザによって録音された歌「Red Bean」のユーザのアカペラを収集した後、携帯電話は、ユーザのアカペラのイントネーション、息継ぎ音、およびビブラートなどの問題をさらに自動的に補正し得、録音した歌を後で再生するときの歌のリスニング品質を改善する。例えば、依然として図14に示されるように、再生ボタン1404は、音声補正インターフェース1301上に配置される。ユーザが再生ボタン1404をタップしたことが検出された場合、携帯電話は、元の歌手のアカペラの特徴情報に基づいて、ユーザのアカペラのイントネーション、息継ぎ音、およびビブラートなどの問題を自動的に補正し得、補正されたユーザのアカペラを歌「Red Bean」の伴奏に再生するために統合する。
いくつかの実施形態では、図15(a)に示されるように、単一文改良オプション1501が、カラオケアプリケーションの音声補正インターフェース1301上でさらに設定され得る。ユーザがオプション1501をタップしたことが検出された場合、図15(b)に示されるように、携帯電話は、改良インターフェース1502を表示し得る。改良インターフェース1502上で、携帯電話は、歌「Red Bean」においてユーザによって歌われた歌詞の各文を表示し得、ユーザが選択するためのオプションとして歌詞の各文を使用し得る。例えば、ユーザは歌詞1503「I believe an end comes at a time」を選択する。ユーザが歌詞1503を選択した後、携帯電話は、歌詞1503に対応する歌の録音された部分を再生し得る。イントネーションボタン1504、ビブラートボタン1505、および息継ぎボタン1506は、音声補正インターフェース1301上にさらに設定される。ユーザは、改良インターフェース1502上で、ユーザのアカペラに現れ、かつ歌詞1503に対応するイントネーション、ビブラート、または息継ぎ音などの1つまたは複数の歌唱問題を補正するかどうかを手動で選択し得る。ユーザが歌詞1503を選択した後、ビブラートボタン1525およびイントネーションボタン1504をタップすると、携帯電話は、歌詞1503に対応するユーザのアカペラのイントネーション問題およびビブラート問題を補正し得、補正されたユーザのアカペラを再生するために対応する伴奏へ統合し得る。このように、ユーザは、今回録音されたユーザのアカペラに現れる歌唱問題を一文ずつ補正し得、ユーザは、補正の前後に達成された録音効果を一文ずつ比較し得、ユーザがより満足する歌唱効果のためにユーザが録音した歌を補正する。
いくつかの実施形態では、図16(a)に示されるように、単一文編集オプション1601が、カラオケアプリケーションの音声補正インターフェース1301上でさらに設定され得る。ユーザがオプション1601をタップしたことが検出された場合、図16(b)に示されるように、携帯電話は、編集インターフェース1602を表示し得る。編集インターフェース1602上で、携帯電話は、歌「Red Bean」においてユーザによって歌われた歌詞の各文を表示し得る。さらに、携帯電話は、歌詞の各文を表示するときに、歌詞の対応する位置で、ユーザが歌詞の文を歌うときに現れる歌唱の問題、例えば、不正確なトーン、比較的高い息継ぎ音、不安定なビブラート、またはビブラートの欠如をさらにプロンプトし得る。このように、ユーザは、ユーザが歌詞の各文を歌うときに現れる特定の問題を直感的に見ることができる。
さらに、依然として図16(b)に示されるように、歌詞の各文に対応する編集ボタン1603を、編集インターフェース1602上にさらに設定し得る。ユーザが歌詞の特定の文に対応する編集ボタン1603をタップしたことが検出された場合、携帯電話は、歌詞に対応する伴奏を再生し得、マイクロフォンがユーザが歌詞を再び歌った後に得られるユーザのアカペラを収集できるようにする。携帯電話が、ユーザが歌詞を再び歌った後に得られるユーザのアカペラを収集した後、録音された歌「Red Bean」に対応するユーザのアカペラは、今回再び録音したユーザのアカペラに置き換えられ得る。携帯電話は、歌詞が編集インターフェース1602上に表示されると、ユーザが歌詞を歌うときに現れる特定の歌の問題をユーザに通知した。したがって、ユーザが歌詞を再び歌うとき、ユーザは、歌詞が最後に記録されたときに現れる歌唱の問題を補正するために、時間内に歌唱方法を調整し得る。このように、歌唱品質と録音品質が改善される。
図17に示されるように、本出願の実施形態は、電子デバイスを開示し、当該電子デバイスは、タッチスクリーン1701であって、タッチセンシティブ表面1706およびディスプレイ1707を含むタッチスクリーン1701、1つまたは複数のプロセッサ1702、メモリ1703、1つまたは複数のマイクロフォン1708、および1つまたは複数のコンピュータプログラム1704を含む。前述の構成要素は、1つまたは複数の通信バス1705を使用することによって接続され得る。1つまたは複数のコンピュータプログラム1704は、メモリ1703に記憶され、1つまたは複数のプロセッサ1702によって実行されるように構成される。1つまたは複数のコンピュータプログラム1704は命令を含み、命令は、前述の実施形態のステップを実行するために使用され得る。
例えば、プロセッサ1702は、具体的には、図1に示されるプロセッサ110であり得、メモリ1703は、具体的には、図1に示される内部メモリ121および/または外部メモリ120であり得、ディスプレイ1707は、具体的には、図1に示されるディスプレイ194であり得、マイクロフォン1708は、具体的には、図1に示されるマイクロフォン170Cであり得、タッチセンシティブ表面1706は、具体的には、図1に示されるセンサモジュール180内のタッチセンサ180Kであり得る。これは、この出願のこの実施形態では限定されない。
いくつかの実施形態では、このアプリケーションは、グラフィカルユーザインターフェース(GUI)をさらに提供し、グラフィカルユーザインターフェースは、電子デバイスに格納され得る。例えば、電子デバイスは、図1または図17に示される電子デバイスであり得る。
例えば、グラフィカルユーザインターフェースは、タッチスクリーンに表示される第1のGUIを含む。図4に示されるように、第1のGUIは、カラオケアプリケーションのインターフェース401であり得、第1のGUIは、第1の歌を録音するために使用される録音ボタン403を含む。録音ボタンのタッチイベントに応答して、電子デバイスは、タッチスクリーン上に第2のGUIを表示し得る。図7または図8に示されるように、第2のGUIは、ユーザによって第1の歌を録音するための録音インターフェース601であり得る。第2のGUIは、ユーザが第1の歌を歌うように案内するための案内情報を含み得、案内情報は、息継ぎプロンプトおよび/またはビブラートプロンプトを含む。例えば、図7に示されるように、録音インターフェース601上に表示される歌詞602は、息継ぎプロンプト701およびビブラートプロンプト702を含む。別の例として、図8に示されるように、録音インターフェース601上に表示される歌唱ツール801は、イントネーションプロンプト802、息継ぎプロンプト804、およびビブラートプロンプト803を有する。第2のGUI上の案内情報は、元の歌手のアカペラの特徴情報に基づいて電子デバイスによって生成される。
いくつかの実施形態では、第2のGUIは、歌唱中のユーザの息継ぎスキルおよび/またはビブラートスキルの評価結果をさらに含み得る。例えば、図10(a)から図10(c)に示されるように、録音インターフェース601は、ユーザの息継ぎスキルの評価結果1001、ユーザのビブラートスキルの評価結果1002、およびユーザのイントネーションの評価結果1003を含む。別の例として、図12(a)から図12(b)に示されるように、ユーザのイントネーションの評価結果1202、ユーザのビブラートスキルの評価結果1203などは、録音インターフェース601上の歌唱ツールに表示され得る。これは、この出願のこの実施形態では限定されない。
いくつかの実施形態では、第1の歌の録音が終了した後、電子デバイスは、タッチスクリーン上に第3のGUIを表示し得る。図13または図14に示されるように、第3のGUIは、第1の歌の音声補正インターフェース1301であり得、第3のGUIは、音声補正スイッチ1302を含む。ユーザが音声補正スイッチ1302をオンにすると、電子デバイスは、ユーザのアカペラに現れる息継ぎの問題および/またはビブラートの問題などの歌唱問題を補正し得る。
実装に関する前述の説明により、当業者が、便利で簡単な説明を容易にするために、前述の機能モジュールの分割が説明の例として使用されることを明確に理解することができる。実際のアプリケーションでは、前述の機能は、必要に応じて実装するために異なるモジュールに割り当てられ得、すなわち、装置の内部構造は、上記の機能のすべてまたは一部を実装するために異なる機能モジュールに分割される。前述のシステム、装置、およびユニットの詳細な作業プロセスについては、前述の方法の実施形態における対応するプロセスを参照し、詳細はここでは再度説明しない。
この出願の実施形態における機能ユニットは、1つの処理ユニットに統合され得るか、またはユニットのそれぞれが物理的に単独で存在し得るか、または2つ以上のユニットが1つのユニットに統合される。統合されたユニットは、ハードウェアの形で実装されてもよく、ソフトウェア機能ユニットの形で実装されてもよい。
統合されたユニットがソフトウェア機能ユニットの形で実装され、独立した製品として販売または使用される場合、統合されたユニットは、コンピュータ可読記憶媒体に記憶され得る。そのような理解に基づいて、本出願の実施形態の技術的解決策、または先行技術に寄与する部分、または技術的解決策のすべてまたは一部は、ソフトウェア製品の形で実装され得る。ソフトウェア製品は、記憶媒体に格納され、コンピュータデバイス(パーソナルコンピュータ、サーバ、またはネットワークデバイスであり得る)に、本出願の実施形態で説明された方法のステップのすべてまたはいくつかを実行するように指示するためのいくつかの命令を含む。前述の記憶媒体は、フラッシュメモリ、リムーバブルハードディスク、読み取り専用メモリ、ランダムアクセスメモリ、磁気ディスク、または光ディスクなどの、プログラムコードを記憶することができる任意の媒体を含む。
上記は、本出願の実施形態の単なる特定の実装であるが、本出願の実施形態の保護範囲は、それに限定されない。この出願の実施形態で開示された技術的範囲内の変更または置換は、この出願の実施形態の保護範囲内にあるものとする。したがって、本出願の実施形態の保護範囲は、特許請求の範囲の保護範囲に従うものとする。

Claims (27)

  1. 歌の録音方法であって、
    電子デバイスによって、第1のインターフェースを表示することであって、前記第1のインターフェースは、第1の歌を録音するために使用される録音ボタンを備えることと、
    ユーザが録音ボタンを選択する操作に応答して、前記電子デバイスによって、元の歌手のアカペラの前記第1の歌の伴奏および特徴情報を取得することであって、前記元の歌手の前記アカペラの前記特徴情報は、前記元の歌手が前記第1の歌を歌うときに前記元の歌手の歌唱特徴を反映するために使用され得ることと、
    前記電子デバイスによって、前記第1の歌の前記伴奏の再生を開始し、前記ユーザが歌う前記ユーザのアカペラの録音を開始することと、
    前記ユーザの前記アカペラを録音するプロセスにおいて、前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、第2のインターフェース上にガイダンス情報を表示することであって、前記ガイダンス情報は、前記ユーザの歌唱中の息継ぎおよびビブラートの1つまたは複数をガイドするために使用されることと
    を含む方法。
  2. 前記元の歌手の前記アカペラの前記特徴情報は、前記元の歌手の前記アカペラの息継ぎ位置を含み、前記ガイダンス情報は、息継ぎプロンプトを含み、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、第2のインターフェース上にガイダンス情報を表示することは、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記息継ぎ位置に基づいて、前記第2のインターフェース上に、前記元の歌手の前記アカペラの前記息継ぎ位置に対応する前記息継ぎプロンプトを表示することを含む、請求項1に記載の方法。
  3. 前記第2のインターフェースは、前記第1の歌の歌詞を含み、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記息継ぎ位置に基づいて、前記第2のインターフェース上に、前記元の歌手の前記アカペラの前記息継ぎ位置に対応する前記息継ぎプロンプトを表示することは、
    前記電子デバイスによって、前記歌詞の第1の位置に前記息継ぎプロンプトを表示することであって、前記第1の位置は、前記元の歌手の前記アカペラの前記息継ぎ位置と同じである、請求項2に記載の方法。
  4. 前記第2のインターフェースは、歌唱ツールを含み、前記歌唱ツールは、録音されている歌詞の各単語の音符を表示するように構成され、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記息継ぎ位置に基づいて、前記第2のインターフェース上に、前記元の歌手の前記アカペラの前記息継ぎ位置に対応する前記息継ぎプロンプトを表示することは、
    前記電子デバイスによって、前記歌唱ツールの第2の位置に前記息継ぎプロンプトを表示することであって、前記第2の位置は、前記元の歌手の前記アカペラの前記息継ぎ位置と同じである、請求項2に記載の方法。
  5. 前記元の歌手の前記アカペラの前記特徴情報は、前記元の歌手の前記アカペラのビブラート特徴を含み、前記ガイダンス情報は、ビブラートプロンプトを含み、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、第2のインターフェース上にガイダンス情報を表示することは、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記ビブラート特徴に基づいて、前記第2のインターフェース上に、前記元の歌手の前記アカペラの前記ビブラート特徴に対応するビブラートプロンプトを表示することを含む、請求項1に記載の方法。
  6. 前記ビブラート特徴はビブラート位置を含み、前記第2のインターフェースが前記第1の歌の歌詞を含み、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記ビブラート特徴に基づいて、前記第2のインターフェース上に、前記元の歌手の前記アカペラの前記ビブラート特徴に対応するビブラートプロンプトを表示することは、
    前記電子デバイスによって、前記歌詞の第3の位置に前記ビブラートプロンプトを表示することであって、前記第3の位置は、前記元の歌手の前記アカペラの前記ビブラート位置と同じである、請求項5に記載の方法。
  7. 前記ビブラート特徴はビブラート位置を含み、前記第2のインターフェースが歌唱ツールを含み、前記歌唱ツールが、録音されている歌詞の各単語の音符を表示するように構成され、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記ビブラート特徴に基づいて、前記第2のインターフェース上に、前記元の歌手の前記アカペラの前記ビブラート特徴に対応するビブラートプロンプトを表示することは、
    前記電子デバイスによって、前記歌唱ツールの第4の位置に前記ビブラートプロンプトを表示することであって、前記第4の位置は、前記元の歌手の前記アカペラの前記ビブラート位置と同じである、請求項5に記載の方法。
  8. 前記ユーザの前記アカペラを録音する前記プロセスにおいて、
    前記電子デバイスによって、前記ユーザの前記アカペラから前記ユーザの前記アカペラの特徴情報を抽出することであって、前記ユーザの前記アカペラの前記特徴情報は、前記ユーザが前記第1の歌を歌うときの前記ユーザの歌唱特徴を反映するために使用されることと、
    前記電子デバイスによって、前記ユーザの前記アカペラの前記特徴情報を前記元の歌手の前記アカペラの前記特徴情報と比較することにより、前記第2のインターフェース上に評価結果を表示することと
    をさらに含む、請求項1乃至7のいずれか1項に記載の方法。
  9. 前記ユーザの前記アカペラの前記特徴情報は、前記ユーザの前記アカペラの息継ぎ位置を含み、前記元の歌手の前記アカペラの前記特徴情報は、前記元の歌手の前記アカペラの前記息継ぎ位置を含み、
    前記電子デバイスによって、前記ユーザの前記アカペラの前記特徴情報を前記元の歌手の前記アカペラの前記特徴情報と比較することにより、前記第2のインターフェース上に評価結果を表示することは、
    前記電子デバイスによって、前記ユーザの前記アカペラの前記息継ぎ位置を前記元の歌手の前記アカペラの前記息継ぎ位置と比較することにより、前記第2のインターフェース上に息継ぎスキルの評価結果を表示することを含む、請求項8に記載の方法。
  10. 前記電子デバイスによって、前記ユーザの前記アカペラの前記息継ぎ位置を前記元の歌手の前記アカペラの前記息継ぎ位置と比較することにより、前記第2のインターフェース上に息継ぎスキルの評価結果を表示することは、
    前記ユーザの前記アカペラの前記息継ぎ位置が前記元の歌手の前記アカペラの前記息継ぎ位置と同じである場合、前記電子デバイスによって、前記第2のインターフェース上に正確な息継ぎを示すプロンプトを表示すること、または、
    前記ユーザの前記アカペラの前記息継ぎ位置が前記元の歌手の前記アカペラの前記息継ぎ位置と異なる場合、前記電子デバイスによって、前記第2のインターフェース上に息継ぎエラーを示すプロンプトを表示することを含む、請求項9に記載の方法。
  11. 前記ユーザの前記アカペラの前記特徴情報は、前記ユーザの前記アカペラのビブラート特徴を含み、前記元の歌手の前記アカペラの前記特徴情報は、前記元の歌手の前記アカペラのビブラート特徴を含み、
    前記電子デバイスによって、前記ユーザの前記アカペラの前記特徴情報を前記元の歌手の前記アカペラの前記特徴情報と比較することにより、前記第2のインターフェース上に評価結果を表示することは、
    前記電子デバイスによって、前記ユーザの前記アカペラの前記ビブラート特徴を前記元の歌手の前記アカペラの前記ビブラート特徴と比較することにより、前記第2のインターフェース上に評価結果を表示することを含む、請求項8に記載の方法。
  12. 前記電子デバイスによって、前記ユーザの前記アカペラの前記ビブラート特徴を前記元の歌手の前記アカペラの前記ビブラート特徴と比較することにより、前記第2のインターフェース上に評価結果を表示することは、
    前記ユーザの前記アカペラの前記ビブラート特徴が前記元の歌手の前記アカペラの前記ビブラート特徴と同じである場合、前記電子デバイスによって、前記第2のインターフェース上に正確なビブラートを示すプロンプトを表示すること、または、
    前記ユーザの前記アカペラの前記ビブラート特徴が前記元の歌手の前記アカペラの前記ビブラート特徴と異なる場合、前記第2のインターフェース上にビブラートエラーを示すプロンプトを表示することを含む、請求項11に記載の方法。
  13. 前記電子デバイスによって、前記第2のインターフェース上に評価結果を表示することは、
    前記電子デバイスによって、前記第2のインターフェース上に前記歌詞内で前記評価結果を表示すること、または、
    前記電子デバイスによって、前記第2のインターフェース上に前記歌唱ツール内で前記評価結果を表示することであって、前記歌唱ツールは、前記歌詞内で各単語の音符を表示することを含む、請求項8乃至12のいずれか1項に記載の方法。
  14. 前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、第2のインターフェース上にガイダンス情報を表示することの後に、
    前記第1の歌の録音が終了した後、前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、前記ユーザの前記アカペラに現れる歌唱問題を補正することであって、前記歌唱問題は、息継ぎ問題およびビブラート問題の1つまたは複数を含むこと
    をさらに含む請求項1乃至13のいずれか1項に記載の方法。
  15. 音声補正方法であって、
    電子デバイスによって、第1のインターフェースを表示することであって、前記第1のインターフェースは、第1の歌を録音するために使用される録音ボタンを含むことと、
    ユーザが前記録音ボタンを選択する操作に応答して、前記電子デバイスによって、前記第1の歌の伴奏、および元の歌手のアカペラの特徴情報を取得することであって、前記元の歌手の前記アカペラの前記特徴情報は、前記元の歌手が前記第1の歌を歌うときに、前記元の歌手の歌唱特徴を反映するために使用され得ることと、
    前記電子デバイスによって、前記第1の歌の前記伴奏の再生を開始し、前記ユーザが歌う前記ユーザのアカペラの録音を開始することと、
    前記第1の歌の録音が終了した後、前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、前記ユーザの前記アカペラに現れる歌唱問題を補正することであって、前記歌唱問題は、息継ぎ問題およびビブラート問題の1つまたは複数を含む、方法。
  16. 前記歌唱問題は息継ぎ問題であり、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、前記ユーザの前記アカペラに現れる歌唱問題を補正することは、
    前記電子デバイスによって、前記ユーザの前記アカペラから前記ユーザの前記アカペラの息継ぎ音を抽出することと、
    前記電子デバイスによって、前記ユーザの前記アカペラに現れる前記息継ぎ問題を補正するために、前記ユーザの前記アカペラの前記息継ぎ音のエネルギーおよび周波数応答を低減することと
    を含む、請求項15に記載の方法。
  17. 前記歌唱問題はビブラート問題であり、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、前記ユーザの前記アカペラに現れる歌唱問題を補正することは、
    前記電子デバイスによって、前記ユーザの前記アカペラから前記ユーザの前記アカペラのビブラート特徴を抽出することと、
    前記ユーザの前記アカペラの前記ビブラート特徴が前記元の歌手の前記アカペラの前記特徴情報のビブラート特徴と一致しない場合、前記電子デバイスによって、前記ユーザの前記アカペラに現れる前記ビブラート問題を補正するために、前記元の歌手の前記アカペラの前記ビブラート特徴を使用することによって、前記ユーザの前記アカペラの前記ビブラート特徴を補正することと
    を含む、請求項15に記載の方法。
  18. 前記第1の歌の録音が終了した後、
    前記電子デバイスによって、第2のインターフェースを表示することであって、前記第2のインターフェースは、音声補正スイッチを含むことをさらに含み、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、前記ユーザの前記アカペラに現れる歌唱問題を補正することは、
    前記ユーザが前記音声補正スイッチをオンにしたことが検出された場合、前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、前記ユーザの前記アカペラに現れる前記歌唱問題を補正することを含む、請求項15乃至17のいずれか1項に記載の方法。
  19. 前記第1の歌の録音が終了した後、
    前記電子デバイスによって、第2のインターフェースを表示することであって、前記第2のインターフェースは、音声補正オプションを含み、前記音声補正オプションは、イントネーション補正オプション、息継ぎ音声補正オプション、およびビブラート補正オプションを含むことをさらに含み、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、前記ユーザの前記アカペラに現れる歌唱問題の補正することは、
    前記ユーザが選択した前記音声補正オプションに応じて、前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、前記音声補正オプションに対応し、前記ユーザの前記アカペラに現れる歌唱問題を補正することを含む、請求項15乃至17のいずれか1項に記載の方法。
  20. 前記第1の歌の録音が終了した後、
    前記電子デバイスによって、第2のインターフェースを表示することであって、前記第2のインターフェースは、単一文改良オプションを含むことと、
    前記単一文改良オプションの前記ユーザの選択に応答して、前記電子デバイスによって、第3のインターフェースを表示することであって、前記第3のインターフェースは、前記第1の歌の歌詞のN個の文を含み、N>1であることと
    をさらに含み、
    前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、前記ユーザの前記アカペラに現れる歌唱問題を補正することは、
    前記ユーザが前記歌詞の前記N個の文から第1の歌詞を選択する場合、前記電子デバイスによって、前記元の歌手の前記アカペラの前記特徴情報に基づいて、前記第1の歌詞に対応し、前記ユーザの前記アカペラに現れる歌唱問題を補正することを含む、請求項15乃至17のいずれか1項に記載の方法。
  21. 前記電子デバイスによって、第3のインターフェースを表示することは、
    前記電子デバイスによって、前記第3のインターフェース上で前記歌詞の前記N個の文の電子デバイスによって、前記歌唱の問題が発生する位置をマークすることを含む、請求項20に記載の方法。
  22. 電子デバイスであって、
    タッチスクリーンであって、タッチセンシティブ表面およびディスプレイを備えるタッチスクリーンと、
    1つまたは複数のプロセッサと、
    1つまたは複数のメモリと、
    1つまたは複数のマイクロフォンと、
    1つまたは複数のコンピュータプログラムとを備え、前記1つまたは複数のコンピュータプログラムは前記1つまたは複数のメモリに格納され、前記1つまたは複数のコンピュータプログラムは命令を含み、前記命令が前記電子デバイスによって実行されるとき、請求項1乃至14のいずれか1項に記載の歌の録音方法、または請求項15乃至21のいずれか1項に記載の音声補正方法を実行することができる、電子デバイス。
  23. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体が命令を記憶し、前記命令が電子デバイス上で実行されるとき、前記電子デバイスは、請求項1から14のいずれか1項による歌録音方法、または、請求項15から21のいずれか1項による音声補正方法を実施することができる、コンピュータ可読記憶媒体。
  24. 命令を含むコンピュータプログラム製品であって、前記コンピュータプログラム製品が電子デバイス上で実行されると、前記電子デバイスは、請求項1から14のいずれか1項による前記歌の録音方法、または請求項15から21のいずれか1項による音声補正方法を実行することができる、コンピュータプログラム製品。
  25. グラフィカルユーザインターフェースGUIであって、前記グラフィカルユーザインターフェースは電子デバイスに格納され、前記電子デバイスがタッチスクリーン、メモリ、およびプロセッサを含み、前記プロセッサが前記メモリに格納された1つまたは複数のコンピュータプログラムを実行するように構成され、
    前記グラフィカルユーザインターフェースは、
    前記タッチスクリーンに表示される第1のGUIであって、第1の歌を録音するために使用される録音ボタンを備える、前記第1のGUIと、
    前記録音ボタンのタッチイベントに応答して前記タッチスクリーンに表示される第2のGUIであって、前記第2のGUIは、前記第1の歌を録音するための録音インターフェースであり、前記第2のGUIは、ユーザに前記第1の歌を歌うようにガイドするためのガイダンス情報を含み、前記ガイダンス情報は、息継ぎプロンプトおよび/またはビブラートプロンプトを含む、前記第2のGUIと
    を含む、GUI。
  26. 前記第2のGUIは、歌唱中の前記ユーザの息継ぎスキルおよび/またはビブラートスキルの評価結果をさらに含む、請求項25に記載のGUI。
  27. 前記第2のGUIが前記タッチスクリーン上に表示された後、前記GUIは、
    前記第1の歌の録音が終了した後に前記タッチスクリーンに表示される第3のGUIであって、前記第3のGUIは第1の歌の音声補正インターフェースであり、前記第3のGUIは音声補正スイッチを備え、前記音声補正スイッチがオンにされると、前記電子デバイスは、前記ユーザのアカペラに現れる息継ぎ問題および/またはビブラート問題を補正する、前記第3のGUIをさらに備える、請求項25または26に記載のGUI。
JP2021550197A 2019-02-28 2020-02-21 歌の録音方法、音声補正方法、および電子デバイス Active JP7222112B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910152655.3A CN110010162A (zh) 2019-02-28 2019-02-28 一种歌曲录制方法、修音方法及电子设备
CN201910152655.3 2019-02-28
PCT/CN2020/076099 WO2020173391A1 (zh) 2019-02-28 2020-02-21 一种歌曲录制方法、修音方法及电子设备

Publications (2)

Publication Number Publication Date
JP2022522456A true JP2022522456A (ja) 2022-04-19
JP7222112B2 JP7222112B2 (ja) 2023-02-14

Family

ID=67166258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550197A Active JP7222112B2 (ja) 2019-02-28 2020-02-21 歌の録音方法、音声補正方法、および電子デバイス

Country Status (5)

Country Link
US (1) US20220130360A1 (ja)
EP (1) EP3905246A4 (ja)
JP (1) JP7222112B2 (ja)
CN (1) CN110010162A (ja)
WO (1) WO2020173391A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109803523B (zh) 2019-02-23 2021-01-29 华为技术有限公司 一种封装屏蔽结构及电子设备
CN110010162A (zh) * 2019-02-28 2019-07-12 华为技术有限公司 一种歌曲录制方法、修音方法及电子设备
CN112309351A (zh) * 2019-07-31 2021-02-02 武汉Tcl集团工业研究院有限公司 一种歌曲生成方法、装置、智能终端及存储介质
CN111507254B (zh) * 2020-04-16 2023-10-24 北京雷石天地电子技术有限公司 制作逐字歌词的方法、装置、终端和非临时性计算机可读存储介质
CN111782868A (zh) * 2020-07-06 2020-10-16 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、装置、设备及介质
CN111968623B (zh) * 2020-08-19 2023-11-28 腾讯音乐娱乐科技(深圳)有限公司 气口位置检测方法及相关设备
CN112289300B (zh) * 2020-10-28 2024-01-09 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法、装置及电子设备和计算机可读存储介质
CN112596695B (zh) * 2020-12-30 2024-03-12 北京达佳互联信息技术有限公司 歌曲导唱方法、装置、电子设备及存储介质
CN113035164A (zh) * 2021-02-24 2021-06-25 腾讯音乐娱乐科技(深圳)有限公司 歌声生成方法和装置、电子设备及存储介质
US20220293117A1 (en) * 2021-03-15 2022-09-15 Meta Platforms, Inc. Systems and methods for transforming audio in content items
US11523201B2 (en) * 2021-03-23 2022-12-06 Shanghai Greatcare Trading & Developing Co., Ltd. Multifunctional microphone
CN113791848B (zh) * 2021-08-09 2023-03-28 北京达佳互联信息技术有限公司 一种音频录制提示方法、装置、电子设备及存储介质
CN113707113B (zh) * 2021-08-24 2024-02-23 北京达佳互联信息技术有限公司 用户歌声的修音方法、装置及电子设备
CN113920786B (zh) * 2021-09-07 2024-02-23 北京小唱科技有限公司 唱歌教学方法和装置
CN114566191A (zh) * 2022-02-25 2022-05-31 腾讯音乐娱乐科技(深圳)有限公司 录音的修音方法及相关装置
WO2023235676A1 (en) * 2022-05-31 2023-12-07 Dts Inc. Enhanced music delivery system with metadata

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007322934A (ja) * 2006-06-02 2007-12-13 Yamaha Corp 歌唱練習装置、カラオケ装置及びプログラム
JP2016031394A (ja) * 2014-07-28 2016-03-07 ヤマハ株式会社 リファレンス表示装置およびプログラム
JP2016071122A (ja) * 2014-09-30 2016-05-09 ブラザー工業株式会社 カラオケ装置、及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7271329B2 (en) * 2004-05-28 2007-09-18 Electronic Learning Products, Inc. Computer-aided learning system employing a pitch tracking line
US20070074619A1 (en) * 2005-10-04 2007-04-05 Linda Vergo System and method for tailoring music to an activity based on an activity goal
CN103077701B (zh) * 2012-11-28 2015-10-28 福建星网视易信息系统有限公司 一种音准评定方法、装置和系统
CN103165119B (zh) * 2013-01-31 2015-12-09 华为技术有限公司 K歌方法及系统
CN103559875B (zh) * 2013-10-21 2017-11-10 福建星网视易信息系统有限公司 音准抖动修正方法、装置、系统及音视频设备和移动终端
CN104715760B (zh) * 2015-02-13 2018-06-19 朱威 一种k歌匹配分析方法及系统
CN105825844B (zh) * 2015-07-30 2020-07-07 维沃移动通信有限公司 一种修音的方法和装置
US10043548B1 (en) * 2017-02-23 2018-08-07 International Business Machines Corporation Creating a work based on cognitive state
CN106997769B (zh) * 2017-03-25 2020-04-24 腾讯音乐娱乐(深圳)有限公司 颤音识别方法及装置
US10117021B1 (en) * 2017-03-31 2018-10-30 Polycom, Inc. Audio feedback reduction utilizing adaptive filters and nonlinear processing
CN107393519B (zh) * 2017-08-03 2020-09-15 腾讯音乐娱乐(深圳)有限公司 演唱评分的显示方法、装置及存储介质
CN108922562A (zh) * 2018-06-15 2018-11-30 广州酷狗计算机科技有限公司 演唱评价结果显示方法及装置
CN109272975B (zh) * 2018-08-14 2023-06-27 无锡冰河计算机科技发展有限公司 演唱伴奏自动调整方法、装置及ktv点唱机
CN110010162A (zh) * 2019-02-28 2019-07-12 华为技术有限公司 一种歌曲录制方法、修音方法及电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007322934A (ja) * 2006-06-02 2007-12-13 Yamaha Corp 歌唱練習装置、カラオケ装置及びプログラム
JP2016031394A (ja) * 2014-07-28 2016-03-07 ヤマハ株式会社 リファレンス表示装置およびプログラム
JP2016071122A (ja) * 2014-09-30 2016-05-09 ブラザー工業株式会社 カラオケ装置、及びプログラム

Also Published As

Publication number Publication date
EP3905246A1 (en) 2021-11-03
EP3905246A4 (en) 2022-03-23
US20220130360A1 (en) 2022-04-28
CN110010162A (zh) 2019-07-12
JP7222112B2 (ja) 2023-02-14
WO2020173391A1 (zh) 2020-09-03

Similar Documents

Publication Publication Date Title
JP7222112B2 (ja) 歌の録音方法、音声補正方法、および電子デバイス
RU2766255C1 (ru) Способ голосового управления и электронное устройство
WO2020211701A1 (zh) 模型训练方法、情绪识别方法及相关装置和设备
CN110910872B (zh) 语音交互方法及装置
CN111345010B (zh) 一种多媒体内容同步方法、电子设备及存储介质
CN111666119A (zh) Ui组件显示的方法及电子设备
CN109286725B (zh) 翻译方法及终端
CN110992927A (zh) 音频生成方法、装置、计算机可读存储介质及计算设备
WO2022267468A1 (zh) 一种声音处理方法及其装置
WO2022143258A1 (zh) 一种语音交互处理方法及相关装置
CN115333941A (zh) 获取应用运行情况的方法及相关设备
CN114173184A (zh) 投屏方法和电子设备
CN115543145A (zh) 一种文件夹管理方法及装置
CN114650330A (zh) 一种添加操作序列的方法、电子设备和系统
WO2023030098A1 (zh) 视频剪辑方法、电子设备及存储介质
WO2022135254A1 (zh) 一种编辑文本的方法、电子设备和系统
WO2022007757A1 (zh) 跨设备声纹注册方法、电子设备及存储介质
RU2777617C1 (ru) Способ записи песни, способ коррекции звука и электронное устройство
CN115359156B (zh) 音频播放方法、装置、设备和存储介质
CN113470638B (zh) 槽位填充的方法、芯片、电子设备和可读存储介质
CN113938556B (zh) 来电提示方法、装置和电子设备
WO2023197949A1 (zh) 汉语翻译的方法和电子设备
WO2023006001A1 (zh) 视频处理方法及电子设备
CN115966198A (zh) 音频的处理方法及装置
CN117785312A (zh) 音频播放方法、电子设备以及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230202

R150 Certificate of patent or registration of utility model

Ref document number: 7222112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150