JP6717940B2 - オーディオファイルの再録音方法、装置及び記憶媒体 - Google Patents
オーディオファイルの再録音方法、装置及び記憶媒体 Download PDFInfo
- Publication number
- JP6717940B2 JP6717940B2 JP2018526686A JP2018526686A JP6717940B2 JP 6717940 B2 JP6717940 B2 JP 6717940B2 JP 2018526686 A JP2018526686 A JP 2018526686A JP 2018526686 A JP2018526686 A JP 2018526686A JP 6717940 B2 JP6717940 B2 JP 6717940B2
- Authority
- JP
- Japan
- Prior art keywords
- recording segment
- recording
- time
- segment
- audio file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 63
- 230000008569 process Effects 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 34
- 230000000630 rising effect Effects 0.000 claims description 22
- 230000005055 memory storage Effects 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 description 149
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012887 quadratic function Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/022—Electronic editing of analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/051—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
- G10H2220/101—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
- G10H2220/116—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters for graphical editing of sound parameters or waveforms, e.g. by graphical interactive control of timbre, partials or envelope
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/005—Device type or category
- G10H2230/015—PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/025—Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/025—Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
- G10H2250/035—Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/541—Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
- G10H2250/615—Waveform editing, i.e. setting or modifying parameters for waveform synthesis.
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
- G11B2020/10537—Audio or video recording
- G11B2020/10546—Audio or video recording specifically adapted for audio data
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Telephone Function (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Description
再録音待ちの録音セグメントの第1開始時間である第1時間を決定することと、
前記第1時間を第1終了時間として録音された第1録音セグメントを再生することと、
前記第1時間に達すると、ユーザの第1音声データを収集して、第2録音セグメントを得ることと、
前記第1録音セグメントと前記第2録音セグメントを処理して、再録音されたオーディオファイルを得ることとを含む、
オーディオファイルの再録音方法を提供する。
再録音待ちの録音セグメントの第1開始時間である第1時間を決定するための取得モジュールと、
前記第1時間を第1終了時間として録音された第1録音セグメントを再生するための第1再生モジュールと、
前記第1時間に達すると、ユーザの第1音声データを収集して、第2録音セグメントを得るための第1収集モジュールと、
前記第1録音セグメントと前記第2録音セグメントを処理して、再録音されたオーディオファイルを得るための処理モジュールとを含む、
オーディオファイルの再録音装置を提供する。
プログラム命令が計算デバイスによって実行される場合、前記計算デバイスは、
オーディオファイルにおける再録音待ちの録音セグメントの第1開始時間である第1時間を決定する動作と、
前記オーディオファイルにおいて前記第1時間を第1終了時間として録音された第1録音セグメントを再生する動作と、
前記第1時間に達すると、ユーザの第1音声データを収集して、第2録音セグメントを得る動作と、
前記第1録音セグメントと前記第2録音セグメントを処理して、再録音されたオーディオファイルを得る動作とを実行する、
プログラム命令を記憶する不揮発性メモリ記憶媒体を提供する。
録音された第1録音セグメントの再生のプロセスにおいて、ユーザの第2音声データを収集して、第3録音セグメントを得る動作と、
第2録音セグメントと第3録音セグメントを今回の録音された録音セグメントとする動作とをさらに実行する。
第1録音セグメントに対応する第1音響スペクトルを取得し、第2録音セグメントに対応する第2音響スペクトルを取得することと、
第1音響スペクトルから、安定開始点および安定開始点に対応する第2時間を決定することと、
第2音響スペクトルから、立ち上がり開始点および立ち上がり開始点に対応する第3時間を取得することとを含む。
第4録音セグメントに対応する音響スペクトルと第5録音セグメントに対応する音響スペクトルとを比較することと、
第4録音セグメントに対応する音響スペクトルから第1対象音響スペクトルを取得し、第5録音セグメントに対応する音響スペクトルから第2対象音響スペクトルを取得し、第1対象音響スペクトルと第2対象音響スペクトルは同じ開始時間と終了時間を有することと、
第1対象音響スペクトルと第2対象音響スペクトルとをフィッティングし、第4録音セグメントと第5録音セグメントとを繋ぎ合わせて、再録音されたオーディオファイルを得ることとを含む。
再録音待ちの録音セグメントの開始時間である第1時間を決定するための取得モジュール901と、
第1時間を終了時間として録音された第1録音セグメントを再生するための第1再生モジュール902と、
第1時間に達すると、ユーザの第1音声データを収集して、第2録音セグメントを得るための第1収集モジュール903と、
第1録音セグメントと第2録音セグメントを処理して、再録音されたオーディオファイルを得るための処理モジュール904とを含む。
第1録音セグメントに対応する第1音響スペクトルを取得し、第2録音セグメントに対応する第2音響スペクトルを取得することと、
第1音響スペクトルから、安定開始点および前記オーディオファイルにおける安定開始点に対応する第2時間を決定することと、
第2音響スペクトルから、立ち上がり開始点および前記オーディオファイルにおける立ち上がり開始点に対応する第3時間を決定することと、
第2時間を開始時間として、今回の録音された録音セグメントから第4録音セグメントを選択することと、
第3時間を終了時間として、再録音待ちの録音セグメントと第1録音セグメントにより構成される前回の録音された録音セグメントから第5録音セグメントを選択することと、
第4録音セグメントと第5録音セグメントを処理して、再録音されたオーディオファイルを得ることとを含み、
第2時間は第1時間よりも早く、第1時間は第3時間よりも早い。
第4録音セグメントに対応する音響スペクトルと第5録音セグメントに対応する音響スペクトルとを比較することと、
第4録音セグメントに対応する音響スペクトルから第1対象音響スペクトルを取得し、第5録音セグメントに対応する音響スペクトルから第2対象音響スペクトルを取得し、第1対象音響スペクトルと第2対象音響スペクトルは同じ開始時間と終了時間を有することと、
第1対象音響スペクトルと第2対象音響スペクトルとをフィッティングし、第4録音セグメントと第5録音セグメントとを繋ぎ合わせて、再録音されたオーディオファイルを得ることとを含む。
前記オーディオファイルにおいて前記第1時間を終了時間として録音された第1録音セグメントを再生するステップと、
第1時間に達すると、ユーザの第1音声データを収集して、第2録音セグメントを得るステップと、
第1録音セグメントと第2録音セグメントを処理して、再録音されたオーディオファイルを得るステップとを含む。
第1音響スペクトルから、安定開始点および安定開始点に対応する第2時間を取得することと、
第2音響スペクトルから、立ち上がり開始点および立ち上がり開始点に対応する第3時間を取得することと、
第2時間を開始時間として、今回の録音された録音セグメントから第4録音セグメントを取得することと、
第3時間を終了時間として、再録音待ちの録音セグメントと第1録音セグメントを含む前回の録音された録音セグメントから第5録音セグメントを選択することと、
第4録音セグメントと第5録音セグメントを処理して、再録音されたオーディオファイルを得ることとを含み、
第2時間は第1時間よりも早く、第1時間は第3時間よりも早い。
第4録音セグメントに対応する音響スペクトルから第1対象音響スペクトルを取得し、第5録音セグメントに対応する音響スペクトルから第2対象音響スペクトルを取得し、第1対象音響スペクトルと第2対象音響スペクトルは同じ開始時間と終了時間を有することと、
第1対象音響スペクトルと第2対象音響スペクトルとをフィッティングし、第4録音セグメントと第5録音セグメントとを繋ぎ合わせて、再録音されたオーディオファイルを得ることとを含む。
120 メモリ
130 入力ユニット
140 表示ユニット
150 センサ
160 オーディオ回路
170 WiFiモジュール
180 プロセッサ
190 電源
901 取得モジュール
902 第1再生モジュール
903 第1取集モジュール
904 処理モジュール
Claims (7)
- オーディオファイルにおける再録音待ちの録音セグメントの第1開始時間である第1時間を決定することと、
前記オーディオファイルにおいて前記第1時間を第1終了時間として録音された第1録音セグメントを再生することであって、録音された第1録音セグメントの再生のプロセスにおいて、ユーザの第2音声データを収集して、第3録音セグメントを得ることと、
前記第1時間に達すると、ユーザの第1音声データを収集して、第2録音セグメントを得ることと、
前記第1録音セグメントと前記第2録音セグメントを処理して、再録音されたオーディオファイルを得ることであって、
前記第1録音セグメントに対応する第1音響波形を取得し、前記第2録音セグメントに対応する第2音響波形を取得することと、
前記第1音響波形から、安定開始点および前記オーディオファイルにおける前記安定開始点に対応する第2時間を決定することと、
前記第2音響波形から、立ち上がり開始点および前記オーディオファイルにおける前記立ち上がり開始点に対応する第3時間を決定することと、
前記第2時間を開始時間として、前記第2録音セグメント及び前記第3録音セグメントから第4録音セグメントを選択することと、
前記第3時間を終了時間として、前記再録音待ちの録音セグメント及び前記第1録音セグメントから第5録音セグメントを選択することと、
前記第4録音セグメントと前記第5録音セグメントを処理して、前記再録音されたオーディオファイルを得ることとを含み、
前記第2時間は前記第1時間よりも早く、前記第1時間は前記第3時間よりも早い、ことと、
を含む、オーディオファイルの再録音方法。 - 前記第4録音セグメントと前記第5録音セグメントを処理して、前記再録音されたオーディオファイルを得ることは、
前記第4録音セグメントに対応する音響波形と前記第5録音セグメントに対応する音響波形とを比較することと、
前記第4録音セグメントに対応する音響波形から第1対象音響波形を取得し、前記第5録音セグメントに対応する音響波形から第2対象音響波形を取得し、前記第1対象音響波形と前記第2対象音響波形は同じ開始時間と終了時間を有することと、
前記第1対象音響波形と前記第2対象音響波形とをフィッティングし、前記第4録音セグメントと前記第5録音セグメントとを繋ぎ合わせて、前記再録音されたオーディオファイルを得ることとを含む、
請求項1に記載のオーディオファイルの再録音方法。 - 録音された録音セグメントの再生および録音セグメントの録音のプロセスにおいて、対応する伴奏ファイルを再生することをさらに含む、
請求項1に記載のオーディオファイルの再録音方法。 - 1つ以上のプロセッサおよびプログラムモジュールを記憶したメモリを含み、
前記プログラムモジュールは、
オーディオファイルにおける再録音待ちの録音セグメントの第1開始時間である第1時間を決定するための取得モジュールであって、録音された第1録音セグメントの再生のプロセスにおいて、ユーザの第2音声データを収集して、第3録音セグメントを得る取得モジュールと、
前記オーディオファイルにおいて前記第1時間を第1終了時間として録音された第1録音セグメントを再生するための第1再生モジュールと、
前記第1時間に達すると、ユーザの第1音声データを収集して、第2録音セグメントを得るための第1収集モジュールと、
前記第1録音セグメントと前記第2録音セグメントを処理して、再録音されたオーディオファイルを得るための処理モジュールとを含み、
前記処理モジュールは、
前記第1録音セグメントに対応する第1音響波形を取得し、前記第2録音セグメントに対応する第2音響波形を取得することと、
前記第1音響波形から、安定開始点および前記オーディオファイルにおける前記安定開始点に対応する第2時間を決定することと、
前記第2音響波形から、立ち上がり開始点および前記オーディオファイルにおける前記立ち上がり開始点に対応する第3時間を決定することと、
前記第2時間を開始時間として、前記第2録音セグメント及び前記第3録音セグメントから第4録音セグメントを選択することと、
前記第3時間を終了時間として、前記再録音待ちの録音セグメント及び前記第1録音セグメントから第5録音セグメントを選択することと、
前記第4録音セグメントと前記第5録音セグメントを処理して、前記再録音されたオーディオファイルを得ることにさらに用いられ、
前記第2時間は前記第1時間よりも早く、前記第1時間は前記第3時間よりも早い、
オーディオファイルの再録音装置。 - 前記処理モジュールは、
前記第4録音セグメントに対応する音響波形と前記第5録音セグメントに対応する音響波形とを比較することと、
前記第4録音セグメントに対応する音響波形から第1対象音響波形を取得し、前記第5録音セグメントに対応する音響波形から第2対象音響波形を取得し、前記第1対象音響波形と前記第2対象音響波形は同じ開始時間と終了時間を有することと、
前記第1対象音響波形と前記第2対象音響波形とをフィッティングし、前記第4録音セグメントと前記第5録音セグメントとを繋ぎ合わせて、前記再録音されたオーディオファイルを得ることにさらに用いられる、
請求項4に記載のオーディオファイルの再録音装置。 - 録音された録音セグメントの再生および録音セグメントの録音のプロセスにおいて、対応する伴奏ファイルを再生することに用いられる第2再生モジュールをさらに含む、
請求項4に記載のオーディオファイルの再録音装置。 - プログラム命令が計算デバイスによって実行される場合、前記計算デバイスは、
オーディオファイルにおける再録音待ちの録音セグメントの第1開始時間である第1時間を決定する動作と、
前記オーディオファイルにおいて前記第1時間を第1終了時間として録音された第1録音セグメントを再生する動作であって、録音された第1録音セグメントの再生のプロセスにおいて、ユーザの第2音声データを収集して、第3録音セグメントを得る動作と、
前記第1時間に達する場合、ユーザの第1音声データを収集して、第2録音セグメントを得る動作と、
前記第1録音セグメントと、前記第2録音セグメントを処理して、再録音されたオーディオファイルを得る動作とを実行するように設定され、
前記再録音されたオーディオファイルを得る動作は、
前記第1録音セグメントに対応する第1音響波形を取得し、前記第2録音セグメントに対応する第2音響波形を取得することと、
前記第1音響波形から、安定開始点および前記オーディオファイルにおける前記安定開始点に対応する第2時間を決定することと、
前記第2音響波形から、立ち上がり開始点および前記オーディオファイルにおける前記立ち上がり開始点に対応する第3時間を決定することと、
前記第2時間を開始時間として、前記第2録音セグメント及び前記第3録音セグメントから第4録音セグメントを選択することと、
前記第3時間を終了時間として、前記再録音待ちの録音セグメント及び前記第1録音セグメントから第5録音セグメントを選択することと、
前記第4録音セグメントと前記第5録音セグメントを処理して、前記再録音されたオーディオファイルを得ることとを含み、
前記第2時間は前記第1時間よりも早く、前記第1時間は前記第3時間よりも早い、
プログラム命令を記憶する不揮発性メモリ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510810824.X | 2015-11-23 | ||
CN201510810824.XA CN106782627B (zh) | 2015-11-23 | 2015-11-23 | 音频文件的重录方法及装置 |
PCT/CN2016/094649 WO2017088527A1 (zh) | 2015-11-23 | 2016-08-11 | 音频文件的重录方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019505944A JP2019505944A (ja) | 2019-02-28 |
JP6717940B2 true JP6717940B2 (ja) | 2020-07-08 |
Family
ID=58763915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018526686A Active JP6717940B2 (ja) | 2015-11-23 | 2016-08-11 | オーディオファイルの再録音方法、装置及び記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10283168B2 (ja) |
EP (1) | EP3382707B1 (ja) |
JP (1) | JP6717940B2 (ja) |
KR (1) | KR102084979B1 (ja) |
CN (1) | CN106782627B (ja) |
WO (1) | WO2017088527A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358969A (zh) * | 2017-07-19 | 2017-11-17 | 无锡冰河计算机科技发展有限公司 | 一种录音融合方法 |
CN108022604A (zh) * | 2017-11-28 | 2018-05-11 | 北京小唱科技有限公司 | 补录音频内容的方法和装置 |
CN109378018A (zh) * | 2018-10-18 | 2019-02-22 | 广州酷狗计算机科技有限公司 | 多媒体文件的录制方法、装置、终端及存储介质 |
CN110136752B (zh) * | 2019-06-04 | 2021-01-26 | 广州酷狗计算机科技有限公司 | 音频处理的方法、装置、终端及计算机可读存储介质 |
CN110688082B (zh) * | 2019-10-10 | 2021-08-03 | 腾讯音乐娱乐科技(深圳)有限公司 | 确定音量的调节比例信息的方法、装置、设备及存储介质 |
CN112382310B (zh) * | 2020-11-12 | 2022-09-27 | 北京猿力未来科技有限公司 | 一种人声音频录制方法和装置 |
CN112837709B (zh) * | 2021-02-24 | 2022-07-22 | 北京达佳互联信息技术有限公司 | 一种音频文件拼接的方法及装置 |
CN113438434A (zh) * | 2021-08-26 | 2021-09-24 | 视见科技(杭州)有限公司 | 基于文本的音频/视频重录方法和系统 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2877981B2 (ja) * | 1991-04-26 | 1999-04-05 | シャープ株式会社 | 記録再生装置 |
US5712957A (en) * | 1995-09-08 | 1998-01-27 | Carnegie Mellon University | Locating and correcting erroneously recognized portions of utterances by rescoring based on two n-best lists |
GB2302199B (en) * | 1996-09-24 | 1997-05-14 | Allvoice Computing Plc | Data processing method and apparatus |
US6111709A (en) * | 1997-09-24 | 2000-08-29 | Sony Corporation | Digital recorder with seamless punch-out |
US6064961A (en) * | 1998-09-02 | 2000-05-16 | International Business Machines Corporation | Display for proofreading text |
JP3978909B2 (ja) * | 1998-12-03 | 2007-09-19 | ヤマハ株式会社 | カラオケ装置 |
JP4145796B2 (ja) * | 2001-10-31 | 2008-09-03 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | テキストファイルのディクテーションを筆記するための及びテキストを修正するための方法及びシステム |
US7231351B1 (en) * | 2002-05-10 | 2007-06-12 | Nexidia, Inc. | Transcript alignment |
US7979281B2 (en) * | 2003-04-29 | 2011-07-12 | Custom Speech Usa, Inc. | Methods and systems for creating a second generation session file |
US8109765B2 (en) * | 2004-09-10 | 2012-02-07 | Scientific Learning Corporation | Intelligent tutoring feedback |
GB2431489A (en) * | 2005-10-14 | 2007-04-25 | Fabularo Ltd | Method for the manufacture of an audio book |
US20080140652A1 (en) * | 2006-12-07 | 2008-06-12 | Jonathan Travis Millman | Authoring tool |
US8751022B2 (en) * | 2007-04-14 | 2014-06-10 | Apple Inc. | Multi-take compositing of digital media assets |
CN101840722A (zh) * | 2009-03-18 | 2010-09-22 | 美商原创分享控股集团有限公司 | 线上影音编辑处理方法、装置及系统 |
US8346557B2 (en) * | 2009-01-15 | 2013-01-01 | K-Nfb Reading Technology, Inc. | Systems and methods document narration |
US8311838B2 (en) * | 2010-01-13 | 2012-11-13 | Apple Inc. | Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts |
US9066049B2 (en) * | 2010-04-12 | 2015-06-23 | Adobe Systems Incorporated | Method and apparatus for processing scripts |
US8548618B1 (en) * | 2010-09-13 | 2013-10-01 | Audible, Inc. | Systems and methods for creating narration audio |
US9031493B2 (en) * | 2011-11-18 | 2015-05-12 | Google Inc. | Custom narration of electronic books |
US9595256B2 (en) * | 2012-12-04 | 2017-03-14 | National Institute Of Advanced Industrial Science And Technology | System and method for singing synthesis |
US9280906B2 (en) * | 2013-02-04 | 2016-03-08 | Audible. Inc. | Prompting a user for input during a synchronous presentation of audio content and textual content |
CN104347096A (zh) * | 2013-08-09 | 2015-02-11 | 上海证大喜马拉雅网络科技有限公司 | 集音频裁剪、续录及合并于一体的录音系统和方法 |
-
2015
- 2015-11-23 CN CN201510810824.XA patent/CN106782627B/zh active Active
-
2016
- 2016-08-11 KR KR1020187017901A patent/KR102084979B1/ko active IP Right Grant
- 2016-08-11 EP EP16867754.0A patent/EP3382707B1/en active Active
- 2016-08-11 JP JP2018526686A patent/JP6717940B2/ja active Active
- 2016-08-11 WO PCT/CN2016/094649 patent/WO2017088527A1/zh active Application Filing
-
2018
- 2018-05-01 US US15/968,674 patent/US10283168B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3382707A1 (en) | 2018-10-03 |
EP3382707B1 (en) | 2020-10-28 |
CN106782627B (zh) | 2019-08-27 |
US10283168B2 (en) | 2019-05-07 |
EP3382707A4 (en) | 2019-08-07 |
CN106782627A (zh) | 2017-05-31 |
JP2019505944A (ja) | 2019-02-28 |
WO2017088527A1 (zh) | 2017-06-01 |
US20180247675A1 (en) | 2018-08-30 |
KR102084979B1 (ko) | 2020-03-05 |
KR20180090294A (ko) | 2018-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6717940B2 (ja) | オーディオファイルの再録音方法、装置及び記憶媒体 | |
CN105872253B (zh) | 一种直播声音处理方法及移动终端 | |
WO2016177296A1 (zh) | 一种生成视频的方法和装置 | |
JP5266368B2 (ja) | 音楽再生制御のための方法、システム及びプログラム製品 | |
RU2612362C1 (ru) | Способ записи, способ воспроизведения, устройство, терминал и система | |
US20090062944A1 (en) | Modifying media files | |
JP2010205394A (ja) | 音源再生装置及び音源選択再生方法 | |
US20230252964A1 (en) | Method and apparatus for determining volume adjustment ratio information, device, and storage medium | |
JP2008294516A (ja) | 再生装置および再生方法 | |
KR20150024188A (ko) | 음성 데이터에 대응하는 문자 데이터를 변경하는 방법 및 이를 위한 전자 장치 | |
CN106328176B (zh) | 一种生成歌曲音频的方法和装置 | |
WO2017028686A1 (zh) | 一种信息处理方法、终端设备及计算机存储介质 | |
US11272136B2 (en) | Method and device for processing multimedia information, electronic equipment and computer-readable storage medium | |
KR100783113B1 (ko) | 이동 통신 단말기의 음악 파일 단축 저장 방법 | |
CN110675848A (zh) | 音频处理方法、装置及存储介质 | |
WO2017101260A1 (zh) | 音频切换方法、装置以及存储介质 | |
KR102156805B1 (ko) | 데이터 처리 방법 및 그 전자 장치 | |
CN107391076A (zh) | 音效评价显示方法及装置 | |
CN105702240A (zh) | 智能终端调整歌曲伴奏音乐的方法和装置 | |
WO2020118560A1 (zh) | 一种录音方法、装置、电子设备和计算机可读存储介质 | |
KR101393714B1 (ko) | 단말 및 그의 음악 재생 방법 | |
KR101082260B1 (ko) | 휴대용 디지털 기기의 캐릭터 표시방법 | |
WO2019071491A1 (zh) | 一种基于智能终端的音效区分方法及音效区分系统 | |
JP6464754B2 (ja) | 音楽再生装置、及び、音楽再生プログラム | |
JP3145706U (ja) | ビデオ−オーディオ娯楽マルチメディア処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180720 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191007 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200518 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200611 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6717940 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |