CN115225840A - 一种视频录制方法和电子设备 - Google Patents
一种视频录制方法和电子设备 Download PDFInfo
- Publication number
- CN115225840A CN115225840A CN202110415047.4A CN202110415047A CN115225840A CN 115225840 A CN115225840 A CN 115225840A CN 202110415047 A CN202110415047 A CN 202110415047A CN 115225840 A CN115225840 A CN 115225840A
- Authority
- CN
- China
- Prior art keywords
- audio signal
- user
- electronic device
- sound
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 230000005236 sound signal Effects 0.000 claims abstract description 488
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 40
- 238000012545 processing Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 31
- 238000001914 filtration Methods 0.000 claims description 14
- 230000009467 reduction Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 230000000903 blocking effect Effects 0.000 claims description 10
- 230000003044 adaptive effect Effects 0.000 claims description 7
- 230000002708 enhancing effect Effects 0.000 claims description 6
- 230000000875 corresponding effect Effects 0.000 description 34
- 238000004891 communication Methods 0.000 description 33
- 230000006854 communication Effects 0.000 description 33
- 230000000007 visual effect Effects 0.000 description 32
- 238000004422 calculation algorithm Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 11
- 230000004044 response Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 8
- 238000007726 management method Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 6
- 238000010295 mobile communication Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000002156 mixing Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010219 correlation analysis Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241001528553 Malus asiatica Species 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/926—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
- H04N5/9265—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation with processing of the sound signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/80—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
- G01S3/802—Systems for determining direction or deviation from predetermined direction
- G01S3/803—Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from receiving transducers or transducer systems having differently-oriented directivity characteristics
- G01S3/8034—Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from receiving transducers or transducer systems having differently-oriented directivity characteristics wherein the signals are derived simultaneously
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
- H04N21/4334—Recording operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02087—Noise filtering the noise being separate speech, e.g. cocktail party
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/60—Substation equipment, e.g. for use by subscribers including speech amplifiers
- H04M1/6033—Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
- H04M1/6041—Portable telephones adapted for handsfree use
- H04M1/6058—Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone
- H04M1/6066—Portable telephones adapted for handsfree use involving the use of a headset accessory device connected to the portable telephone including a wireless connection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
- H04R2430/23—Direction finding using a sum-delay beam-former
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2460/00—Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
- H04R2460/13—Hearing devices using bone conduction transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/11—Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Circuit For Audible Band Transducer (AREA)
- Stereophonic System (AREA)
- Studio Devices (AREA)
Abstract
一种视频录制方法。在该方法中,第一电子设备录制包括用户在内的视频时,可以采集多帧图像,将该多帧图像进行编码,得到视频流。第一电子设备还可以利用第二电子设备发送的骨传导音频信号以及用户音频信号,得到与用户的声像方位匹配的立体声音频信号,将多帧图像对应的立体声音频信号进行编码,得到音频流,将该音频流与视频流混流,得到视频。所述视频中,所述用户的声音的声像方位与用户的视像方位是匹配的。实施本申请提供的技术方案,在录制的视频中,在用户的声音的声像方位与用户的视像方位相匹配的情况下也能保证用户的声音是清晰的。
Description
技术领域
本申请涉及终端及通信技术领域,尤其涉及视频录制方法和电子设备。
背景技术
随着手机拍摄功能的完善,越来越多的用户喜欢在距离电子设备较远时,录制包括自己在内的视频,很多时候,用户在录制的视频中,希望自己的声音是清晰的、有方位感的。
随着真无线立体声(true wireless stereo,TWS)耳机的普及,当用户佩戴着TWS耳机,距离电子设备较远,进行视频录制时,该TWS耳机可以尽量避免环境中的其他声音信号,采集比较清晰的用户的声音信号,然后将该声音信号转换成音频信号,再通过无线网络将该音频信号传输给电子设备,电子设备可以将收到的音频信号与录制的图像进行处理,得到视频。在该视频中,用户的声音是清晰的。
但是,采取上述方法录制的视频时,虽然用户在说话时,发出的声音是立体声,但是,该立体声经过TWS耳机记录并处理后,就不是立体的了,导致得到的视频中,用户的声音不具有立体感,用户的声音的声像方位无法与用户的视像方位匹配。
发明内容
本申请提供了一种视频录制方法和电子设备,在用户距离电子设备较远,电子设备录制包括用户在内的视频时,录制的视频中,在用户的声音的声像方位与用户的视像方位相匹配的情况下也能保证用户的声音是清晰的。
第一方面,本申请提供了一种视频录制方法,包括:在第一电子设备录制视频的过程中,该第一电子设备采集图像和第一音频信号;该第一电子设备根据该图像和该第一音频信号,确定图像中用户的声音的声像方位;该第一电子设备根据该用户的声音的声像方位和用户音频信号,生成立体声音频信号;该用户音频信号由该第二电子设备获取并发送给该第一电子设备;该第一电子设备根据该图像和该立体声音频信号生成视频。
在上述实施例中,第一电子设备会计算出用户的声音的声像方位,用于对用户音频信号做立体声处理,使得生成的视频中的立体声音频信号还原出的用户的声音的声像方位与用户的视像方位是匹配的。且用户音频信号是第二电子设备采集的,第二电子设备可以是用户佩戴的耳机,这样,采集的用户音频信号是清晰的,使得第一电子设备生成的立体声用户音频信号也可以是清晰的。则在生成的视频中,用户的声音的声像方位与用户的视像方位是匹配的,且该用户的声音是清晰的。且根据该用户的声音的声像方位和用户音频信号生成的立体声音频信号中,主要包括用户的声音信息,而没有掺杂环境中其他的声音信息,在一些需要使得视频中突出的是用户的声音信息的场景下,使用该实施例中的方法可以达到突出用户的声音的目的。
结合第一方面的一些实施例,在一些实施例中,该第一电子设备根据该图像和该第一音频信号,确定图像中用户的声音的声像方位,具体包括:该第一电子设备对该图像进行人脸识别,得到人脸的像素位置;该第一电子设备根据该第一音频信号,确定用户的声源方位;该第一电子设备根据该用户的声源方位以及该人脸的像素位置,确定该用户在图像中的像素位置;该第一电子设备根据该用户在图像中的像素位置,确定该图像中该用户的声音的声像方位。
在上述实施例中,第一电子设备通过采集的第一音频信号与图像会计算出该用户的声音的声像方位,该用户的声音的声像方位作为生成立体声音频信号时的算法的参数,使得该立体声音频信号还原的用户的声音的声像方位是与图像中用户的视像方位匹配的。
结合第一方面的一些实施例,在一些实施例中,该第一电子设备根据该图像和该第一音频信号,确定图像中用户的声音的声像方位,具体包括:该第一电子设备对该图像进行人脸识别,得到人脸的像素位置;该第一电子设备利用骨传导音频信号,结合该第一音频信号,确定用户的声源方位;该骨传导音频信号由该第二电子设备获取并发送给该第一电子设备;该第一电子设备根据该用户的声源方位以及该人脸的像素位置,确定该用户在图像中的像素位置;该第一电子设备根据该用户在图像中的像素位置,确定该图像中该用户的声音的声像方位。
在上述实施例中,在计算用户的声音的声像方位的过程中,可以利用骨传导音频信号筛选出第一音频信号中与用户的声音信息强相关的那部分音频信号,提高计算出用户的声音的声像方位的准确性。
结合第一方面的一些实施例,在一些实施例中,该第一电子设备根据该用户的声音的声像方位和用户音频信号,生成立体声音频信号,具体包括:该第一电子设备生成环境立体声音频信号;该第一电子设备根据该用户的声音的声像方位和该用户音频信号,以及该环境立体声音频信号,生成该立体声音频信号。
在上述实施例中,在生成立体声音频信号的过程中,不仅会利用用户音频信号,也会利用环境音频信号,使得生成的立体声音频信号中不仅有用户的声音信息还包括环境中的其他声音信息。
结合第一方面的一些实施例,在一些实施例中,该第一电子设备生成环境立体声音频信号,具体包括:该第一电子设备根据该用户音频信号对该第一音频信号进行自适应阻塞滤波,滤除该第一音频信号中用户的声音信息;第一电子设备根据滤波后的第一音频信号生成该环境立体声音频信号。
在上述实施例中,第一电子设备采集的第一音频信号中,可以包含更清晰的环境中的其他声音信息。第一电子设备利用采集的第一音频信号,滤除其中的用户的声音信息。可以得到真实的环境中的其他声音信息。
结合第一方面的一些实施例,在一些实施例中,该第一电子设备生成环境立体声音频信号,具体包括:该第一电子设备利用该第一音频信号,生成立体声第一音频信号;该第一电子设备根据该用户音频信号对该立体声第一音频信号进行自适应阻塞滤波,滤除该立体声第一音频信号中用户的声音信息,得到环境立体声音频信号。
在上述实施例中,第一电子设备采集的第一音频信号中,可以包含更清晰的环境中的其他声音信息。第一电子设备利用采集的第一音频信号,滤除其中的用户的声音信息。可以得到真实的环境中的其他声音信息。
结合第一方面的一些实施例,在一些实施例中,该第一电子设备根据该用户的声音的声像方位和该用户音频信号,以及该环境立体声音频信号,生成该立体声音频信号,具体包括:该第一电子设备根据该用户的声音的声像方位和该用户音频信号,生成用户立体声音频信号;该第一电子设备将该用户立体声音频信号进行增强,同时不改变该环境立体声音频信号;该第一电子设备根据增强后的该用户立体声音频信号与该环境立体声音频信号,生成该立体声音频信号。
在上述实施例中,用户立体声音频信号中既包括用户立体声音频信号,也包括环境立体声音频信号时,可以进行音频变焦,当图像中用户距离第一电子设备更近时,该用户的声音可以变得更大,同时环境声音不改变。当图像中用户距离第一电子设备更远时,该用户的声音可以变得更小,同时环境声音不改变。
结合第一方面的一些实施例,在一些实施例中,该第一电子设备根据该用户的声音的声像方位和该用户音频信号,以及该环境立体声音频信号,生成该立体声音频信号,具体包括:该第一电子设备根据该用户的声音的声像方位和该用户音频信号,生成用户立体声音频信号;该第一电子设备将该用户立体声音频信号进行增强,同时将该环境立体声音频信号进行抑制;该第一电子设备根据增强后的该用户立体声音频信号与抑制后的该环境立体声音频信号,生成该立体声音频信号。
在上述实施例中,用户立体声音频信号中既包括用户立体声音频信号,也包括环境立体声音频信号时,可以进行音频变焦,当图像中用户距离第一电子设备更近时,该用户的声音可以变得更大,同时环境声音变小。当图像中用户距离第一电子设备更远时,该用户的声音可以变得更小,同时环境声音变小。
结合第一方面的一些实施例,在一些实施例中,该用户音频信号为该第二电子设备根据该骨传导音频信号对该第二音频信号进行联合降噪处理,除去该第二音频信号中的该第二电子设备周围环境中的其他声音信息所得。
在上述实施例中,利用骨传导音频信号对第二音频信号进行滤波处理,使得得到的用户音频信号中,基本是用户的声音的信息,当第一电子设备利用该用户音频信号计算用户的声音的声像方位时,使得计算结果环境中其他声音信息的影响较小,使得计算结果更加准确。
结合第一方面的一些实施例,在一些实施例中,该用户音频信号为该第二电子设备根据第二音频信号进行降噪处理,除去该第二音频信号中的该第二电子设备周围环境中的其他声音信息所得。
在上述实施例中,对第二音频信号进行滤波处理,除去部分环境中的声音信息,使得得到的用户音频信号中,用户的声音的信息被保存下来,当第一电子设备利用该用户音频信号计算用户的声音的声像方位时,使得计算结果环境中其他声音信息的影响较小,使得计算结果准确。
第二方面,本申请提供了一种电子设备,该电子设备包括:一个或多个处理器和存储器;该存储器与该一个或多个处理器耦合,该存储器用于存储计算机程序代码,该计算机程序代码包括计算机指令,该一个或多个处理器调用该计算机指令以使得该电子设备执行:在录制视频的过程中,采集图像和第一音频信号;根据该图像和该第一音频信号,确定图像中用户的声音的声像方位;根据该用户的声音的声像方位和用户音频信号,生成立体声音频信号;该用户音频信号由该第二电子设备获取并发送给该电子设备;根据该图像和该立体声音频信号生成视频。
在上述实施例中,第一电子设备会计算出用户的声音的声像方位,用于对用户音频信号做立体声处理,使得生成的视频中的立体声音频信号还原出的用户的声音的声像方位与用户的视像方位是匹配的。且用户音频信号是第二电子设备采集的,第二电子设备可以是用户佩戴的耳机,这样,采集的用户音频信号是清晰的,使得第一电子设备生成的立体声用户音频信号也可以是清晰的。则在生成的视频中,用户的声音的声像方位与用户的视像方位是匹配的,且该用户的声音是清晰的。且根据该用户的声音的声像方位和用户音频信号生成的立体声音频信号中,主要包括用户的声音信息,而没有掺杂环境中其他的声音信息,在一些需要使得视频中突出的是用户的声音信息的场景下,使用该实施例中的方法可以达到突出用户的声音的目的。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器具体用于调用该计算机指令以使得该电子设备执行:对该图像进行人脸识别,得到人脸的像素位置;根据该第一音频信号,确定用户的声源方位;根据该用户的声源方位以及该人脸的像素位置,确定该用户在图像中的像素位置;根据该用户在图像中的像素位置,确定该图像中该用户的声音的声像方位。
在上述实施例中,第一电子设备通过采集的第一音频信号与图像会计算出该用户的声音的声像方位,该用户的声音的声像方位作为生成立体声音频信号时的算法的参数,使得该立体声音频信号还原的用户的声音的声像方位是与图像中用户的视像方位匹配的。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器具体用于调用该计算机指令以使得该电子设备执行:对该图像进行人脸识别,得到人脸的像素位置;利用骨传导音频信号,结合该第一音频信号,确定用户的声源方位;该骨传导音频信号由该第二电子设备获取并发送给该电子设备;根据该用户的声源方位以及该人脸的像素位置,确定该用户在图像中的像素位置;根据该用户在图像中的像素位置,确定该图像中该用户的声音的声像方位。
在上述实施例中,在计算用户的声音的声像方位的过程中,可以利用骨传导音频信号筛选出第一音频信号中与用户的声音信息强相关的那部分音频信号,提高计算出用户的声音的声像方位的准确性。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器具体用于调用该计算机指令以使得该电子设备执行:生成环境立体声音频信号;根据该用户的声音的声像方位和该用户音频信号,以及该环境立体声音频信号,生成该立体声音频信号。
在上述实施例中,在生成立体声音频信号的过程中,不仅会利用用户音频信号,也会利用环境音频信号,使得生成的立体声音频信号中不仅有用户的声音信息还包括环境中的其他声音信息。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器具体用于调用该计算机指令以使得该电子设备执行:根据该用户音频信号对该第一音频信号进行自适应阻塞滤波,滤除该第一音频信号中用户的声音信息;根据滤波后的第一音频信号生成该环境立体声音频信号。
在上述实施例中,第一电子设备采集的第一音频信号中,可以包含更清晰的环境中的其他声音信息。第一电子设备利用采集的第一音频信号,滤除其中的用户的声音信息。可以得到真实的环境中的其他声音信息。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器具体用于调用该计算机指令以使得该电子设备执行:根据该用户音频信号对该立体声第一音频信号进行自适应阻塞滤波,滤除该立体声第一音频信号中用户的声音信息,得到环境立体声音频信号。
在上述实施例中,第一电子设备采集的第一音频信号中,可以包含更清晰的环境中的其他声音信息。第一电子设备利用采集的第一音频信号,滤除其中的用户的声音信息。可以得到真实的环境中的其他声音信息。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器具体用于调用该计算机指令以使得该电子设备执行:根据该用户的声音的声像方位和该用户音频信号,生成用户立体声音频信号;将该用户立体声音频信号进行增强,同时不改变该环境立体声音频信号;根据增强后的该用户立体声音频信号与该环境立体声音频信号,生成该立体声音频信号。
在上述实施例中,用户立体声音频信号中既包括用户立体声音频信号,也包括环境立体声音频信号时,可以进行音频变焦,当图像中用户距离第一电子设备更近时,该用户的声音可以变得更大,同时环境声音不改变。当图像中用户距离第一电子设备更远时,该用户的声音可以变得更小,同时环境声音不改变。
结合第二方面的一些实施例,在一些实施例中,该一个或多个处理器具体用于调用该计算机指令以使得该电子设备执行:根据该用户的声音的声像方位和该用户音频信号,生成用户立体声音频信号;将该用户立体声音频信号进行增强,同时将该环境立体声音频信号进行抑制;根据增强后的该用户立体声音频信号与抑制后的该环境立体声音频信号,生成该立体声音频信号。
在上述实施例中,用户立体声音频信号中既包括用户立体声音频信号,也包括环境立体声音频信号时,可以进行音频变焦,当图像中用户距离第一电子设备更近时,该用户的声音可以变得更大,同时环境声音变小。当图像中用户距离第一电子设备更远时,该用户的声音可以变得更小,同时环境声音变小。
第三方面,本申请实施例提供了一种芯片系统,该芯片系统应用于电子设备,该芯片系统包括一个或多个处理器,该处理器用于调用计算机指令以使得该电子设备执行如第一方面的任意一种实施方式所描述的方法。
第四方面,本申请实施例提供了一种包含指令的计算机程序产品,其特征在于,当该计算机程序产品在电子设备上运行时,使得该电子设备执行如第一方面的任意一种实施方式所描述的方法。
第五方面,本申请实施例提供了一种计算机可读存储介质,包括指令,其特征在于,当该指令在电子设备上运行时,使得该电子设备执行如第一方面的任意一种实施方式所描述的方法。
可以理解地,第三方面提供的芯片系统、第四方面提供的计算机程序产品和第五方面提供的计算机存储介质均用于执行本申请实施例所提供的方法。因此,其所能达到的有益效果可参考对应方法中的有益效果,此处不再赘述。
附图说明
图1a是本申请实施例提供世界坐标系、摄像机坐标系、像平面坐标系的结构示意图;
图1b、图1c是本申请实施例提供的图像像素坐标系的示意图;
图2a、图2b是本申请实施例提供的一种方案中视频录制的示意图;
图3是本申请实施例提供的通信系统100的结构示意图;
图4是本申请实施例提供的第一电子设备的结构示意图;
图5是本申请实施例提供的第二电子设备的结构示意图;
图6是本申请实施例中视频录制方法的一个信令交互示意图;
图7是本申请实施例中第一电子设备确定该用户音频信号对应的用户的声音的声像方位的流程图。
具体实施方式
本申请以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括复数表达形式,除非其上下文中明确地有相反指示。还应当理解,本申请中使用的术语“和/或”是指并包含一个或多个所列出项目的任何或所有可能组合。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为暗示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征,在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
为了便于理解,下面先对本申请实施例涉及的相关术语及概念进行介绍。
(1)视像方位:
在本申请实施例中,用户的视像方位是指,当电子设备获取包括该用户在内的图像时,从该图像中判断的该用户在真实世界中相对于摄像机中心的位置。该位置的参考坐标系可以是摄像机坐标系。
可以理解的是,在一些情况下,当用户在真实世界中的相对于摄像机中心的位置没有改变,但是从图像中,会感觉用户在真实世界中相对于摄像机中心的位置发生了改变。例如,电子设备改变摄像机中的参数(例如焦距等)得到的图像,或者,对包括用户的像进行裁剪后得到的图像。
视像方位的确定涉及到了世界坐标系、摄像机坐标系、像平面坐标系、图像像素坐标系。
图1a示出了本申请实施例提供的世界坐标系、摄像机坐标系、像平面坐标系的示例。
世界坐标系以O3-Xw-Yw-Zw表示。通过世界坐标系,可以得到用户在真实世界中的坐标。
摄像机坐标系以O1-Xc-Yc-Zc表示,O1是摄像机的光心,也是摄像机坐标系的原点,Xc轴、Yc轴、Zc轴分别是摄像机坐标系的坐标轴,其中Zc轴位主光轴。
世界坐标系中某一个点的坐标可以通过刚体变换转换成到摄像机坐标系中。
摄像机采集到用户反射的光线,将这些光线呈现在成像平面上,得到用户的光学图像。在该成像平面上可以建立像平面坐标系。
其中,像平面坐标系以O2-X-Y表示,O2是光学图像的中心,也是像平面坐标系的原点,X轴、Y轴与Xc轴、Yc轴平行。
摄像机坐标系中某一个点的坐标可以通过透视投影,转换到像平面坐标系中。
图1b、图1c示出了本申请实施例提供的图像像素坐标系的示意图。
电子设备可以将像平面中的光学图像经过处理,得到可以显示在显示屏中的图像。
如图1b所示,在一些实施例中,在像平面中建立像平面坐标系,以O2-X-Y表示。电子设备可以不对像平面中的像进行裁剪,直接将该像对应的图像,显示在显示屏中。在该图像上建立图像像素坐标系,该图像像素坐标系以O-U-V表示,单位以像素计。O是图像的一个顶点,U轴、V轴与X轴、Y轴平行。
如图1c所示,在一些实施例中,在像平面中建立像平面坐标系,以O2-X-Y表示。电子设备可以对像平面中的像进行裁剪,将裁剪后得到的像对应的图像显示在显示屏中。在该图像上建立图像像素坐标系,该图像像素坐标系以O-U-V表示。O是裁剪后得到的像对应的图像的一个顶点,U轴、V轴与X轴、Y轴平行。
在另一些实施例中,电子设备还可以对像平面中的像做其他的处理,例如变焦等。得到可以显示在显示屏中的图像。然后,可以以该图像的顶点为坐标原点,建立图像像素坐标系。
电子设备可以用用户身上的某一个点来确定该用户相对于摄像机中心的位置,这样,当电子设备可以确定该点相对于摄像机中心的位置时,可以转化为该点对应的像素点在图像像素坐标系中的像素坐标。同样,当电子设备获取到某一个像素点在图像像素坐标系中的像素坐标时,也可以利用该像素坐标确定该像素点对应的点相对于摄像机中心的位置。这样,电子设备便可以通过用户相对于摄像机中心的位置,得到该用户在图像中的像素坐标。也可以通过用户在图像中的像素坐标,得到该用户相对于摄像机中心的位置。具体的过程将在下文描述,此处暂不赘述。
本申请实施例中,一个用户的视像方位在摄像机坐标系中的表示方式可以有多种,包括相对于摄像机坐标系中心的方位角度,该方位角度可以包括方位角和俯仰角,例如俯仰角为物体的像到Zc轴的角度为m°,方位角为物体的像到Yc轴的角度为n°,此时,该用户的视像方位可以记为(m°,n°)。以及相对于摄像机Xc轴、Yc轴、Zc轴的距离分别为a,b,c,此时,该用户的视像方位可以记为(a,b,c)。还可以用其他的表示方式定义一个用户相对于摄像机坐标系的视像方位,本申请实施例对此不做限定。
为了使电子设备录制的视频中,用户的声音的声像方位与用户的视像方位相匹配,一种方案是,通过电子设备的麦克风采集声音信号,再将该声音信号转换成电信号形式的音频信号。然后,电子设备可以对该音频信号进行聚焦,将该音频信号聚焦到期望的区域(例如用户说话时所处的区域)中,由电子设备将聚焦后的音频信号再现成声音。从而使录制的视频中用户的声音的声像方位与用户的视像方位匹配。
其中,声像方位是指,声音通过声音信号传播到电子设备,该声音信号被电子设备采集后,电子设备将该声音信号转换成音频信号,然后再现该音频信号对应的声音时,该声音的方位。
但是,采取该方案时,当用户距离电子设备较远时,电子设备在采集用户的声音信号的同时,也会采集到环境中的其他声音信号,且用户的声音信号容易受到在空气中传播时距离衰减的影响,导致录制的视频中,用户的声音往往不清晰。
为了解决上述方案中,当用户距离电子设备较远时,导致录取的视频中,用户的声音不清晰的问题。另一种方案是,用户佩戴TWS耳机,然后利用该TWS耳机来采集用户的声音信号。由于TWS耳机的麦克风距离用户很近,使得TWS耳机可以近距离采集用户的声音信号,并且隔离部分环境中的其他声音信号,在采集用户的声音信号时,减少对环境中的其他声音信号的采集。对于部分被采集的环境中的其他声音信号,TWS耳机可以对其进行降噪处理,除去该部分其他声音信号,保留用户的声音信号,然后通过无线网络将该声音信号传输给电子设备,电子设备可以将收到的声音信号与录制的图像进行处理,得到视频。在该视频中,用户的声音是清晰的。
但是,采取该方案时,由于TWS耳机的麦克风始终在用户的耳朵处采集用户的声音信号,所以对于麦克风而言,采集到的用户的声音信号的方向没有改变,始终是用户的发声部位相对于麦克风中心的方向。但是,对于电子设备的摄像机而言,在用户的声音信号的方向没有改变的情况下,采集到的用户的图像的方向可以是改变的。
如图2a所示,某一时刻,该用户发声时,相对于电子设备的摄像机中心的方向偏左。假设此时,在得到的图像中,用户的视像方位相对于摄像机中心的方向偏左。如图2b所示,另一时刻,用户的位置明显已经改变了,此时,用户相对电子设备的摄像机中心的方向偏右。假设此时,在得到的图像中,用户的视像方位相对于摄像机中心的方向偏右。但是,前后两个时刻用户相对于TWS耳机的麦克风中心的方向基本没有改变,则该麦克风采集到的用户的声音信号的方向基本没有改变。则在录制的视频中,用户的声音的声像方位没有改变。
所以,TWS耳机采集到的声音信号,在视频中再现该声音信号对应的声音时,该用户的声音的声像方位是没有改变的,但视频中,用户的视像方位是改变了的。这样,在得到的视频中,用户的声音的声像方位与用户的视像方位不匹配。
而采用本申请实施例提供的视频录制方法,当用户距离电子设备较远,使用电子设备进行视频录制时,录制的视频中,用户的声音的声像方位与用户的视像方位是匹配的,且视频中,用户的声音是清晰的。
在本申请实施例中,用户佩戴TWS耳机,在距离手机较远时录制包括自己在内的视频,该场景可以参考上述图2a与图2b。不同的是,采用本申请实施例的方法时,在用户的位置发生变化的过程中,虽然麦克风采集到的用户的声音信号的方向基本没有改变。但是,当TWS耳机将该声音信号传输到电子设备之后,电子设备可以利用对该声音信号与用户的在图像中的视像方位得到该声音信号对应的用户的声音的声像方位,该声像方位与用户的视像方位相匹配,然后利用该声像方位再现该声音信号对应用户的声音时,该用户的声音则可以与用户的视像方位匹配。例如,图2a中的用户的视像方位为摄像机中心的方向偏左,则此时,用户的声音的声像方位相对于摄像机也是偏左的。图2b中的用户的视像方位为摄像机中心的方向偏右,则此时,用户的声音的声像方位相对于摄像机也是偏右的。
这样,在录制的视频中,用户的声音的声像方位与用户的视像方位是匹配的,且利用TWS耳机采集用户的声音信号时,视频中,用户的声音是清晰的。
下面首先介绍本申请实施例应用的通信系统100。
图3是本申请实施例提供的通信系统100的结构示意图。
如图3所示,该通信系统100包括:多个电子设备,例如第一电子设备、第二电子设备、第三电子设备。
本申请实施例中的第一电子设备可以是搭载Android、华为鸿蒙系统(HuaweiHarmonyOS)、iOS、Microsoft或者其它操作系统的终端设备,例如智慧屏、手机、平板电脑、笔记本电脑、个人计算机等。
第二电子设备、第三电子设备可以采集声音信号并且将该声音信号转换为电信号,然后传输到第一电子设备。例如,第二电子设备、第三电子设备可以是TWS耳机、蓝牙耳机等。
无线网络用于为本申请实施例涉及的电子设备提供各项服务,例如通信服务、连接服务、传输服务等。
无线网络包括:蓝牙(bluetooth,BT),无线局域网(wireless local areanetwork,WLAN)技术、无线广域网(wirelesswide area network,WWAN)技术等。
第一电子设备可以和第二电子设备、第三电子设备通过无线网络建立连接,然后进行数据传输。
例如,第一电子设备可以对第二电子设备进行查找,当查找到第二电子设备时,第一电子设备可以向第二电子设备发送建立连接的请求,第二电子设备接收到该请求后,可以与第一电子设备建立连接。此时,第二电子设备可以将采集到的声音信号,转换为电信号,即音频信号,通过无线网络,传输到第一电子设备。
下面介绍通信系统100中涉及的第一电子设备。
图4是本申请实施例提供的第一电子设备的结构示意图。
下面以第一电子设备为例对实施例进行具体说明。应该理解的是,第一电子设备可以具有比图中所示的更多的或者更少的部件,可以组合两个或多个的部件,或者可以具有不同的部件配置。图中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。
第一电子设备可以包括:处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。
SIM接口可以被用于与SIM卡接口195通信,实现传送数据到SIM卡或读取SIM卡中数据的功能。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为第一电子设备充电,也可以用于第一电子设备与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对第一电子设备的结构限定。在本申请另一些实施例中,第一电子设备也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,显示屏194,摄像头193,和无线通信模块160等供电。
第一电子设备的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。第一电子设备中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在第一电子设备上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。
无线通信模块160可以提供应用在第一电子设备上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。
在一些实施例中,第一电子设备的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得第一电子设备可以通过无线通信技术与网络以及其他设备通信。所
第一电子设备通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。
第一电子设备可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,第一电子设备可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。
视频编解码器用于对数字视频压缩或解压缩。第一电子设备可以支持一种或多种视频编解码器。这样,第一电子设备可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现第一电子设备的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展第一电子设备的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行第一电子设备的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。
第一电子设备可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。第一电子设备可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当第一电子设备接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。第一电子设备可以设置至少一个麦克风170C。在另一些实施例中,第一电子设备可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,第一电子设备还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。
陀螺仪传感器180B可以用于确定第一电子设备的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定第一电子设备围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。
气压传感器180C用于测量气压。在一些实施例中,第一电子设备通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。第一电子设备可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当第一电子设备是翻盖机时,第一电子设备可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测第一电子设备在各个方向上(一般为三轴)加速度的大小。当第一电子设备静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。第一电子设备可以通过红外或激光测量距离。在一些实施例中,拍摄场景,第一电子设备可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。第一电子设备通过发光二极管向外发射红外光。第一电子设备使用光电二极管检测来自附近物体的红外反射光。
环境光传感器180L用于感知环境光亮度。第一电子设备可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测第一电子设备是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。第一电子设备可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,第一电子设备利用温度传感器180J检测的温度,执行温度处理策略。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。第一电子设备可以接收按键输入,产生与第一电子设备的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和第一电子设备的接触和分离。
本申请实施例中,第一电子设备还可以包括:激光传感器(未示出)。
激光传感器用于感受物体的振动,可以将该振动转换成电信号。在一些实施例中,激光传感器可以对喉部振动进行探测,获取喉部振动时的多普勒频移信号,将该多普勒频移信号转换成与喉部的振动频率相对应的电信号。
可以理解的是,第一电子设备还可以包括其他对物体的振动进行探测的装置,例如振动传感器(未示出)、超声波传感器(未示出)等。
本申请实施例中,该处理器110可以调用内部存储器121中存储的计算机指令,以使得第一电子设备执行本申请实施例中的视频录制方法。
下面介绍通信系统100中涉及的第二电子设备。
图5是本申请实施例提供的第二电子设备的结构示意图。
下面以第二电子设备为例对实施例进行具体说明。应该理解的是,第二电子设备可以具有比图中所示的更多的或者更少的部件,可以组合两个或多个的部件,或者可以具有不同的部件配置。图中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。
在本申请实施例中,第二电子设备可以包括:处理器151、麦克风152、骨传导传感器153、无线通信处理模块154。
处理器151可以用于解析无线通信处理模块154接收到的信号。该信号包括:第一电子设备发送的建立连接的请求。处理器151还可以用于生成无线通信处理模块154向外发送的信号,该信号包括:将音频信号传输到第一电子设备的请求等。
处理器151中还可以设置存储器,用于存储指令。在一些实施例中,该指令可以包括:增强降噪的指令、发送信号的指令等。
麦克风152可以利用空气对声音的传导性,来采集用户的声音信号,以及,一部分周围环境中的其他声音信号。然后,将声音信号转换为电信号,得到音频信号。麦克风152,也称“听筒”、“传声器”。
第二电子设备可以包括1个或N个麦克风152,N为大于1的正整数。当麦克风有2个及其以上时,可以采取不同的排列方式,得到不同的麦克风阵列,该麦克风阵列可以用于提高采集的声音信号的质量。
骨传导传感器153可以利用骨骼对声音的传导性进行声音信号的采集。周围环境中的声音信号大部分都是通过空气传导的,而骨传导传感器可以只采集与骨骼直接接触传导的声音信号,例如用户的声音信号,然后将该声音信号转换为电信号,得到骨导音频信号。
无线通信处理模块154可以包括蓝牙(bluetooth,BT)通信处理模块154A、WLAN通信处理模块154B中的一项或多项,用于提供和第一电子设备建立连接,进行数据传输等服务。
下面结合上述示例性第一电子设备、第二电子设备的硬件结构示意图,对本申请实施例中的视频录制方法进行具体描述:
图6为本申请实施例中视频录制方法的一个信令交互示意图。
假设此时,第一电子设备与第二电子设备已经建立连接,可以进行数据传输。
当用户距离电子设备较远,使用第一电子设备进行视频录制时,第一电子设备可以持续采集多帧图像,同时持续采集拍摄环境中的音频信息。这时,第二电子设备也会记录拍摄环境中的音频信号。
步骤S101-步骤S109是针对录制视频的过程中,对当前帧图像对应的音频信号(包括第一音频信号、第二音频信号、骨传导音频信号以及用户音频信号等音频信号)与当前帧图像的处理过程的描述。可以理解的是,对每一帧图像对应的音频信号与每一帧图像根据步骤S101-步骤S109的描述进行处理,即可以得到本申请实施例中涉及的视频。
S101.第二电子设备采集第二音频信号;
在视频录制的过程中,电子设备可以在一段时间内持续采集(播放一帧图像对应的时间)的第二音频信号,该第二音频信号可以包括用户的声音信息以及第二电子设备周围环境中的其他声音信息。
可以理解的是,在不同的情况下,该一段时间的长短可以是不同的。例如,1/24秒或者1/12秒等。
S102.第二电子设备采集骨传导音频信号;
可选的,在一些实施例中,在视频录制的过程中,第二电子设备还可以利用骨传导传感器在一段时间内(播放一帧图像对应的时间)持续采集用户的骨传导音频信号。
S103.第二电子设备对该第二音频信号进行处理,得到用户音频信号;
在一些实施例中,第二电子设备可以对该第二音频信号进行采样,降噪等处理,除去环境中的其他声音信息,从而增强第二音频信号中,用户的声音信息,得到用户音频信号。
上述方式中获取的用户音频信息中除包括用户发声时的声音信息外,还包括很少一部分第二电子设备周围环境中的其他声音信息。所以,可选的,在另一些实施例中,为了除去第二电子设备周围环境中的其他声音信息,使得将该第二音频信号处理后得到的用户音频信号中,只包括用户的声音信息,第二电子设备可以利用骨传导音频信号与第二音频信号进行联合降噪处理,除去所述第二音频信号中的所述第二电子设备周围环境中的其他声音信息,得到用户音频信号。
具体的,联合降噪的实现方式与现有技术中同一个电子设备对多路音频信号进行联合降噪处理的实现方式是相同的。本实施例给出其中一种联合降噪处理的方式:将骨传导频信号和第二音频信号进行差分计算,将骨传导音频信号以及第二音频信号中的噪声进行抵消,从而达到联合降噪的效果。需要说明的是,在进行差分计算的过程中,需要根据两个音频信号的声波强度进行加权,使加权后的噪声强度基本相同,实现最大程度的降噪,另外,若差分计算后使正常的音频信号即非噪声信号减弱,则可以对差分后的音频信号进行放大,得到用户音频信号。
S104.第一电子设备采集图像;
在视频录制的过程中,第一电子设备的摄像头可以采集图像,该图像中可以包括人像,该人像可以是用户的人像。
S105.第一电子设备采集第一音频信号;
在视频录制的过程中,第一电子设备的麦克风开始在一段时间内持续采集第一音频信号,该第一音频信号可以包括用户的声音信息以及第一电子设备周围环境中的其他声音信息。
S106.第二电子设备向第一电子设备发送用户音频信号;
第二电子设备可以通过无线网络,向第一电子设备发送用户音频信号。
S107.第二电子设备向第一电子设备发送骨导音频信号;
可选的,第二电子设备可以通无线网络,向第一电子设备发送骨传导音频信号。
S108.第一电子设备确定该用户音频信号对应的用户的声音的声像方位;
图7示出了第一电子设备确定该用户音频信号对应的用户的声音的声像方位的流程图。
在一些实施例中,第一电子设备首先可以利用第一音频信号,确定用户的声源方位。在另一些实施例中,为了提高得到的用户的声源方位的准确性,第一电子设备还可以利用骨传导音频信号结合该第一音频信号,得到用户的声源方位,该过程的详细描述可以参考步骤S201。
然后,第一电子设备可以得到图像中人脸的像素位置,利用每个人脸的像素位置,结合用户的声源方位,得到用户的声音的声像方位,该过程的详细描述可以参考步骤S202-步骤S204。
S201.第一电子设备利用第一音频信号,确定用户的声源方位;
在一些实施例中,该用户的声源方位可以是用户的声源相对于第一电子设备的麦克风中心的方位角度,该方位角度可以包括方位角,俯仰角中的至少一个。其中,水平角记为α,俯仰角记为β。
在另一些实施例中,该用户的声源方位可以是用户的声源相对于第一电子设备的麦克风中心的方位角。
可以理解的是,还可以有其他表示用户的声源方位的方式,本申请实施例对此不作限定。
假设此时,用户的声源方位表示为声源相对于第一电子设备的麦克风的水平角与俯仰角,可以记为θ=[α,β]。
该水平角α与俯仰角β,可以通过第一音频信号得到,具体的实现方式可以参考对下述算法的描述:
在一些实施例中,第一电子设备可以基于高分辨率的空间谱估计算法,利用该第一音频信号可以确定该水平角α与俯仰角β。
在另一些实施例中,第一电子设备可以基于最大输出功率的波束形成算法,根据N个麦克风的波束形成(beamforming)和第一音频信号可以确定该水平角α与俯仰角β。
可以理解的是,第一电子设备还可以采取其他的方式确定该水平角α与俯仰角β。本申请实施例对此不作限定。
下面以基于最大输出功率的波束形成算法确定该水平角α与俯仰角β为例,集合具体算法详细介绍一种可能的实现算法,可以理解的是,该算法不对本申请有限制。
第一电子设备通过比较第一音频信号在各个方向上的输出功率,可以将最大功率的波束方向确定为目标声源方位,该目标声源方位即为用户的声源方位。得到该目标声源方位θ的公式可以表示为:
式中t表示时间帧,即对音频信号的处理帧。i表示第i个麦克风,Hi(f,θ)表示波束形成中的第i个麦克风的波束权值,Yi(f,t)表示第i个麦克风采集的声音信息得到的时频域上的音频信号。
其中,波束形成是指N个麦克风对窄带声音信号的响应。由于该响应在不同方位上是不同的,所以波束形成与声源方位是相互关联的。因此,波束形成可以对声源进行实时定位,并抑制背景噪声的干扰。
波束形成可以表示为一个1×N的矩阵,记为H(f,θ),N为应麦克风的数量。波束形成中的第i个元素的值可以表示为Hi(f,θ),该值与第i个麦克风在N个麦克风中的排列位置有关。可以利用功率谱得到波束形成,功率谱可以是capon谱、barttlett谱等。
例如,以barttlett谱为例,第一电子设备利用barttlett谱得到波束形成中的第i个元素可以表示为式中,j为虚数,为波束形成器的对该麦克风的相位补偿值,τi表示同一个声音信息到达第i个麦克风的时延差。该时延差与声源方位以及第i个麦克风的位置有关,可以参考下文的描述。
选择N个麦克风中的第一个可以接收到声音信息的麦克风的中心为原点,建立三维空间坐标系。在该三维空间坐标系中,第N个麦克风的位置可以表示为Pi=[xi,yi,zi]。则τi与声源方位以及第i个麦克风的位置的关系可以用下述公式表示:
其中c为声音信号的传播速度。
第一音频信号中包括N个麦克风采集的声音信息得到的音频信号,N为大于1的正整数。
在一些实施例中,当第一音频信号为宽带信息时,为了提高处理的精度,可以将该第一音频信号通过离散傅里叶变换(discrete fourier transform,DFT)划分到频域上,得到若干个窄带音频信号,综合各个频点上的窄带音频信号的处理结果得到宽带音频信号的定位结果。例如,将一个48khz采样率的宽带音频信号,通过4096点DFT划分为2049个窄带音频信号。再利用上述算法对每个窄带音频信号或者取其中的若干个窄带音频信号进行处理,即可确定出目标声源方位。得到该目标声源方位θ的公式可以表示为:
式中f表示表示频域上的频点值。
可选的,在另一些实施例中,由于第一音频信号中除了用户的声音信息外,还包括一些其他的声音信息,为了防止其他的声音信息影响对用户的声源方位的确定。第一电子设备可以利用骨传导音频信号过滤掉第一音频信号中其他的声音信号,增强第一音频信息中,用户的声音信息,使得得到的用户的声源方位更准确。
例如,可以结合骨传导音频信号,对第一音频信号进行相关性分析,将第一音频信号中与骨传导音频信号关联性强的时频点对应的音频信息设置较大的权重,关联性弱的时频点对应的音频信息设置较小的权重。得到一个权重矩阵w(ft),该权重矩阵中的一个元素可以记为wmn,表示第m时刻,频率为n的音频信号的权重。则利用该权重矩阵w(f,t),结合上述算法,可以得到利用骨传导音频信号,结合第一音频信号,得到该目标声源方位θ的公式可以表示为:
S202.第一电子设备根据图像,得到图像中的人脸的像素位置;
人脸是指图像中所有可以被第一电子设备识别的全部人脸,图像中人脸的像素位置可以用图像像素坐标系下人脸的像素坐标表示。
在一些实施中,可以从人脸中选取一个像素点,用该点的像素坐标表示该人脸的像素位置。例如,可以用人嘴的中心点的像素坐标作为人脸的像素位置,也可以用人脸的中心点的像素坐标作为人脸的像素位置。
第一电子设备可以对一段持续时间内的图像得到的N帧图像进行采样,确定某一帧图像中的人脸的像素位置。
在一些实施例中,第一电子设备可以对图像进行人脸识别,得到人脸的像素坐标,该像素坐标即为这段时间内的图像中的人脸的像素位置。
人脸的像素位置可以用一个矩阵表示,记为H。该矩阵中的第i个元素表示图像中第i个人脸的像素位置,可以表示为Hi=[ui,vi]。
S203.第一电子设备根据该声源方位和该人脸的像素位置,得到图像中用户的视像方位;
第一电子设备可以根据该声源方位和该人脸的像素位置,得到每一个人脸的像素位置与该声源方位的相关性。若某一人脸的像素位置与该声源方位的相关性越强,则第一电子设备确定该人脸的视像方位为用户的视像方位。
具体的,第一电子设备可以通过该声源方位,得到用户在图像中大致的像素坐标。然后,从人脸的像素位置中,确定一个和该大致的像素坐标最接近的人脸的像素位置。将该人脸的像素位置作为用户在图像中的像素坐标。然后,利用该用户在图像中的像素坐标,得到用户的视像方位。
下面提供一种算法下的实现方式,可以理解的是,该算法不对本申请实施例构成限制。
假设此时,用户的声源方位表示为声源相对于第一电子设备的麦克风的水平角与俯仰角,可以记为θ=[α,β]。则利用该声源方位,得到用户的视像方位的一种算法,可以参考对下文的描述。
声源方位是相对于麦克风的中心所得的,由于第一电子设备中,麦克风中心与摄像机中心间的距离远小于第一电子设备与用户的之间的距离,所以该声源方位可以认为是相对于摄像机的中心所得的。将该声源方位对应的水平角α与俯仰角β,作为用户相对于摄像机的大致的水平角α与俯仰角β,利用包括摄像机参数的相关算法可以得到该用户的视像方位。
具体的,首先,利用该水平角α与俯仰角β可以得到用户在像坐标系中的坐标g=[x,y],得到g中x的公式可以表示为:x=f tanα,式中f为摄像机的焦距。得到g中y的公式可以表示为:y=f cosαtanβ。
然后,将像坐标系中的坐标g=[x,y]转换为图像中的像素坐标h=[u,v],该像素坐标h=[u,v]用户在图像中大致的像素坐标,其转换公式可以表示为:
式中,u0,v0为图像中,像平面坐标系中的原点在图像像素坐标系中的像素坐标(u0,v0)中的值,dx为图像中,U轴方向上,一个像素的长度,dy为图像中,V轴方向上,一个像素的长度。
再利用该大致的像素坐标h=[u,v],人脸的像素位置Hi=[ui,vi]进行匹配,得到每一个人脸与该大致的像素坐标h=[u,v]的相关性,例如,可以认为人脸的像素位置与该大致的像素坐标间的距离越小,相关性越强,则人脸的像素位置与该声源方位的相关性越强。将Hi=[ui,vi]中与h=[u,v]相关性最强的人脸的像素位置为用户在图像中的像素坐标,可以表示为h′=[u′,v′]。
最后,将该用户在图像中的像素坐标转换成相对于摄像机的水平角α′与俯仰角β′,作为该用户的视像方位θ′=[α′,β′]。该转换过程与上述利用水平角α与俯仰角β得到用户在图像中大致的像素坐标h=[u,v]过程相反,此处不再赘述。
可以理解的是,当声源方位的表示方式不同时,转换的方式可以不相同,本申请实施例对步骤S203中的算法不作限定。
在一些实施例中,为了进一步提高第一电子设备得到用户的视像方位的准确性,可以将上述步骤S201-步骤S203中得到的每一个人脸与该声源方位的相关性作为第一决定因素。
再添加第二决定因素与第一决定因素共同决策出人脸中的用户,该第二决定因素为每一个人脸的第一特征与用户的骨传导音频信号中的第一特征间的相关性。
具体的,第一电子设备可以利用骨传导音频信号对用户的声音信号做第一特征提取,获取用户的声音信号中的第一特征。以及,对图像中的人脸进行该第一特征提取,获取图像中每个人脸的第一特征。
对于人脸的第一特征,可以采取不同的方式获取。
例如,在一些实施例中第一电子设备可以利用图像对人脸进行该第一特征提取,第一电子设备可以将该第一特征作为人脸的第一特征。此时,该第一特征可以包括语音活动检测(voice activity detection,VAD)特征,音素(phoneme)特征等。
在另一些实施例中,第一电子设备可以利用人脸发声时因喉咙振动产生的超声波回波信号或者激光回波信号中进行第一特征提取,此时,该第一特征可以为音高(pitch)特征等。第一电子设备可以将该第一特征作为人脸的第一特征。
其中,选人发声时因喉咙振动产生的超声波回波信号可以利用第一电子设备的振动传感器或者超声波传感器采集。激光回波信号可以利用第一电子设备的激光传感器采集。
第一电子设备可以利用用户的声音信号中的第一特征与图像中人脸的第一特征进行相关性分析,得到每个人脸的第一特征与用户的骨传导音频信号中的第一特征间的相关性,将该相关性作为第二决定因素。
由于麦克风中心与摄像机中心间的距离远小于第一电子设备与用户的之间的距离,所以第一电子设备可以将该用户的视像方位确定为用户的声音的声像方位。
S109.第一电子设备利用该用户的声音的声像方位、该用户音频信号,得到立体声音频信号。
在一些实施例中,该立体声音频信号只包括用户立体声音频信号但不包括环境立体声音频信号,此时,该用户立体声音频信号即为立体声音频信号。该用户立体声音频信号中包括用户的声音信息。该用户立体声音频信号可以用于再现用户的声音,该用户立体声音频信号再现的用户的声音中,用户的声音的声像方位与用户的视像方位匹配。
其中,用户立体声音频信号是指双通道的用户音频信号。
前述用户音频信号是单通道的音频信号,将其还原的用户的声音不是立体声,为了得到用户立体声音频信号,更真实的还原用户的声音,可以将该单通道的音频信号转换成双通道的用户音频信号。该双通道的用户音频信号还原得到的用户的声音则是立体声。
第一电子设备可以利用用户的声音的声像方位,结合该用户音频信号,得到与用户的声音的声像方位对应用户立体声音频信号。
具体的,第一电子设备将户音频信号与对应用户的声音的声像方位的头部相关脉冲响应(head-related impulse response,HRIR)卷积以恢复耳间声强差(inter-aurallevel difference,ILD)、耳间时间差(inter-aural time difference,ITD)和频谱线索,使得单声道的用户音频信号可以变成双声道的用户音频信号,该双通道可以包括左声道和右声道。ILD、ITD和频谱线索用于使该双通道的用户音频信号可以确定出用户的声音的声像方位。
可以理解的是,除了HRIR算法以外,第一电子设备还可以利用其它的算法得到双声道的用户音频信号,例如倒谱房间脉冲响应(binaural room impulse response,BRIR)等。
在一些实施例中,录制的视频中立体声音频信息中除了用户立体声音频信号,还可以包括环境立体声音频信号。该环境立体声音频信号可以用于再现拍摄环境中除了用户的声音以外的其他声音。该环境立体声音频信号是指双通道的环境音频信号,该环境音频信号是指环境中的其他声音信号转换的电信号。
通常说来,由于第二电子设备采集声音信号时会过滤掉大部分环境中的其他声音信息,所以第一音频信号中包括的环境中的其他声音信息比第二信息中更清晰,则第一电子设备可以利用第一音频信号,获取环境中其他声音的音频信号,该其他声音的音频信号即为环境音频信号。然后,利用该环境音频信号,得到环境立体声音频信号。
具体的,在一些实施例中,首先,第一电子设备可以利用第一音频信号与用户音频信号进行自适应阻塞滤波,滤除第一音频信号中用户的声音信息,得到环境音频信号。然后,通过第一电子设备的波束形成得到双声道的环境音频信号,该双声道的环境音频信号可以是X/Y制式、M/S制式或者A/B制式的。
在另一些实施例中,第一电子设备还可以通过其他的方式获取环境立体声音频信号,例如,先利用第一音频信号得到立体声第一音频信号。该立体声第一音频信号为双声道的第一音频信号。然后,再利用该立体声第一音频信号与用户音频信号进行自适应阻塞滤波,滤除该立体声第一音频信号中用户的声音信息,得到环境立体声音频信号,本申请实施例对此不作限定。
然后,将该环境立体声音频信号与用户立体声音频信号进行混音,得到既包括用户的声音信息,也包括环境中的其他声音信息的立体声音频信号。
第一电子设备在将环境立体声音频信号与用户立体声音频信号进行混音的过程中,还可以将该用户立体声音频信号进行音频变焦,实现该用户声像大小与用户发声时与第一电子设备的距离远近的匹配。用户声像大小是指视频中用户的声音的音量大小。
第一电子设备可以根据用户给定的聚焦信息来确定视频中用户立体声音频信号的音量大小。
具体的,在一些实施例中,第一电子设备在录制视频时,响应于用户将拍摄焦距变大的操作,则第一电子设备确定该用户距离第一电子设备变近了,则此时,第一电子设备可以将该用户立体声音频信号的进行增强。将该环境立体声音频信号不改变,或者抑制。然后再将用户音频信号与环境立体声音频信号进行混音,得到立体声音频信号。则视频中,该立体声音频信号中用户的声音的音量会变大,环境中其他声音的音量相对较小。
其中,第一电子设备将环境立体声音频信号进行抑制可以使得环境立体声音频信号还原的第一电子设备周围的其他声音变小。
在一些实施例中,第一电子设备在录制视频时,响应于用户将拍摄焦距变小的操作,则第一电子设备确定该用户距离第一电子设备变远了,则此时,第一电子设备可以将该用户立体声音频信号的进行抑制。将该环境立体声音频信号不改变,或者增强。然后再将用户音频信号与环境立体声音频信号进行混音,得到立体声音频信号。则视频中,该立体声音频信号中用户的声音的音量会变小,环境中其他声音的音量相对较大。
在另一些实施例中,除了通过用户设置的拍摄焦距,第一电子设备还可以通过其他的形式来按照一定的音量大小比例将环境立体声音频信号与用户立体声音频信号进行混音,例如,可以设备一个默认的混音比例,本申请实施例对此不作限定。
应该理解的是,上述步骤S101-步骤S105之间的步骤没有先后顺序,只要步骤S103在步骤S101之后即可。步骤S106与步骤S107之间没有先后顺序,也可以同时进行,即在一些实施例中,第二电子设备可以将用户音频信号与骨导音频信号编码到一起,同时发送给第一电子设备。
可以理解的是,用户使用第二电子设备时,利用第一电子设备可以多次根据步骤S101-步骤S109,得到多帧图像对应的用户立体声音频信号,将该多帧图像对应的立体声音频信号进行编码,得到音频流。同时,将多帧图像进行编码,得到视频流。然后,将该音频流与视频流进行混流,即可得到录制的视频。电子设备可以将该视频中的多帧图像经过处理,得到多帧图像。
第一电子设备在播放该视频时,在某一个时刻可以播放一帧图像,且该图像会在显示屏中停留一段时间,从该时刻开始的一段时间内,第一电子设备可以播放该帧图像对应的立体声音频信号,立体声音频信号可以还原出用户的声音,此时,用户的声音的声像方位与用户的视像方位是匹配的。当前帧图像播放完之后,就可以播放下一帧图像,同时播放下一帧图像对应的立体声音频信号,直到该视频播放完毕。
例如,第一时刻,第一电子设备可以播放第一帧图像,同时开始播放该第一帧图像对应的立体声音频信号,该帧立体声音频信号可以还原出用户的声音。此时,第一帧图像中,用户的视像方位是偏左的,则该帧图像对应的立体声音频信号还原的用户的声音的声像方位也偏左的。该第一帧图像可以在电子设备的显示屏中停留一段时间,该段时间内,第一电子设备可以持续播放该帧图像对应的立体声音频信号。然后,第二时刻,第一电子设备可以播放第二帧图像,同时开始播放该第二帧图像对应的立体声音频信号,该第二帧图像对应的立体声音频信号可以还原出用户的声音。此时,第二帧图像中,用户的视像方位是偏右的,则该第二帧图像对应的立体声音频信号还原的用户的声音的声像方位也偏右的。
该视频中用户的声音的声像方位与用户的视像方位是匹配的,视频中的立体声音频信号中的用户音频信号是通过第二电子设备采集的,该立体声用户音频信号可以还原出用户的声音,且该用户的声音是清晰的。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
上述实施例中所用,根据上下文,术语“当…时”可以被解释为意思是“如果…”或“在…后”或“响应于确定…”或“响应于检测到…”。类似地,根据上下文,短语“在确定…时”或“如果检测到(所陈述的条件或事件)”可以被解释为意思是“如果确定…”或“响应于确定…”或“在检测到(所陈述的条件或事件)时”或“响应于检测到(所陈述的条件或事件)”。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如DVD)、或者半导体介质(例如固态硬盘)等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,该流程可以由计算机程序来指令相关的硬件完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。而前述的存储介质包括:ROM或随机存储记忆体RAM、磁碟或者光盘等各种可存储程序代码的介质。
Claims (21)
1.一种视频录制方法,其特征在于,包括:
在第一电子设备录制视频的过程中,所述第一电子设备采集图像和第一音频信号;
所述第一电子设备根据所述图像和所述第一音频信号,确定图像中用户的声音的声像方位;
所述第一电子设备根据所述用户的声音的声像方位和用户音频信号,生成立体声音频信号;所述用户音频信号由所述第二电子设备获取并发送给所述第一电子设备;
所述第一电子设备根据所述图像和所述立体声音频信号生成视频。
2.根据权利要求1所述的方法,其特征在于,所述第一电子设备根据所述图像和所述第一音频信号,确定图像中用户的声音的声像方位,具体包括:
所述第一电子设备对所述图像进行人脸识别,得到人脸的像素位置;
所述第一电子设备根据所述第一音频信号,确定用户的声源方位;
所述第一电子设备根据所述用户的声源方位以及所述人脸的像素位置,确定所述用户在图像中的像素位置;
所述第一电子设备根据所述用户在图像中的像素位置,确定所述图像中所述用户的声音的声像方位。
3.根据权利要求1所述的方法,其特征在于,所述第一电子设备根据所述图像和所述第一音频信号,确定图像中用户的声音的声像方位,具体包括:
所述第一电子设备对所述图像进行人脸识别,得到人脸的像素位置;
所述第一电子设备利用骨传导音频信号,结合所述第一音频信号,确定用户的声源方位;所述骨传导音频信号由所述第二电子设备获取并发送给所述第一电子设备;
所述第一电子设备根据所述用户的声源方位以及所述人脸的像素位置,确定所述用户在图像中的像素位置;
所述第一电子设备根据所述用户在图像中的像素位置,确定所述图像中所述用户的声音的声像方位。
4.根据权利要求1-3所述的方法,其特征在于,所述第一电子设备根据所述用户的声音的声像方位和用户音频信号,生成立体声音频信号,具体包括:
所述第一电子设备生成环境立体声音频信号;
所述第一电子设备根据所述用户的声音的声像方位和所述用户音频信号,以及所述环境立体声音频信号,生成所述立体声音频信号。
5.根据权利要求4所述的方法,其特征在于,所述第一电子设备生成环境立体声音频信号,具体包括:
所述第一电子设备根据所述用户音频信号对所述第一音频信号进行自适应阻塞滤波,滤除所述第一音频信号中用户的声音信息;
第一电子设备根据滤波后的第一音频信号生成所述环境立体声音频信号。
6.根据权利要求4所述的方法,其特征在于,所述第一电子设备生成环境立体声音频信号,具体包括:
所述第一电子设备利用所述第一音频信号,生成立体声第一音频信号;
所述第一电子设备根据所述用户音频信号对所述立体声第一音频信号进行自适应阻塞滤波,滤除所述立体声第一音频信号中用户的声音信息,得到环境立体声音频信号。
7.根据权利要求4所述的方法,其特征在于,所述第一电子设备根据所述用户的声音的声像方位和所述用户音频信号,以及所述环境立体声音频信号,生成所述立体声音频信号,具体包括:
所述第一电子设备根据所述用户的声音的声像方位和所述用户音频信号,生成用户立体声音频信号;
所述第一电子设备将所述用户立体声音频信号进行增强,同时不改变所述环境立体声音频信号;
所述第一电子设备根据增强后的所述用户立体声音频信号与所述环境立体声音频信号,生成所述立体声音频信号。
8.根据权利要求4所述的方法,其特征在于,所述第一电子设备根据所述用户的声音的声像方位和所述用户音频信号,以及所述环境立体声音频信号,生成所述立体声音频信号,具体包括:
所述第一电子设备根据所述用户的声音的声像方位和所述用户音频信号,生成用户立体声音频信号;
所述第一电子设备将所述用户立体声音频信号进行增强,同时将所述环境立体声音频信号进行抑制;
所述第一电子设备根据增强后的所述用户立体声音频信号与抑制后的所述环境立体声音频信号,生成所述立体声音频信号。
9.根据权利要求1-8所述的方法中,其特征在于,所述用户音频信号为所述第二电子设备根据所述骨传导音频信号对所述第二音频信号进行联合降噪处理,除去所述第二音频信号中的所述第二电子设备周围环境中的其他声音信息所得。
10.根据权利要求1-8所述的方法中,其特征在于,所述用户音频信号为所述第二电子设备根据第二音频信号进行降噪处理,除去所述第二音频信号中的所述第二电子设备周围环境中的其他声音信息所得。
11.一种电子设备,其特征在于,所述电子设备包括:一个或多个处理器和存储器;
所述存储器与所述一个或多个处理器耦合,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,所述一个或多个处理器调用所述计算机指令以使得所述电子设备执行:
在录制视频的过程中,采集图像和第一音频信号;
根据所述图像和所述第一音频信号,确定图像中用户的声音的声像方位;
根据所述用户的声音的声像方位和用户音频信号,生成立体声音频信号;所述用户音频信号由所述第二电子设备获取并发送给所述电子设备;
根据所述图像和所述立体声音频信号生成视频。
12.根据权利要求11所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
对所述图像进行人脸识别,得到人脸的像素位置;
根据所述第一音频信号,确定用户的声源方位;
根据所述用户的声源方位以及所述人脸的像素位置,确定所述用户在图像中的像素位置;
根据所述用户在图像中的像素位置,确定所述图像中所述用户的声音的声像方位。
13.根据权利要求11所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
对所述图像进行人脸识别,得到人脸的像素位置;
利用骨传导音频信号,结合所述第一音频信号,确定用户的声源方位;所述骨传导音频信号由所述第二电子设备获取并发送给所述电子设备;
根据所述用户的声源方位以及所述人脸的像素位置,确定所述用户在图像中的像素位置;
根据所述用户在图像中的像素位置,确定所述图像中所述用户的声音的声像方位。
14.根据权利要求11-13所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
生成环境立体声音频信号;
根据所述用户的声音的声像方位和所述用户音频信号,以及所述环境立体声音频信号,生成所述立体声音频信号。
15.根据权利要求14所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
根据所述用户音频信号对所述第一音频信号进行自适应阻塞滤波,滤除所述第一音频信号中用户的声音信息;
根据滤波后的第一音频信号生成所述环境立体声音频信号。
16.根据权利要求14所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
根据所述用户音频信号对所述立体声第一音频信号进行自适应阻塞滤波,滤除所述立体声第一音频信号中用户的声音信息,得到环境立体声音频信号。
17.根据权利要求14所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
根据所述用户的声音的声像方位和所述用户音频信号,生成用户立体声音频信号;
将所述用户立体声音频信号进行增强,同时不改变所述环境立体声音频信号;
根据增强后的所述用户立体声音频信号与所述环境立体声音频信号,生成所述立体声音频信号。
18.根据权利要求14所述的电子设备,其特征在于,所述一个或多个处理器具体用于调用所述计算机指令以使得所述电子设备执行:
根据所述用户的声音的声像方位和所述用户音频信号,生成用户立体声音频信号;
将所述用户立体声音频信号进行增强,同时将所述环境立体声音频信号进行抑制;
根据增强后的所述用户立体声音频信号与抑制后的所述环境立体声音频信号,生成所述立体声音频信号。
19.一种芯片系统,所述芯片系统应用于电子设备,所述芯片系统包括一个或多个处理器,所述处理器用于调用计算机指令以使得所述电子设备执行如权利要求1-10中任一项所述的方法。
20.一种包含指令的计算机程序产品,其特征在于,当所述计算机程序产品在电子设备上运行时,使得所述电子设备执行如权利要求1-10中任一项所述的方法。
21.一种计算机可读存储介质,包括指令,其特征在于,当所述指令在电子设备上运行时,使得所述电子设备执行如权利要求1-10中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110415047.4A CN115225840A (zh) | 2021-04-17 | 2021-04-17 | 一种视频录制方法和电子设备 |
PCT/CN2022/086166 WO2022218271A1 (zh) | 2021-04-17 | 2022-04-11 | 一种视频录制方法和电子设备 |
EP22787497.1A EP4297398A1 (en) | 2021-04-17 | 2022-04-11 | Video recording method and electronic devices |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110415047.4A CN115225840A (zh) | 2021-04-17 | 2021-04-17 | 一种视频录制方法和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115225840A true CN115225840A (zh) | 2022-10-21 |
Family
ID=83604962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110415047.4A Pending CN115225840A (zh) | 2021-04-17 | 2021-04-17 | 一种视频录制方法和电子设备 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4297398A1 (zh) |
CN (1) | CN115225840A (zh) |
WO (1) | WO2022218271A1 (zh) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006314078A (ja) * | 2005-04-06 | 2006-11-16 | Sony Corp | 撮像装置、音声記録装置および音声記録方法 |
CN104581512A (zh) * | 2014-11-21 | 2015-04-29 | 广东欧珀移动通信有限公司 | 一种立体声录制方法及装置 |
WO2016082199A1 (zh) * | 2014-11-28 | 2016-06-02 | 华为技术有限公司 | 录取录像对象的声音的方法和移动终端 |
US10194117B2 (en) * | 2016-10-20 | 2019-01-29 | Plantronics, Inc. | Combining audio and video streams for a video headset |
CN110740259B (zh) * | 2019-10-21 | 2021-06-25 | 维沃移动通信有限公司 | 视频处理方法及电子设备 |
CN111402915A (zh) * | 2020-03-23 | 2020-07-10 | 联想(北京)有限公司 | 信号处理方法、装置及系统 |
CN111970625B (zh) * | 2020-08-28 | 2022-03-22 | Oppo广东移动通信有限公司 | 录音方法和装置、终端和存储介质 |
CN112165590B (zh) * | 2020-09-30 | 2022-05-31 | 联想(北京)有限公司 | 视频的录制实现方法、装置及电子设备 |
-
2021
- 2021-04-17 CN CN202110415047.4A patent/CN115225840A/zh active Pending
-
2022
- 2022-04-11 EP EP22787497.1A patent/EP4297398A1/en active Pending
- 2022-04-11 WO PCT/CN2022/086166 patent/WO2022218271A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
EP4297398A1 (en) | 2023-12-27 |
WO2022218271A1 (zh) | 2022-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111050269B (zh) | 音频处理方法和电子设备 | |
CN110191241B (zh) | 一种语音通信方法及相关装置 | |
CN113365012A (zh) | 一种音频处理方法及设备 | |
CN113393856B (zh) | 拾音方法、装置和电子设备 | |
CN113496708B (zh) | 拾音方法、装置和电子设备 | |
CN114727212B (zh) | 音频的处理方法及电子设备 | |
CN113744750B (zh) | 一种音频处理方法及电子设备 | |
CN114697812B (zh) | 声音采集方法、电子设备及系统 | |
CN116887015A (zh) | 音频处理的方法及电子设备 | |
CN113810589A (zh) | 电子设备及其视频拍摄方法和介质 | |
CN113573120B (zh) | 音频的处理方法及电子设备、芯片系统及存储介质 | |
CN113129916B (zh) | 一种音频采集方法、系统及相关装置 | |
CN114120950B (zh) | 一种人声屏蔽方法和电子设备 | |
CN115641867B (zh) | 语音处理方法和终端设备 | |
WO2022218271A1 (zh) | 一种视频录制方法和电子设备 | |
CN114120987B (zh) | 一种语音唤醒方法、电子设备及芯片系统 | |
CN115942108A (zh) | 一种视频处理方法及电子设备 | |
CN115225800A (zh) | 多摄像头变焦方法、装置及设备 | |
CN113436635A (zh) | 分布式麦克风阵列的自校准方法、装置和电子设备 | |
CN115297269B (zh) | 曝光参数的确定方法及电子设备 | |
CN113542984B (zh) | 立体声实现系统、方法、电子设备及存储介质 | |
CN116055983B (zh) | 一种音频信号处理方法及电子设备 | |
EP4280211A1 (en) | Sound signal processing method and electronic device | |
CN116781817A (zh) | 双耳拾音方法和装置 | |
CN117812523A (zh) | 一种录音信号的生成方法、装置、系统和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |