CN103329576B - 音频系统及其操作方法 - Google Patents
音频系统及其操作方法 Download PDFInfo
- Publication number
- CN103329576B CN103329576B CN201280004727.6A CN201280004727A CN103329576B CN 103329576 B CN103329576 B CN 103329576B CN 201280004727 A CN201280004727 A CN 201280004727A CN 103329576 B CN103329576 B CN 103329576B
- Authority
- CN
- China
- Prior art keywords
- audio
- transfer function
- signal
- parameter
- binaural
- Prior art date
Links
- 230000004044 response Effects 0.000 claims abstract description 69
- 230000005236 sound signal Effects 0.000 claims abstract description 69
- 238000000034 methods Methods 0.000 claims abstract description 55
- 230000003044 adaptive Effects 0.000 claims abstract description 18
- 238000002592 echocardiography Methods 0.000 claims description 27
- 238000003860 storage Methods 0.000 claims description 18
- 230000005540 biological transmission Effects 0.000 claims description 12
- 230000004301 light adaptation Effects 0.000 claims description 11
- 238000001228 spectrum Methods 0.000 claims description 7
- 230000010255 response to auditory stimulus Effects 0.000 claims description 2
- 230000000875 corresponding Effects 0.000 description 27
- 239000000203 mixtures Substances 0.000 description 17
- 238000004088 simulation Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 210000003128 Head Anatomy 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000001914 filtration Methods 0.000 description 5
- 230000001131 transforming Effects 0.000 description 4
- 240000006409 Acacia auriculiformis Species 0.000 description 3
- 281000101386 Audio Engineering Society companies 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000010586 diagrams Methods 0.000 description 3
- 238000005516 engineering processes Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000002349 favourable Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 230000003287 optical Effects 0.000 description 3
- 230000002085 persistent Effects 0.000 description 3
- 238000003786 synthesis reactions Methods 0.000 description 3
- 230000002194 synthesizing Effects 0.000 description 3
- 239000011901 water Substances 0.000 description 3
- 210000004556 Brain Anatomy 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 239000002131 composite materials Substances 0.000 description 2
- 230000001808 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reactions Methods 0.000 description 2
- 230000001419 dependent Effects 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 230000002708 enhancing Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000002829 reduced Effects 0.000 description 2
- 230000001105 regulatory Effects 0.000 description 2
- 241000209202 Bromus secalinus Species 0.000 description 1
- 281000094429 Dell Compellent companies 0.000 description 1
- 210000000883 Ear, External Anatomy 0.000 description 1
- 206010014128 Echopraxia Diseases 0.000 description 1
- 241001203771 Eudonia echo Species 0.000 description 1
- 210000002370 ICC Anatomy 0.000 description 1
- 210000000088 Lip Anatomy 0.000 description 1
- 210000003454 Tympanic Membrane Anatomy 0.000 description 1
- 238000010521 absorption reactions Methods 0.000 description 1
- 230000000996 additive Effects 0.000 description 1
- 239000000654 additives Substances 0.000 description 1
- 229920005549 butyl rubber Polymers 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation methods Methods 0.000 description 1
- 210000004027 cells Anatomy 0.000 description 1
- 238000006243 chemical reactions Methods 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001276 controlling effects Effects 0.000 description 1
- 230000002596 correlated Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000036540 impulse transmission Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 230000000670 limiting Effects 0.000 description 1
- 238000005259 measurements Methods 0.000 description 1
- 230000000051 modifying Effects 0.000 description 1
- 230000004899 motility Effects 0.000 description 1
- 230000036961 partial Effects 0.000 description 1
- 230000032696 parturition Effects 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- NBIIXXVUZAFLBC-UHFFFAOYSA-N phosphoric acid Chemical compound data:image/svg+xml;base64,PD94bWwgdmVyc2lvbj0nMS4wJyBlbmNvZGluZz0naXNvLTg4NTktMSc/Pgo8c3ZnIHZlcnNpb249JzEuMScgYmFzZVByb2ZpbGU9J2Z1bGwnCiAgICAgICAgICAgICAgeG1sbnM9J2h0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnJwogICAgICAgICAgICAgICAgICAgICAgeG1sbnM6cmRraXQ9J2h0dHA6Ly93d3cucmRraXQub3JnL3htbCcKICAgICAgICAgICAgICAgICAgICAgIHhtbG5zOnhsaW5rPSdodHRwOi8vd3d3LnczLm9yZy8xOTk5L3hsaW5rJwogICAgICAgICAgICAgICAgICB4bWw6c3BhY2U9J3ByZXNlcnZlJwp3aWR0aD0nMzAwcHgnIGhlaWdodD0nMzAwcHgnIHZpZXdCb3g9JzAgMCAzMDAgMzAwJz4KPCEtLSBFTkQgT0YgSEVBREVSIC0tPgo8cmVjdCBzdHlsZT0nb3BhY2l0eToxLjA7ZmlsbDojRkZGRkZGO3N0cm9rZTpub25lJyB3aWR0aD0nMzAwJyBoZWlnaHQ9JzMwMCcgeD0nMCcgeT0nMCc+IDwvcmVjdD4KPHBhdGggY2xhc3M9J2JvbmQtMCcgZD0nTSA5My43NDIzLDE5MS45MjYgTCAxMTYuMTYzLDE3OC45ODEnIHN0eWxlPSdmaWxsOm5vbmU7ZmlsbC1ydWxlOmV2ZW5vZGQ7c3Ryb2tlOiNFODQyMzU7c3Ryb2tlLXdpZHRoOjNweDtzdHJva2UtbGluZWNhcDpidXR0O3N0cm9rZS1saW5lam9pbjptaXRlcjtzdHJva2Utb3BhY2l0eToxJyAvPgo8cGF0aCBjbGFzcz0nYm9uZC0wJyBkPSdNIDExNi4xNjMsMTc4Ljk4MSBMIDEzOC41ODUsMTY2LjAzNicgc3R5bGU9J2ZpbGw6bm9uZTtmaWxsLXJ1bGU6ZXZlbm9kZDtzdHJva2U6I0ZGNjBCNztzdHJva2Utd2lkdGg6M3B4O3N0cm9rZS1saW5lY2FwOmJ1dHQ7c3Ryb2tlLWxpbmVqb2luOm1pdGVyO3N0cm9rZS1vcGFjaXR5OjEnIC8+CjxwYXRoIGNsYXNzPSdib25kLTEnIGQ9J00gMTQ4LjA0MiwxMTguMjc0IEwgMTM2LjYxNiw5OC40ODI5JyBzdHlsZT0nZmlsbDpub25lO2ZpbGwtcnVsZTpldmVub2RkO3N0cm9rZTojRkY2MEI3O3N0cm9rZS13aWR0aDozcHg7c3Ryb2tlLWxpbmVjYXA6YnV0dDtzdHJva2UtbGluZWpvaW46bWl0ZXI7c3Ryb2tlLW9wYWNpdHk6MScgLz4KPHBhdGggY2xhc3M9J2JvbmQtMScgZD0nTSAxMzYuNjE2LDk4LjQ4MjkgTCAxMjUuMTksNzguNjkyMScgc3R5bGU9J2ZpbGw6bm9uZTtmaWxsLXJ1bGU6ZXZlbm9kZDtzdHJva2U6I0U4NDIzNTtzdHJva2Utd2lkdGg6M3B4O3N0cm9rZS1saW5lY2FwOmJ1dHQ7c3Ryb2tlLWxpbmVqb2luOm1pdGVyO3N0cm9rZS1vcGFjaXR5OjEnIC8+CjxwYXRoIGNsYXNzPSdib25kLTInIGQ9J00gMTg0LjY3NywxODEuNzI2IEwgMTk2LjEwMywyMDEuNTE3JyBzdHlsZT0nZmlsbDpub25lO2ZpbGwtcnVsZTpldmVub2RkO3N0cm9rZTojRkY2MEI3O3N0cm9rZS13aWR0aDozcHg7c3Ryb2tlLWxpbmVjYXA6YnV0dDtzdHJva2UtbGluZWpvaW46bWl0ZXI7c3Ryb2tlLW9wYWNpdHk6MScgLz4KPHBhdGggY2xhc3M9J2JvbmQtMicgZD0nTSAxOTYuMTAzLDIwMS41MTcgTCAyMDcuNTI5LDIyMS4zMDgnIHN0eWxlPSdmaWxsOm5vbmU7ZmlsbC1ydWxlOmV2ZW5vZGQ7c3Ryb2tlOiNFODQyMzU7c3Ryb2tlLXdpZHRoOjNweDtzdHJva2UtbGluZWNhcDpidXR0O3N0cm9rZS1saW5lam9pbjptaXRlcjtzdHJva2Utb3BhY2l0eToxJyAvPgo8cGF0aCBjbGFzcz0nYm9uZC0zJyBkPSdNIDIwMC4wODMsMTQ0LjI2OCBMIDIyMi41MDQsMTMxLjMyMycgc3R5bGU9J2ZpbGw6bm9uZTtmaWxsLXJ1bGU6ZXZlbm9kZDtzdHJva2U6I0ZGNjBCNztzdHJva2Utd2lkdGg6M3B4O3N0cm9rZS1saW5lY2FwOmJ1dHQ7c3Ryb2tlLWxpbmVqb2luOm1pdGVyO3N0cm9rZS1vcGFjaXR5OjEnIC8+CjxwYXRoIGNsYXNzPSdib25kLTMnIGQ9J00gMjIyLjUwNCwxMzEuMzIzIEwgMjQ0LjkyNSwxMTguMzc4JyBzdHlsZT0nZmlsbDpub25lO2ZpbGwtcnVsZTpldmVub2RkO3N0cm9rZTojRTg0MjM1O3N0cm9rZS13aWR0aDozcHg7c3Ryb2tlLWxpbmVjYXA6YnV0dDtzdHJva2UtbGluZWpvaW46bWl0ZXI7c3Ryb2tlLW9wYWNpdHk6MScgLz4KPHBhdGggY2xhc3M9J2JvbmQtMycgZD0nTSAxODguMTg1LDEyMy42NjEgTCAyMTAuNjA3LDExMC43MTYnIHN0eWxlPSdmaWxsOm5vbmU7ZmlsbC1ydWxlOmV2ZW5vZGQ7c3Ryb2tlOiNGRjYwQjc7c3Ryb2tlLXdpZHRoOjNweDtzdHJva2UtbGluZWNhcDpidXR0O3N0cm9rZS1saW5lam9pbjptaXRlcjtzdHJva2Utb3BhY2l0eToxJyAvPgo8cGF0aCBjbGFzcz0nYm9uZC0zJyBkPSdNIDIxMC42MDcsMTEwLjcxNiBMIDIzMy4wMjgsOTcuNzcxMScgc3R5bGU9J2ZpbGw6bm9uZTtmaWxsLXJ1bGU6ZXZlbm9kZDtzdHJva2U6I0U4NDIzNTtzdHJva2Utd2lkdGg6M3B4O3N0cm9rZS1saW5lY2FwOmJ1dHQ7c3Ryb2tlLWxpbmVqb2luOm1pdGVyO3N0cm9rZS1vcGFjaXR5OjEnIC8+Cjx0ZXh0IGRvbWluYW50LWJhc2VsaW5lPSJjZW50cmFsIiB0ZXh0LWFuY2hvcj0iZW5kIiB4PSc3Ny44NzkxJyB5PScyMTUuNDM1JyBzdHlsZT0nZm9udC1zaXplOjM5cHg7Zm9udC1zdHlsZTpub3JtYWw7Zm9udC13ZWlnaHQ6bm9ybWFsO2ZpbGwtb3BhY2l0eToxO3N0cm9rZTpub25lO2ZvbnQtZmFtaWx5OnNhbnMtc2VyaWY7ZmlsbDojRTg0MjM1JyA+PHRzcGFuPkhPPC90c3Bhbj48L3RleHQ+Cjx0ZXh0IGRvbWluYW50LWJhc2VsaW5lPSJjZW50cmFsIiB0ZXh0LWFuY2hvcj0ibWlkZGxlIiB4PScxNjYuMzU5JyB5PScxNTUuOTQ5JyBzdHlsZT0nZm9udC1zaXplOjM5cHg7Zm9udC1zdHlsZTpub3JtYWw7Zm9udC13ZWlnaHQ6bm9ybWFsO2ZpbGwtb3BhY2l0eToxO3N0cm9rZTpub25lO2ZvbnQtZmFtaWx5OnNhbnMtc2VyaWY7ZmlsbDojRkY2MEI3JyA+PHRzcGFuPlA8L3RzcGFuPjwvdGV4dD4KPHRleHQgZG9taW5hbnQtYmFzZWxpbmU9ImNlbnRyYWwiIHRleHQtYW5jaG9yPSJlbmQiIHg9JzEyMS40MjYnIHk9JzUyLjkxNDUnIHN0eWxlPSdmb250LXNpemU6MzlweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjtmaWxsOiNFODQyMzUnID48dHNwYW4+SE88L3RzcGFuPjwvdGV4dD4KPHRleHQgZG9taW5hbnQtYmFzZWxpbmU9ImNlbnRyYWwiIHRleHQtYW5jaG9yPSJzdGFydCIgeD0nMjExLjI5MicgeT0nMjU4Ljk4Mycgc3R5bGU9J2ZvbnQtc2l6ZTozOXB4O2ZvbnQtc3R5bGU6bm9ybWFsO2ZvbnQtd2VpZ2h0Om5vcm1hbDtmaWxsLW9wYWNpdHk6MTtzdHJva2U6bm9uZTtmb250LWZhbWlseTpzYW5zLXNlcmlmO2ZpbGw6I0U4NDIzNScgPjx0c3Bhbj5PSDwvdHNwYW4+PC90ZXh0Pgo8dGV4dCBkb21pbmFudC1iYXNlbGluZT0iY2VudHJhbCIgdGV4dC1hbmNob3I9InN0YXJ0IiB4PScyNTQuODQnIHk9Jzk2LjQ2MTknIHN0eWxlPSdmb250LXNpemU6MzlweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjtmaWxsOiNFODQyMzUnID48dHNwYW4+TzwvdHNwYW4+PC90ZXh0Pgo8L3N2Zz4K data:image/svg+xml;base64,PD94bWwgdmVyc2lvbj0nMS4wJyBlbmNvZGluZz0naXNvLTg4NTktMSc/Pgo8c3ZnIHZlcnNpb249JzEuMScgYmFzZVByb2ZpbGU9J2Z1bGwnCiAgICAgICAgICAgICAgeG1sbnM9J2h0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnJwogICAgICAgICAgICAgICAgICAgICAgeG1sbnM6cmRraXQ9J2h0dHA6Ly93d3cucmRraXQub3JnL3htbCcKICAgICAgICAgICAgICAgICAgICAgIHhtbG5zOnhsaW5rPSdodHRwOi8vd3d3LnczLm9yZy8xOTk5L3hsaW5rJwogICAgICAgICAgICAgICAgICB4bWw6c3BhY2U9J3ByZXNlcnZlJwp3aWR0aD0nODVweCcgaGVpZ2h0PSc4NXB4JyB2aWV3Qm94PScwIDAgODUgODUnPgo8IS0tIEVORCBPRiBIRUFERVIgLS0+CjxyZWN0IHN0eWxlPSdvcGFjaXR5OjEuMDtmaWxsOiNGRkZGRkY7c3Ryb2tlOm5vbmUnIHdpZHRoPSc4NScgaGVpZ2h0PSc4NScgeD0nMCcgeT0nMCc+IDwvcmVjdD4KPHBhdGggY2xhc3M9J2JvbmQtMCcgZD0nTSAyMy41MjUsNTUuNTIzMyBMIDMzLjAzNjMsNTAuMDMxOScgc3R5bGU9J2ZpbGw6bm9uZTtmaWxsLXJ1bGU6ZXZlbm9kZDtzdHJva2U6I0U4NDIzNTtzdHJva2Utd2lkdGg6MnB4O3N0cm9rZS1saW5lY2FwOmJ1dHQ7c3Ryb2tlLWxpbmVqb2luOm1pdGVyO3N0cm9rZS1vcGFjaXR5OjEnIC8+CjxwYXRoIGNsYXNzPSdib25kLTAnIGQ9J00gMzMuMDM2Myw1MC4wMzE5IEwgNDIuNTQ3Niw0NC41NDA2JyBzdHlsZT0nZmlsbDpub25lO2ZpbGwtcnVsZTpldmVub2RkO3N0cm9rZTojRkY2MEI3O3N0cm9rZS13aWR0aDoycHg7c3Ryb2tlLWxpbmVjYXA6YnV0dDtzdHJva2UtbGluZWpvaW46bWl0ZXI7c3Ryb2tlLW9wYWNpdHk6MScgLz4KPHBhdGggY2xhc3M9J2JvbmQtMScgZD0nTSA0My43NzUxLDM2LjUwNDUgTCAzOC43MDQ3LDI3LjcyMjInIHN0eWxlPSdmaWxsOm5vbmU7ZmlsbC1ydWxlOmV2ZW5vZGQ7c3Ryb2tlOiNGRjYwQjc7c3Ryb2tlLXdpZHRoOjJweDtzdHJva2UtbGluZWNhcDpidXR0O3N0cm9rZS1saW5lam9pbjptaXRlcjtzdHJva2Utb3BhY2l0eToxJyAvPgo8cGF0aCBjbGFzcz0nYm9uZC0xJyBkPSdNIDM4LjcwNDcsMjcuNzIyMiBMIDMzLjYzNDIsMTguOTM5OCcgc3R5bGU9J2ZpbGw6bm9uZTtmaWxsLXJ1bGU6ZXZlbm9kZDtzdHJva2U6I0U4NDIzNTtzdHJva2Utd2lkdGg6MnB4O3N0cm9rZS1saW5lY2FwOmJ1dHQ7c3Ryb2tlLWxpbmVqb2luOm1pdGVyO3N0cm9rZS1vcGFjaXR5OjEnIC8+CjxwYXRoIGNsYXNzPSdib25kLTInIGQ9J00gNTAuMTIwOCw0Ny40OTU1IEwgNTUuMTkxMyw1Ni4yNzc4JyBzdHlsZT0nZmlsbDpub25lO2ZpbGwtcnVsZTpldmVub2RkO3N0cm9rZTojRkY2MEI3O3N0cm9rZS13aWR0aDoycHg7c3Ryb2tlLWxpbmVjYXA6YnV0dDtzdHJva2UtbGluZWpvaW46bWl0ZXI7c3Ryb2tlLW9wYWNpdHk6MScgLz4KPHBhdGggY2xhc3M9J2JvbmQtMicgZD0nTSA1NS4xOTEzLDU2LjI3NzggTCA2MC4yNjE4LDY1LjA2MDInIHN0eWxlPSdmaWxsOm5vbmU7ZmlsbC1ydWxlOmV2ZW5vZGQ7c3Ryb2tlOiNFODQyMzU7c3Ryb2tlLXdpZHRoOjJweDtzdHJva2UtbGluZWNhcDpidXR0O3N0cm9rZS1saW5lam9pbjptaXRlcjtzdHJva2Utb3BhY2l0eToxJyAvPgo8cGF0aCBjbGFzcz0nYm9uZC0zJyBkPSdNIDUyLjk5Nyw0Mi4zMTUgTCA2Mi41MDgzLDM2LjgyMzYnIHN0eWxlPSdmaWxsOm5vbmU7ZmlsbC1ydWxlOmV2ZW5vZGQ7c3Ryb2tlOiNGRjYwQjc7c3Ryb2tlLXdpZHRoOjJweDtzdHJva2UtbGluZWNhcDpidXR0O3N0cm9rZS1saW5lam9pbjptaXRlcjtzdHJva2Utb3BhY2l0eToxJyAvPgo8cGF0aCBjbGFzcz0nYm9uZC0zJyBkPSdNIDYyLjUwODMsMzYuODIzNiBMIDcyLjAxOTYsMzEuMzMyMycgc3R5bGU9J2ZpbGw6bm9uZTtmaWxsLXJ1bGU6ZXZlbm9kZDtzdHJva2U6I0U4NDIzNTtzdHJva2Utd2lkdGg6MnB4O3N0cm9rZS1saW5lY2FwOmJ1dHQ7c3Ryb2tlLWxpbmVqb2luOm1pdGVyO3N0cm9rZS1vcGFjaXR5OjEnIC8+CjxwYXRoIGNsYXNzPSdib25kLTMnIGQ9J00gNDkuNjk5NywzNi42MDM5IEwgNTkuMjExLDMxLjExMjUnIHN0eWxlPSdmaWxsOm5vbmU7ZmlsbC1ydWxlOmV2ZW5vZGQ7c3Ryb2tlOiNGRjYwQjc7c3Ryb2tlLXdpZHRoOjJweDtzdHJva2UtbGluZWNhcDpidXR0O3N0cm9rZS1saW5lam9pbjptaXRlcjtzdHJva2Utb3BhY2l0eToxJyAvPgo8cGF0aCBjbGFzcz0nYm9uZC0zJyBkPSdNIDU5LjIxMSwzMS4xMTI1IEwgNjguNzIyMywyNS42MjEyJyBzdHlsZT0nZmlsbDpub25lO2ZpbGwtcnVsZTpldmVub2RkO3N0cm9rZTojRTg0MjM1O3N0cm9rZS13aWR0aDoycHg7c3Ryb2tlLWxpbmVjYXA6YnV0dDtzdHJva2UtbGluZWpvaW46bWl0ZXI7c3Ryb2tlLW9wYWNpdHk6MScgLz4KPHRleHQgZG9taW5hbnQtYmFzZWxpbmU9ImNlbnRyYWwiIHRleHQtYW5jaG9yPSJlbmQiIHg9JzIyLjQyNTknIHk9JzYwLjEzNTMnIHN0eWxlPSdmb250LXNpemU6MTBweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjtmaWxsOiNFODQyMzUnID48dHNwYW4+SE88L3RzcGFuPjwvdGV4dD4KPHRleHQgZG9taW5hbnQtYmFzZWxpbmU9ImNlbnRyYWwiIHRleHQtYW5jaG9yPSJtaWRkbGUiIHg9JzQ2Ljk0OCcgeT0nNDMuNjQ4Nycgc3R5bGU9J2ZvbnQtc2l6ZToxMHB4O2ZvbnQtc3R5bGU6bm9ybWFsO2ZvbnQtd2VpZ2h0Om5vcm1hbDtmaWxsLW9wYWNpdHk6MTtzdHJva2U6bm9uZTtmb250LWZhbWlseTpzYW5zLXNlcmlmO2ZpbGw6I0ZGNjBCNycgPjx0c3Bhbj5QPC90c3Bhbj48L3RleHQ+Cjx0ZXh0IGRvbWluYW50LWJhc2VsaW5lPSJjZW50cmFsIiB0ZXh0LWFuY2hvcj0iZW5kIiB4PSczNC40OTQ5JyB5PScxNS4wOTMnIHN0eWxlPSdmb250LXNpemU6MTBweDtmb250LXN0eWxlOm5vcm1hbDtmb250LXdlaWdodDpub3JtYWw7ZmlsbC1vcGFjaXR5OjE7c3Ryb2tlOm5vbmU7Zm9udC1mYW1pbHk6c2Fucy1zZXJpZjtmaWxsOiNFODQyMzUnID48dHNwYW4+SE88L3RzcGFuPjwvdGV4dD4KPHRleHQgZG9taW5hbnQtYmFzZWxpbmU9ImNlbnRyYWwiIHRleHQtYW5jaG9yPSJzdGFydCIgeD0nNTkuNDAxJyB5PSc3Mi4yMDQ0JyBzdHlsZT0nZm9udC1zaXplOjEwcHg7Zm9udC1zdHlsZTpub3JtYWw7Zm9udC13ZWlnaHQ6bm9ybWFsO2ZpbGwtb3BhY2l0eToxO3N0cm9rZTpub25lO2ZvbnQtZmFtaWx5OnNhbnMtc2VyaWY7ZmlsbDojRTg0MjM1JyA+PHRzcGFuPk9IPC90c3Bhbj48L3RleHQ+Cjx0ZXh0IGRvbWluYW50LWJhc2VsaW5lPSJjZW50cmFsIiB0ZXh0LWFuY2hvcj0ic3RhcnQiIHg9JzcxLjQ3MDEnIHk9JzI3LjE2Micgc3R5bGU9J2ZvbnQtc2l6ZToxMHB4O2ZvbnQtc3R5bGU6bm9ybWFsO2ZvbnQtd2VpZ2h0Om5vcm1hbDtmaWxsLW9wYWNpdHk6MTtzdHJva2U6bm9uZTtmb250LWZhbWlseTpzYW5zLXNlcmlmO2ZpbGw6I0U4NDIzNScgPjx0c3Bhbj5PPC90c3Bhbj48L3RleHQ+Cjwvc3ZnPgo= OP(O)(O)=O NBIIXXVUZAFLBC-UHFFFAOYSA-N 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003595 spectral Effects 0.000 description 1
- 230000003068 static Effects 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000001755 vocal Effects 0.000 description 1
- 239000011800 void materials Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/08—Arrangements for producing a reverberation or echo sound
- G10K15/12—Arrangements for producing a reverberation or echo sound using electronic time-delay networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
- H04S3/004—For headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
- H04S7/306—For headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Abstract
Description
技术领域
[0001] 本发明涉及一种音频系统及其操作方法,尤其是涉及音频信号的虚拟空间再现。
背景技术
[0002] 超越简单立体声的空间声音复现通过诸如家庭影院系统之类的应用变得司空见 惯了。典型地,这样的系统使用位于特定空间位置的扩音器。此外,已开发了提供来自头戴 式耳机的空间声音感知的系统。常规的立体声复现倾向于提供被感知为起源于用户头部内 部的声音。然而,已经开发了这样的系统,其基于由耳机/头戴式耳机直接提供给用户耳朵 的双耳信号提供完全的空间声音感知。这样的系统经常称为虚拟声音系统,因为它们在没 有真实声源存在的位置提供虚拟声源的感知。
[0003] 虚拟环绕声音是这样的一种技术,其试图创建存在环绕听者的声源的感知,所述 声源在物理上并不存在。在这样的系统中,声音看起来并不是如根据常规头戴式耳机复现 系统所知的起源于用户头部内部。相反地,声音可以被感知为起源于用户头部外部,就像不 存在头戴式耳机时自然聆听中的情况那样。除了更具真实感的体验之外,虚拟环绕音频也 倾向于对于听者疲劳和语音可理解性具有正面的影响。
[0004] 为了实现这种感知,有必要采用某种欺骗人类听觉系统,使其认为声音来自希望 的位置的手段。一种公知的用于提供虚拟环绕声音的体验的方法是使用双耳记录。在这样 的方法中,声音的记录使用专用的麦克风装置,并且预期用于使用头戴式耳机重放。记录通 过将麦克风置于对象或者假人头的耳道中,所述假人头是包括耳廓(外耳)的半身像。这样 的包括耳廓的假人头的使用提供了与聆听记录的人(如果在记录期间在场的话)将拥有的 印象非常相似的空间印象。然而,由于每个人的耳廓是唯一的,并且它们对于声音施加的滤 波取决于到来的声波的方向入射相应地也是唯一的,因而源的定位是依赖于对象的。事实 上,用来定位源的特定特征每个人从早先的童年就了解。因此,记录期间使用的耳廓与听者 的耳廓之间的任何失配都可能导致降质的感知以及错误的空间印象。
[0005] 通过对于每个个体测量来自三维空间中的特定地点的声源对于假人头耳朵内的 麦克风的冲激响应,可以确定所谓的头相关冲激响应(HRIRXHRIR可以用来创建模仿各个 不同地点处的多个源的双耳记录。这可以通过将每个声源与相应于声源位置的HRIR配对卷 积而实现。HRIR也可以称为头相关传递函数(HRTF)。因此,HRTF和HRIR是等效的。在HRIR也 包括房间影响的情况下,这些称为双耳房间冲激响应(BRIRXBRIR包括仅仅取决于对象的 人体测量属性(例如头部尺寸、耳朵形状等等)的无回声部分,接着是表征房间和人体测量 性质的组合的回响部分。
[0006] 回响部分包含两个通常重叠的颞区。第一区域包含所谓的早期反射,其为在到达 耳鼓(或者测量麦克风)之前声源在墙壁或者房间内的障碍物上的孤立的反射。随着时滞的 增大,固定时间间隔内存在的反射次数增加,现在也包含更高阶的反射。
[0007] 回响部分中的第二区域是其中这些反射不再孤立的部分。该区域称为扩散或者后 期回响尾部。回响部分包含给予听觉系统关于源的距离以及房间的尺寸和声学性质的信息 的线索。此外,由于利用HRIR对反射滤波的原因,它是依赖于对象的。回响部分的能量与无 回声部分的能量的关系大体上决定了声源的感知距离。(早期)反射的密度对房间的感知的 尺寸产生贡献。将T6Q回响时间限定为反射的能量水平下降60dB所花费的时间。该回响时间 给出关于房间的声学性质、它的墙壁是否非常反光(例如浴室)或者是否存在声音的许多吸 收(例如具有家具、地毯和窗帘的卧室)以及房间的体积(尺寸)的信息。
[0008] 除了使用结合了特定声学环境的测量的冲激响应之外,也经常采用合成回响算 法,这归因于修改声学仿真的特定性质的能力并且归因于它们相对较低的计算复杂度。
[0009] 使用虚拟环绕技术的系统的一个实例是MPEG环绕,该MPEG环绕是近来由MPEG标准 化的多声道音频编码的主要进展之一(IS0/IEC 23003-1:2007,MPEG环绕)。
[0010] MPEG环绕是允许将现有的基于单声道或立体声的编码器扩展到多声道的多声道 音频编码工具。图1图示出利用MPEG环绕扩展的立体声核心编码器的框图。首先,MPEG环绕 编码器根据多声道输入信号创建立体声下混合。使用核心编码器(例如ffi-AAC)将立体声下 混合编码成比特流。接下来,根据多声道输入信号估计空间参数。将这些参数编码成空间比 特流。合并所得到的核心编码器比特流和空间比特流以便创建总的MPEG环绕比特流。典型 地,将空间比特流包含在核心编码器比特流的辅助数据部分中。在解码器侧,首先将核心和 空间比特流分离。对立体声核心比特流解码以便复现立体声下混合。将该下混合与空间比 特流一起输入到MPEG环绕解码器。对空间比特流解码,从而得到空间参数。这些空间参数然 后用来对立体声下混合进行上混合,以便获得多声道输出信号,该多声道输出信号是原始 多声道输入信号的近似。
[0011] 由于多声道输入信号的空间图像被参数化,因而MPEG环绕也允许将相同的多声道 比特流解码到再现设备而不是多声道扬声器装置上。一个实例是头戴式耳机上的虚拟复 现,其称为MPEG环绕双耳解码过程。在该模态下,可以使用普通的头戴式耳机提供真实感环 绕体验。
[0012]图2图示出利用MPEG环绕扩展的立体声核心编解码器的框图,其中将输出解码成 双耳的。编码器过程与图1的过程相同。在对立体声比特流解码之后,将空间参数与HRTF/ HRIR数据组合以产生所谓的双耳输出。
[0013] 建立在MPEG环绕的构思之上,MPEG已经标准化了 "空间音频对象编码"(SA0C) (IS0/IEC 23003-2:2010,空间音频对象编码)。
[0014] 从高层次的角度来看,在SA0C中,代替声道的是,高效地将声音对象编码。虽然在 MPEG环绕中,每个扬声器声道可以被认为起源于声音对象的不同混合,但是在SA0C中,这些 单独的声音对象在某种程度上在解码器处可用于交互式操纵。类似于MPEG环绕,在SA0C中 也创建单声道或立体声下混合,其中使用诸如HE-AAC之类的标准下混合编码器对下混合编 码。将对象参数编码并且嵌入到下混合编码的比特流的辅助数据部分中。在解码器侧,通过 操纵这些参数,用户可以控制各对象的各种不同的特征,例如位置、放大/衰减、均衡,并且 甚至施加诸如失真和回响之类的效果。
[0015] 立体声或者多声道内容的虚拟环绕再现的质量可以通过如Breebaart,J., Schuijers, E. (2008)•"Phantom materialization: A novel method to enhance stereo audio reproduction on headphones, IEEE Trans. On Audio, Speech and Language processing 16,1503-1511中所描述的所谓的幻像物质化而显著地改进。
[0016] 代替通过假设两个起源于虚拟扩音器位置的声源构建虚拟立体声信号的是,幻像 物质化方法将声音信号分解成定向信号分量和间接/去相关的信号分量。直接分量通过在 幻像位置仿真虚拟扩音器而合成。间接分量通过在扩散声场的虚拟方向仿真虚拟扩音器而 合成。幻像物质化过程具有以下优点:其不将扬声器装置的限制施加到虚拟再现场景上。
[0017] 已经发现,虚拟空间声音复现在许多方案中提供了非常吸引人的空间体验。然而, 也已经发现,该方法在一些方案中可能导致不与在真实世界方案中利用三维空间中的仿真 位置处的实际声源得到的空间体验完全相符的体验。
[0018] 据建议,虚拟音频再现的空间感知可能受大脑中由音频提供的位置线索与由用户 视觉提供的位置线索之间的干扰的影响。
[0019]在日常生活中,视觉线索(典型地下意识地)与听觉线索组合以便增强空间感知。 一个实例是,人的可理解性在其嘴唇运动也可以被观察到时提高。在另一个实例中,已经发 现,人可能通过提供支持虚拟声源的视觉线索,例如通过将假的扬声器置于其中生成虚拟 声源的地点处而被欺骗。视觉线索因此将增强或者修改虚拟化。在一定程度上,视觉线索甚 至可以像在口技艺人的情况中那样改变声源的感知地点。相反地,人脑在定位没有起支持 作用的视觉线索的声源方面有困难(例如在波场合成中),这实际上与人类本性相矛盾。
[0020] 另一个实例是与由基于头戴式耳机的音频系统生成的虚拟声源混合的、来自听者 的环境的外部声源的泄漏。取决于音频内容和用户地点,物理的和虚拟的环境的声学性质 可能相当不同,从而导致关于聆听环境的模糊性。声学环境的这样的混合可能造成不自然 的和无真实感的声音复现。
[0021] 仍然存在未充分理解的涉及与视觉线索的交互的许多方面,并且事实上没有完全 理解视觉线索关于虚拟空间声音复现的影响。
[0022] 因此,一种改进的音频系统将是有利的,尤其是一种允许提高灵活性、促进实现、 促进操作、改进空间用户体验、改进虚拟空间声音生成和/或提高性能的方法将是有利的。
发明内容
[0023] 因此,本发明寻求优选地单独地或者以任意组合缓解、减轻或者消除上面提到的 缺点中的一个或多个。
[0024] 依照本发明的一个方面,提供了一种依照权利要求1的音频系统。
[0025] 本发明可以提供改进的空间体验。在许多实施例中,可以感知到更自然的空间体 验,并且声音复现可能看起来更少人造性。事实上,虚拟声音特性可以适于与诸如视觉线索 之类的其他位置线索更加一致。因此,可以实现更具真实感的空间声音感知,其中向用户提 供了看起来更自然的虚拟声音复现以及改进的外在化。
[0026] 音频信号可以与单个声源相应,并且音频信号的处理可以使得由音频信号表示的 音频从希望的用于声源的虚拟位置再现。音频信号可以例如与单个音频通道(例如环绕声 音系统的声道)相应或者可以例如与单个音频对象相应。特别地,音频信号可以是来自空间 多声道信号的单声道音频信号。可以处理每个空间信号以便再现,使得它被感知为起源于 给定虚拟位置。
[0027] 音频信号可以由时域信号、频域信号和/或参数化信号(例如编码的信号)表示。作 为一个特定的实例,音频信号可以由时频拼块(tile)格式的数据值表示。在一些实施例中, 音频信号可以具有关联的位置信息。例如,音频对象可以被提供指示用于该音频信号的预 期声源位置的位置信息。在一些方案中,位置信息可以作为空间上混合参数而被提供。系统 可以被设置成响应于用于音频信号的位置信息而进一步适应性调节双耳传递函数。例如, 系统可以选择双耳传递函数以便提供与指示的位置相应的声音位置线索。
[0028]双耳输出信号可以包括来自多个音频信号的信号分量,每个音频信号可能已经依 照双耳传递函数而被处理,其中用于每个音频信号的双耳传递函数可以与用于该音频信号 的希望的位置相应。在许多实施例中,可以响应于声学环境参数而适应性调节双耳传递函 数中的每一个。
[0029] 特别地,所述处理可以将双耳传递函数应用到音频信号或者从中导出(例如通过 放大、处理等等)的信号。双耳输出信号与音频信号之间的关系取决于双耳传递函数/由双 耳传递函数反映。特别地,音频信号可以生成用于双耳输出信号的信号分量,其与将双耳传 递函数应用到音频信号相应。因此,双耳传递函数可以与应用到音频信号以生成双耳输出 信号的传递函数相应,该双耳输出信号提供音频源在希望的位置处的感知。双耳传递函数 可以包括来自HRTF、HRIR或者BRIR的贡献或者与其相应。
[0030] 可以通过在时域中、在频域中或者作为这二者的组合应用双耳传递函数而将双耳 传递函数应用到音频信号(或者从中导出的信号)。例如,可以例如通过将复数双耳传递函 数值应用到每个时频拼块而将双耳传递函数应用到时频拼块。在其他实例中,可以通过实 现双耳传递函数的滤波器对音频信号滤波。
[0031] 依照本发明的一个可选的特征,声学环境参数包括用于声学环境的回响参数。
[0032] 这可以允许虚拟声音的特别有利的适应性调节以便从使用虚拟声源定位的声音 系统提供改进的且典型地更加自然的用户体验。
[0033] 依照本发明的一个可选的特征,声学环境参数包括以下至少一个:回响时间;相对 于直接路径能量的回响能量;房间冲激响应的至少一部分的频谱;房间冲激响应的至少一 部分的模态密度;房间冲激响应的至少一部分的回声密度;耳间相干或相关;早期反射的水 平;以及房间尺寸估计。
[0034] 这些参数可以允许虚拟声音的特别有利的适应性调节以便从使用虚拟声源定位 的声音系统提供改进的且典型地更加自然的用户体验。此外,这些参数可以促进实现和/或 操作。
[0035] 依照本发明的一个可选的特征,适应电路被设置成适应性调节双耳传递函数的回 响特性。
[0036] 这可以允许虚拟声音的特别有利的适应性调节以便从使用虚拟声源定位的声音 系统提供改进的且典型地更加自然的用户体验。该方法可以允许促进操作和/或实现,因为 回响特性特别适合于适应性调节。所述修改可以这样,将所述处理修改成与具有不同回响 特性的双耳传递函数相应。
[0037] 依照本发明的一个可选的特征,适应电路被设置成适应性调节双耳传递函数的以 下特性中的至少一个:回响时间;相对于直接声音能量的回响能量;双耳传递函数的至少一 部分的频谱;双耳传递函数的至少一部分的模态密度;双耳传递函数的至少一部分的回声 密度;耳间相干或相关;以及双耳传递函数的至少一部分的早期反射的水平。
[0038] 这些参数可以允许虚拟声音的特别有利的适应性调节以便从使用虚拟声源定位 的声音系统提供改进的且典型地更加自然的用户体验。此外,这些参数可以促进实现和/或 操作。
[0039] 依照本发明的一个可选的特征,所述处理包括预定双耳传递函数以及响应于声学 环境参数而适应性调节的可变双耳传递函数的组合。
[0040] 这在许多方案中可以提供促进和/或改进的实现方式和/或操作。预定双耳传递函 数和可变双耳传递函数可以加以组合。例如,可以串行地将传递函数应用到音频信号,或者 可以并行地将其应用到音频信号,对得到的信号进行组合。
[0041]预定双耳传递函数可以是固定的,并且可以与声学环境参数无关。可变双耳传递 函数可以是声学环境仿真传递函数。
[0042] 依照本发明的一个可选的特征,适应电路被设置成动态地更新双耳传递函数。
[0043] 该动态更新可以是实时的。本发明可以允许实现这样的系统,该系统自动且连续 地使声音提供适应该系统在其中被使用的环境。例如,当携带音频系统的用户移动时,声音 可以自动地适应性调节再现的音频以便匹配特定声学环境,例如匹配特定的房间。测量电 路可以连续地测量环境特性,并且所述处理可以响应于此而连续地被更新。
[0044]依照本发明的一个可选的特征,适应电路被设置成仅当环境特性满足一定准则时 才修改双耳传递函数。
[0045] 这在许多方案中可以提供改进的用户体验。特别地,在许多实施例中,它可以提供 更稳定的体验。适应电路可以例如仅仅在音频环境参数满足一定准则时修改双耳传递函数 的特性。该准则可以例如为,声学环境参数的值与用来适应性调节双耳传递函数的先前值 之间的差异超过一定阈值。
[0046] 依照本发明的一个可选的特征,适应电路被设置成限制用于双耳传递函数的转变 速度。
[0047] 这可以提供改进的用户体验,并且可以使得对于特定环境条件的适应不那么明 显。可以使得双耳传递函数的修改受到低通滤波影响,其中高于经常有利地为1Hz的变化被 衰减。例如,可以将双耳传递函数的阶跃变化限制为持续时间大约为1-5秒的逐渐转变。 [0048]依照本发明的一个可选的特征,所述音频系统进一步包括:数据存储装置,其用于 存储双耳传递函数数据;电路,其用于响应于声学环境参数而从数据存储装置中获取双耳 传递函数数据;并且其中适应电路被设置成响应于获取的双耳传递函数数据而适应性调节 双耳传递函数。
[0049] 这在许多方案中可以提供特别高效的实现方式。特别地,该方法可以减少计算资 源要求。
[0050] 在一些实施例中,所述音频系统可以进一步包括这样的电路,该电路用于检测没 有数据存储装置中存储的双耳传递函数数据和与声学环境参数相应的声学环境特性关联, 并且作为响应生成双耳传递函数数据且将其与关联的声学环境表征数据一起存储到数据 存储装置中。
[0051] 依照本发明的一个可选的特征,所述音频系统进一步包括:测试信号电路,其被设 置成将声音测试信号辐射到声学环境中;并且其中测量电路被设置成捕获环境中的接收的 声音信号,该接收的音频信号包括由辐射的声音测试信号产生的信号分量;并且所述确定 电路被设置成响应于声音测试信号而确定声学环境参数。
[0052] 这可以提供一种低复杂度、然而精确且实用的确定声学环境参数的方式。声学环 境参数的确定特别地可以响应于接收的测试信号与音频测试信号之间的相关。例如,可以 比较频率或时间特性并且将其用来确定声学环境参数。
[0053] 依照本发明的一个可选的特征,所述确定电路被设置成响应于接收的声音信号而 确定环境冲激响应,并且响应于环境冲激响应而确定声学环境参数。
[0054]这可以提供一种特别鲁棒、低复杂度和/或精确的用于确定声学环境参数的方法。
[0055] 依照本发明的一个可选的特征,适应电路进一步被设置成响应于用户位置而更新 双耳传递函数。
[0056] 这可以提供特别吸引人的用户体验。例如,可以随着用户的移动连续地更新虚拟 声音再现,从而提供不仅对于例如房间,而且对于房间中的用户位置的连续适应。
[0057] 在一些实施例中,声学环境参数取决于用户位置。
[0058] 这可以提供特别吸引人的用户体验。例如,可以随着用户的移动连续地更新虚拟 声音再现,从而提供不仅对于例如房间,而且对于房间中的用户位置的连续适应。举例而 言,可以根据测量的冲激响应确定声学环境参数,所述冲激响应可以随着用户在环境内的 运动而动态地变化。用户位置可以是用户取向或地点。
[0059] 依照本发明的一个可选的特征,所述双耳电路包括回响器;并且适应电路被设置 成响应于声学环境参数而适应性调节回响器的回响处理。
[0060] 这可以提供一种特别实用的用于修改所述处理以便反映修改的双耳传递函数的 方法。回响器可以提供一种特别高效的用于适应性调节特性的方法,然而其控制起来足够 简单。回响器可以例如为如例如J.-M. Jot and A. Chaigne, "Digital delay networks for designing artificial reverberators," Audio Engineering Society Convention, Feb. 1991中所描述的Jot回响器。
[0061] 依照本发明的一个方面,提供了一种依照权利要求14的用于音频系统的操作方 法。
[0062] 本发明的这些和其他方面、特征和优点根据以下描述的实施例将是清楚明白的, 并且将参照所述实施例进行阐述。
附图说明
[0063] 本发明的实施例将仅仅通过实例的方式参照附图加以描述,在附图中
[0064] 图1图示出利用MPEG环绕扩展的立体声核心编解码器的框图;
[0065]图2图示出利用MPEG环绕扩展并且提供双耳输出信号的立体声核心编解码器的框 图;
[0066]图3图示出依照本发明一些实施例的音频系统的元件的实例;
[0067]图4图示出依照本发明一些实施例的双耳处理器的元件的实例;
[0068]图5图示出依照本发明一些实施例的双耳信号处理器的元件的实例;
[0069]图6图示出依照本发明一些实施例的双耳信号处理器的元件的实例;以及 [0070]图7图示出Jot回响器的元件的实例。
具体实施方式
[0071] 图3图示出依照本发明一些实施例的音频系统的实例。该音频系统是一种虚拟声 音系统,其通过生成包括用于用户的每只耳朵的信号的双耳信号来仿真空间声源位置。典 型地,经由一对头戴式耳机、耳机或者相似物将双耳音频提供给用户。
[0072] 音频系统包括接收器301,其接收要由音频系统再现的音频信号。音频信号预期作 为具有希望的虚拟位置的声源而被再现。因此,音频系统这样再现音频信号,使得用户(至 少近似地)将信号感知为起源于希望的位置或者至少方向。
[0073] 在该实例中,音频信号因此被认为与单个音频源相应。同样地,音频信号与一个希 望的位置关联。音频信号可以与例如空间声道信号相应,并且特别地,音频信号可以是空间 多声道信号的单个信号。这样的信号可隐含地具有希望的关联位置。例如,中心声道信号与 听者正前方的位置关联,左前声道与听者向前和向左的位置关联,左后信号与听者后面和 向左的位置关联,等等。因此,音频系统可以将该信号再现为看起来从这个位置到达。
[0074] 作为另一个实例,音频信号可以是音频对象,并且可以例如是用户可以在(虚拟) 空间中自由地放置的音频对象。因此,在一些实例中,希望的位置可以例如由用户局部地生 成或者选择。
[0075] 音频信号可以例如作为时域信号而被表示、提供和/或处理。可替换地或者此外, 音频信号可以作为频域信号而被提供和/或处理。事实上,在许多系统中,音频系统可以能 够在这样的表示之间切换,并且在对于特定操作而言最为高效的域中应用所述处理。
[0076] 在一些实施例中,音频信号可以表示为时频拼块信号。因此,可以将该信号划分成 若干拼块,其中每个拼块与一定时间间隔和频率间隔相应。对于这些拼块中的每一个而言, 信号可以由值集合表示。典型地,对于每个时频拼块提供单个复数信号值。
[0077]在本说明书中,描述了单个音频信号并且将其处理成从虚拟位置再现。然而,应当 理解的是,在大多数实例中,向听者再现的声音包括来自许多不同声源的声音。因此,在典 型的实施例中,接收并且典型地从不同的虚拟位置再现多个音频信号。例如,对于虚拟环绕 声音系统而言,典型地接收空间多声道信号。在这样的方案中,典型地如下文中对于单个音 频信号所描述的单独地处理每个信号,并且然后将其组合。当然,典型地从不同的位置再现 不同的信号,并且因此可以应用不同的双耳传递位置。
[0078] 类似地,在许多实施例中,可以接收大量的音频对象,并且可以如所描述的单独地 处理这些音频对象中的每一个(或者这些音频对象的组合)。
[0079] 例如,有可能利用双耳传递函数的组合再现对象或信号的组合,从而不同地(例如 在不同的地点)再现对象组合中的每个对象。在一些方案中,可以将音频对象或信号的组合 作为组合实体而处理。例如,可以利用由两个相应双耳传递函数的加权混合组成的双耳传 递函数再现前声道和环绕左声道的下混合。。
[0080] 然后,可以简单地通过将针对所述不同音频信号中的每一个生成的双耳信号进行 组合(例如相加)而生成输出信号。
[0081] 因此,虽然以下描述着眼于单个音频信号,但是这可以仅仅被看作与来自多个音 频信号的一个声源相应的音频信号的信号分量。
[0082] 接收器301耦合到双耳处理器303,该双耳处理器接收音频信号并且通过处理音频 信号而生成双耳输出信号。双耳处理器303耦合到被馈以双耳信号的一对头戴式耳机305。 因此,双耳信号包括用于左耳的信号和用于右耳的信号。
[0083]应当理解的是,尽管头戴式耳机的使用对于许多应用而言可能是典型的,但是所 描述的发明和原理并不限于此。例如,在一些情形下,声音可以通过用户前面或者用户侧面 (例如使用肩部安装设备)的扩音器而被再现。在一些方案中,双耳处理在这样的情况下可 以利用附加的处理来增强,所述附加的处理补偿两个扩音器之间的串扰(例如,它可以就也 被右耳听见的左扬声器的声音分量来补偿右扩音器信号)。
[0084] 双耳处理器303被设置成处理音频信号处理,使得该处理代表双耳传递函数,该双 耳传递函数在双耳输出信号中提供用于音频信号的虚拟声源位置。在图3的系统中,双耳传 递函数是应用到音频信号以便生成双耳输出信号的传递函数。因此,它反映了双耳处理器 303的处理的组合效果,并且在一些实施例中可以包括非线性效应、反馈效应等等。
[0085] 作为所述处理的部分,双耳处理器303可以将虚拟定位双耳传递函数应用到正被 处理的信号。特别地,作为从音频信号到双耳输出信号的信号路径的部分,将虚拟定位双耳 传递函数应用到该信号。
[0086] 双耳传递函数特别地包括头相关传递函数(HRTF)、头相关冲激响应(HRIR)和/或 双耳房间冲激响应(BRIR)。术语冲激响应和传递函数被认为是等效的。因此,双耳输出信号 被生成以反映由听者头部和典型地还有房间引入的音频调节,使得音频信号看起来起源于 希望的位置处。
[0087]图4更详细地图示出双耳处理器303的一个实例。在该特定实例中,将音频信号馈 送至双耳信号处理器401,该双耳信号处理器继续按照双耳传递函数对音频信号滤波。双耳 信号处理器401包括两个子滤波器,即一个用于生成用于左耳声道的信号以及一个用于生 成用于右耳声道的信号。在图4的实例中,将生成的双耳信号馈送至放大器403,该放大器独 立地放大左右信号并且然后将它们分别馈送至头戴式耳机305的左右扬声器。
[0088]双耳信号处理器401的滤波器特性取决于音频信号的希望的虚拟位置。在该实例 中,双耳处理器303包括系数处理器405,该系数处理器确定滤波器特性并且将这些特性馈 送至双耳信号处理器401。特别地,系数处理器405可以接收位置指示,并且相应地选择适当 的滤波器部件。
[0089]在一些实施例中,音频信号可以例如是时域信号,并且双耳信号处理器401可以是 时域滤波器,例如IIR或FIR滤波器。在这样的方案中,系数处理器405可以例如提供滤波器 系数。作为另一个实例,可以将音频信号转换到频域,并且可以在频域中例如通过将每个频 率分量乘以与滤波器的频率传递函数相应的复数值来应用滤波。在一些实施例中,所述处 理可以完全在时频拼块上执行。
[0090]应当理解的是,在一些实施例中,也可以将其他的处理应用到音频信号,例如可以 应用高通滤波或低通滤波。也应当理解的是,可以将虚拟声音定位双耳处理与其他处理组 合。例如,可以将响应于空间参数的音频信号的上混合操作与双耳处理组合。例如,对于 MPEG环绕信号而言,可以通过应用不同的空间参数而将由时频拼块代表的输入信号上转换 成不同的空间信号。因此,对于给定的上混合的信号而言,可以使每个时频拼块经受和与空 间参数/上混合相应的复数值相乘。然后,可以通过将每个时频拼块乘以与双耳传递函数相 应的复数值而使得到的信号经受双耳处理。当然,在一些实施例中,可以组合这些操作,使 得每个时频拼块可以与代表上混合和双耳处理二者的单个复数值相乘(特别地,它可以相 应于两个单独的复数值相乘)。
[0091]在常规的双耳虚拟空间音频中,双耳处理基于通过典型地使用置于假人耳朵中的 麦克风的测量结果而导出的预定双耳传递函数。对于HRTF和HRIR而言,只考虑用户而不是 环境的影响。然而,当使用BRIR时,也包括进行测量的房间的房间特性。这在许多方案中可 以提供改进的用户体验。事实上,已经发现,当在做出测量的房间中复现头戴式耳机上的虚 拟环绕音频时,可以获得令人信服的外部化。然而,在其他环境中,尤其是在其中声学特性 非常不同(即其中存在复现与测量房间之间的明显失配)的环境中,感知的外部化可能显著 地降质。
[0092]在图3的系统中,通过适应性调节双耳处理而显著地缓解和减少了这样的降质。
[0093] 特别地,图3的音频系统进一步包括测量电路307,该测量电路执行依赖于或者反 映其中使用所述系统的声学环境的真实世界测量。因此,测量电路307生成指示声学环境的 特性的测量数据。
[0094] 在该实例中,系统耦合到捕获音频信号的麦克风309,但是应当理解的是,在其他 实施例中,此外或者可替换地可以使用其他的传感器和其他的模态。
[0095] 测量电路307耦合到参数处理器311,该参数处理器接收测量数据并且继续响应于 此而生成声学环境参数。因此,生成了指示其中再现虚拟声音的特定声学环境的参数。例 如,该参数可以指示房间如何回声或回响。
[0096] 参数处理器311耦合到适应处理器313,该适应处理器被设置成根据所确定的声学 环境参数适应性调节双耳处理器303使用的双耳传递函数。例如,如果该参数指示非常具有 回响的房间,那么可以修改双耳传递函数以反映比通过BRIR测量的回响更高程度的回响。
[0097] 因此,图3的系统能够适应性调节再现的虚拟声音以便更密切地反映其中它被使 用的音频环境。这可以提供更一致的并且看起来更自然的虚拟声音提供。特别地,它可以允 许视觉位置线索更密切地与提供的音频位置线索一致。
[0098] 所述系统可以动态地更新双耳传递函数,并且该动态更新在一些实施例中可以实 时地执行。例如,测量处理器307可以连续地执行测量并且生成当前测量数据。这可以在连 续更新的声学环境参数以及双耳传递函数的连续更新的适应中反映。因此,可以连续地修 改双耳传递函数以便反映当前音频环境。
[0099] 这可以提供非常吸引人的用户体验。作为一个特定的实例,浴室倾向于由具有很 少衰减的非常坚硬且声学上非常具有反射性的表面主导。形成对照的是,尤其是对于较高 的频率而言,卧室倾向于由柔软且具有衰减性的表面主导。因此,利用图3的系统,将能够向 佩戴提供虚拟环绕声音的一对头戴式耳机的人提供这样的虚拟声音,该虚拟声音在用户从 浴室走到卧室时自动地调节,或者反之亦然。因此,当用户离开浴室并且进入卧室时,声音 可以自动地变得更少回响和回声以反映新的声学环境。
[0100] 应当理解的是,使用的确切声学环境参数可以取决于各实施例的优选项和要求。 然而,在许多实施例中,声学环境参数包括用于声学环境的回响参数可能是特别有利的。
[0101] 事实上,回响不仅是可以使用相对较低复杂度的方法相对精确地测量的特性,而 且是对于用户的音频感知、尤其是对于用户的空间感知具有特别显著的影响的特性。因此, 在一些实施例中,响应于用于音频环境的回响参数而适应性调节双耳传递函数。
[0102] 应当理解的是,特定的测量和测量的参数也取决于各实施例的特定要求和优选 项。在下文中,将描述声学环境参数的各个不同的有利实例以及生成该参数的方法。
[0103]在一些实施例中,声学环境参数可以包括指示用于声学环境的回响时间的参数。 可以将回响时间限定为反射降低至特定水平所花费的时间。例如,可以将回响时间确定为 反射的能量水平下降60dB所花费的时间。该值典型地由T60表示。
[0104]回响时间T60可以例如由下式确定:
[0105]
[0106] 其中V为房间的体积并且a为等效吸收面积的估计。
[0107] 在一些实施例中,对于若干不同的房间而言,房间的预定特性(例如K和a )可以 是已知的。音频系统可以让各种不同的这样的参数被存储(例如在用户人工输入值之后)。 接着,系统可以继续执行简单地确定用户当前位于哪个房间的测量。接着,可以获取相应的 数据并且将其用于计算回响时间。房间的确定可以通过将音频特性与每个房间中的测量和 存储的音频特性进行比较。作为另一个实例,照相机可以捕获房间的图像并且使用它选择 应当获取哪些数据。作为又一个实例,测量可以包括位置估计,并且可以获取与该位置相应 的房间的适当数据。在又一个实例中,可以将用户偏好的声学再现参数与从GPS小区导出的 地点信息、特定WiFi接入点的接近度或者光传感器关联,所述光传感器区分人造光或自然 光以便确定用户是在建筑物内部还是在建筑物外部。
[0108] 作为另一个实例,回响时间可以如Vesa, S.,Harma, A. (2005). Automatic estimation of reverberation time from binaural signals. ICASSP 2005, p. iii/ 281-iii/284 March 18-23中更详细地描述的通过两个麦克风信号的特定处理而加以确 定。
[0109] 在一些实施例中,所述系统可以确定用于声学环境的冲激响应。接着,该冲激响应 可以用来确定声学环境参数。例如,可以评估冲激以便确定冲激响应的水平降低至特定水 平之前的持续时间,例如将T60值确定为直到响应下降60dB为止的冲激响应的持续时间。
[0110] 应当理解的是,可以使用用于确定冲激响应的任何适当的方法。
[0111] 例如,所述系统可以包括这样的电路,该电路生成辐射到声学环境中的声音测试 信号。例如,头戴式耳机可以包含外部扬声器,或者可以例如使用另一个扬声器单元。
[0112] 于是,麦克风309可以监视音频环境,并且冲激响应根据捕获的麦克风信号生成。 例如,可以辐射非常短的脉冲。该信号将被反射以便生成回声和回响。因此,测试信号可以 近似狄拉克(Dirac)冲激,并且由麦克风捕获的信号在一些方案中相应地可以直接反映冲 激响应。这样的方法可以特别适合其中不存在来自其他音频源的干扰的非常安静的环境。 在其他方案中,测试信号可以是已知的信号(例如伪噪声信号),并且可以将麦克风信号与 测试信号相关,以生成冲激响应。
[0113] 在一些实施例中,声学环境参数可以包括回响能量相对于直接路径能量的指示。 例如,对于测量的(离散采样的)BRIR h[n]而言,直接声音能量与回响能量之比R可以被确 定为:
[0114]
[0115] 其中r为区分直接声音和回响声音的适当阈值(典型地为5-50ms)。
[0116] 在一些实施例中,声学环境参数可以反映房间冲激响应的至少一部分的频谱。例 如,可以例如使用FFT将该冲激响应变换到频域,并且可以分析得到的频谱。
[0117] 例如,可以确定模态密度。模态与房间中音频的共振或驻波效应相应。因此,可以 在频域中根据峰值检测模态密度。这样的模态密度的存在可以影响房间中的声音,并且因 此模态密度的检测可以用来提供对于再现的虚拟声音的相应影响。
[0118] 应当理解的是,在其他方案中,可以例如根据房间的特性并且使用公知的公式计 算模态密度。例如,可以根据房间尺寸的知识计算模态密度。特别地,可以将模态密度计算 为:
[0119]
[0120] 其中c为声音的速度并且/为频率。
[0121] 在一些实施例中,可以计算回声密度。回声密度反映房间中有多少回声以及回声 如何靠近。例如,在小的浴室中,倾向于存在相对较高数量的相对靠近的回声,而在大的卧 室中,倾向于存在较小数量的不那么靠近(并且不那么强大)的回声。这样的回声密度参数 因此可以有利地用来适应性调节虚拟声音再现并且可以根据测量的冲激响应而加以计算。
[0122] 可以例如使用公知的公式根据冲激响应确定回声密度或者可以根据房间特性计 算回声密度。例如,可以将时间回声密度计算为:
[0123]
[0124] 其中t为时滞。
[0125] 在一些实施例中,可能有利的是简单地评估早期反射的水平。例如,可以辐射短的 冲激测试信号,并且系统可以确定给定时间间隔(例如冲激传输之后50毫秒)内的麦克风信 号的组合信号水平。在该时间间隔内接收的能量提供了早期回声的低复杂度然而非常有用 的显著性度量。
[0126] 在一些实施例中,可以确定声学环境参数以便反映耳间相干/相关。两只耳朵之间 的相关/相干可以例如根据来自分别位于左右耳机中的两个麦克风的信号进行确定。耳朵 之间的相关可以反映扩散性并且可以提供用于修正再现的虚拟声音的特别有利的基础,因 为扩散性给出了房间如何回响的指示。回响的房间将比具有很少回响或者没有回响的房间 更具扩散性。
[0127] 在一些实施例中,声学环境参数可以简单地为或者包括房间尺寸估计。事实上,如 根据先前的实例清楚可见的是,房间尺寸对于房间的声音特性具有显著的影响。特别地,回 声和回响严重地取决于房间尺寸。因此,在一些方案中,再现的声音的适应性调节可以简单 地基于根据测量确定房间尺寸。
[0128] 应当理解的是,可以使用不同于确定房间冲激响应的其他方法。例如,测量系统可 替换地或附加地可以使用其他的模态,例如视觉、光、雷达、超声、激光、照相机或者其他传 感器测量。这样的模态可以特别适合估计可以根据其确定回响特性的房间尺寸。作为另一 个实例,它们可以适合估计反射特性(例如墙壁反射的频率响应)。例如,照相机可以确定房 间与浴室相应,并且可以相应地假设与典型的拼块式表面相应的反射特性。作为另一个实 例,可以使用绝对或相对地点信息。
[0129] 作为又一个实例,基于超声传感器和超声测试信号的辐射的超声范围确定可以用 来估计房间的尺寸。在其他实施例中,光传感器可以用来得到基于光谱的估计(例如评估它 是否检测到自然的或者人造的光,从而允许区分内部或外部环境)。再者,基于GPS的地点信 息可能是有用的。作为另一个实例,特定WiFi接入点或GSM小区标识符的检测和识别可以用 来标识使用哪个双耳传递函数。
[0130] 也应当理解的是,尽管在许多实施例中音频测量可以有利地基于音频测试信号的 辐射,但是一些实施例可能不利用测试信号。例如,在一些实施例中,诸如回响、频率响应或 者冲激响应等音频特性的确定可以通过分析由当前物理房间中的其他源(例如脚步、收音 机等等)产生的声音而被动地进行。
[0131] 在图3的系统中,于是响应于声学环境参数而修改双耳处理器303的处理。特别地, 双耳信号处理器401依照双耳传递函数处理音频信号,其中该双耳传递函数取决于声学环 境参数。
[0132] 在一些实施例中,双耳信号处理器401可以包括数据存储装置,该数据存储装置存 储与多个不同的声学环境相应的双耳传递函数数据。例如,可以存储用于若干不同的房间 类型的一个或多个BRIR,所述房间类型例如典型的浴室、卧室、起居室、厨房、门厅、汽车、火 车等等。对于每种类型而言,可以存储与不同房间尺寸相应的多个BRIR。对于每个BRIR,进 一步存储其中BRIR被测量的房间的特性。
[0133] 双耳信号处理器401可以进一步包括这样的处理器,该处理器被设置成接收声学 环境参数并且作为响应从存储装置获取适当的双耳传递函数数据。例如,声学环境参数可 以是包括房间尺寸指示、早期与后期能量之比的指示以及回响时间的复合参数。该处理器 接着可以搜索存储的数据以便发现这样的BRIR,对于该BRIR而言,存储的房间特性最密切 地与测量的房间特性相似。
[0134] 然后,该处理器获取最佳匹配的BRIR并且将其应用到音频信号以便生成在放大之 后被馈送至头戴式耳机的双耳信号。
[0135] 在一些实施例中,可以动态地更新和/或开发数据存储装置。例如,当用户处于新 的房间中时,可以确定声学环境参数并且将其用于生成与该房间匹配的BRIR。接着,该BRIR 可以用来生成双耳输出信号。然而,此外,可以将该BRIR与房间的适当确定的特性(例如声 学环境参数,可能地还有位置等等)一起存储在数据存储装置中。通过这种方式,可以动态 地建立数据存储装置,并且由于新数据产生以及当新数据生成时,利用该新数据增强数据 存储装置。接着,可以随后使用BRIR,而不必根据第一原理确定它。例如,当用户返回到其中 他先前使用了所述设备的房间时,这将自动地被检测并且存储的BRIR被获取且用来生成双 耳输出信号。仅当没有适当的BRIR可用时,才有必要生成新的BRIR(其然后可以被存储)。这 样的方法可以降低复杂度和处理资源。
[0136] 在一些实施例中,双耳信号处理器401包括两个信号处理块。第一个块可以执行与 预定/固定的虚拟位置双耳传递函数相应的处理。因此,该块可以依照可能例如在系统设计 期间基于参考测量结果生成的参考BRIR、HRIR或HRTF而处理输入信号。第二信号处理块可 以被设置成响应于声学环境参数而执行房间仿真。因此,在该实例中,总的双耳传递函数包 括来自固定和预定BRIR、HRIR或HRTF的且用于自适应房间仿真过程的贡献。该方法可以降 低复杂度并且促进设计。例如,在许多实施例中,考虑到特定的希望的虚拟定位,有可能在 没有房间仿真处理的情况下产生精确的房间适应性调节。因此,利用每个单独的信号处理 块可以将虚拟定位和房间适应性调节分离,只需考虑这些方面之一。
[0137] 例如,可以将BRIR、HRIR或HRTF选择为与希望的虚拟位置相应。接着,得到的双耳 信号可以被修改以便具有与房间的回响特性匹配的回响特性。然而,该修改可以被认为与 音频源的特定位置无关,从而只需考虑声学环境参数。该方法可以显著地促进房间仿真和 适应性调节。
[0138] 各处理可以并行或串行地执行。图5图示出这样的实例,其中并行地将固定的HRTF 处理501和可变自适应房间仿真处理503应用到音频信号。然后,得到的信号由简单的总和 505加以组合。图6图示出这样的实例,其中串行地执行固定HRTF处理601和可变自适应房间 仿真处理603,使得自适应房间仿真处理被应用到由HRTF处理生成的双耳信号。应当理解的 是,在其他实施例中,处理的顺序可以相反。
[0139] 在一些实施例中,可能有利的是单独地将固定HRTF处理应用到每个声道,并且立 即并行地将可变自适应房间仿真处理应用到所有声道的混合物上。
[0140]双耳信号处理器401特别地可以设法修改双耳传递函数,使得来自音频系统的输 出双耳信号具有更密切地与由声学环境参数反映的特性相似的特性。例如,对于指示高回 响时间的声学环境参数而言,生成的输出双耳信号的回响时间增加。在大多数实施例中,回 响特性是适于提供生成的虚拟声音与声学环境之间的更密切的相关的特别适当的参数。
[0141] 这可以通过修改双耳信号处理器401的房间仿真信号处理503、603而实现。
[0142] 特别地,房间仿真信号处理503、603在许多实施例中可以包括响应于声学环境参 数而加以适应性调节的回响器。
[0143] 早期反射的水平可以通过相对于HRIR、HRTF或BRIR的水平来调节包括早期反射的 回响部分的冲激响应的至少一部分的水平而进行控制。
[0144] 因此,可以基于估计的房间参数控制合成回响算法。
[0145] 已知各种不同的合成回响器,并且应当理解的是,可以使用任何适当的这样的回 响器。
[0146] 图7示出了被实现为单一反馈网络回响器、特别地被实现为Jot回响器的房间仿真 信号处理块的特定实例。
[0147] 房间仿真信号处理503、603可以继续适应性调节Jot回响器的参数以便修改双耳 输出信号的特性。特别地,它可以修改先前针对声学环境参数描述的特性中的一个或多个。
[0148] 事实上,在图7的Jot回响器的实例中,可以通过改变延迟(mi)的相对和绝对值而 修改模态和回声密度。通过适应性调节反馈环中的增益的值,可以控制回响时间。此外,可 以通过利用适当的滤波器(hi(z))代替增益而控制依赖于频率的T60。
[0149] 对于双耳回响而言,可以以不同的方式(ai,)组合N个分支的输出,使得生成具有0 相关的两个回响尾部成为可能。联合设计的一对滤波器(cl(z),c2( Z))可以因此被采用来 控制两个回响输出的ICC。
[0150] 网络中的另一个滤波器(tL(z),tR(z))可以用来控制回响的频谱均衡。再者,可以 在该滤波器中结合回响的总体增益,从而允许对于直接部分和回响部分之比,即回响能量 相对于直接声音能量之比进行控制。
[0151] 关于Jot回响器的使用、尤其是时间和频率密度与回响器参数之间的关系以及希 望的依赖于频率的T60到回响器参数的转化的另外的细节可以见诸Jean-Marc Jot and Antoine Chaigne (1991) Digital delay networks for designing artificial reverberations, proc. 90th AES convention。
[0152]关于双耳Jot回响器的使用、尤其是关于如何将希望的耳间相干/相关和着色转化 成回响器参数的另外的细节可以见诸Fritz Menzer and Christof Faller (2009) Binaural reverberation using a modified Jot reverberator with frequency-dependent interaural coherence matching, proc. 126th AES convention。
[0153] 在一些实施例中,可以动态地修改声学环境参数和双耳传递函数以便连续地使再 现的声音适应声学环境。然而,在其他实施例中,可以仅仅在声学环境参数满足一定准则时 修改双耳传递函数。特别地,要求可能是,声学环境参数必须与用来设定当前处理参数的声 学环境参数相差超过给定阈值。因此,在一些实施例中,仅仅在房间特性的变化超过一定水 平的情况下,更新双耳传递函数。这在许多方案中可以利用声音的更加静态的再现提供改 进的聆听体验。
[0154] 在一些实施例中,双耳传递函数的修改可以是即时的。例如,如果(例如由于用户 移动到不同的房间的原因)突然测量到不同的回响时间,那么系统可以即时地改变回响时 间以便声音再现对此做出响应。然而,在其他实施例中,系统可以被设置成限制变化速度, 并且因此逐渐地修改双耳传递函数。例如,转变可以在比如1-5秒的时间间隔上逐渐地实 现。转变可以例如通过对用于双耳传递函数的目标值插值而实现或者可以例如通过用于适 应性调节所述处理的声学环境参数值的逐渐转变而实现。
[0155] 在一些实施例中,可以为后面的用户存储测量的声学环境参数和/或相应的处理 参数。例如,用户可以随后从先前确定的值中进行选择。这样的选择也可以例如通过系统检 测到当前环境的特性密切地反映了先前测量的特性而自动地执行。这样的方法可能对于其 中用户频繁地进出房间的方案是实用的。
[0156] 在一些实施例中,在每个房间的基础上适应性调节双耳传递函数。事实上,声学环 境参数可以整体地反映房间的特性。因此,在考虑到房间特性时更新双耳传递函数以便仿 真房间并且提供虚拟空间再现。
[0157] 然而,在一些实施例中,声学环境参数不仅可以反映房间的声学特性,而且可以反 映用户在房间内的位置。例如,如果用户靠近墙壁,那么早期反射与后期回响之间的比值可 能变化,并且声学环境参数可以反映这点。这可以使得双耳传递函数被修改以便提供早期 反射与后期回响之间的相似比值。因此,当用户移向墙壁时,直接早期回声在再现的声音中 变得更加显著,并且回响尾部减小。当用户移离墙壁时,相反的情况发生。
[0158] 在一些实施例中,系统可以被设置成响应于用户位置而更新双耳传递函数。这可 以如上面的实例中所描述的间接地完成。特别地,适应性调节可以通过确定取决于用户位 置以及特别地取决于用户在房间内的位置的声学环境参数而间接地发生。
[0159]在一些实施例中,可以生成指示用户位置的位置参数,并且将其用于适应性调节 双耳传递函数。例如,可以安装照相机,并且其使用视觉检测技术定位房间中的用户。然后, 可以将相应的位置估计传输至音频系统(例如使用无线通信),并且可以将其用于适应性调 节双耳传递函数。
[0160] 应当理解的是,为了清楚起见,上面的说明参照不同的功能电路、单元和处理器描 述了本发明的实施例。然而,应当清楚的是,可以使用不同功能电路、单元或处理器之间的 任何适当的功能分布,而不减损本发明。例如,被图示的由单独的处理器或控制器执行的功 能可以由相同的处理器或控制器执行。因此,对于特定功能单元或电路的引用应当仅仅视 作对于用于提供所描述的功能的适当装置的引用,而不是指示严格的逻辑或物理结构或组 织。
[0161] 本发明可以以任何适当的形式实现,包括硬件、软件、固件或者这些的任意组合。 可选地,本发明可以至少部分地实现为运行在一个或多个数据处理器和/或数字信号处理 器上的计算机软件。本发明的实施例的元件和部件可以在物理上、功能上和逻辑上以任何 适当的方式实现。事实上,所述功能可以在单个单元中、在多个单元中或者作为其他功能单 元的部分而实现。同样地,本发明可以在单个单元中实现,或者可以在物理上和功能上分布 在不同单元、电路和处理器之间。
[0162] 尽管已经结合一些实施例描述了本发明,但是本发明并不预期限于本文阐述的特 定形式。相反地,本发明的范围仅由所附权利要求书限制。此外,虽然特征可能看起来结合 特定实施例而被描述,但是本领域技术人员应当认识到,依照本发明可以组合所描述的实 施例的各种特征。在权利要求书中,措词包括/包含并没有排除其他元件或步骤的存在。
[0163] 此外,尽管单独地被列出,但是多个装置、元件、电路或方法步骤可以由例如单个 电路、单元或处理器实现。此外,尽管单独的特征可以包含于不同的权利要求中,但是这些 特征可能可以有利地加以组合,并且包含于不同的权利要求中并不意味着特征的组合不可 行和/或不是有利的。此外,特征包含于一种权利要求类别中并不意味着限于该类别,而是 表示该特征同样可适当地应用于其他权利要求类别。此外,权利要求中特征的顺序并不意 味着其中特征必须起作用的任何特定顺序,并且特别地,方法权利要求中各步骤的顺序并 不意味着这些步骤必须按照该顺序来执行。相反地,这些步骤可以以任何适当的顺序执行。 此外,单数引用并没有排除复数。因此,对于"一"、"一个"、"第一"、"第二"等等的引用并没 有排除复数。权利要求中的附图标记仅仅作为澄清的实例而被提供,不应当以任何方式被 视为限制了权利要求的范围。
Claims (13)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP11150155.7 | 2011-01-05 | ||
EP11150155 | 2011-01-05 | ||
PCT/IB2012/050023 WO2012093352A1 (en) | 2011-01-05 | 2012-01-03 | An audio system and method of operation therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103329576A CN103329576A (zh) | 2013-09-25 |
CN103329576B true CN103329576B (zh) | 2016-12-07 |
Family
ID=45470627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280004727.6A CN103329576B (zh) | 2011-01-05 | 2012-01-03 | 音频系统及其操作方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9462387B2 (zh) |
EP (1) | EP2661912B1 (zh) |
JP (1) | JP5857071B2 (zh) |
CN (1) | CN103329576B (zh) |
BR (1) | BR112013017070A2 (zh) |
RU (1) | RU2595943C2 (zh) |
TR (1) | TR201815799T4 (zh) |
WO (1) | WO2012093352A1 (zh) |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2637427A1 (en) * | 2012-03-06 | 2013-09-11 | Thomson Licensing | Method and apparatus for playback of a higher-order ambisonics audio signal |
TWI481892B (zh) * | 2012-12-13 | 2015-04-21 | Ind Tech Res Inst | 脈波雷達測距裝置及其測距演算法 |
WO2014146668A2 (en) * | 2013-03-18 | 2014-09-25 | Aalborg Universitet | Method and device for modelling room acoustic based on measured geometrical data |
CN108810793B (zh) | 2013-04-19 | 2020-12-15 | 韩国电子通信研究院 | 多信道音频信号处理装置及方法 |
WO2014183970A1 (en) | 2013-05-16 | 2014-11-20 | Koninklijke Philips N.V. | Determination of a room dimension estimate. |
EP2830043A3 (en) | 2013-07-22 | 2015-02-18 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for Processing an Audio Signal in accordance with a Room Impulse Response, Signal Processing Unit, Audio Encoder, Audio Decoder, and Binaural Renderer |
US9319819B2 (en) * | 2013-07-25 | 2016-04-19 | Etri | Binaural rendering method and apparatus for decoding multi channel audio |
RU2639952C2 (ru) | 2013-08-28 | 2017-12-25 | Долби Лабораторис Лайсэнзин Корпорейшн | Гибридное усиление речи с кодированием формы сигнала и параметрическим кодированием |
CN105659630B (zh) | 2013-09-17 | 2018-01-23 | 韦勒斯标准与技术协会公司 | 用于处理多媒体信号的方法和设备 |
CN103607669B (zh) * | 2013-10-12 | 2016-07-13 | 公安部第三研究所 | 一种楼宇对讲系统音频传输特性检测方法及检测系统 |
CN108347689B (zh) | 2013-10-22 | 2021-01-01 | 延世大学工业学术合作社 | 用于处理音频信号的方法和设备 |
CN104661169B (zh) * | 2013-11-25 | 2018-11-06 | 深圳中电长城信息安全系统有限公司 | 一种音频测试方法和装置 |
KR101833059B1 (ko) | 2013-12-23 | 2018-02-27 | 주식회사 윌러스표준기술연구소 | 오디오 신호의 필터 생성 방법 및 이를 위한 파라메터화 장치 |
WO2015102920A1 (en) * | 2014-01-03 | 2015-07-09 | Dolby Laboratories Licensing Corporation | Generating binaural audio in response to multi-channel audio using at least one feedback delay network |
WO2015103024A1 (en) | 2014-01-03 | 2015-07-09 | Dolby Laboratories Licensing Corporation | Methods and systems for designing and applying numerically optimized binaural room impulse responses |
KR20200075888A (ko) * | 2014-01-03 | 2020-06-26 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 다채널 오디오에 응답하여 적어도 하나의 피드백 지연 네트워크를 이용한 바이노럴 오디오의 생성 |
CN104768121A (zh) * | 2014-01-03 | 2015-07-08 | 杜比实验室特许公司 | 响应于多通道音频通过使用至少一个反馈延迟网络产生双耳音频 |
US9866986B2 (en) | 2014-01-24 | 2018-01-09 | Sony Corporation | Audio speaker system with virtual music performance |
CN108600935B (zh) | 2014-03-19 | 2020-11-03 | 韦勒斯标准与技术协会公司 | 音频信号处理方法和设备 |
EP3399776A1 (en) | 2014-04-02 | 2018-11-07 | Wilus Institute of Standards and Technology Inc. | Audio signal processing method and device |
DE102014210215A1 (de) * | 2014-05-28 | 2015-12-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Ermittlung und Nutzung hörraumoptimierter Übertragungsfunktionen |
US20150382122A1 (en) * | 2014-06-30 | 2015-12-31 | Uri El Zur | Systems and methods for adaptive management of spaces and/or openings of the spaces |
US9892721B2 (en) | 2014-06-30 | 2018-02-13 | Sony Corporation | Information-processing device, information processing method, and program |
JP6588016B2 (ja) * | 2014-07-18 | 2019-10-09 | ソニーセミコンダクタソリューションズ株式会社 | サーバ装置、およびサーバ装置の情報処理方法、並びにプログラム |
EP3197182B1 (en) | 2014-08-13 | 2020-09-30 | Samsung Electronics Co., Ltd. | Method and device for generating and playing back audio signal |
CN107258091B (zh) * | 2015-02-12 | 2019-11-26 | 杜比实验室特许公司 | 用于耳机虚拟化的混响生成 |
US9734686B2 (en) * | 2015-11-06 | 2017-08-15 | Blackberry Limited | System and method for enhancing a proximity warning sound |
KR20180108689A (ko) * | 2016-01-27 | 2018-10-04 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 음향 환경 시뮬레이션 |
EP3412039B1 (en) * | 2016-02-02 | 2020-12-09 | DTS, Inc. | Augmented reality headphone environment rendering |
US9826332B2 (en) * | 2016-02-09 | 2017-11-21 | Sony Corporation | Centralized wireless speaker system |
US9924291B2 (en) | 2016-02-16 | 2018-03-20 | Sony Corporation | Distributed wireless speaker system |
US10142755B2 (en) * | 2016-02-18 | 2018-11-27 | Google Llc | Signal processing methods and systems for rendering audio on virtual loudspeaker arrays |
US9591427B1 (en) * | 2016-02-20 | 2017-03-07 | Philip Scott Lyren | Capturing audio impulse responses of a person with a smartphone |
US9826330B2 (en) | 2016-03-14 | 2017-11-21 | Sony Corporation | Gimbal-mounted linear ultrasonic speaker assembly |
US9881619B2 (en) | 2016-03-25 | 2018-01-30 | Qualcomm Incorporated | Audio processing for an acoustical environment |
US9906851B2 (en) | 2016-05-20 | 2018-02-27 | Evolved Audio LLC | Wireless earbud charging and communication systems and methods |
GB201609089D0 (en) * | 2016-05-24 | 2016-07-06 | Smyth Stephen M F | Improving the sound quality of virtualisation |
US9584946B1 (en) * | 2016-06-10 | 2017-02-28 | Philip Scott Lyren | Audio diarization system that segments audio input |
US9794724B1 (en) | 2016-07-20 | 2017-10-17 | Sony Corporation | Ultrasonic speaker assembly using variable carrier frequency to establish third dimension sound locating |
US9854362B1 (en) | 2016-10-20 | 2017-12-26 | Sony Corporation | Networked speaker system with LED-based wireless communication and object detection |
US9924286B1 (en) | 2016-10-20 | 2018-03-20 | Sony Corporation | Networked speaker system with LED-based wireless communication and personal identifier |
US10075791B2 (en) | 2016-10-20 | 2018-09-11 | Sony Corporation | Networked speaker system with LED-based wireless communication and room mapping |
WO2018132417A1 (en) * | 2017-01-13 | 2018-07-19 | Dolby Laboratories Licensing Corporation | Dynamic equalization for cross-talk cancellation |
JP6791001B2 (ja) * | 2017-05-10 | 2020-11-25 | 株式会社Jvcケンウッド | 頭外定位フィルタ決定システム、頭外定位フィルタ決定装置、頭外定位決定方法、及びプログラム |
EP3410747A1 (en) * | 2017-06-02 | 2018-12-05 | Nokia Technologies Oy | Switching rendering mode based on location data |
CN109286889A (zh) * | 2017-07-21 | 2019-01-29 | 华为技术有限公司 | 一种音频处理方法及装置、终端设备 |
CN108269578B (zh) * | 2018-02-05 | 2019-10-18 | 百度在线网络技术(北京)有限公司 | 用于处理信息的方法和装置 |
CN110677802A (zh) * | 2018-07-03 | 2020-01-10 | 百度在线网络技术(北京)有限公司 | 用于处理音频的方法和装置 |
WO2020231883A1 (en) * | 2019-05-15 | 2020-11-19 | Ocelot Laboratories Llc | Separating and rendering voice and ambience signals |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1499161A2 (en) * | 2003-07-15 | 2005-01-19 | Pioneer Corporation | Sound field control system and sound field control method |
CN101133679A (zh) * | 2004-09-01 | 2008-02-27 | 史密斯研究公司 | 个性化的头戴耳机虚拟 |
CN101184349A (zh) * | 2007-10-10 | 2008-05-21 | 昊迪移通(北京)技术有限公司 | 针对双声道耳机设备的三维环响音效技术 |
CN101491116A (zh) * | 2006-07-07 | 2009-07-22 | 贺利实公司 | 用于双耳音频系统中的用于创建多维通信空间的方法和设备 |
CN101933344A (zh) * | 2007-10-09 | 2010-12-29 | 荷兰皇家飞利浦电子公司 | 用于产生双声道音频信号的方法及装置 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4188504A (en) * | 1977-04-25 | 1980-02-12 | Victor Company Of Japan, Limited | Signal processing circuit for binaural signals |
DE4328620C1 (de) | 1993-08-26 | 1995-01-19 | Akg Akustische Kino Geraete | Verfahren zur Simulation eines Raum- und/oder Klangeindrucks |
JPH0787599A (ja) * | 1993-09-10 | 1995-03-31 | Matsushita Electric Ind Co Ltd | 音像移動装置 |
US5485514A (en) * | 1994-03-31 | 1996-01-16 | Northern Telecom Limited | Telephone instrument and method for altering audible characteristics |
JPH07288900A (ja) * | 1994-04-19 | 1995-10-31 | Matsushita Electric Ind Co Ltd | 音場再生装置 |
US6222927B1 (en) * | 1996-06-19 | 2001-04-24 | The University Of Illinois | Binaural signal processing system and method |
JP2000330597A (ja) * | 1999-05-20 | 2000-11-30 | Matsushita Electric Ind Co Ltd | 雑音抑圧装置 |
AUPQ941600A0 (en) * | 2000-08-14 | 2000-09-07 | Lake Technology Limited | Audio frequency response processing sytem |
JP2003009296A (ja) * | 2001-06-22 | 2003-01-10 | Matsushita Electric Ind Co Ltd | 音響処理装置および音響処理方法 |
US7394903B2 (en) * | 2004-01-20 | 2008-07-01 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal |
CN100421152C (zh) * | 2004-07-30 | 2008-09-24 | 英业达股份有限公司 | 声音控制系统以及方法 |
KR20060022968A (ko) * | 2004-09-08 | 2006-03-13 | 삼성전자주식회사 | 음향재생장치 및 음향재생방법 |
WO2006033058A1 (en) * | 2004-09-23 | 2006-03-30 | Koninklijke Philips Electronics N.V. | A system and a method of processing audio data, a program element and a computer-readable medium |
US8204261B2 (en) * | 2004-10-20 | 2012-06-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Diffuse sound shaping for BCC schemes and the like |
EP1900252B1 (en) * | 2005-05-26 | 2013-07-17 | Bang & Olufsen A/S | Recording, synthesis and reproduction of sound fields in an enclosure |
DK1974587T3 (da) * | 2006-01-03 | 2010-09-27 | Sl Audio As | Fremgangsmåde og system til udligning af en højttaler i et lokale |
WO2007080211A1 (en) * | 2006-01-09 | 2007-07-19 | Nokia Corporation | Decoding of binaural audio signals |
EP1971978B1 (en) * | 2006-01-09 | 2010-08-04 | Nokia Corporation | Controlling the decoding of binaural audio signals |
FR2899424A1 (fr) | 2006-03-28 | 2007-10-05 | France Telecom | Procede de synthese binaurale prenant en compte un effet de salle |
US7957548B2 (en) * | 2006-05-16 | 2011-06-07 | Phonak Ag | Hearing device with transfer function adjusted according to predetermined acoustic environments |
US20080147411A1 (en) * | 2006-12-19 | 2008-06-19 | International Business Machines Corporation | Adaptation of a speech processing system from external input that is not directly related to sounds in an operational acoustic environment |
JP2009206691A (ja) * | 2008-02-27 | 2009-09-10 | Sony Corp | 頭部伝達関数畳み込み方法および頭部伝達関数畳み込み装置 |
WO2009111798A2 (en) | 2008-03-07 | 2009-09-11 | Sennheiser Electronic Gmbh & Co. Kg | Methods and devices for reproducing surround audio signals |
JP2008233920A (ja) * | 2008-03-28 | 2008-10-02 | Sony Corp | 音響再生装置及び音響再生方法 |
JP5092974B2 (ja) * | 2008-07-30 | 2012-12-05 | 富士通株式会社 | 伝達特性推定装置、雑音抑圧装置、伝達特性推定方法及びコンピュータプログラム |
CA2820208C (en) * | 2008-07-31 | 2015-10-27 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Signal generation for binaural signals |
EP2337375B1 (en) * | 2009-12-17 | 2013-09-11 | Nxp B.V. | Automatic environmental acoustics identification |
-
2012
- 2012-01-03 TR TR2018/15799T patent/TR201815799T4/tr unknown
- 2012-01-03 RU RU2013136390/08A patent/RU2595943C2/ru active
- 2012-01-03 EP EP12700203.8A patent/EP2661912B1/en active Active
- 2012-01-03 JP JP2013547946A patent/JP5857071B2/ja active Active
- 2012-01-03 US US13/989,420 patent/US9462387B2/en active Active
- 2012-01-03 WO PCT/IB2012/050023 patent/WO2012093352A1/en active Application Filing
- 2012-01-03 CN CN201280004727.6A patent/CN103329576B/zh active IP Right Grant
- 2012-01-03 BR BR112013017070A patent/BR112013017070A2/pt active Search and Examination
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1499161A2 (en) * | 2003-07-15 | 2005-01-19 | Pioneer Corporation | Sound field control system and sound field control method |
CN101133679A (zh) * | 2004-09-01 | 2008-02-27 | 史密斯研究公司 | 个性化的头戴耳机虚拟 |
CN101491116A (zh) * | 2006-07-07 | 2009-07-22 | 贺利实公司 | 用于双耳音频系统中的用于创建多维通信空间的方法和设备 |
CN101933344A (zh) * | 2007-10-09 | 2010-12-29 | 荷兰皇家飞利浦电子公司 | 用于产生双声道音频信号的方法及装置 |
CN101184349A (zh) * | 2007-10-10 | 2008-05-21 | 昊迪移通(北京)技术有限公司 | 针对双声道耳机设备的三维环响音效技术 |
Non-Patent Citations (2)
Title |
---|
An analysis/synthesis approach to real-time artificial reverberation;Jean-Marc Jot;《Institute of Electrical and Electronics Engineers》;19920323;第2卷;第221-224页 * |
Binaural Reverberation Using a Modified Jot Reverberator with Frequency-Dependent Interaural Coherence Matching;Fritz Menzer, Christof Faller;《126th AES convention》;20090530;第1-6页 * |
Also Published As
Publication number | Publication date |
---|---|
EP2661912B1 (en) | 2018-08-22 |
US20130272527A1 (en) | 2013-10-17 |
RU2013136390A (ru) | 2015-02-10 |
WO2012093352A1 (en) | 2012-07-12 |
EP2661912A1 (en) | 2013-11-13 |
TR201815799T4 (tr) | 2018-11-21 |
JP2014505420A (ja) | 2014-02-27 |
RU2595943C2 (ru) | 2016-08-27 |
US9462387B2 (en) | 2016-10-04 |
BR112013017070A2 (pt) | 2019-04-30 |
CN103329576A (zh) | 2013-09-25 |
JP5857071B2 (ja) | 2016-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3412039B1 (en) | Augmented reality headphone environment rendering | |
CN106416304B (zh) | 针对家庭音频的增强的空间印象 | |
US10129681B2 (en) | Calibrating listening devices | |
US10412523B2 (en) | System for rendering and playback of object based audio in various listening environments | |
CN105684467B (zh) | 使用元数据处理的耳机的双耳呈现 | |
CN106797525B (zh) | 用于生成和回放音频信号的方法和设备 | |
US9264834B2 (en) | System for modifying an acoustic space with audio source content | |
EP3114859B1 (en) | Structural modeling of the head related impulse response | |
US10834519B2 (en) | Methods and systems for designing and applying numerically optimized binaural room impulse responses | |
US9107023B2 (en) | N surround | |
KR101666730B1 (ko) | 기하학 기반 공간 오디오 코딩 스트림들을 병합하기 위한 장치 및 방법 | |
TWI489450B (zh) | Apparatus and method for generating an audio output signal or data stream, and associated system, computer readable medium and computer program | |
TWI517028B (zh) | 音訊空間定位和環境模擬 | |
US9749767B2 (en) | Method and apparatus for reproducing stereophonic sound | |
US9838825B2 (en) | Audio signal processing device and method for reproducing a binaural signal | |
AU2011340891B2 (en) | Apparatus and method for decomposing an input signal using a downmixer | |
KR101984356B1 (ko) | 오디오 장면 장치 | |
KR101547035B1 (ko) | 다중 마이크에 의한 3차원 사운드 포착 및 재생 | |
Härmä et al. | Augmented reality audio for mobile and wearable appliances | |
CN102804814B (zh) | 多通道声音重放方法和设备 | |
CN100358393C (zh) | 定向声音的方法和设备 | |
EP1551205B1 (en) | Method and device for enhancing spatial audio in a teleconference system | |
JP6186436B2 (ja) | 個々に指定可能なドライバへの上方混合されたコンテンツの反射されたおよび直接的なレンダリング | |
Favrot et al. | LoRA: A loudspeaker-based room auralization system | |
RU2660611C2 (ru) | Стереофоническая обработка аудиосигналов |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
C06 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
C10 | Entry into substantive examination | ||
GR01 | Patent grant | ||
C14 | Grant of patent or utility model |