CN102196354A - 视听装置 - Google Patents

视听装置 Download PDF

Info

Publication number
CN102196354A
CN102196354A CN2011100518873A CN201110051887A CN102196354A CN 102196354 A CN102196354 A CN 102196354A CN 2011100518873 A CN2011100518873 A CN 2011100518873A CN 201110051887 A CN201110051887 A CN 201110051887A CN 102196354 A CN102196354 A CN 102196354A
Authority
CN
China
Prior art keywords
audio
visual apparatus
acoustic treatment
video
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011100518873A
Other languages
English (en)
Inventor
今誉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102196354A publication Critical patent/CN102196354A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B31/00Associated working of cameras or projectors with sound-recording or sound-reproducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Projection Apparatus (AREA)

Abstract

一种视听装置包括视频投影部分、焦距调节部分、声学处理部分以及音频输出部分。视频投影部分投影对应于视频信号的视频。焦距调节部分调节所投影视频的焦距。声学处理部分对与视频信号相应的音频信号执行对应于调节后的焦距的声学处理。音频输出部分输出其上执行了声学处理的音频信号。

Description

视听装置
技术领域
本发明涉及一种能够投影视频和输出音频的视听装置。
背景技术
近年来,诸如5.1声道系统之类的音频(音乐)多声道系统在用于家庭影院等的视听装置中很流行。通过将扬声器布置为环绕观众并且除了观众前方(视频方向)之外还从侧面和背面输出音频,这一系统形成了环绕观众的立体声并且增强了真实感。另外,还开发了一种技术,其通过在双声道扬声器中在右边和左边调节用以输出音频的强度级别或定时来形成环绕观众的立体声(例如参见日本专利申请公开No.2007-142875(第[0039]段,图1),下文中称为专利文献1)。
在专利文献1中所公开的“acoustics correcting apparatus”(视听修正装置)中,使用声音收集麦克风和布置为环绕该声音收集麦克风的多个扬声器来测量每个扬声器与声音收集麦克风之间的声学传输函数。当基于声学传输函数修正了从扬声器输出的实际音频时,形成立体声。
通过这种立体声技术,实现了虚拟声音本地化,其中观众有声源(声像)仿佛存在于不同于扬声器实际位置的位置处的感受。当对显示器位置处的音频执行虚拟声音本地化时,观众会有声像仿佛存在于显示器位置处的感受。
发明内容
然而,上述立体声技术在视频屏幕和扬声器的相对位置固定的情况下是有效的,但如果其相对位置不固定,该技术就会引发问题。换言之,当视频屏幕和扬声器的相对位置变化时,虚拟声音本地化位置不同于视频屏幕的位置。例如,在投影仪用作视频显示装置的情况下,视频屏幕和扬声器的相对位置可能由投影仪的位置而变化。因此,一直难以在视频屏幕的位置处实现虚拟声音本地化。
鉴于上述情况,希望提供一种视听装置,其能够输出已经经历了与所投影视频的位置对应的声学处理的音频。
根据本发明的实施例,提供了一种视听装置,包括视频投影部分、焦距调节部分、声学处理部分以及音频输出部分。
视频投影部分投影对应于视频信号的视频。
焦距调节部分调节所投影视频的焦距。
声学处理部分对与所述视频信号对应的音频信号执行对应于调节后的焦距的声学处理。
音频输出部分输出执行了声学处理的音频信号。
当视听装置投影视频时,由焦距调节部分调节聚焦并且随着视频准确对焦而给出关于开始再现内容的指令。因此,在再现内容期间,视频投影部分的焦距可以视为视频投影距离。由此,声学处理部分基于由焦距调节部分调节的焦距而对音频信号执行声学处理,其结果为执行了与由视频投影部分投影的视频的位置对应的声学处理。换言之,根据本发明实施例的视听装置能够投影视频和执行对应于所投影视频的位置的声学处理。
声学处理部分可以包括数字滤波器,声学处理部分可以基于焦距确定数字滤波器的滤波器系数并将数字滤波器用于音频信号。
数字滤波器可以改变输入音频信号的频率响应并且向音频信号赋予虚拟传输特性。当用于数字滤波器的滤波器系数改变时,虚拟传输特性改变。声学处理部分基于焦距确定滤波器系数并且通过使用滤波器系数来对音频信号执行数字滤波器处理,其结果为实现了与所投影视频的位置对应的声学处理。
声学处理部分可以从针对每个距离范围而事先存储的滤波器系数候选中选择与焦距对应的滤波器系数。
如上所述,声学处理部分基于焦距确定滤波器系数。在此情况下,当滤波器系数是根据焦距而计算时,复杂的计算处理是必需的。然而,在根据本发明实施例的视听装置中,滤波器系数只需要从事先存储的滤波器系数候选中选择,其不需要复杂的计算处理。相应地,即使是在视听装置是便携式装置等并且具有有限计算处理能力的情况下,也可以执行与所投影视频的位置对应的声学处理。
视频投影部分可以包括投影透镜,并且焦距调节部分可以调节投影透镜的位置。
在视频投影设备中,经常改变光系统中投影透镜的位置以便改变所投影视频的焦距。在根据本发明实施例的视听装置中,声学处理部分对音频信号执行对应于投影透镜位置的声学处理,该位置由焦距调节部分调节,其结果为实现了对应于所投影视频的位置的声学处理。
声学处理部分可以在投影透镜的光轴的方向上在由焦距隔开的位置处执行虚拟声音本地化。
在投影透镜的光轴的方向上由焦距隔开的位置可以视为正在投影视频的位置。通过由根据本发明实施例的视听装置在上述位置处执行虚拟声音本地化,用户可以有音频仿佛是从所投影视频输出的感受。
视听装置可以进一步包括麦克风,配置为收集从布置为远离视听装置的外部扬声器输出的音频,并且声学处理部分可以基于麦克风的输出来估计外部扬声器的位置并进一步基于外部扬声器的位置来执行声学处理。
在视听装置从远离该视听装置的外部扬声器输出音频的情况下,外部扬声器与用户之间存在传输特性。根据本发明实施例的视听装置输出测试信号给外部扬声器,收集从外部扬声器输出的音频,并且计算其传输特性,其结果为可以估计出外部扬声器相对于麦克风(即视听装置)的相对位置。除了基于上述的焦距之外,声学处理部分还基于外部扬声器的位置来执行声学处理,其结果为根据本发明实施例的视听装置能够输出已经经历了与所投影视频的位置对应的声学处理的音频。
根据本发明的实施例,可以输出已经经历了对应于所投影视频的位置的声学处理的音频。
根据对如附图所示的本发明最佳模式实施例的以下详细描述,本发明的这些和其他目的、特征和优点将变得明显。
附图说明
图1是示出根据本发明第一实施例的视听装置的框图;
图2是示出视听装置在确定声学滤波器系数时的操作的过程;
图3是示出视听装置在再现内容时的操作的流程图;
图4是示出由视听装置的声学处理电路执行的声学处理的过程;
图5是示出由视听装置的声学处理电路执行的虚拟声音本地化处理中的信号处理的示例的示图;
图6是用于说明扬声器与用户耳朵之间的传输特性的概念性示图;
图7是以波形示出扬声器与用户耳朵之间的传输特性的示图;
图8是示出用于根据本发明第一实施例的视听装置的声学处理电路中的FIR滤波器的框图;
图9是示出视听装置投影视频和输出音频的状态的示意图;
图10是示出根据本发明第二实施例的视听装置的结构的框图;
图11是示出视听装置在确定声学滤波器系数时的操作的流程图;
图12是用于说明由视听装置的声学处理电路执行的外部扬声器位置计算的示意图;并且
图13是示出在根据经修改的示例的视听装置中的视频屏幕位置和虚拟声音本地化位置的示例的示意图。
具体实施方式
在下文中,将参考附图描述本发明的实施例。
(第一实施例)
将描述根据本发明第一实施例的视听装置。
图1是示出根据本发明第一实施例的视听装置1的结构的框图。
假定根据这一实施例的视听装置1是能够投影视频和输出音频(包括从耳机输出)的便携式投影仪。将给出对图1所示的视听装置1的结构的描述。
视听装置1包括存储部分2、计算部分3、视频输出系统(视频输出设备51、聚焦透镜52以及缩放透镜53)、音频输出系统(D/A转换器74、放大器73、扬声器71以及耳机端子72)等。
存储部分2是存储设备,诸如ROM(只读存储器)、RAM(随机存取存储器)、HDD(硬盘驱动器)、SSD(固态驱动器)。另外,存储部分2可以不被并入视听装置1中,而可以是外部HDD、存储卡等。另外,存储部分2可以由网络连接代替。
存储部分2存储内容数据C和声学滤波器系数候选F。内容数据C是包含视频信息和音频信息的数据。声学滤波器系数候选F是用于稍后将描述的声学处理中的系数的候选。存储部分2响应于来自计算部分3的请求而输出内容数据C和声学滤波器系数候选F给计算部分3。
计算部分3是能够执行计算的设备,并且通常是CPU(中央处理单元)。计算部分3包括透镜控制电路31、内容扩展电路32、视频处理电路33以及声学处理电路34。
透镜控制电路31响应于用户使用稍后将描述的聚焦调节开关41和缩放调节开关42进行的操作输入而输出控制信号给聚焦透镜驱动机制44和缩放透镜驱动机制45。内容扩展电路32对从存储部分2输出的内容数据C进行扩展和计算(执行解码处理),并且将结果分割为视频信号和音频信号。内容扩展电路32将视频信号输出给视频处理电路33,并且将音频信号输出给声学处理电路34。
视频处理电路33对从内容扩展电路32输出的视频信号执行视频处理,诸如降噪、色调修正和RGB转换,并且将作为结果得到的视频信号输出给视频输出设备51。声学处理电路34对从内容扩展电路32输出的音频信号执行稍后将描述的声学处理。从存储部分2输出声学滤波器系数候选F给声学处理电路34,并且还向声学处理电路34输出聚焦透镜52和缩放透镜53的位置信息。
视频输出设备51将从视频处理电路33输出的视频信号转换为像束。对于视频输出设备51,可以使用各种液晶设备、LED(发光二极管)、“DLP(数字光处理)”(注册商标)、LCOS(硅上液晶)、“GLV(光栅光阀)”(注册商标)、CRT(阴极射线管)等。
聚焦透镜52是用于调节焦距的透镜,并且被提供成可在像束的光轴方向上移动。聚焦透镜52在光轴方向上移动,由此使得透射光关于视听装置1的焦距变化。缩放透镜53是用于调节视角的透镜,并且被提供为可在像束的光轴方向上移动。缩放透镜53在光轴方向上移动,由此使得视频的尺寸(放大倍率)变化。以这种方式,聚焦透镜52和缩放透镜53构成光系统。
聚焦调节开关41和缩放调节开关42经由通用输入端口43将用户进行的操作输入发送给透镜控制电路31。响应于从聚焦调节开关41传送来的操作输入,聚焦透镜驱动机制44接收在透镜控制电路31中生成的控制信号,并且在光轴方向上移动聚焦透镜52。缩放透镜驱动机制45还响应于从缩放调节开关42传送来的操作输入而接收在透镜控制电路31中生成的控制信号,并且在光轴方向上移动缩放透镜53。聚焦透镜驱动机制44和缩放透镜驱动机制45可以包括例如步进器马达。
聚焦透镜位置检测器61检测聚焦透镜52在光轴方向上的位置,并且经由A/D(模拟/数字)转换器63将该位置输出给声学处理电路34。类似地,缩放透镜位置检测器62检测缩放透镜53在光轴方向上的位置,并且经由A/D转换器63将该位置输出给声学处理电路34。通过使用旋转编码器、电位计等的检测方法,聚焦透镜位置检测器61和缩放透镜位置检测器62分别检测聚焦透镜的位置和缩放透镜的位置。另外,在聚焦透镜52和缩放透镜53由步进器马达驱动的情况下,基于步进器马达的驱动历史来检测各透镜的位置。
扬声器71和耳机端子72经由放大器73和D/A(数字/模拟)转换器74连接到声学处理电路34。扬声器71可以包括两个声道(立体声)或更大数目的声道。耳机端子72可以是用于两个声道(立体声)的耳机所连接到的端子。扬声器71被提供为与视听装置1形成整体。
视听装置1的结构如上所述。
在下文中,将描述视听装置1的操作。
当接通视听装置1的电源时,视听装置1投影视频(图像)以供视频调节。用户移动视听装置1或操作聚焦调节开关41和缩放调节开关42来调节视角和视频聚焦。特别地,当用户操作聚焦调节开关41时,聚焦透镜驱动机制44在光轴方向上移动聚焦透镜52。另外,当用户操作缩放调节开关42时,缩放透镜驱动机制45在光轴方向上移动缩放透镜53。
在从用户接收到开始再现内容的指令输入后,视听装置1确定用于再现内容之前的声学处理中使用的声学滤波器系数。图2是示出视听装置1在确定声学滤波器系数时的操作的过程。
如图2所示,声学处理电路34从聚焦透镜位置检测器61获取聚焦透镜52的位置信息,并且从缩放透镜位置检测器62获取缩放透镜53的位置信息(St1)。应当注意,所讨论的位置是沿上述视听装置1的光系统的光轴的位置。接着,声学处理电路34基于聚焦透镜52和缩放透镜53的位置信息而得到光系统的焦距(St2)。接着,声学处理电路34基于焦距确定声学滤波器系数(St3)。稍后将描述声学滤波器系数的确定。
接着,视听装置1再现内容。应当注意,在此,在再现内容期间,不对聚焦调节开关41和缩放调节开关42进行操作。
图3是示出视听装置1在再现内容时的操作的流程图。
当给出了用以再现内容的指令时,内容扩展电路32读取存储在存储部分2中的至少部分内容数据C的(St4)。接着,内容扩展电路32对内容数据C进行扩展和计算(执行解码处理),并且将结果分割为视频信号和音频信号(St5)。
视频处理电路33对视频信号执行视频处理(St6),并且将作为结果得到的视频信号输出给视频输出设备51。视频输出设备51将视频信号转换为像束并输出该像束(St7)。像束经过聚焦透镜52和缩放透镜53并且被投影到投影目标上。另一方面,声学处理电路34使用在上述St3中计算的声学滤波器系数对音频信号执行声学处理(St8),并且将作为结果得到的音频信号输出给D/A转换器74。稍后将描述St8中的声学处理。D/A转换器74和放大器73将已经经历了声学处理的音频信号输出给扬声器71和耳机端子72(St9)。
在读取了全部内容数据C的情况下(St10的“是”),内容扩展电路32终止再现内容数据。在没有读取全部内容数据C的情况下(St10的“否”),内容扩展电路32再次读取内容数据C(St4)。以这种方式,投影了内容视频并且输出了对应于该视频的已经经历了声学处理的音频。
接着,将给出对如下情况的描述:在再现内容期间,由用户对聚焦调节开关41或缩放调节开关42进行操作。这一情形是指例如视听装置1被用户移动并且视频聚焦被再次调节的情况。
假定在再现内容之前计算声学滤波器系数,并且将声学滤波器系数用于声学处理以再现内容,如上所述。在此,当由用户对聚焦调节开关41进行操作时,聚焦透镜52的新位置信息从聚焦透镜位置检测器61被输出到声学处理电路34。另外,当由用户对缩放调节开关42进行操作时,缩放透镜53的新位置信息从缩放透镜位置检测器62被输出到声学处理电路34。
当输出了聚焦透镜52或缩放透镜53的新位置信息时,声学处理电路34根据上述位置信息得到焦距,并且更新声学滤波器系数。例如,当A/D转换器63的输出波动了特定值或波动了比该特定值更大的值时,声学处理电路34可以认为输出了新的位置信息同时更新声学滤波器系数。在下文中,声学处理电路34使用更新后的声学滤波器系数来对音频信号执行声学处理。当聚焦再次改变时,声学处理电路34以相同的方式更新声学滤波器系数,并且在声学处理处理中使用更新后的声学滤波器系数。
在下文中,将描述由声学处理电路34执行的声学处理。
图4是示出由声学处理电路34执行的声学处理的过程。
图4A是示出声音是从连接到耳机端子72的耳机输出的情况的过程,并且图4B是示出声音是从扬声器71输出的情况的过程。
如图4A和图4B所示,声学处理电路34使用声学滤波器系数来对输入音频信号执行虚拟声音本地化处理。另外,在视听装置1从扬声器71输出声音的情况下,声学处理电路34对已经经历了虚拟声音本地化处理的音频信号执行串扰消除。应当注意,由声学处理电路34对音频信号执行的声学处理不限于虚拟声音本地化处理。
图5是示出虚拟声音本地化处理中的信号处理的示例的示图。
在此示出了用于输出包括在来自左声道和右声道这两个声道的内容中的音频信号(Sig1,Sig2,…,SigN)的处理。音频信号Sig1到SigN是各声道的音频信号。例如,在5.1声道系统的情况下,N是5(排除了作为具有低方向性的范围的0.1声道)。
如图5所示,对于音频信号Sig1到SigN,声学处理电路34使用数字滤波器(F1L到FNL)来从左声道进行输出并且使用数字滤波器(F1R到FNR)来从右声道进行输出。数字滤波器用于向音频信号Sig1到SigN赋予虚拟传输特性。在下文中,将描述传输特性。
图6是用于说明传输特性的概念性示图。图6示出了用户U、布置为距用户U为距离“a”的一对扬声器SaR和SaL、布置为距用户U为距离“b”的一对扬声器SbR和SbL以及布置为距用户U为距离“c”的一对扬声器ScR和ScL。SaR与SaL之间的距离、SbR与SbL之间的距离以及ScR与ScL之间的距离分别与距离“a”、“b”和“c”成比例。图6示出了在从扬声器SaL输出的声音到达用户U的左耳的时间段的传输特性TaLL,以及在从扬声器SaL输出的声音到达用户U的右耳的时间段的传输特性TaLR
麦克风MR布置在用户U右耳的位置处,并且麦克风ML布置在用户U左耳的位置处。脉冲声音(就能量而言具有平坦的频率特性的短暂声音)从各扬声器输出并且利用麦克风MR和麦克风ML来收集。图7以利用麦克风MR和麦克风ML收集的声音的波形示出了从扬声器SaL,SbL和ScL输出的声音到达用户U的两只耳朵的时间段的传输特性。如图7所示,当用户U与扬声器之间的距离变化时,即使从各扬声器输出的声音相同利用麦克风收集的声音的波形也不同。对应于扬声器与麦克风(用户耳朵)之间的距离的特性(诸如频率、幅度、到达时间等)就是传输特性。
传输特性可以使用与头部相关的传输函数来表示。与头部相关的传输函数是示出从声源输出的声音与用户听到的声音之间的关系的函数。例如,在声音是从上述扬声器SaL和SaR输出的情况下,针对用户U的左耳得到以下表达式:
YL(s)=HL_A(s)XL(s)+HL_B(s)XR(s)(表达式1)
YL(s)表示对听者左耳的输入,XL(s)表示扬声器SaL的输出,XR(s)表示扬声器SaR的输出,HL_A(s)表示扬声器SaL与左耳之间的与头部相关的传输函数,并且HL_A(s)表示扬声器SaR与左耳之间的与头部相关的传输函数。
如表达式1所示,从扬声器SaL输出的声音(HL_A(s)XL(s))具有扬声器SaL与左耳之间的传输特性,从扬声器SaR输出的声音(HL_B(s)XR(s))具有扬声器SaR与左耳之间的传输特性,这两个声音到达用户U的左耳。
类似地,针对用户U的右耳得到以下表达式:
YR(s)=_HR_A(s)XL(s)+HR_B(s)XR(s)(表达式2)
YR(s)表示对听者右耳的输入,HR_A(s)表示扬声器SaL与右耳之间的与头部相关的传输函数,并且HR_B(s)表示扬声器SaR与右耳之间的与头部相关的传输函数。
如表达式2所示,从扬声器SaL输出的声音(_HR_A(s)XL(s))具有扬声器SaL与右耳之间的传输特性,并且从扬声器SaR输出的声音(HR_B(s)XR(s))具有扬声器SaR与右耳之间的传输特性,这两个声音到达用户U的右耳。
换言之,在YL(s)和YR(s)满足以上这些表达式的情况下,用户U有仿佛扬声器SaL和扬声器SaR在输出声音的感受。特别地,当向从耳机或扬声器输出的声音赋予了虚拟传输特性时,用户可以有声源仿佛存在于虚拟位置(虚拟声音本地化)的感受。在此,在假定视听装置1在用户附近的情况下执行虚拟声音本地化,其原因在于视听装置1是便携式投影仪,并且被集成地提供给视听装置1的扬声器71的位置与用户位置相同。
特别地,在每个数字滤波器处理中,音频信号都经历FIR(有限冲激响应)滤波器、IIR(无限冲激响应)滤波器等。在下文中,将作为示例描述FIR滤波器。图8是示出FIR滤波器的框图。在图8中,x(n)表示对数字滤波器的输入,y(n)表示数字滤波器的输出。如图8所示,FIR滤波器包括多个延迟框101、加法器102和乘法器103。
输入信号(音频信号)在延迟框101中被顺序地延迟,并且输入信号和先前已经输入并延迟的信号在乘法器103中被乘以预定系数F0到FN。系数F0到FN是声学滤波器系数。被乘以声学滤波器系数F0到FN的信号在加法器102中相加,然后被输出。当声学滤波器系数改变时,频率响应相应地改变,其结果为能够向音频信号赋予虚拟传输特性。
基于上述光系统的焦距来确定声学滤波器系数。特别地,声学处理电路34可以从存储在存储部分2中的多个声学滤波器系数候选中提取对应于焦距的声学滤波器系数。例如,当假定的焦距在50cm到5m的范围内时,声学处理电路34将这一距离划分为20个范围,每个范围具有25cm的长度,并且针对每个范围存储一个声学滤波器系数候选。视听装置1将分配给包括所获取的焦距的范围的声学滤波器系数候选确定为声学滤波器系数。这一用于判决的方法不需要用于计算声学滤波器系数的计算处理,并且特别是在视听装置1是便携式投影仪等且具有有限计算处理能力的情况下有效。在视听装置1是蜂窝电话等的情况下,执行计算处理的次数减小,这使得功耗较低并且抑制了电池消耗。
此外,视听装置1可以根据计算出的焦距线性地改变声学滤波器系数。在此情况下,可以使用以下表达式来计算声学滤波器系数h(t)。
h(t)=a/L·f(t-Lb)
“L”表示计算出的焦距与特定焦距的比率,并且“a”和“b”是任意系数。“a/L”意味着声音级别根据焦距而减小或增大,并且“f(t-Lb)”意味着相位时间响应根据焦距L而扩展或收缩。“f(t)”例如是快速傅里叶变换。以这种方式,根据焦距确定了声学滤波器系数。另外,通过其他方法,可以根据焦距确定声学滤波器系数。
再次参考图5,声学处理电路34通过加法器AL将从左声道的数字滤波器(F1L到FNL)输出的音频信号相加,并且通过加法器AR将从右声道的数字滤波器(F1R到FNR)输出的音频信号相加。相应地,向包括在内容数据C中的多声道音频信号Sig1到SigN赋予了虚拟传输特性,并且生成了已经经历了对应于视频信号的声学处理的左声道的音频信号SigL和右声道的音频信号SigR。
另外,在视听装置1从扬声器71输出声音的情况下,由于从左声道的扬声器输出的声音到达听者的右耳以及从右声道的扬声器输出的声音到达听者的左耳而引起串扰。出于该原因,声学处理电路34对音频信号SigL和SigR执行串扰消除。对于串扰消除,可以使用公知技术。
如上所述,经由D/A转换器74和放大器73将已经经历了由声学处理电路34执行的声学处理的音频信号SigL和SigR输出给扬声器71和耳机端子72,然后从连接到扬声器71或耳机端子72的耳机输出音频。图9是示出视听装置1投影视频和输出音频的状态的示意图。图9示出了视听装置1、用户U以及从视听装置1向其上投影视频的视频屏幕Gd。视听装置1和用户U在相同位置上。
如上所述,声学处理电路34基于根据聚焦透镜52和缩放透镜53的位置信息计算的焦距来执行声学处理。在此情况下,声学处理电路34可以在光系统的光轴的方向上由计算出的焦距“d”隔开的位置处执行虚拟声音本地化。在光系统的光轴的方向上由计算出的焦距“d”隔开的位置可以被视为正在投影视频的位置,并且经历了声学处理电路34执行的基于焦距的声学修正的音频可以进行在视频屏幕Gd的左边和右边的虚拟声源SdL和SdR的位置处的声音本地化。相应地,用户可以有音频仿佛是从视频屏幕Gd输出的感受。
当视听装置1的聚焦改变并且视听装置1在位于投影距离“e”处的视频屏幕Ge上投影视频时,视听装置1基于新焦距执行声学处理。正如在前述情况中,视听装置1可以在视频屏幕Ge的左边和右边的虚拟声源SeL和SeR的位置处执行声音本地化。当视听装置1在位于投影距离f处的视频屏幕Gf上投影视频时,视听装置1类似地在虚拟声源SfL和SfR的位置处执行声音本地化。
如上所述,根据本实施例的视听装置1基于聚焦透镜52和缩放透镜53的位置信息来获取光系统的焦距,并且基于焦距来确定声学滤波器系数。通过将焦距视为投影距离,可以执行对应于所投影视频的位置的声学处理,例如在视频屏幕附近的虚拟声音本地化。
(第二实施例)
将描述根据本发明第二实施例的视听装置。
图10是示出根据本发明第二实施例的视听装置200的结构的框图。
应当注意,在以下描述中,视听装置200的与根据第一实施例的视听装置1相同的结构将用相同参考符号来表示并且其描述将被省略。
视听装置200是便携式投影仪。然而,视听装置200与和扬声器形成整体的视听装置1不同,视听装置200从与视听装置200分离布置的扬声器输出音频。
如图10所示,视听装置200进一步包括音频格式转换器201、麦克风202、放大器203以及A/D转换器204。音频格式转换器201连接到声学处理电路34。麦克风202经由放大器203和A/D转换器204连接到声学处理电路34。
音频格式转换器201包括A/D转换器、输出端子等,并且可以是遵循各种音频通信标准的转换器,这些标准诸如“S/PDIF(Sony Philips数字接口)”(注册商标)和“HDMI(高清晰度多媒体接口)”(注册商标)。模拟输出也是可能的,而不是仅限于数字输出。另外,输出声道的数目是任意设置的,并且可以使用多声道格式,诸如“杜比数字”(注册商标)和“DTS(数字影院系统)”(注册商标)。音频格式转换器201与稍后将描述的外部扬声器连接。
麦克风202用于判断外部扬声器和视听装置200的相对位置,并且非定向麦克风是合适的。麦克风202经由放大器203和A/D转换器204将所收集的声音的音频信号输出给声学处理电路34。
将描述结构如上所述的视听装置200的操作。
在从用户接收到开始再现内容的指令输入后,视听装置200确定用于再现内容之前的声学处理中的声学滤波器系数,如在视听装置1的情况中那样。图11是示出视听装置200在确定声学滤波器系数时的操作的流程图。
如图11所示,声学处理电路34从聚焦透镜位置检测器61获取聚焦透镜52的位置信息,并且从缩放透镜位置检测器62获取缩放透镜53的位置信息(St201)。接着,声学处理电路34基于聚焦透镜52和缩放透镜53的位置信息而得到光系统的焦距(St202)。接着,声学处理电路34计算外部扬声器的位置(St203到St206)。在下文中,将描述外部扬声器的位置计算。
图12是用于说明外部扬声器位置计算的示意图。
如图12所示,视听装置200与外部扬声器SpL和SpR连接。外部扬声器具有在右边和左边的两个声道,但不限于此。假定视听装置200将视频投影到视频屏幕Gp上,并且视听装置200以及外部扬声器SpL和SpR被部署为彼此远离。
在根据第一实施例的视听装置1中,扬声器并入其中。由此,声学处理电路34仅需要使用视听装置1和视频屏幕的相对位置来进行声学处理。然而,在根据本实施例的视听装置200中,扬声器并未并入视听装置200中,因此必需确定视听装置200与外部扬声器SpL和SpR的相对位置以便进行声学处理。
声学处理电路34经由音频格式转换器201输出测试信号给外部扬声器SpL(St203)。测试信号可以是TSP(时间拉伸脉冲)信号。外部扬声器SpL在接收到测试信号后输出声音。麦克风202收集从外部扬声器SpL输出的声音,并且经由放大器203和A/D转换器204将音频信号输出给声学处理电路34。
声学处理电路34分析音频信号(St204)。例如,声学处理电路34向由麦克风202收集的声音的TSP响应时间轴波形数据应用1FFT(快速傅里叶逆变换),以便计算脉冲响应时间轴波形数据,并且声学处理电路34基于传输特性估计外部扬声器SpL的位置(St205)。接着,声学处理电路34以相同的方式估计外部扬声器SpR的位置(St206的“否”)。声学处理电路34估计出全部外部扬声器SpR和SpL的位置(St206的“是”),然后确定声学滤波器系数(St207)。应当注意,执行对焦距的计算(St201和St202)和对外部扬声器位置的估计(St203到St206)的次序可以颠倒。
除了基于在上述St201和St202中得到的光系统的焦距以外,声学处理电路34还基于在St203到St206中得到的外部扬声器SpR和SpL的位置信息来确定声学滤波器系数。如果声学处理电路34是在假定外部扬声器SpR和SpL不与视听装置1分立的情况下(如在第一实施例的情况中那样)确定声学滤波器系数的,则虚拟声音本地化的位置由于外部扬声器SpR和SpL与用户U的两只耳朵之间的实际传输特性而不同。
在此,基于在St203到St206处估计的外部扬声器SpR和SpL的位置,声学处理电路34确定了声学滤波器系数,同时考虑了外部扬声器SpR和SpL与用户U的左耳和右耳(在与视听装置200相同的位置处)之间的实际传输特性。相应地,视听装置200实现了任何位置处(例如在视频屏幕Gp的附近)的虚拟声音本地化,而不论外部扬声器SpR和SpL部署在何处。
本发明不限于上述实施例,并且在不脱离本发明主旨的情况下,可以进行各种改变。
在上述实施例中,在视频被投影到其上的视频屏幕的右边和左边执行了虚拟声音本地化,但本发明不限于此。图13是示出在对应于5.1声道的各扬声器的位置处执行虚拟声音本地化的情况下、视频屏幕位置和虚拟声音本地化位置的示意图。如图13所示,例如,在视听装置在位于距离“g”处的视频屏幕Gg上投影视频的情况下,可以在中心扬声器Sgc、左前方扬声器SgfL、右前方扬声器SgfR、左后方扬声器SgrL以及右后方扬声器SgrR的位置处执行虚拟声音本地化,其中每个位置都与视听装置相距距离“g”。
另外,在视听装置在位于距离“h”处的视频屏幕Gh上投影视频的情况下,可以在中心扬声器Shc、左前方扬声器ShfL、右前方扬声器ShfR、左后方扬声器ShrL以及右后方扬声器ShrR的位置处执行虚拟声音本地化,其中每个位置都与视听装置相距距离“h”。
在上述实施例中,视听装置包括聚焦调节开关和缩放调节开关,并且根据由用户进行的操作来调节光系统中的聚焦透镜和缩放透镜的位置,但本发明不限于此。视听装置可以具有自动对焦机制而不是聚焦调节开关和缩放调节开关,以自动地调节聚焦透镜和缩放透镜的位置。另外,作为对聚焦调节开关和缩放调节开关的替代,可以提供用于使得用户直接改变聚焦透镜和缩放透镜的位置的刻度盘。
在上述实施例中,视听装置投影从视频输出设备通过聚焦透镜和缩放透镜输出的像束,但本发明不限于此。例如,可以不提供聚焦透镜和缩放透镜并且可以输出聚焦由视频输出设备调节的像束。在此情况下,声学处理电路可以基于来自视频输出设备的信息来获取焦距。
在上述实施例中,视听装置是便携式投影仪,但本发明不限于此。例如,视听装置的结构可以是将具有视频投影功能的主体与具有音频输出功能的坞站连接。
本申请包含于2010年3月9日在日本专利局提交的日本优先权专利申请JP 2010-051969所公开内容相关的主题,在此通过引用的方式包含其全部内容。
本领域技术人员应当理解,可以依赖于设计要求和其他因素而进行各种修改、组合、子组合和变更,只要其仍在所附权利要求书或其等同形式的范围内。

Claims (6)

1.一种视听装置,包括:
视频投影部分,配置为投影对应于视频信号的视频;
焦距调节部分,配置为调节所投影视频的焦距;
声学处理部分,配置为对与所述视频信号对应的音频信号执行对应于调节后的焦距的声学处理;以及
音频输出部分,配置为输出执行了所述声学处理的音频信号。
2.根据权利要求1的视听装置,其中
所述声学处理部分包括用于对所述音频信号执行所述声学处理的数字滤波器并且根据所述调节后的焦距确定所述数字滤波器的滤波器系数。
3.根据权利要求2的视听装置,其中
所述声学处理部分从针对每个距离范围而事先存储的滤波器系数候选中选择对应于所述调节后的焦距的滤波器系数。
4.根据权利要求3的视听装置,其中
所述视频投影部分包括投影透镜;并且
所述焦距调节部分调节所述投影透镜的位置。
5.根据权利要求4的视听装置,其中
所述声学处理部分在所述投影透镜的光轴的方向上在由所述焦距隔开的位置处执行虚拟声音本地化。
6.根据权利要求1的视听装置,进一步包括
麦克风,配置为收集从布置为远离所述视听装置的外部扬声器输出的音频,其中
所述声学处理部分基于所述麦克风的输出来估计所述外部扬声器的位置,并且进一步基于所述外部扬声器的所述位置来执行所述声学处理。
CN2011100518873A 2010-03-09 2011-03-02 视听装置 Pending CN102196354A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-051969 2010-03-09
JP2010051969A JP2011188287A (ja) 2010-03-09 2010-03-09 映像音響装置

Publications (1)

Publication Number Publication Date
CN102196354A true CN102196354A (zh) 2011-09-21

Family

ID=44559641

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011100518873A Pending CN102196354A (zh) 2010-03-09 2011-03-02 视听装置

Country Status (3)

Country Link
US (1) US9110366B2 (zh)
JP (1) JP2011188287A (zh)
CN (1) CN102196354A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109076306A (zh) * 2016-04-12 2018-12-21 皇家飞利浦有限公司 强调靠近焦距的声音源的空间音频处理

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2637427A1 (en) * 2012-03-06 2013-09-11 Thomson Licensing Method and apparatus for playback of a higher-order ambisonics audio signal
JP6228389B2 (ja) * 2013-05-14 2017-11-08 日本放送協会 音響信号再生装置
WO2020210841A1 (en) * 2019-04-12 2020-10-15 Daniel Seidel Projection system with interactive exclusion zones and topological adjustment
JP2020182049A (ja) * 2019-04-24 2020-11-05 セイコーエプソン株式会社 音出力制御方法および表示システム
US11501532B2 (en) 2019-04-25 2022-11-15 International Business Machines Corporation Audiovisual source separation and localization using generative adversarial networks

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117624A (ja) * 2003-09-16 2005-04-28 Seiko Epson Corp プロジェクタ
CN1691765A (zh) * 2004-04-20 2005-11-02 索尼株式会社 信息处理设备、成像设备、信息处理方法及程序
CN101039536A (zh) * 2006-01-26 2007-09-19 索尼株式会社 音频信号处理设备、音频信号处理方法及程序
JP2009044261A (ja) * 2007-08-06 2009-02-26 Yamaha Corp 音場形成装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2028484A (en) * 1933-11-20 1936-01-21 Synchrome Corp Motion picture projector
JPH07319487A (ja) * 1994-05-19 1995-12-08 Sanyo Electric Co Ltd 音像制御装置
JPH0884400A (ja) * 1994-09-12 1996-03-26 Sanyo Electric Co Ltd 音像制御装置
JP2003274500A (ja) * 2002-03-18 2003-09-26 Seiko Epson Corp サラウンド機能付き画像表示装置、方法、プログラムおよび記録媒体
JP2005286903A (ja) * 2004-03-30 2005-10-13 Pioneer Electronic Corp 音響再生装置、音響再生システム、音響再生方法及び制御プログラム並びにこのプログラムを記録した情報記録媒体
TW200602793A (en) * 2004-07-14 2006-01-16 Coretronic Corp Optical adjusted apparatus
JP2006078963A (ja) * 2004-09-13 2006-03-23 Canon Inc プロジェクター装置
JP2006180467A (ja) * 2004-11-24 2006-07-06 Matsushita Electric Ind Co Ltd 音像定位装置
US20070101394A1 (en) * 2005-11-01 2007-05-03 Yesvideo, Inc. Indexing a recording of audiovisual content to enable rich navigation
JP2007142875A (ja) 2005-11-18 2007-06-07 Sony Corp 音響特性補正装置
JP2007266967A (ja) * 2006-03-28 2007-10-11 Yamaha Corp 音像定位装置およびマルチチャンネルオーディオ再生装置
US8319858B2 (en) * 2008-10-31 2012-11-27 Fortemedia, Inc. Electronic apparatus and method for receiving sounds with auxiliary information from camera system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117624A (ja) * 2003-09-16 2005-04-28 Seiko Epson Corp プロジェクタ
CN1691765A (zh) * 2004-04-20 2005-11-02 索尼株式会社 信息处理设备、成像设备、信息处理方法及程序
CN101039536A (zh) * 2006-01-26 2007-09-19 索尼株式会社 音频信号处理设备、音频信号处理方法及程序
JP2009044261A (ja) * 2007-08-06 2009-02-26 Yamaha Corp 音場形成装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109076306A (zh) * 2016-04-12 2018-12-21 皇家飞利浦有限公司 强调靠近焦距的声音源的空间音频处理
CN109076306B (zh) * 2016-04-12 2021-04-13 皇家飞利浦有限公司 强调靠近焦距的声音源的空间音频处理

Also Published As

Publication number Publication date
JP2011188287A (ja) 2011-09-22
US9110366B2 (en) 2015-08-18
US20110221975A1 (en) 2011-09-15

Similar Documents

Publication Publication Date Title
US9936323B2 (en) System, apparatus and method for consistent acoustic scene reproduction based on informed spatial filtering
CN1235443C (zh) 多声道音频重放装置和方法
US8254583B2 (en) Method and apparatus to reproduce stereo sound of two channels based on individual auditory properties
RU2586842C2 (ru) Устройство и способ преобразования первого параметрического пространственного аудиосигнала во второй параметрический пространственный аудиосигнал
US8150061B2 (en) Sound generating method, sound generating apparatus, sound reproducing method, and sound reproducing apparatus
WO2010100873A1 (ja) カメラ付きスピーカ、信号処理装置、およびavシステム
CN102196354A (zh) 视听装置
EP1408718A1 (en) Sound image localizer
JP4620468B2 (ja) オーディオ信号を再生するためのオーディオ再生システムおよび方法
KR20060107328A (ko) 촬상 장치, 음성 기록 장치 및 음성 기록 방법
KR101673232B1 (ko) 수직 방향 가상 채널을 생성하는 장치 및 그 방법
CN105190743A (zh) 基于一个或多个收听者的位置来调整扬声器阵列的波束图案
EP2446642A1 (en) Method and apparatus for processing audio signals
JP2010206451A5 (zh)
WO1995022235A1 (fr) Systeme de reproduction visuelle et sonore
US10652686B2 (en) Method of improving localization of surround sound
CN100553372C (zh) 用于计算扬声器信号中成分的离散值的装置和方法
WO2014053875A1 (en) An apparatus and method for reproducing recorded audio with correct spatial directionality
CN113038343A (zh) 音频输出装置及其控制方法
JP4932694B2 (ja) 音声再生装置、音声再生方法、音声再生システム、制御プログラム、および、コンピュータ読み取り可能な記録媒体
US10602299B2 (en) Modifying an apparent elevation of a sound source utilizing second-order filter sections
Pausch et al. SCaLAr–A surrounding spherical cap loudspeaker array for flexible generation and evaluation of virtual acoustic environments
JP2008011342A (ja) 音響特性測定装置および音響装置
US20110280421A1 (en) Device for and a method of processing audio signals
WO2022034805A1 (ja) 信号処理装置および方法、並びにオーディオ再生システム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20110921