CN108781327A - 信息处理装置、信息处理方法以及程序 - Google Patents

信息处理装置、信息处理方法以及程序 Download PDF

Info

Publication number
CN108781327A
CN108781327A CN201780014902.2A CN201780014902A CN108781327A CN 108781327 A CN108781327 A CN 108781327A CN 201780014902 A CN201780014902 A CN 201780014902A CN 108781327 A CN108781327 A CN 108781327A
Authority
CN
China
Prior art keywords
information processing
image
control unit
processing unit
reflection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780014902.2A
Other languages
English (en)
Other versions
CN108781327B (zh
Inventor
井田健太郎
池田拓也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN108781327A publication Critical patent/CN108781327A/zh
Application granted granted Critical
Publication of CN108781327B publication Critical patent/CN108781327B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/34Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by using a single transducer with sound reflecting, diffracting, directing or guiding means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H7/00Measuring reverberation time ; room acoustic measurements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/18Methods or devices for transmitting, conducting or directing sound
    • G10K11/26Sound-focusing or directing, e.g. scanning
    • G10K11/28Sound-focusing or directing, e.g. scanning using reflection, e.g. parabolic reflectors
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/18Methods or devices for transmitting, conducting or directing sound
    • G10K11/26Sound-focusing or directing, e.g. scanning
    • G10K11/35Sound-focusing or directing, e.g. scanning using mechanical steering of transducers or their beams
    • G10K11/352Sound-focusing or directing, e.g. scanning using mechanical steering of transducers or their beams by moving the transducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/026Supports for loudspeaker casings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2217/00Details of magnetostrictive, piezoelectric, or electrostrictive transducers covered by H04R15/00 or H04R17/00 but not provided for in any of their subgroups
    • H04R2217/03Parametric transducers where sound is generated or captured by the acoustic demodulation of amplitude modulated ultrasonic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Stereophonic System (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本发明涉及信息处理装置、信息处理方法和程序,其使得可以提高对来自反射式扬声器的声音的满意度。视听(AV)系统设置有声学控制单元,其基于来自反射式扬声器的输出声音的反射位置来控制该输出声音的输出。本技术可以适用于例如使用驱动型投影仪和驱动型扬声器的AV系统。本技术还可以适用于使用配备有反射型扬声器的驱动型投影仪的AV系统。

Description

信息处理装置、信息处理方法以及程序
技术领域
本技术涉及信息处理装置、信息处理方法和程序,并且更具体地,涉及当对反射式扬声器进行输出控制时有利地使用的信息处理装置、信息处理方法和程序。
背景技术
传统上,已知一种反射式扬声器,其通过使来自扬声器的输出声音击中墙壁等并被反射而在反射位置处生成虚拟声源,以使用户感觉好像声音是从该虚拟声源输出的(参见例如专利文献1)。
例如使用具有锐利方向性(sharp directivity)的超指向性扬声器、例如超声扬声器(参量扬声器)作为反射式扬声器。
引用列表
专利文献
专利文件1:日本专利申请特许公开第2010-56710号
发明内容
本发明要解决的问题
然而,虽然反射式扬声器可以自由地设定虚拟声源的位置(反射位置),但是例如会由于到虚拟声源的距离或反射位置的材料导致音量变得过小,或者由于虚拟声源的位置离图像的显示位置太远而导致可能产生不舒服的感觉。
因此,本技术提高了对反射式扬声器的声音的满意度。
技术问题的解决方案
本技术的一方面的信息处理装置包括声学控制单元,其被配置成基于来自反射式扬声器的输出声音的反射位置来控制该输出声音的输出。
该信息处理装置可以使声学控制单元基于下述中的至少之一来控制输出声音的输出:从反射式扬声器到反射位置的距离以及从反射位置到用户的距离。
该信息处理装置可以使声学控制单元基于反射位置的反射特性来控制输出声音的输出。
该信息处理装置可以使反射式扬声器输出超声波的输出声音并且使得该输出声音的输出方向可变,并且该信息处理装置还可以包括映射生成单元(map generationunit),其被配置成在反射式扬声器对输出声音进行反射的空间中扫描输出声音,并且基于对反射声音的检测结果来生成包括该空间中的反射特性的空间映射。
该信息处理装置可以使映射生成单元基于对反射声音的检测结果来生成包括空间的三维形状的空间映射。
该信息处理装置可以使反射式扬声器使得输出声音的输出方向可变,并且可以使声学控制单元根据来自反射式扬声器的输出声音的输出方向来控制反射位置。
该信息处理装置可以使声学控制单元基于输出声音所对应的图像的显示位置来控制反射位置。
该信息处理装置可以使声学控制单元基于反射式扬声器对输出声音进行反射的空间中的反射特性来控制反射位置。
该信息处理装置可以使声学控制单元基于下述中的至少之一来控制反射位置:作为由用户指定的位置的指向位置和该用户的视线方向。
该信息处理装置可以使得:当存在要在指向位置显示的图像时,声学控制单元使反射式扬声器朝向反射位置输出与图像对应的输出声音。
还设置有图像控制单元,其被配置成基于指向位置来控制图像的显示,并且该信息处理装置可以使得:当存在要在指向位置显示的图像时,图像控制单元在该指向位置显示图像。
该信息处理装置可以使得:当存在要在用户的视线方向上显示的图像时,声学控制单元使反射式扬声器朝向反射位置输出与该图像对应的输出声音。
还设置有图像控制单元,其被配置成基于用户的视线方向来控制图像的显示,并且该信息处理装置可以使得:当存在要在用户的视线方向上显示的图像时,该图像控制单元在用户的视线方向上显示图像。
该信息处理装置可以使声学控制单元基于输出声音所对应的图像的内容来控制反射位置。
该信息处理装置可以使声学控制单元基于图像中的移动体的运动来控制反射位置。
该信息处理装置可以使声学控制单元控制输出声音的特性。
还可以设置有反射式扬声器。
还可以设置具有可变的图像投影方向的投影仪,并且该信息处理装置可以使反射式扬声器使得输出声音的输出方向可变。
本技术的一方面的信息处理方法包括:基于来自反射式扬声器的输出声音的反射位置来控制该输出声音的输出的声学控制步骤。
本技术的一方面的程序使得计算机执行以下处理,该处理包括基于来自反射式扬声器的输出声音的反射位置来控制输出声音的输出的声学控制步骤。
在本技术的一个方面中,基于来自反射式扬声器的输出声音的反射位置来控制该输出声音的输出。
本发明的有益效果
根据本技术的一个方面,提高了对反射式扬声器的声音的满意度。
应注意,本文所描述的效果不必然是限制性的,并且可以展现本公开中描述的任何效果。
附图说明
图1是示出应用了本技术的AV系统的第一实施方式的框图。
图2是示出图1中的AV系统的驱动型投影仪和驱动型扬声器的外观的配置示例的示意图。
图3是用于描述由图1中的AV系统执行的空间映射生成处理的流程图。
图4是用于描述生成空间映射的方法的图。
图5是用于描述计算反射率的方法的图。
图6是用于描述由图1中的AV系统执行的图像声学控制处理的流程图。
图7是用于描述通过指向设备设定显示位置的示例的图。
图8是用于描述通过用户的视线方向设定显示位置的示例的图。
图9是用于描述反射式扬声器的音量控制的图。
图10是示出应用了本技术的AV系统的第二实施方式的框图。
图11是示出图10中的AV系统的驱动型投影仪的外观的配置示例的示意图。
图12是示出计算机的配置示例的框图。
具体实施方式
在下文中,将参照附图详细描述用于实施本发明的模式(以下称为“实施方式”)。注意,将按如下顺序给出描述。
1.实施方式
2.修改
<实施方式>
{AV系统10的配置示例}
首先,将参照图1和图2描述应用了本技术的视听(audio visual,AV)系统10的配置示例。图1是示出AV系统10的功能配置示例的框图。图2是示出图10中的AV系统的驱动型投影仪11和驱动型扬声器12的外观的配置示例的示意图。
AV系统10是将图像投影到预定空间(在下文中称为显示空间)中并且输出伴随该图像的声音的系统。此外,AV系统10可以自由地改变显示空间中的图像的显示位置和虚拟声源的位置,并且例如用于投影映射等。
AV系统10包括驱动型投影仪11、驱动型扬声器12、传感器单元13、操作单元14、信息处理装置15和信息处理装置16。
驱动型投影仪11是图像的投影方向可变的投影仪。驱动型投影仪11包括投影仪31、深度传感器32和驱动单元33。如图2所示,在驱动型投影仪11中,深度传感器32安装在驱动单元33上,并且投影仪31安装在深度传感器32上。
投影仪31在信息处理装置15的控制下将基于从信息处理装置15提供的图像数据的图像投影到显示空间中的墙壁等上。注意,投影仪31的方法不限于特定方法,而是可以采用任何方法。
深度传感器32在信息处理装置15的控制下使用例如红外光来拍摄指示显示空间中的每个位置距深度传感器32的距离的距离图像,并且将拍摄的距离图像提供给信息处理装置15。注意,可以采用例如飞行时间(TOF)法、图案照射法或立体摄像装置法的任何方法作为深度传感器32的方法。
驱动单元33在信息处理装置15的控制下控制投影仪31的投影方向和深度传感器32的拍摄方向。驱动单元33包括平移马达(pan motor)41、俯仰马达(tilt motor)42和马达控制单元43。
平移马达41是使投影仪31和深度传感器32沿平移方向(水平方向)旋转的马达。
俯仰马达42是使投影仪31和深度传感器32沿俯仰方向(竖直方向)旋转的马达。
马达控制单元43在信息处理装置15的控制下控制平移马达41和俯仰马达42的旋转。
注意,驱动单元33还可以被配置成例如可沿横摆方向(yaw direction)(围绕图像的投影方向上的主轴)旋转。此外,驱动单元33还可以包括诸如马达和轮子的移动机制。
驱动型扬声器12是根据待由驱动型投影仪11在显示空间中投影的图像来输出声音的单元。如图2所示,在驱动型扬声器12中,反射式扬声器51安装在驱动单元52上。
反射式扬声器51是在信息处理装置16的控制下通过在显示空间中的期望位置处输出并反射输出声音来在反射位置处生成虚拟声源的扬声器。用户感觉到正在从虚拟声源的位置输出声音。反射式扬声器51的系统并不受特别限制,只要反射式扬声器51是能够在反射位置处生成虚拟声源的扬声器即可。例如,通过具有锐利方向性的超指向性扬声器来配置反射式扬声器51。
注意,如下文将描述的,在基于相对于反射式扬声器51的输出声音的反射声音来创建显示空间的空间映射时,期望从反射式扬声器51输出超声波的输出声音。例如,期望通过输出通过以预定方法调制包括超声波的载波而获得的信号的超声扬声器(参量扬声器)来配置反射式扬声器51。
注意,在下文中,在一些情况下,反射式扬声器51向虚拟声源输出输出声音并在虚拟声源处反射该输出声音被表述为从虚拟声源输出声音。
驱动单元52在信息处理装置15的控制下控制反射式扬声器51的输出方向。驱动单元52包括平移马达61、俯仰马达62和马达控制单元63。
平移马达61是使反射式扬声器51沿平移方向(水平方向)旋转的马达。
俯仰马达62是使反射式扬声器51沿俯仰方向(竖直方向)旋转的马达。
马达控制单元63在信息处理装置15的控制下控制平移马达61和俯仰马达62的旋转。
注意,驱动单元52还可以被配置成例如可沿横摆方向(围绕输出声音的输出方向上的主轴)旋转。此外,驱动单元52还可以包括诸如马达和轮子的移动机制。
传感器单元13包括摄像装置71、鱼眼摄像装置72和麦克风73。
摄像装置71拍摄显示空间的内部并且向信息处理装置15提供作为拍摄的结果而获得的图像(在下文中该图像被称为显示空间图像)。显示空间图像例如用于检测显示空间中的用户的位置、视线方向、肢体动作(gesture)等。
鱼眼摄像装置72由包括鱼眼镜头的摄像装置配置并且拍摄超广角图像。鱼眼摄像装置72向信息处理装置15提供作为拍摄的结果而获得的图像(在下文中该图像被称为鱼眼图像)。鱼眼图像用于例如检测从指向设备81发射的红外光的照射位置(指向位置)。
麦克风73用于例如检测相对于来自反射式扬声器51的输出声音的反射声音的方向。麦克风73向信息处理装置16提供指示检测到的声音的音频信号。
操作单元14包括指向设备81。
指向设备81是供用户用来指向期望位置的操作设备。例如,指向设备81用红外光照射某位置以指向与用户利用红外光的操作对应的位置(指向位置)。
注意,指向设备81可以通过专用设备或者由诸如智能电话和远程控制器的可用于其他用途的通用设备配置。
信息处理装置15通过例如计算机、或诸如CPU的处理器、存储器等配置。信息处理装置15主要用于控制驱动型投影仪11。
信息处理装置15包括接口(I/F)单元101、指向位置检测单元102、用户检测单元103、映射生成单元104、存储单元105、输入单元106和图像控制单元107。
I/F单元101通过例如通信设备、连接器等配置。I/F单元101向信息处理装置16、投影仪31、深度传感器32、马达控制单元43、摄像装置71和鱼眼摄像装置72发送数据等以及从其接收数据等。此外,I/F单元101将接收到的数据等提供给信息处理装置15的每个单元,并从信息处理装置15的每个单元获取要发送的数据等。
注意,可以采用任何有线或无线方法作为I/F单元101的通信方法。此外,I/F单元101的通信方法可以针对与其进行通信的每个目标而改变。此外,I/F单元101可以例如直接与每个通信目标进行通信或者可以经由网络等来进行通信。
指向位置检测单元102基于由鱼眼摄像装置72拍摄的鱼眼图像来检测指向设备81的指向位置。指向位置检测单元102将检测结果提供给图像控制单元107,并且经由I/F单元101将检测结果提供给信息处理装置15。
注意,可以采用任何方法作为指向位置检测单元102的检测方法。
用户检测单元103基于由摄像装置71拍摄的显示空间图像来检测例如显示空间中的用户的位置、视线方向、肢体动作等。用户检测单元103将检测结果提供给图像控制单元107,并且经由I/F单元101将检测结果提供给信息处理装置16。
注意,可以采用任何方法作为用户检测单元103的检测方法。
映射生成单元104经由I/F单元101控制深度传感器32和马达控制单元43,从而控制深度传感器32对显示空间中的距离图像的拍摄。然后,映射生成单元104利用该距离图像来执行显示空间内部的空间识别,并生成指示显示空间中的对象、墙壁等的三维形状的第一空间映射。第一空间映射包括例如三维点群映射,并且包括指示显示空间中的每个位置距驱动型投影仪11(深度传感器32)的距离的深度信息。
此外,映射生成单元104经由I/F单元101从信息处理装置16获取第二空间映射,并且生成通过对第一空间映射和第二空间映射进行整合而获得的综合空间映射(integratedspace map)。该综合空间映射包括例如指示显示空间中的每个位置距驱动型投影仪11(深度传感器32)的距离的深度信息、指示每个位置的反射特性(例如反射率、反射角度等)的反射特性信息以及指示显示空间中的每个位置处的图像显示的可用性(图像的投影的可用性)的显示特征信息。映射生成单元104使存储单元105存储所生成的综合空间映射,并且经由I/F单元101将所生成的综合空间映射提供给信息处理装置16。
此外,映射生成单元104例如基于第一空间映射来检测显示空间中的驱动型扬声器12、麦克风73等的位置。映射生成单元104将检测结果提供给图像控制单元107并且经由I/F单元101将检测结果提供给信息处理装置16。
注意,可以基于由摄像装置71拍摄的显示空间图像来检测例如驱动型扬声器12、麦克风73等的位置。
输入单元106通过例如操作设备等配置,并且用于向图像控制单元107输入命令、数据(例如图像数据)等。
图像控制单元107控制驱动型投影仪11对图像的显示。例如,图像控制单元107经由I/F单元101控制投影仪31,从而控制待显示的图像的内容和显示定时等。此外,例如,图像控制单元107通过经由I/F单元101控制马达控制单元43并且控制投影仪31的图像的投影方向来控制图像的显示位置。此外,图像控制单元107经由I/F单元101将指示图像的显示位置的信息提供给信息处理装置16。
信息处理装置16通过例如计算机、或诸如CPU的处理器、存储器等配置。信息处理装置16主要用于控制驱动型扬声器12。
信息处理装置16包括接口(I/F)单元121、映射生成单元122、存储单元123、输入单元124和声学控制单元125。
I/F单元121通过例如通信设备、连接器等配置。I/F单元121向信息处理装置15、反射式扬声器51、马达控制单元63和麦克风73发送数据等以及从其接收数据等。此外,I/F单元121将接收到的数据等提供给信息处理装置16的每个单元,并从信息处理装置16的每个单元获取要发送的数据等。
注意,可以采用任何有线或无线方法作为I/F单元121的通信方法。此外,I/F单元121的通信方法可以针对与其进行通信的每个目标而改变。此外,I/F单元121可以例如直接与每个通信目标进行通信或者可以经由网络等来进行通信。
此外,映射生成单元122经由I/F单元121控制反射式扬声器51和马达控制器63,从而控制显示空间中对来自反射式扬声器51的输出声音的扫描。然后,映射生成单元122基于当在显示空间中扫描输出声音时由麦克风73检测到的反射声音的检测结果来执行对显示空间内部的空间识别,并生成指示显示空间中的对象、墙壁等的三维形状的第二空间映射。第二空间映射包括例如三维点群映射,并且包括指示显示空间中的每个位置距驱动型扬声器12(反射式扬声器51)的距离的深度信息以及指示每个位置的反射特性的反射特性信息。映射生成单元104经由I/F单元121将生成的第二空间映射提供给信息处理装置15。
此外,映射生成单元122经由I/F单元121从信息处理装置15获取综合空间映射,并且使存储单元123存储该综合空间映射。
输入单元124通过例如操作设备等配置,并且用于向声学控制单元125输入命令、数据(例如图像数据)等。
声学控制单元125控制驱动型扬声器12的输出声音的输出。例如,声学控制单元125经由I/F单元121控制反射式扬声器51,从而控制输出声音的内容、音量、输出定时等。此外,例如,声学控制单元125通过经由I/F单元121控制马达控制单元63以控制反射式扬声器51的输出方向来控制输出声音的反射位置(即虚拟声源的位置)。
注意,在下文中,为了易于理解描述,适当地省略了对信息处理装置15的I/F单元101和信息处理装置16的I/F单元121的描述。例如,当映射生成单元104经由I/F单元101将综合空间映射提供给信息处理装置16时,简单地描述为映射生成单元104将综合空间映射提供给信息处理装置16。
{AV系统10的处理}
接下来,将参照图3至图9来描述AV系统10的处理。
(空间映射生成处理)
首先,将参照图3中的流程图描述由AV系统10执行的空间映射生成处理。注意,例如当安装驱动型投影仪11和驱动型扬声器12时或者当驱动型投影仪11和驱动型扬声器12中的至少一个的安装位置移动时,该处理开始。
在步骤S1中,AV系统10测量显示空间的内部。具体地,如图4所示,映射生成单元104控制马达控制单元43以使驱动单元33沿平移方向和俯仰方向旋转,并使深度传感器32扫描显示空间中的所有区域。通过扫描,深度传感器32拍摄了显示空间中的所有区域,并且获得指示每个区域距深度传感器32的距离的距离图像。深度传感器32将拍摄的距离图像提供给映射生成单元104。
此外,如图4所示,映射生成单元122控制马达控制单元63以使驱动单元52沿平移方向和俯仰方向旋转,并且在显示空间的所有区域中扫描从反射式扬声器51输出的输出声音(超声波信号)。通过扫描,麦克风73检测到相对于来自显示空间中的所有区域的输出声音的反射声音。麦克风73将指示检测结果的音频信号提供给映射生成单元122。
注意,在图4中,为了易于理解附图而省略了投影仪31的图示。
在步骤S2中,映射生成单元104和映射生成单元122生成空间映射。具体地,映射生成单元104基于由深度传感器32拍摄的距离图像来生成第一空间映射。第一空间映射包括指示显示空间中的每个位置距深度传感器32的距离的深度信息。
注意,由于深度传感器32利用红外光反射,因此在第一空间映射中缺少诸如黑墙、混凝土、玻璃等的不能使用红外光反射的区域的深度信息。
此外,映射生成单元104基于第一空间映射来检测显示空间中的驱动型扬声器12、麦克风73等的位置。映射生成单元104将检测结果提供给信息处理装置16的映射生成单元122。
映射生成单元122基于来自麦克风73的音频信号来生成第二空间映射。具体地,映射生成单元122基于输出声音的输出方向、反射式扬声器51和麦克风73的位置以及从输出声音被输出到反射声音被接收的时间来计算从反射式扬声器51和麦克风73到显示空间中的每个位置的距离。
此外,映射生成单元122基于反射声音的音量来计算显示空间中的每个位置的反射率。例如,将描述如图5所示的下述情况:从反射式扬声器51输出的输出声音在反射位置P1处被反射,并且该输出声音的反射声音被麦克风73检测到。注意,在下文中,反射式扬声器51与反射位置P1之间的距离为L1,并且反射位置P1与麦克风73之间的距离为L2。
这里,在假定所有输出声音在反射位置P1处不被衰减地沿麦克风73的方向被反射的情况下(假定反射率为100%的情况下),由麦克风73检测到的反射声音相对于输出声音的衰减量可以通过距离L1+距离L2来估计。在下文中将该情况中的衰减量称为基准衰减量。
同时,实际上,输出声音在反射位置P1处会被扩散或吸收,因此沿麦克风73方向反射的反射声音的音量较小。因此,映射生成单元122根据由麦克风73实际检测到的反射声音相对于输出声音的衰减量与基准衰减量的比率来估计反射位置P1的反射率。
然后,映射生成单元122生成第二空间映射,其包括指示显示空间中的每个位置距反射式扬声器51的距离的深度信息以及指示显示空间中的每个位置的反射率的反射特性信息。
注意,即使某区域由于不能使用红外光反射而缺少第一空间映射中的深度信息,只要可以在该区域中使用输出声音(超声波信号)反射,也可以获得该区域的深度信息。
映射生成单元122将生成的第二空间映射提供给信息处理装置15的映射生成单元104。
在步骤S3中,映射生成单元104对空间映射进行整合。具体地,映射生成单元104用第二空间映射中的深度信息来补充在第一空间映射中缺少深度信息的区域的深度信息。注意,由于第二空间映射中的深度信息是基于反射式扬声器51的位置的,因此映射生成单元104将该深度信息转换为基于深度传感器32的位置的深度信息。
此外,映射生成单元104生成指示在显示空间中的每个位置处是否可显示图像的显示特性信息。例如,映射生成单元104确定在第一空间映射中获得深度信息的位置是可显示图像的位置。而且,映射生成单元104基于第二空间映射的反射特性信息来估计在第一空间映射中缺少深度信息的位置的硬度和表面材料。然后,映射生成单元104基于所估计的硬度和表面材料来确定在第一空间映射中缺少深度信息的位置处是否可以显示图像。
注意,映射生成单元104可以将在第一空间映射中缺少深度信息的所有位置确定为难以显示图像的位置。此外,例如,信息处理装置16的映射生成单元122可以生成显示特性信息。
此外,映射生成单元104将第二空间映射中的显示空间中的每个位置的反射特性信息原样用作综合空间映射的反射特性信息。
以这种方式,映射生成单元104生成包括显示空间中的每个位置的深度信息、显示特性信息和反射特性信息的综合空间映射。
映射生成单元104使存储单元105存储所生成的综合空间映射。此外,映射生成单元104将该综合空间映射提供给信息处理装置16的映射生成单元122。
映射生成单元122根据基于深度传感器32的位置的信息来将综合空间映射中的深度信息转换为基于反射式扬声器51的位置的信息。映射生成单元122使存储单元123存储转换后的综合空间映射。
此后,终止空间映射生成处理。
(显示声学控制处理)
接下来,将参照图6中的流程图描述由AV系统10执行的图像声学控制处理。
在步骤S51中,信息处理装置15设定显示位置。这里,将描述设定显示位置的方法的示例。
首先,将参照图7描述利用眼镜型指向设备81设定显示位置的情况的示例。注意,在图7中,为了易于理解附图而省略了深度传感器32的图示。
例如,如果佩戴指向设备81的用户U1将他/她的脸部转向用户U1希望显示图像的方向,则从指向设备81沿着用户U1将他/她的脸部转向的方向发射红外光。然后,指向位置检测单元102基于由鱼眼摄像装置72拍摄的鱼眼图像来检测用指向设备81指定的指向位置。指向位置检测单元102将指向位置P2的检测结果提供给图像控制单元107。
图像控制单元107参照指向位置P2来设定显示位置。例如,图像控制单元107基于从投影仪31到指向位置P2的距离来计算要在其上投影图像的投影区域的大小。然后,图像控制单元107设定投影区域的位置,使得投影区域的中心与指向位置P2一致。
接下来,图像控制单元107基于综合空间映射的显示特性信息来确认在所设定的投影区域中是否包括难以显示图像的区域。然后,当在投影区域中包括难以显示图像的区域时,图像控制单元107校正投影区域的位置以使得不包括该区域。此时,例如,校正投影区域的位置使得该投影区域的移动量最小化。
接下来,将参照图8描述基于用户的视线方向来设定显示位置的情况的示例。注意,在图8中,为了易于理解附图而省略了深度传感器32的图示。
例如,用户检测单元103基于由摄像装置71拍摄的显示空间图像来检测用户U2的视线方向S1。用户检测单元103将对视线方向S1的检测结果提供给图像控制单元107。图像控制单元107基于综合空间映射的深度信息来检测视线方向S1与显示空间中的平面的交叉点P3。然后,图像控制单元107通过与使用指向位置P2作为基准的情况的方法类似的方法参照交叉点P3来设定投影区域的位置。
注意,设定显示位置的方法不限于该示例。例如,图像控制单元107可以检测用户用肢体动作指定的位置(例如被指向的位置)作为指向位置,并且参照检测到的该指向位置来设定显示位置。
图像控制单元107将指示所设定的显示位置(投影区域的位置)的信息提供给信息处理装置16的声学控制单元125。
在步骤S52中,声学控制单元125基于显示位置来设定虚拟声源的位置。例如,声学控制单元125将由图像控制单元107设定的投影区域的中心设定为虚拟声源的位置。
接下来,声学控制单元125基于综合空间映射的反射特性信息来确定设定的虚拟声源的位置是否合适。例如,当虚拟声源的位置的反射率为预定阈值或更大时,声学控制单元125确定虚拟声源的位置是合适的。在另一方面,当虚拟声源的位置的反射率小于预定阈值时,声学控制单元125确定虚拟声源的位置不合适。
然后,当声学控制单元125确定虚拟声源的位置不合适时,声学控制单元125对虚拟声源的位置进行校正。例如,声学控制单元125将虚拟声源的位置校正到投影区域中的反射率为预定阈值或更大的位置中的距离当前的虚拟声源位置最近的位置。注意,例如当投影区域中不存在反射率为预定阈值或更大的位置时,声学控制单元125将虚拟声源的位置校正到投影区域外的反射率为预定阈值或更大的位置中的距离当前的虚拟声源位置最近的位置。
在步骤S53中,声学控制单元125基于虚拟声源的位置设定音量。例如,如图9所示,将描述将虚拟声源设定到位置P4的情况。
声学控制单元125从信息处理装置15的用户检测单元103获取对用户U3的位置的检测结果。此外,声学控制单元125基于综合空间映射来获得反射式扬声器51与虚拟声源P4之间的距离L3、虚拟声源P4与用户U3之间的距离L4以及虚拟声源P4的反射率。声学控制单元125基于距离L3和L4以及虚拟声源P4的反射率,计算在用户U3的位置处来自虚拟声源P4的反射声音的音量变为预定水平时的输出声音的音量。声学控制单元125将计算出的音量设定为输出声音的音量。
注意,例如可以使用仅距离L3和距离L4中的一个来计算音量。
此外,例如可以将用户U3的位置处的音量水平设定成无论距虚拟声源P4的距离为何均为恒定或者可以根据距虚拟声源P4的距离而改变。
在后一种情况下,例如,可以将用户U3的位置处的音量水平设定成随着距离L3和L4的总和变长而变小,并且可以将用户U3的位置处的音量设定成随着距离L3和L4的总和变短而变大。可替选地,例如,可以将用户U3的位置处的音量水平设定成随着距离L3变长而变小,并且可以将用户U3的位置处的音量可以设定为随着距离L3变短而变大。可替选地,例如,可以将用户U3的位置处的音量水平设定成随着距离L4变长而变小,并且可以将用户U3的位置处的音量设定成随着距离L4变短而变大。
在步骤S54中,AV系统10根据设置开始输出图像和声音。具体地,图像控制单元107控制马达控制单元43以调整投影仪31的方向,使得来自投影仪31的图像被投影到设定的投影区域中。声学控制单元125控制马达控制单元63以调整反射式扬声器51的方向,使得来自反射式扬声器51的输出声音击中设定的虚拟声源位置。
然后,图像控制单元107和声学控制单元125开始以彼此同步的方式从投影仪31投影图像以及从反射式扬声器51输出声音。此时,例如,图像控制单元107执行几何校正等以使投影图像不会失真。此外,声学控制单元125将输出声音的音量设定为在步骤S53的处理中设定的音量。
在步骤S55中,图像控制单元107确定是否改变显示位置。当确定不改变显示位置时,处理进行到步骤S56。
在步骤S56中,声学控制单元125确定是否改变音量。当确定不改变音量时,处理进行到步骤S57。
在步骤S57中,图像控制单元107确定是否停止图像和声音。当确定不停止图像和声音时,处理返回到步骤S55。
此后,重复执行步骤S55至S57的处理,直到在步骤S55中确定改变显示位置、在步骤S56中确定改变音量或者在步骤S57中确定停止图像和声音为止。
在另一方面,在步骤S55中,例如,当图像控制单元107检测到改变显示位置的触发时,图像控制单元107确定改变显示位置并且处理返回到步骤S51。这里,改变显示位置的触发例如是驱动型投影仪11的移动、利用指向设备81或肢体动作指定的指向位置的移动、用户视线的移动等。此后,执行步骤S51和后续步骤中的处理。改变显示位置,并且随着显示位置的改变而改变虚拟声源的位置和音量。
此外,在步骤S56中,例如,当声学控制单元125检测到改变音量的触发时,声学控制单元125确定改变音量并且处理返回到步骤S53。这里,改变音量的触发例如是驱动型扬声器12的移动、用户的移动等。此后,执行步骤S53和后续步骤中的处理,并且改变音量而不改变显示位置。
此外,在步骤S57中,例如当经由输入单元106输入了停止图像和声音的命令时,图像控制单元107确定停止图像和声音并且处理进行到步骤S58。
在步骤S58中,AV系统10使图像和声音停止。具体地,图像控制单元107指示声学控制单元125停止输出声音。然后,图像控制单元107停止从投影仪31投影图像。此外,声学控制单元125停止来自反射式扬声器51的输出声音的输出。
此后,终止图像声学控制处理。
如上所述,图像和虚拟声源可以根据指向位置或视线的运动而自动移动到用户期望的位置。此外,投影图像以避免难以显示的位置,因此有利地保持了图像质量。
此外,由于虚拟声源的位置是根据图像的显示位置而设定的,因而用户会感觉到声音好像是从图像输出的,因此增加了真实感并且改进了对声音的满意度。
此外,由于基于虚拟声源的位置和反射率适当地调整输出声音的音量并且基于反射率校正虚拟声源的位置,因此可以防止对声音产生不适感。
<2.修改>
在下文中,将描述本技术的上述实施方式的修改。
{关于对图像和虚拟声源的控制的修改}
在以上描述中,已经描述了根据指向位置或用户视线的运动来移动图像的显示位置和虚拟声源的位置的情况。然而,当指向位置或用户视线满足预定条件时,也可以显示图像或者可以输出声音。
例如,预先确定图像在显示空间中的显示位置和显示内容并且将其信息预先登记在综合空间映射中。于是,例如,当指向位置与在综合空间映射中设定的显示位置不一致时,即,当不存在要在指向位置处显示的图像时,图像控制单元107和声学控制单元125执行控制以不显示图像或不输出输出声音。在另一方面,例如,当指向位置与在综合空间映射中设定的显示位置一致时,即,当存在要在指向位置处显示的图像时,图像控制单元107显示对该显示位置设定的显示内容的图像。此外,声学控制单元125基于显示位置来设定虚拟声源的位置,并且输出与待显示的图像对应的输出声音。
可替选地,例如,当用户的视线位置与在综合空间映射中设定的显示位置不一致时,即,当不存在要在用户的视线方向上显示的图像时,图像控制单元107和声学控制单元125执行控制以不显示图像或不输出输出声音。在另一方面,例如,当用户的视线位置与在综合空间映射中设定的显示位置一致时,即,当存在要在用户的视线方向上显示的图像时,图像控制单元107显示对该显示位置设定的显示内容的图像。此外,声学控制单元125基于显示位置来设定虚拟声源的位置,并且输出与待显示的图像对应的输出声音。
该技术可以应用于例如游戏。例如,在显示空间中预设敌方的位置。用户移动指向位置或视线以在显示空间中搜索敌方。然后,当指向位置或视线与敌方存在的位置一致时,图像控制单元107在该位置处投影敌方的图像,并且声学控制单元125基于待显示的敌方的位置设定虚拟声源的位置并且开始输出敌方的声音。这提高了游戏的真实感。
注意,图像的显示位置不仅可以被设定到一个地方,还可以被设定到多个地方。此外,图像的显示位置不必然是固定的而是可以随时间移动。利用该配置,例如,在上述游戏示例中,可以移动敌方,并且可以通过使指向位置或视线与移动的敌方的位置一致来开始对敌方图像和声音的输出。
此外,在上述游戏示例中,例如,指向设备81被设定为枪型设备。当通过指向该指向设备81来执行开枪的动作时并且当敌方存在于所指向的位置时,可以显示敌方跌倒的图像并且可以输出敌方跌倒的声音。
此外,声学控制单元125可以将虚拟声源设定在在显示空间中设定的显示位置处,并且通过从虚拟声源输出声音来向用户通知显示位置。然后,当用户在输出声音的方向、即虚拟声源的方向上移动指向位置或视线时,可以在该位置处显示图像。利用该配置,例如,在上述游戏示例中,可以在不显示图像的情况下通过声音提供对敌方位置的通知。此外,用户可以通过根据敌方的运动而移动虚拟声源的位置来识别敌方靠近或离开的状态。
此外,AV系统10可以通过移动虚拟声源的位置来向用户通知图像的显示位置。例如,当用户将他/她的视线转向与图像不同的方向时,声学控制单元125将虚拟声源的位置设定到用户的视线方向并从虚拟声源输出声音。然后,声学控制单元125可以吸引用户的注意力并通过将虚拟声源的位置逐渐移向图像的显示位置来向用户通知图像的存在。
此外,可以根据图像的内容来移动虚拟声源的位置。例如,当图像中存在移动体时,声学控制单元125可以通过根据移动体的运动而移动虚拟声源的位置来使用户感觉到声音好像是从移动体输出的。例如,通过根据图像中的角色移动虚拟声源,用户可以体验到角色与该用户对话。
注意,当移动体从视角内移动到视角外时,虚拟声源的位置可以从视角的内移动到视角外。相反,当移动体从视角外移动到视角内时,虚拟声源的位置可以从视角外移动到视角内。例如,当汽车驶离时,可以通过根据汽车的运动将虚拟声源的位置从视角内移动到视角外来增加真实感。此外,例如可以实现被棒球击球手击中的球向后飞行掠过用户的真实体验。
此外,可以通过提供多个驱动型扬声器12来安装多个虚拟声源。利用该配置,例如可以将不同的虚拟声源分别安装到图像中的多个移动体,并且可以根据移动体的运动而单独移动虚拟声源的位置,从而增强真实感。
此外,例如可以通过以与环绕系统中的扬声器的布置类似的方式布置虚拟声源来实现环绕系统。在这种情况下,驱动型扬声器12的安装位置具有比普通扬声器的安装位置更高的自由度。因此,可以更容易地实现环绕系统。
此外,例如可以通过将一个图像的投影区域划分为多个区域、在每个划分的区域中放置虚拟声源并使相应的虚拟声源主要共享该区域的声音输出,来进一步增强真实感。注意,虚拟声源的位置可以在区域内或区域外。例如,可以通过将投影区域划分为2×2的四个区域、将虚拟声源布置在投影区域的四个角落中或者布置在投影区域外但是在投影区域的四个角落附近的位置中,并且使每个区域附近的虚拟声源主要输出与该区域中的图像对应的声音,来进一步增强真实感。
此外,本技术还可以应用于投影仪31不是驱动型投影仪并且手动改变位置和方向的情况。例如,当手动改变投影仪31的位置和方向时,声学控制单元125通过上述方法,基于显示位置控制虚拟声源的位置,或者基于虚拟声源的位置控制来自反射式扬声器51的输出声音的音量。
注意,例如可以通过对投影仪31设置加速度传感器、陀螺仪传感器等来检测投影仪31的位置和方向。
此外,本技术还可以应用于投影仪31的位置固定并且图像的显示位置固定的情况。也就是说,声学控制单元125通过上述方法,基于固定图像的显示位置或者图像的内容,可以控制虚拟声源的位置,或者可以控制反射式扬声器51的输出声音的音量。
此外,本技术可以应用于使用具有屏幕的显示设备而不是投影型投影仪31的情况。例如,声学控制单元125通过上述方法,基于显示图像的屏幕的位置和图像的内容,可以控制虚拟声源的位置,或者可以控制反射式扬声器51的输出声音的音量。此外,例如,可以通过将屏幕划分为多个区域、将虚拟声源放置在每个区域中的屏幕内或屏幕外,并使相应的虚拟声源主要共享该区域的声音输出,来进一步增强真实感。
此外,本技术还可以应用于反射式扬声器51不是驱动型并且手动改变位置和方向的情况。具体地,当反射式扬声器51不是驱动型扬声器时,可以通过安装反射式扬声器51来唯一地确定虚拟声源的位置。于是,例如声学控制单元125可以通过上述方法,基于到设定的虚拟声源的距离以及该虚拟声源的位置的反射率,控制来自反射式扬声器51的输出声音的音量。
此外,声学控制单元125可以使用除反射率之外的反射特性来设定虚拟声源的位置。例如,声学控制单元125基于综合空间映射的深度信息来识别显示空间的形状,并且计算反射位置与输出声音的角度,由此估计作为一种类型的反射特性的反射声音的反射方向(反射角度)。因此,例如,声学控制单元125可以对虚拟声源设定大量输出声音被反射到用户方向的位置。通过该设置,用户可以确切地听到声音。此外,例如,声学控制单元125可以通过基于显示空间的表面材料对虚拟声源设定输出声音被镜面反射的位置,以允许处于特定位置的用户听到声音。
{关于系统配置示例的修改}
图1中的AV系统10的配置示例是示例,并且可以根据需要来改变。
例如,可以改变信息处理装置15和信息处理所述16的功能的分配。此外,例如可以将信息处理装置15和信息处理装置16放在一起。
此外,例如可以将信息处理装置15的部分或全部功能设置在驱动型投影仪11中,或者可以将信息处理装置15和信息处理装置16的部分或全部功能设置在投影仪11中。此外,例如,可以将驱动型投影仪11设置在信息处理装置15或信息处理装置16中。
此外,例如可以将信息处理装置16的部分或全部功能设置在驱动型扬声器12中,或者可以将信息处理装置15和信息处理装置16的部分或全部功能设置在驱动型扬声器12中。此外,例如可以将驱动型扬声器12设置在信息处理装置15或信息处理装置16中。
此外,例如,如图10和图11所示,投影仪31和反射式扬声器51可以集成。图10是示出其中投影仪31和反射式扬声器51集成的AV系统200的功能配置示例的框图。图11是示出构成AV系统200的驱动型投影仪201的外观的配置示例的示意图。
注意,在图10和图11中,与图1和图2对应的部分由相同的附图标记表示,并且适当地省略其描述。
AV系统200与图1中的AV系统10的不同之处在于,设置驱动型投影仪11来替代驱动型投影仪11和驱动型扬声器12,并且设置信息处理装置202以替代信息处理装置15和信息处理装置16。
如图11所示,驱动型投影仪201具有下述配置,其中反射式扬声器51安装在图2中的驱动型投影仪11的投影仪31上。因此,投影仪31和反射式扬声器51通过驱动单元33在平移方向和俯仰方向上旋转,并且总是指向同一方向。因此,投影仪31的显示位置总是与反射式扬声器51的虚拟声源的位置一致。
信息处理装置202包括接口(I/F)单元221、指向位置检测单元222、用户检测单元223、映射生成单元224、存储单元225、输入单元226和控制单元227。
与图1中的I/F单元101或I/F单元121类似,I/F单元221通过例如通信设备、连接器等配置。I/F单元221向投影仪31、深度传感器32、马达控制单元43、反射式扬声器51、摄像装置71、鱼眼摄像装置72和麦克风73发送数据等以及从其接收数据等。此外,I/F单元221将接收到的数据等提供给信息处理装置202的每个单元,并从信息处理装置202的每个单元获取要发送的数据等。
与图1中的指向位置检测单元102类似,指向位置检测单元222基于由鱼眼摄像装置72拍摄的鱼眼图像来检测指向设备81的指向位置。指向位置检测单元222将检测结果提供给控制单元227。
与图1中的用户检测单元103类似,用户检测单元223基于由摄像装置71拍摄的显示空间图像来检测例如显示空间中的用户的位置、视线方向、肢体动作等。用户检测单元103将检测结果提供给控制单元227。
映射生成单元224具有图1中的映射生成单元104和映射生成单元122两者的功能。例如,映射生成单元224经由I/F单元221控制深度传感器32和马达控制单元43,从而控制深度传感器32对显示空间中的距离图像的拍摄。然后,与图1中的映射生成单元104类似,映射生成单元224利用该距离图像生成第一空间映射。
此外,映射生成单元224经由I/F单元221控制反射式扬声器51和马达控制单元43,从而控制显示空间中对来自反射式扬声器51的输出声音的扫描。然后,与图1中的映射生成单元122类似,映射生成单元224基于当在显示空间中扫描输出声音时由麦克风73检测到的反射声音的检测结果来生成第二空间映射。
此外,与图1中的映射生成单元104类似,映射生成单元224生成通过对第一空间映射和第二空间映射进行整合而获得的综合空间映射。映射生成单元224使存储单元225存储所生成的综合空间映射。
此外,与图1中的映射生成单元104类似,映射生成单元224例如基于第一空间映射来检测显示空间中的麦克风73等的位置。映射生成单元104将检测结果提供给控制单元227。
输入单元226通过例如操作设备等配置,并且用于向控制单元227输入命令、数据(例如图像数据和音频数据)等。
控制单元227具有图1中的图像控制单元107和声学控制单元125两者的功能,并且包括图像控制单元231和声学控制单元232。
图像控制单元231控制驱动型投影仪201对图像的显示和通过反射式扬声器51的虚拟声源的位置。例如,图像控制单元231经由I/F单元221控制投影仪31,从而控制待显示的图像的内容和显示定时等。此外,例如,图像控制单元231经由I/F单元221控制马达控制单元43,以控制投影仪31的图像的投影方向和反射式扬声器51的输出方向,从而控制图像的显示位置和输出声音的反射位置(即,虚拟声源的位置)。
声学控制单元232控制反射式扬声器51的输出声音的输出。例如,声学控制单元232经由I/F单元121控制反射式扬声器51,从而控制输出声音的内容、音量、输出定时等。
在AV系统200中,由于可以通过仅控制驱动单元33来同轴地控制投影仪31和反射式扬声器51的方向,因此简化了控制处理。此外,图像的显示位置和虚拟声源的位置可以容易地彼此一致。然而,与AV系统10相比,在AV系统200中,虚拟声源的位置控制的灵活性降低。例如,变得难以将虚拟声源的位置设定到与图像的显示位置不同的位置。
此外,在以上描述中,已经描述了通过改变投影仪31的方向来移动显示位置的示例。然而,例如,可以通过使从投影仪31投影的图像在诸如镜子的反射器处进行反射并改变反射器的方向来移动显示位置。类似地,在以上描述中,已经描述了通过改变反射式扬声器51的方向来移动虚拟声源的位置的示例。然而,例如可以通过使从反射式扬声器51输出的输出声音在诸如镜子的反射器处进行反射并改变反射器的方向来移动虚拟声源的位置。
此外,例如可以使用除深度传感器32之外的传感器来获取显示空间中的深度信息。
{其他修改}
注意,通过不仅在诸如墙壁、天花板、地板、屏幕或幕帘的平面对象上投影图像,而且还在例如诸如书或塑料瓶的立体对象上投影图像,并且在对象的表面上设置虚拟声源来实现听到来自对象的声音的体验。
此外,在以上描述中,已经描述了通过对第一空间映射和第二空间映射进行整合来生成综合空间映射并使用综合空间映射的示例。然而,也可以生成并使用第一空间映射和第二空间映射中的仅一个。例如,在使用仅第一空间映射的情况下,可以仅基于到虚拟声源的距离来执行音量控制而不执行基于虚拟声源的位置的反射率的音量控制。
此外,例如,通过更详细地分析显示空间中的每个位置的反射特性,可以控制除音量之外的输出声音的特性,或者可以控制音量和另外的特性。例如,分析每个位置针对每个频率的反射特性,并且可以根据虚拟位置的反射特性来控制输出声音的频率特性。例如,在将虚拟声源设定到高音调声音的反射率比低音调声音的反射率差的位置的情况下,与输出声音的低频分量相比,可以强调输出声音的高频分量。
此外,例如输出声音被时分使得左声音和右声音交替输出,并且反射式扬声器51的方向与左右声音的切换同步地向左右摆动,由此可以通过一个反射式扬声器51实现立体声再现。
{计算机的配置示例}
信息处理装置15、信息处理装置16和信息处理装置202的上述一系列处理可以由硬件或软件来执行。在由软件执行这一系列处理的情况下,在计算机中安装配置该软件的程序。这里,计算机包括例如并入专用硬件的计算机以及能够通过安装各种程序来执行各种功能的通用个人计算机等。
图12是示出通过程序执行上述一系列处理的计算机的硬件配置示例的框图。
在该计算机中,中央处理单元(CPU)501、只读存储器(ROM)502和随机存取存储器(RAM)503经由总线504相互连接。
此外,输入/输出接口505连接至总线504。输入单元506、输出单元507、存储单元508、通信单元509和驱动器510连接至输入/输出接口505。
输入单元506包括键盘、鼠标、麦克风等。输出单元507包括显示器、扬声器等。存储单元508包括硬盘、非易失性存储器等。通信单元509包括网络接口等。驱动器510驱动可移动介质511,诸如磁盘、光盘、磁光盘或半导体存储器。
在如上所述那样地配置的计算机中,CPU 501例如经由输入/输出接口505和总线504将存储单元508中存储的程序加载到RAM 503中并执行该程序,由此使得上述一系列处理被执行。
要由计算机(CPU 501)执行的程序可以例如被记录在作为封装介质等的可移动介质511上并被提供。此外,程序可以经由诸如局域网、因特网或数字广播的有线或无线传输介质来提供。
在计算机中,可移动介质511附接至驱动器510,由此使得程序可以经由输入/输出接口505被安装在存储单元508中。此外,可以通过通信单元509经由有线或无线传输介质接收程序,并将其安装在存储单元508中。除上述方法之外,可以预先将程序安装在ROM 502或存储单元508中。
注意,由计算机执行的程序可以是根据本说明书中描述的顺序按时间顺序处理的程序,或者可以是并行执行的程序、或者在必要的时刻、例如被调用时执行的程序。
此外,在本说明书中,术语“系统”是指一组多个配置元件(设备、模块(部件)等),并且与所有配置元件是否在同一外壳中无关。因此,容纳在单独的壳体中并经由网络连接的多个设备和在一个壳体中容纳多个模块的一个设备两者都是系统。
此外,本技术的实施方式不限于上述实施方式,并且可以在不脱离本技术的主旨的情况下做出各种修改。
例如,在本技术中,可以采用其中多个设备经由网络共享并协作处理一个功能的云计算配置。
此外,在上述流程图中描述的步骤可以由一个设备执行,或者可以由多个设备以共享方式执行。
此外,当一个步骤中包括多个处理时,这一个步骤中包括的多个处理可以由一个设备执行,或者可以由多个设备共享并执行。
此外,在本说明书中描述的效果仅是示例而非限制性的,并且可以呈现其他效果。
此外,例如,本技术可以具有以下配置。
(1)
一种信息处理装置,包括:
声学控制单元,被配置成基于来自反射式扬声器的输出声音的反射位置来控制所述输出声音的输出。
(2)
根据(1)所述的信息处理装置,其中,
所述声学控制单元基于下述中的至少之一来控制所述输出声音的输出:从所述反射式扬声器到所述反射位置的距离以及从所述反射位置到用户的距离。
(3)
根据(1)或(2)所述的信息处理装置,其中,
所述声学控制单元基于所述反射位置的反射特性来控制所述输出声音的输出。
(4)
根据(3)所述的信息处理装置,其中,
所述反射式扬声器输出超声波的所述输出声音,并且所述反射式扬声器中的所述输出声音的输出方向是能够变化的,
所述信息处理装置还包括:
映射生成单元,被配置成在所述反射式扬声器对所述输出声音进行反射的空间中扫描所述输出声音,并且基于反射声音的检测结果来生成包括所述空间中的反射特性的空间映射。
(5)
根据(4)所述的信息处理装置,其中,
所述映射生成单元基于所述反射声音的检测结果来生成包括所述空间的三维形状的空间映射。
(6)
根据(1)至(3)中任一项所述的信息处理装置,其中,
所述反射式扬声器中的所述输出声音的输出方向是能够变化的,并且
所述声学控制单元根据来自所述反射式扬声器的所述输出声音的输出方向来控制所述反射位置。
(7)
根据(6)所述的信息处理装置,其中,
所述声学控制单元基于所述输出声音所对应的图像的显示位置来控制所述反射位置。
(8)
根据(6)或(7)所述的信息处理装置,其中,
所述声学控制单元基于所述反射式扬声器对所述输出声音进行反射的空间中的反射特性来控制所述反射位置。
(9)
根据(6)至(8)中任一项所述的信息处理装置,其中,
所述声学控制单元基于下述中的至少之一来控制所述反射位置:作为由用户指定的位置的指向位置和所述用户的视线方向。
(10)
根据(9)所述的信息处理装置,其中,
当存在要在所述指向位置进行显示的图像时,所述声学控制单元使所述反射式扬声器朝向所述反射位置输出与所述图像对应的所述输出声音。
(11)
根据(10)所述的信息处理装置,还包括:
图像控制单元,被配置成基于所述指向位置来控制图像的显示,其中,
当存在要在所述指向位置进行显示的图像时,所述图像控制单元在所述指向位置显示所述图像。
(12)
根据(9)所述的信息处理装置,其中,
当存在要在所述用户的视线方向上进行显示的图像时,所述声学控制单元使所述反射式扬声器朝向所述反射位置输出与所述图像对应的所述输出声音。
(13)
根据(12)所述的信息处理装置,还包括:
图像控制单元,被配置成基于所述用户的视线方向来控制图像的显示,其中,
当存在要在所述用户的视线方向上进行显示的图像时,所述图像控制单元在所述用户的视线方向上显示所述图像。
(14)
根据(6)至(13)中任一项所述的信息处理装置,其中,
所述声学控制单元基于所述输出声音所对应的图像的内容来控制所述反射位置。
(15)
根据(14)所述的信息处理装置,其中,
所述声学控制单元基于所述图像中的移动体的运动来控制所述反射位置。
(16)
根据(1)至(15)中任一项所述的信息处理装置,其中
所述声学控制单元控制所述输出声音的特性。
(17)
根据(1)至(16)中任一项所述的信息处理装置,还包括:
所述反射式扬声器。
(18)
根据(17)所述的信息处理装置,还包括:
投影仪,所述投影仪具有能够变化的图像投影方向,其中,
所述反射式扬声器中的所述输出声音的输出方向是能够变化的。
(19)
一种信息处理方法,包括:
基于来自反射式扬声器的输出声音的反射位置来控制所述输出声音的输出的声学控制步骤。
(20)
一种程序,所述程序用于使得计算机执行下述处理,所述处理包括:
基于来自反射式扬声器的输出声音的反射位置来控制所述输出声音的输出的声学控制步骤。
附图标记列表
10 AV系统,11 驱动型投影仪,12 驱动型扬声器,13 传感器单元,14 操作单元,15、16 信息处理装置,31 投影仪,32 深度传感器,33 驱动单元,41 平移马达,42 俯仰马达,43 马达控制单元,51 反射式扬声器,52 驱动单元,61 平移马达,62 俯仰马达,63 马达控制单元,71 摄像装置,72 鱼眼摄像装置,73 麦克风,81 指向设备,102 指向位置检测单元,103 用户检测单元,104 映射生成单元,107 图像控制单元,122 映射生成单元,125声学控制单元,200 AV系统,201 驱动型投影仪,202 信息处理装置,222 指向位置检测单元,223 用户检测单元,224 映射生成单元,227 控制单元,231 图像控制单元,232 声学控制单元。

Claims (20)

1.一种信息处理装置,包括:
声学控制单元,被配置成基于来自反射式扬声器的输出声音的反射位置来控制所述输出声音的输出。
2.根据权利要求1所述的信息处理装置,其中,
所述声学控制单元基于下述中的至少之一来控制所述输出声音的输出:从所述反射式扬声器到所述反射位置的距离以及从所述反射位置到用户的距离。
3.根据权利要求1所述的信息处理装置,其中,
所述声学控制单元基于所述反射位置的反射特性来控制所述输出声音的输出。
4.根据权利要求3所述的信息处理装置,其中,
所述反射式扬声器输出超声波的所述输出声音,并且所述反射式扬声器中的所述输出声音的输出方向是能够变化的,
所述信息处理装置还包括:
映射生成单元,被配置成在所述反射式扬声器对所述输出声音进行反射的空间中扫描所述输出声音,并且基于反射声音的检测结果来生成包括所述空间中的反射特性的空间映射。
5.根据权利要求4所述的信息处理装置,其中,
所述映射生成单元基于所述反射声音的检测结果来生成包括所述空间的三维形状的空间映射。
6.根据权利要求1所述的信息处理装置,其中,
所述反射式扬声器中的所述输出声音的输出方向是能够变化的,并且
所述声学控制单元根据来自所述反射式扬声器的所述输出声音的输出方向来控制所述反射位置。
7.根据权利要求6所述的信息处理装置,其中,
所述声学控制单元基于所述输出声音所对应的图像的显示位置来控制所述反射位置。
8.根据权利要求6所述的信息处理装置,其中,
所述声学控制单元基于所述反射式扬声器对所述输出声音进行反射的空间中的反射特性来控制所述反射位置。
9.根据权利要求6所述的信息处理装置,其中,
所述声学控制单元基于下述中的至少之一来控制所述反射位置:作为由用户指定的位置的指向位置和所述用户的视线方向。
10.根据权利要求9所述的信息处理装置,其中,
当存在要在所述指向位置进行显示的图像时,所述声学控制单元使所述反射式扬声器朝向所述反射位置输出与所述图像对应的所述输出声音。
11.根据权利要求10所述的信息处理装置,还包括:
图像控制单元,被配置成基于所述指向位置来控制图像的显示,其中,
当存在要在所述指向位置进行显示的图像时,所述图像控制单元在所述指向位置显示所述图像。
12.根据权利要求9所述的信息处理装置,其中,
当存在要在所述用户的视线方向上进行显示的图像时,所述声学控制单元使所述反射式扬声器朝向所述反射位置输出与所述图像对应的所述输出声音。
13.根据权利要求12所述的信息处理装置,还包括:
图像控制单元,被配置成基于所述用户的视线方向来控制图像的显示,其中,
当存在要在所述用户的视线方向上进行显示的图像时,所述图像控制单元在所述用户的视线方向上显示所述图像。
14.根据权利要求6所述的信息处理装置,其中,
所述声学控制单元基于所述输出声音所对应的图像的内容来控制所述反射位置。
15.根据权利要求14所述的信息处理装置,其中,
所述声学控制单元基于所述图像中的移动体的运动来控制所述反射位置。
16.根据权利要求1所述的信息处理装置,其中,
所述声学控制单元控制所述输出声音的特性。
17.根据权利要求1所述的信息处理装置,还包括:
所述反射式扬声器。
18.根据权利要求17所述的信息处理装置,还包括:
投影仪,所述投影仪具有能够变化的图像投影方向,其中,
所述反射式扬声器中的所述输出声音的输出方向是能够变化的。
19.一种信息处理方法,包括:
基于来自反射式扬声器的输出声音的反射位置来控制所述输出声音的输出的声学控制步骤。
20.一种程序,所述程序用于使得计算机执行下述处理,所述处理包括:
基于来自反射式扬声器的输出声音的反射位置来控制所述输出声音的输出的声学控制步骤。
CN201780014902.2A 2016-03-10 2017-02-24 信息处理装置、信息处理方法以及介质 Active CN108781327B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016047657A JP2017163432A (ja) 2016-03-10 2016-03-10 情報処理装置、情報処理方法、及び、プログラム
JP2016-047657 2016-03-10
PCT/JP2017/006992 WO2017154610A1 (ja) 2016-03-10 2017-02-24 情報処理装置、情報処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
CN108781327A true CN108781327A (zh) 2018-11-09
CN108781327B CN108781327B (zh) 2021-02-12

Family

ID=59790433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780014902.2A Active CN108781327B (zh) 2016-03-10 2017-02-24 信息处理装置、信息处理方法以及介质

Country Status (6)

Country Link
US (1) US10656899B2 (zh)
EP (1) EP3429226A4 (zh)
JP (1) JP2017163432A (zh)
CN (1) CN108781327B (zh)
DE (1) DE112017001190T5 (zh)
WO (1) WO2017154610A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110441737A (zh) * 2019-08-26 2019-11-12 上海声茵科技有限公司 一种采用鱼眼镜头的声源定位方法及其设备
CN115412809A (zh) * 2022-08-31 2022-11-29 深圳市火乐科技发展有限公司 声音输出装置及投影仪
CN115733964A (zh) * 2021-09-01 2023-03-03 成都极米科技股份有限公司 一种投影设备、控制方法、控制器及存储介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3457719B1 (en) * 2016-06-03 2020-11-25 Huawei Technologies Co., Ltd. Ultrasonic wave-based voice signal transmission system and method
US10140721B2 (en) * 2016-07-01 2018-11-27 Intel Corporation Mechanical system on computer with rotational projector and Realsense™ camera
JP7175281B2 (ja) * 2017-03-28 2022-11-18 マジック リープ, インコーポレイテッド ユーザ走査仮想オブジェクトに関係している空間化されたオーディオを用いる拡張現実システム
AU2019231697B2 (en) 2018-03-07 2020-01-30 Magic Leap, Inc. Visual tracking of peripheral devices
US11337024B2 (en) 2018-06-21 2022-05-17 Sony Interactive Entertainment Inc. Output control device, output control system, and output control method
JP7057309B2 (ja) * 2019-03-22 2022-04-19 アルパイン株式会社 音響特性測定システムおよび音響特性測定方法
JP2022123157A (ja) * 2019-07-01 2022-08-24 ピクシーダストテクノロジーズ株式会社 オーディオコントローラ及びプログラム
CN111586553B (zh) * 2020-05-27 2022-06-03 京东方科技集团股份有限公司 显示装置及其工作方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030016830A1 (en) * 2001-07-23 2003-01-23 Niro Nakamichi Speaker system
CN1507701A (zh) * 2001-05-07 2004-06-23 参量虚拟扬声器和环绕声系统
CN1723739A (zh) * 2002-11-15 2006-01-18 索尼株式会社 音频信号处理方法和设备
EP0740487B1 (en) * 1995-04-28 2006-05-31 Yamaha Corporation Stereophonic sound field expansion device
CN1833466A (zh) * 2003-06-02 2006-09-13 雅马哈株式会社 阵列扬声器系统
CN1857031A (zh) * 2003-09-25 2006-11-01 雅马哈株式会社 音频特性校正系统
CN1973317A (zh) * 2004-06-28 2007-05-30 精工爱普生株式会社 超方向声学系统和投影仪
JP2007199322A (ja) * 2006-01-26 2007-08-09 Matsushita Electric Ind Co Ltd 投写型画像表示装置および投写型画像表示システム
CN101521844A (zh) * 2008-02-27 2009-09-02 雅马哈株式会社 环绕声输出装置和环绕声输出方法
WO2009113319A1 (ja) * 2008-03-13 2009-09-17 タカノ株式会社 スピーカ組み込み椅子
US20090290064A1 (en) * 2008-05-23 2009-11-26 Yamaha Corporation AV System
CN101626533A (zh) * 2008-07-11 2010-01-13 宏碁股份有限公司 扬声器系统、装置以及方法
JP2010056710A (ja) * 2008-08-27 2010-03-11 Sharp Corp 指向性スピーカ反射方向制御機能付プロジェクタ
CN102893175A (zh) * 2010-05-20 2013-01-23 皇家飞利浦电子股份有限公司 使用声音信号的距离估计

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006019864A (ja) 2004-06-30 2006-01-19 Seiko Epson Corp プロジェクタシステム及びスクリーン構造
JP2007043585A (ja) 2005-08-05 2007-02-15 Sanyo Electric Co Ltd プロジェクタ装置
KR102327504B1 (ko) * 2013-07-31 2021-11-17 돌비 레버러토리즈 라이쎈싱 코오포레이션 공간적으로 분산된 또는 큰 오디오 오브젝트들의 프로세싱
EP3092819A1 (en) * 2014-01-10 2016-11-16 Dolby Laboratories Licensing Corporation Reflected sound rendering using downward firing drivers
EP3152919B1 (en) * 2014-06-03 2020-02-19 Dolby Laboratories Licensing Corporation Passive and active virtual height filter systems for upward firing drivers
US10679407B2 (en) * 2014-06-27 2020-06-09 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for modeling interactive diffuse reflections and higher-order diffraction in virtual environment scenes
JP6732764B2 (ja) * 2015-02-06 2020-07-29 ドルビー ラボラトリーズ ライセンシング コーポレイション 適応オーディオ・コンテンツのためのハイブリッドの優先度に基づくレンダリング・システムおよび方法
EP3318070B1 (en) * 2015-07-02 2024-05-22 Dolby Laboratories Licensing Corporation Determining azimuth and elevation angles from stereo recordings
US10212519B2 (en) * 2015-11-19 2019-02-19 The Lovesac Company Electronic furniture systems with integrated internal speakers
US10249276B2 (en) * 2016-09-02 2019-04-02 Murray R. Clark Rotating speaker array

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0740487B1 (en) * 1995-04-28 2006-05-31 Yamaha Corporation Stereophonic sound field expansion device
CN1507701A (zh) * 2001-05-07 2004-06-23 参量虚拟扬声器和环绕声系统
US20030016830A1 (en) * 2001-07-23 2003-01-23 Niro Nakamichi Speaker system
CN1723739A (zh) * 2002-11-15 2006-01-18 索尼株式会社 音频信号处理方法和设备
CN1833466A (zh) * 2003-06-02 2006-09-13 雅马哈株式会社 阵列扬声器系统
CN1857031A (zh) * 2003-09-25 2006-11-01 雅马哈株式会社 音频特性校正系统
CN1973317A (zh) * 2004-06-28 2007-05-30 精工爱普生株式会社 超方向声学系统和投影仪
JP2007199322A (ja) * 2006-01-26 2007-08-09 Matsushita Electric Ind Co Ltd 投写型画像表示装置および投写型画像表示システム
CN101521844A (zh) * 2008-02-27 2009-09-02 雅马哈株式会社 环绕声输出装置和环绕声输出方法
WO2009113319A1 (ja) * 2008-03-13 2009-09-17 タカノ株式会社 スピーカ組み込み椅子
US20090290064A1 (en) * 2008-05-23 2009-11-26 Yamaha Corporation AV System
CN101626533A (zh) * 2008-07-11 2010-01-13 宏碁股份有限公司 扬声器系统、装置以及方法
JP2010056710A (ja) * 2008-08-27 2010-03-11 Sharp Corp 指向性スピーカ反射方向制御機能付プロジェクタ
CN102893175A (zh) * 2010-05-20 2013-01-23 皇家飞利浦电子股份有限公司 使用声音信号的距离估计

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
匡正: "参量阵扬声器的反射特性研究", 《电声技术》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110441737A (zh) * 2019-08-26 2019-11-12 上海声茵科技有限公司 一种采用鱼眼镜头的声源定位方法及其设备
CN115733964A (zh) * 2021-09-01 2023-03-03 成都极米科技股份有限公司 一种投影设备、控制方法、控制器及存储介质
CN115412809A (zh) * 2022-08-31 2022-11-29 深圳市火乐科技发展有限公司 声音输出装置及投影仪

Also Published As

Publication number Publication date
JP2017163432A (ja) 2017-09-14
WO2017154610A1 (ja) 2017-09-14
EP3429226A1 (en) 2019-01-16
CN108781327B (zh) 2021-02-12
EP3429226A4 (en) 2019-03-06
US10656899B2 (en) 2020-05-19
US20190034155A1 (en) 2019-01-31
DE112017001190T5 (de) 2018-11-15

Similar Documents

Publication Publication Date Title
CN108781327A (zh) 信息处理装置、信息处理方法以及程序
CN109416585B (zh) 虚拟、增强及混合现实
KR101730737B1 (ko) 안구추적을 기반으로 한 상이한 거리 자동적응 홀로그램 디스플레이 방법 및 장치
JP6643357B2 (ja) 全球状取込方法
US10585472B2 (en) Wireless head mounted display with differential rendering and sound localization
US9544706B1 (en) Customized head-related transfer functions
EP2986935B1 (en) Intensity-modulated light pattern for active stereo
US9485556B1 (en) Speaker array for sound imaging
JP2021073546A (ja) 異なるレンダリング及び音像定位を使用する無線ヘッドマウントディスプレイ
JP2020155121A (ja) 画像を生成するための方法およびシステム
US9724608B2 (en) Computer-readable storage medium storing information processing program, information processing device, information processing system, and information processing method
US9744459B2 (en) Computer-readable storage medium storing information processing program, information processing device, information processing system, and information processing method
EP3226579B1 (en) Information-processing device, information-processing system, control method, and program
US11346940B2 (en) Ultrasonic sensor
CN108701440A (zh) 信息处理设备、信息处理方法和程序
CN108781266A (zh) 信息处理装置、信息处理方法以及程序
US20200084537A1 (en) Automatically movable speaker to track listener or optimize sound performance
US11337024B2 (en) Output control device, output control system, and output control method
CN107852539B (zh) 耳机装置及控制耳机装置的方法
JP2012223357A (ja) ビデオゲーム装置およびビデオゲーム制御方法
WO2019030427A1 (en) THREE-DIMENSIONAL VIDEO PROCESSING
JP2023030054A (ja) 音響装置
WO2023248832A1 (ja) 遠隔視認システム、現地撮像システム
KR20180113072A (ko) 음향 구현 장치 및 방법
CN117238271A (zh) 一种音频生成方法和装置、电子设备、介质和车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant