JP2017163432A - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JP2017163432A
JP2017163432A JP2016047657A JP2016047657A JP2017163432A JP 2017163432 A JP2017163432 A JP 2017163432A JP 2016047657 A JP2016047657 A JP 2016047657A JP 2016047657 A JP2016047657 A JP 2016047657A JP 2017163432 A JP2017163432 A JP 2017163432A
Authority
JP
Japan
Prior art keywords
control unit
information processing
video
output
output sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016047657A
Other languages
English (en)
Inventor
健太郎 井田
Kentaro Ida
健太郎 井田
拓也 池田
Takuya Ikeda
拓也 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016047657A priority Critical patent/JP2017163432A/ja
Priority to EP17762950.8A priority patent/EP3429226A4/en
Priority to PCT/JP2017/006992 priority patent/WO2017154610A1/ja
Priority to DE112017001190.6T priority patent/DE112017001190T5/de
Priority to US16/069,366 priority patent/US10656899B2/en
Priority to CN201780014902.2A priority patent/CN108781327B/zh
Publication of JP2017163432A publication Critical patent/JP2017163432A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/34Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by using a single transducer with sound reflecting, diffracting, directing or guiding means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H7/00Measuring reverberation time ; room acoustic measurements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/18Methods or devices for transmitting, conducting or directing sound
    • G10K11/26Sound-focusing or directing, e.g. scanning
    • G10K11/28Sound-focusing or directing, e.g. scanning using reflection, e.g. parabolic reflectors
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/18Methods or devices for transmitting, conducting or directing sound
    • G10K11/26Sound-focusing or directing, e.g. scanning
    • G10K11/35Sound-focusing or directing, e.g. scanning using mechanical steering of transducers or their beams
    • G10K11/352Sound-focusing or directing, e.g. scanning using mechanical steering of transducers or their beams by moving the transducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/026Supports for loudspeaker casings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2217/00Details of magnetostrictive, piezoelectric, or electrostrictive transducers covered by H04R15/00 or H04R17/00 but not provided for in any of their subgroups
    • H04R2217/03Parametric transducers where sound is generated or captured by the acoustic demodulation of amplitude modulated ultrasonic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems

Abstract

【課題】反射型スピーカの音に対する満足度を向上させる。【解決手段】AV(Audio Visual)システムは、反射型スピーカからの出力音の反射位置に基づいて、前記出力音の出力を制御する音響制御部を備える。本技術は、例えば、駆動型プロジェクタ及び駆動型スピーカを用いたAVシステムに適用することができる。また、本技術は、例えば、反射型スピーカを備える駆動型プロジェクタを用いたAVシステムに適用することができる。【選択図】図1

Description

本技術は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、反射型スピーカの出力制御を行う場合に用いて好適な情報処理装置、情報処理方法、及び、プログラムに関する。
従来、スピーカからの出力音を壁等に当てて反射させることにより、反射位置に仮想音源を生成し、仮想音源から音が出力されているように感じさせる反射型スピーカが知られている(例えば、特許文献1参照)。
反射型スピーカには、例えば、超音波スピーカ(パラメトリックスピーカ)等の鋭い指向性を持つ超指向性スピーカが用いられる。
特開2010−56710号公報
しかしながら、反射型スピーカは、仮想音源の位置(反射位置)を自由に設定できる反面、例えば、仮想音源までの距離や反射位置の材質により音量が小さくなりすぎたり、仮想音源の位置が映像の表示位置から離れすぎて、違和感が生じたりするおそれがある。
そこで、本技術は、反射型スピーカの音に対する満足度を向上させるようにするものである。
本技術の一側面の情報処理装置は、反射型スピーカからの出力音の反射位置に基づいて、前記出力音の出力を制御する音響制御部を備える。
前記音響制御部には、前記反射型スピーカから前記反射位置までの距離、及び、前記反射位置からユーザまでの距離のうち少なくとも一方に基づいて、前記出力音の出力を制御させることができる。
前記音響制御部には、前記反射位置の反射特性に基づいて、前記出力音の出力を制御させることができる。
前記反射型スピーカには、超音波の前記出力音を出力させ、前記出力音の出力方向を可変にさせ、前記反射型スピーカが前記出力音を反射させる空間内において前記出力音を走査させ、反射音の検出結果に基づいて、前記空間内の反射特性を含む空間マップを生成するマップ生成部をさらに設けることができる。
前記マップ生成部には、前記反射音の検出結果に基づいて、前記空間の3次元形状を含む前記空間マップを生成させることができる。
前記反射型スピーカには、前記出力音の出力方向を可変にさせ、前記音響制御部には、前記反射型スピーカからの前記出力音の出力方向により前記反射位置を制御させることができる。
前記音響制御部には、前記出力音が対応する映像の表示位置に基づいて、前記反射位置を制御させることができる。
前記音響制御部には、前記反射型スピーカが前記出力音を反射させる空間内の反射特性に基づいて、前記反射位置を制御させることができる。
前記音響制御部には、ユーザにより指定された位置であるポインティング位置及びユーザの視線の方向のうち少なくとも一方に基づいて、前記反射位置を制御させることができる。
前記音響制御部には、前記ポインティング位置において表示する映像が存在する場合、当該映像に対応する前記出力音を前記反射型スピーカから前記反射位置に向けて出力させることができる。
前記ポインティング位置に基づいて、映像の表示を制御する映像制御部をさらに設け、前記映像制御部には、前記ポインティング位置において表示する映像が存在する場合、当該映像を前記ポインティング位置に表示させることができる。
前記音響制御部には、前記ユーザの視線の方向において表示する映像が存在する場合、当該映像に対応する前記出力音を前記反射型スピーカから前記反射位置に向けて出力させることができる。
前記ユーザの視線の方向に基づいて、映像の表示を制御する映像制御部をさらに設け、前記映像制御部には、前記ユーザの視線の方向において表示する映像が存在する場合、当該映像を前記ユーザの視線の方向に表示させることができる。
前記音響制御部には、前記出力音が対応する映像の内容に基づいて、前記反射位置を制御させることができる。
前記音響制御部には、前記映像内の移動体の動きに基づいて、前記反射位置を制御させることができる
前記音響制御部には、前記出力音の特性を制御させることができる。
前記反射型スピーカをさらに設けることができる。
映像の投影方向が可変のプロジェクタをさらに設け、前記反射型スピーカには、前記出力音の出力方向が可変にさせることができる。
本技術の一側面の情報処理方法は、反射型スピーカからの出力音の反射位置に基づいて、前記出力音の出力を制御する音響制御ステップを含む。
本技術の一側面のプログラムは、反射型スピーカからの出力音の反射位置に基づいて、前記出力音の出力を制御する音響制御ステップを含む処理をコンピュータに実行させる。
本技術の一側面においては、反射型スピーカからの出力音の反射位置に基づいて、前記出力音の出力が制御される。
本技術の一側面によれば、反射型スピーカの音に対する満足度が向上する。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用したAVシステムの第1の実施の形態を示すブロック図である。 図1のAVシステムの駆動型プロジェクタ及び駆動型スピーカの外観の構成例を示す模式図である。 図1のAVシステムにより実行される空間マップ生成処理を説明するためのフローチャートである。 空間マップの生成方法を説明するための図である。 反射率の算出方法を説明するための図である。 図1のAVシステムにより実行される映像音響制御処理を説明するためのフローチャートである。 ポインティングデバイスにより表示位置を設定する例を説明するための図である。 ユーザの視線方向により表示位置を設定する例を説明するための図である。 反射型スピーカの音量制御について説明するための図である。 本技術を適用したAVシステムの第2の実施の形態を示すブロック図である。 図10のAVシステムの駆動型プロジェクタの外観の構成例を示す模式図である。 コンピュータの構成例を示すブロック図である。
以下、発明を実施するための形態(以下、「実施形態」と記述する)について図面を用いて詳細に説明する。なお、説明は以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
{AVシステム10の構成例}
まず、図1及び図2を参照して、本技術を適用したAV(Audio Visual)システム10の構成例について説明する。図1は、AVシステム10の機能の構成例を示すブロック図である。図2は、AVシステム10を構成する駆動型プロジェクタ11及び駆動型スピーカ12の外観の構成例を示す模式図である。
AVシステム10は、所定の空間(以下、表示空間と称する)に映像を投影するとともに、映像に伴う音を出力するシステムである。また、AVシステム10は、表示空間内において映像の表示位置及び仮想音源の位置を自由に変更することができ、例えば、プロジェクションマッピング等に用いられる。
AVシステム10は、駆動型プロジェクタ11、駆動型スピーカ12、センサ部13、操作部14、情報処理装置15、及び、情報処理装置16を備える。
駆動型プロジェクタ11は、映像の投影方向が可変であるプロジェクタである。駆動型プロジェクタ11は、プロジェクタ31、デプスセンサ32、及び、駆動部33を備える。図2に示されるように、駆動型プロジェクタ11においては、駆動部33の上にデプスセンサ32が設置され、デプスセンサ32の上にプロジェクタ31が設置されている。
プロジェクタ31は、情報処理装置15の制御の下に、情報処理装置15から供給される映像データに基づく映像を表示空間内の壁等に投影する。なお、プロジェクタ31の方式は、特定の方式に限定されるものではなく、任意の方式を採用することが可能である。
デプスセンサ32は、情報処理装置15の制御の下に、例えば、赤外光を用いて、表示空間内の各位置のデプスセンサ32からの距離を示す距離画像を撮影し、撮影した距離画像を情報処理装置15に供給する。なお、デプスセンサ32の方式には、TOF(Time of Flight)方式、パターン照射方式、ステレオカメラ方式等の任意の方式を採用することが可能である。
駆動部33は、情報処理装置15の制御の下に、プロジェクタ31の投影方向、及び、デプスセンサ32の撮影方向を制御する。駆動部33は、パンモータ41、チルトモータ42、及び、モータ制御部43を備える。
パンモータ41は、プロジェクタ31及びデプスセンサ32をパン方向(水平方向)に回転させるモータである。
チルトモータ42は、プロジェクタ31及びデプスセンサ32をチルト方向(垂直方向)に回転させるモータである。
モータ制御部43は、情報処理装置15の制御の下に、パンモータ41及びチルトモータ42の回転を制御する。
なお、駆動部33を、例えば、ヨー方向(映像の投影方向の主軸周り)にも回転可能な構成としてもよい。また、駆動部33は、モータや車輪等の移動機構をさらに備えていてもよい。
駆動型スピーカ12は、駆動型プロジェクタ11により表示空間内に投影される映像に合わせた音を出力するユニットである。図2に示されるように、駆動型スピーカ12においては、駆動部52の上に反射型スピーカ51が設置されている。
反射型スピーカ51は、情報処理装置16の制御の下に、表示空間内の所望の位置に出力音を当てて反射させることにより、反射位置に仮想音源を生成するスピーカである。ユーザは、仮想音源の位置から音が出力されているように感じる。反射型スピーカ51は、反射位置に仮想音源を生成することが可能なスピーカであれば、特に方式は問わない。例えば、反射型スピーカ51は、鋭い指向性を持つ超指向性スピーカにより構成される。
なお、後述するように、反射型スピーカ51の出力音に対する反射音に基づいて、表示空間の空間マップを作成する場合、反射型スピーカ51から超音波の出力音を出力できるようにすることが望ましい。例えば、反射型スピーカ51を、超音波からなる搬送波を所定の方式で変調した信号を出力する超音波スピーカ(パラメトリックスピーカ)により構成することが望ましい。
なお、以下、反射型スピーカ51が、仮想音源に向けて出力音を出力し、仮想音源において出力音を反射させることを、仮想音源から音を出力させると表現する場合がある。
駆動部52は、情報処理装置15の制御の下に、反射型スピーカ51の出力方向を制御する。駆動部52は、パンモータ61、チルトモータ62、及び、モータ制御部63を備える。
パンモータ61は、反射型スピーカ51をパン方向(水平方向)に回転させるモータである。
チルトモータ62は、反射型スピーカ51をチルト方向(垂直方向)に回転させるモータである。
モータ制御部63は、情報処理装置15の制御の下に、パンモータ61及びチルトモータ62の回転を制御する。
なお、駆動部52を、例えば、ヨー方向(出力音の出力方向の主軸周り)にも回転可能な構成としてもよい。また、駆動部52は、モータや車輪等の移動機構をさらに備えていてもよい。
センサ部13は、カメラ71、魚眼カメラ72、及び、マイクロフォン73を備える。
カメラ71は、表示空間内を撮影し、撮影の結果得られた画像(以下、表示空間画像と称する)を情報処理装置15に供給する。表示空間画像は、例えば、表示空間内のユーザの位置、視線方向、ジェスチャ等の検出に用いられる。
魚眼カメラ72は、魚眼レンズを備えるカメラにより構成され、超広角の画像を撮影する。魚眼カメラ72は、撮影の結果得られた画像(以下、魚眼画像と称する)を情報処理装置15に供給する。魚眼画像は、例えば、ポインティングデバイス81から出射された赤外光の照射位置(ポインティング位置)の検出に用いられる。
マイクロフォン73は、例えば、反射型スピーカ51からの出力音に対する反射音の検出に用いられる。マイクロフォン73は、検出した音を示す音声信号を情報処理装置16に供給する。
操作部14は、ポインティングデバイス81を備える。
ポインティングデバイス81は、ユーザが所望の位置を指し示すための操作デバイスである。例えば、ポインティングデバイス81は、赤外光を照射し、赤外光によりユーザの操作に応じた位置(ポインティング位置)を指し示す。
なお、ポインティングデバイス81を、専用のデバイスにより構成してもよいし、スマートフォンやリモートコントローラ等の他の用途にも利用可能な汎用のデバイスにより構成してもよい。
情報処理装置15は、例えば、コンピュータ、又は、CPU等のプロセッサ及びメモリ等により構成される。情報処理装置15は、主に駆動型プロジェクタ11の制御に用いられる。
情報処理装置15は、インタフェース(I/F)部101、ポインティング位置検出部102、ユーザ検出部103、マップ生成部104、記憶部105、入力部106、及び、映像制御部107を備える。
I/F部101は、例えば、通信デバイス、コネクタ等により構成される。I/F部101は、情報処理装置16、プロジェクタ31、デプスセンサ32、モータ制御部43、カメラ71、及び、魚眼カメラ72との間でデータ等の送受信を行う。また、I/F部101は、受信したデータ等を情報処理装置15の各部に供給したり、送信するデータ等を情報処理装置15の各部から取得したりする。
なお、I/F部101の通信方式には、有線又は無線の任意の方式を採用することができる。また、I/F部101の通信方式を、通信を行う対象毎に変えてもよい。さらに、I/F部101は、例えば、各通信対象と直接通信を行うようにしてもよいし、ネットワーク等を介して通信を行うようにしてもよい。
ポインティング位置検出部102は、魚眼カメラ72により撮影された魚眼画像に基づいて、ポインティングデバイス81によるポインティング位置の検出を行う。ポインティング位置検出部102は、検出結果を映像制御部107に供給したり、I/F部101を介して情報処理装置15に供給したりする。
なお、ポインティング位置検出部102の検出方法には、任意の方法を採用することができる。
ユーザ検出部103は、カメラ71により撮影された表示空間画像に基づいて、例えば、表示空間内のユーザの位置、視線方向、ジェスチャ等を検出する。ユーザ検出部103は、検出結果を映像制御部107に供給したり、I/F部101を介して情報処理装置16に供給したりする。
なお、ユーザ検出部103の検出方法には、任意の方法を採用することができる。
マップ生成部104は、I/F部101を介して、デプスセンサ32及びモータ制御部43を制御して、デプスセンサ32による表示空間内の距離画像の撮影を制御する。そして、マップ生成部104は、距離画像を用いて、表示空間内の空間認識を行い、表示空間内の物体や壁等の3次元形状を示す第1空間マップを生成する。第1空間マップは、例えば、3次元の点群マップからなり、表示空間内の各位置の駆動型プロジェクタ11(デプスセンサ32)からの距離を示すデプス情報を含む。
また、マップ生成部104は、I/F部101を介して、情報処理装置16から第2空間マップを取得し、第1空間マップと第2空間マップを統合した統合空間マップを生成する。統合空間マップは、例えば、表示空間内の各位置の駆動型プロジェクタ11(デプスセンサ32)からの距離を示すデプス情報、各位置の反射特性(例えば、反射率、反射角等)を示す反射特性情報、及び、表示空間内の各位置の映像の表示の可否(映像の投影の可否)を示す表示特性情報を含む。マップ生成部104は、生成した統合空間マップを記憶部105に記憶させるとともに、I/F部101を介して、情報処理装置16に供給する。
さらに、マップ生成部104は、例えば、第1空間マップに基づいて、表示空間内における駆動型スピーカ12及びマイクロフォン73等の位置を検出する。マップ生成部104は、検出結果を、映像制御部107に供給したり、I/F部101を介して、情報処理装置16に供給したりする。
なお、例えば、カメラ71により撮影された表示空間画像に基づいて、駆動型スピーカ12及びマイクロフォン73等の位置を検出するようにしてもよい。
入力部106は、例えば、操作デバイス等により構成され、映像制御部107への指令やデータ(例えば、映像データ)等の入力に用いられる。
映像制御部107は、駆動型プロジェクタ11による映像の表示を制御する。例えば、映像制御部107は、I/F部101を介してプロジェクタ31を制御して、表示する映像の内容及び表示タイミング等を制御する。また、例えば、映像制御部107は、I/F部101を介してモータ制御部43を制御して、プロジェクタ31の映像の投影方向を制御することにより、映像の表示位置を制御する。さらに、映像制御部107は、映像の表示位置を示す情報を、I/F部101を介して情報処理装置16に供給する。
情報処理装置16は、例えば、コンピュータ、或いは、CPU等のプロセッサ及びメモリ等により構成される。情報処理装置16は、主に駆動型スピーカ12の制御に用いられる。
情報処理装置16は、インタフェース(I/F)部121、マップ生成部122、記憶部123、入力部124、及び、音響制御部125を備える。
I/F部121は、例えば、通信デバイス、コネクタ等により構成される。I/F部121は、情報処理装置15、反射型スピーカ51、モータ制御部63、及び、マイクロフォン73との間でデータ等の送受信を行う。また、I/F部121は、受信したデータ等を情報処理装置16の各部に供給したり、送信するデータ等を情報処理装置16の各部から取得したりする。
なお、I/F部121の通信方式には、有線又は無線の任意の方式を採用することができる。また、I/F部121の通信方式を、通信を行う対象毎に変えてもよい。さらに、I/F部121は、例えば、各通信対象と直接通信を行うようにしてもよいし、ネットワーク等を介して通信を行うようにしてもよい。
マップ生成部122は、I/F部121を介して、反射型スピーカ51及びモータ制御部63を制御して、反射型スピーカ51からの出力音の表示空間内の走査を制御する。そして、マップ生成部122は、表示空間内に出力音を走査したときにマイクロフォン73により検出された反射音の検出結果に基づいて、表示空間内の空間認識を行い、表示空間内の物体や壁等の3次元形状を示す第2空間マップを生成する。第2空間マップは、例えば、3次元の点群マップからなり、表示空間内の各位置の駆動型スピーカ12(反射型スピーカ51)からの距離を示すデプス情報、及び、各位置の反射特性を示す反射特性情報を含む。マップ生成部104は、生成した第2空間マップを、I/F部121を介して、情報処理装置15に供給する。
また、マップ生成部122は、I/F部121を介して、情報処理装置15から統合空間マップを取得し、記憶部123に記憶させる。
入力部124は、例えば、操作デバイス等により構成され、音響制御部125への指令やデータ(例えば、音声データ)等の入力に用いられる。
音響制御部125は、駆動型スピーカ12による出力音の出力を制御する。例えば、音響制御部125は、I/F部121を介して反射型スピーカ51を制御して、出力音の内容、音量、及び、出力タイミング等を制御する。また、例えば、音響制御部125は、I/F部121を介してモータ制御部63を制御して、反射型スピーカ51の出力方向を制御することにより、出力音の反射位置(すなわち、仮想音源の位置)を制御する。
なお、以下、説明を分かりやすくするために、情報処理装置15のI/F部101、及び、情報処理装置16のI/F部121の記載を適宜省略する。例えば、マップ生成部104が、I/F部101を介して情報処理装置16に統合空間マップを供給する場合、単に、マップ生成部104が、情報処理装置16に統合空間マップを供給すると記載する。
{AVシステム10の処理}
次に、図3乃至図9を参照して、AVシステム10の処理について説明する。
(空間マップ生成処理)
まず、図3のフローチャートを参照して、AVシステム10により実行される空間マップ生成処理について説明する。なお、この処理は、例えば、駆動型プロジェクタ11及び駆動型スピーカ12が設置されたとき、又は、駆動型プロジェクタ11及び駆動型スピーカ12の少なくとも一方の設置位置が移動したとき開始される。
ステップS1において、AVシステム10は、表示空間内の測定を行う。具体的には、マップ生成部104は、図4に示されるように、モータ制御部43を制御して、駆動部33をパン方向及びチルト方向に回転させ、デプスセンサ32に表示空間内の全ての領域を走査させる。これにより、デプスセンサ32により表示空間内の全ての領域が撮影され、各領域のデプスセンサ32からの距離を示す距離画像が得られる。デプスセンサ32は、撮影した距離画像をマップ生成部104に供給する。
また、マップ生成部122は、図4に示されるように、モータ制御部63を制御して、駆動部52をパン方向及びチルト方向に回転させ、反射型スピーカ51から出力される出力音(超音波信号)を表示空間内の全ての領域を走査させる。これにより、表示空間内の全ての領域からの出力音に対する反射音がマイクロフォン73により検出される。マイクロフォン73は、検出結果を示す音声信号をマップ生成部122に供給する。
なお、図4では、図を分かりやすくするために、プロジェクタ31の図示を省略している。
ステップS2において、マップ生成部104及びマップ生成部122は、空間マップを生成する。具体的には、マップ生成部104は、デプスセンサ32により撮影された距離画像に基づいて、第1空間マップを生成する。第1空間マップは、表示空間内の各位置のデプスセンサ32からの距離を示すデプス情報を含む。
なお、デプスセンサ32は、赤外光の反射を利用しているため、黒壁、コンクリート、ガラス等の赤外光の反射を利用できない領域のデプス情報が、第1空間マップにおいて欠落する。
また、マップ生成部104は、第1空間マップに基づいて、表示空間内における駆動型スピーカ12及びマイクロフォン73等の位置を検出する。マップ生成部104は、検出結果を情報処理装置16のマップ生成部122に供給する。
マップ生成部122は、マイクロフォン73からの音声信号に基づいて、第2空間マップを生成する。具体的には、マップ生成部122は、出力音の出力方向、反射型スピーカ51及びマイクロフォン73の位置、並びに、出力音を出力してから反射音を受信するまでの時間に基づいて、反射型スピーカ51及びマイクロフォン73からの表示空間内の各位置までの距離を算出する。
また、マップ生成部122は、反射音の音量に基づいて、表示空間内の各位置の反射率を算出する。例えば、図5に示されるように、反射型スピーカ51から出力された出力音が反射位置P1で反射され、その反射音をマイクロフォン73により検出した場合について説明する。なお、以下、反射型スピーカ51と反射位置P1の間の距離をL1とし、反射位置P1とマイクロフォン73の間の距離をL2とする。
ここで、反射位置P1において、出力音が減衰することなく全てマイクロフォン73の方向に反射されると仮定した場合(反射率100%であると仮定した場合)、マイクロフォン73により検出される反射音の出力音に対する減衰量は、距離L1+距離L2により推定することができる。以下、この場合の減衰量を基準減衰量と称する。
一方、実際には、出力音は反射位置P1において拡散又は吸収されるため、マイクロフォン73の方向に反射される反射音の音量は小さくなる。そこで、マップ生成部122は、マイクロフォン73により実際に検出される反射音の出力音に対する減衰量と基準減衰量との比率により、反射位置P1の反射率を推定する。
そして、マップ生成部122は、表示空間内の各位置の反射型スピーカ51からの距離を示すデプス情報、及び、表示空間内の各位置の反射率を示す反射特性情報を含む第2空間マップを生成する。
なお、赤外光の反射が利用できず、第1空間マップにおいてデプス情報が欠落している領域であっても、出力音(超音波信号)の反射が利用できる領域であれば、その領域のデプス情報を得ることができる。
マップ生成部122は、生成した第2空間マップを情報処理装置15のマップ生成部104に供給する。
ステップS3において、マップ生成部104は、空間マップを統合する。具体的には、マップ生成部104は、第1空間マップにおいてデプス情報が欠落している領域のデプス情報を、第2空間マップのデプス情報で補う。ただし、第2空間マップのデプス情報は、反射型スピーカ51の位置が基準になっているため、マップ生成部104は、デプスセンサ32の位置を基準とするデプス情報に変換する。
また、マップ生成部104は、表示空間内の各位置が映像の表示が可能であるか否かを示す表示特性情報を生成する。例えば、マップ生成部104は、第1空間マップにおいてデプス情報が得られている位置を、映像の表示が可能な位置であると判定する。一方、マップ生成部104は、第1空間マップにおいてデプス情報が欠落している位置の硬度や表面材質を、第2空間マップの反射特性情報に基づいて推定する。そして、マップ生成部104は、推定した硬度及び表面材質に基づいて、第1空間マップにおいてデプス情報が欠落している位置が映像の表示が可能であるか否かを判定する。
なお、マップ生成部104は、第1空間マップにおいてデプス情報が欠落している全ての位置を、映像の表示が困難な位置であると判定するようにしてもよい。また、例えば、情報処理装置16のマップ生成部122が、表示特性情報を生成するようにしてもよい。
さらに、マップ生成部104は、第2空間マップの表示空間内の各位置の反射特性情報を、そのまま統合空間マップの反射特性情報として用いる。
このようにして、マップ生成部104は、表示空間内の各位置のデプス情報、表示特性情報、及び、反射特性情報を含む統合空間マップを生成する。
マップ生成部104は、生成した統合空間マップを記憶部105に記憶させる。また、マップ生成部104は、統合空間マップを情報処理装置16のマップ生成部122に供給する。
マップ生成部122は、統合空間マップのデプス情報を、デプスセンサ32の位置を基準にした情報から反射型スピーカ51の位置を基準とした情報に変換する。マップ生成部122は、変換後の統合空間マップを記憶部123に記憶させる。
その後、空間マップ生成処理は終了する。
(表示音響制御処理)
次に、図6のフローチャートを参照して、AVシステム10により実行される映像音響制御処理について説明する。
ステップS51において、情報処理装置15は、表示位置を設定する。ここで、表示位置の設定方法の例について説明する。
まず、図7を参照して、眼鏡型のポインティングデバイス81を用いて表示位置を設定する場合の例について説明する。なお、図7では、図を分かりやすくするために、デプスセンサ32の図示を省略している。
例えば、ポインティングデバイス81を装着したユーザU1が、映像を表示させたい方向に顔を向けると、ユーザU1が顔を向けた方向にポインティングデバイス81から赤外光が出射される。そして、ポインティング位置検出部102は、魚眼カメラ72により撮影された魚眼画像に基づいて、ポインティングデバイス81により指定されたポインティング位置P2を検出する。ポインティング位置検出部102は、ポインティング位置P2の検出結果を映像制御部107に供給する。
映像制御部107は、ポインティング位置P2を基準にして表示位置を設定する。例えば、映像制御部107は、プロジェクタ31からポインティング位置P2までの距離に基づいて、映像が投影される投影領域の大きさを算出する。そして、映像制御部107は、投影領域の中心がポインティング位置P2と一致するように投影領域の位置を設定する。
次に、映像制御部107は、統合空間マップの表示特性情報に基づいて、設定した投影領域内に映像の表示が困難な領域が含まれるか否かを確認する。そして、映像制御部107は、投影領域内に映像の表示が困難な領域が含まれる場合、その領域を含まないように、投影領域の位置を補正する。このとき、例えば、投影領域の移動量が最小になるように、投影領域の位置が補正される。
次に、図8を参照して、ユーザの視線の方向に基づいて表示位置を設定する場合の例について説明する。なお、図8では、図を分かりやすくするために、デプスセンサ32の図示を省略している。
例えば、ユーザ検出部103は、カメラ71により撮影された表示空間画像に基づいて、ユーザU2の視線方向S1を検出する。ユーザ検出部103は、視線方向S1の検出結果を映像制御部107に供給する。映像制御部107は、統合空間マップのデプス情報に基づいて、視線方向S1と表示空間内の面の交点P3を検出する。そして、映像制御部107は、ポインティング位置P2を基準にした場合と同様の方法により、交点P3を基準にして投影領域の位置を設定する。
なお、表示位置の設定方法は、この例に限定されるものではない。例えば、映像制御部107は、ユーザがジェスチャにより指定した位置(例えば、指さした位置)をポインティング位置として検出し、検出したポインティング位置を基準にして表示位置を設定することが可能である。
映像制御部107は、設定した表示位置(投影領域の位置)を示す情報を、情報処理装置16の音響制御部125に供給する。
ステップS52において、音響制御部125は、表示位置に基づいて、仮想音源の位置を設定する。例えば、音響制御部125は、映像制御部107により設定された投影領域の中心を仮想音源の位置に設定する。
次に、音響制御部125は、統合空間マップの反射特性情報に基づいて、設定した仮想音源の位置が適切であるか否かを判定する。例えば、音響制御部125は、仮想音源の位置の反射率が所定の閾値以上である場合、仮想音源の位置が適切であると判定する。一方、音響制御部125は、仮想音源の位置の反射率が所定の閾値未満である場合、仮想音源の位置が不適切であると判定する。
そして、音響制御部125は、仮想音源の位置が不適切であると判定した場合、仮想音源の位置を補正する。例えば、音響制御部125は、投影領域内の反射率が所定の閾値以上の位置のうち、現在の仮想音源の位置から最も近い位置に仮想音源の位置を補正する。なお、音響制御部125は、例えば、投影領域内に反射率が所定の閾値以上の位置が存在しない場合、投影領域の外で反射率が所定の閾値以上の位置のうち、現在の仮想音源の位置から最も近い位置に仮想音源の位置を補正する。
ステップS53において、音響制御部125は、仮想音源の位置に基づいて、音量を設定する。例えば、図9に示されるように、仮想音源が位置P4に設定されている場合について説明する。
音響制御部125は、情報処理装置15のユーザ検出部103から、ユーザU3の位置の検出結果を取得する。また、音響制御部125は、統合空間マップに基づいて、反射型スピーカ51と仮想音源P4との間の距離L3、仮想音源P4とユーザU3との間の距離L4、並びに、仮想音源P4の反射率を求める。音響制御部125は、距離L3、距離L4、及び、仮想音源P4の反射率に基づいて、ユーザU3の位置において仮想音源P4からの反射音の音量が所定のレベルになる出力音の音量を算出する。音響制御部125は、算出した音量を出力音の音量に設定する。
なお、例えば、距離L3又は距離L4のいずれか一方のみを用いて、音量を算出するようにしてもよい。
また、ユーザU3の位置における音量のレベルは、例えば、仮想音源P4までの距離に関わらず一定になるように設定してもよいし、仮想音源P4までの距離に応じて変化させるようにしてもよい。
後者の場合、例えば、距離L3と距離L4の合計が長くなるほど、ユーザU3の位置における音量のレベルを小さくし、距離L3と距離L4の合計が短くなるほど、ユーザU3の位置における音量のレベルを大きくするようにしてもよい。或いは、例えば、距離L3が長くなるほど、ユーザU3の位置における音量のレベルを小さくし、距離L3が短くなるほど、ユーザU3の位置における音量のレベルを大きくするようにしてもよい。或いは、例えば、距離L4が長くなるほど、ユーザU3の位置における音量のレベルを小さくし、距離L4が短くなるほど、ユーザU3の位置における音量のレベルを大きくするようにしてもよい。
ステップS54において、AVシステム10は、設定に従って、映像及び音の出力を開始する。具体的には、映像制御部107は、モータ制御部43を制御して、プロジェクタ31からの映像が、設定した投影領域に投影されるようにプロジェクタ31の向きを調整する。音響制御部125は、モータ制御部63を制御して、反射型スピーカ51からの出力音が、設定した仮想音源の位置に当たるように反射型スピーカ51の向きを調整する。
そして、映像制御部107と音響制御部125は、同期して、プロジェクタ31からの映像の投影、及び、反射型スピーカ51からの出力音の出力を開始する。このとき、映像制御部107は、例えば、投影される映像が歪まないように幾何補正等を行う。また、音響制御部125は、出力音の音量をステップS53の処理で設定した音量に設定する。
ステップS55において、映像制御部107は、表示位置を変更するか否かを判定する。表示位置を変更しないと判定された場合、処理はステップS56に進む。
ステップS56において、音響制御部125は、音量を変更するか否かを判定する。音量を変更しないと判定された場合、処理はステップS57に進む。
ステップS57において、映像制御部107は、映像及び音を停止するか否かを判定する。映像及び音を停止しないと判定された場合、処理はステップS55に戻る。
その後、ステップS55において、表示位置を変更すると判定されるか、ステップS56において音量を変更すると判定されるか、ステップS57において映像及び音を停止すると判定されるまで、ステップS55乃至S57の処理が繰り返し実行される。
一方、ステップS55において、映像制御部107は、例えば、表示位置を変更するトリガを検出した場合、表示位置を変更すると判定し、処理はステップS51に戻る。ここで、表示位置を変更するトリガとは、例えば、駆動型プロジェクタ11の移動、ポインティングデバイス81若しくはジェスチャにより指定されるポインティング位置の移動、ユーザの視線の移動等である。その後、ステップS51以降の処理が実行され、表示位置が変更されるとともに、表示位置の変更に伴い、仮想音源の位置及び音量が変更される。
また、ステップS56において、音響制御部125は、例えば、音量を変更するトリガを検出した場合、音量を変更すると判定し、処理はステップS53に戻る。ここで、音量を変更するトリガとは、例えば、駆動型スピーカ12の移動、ユーザの移動等である。その後、ステップS53以降の処理が実行され、表示位置はそのままで、音量が変更される。
さらに、ステップS57において、映像制御部107は、例えば、入力部106を介して、映像及び音の停止の指令が入力された場合、映像及び音を停止すると判定し、処理はステップS58に進む。
ステップS58において、AVシステム10は、映像及び音を停止する。具体的には、映像制御部107は、音響制御部125に出力音の停止を指令する。そして、映像制御部107は、プロジェクタ31から映像の投影を停止させる。また、音響制御部125は、反射型スピーカ51からの出力音の出力を停止させる。
その後、映像音響制御処理は終了する。
以上のようにして、ポインティング位置や視線の動きに合わせて、ユーザが所望する位置に映像及び仮想音源を自動的に移動させることができる。また、表示が困難な位置を避けて映像が投影されるため、画質が良好に保たれる。
さらに、映像の表示位置に合わせて仮想音源の位置が設定されるので、ユーザは、映像から音が出ているように感じ、臨場感が増し、音に対する満足度が向上する。
さらに、仮想音源の位置や反射率に基づいて、出力音の音量が適切に調整されたり、反射率に基づいて仮想音源の位置が補正されたりするので、音に対する違和感が生じるのを防止することができる。
<2.変形例>
以下、上述した本技術の実施の形態の変形例について説明する。
{映像及び仮想音源の制御に関する変形例}
以上の説明では、ポインティング位置又はユーザの視線の動きに合わせて、映像の表示位置及び仮想音源の位置を移動させる例を示したが、ポインティング位置又はユーザの視線が所定の条件を満たした場合に映像を表示したり、音を出力したりするようにしてもよい。
例えば、表示空間内における映像の表示位置及び表示内容を予め決めておき、統合空間マップにその情報を予め登録しておく。そして、例えば、ポインティング位置が統合空間マップに設定されている表示位置と一致しない場合、すなわち、ポインティング位置において表示する映像が存在しない場合、映像制御部107及び音響制御部125は、映像の表示及び出力音の出力を行わないように制御する。一方、例えば、ポインティング位置が統合空間マップに設定されている表示位置と一致した場合、すなわち、ポインティング位置において表示する映像が存在する場合、映像制御部107は、その表示位置に対して設定されている表示内容の映像を表示させる。また、音響制御部125は、その表示位置に基づいて仮想音源の位置を設定し、表示する映像に対応する出力音を出力させる。
或いは、例えば、ユーザの視線の位置が、統合空間マップに設定されている表示位置と一致しない場合、すなわち、ユーザの視線の方向において表示する映像が存在しない場合、映像制御部107及び音響制御部125は、映像の表示及び出力音の出力を行わないように制御する。一方、例えば、ユーザの視線の位置が、統合空間マップに設定されている表示位置と一致した場合、すなわち、ユーザの視線の方向において表示する映像が存在する場合、映像制御部107は、その表示位置に対して設定されている表示内容の映像を表示させる。また、音響制御部125は、その表示位置に基づいて仮想音源の位置を設定し、表示する映像に対応する出力音を出力させる。
この技術は、例えば、ゲームに応用することができる。例えば、表示空間内において敵の位置を予め設定しておく。ユーザは、ポインティング位置又は視線を動かして、表示空間内の敵を探す。そして、ポインティング位置又は視線が、敵が存在する位置と一致した場合、映像制御部107は、その位置に敵の映像を投影し、音響制御部125は、表示する敵の位置に基づいて仮想音源の位置を設定し、敵の音声の出力を開始する。これにより、ゲームの臨場感が向上する。
なお、映像の表示位置は、1カ所だけでなく、複数個所に設定することが可能である。また、映像の表示位置は、必ずしも固定しておく必要はなく、時間とともに動かすようにしてもよい。これにより、例えば、上述のゲームの例では、敵を動かすことができ、動いている敵の位置にポインティング位置又は視線を合わせることにより、敵の映像及び音声の出力を開始させることができる。
また、上述のゲームの例では、例えば、ポインティングデバイス81を銃型とし、ポインティングデバイス81を向けて銃を撃つ動作をした場合に、その位置に敵が存在するとき、敵が倒れる映像を表示したり、敵が倒れる音を出力したりすることも可能である。
また、音響制御部125は、表示空間内に設定されている表示位置に仮想音源を設定し、その仮想音源から音を出力させることにより、ユーザに表示位置を知らせるようにしてもよい。そして、ユーザが音の出力される方向、すなわち仮想音源の方向にポインティング位置又は視線を動かしたときに、その位置に映像を表示するようにしてもよい。これにより、例えば、上述のゲームの例において、映像を表示せずに、敵の位置を音で知らせることができる。また、敵の動きに合わせて、仮想音源の位置を動かすことにより、敵が近づいたり、遠ざかったりする様子をユーザに認識させることができる。
また、AVシステム10では、仮想音源の位置を動かして、ユーザに映像の表示位置を知らせることも可能である。例えば、ユーザが映像とは別の方向に視線を向けている場合、音響制御部125は、仮想音源の位置をユーザの視線の方向に設定し、仮想音源から音を出力させる。そして、音響制御部125は、仮想音源の位置を映像の表示位置に向けて徐々に動かすことにより、ユーザの注意を映像の方向に向け、映像の存在を知らせることが可能である。
また、映像の内容に合わせて仮想音源の位置を動かすようにしてもよい。例えば、映像内に移動体が存在する場合、音響制御部125は、移動体の動きに合わせて仮想音源の位置を動かすことにより、その移動体から音が出ているようにユーザに感じさせることができる。例えば、映像内のキャラクタに合わせて仮想音源を移動させることにより、ユーザは、そのキャラクタが自分に対して話しかけているような体験をすることができる。
なお、移動体が画角内から画角外に移動した場合、仮想音源の位置を画角内から画角外に動かすようにしてもよい。逆に、移動体が画角外から画角内に移動した場合、仮想音源の位置を画角外から画角内に動かすようにしてもよい。例えば、車が走り去る場合、車の動きに合わせて仮想音源の位置を画角内から画角外に移動させることにより、より臨場感を増すことができる。また、例えば、野球のバッターが打ったボールが、ユーザをかすめて後ろに飛んでいくような臨場感のある体験を実現することができる。
また、駆動型スピーカ12を複数台設けることにより、複数の仮想音源を設置するようにしてもよい。これにより、例えば、映像内の複数の移動体に対して、それぞれ異なる仮想音源を設置して、各移動体の動きに合わせて仮想音源の位置を個別に動かすことができ、より臨場感を高めることができる。
さらに、例えば、サラウンドシステムにおけるスピーカの配置と同様に仮想音源を配置することにより、サラウンドシステムを実現することができる。この場合、駆動型スピーカ12の設置位置は、通常のスピーカの設置位置より自由度が高いため、より簡単にサラウンドシステムを実現することができる。
また、例えば、1つの映像の投影領域を複数の領域に分け、各領域に対して仮想音源を配置し、各領域の音の出力をそれぞれ対応する仮想音源を中心に分担することにより、より臨場感を高めることができる。なお、仮想音源の位置は、領域内であっても、領域外であってもよい。例えば、投影領域を2×2の4つの領域に分け、投影領域内の4隅、又は、投影領域の外であって、投影領域の4隅の近傍に仮想音源を配置し、各領域内の映像に対応する音を各領域に近い仮想音源から主に出力させることにより、より臨場感を高めることができる。
さらに、本技術は、プロジェクタ31が駆動型でなく、手で位置や向きを変える場合にも適用することができる。例えば、音響制御部125は、プロジェクタ31の位置や向きが手で変えられた場合に、上述した方法により、表示位置に基づいて仮想音源の位置を制御したり、仮想音源の位置に基づいて反射型スピーカ51の出力音の音量を制御したりするようにすればよい。
なお、プロジェクタ31の位置や向きは、例えば、プロジェクタ31に加速度センサやジャイロセンサ等を設けることにより検出することができる。
また、本技術は、プロジェクタ31の位置が固定され、映像の表示位置が固定されている場合にも適用することができる。すなわち、音響制御部125は、固定されている映像の表示位置や映像の内容に基づいて、上述した方法により、仮想音源の位置を制御したり、反射型スピーカ51の出力音の音量を制御したりすることが可能である。
さらに、本技術は、投影型のプロジェクタ31ではなく、スクリーンを有する表示装置を用いる場合にも適用することができる。例えば、音響制御部125は、映像が表示されるスクリーンの位置や映像の内容に基づいて、上述した方法により、仮想音源の位置を制御したり、反射型スピーカ51の出力音の音量を制御したりすることが可能である。また、例えば、スクリーンを複数の領域に分け、各領域に対して仮想音源をスクリーン内又はスクリーンの外に配置し、各領域の音の出力をそれぞれ対応する仮想音源を中心に分担することにより、より臨場感を高めることができる。
また、本技術は、反射型スピーカ51が駆動型でなく、手で位置や向きを変える場合にも適用することができる。具体的には、反射型スピーカ51が駆動型でない場合、反射型スピーカ51を設置することにより、仮想音源の位置が一意に定まる。そして、例えば、音響制御部125は、設定された仮想音源までの距離や仮想音源の位置の反射率に基づいて、上述した方法により、反射型スピーカ51からの出力音の音量を制御することが可能である。
さらに、音響制御部125は、反射率以外の反射特性を用いて、仮想音源の位置を設定するようにしてもよい。例えば、音響制御部125は、統合空間マップのデプス情報に基づいて、表示空間の形状を認識し、出力音に対する反射位置の角度を算出することにより、反射特性の一種である反射音の反射方向(反射角)を推定することができる。そこで、例えば、音響制御部125は、出力音がユーザの存在する方向に多く反射される位置を仮想音源に設定するようにしてもよい。これにより、ユーザに確実に音を聞かせることができるようになる。さらに、例えば、音響制御部125は、表示空間の表面材質に基づいて、出力音をほぼ正反射する位置を仮想音源に設定することにより、特定の位置のユーザにのみ音を聞かせるようにすることも可能である。
{システムの構成例に関する変形例}
図1のAVシステム10の構成例は、その一例であり、必要に応じて変更することが可能である。
例えば、情報処理装置15と情報処理装置16の機能の分担を変更することが可能である。また、例えば、情報処理装置15と情報処理装置16を1つにまとめることが可能である。
さらに、例えば、情報処理装置15の一部又は全部の機能を駆動型プロジェクタ11に設けたり、情報処理装置15及び情報処理装置16の一部又は全部の機能を駆動型プロジェクタ11に設けたりすることが可能である。また、例えば、情報処理装置15又は情報処理装置16に駆動型プロジェクタ11を設けたりすることが可能である。
さらに、例えば、情報処理装置16の一部又は全部の機能を駆動型スピーカ12に設けたり、情報処理装置15及び情報処理装置16の一部又は全部の機能を駆動型スピーカ12に設けたりすることが可能である。また、例えば、情報処理装置15又は情報処理装置16に駆動型スピーカ12を設けたりすることが可能である。
また、例えば、図10及び図11に示されるように、プロジェクタ31と反射型スピーカ51を一体化させてもよい。図10は、プロジェクタ31と反射型スピーカ51を一体化させたAVシステム200の機能の構成例を示すブロック図である。図11は、AVシステム200を構成する駆動型プロジェクタ201の外観の構成例を示す模式図である。
なお、図10及び図11において、図1及び図2と対応する部分には、同じ符号を付してあり、その説明は適宜省略する。
AVシステム200は、図1のAVシステム10と比較して、駆動型プロジェクタ11及び駆動型スピーカ12の代わりに、駆動型プロジェクタ11が設けられ、情報処理装置15及び情報処理装置16の代わりに情報処理装置202が設けられている点が異なる。
図11に示されるように、駆動型プロジェクタ201は、図2の駆動型プロジェクタ11のプロジェクタ31の上に反射型スピーカ51を設置した構成を有している。従って、プロジェクタ31と反射型スピーカ51は、駆動部33によりパン方向及びチルト方向に回転するとともに、常に同じ方向に向けられる。従って、プロジェクタ31の表示位置と反射型スピーカ51の仮想音源の位置とが、常に一致する。
情報処理装置202は、インタフェース(I/F)部221、ポインティング位置検出部222、ユーザ検出部223、マップ生成部224、記憶部225、入力部226、及び、制御部227を備える。
I/F部221は、図1のI/F部101やI/F部121と同様に、例えば、通信デバイス、コネクタ等により構成される。I/F部221は、プロジェクタ31、デプスセンサ32、モータ制御部43、反射型スピーカ51、カメラ71、魚眼カメラ72、及び、マイクロフォン73との間でデータ等の送受信を行う。また、I/F部221は、受信したデータ等を情報処理装置202の各部に供給したり、送信するデータ等を情報処理装置202の各部から取得したりする。
ポインティング位置検出部222は、図1のポインティング位置検出部102と同様に、魚眼カメラ72により撮影された魚眼画像に基づいて、ポインティングデバイス81によるポインティング位置の検出を行う。ポインティング位置検出部222は、検出結果を制御部227に供給する。
ユーザ検出部223は、図1のユーザ検出部103と同様に、カメラ71により撮影された表示空間画像に基づいて、例えば、表示空間内のユーザの位置、視線方向、ジェスチャ等を検出する。ユーザ検出部103は、検出結果を制御部227に供給する。
マップ生成部224は、図1のマップ生成部104とマップ生成部122の機能を併せ持つ。例えば、マップ生成部224は、I/F部221を介して、デプスセンサ32及びモータ制御部43を制御して、デプスセンサ32による表示空間内の距離画像の撮影を制御する。そして、マップ生成部224は、図1のマップ生成部104と同様に、距離画像を用いて、第1空間マップを生成する。
また、マップ生成部224は、I/F部221を介して、反射型スピーカ51及びモータ制御部43を制御して、反射型スピーカ51からの出力音の表示空間内の走査を制御する。そして、マップ生成部224は、図1のマップ生成部122と同様に、表示空間内に出力音を走査したときにマイクロフォン73により検出される反射音の検出結果に基づいて、第2空間マップを生成する。
さらに、マップ生成部224は、図1のマップ生成部104と同様に、第1空間マップと第2空間マップを統合した統合空間マップを生成する。マップ生成部224は、生成した統合空間マップを記憶部225に記憶させる。
また、マップ生成部224は、図1のマップ生成部104と同様に、例えば、第1空間マップに基づいて、表示空間内におけるマイクロフォン73等の位置を検出する。マップ生成部104は、検出結果を制御部227に供給する。
入力部226は、例えば、操作デバイス等により構成され、制御部227への指令やデータ(例えば、映像データ、音声データ)等の入力に用いられる。
制御部227は、図1の映像制御部107と音響制御部125の機能を併せ持ち、映像制御部231及び音響制御部232を備える。
映像制御部231は、駆動型プロジェクタ201による映像の表示、及び、反射型スピーカ51による仮想音源の位置を制御する。例えば、映像制御部231は、I/F部221を介してプロジェクタ31を制御して、表示する映像の内容及び表示タイミング等を制御する。また、例えば、映像制御部231は、I/F部221を介してモータ制御部43を制御して、プロジェクタ31の映像の投影方向、及び、反射型スピーカ51の出力方向を制御することにより、映像の表示位置、及び、出力音の反射位置(すなわち、仮想音源の位置)を制御する。
音響制御部232は、反射型スピーカ51による出力音の出力を制御する。例えば、音響制御部232は、I/F部121を介して反射型スピーカ51を制御して、出力音の内容、音量、及び、出力タイミング等を制御する。
AVシステム200では、駆動部33のみを制御することにより、プロジェクタ31と反射型スピーカ51の向きを同軸制御できるので、制御処理がシンプルになる。また、映像の表示位置と仮想音源の位置を容易に合わせることができる。ただし、AVシステム200では、AVシステム10と比較して、仮想音源の位置制御の柔軟性が低下する。例えば、映像の表示位置と異なる位置に仮想音源の位置を設定することが困難になる。
さらに、以上の説明では、プロジェクタ31の向きを変えることにより、表示位置を移動させる例を示したが、例えば、プロジェクタ31から投影される映像を鏡等の反射体で反射させるとともに、反射体の向きを変えることにより、表示位置を移動させるようにしてもよい。同様に、以上の説明では、反射型スピーカ51の向きを変えることにより、仮想音源の位置を移動させる例を示したが、例えば、反射型スピーカ51から出力される出力音を鏡等の反射体で反射させるとともに、反射体の向きを変えることにより、仮想音源の位置を移動させるようにしてもよい。
また、例えば、デプスセンサ32以外のセンサを用いて、表示空間内のデプス情報を取得するようにしてもよい。
{その他の変形例}
なお、壁、天井、床、スクリーン、カーテン等の平面状の物体だけでなく、例えば、本、ペットボトル等の立体的な物体に映像を投影するとともに、物体の表面に仮想音源を設定することにより、当該物体から音が聞こえてくるような体験を実現することができる。
また、以上の説明では、第1空間マップと第2空間マップを統合した統合空間マップを生成し、用いる例を示したが、いずれか一方のみを生成し、用いることも可能である。例えば、第1空間マップのみを用いる場合、仮想音源の位置の反射率に基づく音量制御を行わずに、仮想音源までの距離のみに基づいて音量制御を行うようにすればよい。
さらに、例えば、表示空間内の各位置の反射特性をより詳細に分析して、音量以外の出力音の特性を制御したり、音量と他の特性を制御したりするようにしてもよい。例えば、各位置の周波数毎の反射特性を分析し、仮想位置の反射特性に応じて、出力音の周波数特性を制御するようにしてもよい。例えば、低音に比べて高音の反射率が悪い位置に仮想音源が設定された場合、出力音の高周波成分を低周波成分より強調するようにしてもよい。
また、例えば、出力音を時分割して、左側の音、右側の音を交互に出力するとともに、左右の音の切り替えに同期して、反射型スピーカ51の向きを左右に振ることにより、1台の反射型スピーカ51でステレオ再生を実現することができる。
{コンピュータの構成例}
上述した情報処理装置15、情報処理装置16、及び、情報処理装置202の一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロフォンなどよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
また、例えば、本技術は以下のような構成も取ることができる。
(1)
反射型スピーカからの出力音の反射位置に基づいて、前記出力音の出力を制御する音響制御部を
備える情報処理装置。
(2)
前記音響制御部は、前記反射型スピーカから前記反射位置までの距離、及び、前記反射位置からユーザまでの距離のうち少なくとも一方に基づいて、前記出力音の出力を制御する
前記(1)に記載の情報処理装置。
(3)
前記音響制御部は、前記反射位置の反射特性に基づいて、前記出力音の出力を制御する
前記(1)又は(2)に記載の情報処理装置。
(4)
前記反射型スピーカは、超音波の前記出力音を出力し、前記出力音の出力方向が可変であり、
前記反射型スピーカが前記出力音を反射させる空間内において前記出力音を走査させ、反射音の検出結果に基づいて、前記空間内の反射特性を含む空間マップを生成するマップ生成部を
さらに備える前記(3)に記載の情報処理装置。
(5)
前記マップ生成部は、前記反射音の検出結果に基づいて、前記空間の3次元形状を含む前記空間マップを生成する
前記(4)に記載の情報処理装置。
(6)
前記反射型スピーカは、前記出力音の出力方向が可変であり、
前記音響制御部は、前記反射型スピーカからの前記出力音の出力方向により前記反射位置を制御する
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(7)
前記音響制御部は、前記出力音が対応する映像の表示位置に基づいて、前記反射位置を制御する
前記(6)に記載の情報処理装置。
(8)
前記音響制御部は、前記反射型スピーカが前記出力音を反射させる空間内の反射特性に基づいて、前記反射位置を制御する
前記(6)又は(7)に記載の情報処理装置。
(9)
前記音響制御部は、ユーザにより指定された位置であるポインティング位置及びユーザの視線の方向のうち少なくとも一方に基づいて、前記反射位置を制御する
前記(6)乃至(8)のいずれかに記載の情報処理装置。
(10)
前記音響制御部は、前記ポインティング位置において表示する映像が存在する場合、当該映像に対応する前記出力音を前記反射型スピーカから前記反射位置に向けて出力させる
前記(9)に記載の情報処理装置。
(11)
前記ポインティング位置に基づいて、映像の表示を制御する映像制御部を
さらに備え、
前記映像制御部は、前記ポインティング位置において表示する映像が存在する場合、当該映像を前記ポインティング位置に表示させる
前記(10)に記載の情報処理装置。
(12)
前記音響制御部は、前記ユーザの視線の方向において表示する映像が存在する場合、当該映像に対応する前記出力音を前記反射型スピーカから前記反射位置に向けて出力させる
前記(9)に記載の情報処理装置。
(13)
前記ユーザの視線の方向に基づいて、映像の表示を制御する映像制御部を
さらに備え、
前記映像制御部は、前記ユーザの視線の方向において表示する映像が存在する場合、当該映像を前記ユーザの視線の方向に表示させる
前記(12)に記載の情報処理装置。
(14)
前記音響制御部は、前記出力音が対応する映像の内容に基づいて、前記反射位置を制御する
前記(6)乃至(13)のいずれかに記載の情報処理装置。
(15)
前記音響制御部は、前記映像内の移動体の動きに基づいて、前記反射位置を制御する
前記(14)に記載の情報処理装置。
(16)
前記音響制御部は、前記出力音の特性を制御する
前記(1)乃至(15)のいずれかに記載の情報処理装置。
(17)
前記反射型スピーカを
さらに備える前記(1)乃至(16)のいずれかに記載の情報処理装置。
(18)
映像の投影方向が可変のプロジェクタを
さらに備え、
前記反射型スピーカは、前記出力音の出力方向が可変である
前記(17)に記載の情報処理装置。
(19)
反射型スピーカからの出力音の反射位置に基づいて、前記出力音の出力を制御する音響制御ステップを
含む情報処理方法。
(20)
反射型スピーカからの出力音の反射位置に基づいて、前記出力音の出力を制御する音響制御ステップを
含む処理をコンピュータに実行させるためのプログラム。
10 AVシステム, 11 駆動型プロジェクタ, 12 駆動型スピーカ, 13 センサ部, 14 操作部, 15,16 情報処理装置, 31 プロジェクタ, 32 デプスセンサ, 33 駆動部, 41 パンモータ, 42 チルトモータ, 43 モータ制御部, 51 反射型スピーカ, 52 駆動部, 61 パンモータ, 62 チルトモータ, 63 モータ制御部, 71 カメラ, 72 魚眼カメラ, 73 マイクロフォン, 81 ポインティングデバイス, 102 ポインティング位置検出部, 103 ユーザ検出部, 104 マップ生成部, 107 映像制御部, 122 マップ生成部, 125 音響制御部, 200 AVシステム, 201 駆動型プロジェクタ, 202 情報処理装置, 222 ポインティング位置検出部, 223 ユーザ検出部, 224 マップ生成部, 227 制御部, 231 映像制御部, 232 音響制御部

Claims (20)

  1. 反射型スピーカからの出力音の反射位置に基づいて、前記出力音の出力を制御する音響制御部を
    備える情報処理装置。
  2. 前記音響制御部は、前記反射型スピーカから前記反射位置までの距離、及び、前記反射位置からユーザまでの距離のうち少なくとも一方に基づいて、前記出力音の出力を制御する
    請求項1に記載の情報処理装置。
  3. 前記音響制御部は、前記反射位置の反射特性に基づいて、前記出力音の出力を制御する
    請求項1に記載の情報処理装置。
  4. 前記反射型スピーカは、超音波の前記出力音を出力し、前記出力音の出力方向が可変であり、
    前記反射型スピーカが前記出力音を反射させる空間内において前記出力音を走査させ、反射音の検出結果に基づいて、前記空間内の反射特性を含む空間マップを生成するマップ生成部を
    さらに備える請求項3に記載の情報処理装置。
  5. 前記マップ生成部は、前記反射音の検出結果に基づいて、前記空間の3次元形状を含む前記空間マップを生成する
    請求項4に記載の情報処理装置。
  6. 前記反射型スピーカは、前記出力音の出力方向が可変であり、
    前記音響制御部は、前記反射型スピーカからの前記出力音の出力方向により前記反射位置を制御する
    請求項1に記載の情報処理装置。
  7. 前記音響制御部は、前記出力音が対応する映像の表示位置に基づいて、前記反射位置を制御する
    請求項6に記載の情報処理装置。
  8. 前記音響制御部は、前記反射型スピーカが前記出力音を反射させる空間内の反射特性に基づいて、前記反射位置を制御する
    請求項7に記載の情報処理装置。
  9. 前記音響制御部は、ユーザにより指定された位置であるポインティング位置及びユーザの視線の方向のうち少なくとも一方に基づいて、前記反射位置を制御する
    請求項6に記載の情報処理装置。
  10. 前記音響制御部は、前記ポインティング位置において表示する映像が存在する場合、当該映像に対応する前記出力音を前記反射型スピーカから前記反射位置に向けて出力させる
    請求項9に記載の情報処理装置。
  11. 前記ポインティング位置に基づいて、映像の表示を制御する映像制御部を
    さらに備え、
    前記映像制御部は、前記ポインティング位置において表示する映像が存在する場合、当該映像を前記ポインティング位置に表示させる
    請求項10に記載の情報処理装置。
  12. 前記音響制御部は、前記ユーザの視線の方向において表示する映像が存在する場合、当該映像に対応する前記出力音を前記反射型スピーカから前記反射位置に向けて出力させる
    請求項9に記載の情報処理装置。
  13. 前記ユーザの視線の方向に基づいて、映像の表示を制御する映像制御部を
    さらに備え、
    前記映像制御部は、前記ユーザの視線の方向において表示する映像が存在する場合、当該映像を前記ユーザの視線の方向に表示させる
    請求項12に記載の情報処理装置。
  14. 前記音響制御部は、前記出力音が対応する映像の内容に基づいて、前記反射位置を制御する
    請求項6に記載の情報処理装置。
  15. 前記音響制御部は、前記映像内の移動体の動きに基づいて、前記反射位置を制御する
    請求項14に記載の情報処理装置。
  16. 前記音響制御部は、前記出力音の特性を制御する
    請求項1に記載の情報処理装置。
  17. 前記反射型スピーカを
    さらに備える請求項1に記載の情報処理装置。
  18. 映像の投影方向が可変のプロジェクタを
    さらに備え、
    前記反射型スピーカは、前記出力音の出力方向が可変である
    請求項17に記載の情報処理装置。
  19. 反射型スピーカからの出力音の反射位置に基づいて、前記出力音の出力を制御する音響制御ステップを
    含む情報処理方法。
  20. 反射型スピーカからの出力音の反射位置に基づいて、前記出力音の出力を制御する音響制御ステップを
    含む処理をコンピュータに実行させるためのプログラム。
JP2016047657A 2016-03-10 2016-03-10 情報処理装置、情報処理方法、及び、プログラム Pending JP2017163432A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2016047657A JP2017163432A (ja) 2016-03-10 2016-03-10 情報処理装置、情報処理方法、及び、プログラム
EP17762950.8A EP3429226A4 (en) 2016-03-10 2017-02-24 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
PCT/JP2017/006992 WO2017154610A1 (ja) 2016-03-10 2017-02-24 情報処理装置、情報処理方法、及び、プログラム
DE112017001190.6T DE112017001190T5 (de) 2016-03-10 2017-02-24 Datenverarbeitungseinrichtung, Datenverarbeitungsverfahren und Programm
US16/069,366 US10656899B2 (en) 2016-03-10 2017-02-24 Information processing apparatus, information processing method, and program
CN201780014902.2A CN108781327B (zh) 2016-03-10 2017-02-24 信息处理装置、信息处理方法以及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016047657A JP2017163432A (ja) 2016-03-10 2016-03-10 情報処理装置、情報処理方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2017163432A true JP2017163432A (ja) 2017-09-14

Family

ID=59790433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016047657A Pending JP2017163432A (ja) 2016-03-10 2016-03-10 情報処理装置、情報処理方法、及び、プログラム

Country Status (6)

Country Link
US (1) US10656899B2 (ja)
EP (1) EP3429226A4 (ja)
JP (1) JP2017163432A (ja)
CN (1) CN108781327B (ja)
DE (1) DE112017001190T5 (ja)
WO (1) WO2017154610A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019244315A1 (ja) * 2018-06-21 2019-12-26 株式会社ソニー・インタラクティブエンタテインメント 出力制御装置、出力制御システム、および出力制御方法
JP2020153906A (ja) * 2019-03-22 2020-09-24 アルパイン株式会社 音響特性測定システムおよび音響特性測定方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10945068B2 (en) * 2016-06-03 2021-03-09 Huawei Technologies Co., Ltd. Ultrasonic wave-based voice signal transmission system and method
US10140721B2 (en) * 2016-07-01 2018-11-27 Intel Corporation Mechanical system on computer with rotational projector and Realsense™ camera
CA3058171A1 (en) * 2017-03-28 2018-10-04 Magic Leap, Inc. Augmented reality system with spatialized audio tied to user manipulated virtual object
CN110494792B (zh) 2018-03-07 2021-07-09 奇跃公司 外围设备的视觉跟踪
JP2022123157A (ja) * 2019-07-01 2022-08-24 ピクシーダストテクノロジーズ株式会社 オーディオコントローラ及びプログラム
CN110441737B (zh) * 2019-08-26 2023-02-24 上海声茵科技有限公司 一种采用鱼眼镜头的声源定位方法及其设备
CN111586553B (zh) * 2020-05-27 2022-06-03 京东方科技集团股份有限公司 显示装置及其工作方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2924710B2 (ja) * 1995-04-28 1999-07-26 ヤマハ株式会社 ステレオ音場拡大装置
US6577738B2 (en) * 1996-07-17 2003-06-10 American Technology Corporation Parametric virtual speaker and surround-sound system
JP2003037888A (ja) * 2001-07-23 2003-02-07 Mechanical Research:Kk スピーカシステム
JP3821228B2 (ja) * 2002-11-15 2006-09-13 ソニー株式会社 オーディオ信号の処理方法および処理装置
JP4007254B2 (ja) * 2003-06-02 2007-11-14 ヤマハ株式会社 アレースピーカーシステム
JP4114583B2 (ja) * 2003-09-25 2008-07-09 ヤマハ株式会社 特性補正システム
JP4214961B2 (ja) * 2004-06-28 2009-01-28 セイコーエプソン株式会社 超指向性音響システム及びプロジェクタ
JP2006019864A (ja) 2004-06-30 2006-01-19 Seiko Epson Corp プロジェクタシステム及びスクリーン構造
JP2007043585A (ja) 2005-08-05 2007-02-15 Sanyo Electric Co Ltd プロジェクタ装置
JP2007199322A (ja) * 2006-01-26 2007-08-09 Matsushita Electric Ind Co Ltd 投写型画像表示装置および投写型画像表示システム
JP4609502B2 (ja) * 2008-02-27 2011-01-12 ヤマハ株式会社 サラウンド出力装置およびプログラム
WO2009113319A1 (ja) * 2008-03-13 2009-09-17 タカノ株式会社 スピーカ組み込み椅子
JP5316189B2 (ja) * 2008-05-23 2013-10-16 ヤマハ株式会社 Avシステム
CN101626533A (zh) * 2008-07-11 2010-01-13 宏碁股份有限公司 扬声器系统、装置以及方法
JP2010056710A (ja) * 2008-08-27 2010-03-11 Sharp Corp 指向性スピーカ反射方向制御機能付プロジェクタ
US8811119B2 (en) * 2010-05-20 2014-08-19 Koninklijke Philips N.V. Distance estimation using sound signals
KR20230007563A (ko) * 2013-07-31 2023-01-12 돌비 레버러토리즈 라이쎈싱 코오포레이션 공간적으로 분산된 또는 큰 오디오 오브젝트들의 프로세싱
EP3092819A1 (en) * 2014-01-10 2016-11-16 Dolby Laboratories Licensing Corporation Reflected sound rendering using downward firing drivers
EP3152919B1 (en) * 2014-06-03 2020-02-19 Dolby Laboratories Licensing Corporation Passive and active virtual height filter systems for upward firing drivers
US10679407B2 (en) * 2014-06-27 2020-06-09 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for modeling interactive diffuse reflections and higher-order diffraction in virtual environment scenes
CN111556426B (zh) * 2015-02-06 2022-03-25 杜比实验室特许公司 用于自适应音频的混合型基于优先度的渲染系统和方法
US10375472B2 (en) * 2015-07-02 2019-08-06 Dolby Laboratories Licensing Corporation Determining azimuth and elevation angles from stereo recordings
US10212519B2 (en) * 2015-11-19 2019-02-19 The Lovesac Company Electronic furniture systems with integrated internal speakers
US10249276B2 (en) * 2016-09-02 2019-04-02 Murray R. Clark Rotating speaker array

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019244315A1 (ja) * 2018-06-21 2019-12-26 株式会社ソニー・インタラクティブエンタテインメント 出力制御装置、出力制御システム、および出力制御方法
US11337024B2 (en) 2018-06-21 2022-05-17 Sony Interactive Entertainment Inc. Output control device, output control system, and output control method
JP2020153906A (ja) * 2019-03-22 2020-09-24 アルパイン株式会社 音響特性測定システムおよび音響特性測定方法
JP7057309B2 (ja) 2019-03-22 2022-04-19 アルパイン株式会社 音響特性測定システムおよび音響特性測定方法

Also Published As

Publication number Publication date
US10656899B2 (en) 2020-05-19
EP3429226A1 (en) 2019-01-16
DE112017001190T5 (de) 2018-11-15
US20190034155A1 (en) 2019-01-31
EP3429226A4 (en) 2019-03-06
CN108781327B (zh) 2021-02-12
CN108781327A (zh) 2018-11-09
WO2017154610A1 (ja) 2017-09-14

Similar Documents

Publication Publication Date Title
WO2017154610A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
US10514256B1 (en) Single source multi camera vision system
JP6448196B2 (ja) 画像生成システム及びプログラム
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
US9052579B1 (en) Remote control of projection and camera system
WO2020031740A1 (ja) 制御装置および制御方法、並びにプログラム
US9693168B1 (en) Ultrasonic speaker assembly for audio spatial effect
US11269250B2 (en) Information processing apparatus, information processing method, and program
US9268520B1 (en) Altering content projection
US20160295197A1 (en) Depth imaging
WO2018221209A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP7052719B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2010056710A (ja) 指向性スピーカ反射方向制御機能付プロジェクタ
CN112673276A (zh) 超声波传感器
US9261759B1 (en) Aspect corrected laser video projection
KR102590132B1 (ko) 디스플레이 장치, 및 디스플레이 장치의 제어방법
WO2017163649A1 (ja) 画像処理装置
JP6600186B2 (ja) 情報処理装置、制御方法およびプログラム
WO2023248832A1 (ja) 遠隔視認システム、現地撮像システム
JP2018006822A (ja) 音声出力システム及び音声出力方法
JP2020020986A (ja) プロジェクター、投射システム、及び、投射方法
CN116405846A (zh) 用于封闭环境的便携式电子设备的音频集成