JP7234555B2 - 情報処理装置、および情報処理方法、プログラム、情報処理システム - Google Patents
情報処理装置、および情報処理方法、プログラム、情報処理システム Download PDFInfo
- Publication number
- JP7234555B2 JP7234555B2 JP2018179845A JP2018179845A JP7234555B2 JP 7234555 B2 JP7234555 B2 JP 7234555B2 JP 2018179845 A JP2018179845 A JP 2018179845A JP 2018179845 A JP2018179845 A JP 2018179845A JP 7234555 B2 JP7234555 B2 JP 7234555B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- sound
- schedule
- audio
- field synthesis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R27/00—Public address systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0269—Targeted advertisements based on user profile or attribute
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0261—Targeted advertisements based on user location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0269—Targeted advertisements based on user profile or attribute
- G06Q30/0271—Personalized advertisement
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/403—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/01—Aspects of volume control, not necessarily automatic, in sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/13—Aspects of volume control, not necessarily automatic, in stereophonic sound systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/13—Application of wave-field synthesis in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Circuit For Audible Band Transducer (AREA)
- Controls And Circuits For Display Device (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Stereophonic System (AREA)
Description
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.変形例
6.第5の実施の形態
7.第6の実施の形態
8.ソフトウェアにより実行させる例
<本開示の概要>
図1を参照して、本開示の広告提示システムの概要について説明する。
次に、図3のハードウェアブロック図を参照して、情報処理装置11のハードウェア構成例について説明する。
次に、図4の機能ブロック図を参照して、情報処理装置11により実現される機能について説明する。
次に、図6のフローチャートを参照して、第1の実施の形態における広告用の音声および画像の出力処理について説明する。
<領域毎に音声を出力し画像を表示する例>
以上においては、通路における通行人の位置に応じて広告用の音声を出力し、画像を表示するようにする例について説明してきたが、複数の通行人や複数の通行人のグループが通行している場合、個別に処理する人数やグループ数には限界がある。そこで、通路を複数の領域に分割して、各領域に存在する通行人や通行人のグループの属性に応じて、領域毎に広告用の音声の出力と、表示する画像を切り替えられるようにしてもよい。また、同じ領域に複数のグループまたは通行人が存在する場合には、優先するコンテンツを予め決めておき、そのコンテンツを提示するようにする。例えば、優先度の高い方から英語、中国語、日本語の順に提示するものとする。
また、以上においては、推定される通行人や通行人のグループが存在する領域において、対応する属性の音声のコンテンツを領域毎に出力し、画像を表示する例について説明してきたが、音声を出力する領域(受聴領域)内に存在することが推定される時間の長さに応じて、長さの異なる広告用の音声のコンテンツを切り替えて出力し、画像を表示するようにしてもよい。
次に、図12のフローチャートを参照して、領域毎に再生スケジュールを設定する場合の出力処理について説明する。
<マルチスピーカシステムとの距離に応じた音量の調整>
以上においては、センサ12により撮像された画像に基づいて検出された通行人や通行人のグループの位置、移動速度、および移動方向に基づいて推定される動きに追従するように、波面合成によりマルチスピーカシステム14により広告用の音声を出力する例について説明してきたが、波面合成により生成される音源からの距離に応じた音量カーブを設定し、移動距離に応じた音量の調整が音量カーブに基づいて成されるようにしてもよい。
次に、図14のフローチャートを参照して、距離に応じた音量の減衰を表現する場合の出力処理について説明する。尚、図14のフローチャートにおけるステップS71乃至S79、およびステップS81乃至S91の処理については、図12のフローチャートを参照して説明した処理と同様であるので、その説明は省略する。
<同時に複数の受聴者に個別の指示を出す例>
以上においては、通路を通行する通行人に対して、広告用の音声を出力して、広告用の画像を表示する例について説明してきたが、例えば、通路に代えて、ダンススタジオなどにマルチスピーカシステム14を構成して、スタジオ内でダンスする複数の受聴者としてのダンサに対して個別の指示を出すようにしてもよい。
次に、図17のフローチャートを参照して、同時に複数の受聴者に個別の指示を出す場合の出力処理について説明する。尚、図17のフローチャートにおいては、各領域Z11乃至Z13のそれぞれで踊るダンサにより個別に視聴可能な画像を表示する表示部13が設けられており、それぞれの指示内容に対応する画像も表示する場合の処理について説明する。
<受聴者に対して受聴可能なコンテンツを視覚的に提示する例>
以上においては、センサ12により撮像された画像に基づいて、受聴者の位置、移動速度、および移動方向を認識して、受聴者の動きを推定し、動き推定結果に基づいて、予め設定された領域毎または対象者毎の再生スケジュールを設定して、波面合成により領域毎または対象者毎の受聴者に視聴可能な音声を出力させる例について説明してきたが、領域毎に受聴可能なコンテンツを視覚的に認識できるように提示するようにしてもよい。
<受聴者の属性に応じた出力処理>
以上においては、通路を移動する受聴者である通行人に対して、動きに追従して、音声と画像からなる広告を提示したり、複数の受聴者に対して個別に同時に指示を出力する例について説明してきたが、受聴者である通行人の動きや位置の変化とは無関係に属性に応じて出力するようにしてもよい。
<ライブ会場の音声と画像を再現会場で再現する例>
以上においては、通路を移動する受聴者である通行人に対して、動きに追従して、音声と画像からなる広告を提示したり、複数の受聴者に対して個別に同時に指示を出力する例について説明してきたが、ライブ会場の音声と画像を他の再現会場において出力するようにしてもよい。
次に、図21を参照して、再現会場においてライブ会場の音声と画像を出力する情報処理装置11のハードウェア構成例について説明する。尚、図21の情報処理装置11において、図3の情報処理装置11と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
次に、図22の機能ブロック図を参照して、図21の情報処理装置11により実現される機能について説明する。尚、図22の機能ブロック図において、図4の機能ブロック図と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
次に、図24のフローチャートを参照して、ライブ会場の音声および画像を再現会場で出力する場合の出力処理について説明する。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
前記検出部により検出された人の位置の変化に追従して仮想音源の位置を変更して空間的な音場を伝送するように波面合成により音声を出力する音声出力部とを備える
情報処理装置。
<2> 前記検出部により検出された人の位置の変化に追従して、前記波面合成により音声を出力するスケジュールを生成するスケジュール生成部と、
前記音声出力部は、前記スケジュールに応じて、前記検出部により検出された人の位置の変化に追従して、前記波面合成により音声を出力する
<1>に記載の情報処理装置。
<3> 前記スケジュールに応じて、音場を合成するための音場合成パラメータを生成する音場合成パラメータ生成部と、
前記音場合成パラメータと複数のチャネルの音声データとを畳み込み演算によりチャネル毎に合成することで音場を合成する音場合成部とをさらに備え、
前記音声出力部は、前記音場合成部により前記チャネル毎に前記音場が合成された音声を出力することで前記波面合成により音声を出力する
<2>に記載の情報処理装置。
<4> 前記人は、受聴者であり、
前記検出部は、前記受聴者の位置の変化を検出し、
前記スケジュール生成部は、前記検出部により検出された前記受聴者の位置の変化に追従して、前記波面合成により前記音声出力部より音声を出力するスケジュールを生成する
<2>に記載の情報処理装置。
<5> 前記受聴者により音声が受聴される受聴領域が複数に分割された分割領域として設定され、
前記スケジュール生成部は、前記検出部により検出された前記受聴者の位置の変化に追従して、前記分割領域のうち、前記受聴者が存在する領域について、前記波面合成により前記音声出力部より音声を出力するスケジュールを生成する
<4>に記載の情報処理装置。
<6> 前記スケジュール生成部は、再生時間の長さが異なる複数のコンテンツのうち、前記検出部により検出された前記受聴者の位置の変化に追従して、前記分割領域を前記受聴者が通過する時間と対応する再生時間の長さのコンテンツを選択して、前記波面合成により前記音声出力部より音声を出力するスケジュールを生成する
<5>に記載の情報処理装置。
<7> 前記分割領域内のそれぞれの位置に前記受聴者が存在する場合の波面合成フィルタを格納するテーブルをさらに含み、
前記音声出力部は、前記検出部により検出された前記受聴者の位置の変化に追従して、前記テーブルより、前記分割領域内の位置に応じた波面合成フィルタを読み出して、前記波面合成することにより音声を出力する
<5>に記載の情報処理装置。
<8> 前記受聴者の属性を推定する属性推定部をさらに含み、
前記スケジュール生成部は、前記属性推定部により推定された前記受聴者の属性に対応するコンテンツを選択して、前記検出部により検出された前記受聴者の位置の変化に追従して、前記分割領域のうち、前記受聴者が存在する分割領域に対して、前記音声出力部より前記波面合成により音声を出力するスケジュールを生成する
<5>に記載の情報処理装置。
<9> 前記音声出力部より前記分割領域に対して出力されるコンテンツの種類に応じた視覚的情報を提示する領域提示部をさらに備える
<5>に記載の情報処理装置。
<10> 前記領域提示部は、前記音声出力部より前記分割領域に対して出力されるコンテンツの種類に応じて、前記分割領域毎に異なる模様を投影する投影部、または、前記音声出力部より前記分割領域に対して出力されるコンテンツの種類に応じて、前記分割領域毎に発色を変えて発光する発光部である
<9>に記載の情報処理装置。
<11> 前記スケジュール生成部は、前記属性推定部により推定された前記受聴者の属性の種類が多い場合、複数の属性に対して共通のコンテンツを選択して、前記検出部により検出された前記受聴者の位置の変化に追従して、前記波面合成により音声を出力するスケジュールを生成する
<8>に記載の情報処理装置。
<12> 前記音声に対応する画像を再生して表示する表示部と、
前記音声に対応する字幕を再生する字幕再生部とをさらに含み、
前記字幕再生部は、前記属性推定部により推定された前記受聴者の属性に対応する字幕を選択して再生する
<8>に記載の情報処理装置。
<13> 前記属性は、前記受聴者の個別の識別情報、男性、女性、年齢、国籍、使用言語、1人の男性、1人の女性、複数の男性のグループ、複数の女性のグループ、男女混合のグループ、家族連れ、および行動の状態を含む
<8>に記載の情報処理装置。
<14> 前記スケジュール生成部は、前記属性推定部により推定された前記受聴者の属性により前記受聴者を識別し、識別結果に応じたコンテンツを選択して、前記検出部により検出された前記受聴者の位置の変化に追従して、前記受聴者が存在する前記分割領域毎に、前記波面合成により音声を出力するスケジュールを生成する
<8>に記載の情報処理装置。
<15> 前記スケジュール生成部は、前記検出部により検出された前記受聴者の位置の変化に追従して、前記受聴者と音源との距離に応じた音量カーブを用いて音量を制御して、前記波面合成により音声を出力するスケジュールを生成する
<4>に記載の情報処理装置。
<16> 前記人は、発音者であり、
前記検出部は、前記発音者の位置の変化を検出し、
前記スケジュール生成部は、前記検出部により検出された前記発音者の動きに追従して、前記波面合成により前記音声出力部より音声を出力するスケジュールを生成する
<2>または<3>に記載の情報処理装置。
<17> 前記発音者は、ライブ会場におけるアーティストであり、
前記検出部は、前記ライブ会場におけるアーティストの画像に基づいて、前記ライブ会場におけるアーティストの位置の変化を検出し、前記ライブ会場の空間情報と再現会場の空間情報に基づいて、前記再現会場における位置の変化に変換することで、前記再現会場におけるアーティストの位置の変化を検出し、
前記スケジュール生成部は、前記検出部により検出された前記再現会場における前記アーティストの位置の変化に追従して、前記再現会場で前記波面合成により前記音声出力部より音声を出力するスケジュールを生成する
<16>に記載の情報処理装置。
<18> 人の位置の変化を検出する検出処理と、
前記検出処理により検出された人の位置の変化に追従して波面合成により音声を出力する音声出力処理を含む
情報処理方法。
<19> 人の位置の変化を検出する検出部と、
前記検出部により検出された人の位置の変化に追従して波面合成により音声を出力する音声出力部
としてコンピュータを機能させるプログラム。
<20> 人の位置の変化を検出する検出部と、
前記検出部により検出された人の位置の変化に追従して波面合成により音声を出力する音声出力部を備える
情報処理システム。
Claims (19)
- 人の位置の変化を検出する検出部と、
前記検出部により検出された人の位置の変化に追従して仮想音源の位置を変更して空間的な音場を伝送するように波面合成により音声を出力する音声出力部と、
前記検出部により検出された人の位置の変化に追従して、前記波面合成により音声を出力するスケジュールを生成するスケジュール生成部とを備え、
前記音声出力部は、前記スケジュールに応じて、前記検出部により検出された人の位置の変化に追従して、前記波面合成により音声を出力する
情報処理装置。 - 前記スケジュールに応じて、音場を合成するための音場合成パラメータを生成する音場合成パラメータ生成部と、
前記音場合成パラメータと複数のチャネルの音声データとを畳み込み演算によりチャネル毎に合成することで音場を合成する音場合成部とをさらに備え、
前記音声出力部は、前記音場合成部により前記チャネル毎に前記音場が合成された音声を出力することで前記波面合成により音声を出力する
請求項1に記載の情報処理装置。 - 前記人は、受聴者であり、
前記検出部は、前記受聴者の位置の変化を検出し、
前記スケジュール生成部は、前記検出部により検出された前記受聴者の位置の変化に追従して、前記波面合成により前記音声出力部より音声を出力するスケジュールを生成する
請求項1に記載の情報処理装置。 - 前記受聴者により音声が受聴される受聴領域が複数に分割された分割領域として設定され、
前記スケジュール生成部は、前記検出部により検出された前記受聴者の位置の変化に追従して、前記分割領域のうち、前記受聴者が存在する領域について、前記波面合成により前記音声出力部より音声を出力するスケジュールを生成する
請求項3に記載の情報処理装置。 - 前記スケジュール生成部は、再生時間の長さが異なる複数のコンテンツのうち、前記検出部により検出された前記受聴者の位置の変化に追従して、前記分割領域を前記受聴者が通過する時間と対応する再生時間の長さのコンテンツを選択して、前記波面合成により前記音声出力部より音声を出力するスケジュールを生成する
請求項4に記載の情報処理装置。 - 前記分割領域内のそれぞれの位置に前記受聴者が存在する場合の波面合成フィルタを格納するテーブルをさらに含み、
前記音声出力部は、前記検出部により検出された前記受聴者の位置の変化に追従して、前記テーブルより、前記分割領域内の位置に応じた波面合成フィルタを読み出して、前記波面合成することにより音声を出力する
請求項4に記載の情報処理装置。 - 前記受聴者の属性を推定する属性推定部をさらに含み、
前記スケジュール生成部は、前記属性推定部により推定された前記受聴者の属性に対応するコンテンツを選択して、前記検出部により検出された前記受聴者の位置の変化に追従して、前記分割領域のうち、前記受聴者が存在する分割領域に対して、前記音声出力部より前記波面合成により音声を出力するスケジュールを生成する
請求項4に記載の情報処理装置。 - 前記音声出力部より前記分割領域に対して出力されるコンテンツの種類に応じた視覚的情報を提示する領域提示部をさらに備える
請求項4に記載の情報処理装置。 - 前記領域提示部は、前記音声出力部より前記分割領域に対して出力されるコンテンツの種類に応じて、前記分割領域毎に異なる模様を投影する投影部、または、前記音声出力部より前記分割領域に対して出力されるコンテンツの種類に応じて、前記分割領域毎に発色を変えて発光する発光部である
請求項8に記載の情報処理装置。 - 前記スケジュール生成部は、前記属性推定部により推定された前記受聴者の属性の種類が多い場合、複数の属性に対して共通のコンテンツを選択して、前記検出部により検出された前記受聴者の位置の変化に追従して、前記波面合成により音声を出力するスケジュールを生成する
請求項7に記載の情報処理装置。 - 前記音声に対応する画像を再生して表示する表示部と、
前記音声に対応する字幕を再生する字幕再生部とをさらに含み、
前記字幕再生部は、前記属性推定部により推定された前記受聴者の属性に対応する字幕を選択して再生する
請求項7に記載の情報処理装置。 - 前記属性は、前記受聴者の個別の識別情報、男性、女性、年齢、国籍、使用言語、1人の男性、1人の女性、複数の男性のグループ、複数の女性のグループ、男女混合のグループ、家族連れ、および行動の状態を含む
請求項7に記載の情報処理装置。 - 前記スケジュール生成部は、前記属性推定部により推定された前記受聴者の属性により前記受聴者を識別し、識別結果に応じたコンテンツを選択して、前記検出部により検出された前記受聴者の位置の変化に追従して、前記受聴者が存在する前記分割領域毎に、前記波面合成により音声を出力するスケジュールを生成する
請求項7に記載の情報処理装置。 - 前記スケジュール生成部は、前記検出部により検出された前記受聴者の位置の変化に追従して、前記受聴者と音源との距離に応じた音量カーブを用いて音量を制御して、前記波面合成により音声を出力するスケジュールを生成する
請求項3に記載の情報処理装置。 - 前記人は、発音者であり、
前記検出部は、前記発音者の位置の変化を検出し、
前記スケジュール生成部は、前記検出部により検出された前記発音者の動きに追従して、前記波面合成により前記音声出力部より音声を出力するスケジュールを生成する
請求項1に記載の情報処理装置。 - 前記発音者は、ライブ会場におけるアーティストであり、
前記検出部は、前記ライブ会場におけるアーティストの画像に基づいて、前記ライブ会場におけるアーティストの位置の変化を検出し、前記ライブ会場の空間情報と再現会場の空間情報に基づいて、前記再現会場における位置の変化に変換することで、前記再現会場におけるアーティストの位置の変化を検出し、
前記スケジュール生成部は、前記検出部により検出された前記再現会場における前記アーティストの位置の変化に追従して、前記再現会場で前記波面合成により前記音声出力部より音声を出力するスケジュールを生成する
請求項15に記載の情報処理装置。 - 人の位置の変化を検出する検出処理と、
前記検出処理により検出された人の位置の変化に追従して波面合成により音声を出力する音声出力処理と、
前記検出処理により検出された人の位置の変化に追従して、前記波面合成により音声を出力するスケジュールを生成するスケジュール生成処理とを含み、
前記音声出力処理は、前記スケジュールに応じて、前記検出処理により検出された人の位置の変化に追従して、前記波面合成により音声を出力する
情報処理方法。 - 人の位置の変化を検出する検出部と、
前記検出部により検出された人の位置の変化に追従して波面合成により音声を出力する音声出力部と、
前記検出部により検出された人の位置の変化に追従して、前記波面合成により音声を出力するスケジュールを生成するスケジュール生成部としてコンピュータを機能させ、
前記音声出力部は、前記スケジュールに応じて、前記検出部により検出された人の位置の変化に追従して、前記波面合成により音声を出力する
プログラム。 - 人の位置の変化を検出する検出部と、
前記検出部により検出された人の位置の変化に追従して波面合成により音声を出力する音声出力部と、
前記検出部により検出された人の位置の変化に追従して、前記波面合成により音声を出力するスケジュールを生成するスケジュール生成部とを備え、
前記音声出力部は、前記スケジュールに応じて、前記検出部により検出された人の位置の変化に追従して、前記波面合成により音声を出力する
情報処理システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179845A JP7234555B2 (ja) | 2018-09-26 | 2018-09-26 | 情報処理装置、および情報処理方法、プログラム、情報処理システム |
PCT/JP2019/035821 WO2020066644A1 (en) | 2018-09-26 | 2019-09-12 | Information processing device, information processing method, program, and information processing system |
US17/274,693 US11546713B2 (en) | 2018-09-26 | 2019-09-12 | Information processing device, information processing method, program, and information processing system |
CN201980062226.5A CN112771891B (zh) | 2018-09-26 | 2019-09-12 | 信息处理设备、信息处理方法、程序和信息处理系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179845A JP7234555B2 (ja) | 2018-09-26 | 2018-09-26 | 情報処理装置、および情報処理方法、プログラム、情報処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020053791A JP2020053791A (ja) | 2020-04-02 |
JP7234555B2 true JP7234555B2 (ja) | 2023-03-08 |
Family
ID=68073110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018179845A Active JP7234555B2 (ja) | 2018-09-26 | 2018-09-26 | 情報処理装置、および情報処理方法、プログラム、情報処理システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11546713B2 (ja) |
JP (1) | JP7234555B2 (ja) |
CN (1) | CN112771891B (ja) |
WO (1) | WO2020066644A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022113288A1 (ja) * | 2020-11-27 | 2022-06-02 | ヤマハ株式会社 | ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 |
US20240022686A1 (en) * | 2022-07-15 | 2024-01-18 | Stereyo Bv | Focused sound and infotainment system and method |
US12112695B2 (en) | 2022-12-19 | 2024-10-08 | Stereyo Bv | Display systems and methods with multiple and/or adaptive primary colors |
US12080224B2 (en) | 2022-12-19 | 2024-09-03 | Stereyo Bv | Configurations, methods, and devices for improved visual performance of a light-emitting element display and/or a camera recording an image from the display |
US12100363B2 (en) | 2022-12-19 | 2024-09-24 | Stereyo Bv | Configurations, methods, and devices for improved visual performance of a light-emitting element display and/or a camera recording an image from the display |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008147840A (ja) | 2006-12-07 | 2008-06-26 | Sony Corp | 音声信号生成装置、音場再生装置、音声信号生成方法およびコンピュータプログラム |
JP2013529004A (ja) | 2010-04-26 | 2013-07-11 | ケンブリッジ メカトロニクス リミテッド | 位置追跡を備えるスピーカ |
WO2017098949A1 (ja) | 2015-12-10 | 2017-06-15 | ソニー株式会社 | 音声処理装置および方法、並びにプログラム |
WO2017158338A1 (en) | 2016-03-14 | 2017-09-21 | University Of Southampton | Sound reproduction system |
WO2018008395A1 (ja) | 2016-07-05 | 2018-01-11 | ソニー株式会社 | 音場形成装置および方法、並びにプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005295181A (ja) | 2004-03-31 | 2005-10-20 | Victor Co Of Japan Ltd | 音声情報生成装置 |
JP5658867B2 (ja) * | 2009-05-15 | 2015-01-28 | グローバルマイクロニクス株式会社 | 音場制御装置 |
US20120001828A1 (en) * | 2010-06-30 | 2012-01-05 | Gallagher Andrew C | Selecting displays for displaying content |
JP2012175162A (ja) * | 2011-02-17 | 2012-09-10 | Waseda Univ | 音響システム |
JP2012253707A (ja) * | 2011-06-07 | 2012-12-20 | Mitsubishi Electric Corp | 立体映像表示装置及び音声再生装置 |
US10225680B2 (en) * | 2013-07-30 | 2019-03-05 | Thomas Alan Donaldson | Motion detection of audio sources to facilitate reproduction of spatial audio spaces |
US10048835B2 (en) * | 2014-10-31 | 2018-08-14 | Microsoft Technology Licensing, Llc | User interface functionality for facilitating interaction between users and their environments |
WO2016180493A1 (en) * | 2015-05-13 | 2016-11-17 | Huawei Technologies Co., Ltd. | Method and apparatus for driving an array of loudspeakers with drive signals |
US9584935B2 (en) | 2015-05-29 | 2017-02-28 | Sound United, Llc. | Multi-zone media system and method for providing multi-zone media |
CN108141665A (zh) * | 2015-10-26 | 2018-06-08 | 索尼公司 | 信号处理装置、信号处理方法和程序 |
US11082792B2 (en) | 2017-06-21 | 2021-08-03 | Sony Corporation | Apparatus, system, method and computer program for distributing announcement messages |
-
2018
- 2018-09-26 JP JP2018179845A patent/JP7234555B2/ja active Active
-
2019
- 2019-09-12 CN CN201980062226.5A patent/CN112771891B/zh active Active
- 2019-09-12 WO PCT/JP2019/035821 patent/WO2020066644A1/en active Application Filing
- 2019-09-12 US US17/274,693 patent/US11546713B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008147840A (ja) | 2006-12-07 | 2008-06-26 | Sony Corp | 音声信号生成装置、音場再生装置、音声信号生成方法およびコンピュータプログラム |
JP2013529004A (ja) | 2010-04-26 | 2013-07-11 | ケンブリッジ メカトロニクス リミテッド | 位置追跡を備えるスピーカ |
WO2017098949A1 (ja) | 2015-12-10 | 2017-06-15 | ソニー株式会社 | 音声処理装置および方法、並びにプログラム |
WO2017158338A1 (en) | 2016-03-14 | 2017-09-21 | University Of Southampton | Sound reproduction system |
WO2018008395A1 (ja) | 2016-07-05 | 2018-01-11 | ソニー株式会社 | 音場形成装置および方法、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN112771891A (zh) | 2021-05-07 |
US20210345058A1 (en) | 2021-11-04 |
WO2020066644A1 (en) | 2020-04-02 |
CN112771891B (zh) | 2023-05-02 |
JP2020053791A (ja) | 2020-04-02 |
US11546713B2 (en) | 2023-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7234555B2 (ja) | 情報処理装置、および情報処理方法、プログラム、情報処理システム | |
US11617050B2 (en) | Systems and methods for sound source virtualization | |
JP2022009049A (ja) | 複合現実デバイスにおける仮想および実オブジェクトの記録 | |
KR101644421B1 (ko) | 사용자의 관심 정도에 기반한 컨텐츠 제공장치 및 방법 | |
JP2020053792A (ja) | 情報処理装置、および情報処理方法、プログラム、情報処理システム | |
US11321892B2 (en) | Interactive virtual reality broadcast systems and methods | |
JP2007050461A (ja) | ロボット制御システム、ロボット装置、およびロボット制御方法 | |
US20220246135A1 (en) | Information processing system, information processing method, and recording medium | |
KR20210135520A (ko) | 라이브 배신 시스템 및 라이브 배신 방법 | |
WO2019069743A1 (ja) | オーディオコントローラ、超音波スピーカ、及び、オーディオシステム | |
JP7037654B2 (ja) | キャプチャされた空間オーディオコンテンツの提示用の装置および関連する方法 | |
JP2021508193A5 (ja) | ||
WO2018079850A1 (ja) | 信号処理装置、信号処理方法およびプログラム | |
KR101809617B1 (ko) | 마이콘서트시스템 | |
KR102712658B1 (ko) | 정보 처리 장치, 정보 처리 방법, 프로그램, 및 정보 처리 시스템 | |
US20220337886A1 (en) | Virtual Spectator Experience for Live Events | |
CN112567454A (zh) | 信息处理装置、信息处理方法及程序 | |
US20230077102A1 (en) | Virtual Scene | |
EP4318454A1 (en) | Information processing device, information processing method, and recording medium | |
WO2023238637A1 (ja) | 情報処理装置および情報処理方法、並びにプログラム | |
Grigoriou et al. | Binaural mixing using gestural control interaction | |
WO2023281820A1 (ja) | 情報処理装置、情報処理方法、記憶媒体 | |
WO2020241299A1 (ja) | 制御装置、制御方法、制御プログラム及び制御システム | |
JP7151707B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6400551B2 (ja) | 空間像演出装置、空間像演出装置の制御方法および映像システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230206 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7234555 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |