JP2016506639A - サウンドの触知可能な制御を提供するための方法および装置 - Google Patents
サウンドの触知可能な制御を提供するための方法および装置 Download PDFInfo
- Publication number
- JP2016506639A JP2016506639A JP2015541778A JP2015541778A JP2016506639A JP 2016506639 A JP2016506639 A JP 2016506639A JP 2015541778 A JP2015541778 A JP 2015541778A JP 2015541778 A JP2015541778 A JP 2015541778A JP 2016506639 A JP2016506639 A JP 2016506639A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- transducer array
- sound transducer
- projection patterns
- physical space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 230000009471 action Effects 0.000 claims description 95
- 238000004891 communication Methods 0.000 claims description 64
- 230000003993 interaction Effects 0.000 claims description 34
- 238000013507 mapping Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 abstract description 27
- 238000012800 visualization Methods 0.000 abstract description 19
- 230000000007 visual effect Effects 0.000 abstract description 11
- 238000009877 rendering Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 13
- 238000013459 approach Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000010079 rubber tapping Methods 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 239000000758 substrate Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000001939 inductive effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012553 document review Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R29/00—Monitoring arrangements; Testing arrangements
- H04R29/001—Monitoring arrangements; Testing arrangements for loudspeakers
- H04R29/002—Loudspeaker arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/40—Visual indication of stereophonic sound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/265—Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
- G10H2210/295—Spatial effects, musical uses of multiple audio channels, e.g. stereo
- G10H2210/301—Soundscape or sound field simulation, reproduction or control for musical purposes, e.g. surround or 3D sound; Granular synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
- G10H2220/096—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/351—Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
- G10H2220/355—Geolocation input, i.e. control of musical parameters based on location or geographic position, e.g. provided by GPS, WiFi network location databases or mobile phone base station position databases
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Circuit For Audible Band Transducer (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Controls And Circuits For Display Device (AREA)
- Telephone Function (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Stereophonic System (AREA)
Abstract
Description
[0001]本願は、2012年11月14日に出願された「Device and System for Refreshing a Sound Field in a Physical Space」と題する米国特許仮出願第61/726451号、2012年11月14日に出願された「Method and Apparatus for Providing Tangible Control of Sound」と題する米国特許仮出願第61/726456号、2012年11月14日に出願された「Device and System Having Smart Directional Conferencing」と題する米国特許仮出願第61/726441号、および2012年11月14日に出願された「Collaborative Document Review and Editing」と題する米国特許仮出願第61/726,461号への優先権およびそれらの利益を主張する。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
サウンドフィールドを制御する方法であって、
サウンドトランスデューサアレイに関連した1つまたは複数のサウンドプロジェクションパターンのグラフィカル表現を、物理空間上で、表示することと、ここにおいて、前記サウンドトランスデューサアレイは、前記物理空間と通信している、
前記グラフィカル表現に向けられた少なくとも1つのコマンドを検出することと、
前記少なくとも1つのコマンドに基づいて前記サウンドトランスデューサアレイの前記1つまたは複数のサウンドプロジェクションパターンを修正することと、
前記物理空間上の前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を更新することと
を備える、方法。
[C2]
前記1つまたは複数のサウンドプロジェクションパターンを前記表示することは、前記1つまたは複数のサウンドプロジェクションパターンの特性に基づいて前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を生成することを備える、
[C1]に記載の方法。
[C3]
前記特性は、ビーム幅、方向、原点、周波数範囲、信号対雑音比、前記1つまたは複数のサウンドプロジェクションパターンの受信機のまたは生成器のタイプのうちの少なくとも1つを備える、
[C2]に記載の方法。
[C4]
前記グラフィカル表現は、前記1つまたは複数のサウンドプロジェクションパターンの前記特性に比例したスケールを備える、
[C2]に記載の方法。
[C5]
前記スケールは、前記少なくとも1つのサウンドプロジェクションパターンの前記特性との一対一対応を備える、
[C4]に記載の方法。
[C6]
前記グラフィカル表現は、前記1つまたは複数のサウンドプロジェクションパターンの各々に割り当てられたカラースキームを備える、
[C1]に記載の方法。
[C7]
前記カラースキームは、カラー空間に対する前記特性のマッピングを備える、
[C6]に記載の方法。
[C8]
前記物理空間について前記サウンドトランスデューサアレイのロケーションを決定することと、
前記ロケーションに基づいて前記グラフィカル表現の原点を生成することと
をさらに備える、[C1]に記載の方法。
[C9]
前記物理空間について前記サウンドトランスデューサアレイの方位を決定することと、
前記方位に基づいて前記グラフィカル表現上での基準として方位ベクトルを生成することと
をさらに備える、[C1]に記載の方法。
[C10]
前記サウンドトランスデューサアレイの前記方位は、前記サウンドトランスデューサアレイに相対的である、
[C9]に記載の方法。
[C11]
前記サウンドトランスデューサアレイは、多数のマイクロフォンを備える、
[C1]に記載の方法。
[C12]
前記多数のマイクロフォンは、車両に配置される、
[C11]に記載の方法。
[C13]
前記サウンドトランスデューサアレイは、多数のスピーカを備える、[C1]に記載の方法。
[C14]
前記多数のスピーカは、車両に配置される、
[C13]に記載の方法。
[C15]
前記少なくとも1つのコマンドを検出することは、
前記物理空間でユーザのインタラクションを検出することと、
前記ユーザによる所望の動作を決定する前記インタラクションを復号することと
を備える、[C1]に記載の方法。
[C16]
前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を隠すことを備えうる、
[C15]に記載の方法。
[C17]
前記ユーザに、前記所望の動作を選択させることを可能にするために、前記物理空間上にユーザインターフェースを表示することをさらに備える、
[C15]に記載の方法。
[C18]
前記所望の動作は、それへの第2の動作のアプリケーションのための前記1つまたは複数のサウンドプロジェクションパターンを選択することを備える、
[C15]に記載の方法。
[C19]
前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンのうちの1つまたは複数の仮想グループを生成することを備える、
[C15]に記載の方法。
[C20]
前記グラフィカル表現は、前記1つまたは複数の仮想グループの例示を備える、
[C19]に記載の方法。
[C21]
前記例示は、1つまたは複数の仮想レイヤを備え、前記1つまたは複数の仮想グルーピングの各々は、前記1つまたは複数の仮想レイヤのうちの少なくとも1つに対応する、
[C20]に記載の方法。
[C22]
前記物理空間で前記ユーザの第2の動作を復号することと、
前記ユーザによる第2の所望の動作を復号することと
をさらに備え、前記第2の所望の動作は、前記1つまたは複数の仮想グルーピングに適用される、
[C15]に記載の方法。
[C23]
前記物理空間は、タッチセンシングサーフェス、ディスプレイスクリーン、およびタブレットディスプレイのうちの少なくとも1つを備える、
[C1]に記載の方法。
[C24]
前記少なくとも1つのコマンドは、ジェスチャであり、前記ジェスチャは、多数回タップすることと、前記1つまたは複数のサウンドプロジェクションパターンのまわりに1つまたは複数の円を描くことと、グループとして操作するために前記1つまたは複数のサウンドプロジェクションパターンのうちの複数のプロジェクションパターンをグルーピングすることと
を備える、[C1]に記載の方法。
[C25]
前記物理空間と通信するサウンドトランスデューサアレイであって、
スピーカアレイと、
サウンドをキャプチャするための、前記スピーカアレイと通信している、マイクロフォンアレイと、
前記マイクロフォンアレイ通信するように構成される少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサは、
サウンドトランスデューサアレイに関連した1つまたは複数のサウンドプロジェクションパターンのグラフィカル表現を、物理空間上で、表示することと、ここにおいて、前記サウンドトランスデューサアレイは、前記物理空間と通信している、
前記グラフィカル表現に向けられた少なくとも1つのコマンドを検出することと、
前記少なくとも1つのコマンドに基づいて前記サウンドトランスデューサアレイの前記1つまたは複数のサウンドプロジェクションパターンを修正することと、
前記物理空間上の前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を更新することと
を行うように構成される、サウンドトランスデューサアレイ。
[C26]
前記1つまたは複数のサウンドプロジェクションパターンを前記表示するための、前記少なくとも1つのプロセッサは、前記1つまたは複数のサウンドプロジェクションパターンの特性に基づいて前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を生成すること行うようにさらに構成される、
[C25]に記載のサウンドトランスデューサアレイ。
[C27]
前記特性は、ビーム幅、方向、原点、周波数範囲、信号対雑音比、前記1つまたは複数のサウンドプロジェクションパターンの受信機のまたは生成器のタイプのうちの少なくとも1つを備える、
[C26]に記載のサウンドトランスデューサアレイ。
[C28]
前記グラフィカル表現は、前記1つまたは複数のサウンドプロジェクションパターンの前記特性に比例したスケールを備える、
[C26]に記載のサウンドトランスデューサアレイ。
[C29]
前記スケールは、前記少なくとも1つのサウンドプロジェクションパターンの前記特性との一対一対応を備える、
[C26]に記載のサウンドトランスデューサアレイ。
[C30]
前記グラフィカル表現は、前記1つまたは複数のサウンドプロジェクションパターンの各々に割り当てられたカラースキームを備える、
[C26]に記載のサウンドトランスデューサアレイ。
[C31]
前記カラースキームは、カラー空間に対する前記特性のマッピングを備える、
[C30]に記載のサウンドトランスデューサアレイ。
[C32]
前記少なくとも1つのプロセッサは、
前記物理空間について前記サウンドトランスデューサアレイのロケーションを決定することと、
前記ロケーションに基づいて前記グラフィカル表現の原点を生成することと
をさらに行うようにさらに構成される、[C25]に記載のサウンドトランスデューサアレイ。
[C33]
前記少なくとも1つのプロセッサは、
前記物理空間について前記サウンドトランスデューサアレイの方位を決定することと、
前記方位に基づいて前記グラフィカル表現上での基準としての方位ベクトルを生成することと
を行うようにさらに構成される、[C25]に記載のサウンドトランスデューサアレイ。
[C34]
前記サウンドトランスデューサアレイの前記方位は、前記サウンドトランスデューサアレイに相対的である、
[C33]に記載のサウンドトランスデューサアレイ。
[C35]
前記サウンドトランスデューサアレイは、多数のマイクロフォンを備える、
[C25]に記載のサウンドトランスデューサアレイ。
[C36]
前記サウンドトランスデューサアレイは、多数のスピーカを備える、
[C25]に記載のサウンドトランスデューサアレイ。
[C37]
前記少なくとも1つのコマンドを検出するための、前記少なくとも1つのプロセッサは、
前記物理空間でユーザのインタラクションを検出することと、
前記ユーザによる所望の動作を決定する前記インタラクションを復号することと
を行うようにさらに構成される、[C25]に記載のサウンドトランスデューサアレイ。
[C38]
前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を隠すことを備えうる、
[C37]に記載のサウンドトランスデューサアレイ。
[C39]
前記少なくとも1つのプロセッサは、前記ユーザに、前記所望の動作を選択させることを可能にするために、前記物理空間上にユーザインターフェースを表示することを行わせるようにさらに構成される、
[C37]に記載のサウンドトランスデューサアレイ。
[C40]
前記所望の動作は、それへの第2の動作のアプリケーションのための前記1つまたは複数のサウンドプロジェクションパターンを選択することを備える、
[C37]に記載のサウンドトランスデューサアレイ。
[C41]
前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンのうちの1つまたは複数の仮想グループを生成することを備える、
[C37]に記載のサウンドトランスデューサアレイ。
[C42]
前記グラフィカル表現は、前記1つまたは複数の仮想グループの例示を備える、
[C41]に記載のサウンドトランスデューサアレイ。
[C43]
前記例示は、前記1つまたは複数の仮想レイヤを備え、前記1つまたは複数の仮想グルーピングの各々は、前記1つまたは複数の仮想レイヤのうちの少なくとも1つに対応する、
[C41]に記載のサウンドトランスデューサアレイ。
[C44]
少なくとも1つのプロセッサは
前記物理空間で前記ユーザの第2の動作を復号することと、
前記ユーザによる第2の所望の動作を復号することと
を行うようにさらに構成され、前記第2の所望の動作は、前記1つまたは複数の仮想グルーピングに適用される、
[C37]に記載のサウンドトランスデューサアレイ。
[C45]
前記物理空間は、タッチセンシングサーフェス、ディスプレイスクリーン、およびタブレットディスプレイのうちの少なくとも1つを備える、
[C25]に記載のサウンドトランスデューサアレイ。
[C46]
前記少なくとも1つのコマンドは、ジェスチャであり、前記ジェスチャは、多数回タップすることと、前記1つまたは複数のサウンドプロジェクションパターンのまわりに1つまたは複数の円を描くことと、グループとして操作するために前記1つまたは複数のサウンドプロジェクションパターンのうちの複数のプロジェクションパターンをグルーピングすることと
を備える、[C25]に記載のサウンドトランスデューサアレイ。
[C47]
物理空間と通信するサウンドトランスデューサアレイであって、
サウンドトランスデューサアレイに関連した1つまたは複数のサウンドプロジェクションパターンのグラフィカル表現を、物理空間上で、表示するための手段と、ここにおいて、前記サウンドトランスデューサアレイは、前記物理空間と通信している、
前記グラフィカル表現に向けられた少なくとも1つのコマンドを検出するための手段と、
前記少なくとも1つのコマンドに基づいて前記サウンドトランスデューサアレイの前記1つまたは複数のサウンドプロジェクションパターンを修正するための手段と、
前記物理空間上の前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を更新するための手段と
を備える、サウンドトランスデューサアレイ。
[C48]
前記1つまたは複数のサウンドプロジェクションパターンを表示するための手段は、前記1つまたは複数のサウンドプロジェクションパターンの特性に基づいて前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を生成するための手段を備える、
[C47]に記載のサウンドトランスデューサアレイ。
[C49]
前記物理空間について前記サウンドトランスデューサアレイのロケーションを決定するための手段と、
前記ロケーションに基づいて前記グラフィカル表現の原点を生成するための手段と
をさらに備える、[C47]に記載のサウンドトランスデューサアレイ。
[C50]
前記物理空間について前記サウンドトランスデューサアレイの方位を決定するための手段と、
前記方位に基づいて前記グラフィカル表現上での基準としての方位ベクトルを生成するための手段と
をさらに備える、[C47]に記載のサウンドトランスデューサアレイ。
[C51]
前記サウンドトランスデューサアレイは、多数のマイクロフォンを備える、
[C47]に記載のサウンドトランスデューサアレイ。
[C52]
前記サウンドトランスデューサアレイは、多数のスピーカを備える、
[C47]に記載のサウンドトランスデューサアレイ。
[C53]
前記少なくとも1つのコマンドを前記検出するための手段は、
前記物理空間でユーザのインタラクションを検出するための手段と、
前記ユーザによる所望の動作を決定する前記インタラクションを復号するための手段と
を備える、[C47]に記載のサウンドトランスデューサアレイ。
[C54]
前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を隠すことを備えうる、
[C53]に記載のサウンドトランスデューサアレイ。
[C55]
前記ユーザに、前記所望の動作を選択させることを可能にするために、前記物理空間上のユーザインターフェースを表示するための手段をさらに備える、
[C53]に記載のサウンドトランスデューサアレイ。
[C56]
前記所望の動作は、それへの第2の動作のアプリケーションのための前記1つまたは複数のサウンドプロジェクションパターンを選択することを備える、
[C53]に記載のサウンドトランスデューサアレイ。
[C57]
前記物理空間で前記ユーザの第2の動作を復号するための手段と、
前記ユーザによる第2の所望の動作を復号するための手段と
をさらに備え、前記第2の所望の動作は、前記1つまたは複数の仮想グルーピングに適用される、
[C56]に記載のサウンドトランスデューサアレイ。
[C58]
前記少なくとも1つのコマンドは、ジェスチャであり、前記ジェスチャは、多数回タップすることと、前記1つまたは複数のサウンドプロジェクションパターンのまわりに1つまたは複数の円を描くことと、グループとして操作するために前記1つまたは複数のサウンドプロジェクションパターンのうちの複数のプロジェクションパターンをグルーピングすることと
を備える、[C47]に記載のサウンドトランスデューサアレイ。
[C59]
サウンドフィールドを制御するための1つまたは複数の命令を備えるコンピュータ可読記憶媒体であって、前記1つまたは複数の命令は、少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、
サウンドトランスデューサアレイに関連した1つまたは複数のサウンドプロジェクションパターンのグラフィカル表現を、物理空間上で、表示することと、ここにおいて、前記サウンドトランスデューサアレイは、前記物理空間と通信している、
前記グラフィカル表現に向けられた少なくとも1つのコマンドを検出することと、
前記少なくとも1つのコマンドに基づいて前記サウンドトランスデューサアレイの前記1つまたは複数のサウンドプロジェクションパターンを修正することと、
前記物理空間上の前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を更新することと
を行わせる、コンピュータ可読記憶媒体。
[C60]
少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、前記1つまたは複数のサウンドプロジェクションパターンを表示するときに、前記1つまたは複数のサウンドプロジェクションパターンの特性に基づいて前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を生成することを行わせる、1つまたは複数の命令をさらに備える、
[C59]に記載のコンピュータ可読記憶媒体。
[C61]
少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、
前記物理空間について前記サウンドトランスデューサアレイのロケーションを決定することと、
前記ロケーションに基づいて前記グラフィカル表現の原点を生成することと
を行わせる1つまたは複数の命令をさらに備える、[C59]に記載のコンピュータ可読記憶媒体。
[C62]
少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、
前記物理空間について前記サウンドトランスデューサアレイの方位を決定することと、
前記方位に基づいて前記グラフィカル表現上での基準としての方位ベクトルを生成することと
を行わせる1つまたは複数の命令をさらに備える、[C59]に記載のコンピュータ可読記憶媒体。
[C63]
前記サウンドトランスデューサアレイは、多数のマイクロフォンを備える、
[C59]に記載のコンピュータ可読記憶媒体。
[C64]
前記サウンドトランスデューサアレイは、多数のスピーカを備える、
[C59]に記載のコンピュータ可読記憶媒体。
[C65]
実行されると、前記少なくとも1つのプロセッサに、前記少なくとも1つのコマンドを検出することを行わせる前記命令は、実行されると、前記少なくとも1つのプロセッサに、
前記物理空間でユーザのインタラクションを検出することと、
前記ユーザによる所望の動作を決定する前記インタラクションを復号することと
を行わせる命令をさらに備える、[C59]に記載のコンピュータ可読記憶媒体。
[C66]
前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を隠すことを備えうる、
[C65]に記載のコンピュータ可読記憶媒体。
[C67]
少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、
前記物理空間で前記ユーザの第2の動作を復号することと、
前記ユーザによる第2の所望の動作を復号することと
を行わせる1つまたは複数の命令をさらに備え、前記第2の所望の動作は、前記1つまたは複数の仮想グルーピングに適用される、
[C65]に記載のコンピュータ可読記憶媒体。
[C68]
前記少なくとも1つのコマンドは、ジェスチャであり、前記ジェスチャは、多数回タップすることと、前記1つまたは複数のサウンドプロジェクションパターンのまわりに1つまたは複数の円を描くことと、グループとして操作するために前記1つまたは複数のサウンドプロジェクションパターンのうちの複数のプロジェクションパターンをグルーピングすることと
を備える、[C59]に記載のコンピュータ可読記憶媒体。
Claims (68)
- サウンドフィールドを制御する方法であって、
サウンドトランスデューサアレイに関連した1つまたは複数のサウンドプロジェクションパターンのグラフィカル表現を、物理空間上で、表示することと、ここにおいて、前記サウンドトランスデューサアレイは、前記物理空間と通信している、
前記グラフィカル表現に向けられた少なくとも1つのコマンドを検出することと、
前記少なくとも1つのコマンドに基づいて前記サウンドトランスデューサアレイの前記1つまたは複数のサウンドプロジェクションパターンを修正することと、
前記物理空間上の前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を更新することと
を備える、方法。 - 前記1つまたは複数のサウンドプロジェクションパターンを前記表示することは、前記1つまたは複数のサウンドプロジェクションパターンの特性に基づいて前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を生成することを備える、
請求項1に記載の方法。 - 前記特性は、ビーム幅、方向、原点、周波数範囲、信号対雑音比、前記1つまたは複数のサウンドプロジェクションパターンの受信機のまたは生成器のタイプのうちの少なくとも1つを備える、
請求項2に記載の方法。 - 前記グラフィカル表現は、前記1つまたは複数のサウンドプロジェクションパターンの前記特性に比例したスケールを備える、
請求項2に記載の方法。 - 前記スケールは、前記少なくとも1つのサウンドプロジェクションパターンの前記特性との一対一対応を備える、
請求項4に記載の方法。 - 前記グラフィカル表現は、前記1つまたは複数のサウンドプロジェクションパターンの各々に割り当てられたカラースキームを備える、
請求項1に記載の方法。 - 前記カラースキームは、カラー空間に対する前記特性のマッピングを備える、
請求項6に記載の方法。 - 前記物理空間について前記サウンドトランスデューサアレイのロケーションを決定することと、
前記ロケーションに基づいて前記グラフィカル表現の原点を生成することと
をさらに備える、請求項1に記載の方法。 - 前記物理空間について前記サウンドトランスデューサアレイの方位を決定することと、
前記方位に基づいて前記グラフィカル表現上での基準として方位ベクトルを生成することと
をさらに備える、請求項1に記載の方法。 - 前記サウンドトランスデューサアレイの前記方位は、前記サウンドトランスデューサアレイに相対的である、
請求項9に記載の方法。 - 前記サウンドトランスデューサアレイは、多数のマイクロフォンを備える、
請求項1に記載の方法。 - 前記多数のマイクロフォンは、車両に配置される、
請求項11に記載の方法。 - 前記サウンドトランスデューサアレイは、多数のスピーカを備える、請求項1に記載の方法。
- 前記多数のスピーカは、車両に配置される、
請求項13に記載の方法。 - 前記少なくとも1つのコマンドを検出することは、
前記物理空間でユーザのインタラクションを検出することと、
前記ユーザによる所望の動作を決定する前記インタラクションを復号することと
を備える、請求項1に記載の方法。 - 前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を隠すことを備えうる、
請求項15に記載の方法。 - 前記ユーザに、前記所望の動作を選択させることを可能にするために、前記物理空間上にユーザインターフェースを表示することをさらに備える、
請求項15に記載の方法。 - 前記所望の動作は、それへの第2の動作のアプリケーションのための前記1つまたは複数のサウンドプロジェクションパターンを選択することを備える、
請求項15に記載の方法。 - 前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンのうちの1つまたは複数の仮想グループを生成することを備える、
請求項15に記載の方法。 - 前記グラフィカル表現は、前記1つまたは複数の仮想グループの例示を備える、
請求項19に記載の方法。 - 前記例示は、1つまたは複数の仮想レイヤを備え、前記1つまたは複数の仮想グルーピングの各々は、前記1つまたは複数の仮想レイヤのうちの少なくとも1つに対応する、
請求項20に記載の方法。 - 前記物理空間で前記ユーザの第2の動作を復号することと、
前記ユーザによる第2の所望の動作を復号することと
をさらに備え、前記第2の所望の動作は、前記1つまたは複数の仮想グルーピングに適用される、
請求項15に記載の方法。 - 前記物理空間は、タッチセンシングサーフェス、ディスプレイスクリーン、およびタブレットディスプレイのうちの少なくとも1つを備える、
請求項1に記載の方法。 - 前記少なくとも1つのコマンドは、ジェスチャであり、前記ジェスチャは、多数回タップすることと、前記1つまたは複数のサウンドプロジェクションパターンのまわりに1つまたは複数の円を描くことと、グループとして操作するために前記1つまたは複数のサウンドプロジェクションパターンのうちの複数のプロジェクションパターンをグルーピングすることと
を備える、請求項1に記載の方法。 - 前記物理空間と通信するサウンドトランスデューサアレイであって、
スピーカアレイと、
サウンドをキャプチャするための、前記スピーカアレイと通信している、マイクロフォンアレイと、
前記マイクロフォンアレイ通信するように構成される少なくとも1つのプロセッサと
を備え、前記少なくとも1つのプロセッサは、
サウンドトランスデューサアレイに関連した1つまたは複数のサウンドプロジェクションパターンのグラフィカル表現を、物理空間上で、表示することと、ここにおいて、前記サウンドトランスデューサアレイは、前記物理空間と通信している、
前記グラフィカル表現に向けられた少なくとも1つのコマンドを検出することと、
前記少なくとも1つのコマンドに基づいて前記サウンドトランスデューサアレイの前記1つまたは複数のサウンドプロジェクションパターンを修正することと、
前記物理空間上の前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を更新することと
を行うように構成される、サウンドトランスデューサアレイ。 - 前記1つまたは複数のサウンドプロジェクションパターンを前記表示するための、前記少なくとも1つのプロセッサは、前記1つまたは複数のサウンドプロジェクションパターンの特性に基づいて前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を生成すること行うようにさらに構成される、
請求項25に記載のサウンドトランスデューサアレイ。 - 前記特性は、ビーム幅、方向、原点、周波数範囲、信号対雑音比、前記1つまたは複数のサウンドプロジェクションパターンの受信機のまたは生成器のタイプのうちの少なくとも1つを備える、
請求項26に記載のサウンドトランスデューサアレイ。 - 前記グラフィカル表現は、前記1つまたは複数のサウンドプロジェクションパターンの前記特性に比例したスケールを備える、
請求項26に記載のサウンドトランスデューサアレイ。 - 前記スケールは、前記少なくとも1つのサウンドプロジェクションパターンの前記特性との一対一対応を備える、
請求項26に記載のサウンドトランスデューサアレイ。 - 前記グラフィカル表現は、前記1つまたは複数のサウンドプロジェクションパターンの各々に割り当てられたカラースキームを備える、
請求項26に記載のサウンドトランスデューサアレイ。 - 前記カラースキームは、カラー空間に対する前記特性のマッピングを備える、
請求項30に記載のサウンドトランスデューサアレイ。 - 前記少なくとも1つのプロセッサは、
前記物理空間について前記サウンドトランスデューサアレイのロケーションを決定することと、
前記ロケーションに基づいて前記グラフィカル表現の原点を生成することと
をさらに行うようにさらに構成される、請求項25に記載のサウンドトランスデューサアレイ。 - 前記少なくとも1つのプロセッサは、
前記物理空間について前記サウンドトランスデューサアレイの方位を決定することと、
前記方位に基づいて前記グラフィカル表現上での基準としての方位ベクトルを生成することと
を行うようにさらに構成される、請求項25に記載のサウンドトランスデューサアレイ。 - 前記サウンドトランスデューサアレイの前記方位は、前記サウンドトランスデューサアレイに相対的である、
請求項33に記載のサウンドトランスデューサアレイ。 - 前記サウンドトランスデューサアレイは、多数のマイクロフォンを備える、
請求項25に記載のサウンドトランスデューサアレイ。 - 前記サウンドトランスデューサアレイは、多数のスピーカを備える、
請求項25に記載のサウンドトランスデューサアレイ。 - 前記少なくとも1つのコマンドを検出するための、前記少なくとも1つのプロセッサは、
前記物理空間でユーザのインタラクションを検出することと、
前記ユーザによる所望の動作を決定する前記インタラクションを復号することと
を行うようにさらに構成される、請求項25に記載のサウンドトランスデューサアレイ。 - 前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を隠すことを備えうる、
請求項37に記載のサウンドトランスデューサアレイ。 - 前記少なくとも1つのプロセッサは、前記ユーザに、前記所望の動作を選択させることを可能にするために、前記物理空間上にユーザインターフェースを表示することを行わせるようにさらに構成される、
請求項37に記載のサウンドトランスデューサアレイ。 - 前記所望の動作は、それへの第2の動作のアプリケーションのための前記1つまたは複数のサウンドプロジェクションパターンを選択することを備える、
請求項37に記載のサウンドトランスデューサアレイ。 - 前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンのうちの1つまたは複数の仮想グループを生成することを備える、
請求項37に記載のサウンドトランスデューサアレイ。 - 前記グラフィカル表現は、前記1つまたは複数の仮想グループの例示を備える、
請求項41に記載のサウンドトランスデューサアレイ。 - 前記例示は、前記1つまたは複数の仮想レイヤを備え、前記1つまたは複数の仮想グルーピングの各々は、前記1つまたは複数の仮想レイヤのうちの少なくとも1つに対応する、
請求項41に記載のサウンドトランスデューサアレイ。 - 少なくとも1つのプロセッサは
前記物理空間で前記ユーザの第2の動作を復号することと、
前記ユーザによる第2の所望の動作を復号することと
を行うようにさらに構成され、前記第2の所望の動作は、前記1つまたは複数の仮想グルーピングに適用される、
請求項37に記載のサウンドトランスデューサアレイ。 - 前記物理空間は、タッチセンシングサーフェス、ディスプレイスクリーン、およびタブレットディスプレイのうちの少なくとも1つを備える、
請求項25に記載のサウンドトランスデューサアレイ。 - 前記少なくとも1つのコマンドは、ジェスチャであり、前記ジェスチャは、多数回タップすることと、前記1つまたは複数のサウンドプロジェクションパターンのまわりに1つまたは複数の円を描くことと、グループとして操作するために前記1つまたは複数のサウンドプロジェクションパターンのうちの複数のプロジェクションパターンをグルーピングすることと
を備える、請求項25に記載のサウンドトランスデューサアレイ。 - 物理空間と通信するサウンドトランスデューサアレイであって、
サウンドトランスデューサアレイに関連した1つまたは複数のサウンドプロジェクションパターンのグラフィカル表現を、物理空間上で、表示するための手段と、ここにおいて、前記サウンドトランスデューサアレイは、前記物理空間と通信している、
前記グラフィカル表現に向けられた少なくとも1つのコマンドを検出するための手段と、
前記少なくとも1つのコマンドに基づいて前記サウンドトランスデューサアレイの前記1つまたは複数のサウンドプロジェクションパターンを修正するための手段と、
前記物理空間上の前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を更新するための手段と
を備える、サウンドトランスデューサアレイ。 - 前記1つまたは複数のサウンドプロジェクションパターンを表示するための手段は、前記1つまたは複数のサウンドプロジェクションパターンの特性に基づいて前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を生成するための手段を備える、
請求項47に記載のサウンドトランスデューサアレイ。 - 前記物理空間について前記サウンドトランスデューサアレイのロケーションを決定するための手段と、
前記ロケーションに基づいて前記グラフィカル表現の原点を生成するための手段と
をさらに備える、請求項47に記載のサウンドトランスデューサアレイ。 - 前記物理空間について前記サウンドトランスデューサアレイの方位を決定するための手段と、
前記方位に基づいて前記グラフィカル表現上での基準としての方位ベクトルを生成するための手段と
をさらに備える、請求項47に記載のサウンドトランスデューサアレイ。 - 前記サウンドトランスデューサアレイは、多数のマイクロフォンを備える、
請求項47に記載のサウンドトランスデューサアレイ。 - 前記サウンドトランスデューサアレイは、多数のスピーカを備える、
請求項47に記載のサウンドトランスデューサアレイ。 - 前記少なくとも1つのコマンドを前記検出するための手段は、
前記物理空間でユーザのインタラクションを検出するための手段と、
前記ユーザによる所望の動作を決定する前記インタラクションを復号するための手段と
を備える、請求項47に記載のサウンドトランスデューサアレイ。 - 前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を隠すことを備えうる、
請求項53に記載のサウンドトランスデューサアレイ。 - 前記ユーザに、前記所望の動作を選択させることを可能にするために、前記物理空間上のユーザインターフェースを表示するための手段をさらに備える、
請求項53に記載のサウンドトランスデューサアレイ。 - 前記所望の動作は、それへの第2の動作のアプリケーションのための前記1つまたは複数のサウンドプロジェクションパターンを選択することを備える、
請求項53に記載のサウンドトランスデューサアレイ。 - 前記物理空間で前記ユーザの第2の動作を復号するための手段と、
前記ユーザによる第2の所望の動作を復号するための手段と
をさらに備え、前記第2の所望の動作は、前記1つまたは複数の仮想グルーピングに適用される、
請求項56に記載のサウンドトランスデューサアレイ。 - 前記少なくとも1つのコマンドは、ジェスチャであり、前記ジェスチャは、多数回タップすることと、前記1つまたは複数のサウンドプロジェクションパターンのまわりに1つまたは複数の円を描くことと、グループとして操作するために前記1つまたは複数のサウンドプロジェクションパターンのうちの複数のプロジェクションパターンをグルーピングすることと
を備える、請求項47に記載のサウンドトランスデューサアレイ。 - サウンドフィールドを制御するための1つまたは複数の命令を備えるコンピュータ可読記憶媒体であって、前記1つまたは複数の命令は、少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、
サウンドトランスデューサアレイに関連した1つまたは複数のサウンドプロジェクションパターンのグラフィカル表現を、物理空間上で、表示することと、ここにおいて、前記サウンドトランスデューサアレイは、前記物理空間と通信している、
前記グラフィカル表現に向けられた少なくとも1つのコマンドを検出することと、
前記少なくとも1つのコマンドに基づいて前記サウンドトランスデューサアレイの前記1つまたは複数のサウンドプロジェクションパターンを修正することと、
前記物理空間上の前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を更新することと
を行わせる、コンピュータ可読記憶媒体。 - 少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、前記1つまたは複数のサウンドプロジェクションパターンを表示するときに、前記1つまたは複数のサウンドプロジェクションパターンの特性に基づいて前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を生成することを行わせる、1つまたは複数の命令をさらに備える、
請求項59に記載のコンピュータ可読記憶媒体。 - 少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、
前記物理空間について前記サウンドトランスデューサアレイのロケーションを決定することと、
前記ロケーションに基づいて前記グラフィカル表現の原点を生成することと
を行わせる1つまたは複数の命令をさらに備える、請求項59に記載のコンピュータ可読記憶媒体。 - 少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、
前記物理空間について前記サウンドトランスデューサアレイの方位を決定することと、
前記方位に基づいて前記グラフィカル表現上での基準としての方位ベクトルを生成することと
を行わせる1つまたは複数の命令をさらに備える、請求項59に記載のコンピュータ可読記憶媒体。 - 前記サウンドトランスデューサアレイは、多数のマイクロフォンを備える、
請求項59に記載のコンピュータ可読記憶媒体。 - 前記サウンドトランスデューサアレイは、多数のスピーカを備える、
請求項59に記載のコンピュータ可読記憶媒体。 - 実行されると、前記少なくとも1つのプロセッサに、前記少なくとも1つのコマンドを検出することを行わせる前記命令は、実行されると、前記少なくとも1つのプロセッサに、
前記物理空間でユーザのインタラクションを検出することと、
前記ユーザによる所望の動作を決定する前記インタラクションを復号することと
を行わせる命令をさらに備える、請求項59に記載のコンピュータ可読記憶媒体。 - 前記所望の動作は、前記1つまたは複数のサウンドプロジェクションパターンの前記グラフィカル表現を隠すことを備えうる、
請求項65に記載のコンピュータ可読記憶媒体。 - 少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、
前記物理空間で前記ユーザの第2の動作を復号することと、
前記ユーザによる第2の所望の動作を復号することと
を行わせる1つまたは複数の命令をさらに備え、前記第2の所望の動作は、前記1つまたは複数の仮想グルーピングに適用される、
請求項65に記載のコンピュータ可読記憶媒体。 - 前記少なくとも1つのコマンドは、ジェスチャであり、前記ジェスチャは、多数回タップすることと、前記1つまたは複数のサウンドプロジェクションパターンのまわりに1つまたは複数の円を描くことと、グループとして操作するために前記1つまたは複数のサウンドプロジェクションパターンのうちの複数のプロジェクションパターンをグルーピングすることと
を備える、請求項59に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261726441P | 2012-11-14 | 2012-11-14 | |
US201261726451P | 2012-11-14 | 2012-11-14 | |
US201261726461P | 2012-11-14 | 2012-11-14 | |
US201261726456P | 2012-11-14 | 2012-11-14 | |
US61/726,441 | 2012-11-14 | ||
US61/726,451 | 2012-11-14 | ||
US61/726,461 | 2012-11-14 | ||
US61/726,456 | 2012-11-14 | ||
US13/725,973 | 2012-12-21 | ||
US13/725,973 US9286898B2 (en) | 2012-11-14 | 2012-12-21 | Methods and apparatuses for providing tangible control of sound |
PCT/US2013/064708 WO2014077991A1 (en) | 2012-11-14 | 2013-10-11 | Methods and apparatuses for providing tangible control of sound |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016506639A true JP2016506639A (ja) | 2016-03-03 |
JP2016506639A5 JP2016506639A5 (ja) | 2016-11-04 |
Family
ID=50681708
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015541778A Pending JP2016506639A (ja) | 2012-11-14 | 2013-10-11 | サウンドの触知可能な制御を提供するための方法および装置 |
JP2015541777A Active JP6138956B2 (ja) | 2012-11-14 | 2013-10-11 | 物理空間においてサウンドフィールドを表現するための方法および装置 |
JP2015541776A Expired - Fee Related JP6092412B2 (ja) | 2012-11-14 | 2013-10-11 | スマートディレクショナルコンファレンシングを有するデバイス及びシステム |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015541777A Active JP6138956B2 (ja) | 2012-11-14 | 2013-10-11 | 物理空間においてサウンドフィールドを表現するための方法および装置 |
JP2015541776A Expired - Fee Related JP6092412B2 (ja) | 2012-11-14 | 2013-10-11 | スマートディレクショナルコンファレンシングを有するデバイス及びシステム |
Country Status (6)
Country | Link |
---|---|
US (3) | US9412375B2 (ja) |
EP (3) | EP2920984A1 (ja) |
JP (3) | JP2016506639A (ja) |
KR (2) | KR101762522B1 (ja) |
CN (3) | CN104919823B (ja) |
WO (3) | WO2014077991A1 (ja) |
Families Citing this family (77)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9412375B2 (en) | 2012-11-14 | 2016-08-09 | Qualcomm Incorporated | Methods and apparatuses for representing a sound field in a physical space |
US9886941B2 (en) | 2013-03-15 | 2018-02-06 | Elwha Llc | Portable electronic device directed audio targeted user system and method |
US10827292B2 (en) | 2013-03-15 | 2020-11-03 | Jawb Acquisition Llc | Spatial audio aggregation for multiple sources of spatial audio |
US10181314B2 (en) | 2013-03-15 | 2019-01-15 | Elwha Llc | Portable electronic device directed audio targeted multiple user system and method |
US10531190B2 (en) | 2013-03-15 | 2020-01-07 | Elwha Llc | Portable electronic device directed audio system and method |
US10575093B2 (en) * | 2013-03-15 | 2020-02-25 | Elwha Llc | Portable electronic device directed audio emitter arrangement system and method |
US10291983B2 (en) | 2013-03-15 | 2019-05-14 | Elwha Llc | Portable electronic device directed audio system and method |
CN104065798B (zh) * | 2013-03-21 | 2016-08-03 | 华为技术有限公司 | 声音信号处理方法及设备 |
US9128552B2 (en) | 2013-07-17 | 2015-09-08 | Lenovo (Singapore) Pte. Ltd. | Organizing display data on a multiuser display |
US9729994B1 (en) * | 2013-08-09 | 2017-08-08 | University Of South Florida | System and method for listener controlled beamforming |
US9223340B2 (en) * | 2013-08-14 | 2015-12-29 | Lenovo (Singapore) Pte. Ltd. | Organizing display data on a multiuser display |
EP3340025B1 (en) | 2013-09-03 | 2019-06-12 | Apple Inc. | User interface for manipulating user interface objects with magnetic properties |
US10545657B2 (en) | 2013-09-03 | 2020-01-28 | Apple Inc. | User interface for manipulating user interface objects |
US10503388B2 (en) | 2013-09-03 | 2019-12-10 | Apple Inc. | Crown input for a wearable electronic device |
US11068128B2 (en) | 2013-09-03 | 2021-07-20 | Apple Inc. | User interface object manipulations in a user interface |
US9398250B2 (en) * | 2014-01-06 | 2016-07-19 | Arun Sobti & Associates, Llc | System and apparatus for smart devices based conferencing |
US9338544B2 (en) * | 2014-06-03 | 2016-05-10 | Cisco Technology, Inc. | Determination, display, and adjustment of best sound source placement region relative to microphone |
CN118192869A (zh) | 2014-06-27 | 2024-06-14 | 苹果公司 | 尺寸减小的用户界面 |
US10073607B2 (en) * | 2014-07-03 | 2018-09-11 | Qualcomm Incorporated | Single-channel or multi-channel audio control interface |
US10079941B2 (en) * | 2014-07-07 | 2018-09-18 | Dolby Laboratories Licensing Corporation | Audio capture and render device having a visual display and user interface for use for audio conferencing |
JP2016019086A (ja) * | 2014-07-07 | 2016-02-01 | ヤマハ株式会社 | ビーム方向設定装置およびビーム方向設定システム |
US9817634B2 (en) * | 2014-07-21 | 2017-11-14 | Intel Corporation | Distinguishing speech from multiple users in a computer interaction |
WO2016036510A1 (en) | 2014-09-02 | 2016-03-10 | Apple Inc. | Music user interface |
US10073590B2 (en) | 2014-09-02 | 2018-09-11 | Apple Inc. | Reduced size user interface |
WO2016036416A1 (en) | 2014-09-02 | 2016-03-10 | Apple Inc. | Button functionality |
TWI676127B (zh) | 2014-09-02 | 2019-11-01 | 美商蘋果公司 | 關於電子郵件使用者介面之方法、系統、電子器件及電腦可讀儲存媒體 |
CN104469595A (zh) * | 2014-10-30 | 2015-03-25 | 苏州上声电子有限公司 | 一种基于误差模型的多区域声重放方法和装置 |
US10365807B2 (en) | 2015-03-02 | 2019-07-30 | Apple Inc. | Control of system zoom magnification using a rotatable input mechanism |
WO2016162058A1 (en) * | 2015-04-08 | 2016-10-13 | Huawei Technologies Co., Ltd. | Apparatus and method for driving an array of loudspeakers |
CN106303810B (zh) * | 2015-05-13 | 2021-09-10 | 青岛通产智能机器人有限公司 | 基于方向性声音传感器的声源方位判断装置及方法 |
GB2540224A (en) * | 2015-07-08 | 2017-01-11 | Nokia Technologies Oy | Multi-apparatus distributed media capture for playback control |
US9706300B2 (en) * | 2015-09-18 | 2017-07-11 | Qualcomm Incorporated | Collaborative audio processing |
US10013996B2 (en) | 2015-09-18 | 2018-07-03 | Qualcomm Incorporated | Collaborative audio processing |
KR20170044386A (ko) * | 2015-10-15 | 2017-04-25 | 삼성전자주식회사 | 전자기기 및 전자기기의 제어방법 |
CN105187998B (zh) * | 2015-10-20 | 2018-11-13 | 张浩杰 | 一种超声波感应电子连体扬声器 |
CN105898026B (zh) * | 2015-12-30 | 2020-03-06 | 乐融致新电子科技(天津)有限公司 | 移动终端录音提示方法、提示装置及其移动终端 |
CN105489219A (zh) * | 2016-01-06 | 2016-04-13 | 广州零号软件科技有限公司 | 室内空间服务机器人分布式语音识别系统与产品 |
US11388541B2 (en) | 2016-01-07 | 2022-07-12 | Noveto Systems Ltd. | Audio communication system and method |
IL243513B2 (en) * | 2016-01-07 | 2023-11-01 | Noveto Systems Ltd | A system and method for voice communication |
US9621795B1 (en) | 2016-01-08 | 2017-04-11 | Microsoft Technology Licensing, Llc | Active speaker location detection |
US10848863B2 (en) | 2016-01-14 | 2020-11-24 | Harman International Industries, Incorporated | Acoustic radiation pattern control |
WO2017147325A1 (en) | 2016-02-25 | 2017-08-31 | Dolby Laboratories Licensing Corporation | Multitalker optimised beamforming system and method |
US11195542B2 (en) * | 2019-10-31 | 2021-12-07 | Ron Zass | Detecting repetitions in audio data |
CN107643509B (zh) * | 2016-07-22 | 2019-01-11 | 腾讯科技(深圳)有限公司 | 定位方法、定位系统及终端设备 |
JP6520878B2 (ja) * | 2016-09-21 | 2019-05-29 | トヨタ自動車株式会社 | 音声取得システムおよび音声取得方法 |
US10034083B2 (en) * | 2016-09-21 | 2018-07-24 | International Business Machines Corporation | Crowdsourcing sound captures to determine sound origins and to predict events |
TWI619093B (zh) * | 2016-10-19 | 2018-03-21 | 財團法人資訊工業策進會 | 視覺定位裝置、方法及其電腦程式產品 |
CN106409272B (zh) * | 2016-11-18 | 2023-11-10 | 徐州芯特智能装备有限公司 | 感应式可视化铜鼓系统 |
GB2557219A (en) * | 2016-11-30 | 2018-06-20 | Nokia Technologies Oy | Distributed audio capture and mixing controlling |
US10362270B2 (en) * | 2016-12-12 | 2019-07-23 | Dolby Laboratories Licensing Corporation | Multimodal spatial registration of devices for congruent multimedia communications |
EP3566466A4 (en) | 2017-01-05 | 2020-08-05 | Noveto Systems Ltd. | AUDIO COMMUNICATIONS SYSTEM AND METHOD |
KR101833892B1 (ko) * | 2017-02-08 | 2018-03-02 | 포항공과대학교 산학협력단 | 압전 멤스 기반 초지향성 라우드 스피커 및 이의 빔 조향 방법 |
JP6472823B2 (ja) * | 2017-03-21 | 2019-02-20 | 株式会社東芝 | 信号処理装置、信号処理方法および属性付与装置 |
CN106954136A (zh) * | 2017-05-16 | 2017-07-14 | 成都泰声科技有限公司 | 一种集成麦克风接收阵列的超声定向发射参量阵 |
CN107437063A (zh) * | 2017-07-04 | 2017-12-05 | 上海小蚁科技有限公司 | 用于感测环境的装置和方法、非暂态计算机可读介质 |
CN107277699A (zh) * | 2017-07-21 | 2017-10-20 | 歌尔科技有限公司 | 一种拾音方法及装置 |
KR20200099574A (ko) * | 2017-12-22 | 2020-08-24 | 울트라햅틱스 아이피 엘티디 | 공중 햅틱 시스템들과의 인간 상호작용들 |
US10306394B1 (en) * | 2017-12-29 | 2019-05-28 | Samsung Electronics Co., Ltd. | Method of managing a plurality of devices |
JP7058002B2 (ja) * | 2018-01-25 | 2022-04-21 | 凸版印刷株式会社 | 振動提示システム、振動提示方法、操作端末および振動提示デバイス |
JP7183558B2 (ja) * | 2018-03-29 | 2022-12-06 | 株式会社リコー | 共用支援サーバ、共用システム、共用支援方法、及びプログラム |
US10951859B2 (en) | 2018-05-30 | 2021-03-16 | Microsoft Technology Licensing, Llc | Videoconferencing device and method |
US11494158B2 (en) * | 2018-05-31 | 2022-11-08 | Shure Acquisition Holdings, Inc. | Augmented reality microphone pick-up pattern visualization |
EP3588926B1 (en) * | 2018-06-26 | 2021-07-21 | Nokia Technologies Oy | Apparatuses and associated methods for spatial presentation of audio |
KR102706386B1 (ko) * | 2018-08-16 | 2024-09-12 | 한화비전 주식회사 | 시각화된 객체에서 특정영역의 소리를 추출하는 감시 카메라 시스템 및 그 동작 방법 |
US10712824B2 (en) | 2018-09-11 | 2020-07-14 | Apple Inc. | Content-based tactile outputs |
US11435830B2 (en) | 2018-09-11 | 2022-09-06 | Apple Inc. | Content-based tactile outputs |
US10887514B2 (en) * | 2018-12-21 | 2021-01-05 | Fuji Xerox Co., Ltd. | System and method of providing gaze and awareness for ultra wide and 360 cameras |
CN109451291A (zh) * | 2018-12-29 | 2019-03-08 | 像航(上海)科技有限公司 | 无介质浮空投影声源定向语音交互系统、智能汽车 |
EP3906548A4 (en) * | 2018-12-31 | 2022-10-05 | HED Technologies Sarl | VOICE IDENTIFICATION AND ANALYSIS SYSTEMS AND METHODS |
US11082769B2 (en) | 2019-11-15 | 2021-08-03 | Bose Corporation | Audio visualization in telecommunications applications |
US11862168B1 (en) * | 2020-03-30 | 2024-01-02 | Amazon Technologies, Inc. | Speaker disambiguation and transcription from multiple audio feeds |
US11170752B1 (en) * | 2020-04-29 | 2021-11-09 | Gulfstream Aerospace Corporation | Phased array speaker and microphone system for cockpit communication |
US12095865B2 (en) * | 2020-12-11 | 2024-09-17 | International Business Machines Corporation | Identifying a voice command boundary |
CN112834023B (zh) * | 2021-01-06 | 2021-10-19 | 江苏科技大学 | 一种基于近场变换的空间辐射声场获取方法 |
US11540078B1 (en) | 2021-06-04 | 2022-12-27 | Google Llc | Spatial audio in video conference calls based on content type or participant role |
US11637991B2 (en) | 2021-08-04 | 2023-04-25 | Google Llc | Video conferencing systems featuring multiple spatial interaction modes |
US11849257B2 (en) | 2021-08-04 | 2023-12-19 | Google Llc | Video conferencing systems featuring multiple spatial interaction modes |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010278725A (ja) * | 2009-05-28 | 2010-12-09 | Sanyo Electric Co Ltd | 画像音響処理装置及び撮像装置 |
Family Cites Families (92)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4731848A (en) | 1984-10-22 | 1988-03-15 | Northwestern University | Spatial reverberator |
US5666136A (en) | 1991-12-17 | 1997-09-09 | Sony Corporation | Audio equipment and method of displaying operation thereof |
JPH0784592A (ja) | 1993-09-14 | 1995-03-31 | Fujitsu Ltd | 音声認識装置 |
US6545669B1 (en) | 1999-03-26 | 2003-04-08 | Husam Kinawi | Object-drag continuity between discontinuous touch-screens |
US6826284B1 (en) * | 2000-02-04 | 2004-11-30 | Agere Systems Inc. | Method and apparatus for passive acoustic source localization for video camera steering applications |
US20020089541A1 (en) * | 2000-02-14 | 2002-07-11 | Julian Orbanes | System for graphically interconnecting operators |
US6850496B1 (en) * | 2000-06-09 | 2005-02-01 | Cisco Technology, Inc. | Virtual conference room for voice conferencing |
US7146260B2 (en) | 2001-04-24 | 2006-12-05 | Medius, Inc. | Method and apparatus for dynamic configuration of multiprocessor system |
US7071920B2 (en) | 2001-07-06 | 2006-07-04 | Hewlett-Packard Development Company, L.P. | Method and apparatus for indicating an operating mode of a computer-pointing device |
JP4280901B2 (ja) | 2002-02-05 | 2009-06-17 | 株式会社セガ | 音声チャットシステム |
TWI304559B (ja) * | 2002-05-24 | 2008-12-21 | Waltop Int Corp | |
US6882971B2 (en) * | 2002-07-18 | 2005-04-19 | General Instrument Corporation | Method and apparatus for improving listener differentiation of talkers during a conference call |
US20040080494A1 (en) | 2002-10-29 | 2004-04-29 | International Business Machines Corporation | Force-sensing mouse pointing device for computer input |
US6990193B2 (en) * | 2002-11-29 | 2006-01-24 | Mitel Knowledge Corporation | Method of acoustic echo cancellation in full-duplex hands free audio conferencing with spatial directivity |
US7305078B2 (en) | 2003-12-18 | 2007-12-04 | Electronic Data Systems Corporation | Speaker identification during telephone conferencing |
JP4546151B2 (ja) * | 2004-05-26 | 2010-09-15 | 株式会社日立製作所 | 音声コミュニケーション・システム |
US8627213B1 (en) * | 2004-08-10 | 2014-01-07 | Hewlett-Packard Development Company, L.P. | Chat room system to provide binaural sound at a user location |
WO2006100980A1 (ja) | 2005-03-18 | 2006-09-28 | Pioneer Corporation | 音声信号処理装置及びそのためのコンピュータプログラム |
US7692637B2 (en) | 2005-04-26 | 2010-04-06 | Nokia Corporation | User input device for electronic device |
DE102005043641A1 (de) * | 2005-05-04 | 2006-11-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Generierung und Bearbeitung von Toneffekten in räumlichen Tonwiedergabesystemen mittels einer graphischen Benutzerschnittstelle |
US20070075968A1 (en) | 2005-09-30 | 2007-04-05 | Hall Bernard J | System and method for sensing the position of a pointing object |
US20070127668A1 (en) * | 2005-12-02 | 2007-06-07 | Ahya Deepak P | Method and system for performing a conference call |
US8249283B2 (en) | 2006-01-19 | 2012-08-21 | Nippon Hoso Kyokai | Three-dimensional acoustic panning device |
US8125508B2 (en) | 2006-01-24 | 2012-02-28 | Lifesize Communications, Inc. | Sharing participant information in a videoconference |
JP5286667B2 (ja) | 2006-02-22 | 2013-09-11 | コニカミノルタ株式会社 | 映像表示装置、及び映像表示方法 |
US8249233B2 (en) | 2006-03-17 | 2012-08-21 | International Business Machines Corporation | Apparatus and system for representation of voices of participants to a conference call |
US7843486B1 (en) | 2006-04-10 | 2010-11-30 | Avaya Inc. | Selective muting for conference call participants |
JP2007318438A (ja) * | 2006-05-25 | 2007-12-06 | Yamaha Corp | 音声状況データ生成装置、音声状況可視化装置、音声状況データ編集装置、音声データ再生装置、および音声通信システム |
US7920158B1 (en) | 2006-07-21 | 2011-04-05 | Avaya Inc. | Individual participant identification in shared video resources |
JP4894386B2 (ja) * | 2006-07-21 | 2012-03-14 | ソニー株式会社 | 音声信号処理装置、音声信号処理方法および音声信号処理プログラム |
JP4973919B2 (ja) | 2006-10-23 | 2012-07-11 | ソニー株式会社 | 出力制御システムおよび方法、出力制御装置および方法、並びにプログラム |
US20080101624A1 (en) | 2006-10-24 | 2008-05-01 | Motorola, Inc. | Speaker directionality for user interface enhancement |
JP2008141465A (ja) | 2006-12-01 | 2008-06-19 | Fujitsu Ten Ltd | 音場再生システム |
US7844462B2 (en) | 2007-02-01 | 2010-11-30 | Sap Ag | Spatial sound generation for screen navigation |
US20080255901A1 (en) * | 2007-03-26 | 2008-10-16 | John Stuart Carroll | Kiosk systems and methods |
US20080252595A1 (en) | 2007-04-11 | 2008-10-16 | Marc Boillot | Method and Device for Virtual Navigation and Voice Processing |
US20080253592A1 (en) | 2007-04-13 | 2008-10-16 | Christopher Sanders | User interface for multi-channel sound panner |
US20080259731A1 (en) | 2007-04-17 | 2008-10-23 | Happonen Aki P | Methods and apparatuses for user controlled beamforming |
WO2008139018A1 (en) | 2007-05-09 | 2008-11-20 | Savox Communications Oy Ab (Ltd) | A display apparatus |
US8108144B2 (en) | 2007-06-28 | 2012-01-31 | Apple Inc. | Location based tracking |
EP2031418B1 (en) | 2007-08-27 | 2017-11-01 | Harman Becker Automotive Systems GmbH | Tracking system using RFID (radio frequency identification) technology |
US8073125B2 (en) | 2007-09-25 | 2011-12-06 | Microsoft Corporation | Spatial audio conferencing |
US8050917B2 (en) | 2007-09-27 | 2011-11-01 | Siemens Enterprise Communications, Inc. | Method and apparatus for identification of conference call participants |
US7995732B2 (en) | 2007-10-04 | 2011-08-09 | At&T Intellectual Property I, Lp | Managing audio in a multi-source audio environment |
JP2009181457A (ja) | 2008-01-31 | 2009-08-13 | G Mode:Kk | チャット・ソフトウェア |
US8144896B2 (en) * | 2008-02-22 | 2012-03-27 | Microsoft Corporation | Speech separation with microphone arrays |
KR100955339B1 (ko) | 2008-04-22 | 2010-04-29 | 주식회사 애트랩 | 접촉 및 접근을 감지할 수 있는 디스플레이 패널과디스플레이 장치 및 이 패널을 이용하는 접촉 및 접근 감지방법 |
US8589161B2 (en) | 2008-05-27 | 2013-11-19 | Voicebox Technologies, Inc. | System and method for an integrated, multi-modal, multi-device natural language voice services environment |
JP5047882B2 (ja) * | 2008-06-04 | 2012-10-10 | 日本電信電話株式会社 | 発話関連情報提示装置及び方法 |
US8315366B2 (en) * | 2008-07-22 | 2012-11-20 | Shoretel, Inc. | Speaker identification and representation for a phone |
NO333026B1 (no) | 2008-09-17 | 2013-02-18 | Cisco Systems Int Sarl | Styringssystem for et lokalt telepresencevideokonferansesystem og fremgangsmate for a etablere en videokonferansesamtale. |
US8620672B2 (en) | 2009-06-09 | 2013-12-31 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for phase-based processing of multichannel signal |
US9094645B2 (en) | 2009-07-17 | 2015-07-28 | Lg Electronics Inc. | Method for processing sound source in terminal and terminal using the same |
JP5568915B2 (ja) | 2009-07-29 | 2014-08-13 | ヤマハ株式会社 | 外部機器制御装置 |
US20120022924A1 (en) * | 2009-08-28 | 2012-01-26 | Nicole Runnels | Method and system for creating a personalized experience with video in connection with a stored value token |
US20110055703A1 (en) * | 2009-09-03 | 2011-03-03 | Niklas Lundback | Spatial Apportioning of Audio in a Large Scale Multi-User, Multi-Touch System |
US8363810B2 (en) * | 2009-09-08 | 2013-01-29 | Avaya Inc. | Method and system for aurally positioning voice signals in a contact center environment |
JP5568929B2 (ja) | 2009-09-15 | 2014-08-13 | ソニー株式会社 | 表示装置および制御方法 |
US8144633B2 (en) | 2009-09-22 | 2012-03-27 | Avaya Inc. | Method and system for controlling audio in a collaboration environment |
US20110096941A1 (en) * | 2009-10-28 | 2011-04-28 | Alcatel-Lucent Usa, Incorporated | Self-steering directional loudspeakers and a method of operation thereof |
JP4949453B2 (ja) | 2009-11-12 | 2012-06-06 | シャープ株式会社 | 画像処理装置および画像処理装置の制御方法 |
EP2517486A1 (en) | 2009-12-23 | 2012-10-31 | Nokia Corp. | An apparatus |
EP2517478B1 (en) | 2009-12-24 | 2017-11-01 | Nokia Technologies Oy | An apparatus |
US8676581B2 (en) * | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Speech recognition analysis via identification information |
JP5534413B2 (ja) * | 2010-02-12 | 2014-07-02 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置及びプログラム |
US8749557B2 (en) | 2010-06-11 | 2014-06-10 | Microsoft Corporation | Interacting with user interface via avatar |
US8174934B2 (en) | 2010-07-28 | 2012-05-08 | Empire Technology Development Llc | Sound direction detection |
US20120027226A1 (en) * | 2010-07-30 | 2012-02-02 | Milford Desenberg | System and method for providing focused directional sound in an audio system |
US20120041579A1 (en) | 2010-08-12 | 2012-02-16 | Charles Davis | Rear surround sound projection system |
US9320957B2 (en) | 2010-08-26 | 2016-04-26 | Blast Motion Inc. | Wireless and visual hybrid motion capture system |
WO2012039837A1 (en) | 2010-09-22 | 2012-03-29 | Cypress Semiconductor Corporation | Capacitive stylus for a touch screen |
US8744065B2 (en) * | 2010-09-22 | 2014-06-03 | Avaya Inc. | Method and system for monitoring contact center transactions |
US8854298B2 (en) | 2010-10-12 | 2014-10-07 | Sony Computer Entertainment Inc. | System for enabling a handheld device to capture video of an interactive application |
US8848028B2 (en) | 2010-10-25 | 2014-09-30 | Dell Products L.P. | Audio cues for multi-party videoconferencing on an information handling system |
US8558894B2 (en) | 2010-11-16 | 2013-10-15 | Hewlett-Packard Development Company, L.P. | Support for audience interaction in presentations |
JP5857674B2 (ja) | 2010-12-22 | 2016-02-10 | 株式会社リコー | 画像処理装置、及び画像処理システム |
US8525868B2 (en) * | 2011-01-13 | 2013-09-03 | Qualcomm Incorporated | Variable beamforming with a mobile platform |
US8978047B2 (en) | 2011-02-03 | 2015-03-10 | Sony Corporation | Method and system for invoking an application in response to a trigger event |
US8457654B1 (en) | 2011-03-31 | 2013-06-04 | Google Inc. | Directional feedback |
US20120262536A1 (en) | 2011-04-14 | 2012-10-18 | Microsoft Corporation | Stereophonic teleconferencing using a microphone array |
US8972251B2 (en) | 2011-06-07 | 2015-03-03 | Qualcomm Incorporated | Generating a masking signal on an electronic device |
US9507427B2 (en) | 2011-06-29 | 2016-11-29 | Intel Corporation | Techniques for gesture recognition |
EP2783269B1 (en) | 2011-11-23 | 2018-10-31 | Intel Corporation | GESTURE INPUT WITH MULTIPLE VIEWS and DISPLAYS |
US9152376B2 (en) * | 2011-12-01 | 2015-10-06 | At&T Intellectual Property I, L.P. | System and method for continuous multimodal speech and gesture interaction |
US8958569B2 (en) | 2011-12-17 | 2015-02-17 | Microsoft Technology Licensing, Llc | Selective spatial audio communication |
JP2013183286A (ja) * | 2012-03-01 | 2013-09-12 | Nec Casio Mobile Communications Ltd | 携帯端末装置、音源方向検出方法、及びプログラム |
KR101641448B1 (ko) | 2012-03-16 | 2016-07-20 | 뉘앙스 커뮤니케이션즈, 인코포레이티드 | 사용자 전용 자동 음성 인식 |
US20130259254A1 (en) | 2012-03-28 | 2013-10-03 | Qualcomm Incorporated | Systems, methods, and apparatus for producing a directional sound field |
CN104380328A (zh) * | 2012-06-11 | 2015-02-25 | 三星电子株式会社 | 用户终端装置、服务器装置和包括它们的系统及其广告服务方法 |
US20140013192A1 (en) | 2012-07-09 | 2014-01-09 | Sas Institute Inc. | Techniques for touch-based digital document audio and user interface enhancement |
JP2014092796A (ja) * | 2012-10-31 | 2014-05-19 | Jvc Kenwood Corp | 音声情報報知装置、音声情報報知方法およびプログラム |
US9412375B2 (en) | 2012-11-14 | 2016-08-09 | Qualcomm Incorporated | Methods and apparatuses for representing a sound field in a physical space |
-
2012
- 2012-12-21 US US13/725,951 patent/US9412375B2/en not_active Expired - Fee Related
- 2012-12-21 US US13/725,938 patent/US9368117B2/en not_active Expired - Fee Related
- 2012-12-21 US US13/725,973 patent/US9286898B2/en not_active Expired - Fee Related
-
2013
- 2013-10-11 CN CN201380058941.4A patent/CN104919823B/zh not_active Expired - Fee Related
- 2013-10-11 CN CN201380058949.0A patent/CN104782146B/zh active Active
- 2013-10-11 WO PCT/US2013/064708 patent/WO2014077991A1/en active Application Filing
- 2013-10-11 JP JP2015541778A patent/JP2016506639A/ja active Pending
- 2013-10-11 JP JP2015541777A patent/JP6138956B2/ja active Active
- 2013-10-11 CN CN201380058943.3A patent/CN104919824A/zh active Pending
- 2013-10-11 WO PCT/US2013/064705 patent/WO2014077989A1/en active Application Filing
- 2013-10-11 EP EP13786345.2A patent/EP2920984A1/en not_active Withdrawn
- 2013-10-11 KR KR1020157015747A patent/KR101762522B1/ko active IP Right Grant
- 2013-10-11 EP EP13786344.5A patent/EP2920983B1/en not_active Not-in-force
- 2013-10-11 EP EP13789405.1A patent/EP2920985A1/en not_active Withdrawn
- 2013-10-11 KR KR1020157015749A patent/KR20150085032A/ko not_active Application Discontinuation
- 2013-10-11 JP JP2015541776A patent/JP6092412B2/ja not_active Expired - Fee Related
- 2013-10-11 WO PCT/US2013/064707 patent/WO2014077990A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010278725A (ja) * | 2009-05-28 | 2010-12-09 | Sanyo Electric Co Ltd | 画像音響処理装置及び撮像装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2016504648A (ja) | 2016-02-12 |
KR20150085030A (ko) | 2015-07-22 |
WO2014077990A1 (en) | 2014-05-22 |
US20140136981A1 (en) | 2014-05-15 |
CN104919823B (zh) | 2017-12-08 |
US9412375B2 (en) | 2016-08-09 |
US9286898B2 (en) | 2016-03-15 |
KR20150085032A (ko) | 2015-07-22 |
EP2920983B1 (en) | 2017-11-22 |
WO2014077991A1 (en) | 2014-05-22 |
KR101762522B1 (ko) | 2017-07-27 |
CN104919823A (zh) | 2015-09-16 |
EP2920984A1 (en) | 2015-09-23 |
US20140136203A1 (en) | 2014-05-15 |
CN104919824A (zh) | 2015-09-16 |
JP2016505918A (ja) | 2016-02-25 |
JP6138956B2 (ja) | 2017-05-31 |
JP6092412B2 (ja) | 2017-03-08 |
CN104782146A (zh) | 2015-07-15 |
EP2920983A1 (en) | 2015-09-23 |
EP2920985A1 (en) | 2015-09-23 |
US20140133665A1 (en) | 2014-05-15 |
US9368117B2 (en) | 2016-06-14 |
WO2014077989A1 (en) | 2014-05-22 |
CN104782146B (zh) | 2017-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6138956B2 (ja) | 物理空間においてサウンドフィールドを表現するための方法および装置 | |
US11531518B2 (en) | System and method for differentially locating and modifying audio sources | |
EP2911149B1 (en) | Determination of an operational directive based at least in part on a spatial audio property | |
WO2018183020A1 (en) | Headset with multiple microphone booms | |
US20140215332A1 (en) | Virtual microphone selection corresponding to a set of audio source devices | |
US20160277708A1 (en) | Proximate resource pooling in video/audio telecommunications | |
US20140129937A1 (en) | Methods, apparatuses and computer program products for manipulating characteristics of audio objects by using directional gestures | |
US20150189457A1 (en) | Interactive positioning of perceived audio sources in a transformed reproduced sound field including modified reproductions of multiple sound fields | |
CN202948437U (zh) | 用于生成用户界面的系统和装置及用于系统、设备或应用的用户界面 | |
US11375058B2 (en) | Methods and systems for providing status indicators with an electronic device | |
US9516417B2 (en) | Boundary binaural microphone array | |
CN114520950B (zh) | 音频输出方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160913 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170606 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180109 |