JP2017532920A - 3次元空間において音像を定位し、制御するための方法及びシステム - Google Patents

3次元空間において音像を定位し、制御するための方法及びシステム Download PDF

Info

Publication number
JP2017532920A
JP2017532920A JP2017530368A JP2017530368A JP2017532920A JP 2017532920 A JP2017532920 A JP 2017532920A JP 2017530368 A JP2017530368 A JP 2017530368A JP 2017530368 A JP2017530368 A JP 2017530368A JP 2017532920 A JP2017532920 A JP 2017532920A
Authority
JP
Japan
Prior art keywords
input device
digital audio
computer system
sensitive input
dimensional space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017530368A
Other languages
English (en)
Inventor
ティノ フィベック,
ティノ フィベック,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Blackmagic Design Pty Ltd
Original Assignee
Blackmagic Design Pty Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2014903381A external-priority patent/AU2014903381A0/en
Application filed by Blackmagic Design Pty Ltd filed Critical Blackmagic Design Pty Ltd
Publication of JP2017532920A publication Critical patent/JP2017532920A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path

Abstract

3次元空間において音像を定位し、制御するためのシステムであって、3次元動作感知式入力装置と、ジェスチャライブラリ及び1つ又は複数のビルトインフィーチャを含む、デジタルオーディオワークステーションアプリケーションを組み込んでいるコンピュータシステムであって、通信リンクによって3次元動作感知式入力装置に接続されているコンピュータシステムと、を備え、ジェスチャライブラリに予め定義されているジェスチャが、3次元動作感知式入力装置によってキャプチャされ、通信リンクを介してコンピュータシステムに提供され、デジタルオーディオワークステーションアプリケーションによって使用されて、3次元空間において音像を定位するか、又はデジタルオーディオワークステーションアプリケーションの1つ若しくは複数のビルトインフィーチャを制御する、システム。【選択図】 図1a

Description

本発明は、3次元空間において音像を定位し(音像の位置を定め)、制御するための方法及びシステムに関する。本発明は、概して、音声、映像、映画及びマルチメディア制作を含む、メディア制作の分野に適用可能である。
3次元空間における音像の定位及び制御を伴うメディア制作は、多くのフィーチャ・アンド・ファンクションを伴って益々高度化してきている。一方、3次元空間における音像の実際の静的及び動的な定位及び制御は、典型的には、マウス、キーボード、及びその他の周辺装置によって操作される。そのような従前のコントローラは、3次元空間において音像を定位し、制御することに関して、オペレータに制限された奥行き感を与えることしかできない。
それゆえに、機能性の向上に伴い、特に、複雑で高スループットの状況では、3次元空間において音像を定位し、制御するための改善されたシステム及び方法を提供することが継続して必要とされている。
本発明の目的は、従来技術の欠点のうちの1つ又は複数を実質的に克服し、又は少なくとも改善することである。
一態様では、3次元空間において音像を定位し、制御するためのシステムが提供される。そのようなシステムは、
3次元動作感知式入力装置と、
ジェスチャライブラリ及び1つ又は複数のビルトインフィーチャ(組込み機能)を含む、デジタルオーディオワークステーションアプリケーションを組み込んでいるコンピュータシステムであって、通信リンクによって3次元動作感知式入力装置(three−dimensional motion sensing input device)に接続されているコンピュータシステムと、を備えることができ、
ジェスチャライブラリに予め定義されているジェスチャが、3次元動作感知式入力装置によってキャプチャされ、通信リンクを介してコンピュータシステムに提供され、デジタルオーディオワークステーションアプリケーションによって使用されて、3次元空間において音像を定位するか、又はデジタルオーディオワークステーションアプリケーションの1つ若しくは複数のビルトインフィーチャを制御する。
本態様による代替システムは、
3次元動作感知式入力装置と、
通信リンクによって3次元動作感知式入力装置に接続されている、マスタコンピュータシステムと、
通信リンク(複数可)によってマスタコンピュータシステムにネットワーク接続されている、1つ又は複数の追加のコンピュータシステム(複数可)と、を備えることができ、
コンピュータシステムのそれぞれが、ジェスチャライブラリ及び1つ又は複数のビルトインフィーチャを含むデジタルオーディオワークステーションアプリケーションを組み込んでおり、
ジェスチャライブラリに予め定義されているジェスチャが、3次元動作感知式入力装置によってキャプチャされ、通信リンクを介してマスタコンピュータシステムに提供され、コンピュータシステムのうちのいずれかのデジタルオーディオワークステーションアプリケーションによって、3次元空間において音像を定位するために、又はデジタルオーディオワークステーションアプリケーションの1つ若しくは複数のビルトインフィーチャを制御するために使用可能である。
そのような代替システムでは、通信リンクによってマスタコンピュータシステムにネットワーク接続されている5個以上の追加のコンピュータシステムが存在してもよい。
別の態様では、3次元空間において音像を定位するための方法が提供される。そのような方法は、
3次元動作感知式入力装置によって検出可能な予め定義されたジェスチャを使用して、3次元空間において音像を定位するか、又は通信リンクを介して3次元動作感知式入力装置に接続されているコンピュータシステムに位置するデジタルオーディオワークステーションアプリケーションの1つ又は複数のビルトインフィーチャを制御するステップを含むことができる。
次いで、本発明の好ましい実施形態について、添付図面を参照して説明する。
好ましい実施形態による、3次元空間において音像を定位し、制御するためのシステムの例としてのブロック図を示す。 別の好ましい実施形態による、3次元空間において音像を定位し、制御するためのシステムの例としてのブロック図を示す。 さらなる好ましい実施形態による、3次元空間において音像を定位し、制御するためのシステムの例としてのブロック図を示す。 ディスプレイ上の球が音像を表す仮想部屋の3次元表現を示したディスプレイのスクリーンショットを示す。
好ましい実施形態は、3次元空間において音像を定位し、制御するためのデジタルオーディオワークステーションアプリケーションを実行するコンピュータシステムに接続されるコントローラとして、例えば、LeapMotion Control(https://www.leapmotion.com/を参照。最終アクセスは2015年8月21日)、又はMicrosoftのKinect(http://www.Microsoft.com/en−us/kinectforwindows/を参照。最終アクセスは2015年8月21日)といった、3次元動作感知式入力装置の使用を伴う。
デジタルオーディオワークステーションアプリケーションを実行するコンピュータシステムは、典型的には、ディスプレイを備えるか、又はディスプレイに接続されてもよい。図2に示す例に見られるように、ディスプレイは、3次元空間の表現、典型的には「仮想部屋」を提示してもよい。図2では、音像は、「球」によって表されている。好ましい実施形態に従ってこの空間内で音像を定位するために、ユーザは、コンピュータシステムで実行しているデジタルオーディオワークステーション上で所望のファンクション、例えば、パン機能を用いてもよく、そして、コンピュータシステムに接続されている3次元動作感知式入力装置の検出ゾーンに手を伸ばす。グラフィカルフィーチャが、ディスプレイ上の仮想部屋内にユーザの手を示してもよい。次いで、ユーザは、単に「球」に手を伸ばして掴み、仮想部屋内で3次元的に球を動かしてもよい。ユーザの手が、例えば、挟む動作、拳を作ること、又はキーボードストロークを選択できるとき、ユーザの手のグラフィカルフィーチャ又はユーザの手の近似の表示の代わりに、グラフィカルフィーチャが、球をハイライトしてもよい。片手を使って1つの音声オブジェクトを制御してもよく、又は両手で2つの独立した信号を同時に制御してもよい。
以下のような、他のファンクションに対する制御の振る舞いを修正する修正子(Modifier)が、例えばキーボードを介して、実装されてもよい。
「POIへのロック(Lock to POI)」は、注目点、例えば、スピーカの位置、又は特定の平面への動きを制限する。
「回転(Rotate)」は、位置ではなく音像の制御に感知を切り替え、手のひねり動作に応答して、音像の回転を可能にする。
「傾き(Tilt)」は、位置ではなく音像の制御に感知を切り替え、手の傾き動作に応答して、音像の傾きを可能にすることができる。
「拡大(Spread)」は、手/指を開いて閉じることに応答して、音像サイズの制御を可能にすることができる。
「発散(Divergence)」は、手/指を開いて閉じることに応答して、音像にじみの制御を可能にすることができる。
図1a〜1cを参照すると、好ましい実施形態による、3次元空間において音像を定位し、制御するためのシステムは、デジタルオーディオワークステーションアプリケーション14を組み込んでいるコンピュータシステム13と通信リンク12を介して通信する3次元動作感知式入力装置11を含むことが示されている。通信リンク12は、有線接続及び/又は無線接続であってもよい。通信リンク12が有線である場合、通信リンク12は、USB接続であってもよい。通信リンク12は、直接又は間接であってもよい。通信リンク12は、移動アプリケーション及び/又はプラグインの形態を含んでもよい。3次元動作感知式入力装置11は、その検出ゾーンで行われている動作に関する情報をキャプチャする。3次元動作感知式入力装置11は、キャプチャした情報を、デジタルオーディオワークステーションアプリケーション14を組み込んでいるコンピュータシステム13に、通信リンク12を介して提供する。
コンピュータシステム13は、デジタルオーディオワークステーションアプリケーション14、プロセッサ15、メモリ16、及びディスプレイ17を組み込んでいる。プロセッサ15は、メモリ16に記憶されている命令を実行して、音声−映像出力信号をディスプレイ17に提供し、及び他の機能性を実現してもよい。デジタルオーディオワークステーションアプリケーション14は、例えば、Fairlight Dream II、Nuendo、又はPro Toolsなどの、音声制作ソフトウェアプラットフォームの形態を取ってもよい。デジタルオーディオワークステーションアプリケーションは、ジェスチャライブラリ141、及び音声制作用の1つ又は複数のビルトインフィーチャ142、例えばパニング機能を含んでもよい。図1b及び図1cに見られるように、デジタルオーディオワークステーションアプリケーション14のアーキテクチャは、例えば、デジタルオーディオワークステーションアプリケーション14に含まれない代替のパニング機能などの、音声制作用のプラグインフィーチャ(プラグイン機能)18を使用するように構成されてもよい。
デジタルオーディオワークステーションアプリケーションは、ジェスチャフィルタの集合などのジェスチャライブラリ141を含み、それぞれが、(ユーザが動く時に)実行され得るジェスチャに関する情報を有してもよい。例えば、ジェスチャフィルタは、スワイプ又は手の投げ出しなどの様々な手のジェスチャに対して提供され得る。検出された動作を各フィルタと比較することによって、人が実行する指定されたジェスチャ又は動きが、識別されてもよい。動きが実行される範囲も判断されてもよい。3次元動作感知式入力装置11によってキャプチャされ、通信リンク12を介してコンピュータシステム13に提供される情報は、デジタルオーディオワークステーションアプリケーションの1つ又は複数のビルトインフィーチャ142を制御するために、ジェスチャライブラリ141に予め定義されてもよい。
図1cを参照すると、コンピュータシステム13は、通信リンク12を介して他のコンピュータシステム13a、13b、及び13cにネットワーク接続されてもよい。そのようなネットワーク接続によって、3次元動作感知式入力装置11が、デジタルオーディオワークステーションアプリケーションの1つ若しくは複数のビルトインフィーチャ、及び/又はコンピュータシステム13のデジタルオーディオワークステーションアプリケーション14を介してネットワーク接続されたコンピュータシステム13a、13b、及び13cのプラグインフィーチャを制御できるようにしてもよい。そのような構成では、デジタルオーディオワークステーションアプリケーション14は、そうでなければ物理的に分離したコンピュータシステムで制作されている音像を、3次元空間において定位し、制御することが可能である。好ましい実施形態では、コンピュータシステム13は、5〜12個の物理的に分離したコンピュータシステムにネットワーク接続されてもよい。
本発明の好ましい実施形態の3次元動作感知式入力装置は、例えば、選択するジェスチャ、掴むジェスチャ、投げるジェスチャなどであるとして、ジェスチャを認識することが可能で、ユーザの直観的なジェスチャ又は予め定義されたジェスチャを検出可能な、任意の従来型の3次元動作感知式入力装置であってもよい。現在利用できる適当な3次元感知式入力装置の例は、Microsoft Kinect、及びLeap Motion3次元入力感知装置である。
好ましい実施形態では、3次元動作感知式入力装置は、モバイル装置若しくはパーソナルコンピュータなどの別のネットワークコンポーネントに組み込まれてもよく、又は、壁掛け、デスクトップ、若しくは自立型装置などのネットワーク内のスタンドアロン装置であってもよい。さらに、3次元動作感知式入力装置は、ユーザ、ユーザのジェスチャ、又は任意の仮想コンポーネント若しくはクラウドリソースを含む任意のネットワークコンポーネントから、任意の適当な距離にあってもよく、又はこれらに対し任意の方位を有してもよい。適当な距離は、ミリメートルなどの短距離、又は3次元動作感知式入力装置が十分なジェスチャ情報を正確に取得することが依然として可能な任意の距離などの長距離を含んでもよい。適当な方位は、直交方位、垂直方位、空中方位、又は任意の他の方位などの、任意の方位を含んでもよい。
好ましい実施形態では、3次元動作感知式入力装置は、複数部分からなるジェスチャであるジェスチャ、又は一部が時間的に遅延しているジェスチャを認識するように構成されてもよい。例えば、掴むジェスチャが、投げるジェスチャよりいくらか前に実行され、投げるジェスチャと時間的に別々であるときでも、3次元動作感知式入力装置は、掴むジェスチャと投げるジェスチャとを認識してもよい。
好ましい実施形態では、システムが特定のジェスチャ又は特定のユーザを正確に検出することができるように、システムが使用前に較正されてもよい。システム較正はまた、システムが、ネットワーク装置及びコンポーネントの、互いから及び/又はユーザからの方位、距離、及び/又は方向を、外挿法によって推定することを補助してもよい。
本明細書は、メディア処理、コンピュータアーキテクチャ、及びプログラミングの当業者に向けて書かれている。
具体的に特段の記述がない限り、明細書全体を通して、「処理する」、「計算する」、「算出する」、「判断する」などの用語を使用する考察は、電子量などの物理量として表されるデータを操作し、及び/又は、電子量などの物理量として表されるデータを、同様に物理量として表される他のデータに変換する、コンピュータ若しくは計算システム、又は類似の電子計算装置の動作及び/又は処理を指す。
同様に、「プロセッサ」という用語は、例えば、レジスタ及び/又はメモリからの電子データを処理して、例えば、レジスタ及び/又はメモリに記憶され得る他の電子データに、その電子データを変換する、任意の装置又は装置の一部を指してもよい。「コンピュータ」、又は「計算機械」、又は「計算プラットフォーム」は、1つ又は複数のプロセッサを含んでもよい。
各プロセッサは、1つ又は複数のCPU、グラフィック処理ユニット、及びプログラマブルDSPユニットを含んでもよい。処理システムは、メインRAM、及び/又はスタティックRAM、及び/又はROMを含む、メモリサブシステムをさらに含んでもよい。バスサブシステムは、コンポーネント間で通信するために含まれてもよい。処理システムがディスプレイを必要とする場合、そのようなディスプレイには、例えば、液晶ディスプレイ(LCD)、又は陰極線管(CRT)ディスプレイが含まれてもよい。手動データ入力が必要とされる場合、処理システムは、また、キーボードなどの英数字入力ユニット、マウスなどのポインティング制御装置などのうちの1つ又は複数などの入力装置を含む。本明細書で使用されるメモリユニットの用語は、また、ディスクドライブユニットなどの記憶システムを包含する。いくつかの構成における処理システムは、音響出力装置、及びネットワークインターフェース装置を含んでもよい。メモリサブシステムは、したがって、処理システムによって実行される際に、本明細書に記載した方法のうちの1つ又は複数を実行するためのコンピュータ可読命令、例えば、ソフトウェアを担持する、担持媒体を含む。方法が、いくつかの要素、例えば、いくつかのステップを含むとき、具体的に記述しない限り、そのような要素の順序付けを示唆するものではないことに留意されたい。ソフトウェアは、ハードディスクに存在してもよく、又は、コンピュータシステムによる実行中に、RAM及び/若しくはプロセッサ内に、完全に、若しくは少なくとも部分的に存在してもよい。したがって、メモリ及びプロセッサは、また、コンピュータ可読命令を担持する担持媒体を構成する。
いくつかの図面(複数可)には、単一のプロセッサ及びコンピュータ可読命令を担持する単一のメモリのみを示すものの、当業者には理解されるように、上述したコンポーネントの多くが含まれるが、発明の態様を不明確にしないために、明示的には図示又は説明しないことに留意されたい。
考察された方法のステップは、記憶装置に記憶された命令(コードセグメント)を実行する処理(即ち、コンピュータ)システムの適切なプロセッサ(又は複数のプロセッサ)によって、一実施形態において実行されると理解されたい。発明が、いかなる特定の実装又はプログラミング技術にも限定されないこと、及び、発明が、本明細書に記載した機能性を実装するための任意の適切な技術を使用して実装され得ることも理解されたい。発明は、どの特定のプログラミング言語又はオペレーティングシステムにも限定されない。
本発明の好ましい形態が、音声制作に関連する応用例に対する特定の参照と共に説明されたが、上述した好ましい実施形態に対して修正が行われ得ること、又は、発明が他の形態で具体化され、代替的なアプリケーションにおいて使用され得ることが、当業者には明らかである。
本明細書及び下記の特許請求の範囲を通じて、文脈がそうでないことを要しない限り、「組み込む(incorporate)」及び「備える(comprise)」という語、並びに「組み込む(incorporates)」、「組み込んでいる(incorporating)」、「備える(comprises)」、及び「備えている(comprising)」などの変化形は、記述した整数若しくはステップ、又は整数若しくはステップの群を包含することを示唆するが、いかなる他の整数若しくはステップ、又は整数若しくはステップの群も除外しないことを示唆すると理解されるであろう。
任意の先行出版物(若しくは、それから派生した情報)、又は任意の既知の事項に対する本明細書での参照は、先行出版物(若しくは、それから派生した情報)、又は既知の事項が、本明細書が関係する努力傾注分野における共通の一般的知識の一部を形成することの、承認若しくは自認、又は任意の形式の提案と解釈されるものではなく、また解釈されるべきではない。

Claims (4)

  1. 3次元空間において音像を定位し、制御するためのシステムであって、
    3次元動作感知式入力装置と、
    ジェスチャライブラリ及び1つ又は複数のビルトインフィーチャを含むデジタルオーディオワークステーションアプリケーションを組み込んでいるコンピュータシステムであって、通信リンクによって前記3次元動作感知式入力装置に接続されている前記コンピュータシステムと、を備え、
    前記ジェスチャライブラリに予め定義されているジェスチャが、前記3次元動作感知式入力装置によってキャプチャされ、前記通信リンクを介して前記コンピュータシステムに提供され、前記デジタルオーディオワークステーションアプリケーションによって使用されて、3次元空間において音像を定位するか、又は前記デジタルオーディオワークステーションアプリケーションの1つ若しくは複数のビルトインフィーチャを制御する、システム。
  2. 3次元空間において音像を定位し、制御するためのシステムであって、
    3次元動作感知式入力装置と、
    通信リンクによって前記3次元動作感知式入力装置に接続されているマスタコンピュータシステムと、
    通信リンク(複数可)によって前記マスタコンピュータシステムにネットワーク接続されている1つ又は複数の追加のコンピュータシステム(複数可)と、を備え、
    前記コンピュータシステムのそれぞれが、ジェスチャライブラリ及び1つ又は複数のビルトインフィーチャを含むデジタルオーディオワークステーションアプリケーションを組み込んでおり、
    前記ジェスチャライブラリに予め定義されているジェスチャが、前記3次元動作感知式入力装置によってキャプチャされ、前記通信リンクを介して前記マスタコンピュータシステムに提供され、前記コンピュータシステムのうちのいずれかの前記デジタルオーディオワークステーションアプリケーションによって、3次元空間において音像を定位するために、又は前記デジタルオーディオワークステーションアプリケーションの1つ若しくは複数のビルトインフィーチャを制御するために使用可能である、システム。
  3. 通信リンクによって前記マスタコンピュータシステムにネットワーク接続されている5個以上の追加のコンピュータシステムが存在する、請求項2に記載のシステム。
  4. 3次元空間において音像を定位するための方法であって、
    3次元動作感知式入力装置によって検出可能な予め定義されたジェスチャを使用して、3次元空間において音像を定位するか、又は通信リンクを介して3次元動作感知式入力装置に接続されているコンピュータシステムに位置するデジタルオーディオワークステーションアプリケーションの1つ又は複数のビルトインフィーチャを制御するステップを含む、方法。
JP2017530368A 2014-08-26 2015-08-26 3次元空間において音像を定位し、制御するための方法及びシステム Pending JP2017532920A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2014903381A AU2014903381A0 (en) 2014-08-26 Methods and systems for positioning and controlling sound images in three-dimensional space
AU2014903381 2014-08-26
PCT/AU2015/050492 WO2016029264A1 (en) 2014-08-26 2015-08-26 Methods and systems for positioning and controlling sound images in three-dimensional space

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020141017A Division JP2021005873A (ja) 2014-08-26 2020-08-24 3次元空間において音像を定位し、制御するための方法及びシステム

Publications (1)

Publication Number Publication Date
JP2017532920A true JP2017532920A (ja) 2017-11-02

Family

ID=55398501

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017530368A Pending JP2017532920A (ja) 2014-08-26 2015-08-26 3次元空間において音像を定位し、制御するための方法及びシステム
JP2020141017A Pending JP2021005873A (ja) 2014-08-26 2020-08-24 3次元空間において音像を定位し、制御するための方法及びシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020141017A Pending JP2021005873A (ja) 2014-08-26 2020-08-24 3次元空間において音像を定位し、制御するための方法及びシステム

Country Status (7)

Country Link
US (1) US11327575B2 (ja)
EP (1) EP3186693A4 (ja)
JP (2) JP2017532920A (ja)
KR (1) KR102221071B1 (ja)
CN (1) CN107111382A (ja)
AU (1) AU2015309688B2 (ja)
WO (1) WO2016029264A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9939908B2 (en) * 2015-09-28 2018-04-10 Paypal, Inc. Multi-device authentication

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0990963A (ja) * 1995-09-20 1997-04-04 Hitachi Ltd 音情報提供装置、及び音情報選択方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8448083B1 (en) * 2004-04-16 2013-05-21 Apple Inc. Gesture control of multimedia editing applications
US8600529B2 (en) * 2006-10-23 2013-12-03 Adobe Systems Incorporated Audio fade control
US8255069B2 (en) 2007-08-06 2012-08-28 Apple Inc. Digital audio processor
US10642364B2 (en) * 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US8477139B2 (en) * 2008-06-09 2013-07-02 Apple Inc. Touch screen device, method, and graphical user interface for manipulating three-dimensional virtual objects
US8068105B1 (en) 2008-07-18 2011-11-29 Adobe Systems Incorporated Visualizing audio properties
US20110289455A1 (en) * 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
US8638989B2 (en) * 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
JP5825176B2 (ja) * 2012-03-29 2015-12-02 富士通株式会社 携帯端末、音源位置制御方法および音源位置制御プログラム
KR101392933B1 (ko) * 2012-12-27 2014-05-08 전자부품연구원 무선 위치추적에 기반한 3차원 음향 제공 시스템
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9883284B2 (en) * 2013-05-30 2018-01-30 Spotify Ab Systems and methods for automatic mixing of media
US20150116200A1 (en) * 2013-10-25 2015-04-30 Honda Motor Co., Ltd. System and method for gestural control of vehicle systems
US9398059B2 (en) * 2013-11-22 2016-07-19 Dell Products, L.P. Managing information and content sharing in a virtual collaboration session
US9329833B2 (en) * 2013-12-20 2016-05-03 Dell Products, L.P. Visual audio quality cues and context awareness in a virtual collaboration session
JP5959771B2 (ja) * 2014-06-27 2016-08-02 株式会社東芝 電子機器、方法およびプログラム
US20160357262A1 (en) * 2015-06-05 2016-12-08 Arafat M.A. ANSARI Smart vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0990963A (ja) * 1995-09-20 1997-04-04 Hitachi Ltd 音情報提供装置、及び音情報選択方法

Also Published As

Publication number Publication date
KR102221071B1 (ko) 2021-03-02
AU2015309688A1 (en) 2017-03-16
EP3186693A4 (en) 2018-04-04
KR20170125788A (ko) 2017-11-15
EP3186693A1 (en) 2017-07-05
JP2021005873A (ja) 2021-01-14
US20170262075A1 (en) 2017-09-14
WO2016029264A1 (en) 2016-03-03
AU2015309688B2 (en) 2020-08-20
US11327575B2 (en) 2022-05-10
CN107111382A (zh) 2017-08-29

Similar Documents

Publication Publication Date Title
JP6826029B2 (ja) 画像を表示するための方法、装置およびコンピュータ・プログラム
US10684768B2 (en) Enhanced target selection for a touch-based input enabled user interface
US8881059B2 (en) Object control device, object control method, computer-readable recording medium, and integrated circuit
US9020194B2 (en) Systems and methods for performing a device action based on a detected gesture
US20140075330A1 (en) Display apparatus for multiuser and method thereof
US9268410B2 (en) Image processing device, image processing method, and program
JP6190035B2 (ja) コンテンツ配信のセグメンテーション
EP3090424A1 (en) Assigning virtual user interface to physical object
JP2014501413A (ja) ジェスチャ認識のためのユーザ・インタフェース、装置および方法
TW201322178A (zh) 擴增實境的方法及系統
JP5986261B1 (ja) 画面制御のための効率的なインタフェースを提供するシステムおよび方法
EP3147895A1 (en) Display apparatus and method for controlling display apparatus thereof
US10754446B2 (en) Information processing apparatus and information processing method
US11057549B2 (en) Techniques for presenting video stream next to camera
KR20230163328A (ko) 전자 장치 및 그의 동작 방법
US10366495B2 (en) Multi-spectrum segmentation for computer vision
JP2021005873A (ja) 3次元空間において音像を定位し、制御するための方法及びシステム
US9950270B2 (en) Electronic device and method for controlling toy using the same
JP2018028874A5 (ja)
US20150241982A1 (en) Apparatus and method for processing user input
US20140184566A1 (en) Electronic apparatus, method of controlling the same, and computer-readable recording medium
WO2022174192A1 (en) X-ray sight view and remote anchor for selection tasks in xr environment
JP2015069512A (ja) 情報処理装置及び情報処理方法
JP2017016464A (ja) 表示制御方法、情報処理装置および表示制御プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170804

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190920

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200422