JP2021061497A - オーディオコントローラ、指向性スピーカの制御方法、プログラム - Google Patents
オーディオコントローラ、指向性スピーカの制御方法、プログラム Download PDFInfo
- Publication number
- JP2021061497A JP2021061497A JP2019183753A JP2019183753A JP2021061497A JP 2021061497 A JP2021061497 A JP 2021061497A JP 2019183753 A JP2019183753 A JP 2019183753A JP 2019183753 A JP2019183753 A JP 2019183753A JP 2021061497 A JP2021061497 A JP 2021061497A
- Authority
- JP
- Japan
- Prior art keywords
- information
- target
- directional speaker
- sound source
- virtual sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Abstract
【課題】指向性スピーカによって形成される仮想音源の設計を容易化する。【解決手段】 音波の放射方向を変更可能な指向性スピーカを制御するオーディオコントローラは、可聴音の再生のシナリオに関するシナリオ情報を取得する手段を備え、シナリオ情報には、ターゲット位置情報と、クリップ情報と、が関連付けられ、ターゲット位置情報は、仮想音源の位置の基準となるターゲットオブジェクトの位置に関する情報であり、クリップ情報は、音声ファイルを含み、ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカを制御する手段を備える。【選択図】図4
Description
本発明は、オーディオコントローラ、指向性スピーカの制御方法、及び、プログラムに関する。
指向性スピーカは、特定の位置に仮想音源を形成することができる。指向性スピーカを利用することにより、様々な態様(例えば、時間と共に移動する態様)で仮想音源を形成することが可能である
例えば、特許文献1は、音源位置を認識することにより、可聴領域を移動させる技術を開示している。
実際に、任意の位置に仮想音源を設定するためには、指向性スピーカの使用環境を考慮する必要がある。したがって、指向性スピーカのユーザが仮想音源を手動で設定することは容易ではない。
特許文献1では、音源位置の認識結果に応じて可聴領域の位置が決まる。したがって、ユーザの所望の位置に仮想音源を形成することは容易ではない。
つまり、従来、指向性スピーカによって形成される仮想音源の設計は困難である。
本発明の目的は、指向性スピーカによって形成される仮想音源の設計を容易化することである。
本発明の一態様は、
音波の放射方向を変更可能な指向性スピーカを制御するオーディオコントローラであって、
可聴音の再生のシナリオに関するシナリオ情報を取得する手段を備え、
前記シナリオ情報には、ターゲット位置情報と、クリップ情報と、が関連付けられ、
前記ターゲット位置情報は、仮想音源の位置の基準となるターゲットオブジェクトの位置に関する情報であり、
前記クリップ情報は、音声ファイルを含み、
前記ターゲット位置情報が示す位置に前記音声ファイルに対応する可聴音の仮想音源が形成されるように、前記指向性スピーカを制御する手段を備える、
オーディオコントローラである。
音波の放射方向を変更可能な指向性スピーカを制御するオーディオコントローラであって、
可聴音の再生のシナリオに関するシナリオ情報を取得する手段を備え、
前記シナリオ情報には、ターゲット位置情報と、クリップ情報と、が関連付けられ、
前記ターゲット位置情報は、仮想音源の位置の基準となるターゲットオブジェクトの位置に関する情報であり、
前記クリップ情報は、音声ファイルを含み、
前記ターゲット位置情報が示す位置に前記音声ファイルに対応する可聴音の仮想音源が形成されるように、前記指向性スピーカを制御する手段を備える、
オーディオコントローラである。
本発明によれば、指向性スピーカによって形成される仮想音源の設計を容易化することができる。
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)オーディオシステムの構成
オーディオシステムの構成を説明する。図1は、本実施形態のオーディオシステムの構成図である。図2は、図1のオーディオシステムの機能ブロック図である。
オーディオシステムの構成を説明する。図1は、本実施形態のオーディオシステムの構成図である。図2は、図1のオーディオシステムの機能ブロック図である。
図1に示すように、オーディオシステム1は、オーディオコントローラ10と、指向性スピーカ30とを備える。
オーディオコントローラ10は、指向性スピーカ30を制御する情報処理装置の一例である。オーディオコントローラ10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
指向性スピーカ30は、オーディオコントローラ10から送信されたリクエストに応じて可聴音を再生するように構成される。
(1−1)オーディオコントローラの構成
オーディオコントローラ10の構成を説明する。
オーディオコントローラ10の構成を説明する。
図2に示すように、オーディオコントローラ10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、を備える。
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、オーディオコントローラ10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
入出力インタフェース13は、オーディオコントローラ10に接続される入力デバイスからユーザの指示を取得し、かつ、オーディオコントローラ10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
通信インタフェース14は、オーディオコントローラ10と指向性スピーカ30との間の通信を制御するように構成される。
(1−2)指向性スピーカの構成
指向性スピーカ30の構成を説明する。図3は、図1の指向性スピーカの構成の一例を示す図である。
指向性スピーカ30の構成を説明する。図3は、図1の指向性スピーカの構成の一例を示す図である。
図3Aに示すように、複数の超音波振動子35は、例えば、XY平面で規定される放射面35a上に配置される。複数の超音波振動子35が振動すると、XY平面の法線方向(Z方向)に向かって超音波が放射される。
図3Bに示すように、方向変更機構36は、支持点36aで放射面35aを軸支する。
図3Cに示すように、放射面35aは、支持点36aにおいて、X方向に固定され、且つ、Y方向及びZ方向の向きを変えるように構成される。これにより、複数の超音波振動子35から放射される超音波の放射方向が変わる。
通信インタフェース34は、指向性スピーカ30とオーディオコントローラ10との間の通信を制御するように構成される。
(2)実施形態の概要
本実施形態の概要を説明する。図4は、本実施形態の概要の説明図である。
本実施形態の概要を説明する。図4は、本実施形態の概要の説明図である。
図4のオーディオコントローラ10は、音波の放射方向を変更可能な指向性スピーカ30を制御するように構成される。
オーディオコントローラ10は、可聴音の再生のシナリオに関するシナリオ情報を取得する。シナリオ情報には、ターゲット位置情報と、クリップ情報と、が関連付けられる。ターゲット位置情報は、仮想音源の位置の基準となるターゲットオブジェクトTG_A〜TG_Cの位置に関する情報である。クリップ情報は、音声ファイルを含む。
オーディオコントローラ10は、ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御する。
オーディオコントローラ10は、ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御する。
指向性スピーカ30から放射された音波は、ターゲットオブジェクトTG_A〜TG_Cに仮想音源を形成する。
(3)データ構造
本実施形態のデータ構造を説明する。以下のデータベースは、記憶装置11に記憶される。
本実施形態のデータ構造を説明する。以下のデータベースは、記憶装置11に記憶される。
(3−1)プロジェクトファイルの構造
本実施形態のプロジェクトファイルの構造を説明する。図5は、本実施形態のプロジェクトファイルのデータ構造を示す図である。
本実施形態のプロジェクトファイルの構造を説明する。図5は、本実施形態のプロジェクトファイルのデータ構造を示す図である。
図5のプロジェクトファイルは、プロジェクト情報を含む。プロジェクト情報は、プロジェクトに関する情報である。
プロジェクトとは、特定の指向性スピーカ30から放射させる音波によって形成すべき仮想音源の再生に関するルールの集合である。プロジェクトは、シナリオと、クリップと、ターゲットオブジェクトと、を含む。つまり、オーディオコントローラ10は、複数の指向性スピーカ30を制御する場合、各指向性スピーカ30に対応するプロジェクト情報を参照する。
シナリオとは、1又は複数のターゲットオブジェクトに形成すべき仮想音源の再生に関するルールである。シナリオは、1又は複数のクリップ、及び、1又は複数のターゲットオブジェクトの集合である。
クリップとは、可聴音の再生の単位である。1つのシナリオに対して、1又は複数のクリップが割り当てられる。
ターゲットオブジェクトとは、仮想音源を形成する位置の基準となる物体(つまり、物理オブジェクト)である。1つのシナリオに対して、1又は複数のターゲットオブジェクトが割り当てられる。ターゲットオブジェクトは、例えば、以下の少なくとも1つである。
・物体(静止体又は移動体)
・人
・動物
・物体(静止体又は移動体)
・人
・動物
(3−2)プロジェクト情報データベース
本実施形態のプロジェクト情報データベースを説明する。図6は、本実施形態のプロジェクト情報データベースのデータ構造を示す図である。
本実施形態のプロジェクト情報データベースを説明する。図6は、本実施形態のプロジェクト情報データベースのデータ構造を示す図である。
図6のプロジェクト情報データベースには、プロジェクト情報が格納される。
プロジェクト情報データベースは、「プロジェクトID」フィールドと、「プロジェクト名」フィールドと、「プロジェクト設定」フィールドと、「シナリオID」フィールドと、を備える。各フィールドは、互いに関連付けられている。
プロジェクト情報データベースは、「プロジェクトID」フィールドと、「プロジェクト名」フィールドと、「プロジェクト設定」フィールドと、「シナリオID」フィールドと、を備える。各フィールドは、互いに関連付けられている。
「プロジェクトID」フィールドには、プロジェクト識別情報が格納される。プロジェクト識別情報は、プロジェクトを識別する情報である。
「プロジェクト名」フィールドには、プロジェクト名に関する情報(例えば、テキスト)が格納される。
「プロジェクト設定」フィールドには、プロジェクトに関するプロジェクト設定情報が格納される。「プロジェクト設定」フィールドは、「スピーカID」フィールドと、「スピーカ位置」フィールドと、「ドメインサイズ」フィールドと、を含む。
「スピーカID」フィールドには、スピーカ識別情報が格納される。スピーカ識別情報は、指向性スピーカ30を識別する情報である。
「スピーカ位置」フィールドには、スピーカ位置情報が格納される。スピーカ位置情報は、指向性スピーカ30が使用される空間(以下「使用空間」という)の座標系(以下「空間座標系」という)における指向性スピーカ30の位置(以下「スピーカ位置」という)に関する情報である。
「ドメインサイズ」フィールドには、ドメインサイズ情報が格納される。ドメインサイズ情報は、使用空間の大きさに関する情報である。
「シナリオID」フィールドには、プロジェクトに関連付けられた1又は複数のシナリオを識別するシナリオ識別情報が格納される。
(3−3)ターゲット情報データベース
本実施形態のターゲット情報データベースを説明する。図7は、本実施形態のターゲット情報データベースのデータ構造を示す図である。
本実施形態のターゲット情報データベースを説明する。図7は、本実施形態のターゲット情報データベースのデータ構造を示す図である。
図7のターゲット情報データベースには、ターゲット情報が格納される。ターゲット情報は、ターゲットオブジェクトに関する情報である。
ターゲット情報データベースは、「ターゲットID」フィールドと、「ターゲット名」フィールドと、「ターゲット位置」フィールドと、を含む。各フィールドは、互いに関連付けられている。
ターゲット情報データベースは、プロジェクト識別情報に関連付けられる。
ターゲット情報データベースは、「ターゲットID」フィールドと、「ターゲット名」フィールドと、「ターゲット位置」フィールドと、を含む。各フィールドは、互いに関連付けられている。
ターゲット情報データベースは、プロジェクト識別情報に関連付けられる。
「ターゲットID」フィールドには、プロジェクトに割り当てられたターゲットオブジェクトのターゲット識別情報が格納される。
「ターゲット名」フィールドには、ターゲット名に関する情報(例えば、テキスト)が格納される。
「ターゲット位置」フィールドには、ターゲット位置情報が格納される。ターゲット位置情報は、ターゲットオブジェクトの位置に関する情報である。
(3−4)クリップ情報データベース
本実施形態のクリップ情報データベースを説明する。図8は、本実施形態のクリップ情報データベースのデータ構造を示す図である。
本実施形態のクリップ情報データベースを説明する。図8は、本実施形態のクリップ情報データベースのデータ構造を示す図である。
図8のクリップ情報データベースには、クリップ情報が格納される。クリップ情報は、クリップに関する情報である。
クリップ情報データベースは、「クリップID」フィールドと、「クリップ名」フィールドと、「音声ファイル」フィールドと、「再生モード」フィールドと、「モーションタイプ」フィールドと、「再生時間」フィールドと、「再生順」フィールドと、「ターゲットID」フィールドと、を備える。各フィールドは、互いに関連付けられている。
クリップ情報データベースは、シナリオ識別情報に関連付けられる。
クリップ情報データベースは、「クリップID」フィールドと、「クリップ名」フィールドと、「音声ファイル」フィールドと、「再生モード」フィールドと、「モーションタイプ」フィールドと、「再生時間」フィールドと、「再生順」フィールドと、「ターゲットID」フィールドと、を備える。各フィールドは、互いに関連付けられている。
クリップ情報データベースは、シナリオ識別情報に関連付けられる。
「クリップID」フィールドには、クリップ識別情報が格納される。
「クリップ名」フィールドには、クリップ名に関する情報(例えば、テキスト)が格納される。
「音声ファイル」フィールドには、クリップに割り当てられる音声ファイルが格納される。
「再生モード」フィールドには、再生モード情報が格納される。再生モード情報は、指向性スピーカ30による音の再生の種類(つまり、仮想音源の再生の態様)に関する情報である。
「モーションタイプ」フィールドには、モーションタイプ情報が格納される。モーションタイプ情報は、指向性スピーカ30によって再生される可聴音の動きの種類(つまり、仮想音源の移動の態様)に関する情報である。
「再生時間」フィールドには、再生時間情報が格納される。再生時間情報は、可聴音の再生時間に関する情報である。
「再生順」フィールドには、再生順情報が格納される。再生順情報は、各レコードの再生順に関する情報である。
「ターゲットID」フィールドには、クリップに割り当てられるターゲットオブジェクトのターゲット識別情報が格納される。
(3−4−1)再生モード
本実施形態の再生モードを説明する。図9は、本実施形態の再生モードの説明図である。
本実施形態の再生モードを説明する。図9は、本実施形態の再生モードの説明図である。
図9に示すように、本実施形態の再生モードは、ループ再生モードと、継続再生モードと、を含む。
図9Aに示すように、ループ再生モードでは、1つのクリップ(例えば、クリップ名「CLIP_A」)に、1つの音声ファイル(例えば、ファイル名「SOUND_A」)が割り当てられる。当該音声ファイルは、当該クリップ内で複数回繰り返し再生される。
図9Bに示すように、継続再生モードでは、複数のクリップ(例えば、クリップ名「CLIP_A」及び「CLIP_B」)に、1つの音声ファイル(例えば、ファイル名「SOUND_A」)が割り当てられる。当該音声ファイルは、当該複数のクリップ内で継続して再生される。
(3−4−2)モーションタイプ
本実施形態のモーションタイプを説明する。図10は、本実施形態のモーションタイプの説明図である。
本実施形態のモーションタイプを説明する。図10は、本実施形態のモーションタイプの説明図である。
図10に示すように、本実施形態のモーションタイプは、「NORMAL」、「LINE」、及び、「CIRCLE」を含む。
図10Aに示すように、モーションタイプ=「NORMAL」では、時刻T=T1において、指向性スピーカ30は、例えば、第1ターゲットオブジェクト(ターゲット識別情報「TG01」)に可聴音の仮想音源を形成する。
時刻T=T2(T2>T1)において、指向性スピーカ30は、再生を停止する。
時刻T=T3(T3>T2)において、指向性スピーカ30は、例えば、第2ターゲットオブジェクト(ターゲット識別情報「TG02」)に可聴音の仮想音源を形成する。
これにより、時刻T1においてターゲットオブジェクト(ターゲット識別情報「TG01」)に形成された音源が、時刻T3においてターゲットオブジェクト(ターゲット識別情報「TG02」)に離散的に移動する体験が提供される。
時刻T=T2(T2>T1)において、指向性スピーカ30は、再生を停止する。
時刻T=T3(T3>T2)において、指向性スピーカ30は、例えば、第2ターゲットオブジェクト(ターゲット識別情報「TG02」)に可聴音の仮想音源を形成する。
これにより、時刻T1においてターゲットオブジェクト(ターゲット識別情報「TG01」)に形成された音源が、時刻T3においてターゲットオブジェクト(ターゲット識別情報「TG02」)に離散的に移動する体験が提供される。
図10Bに示すように、モーションタイプ=「LINE」では、時刻T=T1において、指向性スピーカ30は、例えば、第1ターゲットオブジェクト(ターゲット識別情報「TG01」)に可聴音の仮想音源を形成する。
時刻T=T2において、指向性スピーカ30は、ターゲットオブジェクト(ターゲット識別情報「TG01」)に形成された仮想音源を、第1ターゲットオブジェクト(ターゲット識別情報「TG01」)の位置から第2ターゲットオブジェクト(ターゲット識別情報「TG02」)の位置に向かって連続的に移動させる。
時刻T=T3において、指向性スピーカ30は、第2ターゲットオブジェクト(ターゲット識別情報「TG02」)に可聴音の仮想音源を形成する。
これにより、時刻T1において第1ターゲットオブジェクト(ターゲット識別情報「TG01」)に形成された音源が、時刻T2〜T3において第2ターゲットオブジェクト(ターゲット識別情報「TG02」)に向かって連続的に移動する体験が提供される。
時刻T=T2において、指向性スピーカ30は、ターゲットオブジェクト(ターゲット識別情報「TG01」)に形成された仮想音源を、第1ターゲットオブジェクト(ターゲット識別情報「TG01」)の位置から第2ターゲットオブジェクト(ターゲット識別情報「TG02」)の位置に向かって連続的に移動させる。
時刻T=T3において、指向性スピーカ30は、第2ターゲットオブジェクト(ターゲット識別情報「TG02」)に可聴音の仮想音源を形成する。
これにより、時刻T1において第1ターゲットオブジェクト(ターゲット識別情報「TG01」)に形成された音源が、時刻T2〜T3において第2ターゲットオブジェクト(ターゲット識別情報「TG02」)に向かって連続的に移動する体験が提供される。
図10Cに示すように、モーションタイプ=「CIRCLE」では、時刻T=T1において、指向性スピーカ30は、例えば、ターゲットオブジェクト(ターゲット識別情報「TG01」)に可聴音の仮想音源を形成する。
時刻T=T2〜T3において、指向性スピーカ30は、時刻T=T1において形成された仮想音源を、ターゲットオブジェクト(ターゲット識別情報「TG01」)の周囲を円形に周回するように移動させる。
これにより、時刻T1においてターゲットオブジェクト(ターゲット識別情報「TG01」)に形成された音源が、時刻T2〜T3においてターゲットオブジェクト(ターゲット識別情報「TG01」)の周囲を連続的に移動する体験が提供される。
時刻T=T2〜T3において、指向性スピーカ30は、時刻T=T1において形成された仮想音源を、ターゲットオブジェクト(ターゲット識別情報「TG01」)の周囲を円形に周回するように移動させる。
これにより、時刻T1においてターゲットオブジェクト(ターゲット識別情報「TG01」)に形成された音源が、時刻T2〜T3においてターゲットオブジェクト(ターゲット識別情報「TG01」)の周囲を連続的に移動する体験が提供される。
(4)情報処理
本実施形態の情報処理を説明する。
本実施形態の情報処理を説明する。
(4−1)プロジェクト設定処理
本実施形態のプロジェクト設定処理を説明する。図11は、本実施形態のプロジェクト設定処理の全体フローを示す図である。図12は、図11の情報処理において表示される画面例を示す図である。図13は、図11の情報処理において表示される画面例を示す図である。
本実施形態のプロジェクト設定処理を説明する。図11は、本実施形態のプロジェクト設定処理の全体フローを示す図である。図12は、図11の情報処理において表示される画面例を示す図である。図13は、図11の情報処理において表示される画面例を示す図である。
図11に示すように、オーディオコントローラ10は、プロジェクト設定(S110)を実行する。
具体的には、プロセッサ12は、画面P10(図12)をディスプレイに表示する。
具体的には、プロセッサ12は、画面P10(図12)をディスプレイに表示する。
画面P10は、フィールドオブジェクトF10a〜F10bを含む。
フィールドオブジェクトF10aは、スピーカ設定(例えば、指向性スピーカ30が設置された位置の設置座標、及び、指向性スピーカ30の設置角度)を指定するためのユーザ入力を受け付けるオブジェクトである。
フィールドオブジェクトF10bは、使用空間に関するドメイン設定(例えば、使用空間の大きさに関するドメインサイズ)を指定するためのユーザ入力を受け付けるオブジェクトである。
フィールドオブジェクトF10aは、スピーカ設定(例えば、指向性スピーカ30が設置された位置の設置座標、及び、指向性スピーカ30の設置角度)を指定するためのユーザ入力を受け付けるオブジェクトである。
フィールドオブジェクトF10bは、使用空間に関するドメイン設定(例えば、使用空間の大きさに関するドメインサイズ)を指定するためのユーザ入力を受け付けるオブジェクトである。
ユーザがフィールドオブジェクトF10aに所望のスピーカ設定を入力し、フィールドオブジェクトF10bに所望のドメイン設定を入力し、且つ、操作オブジェクトB10を操作すると、プロセッサ12は、フィールドオブジェクトF10a〜F10bに入力されたスピーカ設定及びドメイン設定を記憶装置11に記憶する。
ステップS110の後、オーディオコントローラ10は、ターゲット設定(S111)を実行する。
具体的には、プロセッサ12は、画面P11(図12)をディスプレイに表示する。
具体的には、プロセッサ12は、画面P11(図12)をディスプレイに表示する。
画面P11は、操作オブジェクトB11a〜B11dと、フィールドオブジェクトF11a〜F11bと、を含む。
フィールドオブジェクトF11aは、ターゲットリストである。ターゲットリストには、プロジェクトに関連付けるべきターゲットオブジェクトのターゲット識別情報の一覧が表示される。ターゲットリストに表示されたターゲット識別情報は、選択可能に構成される。
操作オブジェクトB11aは、プロジェクトに関連付けるべきターゲットオブジェクトを追加するためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB11aを操作すると、新規のターゲット識別情報がフィールドオブジェクトF11aに追加される。これにより、新規のターゲットオブジェクトがプロジェクトに関連付けられる。
操作オブジェクトB11bは、プロジェクトとターゲットオブジェクトとの関連付けを解除するためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB11bを操作すると、フィールドオブジェクトF11aから選択されたターゲット識別情報が削除される。これにより、ターゲットとプロジェクトオブジェクトとの関連付けが解除される。
操作オブジェクトB11c〜B11dは、ターゲットの順番を入れ替えるためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB11cを操作すると、フィールドオブジェクトF11aで選択されたターゲット識別情報に対応するターゲットの順番が上がる。ユーザが操作オブジェクトB11dを操作すると、フィールドオブジェクトF11aで選択されたターゲット識別情報に対応するターゲットの順番が下がる。
フィールドオブジェクトF11bは、ターゲット設定(例えば、ターゲットオブジェクトの位置に関するターゲット座標)を指定するためのユーザ入力を受け付けるオブジェクトである。ユーザがフィールドオブジェクトF11bにターゲット設定を入力すると、フィールドオブジェクトF11aで選択されたターゲット識別情報に対応するターゲットオブジェクトにターゲット設定が適用される。
フィールドオブジェクトF11aは、ターゲットリストである。ターゲットリストには、プロジェクトに関連付けるべきターゲットオブジェクトのターゲット識別情報の一覧が表示される。ターゲットリストに表示されたターゲット識別情報は、選択可能に構成される。
操作オブジェクトB11aは、プロジェクトに関連付けるべきターゲットオブジェクトを追加するためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB11aを操作すると、新規のターゲット識別情報がフィールドオブジェクトF11aに追加される。これにより、新規のターゲットオブジェクトがプロジェクトに関連付けられる。
操作オブジェクトB11bは、プロジェクトとターゲットオブジェクトとの関連付けを解除するためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB11bを操作すると、フィールドオブジェクトF11aから選択されたターゲット識別情報が削除される。これにより、ターゲットとプロジェクトオブジェクトとの関連付けが解除される。
操作オブジェクトB11c〜B11dは、ターゲットの順番を入れ替えるためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB11cを操作すると、フィールドオブジェクトF11aで選択されたターゲット識別情報に対応するターゲットの順番が上がる。ユーザが操作オブジェクトB11dを操作すると、フィールドオブジェクトF11aで選択されたターゲット識別情報に対応するターゲットの順番が下がる。
フィールドオブジェクトF11bは、ターゲット設定(例えば、ターゲットオブジェクトの位置に関するターゲット座標)を指定するためのユーザ入力を受け付けるオブジェクトである。ユーザがフィールドオブジェクトF11bにターゲット設定を入力すると、フィールドオブジェクトF11aで選択されたターゲット識別情報に対応するターゲットオブジェクトにターゲット設定が適用される。
ステップS111の後、オーディオコントローラ10は、クリップ設定(S112)を実行する。
具体的には、プロセッサ12は、画面P12(図13)をディスプレイに表示する。
具体的には、プロセッサ12は、画面P12(図13)をディスプレイに表示する。
画面P12は、操作オブジェクトB12a〜B12eと、フィールドオブジェクトF12a〜F12bと、を含む。
フィールドオブジェクトF12aは、クリップリストである。フィールドオブジェクトF12aには、設定対象となるクリップのクリップ識別情報の一覧が表示される。フィールドオブジェクトF12aに表示されたクリップ識別情報は、選択可能に構成される。
操作オブジェクトB12aは、クリップをプロジェクトに関連付けるためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB12aを操作すると、新規のクリップ識別情報がフィールドオブジェクトF12aに追加される。これにより、新規のクリップがプロジェクトに関連付けられる。
操作オブジェクトB12bは、クリップとプロジェクトとの関連付けを解除するためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB12bを操作すると、フィールドオブジェクトF12aから選択されたクリップ識別情報が削除される。これにより、クリップとプロジェクトとの関連付けが解除される。
操作オブジェクトB12c〜B12dは、クリップの順番を入れ替えるためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB12cを操作すると、フィールドオブジェクトF12aで選択されたクリップ識別情報に対応するクリップの順番が上がる。ユーザが操作オブジェクトB12dを操作すると、フィールドオブジェクトF12aで選択されたクリップ識別情報に対応するクリップの順番が下がる。
フィールドオブジェクトF12bは、クリップ設定(例えば、音声ファイル、再生時間、ループ再生、継続再生、モーションタイプ、及び、ターゲット識別情報)を指定するためのユーザ入力を受け付けるオブジェクトである。ユーザがフィールドオブジェクトF12bにクリップ設定を入力すると、フィールドオブジェクトF12aで選択されたクリップ識別情報に対応するクリップにクリップ設定が適用される。
操作オブジェクトB12eは、プロジェクトを保存するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB12eが操作されると、プロジェクトが保存される。
フィールドオブジェクトF12aは、クリップリストである。フィールドオブジェクトF12aには、設定対象となるクリップのクリップ識別情報の一覧が表示される。フィールドオブジェクトF12aに表示されたクリップ識別情報は、選択可能に構成される。
操作オブジェクトB12aは、クリップをプロジェクトに関連付けるためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB12aを操作すると、新規のクリップ識別情報がフィールドオブジェクトF12aに追加される。これにより、新規のクリップがプロジェクトに関連付けられる。
操作オブジェクトB12bは、クリップとプロジェクトとの関連付けを解除するためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB12bを操作すると、フィールドオブジェクトF12aから選択されたクリップ識別情報が削除される。これにより、クリップとプロジェクトとの関連付けが解除される。
操作オブジェクトB12c〜B12dは、クリップの順番を入れ替えるためのユーザ指示を受け付けるオブジェクトである。ユーザが操作オブジェクトB12cを操作すると、フィールドオブジェクトF12aで選択されたクリップ識別情報に対応するクリップの順番が上がる。ユーザが操作オブジェクトB12dを操作すると、フィールドオブジェクトF12aで選択されたクリップ識別情報に対応するクリップの順番が下がる。
フィールドオブジェクトF12bは、クリップ設定(例えば、音声ファイル、再生時間、ループ再生、継続再生、モーションタイプ、及び、ターゲット識別情報)を指定するためのユーザ入力を受け付けるオブジェクトである。ユーザがフィールドオブジェクトF12bにクリップ設定を入力すると、フィールドオブジェクトF12aで選択されたクリップ識別情報に対応するクリップにクリップ設定が適用される。
操作オブジェクトB12eは、プロジェクトを保存するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB12eが操作されると、プロジェクトが保存される。
ステップS112の後、オーディオコントローラ10は、プロジェクトの保存(S113)を実行する。
具体的には、ユーザがフィールドオブジェクトF12にクリップ設定を入力し、且つ、操作オブジェクトB12eを操作すると、プロセッサ12は、プロジェクト情報データベース(図6)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「プロジェクトID」フィールド:新規のプロジェクト識別情報
・「プロジェクト名」フィールド:ユーザが任意に指定したプロジェクト名に関する情報
・「スピーカ位置」フィールド:フィールドオブジェクトF10aに入力されたスピーカ位置情報
・「空間サイズ」フィールド:フィールドオブジェクトF10bに入力された空間サイズ情報
・「シナリオID」フィールド:新規のシナリオ識別情報
具体的には、ユーザがフィールドオブジェクトF12にクリップ設定を入力し、且つ、操作オブジェクトB12eを操作すると、プロセッサ12は、プロジェクト情報データベース(図6)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「プロジェクトID」フィールド:新規のプロジェクト識別情報
・「プロジェクト名」フィールド:ユーザが任意に指定したプロジェクト名に関する情報
・「スピーカ位置」フィールド:フィールドオブジェクトF10aに入力されたスピーカ位置情報
・「空間サイズ」フィールド:フィールドオブジェクトF10bに入力された空間サイズ情報
・「シナリオID」フィールド:新規のシナリオ識別情報
プロセッサ12は、新規のプロジェクト識別情報に関連付けられたターゲット情報データベース(図7)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「ターゲットID」フィールド:ステップS111で得られたターゲット識別情報
・「ターゲット名」フィールド:ユーザが任意に指定したターゲット名に関する情報
・「ターゲット位置」フィールド:フィールドオブジェクトF11bに入力されたターゲット位置情報
新規レコードの各フィールドには、以下の情報が格納される。
・「ターゲットID」フィールド:ステップS111で得られたターゲット識別情報
・「ターゲット名」フィールド:ユーザが任意に指定したターゲット名に関する情報
・「ターゲット位置」フィールド:フィールドオブジェクトF11bに入力されたターゲット位置情報
プロセッサ12は、新規のシナリオ識別情報に関連付けられたクリップ情報データベース(図8)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「クリップID」フィールド:ステップS112で得られたクリップ識別情報
・「クリップ名」フィールド:ユーザが任意に指定したクリップ名に関する情報
・「音声ファイル」フィールド:フィールドオブジェクトF12bで指定された音声ファイル
・「再生モード」フィールド:フィールドオブジェクトF12bに入力された再生モード情報
・「モーションタイプ」フィールド:フィールドオブジェクトF12bに入力されたモーションタイプ情報
・「再生時間」フィールド:フィールドオブジェクトF12bに入力された再生時間情報
・「ターゲットID」フィールド:ステップS111で得られたターゲット識別情報
新規レコードの各フィールドには、以下の情報が格納される。
・「クリップID」フィールド:ステップS112で得られたクリップ識別情報
・「クリップ名」フィールド:ユーザが任意に指定したクリップ名に関する情報
・「音声ファイル」フィールド:フィールドオブジェクトF12bで指定された音声ファイル
・「再生モード」フィールド:フィールドオブジェクトF12bに入力された再生モード情報
・「モーションタイプ」フィールド:フィールドオブジェクトF12bに入力されたモーションタイプ情報
・「再生時間」フィールド:フィールドオブジェクトF12bに入力された再生時間情報
・「ターゲットID」フィールド:ステップS111で得られたターゲット識別情報
(4−2)再生処理
本実施形態の再生処理を説明する。図14は、本実施形態の再生処理の全体フローを示す図である。図15は、図14の情報処理において表示される画面例を示す図である。
本実施形態の再生処理を説明する。図14は、本実施形態の再生処理の全体フローを示す図である。図15は、図14の情報処理において表示される画面例を示す図である。
図14に示すように、オーディオコントローラ10は、プロジェクトの決定(S210)を実行する。
具体的には、プロセッサ12は、画面P20(図15)をディスプレイに表示する。
具体的には、プロセッサ12は、画面P20(図15)をディスプレイに表示する。
画面P20は、操作オブジェクトB20と、フィールドオブジェクトF20と、を含む。
フィールドオブジェクトF20は、プロジェクトを選択するためのユーザ入力を受け付けるオブジェクトである。フィールドオブジェクトF20には、プロジェクト情報データベース(図6)のに格納されたプロジェクト識別情報の一覧が表示される。
操作オブジェクトB20は、フィールドオブジェクトF20へのユーザ入力を確定させるためのユーザ指示(つまり、再生指示)を受け付けるオブジェクトである。
フィールドオブジェクトF20は、プロジェクトを選択するためのユーザ入力を受け付けるオブジェクトである。フィールドオブジェクトF20には、プロジェクト情報データベース(図6)のに格納されたプロジェクト識別情報の一覧が表示される。
操作オブジェクトB20は、フィールドオブジェクトF20へのユーザ入力を確定させるためのユーザ指示(つまり、再生指示)を受け付けるオブジェクトである。
ユーザがフィールドオブジェクトF20で任意のプロジェクト識別情報を選択し、且つ、操作オブジェクトB20を操作すると、プロセッサ12は、プロジェクト情報データベース(図6)を参照して、フィールドオブジェクトF20で選択されたプロジェクト識別情報に対応するプロジェクトファイルを特定する。これにより、シナリオ識別情報が特定される。
ステップS210の後、オーディオコントローラ10は、ターゲット位置の特定(S211)を実行する。
具体的には、プロセッサ12は、ステップS210で特定されたシナリオ識別情報に関連付けられたクリップ情報データベース(図8)の各レコードの「ターゲットID」フィールドの情報(つまり、ターゲット識別情報(以下「参照ターゲット識別情報」という))を特定する。
プロセッサ12は、ターゲット情報データベース(図7)を参照して、参照ターゲット識別情報に関連付けられたターゲット位置情報(以下「参照ターゲット位置情報」という)を特定する。
プロセッサ12は、ステップS210で特定されたプロジェクトファイルに含まれるスピーカ位置情報(以下「対象スピーカ位置情報」という)を特定する。
プロセッサ12は、対象スピーカ位置情報及び参照ターゲット位置情報の組合せを参照して、指向性スピーカ30を基準とするターゲットオブジェクトの相対座標を決定する。
具体的には、プロセッサ12は、ステップS210で特定されたシナリオ識別情報に関連付けられたクリップ情報データベース(図8)の各レコードの「ターゲットID」フィールドの情報(つまり、ターゲット識別情報(以下「参照ターゲット識別情報」という))を特定する。
プロセッサ12は、ターゲット情報データベース(図7)を参照して、参照ターゲット識別情報に関連付けられたターゲット位置情報(以下「参照ターゲット位置情報」という)を特定する。
プロセッサ12は、ステップS210で特定されたプロジェクトファイルに含まれるスピーカ位置情報(以下「対象スピーカ位置情報」という)を特定する。
プロセッサ12は、対象スピーカ位置情報及び参照ターゲット位置情報の組合せを参照して、指向性スピーカ30を基準とするターゲットオブジェクトの相対座標を決定する。
ステップS211の後、オーディオコントローラ10は、制御信号の生成(S212)を実行する。
具体的には、プロセッサ12は、ステップS211で特定されたクリップ情報データベース(図8)及びステップS211で特定された相対座標を参照して、制御信号を生成する。当該クリップ情報は、再生の際に参照される参照クリップ情報(例えば、参照音声ファイル、参照再生モード情報、参照モーションタイプ情報、参照再生時間情報、及び、参照再生順情報)である。制御信号は、参照クリップ情報に基づいて指向性スピーカ30を制御するための信号である。
具体的には、プロセッサ12は、ステップS211で特定されたクリップ情報データベース(図8)及びステップS211で特定された相対座標を参照して、制御信号を生成する。当該クリップ情報は、再生の際に参照される参照クリップ情報(例えば、参照音声ファイル、参照再生モード情報、参照モーションタイプ情報、参照再生時間情報、及び、参照再生順情報)である。制御信号は、参照クリップ情報に基づいて指向性スピーカ30を制御するための信号である。
ステップS212の後、オーディオコントローラ10は、再生リクエスト(S213)を実行する。
具体的には、プロセッサ12は、ステップS212において得られた制御信号を指向性スピーカ30に送信する。
具体的には、プロセッサ12は、ステップS212において得られた制御信号を指向性スピーカ30に送信する。
ステップS213の後、指向性スピーカ30は、再生(S230)を実行する。
具体的には、駆動部32は、ステップS213で送信された制御信号に基づいて、参照ターゲット位置情報に対応するターゲット位置に向かって、参照音声ファイルに対応する音波を放射する。
具体的には、駆動部32は、ステップS213で送信された制御信号に基づいて、参照ターゲット位置情報に対応するターゲット位置に向かって、参照音声ファイルに対応する音波を放射する。
その結果、参照再生モード情報に対応する再生モード、参照モーションタイプ情報に対応するモーションタイプ、参照再生時間情報に対応する再生時間、及び、参照ターゲット位置情報に対応する位置の組合せに応じた態様の仮想音源が形成される。
本実施形態によれば、オーディオコントローラ10は、シナリオ情報に関連付けられるターゲット位置情報が示す位置に仮想音源が形成されるように、指向性スピーカ30を制御する。その結果、シナリオで規定された態様で可聴音が再生される。
これにより、指向性スピーカ30によって形成される仮想音源の設計を容易化することができる。
これにより、指向性スピーカ30によって形成される仮想音源の設計を容易化することができる。
本実施形態によれば、シナリオ情報は再生モード情報を含む。オーディオコントローラ10は、再生モード情報に対応する再生モード(例えば、仮想音源が静止する第1再生モード、又は、ターゲットオブジェクトの周囲を仮想音源が周回する第2再生モード)に応じて仮想音源が形成されるように、指向性スピーカ30を制御する。その結果、シナリオで規定された再生モードで可聴音が再生される。
これにより、仮想音源の再生モードの設計を容易化することができる。
これにより、仮想音源の再生モードの設計を容易化することができる。
本実施形態によれば、シナリオ情報はモーションタイプ情報を含む。オーディオコントローラ10は、モーションタイプ情報に対応する異動の態様(例えば、第1ターゲットオブジェクトから第2ターゲットオブジェクトに向かって連続的に仮想音源が移動する第1モーションタイプ、又は、第1ターゲットオブジェクトから第2ターゲットオブジェクトに向かって離散的に仮想音源が移動する第2モーションタイプ)で仮想音源が移動するように、指向性スピーカ30を制御する。その結果、シナリオで規定されたモーションタイプで可聴音が再生される。
これにより、モーションタイプ(つまり、仮想音源の移動の態様)の設計を容易化することができる。
これにより、モーションタイプ(つまり、仮想音源の移動の態様)の設計を容易化することができる。
本実施形態によれば、シナリオ情報には、複数のクリップ情報と、再生順情報と、が関連付けられる。オーディオコントローラ10は、各クリップ情報に含まれる音声ファイルに対応する可聴音の仮想音源が再生順情報に対応する再生順で形成されるように、指向性スピーカ30を制御する。その結果、シナリオで規定された再生順で可聴音が再生される。
これにより、再生順の設計を容易化することができる。
これにより、再生順の設計を容易化することができる。
指向性スピーカ30は、音波の放射角を変更可能である。オーディオコントローラ10は、シナリオ情報を参照して、指向性スピーカ30の放射角を決定する。その結果、シナリオで規定された態様で可聴音が再生される。
(5)変形例
本実施形態の変形例を説明する。
本実施形態の変形例を説明する。
(5−1)変形例1
変形例1を説明する。変形例1は、ターゲットオブジェクトが移動する例である。
変形例1を説明する。変形例1は、ターゲットオブジェクトが移動する例である。
(5−1−1)変形例1の概要
変形例1の概要を説明する。図16は、変形例1の概要を示す図である。
変形例1の概要を説明する。図16は、変形例1の概要を示す図である。
図16に示すように、オーディオコントローラ10は、可聴音の再生のシナリオに関するシナリオ情報を取得する。シナリオ情報には、ターゲット特徴量情報と、クリップ情報と、が関連付けられる。ターゲット特徴量情報は、ターゲットオブジェクトTG_Aの特徴量に関する情報である。クリップ情報は、音声ファイルを含む。
オーディオコントローラ10は、ターゲットオブジェクトTG_Aのターゲット画像を取得する。
オーディオコントローラ10は、ターゲット画像の特徴量を参照して、ターゲットオブジェクトTG_Aの位置に関するターゲット位置情報を特定する。
オーディオコントローラ10は、ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御する。
オーディオコントローラ10は、ターゲットオブジェクトTG_Aのターゲット画像を取得する。
オーディオコントローラ10は、ターゲット画像の特徴量を参照して、ターゲットオブジェクトTG_Aの位置に関するターゲット位置情報を特定する。
オーディオコントローラ10は、ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御する。
指向性スピーカ30から放射された音波は、移動するターゲットオブジェクトTG_Aを追従するように、仮想音源を形成する。
(5−1−2)再生処理
変形例1の再生処理を説明する。
変形例1の再生処理を説明する。
図17に示すように、オーディオコントローラ10は、本実施形態(図14)と同様に、シナリオの決定(S210)を実行する。
ステップS210の後、オーディオコントローラ10は、ターゲット位置の特定(S211)を実行する。
具体的には、オーディオコントローラ10は、ターゲット位置を検出するセンサに接続される。センサは、例えば、以下の少なくとも1つを含む。
・3次元センサ
・深度センサ
・光学センサ
・超音波センサ
・イメージセンサ
具体的には、オーディオコントローラ10は、ターゲット位置を検出するセンサに接続される。センサは、例えば、以下の少なくとも1つを含む。
・3次元センサ
・深度センサ
・光学センサ
・超音波センサ
・イメージセンサ
プロセッサ12は、センサの検出結果を参照して、参照ターゲット位置情報を計算する。
プロセッサ12は、ステップS210で特定されたプロジェクトファイルに含まれる対象スピーカ位置情報を特定する。
プロセッサ12は、対象スピーカ位置情報及び参照ターゲット位置情報の組合せを参照して、指向性スピーカ30を基準とするターゲットオブジェクトの相対座標を決定する。
プロセッサ12は、ステップS210で特定されたプロジェクトファイルに含まれる対象スピーカ位置情報を特定する。
プロセッサ12は、対象スピーカ位置情報及び参照ターゲット位置情報の組合せを参照して、指向性スピーカ30を基準とするターゲットオブジェクトの相対座標を決定する。
ステップS211の後、オーディオコントローラ10は、本実施形態(図14)と同様に、制御信号の生成(S212)〜再生リクエスト(S213)を実行する。
ステップS213の後、本実施形態(図14)と同様に、指向性スピーカ30は、再生(S230)を実行する。
変形例1によれば、ターゲットオブジェクトの位置が未知(例えば、ターゲット情報データベース(図7)がない)であっても、本実施形態と同様の効果が得られる。
変形例1によれば、ターゲットオブジェクトが移動する場合、ターゲットオブジェクトを追随する仮想音源を形成することができる。
(5−2)変形例2
変形例2を説明する。変形例2は、超音波ビームを任意の焦点に集束可能な指向性スピーカの例である。
変形例2を説明する。変形例2は、超音波ビームを任意の焦点に集束可能な指向性スピーカの例である。
(5−2−1)指向性スピーカの構成
変形例2の指向性スピーカ30の構成を説明する。図17は、変形例2の指向性スピーカの構成を示す概略図である。
変形例2の指向性スピーカ30の構成を説明する。図17は、変形例2の指向性スピーカの構成を示す概略図である。
図17に示すように、指向性スピーカ30の放射面には、複数の超音波振動子35を含む振動子アレイFAが配置される。複数の超音波振動子35は、XY平面(以下「アレイ面」という)に配置される。
駆動部32は、各超音波振動子35を個別に駆動するための振動子駆動信号を生成する。各超音波振動子35から放射された超音波は、空間上を伝播し、空間上の焦点で集束する。焦点で集束した超音波は、可聴音の仮想音源を空間上の焦点に形成する。
(5−2−2)指向性スピーカの作動例
変形例2の指向性スピーカ30の作動例を説明する。
変形例2の指向性スピーカ30の作動例を説明する。
(5−2−2−1)指向性スピーカの作動例1
変形例2の指向性スピーカ30の作動例1を説明する。作動例1では、空間上の1つの焦点に超音波を集束させる。図18は、変形例2の指向性スピーカの作動例1の説明図である。
変形例2の指向性スピーカ30の作動例1を説明する。作動例1では、空間上の1つの焦点に超音波を集束させる。図18は、変形例2の指向性スピーカの作動例1の説明図である。
図18に示すように、作動例1の指向性スピーカ30からは、発振位相差及び発振振幅差の少なくとも1つを有する超音波USW1が放射される。超音波USW1は、振動子アレイFAの中心から焦点距離d1だけ離れた焦点FP1で集束する。
この場合、指向性スピーカ30は、焦点FP1に仮想音源を形成する。
例えば、焦点FP1がターゲットオブジェクトに位置する場合、仮想音源はターゲットオブジェクトに形成される。
この場合、ターゲットオブジェクトからの可聴音を聴くことができる。
この場合、指向性スピーカ30は、焦点FP1に仮想音源を形成する。
例えば、焦点FP1がターゲットオブジェクトに位置する場合、仮想音源はターゲットオブジェクトに形成される。
この場合、ターゲットオブジェクトからの可聴音を聴くことができる。
(5−2−2−2)作動例2
変形例2の指向性スピーカ30の作動例2を説明する。作動例2では、複数の焦点に超音波を集束させる。図19は、変形例2の指向性スピーカの作動例2の説明図である。
変形例2の指向性スピーカ30の作動例2を説明する。作動例2では、複数の焦点に超音波を集束させる。図19は、変形例2の指向性スピーカの作動例2の説明図である。
図19に示すように、作動例2の指向性スピーカ30からは、振動の時間差に応じた発振位相差を有する超音波USW2a及びUSW2bが放射される。
超音波USW2aは、振動子アレイFAの中心から焦点距離d2aだけ離れた焦点FP2aで集束する。
超音波USW2bは、振動子アレイFAの中心から焦点距離d2bだけ離れた焦点FP2bで集束する。
指向性スピーカ30は、焦点FP2a及びFP2bに、それぞれ、点音源を形成する。
例えば、焦点FP2aがターゲットオブジェクトTG_Aに位置する場合、焦点FP2aにより形成される仮想音源はターゲットオブジェクトTG_Aに形成される。
焦点FP2bがターゲットオブジェクトTG_Bに位置する場合、焦点FP2bに形成される仮想音源はターゲットオブジェクトTG_Bに形成される。
この場合、複数のターゲットオブジェクトTG_A〜TG_Bのそれぞれから異なる可聴音を再生することができる。
超音波USW2aは、振動子アレイFAの中心から焦点距離d2aだけ離れた焦点FP2aで集束する。
超音波USW2bは、振動子アレイFAの中心から焦点距離d2bだけ離れた焦点FP2bで集束する。
指向性スピーカ30は、焦点FP2a及びFP2bに、それぞれ、点音源を形成する。
例えば、焦点FP2aがターゲットオブジェクトTG_Aに位置する場合、焦点FP2aにより形成される仮想音源はターゲットオブジェクトTG_Aに形成される。
焦点FP2bがターゲットオブジェクトTG_Bに位置する場合、焦点FP2bに形成される仮想音源はターゲットオブジェクトTG_Bに形成される。
この場合、複数のターゲットオブジェクトTG_A〜TG_Bのそれぞれから異なる可聴音を再生することができる。
なお、指向性スピーカ30は、3個以上の焦点に仮想音源を形成することも可能である。
変形例2によれば、方向変更機構36を備えていない指向性スピーカ30を用いる場合であっても、本実施形態と同様の効果が得られる。
(6)本実施形態の小括
本実施形態について小括する。
本実施形態について小括する。
本実施形態の第1態様は、
音波の放射方向を変更可能な指向性スピーカ30を制御するオーディオコントローラ10であって、
可聴音の再生のシナリオに関するシナリオ情報を取得する手段(例えば、ステップS210を実行するプロセッサ12)を備え、
シナリオ情報には、ターゲット位置情報と、クリップ情報と、が関連付けられ、
ターゲット位置情報は、仮想音源の位置の基準となるターゲットオブジェクトの位置に関する情報であり、
クリップ情報は、音声ファイルを含み、
ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御する手段(例えば、ステップS213を実行するプロセッサ12)を備える、
オーディオコントローラ10である。
音波の放射方向を変更可能な指向性スピーカ30を制御するオーディオコントローラ10であって、
可聴音の再生のシナリオに関するシナリオ情報を取得する手段(例えば、ステップS210を実行するプロセッサ12)を備え、
シナリオ情報には、ターゲット位置情報と、クリップ情報と、が関連付けられ、
ターゲット位置情報は、仮想音源の位置の基準となるターゲットオブジェクトの位置に関する情報であり、
クリップ情報は、音声ファイルを含み、
ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御する手段(例えば、ステップS213を実行するプロセッサ12)を備える、
オーディオコントローラ10である。
第1態様によれば、仮想音源の態様が規定されたシナリオ情報を参照して指向性スピーカ30を制御する。これにより、指向性スピーカ30によって形成される仮想音源の設計を容易化することができる。
本実施形態の第2態様は、
音波の放射方向を変更可能な指向性スピーカ30を制御するオーディオコントローラ10であって、
可聴音の再生のシナリオに関するシナリオ情報を取得する手段(例えば、ステップS210を実行するプロセッサ12)を備え、
シナリオ情報には、クリップ情報が関連付けられ、
クリップ情報は、音声ファイルを含み、
ターゲットオブジェクトの位置を検出するセンサから、ターゲットオブジェクトの位置に関するターゲット位置情報を取得する手段(例えば、ステップS211を実行するプロセッサ12)を備え、
ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御する手段(例えば、ステップS213を実行するプロセッサ12)を備える、
オーディオコントローラ10である。
音波の放射方向を変更可能な指向性スピーカ30を制御するオーディオコントローラ10であって、
可聴音の再生のシナリオに関するシナリオ情報を取得する手段(例えば、ステップS210を実行するプロセッサ12)を備え、
シナリオ情報には、クリップ情報が関連付けられ、
クリップ情報は、音声ファイルを含み、
ターゲットオブジェクトの位置を検出するセンサから、ターゲットオブジェクトの位置に関するターゲット位置情報を取得する手段(例えば、ステップS211を実行するプロセッサ12)を備え、
ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御する手段(例えば、ステップS213を実行するプロセッサ12)を備える、
オーディオコントローラ10である。
第2態様によれば、第1態様と同様の効果を得ることができる。
本実施形態の第3態様は、
ターゲットオブジェクトは移動体であり、
制御する手段は、移動するターゲットオブジェクトを仮想音源が追随するように、指向性スピーカ30を制御する、
オーディオコントローラ10である。
ターゲットオブジェクトは移動体であり、
制御する手段は、移動するターゲットオブジェクトを仮想音源が追随するように、指向性スピーカ30を制御する、
オーディオコントローラ10である。
第3態様によれば、ターゲットオブジェクトの移動に応じて仮想音源を移動させる。これにより、指向性スピーカ30によって形成される仮想音源の移動の設計を容易化することができる。
本実施形態の第4態様は、
シナリオ情報は、更に、可聴音の再生モードに関する再生モード情報を含み、
制御する手段は、再生モード情報に対応する再生モードに応じて仮想音源が形成されるように、指向性スピーカ30を制御する、
オーディオコントローラ10である。
シナリオ情報は、更に、可聴音の再生モードに関する再生モード情報を含み、
制御する手段は、再生モード情報に対応する再生モードに応じて仮想音源が形成されるように、指向性スピーカ30を制御する、
オーディオコントローラ10である。
第4態様によれば、仮想音源の再生モードが規定されたシナリオ情報を参照して、仮想音源を形成する。これにより、指向性スピーカ30によって形成される仮想音源に対応する可聴音の再生モードの設計を容易化することができる。
本実施形態の第5態様は、
再生モードは、ターゲットオブジェクト上で仮想音源が静止する第1再生モードと、ターゲットオブジェクトの周囲を仮想音源が周回する第2再生モードと、を含む、
オーディオコントローラ10である。
再生モードは、ターゲットオブジェクト上で仮想音源が静止する第1再生モードと、ターゲットオブジェクトの周囲を仮想音源が周回する第2再生モードと、を含む、
オーディオコントローラ10である。
第5態様によれば、仮想音源の第1再生モード及び第2再生モードが規定されたシナリオ情報を参照して、仮想音源を形成する。これにより、指向性スピーカ30によって形成される仮想音源に対応する可聴音の再生モードの設計を容易化することができる。
本実施形態の第6態様は、
シナリオ情報は、更に、可聴音の移動の態様に関するモーションタイプ情報を含み、
制御する手段は、モーションタイプ情報が示す移動の態様で第1ターゲットオジェクトから第2ターゲットオブジェクトに向かって仮想音源が移動するように、指向性スピーカ30を制御する、
オーディオコントローラ10である。
シナリオ情報は、更に、可聴音の移動の態様に関するモーションタイプ情報を含み、
制御する手段は、モーションタイプ情報が示す移動の態様で第1ターゲットオジェクトから第2ターゲットオブジェクトに向かって仮想音源が移動するように、指向性スピーカ30を制御する、
オーディオコントローラ10である。
第6態様によれば、仮想音源のモーションタイプが規定されたシナリオ情報を参照して、仮想音源を形成する。これにより、指向性スピーカ30によって形成される仮想音源に対応する可聴音のモーションタイプの設計を容易化することができる。
本実施形態の第7態様は、
モーションタイプ情報は、第1ターゲットオブジェクトから第2ターゲットオブジェクトに向かって連続的に仮想音源が移動する第1モーションタイプ、及び、第1ターゲットオブジェクトから第2ターゲットオブジェクトに向かって離散的に仮想音源が移動する第2モーションタイプの何れかを示す、
オーディオコントローラ10である。
モーションタイプ情報は、第1ターゲットオブジェクトから第2ターゲットオブジェクトに向かって連続的に仮想音源が移動する第1モーションタイプ、及び、第1ターゲットオブジェクトから第2ターゲットオブジェクトに向かって離散的に仮想音源が移動する第2モーションタイプの何れかを示す、
オーディオコントローラ10である。
第7態様によれば、仮想音源の第1モーションタイプ及び第2モーションタイプが規定されたシナリオ情報を参照して、仮想音源を形成する。これにより、指向性スピーカ30によって形成される仮想音源に対応する可聴音のモーションタイプの設計を容易化することができる。
本実施形態の第8態様は、
シナリオ情報には、複数のクリップ情報と、各クリップ情報の再生順に関する再生順情報と、が関連付けられ、
制御する手段は、各クリップ情報に含まれる音声ファイルに対応する可聴音の仮想音源が再生順情報に対応する再生順で形成されるように、指向性スピーカ30を制御する、
オーディオコントローラ10である。
シナリオ情報には、複数のクリップ情報と、各クリップ情報の再生順に関する再生順情報と、が関連付けられ、
制御する手段は、各クリップ情報に含まれる音声ファイルに対応する可聴音の仮想音源が再生順情報に対応する再生順で形成されるように、指向性スピーカ30を制御する、
オーディオコントローラ10である。
第8態様によれば、仮想音源の再生順が規定されたシナリオ情報を参照して、仮想音源を形成する。これにより、指向性スピーカ30によって形成される仮想音源に対応する可聴音の再生順の設計を容易化することができる。
本実施形態の第9態様は、
指向性スピーカ30は、音波の放射角を変更可能であり、
制御する手段は、シナリオ情報を参照して、放射角を決定する、
オーディオコントローラ10である。
指向性スピーカ30は、音波の放射角を変更可能であり、
制御する手段は、シナリオ情報を参照して、放射角を決定する、
オーディオコントローラ10である。
第9態様によれば、シナリオ情報を参照して、指向性スピーカ30の放射角を制御する。これにより、シナリオに応じて仮想音源の位置を変えることができる。
本実施形態の第10態様は、
指向性スピーカ30は、音波の位相を変更可能であり、
制御する手段は、シナリオ情報を参照して、位相を決定する、
オーディオコントローラ10である。
指向性スピーカ30は、音波の位相を変更可能であり、
制御する手段は、シナリオ情報を参照して、位相を決定する、
オーディオコントローラ10である。
第10態様によれば、シナリオ情報を参照して、指向性スピーカ30の位相を制御する。これにより、シナリオに応じて仮想音源の位置を変えることができる。
本実施形態の第11態様は、
制御する手段は、複数の指向性スピーカ30のそれぞれを識別するスピーカ識別情報に関連付けられたプロジェクト情報を参照して、各指向性スピーカ30の制御信号を生成する、
各プロジェクト情報は、1又は複数のシナリオ情報を含む、
オーディオコントローラ10である。
制御する手段は、複数の指向性スピーカ30のそれぞれを識別するスピーカ識別情報に関連付けられたプロジェクト情報を参照して、各指向性スピーカ30の制御信号を生成する、
各プロジェクト情報は、1又は複数のシナリオ情報を含む、
オーディオコントローラ10である。
第11態様によれば、複数の指向性スピーカ30のそれぞれに対するシナリオ情報を参照して、複数の指向性スピーカ30を制御する。これにより、複数の指向性スピーカ30のそれぞれの仮想音源の設計を容易化することができる。
本実施形態の第12態様は、
音波の放射方向を変更可能な指向性スピーカ30の制御方法であって、
可聴音の再生のシナリオに関するシナリオ情報を取得するステップを備え、
シナリオ情報には、ターゲット位置情報と、クリップ情報と、が関連付けられ、
ターゲット位置情報は、仮想音源の位置の基準となるターゲットオブジェクトの位置に関する情報であり、
クリップ情報は、音声ファイルを含み、
ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御するステップを備える、
方法である。
音波の放射方向を変更可能な指向性スピーカ30の制御方法であって、
可聴音の再生のシナリオに関するシナリオ情報を取得するステップを備え、
シナリオ情報には、ターゲット位置情報と、クリップ情報と、が関連付けられ、
ターゲット位置情報は、仮想音源の位置の基準となるターゲットオブジェクトの位置に関する情報であり、
クリップ情報は、音声ファイルを含み、
ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御するステップを備える、
方法である。
第12態様によれば、第1態様と同様の効果を得ることができる。
本実施形態の第13態様は、
音波の放射方向を変更可能な指向性スピーカ30の制御方法であって、
可聴音の再生のシナリオに関するシナリオ情報を取得する手段を備え、
シナリオ情報には、クリップ情報が関連付けられ、
クリップ情報は、音声ファイルを含み、
ターゲットオブジェクトの位置を検出するセンサから、ターゲットオブジェクトの位置に関するターゲット位置情報を取得する手段を備え、
ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御する手段を備える、
方法である。
音波の放射方向を変更可能な指向性スピーカ30の制御方法であって、
可聴音の再生のシナリオに関するシナリオ情報を取得する手段を備え、
シナリオ情報には、クリップ情報が関連付けられ、
クリップ情報は、音声ファイルを含み、
ターゲットオブジェクトの位置を検出するセンサから、ターゲットオブジェクトの位置に関するターゲット位置情報を取得する手段を備え、
ターゲット位置情報が示す位置に音声ファイルに対応する可聴音の仮想音源が形成されるように、指向性スピーカ30を制御する手段を備える、
方法である。
第13態様によれば、第2態様と同様の効果を得ることができる。
本実施形態の第14態様は、
コンピュータ(例えば、プロセッサ12)を、上記態様の各手段として機能させるためのプログラムである。
コンピュータ(例えば、プロセッサ12)を、上記態様の各手段として機能させるためのプログラムである。
(7)その他の変形例
記憶装置11は、ネットワークNWを介して、オーディオコントローラ10と接続されてもよい。
上記の情報処理の各ステップは、オーディオコントローラ10及び指向性スピーカ30の何れでも実行可能である。
プロジェクト情報データベース(図6)は、「スピーカID」フィールドを含む。つまり、プロジェクト情報データベースの各レコードは、スピーカ識別情報によって特定される。オーディオコントローラ10は、プロジェクト情報データベースを参照して、複数の指向性スピーカ30のそれぞれを制御することにより、複数のシナリオに従って仮想音源を形成してもよい。
これにより、より複雑な態様(例えば、2つのターゲットオブジェクトに対して、同時に2つの指向性スピーカ30を用いて仮想音源を形成する態様)で、可聴音を再生することができる。
これにより、より複雑な態様(例えば、2つのターゲットオブジェクトに対して、同時に2つの指向性スピーカ30を用いて仮想音源を形成する態様)で、可聴音を再生することができる。
本実施形態では、操作オブジェクトB20に対する操作に応じて、プロセッサ12が再生指示を受け付ける例を示しが、本実施形態の範囲はこれに限られない。本実施形態は、以下の何れかに応じて再生指示を受け付ける場合にも適用可能である。
・ユーザの発話(つまり、音声コマンド)
・ユーザのジェスチャ(つまり、モーションコマンド)
・ユーザの発話(つまり、音声コマンド)
・ユーザのジェスチャ(つまり、モーションコマンド)
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1 :オーディオシステム
10 :オーディオコントローラ
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :指向性スピーカ
32 :駆動部
34 :通信インタフェース
35 :超音波振動子
36 :方向変更機構
10 :オーディオコントローラ
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :指向性スピーカ
32 :駆動部
34 :通信インタフェース
35 :超音波振動子
36 :方向変更機構
Claims (14)
- 音波の放射方向を変更可能な指向性スピーカを制御するオーディオコントローラであって、
可聴音の再生のシナリオに関するシナリオ情報を取得する手段を備え、
前記シナリオ情報には、ターゲット位置情報と、クリップ情報と、が関連付けられ、
前記ターゲット位置情報は、仮想音源の位置の基準となるターゲットオブジェクトの位置に関する情報であり、
前記クリップ情報は、音声ファイルを含み、
前記ターゲット位置情報が示す位置に前記音声ファイルに対応する可聴音の仮想音源が形成されるように、前記指向性スピーカを制御する手段を備える、
オーディオコントローラ。 - 音波の放射方向を変更可能な指向性スピーカを制御するオーディオコントローラであって、
可聴音の再生のシナリオに関するシナリオ情報を取得する手段を備え、
前記シナリオ情報には、クリップ情報が関連付けられ、
前記クリップ情報は、音声ファイルを含み、
ターゲットオブジェクトの位置を検出するセンサから、前記ターゲットオブジェクトの位置に関するターゲット位置情報を取得する手段を備え、
前記ターゲット位置情報が示す位置に前記音声ファイルに対応する可聴音の仮想音源が形成されるように、前記指向性スピーカを制御する手段を備える、
オーディオコントローラ。 - 前記ターゲットオブジェクトは移動体であり、
前記制御する手段は、移動するターゲットオブジェクトを前記仮想音源が追随するように、前記指向性スピーカを制御する、
請求項2に記載のオーディオコントローラ。 - 前記シナリオ情報は、更に、前記可聴音の再生モードに関する再生モード情報を含み、
前記制御する手段は、前記再生モード情報に対応する再生モードに応じて仮想音源が形成されるように、前記指向性スピーカを制御する、
請求項1〜3の何れかに記載のオーディオコントローラ。 - 前記再生モードは、前記ターゲットオブジェクト上で前記仮想音源が静止する第1再生モードと、前記ターゲットオブジェクトの周囲を前記仮想音源が周回する第2再生モードと、を含む、
請求項4に記載のオーディオコントローラ。 - 前記シナリオ情報は、更に、前記可聴音の移動の態様に関するモーションタイプ情報を含み、
前記制御する手段は、前記モーションタイプ情報が示す移動の態様で第1ターゲットオジェクトから第2ターゲットオブジェクトに向かって前記仮想音源が移動するように、前記指向性スピーカを制御する、
請求項1〜5の何れかに記載のオーディオコントローラ。 - 前記モーションタイプ情報は、第1ターゲットオブジェクトから第2ターゲットオブジェクトに向かって連続的に仮想音源が移動する第1モーションタイプ、及び、前記第1ターゲットオブジェクトから前記第2ターゲットオブジェクトに向かって離散的に仮想音源が移動する第2モーションタイプの何れかを示す、
請求項6に記載のオーディオコントローラ。 - 前記シナリオ情報には、複数のクリップ情報と、各クリップ情報の再生順に関する再生順情報と、が関連付けられ、
前記制御する手段は、各クリップ情報に含まれる音声ファイルに対応する可聴音の仮想音源が前記再生順情報に対応する再生順で形成されるように、前記指向性スピーカを制御する、
請求項1〜7の何れかに記載のオーディオコントローラ。 - 前記指向性スピーカは、音波の放射角を変更可能であり、
前記制御する手段は、前記シナリオ情報を参照して、前記放射角を決定する、
請求項1〜8の何れかに記載のオーディオコントローラ。 - 前記指向性スピーカは、音波の位相を変更可能であり、
前記制御する手段は、前記シナリオ情報を参照して、前記位相を決定する、
請求項1〜8の何れかに記載のオーディオコントローラ。 - 前記制御する手段は、前記複数の指向性スピーカのそれぞれを識別するスピーカ識別情報に関連付けられたプロジェクト情報を参照して、各指向性スピーカの制御信号を生成する、
各プロジェクト情報は、1又は複数のシナリオ情報を含む、
請求項1〜10の何れかに記載のオーディオコントローラ。 - 音波の放射方向を変更可能な指向性スピーカの制御方法であって、
可聴音の再生のシナリオに関するシナリオ情報を取得するステップを備え、
前記シナリオ情報には、ターゲット位置情報と、クリップ情報と、が関連付けられ、
前記ターゲット位置情報は、仮想音源の位置の基準となるターゲットオブジェクトの位置に関する情報であり、
前記クリップ情報は、音声ファイルを含み、
前記ターゲット位置情報が示す位置に前記音声ファイルに対応する可聴音の仮想音源が形成されるように、前記指向性スピーカを制御するステップを備える、
方法。 - 音波の放射方向を変更可能な指向性スピーカの制御方法であって、
可聴音の再生のシナリオに関するシナリオ情報を取得する手段を備え、
前記シナリオ情報には、クリップ情報が関連付けられ、
前記クリップ情報は、音声ファイルを含み、
ターゲットオブジェクトの位置を検出するセンサから、前記ターゲットオブジェクトの位置に関するターゲット位置情報を取得する手段を備え、
前記ターゲット位置情報が示す位置に前記音声ファイルに対応する可聴音の仮想音源が形成されるように、前記指向性スピーカを制御する手段を備える、
方法。 - コンピュータを、請求項1〜11の何れかに記載の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183753A JP2021061497A (ja) | 2019-10-04 | 2019-10-04 | オーディオコントローラ、指向性スピーカの制御方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183753A JP2021061497A (ja) | 2019-10-04 | 2019-10-04 | オーディオコントローラ、指向性スピーカの制御方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021061497A true JP2021061497A (ja) | 2021-04-15 |
Family
ID=75380524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019183753A Pending JP2021061497A (ja) | 2019-10-04 | 2019-10-04 | オーディオコントローラ、指向性スピーカの制御方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021061497A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113747303A (zh) * | 2021-09-06 | 2021-12-03 | 上海科技大学 | 定向声束耳语交互系统、控制方法、控制终端及介质 |
-
2019
- 2019-10-04 JP JP2019183753A patent/JP2021061497A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113747303A (zh) * | 2021-09-06 | 2021-12-03 | 上海科技大学 | 定向声束耳语交互系统、控制方法、控制终端及介质 |
CN113747303B (zh) * | 2021-09-06 | 2023-11-10 | 上海科技大学 | 定向声束耳语交互系统、控制方法、控制终端及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6504809B2 (ja) | 触覚的に動作可能とされる映写されたユーザインターフェースのためのシステム及び方法 | |
KR100391400B1 (ko) | 컴퓨터 디스플레이를 위한 프로젝트된 오디오 | |
US9158379B2 (en) | Haptic warping system that transforms a haptic signal into a collection of vibrotactile haptic effect patterns | |
JP2019003700A (ja) | ハプティック効果の自動適合 | |
AU2019268111B2 (en) | Methods and interfaces for home media control | |
JP2020009425A (ja) | 触覚効果の多レベル閉ループ制御のシステムと方法 | |
JP2014016989A (ja) | 入力感知方法及びその方法を処理する電子装置 | |
JP2007172702A (ja) | コンテンツ選択方法及びコンテンツ選択装置 | |
JP2022521720A (ja) | ミニプログラム作成方法、装置、端末及びプログラム | |
JP2020038709A (ja) | 人工知能機器における連続会話機能 | |
JP2021061497A (ja) | オーディオコントローラ、指向性スピーカの制御方法、プログラム | |
US9368095B2 (en) | Method for outputting sound and apparatus for the same | |
CN113853529A (zh) | 用于空间音频捕获的装置和相关方法 | |
JP6329679B1 (ja) | オーディオコントローラ、超音波スピーカ、オーディオシステム、及びプログラム | |
KR102581729B1 (ko) | 제스처를 인식하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
KR102512184B1 (ko) | 독서 지원 시스템 및 방법 | |
FI128356B (en) | Method and apparatus for determining the condition of an electronic device | |
KR102168812B1 (ko) | 사운드를 제어하는 전자 장치 및 그 동작 방법 | |
JP4484570B2 (ja) | 音響情報処理装置、音響情報提供方法 | |
JP7095863B2 (ja) | 音響システム、音響処理方法、及びプログラム | |
JP6330098B1 (ja) | オーディオコントローラ、プログラム、超音波スピーカ、音源装置 | |
JPWO2021002191A1 (ja) | オーディオコントローラ、オーディオシステム、プログラム、及び、複数の指向性スピーカの制御方法 | |
JP2021175145A (ja) | パラメトリックスピーカのコントローラ、パラメトリックスピーカの制御方法、およびプログラム | |
JP2021166318A (ja) | 超音波コントローラ、超音波スピーカ、及び、プログラム | |
EP3336834A1 (en) | Controlling a sound object |