JP6275557B2 - Audio output device - Google Patents
Audio output device Download PDFInfo
- Publication number
- JP6275557B2 JP6275557B2 JP2014119961A JP2014119961A JP6275557B2 JP 6275557 B2 JP6275557 B2 JP 6275557B2 JP 2014119961 A JP2014119961 A JP 2014119961A JP 2014119961 A JP2014119961 A JP 2014119961A JP 6275557 B2 JP6275557 B2 JP 6275557B2
- Authority
- JP
- Japan
- Prior art keywords
- menu
- sound
- virtual sound
- virtual
- sound source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 48
- 230000005236 sound signal Effects 0.000 claims description 44
- 238000001514 detection method Methods 0.000 claims description 37
- 230000009471 action Effects 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 16
- 230000006870 function Effects 0.000 description 14
- 230000004048 modification Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 12
- 238000000034 method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Stereophonic System (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、音を利用してメニューを選択する技術に関する。 The present invention relates to a technique for selecting a menu using sound.
バーチャルサラウンド技術を利用して、メニューの選択を実現する技術が知られている。例えば、特許文献1には、仮想的な3次元音場に複数のメニュー項目に対応する複数のメニュー音像を定位させ、装着者が頭を動かすことによって任意のメニュー音像を選択し、選択されたメニュー音像に対応するメニューを実行することが記載されている。
A technique for realizing menu selection using a virtual surround technique is known. For example, in
しかし、特許文献1に記載された技術のように、単にバーチャルサラウンド技術を利用してメニューを示す音を出力するだけでは、メニュー全体を効率よく認識できなかったり、メニューを示す音の発生源となる仮想音源の位置が正確に認識することができなかったりする場合がある。この場合、ユーザはメニューをスムーズに選択できず、ストレスを感じる場合がある。
本発明は、音を利用したメニューの選択に係るユーザのストレスを軽減することを目的とする。
However, as in the technique described in
An object of this invention is to reduce the stress of the user who concerns on the selection of the menu using a sound.
本発明は、ユーザの周りにメニューを示す仮想音源を配置する配置部と、前記配置部により配置された前記仮想音源から前記メニューを示す音が聞こえるように、前記音を示す音声信号に音声処理を施す音声処理部と、前記音声処理部により前記音声処理が施された前記音声信号に応じた音を出力するスピーカーと、前記ユーザの動作を検出する検出部と、前記仮想音源の方向に体を動かす動作が前記検出部により検出されたことに応じて、前記メニューを選択する選択部とを備え、前記スピーカーから出力される前記音は、所定のルールに従って変化する音声出力装置を提供する。 The present invention relates to an arrangement unit that arranges a virtual sound source indicating a menu around a user, and an audio signal indicating the sound is processed so that a sound indicating the menu can be heard from the virtual sound source arranged by the arrangement unit. A sound processing unit that performs sound processing, a speaker that outputs sound according to the sound signal subjected to the sound processing by the sound processing unit, a detection unit that detects the user's action, and a body in the direction of the virtual sound source And a selection unit that selects the menu in response to detection of an action to move the sound, wherein the sound output from the speaker changes according to a predetermined rule.
前記配置部は、前記ユーザから同一の方向においてそれぞれ異なる距離だけ離れた位置に、複数のメニューを示す複数の仮想音源を配置し、前記音声処理部は、前記複数のメニューを示す複数の音声信号に前記距離に応じて音声処理を施してもよい。 The arrangement unit arranges a plurality of virtual sound sources indicating a plurality of menus at positions different from each other in the same direction by the user, and the sound processing unit includes a plurality of audio signals indicating the plurality of menus. Voice processing may be performed according to the distance.
前記複数のメニューは、第1のメニューと第2のメニューとを含み、前記選択部は、前記複数の仮想音源が配置された方向に体を動かす第1の動作が前記検出部により検出された場合には、前記第1のメニューを選択し、前記複数の仮想音源が配置された方向に体を動かす第2の動作が前記検出部により検出された場合には、前記第2のメニューを選択してもよい。 The plurality of menus include a first menu and a second menu, and the selection unit has detected a first action of moving a body in a direction in which the plurality of virtual sound sources are arranged by the detection unit. In this case, the first menu is selected, and the second menu is selected when the detection unit detects a second action of moving the body in the direction in which the plurality of virtual sound sources are arranged. May be.
前記複数のメニューを示す複数の音に含まれる第1の音が前記スピーカーから出力されたときに、前記検出部により所定の動作が検出された場合には、前記第1の音の発生源となる第1の仮想音源と同じ方向に配置された少なくとも1の仮想音源から発生される少なくとも1の音を前記ユーザから前記少なくとも1の仮想音源までの距離に応じた順序で前記スピーカーから出力させる出力制御部をさらに備えてもよい。 When a predetermined operation is detected by the detection unit when a first sound included in a plurality of sounds indicating the plurality of menus is output from the speaker, a source of the first sound is An output for outputting from the speaker at least one sound generated from at least one virtual sound source arranged in the same direction as the first virtual sound source in an order corresponding to a distance from the user to the at least one virtual sound source A control unit may be further provided.
前記メニューを示す第1の音を前記スピーカーから出力させた後、前記メニューを示す第2の音を前記スピーカーから出力させる出力制御部をさらに備えてもよい。 After outputting the 1st sound which shows the said menu from the said speaker, you may further provide the output control part which outputs the 2nd sound which shows the said menu from the said speaker.
前記音は、前記メニューの名称を読み上げる音声であり、前記音声から前記名称の先頭の文字を読み上げる部分音声を抽出し、前記抽出された部分音声を前記スピーカーから出力させ、所定の操作が行われた場合には、前記音声を前記スピーカーから出力させる出力制御部をさらに備えてもよい。 The sound is a voice that reads out the name of the menu, a partial voice that reads out the first character of the name is extracted from the voice, the extracted partial voice is output from the speaker, and a predetermined operation is performed. In such a case, an output control unit that outputs the sound from the speaker may be further provided.
前記配置部は、第1のメニューを示す第1の仮想音源と、第2のメニューを示す第2の仮想音源とを配置し、前記第1のメニューと前記第2のメニューとは、異なる種類の動作により選択され、前記音声処理部は、前記第1のメニューを示す第1の音の第1の音声信号と前記第2のメニューを示す第2の音の第2の音声信号とに異なる音声処理を施してもよい。 The arrangement unit arranges a first virtual sound source indicating a first menu and a second virtual sound source indicating a second menu, and the first menu and the second menu are different types. And the audio processing unit is different between a first audio signal of the first sound indicating the first menu and a second audio signal of the second sound indicating the second menu. Audio processing may be performed.
前記配置部は、前記検出部により所定の動作が検出された場合には、前記仮想音源を削除し、前記メニューに関係する他のメニューを示す新たな仮想音源を配置してもよい。 When the predetermined operation is detected by the detection unit, the arrangement unit may delete the virtual sound source and arrange a new virtual sound source indicating another menu related to the menu.
前記メニューの数を音で通知する通知部をさらに備えてもよい。 You may further provide the notification part which notifies the number of the said menu with a sound.
本発明は、ユーザの周りにメニューを示す仮想音源を配置する配置ステップと、前記配置ステップで配置された前記仮想音源から前記メニューを示す音が聞こえるように、前記音を示す音声信号に音声処理を施す音声処理ステップと、前記音声処理ステップで前記音声処理が施された前記音声信号に応じた音を出力する出力ステップと、前記ユーザの動作を検出する検出ステップと、前記仮想音源が配置された方向に体を動かす動作が前記検出ステップで検出されたことに応じて、前記メニューを選択する選択ステップとを備え、前記出力ステップで出力される前記音は、所定のルールに従って変化する音声出力方法を提供する。 The present invention provides an arrangement step of arranging a virtual sound source indicating a menu around a user, and processing an audio signal indicating the sound so that a sound indicating the menu can be heard from the virtual sound source arranged in the arrangement step. A sound processing step for performing sound processing, an output step for outputting sound according to the sound signal subjected to the sound processing in the sound processing step, a detection step for detecting the user's operation, and the virtual sound source. A selection step for selecting the menu in response to an action of moving the body in a different direction being detected in the detection step, wherein the sound output in the output step changes in accordance with a predetermined rule. Provide a method.
本発明によれば、音を利用したメニューの選択に係るユーザのストレスを軽減することができる。 ADVANTAGE OF THE INVENTION According to this invention, the stress of the user who concerns on selection of the menu using a sound can be reduced.
1.構成
図1は、ウェアラブル端末10の外観を示す図である。ウェアラブル端末10は、イヤホン型のウェアラブルコンピュータである。ウェアラブル端末10は、右耳用の筐体101と、左耳用の筐体102と、ケーブル103と、本体104を備える。筐体101は、ユーザの右耳に装着される。筐体101には、スピーカー16‐1が収容される。筐体102は、ユーザの左耳に装着される。筐体102には、スピーカー16‐2が収容される。ケーブル103は、筐体101及び102と本体104とを接続する。本体104は、2チャンネルの音声信号をスピーカー16‐1及び16‐2に供給することにより、ステレオ方式で音を再生する。
1. Configuration FIG. 1 is a diagram illustrating an appearance of a
図2は、ウェアラブル端末10のハードウェア構成を示す図である。ウェアラブル端末10は、バーチャルサラウンド技術を利用してメニューの選択を実現する機能を有する。ウェアラブル端末10は、制御部11と、記憶部12と、通信部13と、操作部14と、マイクロフォン15と、スピーカー16‐1及び16‐2と、測位部17と、センサ部18と、電源19とを備える。これらの構成要素は、バス又はケーブル103を介して接続される。なお、スピーカー16‐1及び16‐2以外の構成要素は、基本的には、本体104に収容される。ただし、センサ部18は、筐体101又は102に収容される。
FIG. 2 is a diagram illustrating a hardware configuration of the
制御部11は、記憶部12に記憶されたプログラムを実行することにより、データの演算や他の構成要素の制御を行う。制御部11には、例えばCPUが用いられる。記憶部12は、制御部11により実行されるプログラムや各種のデータを記憶する。記憶部12は、主記憶装置と補助記憶装置とを含む。主記憶装置には、例えばRAMが用いられる。補助記憶装置には、例えばフラッシュメモリが用いられる。
The
通信部13は、データ通信を行うための通信インタフェースである。通信部13は、Bluetooth(登録商標)等の近距離無線通信規格に従って通信を行う。操作部14は、ユーザの操作に応じた信号を制御部11に入力する。操作部14には、例えばタッチセンサーが用いられる。マイクロフォン15は、音を受信し、受信した音に応じた信号を制御部11に入力する。スピーカー16‐1及び16‐2は、音声信号に応じた音を出力する。
The
測位部17は、ウェアラブル端末10の現在の位置を測定する。測位部17には、例えばGPS(Global Positioning System)受信機が用いられる。電源19は、ウェアラブル端末10の各構成要素に電力を供給する。電源19には、例えばバッテリーが用いられる。
The
センサ部18は、ユーザの動作の検出に用いられる。センサ部18には、例えば加速度センサ181と、角速度センサ182と、地磁気センサ183とが含まれる。加速度センサ181は、軸方向の加速度を測定する。角速度センサ182は、軸方向の角速度を測定する。地磁気センサ183は、軸方向の地磁気を測定する。
The
図3は、ウェアラブル端末10の機能構成を示す図である。この実施形態では、ウェアラブル端末10は音声出力装置として機能する。ウェアラブル端末10は、通知部111、配置部112、音声処理部113、出力制御部114、検出部115、選択部116、及び実行部117の機能を有する。これらの機能は、制御部11が1又は複数のプログラムを実行することにより実現される。また、これらの機能は、制御部11と他の構成要素との協働により実現されてもよい。
FIG. 3 is a diagram illustrating a functional configuration of the
通知部111は、メニューの数を音で通知する。配置部112は、ユーザの周りにメニューを示す仮想音源を配置する。音声処理部113は、配置部112により配置された仮想音源からメニューを示す音が聞こえるように、この音を示す音声信号に音声処理を施す。出力制御部114は、音声処理部113により音声処理が施された音声信号に応じた音をスピーカー16‐1及び16‐2から出力させる。検出部115は、ユーザの動作を検出する。選択部116は、仮想音源の方向に体を動かす動作が検出部115により検出されたことに応じて、メニューを選択する。実行部117は、選択部116により選択されたメニューに対応する処理を実行する。
The
2.動作
図4は、ウェアラブル端末10の動作を示すフローチャートである。この動作は、ユーザによりメニューを起動する操作が行われたときに開始される。この操作は、音声認識技術を利用した音声操作である。例えば、ユーザにより「メニュー」という言葉が発せられたときに、この動作が開始される。
2. Operation FIG. 4 is a flowchart showing the operation of the
ステップS101において、通知部111は、メニューの数を音で通知する。具体的には、通知部111は、メニューの数を示す効果音をスピーカー16‐1及び16‐2から出力させる。この効果音は、例えば水面に落ちるしずくの音である。この効果音は、メニューの数に応じて変化する。例えば、メニューの数が多いほど、効果音の残響時間が大きくなる。
In step S101, the
ステップS102において、配置部112は、ユーザの周りにメニューを示す音の発生源となる仮想音源を配置する。図5は、仮想音源の配置の一例を示す図である。図5は、仮想音源の配置を上から見た図である。図5では、ユーザの前方向がy軸方向で示され、ユーザの後ろ方向が−y軸方向で示され、ユーザの右方向がx軸方向で示され、ユーザの左方向が−x軸方向で示されている。
In step S <b> 102, the
図5に示す例では、ユーザを中心とする仮想円C1上に、第1〜第8のメニューに対応する仮想音源V1〜V8が配置される。具体的には、仮想音源V1は、ユーザの前方に配置される。仮想音源V2は、ユーザの右前方に配置される。仮想音源V3は、ユーザの右に配置される。仮想音源V4は、ユーザの右後方に配置される。仮想音源V5は、ユーザの後方に配置される。仮想音源V6は、ユーザの左後方に配置される。仮想音源V7は、ユーザの左に配置される。仮想音源V8は、ユーザの左前方に配置される。 In the example shown in FIG. 5, virtual sound sources V1 to V8 corresponding to the first to eighth menus are arranged on a virtual circle C1 centered on the user. Specifically, the virtual sound source V1 is disposed in front of the user. The virtual sound source V2 is disposed on the right front side of the user. The virtual sound source V3 is arranged on the right side of the user. The virtual sound source V4 is arranged on the right rear side of the user. The virtual sound source V5 is disposed behind the user. The virtual sound source V6 is disposed on the left rear side of the user. The virtual sound source V7 is arranged on the left side of the user. The virtual sound source V8 is disposed on the left front side of the user.
なお、「仮想音源を配置する」とは、具体的には仮想音源の位置を決定することをいう。したがって、「仮想音源V1〜V8を配置する」とは、具体的にはユーザを原点としたxy平面において、仮想音源V1〜V8の位置座標を決定することをいう。 Note that “arranging the virtual sound source” specifically means determining the position of the virtual sound source. Therefore, “arranging the virtual sound sources V1 to V8” specifically means determining the position coordinates of the virtual sound sources V1 to V8 on the xy plane with the user as the origin.
図5に示す例において、第1〜第8のメニューのうち、ユーザにより頻繁に選択されるメニューに対応する仮想音源は、ユーザが選択しやすい位置、すなわちユーザの左前方、前方、又は右前方に配置されてもよい。例えば、選択頻度が高い上位3個のメニューに対応する仮想音源が、ユーザの左前方、前方、及び右前方に配置されてもよい。 In the example shown in FIG. 5, the virtual sound source corresponding to the menu frequently selected by the user among the first to eighth menus is easily selected by the user, that is, the user's left front, front, or right front. May be arranged. For example, virtual sound sources corresponding to the top three menus with the highest selection frequency may be arranged on the left front, front, and right front of the user.
図6は、仮想音源の配置の他の例を示す図である。図6に示す例では、仮想円C1の外側に、仮想円C1より半径の大きい仮想円C2が形成される。仮想円C1上には、図5と同様に、第1〜第8のメニュー(第1のメニューの一例)に対応する仮想音源V1〜V8が配置される。仮想円C2上には、第9〜第16のメニュー(第2のメニューの一例)に対応する仮想音源V9〜V16が配置される。具体的には、仮想音源V1及びV9は、いずれもユーザの前方に配置される。ただし、仮想音源V1は、ユーザから距離L1だけ離れた位置に配置され、仮想音源V9は、ユーザから距離L2だけ離れた位置に配置される。仮想音源V2及びV10、仮想音源V3及びV11、仮想音源V4及びV12、仮想音源V5及びV13、仮想音源V6及びV14、仮想音源V7及びV15、及び仮想音源V8及びV16についても、仮想音源V1及びV9と同様の関係を有する。なお、図6に示す例では、仮想音源が二階層で配置されているが、メニューの数が多い場合には、仮想音源が三階層以上の階層で配置されてもよい。 FIG. 6 is a diagram illustrating another example of the arrangement of virtual sound sources. In the example shown in FIG. 6, a virtual circle C2 having a larger radius than the virtual circle C1 is formed outside the virtual circle C1. Similar to FIG. 5, virtual sound sources V1 to V8 corresponding to the first to eighth menus (an example of the first menu) are arranged on the virtual circle C1. On the virtual circle C2, virtual sound sources V9 to V16 corresponding to the ninth to sixteenth menus (an example of the second menu) are arranged. Specifically, the virtual sound sources V1 and V9 are both arranged in front of the user. However, the virtual sound source V1 is arranged at a position away from the user by a distance L1, and the virtual sound source V9 is arranged at a position away from the user by a distance L2. Virtual sound sources V1 and V9, virtual sound sources V3 and V11, virtual sound sources V4 and V12, virtual sound sources V5 and V13, virtual sound sources V6 and V14, virtual sound sources V7 and V15, and virtual sound sources V8 and V16 are also used. Have the same relationship. In the example illustrated in FIG. 6, the virtual sound source is arranged in two layers. However, when the number of menus is large, the virtual sound source may be arranged in three or more layers.
図6に示す例において、仮想音源の配置は、メニューの内容に応じて決定されてもよい。例えば、メインメニューに対応する仮想音源が仮想円C1上に配置され、サブメニューに対応する仮想音源が仮想円C2上に配置されてもよい。他の例として、重要なメニューに対応する仮想音源が仮想円C2上に配置されてもよい。重要なメニューとは、例えば決済処理に関するメニューや、メールやアプリケーションの消去に関するメニューである。他の例として、機能に関するメニューに対応する仮想音源が仮想円C1上に配置され、機能において実行されるコマンドに関するメニューに対応する仮想音源が仮想円C2上に配置されてもよい。 In the example illustrated in FIG. 6, the placement of the virtual sound source may be determined according to the contents of the menu. For example, the virtual sound source corresponding to the main menu may be arranged on the virtual circle C1, and the virtual sound source corresponding to the sub menu may be arranged on the virtual circle C2. As another example, a virtual sound source corresponding to an important menu may be arranged on the virtual circle C2. The important menu is, for example, a menu related to payment processing or a menu related to deletion of mails and applications. As another example, a virtual sound source corresponding to a menu related to a function may be arranged on the virtual circle C1, and a virtual sound source corresponding to a menu related to a command executed in the function may be arranged on the virtual circle C2.
図6に示す例において、仮想音源の配置は、メニューに付された日時に応じて決定されてもよい。日時は、例えばメニューがファイルやデータに関するものである場合には、作成日時や更新日時である。例えば、1日、1週間、1ヶ月等の所定期間内の日付が付されたメニューに対応する仮想音源が仮想円C1上に配置されてもよい。また、それ以外の日付が付されたメニューに対応する仮想音源が仮想円C2上に配置されてもよい。 In the example illustrated in FIG. 6, the placement of the virtual sound source may be determined according to the date and time attached to the menu. The date / time is, for example, a creation date / time or an update date / time when the menu relates to a file or data. For example, a virtual sound source corresponding to a menu with a date within a predetermined period such as one day, one week, or one month may be arranged on the virtual circle C1. In addition, virtual sound sources corresponding to menus with other dates may be arranged on the virtual circle C2.
図6に示す例において、仮想音源の配置は、メニューの選択頻度に応じて決定されてもよい。例えば、選択頻度が高い上位8個のメニューに対応する仮想音源が仮想円C1上に配置されてもよい。また、それ以外の選択頻度のメニューに対応する仮想音源が仮想円C2上に配置されてもよい。 In the example illustrated in FIG. 6, the placement of the virtual sound source may be determined according to the menu selection frequency. For example, virtual sound sources corresponding to the top eight menus with the highest selection frequency may be arranged on the virtual circle C1. Further, virtual sound sources corresponding to other selection frequency menus may be arranged on the virtual circle C2.
図6に示す例において、仮想音源の配置は、メニューが属するカテゴリーに応じて決定されてもよい。例えば、「よく使う機能」というカテゴリーに属するメニューに対応する仮想音源が仮想円C1上に配置されてもよい。また、「基本機能」というカテゴリーに属するメニューに対応する仮想音源が仮想円C2上に配置されてもよい。また、仮想音源が三階層で配置される場合には、「コミュニケーションツール」というカテゴリーに属するメニューに対応する仮想音源が三重目の仮想円上に配置されてもよい。仮想音源が四階層で配置される場合には、「ダウンロードしたアプリケーション」というカテゴリーに属するメニューに対応する仮想音源が四重目の仮想円上に配置されてもよい。 In the example illustrated in FIG. 6, the placement of the virtual sound source may be determined according to the category to which the menu belongs. For example, a virtual sound source corresponding to a menu belonging to the category “frequently used functions” may be arranged on the virtual circle C1. A virtual sound source corresponding to a menu belonging to the category “basic function” may be arranged on the virtual circle C2. When virtual sound sources are arranged in three layers, virtual sound sources corresponding to a menu belonging to the category “communication tool” may be arranged on the triple virtual circle. When virtual sound sources are arranged in four layers, virtual sound sources corresponding to a menu belonging to the category “downloaded application” may be arranged on the fourth virtual circle.
図7は、仮想音源の配置の他の例を示す図である。図7に示す例では、仮想円C1上においてユーザの前後左右には、第1〜第4のメニューに対応する仮想音源V1〜V4が配置される。また、仮想円C2上においてユーザの右前方、右後方、左前方、左後方には、第5〜第8のメニューに対応する仮想音源V5〜V8が配置される。このように、1の仮想円上に配置された仮想音源は、この仮想円の内側に配置された仮想音源とユーザから見て同じ方向に配置されないような位置に配置されてもよい。 FIG. 7 is a diagram illustrating another example of the arrangement of virtual sound sources. In the example shown in FIG. 7, virtual sound sources V1 to V4 corresponding to the first to fourth menus are arranged on the virtual circle C1 on the front, rear, left, and right sides of the user. In addition, virtual sound sources V5 to V8 corresponding to the fifth to eighth menus are arranged on the virtual circle C2 on the right front, right rear, left front, and left rear of the user. In this way, the virtual sound source arranged on one virtual circle may be arranged at a position that is not arranged in the same direction as the virtual sound source arranged inside the virtual circle when viewed from the user.
ステップS103において、音声処理部113は、ステップS102で配置された仮想音源からメニューの音が聞こえるように、この音を示す音声信号に音声処理を施す。この音声信号は、予め記憶部12に記憶される。メニューの音は、例えばメニューの名称を読み上げる音声である。他の例として、メニューの音は、メニューを想起させる音であってもよい。例えば、設定に関するメニューの音には、カチっという音が用いられてもよい。音楽に関するメニューの音には、ピアノやラッパ等の楽器の音や音楽の一部が用いられてもよい。メールに関するメニューの音には、手紙がポストに入った時の音が用いられてもよい。
In step S103, the
人間は、左右の耳に伝達する音の大きさの差、時間差、周波数特性の差により、音の到来方向及び距離を認識している。そこで、音声処理では、仮想音源の方向及び位置に応じて、左右のスピーカー16‐1及び16‐2に供給される音声信号に、音圧レベル差、時間差、周波数特性の差を付加する。 Humans recognize the direction and distance of sound arrival based on the difference in the volume of sound transmitted to the left and right ears, the difference in time, and the difference in frequency characteristics. Therefore, in the audio processing, a sound pressure level difference, a time difference, and a frequency characteristic difference are added to the audio signals supplied to the left and right speakers 16-1 and 16-2 according to the direction and position of the virtual sound source.
図5に示す例では、仮想音源V1は、ユーザの前方に配置されている。したがって、仮想音源V1に対応する第1のメニューの音声信号には、第1のメニューの音がユーザの前方から聞こえるように音声処理が施される。また、仮想音源V2は、ユーザの右前方に配置されている。したがって、仮想音源V2に対応する第2のメニューの音声信号には、第2のメニューの音がユーザの右前方から聞こえるように音声処理が施される。仮想音源V3〜V8に対応する第3〜第8のメニューの音声信号にも、同様に音声処理が施される。 In the example shown in FIG. 5, the virtual sound source V1 is arranged in front of the user. Therefore, the audio signal of the first menu corresponding to the virtual sound source V1 is subjected to audio processing so that the sound of the first menu can be heard from the front of the user. Further, the virtual sound source V2 is arranged on the right front side of the user. Therefore, the audio signal of the second menu corresponding to the virtual sound source V2 is subjected to audio processing so that the sound of the second menu can be heard from the front right of the user. Audio processing is similarly performed on the audio signals of the third to eighth menus corresponding to the virtual sound sources V3 to V8.
図6に示す例では、仮想音源V1及びV9はいずれもユーザの前方に配置されている。したがって、仮想音源V1及びV9に対応する第1のメニューの音声信号及び第9のメニューの音声信号には、いずれも第1のメニューの音及び第9のメニューの音がユーザの前方から聞こえるように音声処理が施される。ただし、仮想音源V1はユーザから距離L1だけ離れた位置にあり、仮想音源V9はユーザから距離L2だけ離れた位置にある。そのため、第1のメニューの音声信号には、さらに第1のメニューの音が距離L1だけ離れた位置から聞こえるように音声処理が施される。第9のメニューの音声信号には、さらに第9のメニューの音が距離L2だけ離れた位置から聞こえるように音声処理が施される。つまり、第1のメニューの音声信号には、さらに距離L1に応じて音声信号が施され、第9のメニューの音声信号には、さらに距離L2に応じて音声処理が施される。仮想音源V2〜V8に対応する第2〜第8のメニューの音声信号及び仮想音源V10〜V16に対応する第10〜第16のメニューの音声信号にも、同様に音声処理が施される。 In the example shown in FIG. 6, the virtual sound sources V1 and V9 are both arranged in front of the user. Accordingly, the first menu sound signal and the ninth menu sound signal corresponding to the virtual sound sources V1 and V9 both allow the first menu sound and the ninth menu sound to be heard from the front of the user. Is processed. However, the virtual sound source V1 is at a position away from the user by a distance L1, and the virtual sound source V9 is at a position away from the user by a distance L2. Therefore, the audio signal of the first menu is further subjected to audio processing so that the sound of the first menu can be heard from a position separated by the distance L1. The ninth menu sound signal is further subjected to sound processing so that the sound of the ninth menu can be heard from a position separated by a distance L2. That is, the audio signal of the first menu is further subjected to the audio signal according to the distance L1, and the audio signal of the ninth menu is further subjected to the audio processing according to the distance L2. Audio processing is similarly performed on the audio signals of the second to eighth menus corresponding to the virtual sound sources V2 to V8 and the audio signals of the tenth to sixteenth menus corresponding to the virtual sound sources V10 to V16.
これにより、例えば第9〜第16のメニューの音声信号の音圧レベルは、第1〜第8のメニューの音声信号の音圧レベルより小さくなる。また、仮想音源V9〜V16に対応する第9〜第16のメニューの音声信号には、エコーのエフェクトが付加されてもよい。他の例として、仮想音源が三階層以上の階層で配置される場合には、中間の階層に配置された仮想音源に対応するメニューの音声信号に、所定のエフェクトが付加されてもよい。 Thereby, for example, the sound pressure levels of the sound signals of the ninth to sixteenth menus are smaller than the sound pressure levels of the sound signals of the first to eighth menus. An echo effect may be added to the audio signals of the ninth to sixteenth menus corresponding to the virtual sound sources V9 to V16. As another example, when the virtual sound source is arranged in three or more layers, a predetermined effect may be added to the audio signal of the menu corresponding to the virtual sound source arranged in the intermediate layer.
ステップS104において、出力制御部114は、メニューの読み上げ処理を行う。具体的には、出力制御部114は、ステップS103で音声処理が施された音声信号をスピーカー16‐1及び16‐2に供給する。このとき、右耳用の音声信号はスピーカー16‐1に供給され、左耳用の音声信号はスピーカー16‐2に供給される。これにより、スピーカー16‐1及び16‐2からメニューの音が出力される。ユーザは、メニューの音を聞くことにより、このメニューに対応する仮想音源の位置を認識する。また、読み上げ処理では、メニューの音が所定の順序で出力される。
In step S104, the
図5に示す例では、ユーザの前方に配置された仮想音源V1を基準として時計回りの方向に見ると、仮想音源V1〜V8の並び順は、仮想音源V1、V2、V3、V4、V5、V6、V7、及びV8という順序になる。この場合、例えば最初に仮想音源V1に対応する第1のメニューの音が出力され、二番目に仮想音源V2に対応する第2のメニューの音が出力されるというように、仮想音源V1〜V8に対応する第1〜第8のメニューの音が時計回りの方向に応じた順序で出力されてもよい。 In the example shown in FIG. 5, when viewed in the clockwise direction with reference to the virtual sound source V1 arranged in front of the user, the arrangement order of the virtual sound sources V1 to V8 is the virtual sound sources V1, V2, V3, V4, V5, The order is V6, V7, and V8. In this case, for example, the sound of the first menu corresponding to the virtual sound source V1 is output first, and the sound of the second menu corresponding to the virtual sound source V2 is output second, so that the virtual sound sources V1 to V8 are output. The sounds of the first to eighth menus corresponding to may be output in the order corresponding to the clockwise direction.
図5に示す例において、出力制御部114は、第1〜第8のメニューを示す第1の種別の音(第1の音の一例)を順番にスピーカー16‐1及び16‐2から出力させた後、第1〜第8のメニューを示す第2の種別の音(第2の音の一例)を順番にスピーカー16‐1及び16‐2から出力させてもよい。第1の種別の音は、例えばメニューの名称を読み上げる音声である。第2の種別の音は、例えばメニューの名称の先頭の文字を読み上げる音声である。例えば、第1のメニューの名称が「音楽」であるものとする。この場合、第1のメニューの音が1回目に出力されるときは、「おんがく」という音声が出力され、第1のメニューの音が2回目に出力されるときは、「お」という音声が出力されてもよい。つまり、この例では、メニューの音は、2回目に出力される場合には、所定のルールに従って変化する。他の例として、第1の種別の音は、メニューの名称を読み上げる音声であり、第2の種別の音は、メニューを想起させる効果音であってもよい。
In the example illustrated in FIG. 5, the
また、第2の種別の音の出力は、第1の種別の音が全て出力された後、すぐに開始されてもよいし、ユーザの動作に応じて開始されてもよい。この動作は、例えば頭を回す動作であり、角速度センサ182により測定された角速度に基づいて検出部115により検出される。また、ユーザの動作により、第2の種別の音を出力する順序が変更されてもよい。例えばユーザが頭を反時計周りに回す動作を行った場合には、第1〜第8のメニューを示す第2の種別の音が反時計回りの方向に応じた順序で出力されてもよい。
The output of the second type of sound may be started immediately after all of the first type of sound is output, or may be started in accordance with the user's operation. This operation is, for example, an operation of turning the head, and is detected by the
図5に示す例では、上述したように、選択頻度が高い上位3個のメニューに対応する仮想音源が、ユーザの左前方、前方、及び右前方に配置される場合がある。この場合、出力制御部114は、仮想音源V1〜V8に対応する第1〜第8のメニューの音を順番にスピーカー16‐1及び16‐2から出力させる処理を所定回数繰り返してもよい。その後、出力制御部114は、ユーザの左前方、前方、右前方に配置された仮想音源V8、V1、及びV2に対応する第8、第1、及び第2のメニューの音だけを順番にスピーカー16‐1及び16‐2から出力させてもよい。
In the example shown in FIG. 5, as described above, virtual sound sources corresponding to the top three menus with the highest selection frequency may be arranged on the left front, front, and right front of the user. In this case, the
図5に示す例では、上述したように、メニューの名称を読み上げる音声がメニューの音として用いられる場合がある。この場合、出力制御部114は、メニューの名称を読み上げる音声から名称の先頭の文字を読み上げる音声を抽出し、抽出された音声を順番にスピーカー16‐1及び16‐2から出力させてもよい。例えば、第1のメニューの名称が「音楽」である場合には、「おんがく」という音声から「お」という音声(部分音声の一例)が抽出され、第1のメニューの音が出力されるときに、「お」という音声が出力されてもよい。
In the example shown in FIG. 5, as described above, the voice that reads out the name of the menu may be used as the sound of the menu. In this case, the
この場合、出力制御部114は、ユーザにより所定の操作が行われたときは、メニューの名称を全て読み上げる音声を順番にスピーカー16‐1及び16‐2から出力させてもよい。この所定の操作は、例えば頭を軽く傾ける動作や、よくわからないということを示すジェスチャー、例えば頭を横に傾けるという動作により行われる。これらの動作は、例えば角速度センサ182により測定された角速度に基づいて検出部115により検出される。他の例として、所定の操作は、マイクロフォン15に息を吹きかける操作であってもよい。例えば、第1のメニューの音として「お」という音声が出力されたときに、ユーザが頭を横に傾ける動作が行われた場合には、第1のメニューの名称を読み上げる「おんがく」という音声が出力される。つまり、この例では、メニューの音は、ユーザの操作に応じて、所定のルールに従って変化する。
In this case, when a predetermined operation is performed by the user, the
図6に示す例では、仮想音源V1〜V8に対応する第1〜第8のメニューの音が時計回りの方向に応じた順序で出力された後、仮想音源V9〜V16に対応する第9〜第16のメニューの音が時計回りの方向に応じた順序で出力される。上述したように、第9〜第16のメニューの音声信号には、第1〜第8のメニューの音声信号とは異なる音声処理が施される。そのため、第1階層に配置された仮想音源V1〜V8に対応する第1〜第8のメニューの音が出力される場合と、第2階層に配置された仮想音源V9〜V16に対応する第9〜第16のメニューの音が出力される場合とでは、スピーカー16‐1及び16‐2から出力されるメニューの音の大きさや音色が所定のルールに従って変化する。 In the example shown in FIG. 6, after the sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 are output in the order according to the clockwise direction, the ninth to ninth sounds corresponding to the virtual sound sources V9 to V16 are output. The sound of the 16th menu is output in the order corresponding to the clockwise direction. As described above, the voice signals of the ninth to sixteenth menus are subjected to voice processing different from the voice signals of the first to eighth menus. Therefore, when the sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 arranged in the first hierarchy are output, and the ninth corresponding to the virtual sound sources V9 to V16 arranged in the second hierarchy. When the sound of the sixteenth menu is output, the size and tone color of the menu sound output from the speakers 16-1 and 16-2 changes according to a predetermined rule.
図6に示す例において、出力制御部114は、ユーザの動作により、出力対象となるメニューの音を変更してもよい。この動作は、例えば頭を傾ける動作であり、角速度センサ182により測定された角速度に基づいて検出部115により検出される。例えば、ユーザが頭を第1の角度だけ傾けた場合には、仮想円C1上に配置された仮想音源V1〜V8に対応する第1〜第8のメニューの音が順番に出力されてもよい。ユーザが頭を第1の角度より大きい第2の角度だけ傾けた場合には、仮想円C2上に配置された仮想音源V9〜V16に対応する第9〜第16のメニューの音が順番に出力されてもよい。
In the example illustrated in FIG. 6, the
他の例として、ユーザが頭を第1の角度だけ傾けた場合には、仮想円C1上に配置された仮想音源V2〜V4に対応する第2〜第4のメニューの音が順番に出力されてもよい。また、ユーザが頭を第1の角度より大きい第2の角度だけ傾けた場合には、仮想円C1上に配置された仮想音源V2〜V6に対応する第2〜第6のメニューの音が順番に出力されてもよい。 As another example, when the user tilts his / her head by the first angle, the sounds of the second to fourth menus corresponding to the virtual sound sources V2 to V4 arranged on the virtual circle C1 are sequentially output. May be. In addition, when the user tilts his / her head by a second angle larger than the first angle, the sounds of the second to sixth menus corresponding to the virtual sound sources V2 to V6 arranged on the virtual circle C1 are in turn. May be output.
図6に示す例では、上述したように、仮想音源の配置がメニューのカテゴリーに応じて決定される場合がある。この場合、メニューの音の他に、カテゴリーの名称を読み上げる音声が出力されてもよい。例えば、仮想円C1上に配置された仮想音源V1〜V8が「よく使う機能」というカテゴリーに属するメニューに対応するものである場合には、このカテゴリーの名称である「よく使う機能」という音声が出力された後、仮想音源V1〜V8に対応する第1〜第8のメニューの音が出力されてもよい。また、仮想円C2上に配置された仮想音源V9〜V16が「基本機能」というカテゴリーに属するメニューに対応するものである場合には、このカテゴリーの名称である「基本機能」という音声が出力された後、仮想音源V9〜V16に対応する第9〜第16のメニューの音が出力されてもよい。 In the example shown in FIG. 6, as described above, the placement of the virtual sound source may be determined according to the category of the menu. In this case, in addition to the menu sound, a voice that reads out the category name may be output. For example, when the virtual sound sources V1 to V8 arranged on the virtual circle C1 correspond to a menu belonging to the category “Frequently Used Functions”, the voice “Frequently Used Functions” which is the name of this category is generated. After the output, sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 may be output. When the virtual sound sources V9 to V16 arranged on the virtual circle C2 correspond to a menu belonging to the category “basic function”, the voice “basic function” which is the name of this category is output. After that, the sounds of the ninth to sixteenth menus corresponding to the virtual sound sources V9 to V16 may be output.
ステップS105において、選択部116は、ユーザの動作に応じてメニューを選択する。図5に示す例では、仮想音源V1はユーザの前方に配置されているため、仮想音源V1に対応する第1のメニューの音は、ユーザの前方から聞こえる。例えば、仮想音源V1に対応する第1のメニューを選択する場合、ユーザは、頭を前方に傾ける動作(第1の動作の一例)を行う。この場合、検出部115は、例えば角速度センサ182により測定された角速度に基づいて、この動作を検出する。検出部115によりこの動作が検出されると、選択部116は、ユーザの前方に配置された仮想音源V1に対応する第1のメニューを選択する。また、このとき、メニューの選択が実行されたことを通知する音がスピーカー16‐1及び16‐2から出力されてもよい。
In step S105, the
図6に示す例では、仮想音源V1及び仮想音源V9はいずれもユーザの前方に配置されているが、仮想音源V9は仮想音源V1より遠くに配置されている。この場合、仮想音源V1に対応する第1のメニュー音は、ユーザの前方において近くから聞こえる。一方、仮想音源V9に対応する第9のメニュー音は、ユーザの前方において遠くから聞こえる。例えば、仮想音源V9に対応する第9のメニュー(第2のメニューの一例)を選択する場合、ユーザは、まず仮想音源V1を頭で下から上にはじくような動作(第2の動作の一例)、例えば頭を前方に傾けた後、頭を振り上げるような動作を行う。この場合、検出部115は、角速度センサ182により測定された角速度に基づいて、この動作を検出する。検出部115によりこの動作が検出されると、仮想音源V1と仮想音源V9の位置が入れ替えられる。この後、ユーザは、頭を前方に傾ける動作を行う。この場合、検出部115は、角速度センサ182により測定された角速度に基づいて、この動作を検出する。検出部115によりこの動作が検出されると、選択部116は、ユーザの前方において最も近くに配置された仮想音源V9に対応する第9のメニューを選択する。
In the example shown in FIG. 6, the virtual sound source V1 and the virtual sound source V9 are both arranged in front of the user, but the virtual sound source V9 is arranged farther than the virtual sound source V1. In this case, the first menu sound corresponding to the virtual sound source V1 can be heard from near in front of the user. On the other hand, the ninth menu sound corresponding to the virtual sound source V9 can be heard from a distance in front of the user. For example, when selecting the ninth menu (an example of the second menu) corresponding to the virtual sound source V9, the user first flicks the virtual sound source V1 from the bottom to the top (an example of the second operation). ) For example, after tilting the head forward, the head is swung up. In this case, the
ステップS106において、実行部117は、ステップS105で選択されたメニューに対応する処理を実行する。
In step S106, the
本実施形態によれば、メニューを示す音が順番に出力されるため、ユーザは、全てのメニューを効率よく認識することができる。また、本実施形態によれば、1回目はメニューを示す第1の種別の音が出力され、2回目はメニューを示す第2の種別の音が出力されてもよい。これにより、同一の音が繰り返し出力されることによる煩わしさが防止される。また、本実施形態によれば、メニューの名称の先頭の文字を読み上げる音声が出力され、ユーザにより所定の操作が行われた場合には、メニューの名称を全て読み上げる音声が出力されてもよい。これにより、メニューの名称の先頭の文字だけでメニューを認識できるユーザは、全てのメニューを効率よく認識することができる。また、メニューの名称をあまり認識していないユーザは、所定の操作を行うことにより、メニューを容易に認識することができる。 According to this embodiment, since the sound indicating the menu is output in order, the user can efficiently recognize all the menus. Also, according to the present embodiment, the first type of sound indicating a menu may be output the first time, and the second type of sound indicating a menu may be output the second time. Thereby, the troublesomeness by repeatedly outputting the same sound is prevented. Further, according to the present embodiment, a sound for reading out the first character of the menu name may be output, and a sound for reading out all the names of the menu may be output when a predetermined operation is performed by the user. As a result, a user who can recognize the menu only with the first character of the menu name can efficiently recognize all the menus. Further, a user who does not recognize the name of the menu so much can easily recognize the menu by performing a predetermined operation.
また、図6に示す例では、仮想音源V1〜V8に対応する第1〜第8のメニューの音は近くから聞こえ、仮想音源V9〜V16に対応する第9〜第16のメニューの音は遠くから聞こえる。そのため、ユーザは、同一の方向に複数の仮想音源が配置されている場合にも、これらの複数の仮想音源の位置を正確に認識することができる。これにより、ユーザは、所望のメニューを確実に選択することができる。 In addition, in the example shown in FIG. 6, the sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 are heard from near, and the sounds of the ninth to sixteenth menus corresponding to the virtual sound sources V9 to V16 are far away. I can hear it. Therefore, even when a plurality of virtual sound sources are arranged in the same direction, the user can accurately recognize the positions of the plurality of virtual sound sources. Thereby, the user can select a desired menu reliably.
3.変形例
本発明は、上述した実施形態に限定されない。例えば、実施形態を以下のように変形してもよい。また、以下の変形例を組み合わせてもよい。
3. The present invention is not limited to the above-described embodiment. For example, the embodiment may be modified as follows. Further, the following modifications may be combined.
(1)メニューによって、メニューを選択する動作の種類が異なっていてもよい。例えば、第1のメニューは、通常押しの動作により選択され、第2のメニューは、長押しの動作により選択されてもよい。通常押しの動作は、例えば頭を傾けるという動作である。長押しの動作は、例えば頭を傾けた状態を一定時間以上継続するという動作である。この変形例では、音声処理部113は、第2のメニューの音声信号(第2の音声信号の一例)には、第1のメニューの音声信号(第1の音声信号の一例)とは異なるエフェクトを付加する。そのため、本変形例では、第1のメニューの音(第1の音の一例)が出力される場合と第2のメニューの音(第2の音の一例)を出力される場合とでは、スピーカー16‐1及び16‐2から出力されるメニューの音色が所定のルールに従って変化する。これにより、ユーザは、第2のメニューを選択する際には、長押しの動作をする必要があることが分かる。したがって、例えば第2のメニューを選択する場合には、仮想音源V2が配置された右前方の方向に頭を傾けた状態を一定時間継続する。選択部116は、検出部115によりこの動作が検出されると、第2のメニューを選択する。
(1) The type of operation for selecting a menu may be different depending on the menu. For example, the first menu may be selected by a normal pressing operation, and the second menu may be selected by a long pressing operation. The normal pressing operation is, for example, an operation of tilting the head. The long pressing operation is, for example, an operation in which the head is tilted for a predetermined time or longer. In this modification, the
(2)ユーザの動作により、新たなメニューが展開されてもよい。図8は、変形例に係る仮想音源の配置の一例を示す図である。例えば、ユーザが第2のメニューに対応する仮想音源V2の方に移動する(所定の動作の一例)と、配置部112は、仮想音源V1〜V8を削除した後、第2のメニューに関係する新たな8個のメニューに対応する仮想音源V17〜V24をユーザの周りに配置する。この移動は、例えば加速度センサ181により測定された加速度に基づいて検出部115により検出される。新たなメニューは、例えば第2のメニューのサブメニューであってもよい。他の例として、第2のメニューがアプリケーションに関するものである場合には、新たなメニューはこのアプリケーションに関連する他のアプリケーション、例えば同一のカテゴリーに属する他のアプリケーションに関するものであってもよい。仮想音源V17〜V24が新たに配置されると、再び上述したステップS103〜S105の処理が行われる。この場合、ステップS103では、新たに配置された仮想音源V17〜V24に対応する第7〜第24のメニューの音が順番に出力される。つまり、本変形例では、新たなメニューが展開される前と後とでは、スピーカー16‐1及び16‐2から出力されるメニューの音が所定のルールに従って変化する。
(2) A new menu may be developed by the user's operation. FIG. 8 is a diagram illustrating an example of the arrangement of virtual sound sources according to the modification. For example, when the user moves toward the virtual sound source V2 corresponding to the second menu (an example of a predetermined operation), the
なお、新たなメニューに対応する仮想音源を配置させる動作は、ユーザの移動に限定されない。例えば、この動作は、ユーザが頭を傾ける動作であってもよい。この場合、頭を傾ける角度により、メニューを選択する動作と新たなメニューに対応する仮想音源を配置させる動作とが区別されてもよい。例えば、ユーザが仮想音源V2の方に頭を浅く傾けた場合には、本変形例で説明したように、第2のメニューに関係する新たなメニューが展開されてもよい。一方、ユーザが仮想音源V2の方に頭を深く傾けた場合には、第2のメニューが選択されてもよい。 The operation of arranging the virtual sound source corresponding to the new menu is not limited to the movement of the user. For example, this operation may be an operation in which the user tilts his / her head. In this case, the operation of selecting a menu and the operation of arranging a virtual sound source corresponding to a new menu may be distinguished depending on the angle at which the head is tilted. For example, when the user tilts his / her head toward the virtual sound source V2, a new menu related to the second menu may be developed as described in the present modification. On the other hand, when the user tilts his / her head toward the virtual sound source V2, the second menu may be selected.
(3)ユーザの動作により、同一の方向に配置された複数の仮想音源に対応するメニューの音が順番に出力されてもよい。これは、特に互いに関連する複数のメニューに対応する複数の仮想音源が同一の方向に配置されている場合において、これらの関連するメニューを効率よく認識するのに有効である。 (3) Menu sounds corresponding to a plurality of virtual sound sources arranged in the same direction may be output in order by a user operation. This is effective for efficiently recognizing these related menus, particularly when a plurality of virtual sound sources corresponding to a plurality of menus related to each other are arranged in the same direction.
図9は、本変形例に係る仮想音源の配置の一例を示す図である。図9に示す例では、ユーザを中心とする仮想円C1〜C4が形成される。仮想円C1は最も半径が小さい。仮想円C2は二番目に半径が小さい。仮想円C3は三番目に半径が小さい。仮想円C4は最も半径が大きい。仮想円C1には、図5に示す例と同様に、第1〜第8のメニューに対応する仮想音源V1〜V8が配置される。仮想円C2には、第9のメニューに対応する仮想音源V9が配置される。仮想円C3には、第10のメニューに対応する仮想音源V10が配置される。仮想円C4には、第11のメニューに対応する仮想音源V11が配置される。仮想音源V2k及びV9〜V11は、いずれもユーザの右前方(第1の方向の一例)にある。 FIG. 9 is a diagram illustrating an example of the arrangement of virtual sound sources according to the present modification. In the example shown in FIG. 9, virtual circles C1 to C4 centering on the user are formed. The virtual circle C1 has the smallest radius. The virtual circle C2 has the second smallest radius. The virtual circle C3 has the third smallest radius. The virtual circle C4 has the largest radius. Similar to the example shown in FIG. 5, virtual sound sources V1 to V8 corresponding to the first to eighth menus are arranged in the virtual circle C1. A virtual sound source V9 corresponding to the ninth menu is arranged in the virtual circle C2. A virtual sound source V10 corresponding to the tenth menu is arranged in the virtual circle C3. A virtual sound source V11 corresponding to the eleventh menu is arranged in the virtual circle C4. The virtual sound sources V2k and V9 to V11 are all in the right front of the user (an example of the first direction).
図9に示す例では、実施形態で説明したように、仮想音源V1〜V8に対応する第1〜第8のメニューの音が時計回りの方向に応じた順序で出力される。ここで、仮想音源V2に対応する第2のメニューの音(第2の音の一例)が出力されたときに、ユーザが仮想音源V2の奥を覗きこむような動作(所定の動作の一例)、例えば仮想音源V2を中心として左右のいずれかに頭の位置をずらす動作を行った場合には、出力制御部114は、仮想円C1上に配置された仮想音源V1〜V8に対応するメニューの音の出力を停止する。この動作は、例えば角速度センサ182により測定された角速度に基づいて検出部115により検出される。続いて、出力制御部114は、仮想音源V2と同じ方向に配置された仮想音源V9〜V11に対応する第9〜第11のメニューの音をユーザからの距離に応じた順序で出力する。
In the example shown in FIG. 9, as described in the embodiment, the sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 are output in the order corresponding to the clockwise direction. Here, when the sound of the second menu corresponding to the virtual sound source V2 (an example of the second sound) is output, an operation in which the user looks into the back of the virtual sound source V2 (an example of a predetermined operation) For example, when the operation of shifting the head position to the left or right with the virtual sound source V2 as the center is performed, the
図9に示す例では、仮想音源V9は、ユーザから距離L2だけ離れた位置に配置されている。仮想音源V10は、ユーザから距離L3だけ離れた位置に配置されている。仮想音源V11は、ユーザから距離L4だけ離れた位置に配置されている。この場合、第2のメニューの音に続いて、仮想音源V9に対応する第9のメニューの音が出力され、続いて仮想音源V10に対応する第10のメニューの音が出力され、続いて仮想音源V11に対応する第11のメニューの音が出力されるというように、仮想音源V9〜V11に対応する第9〜第11のメニューの音が、ユーザから仮想音源V9〜V11までの距離が短い順に出力されてもよい。 In the example shown in FIG. 9, the virtual sound source V9 is arranged at a position separated from the user by a distance L2. The virtual sound source V10 is arranged at a position away from the user by a distance L3. The virtual sound source V11 is disposed at a position separated from the user by a distance L4. In this case, following the sound of the second menu, the sound of the ninth menu corresponding to the virtual sound source V9 is output, followed by the sound of the tenth menu corresponding to the virtual sound source V10, and subsequently virtual. As the sound of the eleventh menu corresponding to the sound source V11 is output, the sounds of the ninth to eleventh menus corresponding to the virtual sound sources V9 to V11 are short from the user to the virtual sound sources V9 to V11. It may be output in order.
図9に示す例において、仮想音源の数に応じて、距離L2〜L4が変更されてもよい。また、ジェスチャー操作の操作量が閾値を超えたときにメニューが選択される場合において、仮想音源までの距離に応じて、その仮想音源に対応するメニューを選択するためのジェスチャー操作の操作量の閾値が変更されてもよい。 In the example illustrated in FIG. 9, the distances L2 to L4 may be changed according to the number of virtual sound sources. In addition, when a menu is selected when the operation amount of the gesture operation exceeds the threshold value, the threshold value of the operation amount of the gesture operation for selecting the menu corresponding to the virtual sound source according to the distance to the virtual sound source May be changed.
(4)ウェアラブル端末10は、他の端末と連携して用いられてもよい。他の端末は、例えば腕時計型のウェアラブル端末である。他の端末は、ユーザの手の動きを検出するために、加速度センサ等の各種センサを備える。この場合、メニューを選択する動作は、頭の動作に代えて、手の動作であってもよい。図5に示す例において、ユーザが手を前方に移動させた場合には、仮想音源V1に対応する第1のメニューが選択されてもよい。この動作は、センサにより検出される。図6に示す例において、仮想円C1に配置された仮想音源V1〜V8に対応する第1〜第8のメニューについては、頭を動かす動作により選択されてもよい。また、仮想円C2に配置された仮想音源V9〜V16に対応する第9〜第16のメニューについては、手を動かす動作により選択されてもよい。例えば、ユーザが頭を前方に傾けた場合には、仮想音源V1に対応する第1のメニューが選択されてもよい。一方、ユーザが手を前方に移動させた場合には、仮想音源V9に対応する第9のメニューが選択されてもよい。
(4) The
他の例として、他の端末は、グローブ型のウェアラブル端末であってもよい。他の端末は、ユーザの手の動きを検出するために、加速度センサ等の各種センサを備える。また、他の端末は、振動部を備える。振動部には、例えばアクチュエータが用いられる。この場合、メニューを選択する動作は、頭の動作に代えて、手の動作であってもよい。また、音と振動によりメニューが選択されたことがユーザに通知されてもよい。図5に示す例において、ユーザが手を前方に移動させることにより、仮想音源V1に対応する第1のメニューが選択されると、メニューの選択が行われたことを示す音がスピーカー16‐1及び16‐2から出力されるとともに、他の端末の振動部が振動してもよい。 As another example, the other terminal may be a glove-type wearable terminal. Other terminals include various sensors such as an acceleration sensor in order to detect the movement of the user's hand. Other terminals include a vibration unit. For example, an actuator is used for the vibration unit. In this case, the operation for selecting the menu may be a hand motion instead of the head motion. Further, the user may be notified that the menu has been selected by sound and vibration. In the example shown in FIG. 5, when the first menu corresponding to the virtual sound source V1 is selected by moving the hand forward by the user, a sound indicating that the menu has been selected is heard from the speaker 16-1. And 16-2, and the vibration part of another terminal may vibrate.
(5)ユーザの動作により、仮想音源が移動されてもよい。図5に示す例において、ユーザが頭を回す動作を行った場合には、仮想音源V1〜V8がその回転方向に沿って回転されてもよい。この動作は、例えば角速度センサ182により測定された角速度に基づいて検出部115により検出される。これにより、ユーザは、所望のメニューに対応する仮想音源を、選択しやすい前方の位置に移動させることができる。
(5) The virtual sound source may be moved by the user's operation. In the example illustrated in FIG. 5, when the user performs an operation of turning his / her head, the virtual sound sources V <b> 1 to V <b> 8 may be rotated along the rotation direction. This operation is detected by the
他の例として、ウェアラブル端末10を装着しているユーザの姿勢により、仮想音源が移動されてもよい。このユーザの姿勢は、例えば角速度センサ182により測定された角速度に基づいて検出される。例えば、ユーザが寝ている状態の場合には、後方の仮想音源V4〜V6に対応する第4〜第6メニューを選択しにくいため、仮想音源V4〜V6を選択しやすい前方の位置に移動させてもよい。
As another example, the virtual sound source may be moved according to the posture of the user wearing the
(6)メニューを選択する動作の検出方法は、実施形態で説明した方法に限定されない。図10は、変形例に係るメニューを選択する動作の検出方法を説明する図である。図10に示す例では、仮想円C1内の領域が、仮想円C1の中心と円周上の点とを結んだ線により、領域R1〜R8に分割される。領域R1〜R8には、仮想音源V1〜V8が一つずつ含まれる。ユーザの前後左右にある仮想音源V1、V3、V5、及びV7を含む領域R1、R3、R5、及びR7の中心角は、いずれもθ1である。一方、ユーザの右前方、右後方、左後方、及び左前方にある仮想音源V2、V4、V5、及びV6を含む領域R2、R4、R6、及びR8の中心角は、いずれもθ1より大きいθ2である。この変形例では、ユーザが領域R1に頭を傾けた場合には、仮想音源V1に対応する第1のメニューが選択される。ユーザが領域R2に頭を傾けた場合には、仮想音源V2に対応する第2のメニューが選択される。一般的に、斜めの方向、すなわち右前方、右後方、左後方、左前方には正確に頭を動かしにくい。そのため、例えば右前方に頭を傾けたつもりが、右に頭を傾けたと検出され、意図しないメニューが選択される場合がある。しかし、この変形例によれば、正確に斜めの方向に頭を傾けなくても、斜めの方向に頭を傾けたと検出されるため、このようなメニューの誤選択を抑制することができる。 (6) The method for detecting an operation for selecting a menu is not limited to the method described in the embodiment. FIG. 10 is a diagram illustrating a method for detecting an operation of selecting a menu according to a modification. In the example shown in FIG. 10, the region in the virtual circle C1 is divided into regions R1 to R8 by a line connecting the center of the virtual circle C1 and a point on the circumference. The regions R1 to R8 include one virtual sound source V1 to V8. The central angles of the regions R1, R3, R5, and R7 including the virtual sound sources V1, V3, V5, and V7 on the front, back, left, and right of the user are all θ1. On the other hand, the central angles of the regions R2, R4, R6, and R8 including the virtual sound sources V2, V4, V5, and V6 at the right front, right rear, left rear, and left front of the user are all larger than θ1. It is. In this modification, when the user tilts his / her head to the region R1, the first menu corresponding to the virtual sound source V1 is selected. When the user tilts his head to the region R2, the second menu corresponding to the virtual sound source V2 is selected. Generally, it is difficult to move the head accurately in an oblique direction, that is, right front, right rear, left rear, and left front. For this reason, for example, it is detected that the head is tilted to the right and the head is tilted to the right, and an unintended menu may be selected. However, according to this modification, it is detected that the head is tilted in an oblique direction without accurately tilting the head in an oblique direction, and thus such erroneous menu selection can be suppressed.
(7)メニューの読み上げ処理は、実施形態で説明した例に限定されない。例えば、ユーザが頭を回す動作を行った場合には、頭を回した範囲内に配置された仮想音源に対応するメニューの音が出力されてもよい。この動作は、例えば角速度センサ182により測定された角速度に基づいて検出部115により検出される。他の例として、ユーザが頭を回す動作を行った場合には、頭の初速度により、メニューの音の再生速度が変化してもよい。この初速度は、例えば加速度センサ181により測定された加速度に基づいて検出部115により検出される。例えば、頭の初速度が大きいほど、メニューの音の再生速度は大きくなってもよい。
(7) Menu reading processing is not limited to the example described in the embodiment. For example, when the user performs an action of turning his / her head, the sound of the menu corresponding to the virtual sound source arranged within the range of turning the head may be output. This operation is detected by the
(8)メニューを選択する動作は、実施形態で説明した例に限定されない。図6に示す例において、ユーザが頭を第1の角度だけ前方に傾けた場合には、仮想音源V1に対応する第1のメニューが選択されてもよい。ユーザが頭を第1の角度より大きい第2の角度だけ前方に傾けた場合には、仮想音源V9に対応する第9のメニューが選択されてもよい。図6に示す例において、ユーザが前方に一歩移動してから前方に頭を傾けた場合には、仮想音源V9に対応する第9のメニューが選択されてもよい。 (8) The operation of selecting a menu is not limited to the example described in the embodiment. In the example shown in FIG. 6, when the user tilts his / her head forward by a first angle, the first menu corresponding to the virtual sound source V1 may be selected. When the user tilts the head forward by a second angle larger than the first angle, a ninth menu corresponding to the virtual sound source V9 may be selected. In the example shown in FIG. 6, when the user moves forward one step and then tilts his head forward, the ninth menu corresponding to the virtual sound source V9 may be selected.
(9)仮想音源の配置は、実施形態で説明した例に限定されない。例えば、メニューの音がメニューの名称を読み上げる音声である場合、頭文字が同じ名称のメニューに対応する仮想音源が隣り合わないような並び順で、仮想音源が配置されてもよい。 (9) The arrangement of the virtual sound source is not limited to the example described in the embodiment. For example, when the sound of the menu is a voice that reads out the name of the menu, the virtual sound sources may be arranged in an arrangement order such that the virtual sound sources corresponding to the menu having the same initial name are not adjacent to each other.
(10)メニューは、実施形態で説明した例に限定されない。メニューは、ウェアラブル端末10にダウンロードされた音楽や画像に関するものであってもよい。
(10) The menu is not limited to the example described in the embodiment. The menu may be related to music or images downloaded to the
(11)ウェアラブル端末10は、図1に示す例に限定されない。例えば、ウェアラブル端末10は、イヤーフック型やオーバーヘッド型等、他の形状であってもよい。
(11) The
(12)ウェアラブル端末10の制御部11により実行されるプログラムは、インターネット等の通信回線を介してダウンロードされてもよい。また、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどの、コンピュータが読取可能な記録媒体に記録した状態で提供されてもよい。
(12) The program executed by the
(13)状況に応じて、ユーザから仮想音源までの距離が変更されてもよい。例えば、メニューがアプリケーションに関するものである場合において、アプリケーションの使用頻度に応じて、そのメニューに対応する仮想音源までの距離が変更されてもよい。例えば、図6に示す仮想音源V16、V9、及びV10に対応する第16、第9、及び第10のメニューがいずれもアプリケーションに関するものであり、これらのアプリケーションの使用頻度が高い場合には、距離L2を初期値より小さくしてもよい。ただし、距離L2は距離L1より大きくなるようにする。 (13) The distance from the user to the virtual sound source may be changed according to the situation. For example, when the menu relates to an application, the distance to the virtual sound source corresponding to the menu may be changed according to the use frequency of the application. For example, if the sixteenth, ninth, and tenth menus corresponding to the virtual sound sources V16, V9, and V10 shown in FIG. L2 may be made smaller than the initial value. However, the distance L2 is made larger than the distance L1.
他の例として、メニューがメーラーや通話アプリケーションに関するものである場合において、メールの受信や着信等のイベントの発生に応じて、そのメニューに対応する仮想音源までの距離が変更されてもよい。例えば、図6に示す仮想音源V1に対応する第1のメニューがメーラーに関するものである場合において、メールを受信したときは、距離L1を初期値より小さくしてもよい。このとき、距離L2は変化しない。 As another example, when the menu is related to a mailer or a call application, the distance to the virtual sound source corresponding to the menu may be changed according to the occurrence of an event such as reception of mail or incoming call. For example, when the first menu corresponding to the virtual sound source V1 shown in FIG. 6 relates to the mailer, the distance L1 may be made smaller than the initial value when a mail is received. At this time, the distance L2 does not change.
他の例として、ユーザの運動量に応じて、仮想音源までの距離が変更されてもよい。例えば、ユーザが歩行している場合には、図6に示す距離L1を初期値より大きくしてもよい。このユーザの歩行は、例えば加速度センサ181により測定された加速度に基づいて検出される。
As another example, the distance to the virtual sound source may be changed according to the amount of exercise of the user. For example, when the user is walking, the distance L1 shown in FIG. 6 may be larger than the initial value. This user's walking is detected based on the acceleration measured by the
10:ウェアラブル端末、16‐1及び16‐2:スピーカー、111:通知部、112:配置部、113:音声処理部、114:出力制御部、115:検出部、116:選択部、117:実行部、181:加速度センサ、182:角速度センサ、183:地磁気センサ 10: Wearable terminal, 16-1 and 16-2: Speaker, 111: Notification unit, 112: Arrangement unit, 113: Audio processing unit, 114: Output control unit, 115: Detection unit, 116: Selection unit, 117: Execution , 181: acceleration sensor, 182: angular velocity sensor, 183: geomagnetic sensor
Claims (10)
前記配置部により配置された前記仮想音源から前記メニューの名称を読み上げる音声が聞こえるように、前記音声を示す音声信号に音声処理を施す音声処理部と、
前記音声処理部により前記音声処理が施された前記音声信号に応じた音声を出力するスピーカーと、
前記ユーザの動作を検出する検出部と、
前記仮想音源の方向に体を動かす動作が前記検出部により検出されたことに応じて、前記メニューを選択する選択部と、
前記音声から前記名称の先頭の文字を読み上げる部分音声を抽出し、前記抽出された部分音声を前記スピーカーから出力させ、所定の操作が行われた場合には、前記音声を前記スピーカーから出力させる出力制御部と
を備える音声出力装置。 A placement unit for placing a virtual sound source indicating a menu around the user;
Wherein as voice to speak the name of the menu from the arranged the virtual sound source by the arrangement unit is heard, and the sound processing unit that performs sound processing on the audio signal indicating the voice,
A speaker that outputs a sound corresponding to the sound signal subjected to the sound processing by the sound processing unit;
A detection unit for detecting the user's action;
A selection unit that selects the menu in response to the action of moving the body in the direction of the virtual sound source detected by the detection unit ;
An output for extracting a partial voice that reads out the first character of the name from the voice, outputting the extracted partial voice from the speaker, and outputting the voice from the speaker when a predetermined operation is performed. With control
An audio output device comprising:
前記配置部により配置された前記複数の仮想音源から前記複数のメニューを示す複数の音が聞こえるように、前記複数のメニューを示す複数の音声信号に前記距離に応じて音声処理を施す音声処理部と、
前記音声処理部により前記音声処理が施された前記複数の音声信号に応じた複数の音を出力するスピーカーと、
前記ユーザの動作を検出する検出部と、
前記仮想音源の方向に体を動かす動作が前記検出部により検出されたことに応じて、前記メニューを選択する選択部と、
前記複数のメニューを示す複数の音に含まれる第1の音が前記スピーカーから出力されたときに、前記検出部により所定の動作が検出された場合には、前記第1の音の発生源となる第1の仮想音源と同じ方向に配置された少なくとも1の仮想音源から発生される少なくとも1の音を前記ユーザから前記少なくとも1の仮想音源までの距離に応じた順序で前記スピーカーから出力させる出力制御部と
を備える音声出力装置。 An arrangement unit that arranges a plurality of virtual sound sources indicating a plurality of menus at positions different from each other by a different distance in the same direction;
Wherein such plurality of sounds indicative of the plurality of menus from arranged the plurality of virtual sound sources by the arrangement unit is heard, the sound processing unit that performs speech processing in accordance with the distance to a plurality of sound signals indicating the plurality of menus When,
A speaker for outputting a plurality of sounds corresponding to the plurality of audio signals in which the audio processing has been performed by the audio processing unit,
A detection unit for detecting the user's action;
A selection unit that selects the menu in response to the action of moving the body in the direction of the virtual sound source detected by the detection unit;
When a predetermined operation is detected by the detection unit when a first sound included in a plurality of sounds indicating the plurality of menus is output from the speaker, a source of the first sound is An output for outputting from the speaker at least one sound generated from at least one virtual sound source arranged in the same direction as the first virtual sound source in an order corresponding to a distance from the user to the at least one virtual sound source With control
An audio output device comprising:
前記音声処理部は、前記複数のメニューを示す複数の音声信号に前記距離に応じて音声処理を施す
請求項1に記載の音声出力装置。 The arrangement unit arranges a plurality of virtual sound sources indicating a plurality of menus at positions different from each other by different distances in the same direction from the user,
The audio output device according to claim 1, wherein the audio processing unit performs audio processing on a plurality of audio signals indicating the plurality of menus according to the distance.
前記選択部は、前記複数の仮想音源が配置された方向に体を動かす第1の動作が前記検出部により検出された場合には、前記第1のメニューを選択し、前記複数の仮想音源が配置された方向に体を動かす第2の動作が前記検出部により検出された場合には、前記第2のメニューを選択する
請求項3に記載の音声出力装置。 The plurality of menus include a first menu and a second menu,
The selection unit selects the first menu when the first operation of moving the body in the direction in which the plurality of virtual sound sources are arranged is detected by the detection unit, and the plurality of virtual sound sources are The audio output device according to claim 3 , wherein the second menu is selected when the detection unit detects a second action of moving the body in the arranged direction.
請求項3又は4に記載の音声出力装置。 The output control unit is configured to detect the first operation when a predetermined operation is detected by the detection unit when the first sound included in the plurality of sounds indicating the plurality of menus is output from the speaker. At least one sound generated from at least one virtual sound source arranged in the same direction as the first virtual sound source that is the sound generation source in the order according to the distance from the user to the at least one virtual sound source The audio output device according to claim 3, wherein the audio output device is configured to output from the speaker.
請求項1又は2に記載の音声出力装置。 The output control section, after the first sound indicative of the menu is output from the speaker, the audio output device according to claim 1 or 2 to output the second sound indicating the menu from the speaker.
前記音声から前記名称の先頭の文字を読み上げる部分音声を抽出し、前記抽出された部分音声を前記スピーカーから出力させ、所定の操作が行われた場合には、前記音声を前記スピーカーから出力させる出力制御部をさらに備える
請求項2に記載の音声出力装置。 The sound is a voice that reads out the name of the menu,
An output for extracting a partial voice that reads out the first character of the name from the voice, outputting the extracted partial voice from the speaker, and outputting the voice from the speaker when a predetermined operation is performed. The audio output device according to claim 2 , further comprising a control unit.
前記第1のメニューと前記第2のメニューとは、異なる種類の動作により選択され、
前記音声処理部は、前記第1のメニューを示す第1の音の第1の音声信号と前記第2のメニューを示す第2の音の第2の音声信号とに異なる音声処理を施す
請求項1又は2に記載の音声出力装置。 The arrangement unit arranges a first virtual sound source indicating a first menu and a second virtual sound source indicating a second menu,
The first menu and the second menu are selected by different types of actions,
The audio processing unit performs different audio processing on a first audio signal of a first sound indicating the first menu and a second audio signal of a second sound indicating the second menu. The audio output device according to 1 or 2 .
請求項1又は2に記載の音声出力装置。 The arrangement unit, when said predetermined operation is detected by the detection unit, the delete the virtual sound source, to claim 1 or 2, placing the new virtual sound source of another menu related to the menu The audio output device described.
請求項1又は2に記載の音声出力装置。 The audio output device according to claim 1 or 2 further comprising a notification unit that notifies by sound the number of the menu.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014119961A JP6275557B2 (en) | 2014-06-10 | 2014-06-10 | Audio output device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014119961A JP6275557B2 (en) | 2014-06-10 | 2014-06-10 | Audio output device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015232849A JP2015232849A (en) | 2015-12-24 |
JP6275557B2 true JP6275557B2 (en) | 2018-02-07 |
Family
ID=54934233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014119961A Active JP6275557B2 (en) | 2014-06-10 | 2014-06-10 | Audio output device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6275557B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10085107B2 (en) * | 2015-03-04 | 2018-09-25 | Sharp Kabushiki Kaisha | Sound signal reproduction device, sound signal reproduction method, program, and recording medium |
CN111970597B (en) * | 2017-11-27 | 2022-10-28 | 深圳市汇顶科技股份有限公司 | Earphone, method for detecting wearing state of earphone and electronic equipment |
JP7015860B2 (en) * | 2020-03-31 | 2022-02-03 | 本田技研工業株式会社 | vehicle |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002099294A (en) * | 2000-06-29 | 2002-04-05 | Fujitsu Ltd | Information processor |
JP2003304600A (en) * | 2002-04-10 | 2003-10-24 | Nissan Motor Co Ltd | Sound information providing/selecting apparatus |
JP4837512B2 (en) * | 2006-09-29 | 2011-12-14 | 独立行政法人科学技術振興機構 | Sound source selection device |
-
2014
- 2014-06-10 JP JP2014119961A patent/JP6275557B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015232849A (en) | 2015-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10387112B2 (en) | Multi-dimensional audio interface system | |
EP2891955B1 (en) | In-vehicle gesture interactive spatial audio system | |
US9374647B2 (en) | Method and apparatus using head movement for user interface | |
US8958569B2 (en) | Selective spatial audio communication | |
KR20150005027A (en) | device for recognizing voice and method for recognizing voice | |
US20180124256A1 (en) | Communication terminal device, incoming call control method, and program | |
US9516429B2 (en) | Hearing aid and method for controlling hearing aid | |
CN106293601A (en) | A kind of audio frequency playing method and device | |
CN114189790B (en) | Audio information processing method, electronic device, system, product and medium | |
JP2020042799A (en) | Ear set control method and system | |
US11036464B2 (en) | Spatialized augmented reality (AR) audio menu | |
JP6275557B2 (en) | Audio output device | |
CN110784804A (en) | Wireless earphone noise reduction calibration method and device, earphone box and storage medium | |
CN106302974B (en) | information processing method and electronic equipment | |
US9913023B2 (en) | Multi-sound audio interface system | |
CN109121069B (en) | 3D sound effect processing method and related product | |
CN108924705B (en) | 3D sound effect processing method and related product | |
JP6591167B2 (en) | Electronics | |
KR20150019061A (en) | Method for wireless pairing and electronic device thereof | |
JP6294183B2 (en) | Menu selection device and menu selection method | |
JP2016035632A (en) | Menu selection system and menu selection method | |
US10817153B2 (en) | Augmented audio development | |
CN114464171A (en) | Audio splitting method and device, electronic equipment, storage medium and product | |
CN115499770A (en) | Voice activity detection method and device of earphone, earphone and medium | |
JP2015155960A (en) | Electronic apparatus and program for controlling electronic apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6275557 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |