JP6275557B2 - Audio output device - Google Patents

Audio output device Download PDF

Info

Publication number
JP6275557B2
JP6275557B2 JP2014119961A JP2014119961A JP6275557B2 JP 6275557 B2 JP6275557 B2 JP 6275557B2 JP 2014119961 A JP2014119961 A JP 2014119961A JP 2014119961 A JP2014119961 A JP 2014119961A JP 6275557 B2 JP6275557 B2 JP 6275557B2
Authority
JP
Japan
Prior art keywords
menu
sound
virtual sound
virtual
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014119961A
Other languages
Japanese (ja)
Other versions
JP2015232849A (en
Inventor
山崎 仁史
仁史 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014119961A priority Critical patent/JP6275557B2/en
Publication of JP2015232849A publication Critical patent/JP2015232849A/en
Application granted granted Critical
Publication of JP6275557B2 publication Critical patent/JP6275557B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、音を利用してメニューを選択する技術に関する。   The present invention relates to a technique for selecting a menu using sound.

バーチャルサラウンド技術を利用して、メニューの選択を実現する技術が知られている。例えば、特許文献1には、仮想的な3次元音場に複数のメニュー項目に対応する複数のメニュー音像を定位させ、装着者が頭を動かすことによって任意のメニュー音像を選択し、選択されたメニュー音像に対応するメニューを実行することが記載されている。   A technique for realizing menu selection using a virtual surround technique is known. For example, in Patent Document 1, a plurality of menu sound images corresponding to a plurality of menu items are localized in a virtual three-dimensional sound field, and an arbitrary menu sound image is selected by the wearer moving his / her head and selected. It describes that a menu corresponding to a menu sound image is executed.

特開2000−194460号公報JP 2000-194460 A

しかし、特許文献1に記載された技術のように、単にバーチャルサラウンド技術を利用してメニューを示す音を出力するだけでは、メニュー全体を効率よく認識できなかったり、メニューを示す音の発生源となる仮想音源の位置が正確に認識することができなかったりする場合がある。この場合、ユーザはメニューをスムーズに選択できず、ストレスを感じる場合がある。
本発明は、音を利用したメニューの選択に係るユーザのストレスを軽減することを目的とする。
However, as in the technique described in Patent Document 1, if the sound indicating the menu is simply output using the virtual surround technology, the entire menu cannot be recognized efficiently, or the sound source indicating the menu is In some cases, the position of the virtual sound source cannot be accurately recognized. In this case, the user may not be able to select the menu smoothly and may feel stress.
An object of this invention is to reduce the stress of the user who concerns on the selection of the menu using a sound.

本発明は、ユーザの周りにメニューを示す仮想音源を配置する配置部と、前記配置部により配置された前記仮想音源から前記メニューを示す音が聞こえるように、前記音を示す音声信号に音声処理を施す音声処理部と、前記音声処理部により前記音声処理が施された前記音声信号に応じた音を出力するスピーカーと、前記ユーザの動作を検出する検出部と、前記仮想音源の方向に体を動かす動作が前記検出部により検出されたことに応じて、前記メニューを選択する選択部とを備え、前記スピーカーから出力される前記音は、所定のルールに従って変化する音声出力装置を提供する。   The present invention relates to an arrangement unit that arranges a virtual sound source indicating a menu around a user, and an audio signal indicating the sound is processed so that a sound indicating the menu can be heard from the virtual sound source arranged by the arrangement unit. A sound processing unit that performs sound processing, a speaker that outputs sound according to the sound signal subjected to the sound processing by the sound processing unit, a detection unit that detects the user's action, and a body in the direction of the virtual sound source And a selection unit that selects the menu in response to detection of an action to move the sound, wherein the sound output from the speaker changes according to a predetermined rule.

前記配置部は、前記ユーザから同一の方向においてそれぞれ異なる距離だけ離れた位置に、複数のメニューを示す複数の仮想音源を配置し、前記音声処理部は、前記複数のメニューを示す複数の音声信号に前記距離に応じて音声処理を施してもよい。   The arrangement unit arranges a plurality of virtual sound sources indicating a plurality of menus at positions different from each other in the same direction by the user, and the sound processing unit includes a plurality of audio signals indicating the plurality of menus. Voice processing may be performed according to the distance.

前記複数のメニューは、第1のメニューと第2のメニューとを含み、前記選択部は、前記複数の仮想音源が配置された方向に体を動かす第1の動作が前記検出部により検出された場合には、前記第1のメニューを選択し、前記複数の仮想音源が配置された方向に体を動かす第2の動作が前記検出部により検出された場合には、前記第2のメニューを選択してもよい。   The plurality of menus include a first menu and a second menu, and the selection unit has detected a first action of moving a body in a direction in which the plurality of virtual sound sources are arranged by the detection unit. In this case, the first menu is selected, and the second menu is selected when the detection unit detects a second action of moving the body in the direction in which the plurality of virtual sound sources are arranged. May be.

前記複数のメニューを示す複数の音に含まれる第1の音が前記スピーカーから出力されたときに、前記検出部により所定の動作が検出された場合には、前記第1の音の発生源となる第1の仮想音源と同じ方向に配置された少なくとも1の仮想音源から発生される少なくとも1の音を前記ユーザから前記少なくとも1の仮想音源までの距離に応じた順序で前記スピーカーから出力させる出力制御部をさらに備えてもよい。   When a predetermined operation is detected by the detection unit when a first sound included in a plurality of sounds indicating the plurality of menus is output from the speaker, a source of the first sound is An output for outputting from the speaker at least one sound generated from at least one virtual sound source arranged in the same direction as the first virtual sound source in an order corresponding to a distance from the user to the at least one virtual sound source A control unit may be further provided.

前記メニューを示す第1の音を前記スピーカーから出力させた後、前記メニューを示す第2の音を前記スピーカーから出力させる出力制御部をさらに備えてもよい。   After outputting the 1st sound which shows the said menu from the said speaker, you may further provide the output control part which outputs the 2nd sound which shows the said menu from the said speaker.

前記音は、前記メニューの名称を読み上げる音声であり、前記音声から前記名称の先頭の文字を読み上げる部分音声を抽出し、前記抽出された部分音声を前記スピーカーから出力させ、所定の操作が行われた場合には、前記音声を前記スピーカーから出力させる出力制御部をさらに備えてもよい。   The sound is a voice that reads out the name of the menu, a partial voice that reads out the first character of the name is extracted from the voice, the extracted partial voice is output from the speaker, and a predetermined operation is performed. In such a case, an output control unit that outputs the sound from the speaker may be further provided.

前記配置部は、第1のメニューを示す第1の仮想音源と、第2のメニューを示す第2の仮想音源とを配置し、前記第1のメニューと前記第2のメニューとは、異なる種類の動作により選択され、前記音声処理部は、前記第1のメニューを示す第1の音の第1の音声信号と前記第2のメニューを示す第2の音の第2の音声信号とに異なる音声処理を施してもよい。   The arrangement unit arranges a first virtual sound source indicating a first menu and a second virtual sound source indicating a second menu, and the first menu and the second menu are different types. And the audio processing unit is different between a first audio signal of the first sound indicating the first menu and a second audio signal of the second sound indicating the second menu. Audio processing may be performed.

前記配置部は、前記検出部により所定の動作が検出された場合には、前記仮想音源を削除し、前記メニューに関係する他のメニューを示す新たな仮想音源を配置してもよい。   When the predetermined operation is detected by the detection unit, the arrangement unit may delete the virtual sound source and arrange a new virtual sound source indicating another menu related to the menu.

前記メニューの数を音で通知する通知部をさらに備えてもよい。   You may further provide the notification part which notifies the number of the said menu with a sound.

本発明は、ユーザの周りにメニューを示す仮想音源を配置する配置ステップと、前記配置ステップで配置された前記仮想音源から前記メニューを示す音が聞こえるように、前記音を示す音声信号に音声処理を施す音声処理ステップと、前記音声処理ステップで前記音声処理が施された前記音声信号に応じた音を出力する出力ステップと、前記ユーザの動作を検出する検出ステップと、前記仮想音源が配置された方向に体を動かす動作が前記検出ステップで検出されたことに応じて、前記メニューを選択する選択ステップとを備え、前記出力ステップで出力される前記音は、所定のルールに従って変化する音声出力方法を提供する。   The present invention provides an arrangement step of arranging a virtual sound source indicating a menu around a user, and processing an audio signal indicating the sound so that a sound indicating the menu can be heard from the virtual sound source arranged in the arrangement step. A sound processing step for performing sound processing, an output step for outputting sound according to the sound signal subjected to the sound processing in the sound processing step, a detection step for detecting the user's operation, and the virtual sound source. A selection step for selecting the menu in response to an action of moving the body in a different direction being detected in the detection step, wherein the sound output in the output step changes in accordance with a predetermined rule. Provide a method.

本発明によれば、音を利用したメニューの選択に係るユーザのストレスを軽減することができる。   ADVANTAGE OF THE INVENTION According to this invention, the stress of the user who concerns on selection of the menu using a sound can be reduced.

ウェアラブル端末の外観を示す図。The figure which shows the external appearance of a wearable terminal. ウェアラブル端末のハードウェア構成を示す図。The figure which shows the hardware constitutions of a wearable terminal. ウェアラブル端末の機能構成を示す図。The figure which shows the function structure of a wearable terminal. ウェアラブル端末の動作を示すフローチャート。The flowchart which shows operation | movement of a wearable terminal. 仮想音源の配置の一例を示す図。The figure which shows an example of arrangement | positioning of a virtual sound source. 仮想音源の配置の他の例を示す図。The figure which shows the other example of arrangement | positioning of a virtual sound source. 仮想音源の配置の他の例を示す図。The figure which shows the other example of arrangement | positioning of a virtual sound source. 変形例に係る仮想音源の配置の一例を示す図。The figure which shows an example of arrangement | positioning of the virtual sound source which concerns on a modification. 変形例に係る仮想音源の配置の一例を示す図。The figure which shows an example of arrangement | positioning of the virtual sound source which concerns on a modification. 変形例に係るメニューを選択する動作の検出方法を説明する図。The figure explaining the detection method of the operation | movement which selects the menu which concerns on a modification.

1.構成
図1は、ウェアラブル端末10の外観を示す図である。ウェアラブル端末10は、イヤホン型のウェアラブルコンピュータである。ウェアラブル端末10は、右耳用の筐体101と、左耳用の筐体102と、ケーブル103と、本体104を備える。筐体101は、ユーザの右耳に装着される。筐体101には、スピーカー16‐1が収容される。筐体102は、ユーザの左耳に装着される。筐体102には、スピーカー16‐2が収容される。ケーブル103は、筐体101及び102と本体104とを接続する。本体104は、2チャンネルの音声信号をスピーカー16‐1及び16‐2に供給することにより、ステレオ方式で音を再生する。
1. Configuration FIG. 1 is a diagram illustrating an appearance of a wearable terminal 10. The wearable terminal 10 is an earphone type wearable computer. The wearable terminal 10 includes a right ear casing 101, a left ear casing 102, a cable 103, and a main body 104. The housing 101 is attached to the right ear of the user. The casing 101 accommodates a speaker 16-1. The housing 102 is attached to the user's left ear. The casing 102 accommodates a speaker 16-2. The cable 103 connects the housings 101 and 102 and the main body 104. The main body 104 reproduces sound in a stereo manner by supplying 2-channel audio signals to the speakers 16-1 and 16-2.

図2は、ウェアラブル端末10のハードウェア構成を示す図である。ウェアラブル端末10は、バーチャルサラウンド技術を利用してメニューの選択を実現する機能を有する。ウェアラブル端末10は、制御部11と、記憶部12と、通信部13と、操作部14と、マイクロフォン15と、スピーカー16‐1及び16‐2と、測位部17と、センサ部18と、電源19とを備える。これらの構成要素は、バス又はケーブル103を介して接続される。なお、スピーカー16‐1及び16‐2以外の構成要素は、基本的には、本体104に収容される。ただし、センサ部18は、筐体101又は102に収容される。   FIG. 2 is a diagram illustrating a hardware configuration of the wearable terminal 10. The wearable terminal 10 has a function of realizing menu selection using a virtual surround technology. The wearable terminal 10 includes a control unit 11, a storage unit 12, a communication unit 13, an operation unit 14, a microphone 15, speakers 16-1 and 16-2, a positioning unit 17, a sensor unit 18, and a power source. 19. These components are connected via a bus or cable 103. Note that components other than the speakers 16-1 and 16-2 are basically housed in the main body 104. However, the sensor unit 18 is accommodated in the housing 101 or 102.

制御部11は、記憶部12に記憶されたプログラムを実行することにより、データの演算や他の構成要素の制御を行う。制御部11には、例えばCPUが用いられる。記憶部12は、制御部11により実行されるプログラムや各種のデータを記憶する。記憶部12は、主記憶装置と補助記憶装置とを含む。主記憶装置には、例えばRAMが用いられる。補助記憶装置には、例えばフラッシュメモリが用いられる。   The control unit 11 executes a program stored in the storage unit 12 to perform calculation of data and control of other components. For example, a CPU is used as the control unit 11. The storage unit 12 stores programs executed by the control unit 11 and various data. The storage unit 12 includes a main storage device and an auxiliary storage device. For example, a RAM is used as the main storage device. For example, a flash memory is used as the auxiliary storage device.

通信部13は、データ通信を行うための通信インタフェースである。通信部13は、Bluetooth(登録商標)等の近距離無線通信規格に従って通信を行う。操作部14は、ユーザの操作に応じた信号を制御部11に入力する。操作部14には、例えばタッチセンサーが用いられる。マイクロフォン15は、音を受信し、受信した音に応じた信号を制御部11に入力する。スピーカー16‐1及び16‐2は、音声信号に応じた音を出力する。   The communication unit 13 is a communication interface for performing data communication. The communication unit 13 performs communication according to a near field communication standard such as Bluetooth (registered trademark). The operation unit 14 inputs a signal corresponding to a user operation to the control unit 11. For example, a touch sensor is used for the operation unit 14. The microphone 15 receives sound and inputs a signal corresponding to the received sound to the control unit 11. The speakers 16-1 and 16-2 output sound according to the audio signal.

測位部17は、ウェアラブル端末10の現在の位置を測定する。測位部17には、例えばGPS(Global Positioning System)受信機が用いられる。電源19は、ウェアラブル端末10の各構成要素に電力を供給する。電源19には、例えばバッテリーが用いられる。   The positioning unit 17 measures the current position of the wearable terminal 10. For the positioning unit 17, for example, a GPS (Global Positioning System) receiver is used. The power source 19 supplies power to each component of the wearable terminal 10. For example, a battery is used as the power source 19.

センサ部18は、ユーザの動作の検出に用いられる。センサ部18には、例えば加速度センサ181と、角速度センサ182と、地磁気センサ183とが含まれる。加速度センサ181は、軸方向の加速度を測定する。角速度センサ182は、軸方向の角速度を測定する。地磁気センサ183は、軸方向の地磁気を測定する。   The sensor unit 18 is used to detect a user operation. The sensor unit 18 includes, for example, an acceleration sensor 181, an angular velocity sensor 182, and a geomagnetic sensor 183. The acceleration sensor 181 measures axial acceleration. The angular velocity sensor 182 measures the angular velocity in the axial direction. The geomagnetic sensor 183 measures the geomagnetism in the axial direction.

図3は、ウェアラブル端末10の機能構成を示す図である。この実施形態では、ウェアラブル端末10は音声出力装置として機能する。ウェアラブル端末10は、通知部111、配置部112、音声処理部113、出力制御部114、検出部115、選択部116、及び実行部117の機能を有する。これらの機能は、制御部11が1又は複数のプログラムを実行することにより実現される。また、これらの機能は、制御部11と他の構成要素との協働により実現されてもよい。   FIG. 3 is a diagram illustrating a functional configuration of the wearable terminal 10. In this embodiment, the wearable terminal 10 functions as an audio output device. The wearable terminal 10 has functions of a notification unit 111, an arrangement unit 112, an audio processing unit 113, an output control unit 114, a detection unit 115, a selection unit 116, and an execution unit 117. These functions are realized by the control unit 11 executing one or a plurality of programs. Further, these functions may be realized by cooperation between the control unit 11 and other components.

通知部111は、メニューの数を音で通知する。配置部112は、ユーザの周りにメニューを示す仮想音源を配置する。音声処理部113は、配置部112により配置された仮想音源からメニューを示す音が聞こえるように、この音を示す音声信号に音声処理を施す。出力制御部114は、音声処理部113により音声処理が施された音声信号に応じた音をスピーカー16‐1及び16‐2から出力させる。検出部115は、ユーザの動作を検出する。選択部116は、仮想音源の方向に体を動かす動作が検出部115により検出されたことに応じて、メニューを選択する。実行部117は、選択部116により選択されたメニューに対応する処理を実行する。   The notification unit 111 notifies the number of menus with sound. The placement unit 112 places a virtual sound source indicating a menu around the user. The audio processing unit 113 performs audio processing on the audio signal indicating the sound so that the sound indicating the menu can be heard from the virtual sound source arranged by the arrangement unit 112. The output control unit 114 causes the speakers 16-1 and 16-2 to output sound corresponding to the audio signal subjected to the audio processing by the audio processing unit 113. The detection unit 115 detects a user's operation. The selection unit 116 selects a menu in response to the movement of moving the body in the direction of the virtual sound source detected by the detection unit 115. The execution unit 117 executes processing corresponding to the menu selected by the selection unit 116.

2.動作
図4は、ウェアラブル端末10の動作を示すフローチャートである。この動作は、ユーザによりメニューを起動する操作が行われたときに開始される。この操作は、音声認識技術を利用した音声操作である。例えば、ユーザにより「メニュー」という言葉が発せられたときに、この動作が開始される。
2. Operation FIG. 4 is a flowchart showing the operation of the wearable terminal 10. This operation is started when an operation for starting the menu is performed by the user. This operation is a voice operation using a voice recognition technology. For example, this operation is started when the word “menu” is issued by the user.

ステップS101において、通知部111は、メニューの数を音で通知する。具体的には、通知部111は、メニューの数を示す効果音をスピーカー16‐1及び16‐2から出力させる。この効果音は、例えば水面に落ちるしずくの音である。この効果音は、メニューの数に応じて変化する。例えば、メニューの数が多いほど、効果音の残響時間が大きくなる。   In step S101, the notification unit 111 notifies the number of menus with a sound. Specifically, the notification unit 111 outputs sound effects indicating the number of menus from the speakers 16-1 and 16-2. This sound effect is, for example, a drop sound falling on the water surface. This sound effect changes according to the number of menus. For example, the larger the number of menus, the longer the reverberation time of the sound effect.

ステップS102において、配置部112は、ユーザの周りにメニューを示す音の発生源となる仮想音源を配置する。図5は、仮想音源の配置の一例を示す図である。図5は、仮想音源の配置を上から見た図である。図5では、ユーザの前方向がy軸方向で示され、ユーザの後ろ方向が−y軸方向で示され、ユーザの右方向がx軸方向で示され、ユーザの左方向が−x軸方向で示されている。   In step S <b> 102, the placement unit 112 places a virtual sound source serving as a sound generation source indicating a menu around the user. FIG. 5 is a diagram illustrating an example of the arrangement of virtual sound sources. FIG. 5 is a view of the placement of the virtual sound source as seen from above. In FIG. 5, the user's front direction is indicated by the y-axis direction, the user's rear direction is indicated by the −y-axis direction, the user's right direction is indicated by the x-axis direction, and the user's left direction is indicated by the −x-axis direction. It is shown in

図5に示す例では、ユーザを中心とする仮想円C1上に、第1〜第8のメニューに対応する仮想音源V1〜V8が配置される。具体的には、仮想音源V1は、ユーザの前方に配置される。仮想音源V2は、ユーザの右前方に配置される。仮想音源V3は、ユーザの右に配置される。仮想音源V4は、ユーザの右後方に配置される。仮想音源V5は、ユーザの後方に配置される。仮想音源V6は、ユーザの左後方に配置される。仮想音源V7は、ユーザの左に配置される。仮想音源V8は、ユーザの左前方に配置される。   In the example shown in FIG. 5, virtual sound sources V1 to V8 corresponding to the first to eighth menus are arranged on a virtual circle C1 centered on the user. Specifically, the virtual sound source V1 is disposed in front of the user. The virtual sound source V2 is disposed on the right front side of the user. The virtual sound source V3 is arranged on the right side of the user. The virtual sound source V4 is arranged on the right rear side of the user. The virtual sound source V5 is disposed behind the user. The virtual sound source V6 is disposed on the left rear side of the user. The virtual sound source V7 is arranged on the left side of the user. The virtual sound source V8 is disposed on the left front side of the user.

なお、「仮想音源を配置する」とは、具体的には仮想音源の位置を決定することをいう。したがって、「仮想音源V1〜V8を配置する」とは、具体的にはユーザを原点としたxy平面において、仮想音源V1〜V8の位置座標を決定することをいう。   Note that “arranging the virtual sound source” specifically means determining the position of the virtual sound source. Therefore, “arranging the virtual sound sources V1 to V8” specifically means determining the position coordinates of the virtual sound sources V1 to V8 on the xy plane with the user as the origin.

図5に示す例において、第1〜第8のメニューのうち、ユーザにより頻繁に選択されるメニューに対応する仮想音源は、ユーザが選択しやすい位置、すなわちユーザの左前方、前方、又は右前方に配置されてもよい。例えば、選択頻度が高い上位3個のメニューに対応する仮想音源が、ユーザの左前方、前方、及び右前方に配置されてもよい。   In the example shown in FIG. 5, the virtual sound source corresponding to the menu frequently selected by the user among the first to eighth menus is easily selected by the user, that is, the user's left front, front, or right front. May be arranged. For example, virtual sound sources corresponding to the top three menus with the highest selection frequency may be arranged on the left front, front, and right front of the user.

図6は、仮想音源の配置の他の例を示す図である。図6に示す例では、仮想円C1の外側に、仮想円C1より半径の大きい仮想円C2が形成される。仮想円C1上には、図5と同様に、第1〜第8のメニュー(第1のメニューの一例)に対応する仮想音源V1〜V8が配置される。仮想円C2上には、第9〜第16のメニュー(第2のメニューの一例)に対応する仮想音源V9〜V16が配置される。具体的には、仮想音源V1及びV9は、いずれもユーザの前方に配置される。ただし、仮想音源V1は、ユーザから距離L1だけ離れた位置に配置され、仮想音源V9は、ユーザから距離L2だけ離れた位置に配置される。仮想音源V2及びV10、仮想音源V3及びV11、仮想音源V4及びV12、仮想音源V5及びV13、仮想音源V6及びV14、仮想音源V7及びV15、及び仮想音源V8及びV16についても、仮想音源V1及びV9と同様の関係を有する。なお、図6に示す例では、仮想音源が二階層で配置されているが、メニューの数が多い場合には、仮想音源が三階層以上の階層で配置されてもよい。   FIG. 6 is a diagram illustrating another example of the arrangement of virtual sound sources. In the example shown in FIG. 6, a virtual circle C2 having a larger radius than the virtual circle C1 is formed outside the virtual circle C1. Similar to FIG. 5, virtual sound sources V1 to V8 corresponding to the first to eighth menus (an example of the first menu) are arranged on the virtual circle C1. On the virtual circle C2, virtual sound sources V9 to V16 corresponding to the ninth to sixteenth menus (an example of the second menu) are arranged. Specifically, the virtual sound sources V1 and V9 are both arranged in front of the user. However, the virtual sound source V1 is arranged at a position away from the user by a distance L1, and the virtual sound source V9 is arranged at a position away from the user by a distance L2. Virtual sound sources V1 and V9, virtual sound sources V3 and V11, virtual sound sources V4 and V12, virtual sound sources V5 and V13, virtual sound sources V6 and V14, virtual sound sources V7 and V15, and virtual sound sources V8 and V16 are also used. Have the same relationship. In the example illustrated in FIG. 6, the virtual sound source is arranged in two layers. However, when the number of menus is large, the virtual sound source may be arranged in three or more layers.

図6に示す例において、仮想音源の配置は、メニューの内容に応じて決定されてもよい。例えば、メインメニューに対応する仮想音源が仮想円C1上に配置され、サブメニューに対応する仮想音源が仮想円C2上に配置されてもよい。他の例として、重要なメニューに対応する仮想音源が仮想円C2上に配置されてもよい。重要なメニューとは、例えば決済処理に関するメニューや、メールやアプリケーションの消去に関するメニューである。他の例として、機能に関するメニューに対応する仮想音源が仮想円C1上に配置され、機能において実行されるコマンドに関するメニューに対応する仮想音源が仮想円C2上に配置されてもよい。   In the example illustrated in FIG. 6, the placement of the virtual sound source may be determined according to the contents of the menu. For example, the virtual sound source corresponding to the main menu may be arranged on the virtual circle C1, and the virtual sound source corresponding to the sub menu may be arranged on the virtual circle C2. As another example, a virtual sound source corresponding to an important menu may be arranged on the virtual circle C2. The important menu is, for example, a menu related to payment processing or a menu related to deletion of mails and applications. As another example, a virtual sound source corresponding to a menu related to a function may be arranged on the virtual circle C1, and a virtual sound source corresponding to a menu related to a command executed in the function may be arranged on the virtual circle C2.

図6に示す例において、仮想音源の配置は、メニューに付された日時に応じて決定されてもよい。日時は、例えばメニューがファイルやデータに関するものである場合には、作成日時や更新日時である。例えば、1日、1週間、1ヶ月等の所定期間内の日付が付されたメニューに対応する仮想音源が仮想円C1上に配置されてもよい。また、それ以外の日付が付されたメニューに対応する仮想音源が仮想円C2上に配置されてもよい。   In the example illustrated in FIG. 6, the placement of the virtual sound source may be determined according to the date and time attached to the menu. The date / time is, for example, a creation date / time or an update date / time when the menu relates to a file or data. For example, a virtual sound source corresponding to a menu with a date within a predetermined period such as one day, one week, or one month may be arranged on the virtual circle C1. In addition, virtual sound sources corresponding to menus with other dates may be arranged on the virtual circle C2.

図6に示す例において、仮想音源の配置は、メニューの選択頻度に応じて決定されてもよい。例えば、選択頻度が高い上位8個のメニューに対応する仮想音源が仮想円C1上に配置されてもよい。また、それ以外の選択頻度のメニューに対応する仮想音源が仮想円C2上に配置されてもよい。   In the example illustrated in FIG. 6, the placement of the virtual sound source may be determined according to the menu selection frequency. For example, virtual sound sources corresponding to the top eight menus with the highest selection frequency may be arranged on the virtual circle C1. Further, virtual sound sources corresponding to other selection frequency menus may be arranged on the virtual circle C2.

図6に示す例において、仮想音源の配置は、メニューが属するカテゴリーに応じて決定されてもよい。例えば、「よく使う機能」というカテゴリーに属するメニューに対応する仮想音源が仮想円C1上に配置されてもよい。また、「基本機能」というカテゴリーに属するメニューに対応する仮想音源が仮想円C2上に配置されてもよい。また、仮想音源が三階層で配置される場合には、「コミュニケーションツール」というカテゴリーに属するメニューに対応する仮想音源が三重目の仮想円上に配置されてもよい。仮想音源が四階層で配置される場合には、「ダウンロードしたアプリケーション」というカテゴリーに属するメニューに対応する仮想音源が四重目の仮想円上に配置されてもよい。   In the example illustrated in FIG. 6, the placement of the virtual sound source may be determined according to the category to which the menu belongs. For example, a virtual sound source corresponding to a menu belonging to the category “frequently used functions” may be arranged on the virtual circle C1. A virtual sound source corresponding to a menu belonging to the category “basic function” may be arranged on the virtual circle C2. When virtual sound sources are arranged in three layers, virtual sound sources corresponding to a menu belonging to the category “communication tool” may be arranged on the triple virtual circle. When virtual sound sources are arranged in four layers, virtual sound sources corresponding to a menu belonging to the category “downloaded application” may be arranged on the fourth virtual circle.

図7は、仮想音源の配置の他の例を示す図である。図7に示す例では、仮想円C1上においてユーザの前後左右には、第1〜第4のメニューに対応する仮想音源V1〜V4が配置される。また、仮想円C2上においてユーザの右前方、右後方、左前方、左後方には、第5〜第8のメニューに対応する仮想音源V5〜V8が配置される。このように、1の仮想円上に配置された仮想音源は、この仮想円の内側に配置された仮想音源とユーザから見て同じ方向に配置されないような位置に配置されてもよい。   FIG. 7 is a diagram illustrating another example of the arrangement of virtual sound sources. In the example shown in FIG. 7, virtual sound sources V1 to V4 corresponding to the first to fourth menus are arranged on the virtual circle C1 on the front, rear, left, and right sides of the user. In addition, virtual sound sources V5 to V8 corresponding to the fifth to eighth menus are arranged on the virtual circle C2 on the right front, right rear, left front, and left rear of the user. In this way, the virtual sound source arranged on one virtual circle may be arranged at a position that is not arranged in the same direction as the virtual sound source arranged inside the virtual circle when viewed from the user.

ステップS103において、音声処理部113は、ステップS102で配置された仮想音源からメニューの音が聞こえるように、この音を示す音声信号に音声処理を施す。この音声信号は、予め記憶部12に記憶される。メニューの音は、例えばメニューの名称を読み上げる音声である。他の例として、メニューの音は、メニューを想起させる音であってもよい。例えば、設定に関するメニューの音には、カチっという音が用いられてもよい。音楽に関するメニューの音には、ピアノやラッパ等の楽器の音や音楽の一部が用いられてもよい。メールに関するメニューの音には、手紙がポストに入った時の音が用いられてもよい。   In step S103, the sound processing unit 113 performs sound processing on the sound signal indicating the sound so that the sound of the menu can be heard from the virtual sound source arranged in step S102. This audio signal is stored in the storage unit 12 in advance. The menu sound is, for example, a voice that reads out the name of the menu. As another example, the sound of the menu may be a sound reminiscent of the menu. For example, a clicking sound may be used as a menu sound related to the setting. For sounds of menus related to music, sounds of instruments such as a piano and a trumpet and a part of music may be used. The sound when the letter enters the post may be used as the sound of the menu related to the mail.

人間は、左右の耳に伝達する音の大きさの差、時間差、周波数特性の差により、音の到来方向及び距離を認識している。そこで、音声処理では、仮想音源の方向及び位置に応じて、左右のスピーカー16‐1及び16‐2に供給される音声信号に、音圧レベル差、時間差、周波数特性の差を付加する。   Humans recognize the direction and distance of sound arrival based on the difference in the volume of sound transmitted to the left and right ears, the difference in time, and the difference in frequency characteristics. Therefore, in the audio processing, a sound pressure level difference, a time difference, and a frequency characteristic difference are added to the audio signals supplied to the left and right speakers 16-1 and 16-2 according to the direction and position of the virtual sound source.

図5に示す例では、仮想音源V1は、ユーザの前方に配置されている。したがって、仮想音源V1に対応する第1のメニューの音声信号には、第1のメニューの音がユーザの前方から聞こえるように音声処理が施される。また、仮想音源V2は、ユーザの右前方に配置されている。したがって、仮想音源V2に対応する第2のメニューの音声信号には、第2のメニューの音がユーザの右前方から聞こえるように音声処理が施される。仮想音源V3〜V8に対応する第3〜第8のメニューの音声信号にも、同様に音声処理が施される。   In the example shown in FIG. 5, the virtual sound source V1 is arranged in front of the user. Therefore, the audio signal of the first menu corresponding to the virtual sound source V1 is subjected to audio processing so that the sound of the first menu can be heard from the front of the user. Further, the virtual sound source V2 is arranged on the right front side of the user. Therefore, the audio signal of the second menu corresponding to the virtual sound source V2 is subjected to audio processing so that the sound of the second menu can be heard from the front right of the user. Audio processing is similarly performed on the audio signals of the third to eighth menus corresponding to the virtual sound sources V3 to V8.

図6に示す例では、仮想音源V1及びV9はいずれもユーザの前方に配置されている。したがって、仮想音源V1及びV9に対応する第1のメニューの音声信号及び第9のメニューの音声信号には、いずれも第1のメニューの音及び第9のメニューの音がユーザの前方から聞こえるように音声処理が施される。ただし、仮想音源V1はユーザから距離L1だけ離れた位置にあり、仮想音源V9はユーザから距離L2だけ離れた位置にある。そのため、第1のメニューの音声信号には、さらに第1のメニューの音が距離L1だけ離れた位置から聞こえるように音声処理が施される。第9のメニューの音声信号には、さらに第9のメニューの音が距離L2だけ離れた位置から聞こえるように音声処理が施される。つまり、第1のメニューの音声信号には、さらに距離L1に応じて音声信号が施され、第9のメニューの音声信号には、さらに距離L2に応じて音声処理が施される。仮想音源V2〜V8に対応する第2〜第8のメニューの音声信号及び仮想音源V10〜V16に対応する第10〜第16のメニューの音声信号にも、同様に音声処理が施される。   In the example shown in FIG. 6, the virtual sound sources V1 and V9 are both arranged in front of the user. Accordingly, the first menu sound signal and the ninth menu sound signal corresponding to the virtual sound sources V1 and V9 both allow the first menu sound and the ninth menu sound to be heard from the front of the user. Is processed. However, the virtual sound source V1 is at a position away from the user by a distance L1, and the virtual sound source V9 is at a position away from the user by a distance L2. Therefore, the audio signal of the first menu is further subjected to audio processing so that the sound of the first menu can be heard from a position separated by the distance L1. The ninth menu sound signal is further subjected to sound processing so that the sound of the ninth menu can be heard from a position separated by a distance L2. That is, the audio signal of the first menu is further subjected to the audio signal according to the distance L1, and the audio signal of the ninth menu is further subjected to the audio processing according to the distance L2. Audio processing is similarly performed on the audio signals of the second to eighth menus corresponding to the virtual sound sources V2 to V8 and the audio signals of the tenth to sixteenth menus corresponding to the virtual sound sources V10 to V16.

これにより、例えば第9〜第16のメニューの音声信号の音圧レベルは、第1〜第8のメニューの音声信号の音圧レベルより小さくなる。また、仮想音源V9〜V16に対応する第9〜第16のメニューの音声信号には、エコーのエフェクトが付加されてもよい。他の例として、仮想音源が三階層以上の階層で配置される場合には、中間の階層に配置された仮想音源に対応するメニューの音声信号に、所定のエフェクトが付加されてもよい。   Thereby, for example, the sound pressure levels of the sound signals of the ninth to sixteenth menus are smaller than the sound pressure levels of the sound signals of the first to eighth menus. An echo effect may be added to the audio signals of the ninth to sixteenth menus corresponding to the virtual sound sources V9 to V16. As another example, when the virtual sound source is arranged in three or more layers, a predetermined effect may be added to the audio signal of the menu corresponding to the virtual sound source arranged in the intermediate layer.

ステップS104において、出力制御部114は、メニューの読み上げ処理を行う。具体的には、出力制御部114は、ステップS103で音声処理が施された音声信号をスピーカー16‐1及び16‐2に供給する。このとき、右耳用の音声信号はスピーカー16‐1に供給され、左耳用の音声信号はスピーカー16‐2に供給される。これにより、スピーカー16‐1及び16‐2からメニューの音が出力される。ユーザは、メニューの音を聞くことにより、このメニューに対応する仮想音源の位置を認識する。また、読み上げ処理では、メニューの音が所定の順序で出力される。   In step S104, the output control unit 114 performs a menu reading process. Specifically, the output control unit 114 supplies the audio signals subjected to the audio processing in step S103 to the speakers 16-1 and 16-2. At this time, the audio signal for the right ear is supplied to the speaker 16-1, and the audio signal for the left ear is supplied to the speaker 16-2. As a result, menu sounds are output from the speakers 16-1 and 16-2. The user recognizes the position of the virtual sound source corresponding to the menu by listening to the sound of the menu. In the reading process, menu sounds are output in a predetermined order.

図5に示す例では、ユーザの前方に配置された仮想音源V1を基準として時計回りの方向に見ると、仮想音源V1〜V8の並び順は、仮想音源V1、V2、V3、V4、V5、V6、V7、及びV8という順序になる。この場合、例えば最初に仮想音源V1に対応する第1のメニューの音が出力され、二番目に仮想音源V2に対応する第2のメニューの音が出力されるというように、仮想音源V1〜V8に対応する第1〜第8のメニューの音が時計回りの方向に応じた順序で出力されてもよい。   In the example shown in FIG. 5, when viewed in the clockwise direction with reference to the virtual sound source V1 arranged in front of the user, the arrangement order of the virtual sound sources V1 to V8 is the virtual sound sources V1, V2, V3, V4, V5, The order is V6, V7, and V8. In this case, for example, the sound of the first menu corresponding to the virtual sound source V1 is output first, and the sound of the second menu corresponding to the virtual sound source V2 is output second, so that the virtual sound sources V1 to V8 are output. The sounds of the first to eighth menus corresponding to may be output in the order corresponding to the clockwise direction.

図5に示す例において、出力制御部114は、第1〜第8のメニューを示す第1の種別の音(第1の音の一例)を順番にスピーカー16‐1及び16‐2から出力させた後、第1〜第8のメニューを示す第2の種別の音(第2の音の一例)を順番にスピーカー16‐1及び16‐2から出力させてもよい。第1の種別の音は、例えばメニューの名称を読み上げる音声である。第2の種別の音は、例えばメニューの名称の先頭の文字を読み上げる音声である。例えば、第1のメニューの名称が「音楽」であるものとする。この場合、第1のメニューの音が1回目に出力されるときは、「おんがく」という音声が出力され、第1のメニューの音が2回目に出力されるときは、「お」という音声が出力されてもよい。つまり、この例では、メニューの音は、2回目に出力される場合には、所定のルールに従って変化する。他の例として、第1の種別の音は、メニューの名称を読み上げる音声であり、第2の種別の音は、メニューを想起させる効果音であってもよい。   In the example illustrated in FIG. 5, the output control unit 114 causes the speakers 16-1 and 16-2 to sequentially output the first type of sound (an example of the first sound) indicating the first to eighth menus. After that, the second type sound (an example of the second sound) indicating the first to eighth menus may be output from the speakers 16-1 and 16-2 in order. The first type of sound is, for example, a voice that reads a menu name. The second type of sound is, for example, a voice that reads out the first character of the menu name. For example, it is assumed that the name of the first menu is “music”. In this case, when the sound of the first menu is output for the first time, the sound “ongaku” is output, and when the sound of the first menu is output for the second time, the sound “o” is output. It may be output. That is, in this example, the menu sound changes according to a predetermined rule when it is output for the second time. As another example, the sound of the first type may be a sound that reads out the name of the menu, and the sound of the second type may be a sound effect that reminds the menu.

また、第2の種別の音の出力は、第1の種別の音が全て出力された後、すぐに開始されてもよいし、ユーザの動作に応じて開始されてもよい。この動作は、例えば頭を回す動作であり、角速度センサ182により測定された角速度に基づいて検出部115により検出される。また、ユーザの動作により、第2の種別の音を出力する順序が変更されてもよい。例えばユーザが頭を反時計周りに回す動作を行った場合には、第1〜第8のメニューを示す第2の種別の音が反時計回りの方向に応じた順序で出力されてもよい。   The output of the second type of sound may be started immediately after all of the first type of sound is output, or may be started in accordance with the user's operation. This operation is, for example, an operation of turning the head, and is detected by the detection unit 115 based on the angular velocity measured by the angular velocity sensor 182. Further, the order of outputting the second type of sound may be changed by the user's operation. For example, when the user performs an operation of turning his head counterclockwise, the second type of sound indicating the first to eighth menus may be output in an order corresponding to the counterclockwise direction.

図5に示す例では、上述したように、選択頻度が高い上位3個のメニューに対応する仮想音源が、ユーザの左前方、前方、及び右前方に配置される場合がある。この場合、出力制御部114は、仮想音源V1〜V8に対応する第1〜第8のメニューの音を順番にスピーカー16‐1及び16‐2から出力させる処理を所定回数繰り返してもよい。その後、出力制御部114は、ユーザの左前方、前方、右前方に配置された仮想音源V8、V1、及びV2に対応する第8、第1、及び第2のメニューの音だけを順番にスピーカー16‐1及び16‐2から出力させてもよい。   In the example shown in FIG. 5, as described above, virtual sound sources corresponding to the top three menus with the highest selection frequency may be arranged on the left front, front, and right front of the user. In this case, the output control unit 114 may repeat the process of sequentially outputting the sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 from the speakers 16-1 and 16-2 a predetermined number of times. Thereafter, the output control unit 114 sequentially outputs only the sounds of the eighth, first, and second menus corresponding to the virtual sound sources V8, V1, and V2 arranged at the left front, front, and right front of the user. You may make it output from 16-1 and 16-2.

図5に示す例では、上述したように、メニューの名称を読み上げる音声がメニューの音として用いられる場合がある。この場合、出力制御部114は、メニューの名称を読み上げる音声から名称の先頭の文字を読み上げる音声を抽出し、抽出された音声を順番にスピーカー16‐1及び16‐2から出力させてもよい。例えば、第1のメニューの名称が「音楽」である場合には、「おんがく」という音声から「お」という音声(部分音声の一例)が抽出され、第1のメニューの音が出力されるときに、「お」という音声が出力されてもよい。   In the example shown in FIG. 5, as described above, the voice that reads out the name of the menu may be used as the sound of the menu. In this case, the output control unit 114 may extract the voice that reads the first character of the name from the voice that reads the name of the menu, and output the extracted voice from the speakers 16-1 and 16-2 in order. For example, when the name of the first menu is “music”, the voice “o” (an example of a partial voice) is extracted from the voice “ongaku” and the sound of the first menu is output. In addition, a voice “O” may be output.

この場合、出力制御部114は、ユーザにより所定の操作が行われたときは、メニューの名称を全て読み上げる音声を順番にスピーカー16‐1及び16‐2から出力させてもよい。この所定の操作は、例えば頭を軽く傾ける動作や、よくわからないということを示すジェスチャー、例えば頭を横に傾けるという動作により行われる。これらの動作は、例えば角速度センサ182により測定された角速度に基づいて検出部115により検出される。他の例として、所定の操作は、マイクロフォン15に息を吹きかける操作であってもよい。例えば、第1のメニューの音として「お」という音声が出力されたときに、ユーザが頭を横に傾ける動作が行われた場合には、第1のメニューの名称を読み上げる「おんがく」という音声が出力される。つまり、この例では、メニューの音は、ユーザの操作に応じて、所定のルールに従って変化する。   In this case, when a predetermined operation is performed by the user, the output control unit 114 may cause the speakers 16-1 and 16-2 to sequentially output a sound that reads out all menu names. This predetermined operation is performed by, for example, an operation of tilting the head lightly or a gesture indicating that the head is not well understood, for example, an operation of tilting the head sideways. These operations are detected by the detection unit 115 based on the angular velocity measured by the angular velocity sensor 182, for example. As another example, the predetermined operation may be an operation of blowing on the microphone 15. For example, when a sound of “O” is output as the sound of the first menu and the user performs an operation of tilting his / her head sideways, the sound of “Ongaku” that reads the name of the first menu is read. Is output. That is, in this example, the sound of the menu changes according to a predetermined rule according to the user's operation.

図6に示す例では、仮想音源V1〜V8に対応する第1〜第8のメニューの音が時計回りの方向に応じた順序で出力された後、仮想音源V9〜V16に対応する第9〜第16のメニューの音が時計回りの方向に応じた順序で出力される。上述したように、第9〜第16のメニューの音声信号には、第1〜第8のメニューの音声信号とは異なる音声処理が施される。そのため、第1階層に配置された仮想音源V1〜V8に対応する第1〜第8のメニューの音が出力される場合と、第2階層に配置された仮想音源V9〜V16に対応する第9〜第16のメニューの音が出力される場合とでは、スピーカー16‐1及び16‐2から出力されるメニューの音の大きさや音色が所定のルールに従って変化する。   In the example shown in FIG. 6, after the sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 are output in the order according to the clockwise direction, the ninth to ninth sounds corresponding to the virtual sound sources V9 to V16 are output. The sound of the 16th menu is output in the order corresponding to the clockwise direction. As described above, the voice signals of the ninth to sixteenth menus are subjected to voice processing different from the voice signals of the first to eighth menus. Therefore, when the sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 arranged in the first hierarchy are output, and the ninth corresponding to the virtual sound sources V9 to V16 arranged in the second hierarchy. When the sound of the sixteenth menu is output, the size and tone color of the menu sound output from the speakers 16-1 and 16-2 changes according to a predetermined rule.

図6に示す例において、出力制御部114は、ユーザの動作により、出力対象となるメニューの音を変更してもよい。この動作は、例えば頭を傾ける動作であり、角速度センサ182により測定された角速度に基づいて検出部115により検出される。例えば、ユーザが頭を第1の角度だけ傾けた場合には、仮想円C1上に配置された仮想音源V1〜V8に対応する第1〜第8のメニューの音が順番に出力されてもよい。ユーザが頭を第1の角度より大きい第2の角度だけ傾けた場合には、仮想円C2上に配置された仮想音源V9〜V16に対応する第9〜第16のメニューの音が順番に出力されてもよい。   In the example illustrated in FIG. 6, the output control unit 114 may change the sound of the menu to be output by the user's operation. This operation is, for example, an operation of tilting the head, and is detected by the detection unit 115 based on the angular velocity measured by the angular velocity sensor 182. For example, when the user tilts his / her head by the first angle, the sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 arranged on the virtual circle C1 may be output in order. . When the user tilts the head by a second angle larger than the first angle, the sounds of the ninth to sixteenth menus corresponding to the virtual sound sources V9 to V16 arranged on the virtual circle C2 are output in order. May be.

他の例として、ユーザが頭を第1の角度だけ傾けた場合には、仮想円C1上に配置された仮想音源V2〜V4に対応する第2〜第4のメニューの音が順番に出力されてもよい。また、ユーザが頭を第1の角度より大きい第2の角度だけ傾けた場合には、仮想円C1上に配置された仮想音源V2〜V6に対応する第2〜第6のメニューの音が順番に出力されてもよい。   As another example, when the user tilts his / her head by the first angle, the sounds of the second to fourth menus corresponding to the virtual sound sources V2 to V4 arranged on the virtual circle C1 are sequentially output. May be. In addition, when the user tilts his / her head by a second angle larger than the first angle, the sounds of the second to sixth menus corresponding to the virtual sound sources V2 to V6 arranged on the virtual circle C1 are in turn. May be output.

図6に示す例では、上述したように、仮想音源の配置がメニューのカテゴリーに応じて決定される場合がある。この場合、メニューの音の他に、カテゴリーの名称を読み上げる音声が出力されてもよい。例えば、仮想円C1上に配置された仮想音源V1〜V8が「よく使う機能」というカテゴリーに属するメニューに対応するものである場合には、このカテゴリーの名称である「よく使う機能」という音声が出力された後、仮想音源V1〜V8に対応する第1〜第8のメニューの音が出力されてもよい。また、仮想円C2上に配置された仮想音源V9〜V16が「基本機能」というカテゴリーに属するメニューに対応するものである場合には、このカテゴリーの名称である「基本機能」という音声が出力された後、仮想音源V9〜V16に対応する第9〜第16のメニューの音が出力されてもよい。   In the example shown in FIG. 6, as described above, the placement of the virtual sound source may be determined according to the category of the menu. In this case, in addition to the menu sound, a voice that reads out the category name may be output. For example, when the virtual sound sources V1 to V8 arranged on the virtual circle C1 correspond to a menu belonging to the category “Frequently Used Functions”, the voice “Frequently Used Functions” which is the name of this category is generated. After the output, sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 may be output. When the virtual sound sources V9 to V16 arranged on the virtual circle C2 correspond to a menu belonging to the category “basic function”, the voice “basic function” which is the name of this category is output. After that, the sounds of the ninth to sixteenth menus corresponding to the virtual sound sources V9 to V16 may be output.

ステップS105において、選択部116は、ユーザの動作に応じてメニューを選択する。図5に示す例では、仮想音源V1はユーザの前方に配置されているため、仮想音源V1に対応する第1のメニューの音は、ユーザの前方から聞こえる。例えば、仮想音源V1に対応する第1のメニューを選択する場合、ユーザは、頭を前方に傾ける動作(第1の動作の一例)を行う。この場合、検出部115は、例えば角速度センサ182により測定された角速度に基づいて、この動作を検出する。検出部115によりこの動作が検出されると、選択部116は、ユーザの前方に配置された仮想音源V1に対応する第1のメニューを選択する。また、このとき、メニューの選択が実行されたことを通知する音がスピーカー16‐1及び16‐2から出力されてもよい。   In step S105, the selection unit 116 selects a menu according to the user's operation. In the example shown in FIG. 5, since the virtual sound source V1 is arranged in front of the user, the sound of the first menu corresponding to the virtual sound source V1 can be heard from the front of the user. For example, when selecting the first menu corresponding to the virtual sound source V1, the user performs an operation of tilting the head forward (an example of the first operation). In this case, the detection unit 115 detects this operation based on the angular velocity measured by the angular velocity sensor 182, for example. When this operation is detected by the detection unit 115, the selection unit 116 selects the first menu corresponding to the virtual sound source V1 arranged in front of the user. At this time, a sound notifying that the menu selection has been executed may be output from the speakers 16-1 and 16-2.

図6に示す例では、仮想音源V1及び仮想音源V9はいずれもユーザの前方に配置されているが、仮想音源V9は仮想音源V1より遠くに配置されている。この場合、仮想音源V1に対応する第1のメニュー音は、ユーザの前方において近くから聞こえる。一方、仮想音源V9に対応する第9のメニュー音は、ユーザの前方において遠くから聞こえる。例えば、仮想音源V9に対応する第9のメニュー(第2のメニューの一例)を選択する場合、ユーザは、まず仮想音源V1を頭で下から上にはじくような動作(第2の動作の一例)、例えば頭を前方に傾けた後、頭を振り上げるような動作を行う。この場合、検出部115は、角速度センサ182により測定された角速度に基づいて、この動作を検出する。検出部115によりこの動作が検出されると、仮想音源V1と仮想音源V9の位置が入れ替えられる。この後、ユーザは、頭を前方に傾ける動作を行う。この場合、検出部115は、角速度センサ182により測定された角速度に基づいて、この動作を検出する。検出部115によりこの動作が検出されると、選択部116は、ユーザの前方において最も近くに配置された仮想音源V9に対応する第9のメニューを選択する。   In the example shown in FIG. 6, the virtual sound source V1 and the virtual sound source V9 are both arranged in front of the user, but the virtual sound source V9 is arranged farther than the virtual sound source V1. In this case, the first menu sound corresponding to the virtual sound source V1 can be heard from near in front of the user. On the other hand, the ninth menu sound corresponding to the virtual sound source V9 can be heard from a distance in front of the user. For example, when selecting the ninth menu (an example of the second menu) corresponding to the virtual sound source V9, the user first flicks the virtual sound source V1 from the bottom to the top (an example of the second operation). ) For example, after tilting the head forward, the head is swung up. In this case, the detection unit 115 detects this operation based on the angular velocity measured by the angular velocity sensor 182. When this operation is detected by the detection unit 115, the positions of the virtual sound source V1 and the virtual sound source V9 are switched. Thereafter, the user performs an operation of tilting his / her head forward. In this case, the detection unit 115 detects this operation based on the angular velocity measured by the angular velocity sensor 182. When this operation is detected by the detection unit 115, the selection unit 116 selects the ninth menu corresponding to the virtual sound source V9 arranged closest to the front of the user.

ステップS106において、実行部117は、ステップS105で選択されたメニューに対応する処理を実行する。   In step S106, the execution unit 117 executes processing corresponding to the menu selected in step S105.

本実施形態によれば、メニューを示す音が順番に出力されるため、ユーザは、全てのメニューを効率よく認識することができる。また、本実施形態によれば、1回目はメニューを示す第1の種別の音が出力され、2回目はメニューを示す第2の種別の音が出力されてもよい。これにより、同一の音が繰り返し出力されることによる煩わしさが防止される。また、本実施形態によれば、メニューの名称の先頭の文字を読み上げる音声が出力され、ユーザにより所定の操作が行われた場合には、メニューの名称を全て読み上げる音声が出力されてもよい。これにより、メニューの名称の先頭の文字だけでメニューを認識できるユーザは、全てのメニューを効率よく認識することができる。また、メニューの名称をあまり認識していないユーザは、所定の操作を行うことにより、メニューを容易に認識することができる。   According to this embodiment, since the sound indicating the menu is output in order, the user can efficiently recognize all the menus. Also, according to the present embodiment, the first type of sound indicating a menu may be output the first time, and the second type of sound indicating a menu may be output the second time. Thereby, the troublesomeness by repeatedly outputting the same sound is prevented. Further, according to the present embodiment, a sound for reading out the first character of the menu name may be output, and a sound for reading out all the names of the menu may be output when a predetermined operation is performed by the user. As a result, a user who can recognize the menu only with the first character of the menu name can efficiently recognize all the menus. Further, a user who does not recognize the name of the menu so much can easily recognize the menu by performing a predetermined operation.

また、図6に示す例では、仮想音源V1〜V8に対応する第1〜第8のメニューの音は近くから聞こえ、仮想音源V9〜V16に対応する第9〜第16のメニューの音は遠くから聞こえる。そのため、ユーザは、同一の方向に複数の仮想音源が配置されている場合にも、これらの複数の仮想音源の位置を正確に認識することができる。これにより、ユーザは、所望のメニューを確実に選択することができる。   In addition, in the example shown in FIG. 6, the sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 are heard from near, and the sounds of the ninth to sixteenth menus corresponding to the virtual sound sources V9 to V16 are far away. I can hear it. Therefore, even when a plurality of virtual sound sources are arranged in the same direction, the user can accurately recognize the positions of the plurality of virtual sound sources. Thereby, the user can select a desired menu reliably.

3.変形例
本発明は、上述した実施形態に限定されない。例えば、実施形態を以下のように変形してもよい。また、以下の変形例を組み合わせてもよい。
3. The present invention is not limited to the above-described embodiment. For example, the embodiment may be modified as follows. Further, the following modifications may be combined.

(1)メニューによって、メニューを選択する動作の種類が異なっていてもよい。例えば、第1のメニューは、通常押しの動作により選択され、第2のメニューは、長押しの動作により選択されてもよい。通常押しの動作は、例えば頭を傾けるという動作である。長押しの動作は、例えば頭を傾けた状態を一定時間以上継続するという動作である。この変形例では、音声処理部113は、第2のメニューの音声信号(第2の音声信号の一例)には、第1のメニューの音声信号(第1の音声信号の一例)とは異なるエフェクトを付加する。そのため、本変形例では、第1のメニューの音(第1の音の一例)が出力される場合と第2のメニューの音(第2の音の一例)を出力される場合とでは、スピーカー16‐1及び16‐2から出力されるメニューの音色が所定のルールに従って変化する。これにより、ユーザは、第2のメニューを選択する際には、長押しの動作をする必要があることが分かる。したがって、例えば第2のメニューを選択する場合には、仮想音源V2が配置された右前方の方向に頭を傾けた状態を一定時間継続する。選択部116は、検出部115によりこの動作が検出されると、第2のメニューを選択する。 (1) The type of operation for selecting a menu may be different depending on the menu. For example, the first menu may be selected by a normal pressing operation, and the second menu may be selected by a long pressing operation. The normal pressing operation is, for example, an operation of tilting the head. The long pressing operation is, for example, an operation in which the head is tilted for a predetermined time or longer. In this modification, the audio processing unit 113 has an effect different from the audio signal of the first menu (an example of the first audio signal) for the audio signal of the second menu (an example of the second audio signal). Is added. Therefore, in this modification, the speaker is used when the sound of the first menu (an example of the first sound) is output and when the sound of the second menu (an example of the second sound) is output. The timbre of the menu output from 16-1 and 16-2 changes according to a predetermined rule. Accordingly, it is understood that the user needs to perform a long press operation when selecting the second menu. Therefore, for example, when selecting the second menu, the state where the head is tilted in the right front direction where the virtual sound source V2 is arranged is continued for a certain period of time. When this operation is detected by the detection unit 115, the selection unit 116 selects the second menu.

(2)ユーザの動作により、新たなメニューが展開されてもよい。図8は、変形例に係る仮想音源の配置の一例を示す図である。例えば、ユーザが第2のメニューに対応する仮想音源V2の方に移動する(所定の動作の一例)と、配置部112は、仮想音源V1〜V8を削除した後、第2のメニューに関係する新たな8個のメニューに対応する仮想音源V17〜V24をユーザの周りに配置する。この移動は、例えば加速度センサ181により測定された加速度に基づいて検出部115により検出される。新たなメニューは、例えば第2のメニューのサブメニューであってもよい。他の例として、第2のメニューがアプリケーションに関するものである場合には、新たなメニューはこのアプリケーションに関連する他のアプリケーション、例えば同一のカテゴリーに属する他のアプリケーションに関するものであってもよい。仮想音源V17〜V24が新たに配置されると、再び上述したステップS103〜S105の処理が行われる。この場合、ステップS103では、新たに配置された仮想音源V17〜V24に対応する第7〜第24のメニューの音が順番に出力される。つまり、本変形例では、新たなメニューが展開される前と後とでは、スピーカー16‐1及び16‐2から出力されるメニューの音が所定のルールに従って変化する。 (2) A new menu may be developed by the user's operation. FIG. 8 is a diagram illustrating an example of the arrangement of virtual sound sources according to the modification. For example, when the user moves toward the virtual sound source V2 corresponding to the second menu (an example of a predetermined operation), the placement unit 112 is related to the second menu after deleting the virtual sound sources V1 to V8. Virtual sound sources V17 to V24 corresponding to the new eight menus are arranged around the user. This movement is detected by the detection unit 115 based on the acceleration measured by the acceleration sensor 181, for example. The new menu may be, for example, a submenu of the second menu. As another example, if the second menu is related to an application, the new menu may be related to other applications related to this application, for example other applications belonging to the same category. When the virtual sound sources V17 to V24 are newly arranged, the processes of steps S103 to S105 described above are performed again. In this case, in step S103, sounds in the seventh to 24th menus corresponding to the newly arranged virtual sound sources V17 to V24 are output in order. That is, in this modification, the sound of the menu output from the speakers 16-1 and 16-2 changes according to a predetermined rule before and after the new menu is developed.

なお、新たなメニューに対応する仮想音源を配置させる動作は、ユーザの移動に限定されない。例えば、この動作は、ユーザが頭を傾ける動作であってもよい。この場合、頭を傾ける角度により、メニューを選択する動作と新たなメニューに対応する仮想音源を配置させる動作とが区別されてもよい。例えば、ユーザが仮想音源V2の方に頭を浅く傾けた場合には、本変形例で説明したように、第2のメニューに関係する新たなメニューが展開されてもよい。一方、ユーザが仮想音源V2の方に頭を深く傾けた場合には、第2のメニューが選択されてもよい。   The operation of arranging the virtual sound source corresponding to the new menu is not limited to the movement of the user. For example, this operation may be an operation in which the user tilts his / her head. In this case, the operation of selecting a menu and the operation of arranging a virtual sound source corresponding to a new menu may be distinguished depending on the angle at which the head is tilted. For example, when the user tilts his / her head toward the virtual sound source V2, a new menu related to the second menu may be developed as described in the present modification. On the other hand, when the user tilts his / her head toward the virtual sound source V2, the second menu may be selected.

(3)ユーザの動作により、同一の方向に配置された複数の仮想音源に対応するメニューの音が順番に出力されてもよい。これは、特に互いに関連する複数のメニューに対応する複数の仮想音源が同一の方向に配置されている場合において、これらの関連するメニューを効率よく認識するのに有効である。 (3) Menu sounds corresponding to a plurality of virtual sound sources arranged in the same direction may be output in order by a user operation. This is effective for efficiently recognizing these related menus, particularly when a plurality of virtual sound sources corresponding to a plurality of menus related to each other are arranged in the same direction.

図9は、本変形例に係る仮想音源の配置の一例を示す図である。図9に示す例では、ユーザを中心とする仮想円C1〜C4が形成される。仮想円C1は最も半径が小さい。仮想円C2は二番目に半径が小さい。仮想円C3は三番目に半径が小さい。仮想円C4は最も半径が大きい。仮想円C1には、図5に示す例と同様に、第1〜第8のメニューに対応する仮想音源V1〜V8が配置される。仮想円C2には、第9のメニューに対応する仮想音源V9が配置される。仮想円C3には、第10のメニューに対応する仮想音源V10が配置される。仮想円C4には、第11のメニューに対応する仮想音源V11が配置される。仮想音源V2k及びV9〜V11は、いずれもユーザの右前方(第1の方向の一例)にある。   FIG. 9 is a diagram illustrating an example of the arrangement of virtual sound sources according to the present modification. In the example shown in FIG. 9, virtual circles C1 to C4 centering on the user are formed. The virtual circle C1 has the smallest radius. The virtual circle C2 has the second smallest radius. The virtual circle C3 has the third smallest radius. The virtual circle C4 has the largest radius. Similar to the example shown in FIG. 5, virtual sound sources V1 to V8 corresponding to the first to eighth menus are arranged in the virtual circle C1. A virtual sound source V9 corresponding to the ninth menu is arranged in the virtual circle C2. A virtual sound source V10 corresponding to the tenth menu is arranged in the virtual circle C3. A virtual sound source V11 corresponding to the eleventh menu is arranged in the virtual circle C4. The virtual sound sources V2k and V9 to V11 are all in the right front of the user (an example of the first direction).

図9に示す例では、実施形態で説明したように、仮想音源V1〜V8に対応する第1〜第8のメニューの音が時計回りの方向に応じた順序で出力される。ここで、仮想音源V2に対応する第2のメニューの音(第2の音の一例)が出力されたときに、ユーザが仮想音源V2の奥を覗きこむような動作(所定の動作の一例)、例えば仮想音源V2を中心として左右のいずれかに頭の位置をずらす動作を行った場合には、出力制御部114は、仮想円C1上に配置された仮想音源V1〜V8に対応するメニューの音の出力を停止する。この動作は、例えば角速度センサ182により測定された角速度に基づいて検出部115により検出される。続いて、出力制御部114は、仮想音源V2と同じ方向に配置された仮想音源V9〜V11に対応する第9〜第11のメニューの音をユーザからの距離に応じた順序で出力する。   In the example shown in FIG. 9, as described in the embodiment, the sounds of the first to eighth menus corresponding to the virtual sound sources V1 to V8 are output in the order corresponding to the clockwise direction. Here, when the sound of the second menu corresponding to the virtual sound source V2 (an example of the second sound) is output, an operation in which the user looks into the back of the virtual sound source V2 (an example of a predetermined operation) For example, when the operation of shifting the head position to the left or right with the virtual sound source V2 as the center is performed, the output control unit 114 displays the menu corresponding to the virtual sound sources V1 to V8 arranged on the virtual circle C1. Stop sound output. This operation is detected by the detection unit 115 based on the angular velocity measured by the angular velocity sensor 182, for example. Subsequently, the output control unit 114 outputs the sounds of the ninth to eleventh menus corresponding to the virtual sound sources V9 to V11 arranged in the same direction as the virtual sound source V2 in the order corresponding to the distance from the user.

図9に示す例では、仮想音源V9は、ユーザから距離L2だけ離れた位置に配置されている。仮想音源V10は、ユーザから距離L3だけ離れた位置に配置されている。仮想音源V11は、ユーザから距離L4だけ離れた位置に配置されている。この場合、第2のメニューの音に続いて、仮想音源V9に対応する第9のメニューの音が出力され、続いて仮想音源V10に対応する第10のメニューの音が出力され、続いて仮想音源V11に対応する第11のメニューの音が出力されるというように、仮想音源V9〜V11に対応する第9〜第11のメニューの音が、ユーザから仮想音源V9〜V11までの距離が短い順に出力されてもよい。   In the example shown in FIG. 9, the virtual sound source V9 is arranged at a position separated from the user by a distance L2. The virtual sound source V10 is arranged at a position away from the user by a distance L3. The virtual sound source V11 is disposed at a position separated from the user by a distance L4. In this case, following the sound of the second menu, the sound of the ninth menu corresponding to the virtual sound source V9 is output, followed by the sound of the tenth menu corresponding to the virtual sound source V10, and subsequently virtual. As the sound of the eleventh menu corresponding to the sound source V11 is output, the sounds of the ninth to eleventh menus corresponding to the virtual sound sources V9 to V11 are short from the user to the virtual sound sources V9 to V11. It may be output in order.

図9に示す例において、仮想音源の数に応じて、距離L2〜L4が変更されてもよい。また、ジェスチャー操作の操作量が閾値を超えたときにメニューが選択される場合において、仮想音源までの距離に応じて、その仮想音源に対応するメニューを選択するためのジェスチャー操作の操作量の閾値が変更されてもよい。   In the example illustrated in FIG. 9, the distances L2 to L4 may be changed according to the number of virtual sound sources. In addition, when a menu is selected when the operation amount of the gesture operation exceeds the threshold value, the threshold value of the operation amount of the gesture operation for selecting the menu corresponding to the virtual sound source according to the distance to the virtual sound source May be changed.

(4)ウェアラブル端末10は、他の端末と連携して用いられてもよい。他の端末は、例えば腕時計型のウェアラブル端末である。他の端末は、ユーザの手の動きを検出するために、加速度センサ等の各種センサを備える。この場合、メニューを選択する動作は、頭の動作に代えて、手の動作であってもよい。図5に示す例において、ユーザが手を前方に移動させた場合には、仮想音源V1に対応する第1のメニューが選択されてもよい。この動作は、センサにより検出される。図6に示す例において、仮想円C1に配置された仮想音源V1〜V8に対応する第1〜第8のメニューについては、頭を動かす動作により選択されてもよい。また、仮想円C2に配置された仮想音源V9〜V16に対応する第9〜第16のメニューについては、手を動かす動作により選択されてもよい。例えば、ユーザが頭を前方に傾けた場合には、仮想音源V1に対応する第1のメニューが選択されてもよい。一方、ユーザが手を前方に移動させた場合には、仮想音源V9に対応する第9のメニューが選択されてもよい。 (4) The wearable terminal 10 may be used in cooperation with other terminals. The other terminal is, for example, a wristwatch type wearable terminal. Other terminals include various sensors such as an acceleration sensor in order to detect the movement of the user's hand. In this case, the operation for selecting the menu may be a hand motion instead of the head motion. In the example shown in FIG. 5, when the user moves his / her hand forward, the first menu corresponding to the virtual sound source V1 may be selected. This operation is detected by a sensor. In the example shown in FIG. 6, the first to eighth menus corresponding to the virtual sound sources V1 to V8 arranged in the virtual circle C1 may be selected by the action of moving the head. The ninth to sixteenth menus corresponding to the virtual sound sources V9 to V16 arranged in the virtual circle C2 may be selected by moving the hand. For example, when the user tilts his head forward, the first menu corresponding to the virtual sound source V1 may be selected. On the other hand, when the user moves his / her hand forward, the ninth menu corresponding to the virtual sound source V9 may be selected.

他の例として、他の端末は、グローブ型のウェアラブル端末であってもよい。他の端末は、ユーザの手の動きを検出するために、加速度センサ等の各種センサを備える。また、他の端末は、振動部を備える。振動部には、例えばアクチュエータが用いられる。この場合、メニューを選択する動作は、頭の動作に代えて、手の動作であってもよい。また、音と振動によりメニューが選択されたことがユーザに通知されてもよい。図5に示す例において、ユーザが手を前方に移動させることにより、仮想音源V1に対応する第1のメニューが選択されると、メニューの選択が行われたことを示す音がスピーカー16‐1及び16‐2から出力されるとともに、他の端末の振動部が振動してもよい。   As another example, the other terminal may be a glove-type wearable terminal. Other terminals include various sensors such as an acceleration sensor in order to detect the movement of the user's hand. Other terminals include a vibration unit. For example, an actuator is used for the vibration unit. In this case, the operation for selecting the menu may be a hand motion instead of the head motion. Further, the user may be notified that the menu has been selected by sound and vibration. In the example shown in FIG. 5, when the first menu corresponding to the virtual sound source V1 is selected by moving the hand forward by the user, a sound indicating that the menu has been selected is heard from the speaker 16-1. And 16-2, and the vibration part of another terminal may vibrate.

(5)ユーザの動作により、仮想音源が移動されてもよい。図5に示す例において、ユーザが頭を回す動作を行った場合には、仮想音源V1〜V8がその回転方向に沿って回転されてもよい。この動作は、例えば角速度センサ182により測定された角速度に基づいて検出部115により検出される。これにより、ユーザは、所望のメニューに対応する仮想音源を、選択しやすい前方の位置に移動させることができる。 (5) The virtual sound source may be moved by the user's operation. In the example illustrated in FIG. 5, when the user performs an operation of turning his / her head, the virtual sound sources V <b> 1 to V <b> 8 may be rotated along the rotation direction. This operation is detected by the detection unit 115 based on the angular velocity measured by the angular velocity sensor 182, for example. As a result, the user can move the virtual sound source corresponding to the desired menu to a position that is easy to select.

他の例として、ウェアラブル端末10を装着しているユーザの姿勢により、仮想音源が移動されてもよい。このユーザの姿勢は、例えば角速度センサ182により測定された角速度に基づいて検出される。例えば、ユーザが寝ている状態の場合には、後方の仮想音源V4〜V6に対応する第4〜第6メニューを選択しにくいため、仮想音源V4〜V6を選択しやすい前方の位置に移動させてもよい。   As another example, the virtual sound source may be moved according to the posture of the user wearing the wearable terminal 10. The posture of the user is detected based on the angular velocity measured by the angular velocity sensor 182, for example. For example, when the user is sleeping, it is difficult to select the fourth to sixth menus corresponding to the rear virtual sound sources V4 to V6. Therefore, the virtual sound sources V4 to V6 are moved to the front position where it is easy to select. May be.

(6)メニューを選択する動作の検出方法は、実施形態で説明した方法に限定されない。図10は、変形例に係るメニューを選択する動作の検出方法を説明する図である。図10に示す例では、仮想円C1内の領域が、仮想円C1の中心と円周上の点とを結んだ線により、領域R1〜R8に分割される。領域R1〜R8には、仮想音源V1〜V8が一つずつ含まれる。ユーザの前後左右にある仮想音源V1、V3、V5、及びV7を含む領域R1、R3、R5、及びR7の中心角は、いずれもθ1である。一方、ユーザの右前方、右後方、左後方、及び左前方にある仮想音源V2、V4、V5、及びV6を含む領域R2、R4、R6、及びR8の中心角は、いずれもθ1より大きいθ2である。この変形例では、ユーザが領域R1に頭を傾けた場合には、仮想音源V1に対応する第1のメニューが選択される。ユーザが領域R2に頭を傾けた場合には、仮想音源V2に対応する第2のメニューが選択される。一般的に、斜めの方向、すなわち右前方、右後方、左後方、左前方には正確に頭を動かしにくい。そのため、例えば右前方に頭を傾けたつもりが、右に頭を傾けたと検出され、意図しないメニューが選択される場合がある。しかし、この変形例によれば、正確に斜めの方向に頭を傾けなくても、斜めの方向に頭を傾けたと検出されるため、このようなメニューの誤選択を抑制することができる。 (6) The method for detecting an operation for selecting a menu is not limited to the method described in the embodiment. FIG. 10 is a diagram illustrating a method for detecting an operation of selecting a menu according to a modification. In the example shown in FIG. 10, the region in the virtual circle C1 is divided into regions R1 to R8 by a line connecting the center of the virtual circle C1 and a point on the circumference. The regions R1 to R8 include one virtual sound source V1 to V8. The central angles of the regions R1, R3, R5, and R7 including the virtual sound sources V1, V3, V5, and V7 on the front, back, left, and right of the user are all θ1. On the other hand, the central angles of the regions R2, R4, R6, and R8 including the virtual sound sources V2, V4, V5, and V6 at the right front, right rear, left rear, and left front of the user are all larger than θ1. It is. In this modification, when the user tilts his / her head to the region R1, the first menu corresponding to the virtual sound source V1 is selected. When the user tilts his head to the region R2, the second menu corresponding to the virtual sound source V2 is selected. Generally, it is difficult to move the head accurately in an oblique direction, that is, right front, right rear, left rear, and left front. For this reason, for example, it is detected that the head is tilted to the right and the head is tilted to the right, and an unintended menu may be selected. However, according to this modification, it is detected that the head is tilted in an oblique direction without accurately tilting the head in an oblique direction, and thus such erroneous menu selection can be suppressed.

(7)メニューの読み上げ処理は、実施形態で説明した例に限定されない。例えば、ユーザが頭を回す動作を行った場合には、頭を回した範囲内に配置された仮想音源に対応するメニューの音が出力されてもよい。この動作は、例えば角速度センサ182により測定された角速度に基づいて検出部115により検出される。他の例として、ユーザが頭を回す動作を行った場合には、頭の初速度により、メニューの音の再生速度が変化してもよい。この初速度は、例えば加速度センサ181により測定された加速度に基づいて検出部115により検出される。例えば、頭の初速度が大きいほど、メニューの音の再生速度は大きくなってもよい。 (7) Menu reading processing is not limited to the example described in the embodiment. For example, when the user performs an action of turning his / her head, the sound of the menu corresponding to the virtual sound source arranged within the range of turning the head may be output. This operation is detected by the detection unit 115 based on the angular velocity measured by the angular velocity sensor 182, for example. As another example, when the user performs an action of turning his / her head, the playback speed of the menu sound may change depending on the initial speed of the head. This initial velocity is detected by the detection unit 115 based on the acceleration measured by the acceleration sensor 181, for example. For example, the higher the initial speed of the head, the higher the playback speed of the menu sound.

(8)メニューを選択する動作は、実施形態で説明した例に限定されない。図6に示す例において、ユーザが頭を第1の角度だけ前方に傾けた場合には、仮想音源V1に対応する第1のメニューが選択されてもよい。ユーザが頭を第1の角度より大きい第2の角度だけ前方に傾けた場合には、仮想音源V9に対応する第9のメニューが選択されてもよい。図6に示す例において、ユーザが前方に一歩移動してから前方に頭を傾けた場合には、仮想音源V9に対応する第9のメニューが選択されてもよい。 (8) The operation of selecting a menu is not limited to the example described in the embodiment. In the example shown in FIG. 6, when the user tilts his / her head forward by a first angle, the first menu corresponding to the virtual sound source V1 may be selected. When the user tilts the head forward by a second angle larger than the first angle, a ninth menu corresponding to the virtual sound source V9 may be selected. In the example shown in FIG. 6, when the user moves forward one step and then tilts his head forward, the ninth menu corresponding to the virtual sound source V9 may be selected.

(9)仮想音源の配置は、実施形態で説明した例に限定されない。例えば、メニューの音がメニューの名称を読み上げる音声である場合、頭文字が同じ名称のメニューに対応する仮想音源が隣り合わないような並び順で、仮想音源が配置されてもよい。 (9) The arrangement of the virtual sound source is not limited to the example described in the embodiment. For example, when the sound of the menu is a voice that reads out the name of the menu, the virtual sound sources may be arranged in an arrangement order such that the virtual sound sources corresponding to the menu having the same initial name are not adjacent to each other.

(10)メニューは、実施形態で説明した例に限定されない。メニューは、ウェアラブル端末10にダウンロードされた音楽や画像に関するものであってもよい。 (10) The menu is not limited to the example described in the embodiment. The menu may be related to music or images downloaded to the wearable terminal 10.

(11)ウェアラブル端末10は、図1に示す例に限定されない。例えば、ウェアラブル端末10は、イヤーフック型やオーバーヘッド型等、他の形状であってもよい。 (11) The wearable terminal 10 is not limited to the example shown in FIG. For example, the wearable terminal 10 may have other shapes such as an ear hook type or an overhead type.

(12)ウェアラブル端末10の制御部11により実行されるプログラムは、インターネット等の通信回線を介してダウンロードされてもよい。また、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどの、コンピュータが読取可能な記録媒体に記録した状態で提供されてもよい。 (12) The program executed by the control unit 11 of the wearable terminal 10 may be downloaded via a communication line such as the Internet. The program is provided in a state of being recorded on a computer-readable recording medium such as a magnetic recording medium (magnetic tape, magnetic disk, etc.), an optical recording medium (optical disk, etc.), a magneto-optical recording medium, or a semiconductor memory. May be.

(13)状況に応じて、ユーザから仮想音源までの距離が変更されてもよい。例えば、メニューがアプリケーションに関するものである場合において、アプリケーションの使用頻度に応じて、そのメニューに対応する仮想音源までの距離が変更されてもよい。例えば、図6に示す仮想音源V16、V9、及びV10に対応する第16、第9、及び第10のメニューがいずれもアプリケーションに関するものであり、これらのアプリケーションの使用頻度が高い場合には、距離L2を初期値より小さくしてもよい。ただし、距離L2は距離L1より大きくなるようにする。 (13) The distance from the user to the virtual sound source may be changed according to the situation. For example, when the menu relates to an application, the distance to the virtual sound source corresponding to the menu may be changed according to the use frequency of the application. For example, if the sixteenth, ninth, and tenth menus corresponding to the virtual sound sources V16, V9, and V10 shown in FIG. L2 may be made smaller than the initial value. However, the distance L2 is made larger than the distance L1.

他の例として、メニューがメーラーや通話アプリケーションに関するものである場合において、メールの受信や着信等のイベントの発生に応じて、そのメニューに対応する仮想音源までの距離が変更されてもよい。例えば、図6に示す仮想音源V1に対応する第1のメニューがメーラーに関するものである場合において、メールを受信したときは、距離L1を初期値より小さくしてもよい。このとき、距離L2は変化しない。   As another example, when the menu is related to a mailer or a call application, the distance to the virtual sound source corresponding to the menu may be changed according to the occurrence of an event such as reception of mail or incoming call. For example, when the first menu corresponding to the virtual sound source V1 shown in FIG. 6 relates to the mailer, the distance L1 may be made smaller than the initial value when a mail is received. At this time, the distance L2 does not change.

他の例として、ユーザの運動量に応じて、仮想音源までの距離が変更されてもよい。例えば、ユーザが歩行している場合には、図6に示す距離L1を初期値より大きくしてもよい。このユーザの歩行は、例えば加速度センサ181により測定された加速度に基づいて検出される。   As another example, the distance to the virtual sound source may be changed according to the amount of exercise of the user. For example, when the user is walking, the distance L1 shown in FIG. 6 may be larger than the initial value. This user's walking is detected based on the acceleration measured by the acceleration sensor 181, for example.

10:ウェアラブル端末、16‐1及び16‐2:スピーカー、111:通知部、112:配置部、113:音声処理部、114:出力制御部、115:検出部、116:選択部、117:実行部、181:加速度センサ、182:角速度センサ、183:地磁気センサ 10: Wearable terminal, 16-1 and 16-2: Speaker, 111: Notification unit, 112: Arrangement unit, 113: Audio processing unit, 114: Output control unit, 115: Detection unit, 116: Selection unit, 117: Execution , 181: acceleration sensor, 182: angular velocity sensor, 183: geomagnetic sensor

Claims (10)

ユーザの周りにメニューを示す仮想音源を配置する配置部と、
前記配置部により配置された前記仮想音源から前記メニューの名称を読み上げる音声が聞こえるように、前記音声を示す音声信号に音声処理を施す音声処理部と、
前記音声処理部により前記音声処理が施された前記音声信号に応じた音声を出力するスピーカーと、
前記ユーザの動作を検出する検出部と、
前記仮想音源の方向に体を動かす動作が前記検出部により検出されたことに応じて、前記メニューを選択する選択部と
前記音声から前記名称の先頭の文字を読み上げる部分音声を抽出し、前記抽出された部分音声を前記スピーカーから出力させ、所定の操作が行われた場合には、前記音声を前記スピーカーから出力させる出力制御部と
を備える音声出力装置。
A placement unit for placing a virtual sound source indicating a menu around the user;
Wherein as voice to speak the name of the menu from the arranged the virtual sound source by the arrangement unit is heard, and the sound processing unit that performs sound processing on the audio signal indicating the voice,
A speaker that outputs a sound corresponding to the sound signal subjected to the sound processing by the sound processing unit;
A detection unit for detecting the user's action;
A selection unit that selects the menu in response to the action of moving the body in the direction of the virtual sound source detected by the detection unit ;
An output for extracting a partial voice that reads out the first character of the name from the voice, outputting the extracted partial voice from the speaker, and outputting the voice from the speaker when a predetermined operation is performed. With control
An audio output device comprising:
ユーザから同一の方向においてそれぞれ異なる距離だけ離れた位置に、複数のメニューを示す複数の仮想音源を配置する配置部と、
前記配置部により配置された前記複数の仮想音源から前記複数のメニューを示す複数の音が聞こえるように、前記複数のメニューを示す複数の音声信号に前記距離に応じて音声処理を施す音声処理部と、
前記音声処理部により前記音声処理が施された前記複数の音声信号に応じた複数の音を出力するスピーカーと、
前記ユーザの動作を検出する検出部と、
前記仮想音源の方向に体を動かす動作が前記検出部により検出されたことに応じて、前記メニューを選択する選択部と、
前記複数のメニューを示す複数の音に含まれる第1の音が前記スピーカーから出力されたときに、前記検出部により所定の動作が検出された場合には、前記第1の音の発生源となる第1の仮想音源と同じ方向に配置された少なくとも1の仮想音源から発生される少なくとも1の音を前記ユーザから前記少なくとも1の仮想音源までの距離に応じた順序で前記スピーカーから出力させる出力制御部と
を備える音声出力装置。
An arrangement unit that arranges a plurality of virtual sound sources indicating a plurality of menus at positions different from each other by a different distance in the same direction;
Wherein such plurality of sounds indicative of the plurality of menus from arranged the plurality of virtual sound sources by the arrangement unit is heard, the sound processing unit that performs speech processing in accordance with the distance to a plurality of sound signals indicating the plurality of menus When,
A speaker for outputting a plurality of sounds corresponding to the plurality of audio signals in which the audio processing has been performed by the audio processing unit,
A detection unit for detecting the user's action;
A selection unit that selects the menu in response to the action of moving the body in the direction of the virtual sound source detected by the detection unit;
When a predetermined operation is detected by the detection unit when a first sound included in a plurality of sounds indicating the plurality of menus is output from the speaker, a source of the first sound is An output for outputting from the speaker at least one sound generated from at least one virtual sound source arranged in the same direction as the first virtual sound source in an order corresponding to a distance from the user to the at least one virtual sound source With control
An audio output device comprising:
前記配置部は、前記ユーザから同一の方向においてそれぞれ異なる距離だけ離れた位置に、複数のメニューを示す複数の仮想音源を配置し、
前記音声処理部は、前記複数のメニューを示す複数の音声信号に前記距離に応じて音声処理を施す
請求項1に記載の音声出力装置。
The arrangement unit arranges a plurality of virtual sound sources indicating a plurality of menus at positions different from each other by different distances in the same direction from the user,
The audio output device according to claim 1, wherein the audio processing unit performs audio processing on a plurality of audio signals indicating the plurality of menus according to the distance.
前記複数のメニューは、第1のメニューと第2のメニューとを含み、
前記選択部は、前記複数の仮想音源が配置された方向に体を動かす第1の動作が前記検出部により検出された場合には、前記第1のメニューを選択し、前記複数の仮想音源が配置された方向に体を動かす第2の動作が前記検出部により検出された場合には、前記第2のメニューを選択する
請求項に記載の音声出力装置。
The plurality of menus include a first menu and a second menu,
The selection unit selects the first menu when the first operation of moving the body in the direction in which the plurality of virtual sound sources are arranged is detected by the detection unit, and the plurality of virtual sound sources are The audio output device according to claim 3 , wherein the second menu is selected when the detection unit detects a second action of moving the body in the arranged direction.
前記出力制御部は、前記複数のメニューを示す複数の音に含まれる第1の音が前記スピーカーから出力されたときに、前記検出部により所定の動作が検出された場合には、前記第1の音の発生源となる第1の仮想音源と同じ方向に配置された少なくとも1の仮想音源から発生される少なくとも1の音を前記ユーザから前記少なくとも1の仮想音源までの距離に応じた順序で前記スピーカーから出力させる
請求項3又は4に記載の音声出力装置。
The output control unit is configured to detect the first operation when a predetermined operation is detected by the detection unit when the first sound included in the plurality of sounds indicating the plurality of menus is output from the speaker. At least one sound generated from at least one virtual sound source arranged in the same direction as the first virtual sound source that is the sound generation source in the order according to the distance from the user to the at least one virtual sound source The audio output device according to claim 3, wherein the audio output device is configured to output from the speaker.
前記出力制御部は、前記メニューを示す第1の音を前記スピーカーから出力させた後、前記メニューを示す第2の音を前記スピーカーから出力させる
請求項1又は2に記載の音声出力装置。
The output control section, after the first sound indicative of the menu is output from the speaker, the audio output device according to claim 1 or 2 to output the second sound indicating the menu from the speaker.
前記音は、前記メニューの名称を読み上げる音声であり、
前記音声から前記名称の先頭の文字を読み上げる部分音声を抽出し、前記抽出された部分音声を前記スピーカーから出力させ、所定の操作が行われた場合には、前記音声を前記スピーカーから出力させる出力制御部をさらに備える
請求項に記載の音声出力装置。
The sound is a voice that reads out the name of the menu,
An output for extracting a partial voice that reads out the first character of the name from the voice, outputting the extracted partial voice from the speaker, and outputting the voice from the speaker when a predetermined operation is performed. The audio output device according to claim 2 , further comprising a control unit.
前記配置部は、第1のメニューを示す第1の仮想音源と、第2のメニューを示す第2の仮想音源とを配置し、
前記第1のメニューと前記第2のメニューとは、異なる種類の動作により選択され、
前記音声処理部は、前記第1のメニューを示す第1の音の第1の音声信号と前記第2のメニューを示す第2の音の第2の音声信号とに異なる音声処理を施す
請求項1又は2に記載の音声出力装置。
The arrangement unit arranges a first virtual sound source indicating a first menu and a second virtual sound source indicating a second menu,
The first menu and the second menu are selected by different types of actions,
The audio processing unit performs different audio processing on a first audio signal of a first sound indicating the first menu and a second audio signal of a second sound indicating the second menu. The audio output device according to 1 or 2 .
前記配置部は、前記検出部により所定の動作が検出された場合には、前記仮想音源を削除し、前記メニューに関係する他のメニューを示す新たな仮想音源を配置する
請求項1又は2に記載の音声出力装置。
The arrangement unit, when said predetermined operation is detected by the detection unit, the delete the virtual sound source, to claim 1 or 2, placing the new virtual sound source of another menu related to the menu The audio output device described.
前記メニューの数を音で通知する通知部をさらに備える
請求項1又は2に記載の音声出力装置。
The audio output device according to claim 1 or 2 further comprising a notification unit that notifies by sound the number of the menu.
JP2014119961A 2014-06-10 2014-06-10 Audio output device Active JP6275557B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014119961A JP6275557B2 (en) 2014-06-10 2014-06-10 Audio output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014119961A JP6275557B2 (en) 2014-06-10 2014-06-10 Audio output device

Publications (2)

Publication Number Publication Date
JP2015232849A JP2015232849A (en) 2015-12-24
JP6275557B2 true JP6275557B2 (en) 2018-02-07

Family

ID=54934233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014119961A Active JP6275557B2 (en) 2014-06-10 2014-06-10 Audio output device

Country Status (1)

Country Link
JP (1) JP6275557B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016140058A1 (en) * 2015-03-04 2016-09-09 シャープ株式会社 Sound signal reproduction device, sound signal reproduction method, program and recording medium
WO2019100378A1 (en) * 2017-11-27 2019-05-31 深圳市汇顶科技股份有限公司 Earphones, method for detecting wearing state of earphones, and electronic device
JP7015860B2 (en) 2020-03-31 2022-02-03 本田技研工業株式会社 vehicle

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099294A (en) * 2000-06-29 2002-04-05 Fujitsu Ltd Information processor
JP2003304600A (en) * 2002-04-10 2003-10-24 Nissan Motor Co Ltd Sound information providing/selecting apparatus
JP4837512B2 (en) * 2006-09-29 2011-12-14 独立行政法人科学技術振興機構 Sound source selection device

Also Published As

Publication number Publication date
JP2015232849A (en) 2015-12-24

Similar Documents

Publication Publication Date Title
US10387112B2 (en) Multi-dimensional audio interface system
EP2891955B1 (en) In-vehicle gesture interactive spatial audio system
US9374647B2 (en) Method and apparatus using head movement for user interface
US20130156220A1 (en) Selective spatial audio communication
KR20150005027A (en) device for recognizing voice and method for recognizing voice
CN113475094A (en) Different head detection in headphones
US20180124256A1 (en) Communication terminal device, incoming call control method, and program
US9516429B2 (en) Hearing aid and method for controlling hearing aid
CN106293601A (en) A kind of audio frequency playing method and device
CN110784804B (en) Wireless earphone noise reduction calibration method and device, earphone box and storage medium
JP2020042799A (en) Ear set control method and system
US11036464B2 (en) Spatialized augmented reality (AR) audio menu
JP6275557B2 (en) Audio output device
CN114189790B (en) Audio information processing method, electronic device, system, product and medium
CN106302974B (en) information processing method and electronic equipment
US9913023B2 (en) Multi-sound audio interface system
CN108924705B (en) 3D sound effect processing method and related product
JP6591167B2 (en) Electronics
KR20150019061A (en) Method for wireless pairing and electronic device thereof
CN117311490A (en) Wrist-worn device control method, related system and storage medium
JP6294183B2 (en) Menu selection device and menu selection method
JP2016035632A (en) Menu selection system and menu selection method
CN114630240B (en) Direction filter generation method, audio processing method, device and storage medium
CN114464171A (en) Audio splitting method and device, electronic equipment, storage medium and product
CN115499770A (en) Voice activity detection method and device of earphone, earphone and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180110

R150 Certificate of patent or registration of utility model

Ref document number: 6275557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250