JP2016035632A - Menu selection system and menu selection method - Google Patents

Menu selection system and menu selection method Download PDF

Info

Publication number
JP2016035632A
JP2016035632A JP2014157761A JP2014157761A JP2016035632A JP 2016035632 A JP2016035632 A JP 2016035632A JP 2014157761 A JP2014157761 A JP 2014157761A JP 2014157761 A JP2014157761 A JP 2014157761A JP 2016035632 A JP2016035632 A JP 2016035632A
Authority
JP
Japan
Prior art keywords
user
unit
virtual
menu item
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014157761A
Other languages
Japanese (ja)
Inventor
山崎 仁史
Hitoshi Yamazaki
仁史 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014157761A priority Critical patent/JP2016035632A/en
Publication of JP2016035632A publication Critical patent/JP2016035632A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a user to easily select menu items according to the situation of the user.SOLUTION: A voice reproduction terminal arranges virtual icons I1 to I8 showing first to eighth menu items in a virtual space corresponding to a real space that includes a user. The voice reproduction terminal performs signal processing according to transfer characteristics of a sound corresponding to the positions where the virtual icons I1 to I8 are arranged and the position of the user, on voice signals indicating the first to eighth menu items, and outputs sounds according to the voice signals subjected to the signal processing from a speaker. A display terminal 20 displays the virtual icons I1 to I8 arranged in the virtual space. The voice reproduction terminal detects the movement of the body of the user and the amount of the movement. For example, when the movement of moving the body in the direction where the virtual icon I1 is arranged and the amount of the detected movement exceeds a threshold, the voice reproduction terminal selects the first menu item shown by the virtual icon I1.SELECTED DRAWING: Figure 7

Description

本発明は、メニュー項目を選択する技術に関する。   The present invention relates to a technique for selecting a menu item.

バーチャルサラウンド技術を利用して、メニュー項目の選択を実現する技術が知られている。例えば、特許文献1には、仮想的な3次元音場に複数のメニュー項目に対応する複数のメニュー音像を定位させ、装着者が頭を動かすことによって任意のメニュー音像を選択し、選択されたメニュー音像に対応するメニュー項目を実行することが記載されている。また、特許文献2のように、AR(Augmented Reality)を利用して、仮想オブジェクトを表示する技術が知られている。   A technique for realizing selection of a menu item using a virtual surround technique is known. For example, in Patent Document 1, a plurality of menu sound images corresponding to a plurality of menu items are localized in a virtual three-dimensional sound field, and an arbitrary menu sound image is selected by the wearer moving his / her head and selected. It describes that a menu item corresponding to a menu sound image is executed. Further, as disclosed in Patent Document 2, a technique for displaying a virtual object using AR (Augmented Reality) is known.

特開2000−194460号公報JP 2000-194460 A 特開2014−21569号公報Japanese Patent Application Laid-Open No. 2014-2151569

特許文献1に記載の発明のように、ユーザが体を動かすことによってメニュー項目を選択する場合には、ユーザの状況によってはメニュー項目を選択し難い場合がある。例えば、ユーザが満員電車に乗っている場合には、体をあまり動かすことができないため、メニュー項目を選択し難い。
本発明は、ユーザの状況に応じてメニュー項目を選択し易くすることを目的とする。
When the user selects a menu item by moving his / her body as in the invention described in Patent Document 1, it may be difficult to select the menu item depending on the situation of the user. For example, when the user is on a crowded train, it is difficult to select a menu item because the body cannot move much.
An object of this invention is to make it easy to select a menu item according to a user's condition.

本発明は、ユーザが存在する現実空間に対応する仮想空間に、メニュー項目を示す仮想オブジェクトを配置する配置部と、前記仮想オブジェクトが配置された前記仮想空間内の位置及び前記仮想空間上の前記ユーザの位置に対応する音の伝達特性に応じた信号処理を、前記メニュー項目を示す音声信号に施す信号処理部と、前記信号処理が施された前記音声信号に応じた音を出力するスピーカーと、前記仮想空間に配置された前記仮想オブジェクトを表示する表示部と、前記ユーザの体の動作及び前記動作の動作量を検出する検出部と、前記仮想オブジェクトが配置された方向に前記体を動かす動作が検出され、且つ、前記検出された動作の動作量が閾値を超えた場合には、前記メニュー項目を選択する選択部と、前記スピーカーを有する第1端末と、前記表示部を有する第2端末との間の距離を測定する測定部と、前記測定された距離に応じて、前記閾値を変更する変更部とを備えるメニュー選択システムを提供する。   The present invention provides an arrangement unit that arranges a virtual object indicating a menu item in a virtual space corresponding to a real space where a user exists, a position in the virtual space where the virtual object is arranged, and the virtual space on the virtual space A signal processing unit that applies signal processing corresponding to a sound transfer characteristic corresponding to a user's position to an audio signal indicating the menu item; and a speaker that outputs sound corresponding to the audio signal subjected to the signal processing; A display unit that displays the virtual object arranged in the virtual space, a detection unit that detects the movement of the user's body and the amount of movement of the movement, and moves the body in the direction in which the virtual object is arranged When a motion is detected and the motion amount of the detected motion exceeds a threshold value, a selection unit that selects the menu item and a speaker having the speaker A terminal, a measuring unit for measuring a distance between the second terminal having the display unit, according to the distance that is the measurement, which provides a menu selection system and a changing unit for changing the threshold value.

前記スピーカーは、前記動作が開始されてから前記動作量が前記閾値に達するまでの間、第1通知音を出力し、前記動作量が前記閾値を超えると、第2通知音を出力してもよい。   The speaker outputs a first notification sound until the operation amount reaches the threshold after the operation is started, and outputs a second notification sound when the operation amount exceeds the threshold. Good.

前記スピーカーは、前記閾値が変更されると、第3通知音を出力してもよい。   The speaker may output a third notification sound when the threshold is changed.

前記変更部は、前記ユーザの状況又は行動に応じて、前記閾値を変更してもよい。   The changing unit may change the threshold value according to a situation or action of the user.

また、本発明は、ユーザが存在する現実空間に対応する仮想空間に、メニュー項目を示す仮想オブジェクトを配置するステップと、前記仮想オブジェクトが配置された前記仮想空間内の位置及び前記仮想空間上の前記ユーザの位置に対応する音の伝達特性に応じた信号処理を、前記メニュー項目を示す音声信号に施すステップと、前記信号処理が施された前記音声信号に応じた音をスピーカーから出力するステップと、前記仮想空間に配置された前記仮想オブジェクトを表示部に表示するステップと、前記ユーザの体の動作及び前記動作の動作量を検出するステップと、前記仮想オブジェクトが配置された方向に前記体を動かす動作が検出され、且つ、前記検出された動作の動作量が閾値を超えた場合には、前記メニュー項目を選択するステップと、前記スピーカーを有する第1端末と、前記表示部を有する第2端末との間の距離を測定するステップと、前記測定された距離に応じて、前記閾値を変更するステップとを備えるメニュー選択方法を提供する。   The present invention also includes a step of arranging a virtual object indicating a menu item in a virtual space corresponding to a real space in which a user exists, a position in the virtual space where the virtual object is arranged, and a position on the virtual space Applying signal processing corresponding to the sound transfer characteristic corresponding to the user's position to the audio signal indicating the menu item, and outputting sound corresponding to the audio signal subjected to the signal processing from a speaker Displaying the virtual object arranged in the virtual space on a display unit, detecting the movement of the user's body and the amount of movement of the movement, and the body in the direction in which the virtual object is arranged Is detected, and the amount of motion of the detected motion exceeds a threshold value, the step of selecting the menu item is detected. And a step of measuring a distance between the first terminal having the speaker and the second terminal having the display unit, and changing the threshold according to the measured distance. Provide a selection method.

本発明によれば、ユーザの状況に応じてメニュー項目を選択し易くすることができる。   ADVANTAGE OF THE INVENTION According to this invention, it can make it easy to select a menu item according to a user's condition.

メニュー選択システムの構成を示す図。The figure which shows the structure of a menu selection system. 音声再生端末のハードウェア構成を示す図。The figure which shows the hardware constitutions of an audio | voice reproduction terminal. 音声再生端末の制御部の機能構成を示す図。The figure which shows the function structure of the control part of an audio | voice reproduction terminal. 表示端末のハードウェア構成を示す図。The figure which shows the hardware constitutions of a display terminal. 表示端末の制御部の機能構成を示す図。The figure which shows the function structure of the control part of a display terminal. メニュー選択システムの動作を示すシーケンスチャート。The sequence chart which shows operation | movement of a menu selection system. 仮想アイコンの配置の一例を示す図。The figure which shows an example of arrangement | positioning of a virtual icon. 仮想アイコンの表示例を示す図。The figure which shows the example of a display of a virtual icon. 表示端末の移動の一例を示す図。The figure which shows an example of a movement of a display terminal. 仮想アイコンの表示例を示す図。The figure which shows the example of a display of a virtual icon. メニュー項目を選択する動作の一例を説明する図。The figure explaining an example of the operation | movement which selects a menu item.

1.構成
(1)システムの全体構成
図1は、メニュー選択システム1の構成を示す図である。メニュー選択システム1は、音声再生端末10と、表示端末20とを備える。音声再生端末10は、イヤホン型のウェアラブルコンピュータである。音声再生端末10は、ユーザの耳に装着される。表示端末20は、腕時計型のウェアラブルコンピュータである。表示端末20は、ユーザの腕に装着される。音声再生端末10と表示端末20とは、予めペアリングされている。音声再生端末10と表示端末20とは連携して、ユーザによるメニュー項目の選択を実現する。
1. Configuration (1) Overall Configuration of System FIG. 1 is a diagram showing a configuration of a menu selection system 1. The menu selection system 1 includes an audio playback terminal 10 and a display terminal 20. The audio reproduction terminal 10 is an earphone type wearable computer. The audio reproduction terminal 10 is worn on the user's ear. The display terminal 20 is a wristwatch-type wearable computer. The display terminal 20 is worn on the user's arm. The audio reproduction terminal 10 and the display terminal 20 are paired in advance. The audio reproduction terminal 10 and the display terminal 20 cooperate to realize menu item selection by the user.

(2)音声再生端末10の構成
音声再生端末10は、右耳用の筐体101と、左耳用の筐体102と、ケーブル103と、本体104とを備える。筐体101は、ユーザの右耳に装着される。筐体101には、スピーカー16‐1が収容される。筐体102は、ユーザの左耳に装着される。筐体102には、スピーカー16‐2が収容される。ケーブル103は、筐体101と本体104、及び筐体102と本体104とを接続する。本体104は、2チャンネルの音声信号をスピーカー16‐1及び16‐2に供給することにより、ステレオ方式で音を再生する。
(2) Configuration of Audio Playback Terminal 10 The audio playback terminal 10 includes a right ear casing 101, a left ear casing 102, a cable 103, and a main body 104. The housing 101 is attached to the right ear of the user. The casing 101 accommodates a speaker 16-1. The housing 102 is attached to the user's left ear. The casing 102 accommodates a speaker 16-2. The cable 103 connects the housing 101 and the main body 104, and the housing 102 and the main body 104. The main body 104 reproduces sound in a stereo manner by supplying two-channel audio signals to the speakers 16-1 and 16-2.

図2は、音声再生端末10のハードウェア構成を示す図である。音声再生端末10は、ユーザが存在する現実空間に対応する仮想空間に、メニュー項目に対応する仮想アイコンを配置し、バーチャルサラウンドを利用してユーザに仮想アイコンの配置を認識させる機能を有する。ユーザは、仮想アイコンが配置された方向に体を動かす動作を行うことにより、その仮想アイコンが示すメニュー項目を選択することができる。音声再生端末10は、制御部11と、記憶部12と、通信部13と、操作部14と、マイクロフォン15と、スピーカー16‐1及び16‐2と、測位部17と、センサ部18と、電源19とを備える。これらの構成要素は、バス又はケーブル103を介して接続される。なお、スピーカー16‐1及び16‐2以外の構成要素は、基本的には、本体104に収容される。ただし、センサ部18は、筐体101又は102に収容される。   FIG. 2 is a diagram illustrating a hardware configuration of the audio reproduction terminal 10. The audio reproduction terminal 10 has a function of arranging virtual icons corresponding to menu items in a virtual space corresponding to a real space where the user exists, and allowing the user to recognize the arrangement of the virtual icons using virtual surround. The user can select a menu item indicated by the virtual icon by performing an operation of moving the body in the direction in which the virtual icon is arranged. The audio reproduction terminal 10 includes a control unit 11, a storage unit 12, a communication unit 13, an operation unit 14, a microphone 15, speakers 16-1 and 16-2, a positioning unit 17, a sensor unit 18, And a power source 19. These components are connected via a bus or cable 103. Note that components other than the speakers 16-1 and 16-2 are basically housed in the main body 104. However, the sensor unit 18 is accommodated in the housing 101 or 102.

制御部11は、記憶部12に記憶されたプログラムを実行することにより、データの演算や他の構成要素の制御を行う。制御部11には、例えばCPUが用いられる。記憶部12は、制御部11により実行されるプログラムや各種のデータを記憶する。記憶部12は、主記憶装置と補助記憶装置とを含む。主記憶装置には、例えばRAMが用いられる。補助記憶装置には、例えばフラッシュメモリが用いられる。   The control unit 11 executes a program stored in the storage unit 12 to perform calculation of data and control of other components. For example, a CPU is used as the control unit 11. The storage unit 12 stores programs executed by the control unit 11 and various data. The storage unit 12 includes a main storage device and an auxiliary storage device. For example, a RAM is used as the main storage device. For example, a flash memory is used as the auxiliary storage device.

通信部13は、データ通信を行うための通信インタフェースである。通信部13は、Bluetooth(登録商標)等の近距離無線通信規格に従って表示端末20と通信を行う。操作部14は、ユーザの操作に応じた信号を制御部11に入力する。操作部14には、例えばタッチセンサーが用いられる。マイクロフォン15は、音を受信し、受信した音に応じた信号を制御部11に入力する。スピーカー16‐1及び16‐2は、音声信号に応じた音を出力する。   The communication unit 13 is a communication interface for performing data communication. The communication unit 13 communicates with the display terminal 20 in accordance with a near field communication standard such as Bluetooth (registered trademark). The operation unit 14 inputs a signal corresponding to a user operation to the control unit 11. For example, a touch sensor is used for the operation unit 14. The microphone 15 receives sound and inputs a signal corresponding to the received sound to the control unit 11. The speakers 16-1 and 16-2 output sound according to the audio signal.

測位部17は、音声再生端末10の現在の位置を測定する。測位部17には、例えばGPS(Global Positioning System)受信機が用いられる。電源19は、音声再生端末10の各構成要素に電力を供給する。電源19には、例えばバッテリーが用いられる。   The positioning unit 17 measures the current position of the audio playback terminal 10. For the positioning unit 17, for example, a GPS (Global Positioning System) receiver is used. The power source 19 supplies power to each component of the audio playback terminal 10. For example, a battery is used as the power source 19.

センサ部18は、ユーザの動作の検出に用いられる。センサ部18には、例えば加速度センサ181と、角速度センサ182と、地磁気センサ183とが含まれる。加速度センサ181は、三軸方向の加速度を測定する。角速度センサ182は、三軸方向の角速度を測定する。地磁気センサ183は、三軸方向の地磁気を測定する。   The sensor unit 18 is used to detect a user operation. The sensor unit 18 includes, for example, an acceleration sensor 181, an angular velocity sensor 182, and a geomagnetic sensor 183. The acceleration sensor 181 measures triaxial acceleration. The angular velocity sensor 182 measures the angular velocity in the triaxial direction. The geomagnetic sensor 183 measures the triaxial geomagnetism.

図3は、制御部11の機能構成を示す図である。制御部11は、記憶部12に記憶された1又は複数のプログラムを実行することにより、配置部111、信号処理部112、出力制御部113、送信部114、検出部115、選択部116、実行部117、測定部118、及び変更部119の機能を実現する。また、これらの機能は、制御部11と他の構成要素との協働により実現されてもよい。   FIG. 3 is a diagram illustrating a functional configuration of the control unit 11. The control unit 11 executes one or more programs stored in the storage unit 12, thereby arranging the arrangement unit 111, signal processing unit 112, output control unit 113, transmission unit 114, detection unit 115, selection unit 116, execution The functions of the unit 117, the measuring unit 118, and the changing unit 119 are realized. Further, these functions may be realized by cooperation between the control unit 11 and other components.

配置部111は、ユーザが存在する現実空間に対応する仮想空間に、メニュー項目を示す仮想オブジェクトを配置する。信号処理部112は、仮想オブジェクトが配置された仮想空間内の位置及び前記仮想空間上のユーザの位置に対応する音の伝達特性に応じた信号処理を、メニュー項目を示す音声信号に施す。出力制御部113は、信号処理が施された音声信号に応じた音をスピーカー16‐1及び16‐2から出力する。送信部114は、仮想オブジェクトの配置を示す配置情報を表示端末20に送信する。検出部115は、ユーザの体の動作及びその動作量を検出する。選択部116は、仮想オブジェクトが配置された方向に体を動かす動作が検出され、且つ、その動作の動作量が閾値を超える場合には、メニュー項目を選択する。実行部117は、選択部116により選択されたメニュー項目に対応する処理を実行する。測定部118は、音声再生端末10と表示端末20との間の距離を測定する。本実施形態では、第1端末として音声再生端末10が用いられ、第2端末として表示端末20が用いられる。変更部119は、測定された距離に応じて、閾値を変更する。   The arrangement unit 111 arranges a virtual object indicating a menu item in a virtual space corresponding to the real space where the user exists. The signal processing unit 112 performs signal processing corresponding to the sound transfer characteristics corresponding to the position in the virtual space where the virtual object is placed and the position of the user in the virtual space on the audio signal indicating the menu item. The output control unit 113 outputs sound corresponding to the audio signal subjected to signal processing from the speakers 16-1 and 16-2. The transmission unit 114 transmits arrangement information indicating the arrangement of the virtual object to the display terminal 20. The detection unit 115 detects the movement of the user's body and the amount of movement. The selection unit 116 selects a menu item when a motion of moving the body in the direction in which the virtual object is arranged is detected and the motion amount of the motion exceeds a threshold value. The execution unit 117 executes a process corresponding to the menu item selected by the selection unit 116. The measurement unit 118 measures the distance between the audio reproduction terminal 10 and the display terminal 20. In the present embodiment, the audio playback terminal 10 is used as the first terminal, and the display terminal 20 is used as the second terminal. The changing unit 119 changes the threshold according to the measured distance.

(3)表示端末20の構成
図4は、表示端末20のハードウェア構成を示す図である。表示端末20は、仮想アイコンを表示する機能を有する。表示端末20は、制御部21と、記憶部22と、通信部23と、操作部24と、表示部25と、センサ部26と、電源27とを備える。これらの構成要素は、バスを介して接続される。
(3) Configuration of Display Terminal 20 FIG. 4 is a diagram illustrating a hardware configuration of the display terminal 20. The display terminal 20 has a function of displaying a virtual icon. The display terminal 20 includes a control unit 21, a storage unit 22, a communication unit 23, an operation unit 24, a display unit 25, a sensor unit 26, and a power source 27. These components are connected via a bus.

制御部21は、記憶部22に記憶されたプログラムを実行することにより、データの演算や他の構成要素の制御を行う。制御部21には、例えばCPUが用いられる。記憶部22は、制御部21により実行されるプログラムや各種のデータを記憶する。記憶部22は、主記憶装置と補助記憶装置とを含む。主記憶装置には、例えばRAMが用いられる。補助記憶装置には、例えばフラッシュメモリが用いられる。   The control unit 21 executes a program stored in the storage unit 22 to perform calculation of data and control of other components. For example, a CPU is used as the control unit 21. The storage unit 22 stores programs executed by the control unit 21 and various data. The storage unit 22 includes a main storage device and an auxiliary storage device. For example, a RAM is used as the main storage device. For example, a flash memory is used as the auxiliary storage device.

通信部23は、データ通信を行うための通信インタフェースである。通信部23は、Bluetooth(登録商標)等の近距離無線通信規格に従って音声再生端末10と通信を行う。操作部24は、ユーザの操作に応じた信号を制御部21に入力する。操作部24には、例えばタッチセンサーが用いられる。表示部25は、情報を表示する。表示部25には、例えば液晶ディスプレイが用いられる。電源27は、表示端末20の各構成要素に電力を供給する。電源27には、例えばバッテリーが用いられる。   The communication unit 23 is a communication interface for performing data communication. The communication unit 23 communicates with the audio reproduction terminal 10 in accordance with a near field communication standard such as Bluetooth (registered trademark). The operation unit 24 inputs a signal corresponding to a user operation to the control unit 21. For the operation unit 24, for example, a touch sensor is used. The display unit 25 displays information. As the display unit 25, for example, a liquid crystal display is used. The power supply 27 supplies power to each component of the display terminal 20. For example, a battery is used as the power source 27.

センサ部26は、ユーザの動作の検出に用いられる。センサ部26には、例えば加速度センサ261と、角速度センサ262と、地磁気センサ263とが含まれる。加速度センサ261は、三軸方向の加速度を測定する。角速度センサ262は、三軸方向の角速度を測定する。地磁気センサ263は、三軸方向の地磁気を測定する。   The sensor unit 26 is used to detect a user's operation. The sensor unit 26 includes, for example, an acceleration sensor 261, an angular velocity sensor 262, and a geomagnetic sensor 263. The acceleration sensor 261 measures acceleration in three axis directions. The angular velocity sensor 262 measures the angular velocity in the triaxial direction. The geomagnetic sensor 263 measures the geomagnetism in the triaxial direction.

図5は、制御部21の機能構成を示す図である。制御部21は、記憶部22に記憶された1又は複数のプログラムを実行することにより、表示制御部211及び送信部212の機能を実現する。また、これらの機能は、制御部21と他の構成要素との協働により実現されてもよい。   FIG. 5 is a diagram illustrating a functional configuration of the control unit 21. The control unit 21 implements the functions of the display control unit 211 and the transmission unit 212 by executing one or more programs stored in the storage unit 22. Further, these functions may be realized by cooperation between the control unit 21 and other components.

表示制御部211は、仮想空間に配置された仮想オブジェクトを表示する。送信部212は、表示部25に表示されている仮想オブジェクトを識別する情報を音声再生端末10に送信する。   The display control unit 211 displays virtual objects arranged in the virtual space. The transmission unit 212 transmits information for identifying the virtual object displayed on the display unit 25 to the audio reproduction terminal 10.

2.動作
図6は、メニュー選択システム1の動作を示すシーケンスチャートである。この動作は、例えばユーザが音声再生端末10を用いてメニュー項目を起動する操作を行ったときに開始される。この操作は、例えば音声認識技術を利用した音声操作である。例えば、ユーザにより「メニュー」という言葉が発せられたときに、この動作が開始される。
2. Operation FIG. 6 is a sequence chart showing the operation of the menu selection system 1. This operation is started, for example, when the user performs an operation for starting the menu item using the audio reproduction terminal 10. This operation is, for example, a voice operation using voice recognition technology. For example, this operation is started when the word “menu” is issued by the user.

ステップS101において、配置部111は、ユーザが存在する現実空間に対応する仮想空間に、メニュー項目を示す仮想アイコン(仮想オブジェクトの一例)を配置する。「仮想アイコンを配置する」とは、具体的には、仮想空間における仮想アイコンの位置を決定することをいう。仮想アイコンの配置は、例えばユーザの頭の位置を原点としたxy平面上の位置を示す端末座標系に基づいて行われる。図7は、仮想アイコンの配置の一例を示す図である。図7は、仮想アイコンの配置を上から見た図である。図7では、ユーザの前方向がy軸方向で示され、ユーザの後ろ方向が−y軸方向で示され、ユーザの右方向がx軸方向で示され、ユーザの左方向が−x軸方向で示されている。   In step S101, the arrangement unit 111 arranges a virtual icon (an example of a virtual object) indicating a menu item in a virtual space corresponding to a real space where the user exists. “Arranging virtual icons” specifically refers to determining the position of a virtual icon in the virtual space. The placement of the virtual icons is performed based on, for example, a terminal coordinate system indicating a position on the xy plane with the position of the user's head as the origin. FIG. 7 is a diagram illustrating an example of the arrangement of virtual icons. FIG. 7 is a view of the placement of virtual icons as seen from above. In FIG. 7, the user's front direction is indicated by the y-axis direction, the user's rear direction is indicated by the -y-axis direction, the user's right direction is indicated by the x-axis direction, and the user's left direction is indicated by the -x-axis direction. It is shown in

図7に示す例では、xy平面において、ユーザの頭の位置を中心とする仮想円C1上に、45度間隔で仮想アイコンI1〜I8が配置される。仮想アイコンI1〜I8は、それぞれ第1〜第8メニュー項目を示す。仮想アイコンI1は、ユーザの前方に配置される。仮想アイコンI2は、ユーザの右前方に配置される。仮想アイコンI3は、ユーザの右に配置される。仮想アイコンI4は、ユーザの右後方に配置される。仮想アイコンI5は、ユーザの後方に配置される。仮想アイコンI6は、ユーザの左後方に配置される。仮想アイコンI7は、ユーザの左に配置される。仮想アイコンI8は、ユーザの左前方に配置される。   In the example illustrated in FIG. 7, virtual icons I1 to I8 are arranged at an interval of 45 degrees on a virtual circle C1 centered on the position of the user's head on the xy plane. Virtual icons I1 to I8 indicate first to eighth menu items, respectively. The virtual icon I1 is arranged in front of the user. The virtual icon I2 is arranged on the right front side of the user. The virtual icon I3 is arranged on the right side of the user. The virtual icon I4 is arranged on the right rear side of the user. The virtual icon I5 is arranged behind the user. The virtual icon I6 is arranged on the left rear side of the user. The virtual icon I7 is arranged on the left side of the user. The virtual icon I8 is arranged on the left front side of the user.

ステップS102において、送信部114は、仮想アイコンの配置を示す配置情報を表示端末20に送信する。この配置情報には、仮想空間において仮想アイコンが配置された位置を示す位置座標が含まれる。図7に示す例では、配置情報には、仮想空間における仮想アイコンI1〜I8の位置座標が含まれる。また、この配置情報には、仮想空間におけるユーザの頭の位置を示す位置座標と、表示端末20の位置を示す位置座標とが含まれる。この表示端末20の位置は、例えばユーザが表示端末20の表示部25を見る基本的な姿勢をとったときの表示端末20の位置であり、予め音声再生端末10に登録される。表示端末20は、音声再生端末10から配置情報を受信すると、ステップS103に進む。   In step S <b> 102, the transmission unit 114 transmits arrangement information indicating the arrangement of virtual icons to the display terminal 20. This arrangement information includes position coordinates indicating the position where the virtual icon is arranged in the virtual space. In the example shown in FIG. 7, the arrangement information includes the position coordinates of the virtual icons I1 to I8 in the virtual space. Further, the arrangement information includes position coordinates indicating the position of the user's head in the virtual space and position coordinates indicating the position of the display terminal 20. The position of the display terminal 20 is, for example, the position of the display terminal 20 when the user takes a basic attitude of looking at the display unit 25 of the display terminal 20 and is registered in the audio reproduction terminal 10 in advance. When receiving the arrangement information from the audio reproduction terminal 10, the display terminal 20 proceeds to step S103.

ステップS103において、表示制御部211は、受信した配置情報が示す配置に沿って、表示部25に仮想アイコンを表示する。このとき、全ての仮想アイコンが表示されてもよいし、仮想アイコンの一部だけが表示されてもよい。後者の場合、表示制御部211は、仮想空間内に選択範囲を設定し、選択範囲内の仮想アイコンだけを表示部25に表示する。仮想アイコンの表示は、表示部25の画面の左上を原点とするXY平面上の位置を示すスクリーン座標系に基づいて行われる。   In step S103, the display control unit 211 displays virtual icons on the display unit 25 in accordance with the arrangement indicated by the received arrangement information. At this time, all the virtual icons may be displayed, or only a part of the virtual icons may be displayed. In the latter case, the display control unit 211 sets a selection range in the virtual space and displays only the virtual icons in the selection range on the display unit 25. The display of the virtual icon is performed based on a screen coordinate system that indicates a position on the XY plane with the upper left of the screen of the display unit 25 as the origin.

図8は、仮想アイコンの表示例を示す図である。この例では、まず図7に示すxy平面において、表示端末20とユーザの頭とを含むように選択範囲R1が設定される。この選択範囲R1は、表示部25に対応する大きさ及び形状を有する。図7に示すように、選択範囲R1には、仮想アイコンI1及びI8が含まれる。この場合、図8に示すように、表示部25には、選択範囲R1における仮想アイコンI1及びI8の位置に基づいて、仮想アイコンI1及びI8が表示される。   FIG. 8 is a diagram illustrating a display example of virtual icons. In this example, the selection range R1 is first set so as to include the display terminal 20 and the user's head on the xy plane shown in FIG. The selection range R1 has a size and shape corresponding to the display unit 25. As shown in FIG. 7, the selection range R1 includes virtual icons I1 and I8. In this case, as shown in FIG. 8, virtual icons I1 and I8 are displayed on the display unit 25 based on the positions of the virtual icons I1 and I8 in the selection range R1.

具体的には、仮想アイコンI1は、選択範囲R1における位置に対応する画面上の位置に表示される。また、仮想アイコンI8は、選択範囲R1における位置に対応する画面上の位置に表示される。仮想アイコンI1及びI8の画面上の位置は、仮想アイコンI1及びI8の端末座標系の位置座標を、スクリーン座標系の位置座標に座標変換することにより求められる。   Specifically, the virtual icon I1 is displayed at a position on the screen corresponding to the position in the selection range R1. The virtual icon I8 is displayed at a position on the screen corresponding to the position in the selection range R1. The positions of the virtual icons I1 and I8 on the screen are obtained by converting the position coordinates of the terminal coordinates of the virtual icons I1 and I8 into the position coordinates of the screen coordinate system.

また、表示部25には、選択範囲R1における表示端末20の位置及び頭の位置を示すマークW1及びH1が表示される。具体的には、マークW1は、選択範囲R1における表示端末20の位置に対応する画面上の位置に表示される。マークH1は、選択範囲R1における頭の位置に対応する画面上の位置に表示される。マークW1及びH1の画面上の位置は、表示端末20の端末座標系の位置座標及び頭の端末座標系の位置座標を、スクリーン座標系の位置座標に変換することにより求められる。   Further, the display unit 25 displays marks W1 and H1 indicating the position of the display terminal 20 and the position of the head in the selection range R1. Specifically, the mark W1 is displayed at a position on the screen corresponding to the position of the display terminal 20 in the selection range R1. The mark H1 is displayed at a position on the screen corresponding to the position of the head in the selection range R1. The positions of the marks W1 and H1 on the screen are obtained by converting the position coordinates in the terminal coordinate system of the display terminal 20 and the position coordinates in the head terminal coordinate system into position coordinates in the screen coordinate system.

ユーザが表示端末20を移動させると、その移動量に応じて選択範囲R1が移動し、表示部25の表示が更新される。例えば、図9に示すように、ユーザが表示端末20を右側の移動させた場合には、選択範囲R1も右側に移動する。図9に示すように、移動後の選択範囲R1には、仮想アイコンI1及びI2が含まれる。この場合、図10に示すように、表示部25には、移動後の選択範囲R1における仮想アイコンI1及びI2の位置に基づいて、仮想アイコンI1及びI2が表示される。また、表示部25には、移動後の選択範囲R1における表示端末20の位置及び頭の位置を示すマークW1及びH1が表示される。   When the user moves the display terminal 20, the selection range R1 moves according to the movement amount, and the display on the display unit 25 is updated. For example, as shown in FIG. 9, when the user moves the display terminal 20 to the right side, the selection range R1 also moves to the right side. As shown in FIG. 9, the selection range R1 after movement includes virtual icons I1 and I2. In this case, as shown in FIG. 10, virtual icons I1 and I2 are displayed on the display unit 25 based on the positions of the virtual icons I1 and I2 in the selected range R1 after movement. The display unit 25 displays marks W1 and H1 indicating the position of the display terminal 20 and the position of the head in the selected range R1 after movement.

ステップS104において、測定部118は、音声再生端末10と表示端末20との間の距離を測定する。例えば、測定部118は、表示端末20に信号を送信する。音声再生端末10から信号を受信すると、送信部212は、音声再生端末10に応答を送信する。測定部118は、信号を送信してから応答が返ってくるまでの往復遅延時間を測定し、測定した往復遅延時間に応じて、音声再生端末10と表示端末20との間の距離を測定する。往復遅延時間が大きいほど、音声再生端末10と表示端末20との間の距離が大きいことを示す。   In step S <b> 104, the measurement unit 118 measures the distance between the audio reproduction terminal 10 and the display terminal 20. For example, the measurement unit 118 transmits a signal to the display terminal 20. When receiving a signal from the audio reproduction terminal 10, the transmission unit 212 transmits a response to the audio reproduction terminal 10. The measurement unit 118 measures a round trip delay time from when a signal is transmitted until a response is returned, and measures a distance between the audio reproduction terminal 10 and the display terminal 20 according to the measured round trip delay time. . It shows that the distance between the audio | voice reproduction terminal 10 and the display terminal 20 is so large that a round trip delay time is large.

ステップS105において、変更部119は、ステップS104で測定された距離に応じて、メニュー項目の選択に用いられる閾値を変更する。音声再生端末10と表示端末20との間の距離が小さい場合には、例えばユーザが満員電車等のあまり動けない場所に居ると考えられる。したがって、変更部119は、測定された距離が所定の距離より小さい場合には、閾値を小さくする。例えば、閾値が頭の傾き角度であり、その初期値が55度である場合には、閾値が50度に変更される。   In step S105, the changing unit 119 changes the threshold used for selecting the menu item according to the distance measured in step S104. When the distance between the audio reproduction terminal 10 and the display terminal 20 is small, it is considered that the user is in a place where the user cannot move much, such as a crowded train. Therefore, the changing unit 119 decreases the threshold when the measured distance is smaller than the predetermined distance. For example, when the threshold is the head tilt angle and the initial value is 55 degrees, the threshold is changed to 50 degrees.

また、閾値が変更されると、出力制御部113は、閾値が変更されたことを示す通知音(第3通知音の一例)をスピーカー16‐1及びスピーカー16‐2から出力する。この通知音は、例えば水面に落ちるしずくの音である。この通知音は、変更後の閾値に応じて変化する。例えば、閾値が小さくなった場合には、通知音の残響時間が小さくなる。   When the threshold value is changed, the output control unit 113 outputs a notification sound (an example of a third notification sound) indicating that the threshold value has been changed from the speaker 16-1 and the speaker 16-2. This notification sound is, for example, a drop sound falling on the water surface. This notification sound changes according to the changed threshold value. For example, when the threshold value decreases, the reverberation time of the notification sound decreases.

ステップS106において、信号処理部112は、仮想アイコンが配置された仮想空間内の位置及び仮想空間上のユーザの位置に基づいて、仮想アイコンの位置からユーザに至るまでの音の伝達特性に応じた信号処理を、メニュー項目を示す音声信号に施す。人間は、左右の耳に伝達する音の大きさの差、時間差、周波数特性の差により、音の到来方向及び距離を認識している。そこで、仮想アイコンが配置された位置及び方向に応じて、左右のスピーカー16‐1及び16‐2に供給される音声信号に、音圧レベル差、時間差、周波数特性の差を付加することにより、疑似的に仮想アイコンが配置された位置から聞こえる音を作り出すことができる。この場合、仮想アイコンの位置に仮想音源があることになる。具体的には、信号処理では、仮想アイコンが配置された位置からユーザの位置までの頭部伝達関数を、メニュー項目を示す音声信号に畳み込む処理が行われる。   In step S <b> 106, the signal processing unit 112 responds to the sound transmission characteristics from the position of the virtual icon to the user based on the position in the virtual space where the virtual icon is arranged and the position of the user in the virtual space. Signal processing is performed on the audio signal indicating the menu item. Humans recognize the direction and distance of sound arrival based on the difference in the volume of sound transmitted to the left and right ears, the difference in time, and the difference in frequency characteristics. Therefore, by adding a sound pressure level difference, a time difference, and a frequency characteristic difference to the audio signals supplied to the left and right speakers 16-1 and 16-2 according to the position and direction in which the virtual icon is arranged, Sound that can be heard from the position where the virtual icon is pseudo-positioned can be created. In this case, there is a virtual sound source at the position of the virtual icon. Specifically, in the signal processing, a process of convolving the head-related transfer function from the position where the virtual icon is arranged to the user's position into an audio signal indicating the menu item is performed.

ステップS107において、出力制御部113は、メニュー項目の読み上げ処理を行う。この読み上げ処理では、メニュー項目を示す音が一つずつ順番にスピーカー16‐1及び16‐2から出力される。メニュー項目を示す音は、例えばメニュー項目の名称を読み上げる音声である。   In step S107, the output control unit 113 performs a menu item reading process. In this reading process, sounds indicating menu items are output one by one from the speakers 16-1 and 16-2. The sound indicating the menu item is, for example, a sound that reads out the name of the menu item.

具体的には、出力制御部113は、まずメニュー項目の読み上げ順序を決定する。図7に示す例では、ユーザの前方に配置された仮想アイコンI1を基準として時計周りに見ると、仮想アイコンI1〜I8は、仮想アイコンI1、I2、I3、I4、I5、I6、I7、I8という順序で配列されている。この場合、第1〜第8メニュー項目の読み上げ順序は、第1メニュー項目、第2メニュー項目、第3メニュー項目、第4メニュー項目、第5メニュー項目、第6メニュー項目、第7メニュー項目、第8メニュー項目という順序になる。   Specifically, the output control unit 113 first determines the reading order of menu items. In the example shown in FIG. 7, when viewed clockwise from the virtual icon I1 arranged in front of the user, the virtual icons I1 to I8 are the virtual icons I1, I2, I3, I4, I5, I6, I7, I8. It is arranged in the order. In this case, the reading order of the first to eighth menu items is as follows: first menu item, second menu item, third menu item, fourth menu item, fifth menu item, sixth menu item, seventh menu item, The order is the eighth menu item.

続いて、出力制御部113は、読み上げ順序に従って、信号処理が施されたメニュー項目を示す音声信号を一つずつ順番にスピーカー16‐1及び16‐2に供給する。このとき、右耳用の音声信号はスピーカー16‐1に供給され、左耳用の音声信号はスピーカー16‐2に供給される。これにより、第1〜第8メニュー項目を示す音が一つずつ順番にスピーカー16‐1及びスピーカー16‐2から出力される。   Subsequently, the output control unit 113 supplies audio signals indicating the menu items subjected to signal processing to the speakers 16-1 and 16-2 one by one in accordance with the reading order. At this time, the audio signal for the right ear is supplied to the speaker 16-1, and the audio signal for the left ear is supplied to the speaker 16-2. Thus, sounds indicating the first to eighth menu items are output one by one from the speakers 16-1 and 16-2.

図7に示す例では、第1メニュー項目を示す仮想アイコンI1は、ユーザの前方に配置されている。したがって、第1メニュー項目を示す音は、疑似的にユーザの前方から聞こえる。第2メニュー項目を示す仮想アイコンI2は、ユーザの右前方に配置されている。したがって、第2メニュー項目を示す音は、疑似的にユーザの右前方から聞こえる。第3〜第8メニュー項目を示す音についても、同様である。これにより、ユーザは、仮想アイコンI1〜I8の配置を認識することができる。   In the example shown in FIG. 7, the virtual icon I1 indicating the first menu item is arranged in front of the user. Therefore, the sound indicating the first menu item is heard from the front of the user in a pseudo manner. The virtual icon I2 indicating the second menu item is arranged on the right front side of the user. Therefore, the sound indicating the second menu item is heard from the front right of the user in a pseudo manner. The same applies to the sounds indicating the third to eighth menu items. Thereby, the user can recognize the arrangement of the virtual icons I1 to I8.

他の例として、表示部25に仮想アイコンの一部だけが表示されている場合には、表示部25に表示されている仮想アイコンが示すメニュー項目に限り、メニュー項目を示す音が出力されてもよい。図8に示す例では、表示部25には、仮想アイコンI1及びI8が表示されている。この場合、送信部212は、表示部25に表示されている仮想アイコンI1及びI8を示す第1及び第8メニュー項目を識別するIDを音声再生端末10に送信する。表示端末20から第1及び第8メニュー項目のIDを受信すると、出力制御部113は、第1メニュー項目を示す音及び第8メニュー項目を示す音を順番にスピーカー16‐1及び16‐2から出力する。   As another example, when only a part of the virtual icon is displayed on the display unit 25, a sound indicating the menu item is output only for the menu item indicated by the virtual icon displayed on the display unit 25. Also good. In the example illustrated in FIG. 8, virtual icons I <b> 1 and I <b> 8 are displayed on the display unit 25. In this case, the transmission unit 212 transmits IDs for identifying the first and eighth menu items indicating the virtual icons I1 and I8 displayed on the display unit 25 to the audio reproduction terminal 10. When receiving the IDs of the first and eighth menu items from the display terminal 20, the output control unit 113 sequentially outputs the sound indicating the first menu item and the sound indicating the eighth menu item from the speakers 16-1 and 16-2. Output.

ユーザが表示端末20を移動させることにより表示部25の表示が更新されたときにも、同様の処理が行われてもよい。例えば、図10に示すように表示部25の表示が更新された場合、表示部25には、仮想アイコンI1及びI2が表示されている。この場合、送信部212は、表示部25に表示されている仮想アイコンI1及びI2が示す第1及び第2メニュー項目を識別するIDを音声再生端末10に送信する。表示端末20から第1及び第2メニューのIDを受信すると、出力制御部113は、第1メニューを示す音及び第2メニュー項目を示す音を順番にスピーカー16‐1及び16‐2から出力する。   The same processing may be performed when the display of the display unit 25 is updated by moving the display terminal 20 by the user. For example, when the display of the display unit 25 is updated as illustrated in FIG. 10, virtual icons I1 and I2 are displayed on the display unit 25. In this case, the transmission unit 212 transmits IDs for identifying the first and second menu items indicated by the virtual icons I1 and I2 displayed on the display unit 25 to the audio reproduction terminal 10. When receiving the IDs of the first and second menus from the display terminal 20, the output control unit 113 sequentially outputs sounds indicating the first menu and sounds indicating the second menu item from the speakers 16-1 and 16-2. .

ステップS108において、送信部114は、各々のメニュー項目を示す音がスピーカー16‐1及び16‐2から出力される度に、そのメニュー項目を識別するIDを表示端末20に送信する。例えば、第1メニュー項目を示す音がスピーカー16‐1及び16‐2から出力されると、第1メニュー項目を識別するIDが表示端末20に送信される。第2メニュー項目を示す音がスピーカー16‐1及び16‐2から出力されると、第2メニュー項目を識別するIDが表示端末20に送信される。表示端末20は、音声再生端末10からメニュー項目のIDを受信すると、ステップS109に進む。   In step S <b> 108, each time a sound indicating each menu item is output from the speakers 16-1 and 16-2, the transmission unit 114 transmits an ID for identifying the menu item to the display terminal 20. For example, when a sound indicating the first menu item is output from the speakers 16-1 and 16-2, an ID for identifying the first menu item is transmitted to the display terminal 20. When a sound indicating the second menu item is output from the speakers 16-1 and 16-2, an ID for identifying the second menu item is transmitted to the display terminal 20. When the display terminal 20 receives the menu item ID from the audio reproduction terminal 10, the process proceeds to step S109.

ステップS109において、表示制御部211は、受信したIDにより識別されるメニュー項目を示す仮想アイコンの表示を変化させる。この表示の変化は、例えば仮想アイコンの色、形、又は大きさを変化させることが含まれる。図8に示す例では、表示部25に第1及び第2メニュー項目を示す仮想アイコンI1及びI2が表示されている。例えば第1メニュー項目のIDが受信されると、第1メニュー項目を示す仮想アイコンI1が光る。   In step S109, the display control unit 211 changes the display of a virtual icon indicating a menu item identified by the received ID. This change in display includes, for example, changing the color, shape, or size of the virtual icon. In the example illustrated in FIG. 8, virtual icons I1 and I2 indicating the first and second menu items are displayed on the display unit 25. For example, when the ID of the first menu item is received, the virtual icon I1 indicating the first menu item is illuminated.

ユーザは、スピーカー16‐1及び16‐2から出力されたメニュー項目を示す音及び表示部25に表示された仮想アイコンの位置に基づいて、仮想アイコンの配置を認識する。図7に示す例では、第1メニュー項目の音はユーザの前方から聞こえるため、第1メニュー項目を示す仮想アイコンI1はユーザの前方に配置されていることが分かる。また、図8に示す例では、仮想アイコンI1とマークH1の相対的な位置関係により、仮想アイコンI1がユーザの前方に配置されていることが分かる。例えば、第1メニュー項目を選択する場合、ユーザは、頭を前方に傾ける動作又は表示端末20が装着された腕を前方に移動させる動作を行う。   The user recognizes the arrangement of the virtual icons based on the sound indicating the menu items output from the speakers 16-1 and 16-2 and the position of the virtual icon displayed on the display unit 25. In the example shown in FIG. 7, since the sound of the first menu item can be heard from the front of the user, it can be seen that the virtual icon I1 indicating the first menu item is arranged in front of the user. In the example shown in FIG. 8, it can be seen that the virtual icon I1 is arranged in front of the user based on the relative positional relationship between the virtual icon I1 and the mark H1. For example, when selecting the first menu item, the user performs an operation of tilting the head forward or an operation of moving the arm on which the display terminal 20 is worn forward.

ステップS110において、検出部115は、ユーザの体の動作及びその動作量を検出する。例えばユーザが頭を傾ける動作を行った場合、この動作及び動作量は、角速度センサ182により測定された角速度に基づいて検出される。一方、ユーザが表示端末20の装着された腕を移動させる動作を行った場合、この動作及び動作量は、加速度センサ261により測定された加速度に基づいて検出される。具体的には、送信部212は、加速度センサ261により測定された加速度を音声再生端末10に送信する。表示端末20から加速度を受信すると、検出部115は、予め登録された表示端末20の位置とこの加速度とに基づいて、表示端末20が装着された腕を移動させる動作及びその動作量を検出する。   In step S110, the detection unit 115 detects the movement of the user's body and the amount of movement. For example, when the user performs an operation of tilting his / her head, the operation and the operation amount are detected based on the angular velocity measured by the angular velocity sensor 182. On the other hand, when the user performs an operation of moving the arm on which the display terminal 20 is worn, the operation and the operation amount are detected based on the acceleration measured by the acceleration sensor 261. Specifically, the transmission unit 212 transmits the acceleration measured by the acceleration sensor 261 to the voice reproduction terminal 10. When the acceleration is received from the display terminal 20, the detection unit 115 detects the movement of the arm on which the display terminal 20 is worn and the amount of movement based on the position of the display terminal 20 registered in advance and the acceleration. .

ステップS111において、選択部116は、仮想アイコンが配置された方向に体を動かす動作が検出され、且つ、その動作量が閾値を超えた場合には、その仮想アイコンが示すメニュー項目を選択する。なお、仮想アイコンが配置された方向とは、必ずしも仮想アイコンが配置された位置を通る方向である必要はない。例えば、仮想アイコンが配置された位置を含む所定の範囲を通る方向も、仮想アイコンが配置された方向に含まれてもよい。例えば、頭を前方に傾ける動作又は表示端末20が装着された腕を前方に移動させる動作が検出され、且つ、その動作量が閾値を超えた場合には、ユーザの前方に配置された仮想アイコンI1が示す第1メニュー項目が選択される。なお、ステップS111では、ステップS105で変更された閾値が用いられる。   In step S <b> 111, the selection unit 116 selects a menu item indicated by the virtual icon when the movement of moving the body in the direction in which the virtual icon is arranged is detected and the movement amount exceeds the threshold value. Note that the direction in which the virtual icon is arranged does not necessarily need to be a direction passing through the position in which the virtual icon is arranged. For example, the direction passing through a predetermined range including the position where the virtual icon is arranged may also be included in the direction where the virtual icon is arranged. For example, when a motion of tilting the head forward or a motion of moving the arm on which the display terminal 20 is worn forward is detected and the motion amount exceeds a threshold value, a virtual icon arranged in front of the user The first menu item indicated by I1 is selected. In step S111, the threshold value changed in step S105 is used.

図11は、メニュー項目を選択する動作の一例を説明する図である。例えば、ユーザが頭を前方に傾ける動作を行った場合には、その傾き角度が所定の角度θ1に到達すると、第1メニュー項目の選択動作が開始されたと判断される。このとき、選択動作が開始されたことを示す通知音がスピーカー16‐1及び16‐2から出力される。ユーザの頭の傾き角度が所定の角度θ1から閾値θ2に達するまでの間、選択動作が行われていることを示す通知音(第1通知音の一例)がスピーカー16‐1及び16‐2から出力される。この通知音は、ユーザの頭の傾き角度が大きくなるにつれて、徐々に音量レベルが小さくなる。ユーザの頭の傾き角度が閾値θ2を超えると、ユーザの前方に配置された仮想アイコンI1が示す第1メニュー項目が選択される。このとき、第1メニュー項目の選択が完了したことを示す通知音(第2通知音の一例)がスピーカー16‐1及び16‐2から出力される。   FIG. 11 is a diagram illustrating an example of an operation for selecting a menu item. For example, when the user performs an operation of tilting his / her head forward, when the tilt angle reaches a predetermined angle θ1, it is determined that the first menu item selection operation has started. At this time, a notification sound indicating that the selection operation has been started is output from the speakers 16-1 and 16-2. A notification sound (an example of a first notification sound) indicating that the selection operation is being performed until the tilt angle of the user's head reaches the threshold value θ2 from the predetermined angle θ1 is output from the speakers 16-1 and 16-2. Is output. The sound level of the notification sound gradually decreases as the tilt angle of the user's head increases. When the tilt angle of the user's head exceeds the threshold θ2, the first menu item indicated by the virtual icon I1 disposed in front of the user is selected. At this time, a notification sound (an example of a second notification sound) indicating that the selection of the first menu item is completed is output from the speakers 16-1 and 16-2.

他の例として、選択部116は、表示部25に表示されている仮想アイコンが示すメニュー項目に限り、選択を行ってもよい。図8に示す例では、表示部25には、仮想アイコンI1及びI8が表示されている。この場合、送信部212は、上述したように、表示部25に表示されている仮想アイコンI1及びI8が示す第1及び第8メニュー項目を識別するIDを音声再生端末10に送信する。表示端末20から第1及び第8メニュー項目のIDを受信すると、選択部116は、第1及び第8メニュー項目だけを選択できるようにし、それ以外の第2〜第7メニュー項目については選択できないように制限する。この場合、仮想アイコンI1又はI8が配置された方向に体を動かす動作が行われ、且つ、その動作量が閾値を超えた場合には、第1又は第8メニュー項目が選択される。一方、仮想アイコンI2〜I7が配置された方向に体を動かす動作が行われても、第2〜第7メニュー項目は選択されない。   As another example, the selection unit 116 may select only the menu item indicated by the virtual icon displayed on the display unit 25. In the example illustrated in FIG. 8, virtual icons I <b> 1 and I <b> 8 are displayed on the display unit 25. In this case, as described above, the transmission unit 212 transmits the ID for identifying the first and eighth menu items indicated by the virtual icons I1 and I8 displayed on the display unit 25 to the audio reproduction terminal 10. When receiving the IDs of the first and eighth menu items from the display terminal 20, the selection unit 116 can select only the first and eighth menu items and cannot select the other second to seventh menu items. To be limited. In this case, when the movement of moving the body in the direction in which the virtual icon I1 or I8 is arranged and the movement amount exceeds the threshold, the first or eighth menu item is selected. On the other hand, even if an operation of moving the body in the direction in which the virtual icons I2 to I7 are arranged, the second to seventh menu items are not selected.

ステップS112において、実行部117は、ユーザにより選択されたメニュー項目に対応する処理を実行する。例えば、第1メニュー項目がアプリケーションに関するものである場合において、第1メニュー項目が選択されると、第1メニュー項目に対応するアプリケーションが起動される。   In step S112, the execution unit 117 executes processing corresponding to the menu item selected by the user. For example, when the first menu item is related to an application, when the first menu item is selected, the application corresponding to the first menu item is activated.

本実施形態では、ユーザが体をあまり動かすことができない状況にある場合には、メニュー項目の選択に用いられる閾値が小さくなるため、ユーザは、体を大きく動かさなくても、メニュー項目を選択することができる。このように、本実施形態によれば、ユーザの状況に応じてメニュー項目を選択し易くすることができる。   In the present embodiment, when the user cannot move the body much, the threshold used for selecting the menu item becomes small, so the user selects the menu item without moving the body greatly. be able to. Thus, according to this embodiment, it is possible to easily select a menu item according to the user's situation.

また、本実施形態によれば、ユーザがメニュー項目を選択する動作を行っている間は、選択動作が行われていることを示す通知音がスピーカー16‐1及び16‐2から出力されるため、ユーザは選択動作が受け付けられていることを認識することができる。また、メニュー項目の選択が完了すると、メニュー項目の選択が完了したことを示す通知音がスピーカー16‐1及び16‐2から出力されるため、ユーザはメニュー項目の選択が完了したことを認識することができる。   Further, according to the present embodiment, the notification sound indicating that the selection operation is being performed is output from the speakers 16-1 and 16-2 while the user performs the operation of selecting the menu item. The user can recognize that the selection operation is accepted. When the selection of the menu item is completed, a notification sound indicating that the selection of the menu item is completed is output from the speakers 16-1 and 16-2, so that the user recognizes that the selection of the menu item is completed. be able to.

さらに、本実施形態によれば、閾値が変更されると、閾値が変更されたことを示す通知音がスピーカー16‐1及びスピーカー16‐2から出力されるため、ユーザは閾値が変更されたことを認識することができる。   Furthermore, according to this embodiment, when the threshold value is changed, a notification sound indicating that the threshold value has been changed is output from the speakers 16-1 and 16-2, so that the user has changed the threshold value. Can be recognized.

3.変形例
本発明は、上述した実施形態に限定されない。例えば、実施形態を以下のように変形してもよい。また、以下の変形例を組み合わせてもよい。
3. The present invention is not limited to the above-described embodiment. For example, the embodiment may be modified as follows. Further, the following modifications may be combined.

(1)ユーザの状況や行動に応じて、閾値が変更されてもよい。例えば、変更部119は、ユーザが満員電車に乗っている場合等、ユーザが人の密集した場所に居る場合には、閾値を小さくしてもよい。この場合、変更部119は、通信部13により通信範囲内に存在する他の通信端末と通信を行うことにより、通信範囲内に存在する他の通信端末の数を計算する。他の通信端末の数が所定の数より大きい場合、変更部119は、ユーザが人の密集した場所に居ると判断し、閾値を小さくする。 (1) The threshold value may be changed according to the user's situation and behavior. For example, the change unit 119 may decrease the threshold when the user is in a crowded place such as when the user is on a crowded train. In this case, the changing unit 119 calculates the number of other communication terminals existing in the communication range by communicating with other communication terminals existing in the communication range by the communication unit 13. When the number of other communication terminals is larger than the predetermined number, the changing unit 119 determines that the user is in a crowded place and decreases the threshold value.

また、変更部119は、ユーザが歩行中の場合には、閾値を大きくしてもよい。この場合、変更部119は、加速度センサ181により測定された加速度に基づいて、ユーザが歩行中であるか否かを判断する。ユーザが歩行中である場合、変更部119は、閾値を大きくする。ユーザが歩行中である場合には、ユーザの体が常に動いているため、閾値が小さいと、意図しないメニュー項目が誤って選択される恐れがある。本変形例によれば、このような誤選択を抑制することができる。   The changing unit 119 may increase the threshold when the user is walking. In this case, the changing unit 119 determines whether the user is walking based on the acceleration measured by the acceleration sensor 181. When the user is walking, the changing unit 119 increases the threshold value. When the user is walking, the user's body is constantly moving. Therefore, if the threshold is small, an unintended menu item may be selected by mistake. According to this modification, such erroneous selection can be suppressed.

(2)ユーザの姿勢に応じて、メニュー項目を選択する動作が変更されてもよい。例えば、ユーザが寝ている姿勢をとっている場合には、頭の回転によりメニュー項目を選択できるようにしてもよい。この場合、選択部116は、角速度センサ182により測定された角速度に基づいて、ユーザが寝ている姿勢をとっているか否かを判断する。例えば、ユーザが一定時間、横になっている場合には、ユーザが寝ている姿勢をとっていると判断される。この場合、選択部116は、検出部115により頭を回転させる動作が検出された場合には、その回転角度に応じたメニュー項目を選択する。 (2) The operation of selecting the menu item may be changed according to the user's posture. For example, when the user is sleeping, the menu item may be selected by rotating the head. In this case, the selection unit 116 determines whether the user is in a sleeping posture based on the angular velocity measured by the angular velocity sensor 182. For example, when the user is lying down for a certain time, it is determined that the user is in a sleeping posture. In this case, when the operation of rotating the head is detected by the detection unit 115, the selection unit 116 selects a menu item corresponding to the rotation angle.

(3)音声再生端末10と表示端末20との間の距離を測定する方法は、実施形態で説明した方法に限定されない。上述したように、音声再生端末10には、予めユーザが表示端末20の表示部25を見る基本的な姿勢をとったときの表示端末20の位置が登録されている。この登録された位置からの表示端末20の移動量に応じて、音声再生端末10と表示端末20との間の距離が測定されてもよい。この場合、送信部212は、加速度センサ261により測定された加速度を音声再生端末10に送信する。表示端末20から加速度を受信すると、測定部118は、予め登録された表示端末20の位置とこの加速度とに基づいて、表示端末20の現在位置を測定する。そして、測定部118は、表示端末20の現在位置に基づいて、音声再生端末10と表示端末20との間の距離を測定する。 (3) The method for measuring the distance between the audio reproduction terminal 10 and the display terminal 20 is not limited to the method described in the embodiment. As described above, the position of the display terminal 20 when the user takes a basic attitude of looking at the display unit 25 of the display terminal 20 is registered in the audio reproduction terminal 10 in advance. The distance between the audio reproduction terminal 10 and the display terminal 20 may be measured in accordance with the movement amount of the display terminal 20 from the registered position. In this case, the transmission unit 212 transmits the acceleration measured by the acceleration sensor 261 to the voice reproduction terminal 10. When the acceleration is received from the display terminal 20, the measurement unit 118 measures the current position of the display terminal 20 based on the position of the display terminal 20 registered in advance and the acceleration. Then, the measurement unit 118 measures the distance between the audio reproduction terminal 10 and the display terminal 20 based on the current position of the display terminal 20.

(4)音声再生端末10及び表示端末20は、実施形態で説明した例に限定されない。例えば、音声再生端末10は、イヤーフック型やオーバーヘッド型のウェアラブルコンピュータであってもよい。表示端末20は、スマートフォンであってもよい。また、音声再生端末10の機能の一部が表示端末20又は外部のサーバ装置により実現されてもよい。例えば、図3に示す配置部111、信号処理部112、検出部115、選択部116、実行部117、測定部118、又は変更部119の機能が表示端末20により実現されてもよい。 (4) The audio reproduction terminal 10 and the display terminal 20 are not limited to the example described in the embodiment. For example, the audio reproduction terminal 10 may be an ear hook type or overhead type wearable computer. The display terminal 20 may be a smartphone. Also, some of the functions of the audio playback terminal 10 may be realized by the display terminal 20 or an external server device. For example, the functions of the placement unit 111, the signal processing unit 112, the detection unit 115, the selection unit 116, the execution unit 117, the measurement unit 118, or the change unit 119 illustrated in FIG. 3 may be realized by the display terminal 20.

(5)メニュー項目は、実施形態で説明した例に限定されない。メニュー項目は、音声再生端末10にダウンロードされた音楽や画像に関するものであってもよい。 (5) Menu items are not limited to the examples described in the embodiment. The menu item may relate to music or images downloaded to the audio playback terminal 10.

(6)実施形態では、制御部11の機能及び制御部21の機能がソフトウェアにより実現される例について説明した。制御部11の機能及び制御部21の機能の少なくとも一部がハードウェアにより実現されてもよい。例えば、信号処理部112がハードウェアにより実現されてもよい。 (6) In the embodiment, the example in which the function of the control unit 11 and the function of the control unit 21 are realized by software has been described. At least a part of the function of the control unit 11 and the function of the control unit 21 may be realized by hardware. For example, the signal processing unit 112 may be realized by hardware.

(7)音声再生端末10の制御部11及び表示端末20の制御部21により実行されるプログラムは、インターネット等の通信回線を介してダウンロードされてもよい。また、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどの、コンピュータが読取可能な記録媒体に記録した状態で提供されてもよい。 (7) The program executed by the control unit 11 of the audio reproduction terminal 10 and the control unit 21 of the display terminal 20 may be downloaded via a communication line such as the Internet. The program is provided in a state of being recorded on a computer-readable recording medium such as a magnetic recording medium (magnetic tape, magnetic disk, etc.), an optical recording medium (optical disk, etc.), a magneto-optical recording medium, or a semiconductor memory. May be.

10:音声再生端末、16‐1,16‐2:スピーカー、20:表示端末、25:表示部、111:配置部、112:信号処理部、113:出力制御部、114:送信部、115:検出部、116:選択部、117:実行部、118:測定部、119:変更部、211:表示制御部、212:送信部 10: Audio playback terminal, 16-1, 16-2: Speaker, 20: Display terminal, 25: Display unit, 111: Arrangement unit, 112: Signal processing unit, 113: Output control unit, 114: Transmission unit, 115: Detection unit, 116: selection unit, 117: execution unit, 118: measurement unit, 119: change unit, 211: display control unit, 212: transmission unit

Claims (5)

ユーザが存在する現実空間に対応する仮想空間に、メニュー項目を示す仮想オブジェクトを配置する配置部と、
前記仮想オブジェクトが配置された前記仮想空間内の位置及び前記仮想空間上の前記ユーザの位置に対応する音の伝達特性に応じた信号処理を、前記メニュー項目を示す音声信号に施す信号処理部と、
前記信号処理が施された前記音声信号に応じた音を出力するスピーカーと、
前記仮想空間に配置された前記仮想オブジェクトを表示する表示部と、
前記ユーザの体の動作及び前記動作の動作量を検出する検出部と、
前記仮想オブジェクトが配置された方向に前記体を動かす動作が検出され、且つ、前記検出された動作の動作量が閾値を超えた場合には、前記メニュー項目を選択する選択部と、
前記スピーカーを有する第1端末と、前記表示部を有する第2端末との間の距離を測定する測定部と、
前記測定された距離に応じて、前記閾値を変更する変更部と
を備えるメニュー選択システム。
A placement unit for placing a virtual object indicating a menu item in a virtual space corresponding to a real space where the user exists;
A signal processing unit that applies signal processing corresponding to a sound transfer characteristic corresponding to a position in the virtual space where the virtual object is arranged and a position of the user in the virtual space to an audio signal indicating the menu item; ,
A speaker that outputs a sound corresponding to the audio signal subjected to the signal processing;
A display unit for displaying the virtual object arranged in the virtual space;
A detection unit for detecting the movement of the user's body and the movement amount of the movement;
A selection unit that selects the menu item when a motion of moving the body in the direction in which the virtual object is arranged is detected and the motion amount of the detected motion exceeds a threshold;
A measuring unit for measuring a distance between the first terminal having the speaker and the second terminal having the display unit;
A menu selection system comprising: a changing unit that changes the threshold according to the measured distance.
前記スピーカーは、前記動作が開始されてから前記動作量が前記閾値に達するまでの間、第1通知音を出力し、前記動作量が前記閾値を超えると、第2通知音を出力する
請求項1に記載のメニュー選択システム。
The speaker outputs a first notification sound until the operation amount reaches the threshold value after the operation is started, and outputs a second notification sound when the operation amount exceeds the threshold value. 1. The menu selection system according to 1.
前記スピーカーは、前記閾値が変更されると、第3通知音を出力する
請求項1又は2に記載のメニュー選択システム。
The menu selection system according to claim 1, wherein the speaker outputs a third notification sound when the threshold is changed.
前記変更部は、前記ユーザの状況又は行動に応じて、前記閾値を変更する
請求項1から3のいずれか1項に記載のメニュー選択システム。
The menu selection system according to any one of claims 1 to 3, wherein the changing unit changes the threshold value according to a situation or action of the user.
ユーザが存在する現実空間に対応する仮想空間に、メニュー項目を示す仮想オブジェクトを配置するステップと、
前記仮想オブジェクトが配置された前記仮想空間内の位置及び前記仮想空間上の前記ユーザの位置に対応する音の伝達特性に応じた信号処理を、前記メニュー項目を示す音声信号に施すステップと、
前記信号処理が施された前記音声信号に応じた音をスピーカーから出力するステップと、
前記仮想空間に配置された前記仮想オブジェクトを表示部に表示するステップと、
前記ユーザの体の動作及び前記動作の動作量を検出するステップと、
前記仮想オブジェクトが配置された方向に前記体を動かす動作が検出され、且つ、前記検出された動作の動作量が閾値を超えた場合には、前記メニュー項目を選択するステップと、
前記スピーカーを有する第1端末と、前記表示部を有する第2端末との間の距離を測定するステップと、
前記測定された距離に応じて、前記閾値を変更するステップと
を備えるメニュー選択方法。
Placing a virtual object indicating a menu item in a virtual space corresponding to a real space where the user exists;
Applying signal processing corresponding to a sound transfer characteristic corresponding to a position in the virtual space where the virtual object is arranged and a position of the user in the virtual space to the audio signal indicating the menu item;
Outputting a sound according to the audio signal subjected to the signal processing from a speaker;
Displaying the virtual object arranged in the virtual space on a display unit;
Detecting the movement of the user's body and the amount of movement of the movement;
When a motion of moving the body in the direction in which the virtual object is arranged is detected, and when the motion amount of the detected motion exceeds a threshold, selecting the menu item;
Measuring a distance between a first terminal having the speaker and a second terminal having the display;
A menu selection method comprising: changing the threshold value according to the measured distance.
JP2014157761A 2014-08-01 2014-08-01 Menu selection system and menu selection method Pending JP2016035632A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014157761A JP2016035632A (en) 2014-08-01 2014-08-01 Menu selection system and menu selection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014157761A JP2016035632A (en) 2014-08-01 2014-08-01 Menu selection system and menu selection method

Publications (1)

Publication Number Publication Date
JP2016035632A true JP2016035632A (en) 2016-03-17

Family

ID=55523460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014157761A Pending JP2016035632A (en) 2014-08-01 2014-08-01 Menu selection system and menu selection method

Country Status (1)

Country Link
JP (1) JP2016035632A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017169158A1 (en) * 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017169158A1 (en) * 2016-03-29 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program
CN108885496A (en) * 2016-03-29 2018-11-23 索尼公司 Information processing unit, information processing method and program
JPWO2017169158A1 (en) * 2016-03-29 2019-02-07 ソニー株式会社 Information processing apparatus, information processing method, and program
EP3438789A4 (en) * 2016-03-29 2019-03-27 Sony Corporation Information processing device, information processing method, and program
US10928919B2 (en) 2016-03-29 2021-02-23 Sony Corporation Information processing device and information processing method for virtual objects operability

Similar Documents

Publication Publication Date Title
US10638213B2 (en) Control method of mobile terminal apparatus
US9351090B2 (en) Method of checking earphone wearing state
US10397728B2 (en) Differential headtracking apparatus
CN107005739B (en) External visual interaction for voice-based devices
US8831240B2 (en) Bluetooth device and audio playing method using the same
US10609462B2 (en) Accessory device that provides sensor input to a media device
US9237393B2 (en) Headset with accelerometers to determine direction and movements of user head and method
US11647352B2 (en) Head to headset rotation transform estimation for head pose tracking in spatial audio applications
US10387112B2 (en) Multi-dimensional audio interface system
US20210400414A1 (en) Head tracking correlated motion detection for spatial audio applications
WO2013147791A1 (en) Audio control based on orientation
JP6325384B2 (en) Mobile terminal, training management program, and training management method
US9916004B2 (en) Display device
CN107182011B (en) Audio playing method and system, mobile terminal and WiFi earphone
US20150334504A1 (en) Determining positions of media devices based on motion data
KR20210016807A (en) Method for determining position in vehicle using vehicle movement and apparatus therefor
CN110275655A (en) Lyric display method, device, equipment and storage medium
JP6275557B2 (en) Audio output device
JP2016035632A (en) Menu selection system and menu selection method
US11689841B2 (en) Earbud orientation-based beamforming
EP4132014A1 (en) Audio signal processing method, electronic apparatus, and storage medium
JP6294183B2 (en) Menu selection device and menu selection method
CN113099373A (en) Sound field width expansion method, device, terminal and storage medium
CN112558302B (en) Intelligent glasses for determining glasses posture and signal processing method thereof
KR20240049565A (en) Audio adjustments based on user electrical signals