JP2016035632A - Menu selection system and menu selection method - Google Patents
Menu selection system and menu selection method Download PDFInfo
- Publication number
- JP2016035632A JP2016035632A JP2014157761A JP2014157761A JP2016035632A JP 2016035632 A JP2016035632 A JP 2016035632A JP 2014157761 A JP2014157761 A JP 2014157761A JP 2014157761 A JP2014157761 A JP 2014157761A JP 2016035632 A JP2016035632 A JP 2016035632A
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- virtual
- menu item
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、メニュー項目を選択する技術に関する。 The present invention relates to a technique for selecting a menu item.
バーチャルサラウンド技術を利用して、メニュー項目の選択を実現する技術が知られている。例えば、特許文献1には、仮想的な3次元音場に複数のメニュー項目に対応する複数のメニュー音像を定位させ、装着者が頭を動かすことによって任意のメニュー音像を選択し、選択されたメニュー音像に対応するメニュー項目を実行することが記載されている。また、特許文献2のように、AR(Augmented Reality)を利用して、仮想オブジェクトを表示する技術が知られている。
A technique for realizing selection of a menu item using a virtual surround technique is known. For example, in
特許文献1に記載の発明のように、ユーザが体を動かすことによってメニュー項目を選択する場合には、ユーザの状況によってはメニュー項目を選択し難い場合がある。例えば、ユーザが満員電車に乗っている場合には、体をあまり動かすことができないため、メニュー項目を選択し難い。
本発明は、ユーザの状況に応じてメニュー項目を選択し易くすることを目的とする。
When the user selects a menu item by moving his / her body as in the invention described in
An object of this invention is to make it easy to select a menu item according to a user's condition.
本発明は、ユーザが存在する現実空間に対応する仮想空間に、メニュー項目を示す仮想オブジェクトを配置する配置部と、前記仮想オブジェクトが配置された前記仮想空間内の位置及び前記仮想空間上の前記ユーザの位置に対応する音の伝達特性に応じた信号処理を、前記メニュー項目を示す音声信号に施す信号処理部と、前記信号処理が施された前記音声信号に応じた音を出力するスピーカーと、前記仮想空間に配置された前記仮想オブジェクトを表示する表示部と、前記ユーザの体の動作及び前記動作の動作量を検出する検出部と、前記仮想オブジェクトが配置された方向に前記体を動かす動作が検出され、且つ、前記検出された動作の動作量が閾値を超えた場合には、前記メニュー項目を選択する選択部と、前記スピーカーを有する第1端末と、前記表示部を有する第2端末との間の距離を測定する測定部と、前記測定された距離に応じて、前記閾値を変更する変更部とを備えるメニュー選択システムを提供する。 The present invention provides an arrangement unit that arranges a virtual object indicating a menu item in a virtual space corresponding to a real space where a user exists, a position in the virtual space where the virtual object is arranged, and the virtual space on the virtual space A signal processing unit that applies signal processing corresponding to a sound transfer characteristic corresponding to a user's position to an audio signal indicating the menu item; and a speaker that outputs sound corresponding to the audio signal subjected to the signal processing; A display unit that displays the virtual object arranged in the virtual space, a detection unit that detects the movement of the user's body and the amount of movement of the movement, and moves the body in the direction in which the virtual object is arranged When a motion is detected and the motion amount of the detected motion exceeds a threshold value, a selection unit that selects the menu item and a speaker having the speaker A terminal, a measuring unit for measuring a distance between the second terminal having the display unit, according to the distance that is the measurement, which provides a menu selection system and a changing unit for changing the threshold value.
前記スピーカーは、前記動作が開始されてから前記動作量が前記閾値に達するまでの間、第1通知音を出力し、前記動作量が前記閾値を超えると、第2通知音を出力してもよい。 The speaker outputs a first notification sound until the operation amount reaches the threshold after the operation is started, and outputs a second notification sound when the operation amount exceeds the threshold. Good.
前記スピーカーは、前記閾値が変更されると、第3通知音を出力してもよい。 The speaker may output a third notification sound when the threshold is changed.
前記変更部は、前記ユーザの状況又は行動に応じて、前記閾値を変更してもよい。 The changing unit may change the threshold value according to a situation or action of the user.
また、本発明は、ユーザが存在する現実空間に対応する仮想空間に、メニュー項目を示す仮想オブジェクトを配置するステップと、前記仮想オブジェクトが配置された前記仮想空間内の位置及び前記仮想空間上の前記ユーザの位置に対応する音の伝達特性に応じた信号処理を、前記メニュー項目を示す音声信号に施すステップと、前記信号処理が施された前記音声信号に応じた音をスピーカーから出力するステップと、前記仮想空間に配置された前記仮想オブジェクトを表示部に表示するステップと、前記ユーザの体の動作及び前記動作の動作量を検出するステップと、前記仮想オブジェクトが配置された方向に前記体を動かす動作が検出され、且つ、前記検出された動作の動作量が閾値を超えた場合には、前記メニュー項目を選択するステップと、前記スピーカーを有する第1端末と、前記表示部を有する第2端末との間の距離を測定するステップと、前記測定された距離に応じて、前記閾値を変更するステップとを備えるメニュー選択方法を提供する。 The present invention also includes a step of arranging a virtual object indicating a menu item in a virtual space corresponding to a real space in which a user exists, a position in the virtual space where the virtual object is arranged, and a position on the virtual space Applying signal processing corresponding to the sound transfer characteristic corresponding to the user's position to the audio signal indicating the menu item, and outputting sound corresponding to the audio signal subjected to the signal processing from a speaker Displaying the virtual object arranged in the virtual space on a display unit, detecting the movement of the user's body and the amount of movement of the movement, and the body in the direction in which the virtual object is arranged Is detected, and the amount of motion of the detected motion exceeds a threshold value, the step of selecting the menu item is detected. And a step of measuring a distance between the first terminal having the speaker and the second terminal having the display unit, and changing the threshold according to the measured distance. Provide a selection method.
本発明によれば、ユーザの状況に応じてメニュー項目を選択し易くすることができる。 ADVANTAGE OF THE INVENTION According to this invention, it can make it easy to select a menu item according to a user's condition.
1.構成
(1)システムの全体構成
図1は、メニュー選択システム1の構成を示す図である。メニュー選択システム1は、音声再生端末10と、表示端末20とを備える。音声再生端末10は、イヤホン型のウェアラブルコンピュータである。音声再生端末10は、ユーザの耳に装着される。表示端末20は、腕時計型のウェアラブルコンピュータである。表示端末20は、ユーザの腕に装着される。音声再生端末10と表示端末20とは、予めペアリングされている。音声再生端末10と表示端末20とは連携して、ユーザによるメニュー項目の選択を実現する。
1. Configuration (1) Overall Configuration of System FIG. 1 is a diagram showing a configuration of a
(2)音声再生端末10の構成
音声再生端末10は、右耳用の筐体101と、左耳用の筐体102と、ケーブル103と、本体104とを備える。筐体101は、ユーザの右耳に装着される。筐体101には、スピーカー16‐1が収容される。筐体102は、ユーザの左耳に装着される。筐体102には、スピーカー16‐2が収容される。ケーブル103は、筐体101と本体104、及び筐体102と本体104とを接続する。本体104は、2チャンネルの音声信号をスピーカー16‐1及び16‐2に供給することにより、ステレオ方式で音を再生する。
(2) Configuration of
図2は、音声再生端末10のハードウェア構成を示す図である。音声再生端末10は、ユーザが存在する現実空間に対応する仮想空間に、メニュー項目に対応する仮想アイコンを配置し、バーチャルサラウンドを利用してユーザに仮想アイコンの配置を認識させる機能を有する。ユーザは、仮想アイコンが配置された方向に体を動かす動作を行うことにより、その仮想アイコンが示すメニュー項目を選択することができる。音声再生端末10は、制御部11と、記憶部12と、通信部13と、操作部14と、マイクロフォン15と、スピーカー16‐1及び16‐2と、測位部17と、センサ部18と、電源19とを備える。これらの構成要素は、バス又はケーブル103を介して接続される。なお、スピーカー16‐1及び16‐2以外の構成要素は、基本的には、本体104に収容される。ただし、センサ部18は、筐体101又は102に収容される。
FIG. 2 is a diagram illustrating a hardware configuration of the
制御部11は、記憶部12に記憶されたプログラムを実行することにより、データの演算や他の構成要素の制御を行う。制御部11には、例えばCPUが用いられる。記憶部12は、制御部11により実行されるプログラムや各種のデータを記憶する。記憶部12は、主記憶装置と補助記憶装置とを含む。主記憶装置には、例えばRAMが用いられる。補助記憶装置には、例えばフラッシュメモリが用いられる。
The
通信部13は、データ通信を行うための通信インタフェースである。通信部13は、Bluetooth(登録商標)等の近距離無線通信規格に従って表示端末20と通信を行う。操作部14は、ユーザの操作に応じた信号を制御部11に入力する。操作部14には、例えばタッチセンサーが用いられる。マイクロフォン15は、音を受信し、受信した音に応じた信号を制御部11に入力する。スピーカー16‐1及び16‐2は、音声信号に応じた音を出力する。
The
測位部17は、音声再生端末10の現在の位置を測定する。測位部17には、例えばGPS(Global Positioning System)受信機が用いられる。電源19は、音声再生端末10の各構成要素に電力を供給する。電源19には、例えばバッテリーが用いられる。
The
センサ部18は、ユーザの動作の検出に用いられる。センサ部18には、例えば加速度センサ181と、角速度センサ182と、地磁気センサ183とが含まれる。加速度センサ181は、三軸方向の加速度を測定する。角速度センサ182は、三軸方向の角速度を測定する。地磁気センサ183は、三軸方向の地磁気を測定する。
The
図3は、制御部11の機能構成を示す図である。制御部11は、記憶部12に記憶された1又は複数のプログラムを実行することにより、配置部111、信号処理部112、出力制御部113、送信部114、検出部115、選択部116、実行部117、測定部118、及び変更部119の機能を実現する。また、これらの機能は、制御部11と他の構成要素との協働により実現されてもよい。
FIG. 3 is a diagram illustrating a functional configuration of the
配置部111は、ユーザが存在する現実空間に対応する仮想空間に、メニュー項目を示す仮想オブジェクトを配置する。信号処理部112は、仮想オブジェクトが配置された仮想空間内の位置及び前記仮想空間上のユーザの位置に対応する音の伝達特性に応じた信号処理を、メニュー項目を示す音声信号に施す。出力制御部113は、信号処理が施された音声信号に応じた音をスピーカー16‐1及び16‐2から出力する。送信部114は、仮想オブジェクトの配置を示す配置情報を表示端末20に送信する。検出部115は、ユーザの体の動作及びその動作量を検出する。選択部116は、仮想オブジェクトが配置された方向に体を動かす動作が検出され、且つ、その動作の動作量が閾値を超える場合には、メニュー項目を選択する。実行部117は、選択部116により選択されたメニュー項目に対応する処理を実行する。測定部118は、音声再生端末10と表示端末20との間の距離を測定する。本実施形態では、第1端末として音声再生端末10が用いられ、第2端末として表示端末20が用いられる。変更部119は、測定された距離に応じて、閾値を変更する。
The
(3)表示端末20の構成
図4は、表示端末20のハードウェア構成を示す図である。表示端末20は、仮想アイコンを表示する機能を有する。表示端末20は、制御部21と、記憶部22と、通信部23と、操作部24と、表示部25と、センサ部26と、電源27とを備える。これらの構成要素は、バスを介して接続される。
(3) Configuration of
制御部21は、記憶部22に記憶されたプログラムを実行することにより、データの演算や他の構成要素の制御を行う。制御部21には、例えばCPUが用いられる。記憶部22は、制御部21により実行されるプログラムや各種のデータを記憶する。記憶部22は、主記憶装置と補助記憶装置とを含む。主記憶装置には、例えばRAMが用いられる。補助記憶装置には、例えばフラッシュメモリが用いられる。
The
通信部23は、データ通信を行うための通信インタフェースである。通信部23は、Bluetooth(登録商標)等の近距離無線通信規格に従って音声再生端末10と通信を行う。操作部24は、ユーザの操作に応じた信号を制御部21に入力する。操作部24には、例えばタッチセンサーが用いられる。表示部25は、情報を表示する。表示部25には、例えば液晶ディスプレイが用いられる。電源27は、表示端末20の各構成要素に電力を供給する。電源27には、例えばバッテリーが用いられる。
The
センサ部26は、ユーザの動作の検出に用いられる。センサ部26には、例えば加速度センサ261と、角速度センサ262と、地磁気センサ263とが含まれる。加速度センサ261は、三軸方向の加速度を測定する。角速度センサ262は、三軸方向の角速度を測定する。地磁気センサ263は、三軸方向の地磁気を測定する。
The
図5は、制御部21の機能構成を示す図である。制御部21は、記憶部22に記憶された1又は複数のプログラムを実行することにより、表示制御部211及び送信部212の機能を実現する。また、これらの機能は、制御部21と他の構成要素との協働により実現されてもよい。
FIG. 5 is a diagram illustrating a functional configuration of the
表示制御部211は、仮想空間に配置された仮想オブジェクトを表示する。送信部212は、表示部25に表示されている仮想オブジェクトを識別する情報を音声再生端末10に送信する。
The
2.動作
図6は、メニュー選択システム1の動作を示すシーケンスチャートである。この動作は、例えばユーザが音声再生端末10を用いてメニュー項目を起動する操作を行ったときに開始される。この操作は、例えば音声認識技術を利用した音声操作である。例えば、ユーザにより「メニュー」という言葉が発せられたときに、この動作が開始される。
2. Operation FIG. 6 is a sequence chart showing the operation of the
ステップS101において、配置部111は、ユーザが存在する現実空間に対応する仮想空間に、メニュー項目を示す仮想アイコン(仮想オブジェクトの一例)を配置する。「仮想アイコンを配置する」とは、具体的には、仮想空間における仮想アイコンの位置を決定することをいう。仮想アイコンの配置は、例えばユーザの頭の位置を原点としたxy平面上の位置を示す端末座標系に基づいて行われる。図7は、仮想アイコンの配置の一例を示す図である。図7は、仮想アイコンの配置を上から見た図である。図7では、ユーザの前方向がy軸方向で示され、ユーザの後ろ方向が−y軸方向で示され、ユーザの右方向がx軸方向で示され、ユーザの左方向が−x軸方向で示されている。
In step S101, the
図7に示す例では、xy平面において、ユーザの頭の位置を中心とする仮想円C1上に、45度間隔で仮想アイコンI1〜I8が配置される。仮想アイコンI1〜I8は、それぞれ第1〜第8メニュー項目を示す。仮想アイコンI1は、ユーザの前方に配置される。仮想アイコンI2は、ユーザの右前方に配置される。仮想アイコンI3は、ユーザの右に配置される。仮想アイコンI4は、ユーザの右後方に配置される。仮想アイコンI5は、ユーザの後方に配置される。仮想アイコンI6は、ユーザの左後方に配置される。仮想アイコンI7は、ユーザの左に配置される。仮想アイコンI8は、ユーザの左前方に配置される。 In the example illustrated in FIG. 7, virtual icons I1 to I8 are arranged at an interval of 45 degrees on a virtual circle C1 centered on the position of the user's head on the xy plane. Virtual icons I1 to I8 indicate first to eighth menu items, respectively. The virtual icon I1 is arranged in front of the user. The virtual icon I2 is arranged on the right front side of the user. The virtual icon I3 is arranged on the right side of the user. The virtual icon I4 is arranged on the right rear side of the user. The virtual icon I5 is arranged behind the user. The virtual icon I6 is arranged on the left rear side of the user. The virtual icon I7 is arranged on the left side of the user. The virtual icon I8 is arranged on the left front side of the user.
ステップS102において、送信部114は、仮想アイコンの配置を示す配置情報を表示端末20に送信する。この配置情報には、仮想空間において仮想アイコンが配置された位置を示す位置座標が含まれる。図7に示す例では、配置情報には、仮想空間における仮想アイコンI1〜I8の位置座標が含まれる。また、この配置情報には、仮想空間におけるユーザの頭の位置を示す位置座標と、表示端末20の位置を示す位置座標とが含まれる。この表示端末20の位置は、例えばユーザが表示端末20の表示部25を見る基本的な姿勢をとったときの表示端末20の位置であり、予め音声再生端末10に登録される。表示端末20は、音声再生端末10から配置情報を受信すると、ステップS103に進む。
In step S <b> 102, the
ステップS103において、表示制御部211は、受信した配置情報が示す配置に沿って、表示部25に仮想アイコンを表示する。このとき、全ての仮想アイコンが表示されてもよいし、仮想アイコンの一部だけが表示されてもよい。後者の場合、表示制御部211は、仮想空間内に選択範囲を設定し、選択範囲内の仮想アイコンだけを表示部25に表示する。仮想アイコンの表示は、表示部25の画面の左上を原点とするXY平面上の位置を示すスクリーン座標系に基づいて行われる。
In step S103, the
図8は、仮想アイコンの表示例を示す図である。この例では、まず図7に示すxy平面において、表示端末20とユーザの頭とを含むように選択範囲R1が設定される。この選択範囲R1は、表示部25に対応する大きさ及び形状を有する。図7に示すように、選択範囲R1には、仮想アイコンI1及びI8が含まれる。この場合、図8に示すように、表示部25には、選択範囲R1における仮想アイコンI1及びI8の位置に基づいて、仮想アイコンI1及びI8が表示される。
FIG. 8 is a diagram illustrating a display example of virtual icons. In this example, the selection range R1 is first set so as to include the
具体的には、仮想アイコンI1は、選択範囲R1における位置に対応する画面上の位置に表示される。また、仮想アイコンI8は、選択範囲R1における位置に対応する画面上の位置に表示される。仮想アイコンI1及びI8の画面上の位置は、仮想アイコンI1及びI8の端末座標系の位置座標を、スクリーン座標系の位置座標に座標変換することにより求められる。 Specifically, the virtual icon I1 is displayed at a position on the screen corresponding to the position in the selection range R1. The virtual icon I8 is displayed at a position on the screen corresponding to the position in the selection range R1. The positions of the virtual icons I1 and I8 on the screen are obtained by converting the position coordinates of the terminal coordinates of the virtual icons I1 and I8 into the position coordinates of the screen coordinate system.
また、表示部25には、選択範囲R1における表示端末20の位置及び頭の位置を示すマークW1及びH1が表示される。具体的には、マークW1は、選択範囲R1における表示端末20の位置に対応する画面上の位置に表示される。マークH1は、選択範囲R1における頭の位置に対応する画面上の位置に表示される。マークW1及びH1の画面上の位置は、表示端末20の端末座標系の位置座標及び頭の端末座標系の位置座標を、スクリーン座標系の位置座標に変換することにより求められる。
Further, the
ユーザが表示端末20を移動させると、その移動量に応じて選択範囲R1が移動し、表示部25の表示が更新される。例えば、図9に示すように、ユーザが表示端末20を右側の移動させた場合には、選択範囲R1も右側に移動する。図9に示すように、移動後の選択範囲R1には、仮想アイコンI1及びI2が含まれる。この場合、図10に示すように、表示部25には、移動後の選択範囲R1における仮想アイコンI1及びI2の位置に基づいて、仮想アイコンI1及びI2が表示される。また、表示部25には、移動後の選択範囲R1における表示端末20の位置及び頭の位置を示すマークW1及びH1が表示される。
When the user moves the
ステップS104において、測定部118は、音声再生端末10と表示端末20との間の距離を測定する。例えば、測定部118は、表示端末20に信号を送信する。音声再生端末10から信号を受信すると、送信部212は、音声再生端末10に応答を送信する。測定部118は、信号を送信してから応答が返ってくるまでの往復遅延時間を測定し、測定した往復遅延時間に応じて、音声再生端末10と表示端末20との間の距離を測定する。往復遅延時間が大きいほど、音声再生端末10と表示端末20との間の距離が大きいことを示す。
In step S <b> 104, the
ステップS105において、変更部119は、ステップS104で測定された距離に応じて、メニュー項目の選択に用いられる閾値を変更する。音声再生端末10と表示端末20との間の距離が小さい場合には、例えばユーザが満員電車等のあまり動けない場所に居ると考えられる。したがって、変更部119は、測定された距離が所定の距離より小さい場合には、閾値を小さくする。例えば、閾値が頭の傾き角度であり、その初期値が55度である場合には、閾値が50度に変更される。
In step S105, the changing
また、閾値が変更されると、出力制御部113は、閾値が変更されたことを示す通知音(第3通知音の一例)をスピーカー16‐1及びスピーカー16‐2から出力する。この通知音は、例えば水面に落ちるしずくの音である。この通知音は、変更後の閾値に応じて変化する。例えば、閾値が小さくなった場合には、通知音の残響時間が小さくなる。
When the threshold value is changed, the
ステップS106において、信号処理部112は、仮想アイコンが配置された仮想空間内の位置及び仮想空間上のユーザの位置に基づいて、仮想アイコンの位置からユーザに至るまでの音の伝達特性に応じた信号処理を、メニュー項目を示す音声信号に施す。人間は、左右の耳に伝達する音の大きさの差、時間差、周波数特性の差により、音の到来方向及び距離を認識している。そこで、仮想アイコンが配置された位置及び方向に応じて、左右のスピーカー16‐1及び16‐2に供給される音声信号に、音圧レベル差、時間差、周波数特性の差を付加することにより、疑似的に仮想アイコンが配置された位置から聞こえる音を作り出すことができる。この場合、仮想アイコンの位置に仮想音源があることになる。具体的には、信号処理では、仮想アイコンが配置された位置からユーザの位置までの頭部伝達関数を、メニュー項目を示す音声信号に畳み込む処理が行われる。
In step S <b> 106, the
ステップS107において、出力制御部113は、メニュー項目の読み上げ処理を行う。この読み上げ処理では、メニュー項目を示す音が一つずつ順番にスピーカー16‐1及び16‐2から出力される。メニュー項目を示す音は、例えばメニュー項目の名称を読み上げる音声である。
In step S107, the
具体的には、出力制御部113は、まずメニュー項目の読み上げ順序を決定する。図7に示す例では、ユーザの前方に配置された仮想アイコンI1を基準として時計周りに見ると、仮想アイコンI1〜I8は、仮想アイコンI1、I2、I3、I4、I5、I6、I7、I8という順序で配列されている。この場合、第1〜第8メニュー項目の読み上げ順序は、第1メニュー項目、第2メニュー項目、第3メニュー項目、第4メニュー項目、第5メニュー項目、第6メニュー項目、第7メニュー項目、第8メニュー項目という順序になる。
Specifically, the
続いて、出力制御部113は、読み上げ順序に従って、信号処理が施されたメニュー項目を示す音声信号を一つずつ順番にスピーカー16‐1及び16‐2に供給する。このとき、右耳用の音声信号はスピーカー16‐1に供給され、左耳用の音声信号はスピーカー16‐2に供給される。これにより、第1〜第8メニュー項目を示す音が一つずつ順番にスピーカー16‐1及びスピーカー16‐2から出力される。
Subsequently, the
図7に示す例では、第1メニュー項目を示す仮想アイコンI1は、ユーザの前方に配置されている。したがって、第1メニュー項目を示す音は、疑似的にユーザの前方から聞こえる。第2メニュー項目を示す仮想アイコンI2は、ユーザの右前方に配置されている。したがって、第2メニュー項目を示す音は、疑似的にユーザの右前方から聞こえる。第3〜第8メニュー項目を示す音についても、同様である。これにより、ユーザは、仮想アイコンI1〜I8の配置を認識することができる。 In the example shown in FIG. 7, the virtual icon I1 indicating the first menu item is arranged in front of the user. Therefore, the sound indicating the first menu item is heard from the front of the user in a pseudo manner. The virtual icon I2 indicating the second menu item is arranged on the right front side of the user. Therefore, the sound indicating the second menu item is heard from the front right of the user in a pseudo manner. The same applies to the sounds indicating the third to eighth menu items. Thereby, the user can recognize the arrangement of the virtual icons I1 to I8.
他の例として、表示部25に仮想アイコンの一部だけが表示されている場合には、表示部25に表示されている仮想アイコンが示すメニュー項目に限り、メニュー項目を示す音が出力されてもよい。図8に示す例では、表示部25には、仮想アイコンI1及びI8が表示されている。この場合、送信部212は、表示部25に表示されている仮想アイコンI1及びI8を示す第1及び第8メニュー項目を識別するIDを音声再生端末10に送信する。表示端末20から第1及び第8メニュー項目のIDを受信すると、出力制御部113は、第1メニュー項目を示す音及び第8メニュー項目を示す音を順番にスピーカー16‐1及び16‐2から出力する。
As another example, when only a part of the virtual icon is displayed on the
ユーザが表示端末20を移動させることにより表示部25の表示が更新されたときにも、同様の処理が行われてもよい。例えば、図10に示すように表示部25の表示が更新された場合、表示部25には、仮想アイコンI1及びI2が表示されている。この場合、送信部212は、表示部25に表示されている仮想アイコンI1及びI2が示す第1及び第2メニュー項目を識別するIDを音声再生端末10に送信する。表示端末20から第1及び第2メニューのIDを受信すると、出力制御部113は、第1メニューを示す音及び第2メニュー項目を示す音を順番にスピーカー16‐1及び16‐2から出力する。
The same processing may be performed when the display of the
ステップS108において、送信部114は、各々のメニュー項目を示す音がスピーカー16‐1及び16‐2から出力される度に、そのメニュー項目を識別するIDを表示端末20に送信する。例えば、第1メニュー項目を示す音がスピーカー16‐1及び16‐2から出力されると、第1メニュー項目を識別するIDが表示端末20に送信される。第2メニュー項目を示す音がスピーカー16‐1及び16‐2から出力されると、第2メニュー項目を識別するIDが表示端末20に送信される。表示端末20は、音声再生端末10からメニュー項目のIDを受信すると、ステップS109に進む。
In step S <b> 108, each time a sound indicating each menu item is output from the speakers 16-1 and 16-2, the
ステップS109において、表示制御部211は、受信したIDにより識別されるメニュー項目を示す仮想アイコンの表示を変化させる。この表示の変化は、例えば仮想アイコンの色、形、又は大きさを変化させることが含まれる。図8に示す例では、表示部25に第1及び第2メニュー項目を示す仮想アイコンI1及びI2が表示されている。例えば第1メニュー項目のIDが受信されると、第1メニュー項目を示す仮想アイコンI1が光る。
In step S109, the
ユーザは、スピーカー16‐1及び16‐2から出力されたメニュー項目を示す音及び表示部25に表示された仮想アイコンの位置に基づいて、仮想アイコンの配置を認識する。図7に示す例では、第1メニュー項目の音はユーザの前方から聞こえるため、第1メニュー項目を示す仮想アイコンI1はユーザの前方に配置されていることが分かる。また、図8に示す例では、仮想アイコンI1とマークH1の相対的な位置関係により、仮想アイコンI1がユーザの前方に配置されていることが分かる。例えば、第1メニュー項目を選択する場合、ユーザは、頭を前方に傾ける動作又は表示端末20が装着された腕を前方に移動させる動作を行う。
The user recognizes the arrangement of the virtual icons based on the sound indicating the menu items output from the speakers 16-1 and 16-2 and the position of the virtual icon displayed on the
ステップS110において、検出部115は、ユーザの体の動作及びその動作量を検出する。例えばユーザが頭を傾ける動作を行った場合、この動作及び動作量は、角速度センサ182により測定された角速度に基づいて検出される。一方、ユーザが表示端末20の装着された腕を移動させる動作を行った場合、この動作及び動作量は、加速度センサ261により測定された加速度に基づいて検出される。具体的には、送信部212は、加速度センサ261により測定された加速度を音声再生端末10に送信する。表示端末20から加速度を受信すると、検出部115は、予め登録された表示端末20の位置とこの加速度とに基づいて、表示端末20が装着された腕を移動させる動作及びその動作量を検出する。
In step S110, the detection unit 115 detects the movement of the user's body and the amount of movement. For example, when the user performs an operation of tilting his / her head, the operation and the operation amount are detected based on the angular velocity measured by the
ステップS111において、選択部116は、仮想アイコンが配置された方向に体を動かす動作が検出され、且つ、その動作量が閾値を超えた場合には、その仮想アイコンが示すメニュー項目を選択する。なお、仮想アイコンが配置された方向とは、必ずしも仮想アイコンが配置された位置を通る方向である必要はない。例えば、仮想アイコンが配置された位置を含む所定の範囲を通る方向も、仮想アイコンが配置された方向に含まれてもよい。例えば、頭を前方に傾ける動作又は表示端末20が装着された腕を前方に移動させる動作が検出され、且つ、その動作量が閾値を超えた場合には、ユーザの前方に配置された仮想アイコンI1が示す第1メニュー項目が選択される。なお、ステップS111では、ステップS105で変更された閾値が用いられる。
In step S <b> 111, the
図11は、メニュー項目を選択する動作の一例を説明する図である。例えば、ユーザが頭を前方に傾ける動作を行った場合には、その傾き角度が所定の角度θ1に到達すると、第1メニュー項目の選択動作が開始されたと判断される。このとき、選択動作が開始されたことを示す通知音がスピーカー16‐1及び16‐2から出力される。ユーザの頭の傾き角度が所定の角度θ1から閾値θ2に達するまでの間、選択動作が行われていることを示す通知音(第1通知音の一例)がスピーカー16‐1及び16‐2から出力される。この通知音は、ユーザの頭の傾き角度が大きくなるにつれて、徐々に音量レベルが小さくなる。ユーザの頭の傾き角度が閾値θ2を超えると、ユーザの前方に配置された仮想アイコンI1が示す第1メニュー項目が選択される。このとき、第1メニュー項目の選択が完了したことを示す通知音(第2通知音の一例)がスピーカー16‐1及び16‐2から出力される。 FIG. 11 is a diagram illustrating an example of an operation for selecting a menu item. For example, when the user performs an operation of tilting his / her head forward, when the tilt angle reaches a predetermined angle θ1, it is determined that the first menu item selection operation has started. At this time, a notification sound indicating that the selection operation has been started is output from the speakers 16-1 and 16-2. A notification sound (an example of a first notification sound) indicating that the selection operation is being performed until the tilt angle of the user's head reaches the threshold value θ2 from the predetermined angle θ1 is output from the speakers 16-1 and 16-2. Is output. The sound level of the notification sound gradually decreases as the tilt angle of the user's head increases. When the tilt angle of the user's head exceeds the threshold θ2, the first menu item indicated by the virtual icon I1 disposed in front of the user is selected. At this time, a notification sound (an example of a second notification sound) indicating that the selection of the first menu item is completed is output from the speakers 16-1 and 16-2.
他の例として、選択部116は、表示部25に表示されている仮想アイコンが示すメニュー項目に限り、選択を行ってもよい。図8に示す例では、表示部25には、仮想アイコンI1及びI8が表示されている。この場合、送信部212は、上述したように、表示部25に表示されている仮想アイコンI1及びI8が示す第1及び第8メニュー項目を識別するIDを音声再生端末10に送信する。表示端末20から第1及び第8メニュー項目のIDを受信すると、選択部116は、第1及び第8メニュー項目だけを選択できるようにし、それ以外の第2〜第7メニュー項目については選択できないように制限する。この場合、仮想アイコンI1又はI8が配置された方向に体を動かす動作が行われ、且つ、その動作量が閾値を超えた場合には、第1又は第8メニュー項目が選択される。一方、仮想アイコンI2〜I7が配置された方向に体を動かす動作が行われても、第2〜第7メニュー項目は選択されない。
As another example, the
ステップS112において、実行部117は、ユーザにより選択されたメニュー項目に対応する処理を実行する。例えば、第1メニュー項目がアプリケーションに関するものである場合において、第1メニュー項目が選択されると、第1メニュー項目に対応するアプリケーションが起動される。 In step S112, the execution unit 117 executes processing corresponding to the menu item selected by the user. For example, when the first menu item is related to an application, when the first menu item is selected, the application corresponding to the first menu item is activated.
本実施形態では、ユーザが体をあまり動かすことができない状況にある場合には、メニュー項目の選択に用いられる閾値が小さくなるため、ユーザは、体を大きく動かさなくても、メニュー項目を選択することができる。このように、本実施形態によれば、ユーザの状況に応じてメニュー項目を選択し易くすることができる。 In the present embodiment, when the user cannot move the body much, the threshold used for selecting the menu item becomes small, so the user selects the menu item without moving the body greatly. be able to. Thus, according to this embodiment, it is possible to easily select a menu item according to the user's situation.
また、本実施形態によれば、ユーザがメニュー項目を選択する動作を行っている間は、選択動作が行われていることを示す通知音がスピーカー16‐1及び16‐2から出力されるため、ユーザは選択動作が受け付けられていることを認識することができる。また、メニュー項目の選択が完了すると、メニュー項目の選択が完了したことを示す通知音がスピーカー16‐1及び16‐2から出力されるため、ユーザはメニュー項目の選択が完了したことを認識することができる。 Further, according to the present embodiment, the notification sound indicating that the selection operation is being performed is output from the speakers 16-1 and 16-2 while the user performs the operation of selecting the menu item. The user can recognize that the selection operation is accepted. When the selection of the menu item is completed, a notification sound indicating that the selection of the menu item is completed is output from the speakers 16-1 and 16-2, so that the user recognizes that the selection of the menu item is completed. be able to.
さらに、本実施形態によれば、閾値が変更されると、閾値が変更されたことを示す通知音がスピーカー16‐1及びスピーカー16‐2から出力されるため、ユーザは閾値が変更されたことを認識することができる。 Furthermore, according to this embodiment, when the threshold value is changed, a notification sound indicating that the threshold value has been changed is output from the speakers 16-1 and 16-2, so that the user has changed the threshold value. Can be recognized.
3.変形例
本発明は、上述した実施形態に限定されない。例えば、実施形態を以下のように変形してもよい。また、以下の変形例を組み合わせてもよい。
3. The present invention is not limited to the above-described embodiment. For example, the embodiment may be modified as follows. Further, the following modifications may be combined.
(1)ユーザの状況や行動に応じて、閾値が変更されてもよい。例えば、変更部119は、ユーザが満員電車に乗っている場合等、ユーザが人の密集した場所に居る場合には、閾値を小さくしてもよい。この場合、変更部119は、通信部13により通信範囲内に存在する他の通信端末と通信を行うことにより、通信範囲内に存在する他の通信端末の数を計算する。他の通信端末の数が所定の数より大きい場合、変更部119は、ユーザが人の密集した場所に居ると判断し、閾値を小さくする。
(1) The threshold value may be changed according to the user's situation and behavior. For example, the
また、変更部119は、ユーザが歩行中の場合には、閾値を大きくしてもよい。この場合、変更部119は、加速度センサ181により測定された加速度に基づいて、ユーザが歩行中であるか否かを判断する。ユーザが歩行中である場合、変更部119は、閾値を大きくする。ユーザが歩行中である場合には、ユーザの体が常に動いているため、閾値が小さいと、意図しないメニュー項目が誤って選択される恐れがある。本変形例によれば、このような誤選択を抑制することができる。
The changing
(2)ユーザの姿勢に応じて、メニュー項目を選択する動作が変更されてもよい。例えば、ユーザが寝ている姿勢をとっている場合には、頭の回転によりメニュー項目を選択できるようにしてもよい。この場合、選択部116は、角速度センサ182により測定された角速度に基づいて、ユーザが寝ている姿勢をとっているか否かを判断する。例えば、ユーザが一定時間、横になっている場合には、ユーザが寝ている姿勢をとっていると判断される。この場合、選択部116は、検出部115により頭を回転させる動作が検出された場合には、その回転角度に応じたメニュー項目を選択する。
(2) The operation of selecting the menu item may be changed according to the user's posture. For example, when the user is sleeping, the menu item may be selected by rotating the head. In this case, the
(3)音声再生端末10と表示端末20との間の距離を測定する方法は、実施形態で説明した方法に限定されない。上述したように、音声再生端末10には、予めユーザが表示端末20の表示部25を見る基本的な姿勢をとったときの表示端末20の位置が登録されている。この登録された位置からの表示端末20の移動量に応じて、音声再生端末10と表示端末20との間の距離が測定されてもよい。この場合、送信部212は、加速度センサ261により測定された加速度を音声再生端末10に送信する。表示端末20から加速度を受信すると、測定部118は、予め登録された表示端末20の位置とこの加速度とに基づいて、表示端末20の現在位置を測定する。そして、測定部118は、表示端末20の現在位置に基づいて、音声再生端末10と表示端末20との間の距離を測定する。
(3) The method for measuring the distance between the
(4)音声再生端末10及び表示端末20は、実施形態で説明した例に限定されない。例えば、音声再生端末10は、イヤーフック型やオーバーヘッド型のウェアラブルコンピュータであってもよい。表示端末20は、スマートフォンであってもよい。また、音声再生端末10の機能の一部が表示端末20又は外部のサーバ装置により実現されてもよい。例えば、図3に示す配置部111、信号処理部112、検出部115、選択部116、実行部117、測定部118、又は変更部119の機能が表示端末20により実現されてもよい。
(4) The
(5)メニュー項目は、実施形態で説明した例に限定されない。メニュー項目は、音声再生端末10にダウンロードされた音楽や画像に関するものであってもよい。
(5) Menu items are not limited to the examples described in the embodiment. The menu item may relate to music or images downloaded to the
(6)実施形態では、制御部11の機能及び制御部21の機能がソフトウェアにより実現される例について説明した。制御部11の機能及び制御部21の機能の少なくとも一部がハードウェアにより実現されてもよい。例えば、信号処理部112がハードウェアにより実現されてもよい。
(6) In the embodiment, the example in which the function of the
(7)音声再生端末10の制御部11及び表示端末20の制御部21により実行されるプログラムは、インターネット等の通信回線を介してダウンロードされてもよい。また、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどの、コンピュータが読取可能な記録媒体に記録した状態で提供されてもよい。
(7) The program executed by the
10:音声再生端末、16‐1,16‐2:スピーカー、20:表示端末、25:表示部、111:配置部、112:信号処理部、113:出力制御部、114:送信部、115:検出部、116:選択部、117:実行部、118:測定部、119:変更部、211:表示制御部、212:送信部 10: Audio playback terminal, 16-1, 16-2: Speaker, 20: Display terminal, 25: Display unit, 111: Arrangement unit, 112: Signal processing unit, 113: Output control unit, 114: Transmission unit, 115: Detection unit, 116: selection unit, 117: execution unit, 118: measurement unit, 119: change unit, 211: display control unit, 212: transmission unit
Claims (5)
前記仮想オブジェクトが配置された前記仮想空間内の位置及び前記仮想空間上の前記ユーザの位置に対応する音の伝達特性に応じた信号処理を、前記メニュー項目を示す音声信号に施す信号処理部と、
前記信号処理が施された前記音声信号に応じた音を出力するスピーカーと、
前記仮想空間に配置された前記仮想オブジェクトを表示する表示部と、
前記ユーザの体の動作及び前記動作の動作量を検出する検出部と、
前記仮想オブジェクトが配置された方向に前記体を動かす動作が検出され、且つ、前記検出された動作の動作量が閾値を超えた場合には、前記メニュー項目を選択する選択部と、
前記スピーカーを有する第1端末と、前記表示部を有する第2端末との間の距離を測定する測定部と、
前記測定された距離に応じて、前記閾値を変更する変更部と
を備えるメニュー選択システム。 A placement unit for placing a virtual object indicating a menu item in a virtual space corresponding to a real space where the user exists;
A signal processing unit that applies signal processing corresponding to a sound transfer characteristic corresponding to a position in the virtual space where the virtual object is arranged and a position of the user in the virtual space to an audio signal indicating the menu item; ,
A speaker that outputs a sound corresponding to the audio signal subjected to the signal processing;
A display unit for displaying the virtual object arranged in the virtual space;
A detection unit for detecting the movement of the user's body and the movement amount of the movement;
A selection unit that selects the menu item when a motion of moving the body in the direction in which the virtual object is arranged is detected and the motion amount of the detected motion exceeds a threshold;
A measuring unit for measuring a distance between the first terminal having the speaker and the second terminal having the display unit;
A menu selection system comprising: a changing unit that changes the threshold according to the measured distance.
請求項1に記載のメニュー選択システム。 The speaker outputs a first notification sound until the operation amount reaches the threshold value after the operation is started, and outputs a second notification sound when the operation amount exceeds the threshold value. 1. The menu selection system according to 1.
請求項1又は2に記載のメニュー選択システム。 The menu selection system according to claim 1, wherein the speaker outputs a third notification sound when the threshold is changed.
請求項1から3のいずれか1項に記載のメニュー選択システム。 The menu selection system according to any one of claims 1 to 3, wherein the changing unit changes the threshold value according to a situation or action of the user.
前記仮想オブジェクトが配置された前記仮想空間内の位置及び前記仮想空間上の前記ユーザの位置に対応する音の伝達特性に応じた信号処理を、前記メニュー項目を示す音声信号に施すステップと、
前記信号処理が施された前記音声信号に応じた音をスピーカーから出力するステップと、
前記仮想空間に配置された前記仮想オブジェクトを表示部に表示するステップと、
前記ユーザの体の動作及び前記動作の動作量を検出するステップと、
前記仮想オブジェクトが配置された方向に前記体を動かす動作が検出され、且つ、前記検出された動作の動作量が閾値を超えた場合には、前記メニュー項目を選択するステップと、
前記スピーカーを有する第1端末と、前記表示部を有する第2端末との間の距離を測定するステップと、
前記測定された距離に応じて、前記閾値を変更するステップと
を備えるメニュー選択方法。 Placing a virtual object indicating a menu item in a virtual space corresponding to a real space where the user exists;
Applying signal processing corresponding to a sound transfer characteristic corresponding to a position in the virtual space where the virtual object is arranged and a position of the user in the virtual space to the audio signal indicating the menu item;
Outputting a sound according to the audio signal subjected to the signal processing from a speaker;
Displaying the virtual object arranged in the virtual space on a display unit;
Detecting the movement of the user's body and the amount of movement of the movement;
When a motion of moving the body in the direction in which the virtual object is arranged is detected, and when the motion amount of the detected motion exceeds a threshold, selecting the menu item;
Measuring a distance between a first terminal having the speaker and a second terminal having the display;
A menu selection method comprising: changing the threshold value according to the measured distance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014157761A JP2016035632A (en) | 2014-08-01 | 2014-08-01 | Menu selection system and menu selection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014157761A JP2016035632A (en) | 2014-08-01 | 2014-08-01 | Menu selection system and menu selection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016035632A true JP2016035632A (en) | 2016-03-17 |
Family
ID=55523460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014157761A Pending JP2016035632A (en) | 2014-08-01 | 2014-08-01 | Menu selection system and menu selection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016035632A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017169158A1 (en) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2014
- 2014-08-01 JP JP2014157761A patent/JP2016035632A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017169158A1 (en) * | 2016-03-29 | 2017-10-05 | ソニー株式会社 | Information processing device, information processing method, and program |
CN108885496A (en) * | 2016-03-29 | 2018-11-23 | 索尼公司 | Information processing unit, information processing method and program |
JPWO2017169158A1 (en) * | 2016-03-29 | 2019-02-07 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
EP3438789A4 (en) * | 2016-03-29 | 2019-03-27 | Sony Corporation | Information processing device, information processing method, and program |
US10928919B2 (en) | 2016-03-29 | 2021-02-23 | Sony Corporation | Information processing device and information processing method for virtual objects operability |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10638213B2 (en) | Control method of mobile terminal apparatus | |
US9351090B2 (en) | Method of checking earphone wearing state | |
US10397728B2 (en) | Differential headtracking apparatus | |
CN107005739B (en) | External visual interaction for voice-based devices | |
US8831240B2 (en) | Bluetooth device and audio playing method using the same | |
US10609462B2 (en) | Accessory device that provides sensor input to a media device | |
US9237393B2 (en) | Headset with accelerometers to determine direction and movements of user head and method | |
US11647352B2 (en) | Head to headset rotation transform estimation for head pose tracking in spatial audio applications | |
US10387112B2 (en) | Multi-dimensional audio interface system | |
US20210400414A1 (en) | Head tracking correlated motion detection for spatial audio applications | |
WO2013147791A1 (en) | Audio control based on orientation | |
JP6325384B2 (en) | Mobile terminal, training management program, and training management method | |
US9916004B2 (en) | Display device | |
CN107182011B (en) | Audio playing method and system, mobile terminal and WiFi earphone | |
US20150334504A1 (en) | Determining positions of media devices based on motion data | |
KR20210016807A (en) | Method for determining position in vehicle using vehicle movement and apparatus therefor | |
CN110275655A (en) | Lyric display method, device, equipment and storage medium | |
JP6275557B2 (en) | Audio output device | |
JP2016035632A (en) | Menu selection system and menu selection method | |
US11689841B2 (en) | Earbud orientation-based beamforming | |
EP4132014A1 (en) | Audio signal processing method, electronic apparatus, and storage medium | |
JP6294183B2 (en) | Menu selection device and menu selection method | |
CN113099373A (en) | Sound field width expansion method, device, terminal and storage medium | |
CN112558302B (en) | Intelligent glasses for determining glasses posture and signal processing method thereof | |
KR20240049565A (en) | Audio adjustments based on user electrical signals |