JP6201615B2 - 音響装置、音響システム、音響処理方法及び音響処理プログラム - Google Patents

音響装置、音響システム、音響処理方法及び音響処理プログラム Download PDF

Info

Publication number
JP6201615B2
JP6201615B2 JP2013215111A JP2013215111A JP6201615B2 JP 6201615 B2 JP6201615 B2 JP 6201615B2 JP 2013215111 A JP2013215111 A JP 2013215111A JP 2013215111 A JP2013215111 A JP 2013215111A JP 6201615 B2 JP6201615 B2 JP 6201615B2
Authority
JP
Japan
Prior art keywords
user
gaze
time
target object
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013215111A
Other languages
English (en)
Other versions
JP2015079310A (ja
Inventor
政秀 野田
政秀 野田
大野 敬史
敬史 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013215111A priority Critical patent/JP6201615B2/ja
Priority to US14/479,756 priority patent/US9294863B2/en
Publication of JP2015079310A publication Critical patent/JP2015079310A/ja
Application granted granted Critical
Publication of JP6201615B2 publication Critical patent/JP6201615B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、音響装置、音響システム、音響処理方法及び音響処理プログラムに関する。
近年、例えば、所望位置に音源を仮想的に定位させて当該音源から音声を出力する立体音響装置が知られている。更に、このような立体音響装置を用いて、例えば、利用者周囲の物体の実際の位置に当該物体の音源を仮想的に定位させ、当該音源から物体に関する案内音声を利用者に提供する立体音響装置が知られている。
国際公開第2000/022823号 特開2006−277192号公報
このような立体音響装置は、例えば、利用者周囲の物体の内、利用者が立体音響による案内音声を求める対象物と判断された場合に、当該対象物の立体音響による案内音声の出力を実行する。この際、立体音響装置は、例えば、利用者の進行方向にある注視先の物体の内、ある一定時間継続して注視された物体を対象物と判断する。
しかしながら、立体音響による案内音声を求める対象物と判断するまでの判断時間は一定であるため、利用者が注視して対象物であることが明らかであるにもかかわらず、その対象物と判断するまでには一定の判断時間を要する。
一つの側面では、立体音響による案内音声を求める対象物を速やかに判断できる音響装置、音響システム、音響処理方法及び音響処理プログラムを提供することを目的とする。
一つの案では、音響装置は、利用者の状態、例えば、進行方向と前記利用者の身体の向きとに基づき、前記利用者の周囲の物体の内、任意の物体を前記利用者の注視先の物体と判断する第1の判断部を有する。更に、音響装置は、前記注視先の物体と判断されたタイミングから所定の判断時間を経過した場合に、当該注視先の物体を対象物と判断する第2の判断部を有する。更に、音響装置は、前記注視先の物体が前記対象物と判断された場合に、前記対象物に対応した音源の音声を前記対象物の位置に関連付けて出力する音響信号を生成する生成部を有する。更に、音響装置は、前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記所定の判断時間が経過するまでの残り時間を減少方向に調整する調整部を有する。このような音響システムを音声AR(Augmented Reality)システムと呼ぶ。
立体音響による案内音声を求める対象物を速やかに判断できる。
図1は、実施例1の音声ARシステムの一例を示すブロック図である。 図2は、音声AR装置による音声ARの一例を示す説明図である。 図3は、音声AR装置による音声ARの一例を示す説明図である。 図4は、音源テーブルの一例を示す説明図である。 図5は、判断時間テーブルの一例を示す説明図である。 図6は、利用者が進行方向にある物体を見ている状態を示す説明図である。 図7は、利用者がわき見方向にある物体を見ている状態を示す説明図である。 図8は、判断時間テーブルの新規エントリ追加の動作の一例を示す説明図である。 図9は、判断時間テーブルの新規エントリ追加の動作の一例を示す説明図である。 図10は、判断時間調整処理に関わる音声AR装置の処理動作の一例を示すフローチャートである。 図11は、実施例2の音声ARシステムの一例を示すブロック図である。 図12は、音源位置が移動する際の動作の一例を示す説明図である。 図13は、音源位置テーブルの一例を示す説明図である。 図14は、音源位置算出処理に関わる音声AR装置の処理動作の一例を示すフローチャートである。 図15は、実施例3の音声ARシステムの一例を示すブロック図である。 図16は、判断時間調整処理に関わる音声AR装置の処理動作の一例を示すフローチャートである。 図17は、角度誤差範囲の一例を示す説明図である。 図18は、音響処理プログラムを実行する情報処理装置の一例を示す説明図である。
以下、図面に基づいて、本願の開示する音響装置、音響システム、音響処理方法及び音響処理プログラムの実施例を詳細に説明する。尚、本実施例により、開示技術が限定されるものではない。
図1は、実施例1の音声ARシステムの一例を示すブロック図である。図1に示す音声ARシステム1は、端末装置10と、音声AR装置20とを有する。端末装置10は、音声ARシステム1の利用者が装着して携帯する、例えば、ヘッドマウント装置等のクライアント装置である。音声AR装置20は、利用者周囲の物体の位置に当該物体に対応した音源を定位させた状態で当該物体に関する案内音声を利用者に提供する、例えば、音響装置等のサーバ装置である。
図1に示す端末装置10は、位置検出部11と、向き検出部12と、進行方向検出部13と、ヘッドホン14と、通信インタフェース15とを有する。尚、これら位置検出部11、向き検出部12、進行方向検出部13、ヘッドホン14及び通信インタフェース15は、例えば、バスラインで相互に接続されている。
位置検出部11は、端末装置10の現在位置を検出する。位置検出部11は、例えば、GPS(Global Positioning System)を用いることで端末装置10の現在位置を検出する。また、位置検出部11は、例えば、携帯電話網の基地局からの位置情報を用いることで端末装置10の現在位置を検出するようにしても良い。また、位置検出部11は、屋内のアクセスポイントを用いた3点測位法を用いて屋内での端末装置10の現在位置を検出してもよい。尚、端末装置10の現在位置は、端末装置10を携帯する利用者の現在位置である。つまり、位置検出部11は、端末装置10を携帯する利用者の現在位置を検出するとも言える。
向き検出部12は、端末装置10の利用者の身体の向き、例えば、利用者の顔の向きを検出する。尚、説明の便宜上、利用者の身体の向きは、顔の向きとして説明するが、これに限定されるものではなく、例えば、利用者の胴体の向き、利用者の頭部の向きや利用者の視線の向き等であっても良い。尚、向き検出部12は、例えば、利用者の視線の向きを検出する場合、利用者の眼球を撮像した画像から視線の向きを検出するものである。また、向き検出部12は、例えば、利用者の胴体の向きを検出する場合、図示せぬジャイロセンサ等を用いて胴体の向きを検出するものである。
進行方向検出部13は、例えば、図示せぬ地磁気センサ、ジャイロセンサや加速度センサ等を用いることで端末装置10を携帯している利用者の進行方向を検出する。つまり、端末装置10は、位置検出部11、向き検出部12や進行方向検出部13など、図示せぬセンサにより検出できる状態を、利用者の状態として取得する。尚、利用者の状態としては、手の動きを取得してジェスチャを検出する、音声を取得して音声コマンドを検出する、などとしてもよい。
ヘッドホン14は、音声AR装置20から受信した音響信号を音響出力する、例えば、音響出力部である。尚、音響出力部は、ヘッドホン14の代わりに、例えば、イヤホンであっても良い。
通信インタフェース15は、例えば、無線通信を用いた音声AR装置20との通信を司るインタフェースである。通信インタフェース15は、音声AR装置20に対して各種信号を送信すると共に、音声AR装置20からの各種信号を受信する。尚、通信インタフェース15は、無線通信を採用したが、例えば、有線通信を採用しても良い。また、通信インタフェース15は、例えば、公衆網、インターネット、LAN(Local Area Network)やWAN(Wide Area Network)等の各種ネットワークを通じて音声AR装置20と通信するようにしても良い。
図1に示す音声AR装置20は、第1の判断部21と、第2の判断部22と、音声制御部23と、調整部24と、記憶部25と、通信インタフェース26と、制御部27とを有する。第1の判断部21、第2の判断部22、音声制御部23、調整部24、記憶部25、通信インタフェース26及び制御部27は、例えば、バスラインで相互に接続されているものとする。
第1の判断部21は、利用者の進行方向と顔の向きとが成す角度θに基づき、利用者の周囲の物体の内、任意の物体を利用者の注視先の物体と判断する。第2の判断部22は、注視先の物体と判断されたタイミングから判断時間を経過した場合に、当該注視先の物体を音声ARの対象物と判断する。音声制御部23は、注視先の物体が対象物と判断された場合に、対象物の位置から対象物に対応した音源の案内音声を出力する音響信号を生成する。調整部24は、第1の判断部21にて進行方向以外の方向に位置する物体を利用者の注視先の物体と判断された場合に、利用者の進行方向と顔の向きとが成す角度に応じた補正時間を所定周期毎に判断時間から減算する。通信インタフェース26は、端末装置10との通信を司るインタフェースである。通信インタフェース26は、端末装置10からの検出信号等の各種信号を受信すると共に、端末装置10に対して音響信号等の各種信号を送信する。制御部27は、音声AR装置20全体を制御する。
記憶部25は、各種情報、例えば、音源テーブル251及び判断時間テーブル252を記憶している。図4は、音源テーブル251の一例を示す説明図である。図4に示す音源テーブル251は、利用者の周囲に存在する物体に対応づけて、当該物体の案内音声に関わる音源ファイル等を管理している。音源テーブル251は、物ID251A、物体の位置251B、判断時間251C及び音源ファイル251Dを対応付けて記憶している。音源テーブル251内のエントリは、存在する物体毎に予め設定されている。尚、エントリの内容は適宜変更可能である。物ID251Aは、物体を識別するIDである。物体の位置251Bは、物体の現在位置、例えば、所定位置を原点とする座標系における(Xm1,Ym1)等の位置座標である。判断時間251Cは、注視先の物体を対象物と判断するまでの初期設定の初期判断時間である。音源ファイル251Dは、通常時の音源ファイル251Eと、判断中の音源ファイル251Fと、判断後の音源ファイル251Gとを有する。通常時の音源ファイル251Eは、第1の判断部21にて注視先の物体と判断された場合に出力する案内音声の音声ファイルである。判断中の音源ファイル251Fは、注視先の物体と判断されたタイミングから判断時間が経過する直前までの判断途中で出力する案内音声の音声ファイルである。判断後の音声ファイル251Gは、判断時間経過後に対象物と判断された場合に出力する案内音声の音声ファイルである。
音声制御部23は、音源テーブル251を参照し、例えば、「ID1」の物体が注視先の物体と判断されていない場合、通常時の音源ファイル251Eとして「エアコンです」を読み出す。そして、音声制御部23は、その注視先の物体の位置に音源を仮想的に定位し、その物体の位置から「エアコンです」を出力する音響信号を生成する。また、音声制御部23は、その注視先の物体と判断されたタイミングから判断時間が経過するまでの判断途中の場合、例えば、判断中の音源ファイル251Fとして「室温調整する?」を読み出す。そして、音声制御部23は、その注視先の物体の位置に音源を仮想的に定位し、その物体の位置から「室温調整する?」を出力する音響信号を生成する。また、音声制御部23は、注視先の物体が対象物と判断された場合、例えば、判断後の音源ファイル251Gとして「リモコンを操作してください」を読み出す。そして、音声制御部23は、その対象物の位置に音源を仮想的に定位し、その対象物の位置から「リモコンを操作してください」を出力する音響信号を生成する。
音声制御部23は、音源テーブル251を参照して、例えば、「ID2」の物体が注視先の物体と判断されていない場合、通常時の音源ファイル251Eとして「照明器具です」を読み出す。そして、音声制御部23は、その注視先の物体の位置に音源を仮想的に定位し、その物体の位置から「照明器具です」を出力する音響信号を生成する。また、音声制御部23は、その注視先の物体と判断されたタイミングから判断時間が経過するまでの判断途中の場合、判断中の音源ファイル251Fとして「点灯する?」を読み出す。そして、音声制御部23は、その注視先の物体の位置に音源を仮想的に定位し、その物体の位置から「点灯する?」を出力する音響信号を生成する。また、音声制御部23は、注視先の物体が対象物と判断された場合、例えば、判断後の音源ファイル251Gとして「壁のスイッチをオンにしてください」を読み出す。そして、音声制御部23は、その対象物の位置に音源を定位し、その対象物の位置から「壁のスイッチをオンにしてください」を音声出力されるような音響信号を生成する。
音声制御部23は、生成した音響信号を、通信インタフェース26を通じて端末装置10に伝送する。端末装置10は、受信した音響信号をヘッドホン14から音響出力する。その結果、利用者は、例えば、注視先の物体の判断時、対象物の判断途中、対象物の判断時等の各種タイミングで物体の案内音声を受聴できる。
図2及び図3は、音声AR装置20による音声ARの一例を示す説明図である。音声制御部23は、図2に示すように、利用者hの進行方向と顔の向きとが成す角度θに基づき、利用者hの左前方に位置する物体Mに物体Mの音源Sが仮想的に定位するように当該物体Mの案内音声を出力する音響信号を生成する。音声制御部23は、音響信号を端末装置10に伝送する。端末装置10は、受信した音響信号をヘッドホン14から音響出力する。その結果、利用者hは、あたかも自分の左前方にある物体Mから音声出力されたような案内音声を受聴できる。そして、利用者は、対象物である物体Mの位置に案内音声を紐付けることで対象物の配置場所や使い方を知ることができる。
次に、利用者が、図2の状態で矢印Y1の方向に身体の向きを変えて図3の状態に移行したとする。この際、音声制御部23は、図3に示すように、利用者hの進行方向と顔の向きとが成す角度θに基づき、利用者hの後方に位置する物体Mに音源Sが仮想的に定位するように当該物体Mの案内音声を出力する音響信号を生成する。音声制御部23は、音響信号を端末装置10に伝送する。端末装置10は、受信した音響信号をヘッドホン14から音響出力する。その結果、利用者hは、あたかも自分の後方にある物体Mから音声出力されたような案内音声を受聴できる。
図5は、判断時間テーブル252の一例を示す図である。図5に示す判断時間テーブル252は、物ID252A、物体の位置252B及び判断時間252Cを対応付けたエントリを記憶している。物ID252Aは、物体を識別するIDである。物体の位置252Bは、物体の位置座標である。判断時間252Cは、所定周期で開始するフレームタイム毎に、判断時間が経過するまでの残り時間を補正時間で減算して更新した判断時間である。ここでフレームタイムは、音声AR装置20から端末装置10へ音響信号を送信する際の送信単位時間である。尚、判断時間252Cの初期値は、注視先の物体毎に予め設定された初期判断時間である。判断時間テーブル252内のエントリは、注視先の物体と判断されると、新規に追加作成されるものである。
図1に戻り、第1の判断部21は、利用者の進行方向と顔の向きとが成す角度に基づき、「利用者のわき見」を判断する。また、第1の判断部21は、端末装置10内の位置検出部11、向き検出部12及び進行方向検出部13から利用者hの位置、進行方向及び顔の向きを取得する。第1の判断部21は、利用者の位置、進行方向及び顔の向きに基づき注視方向の位置座標を推定する。第1の判断部21は、推定した位置座標の物IDを音源テーブル251から抽出したか否かを判定する。第1の判断部21は、物IDを抽出した場合、抽出された物IDに対応する物体を利用者の注視先の物体と判断する。
図6は、利用者が進行方向にある物体を見ている状態を示す説明図である。図6の例では、利用者hの進行方向が矢印YAの方向で、利用者hの顔の向きが矢印YB1の方向とする。また、利用者hの進行方向に物体Mが存在し、利用者hの進行方向と顔の向きとが一致した状態である。第1の判断部21は、進行方向と顔の向きとが同一の注視方向にある物体Mの物IDを音源テーブル251から抽出できた場合、進行方向にある物体Mを注視先の物体と判断する。
図7は、利用者がわき見方向にある物体を見ている状態を示す説明図である。図7の例では、利用者hの進行方向が矢印YAの方向で、利用者hの顔の向きが矢印YB2の方向とする。また、利用者hの進行方向以外の方向に物体Mが存在し、利用者hの進行方向と顔の向きとが異なる状態である。第1の判断部21は、顔の向きがわき見方向にある物体Mの物IDを音源テーブル251から抽出できた場合、わき見方向にある物体Mを注視先の物体と判断する。
図8及び図9は、判断時間テーブル252内の新規エントリの追加に関わる動作の一例を示す説明図である。図8の例では、利用者hの注視先である矢印YB3の方向に物体M1が存在している状態である。第1の判断部21は、図8に示すように利用者周囲の物体M1を注視先の物体と判断する。調整部24は、物体M1が注視先の物体と判断されると、音源テーブル251内の物体M1の物ID、物体の位置及び判断時間を読み出す。そして、調整部24は、判断時間テーブル252内に物体M1の新規エントリを追加し、読み出された物ID、物体の位置及び判断時間を新規エントリ内に記憶する。調整部24は、例えば、判断時間テーブル252内の物ID252Aに「ID1」、物体の位置252Bに(Xm1,Ym1)、判断時間252Cに「10秒」を記憶する。この際、利用者hの周囲には物体M2も存在している。しかしながら、調整部24は、第1の判断部21にて物体M2を注視先の物体と判断されていないため、物体M2について判断時間テーブル252への記憶を行わない。
次に、図9に示すように、利用者hの注視先が矢印YB4の方向、すなわち物体M2の方向に変更された場合、第1の判断部21は、物体M2を注視先の物体と判断する。調整部24は、物体M2が注視先の物体と判断されると、音源テーブル251内の物体M2の物ID、物体の位置及び判断時間を読み出す。そして、調整部24は、判断時間テーブル252内に物体M2の新規エントリを追加し、読み出された物ID、物体の位置及び判断時間を新規エントリ内に記憶する。調整部24は、例えば、判断時間テーブル252内の物ID252Aに「ID2」、物体の位置252Bに(Xm2,Ym2)、判断時間252Cに「20秒」を記憶する。この際、図9の破線矢印に示すように、利用者hが矢印YB3の方向から矢印YB4の方向を向くと、第1の判断部21は、物体M1が注視先の物体でなくなったと判断する。その結果、調整部24は、判断時間テーブル252から物体M1のエントリを削除する。
第2の判断部22は、判断時間が0秒以下、すなわち判断時間が経過した場合に、その注視先の物体を音声ARの対象物と判断する。つまり、第2の判断部22は、第1の判断部21によって注視先の物体と判断されたタイミングから判断時間を経過した場合に、その注視先の物体を対象物と判断する。尚、対象物は、注視先の物体の内、立体音響による音声案内、すなわち音声ARの実行を求める物体である。
調整部24は、利用者の進行方向と顔の向きとの違い、例えば、利用者の進行方向と顔の向きとが成す角度に基づき、判断時間が経過するまでの残り時間を減少方向に調整する。調整部24は、注視先の物体のエントリがない場合、該当物体のエントリを新規に追加する。また、調整部24は、エントリがある場合、エントリ内の判断時間を読み出す。そして、調整部24は、判断時間中のフレームタイム経過毎に判断時間から、利用者の進行方向と顔の向きとが成す角度θに応じて変動する補正時間を減算する。そして、調整部24は、減算結果である判断時間を新たな判断時間として注視先の物体に対応したエントリに更新する。補正時間は、通常の経過時間に、利用者の進行方向と顔の向きとが成す角度に応じて変動する補正量を加算した時間である。補正量は、角度θが0度の場合は0であるが、例えば、角度が0度<θ≦180度の範囲内で、その角度θが180度に近付くに連れて増加する。通常の経過時間は、フレームタイム到来分の時間である。
例えば、利用者の進行方向と顔の向きとが成す角度θが0度の場合、補正量は0であるため、その補正時間は、通常の経過時間のみである。調整部24は、フレームタイムが経過する毎に、判断時間から補正時間である通常の経過時間を減算して残り時間を算出し、残り時間を新たな判断時間として判断時間テーブル252内の該当エントリを更新する。これに対して、利用者の進行方向と顔の向きとが成す角度θが0度でない場合、補正量が角度θに応じて増加するため、補正時間は、(通常の経過時間+補正量)となる。従って、調整部24は、フレームタイムが経過する毎に、判断時間から補正時間である(通常の経過時間+補正量)を減算して残り時間を算出し、算出した残り時間を新たな判断時間として判断時間テーブル252内の該当エントリを更新する。その結果、音声AR装置20は、角度θが大きくなるに連れて補正量が増加し、その補正量が増加する分、判断時間が通常よりも短くなる。
では、より具体的に調整部24の判断時間の調整方法について説明する。先ず、利用者の進行方向にある注視先の物体についての判断時間の調整方法について説明する。調整部24は、進行方向にある物体が注視先の物体と判断されると、注視先の物体に対応したエントリを判断時間テーブル252内に追加する。調整部24は、判断時間テーブル252の該当エントリ内の判断時間252C内に、音源テーブル251内の注視先の物IDに対応した初期判断時間t0を設定する。尚、初期判断時間t0は、フレームタイムよりも長い時間を設定し、例えば、判断時間の更新が複数回行われた場合に、注視先の物体を対象物と判断できる時間を設定する。先ず、初期判断時間をt0とした場合、最初のフレームタイムtf=0の開始タイミングでの判断時間は、「t0」である。
調整部24は、次のフレームタイムtf=1の開始タイミングで、フレームタイム1回分の通常の経過時間(1*tf)を初期判断時間t0から減算する。判断時間の残り時間は「t0−1*tf」となる。調整部24は、残り時間を次の判断時間t1(=t0−1*tf)として判断時間テーブル252内の該当エントリを更新する。例えば、初期判断時間t0を「10秒」、フレームタイムtfを「2秒」とした場合、調整部24は、初期判断時間t0の「10秒」から通常の経過時間「2秒」を差し引いた「8秒」を今回の判断時間t1として該当エントリを更新する。
調整部24は、次のフレームタイムtf=2の開始タイミングで、前回更新した判断時間t1からフレームタイム1回分の通常の経過時間(1*tf)を減算する。判断時間の残り時間は、「t0−2*tf」となる。調整部24は、残り時間を次の判断時間t2(=t0−2*tf)として該当エントリを更新する。調整部24は、例えば、前回更新した判断時間t1の「8秒」からフレームタイムtfの「2秒」を差し引いた「6秒」を今回の判断時間t2として該当エントリを更新する。
調整部24は、次のフレームタイムtf=3の開始タイミングで、前回更新した判断時間t2からフレームタイム1回分の通常の経過時間(1*tf)を減算する。判断時間の残り時間は、「t0−3*tf」となる。調整部24は、残り時間を次の判断時間t3(=t0−3*tf)として該当エントリを更新する。調整部24は、例えば、前回更新した判断時間t2の「6秒」からフレームタイムtfの「2秒」を差し引いた「4秒」を今回の判断時間t3として該当エントリを更新する。以降、同様に、調整部24は、フレームタイム毎に通常の経過時間を減算して判断時間を更新する。そして、第2の判断部22は、フレームタイムtf=5の開始タイミングで、判断時間が0秒となるため、進行方向にある注視先の物体を対象物と判断することになる。
次に、利用者のわき見方向にある注視先の物体についての判断時間の調整方法について説明する。第1の判断部21は、利用者の進行方向と顔の向きとが成す角度θがあり、わき見方向にある物体を注視先の物体と判断したとする。調整部24は、わき見方向にある物体が注視先の物体と判断されると、注視先の物体に対応したエントリを判断時間テーブル252内に追加する。調整部24は、判断時間テーブル252の該当エントリ内の判断時間252C内に、音源テーブル251内の注視先の物IDに対応した初期判断時間t0を設定する。先ず、初期判断時間をt0とした場合、最初のフレームタイムtf=0の開始タイミングでの判断時間は「t0」である。
調整部24は、次のフレームタイムtf=1の開始タイミングで、フレームタイム1回分の通常の経過時間(1*tf)と、角度θ1に基づく補正量(a*θ1)とを加算した補正時間を初期判断時間t0から減算する。判断時間の残り時間は「t0−a*θ1−1*tf」となる。調整部24は、残り時間を次の判断時間t1(=t0−a*θ1−1*tf)として判断時間テーブル252内の該当エントリを更新する。尚、補正量の「a」は定数であり、判断時間が徐々に減少するように「a」を適切な値に設定するものとする。例えば、初期判断時間t0を「10秒」、フレームタイムtfを「2秒」、補正量(a*θ1)を「1秒」とする。この場合、調整部24は、「10秒」から通常の経過時間「2秒」の他に、補正量(a*θ1)の「1秒」を差し引いた「7秒」を今回の判断時間t1として該当エントリを更新する。
調整部24は、次のフレームタイムtf=2の開始タイミングで、前回更新した判断時間t1からフレームタイム1回分の通常の経過時間(1*tf)と、今回の補正量(a*θ2)とを加算した補正時間を減算する。判断時間の残り時間は、「t0−a*θ1−a*θ2−2*tf」となる。調整部24は、残り時間を次の判断時間t2(=t0−a*θ1−a*θ2−2*tf)として該当エントリを更新する。例えば、補正量(a*θ2)が「1秒」とした場合、調整部24は、前回更新した判断時間t1の「7秒」から、通常の経過時間「2秒」と、補正量(a*θ2)の「1秒」とを差し引いた「4秒」を今回の判断時間t2として該当エントリを更新する。
調整部24は、次のフレームタイムtf=3の開始タイミングで、前回更新した判断時間t2からフレームタイム1回分の通常の経過時間(1*tf)と、今回の補正量(a*θ3)とを加算した補正時間を減算する。判断時間の残り時間は、「t0−a*θ1−a*θ2−a*θ3−3*tf」となる。調整部24は、残り時間を次の判断時間t3(=t0−a*θ1−a*θ2−a*θ3−3*tf)として該当エントリを更新する。例えば、補正量(a*θ3)が「1秒」とした場合、調整部24は、前回更新した判断時間t2の「4秒」から、通常の経過時間「2秒」と、補正量(a*θ3)の「1秒」とを差し引いた「1秒」を今回の判断時間t3として該当エントリを更新する。
以降、同様に、調整部24は、フレームタイム毎に通常の経過時間及び角度θに基づく補正量を加算した補正時間を減算して判断時間を更新する。そして、第2の判断部22は、次のフレームタイムtf=4の開始タイミングで、判断時間が0秒となるため、わき見方向にある注視先の物体を対象物と判断することになる。その結果、調整部24は、利用者の進行方向と顔の向きとが成す角度θが0度よりも大の場合、フレームタイム毎に判断時間から角度θに応じた補正量を加えた補正時間を減算する。進行方向に注視先の物体がある場合、すなわち角度が0度の場合に比較して、わき見方向にある注視先の物体を対象物と判断するまでの判断時間が短くなる。
音声制御部23は、第2の判断部22にて注視先の物体が対象物と判断された場合に、音源テーブル251から対象物の物IDに対応した判断後の音源ファイル251Gを読み出す。音声制御部23は、読み出した音源ファイル251Gの案内音声を対象物の物体の位置に仮想的に定位させた状態で利用者のヘッドホン14から出力する音響信号を生成する。音声制御部23は、例えば、右チャンネル及び左チャンネルの音響信号を、それぞれ遅延回路に入力して異なる遅延時間で遅延させることで対象物の位置に音源を仮想的に定位させる。また、音声制御部23は、例えば、右チャンネル及び左チャンネルの音声信号それぞれについて、利用者の両耳間の位相差や振幅差を付与するフィルタを通過させることで対象物の位置に音源を仮想的に定位するようにしても良い。音声制御部23は、例えば、生成部である。
次に、実施例1の音声ARシステム1の動作について説明する。図10は、判断時間調整処理に関わる音声AR装置20の処理動作の一例を示すフローチャートである。図10に示す判断時間調整処理は、注視先の物体と判断された場合に、フレームタイム毎の判断時間を補正時間で減少方向に調整する処理である。
図10において音声AR装置20の調整部24は、第1の判断部21にて注視先の物体と判断されると、注視方向にある物体の位置に対応した物IDのエントリが判断時間テーブル252内にあるか否かを判定する(ステップS101)。調整部24は、物IDのエントリが判断時間テーブル252内にない場合(ステップS101否定)、判断時間テーブル252内に物IDの新規エントリを追加する(ステップS102)。調整部24は、物IDのエントリの判断時間252C内に初期判断時間t0を設定する(ステップS103)。尚、調整部24は、物ID251Aに対応した判断時間251Cの初期判断時間t0及び物体の位置251Bの位置座標を音源テーブル251から読み出し、判断時間テーブル252内の該当エントリに登録する。
音声AR装置20内の第2の判断部22は、判断時間テーブル252内の物IDに対応した判断時間が0秒以下であるか否かを判定する(ステップS104)。調整部24は、判断時間が0秒以下でない場合(ステップS104否定)、判断時間の時間経過中のフレームタイムを経過したか否かを判定する(ステップS105)。調整部24は、フレームタイムを経過しなかった場合(ステップS105否定)、判断時間が0秒以下であるか否かを判定すべく、ステップS104に移行する。
このため、調整部24は、フレームタイムが経過した場合(ステップS105肯定)、注視先の物体の物ID252Aに対応したエントリ内の判断時間tを読み出す(ステップS106)。調整部24は、読み出された判断時間から、角度θに基づく補正時間を減算する(ステップS107)。尚、補正時間は、フレームタイム経過回数に応じた通常の経過時間と、角度θに基づく補正量とを加算した時間である。また、角度θは、例えば、ステップS106の判断時間読み出し時の注視先の物体に対する利用者の進行方向と顔の向きとで成す角度である。
調整部24は、ステップS106で読み出した判断時間から補正時間を減算して残り時間を算出し、残り時間を新たな判断時間として該当エントリ内の判断時間252C内に更新する(ステップS108)。調整部24は、判断時間が0秒以下であるか否かを判定すべく、ステップS105に移行する。
第2の判断部22は、判断時間が0秒以下の場合(ステップS104肯定)、すなわち、判断時間が経過したと判断した場合、注視先の物体を対象物と判断する(ステップS109)。第2の判断部22は、注視先の物体を対象物と判断すると、対象物の物IDに関わる音声AR要求を音声制御部23に通知する。尚、音声制御部23は、音源テーブル251を参照し、対象物の物IDの物体の位置251B及び判断後の音源ファイル251Dに基づき音響信号を生成し、生成した音響信号を端末装置10に伝送する。端末装置10は、受信した音響信号をヘッドホン14から音響出力する。その結果、端末装置10の利用者は、ヘッドホン14から対象物の案内音声を対象物の位置に仮想的に定位された状態で受聴できる。調整部24は、注視先の物体が対象物と判断されると、判断時間テーブル252内の対象物の物ID252Aに対応したエントリを削除し(ステップS110)、図10に示す処理動作を終了する。
図10に示す判断時間調整処理の音声AR装置20は、フレームタイム毎に、通常の経過時間及び角度θに基づく補正量を含む補正時間を算出し、更に、判断時間から補正時間を減算し、減算後の判断時間を更新する。音声AR装置20は、更新された判断時間が経過した場合、注視先の物体を対象物と判断する。その結果、利用者は、注視先の物体を対象物と判断できる。
音声AR装置20は、注視先の物体が進行方向にある場合、角度θが0度であるため、補正時間に追加する補正量も0となる。これに対して、音声AR装置20は、注視先の物体がわき見方向にある場合、角度θが大きくなり、追加する補正量も大きくなるため、その補正時間も大きくなる。つまり、音声AR装置20は、注視先がわき見方向にある場合の補正時間の方が進行方向にある場合に比較して増加するため、その判断時間が短くなるため、注視先の物体を対象物と速やかに判断できる。
実施例1の音声AR装置20は、利用者の進行方向と利用者の顔の向きとの違いで「わき見」の状態を検出した場合、注視先の物体を対象物と判断するまでの判断時間を、進行方向に物体がある場合に比較して減少方向に調整した。その結果、音声ARの実行を求める対象物を速やかに判断できる。しかも、利用者の前方不注意の状況を短くできるため、利用者の利便性が増す。
音声AR装置20は、フレームタイムが経過する毎に、判断時間が経過するまでの残り時間を減少方向に調整し、調整した残り時間を新たな判断時間として更新し、新たな判断時間が経過した場合に、注視先の物体を対象物と判断する。その結果、対象物と判断するまでの判断時間を通常の経過時間よりも短くし、音声ARの実行を求める対象物を速やかに判断できる。
音声AR装置20は、わき見方向にある物体が利用者の注視先の物体と判断された場合に、利用者の進行方向と利用者の顔の向きとが成す角度θに応じて判断時間を短くする。「わき見」の状態を検出した場合に、対象物と判断するまでの判断時間を通常の経過時間よりも短く、しかも、角度θが大きくなるに連れて判断時間を短くする。その結果、音声ARの実行を求める対象物を速やかに判断できる。
上記実施例1の音声ARシステム1では、第1の判断部21、第2の判断部22、音声制御部23、調整部24及び記憶部25の各種機能を音声AR装置20に内蔵するようにしたが、例えば、これら各種機能を適宜、端末装置10に持たせるようにしても良い。この場合、音声AR装置20の負荷を軽減でき、その処理速度を高めることができる。
上記音声ARシステム1では、記憶部25や音声制御部23を音声AR装置20に内蔵するようにしたが、記憶部25や音声制御部23等を外部装置に設け、その外部装置をネットワーク経由で音声AR装置20と接続するようにしても良い。この場合、音声AR装置20の負荷を軽減でき、その処理速度を高めることができる。
なお、第1の判断部21と、第2の判断部22と、音声制御部23と、調整部24と、記憶部25と、制御部27と、設定部28とを別の装置がそれぞれ有し、ネットワーク接続されて協働することで、音声AR装置20の機能を実現してもよい。このようにすれば、音声AR装置20の負荷を各装置に分散できる。
尚、上記実施例1の音声AR装置20は、判断時間の経過状況を利用者に知らせることはなく、判断時間の経過に応じて対象物と判断するようにした。しかしながら、その判断時間の経過状況を利用者に知らせるようにしても良い。そこで、このような実施の形態につき、実施例2として以下に説明する。
図11は、実施例2の音声ARシステムの一例を示すブロック図である。尚、図1に示す音声ARシステム1と同一の構成には同一符号を付すことで、その重複する構成及び動作の説明については省略する。図11に示す音声ARシステム1Aが、図1に示す音声ARシステム1と異なるところは、音声AR装置20A内部に設定部28及び、記憶部25A内に音源位置テーブル253を設けた点にある。
設定部28は、利用者の注視先の物体に対応した音源を仮想的に定位させる位置座標を設定する。音源の位置座標は、最初のフレームタイムの初期判断時間の設定時では物体の実際の位置座標と一致する。設定部28は、フレームタイムが経過する毎に音源の位置座標を変えて、音源が徐々に利用者に近付いて来るように音源の位置座標を順次設定更新する。音源位置テーブル253は、音源の仮想的な位置座標を管理するためのテーブルである。設定部28は、判断時間テーブル252の該当エントリの判断時間が0秒以下になるまで、フレームタイム毎に、音源が利用者に近づくように、音源位置テーブル253内の音源の位置座標を更新する。
図12は、音源位置が移動する際の動作の一例を示す説明図である。図12に示すように、設定部28は、音源の位置が利用者hに徐々に近づくように、フレームタイム毎に、矢印Y2の方向に音源の位置座標を変える。設定部28は、最初のフレームタイムの開始時点では物体M1の実際の位置に音源S1があり、フレームタイムの経過毎に音源S2→音源S3→音源S4のように位置座標を順次変える。設定部28は、判断時間が0秒以下になった時点で、利用者の顔前に音源が定位するように音源の位置座標を変える。この結果、設定部28は、注視先が利用者の進行方向にある場合、音源の位置座標をN回(N=(判断時間t0)/(フレームタイムtf))変える。これに対して、設定部28は、注視先が利用者の進行方向にない場合、音源の位置座標をN’回(N’<t0/tf)変える。
図13は、音源位置テーブル253の一例を示す説明図である。図13に示す音源位置テーブル253は、物ID253Aと音源の位置253Bとを対応付けて記憶している。物ID253Aは、物体を識別するIDである。音源の位置253Bは、設定部28で更新する音源の位置座標である。設定部28は、フレームタイム毎に音源の位置座標を、音源位置テーブル253内の音源の位置253Bに書き込んで更新する。
設定部28は、音源の位置座標(Xs,Ys)を判断時間t経過後に利用者hの位置座標(Xh,Yh)に変える場合、音源S1と利用者hとの距離Dを判断時間tで除して得られる速度D/tで音源の位置を移動させる。設定部28は、音源の位置を1フレームタイム毎に距離d=(D/t)*tfだけ移動させる。
図14は、音源位置算出処理に関わる設定部28の処理動作の一例を示すフローチャートである。図14に示す音源位置算出処理は、音源が利用者hに近づくように、フレームタイム毎に、音源の位置座標を変化させる処理である。
図14において設定部28は、フレームタイムが経過したか否かを判定する(ステップS201)。設定部28は、フレームタイムが経過していない場合(ステップS201否定)、フレームタイムが経過したか否かを監視すべく、ステップ201に移行する。設定部28は、フレームタイムが経過した場合(ステップS201肯定)、音源の位置座標(Xs,Ys)、利用者の位置座標(Xh,Yh)、判断時間t及びフレームタイムtfを取得する(ステップS202)。次に、設定部28は、音源の新規の位置すなわちフレームタイムtf後の位置座標(Xs’,Ys’)を、以下の式(1)によって算出する(ステップS203)。
Xs’=Xs−(Xs−Xh)*(tf/t)
Ys’=Ys−(Ys−Yh)*(tf/t) …(1)
設定部28は、式(1)の算出結果で得た音源の位置座標を音源位置テーブル253内に書き込むことで音源位置を更新する(ステップS204)。音声制御部23は、判断中の音源ファイル251Fの案内音声を、更新された音源位置から出力する音響信号を生成する。その後、設定部28は、音源の位置座標が利用者の顔前の位置座標になったか否かを判定する(ステップS205)。設定部28は、音源の位置座標が利用者の顔前の位置座標になっていない場合(ステップS205否定)、フレームタイムが経過したか否かを監視すべく、ステップS201に移行する。設定部28は、音源の位置座標が利用者の顔前の位置座標になった場合(ステップS205肯定)、図14に示す処理動作を終了する。
図14に示す音源位置算出処理の設定部28は、フレームタイム毎に音源の位置座標を更新できるので、フレームタイム毎に音源が徐々に近付いて来るように判断中の音源ファイルの案内音声を利用者に提供する。その結果、利用者は、音声ARの実行を求める対象物として判断されるまでの判断時間の経過状況を認識できる。
実施例2の音声AR装置20Aは、フレームタイム毎に、注視先の物体の音源が徐々に近付いて来るように音源の位置座標を変え、その案内音声を利用者に提供する。そして、音声AR装置20Aは、最終的に、利用者の顔前に音源が定位するように、音源の位置を変える。その結果、利用者は、案内音声が徐々に近づいて来ることで判断時間の経過状況を認識できる。
しかも、音声AR装置20Aは、注視先の物体の音源を徐々に利用者に近付けることで判断時間の経過状況を利用者に知らせる。その結果、利用者は、判断時間が経過する前に音声ARをキャンセルできる時間を認識できる。
尚、上記実施例1及び2では、わき見状態を検出して注視先の物体を対象物と判断するまでの判断時間を減少方向に調整するようにしたが、わき見状態に限定されるものではなく、例えば歩行中に立ち止まるような行動もより強い注視行動と言える。そこで、このような注視行動を判断する判断時間を調整する実施の形態につき、実施例3として以下に説明する。
図15は、実施例3の音声ARシステムの一例を示すブロック図である。尚、図1に示す音声ARシステム1と同一の構成には同一符号を付すことで、その重複する構成及び動作の説明ついては省略する。図15に示す音響システム1Bが図1に示す音響システム1と異なる点は、端末装置10A内に行動検出部16を設け、注視検出部16が注視先の物体に対する注視行動を検出した場合、判断時間をより早く経過させるように判断時間を減少方向に調整した点にある。
注視行動としては、例えば、利用者が歩行状態から立ち止まって停止状態になる行動がある。この行動は、注視先とすべき物体をより詳しく確認しようとする場合に生じることが多い行動とも言える。この場合、行動検出部16は、例えば、利用者の歩数の変化や利用者の移動速度に基づき、歩行状態から立ち止まって停止状態になる行動を検出するものである。
また、注視行動としては、利用者が自分の手を自分の耳に近づける行動もある。自分の手を耳に近づける行動は、注視すべき物体について興味があり、耳を澄まして聴こうとする行動とも言える。この行動を検出する行動検出部16の実現方法としては、例えば、NFC(Near field communication)タグを手に取付け、NFCリーダをヘッドホン14の振動板付近に配置することで実現できる。そして、行動検出部16は、NFCリーダでNFCタグのIDが読み取られたことを検出すると、利用者が手を耳に近づけた行動として検出できる。
行動検出部16は、注視行動を検出した場合、通信インタフェース15を介して音声AR装置20B側に通知する。第1の判断部21は、利用者の注視行動が検出されると、進行方向以外の方向に位置する物体を利用者の注視先の物体と判断する。調整部24は、注視行動による注視先の物体と判断されると、通常の経過時間と角度θに基づく補正量の他に、注視行動に応じた補正時間tsを判断時間から減算する。
次に、実施例3の音声AR装置20Bの動作について説明する。図16は、判断時間調整処理に関わる音声AR装置20Bの処理動作の一例を示すフローチャートである。図16に示す判断時間更新処理は、利用者による注視行動が検出された場合に、判断時間を注視行動に応じた補正時間tsでさらに減算することで、その判断時間をさらに短くする処理である。
調整部24は、判断時間tから補正時間を減算して残り時間を算出し、残り時間を新たな判断時間としてエントリ内の判断時間252C内に更新した後(ステップS108)、利用者による注視行動が検出されたか否かを判定する(ステップS111)。調整部24は、利用者による注視行動が検出された場合(ステップS111肯定)、判断時間テーブル252の該当エントリの判断時間252C内の判断時間tから、注視行動に応じた補正時間tsをさらに減算する。そして、調整部24は、減算した判断時間を同じエントリ内の判断時間252C内に更新する(ステップS112)。つまり、調整部24は、注視行動が検出された場合、フレームタイムの経過回数に応じた通常の経過時間と角度θに基づく補正量とを加算した補正時間の他、さらに注視行動に応じた補正時間tsを判断時間から減算する。
調整部24は、ステップS112にて判断時間tを更新した後、判断時間tが0秒以下であるか否かを監視すべく、ステップS104に移行する。調整部24は、利用者による注視行動が検出されなかった場合(ステップS111否定)、ステップS104に移行する。
図16の判断時間更新処理の調整部24は、注視行動を検出した場合、注視行動に応じた補正時間tsを加えることで補正時間が増し、判断時間の減算量が増え、その判断時間を短くする。その結果、音声ARの実行を求める対象物を速やかに判断できる。
実施例3の音声AR装置20Bは、利用者による注視行動が検出された場合に、進行方向と顔の向きとの角度θに応じた補正量を含む補正時間の他に、注視行動に応じた補正時間tsも加え、その判断時間を減算する補正時間が増える。補正時間が増えることで判断時間の減算量も増えるため、その判断時間を短くできる。対象物を速やかに判断できる。しかも、利用者の前方不注意の状況が短くなり、利用者の利便性が増す。
また、音声AR装置20Bは、注視している物体を立ち止まって確認しようとする利用者の行動を注視行動として検出し、より多くの補正時間を判断時間から減算して判断時間を短くする。その結果、音声ARの実行を求める対象を速やかに判断できる。
さらに、音声AR装置20Bは、注視している物体の音を聴こうとする利用者の行動を注視行動として検出し、より多くの補正時間を判断時間から減算することにより、音声ARの実行を求める対象を速やかに判断できる。
尚、実施例3の音声AR装置20Bに、図11に示す設定部28及び音源位置テーブル253を内蔵し、注視先の物体を検出したタイミングから判断時間が経過するまでの経過状況を音源位置の変化で利用者に知らせるようにしても良い。この場合、利用者は、音声ARの実行を求める対象として判断されるまでの時間を把握することができ、利用者の利便性を高めることができる。
また、行動検出部16は、複数種類の行動、例えば、上記の歩行状態から立ち止まって停止状態になる行動と手を自分の耳に近づける行動との両方の行動を検出しても良い。行動検出部16が両方の行動を検出した場合、調整部24は、1種類の行動を検出した場合よりも補正時間を増加するようにしても良い。
ところで、利用者が同じ物体を継続して注視している場合でも、利用者の姿勢は、常にぴたりと止まっているとは限らない。したがって、利用者が進行方向を向いているつもりでも進行方向と顔の向きとが成す角度θにズレが生じる。そこで、音声AR装置20(20A,20B)では、角度θにズレがあっても利用者の進行方向と顔の方向とが一致していると扱うように誤差範囲を設け、角度θが誤差範囲内にある場合には当該角度θが0度と判断する機能を第1の判断部21に設けてもよい。
図17は、角度の誤差範囲の一例を示す説明図である。図17において、音声AR装置20は、利用者hの進行方向及び顔の向きが矢印YB1と同一で進行方向と顔の向きとが成す角度θが所定の角度±Δφの誤差範囲内にあるか否かを判定する。音声AR装置20は、顔の向きと進行方向とがなす角度θが0度でなくても進行方向を注視していると判断する。音声AR装置20は、角度θが誤差範囲内にない場合、利用者が進行方向を向いておらず、顔の向きが注視先であると判断する。
また、利用者hの位置座標(Xh,Yh)から利用者の進行方向(矢印YB1)を角度=0度とし、利用者の顔の向きを注視方向の角度φとした場合に、その角度から所定の角度±Δφの範囲を注視先範囲として設定してもよい。音声AR装置20の第1判断部21は、設定された角度±Δφの注視先範囲に応じて、利用者hの位置座標(Xh,Yh)及び顔の向き(矢印YB2の方向)に基づき、注視先範囲内の物体の位置座標を抽出する。
つまり、第1の判断部21は、注視方向の注視先範囲に物体の位置座標を抽出した場合、抽出された物体を注視先の物体と判断するため、注視方向が物体の存在する方向と完全に一致していなくても、その物体を注視先の物体と判断できる。
図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散又は統合して構成できる。
更に、各装置で行われる各種処理機能は、CPU(Central Processing Unit)(又はMPU(Micro Processing Unit)、MCU(Micro Control Unit)等のマイクロ・コンピュータ)上で、その全部又は任意の一部を実行するようにしても良い。また、各種処理機能は、CPU(又はMPU、MCU等のマイクロ・コンピュータ)で解析実行するプログラム上、又はワイヤードロジックによるハードウェア上で、その全部又は任意の一部を実行するようにしても良いことは言うまでもない。
ところで、本実施例で説明した各種の処理は、予め用意されたプログラムを情報処理装置で実行することでも実現できる。そこで、以下では、上記実施例と同様の機能を有するプログラムを実行する情報処理装置の一例を説明する。図18は、音響処理プログラムを実行する情報処理装置の一例について説明するための図である。
図18に示す音響処理プログラムを実行する情報処理装置100は、操作部101、ROM104、CPU105、RAM106、HDD107及び通信部108を有する。
そして、HDD107には、上記実施例と同様の機能を発揮する音響処理プログラムが予め記憶されている。尚、HDD107ではなく、ROM106に音響処理プログラムが記憶されていても良い。また、音響処理プログラムを記憶する記憶媒体としては、例えば、CD−ROM、DVD、USBメモリ、SDカード等の可搬型記憶媒体、フラッシュメモリ等の半導体メモリ等でも良い。音響処理プログラムは、図18に示すように、第1の判断プログラム117、第2の判断プログラム127、生成プログラム137及び調整プログラム147である。尚、これらのプログラム117,127,137及び147については、適宜統合又は分散しても良い。
CPU105は、これらのプログラム117,127,137及び147をHDD107から読出し、これら読出された各プロセスをRAM106上で実行する。そして、CPU105は、図18に示すように、各プログラム117,127,137及び147を、第1の判断プロセス116、第2の判断プロセス126、生成プロセス136及び調整プロセス147として機能させる。
CPU105は、利用者の進行方向と前記利用者の身体の向きとに基づき、前記利用者の周囲の物体の内、任意の物体を前記利用者の注視先の物体と判断する。CPU105は、前記注視先の物体と判断されたタイミングから所定の判断時間を経過した場合に、当該注視先の物体を対象物と判断する。CPU105は、前記注視先の物体が前記対象物と判断された場合に、前記対象物に対応した音源の音声を前記対象物の位置に関連付けて出力する音響信号を生成する。CPU105は、前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記所定の判断時間が経過するまでの残り時間を減少方向に調整する。その結果、立体音響による案内音声を求める対象物を速やかに判断できる。
以上、本実施例を含む実施の形態に関し、更に以下の付記を開示する。
(付記1)利用者の状態に基づき、前記利用者の周囲の物体の内、任意の物体を前記利用者の注視先の物体と判断する第1の判断部と、
前記注視先の物体と判断されたタイミングから所定の判断時間を経過した場合に、当該注視先の物体を対象物と判断する第2の判断部と、
前記注視先の物体が前記対象物と判断された場合に、前記対象物に対応した音源の音声を前記対象物の位置に関連付けて出力する音響信号を生成する生成部と、
前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記所定の判断時間が経過するまでの残り時間を減少方向に調整する調整部と
を有することを特徴とする音響装置。
(付記2)前記調整部は、
所定周期毎に前記残り時間を減少方向に調整し、当該調整した残り時間を新たな判断時間として設定し、
前記第2の判断部は、
前記調整部で設定された新たな判断時間を経過した場合に、前記注視先の物体を前記対象物と判断することを特徴とする付記1に記載の音響装置。
(付記3)前記第1の判断部が、前記利用者の進行方向と前記利用者の身体の向きとに基づき、前記任意の物体を前記利用者の注視先の物体と判断することを特徴とする付記1又は2に記載の音響装置。
(付記4)前記調整部は、
前記第1の判断部にて前記進行方向以外の方向に位置する物体を前記利用者の注視先の物体と判断された場合に、前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記残り時間を減少させることを特徴とする付記3に記載の音響装置。
(付記5)前記調整部は、
前記利用者の進行方向と前記利用者の身体の向きとが成す角度に基づき、前記残り時間を減少させることを特徴とする付記4に記載の音響装置。
(付記6)前記利用者の注視先の物体に対応した音源を仮想的に定位させる位置座標を設定する設定部
を有し、
前記設定部が、前記残り時間に合わせて注視先の物体に対応した音源が利用者に近づくように音源の位置座標を設定することを特徴とする付記1〜5の何れか一つに記載の音響装置。
(付記7)前記第1の判断部は、
前記利用者の注視行動が検出されると、前記進行方向以外の方向に位置する物体を前記利用者の注視先の物体と判断し、
前記調整部は、
前記第1の判断部にて前記利用者の注視行動による前記進行方向以外の方向に位置する物体を前記利用者の注視先の物体と判断された場合に、前記残り時間を更に減少させることを特徴とする付記1〜5の何れか一つに記載の音響装置。
(付記8)前記第1の判断部は、
前記利用者の前記進行方向への移動状態から停止状態になる行動を前記利用者の注視行動として検出することを特徴とする付記7に記載の音響装置。
(付記9)前記第1の判断部は、
前記利用者の手と当該利用者の耳との間の距離を所定距離よりも短くする行動を前記利用者の注視行動として検出することを特徴とする付記7に記載の音響装置。
(付記10)利用者の状態に基づき、前記利用者の周囲の物体の内、任意の物体を前記利用者の注視先の物体と判断する第1の判断部と、
前記注視先の物体と判断されたタイミングから所定の判断時間を経過した場合に、当該注視先の物体を対象物と判断する第2の判断部と、
前記注視先の物体が前記対象物と判断された場合に、前記対象物の位置から当該対象物に対応した音源の音声を出力する音響信号を生成する生成部と、
前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記所定の判断時間が経過するまでの残り時間を減少方向に調整する調整部と
を有することを特徴とする拡張現実音響装置。
(付記11)利用者が携帯する端末装置と、前記利用者の周囲の物体に対応した音源からの音声を含む音響信号を前記端末装置に提供する音響装置とを有し、
前記端末装置は、
前記利用者の状態を検出する検出部と、
前記音響信号を音響出力する音響出力部と
を有し、
前記音響装置は、
前記利用者の状態に基づき、前記利用者の周囲の物体の内、任意の物体を前記利用者の注視先の物体と判断する第1の判断部と、
前記注視先の物体と判断されたタイミングから所定の判断時間を経過した場合に、当該注視先の物体を対象物と判断する第2の判断部と、
前記注視先の物体が前記対象物と判断された場合に、前記対象物に対応した音源の音声を前記対象物の位置に関連付けて出力する音響信号を生成する生成部と、
前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記所定の判断時間が経過するまでの残り時間を減少方向に調整する調整部と
を有することを特徴とする音響システム。
(付記12)情報処理装置が、
利用者の状態に基づき、前記利用者の周囲の物体の内、任意の物体を前記利用者の注視先の物体と判断し、
前記注視先の物体と判断されたタイミングから所定の判断時間を経過した場合に、当該注視先の物体を対象物と判断し、
前記注視先の物体が前記対象物と判断された場合に、前記対象物に対応した音源の音声を前記対象物の位置に関連付けて出力する音響信号を生成し、
前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記所定の判断時間が経過するまでの残り時間を減少方向に調整する
処理を実行することを特徴とする音響処理方法。
(付記13)情報処理装置に、
利用者の状態に基づき、前記利用者の周囲の物体の内、任意の物体を前記利用者の注視先の物体と判断し、
前記注視先の物体と判断されたタイミングから所定の判断時間を経過した場合に、当該注視先の物体を対象物と判断し、
前記注視先の物体が前記対象物と判断された場合に、前記対象物に対応した音源の音声を前記対象物の位置に関連付けて出力する音響信号を生成し、
前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記所定の判断時間が経過するまでの残り時間を減少方向に調整する
処理を実行させることを特徴とする音響処理プログラム。
1、1A、1B 音声ARシステム
10、10A 端末装置
11 位置検出部
12 向き検出部
13 進行方向検出部
14 ヘッドホン
16 行動検出部
20、20A、20B 音声AR装置
21 第1の判断部
22 第2の判断部
23 音声制御部
24 調整部
25 記憶部
251 音源テーブル
252 判断時間テーブル
253 音源位置テーブル

Claims (10)

  1. 利用者の状態に基づき、前記利用者の周囲の物体の内、任意の物体を前記利用者の注視先の物体と判断する第1の判断部と、
    前記注視先の物体と判断されたタイミングから所定の判断時間を経過した場合に、当該注視先の物体を対象物と判断する第2の判断部と、
    前記注視先の物体が前記対象物と判断された場合に、前記対象物に対応した音源の音声を前記対象物の位置に関連付けて出力する音響信号を生成する生成部と、
    前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記所定の判断時間が経過するまでの残り時間を減少方向に調整する調整部と
    を有することを特徴とする音響装置。
  2. 前記調整部は、
    所定周期毎に前記残り時間を減少方向に調整し、当該調整した残り時間を新たな判断時間として設定し、
    前記第2の判断部は、
    前記調整部で設定された新たな判断時間を経過した場合に、前記注視先の物体を前記対象物と判断することを特徴とする請求項1に記載の音響装置。
  3. 前記第1の判断部が、前記利用者の進行方向と前記利用者の身体の向きとに基づき、前記任意の物体を前記利用者の注視先の物体と判断することを特徴とする請求項1又は2に記載の音響装置。
  4. 前記調整部は、
    前記第1の判断部にて前記進行方向以外の方向に位置する物体を前記利用者の注視先の物体と判断された場合に、前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記残り時間を減少させることを特徴とする請求項3に記載の音響装置。
  5. 前記調整部は、
    前記利用者の進行方向と前記利用者の身体の向きとが成す角度に基づき、前記残り時間を減少させることを特徴とする請求項4に記載の音響装置。
  6. 前記利用者の注視先の物体に対応した音源を仮想的に定位させる位置座標を設定する設定部
    を有し、
    前記設定部が、前記残り時間に合わせて注視先の物体に対応した音源が利用者に近づくように音源の位置座標を設定することを特徴とする請求項1〜5の何れか一つに記載の音響装置。
  7. 前記第1の判断部は、
    前記利用者の注視行動が検出されると、前記進行方向以外の方向に位置する物体を前記利用者の注視先の物体と判断し、
    前記調整部は、
    前記第1の判断部にて前記利用者の注視行動による前記進行方向以外の方向に位置する物体を前記利用者の注視先の物体と判断された場合に、前記残り時間を更に減少させることを特徴とする請求項1〜5の何れか一つに記載の音響装置。
  8. 利用者が携帯する端末装置と、前記利用者の周囲の物体に対応した音源からの音声を含む音響信号を前記端末装置に提供する音響装置とを有し、
    前記端末装置は、
    前記利用者の状態を検出する検出部と、
    前記音響信号を音響出力する音響出力部と
    を有し、
    前記音響装置は、
    前記利用者の状態に基づき、前記利用者の周囲の物体の内、任意の物体を前記利用者の注視先の物体と判断する第1の判断部と、
    前記注視先の物体と判断されたタイミングから所定の判断時間を経過した場合に、当該注視先の物体を対象物と判断する第2の判断部と、
    前記注視先の物体が前記対象物と判断された場合に、前記対象物に対応した音源の音声を前記対象物の位置に関連付けて出力する音響信号を生成する生成部と、
    前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記所定の判断時間が経過するまでの残り時間を減少方向に調整する調整部と
    を有することを特徴とする音響システム。
  9. 情報処理装置が、
    利用者の状態に基づき、前記利用者の周囲の物体の内、任意の物体を前記利用者の注視先の物体と判断し、
    前記注視先の物体と判断されたタイミングから所定の判断時間を経過した場合に、当該注視先の物体を対象物と判断し、
    前記注視先の物体が前記対象物と判断された場合に、前記対象物に対応した音源の音声を前記対象物の位置に関連付けて出力する音響信号を生成し、
    前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記所定の判断時間が経過するまでの残り時間を減少方向に調整する
    処理を実行することを特徴とする音響処理方法。
  10. 情報処理装置に、
    利用者の状態に基づき、前記利用者の周囲の物体の内、任意の物体を前記利用者の注視先の物体と判断し、
    前記注視先の物体と判断されたタイミングから所定の判断時間を経過した場合に、当該注視先の物体を対象物と判断し、
    前記注視先の物体が前記対象物と判断された場合に、前記対象物に対応した音源の音声を前記対象物の位置に関連付けて出力する音響信号を生成し、
    前記利用者の進行方向と前記利用者の身体の向きとの違いに基づき、前記所定の判断時間が経過するまでの残り時間を減少方向に調整する
    処理を実行させることを特徴とする音響処理プログラム。
JP2013215111A 2013-10-15 2013-10-15 音響装置、音響システム、音響処理方法及び音響処理プログラム Expired - Fee Related JP6201615B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013215111A JP6201615B2 (ja) 2013-10-15 2013-10-15 音響装置、音響システム、音響処理方法及び音響処理プログラム
US14/479,756 US9294863B2 (en) 2013-10-15 2014-09-08 Acoustic device, augmented reality acoustic device, acoustic system, acoustic processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013215111A JP6201615B2 (ja) 2013-10-15 2013-10-15 音響装置、音響システム、音響処理方法及び音響処理プログラム

Publications (2)

Publication Number Publication Date
JP2015079310A JP2015079310A (ja) 2015-04-23
JP6201615B2 true JP6201615B2 (ja) 2017-09-27

Family

ID=52809705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013215111A Expired - Fee Related JP6201615B2 (ja) 2013-10-15 2013-10-15 音響装置、音響システム、音響処理方法及び音響処理プログラム

Country Status (2)

Country Link
US (1) US9294863B2 (ja)
JP (1) JP6201615B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9663031B2 (en) * 2013-10-21 2017-05-30 Harman International Industries, Inc. Modifying an audio panorama to indicate the presence of danger or other events of interest
JP6263098B2 (ja) * 2014-07-15 2018-01-17 Kddi株式会社 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法
US10575117B2 (en) 2014-12-08 2020-02-25 Harman International Industries, Incorporated Directional sound modification
US11017793B2 (en) * 2015-12-18 2021-05-25 Dolby Laboratories Licensing Corporation Nuisance notification
CN117198277A (zh) * 2016-08-12 2023-12-08 奇跃公司 单词流注释
JP2018082308A (ja) * 2016-11-16 2018-05-24 ソニー株式会社 情報処理装置、方法及びプログラム
US20190200154A1 (en) * 2017-12-21 2019-06-27 Facebook, Inc. Systems and methods for audio-based augmented reality
US10783766B2 (en) * 2018-08-27 2020-09-22 Avaya Inc. Method and system for warning users of offensive behavior
JP7451235B2 (ja) * 2020-03-06 2024-03-18 キヤノン株式会社 撮像装置、制御方法、およびプログラム
JP7703181B2 (ja) * 2021-08-11 2025-07-07 株式会社ジェイテクト 情報提供システム、方法、及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11288341A (ja) * 1998-04-01 1999-10-19 Canon Inc ナビゲーション装置及び方法
JP4465880B2 (ja) 1998-10-09 2010-05-26 ソニー株式会社 通信装置及び方法
WO2001055833A1 (en) * 2000-01-28 2001-08-02 Lake Technology Limited Spatialized audio system for use in a geographical environment
JP2005309948A (ja) * 2004-04-23 2005-11-04 Yamaha Corp 情報提供装置
JP2005316704A (ja) 2004-04-28 2005-11-10 Sony Corp 周囲状況通知装置、周囲状況通知方法
JP2006277192A (ja) 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International 映像表示システム
JP6016322B2 (ja) * 2010-03-19 2016-10-26 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP5821307B2 (ja) * 2011-06-13 2015-11-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5800602B2 (ja) * 2011-06-29 2015-10-28 オリンパス株式会社 情報処理システム、携帯電子機器、プログラム及び情報記憶媒体
EP2774022B1 (en) * 2011-10-31 2018-07-18 Sony Mobile Communications Inc. Amplifying audio-visual data based on user's head orientation
US9129430B2 (en) * 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images

Also Published As

Publication number Publication date
US20150104049A1 (en) 2015-04-16
JP2015079310A (ja) 2015-04-23
US9294863B2 (en) 2016-03-22

Similar Documents

Publication Publication Date Title
JP6201615B2 (ja) 音響装置、音響システム、音響処理方法及び音響処理プログラム
US11647352B2 (en) Head to headset rotation transform estimation for head pose tracking in spatial audio applications
US11265670B2 (en) Coordinated tracking for binaural audio rendering
US11586280B2 (en) Head motion prediction for spatial audio applications
US11589183B2 (en) Inertially stable virtual auditory space for spatial audio applications
US10880670B2 (en) Systems and methods for determining estimated head orientation and position with ear pieces
US12108237B2 (en) Head tracking correlated motion detection for spatial audio applications
CN107465974B (zh) 声音信号检测器
US9826297B2 (en) Accessory device that provides sensor input to a media device
US9622013B2 (en) Directional sound modification
KR102192361B1 (ko) 머리 움직임을 이용한 사용자 인터페이스 방법 및 장치
US9113246B2 (en) Automated left-right headphone earpiece identifier
JP2020024744A (ja) 情報処理装置、情報処理方法、及び、プログラム
US20170111740A1 (en) 3D Sound Field Using Bilateral Earpieces System and Method
WO2013147791A1 (en) Audio control based on orientation
US9774978B2 (en) Position determination apparatus, audio apparatus, position determination method, and program
JP2015076797A (ja) 空間情報提示装置、空間情報提示方法及び空間情報提示用コンピュータプログラム
JP2017138277A (ja) 音声ナビゲーションシステム
US20220082688A1 (en) Methods and systems for determining position and orientation of a device using acoustic beacons
US20170064485A1 (en) Method and device for playing 3d sound
CN105282642A (zh) 耳机及其声道控制方法
US20240430636A1 (en) Audio augmented reality object playback device and audio augmented reality object playback method
WO2021125081A1 (ja) 情報処理装置、制御方法及び非一時的なコンピュータ可読媒体
US20250126431A1 (en) Information processing apparatus, information processing method, and program
US12309574B2 (en) Spatial audio adjustment for an audio device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160705

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170726

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170814

R150 Certificate of patent or registration of utility model

Ref document number: 6201615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees